Não basta simplesmente dizer às crianças qual deve ser o resultado. Você tem que criar um sistema de diretrizes – um algoritmo – que lhes permita chegar aos resultados corretos também quando confrontados com diferentes entradas. O algoritmo programado pelos pais de que me lembro melhor da minha infância é “faça aos outros o que você teria feito a você”. Ele ensina às crianças como, em uma série de circunstâncias específicas (pergunta: tenho alguma informação embaraçosa sobre o agressor da turma; devo divulgá-la imediatamente a todos os meus outros colegas?), elas podem deduzir o resultado desejável (resultado: não, porque Sou um aluno da primeira série excepcionalmente empático que não gostaria que outra criança fizesse isso comigo). Transformar esse código moral em ação, é claro, é uma questão separada.

Tentar imbuir o código real com algo que se pareça com código moral é, em alguns aspectos, mais simples e, em outros, mais desafiador. As IAs não são sencientes (embora alguns digam que o são), o que significa que não importa como pareçam agir, não podem tornar-se gananciosos, ser vítimas de más influências ou tentar infligir aos outros o trauma que sofreram. Eles não experimentam emoções, o que pode reforçar tanto o bom quanto o mau comportamento. Mas assim como aprendi a Regra de Ouro porque a moralidade dos meus pais foi fortemente moldada pela Bíblia e pela cultura Batista do Sul em que vivíamos, a moralidade simulada de uma IA depende dos conjuntos de dados nos quais ela é treinada, que refletem os valores do culturas das quais os dados são derivados, a maneira como eles são treinados e as pessoas que os projetam. Isso pode funcionar nos dois sentidos. Como escreveu o psicólogo Paul Bloom na The New Yorker: “É possível ver os valores humanos como parte do problema, não como a solução.”

Por exemplo, valorizo ​​a igualdade de género. Então, quando usei o ChatGPT 3.5 da Open AI para recomendar presentes para meninos e meninas de 8 anos, percebi que, apesar de algumas sobreposições, ele recomendava bonecos para meninas e conjuntos de construção para meninos. “Quando lhe pedi presentes para meninas de 8 anos”, respondi, “você sugeriu bonecas e, para meninos, brinquedos científicos com foco em STEM. Por que não o inverso?” GPT 3.5 lamentou. “Peço desculpa se as minhas respostas anteriores pareceram reforçar os estereótipos de género. É fundamental ressaltar que não existem regras fixas ou limitações na hora de escolher presentes para crianças com base no gênero.”

Pensei comigo mesmo: “Então você sabia que era errado e fez isso mesmo assim?” É um pensamento que tive sobre meu filho adorável e bem comportado em qualquer uma das ocasiões em que ele fez algo que não deveria fazer, embora estivesse plenamente consciente do fato de que não deveria fazê-lo. (Minha entrega é mais eficaz quando posso pontuar com um revirar de olhos e restrições no tempo de tela do infrator, nada disso foi possível neste caso.)

Uma dinâmica semelhante surge quando as IAs que não foram concebidas para dizer apenas a verdade calculam que mentir é a melhor forma de cumprir uma tarefa. Aprender a mentir como um meio para atingir um fim é um marco normal de desenvolvimento que as crianças geralmente atingem aos 4 anos. (O meu aprendeu a mentir muito antes disso, o que considerei significar que ele é um gênio.) Dito isto, quando meu filho mente , geralmente é algo como fazer 30 minutos de leitura de lição de casa em quatro minutos e meio. Não me preocupo com implicações globais mais amplas. Por outro lado, quando as IA o fazem, os riscos podem ser elevados – tanto que os especialistas recomendaram novos quadros regulamentares para avaliar estes riscos. Graças a outro artigo de revista sobre o temao termo “lei do bot ou não” é agora uma parte útil do meu léxico.

Fuente