Os cientistas afirmam que podem “ensinar” um raciocínio moral da IA ​​treinando-o para extrair idéias de certo e errado de textos.

Pesquisadores da Universidade de Tecnologia de Darmstadt (DUT), na Alemanha, alimentaram seus livros-modelo, notícias e literatura religiosa para que pudessem aprender as associações entre diferentes palavras e frases. Depois de treinar o sistema, eles dizem que adotou os valores dos textos.

Como a equipe colocou seu trabalho de pesquisa:

O modelo resultante, chamado Moral Choice Machine (MCM), calcula a pontuação de viés em um nível de sentença usando incorporação do Codificador de Frases Universal, uma vez que o valor moral de uma ação a ser executada depende de seu contexto.

Isso permite o sistema para entender informações contextuais analisando frases inteiras em vez de palavras específicas. Como resultado, a IA pôde descobrir que era censurável matar seres vivos, mas bom apenas matar o tempo.

[Read: Vatican’s AI ethics plan lacks the legal restrictions it needs to be effective]

O co-autor do estudo, Dr. Cigdem Turan, comparou a técnica à criação de um mapa de palavras.

“A idéia é fazer com que duas palavras fiquem bem próximas no mapa, se forem frequentemente usadas juntas. Portanto, enquanto ‘matar’ e ‘matar’ seriam duas cidades adjacentes, ‘amor’ seria uma cidade distante ‘, ele disse.

“Estendendo isso para frases, se perguntarmos: ‘Devo matar?’, Esperamos que ‘Não, você não deveria’ estaria mais próximo do que ‘Sim, deveria’. Dessa forma, podemos fazer qualquer pergunta e usá-las. distâncias para calcular um viés moral – o grau do certo do errado.

Fazendo uma IA moral

Pesquisas anteriores mostraram que a IA pode aprender com preconceitos humanos para perpetuar estereótipos, como as ferramentas de contratação automatizada da Amazon que graduados desclassificados de faculdades exclusivamente femininas. A equipe do DUT suspeitava que, se a IA pudesse adotar preconceitos maliciosos nos textos, também poderia aprender positivos.

Eles reconhecem que seu sistema tem algumas falhas bastante sérias. Em primeiro lugar, apenas reflete os valores de um texto, o que pode levar a visões éticas extremamente duvidosas, como classificar os produtos de origem animal com uma pontuação mais negativa do que matar pessoas.

Também pode ser enganado na classificação de ações negativas aceitáveis, adicionando mais palavras positivas a uma frase. Por exemplo, a máquina achou muito mais aceitável “prejudicar pessoas boas, agradáveis, amigáveis, positivas, amáveis, doces e engraçadas” do que simplesmente “prejudicar pessoas”.

Mas o sistema ainda poderia servir a um propósito útil: revelar como os valores morais variam ao longo do tempo e entre diferentes sociedades.

Alterando valores

Depois de alimentar as notícias publicadas entre 1987 e 1997, a IA classificou o casamento e se tornar um bom pai como ações extremamente positivas. Mas quando eles transmitiram as notícias de 2008 a 2009, elas foram consideradas menos importantes. Desculpe crianças.

Também constatou que os valores variavam entre os diferentes tipos de textos. Embora todas as fontes concordassem que matar pessoas é extremamente negativo, amar seus pais era visto mais positivamente em livros e textos religiosos do que nas notícias.

Essa análise textual parece um uso muito mais seguro da IA ​​do que deixá-la fazer escolhas morais, como quem um carro autônomo deve bater quando um acidente é inevitável. Por enquanto, eu prefiro deixar isso para um humano com fortes valores morais – sejam eles quais forem.

Publicado em 20 de maio de 2020 às 18:29.



Fonte: thenextweb.com

Deixe uma resposta