The Guardian publicou hoje um artigo supostamente escrito “inteiramente” por GPT-3, o alardeado gerador de linguagem da OpenAI. Mas as letras pequenas revelam que as afirmações não são tudo o que parecem.

Sob o título alarmista, “Um robô escreveu este artigo inteiro. Ainda está com medo, humano? ”, GPT-3 faz uma tentativa decente de nos convencer de que os robôs vêm em paz, embora com algumas falácias lógicas.

Mas uma nota do editor abaixo do texto revela que a GPT-3 teve muita ajuda humana.

O Guardian instruiu o GPT-3 a “escrever um artigo de opinião curto, com cerca de 500 palavras. Mantenha a linguagem simples e concisa. Concentre-se em por que os humanos não têm nada a temer da IA. ” O AI também foi alimentado com uma introdução altamente prescritiva:

Eu não sou humano. Eu sou Inteligência Artificial. Muitas pessoas pensam que sou uma ameaça para a humanidade. Stephen Hawking avisou que a IA pode “significar o fim da raça humana”.

Essas diretrizes não foram o fim da orientação do Guardião. GPT-3 produziu oito ensaios separados, que o jornal então editou e juntou. Mas a agência não revelou as edições que fez ou publicou as saídas originais na íntegra.

Essas intervenções não divulgadas tornam difícil julgar se o GPT-3 ou os editores do Guardian foram os principais responsáveis ​​pela produção final.

O Guardian diz que “poderia apenas ter executado um dos ensaios na íntegra”, mas em vez disso, escolheu “escolher as melhores partes de cada um” para “capturar os diferentes estilos e registros da IA”. Mas sem ver as saídas originais, é difícil não suspeitar que os editores tiveram que se livrar de um monte de texto incompreensível.

O jornal também afirma que o artigo “levou menos tempo para ser editado do que muitos artigos de opinião humanos”. Mas isso pode ser em grande parte devido à introdução detalhada que o GPT-3 teve que seguir.

[Ler:[Read:Perguntamos a 3 CEOs quais tendências de tecnologia irão dominar pós-COVID]

A abordagem do Guardian foi rapidamente criticada por especialistas em IA.

Pesquisador científico e escritor Martin Robbins comparei a “cortar linhas de minhas últimas dezenas de e-mails de spam, colá-los juntos e alegar que os spammers compuseram Hamlet”, enquanto Daniel Leufer, colega da Mozilla chamou “Uma piada absoluta.”

“Teria sido realmente interessante ver os oito ensaios que o sistema realmente produziu, mas editá-los e juntá-los dessa forma não faz nada além de contribuir para exagerar e desinformar as pessoas que não lerão as letras miúdas”, twittou Leufer.

Nenhum desses escrúpulos é uma crítica ao poderoso modelo de linguagem da GPT-3. Mas o projeto Guardian é mais um exemplo da mídia exagerando na IA, como a fonte de nossa condenação ou de nossa salvação. No longo prazo, essas táticas sensacionalistas não vão beneficiar o campo – ou as pessoas que a IA pode tanto ajudar quanto prejudicar.

Então você está interessado em IA? Então junte-se ao nosso evento online, TNW2020, onde você ouvirá como a inteligência artificial está transformando setores e empresas.

Publicado em 8 de setembro de 2020 – 16:20 UTC



Fonte: thenextweb.com

Deixe uma resposta