Mostre-me uma máquina humana e mostrarei uma peça com defeito na tecnologia. O mercado de IA deve eclipsar US $ 300 bilhões até 2025. E a grande maioria das empresas que tentam lucrar com essa bonança está comercializando alguma forma de IA “humana”. Talvez seja hora de reconsiderar essa abordagem.

A grande idéia é que a IA humana é uma atualização. Computadores calculam, mas a IA pode aprender. Infelizmente, os humanos não são muito bons nos tipos de tarefas que um computador faz sentido e a IA não é muito boa nos tipos de tarefas que os humanos são. É por isso que os pesquisadores estão se afastando dos paradigmas de desenvolvimento que se concentram em imitar a cognição humana.

Recentemente, um par de pesquisadores da NYU mergulhou profundamente em como humanos e IA processam palavras e significados de palavras. Através do estudo da “semântica psicológica”, a dupla esperava explicar as deficiências dos sistemas de aprendizado de máquina no domínio do processamento de linguagem natural (PNL). De acordo com um estudo eles publicaram no arXiv:

Muitos pesquisadores de IA não se preocupam se seus modelos são semelhantes aos humanos. Se alguém pudesse desenvolver um sistema de tradução automática altamente preciso, poucos se queixariam de que não faz as coisas da mesma maneira que os tradutores humanos.

No campo da tradução, os humanos têm várias técnicas por manter vários idiomas em suas cabeças e fazer uma interface fluida entre eles. As máquinas, por outro lado, não precisam entender o que uma palavra significa para atribuir a tradução apropriada a ela.

Isso fica complicado quando você se aproxima da precisão no nível humano. Traduzir um, dois e três para o espanhol é relativamente simples. A máquina aprende que eles são exatamente equivalentes a uno, dos e tres, e provavelmente acertará 100% do tempo. Mas quando você adiciona conceitos complexos, palavras com mais de um significado e gírias ou palavras coloquiais podem se tornar complexas.

Começamos a entrar no vale misterioso da AI quando os desenvolvedores tentam criar algoritmos de tradução que podem lidar com tudo e qualquer coisa. Assim como fazer algumas aulas de espanhol não ensinará a humanos toda a gíria que eles podem encontrar na Cidade do México, a IA luta para acompanhar um léxico humano em constante mudança.

PNL simplesmente não é capaz de ser humano conhecimento ainda e fazê-lo exibir como humano comportamento seria ridículo – imagine se o Google Translate recusasse uma solicitação porque achou a palavra “úmido” desagradável, por exemplo.

Essa linha de pensamento não é reservada apenas para a PNL. Fazer a IA parecer mais humana é apenas uma decisão de design para a maioria projetos de aprendizado de máquina. Como os pesquisadores da NYU colocaram em seu estudo:

Uma maneira de pensar sobre esse progresso é meramente em termos de engenharia: há um trabalho a ser feito e, se o sistema fizer isso suficientemente bem, será bem-sucedido. A engenharia é importante e pode resultar em um desempenho melhor e mais rápido e aliviar os humanos de trabalho monótono, como digitar respostas ou fazer itinerários de companhias aéreas ou comprar meias.

Do ponto de vista da engenharia, a maioria dos trabalhos humanos pode ser dividida em tarefas individuais que seriam mais adequadas para automação do que a IA, e nos casos em que redes neurais seriam necessárias – direcionando o tráfego em uma porta de embarque, por exemplo – é difícil imaginar um caso de uso em que uma IA geral superaria vários sistemas estreitos e específicos de tarefas.

Considere carros autônomos. Faz mais sentido construir um veículo composto por vários sistemas que funcionam juntos, em vez de projetar um robô humanóide que pode caminhar até, destrancar, entrar, iniciar e dirigir um automóvel tradicional.

Na maioria das vezes, quando os desenvolvedores afirmam ter criado uma IA “humana”, o que eles querem dizer é que eles automatizaram uma tarefa para a qual os humanos costumam ser empregados. O software de reconhecimento facial, por exemplo, pode substituir um guarda de portão humano, mas não pode dizer o quão boa é a pizza no restaurante local mais adiante.

Isso significa que o nível de inteligência artificial é muito baixo quando se trata de “ser humano”. Alexa e Siri fazem uma imitação humana bastante boa. Eles têm nomes e vozes e foram programados para parecer úteis, engraçados, amigáveis ​​e educados.

Mas não existe uma função que um alto-falante inteligente execute, pois não poderia ser melhor manipulado por um botão. Se você tivesse um espaço infinito e uma atenção infinita, poderia usar botões para tudo e qualquer coisa que um alto-falante inteligente pudesse fazer. Alguém pode dizer “Jogue Mariah Carey”, enquanto outro diz “Conte-me uma piada”. O ponto é que o Alexa é tão humano quanto um controle remoto gigante.

A IA não é como humanos. Podemos estar décadas ou mais distantes de uma IA geral que possa intuir e funcionar em nível humano em qualquer domínio. Os mordomos de robôs estão muito longe. Por enquanto, o melhor desenvolvedor de IA pode fazer é imitar esforço humano, e isso raramente é tão útil quanto simplificar um processo para algo facilmente automatizado.

6 de agosto de 2020 – 22:35 UTC



Fonte: thenextweb.com

Deixe uma resposta