Uma equipe de cientistas da computação usou cálculos teóricos para argumentar que os algoritmos não podiam controlar uma IA superinteligente.

O estudo deles aborda o que o filósofo de Oxford Nick Bostrom chamadas o problema do controle: como podemos garantir que as máquinas de superinteligência ajam em nossos interesses?

Os pesquisadores conceberam um algoritmo de contenção teórica que resolveria esse problema simulando o comportamento da IA ​​e interrompendo o programa se suas ações se tornassem prejudiciais.

Mas sua análise descobriu que seria fundamentalmente impossível construir um algoritmo que pudesse controlar tal máquina, disse Iyad Rahwan, Diretor do Center for Humans and Machines:

Se você dividir o problema em regras básicas da ciência da computação teórica, descobre-se que um algoritmo que comandaria uma IA para não destruir o mundo poderia inadvertidamente interromper suas próprias operações. Se isso acontecer, você não saberá se o algoritmo de contenção ainda está analisando a ameaça ou se parou para conter a IA prejudicial. Na verdade, isso torna o algoritmo de contenção inutilizável.

[Read: Meet the 4 scale-ups using data to save the planet]

O estudo descobriu que nenhum algoritmo pode calcular se uma IA prejudicaria o mundo, devido aos limites fundamentais da computação:

Assumindo que uma superinteligência conterá um programa que inclui todos os programas que podem ser executados por uma máquina de Turing universal em entradas potencialmente tão complexas quanto o estado do mundo, a contenção estrita requer simulações de tal programa, algo teoricamente (e praticamente) impossível .

Este tipo de IA permanece confinado ao reino da fantasia – por enquanto. Mas os pesquisadores observam que a tecnologia está avançando em direção ao tipo de sistema superinteligente imaginado pelos escritores de ficção científica.

“Já existem máquinas que realizam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como as aprenderam”, disse o coautor do estudo Manuel Cebrian, do Instituto Max Planck para o Desenvolvimento Humano.

“Portanto, surge a questão de saber se isso poderia, em algum momento, se tornar incontrolável e perigoso para a humanidade.”

Você pode ler o papel de estudo dentro a Journal of Artificial Intelligence Pesquisa.

Publicado em 12 de janeiro de 2021 – 18:40 UTC



Fonte: thenextweb.com

Deixe uma resposta