A inteligência artificial pode ser a ferramenta mais poderosa que os humanos têm. Quando aplicada adequadamente a um problema adequado, a IA permite que os humanos façam coisas surpreendentes. Podemos diagnosticar o câncer rapidamente ou dar voz a quem não consegue falar, simplesmente aplicando o algoritmo correto da maneira correta.

Mas a IA não é uma panacéia ou cura para todos. De fato, quando aplicado incorretamente, é um óleo de cobra perigoso que deve ser evitado a todo custo. Para esse fim, apresento seis tipos de IA que acredito que os desenvolvedores éticos devem evitar.

Primeiro, porém, uma breve explicação. Não estou julgando a intenção do desenvolvedor ou debatendo o principal raciocínio por trás do desenvolvimento desses sistemas, mas reconhecendo seis áreas em que a IA não pode proporcionar um benefício aos seres humanos e é provável que nos prejudique.

Não incluo tecnologia militar, como armas autônomas ou sistemas de segmentação com IA, porque precisamos de debate sobre essas tecnologias. E também deixamos intencionalmente “tecnologias de faca” fora desta lista. São técnicos como o DeepFakes, que podem ser usados ​​para o bem e para o mal, como uma faca para cortar legumes ou esfaquear pessoas.

Em vez disso, concentrei-me nas tecnologias que distorcem o próprio problema que pretendem resolver. Vamos começar com os frutos baixos: criminalidade e punição.

Criminalidade

AI não podes determine a probabilidade de um determinado indivíduo, grupo de pessoas ou população específica cometer um crime. Nem humanos nem máquinas são psíquicos.

[[Relacionado: O policiamento preditivo é uma fraude maior do que os detetives psíquicos]

O policiamento preditivo é racista. Ele usa dados históricos para prever onde o crime é mais provável de ocorrer com base em tendências passadas. Se a polícia visitar um bairro específico com mais frequência do que outros e prender pessoas naquele bairro regularmente, uma IA treinada com dados dessa área geográfica determinará que é mais provável que ocorra crime naquele bairro do que outros.

Coloque uma outra perspectiva: se você compra exclusivamente papel higiênico no Wal Mart e nunca comprou papel higiênico da Amazon, é mais provável que associe papel higiênico ao Wal Mart do que a Amazon. Isso não significa que há mais papel higiênico no Wal Mart.

A IA que tenta prever criminalidade é fundamentalmente falha porque a grande maioria dos crimes passa despercebida. Os desenvolvedores estão basicamente criando máquinas que validam o que os policiais já fizeram. Eles não prevêem o crime, apenas reforçam a falsa ideia de que o policiamento excessivo de bairros de baixa renda reduz o crime. Isso faz a polícia parecer bem.

Mas na verdade não indica quais indivíduos em uma sociedade provavelmente cometerão um crime. Na verdade, na melhor das hipóteses, apenas fica de olho naqueles que já foram capturados. Na pior das hipóteses, esses sistemas são os melhores amigos de um criminoso. Quanto mais forem usados, mais provável será o crime perpetrar em áreas onde a presença da polícia é tradicionalmente baixa.

Punição

Os algoritmos não podem determinar a probabilidade de um ser humano cometer um crime novamente depois de ser condenado por um crime anterior. Veja acima, os médiuns não existem. O que uma máquina pode fazer é obter registros históricos de sentenças e chegar à solução matematicamente sensata de que as pessoas mais punidas tendem a ser as mais reincidentes e, portanto, indicam falsamente que os negros devem ter mais chances de cometer crimes do que os brancos.

É exatamente isso que acontece quando os desenvolvedores usam os dados incorretos para um problema. Se você deveria adicionar 2 + 2, não há utilidade para uma maçã em sua equação. Nesse caso, o que isso significa é que dados históricos de pessoas que cometeram crimes após a liberação do sistema judicial não são relevantes para se ou não um indivíduo específico seguirá o exemplo.

[[Leia: Por que o sistema de justiça criminal deve abandonar algoritmos]

As pessoas não são motivadas a cometer crimes porque os estranhos que nunca conheceram foram motivados a cometer crimes após serem libertados da custódia. Essas informações, como a população em geral responde à libertação do encarceramento, são úteis para determinar se nosso sistema judiciário está realmente reabilitando pessoas ou não, mas não é possível determinar a probabilidade de um “homem negro de 32 anos, Boston, primeira ofensa” cometer um crime. crime pós-condenação.

Nenhuma quantidade de dados pode realmente prever se um humano cometerá um crime. É importante entender isso, porque você não pode prender, prender ou traumatizar uma pessoa que foi presa, encarcerada ou sentenciada injustamente com base em evidências errôneas geradas a partir de um algoritmo.

Gênero

Aqui está uma divertida. Uma empresa recentemente desenvolveu um algoritmo que supostamente poderia determinar o sexo de alguém a partir do nome, endereço de email ou identificador de mídia social. Claro, e eu tenho um algoritmo que faz seu cocô cheirar a Jolly Ranchers de melancia (nota: não. Isso é sarcasmo. Não me envie um e-mail.)

A IA não pode determinar o sexo de uma pessoa a partir de outra coisa que não a descrição explícita dessa pessoa. Por quê? Você verá um tema se desenvolvendo aqui: porque os paranormais não existem.

Os humanos não podem olhar para outros humanos e determinar seu sexo. Podemos adivinhar e geralmente estamos corretos, mas vamos fazer um experimento rápido:

Se você alinhou todos os humanos do planeta e olhou para seus rostos para determinar se eles eram “homens” ou “mulheres”, quantas você erraria? Você acha que uma IA é melhor na determinação do gênero humano nos casos marginais em que nem você, uma pessoa que sabe ler e tudo mais, consegue acertar? Você pode dizer a uma pessoa intersexuais pelo rosto? Você pode sempre dizer que sexo alguém foi designado ao nascer olhando para o rosto deles? E se forem negros ou asiáticos?

Vamos simplificar: mesmo que seu doutorado esteja em estudos de gênero e você tenha estudado IA com Ian Goodfellow, não é possível construir uma máquina que entenda rapidamente o gênero, porque os próprios humanos não. Você não pode dizer o sexo de todas as pessoas, o que significa que sua máquina irá errar. Não há domínios em que seres humanos com erros de gênero sejam benéficos, mas há inúmeros domínios em que isso causará danos diretos aos seres humanos que foram mal interpretados.

Qualquer ferramenta que tente prever o gênero humano com base em dados estranhos não tem outra utilidade senão como uma arma contra as comunidades transgêneros, não binárias e intersexuais.

Sexualidade

Falando em sistemas de IA perigosos que não têm possível caso de uso positivo: Gaydar está entre as idéias mais ofensivas do mundo do aprendizado de máquina.

A inteligência artificial não pode prever a sexualidade de uma pessoa porque, você adivinhou: os paranormais não existem. Os humanos não podem dizer se outros humanos são gays ou heterossexuais, a menos que o assunto do escrutínio indique expressamente exatamente qual é sua sexualidade.

[[Leia: O Stanford Gaydar é besteira]

Apesar da insistência de vários membros das multidões sou heterossexual e homossexual, a sexualidade humana é muito mais complexa do que nascermos com cara de gay ou não, porque nossas mães nos deram hormônios diferentes ou se são adversos a encontros sexuais heterossexuais porque … seja o que for que as pessoas heterossexuais achem que gays gays hoje em dia.

No ano de 2020, alguns cientistas ainda estão debatendo se existem homens bissexuais. Como pansexual de fora, não posso deixar de me perguntar se eles debaterão minha existência em mais 20 ou 30 anos quando perceberem que “gay e heterossexual” como conceitos binários foram desatualizados no campo da vida humana. psicologia e sexualidade desde os anos 50. Mas eu discordo.

Você não pode construir uma máquina que prevê a sexualidade humana porque a sexualidade humana é uma construção social. Veja como você pode chegar à mesma conclusão por conta própria:

Imagine uma pessoa de 30 anos que nunca fez sexo ou foi romanticamente atraída por alguém. Agora imagine que eles fantasiam sobre sexo com mulheres. Um dia depois, eles fazem sexo com um homem. Agora eles fantasiam sobre homens. Um dia depois, eles fazem sexo com uma mulher. Agora eles fantasiam sobre os dois. Depois de um mês, eles não fizeram sexo novamente e pararam de fantasiar. Eles nunca mais fazem sexo ou se sentem romanticamente inclinados a outra pessoa. Eles são gays, heterossexuais ou bissexuais? Assexual? Pansexual?

Isso não depende de você ou de nenhum robô para decidir. Pensar em sexo explica alguma parte da sua sexualidade? Ou você é “hetero até fazer coisas gays?” Quanto material gay alguém tem que fazer antes de ser gay? Se você parar de fazer coisas gays, poderá ser hetero de novo?

A própria idéia de que um especialista em ciência da computação escreverá um algoritmo que pode resolver isso para qualquer um é ridícula. E é perigoso.

Não existe um bem concebível que possa vir da Gaydar AI. Seu único uso é como uma ferramenta para discriminação.

Inteligência

A IA não pode determinar quão inteligente é uma pessoa. Vou virar o script aqui porque isso não tem nada a ver com ser psíquico. Quando a IA tenta prever a inteligência humana, está realizando prestidigitação. Está fazendo um truque de mágica e, como qualquer boa ilusão, não há substância real para isso.

Não podemos conhecer a inteligência de uma pessoa a menos que a testemos e, mesmo assim, não existe um método universalmente reconhecido para medir a inteligência humana pura. Os testes podem ser tendenciosos, especialistas contestam quais são as melhores perguntas e ninguém sabe como lidar com humanos hiperinteligentes com transtornos mentais. Descobrir o quão inteligente é uma pessoa não pode ser resolvido por alguns algoritmos.

Então, o que esses sistemas de IA fazem? Eles buscam evidências de inteligência comparando os dados fornecidos sobre uma pessoa a qualquer modelo de inteligência que os desenvolvedores tenham apresentado. Por exemplo, eles podem determinar que uma pessoa inteligente não usa palavrões com tanta frequência quanto uma pessoa não inteligente. Nesse caso, Dane Cook seria considerado mais inteligente que George Carlin.

Essa é uma maneira cômica de encarar, mas a verdade é que não há um caso de uso positivo para um robô que declare arbitrariamente um ser humano mais inteligente que outro. Mas existem muitas maneiras pelas quais esses sistemas podem ser usados ​​para discriminar.

Potencial

Ah sim, potencial humano. Aqui, quero me concentrar nos algoritmos de contratação, mas isso se aplica a qualquer sistema de IA projetado para determinar quais seres humanos, fora de um pool, têm mais probabilidade de ter sucesso em uma tarefa, trabalho, dever ou posição do que outros.

A maioria das grandes empresas, de uma forma ou de outra, usa a IA no processo de contratação. Esses sistemas são quase sempre tendenciosos, discriminatório e antiético. Nos raros casos em que não são, é onde eles procuram uma qualificação específica e expressa.

Se você projetar uma IA para rastrear milhares de solicitações de emprego para “aqueles que atendem ao requisito mínimo de um diploma universitário em ciência da computação” sem outros parâmetros … bem, você poderia ter feito isso mais rápido e mais barato com um sistema não-AI… mas Eu acho que isso não seria discriminatório.

Caso contrário, não há mérito no desenvolvimento de sistemas de contratação de IA. Todos os dados nos quais eles são treinados são parcial ou inútil. Se você usa dados com base em candidatos bem-sucedidos anteriores ou em todo o setor, está entrincheirando o status quo e intencionalmente evitando a diversidade.

Os piores sistemas, no entanto, são os que supostamente medem a “inteligência emocional” de um candidato ou o quão bom ele será. Os sistemas de IA que analisam aplicativos e currículos para palavras-chave “positivas” e palavras-chave “negativas”, bem como sistemas de vídeo que usam “reconhecimento emocional” para determinar os melhores candidatos, são todos inerentemente tendenciosos, e quase todos eles são racistas, sexista, idade e capaz.

A IA não pode determinar o melhor candidato humano para um emprego, porque as pessoas não são conceitos estáticos. Você não pode enviar um humano ou uma máquina para a loja para comprar um ajuste de RH perfeito. O que esses sistemas fazem é lembrar a todos que, tradicionalmente, homens brancos heterossexuais, saudáveis ​​e com menos de 55 anos é o que a maioria das empresas nos EUA e na Europa contrata, por isso é considerado uma aposta segura continuar fazendo isso.

E aí está, seis áreas incrivelmente populares de desenvolvimento de IA – eu estimaria que existem centenas de startups trabalhando apenas em algoritmos de policiamento preditivo e contratação – que devem ser colocadas em qualquer desenvolvedor ético não desenvolva Lista.

Não porque eles poderia ser usado para o mal, mas porque eles não podes ser usado para o bem. Cada um desses seis paradigmas da IA ​​é unido por subterfúgios. Eles pretendem resolver um problema insolúvel com inteligência artificial e, em seguida, fornecem uma solução que nada mais é do que alquimia.

Além disso, em todas as seis categorias, o fator vinculativo é que eles são medidos por uma porcentagem arbitrária que, de certa forma, indica quão “próximos” estão do “nível humano”. Mas “nível humano” em cada um desses seis domínios significa “nosso melhor palpite”.

Nosso melhor palpite é Nunca bom o suficiente quando o “problema” que estamos resolvendo é se um ser humano específico deve ser empregado, livre ou vivo. É inacreditável que alguém desenvolva um algoritmo que serve apenas para ignorar a responsabilidade humana por uma decisão que um robô é incapaz de tomar de maneira ética.

Publicado 31 de julho de 2020 às 19:37



Fonte: thenextweb.com

Deixe uma resposta