Nas últimas semanas, os usuários notaram que determinadas expressões chinesas foram removidas automaticamente dos comentários do YouTube. Após especulações desenfreadas sobre o motivo pelo qual o Google quer que essas frases sejam proibidas, as quais são críticas ao governo chinês, agora alega que foi um erro do seu software de aprendizado de máquina.

Os usuários notaram que qualquer comentário do YouTube contendo a frase ““ “ou” 五毛 “seria eliminado alguns segundos após o envio. Um dos meus colegas testou isso e descobriu que era verdade. O primeiro é um insulto dirigido ao governo comunista chinês (traduz-se como “bandido comunista”, de acordo com a ativista Jennifer Zeng) O último é uma gíria para os cidadãos on-line que foram pagos para desviar as críticas ao partido comunista.

Como seria de esperar, os usuários suspeitaram imediatamente que poderia haver um motivo oculto para o Google banir a frase. O YouTube é proibido na China. Por que sua empresa-mãe se importaria com o fato de alguém criticar o PCCh? Essa frase em particular desencadeou essa reação por meses, que é um tempo muito longo para persistir um erro.

Talvez o Google tenha sido solicitado a verificar o assunto quando a misteriosa proibição da frase foi apontada pelo fundador da Oculus, Palmer Luckey. De qualquer forma, finalmente se falou sobre isso. E alega que não está banindo a frase de alguma simpatia oculta pelo governo chinês, mas sim de um erro.

De acordo com uma declaração para TechCrunch, O YouTube diz que a frase proibida foi adicionada aos seus filtros de discurso de ódio, que removem automaticamente comentários contendo conteúdo ofensivo. Isso explicaria por que o uso da frase, mesmo de maneira positiva, derrubou o martelo instantaneamente.

A questão agora é porque essa frase foi adicionada aos filtros. Tudo o que o Google diria é que a empresa está confiando mais na moderação baseada em IA, já que seus funcionários estão fora do escritório, graças à pandemia de coronavírus. Uma postagem no blog do YouTube de março prenuncia o problema:

O aprendizado de máquina ajuda a detectar conteúdo potencialmente prejudicial e o envia a revisores humanos para avaliação. Como resultado das novas medidas que estamos tomando, começaremos temporariamente a confiar mais na tecnologia para ajudar com parte do trabalho normalmente realizado pelos revisores. Isso significa que os sistemas automatizados começarão a remover algum conteúdo sem a revisão humana, para que possamos continuar a agir rapidamente para remover conteúdo violador e proteger nosso ecossistema, enquanto mantemos as proteções no local de trabalho.

Não seria a primeira vez que uma grande empresa de tecnologia enfrentava problemas com moderação de aprendizado de máquina, graças ao coronavírus. O Facebook teve um problema semelhante quando sua IA bloqueou posts sobre como fazer máscaras.

O YouTube alega que ainda está investigando o erro. Convida qualquer pessoa a “relatar problemas suspeitos para solucionar erros e nos ajudar a fazer melhorias no produto. “

através da The Verge

Cobertura Corona

Leia nossa cobertura diária sobre como a indústria de tecnologia está respondendo ao coronavírus e assine nosso boletim semanal Coronavírus em Contexto.

Para obter dicas e truques sobre como trabalhar remotamente, confira nossos artigos sobre quartos de crescimento aqui ou siga-nos em Twitter.



Fonte: thenextweb.com

Deixe uma resposta