O teclado virtual Gboard (Google) foi flagrado sugerindo termos sexuais ao digitar a palavra “neguinha”. O aplicativo para celulares Android e iPhone (iOS) traz uma função de predição que tem como objetivo sugerir palavras a partir do que foi digitado antes pelo usuário. Entretanto, em testes do TechTudo, a sugestão de termos impróprios como “assanhada” e “novinha” aconteceu mesmo ao instalar o teclado e usá-lo pela primeira vez em um Galaxy A10 e em um Huawei P30 Pro.
Em resposta, o Google declarou que "O Gboard foi projetado para evitar previsões enviesadas em seus modelos genéricos, mas a linguagem humana é complexa e, como em qualquer sistema que filtra frases sensíveis, às vezes sugestões inadequadas entram nos modelos de aprendizado de máquina. Quando descobrimos uma sugestão inadequada, trabalhamos rapidamente para removê-la". O TechTudo confirmou nesta quinta-feira (30) que as sugestões ofensivas foram removidas do teclado.
Quer comprar celular, TV e outros produtos com desconto? Conheça o Compare TechTudo
Ao digitar a palavra “neguinha” no Gboard, os termos sugeridos pelo teclado nos testes foram “novinha” e “assanhada”. O aplicativo usa inteligência artificial para aprimorar funcionalidades como correção ortográfica e predição de texto, tecnologia esta que aprende com os hábitos do usuário para retornar resultados que atendam à sua demanda. Contudo, a exibição de termos sexuais mesmo ao usar o Gboard pela primeira vez levanta questões de racismo e machismo, já que o mesmo não acontece ao digitar variações como “neguinho”, “negra” e “negro”, que retornam termos genéricos como “que”, “e” e “da”.
Não é a primeira vez que a automação do Google falha em representatividade: ano passado, usuários constataram que a ferramenta de pesquisa exibia imagens de sexo explícito, indexadas de sites de pornografia, ao buscar “mulher negra dando aula” — e o mesmo não acontecia ao usar palavras-chave relacionadas a mulheres brancas. Na França, o Google teve de mudar o algoritmo do buscador para que resultados pornográficos parassem de aparecer ao pesquisar "lesbienne" (lésbica, em francês) e outros termos relacionados à orientação sexual.
O aprendizado de máquina mencionado pelo Google em nota usa inteligência artificial para observar o comportamento do usuário e, assim, oferecer sugestões que sejam relevantes para ele. A tecnologia aparece, por exemplo, com as recomendações de músicas do Spotify ou orientações de rotas alternativas do Google Maps. Apesar de parecer “neutra” por buscar automatizar ações, a técnica pode refletir preconceitos da sociedade, uma vez que seu trabalho se baseia em conteúdos produzidos por pessoas.
Por isso, o problema não se limita ao gigante das buscas: a bot Tay, programada pela Microsoft em 2016 para conversar com internautas no Twitter, levou menos de 24 horas para reproduzir comentários racistas, transfóbicos e anti-semitas, já que ela aprendia com os tuítes de outros usuários do microblog.
Como desfazer "remover palavra" do Gboard? Tire dúvidas no Fórum do TechTudo.
>>> Veja o artigo completo no TechTudo
Mais Artigos...
- Fortnite World Cup 2019: veja datas e brasileiros nas finais do torneio
- League of Legends: como jogar de suporte (support)
- Como usar o QuickMemo do LG K10 para fazer anotações
- Notebook não liga? Veja possíveis causas e o que fazer para resolver
- Death Star é o melhor DLC de Star Wars: Battlefront; confira teste
- Capcom anuncia controle arcade com jogos clássicos na memória
- Mobile Legends: guia com dicas para jogar o MOBA e subir no ranking
- Samsung lan?a novas linhas de notebooks 'em conta'; conhe?a os modelos
- PUBG Mobile Lite: veja requisitos mínimos e como fazer download
- Como abrir sites incompatíveis com Microsoft Edge no Internet Explorer