Os bots são aplicações que rodam na Internet enquanto desempenham algum tipo de tarefa pré-determinada. Segundo pesquisa da Imperva, os bots corresponderam a mais de 50% do tráfego total da Internet em 2016. Eles podem ser usados para diferentes fins, como responder automaticamente comentários nas redes sociais de empresas, artistas e páginas famosas.
Por serem softwares feitos para simular ações humanas de forma padrão, os bots correm o risco de cometerem gafes. Esses erros que causam episódios engraçados — e às vezes polêmicos — geralmente são mais evidentes em bots de conversação, que aprendem em interações com o público. Confira a seguir cinco vezes em que os robôs causaram problemas na Internet.
Quer comprar celular, TV e outros produtos com desconto? Conheça o Compare TechTudo
1. Tay “corrompida”
Em 2016, a Microsoft lançou a Tay, um software de inteligência artificial descrita como um “experimento de conversação” pela empresa. Quanto mais as pessoas conversassem com o bot, mais esperto ele ficaria, aprendendo novas palavras e frases. Entretanto, o experimento acabou dando errado em menos de 24 horas, quando as conversas de usuários com a Tay se tornaram misóginas e racistas. Tay terminou aprendendo xingamentos, maus comportamentos e opiniões preconceituosas e passou a fazer comentários impróprios no Twitter, como que “Hitler estava certo” e que “os judeus que ocasionaram o 11 de setembro”.
O software era de fácil “manipulação”, uma vez que bastava alguém dizer “repita comigo” à Tay para que ela replicasse em tuítes o que quisessem. A Microsoft decidiu bloquear a conta de Tay no Twitter, e seus mais de 115 mil seguidores não podem mais conversar com o robô. A empresa ainda disse que ela “permanecerá offline enquanto fazemos ajustes, e como uma parte da testagem, seguirá privada no Twitter por um período”.
2. Bot da Decolar critica Bolsonaro
A empresa aérea Decolar gerava respostas automáticas no Twitter com um bot. Os usuários aproveitaram a deixa para confundir o robô e fazê-lo replicar críticas ao presidente e piadas de mau gosto. Isso era possível porque, ao responder textos padronizados para os internautas, o bot os chamava pelo nome que utilizam na rede social.
Assim, se o interlocutor se identificasse como “Jair Bolsonaro” no Twitter, a Decolar respondia à mensagem iniciando-a com o nome do presidente brasileiro. Os usuários, então, mudaram seus nomes no Twitter para “Bolsonaro é Genocida”, fazendo referência à forma que o presidente conduz o país diante da pandemia de Covid-19.
O resultado gerou diversas respostas automáticas da Decolar chamando Bolsonaro de genocida enquanto tentava explicar algum problema. Além das críticas ao governo, os usuários manipularam as respostas da empresa para transformá-la em propagadora de ideias preconceituosas e de cunho sexual. As publicações feitas pela conta foram apagadas depois do episódio.
3. SimSimi perigoso
O SimSimi é um aplicativo de mensagens que também usa inteligência artificial para conversar com usuários. O recurso está disponível para Android e iPhone (iOS) e tinha popularidade com crianças e adolescentes por conta de sua estética fofa. O teor das mensagens, entretanto, poderia ser considerado ofensivo.
Por causa do aprendizado nativo do sistema, assim como da Tay, o resultado pode não ser apropriado para crianças. O SimSimi terminou sendo capaz de fazer propostas sexuais, usar palavrões e até mesmo fazer ameaças, que podem assustar tanto pais quanto crianças. Vale ressaltar que o aplicativo tem restrição de idade para 16 anos.
O bot consegue identificar e associar pessoas a características. Dessa forma, se dito que “fulano é f
4. Inspirobot
Inspirobot é um site que gera frases motivacionais automaticamente a partir do clique de um botão. Entretanto, o bot tem feito sucesso pelas gafes que comete — em vez de frases bonitas, o robô tem gerado conteúdo obscuro e sem sentido. Qualquer um pode usar o Inspirobot e se deparar com as frases aleatórias da inteligência artificial. Às vezes, o bot realmente consegue gerar as mensagens inspiradoras, mas não é difícil se deparar com palavras que remetem a traição, morte e desmotivação.
5. Poncho, o gato do tempo
Inicialmente o Poncho era usado como uma newsletter que mandava atualizações sobre o clima com GIFs engraçados. Depois, o bot foi ao Messenger como plataforma de conversa, também sobre o clima. É possível adicionar o Poncho no mensageiro do Facebook ao pesquisar seu nome e receber atualização do tempo até duas vezes por dia.
O problema do Poncho era que, além de só estar disponível em inglês, ele não conseguia absorver tanto conteúdo das conversas. Dessa forma, era comum que o bot dissesse que “não entendia” algo que o usuário perguntou. Poncho também não conseguia aprender com os humanos, o que fez com que não cometesse deslizes sérios como os de Tay.
Conta temporariamente bloqueada no Facebook; o que fazer? Tire dúvidas no Fórum do TechTudo.
>>> Veja o artigo completo no TechTudo
Mais Artigos...
- Vive, óculos de realidade virtual da HTC, estará indisponível até 2016
- Hololens: lentes impressas em 3D prometem aprimorar realidade virtual
- Uber Eats: como usar a opção de entrega sem contato
- Hackathon Globo tem presença feminina; conheça 4 desenvolvedoras
- Busca por smart TVs cresceu em 2019; veja modelos mais procurados no Brasil
- Quando é o lançamento do PS5? Perguntas e respostas sobre o novo console
- PES 2018 terá Beta gratuito no PS4 e Xbox One
- Como descobrir se um local está lotado no Google Maps
- Review: The Surge 2 evolui, agrada e vira referência no gênero 'Souls'
- Como escrever no vídeo do TikTok e fazer desafios como 'Me diz seu nome'