Chatbot coreano é desligado após ser racista e homofóbico

O chatbot coreano Lee Luda, desenvolvido pela startup Scatter Labs, foi desativado após alguns denúncias de que ele teria aprendido a ser racista e homofóbico, de acordo com as informações do portal Vice.

Apesar dos chatbots serem criados para ter uma certa autonomia, tudo o que eles aprendem é programado por algum desenvolvedor. Portanto, todas suas ações e falas criadas são baseadas em ações humanas.  

O chatbot era uma figura de uma garota coreana universitária, nomeada como Lee Luda, de 20 anos e fã do grupo de K-Pop, Blackpink. De acordo com a publicação do portal Vice, o problema se deu por conta de seu treinamento. 

Chatbot coreano é desligado após ser racista e homofóbico
Fonte: (Reprodução/Internet)

Chatbot teve contato com conversas preconceituosas de outros aplicativos

A empresa desenvolvedora Scatter Labs possui um aplicativo chamado Science of Love, onde usuários do mundo trocam mensagens privadas entre si. A partir disso, a Inteligência Artificial teve acesso aos arquivos dessas conversas. 

Diante disso, sem nenhum tipo de filtro, o robô identificou e observou as mensagens com o cunho preconceituoso como se fossem algo normal. Consequentemente, a Scatter Labs começou a receber relatos de que a bot estava produzindo discursos de ódio. 

Em um relato feito por Michael Lee, ativista coreano da comunidade LGBTQIA+, a chatbot chamou mulheres lésbicas de nojentas. Em outro momento, o professor da Universidade de Seul disse que a mesma não gostava de pessoas transgêneros.

Lee Luda será processada por usuários 

Com a onda de acontecimentos, a startup coreana se manifestou e disse que o robô ficará temporariamente desligado. Até então, não ficou claro se a chatbot voltará após uma avaliação interna, ou se o produto foi descontinuado por completo. 

Embora a empresa tenha feito um pedido de desculpas às comunidades afetadas, a mesma não escapou da reação das comunidades ou da justiça coreana. Os usuários da plataforma Science of Love se sentiram inseguros depois de saber que suas conversas poderiam ter sido utilizadas para o treino do chatbot. 

A partir disso, os utilizadores da plataforma se juntaram e emitiram uma ação judicial de classe contra a desenvolvedora. No entanto, a documentação ainda não foi preenchida e a startup não comentou nada sobre o assunto. 

Chatbot da Microsoft já apresentou o mesmo problema

A mesma coisa aconteceu com o chatbot da Microsoft, o Tay, que também foi desligado por conta de apresentar discursos de ódio. Em 2016, a Inteligência Artificial começou a tuitar mensagens fora do normal até a companhia desligá-lo.