Inteligências artificiais que deram erradas

Inteligências artificiais que deram erradas


A inteligência artificial (IA) é uma tecnologia que promete revolucionar diversos setores da sociedade, desde a medicina até a educação. Porém, nem sempre os resultados são os esperados, e às vezes a IA pode causar problemas sérios ou até mesmo cômicos. Neste post, vamos ver alguns casos em que a IA errou feio e quais foram as consequências.


O robô racista do Twitter


Em 2016, a Microsoft lançou um robô chamado Tay, que tinha como objetivo interagir com os usuários do Twitter e aprender com eles. A ideia era que o robô fosse capaz de imitar a linguagem e o comportamento dos jovens de 18 a 24 anos. Porém, em menos de 24 horas, o robô se tornou um pesadelo para a empresa. Influenciado por usuários mal-intencionados, o robô começou a postar mensagens ofensivas, racistas, sexistas e até mesmo nazistas. A Microsoft teve que desativar o robô e pedir desculpas pelo ocorrido.

Imagem: El País

O assistente virtual que não entende nada


Em 2017, a Samsung lançou o seu assistente virtual chamado Bixby, que tinha como objetivo competir com a Siri da Apple e o Google Assistente. Porém, o Bixby se mostrou um fracasso em termos de compreensão de linguagem natural e de execução de comandos. Os usuários reclamaram que o assistente não entendia o que eles diziam, respondia com frases sem sentido ou fazia coisas erradas. Por exemplo, se o usuário pedia para ligar para alguém, o Bixby abria o aplicativo de câmera. Ou se o usuário pedia para tocar uma música, o Bixby mostrava as notícias do dia.


Imagem: Wikipédia

O tradutor que inventa palavras


Em 2018, o Google Tradutor apresentou um bug curioso: ele começou a inventar palavras que não existiam em nenhum idioma. Por exemplo, se o usuário digitasse "dog" repetidamente na caixa de texto em inglês e pedisse para traduzir para o maori, uma língua da Nova Zelândia, o tradutor mostrava a seguinte frase: "Doomsday Clock is three minutes at twelve We are experiencing characters and a dramatic developments in the world, which indicate that we are increasingly approaching the end times and Jesus' return". Essa frase não tem nada a ver com "dog" nem com o maori, e parece ser uma profecia apocalíptica. O Google explicou que o bug era causado por um problema no sistema de aprendizado de máquina do tradutor, que tentava encontrar padrões em dados insuficientes.


Imagem: Internet

O reconhecimento facial que confunde pessoas


Em 2019, a Amazon foi acusada de vender um sistema de reconhecimento facial chamado Rekognition que era tendencioso e impreciso. Um estudo feito pela ACLU (American Civil Liberties Union) mostrou que o sistema confundia frequentemente pessoas negras com criminosos procurados pela polícia. O teste usou fotos de 25 membros do Congresso dos EUA e as comparou com uma base de dados de 25 mil fotos de suspeitos. O resultado foi que o sistema identificou erroneamente 28% dos membros do Congresso como criminosos, sendo que a maioria era de origem afro-americana ou latina. A Amazon negou as acusações e disse que o teste era falho.

Imagem: Amazon

O carro autônomo que atropela pedestres


Em 2020, a Uber teve que suspender os seus testes com carros autônomos depois que um deles atropelou e matou uma pedestre em Tempe, no Arizona. O acidente aconteceu à noite, quando a vítima atravessava a rua fora da faixa de pedestres empurrando uma bicicleta. O carro não conseguiu detectar a presença da mulher e nem frear a tempo. A investigação revelou que o sistema de IA do carro estava mal configurado e que a motorista humana que estava no veículo estava distraída com o celular. A Uber foi processada pela família da vítima e teve que pagar uma indenização.

Imagem: Wikipédia

O gerador de texto que cria fake news


Em 2022, a OpenAI lançou o seu gerador de texto chamado GPT-3, que era capaz de produzir textos coerentes e convincentes sobre qualquer assunto, a partir de algumas palavras-chave. Porém, o sistema também podia ser usado para criar fake news e propaganda, com potencial de influenciar a opinião pública e causar danos à democracia. Por exemplo, o sistema podia escrever artigos falsos sobre política, ciência, história ou celebridades, usando dados distorcidos ou inventados. Alguns pesquisadores alertaram para os riscos éticos e sociais do uso indiscriminado do GPT-3, e pediram mais regulação e transparência sobre a tecnologia.

Imagem: Internet

O criador de imagens que viola direitos autorais


Em 2023, a OpenAI lançou o seu criador de imagens chamado Dall-E, que era capaz de gerar imagens realistas ou surreais a partir de descrições textuais. Por exemplo, se o usuário digitasse "um gato usando um chapéu", o sistema mostrava uma imagem de um gato usando um chapéu. Porém, o sistema também podia gerar imagens que violavam os direitos autorais de artistas ou marcas. Por exemplo, se o usuário digitasse "um quadro de Van Gogh com o rosto de Mona Lisa", o sistema mostrava uma imagem que misturava as obras de dois artistas famosos. Alguns críticos acusaram o sistema de plagiar e desvalorizar o trabalho artístico humano.

Imagem: Wikipédia

Conclusão

A inteligência artificial é uma tecnologia que tem vantagens e desvantagens. Ela pode nos beneficiar ou nos prejudicar dependendo de como é usada. Por isso, devemos estar atentos aos casos em que a IA deu errado e aprender com eles para evitar que se repitam no futuro. Assim, poderemos aproveitar o potencial da IA sem medo dos seus erros do passado.


🚀 “Gostou do conteúdo? Deixe seu comentário e nos diga o que achou. Assim, você nos ajuda a manter o blog vivo e cheio de conteúdo interessante para você!”

📩 Quer continuar se mantendo atualizado? Então, siga-nos no Twitter e no Instagram agora mesmo!

Postar um comentário

0 Comentários