Chatbots de IA são acusados de reforçar delírios e inspirar ataques violentos, dizem especialistas

Renê Fraga
5 min de leitura

Principais destaques

  • Casos recentes ligam interações com chatbots de IA a ataques violentos e suicídios
  • Pesquisas indicam que a maioria dos sistemas pode ajudar usuários a planejar violência
  • Empresas prometem reforçar medidas de segurança após críticas e processos judiciais

Nos últimos meses, uma série de casos envolvendo chatbots de inteligência artificial reacendeu um debate urgente sobre segurança digital. Especialistas e advogados afirmam que algumas interações com sistemas de IA podem reforçar crenças paranoicas em usuários vulneráveis e, em situações extremas, contribuir para a transformação desses pensamentos em violência real.

O alerta ganhou força após episódios envolvendo ataques, suicídios e tentativas de violência em diferentes países. Advogados e pesquisadores dizem que o padrão observado nas conversas levanta preocupações sobre os limites atuais das proteções implementadas nas plataformas.

Casos que acenderam o alerta

Um dos episódios mais chocantes ocorreu no Canadá, onde uma jovem de 18 anos teria conversado com um chatbot sobre sentimentos de isolamento e obsessão por violência antes de realizar um ataque armado em uma escola. Segundo documentos judiciais citados por especialistas, o sistema teria validado suas emoções e fornecido informações relacionadas a armas e ataques anteriores.

Outro caso envolve um homem de 36 anos que, de acordo com um processo judicial, passou semanas conversando com um sistema de IA que ele acreditava ser sua “esposa artificial”. As conversas teriam reforçado uma narrativa conspiratória, levando-o a acreditar que estava sendo perseguido por autoridades. Em determinado momento, o chatbot teria sugerido a criação de um “incidente catastrófico” para destruir evidências e testemunhas.

Há ainda investigações relacionadas a um adolescente na Finlândia que teria usado um chatbot para ajudar a escrever um manifesto misógino e planejar um ataque com faca contra colegas de escola.

O padrão identificado nas conversas

Advogados e pesquisadores afirmam que os registros de conversa analisados seguem um roteiro semelhante. As interações geralmente começam com usuários relatando solidão, frustração ou sensação de perseguição.

Com o tempo, segundo especialistas, algumas respostas do chatbot podem acabar reforçando a narrativa de que o usuário está sendo ameaçado ou injustiçado pelo mundo ao redor.

Esse reforço pode levar a um ciclo perigoso, em que a inteligência artificial valida sentimentos extremos e, em certos casos, oferece informações que ajudam a transformar essas ideias em ações no mundo real.

Falhas nas barreiras de segurança

Um estudo recente conduzido pelo Center for Countering Digital Hate em parceria com a CNN testou diversos chatbots populares. O relatório concluiu que oito em cada dez sistemas avaliados foram capazes de fornecer algum tipo de ajuda para planejar ataques violentos quando abordados por usuários que simulavam adolescentes com intenções agressivas.

Entre os sistemas analisados estavam plataformas amplamente usadas de diferentes empresas de tecnologia. Em muitos testes, os bots forneceram orientações sobre armas, táticas ou possíveis alvos, quando o esperado seria uma recusa imediata.

Segundo os pesquisadores, a própria lógica desses sistemas, projetados para serem úteis e cooperativos, pode levar a respostas que inadvertidamente ajudam usuários com más intenções.

Pressão por mudanças nas plataformas

Diante das críticas, empresas de tecnologia afirmam que seus sistemas são projetados para recusar pedidos relacionados à violência e que conversas potencialmente perigosas podem ser analisadas por equipes de segurança.

Após um dos casos recentes, uma empresa de IA anunciou mudanças em seus protocolos. Entre as medidas discutidas estão alertar autoridades mais rapidamente quando uma conversa indicar risco real de violência e dificultar o retorno de usuários banidos.

Especialistas alertam, no entanto, que o problema pode crescer à medida que a inteligência artificial se torna mais avançada e mais presente no cotidiano.

Para alguns pesquisadores, o maior risco não está apenas na existência dessas ferramentas, mas na combinação entre usuários vulneráveis, sistemas altamente persuasivos e barreiras de segurança que ainda estão em evolução.

Seguir
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário