OpenAI considerou alertar a polícia sobre suspeito de tiroteio no Canadá meses antes do ataque

Renê Fraga
4 min de leitura

Principais destaques

  • Funcionários da OpenAI analisaram conversas suspeitas meses antes de um ataque que matou oito pessoas na Colúmbia Britânica
  • A empresa optou por não acionar a polícia, apesar de discussões internas sobre possível risco
  • Caso reacende debate sobre privacidade, responsabilidade corporativa e limites da moderação em IA

Meses antes de um tiroteio que abalou uma pequena cidade da Colúmbia Britânica, a OpenAI avaliou internamente conversas consideradas preocupantes feitas por um jovem de 18 anos no ChatGPT.

A informação foi revelada pelo jornal The Wall Street Journal e trouxe à tona um debate sensível sobre quando empresas de inteligência artificial devem comunicar autoridades diante de possíveis ameaças.

Segundo a reportagem, o suspeito descreveu cenários envolvendo violência armada em interações realizadas ao longo de vários dias. As mensagens foram sinalizadas pelos sistemas de monitoramento da empresa e encaminhadas para revisão humana.

Mais de uma dúzia de funcionários discutiu se o caso deveria ser comunicado à polícia canadense, mas a liderança decidiu não avançar com a denúncia.

Uma tragédia que abalou a Colúmbia Britânica

Em 10 de fevereiro, o jovem matou a própria mãe e o meio-irmão em casa antes de se dirigir à Escola Secundária Tumbler Ridge, onde abriu fogo.

Seis pessoas morreram na instituição, incluindo uma assistente educacional e cinco estudantes entre 12 e 13 anos. Outras dezenas ficaram feridas. O atirador foi encontrado morto dentro da escola com um ferimento autoinfligido.

A polícia montada do Canadá, a Royal Canadian Mounted Police, informou que o suspeito havia abandonado a escola anos antes e possuía histórico de atendimentos relacionados a questões de saúde mental.

As autoridades afirmaram que não há indícios de que vítimas específicas tenham sido escolhidas previamente.

Como funcionam as políticas de segurança da OpenAI

A OpenAI declarou em agosto de 2025 que monitora interações no ChatGPT em busca de conteúdos potencialmente nocivos.

Conversas sinalizadas são analisadas por equipes especializadas, que podem suspender contas ou, em situações que envolvam ameaça iminente de dano físico grave, acionar as autoridades competentes.

O episódio ganhou ainda mais repercussão porque a empresa já enfrenta questionamentos jurídicos envolvendo o uso de seus sistemas. Nos últimos meses, ações judiciais acusaram a companhia de negligência em casos envolvendo saúde mental de usuários.

Em fevereiro, a OpenAI descontinuou o modelo GPT-4o após associações feitas por especialistas a episódios classificados como psicose induzida por IA.

Debate sobre limites e responsabilidades

A revelação de que houve uma discussão interna, mas não uma comunicação formal às autoridades, amplia o escrutínio sobre como empresas de tecnologia definem o que constitui uma ameaça concreta.

Ainda não está claro qual critério foi aplicado na decisão ou se as diretrizes internas daquele período eram diferentes das políticas divulgadas posteriormente.

O caso reacende um dilema delicado: até que ponto preservar a privacidade dos usuários e quando intervir para evitar possíveis tragédias. Especialistas apontam que definir esse limite é um dos maiores desafios da inteligência artificial moderna.

À medida que sistemas se tornam mais presentes no cotidiano, cresce também a pressão por regras mais transparentes e responsabilidades claramente estabelecidas.

Seguir
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário