Família de criança ferida em tiroteio em escola canadense processa OpenAI

Curtinhas Tiroteio 11/03/2026 11:00 Laura Cress https://www.bbc.com/news/articles/c309y25prnlo

A família alega que a empresa sabia que o perpetrador estava planejando um "evento com várias vítimas", mas não conseguiu contatar as autoridades.

A família de uma menina gravemente ferida durante um tiroteio em massa em uma escola canadense está processando a OpenAI, a criadora do ChatGPT, alegando que ela sabia que o suspeito estava planejando um ataque, mas não conseguiu alertar as autoridades.

Maya Gebala, de doze anos, foi baleada no pescoço e na cabeça no ataque em Tumbler Ridge em 10 de fevereiro e permanece no hospital.

Uma conta inicial do ChatGPT ligada ao suspeito, Jesse Van Rootselaar, de 18 anos, foi banida pela OpenAI em junho de 2025 devido à natureza de suas conversas com o chatbot, mas a polícia canadense não foi notificada.

A OpeanAI disse à BBC que estava comprometida em fazer "mudanças significativas" para ajudar a evitar tragédias semelhantes no futuro.

Oito pessoas foram mortas no ataque, incluindo cinco crianças pequenas e a mãe do suspeito, em um dos tiroteios mais mortais da história canadense.

A ação civil, movida pela mãe de Gebala, Cia Edmonds, alega que Rootselaar criou uma conta com o ChatGPT antes de completar 18 anos algo que os usuários podem fazer com o consentimento dos pais.

Os autores da ação alegam que nenhuma verificação de idade ocorreu no site.

O processo alega que o suspeito viu o chatbot como um "confidente confiável" e descreveu "vários cenários envolvendo violência armada" a ele por vários dias no final da primavera ou início do verão de 2025.

Doze funcionários da OpenAI teriam então sinalizado as publicações como "indicando um risco iminente de danos graves a terceiros" e recomendaram que as autoridades policiais canadenses fossem informadas, alega o processo.

Em vez disso, alega-se que o pedido de contato com as autoridades foi "rejeitado" e a única ação tomada foi banir a conta de Rootselaar.

A OpenAI disse anteriormente que não alertou a polícia porque a conta não atendeu ao seu limite de um plano crível ou iminente de danos físicos graves a terceiros.

O suspeito foi então capaz de abrir uma segunda conta do ChatGPT, apesar de ter sido sinalizado pelos sistemas da OpenAI no passado, e "continuar planejando cenários envolvendo violência com armas".

O processo alega que a empresa "tinha conhecimento específico do planejamento de longo prazo do atirador de um evento com várias vítimas", mas "não tomou nenhuma medida para agir com base nesse conhecimento".

Os autores da ação afirmam que, como resultado da conduta da empresa, Gebala, que foi baleada três vezes depois de tentar trancar a porta da biblioteca para impedir que o atirador entrasse, sofreu uma "lesão cerebral catastrófica".

Resposta da OpenAI

Em um comunicado à BBC, um porta-voz da OpenAI chamou os eventos de uma "tragédia indescritível", acrescentando que seus pensamentos permaneceram com as vítimas, suas famílias e a comunidade.

"A OpenAI continua comprometida em trabalhar com o governo e as autoridades policiais para fazer mudanças significativas que ajudem a prevenir tragédias como esta no futuro", disse um porta-voz.

Em 4 de março, o CEO da OpenAI, Sam Altman, se reuniu virtualmente com o ministro de inteligência artificial do Canadá, Evan Solomon, e o primeiro-ministro da Colúmbia Britânica, David Eby.

De acordo com o Wall Street Journal, Altman "prometeu fortalecer os protocolos para notificar a polícia sobre interações potencialmente prejudiciais" e se desculpar à comunidade de Tumbler Ridge.

Em uma carta aberta a funcionários canadenses em 26 de fevereiro, escrita pelo vice-presidente de política global da OpenAI e compartilhada com veículos de mídia, a empresa disse que implementou uma série de mudanças nos últimos meses, incluindo o recrutamento da ajuda de "especialistas em saúde mental e comportamento" para avaliar casos e tornando os critérios para encaminhamento à polícia "mais flexíveis".

Por causa das mudanças, a OpenAI disse que teria relatado a conta ChatGPT do suspeito de acordo com as novas diretrizes.

"Nós nos comprometemos a fortalecer nossos sistemas de detecção para melhor prevenir tentativas de evadir nossas salvaguardas e priorizar a identificação dos criminosos de maior risco", escreveu a empresa.

A OpenAI disse que também estabeleceria um ponto de contato direto com as autoridades policiais canadenses para que pudesse sinalizar rapidamente quaisquer possíveis casos futuros com "potencial para violência no mundo real".

O ministro de IA do Canadá, Evan Solomon, disse em 27 de fevereiro que, embora os legisladores vissem a disposição da empresa de tecnologia em melhorar seus protocolos, "ainda não vimos um plano detalhado sobre como esses compromissos serão implementados na prática".


Chama no Zap

(66) 98408-0740