Juiz australiano repreende advogados por uso descuidado de IA em caso de homicídio

Renê Fraga
3 min de leitura
Photo by KATRIN BOLOVTSOVA on Pexels.com

📝 Principais destaques:

  1. Advogados apresentaram citações inexistentes e leis inventadas, geradas por IA, sem verificação adequada.
  2. O juiz alertou que o uso irresponsável de IA ameaça a integridade da justiça.
  3. O réu foi considerado não culpado por motivo de incapacidade mental, mas seguirá sob supervisão.

Em Melbourne, Austrália, um episódio recente colocou em evidência um problema crescente: o uso de inteligência artificial na produção de documentos jurídicos sem a devida checagem humana.

O juiz James Elliott, da Suprema Corte de Victoria, repreendeu duramente a equipe de defesa de um adolescente acusado de homicídio, após constatar que as peças processuais apresentadas continham citações de casos que nunca existiram e trechos falsos de discursos parlamentares, todos gerados por IA.

O jovem de 16 anos foi considerado não culpado por motivo de incapacidade mental, já que, no momento do crime, sofria de delírios esquizofrênicos não tratados.

Apesar disso, o foco do julgamento acabou se voltando para a conduta dos advogados e o uso inadequado da tecnologia.

Como a IA errou e ninguém percebeu

Segundo o tribunal, os advogados de defesa, incluindo o renomado barrister Rishi Nathwani KC e sua assistente Amelia Beech, não revisaram adequadamente os documentos antes de enviá-los.

O problema se agravou quando o Ministério Público, ao receber as peças, também não verificou as referências e acabou baseando seus próprios argumentos em informações falsas.

Mesmo após uma correção inicial, novas versões dos documentos ainda continham leis inventadas.

O juiz destacou que esse tipo de falha mina a confiança no sistema judicial e que o uso de IA sem supervisão rigorosa é inaceitável.

O alerta para o futuro do uso de IA no Direito

O caso serve como um aviso contundente para advogados, juízes e todos que atuam no sistema de justiça: a inteligência artificial pode ser uma ferramenta poderosa, mas não substitui a responsabilidade humana.

As diretrizes da Suprema Corte de Victoria já determinam que a IA não pode induzir em erro nenhuma das partes envolvidas no processo.

Elliott reforçou que a corte depende da precisão das informações para garantir decisões justas.Enquanto isso, o adolescente permanecerá sob supervisão em um centro de detenção juvenil, recebendo tratamento antipsicótico, até nova audiência marcada para 5 de novembro.


💡 Reflexão Eurisko: Este caso mostra que, no mundo jurídico, a IA não é apenas uma questão de eficiência, mas de ética e confiança.

A tecnologia pode acelerar processos, mas, sem revisão humana, pode também comprometer a própria essência da justiça.

Seguir
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário