📝 Principais destaques:
- Advogados apresentaram citações inexistentes e leis inventadas, geradas por IA, sem verificação adequada.
- O juiz alertou que o uso irresponsável de IA ameaça a integridade da justiça.
- O réu foi considerado não culpado por motivo de incapacidade mental, mas seguirá sob supervisão.
Em Melbourne, Austrália, um episódio recente colocou em evidência um problema crescente: o uso de inteligência artificial na produção de documentos jurídicos sem a devida checagem humana.
O juiz James Elliott, da Suprema Corte de Victoria, repreendeu duramente a equipe de defesa de um adolescente acusado de homicídio, após constatar que as peças processuais apresentadas continham citações de casos que nunca existiram e trechos falsos de discursos parlamentares, todos gerados por IA.
O jovem de 16 anos foi considerado não culpado por motivo de incapacidade mental, já que, no momento do crime, sofria de delírios esquizofrênicos não tratados.
Apesar disso, o foco do julgamento acabou se voltando para a conduta dos advogados e o uso inadequado da tecnologia.
Como a IA errou e ninguém percebeu
Segundo o tribunal, os advogados de defesa, incluindo o renomado barrister Rishi Nathwani KC e sua assistente Amelia Beech, não revisaram adequadamente os documentos antes de enviá-los.
O problema se agravou quando o Ministério Público, ao receber as peças, também não verificou as referências e acabou baseando seus próprios argumentos em informações falsas.
Mesmo após uma correção inicial, novas versões dos documentos ainda continham leis inventadas.
O juiz destacou que esse tipo de falha mina a confiança no sistema judicial e que o uso de IA sem supervisão rigorosa é inaceitável.
O alerta para o futuro do uso de IA no Direito
O caso serve como um aviso contundente para advogados, juízes e todos que atuam no sistema de justiça: a inteligência artificial pode ser uma ferramenta poderosa, mas não substitui a responsabilidade humana.
As diretrizes da Suprema Corte de Victoria já determinam que a IA não pode induzir em erro nenhuma das partes envolvidas no processo.
Elliott reforçou que a corte depende da precisão das informações para garantir decisões justas.Enquanto isso, o adolescente permanecerá sob supervisão em um centro de detenção juvenil, recebendo tratamento antipsicótico, até nova audiência marcada para 5 de novembro.
💡 Reflexão Eurisko: Este caso mostra que, no mundo jurídico, a IA não é apenas uma questão de eficiência, mas de ética e confiança.
A tecnologia pode acelerar processos, mas, sem revisão humana, pode também comprometer a própria essência da justiça.
