TL;DR: O Tribunal Superior do Reino Unido alertou que advogados podem enfrentar sanções severas, incluindo processos por desacato e encaminhamento à polícia, por usarem citações falsas geradas por IA. Em casos reais, até 40% das citações jurídicas apresentadas eram inexistentes, levando o tribunal a estabelecer que advogados têm responsabilidade absoluta de verificar informações de IA em fontes confiáveis. A decisão marca um precedente importante sobre uso responsável de inteligência artificial na prática jurídica.
Takeaways:
- Ferramentas como ChatGPT “não são capazes de realizar pesquisas jurídicas confiáveis” segundo o tribunal, podendo gerar informações falsas mas aparentemente plausíveis
- Advogados mantêm responsabilidade final pela precisão das informações, independentemente da tecnologia utilizada, devendo verificar todas as citações de IA em fontes primárias
- As sanções variam desde advertências públicas até processos por desacato e encaminhamento à polícia, dependendo da gravidade da negligência
- O caso estabelece precedente global sobre regulamentação de IA no direito, influenciando práticas profissionais mundialmente
- A IA deve ser usada como ferramenta de apoio, nunca substituindo verificação rigorosa e julgamento profissional qualificado
Tribunal do Reino Unido Alerta: Advogados Podem Enfrentar Penalidades Severas por Citações Falsas Geradas por IA
Imagine descobrir que quase 40% das citações jurídicas em um processo judicial simplesmente não existem. Parece impossível? Infelizmente, essa realidade já chegou aos tribunais do Reino Unido, onde o uso inadequado de inteligência artificial está gerando consequências graves para a profissão jurídica.
O Tribunal Superior da Inglaterra e País de Gales emitiu um alerta contundente: advogados que utilizarem citações falsas geradas por IA podem enfrentar sanções severas, incluindo processos por desacato e até mesmo encaminhamento à polícia.
Este cenário revela um problema crescente que está transformando a prática jurídica e exigindo uma revisão urgente na forma como os profissionais do direito utilizam ferramentas de inteligência artificial.
O Alerta Oficial do Tribunal Superior
A juíza Victoria Sharp foi categórica em sua decisão: ferramentas de IA generativa como o ChatGPT “não são capazes de realizar pesquisas jurídicas confiáveis”. O motivo é simples, mas perigoso: essas ferramentas podem produzir respostas aparentemente coerentes e plausíveis, mas completamente incorretas.
O tribunal identificou que o número crescente de casos envolvendo citações falsas geradas por IA demonstra uma falha sistemática no cumprimento das orientações profissionais. Esta situação está forçando os tribunais a tomarem medidas mais rigorosas para proteger a integridade do sistema judiciário.
Principais preocupações identificadas pelo tribunal:
- Produção de informações falsas que parecem autênticas
- Falta de verificação adequada por parte dos advogados
- Risco crescente para a credibilidade do sistema judicial
- Necessidade de maior fiscalização profissional
A decisão representa um marco importante na regulamentação do uso de IA no direito, estabelecendo precedentes claros sobre as responsabilidades profissionais dos advogados.
Deveres Profissionais e Responsabilidades dos Advogados
O tribunal foi claro ao estabelecer que os advogados têm o dever profissional absoluto de verificar a precisão de qualquer pesquisa realizada por IA. Esta verificação deve ser feita consultando fontes confiáveis antes de utilizar as informações em qualquer contexto profissional.
A responsabilidade não pode ser transferida para a tecnologia. Independentemente da sofisticação da ferramenta de IA utilizada, o advogado mantém a responsabilidade final pela precisão e veracidade das informações apresentadas ao tribunal.
Obrigações específicas dos advogados:
- Verificar todas as citações geradas por IA em fontes primárias
- Confirmar a existência e relevância dos casos citados
- Garantir a precisão das informações antes da submissão
- Manter registros detalhados do processo de verificação
A juíza Sharp enfatizou que a orientação atual não está sendo seguida adequadamente, sugerindo a necessidade de medidas mais rigorosas para garantir o cumprimento dessas obrigações profissionais fundamentais.
Casos Reais: Quando a IA Falha Espetacularmente
Os casos que chegaram ao tribunal revelam a gravidade do problema. Em uma situação particularmente alarmante, um advogado submeteu um processo com 45 citações, das quais 18 eram completamente inexistentes e as restantes continham informações imprecisas ou irrelevantes.
Em outro caso igualmente preocupante, um advogado incluiu cinco casos inexistentes em seu processo judicial. A investigação revelou que essas citações possivelmente se originaram de resumos gerados por IA encontrados em buscas no Google ou Safari.
Características comuns dos casos problemáticos:
- Citações que pareciam autênticas à primeira vista
- Informações plausíveis mas factualmente incorretas
- Falta de verificação em fontes primárias
- Dependência excessiva em resultados de IA
Estes casos demonstram como a IA pode criar uma falsa sensação de confiabilidade, produzindo informações que passam por um teste superficial de credibilidade, mas falham completamente quando submetidas a uma análise rigorosa.
Sanções Severas: As Consequências da Negligência
O tribunal deixou claro que as consequências para advogados negligentes serão proporcionais à gravidade de suas falhas. As sanções podem variar desde advertências públicas até medidas mais severas, dependendo do impacto da negligência no processo judicial.
Escala de sanções possíveis:
- Advertência pública: Exposição profissional e danos à reputação
- Imposição de custos: Responsabilização financeira pelos prejuízos causados
- Processos por desacato: Ações formais contra o advogado
- Encaminhamento à polícia: Em casos de negligência grave
- Encaminhamento a reguladores profissionais: Para revisão disciplinar
Embora o tribunal tenha optado por não iniciar processos por desacato nos casos recentes, a juíza Sharp foi enfática ao declarar que isso “não é um precedente”. Futuros casos de negligência serão tratados com o rigor total da lei.
O Futuro da IA na Prática Jurídica
O alerta do tribunal não representa uma rejeição completa da inteligência artificial no direito, mas sim um chamado para seu uso responsável e verificado. A tecnologia pode ser uma ferramenta valiosa quando utilizada adequadamente, mas nunca deve substituir o julgamento profissional e a verificação rigorosa.
Princípios para uso responsável de IA:
- Utilizar IA como ponto de partida, não como fonte final
- Sempre verificar informações em fontes primárias confiáveis
- Manter ceticismo saudável sobre resultados gerados por IA
- Documentar processos de verificação para transparência
A tendência é que tribunais e órgãos profissionais estabeleçam diretrizes mais específicas e rigorosas para o uso de IA no direito. Advogados precisarão adaptar suas práticas para garantir conformidade e evitar sanções.
Recomendações para Órgãos Profissionais
O tribunal decidiu encaminhar sua decisão para órgãos profissionais fundamentais, incluindo o Bar Council e a Law Society. Este encaminhamento visa garantir que as orientações sobre uso de IA sejam não apenas conhecidas, mas efetivamente implementadas e fiscalizadas.
Objetivos do encaminhamento:
- Reforçar a importância da verificação de informações
- Estabelecer protocolos mais claros para uso de IA
- Implementar programas de treinamento específicos
- Criar mecanismos de fiscalização mais efetivos
Os órgãos profissionais terão a responsabilidade de traduzir este alerta judicial em ações concretas que protejam tanto a profissão quanto o sistema judiciário como um todo.
Impacto Global e Lições Aprendidas
O caso do Reino Unido serve como um alerta global sobre os riscos do uso não verificado de IA na prática jurídica. Outros países e jurisdições estão observando atentamente como esta situação se desenvolve, preparando-se para implementar suas próprias salvaguardas.
Lições fundamentais para a profissão jurídica:
- A tecnologia é uma ferramenta, não um substituto para a diligência profissional
- A verificação independente permanece essencial
- A responsabilidade profissional não pode ser transferida para algoritmos
- A formação contínua sobre uso de IA é crucial
Este caso estabelece um precedente importante que provavelmente influenciará regulamentações e práticas profissionais em todo o mundo, marcando um momento decisivo na evolução da relação entre direito e inteligência artificial.
Conclusão: Navegando o Futuro com Responsabilidade
O alerta do Tribunal Superior do Reino Unido representa um momento crucial na evolução da prática jurídica moderna. Embora a inteligência artificial ofereça possibilidades extraordinárias para aumentar a eficiência e acessibilidade do direito, seu uso deve ser sempre acompanhado de verificação rigorosa e responsabilidade profissional.
Os casos de citações falsas geradas por IA não devem ser vistos apenas como falhas tecnológicas isoladas, mas como lembretes importantes de que a tecnologia mais avançada não substitui o julgamento humano qualificado e a diligência profissional.
Para advogados e profissionais do direito, a mensagem é clara: abracem a inovação, mas nunca comprometam a precisão e a integridade que são fundamentais para o sistema judiciário.
Você está preparado para usar IA de forma responsável em sua prática jurídica? Compartilhe suas experiências e desafios nos comentários e ajude a construir melhores práticas para toda a comunidade jurídica.
Fonte: Dame Victoria Sharp P. “Ayinde -v- London Borough of Haringey, and Al-Haroun -v- Qatar National Bank”. High Court of England and Wales, 2025.