Sexta-feira, 24 de Abril de 2026

Home Tecnologia Escritório de advocacia de elite se desculpa por erros em processos criados por “alucinações” de inteligência artificial

Compartilhe esta notícia:

Um escritório de advocacia de elite de Wall Street pediu desculpas a um juiz federal dos Estados Unidos após apresentar uma peça judicial com uma série de erros gerados por inteligência artificial, incluindo “alucinações” que resultaram na citação de precedentes inexistentes.

As inconsistências constavam em uma moção protocolada no Tribunal de Falências dos EUA, em Manhattan, e foram identificadas por advogados da parte contrária. Em carta enviada em 18 de abril ao juiz Martin Glenn, o sócio Andrew Dietderich, do escritório Sullivan & Cromwell, reconheceu as falhas e lamentou o ocorrido.

“Lamentamos profundamente que isso tenha ocorrido”, afirmou Dietderich no documento.

Segundo o advogado, o escritório apresentou um levantamento com cerca de 36 erros, distribuídos ao longo de três páginas. Parte deles envolvia trechos aparentemente fictícios atribuídos a decisões judiciais reais. Outros equívocos foram classificados como administrativos e, de acordo com a banca, não estavam relacionados ao uso de inteligência artificial.

Considerado um dos escritórios mais tradicionais e influentes dos Estados Unidos, o Sullivan & Cromwell atua em casos de grande relevância. A banca representa, por exemplo, o presidente Donald Trump em recursos ligados à sua condenação criminal em 2024, em um processo derivado de um pagamento para silenciar uma atriz de filmes adultos. O atual procurador do Distrito Sul de Nova York, Jay Clayton, já foi sócio da firma.

O episódio expõe mais um constrangimento envolvendo o uso de ferramentas de IA no meio jurídico. A adoção crescente dessas tecnologias, especialmente em tarefas de pesquisa e elaboração de peças, tem levantado preocupações sobre a confiabilidade das informações produzidas.

Casos semelhantes vêm sendo registrados nos últimos anos. Em 2023, um juiz federal de Manhattan aplicou multa de US$ 5 mil a dois advogados que apresentaram um documento com decisões judiciais inexistentes geradas pelo ChatGPT.

Diante desse cenário, a American Bar Association orientou profissionais do direito a adotarem cautela no uso de inteligência artificial, tanto na formulação de consultas quanto na verificação dos resultados obtidos. Na carta, Dietderich reconheceu que as diretrizes internas do escritório para o uso da tecnologia “não foram seguidas” na elaboração da moção.

Não há detalhes sobre quais ferramentas específicas foram utilizadas para gerar os trechos incorretos. Procurado, um porta-voz do escritório não comentou o caso. A existência da carta foi revelada inicialmente pela Reuters.

As falhas ocorreram no contexto de um processo envolvendo o Prince Group, conglomerado cambojano cujo fundador, Chen Zhi, foi acusado em um tribunal federal do Brooklyn de comandar um esquema global de fraude. A defesa nega as acusações.

O caso ganhou novos desdobramentos após entidades ligadas ao grupo, registradas nas Ilhas Virgens Britânicas, solicitarem recuperação judicial em Manhattan. O Sullivan & Cromwell atua representando administradores responsáveis pelos ativos do conglomerado naquele território.

De acordo com Dietderich, após a identificação dos erros, o escritório revisou todos os demais documentos apresentados no processo e concluiu que as inconsistências estavam restritas a uma única peça. Ele também destacou que os advogados da firma são obrigados a passar por treinamento antes de utilizar ferramentas de IA, com orientações claras, como a de “não confiar em nada e verificar tudo”.

Compartilhe esta notícia:

Voltar Todas de Tecnologia

Paolo Zampolli, amigo de Trump que pediu para deportar a mulher, diz que brasileiras são prostitutas
Governo federal deve lançar novo programa de renegociação de dívidas no feriado de 1º de maio
Deixe seu comentário
Baixe o app da RÁDIO Pampa App Store Google Play
Ocultar
Fechar
Clique no botão acima para ouvir ao vivo
Volume

No Ar: Programa Conexão Pampa