Relatora destacou que informações falsas buscavam induzir magistrados a erro, envolvendo litigância de má-fé e segurança da vítima.
A 5ª Câmara Criminal do TJ/SC rejeitou um pedido de revogação de medidas protetivas de urgência em um caso de violência doméstica. Na ementa, o tribunal ressaltou indícios de que a petição inicial poderia ter sido elaborada com o auxílio de inteligência artificial, uma vez que continha referências a jurisprudências que não existiam. A decisão chamou atenção para a necessidade de cautela ao utilizar ferramentas tecnológicas em processos judiciais.
O caso levantou debates sobre o uso de tecnologia de IA no âmbito jurídico. A inteligência artificial, embora avançada, ainda pode gerar inconsistências quando não supervisionada adequadamente. A corte destacou que, apesar da eficiência da ferramenta de IA, é essencial que profissionais do direito revisem e validem os documentos produzidos, garantindo a precisão e a integridade das informações apresentadas.
Decisão Judicial sobre o Uso de Inteligência Artificial em Petições
A desembargadora Cinthia Beatriz da Silva Bittencourt Schaefer, relatora do caso, destacou que o advogado agiu com má-fé e desrespeitou o tribunal ao utilizar inteligência artificial para redigir um habeas corpus. Ela ressaltou que os precedentes jurídicos apresentados foram fabricados com o intuito de enganar o julgador, caracterizando uma conduta inaceitável. Por isso, o Tribunal de Justiça de Santa Catarina (TJ/SC) advertiu o profissional, enfatizando a gravidade do uso indevido de tecnologia de IA em processos judiciais.
Medidas Protetivas e Segurança da Vítima
No mérito do caso, o colegiado rejeitou a alegação de desproporcionalidade em relação à prorrogação das medidas protetivas de urgência por tempo indeterminado. A decisão foi baseada no entendimento do Superior Tribunal de Justiça (STJ), que estabelece que tais medidas, embora limitadas em abrangência, devem assegurar a segurança da vítima. O tribunal concluiu que as medidas eram razoáveis e proporcionais, não configurando constrangimento ilegal. Assim, o pedido foi negado.
Repercussão e Críticas ao Uso de IA
O jurista Lênio Streck, em publicação no Instagram, alertou sobre o crescente problema de petições com fundamentos falsos geradas por inteligência artificial. Ele afirmou que esse caso é apenas o início de uma onda de ‘agnotologia jurídica’, onde a desinformação pode se tornar comum. Streck destacou que o uso indiscriminado de ferramentas de IA sem verificação adequada pode comprometer a integridade do sistema jurídico.
Litigância de Má-Fé e Multa Aplicada
Em 2023, o ministro Benedito Gonçalves, corregedor-geral da Justiça Eleitoral, aplicou uma multa de R$ 2.604 por litigância de má-fé a um advogado que utilizou o ChatGPT para redigir uma petição no Tribunal Superior Eleitoral (TSE). O advogado alegava interesse em ingressar como amicus curiae em uma investigação eleitoral contra o ex-presidente Jair Bolsonaro, mas sua real intenção era criar uma fábula escrita a duas mãos para criticar o uso de tecnologia de IA na Justiça. O ministro destacou que a petição era inadequada e baseada exclusivamente em diálogos com uma inteligência artificial, sem contribuição pessoal do requerente.
Problema Global e Recomendações
Esse não é um caso isolado. Nos Estados Unidos, o advogado Steven A. Schwartz utilizou o ChatGPT para processar a Avianca, apresentando precedentes jurídicos apresentados que não existiam. Após a repercussão, um juiz do Texas determinou que petições elaboradas com ferramentas de IA devem ser identificadas para verificação de precisão. A advogada Ana Paula Ávila, vice-presidente da Comissão Especial de Proteção de Dados e Privacidade da OAB/RS, alertou que os profissionais têm o dever ético e legal de verificar informações geradas por inteligência artificial, como o ChatGPT, que pode fornecer dados incorretos. Ela recomenda a dupla verificação em fontes confiáveis para evitar erros.
Conclusão e Reflexões
O uso de inteligência artificial no âmbito jurídico traz desafios significativos, especialmente quando envolve a criação de petições com fundamentos falsos. A necessidade de medidas protetivas de urgência e a garantia da segurança da vítima continuam sendo prioridades, mas a litigância de má-fé e a falta de verificação em ferramentas de IA podem comprometer a credibilidade do sistema. Casos como a fábula escrita a duas mãos e a multa aplicada pelo TSE evidenciam a importância de um uso responsável da tecnologia de IA no Direito.
Fonte: © Migalhas
Comentários sobre este artigo