Um caso inusitado chamou a atenção do Tribunal Superior Eleitoral (TSE) nesta semana. Um advogado foi multado em R$ 2.400 por apresentar uma petição redigida por um programa de inteligência artificial chamado ChatGPT. O documento tinha como objetivo intervir em um processo que investiga a conduta do ex-presidente Jair Bolsonaro (PL) em relação ao sistema eleitoral brasileiro.
O ChatGPT é um protótipo de chatbot desenvolvido pela OpenAI, uma organização sem fins lucrativos dedicada à pesquisa em inteligência artificial. O programa usa um modelo de linguagem natural que pode gerar textos a partir de palavras-chave ou conversas. No entanto, o ChatGPT não é uma fonte confiável de informação ou argumentação jurídica, pois pode produzir textos sem sentido, contraditórios ou falsos.
O advogado, que não teve sua identidade revelada, admitiu que usou o ChatGPT para elaborar sua petição, na qual pedia para ser admitido como amicus curiae (amigo da corte) no processo contra Bolsonaro. O amicus curiae é uma figura jurídica que permite que terceiros interessados contribuam com informações ou opiniões para auxiliar o julgamento de uma causa.
No entanto, o ministro Benedito Gonçalves, corregedor-geral da Justiça Eleitoral, rejeitou o pedido e aplicou a multa por litigância de má-fé ao advogado. Segundo o magistrado, o profissional agiu de forma irresponsável e desrespeitosa ao submeter ao tribunal uma "fábula" gerada por uma inteligência artificial. Além disso, o ministro lembrou que uma resolução do TSE não prevê a intervenção de amicus curiae em matéria eleitoral.
O caso serve de alerta para os riscos e limites do uso da inteligência artificial no âmbito jurídico. Embora a tecnologia possa oferecer benefícios e facilidades para os profissionais da área, ela também exige cautela e responsabilidade. Afinal, a inteligência artificial não substitui o conhecimento, a ética e o bom senso dos advogados.
Fonte: CNN Brasil