O gestor dos sistemas judiciais do TRF1, juiz federal Náiber Pontes de Almeida, abriu o evento e explicou que o ChatGPT é “uma ferramenta que utiliza o modelo de inteligência artificial generativa, gerando sobretudo textos, e que se dá por meio da construção de padrões. Ela é treinada com base em um banco de dados, sendo capaz de fazer análises de probabilidades. Ao utilizar o chat, deve-se utilizar a entrada do prompt (comando) que traz inúmeros resultados baseado no banco”.
De acordo com o magistrado, por meio de diretrizes claras e definidas, a IA pode ser muito útil, desde que sejam adotadas instruções personalizadas para que, dentro dos limites predeterminados, as respostas sejam satisfatórias.
“Este encontro tem justamente o objetivo de instruir a respeito de como utilizar adequadamente o que já está a nossa disposição. É preciso construir o prompt adequado para que não ocorra o fenômeno de alucinação, que consiste na criação de informações que não existem”, destacou o gestor dos sistemas judiciais.
O juiz federal Rafael Lima da Costa, da 7ª Vara da Seção Judiciária do Maranhão (SJMA), também alertou para os riscos do uso da IA. “Muitas vezes, as pessoas acreditam que a resposta apresentada pelo robô é verdadeira, mas ele foi programado exatamente para convencer e traz elementos robustos. No entanto, a IA não trabalha com raciocínio, mas com algoritmos. Decisões críticas sempre devem ser tomadas por seres humanos; a IA é auxiliar e não uma substituta”, declarou o magistrado.
Ele reforçou que o ChatGPT é uma ferramenta que precisa ser utilizada com cuidado e mencionou os principais riscos no uso de IA generativa:
Confiança excessiva: os usuários normalmente confiam muito nas repostas apresentadas, em razão da capacidade criativa da IA. O correto é sempre estar atento aos detalhes, mantendo o senso crítico a respeito da informação fornecida;
Falta de validação e verificação: é indispensável que as informações apresentadas sejam checadas. A IA auxilia com dados e aponta caminhos, mas não substitui o raciocínio humano;
Limitações: a máquina é programada e, apesar de parecerem reais, as repostas vêm de algoritmos, não da percepção humana.
Rafael Lima destacou que é preciso “construir o cérebro” da máquina para que as necessidades sejam atendidas de forma satisfatória e demonstrou exemplos de parâmetros e configurações no ChatGPT 4.0 para obtenção de resultados concisos.
Contribuindo para o debate, o juiz federal substituto Rodrigo Gonçalves de Souza, da 14ª Vara da Seção Judiciária de Goiás (SJGO), explicou que a Inteligência Artificial não contribui para que o Judiciário trabalhe menos. “O volume de trabalho não diminui, pelo contrário, só aumenta. Para atender à demanda que temos hoje, nós implementamos tecnologias para trabalhar melhor, não menos”, enfatizou.
O magistrado mostrou que utiliza as ferramentas de IA com base na regra dos quatro “Cs”: compreender, controlar, conferir e corrigir. Para ele, deve-se compreender o real alcance das tecnologias e sua utilização; podendo ser controlado por meio da construção dos prompts e configurações. O chat funciona muito bem, desde que a informação seja conferida, e é imprescindível corrigir os erros cometidos.
Rodrigo Gonçalves finalizou destacando que “se a IA for bem orientada, ela fará absolutamente tudo o que for pedido, mas o conhecimento e o controle vão depender do olhar humano. Por isso, estamos empenhados em desenvolver projetos de tecnologia no TRF1”.
Sobre o “Momento PJe” – A iniciativa conta com a parceria da DiPJe e do Centro de Desenvolvimento e Aperfeiçoamento de Servidores da 1ª Região (Cedap) e é destinada a magistrados, servidores e colaboradores e tem por objetivo criar a cultura de levar conhecimento e trocar experiências.
O encontro ocorre semanalmente via Teams, às sextas-feiras, e, nesta edição, contou com participação de mais de 200 pessoas, que puderam tirar dúvidas sobre o uso da IA no Judiciário.
TS/LS
Assessoria de Comunicação Social
Tribunal Regional Federal da 1ª Região