O tribunal federal da Austrália alertou a profissão jurídica sobre os perigos da utilização de inteligência artificial generativa em processos judiciais, emitindo novas regras para a sua utilização, com potenciais consequências financeiras ou jurídicas se erros de IA frustrarem processos judiciais.
Em meio a uma explosão de processos judiciais na Austrália e em todo o mundo que incluíam citações falsas geradas por IA, o tribunal federal emitiu na quinta-feira uma nova nota prática sobre como a tecnologia pode ser usada em processos judiciais.
A presidente do tribunal federal, Debra Mortimer, disse que a apresentação de informações falsas ou imprecisas ao tribunal é “inaceitável”.
“É inconsistente com a responsabilidade de todas as pessoas de não enganar o tribunal ou outras partes”, disse ela na nota.
Inscreva-se para receber o e-mail da Breaking News Australia
“Também é provável que frustre a resolução justa dos processos de acordo com a lei e da forma mais rápida, barata e eficiente possível.”
Mortimer disse que os usuários devem ser cautelosos na aplicação da IA em petições, petições escritas e outros documentos apresentados ao tribunal, observando que isso pode gerar casos fictícios, citações, citações e erros factuais.
Advogados e solicitadores devem confirmar se a IA foi utilizada na preparação de documentos, se as autoridades jurídicas citadas existem e apoiar a proposta feita, entre outras verificações necessárias, disse Mortimer.
No caso de declarações juramentadas e relatórios de peritos, se for utilizada IA generativa, esta ainda deverá refletir as suas recordações, conhecimentos ou experiência.
A utilização da IA deve ser divulgada quando são utilizadas ferramentas para resumir ou analisar informações, fazer imagens, vídeos ou gravações sonoras apresentadas ao tribunal e de qualquer outra forma que possa afetar a admissibilidade dessas provas.
A divulgação do uso de IA generativa deveria estar no início do documento, disse Mortimer, descrevendo onde e como ela foi usada.
Mortimer também alertou que deve-se ter cuidado ao colocar informações confidenciais, suprimidas ou privadas em ferramentas de IA.
“Pode haver consequências graves ao inserir informações em ferramentas generativas de IA, mesmo que o compartilhamento dessas informações não tenha sido intencional”, disse ela.
Mortimer disse que o tribunal federal “abraça” o uso de tecnologia em processos, e a IA generativa tem o potencial de aumentar a eficiência na condução de litígios, mas a IA generativa “deve ser usada de forma adequada e com o devido cuidado”.
“Caso contrário, a IA generativa representa riscos para a administração adequada da justiça e para a confiança do público no sistema jurídico.”
Aqueles que utilizam IA generativa de formas que vão contra as novas regras devem esperar consequências como ordens de custas adversas e problemas com o cumprimento de obrigações legais e profissionais, disse o presidente do tribunal.
Houve pelo menos 73 casos identificados na Austrália em que os tribunais descobriram que o uso de IA generativa resultou em citações falsas, citações inventadas ou outros erros.
No ano passado, um advogado vitoriano foi o primeiro no país a enfrentar sanções por falsas citações descobertas, sendo despojado da sua capacidade de exercer a profissão de advogado principal. Investigações semelhantes foram lançadas por órgãos reguladores na Austrália Ocidental e em Nova Gales do Sul em casos semelhantes.
Os tribunais também estão cientes de que citações falsas podem levar a mais citações falsas se não forem detectadas. Num acórdão judicial completo no ano passado, descobriu-se que não existia um caso invocado pelo recorrente, com o acórdão a observar: “Apreendemos que a referência pode ser um produto de alucinação por um grande modelo de linguagem”.
O presidente do tribunal superior, Stephen Gageler, disse em Novembro do ano passado que os juízes na Austrália estavam a agir como “filtros humanos” para argumentos jurídicos criados com recurso à IA, e que a utilização de conteúdos gerados por IA tinha atingido uma “fase insustentável”.



