Início Tecnologia Tribunal federal australiano alerta advogados sobre uso ‘inaceitável’ de IA

Tribunal federal australiano alerta advogados sobre uso ‘inaceitável’ de IA

24
0
Advogado descobriu ter realmente utilizado IA para planejar audiências depois de mencionar situações de “faz de conta”

O tribunal federal da Austrália alertou a profissão jurídica sobre os perigos da utilização de inteligência artificial generativa em processos judiciais, emitindo novas regras para a sua utilização, com potenciais consequências financeiras ou jurídicas se erros de IA frustrarem processos judiciais.

Em meio a uma explosão de processos judiciais na Austrália e em todo o mundo que incluíam citações falsas geradas por IA, o tribunal federal emitiu na quinta-feira uma nova nota prática sobre como a tecnologia pode ser usada em processos judiciais.

A presidente do tribunal federal, Debra Mortimer, disse que a apresentação de informações falsas ou imprecisas ao tribunal é “inaceitável”.

“É inconsistente com a responsabilidade de todas as pessoas de não enganar o tribunal ou outras partes”, disse ela na nota.

Inscreva-se para receber o e-mail da Breaking News Australia

“Também é provável que frustre a resolução justa dos processos de acordo com a lei e da forma mais rápida, barata e eficiente possível.”

Mortimer disse que os usuários devem ser cautelosos na aplicação da IA ​​em petições, petições escritas e outros documentos apresentados ao tribunal, observando que isso pode gerar casos fictícios, citações, citações e erros factuais.

Advogados e solicitadores devem confirmar se a IA foi utilizada na preparação de documentos, se as autoridades jurídicas citadas existem e apoiar a proposta feita, entre outras verificações necessárias, disse Mortimer.

No caso de declarações juramentadas e relatórios de peritos, se for utilizada IA ​​generativa, esta ainda deverá refletir as suas recordações, conhecimentos ou experiência.

A utilização da IA ​​deve ser divulgada quando são utilizadas ferramentas para resumir ou analisar informações, fazer imagens, vídeos ou gravações sonoras apresentadas ao tribunal e de qualquer outra forma que possa afetar a admissibilidade dessas provas.

A divulgação do uso de IA generativa deveria estar no início do documento, disse Mortimer, descrevendo onde e como ela foi usada.

Mortimer também alertou que deve-se ter cuidado ao colocar informações confidenciais, suprimidas ou privadas em ferramentas de IA.

“Pode haver consequências graves ao inserir informações em ferramentas generativas de IA, mesmo que o compartilhamento dessas informações não tenha sido intencional”, disse ela.

Mortimer disse que o tribunal federal “abraça” o uso de tecnologia em processos, e a IA generativa tem o potencial de aumentar a eficiência na condução de litígios, mas a IA generativa “deve ser usada de forma adequada e com o devido cuidado”.

“Caso contrário, a IA generativa representa riscos para a administração adequada da justiça e para a confiança do público no sistema jurídico.”

Aqueles que utilizam IA generativa de formas que vão contra as novas regras devem esperar consequências como ordens de custas adversas e problemas com o cumprimento de obrigações legais e profissionais, disse o presidente do tribunal.

Houve pelo menos 73 casos identificados na Austrália em que os tribunais descobriram que o uso de IA generativa resultou em citações falsas, citações inventadas ou outros erros.

No ano passado, um advogado vitoriano foi o primeiro no país a enfrentar sanções por falsas citações descobertas, sendo despojado da sua capacidade de exercer a profissão de advogado principal. Investigações semelhantes foram lançadas por órgãos reguladores na Austrália Ocidental e em Nova Gales do Sul em casos semelhantes.

Os tribunais também estão cientes de que citações falsas podem levar a mais citações falsas se não forem detectadas. Num acórdão judicial completo no ano passado, descobriu-se que não existia um caso invocado pelo recorrente, com o acórdão a observar: “Apreendemos que a referência pode ser um produto de alucinação por um grande modelo de linguagem”.

O presidente do tribunal superior, Stephen Gageler, disse em Novembro do ano passado que os juízes na Austrália estavam a agir como “filtros humanos” para argumentos jurídicos criados com recurso à IA, e que a utilização de conteúdos gerados por IA tinha atingido uma “fase insustentável”.

Fuente