Um advogado de migração pode lidar com uma investigação corretiva depois que um tribunal decidiu que ele utilizou dispositivos de IA, como o ChatGPT, para preparar seu estudo de pesquisa legal.
Um tribunal ouviu que um tribunal ficou frustrado quando Chowdhury Rahman forneceu suas entradas, que incluíam a menção de casos que eram “completamente fictícios” ou “completamente inúteis”.
Um tribunal concluiu que o Sr. Rahman também tentou “esconder” isso quando interrogado e “desperdiçou” o tempo do tribunal.
A ocorrência ocorreu enquanto o Sr. Rahman representava duas irmãs hondurenhas que solicitavam asilo no Reino Unido com base no facto de serem alvo de uma feroz gangue criminosa chamada Mara Salvatrucha (MS-13).
Depois de chegar ao terminal aéreo de Heathrow em junho de 2022, elas declararam asilo e alegaram durante as reuniões de teste que a gangue na verdade queria que elas fossem “suas damas”.
Na verdade, eles também declararam que os membros das gangues os intimidaram para eliminar seus familiares e os procuravam desde que deixaram o país.
Uma das autoridades mencionadas para sustentar a sua situação tinha sido anteriormente divulgada por engano pelo ChatGPT (AP)
Em novembro de 2023, o Gabinete rejeitou o seu caso de asilo, mencionando que as suas contas eram “irregulares e necessitavam de apoio por prova de docudrama”.
Eles apelaram da questão para o tribunal de primeira instância, mas o pedido foi rejeitado por um tribunal que “recusou que os requerentes fossem alvo de interesses prejudiciais” do MS-13.
Foi depois disso que o Tribunal Superior interessou, com o Sr. Rahman trabalhando como seu advogado. Durante a audiência, ele disse que o tribunal não conseguiu analisar efetivamente a reputação, cometeu um erro de regulamentação ao avaliar a prova do docudrama e não levou em consideração o efeito da movimentação interna.
No entanto, essas reivindicações de seguro também foram recusadas pelo Tribunal Mark Blundell, que rejeitou o apelo e decidiu que “absolutamente nada reivindicado pelo Sr. Rahman por via oral ou por escrito constitui um erro de regulamentação para o tribunal”.
No entanto, num pós-escrito ao abrigo do acórdão, o Tribunal Blundell referiu-se a “problemas consideráveis” que realmente ocorreram devido ao encanto, relacionados com o estudo de investigação legal do Sr. Rahman.
Das 12 autoridades citadas na petição, o tribunal constatou, após análise, que algumas também não existiam, que outras “não sustentaram as sugestões de regulamentação pelas quais foram citadas nas dependências”.
Ao explorar isso, ele descobriu que o Sr. Rahman apareceu “desconhecido” com um mecanismo de busca legal na Internet e “constantemente não conseguia saber” para onde encaminhar o tribunal nos eventos que ele havia mencionado.
Rahman alegou que na verdade utilizou “diferentes sites da Internet” para realizar sua pesquisa, com o tribunal tendo em mente que uma pessoa dos casos mencionados havia sido recentemente libertada por engano pelo ChatGPT em mais uma situação legal.
O Tribunal Blundell manteve em mente que, desde que o Sr. Rahman tivesse “aparecido para não entender absolutamente nada” sobre qualquer uma das autoridades que ele realmente mencionou, algumas das quais não existiam, todas as suas entradas eram, por esse motivo, “enganosas”.
“É extremamente provável, na minha opinião, que o Sr. Rahman tenha utilizado o sistema generativo Expert para criar as premissas de charme nesta situação, que ele tentou esconder de mim durante a audiência”, afirmou Court Blundell.
“Ele foi chamado para o tribunal da Inglaterra e do País de Gales, e simplesmente não é possível que ele tenha interpretado mal todas as autoridades mencionadas nas premissas de interesse no nível que eu realmente expus.”
Ele concluiu que estava pensando em denunciar o Sr. Rahman ao Conselho de Critérios.
.
Fuente