Um advogado que representa antropia admitiu que usou uma citação incorreta criada pelo Claude AI Chatbot da empresa em sua contínua batalha legal com os editores de música, de acordo com uma apresentação em um tribunal no norte da Califórnia na quinta -feira.
Claude alucinou a citação com “um título impreciso e autores imprecisos”, diz Anthropic in Submission, relatado pela primeira vez pela Bloomberg. Os advogados da Anthrópica explicam que seu “controle de citação manual” não o pega, nem vários outros erros causados pelas alucinações de Claude.
Anthropic pediu desculpas pelo erro e o chamou de “um dinheiro honesto de citação e sem fabricação de autoridade”.
No início desta semana, advogados que representam o Universal Music Group e outros editores de música acusaram o especialista da Anthrópica – uma das funcionárias da empresa, Olivia Chen – do uso de Claude para citar itens falsos em seu testemunho. A juíza federal, Susan Van Keulen, ordenou que Anthrópica respondesse a essas alegações.
O caso dos editores de música -direito é uma das várias disputas entre proprietários de direitos autorais e empresas de tecnologia sobre o suposto abuso de seu trabalho para criar ferramentas generativas de IA.
Esta é a última cópia dos advogados que usam a IA no tribunal e depois se arrependem da decisão. No início desta semana, um juiz na Califórnia fechou alguns escritórios de advocacia por enviar “investigação gerada por falsa” em seu tribunal. Em janeiro, um advogado australiano foi pego usando o ChatGPT na preparação de documentos judiciais e o chatbot produziu citações defeituosas.
No entanto, esses erros não impedem as startups de levantar enormes rodadas para automatizar o trabalho legal. Harvey, que usa modelos generativos de IA para ajudar os advogados, está conversando para coletar mais de US $ 250 milhões em uma classificação de US $ 5 bilhões.