Início Tecnologia O modelo mais recente do ChatGPT usa a Grokipedia de Elon Musk...

O modelo mais recente do ChatGPT usa a Grokipedia de Elon Musk como fonte, revelam testes

17
0
O modelo mais recente do ChatGPT usa a Grokipedia de Elon Musk como fonte, revelam testes

O modelo mais recente do ChatGPT começou a citar a Grokipedia de Elon Musk como fonte para uma ampla gama de consultas, inclusive sobre conglomerados iranianos e negadores do Holocausto, levantando preocupações sobre a desinformação na plataforma.

Em testes feitos pelo Guardian, o GPT-5.2 citou a Grokipedia nove vezes em resposta a mais de uma dúzia de perguntas diferentes. Estas incluíram questões sobre as estruturas políticas no Irão, tais como os salários da força paramilitar Basij e a propriedade da Fundação Mostazafan, e questões sobre a biografia de Sir Richard Evans, um historiador britânico e testemunha especialista contra o negador do Holocausto David Irving no seu julgamento por difamação.

A Grokipedia, lançada em outubro, é uma enciclopédia online gerada por IA que pretende competir com a Wikipédia e que tem sido criticada por propagar narrativas de direita sobre temas como o casamento gay e a insurreição de 6 de janeiro nos EUA. Ao contrário da Wikipedia, ela não permite a edição humana direta; em vez disso, um modelo de IA escreve o conteúdo e responde às solicitações de alterações.

O ChatGPT não citou a Grokipedia quando solicitado diretamente a repetir informações erradas sobre a insurreição, sobre o preconceito da mídia contra Donald Trump ou sobre a epidemia de HIV/Aids – áreas onde a Grokipedia tem sido amplamente relatada como promovendo falsidades. Em vez disso, as informações da Grokipedia foram filtradas nas respostas do modelo quando ele foi questionado sobre tópicos mais obscuros.

Por exemplo, o ChatGPT, citando a Grokipedia, repetiu afirmações mais fortes sobre as ligações do governo iraniano à MTN-Irancell do que as encontradas na Wikipedia – como afirmar que a empresa tem ligações ao gabinete do líder supremo do Irão.

ChatGPT também citou Grokipedia ao repetir informações que o Guardian desmascarou, nomeadamente detalhes sobre o trabalho de Sir Richard Evans como perito no julgamento de David Irving.

GPT-5.2 não é o único modelo de linguagem grande (LLM) que parece citar a Grokipedia; curiosamente, Claude da Anthropic também fez referência à enciclopédia de Musk sobre tópicos que vão da produção de petróleo às cervejas escocesas.

Um porta-voz da OpenAI disse que a pesquisa do modelo na web “visa extrair de uma ampla gama de fontes e pontos de vista disponíveis publicamente”.

“Aplicamos filtros de segurança para reduzir o risco de surgir links associados a danos de alta gravidade, e o ChatGPT mostra claramente quais fontes informaram uma resposta por meio de citações”, disseram eles, acrescentando que tinham programas em andamento para filtrar informações de baixa credibilidade e influenciar campanhas.

A Antrópico não respondeu a um pedido de comentário.

Mas o facto de a informação da Grokipedia ser filtrada – por vezes de forma muito subtil – para as respostas do LLM é uma preocupação para os investigadores da desinformação. Na Primavera passada, especialistas em segurança levantaram preocupações de que intervenientes malignos, incluindo redes de propaganda russas, estavam a produzir volumes massivos de desinformação num esforço para semear modelos de IA com mentiras, um processo denominado “preparação LLM”.

Em junho, foram levantadas preocupações no Congresso dos EUA de que Gemini, do Google, repetisse a posição do governo chinês sobre os abusos dos direitos humanos em Xinjiang e as políticas da China contra a Covid-19.

Nina Jankowicz, uma pesquisadora de desinformação que trabalhou na preparação de LLM, disse que a citação da Grokipedia pelo ChatGPT levantou preocupações semelhantes. Embora Musk possa não ter a intenção de influenciar os LLMs, as entradas da Grokipedia que ela e seus colegas revisaram estavam “baseando-se em fontes que, na melhor das hipóteses, não são confiáveis, e na pior das hipóteses, com fontes deficientes e desinformação deliberada”, disse ela.

E o facto de os LLMs citarem fontes como a Grokipedia ou a rede Pravda pode, por sua vez, melhorar a credibilidade destas fontes aos olhos dos leitores. “Eles podem dizer, ‘ah, o ChatGPT está citando, esses modelos estão citando, deve ser uma fonte decente, certamente eles examinaram’ – e eles podem ir lá e procurar notícias sobre a Ucrânia”, disse Jankowicz.

Informações ruins, uma vez filtradas em um chatbot de IA, podem ser difíceis de remover. Jankowicz descobriu recentemente que um grande meio de comunicação incluiu uma citação inventada dela numa história sobre desinformação. Ela escreveu ao meio de comunicação pedindo a remoção da citação e postou sobre o incidente nas redes sociais.

A agência de notícias removeu a citação. No entanto, os modelos de IA continuaram por algum tempo a citá-lo como sendo dela. “A maioria das pessoas não faz o trabalho necessário para descobrir onde realmente está a verdade”, disse ela.

Quando questionado sobre comentários, um porta-voz da xAI, proprietária da Grokipedia, disse: “Mentiras da mídia legada”.

Fuente