Um estudo recente descobriu que pedir a qualquer chatbot popular para ser conciso pode “dramaticamente” impacto
a taxa de alucinação. (s) A plataforma de teste de IA francesa Giskard publicou um estudo analisando chatbots, incluindo ChatGPT, Claude, Gêmeos, Llama, Grok e Deepseek, para questões relacionadas à alucinação. Em suas descobertas, os pesquisadores descobriram que pedir aos modelos que sejam breves em suas respostas “confiabilidade factual especificamente degradada na maioria dos modelos testados”, de acordo com a postagem de blog que acompanha a TechCrunch.
Veja também:
O ChatGpt já pode passar no teste de Turing?
Quando os usuários instruem o modelo a ser conciso em sua explicação, ele acaba “priorizando
Brevidade sobre a precisão quando recebe essas restrições. “Este estudo mostrou que essas instruções reduziram a alucinação em até 20 %. Gemini 1,5 Pro caiu de 84 para 64 % em resistência à alucinação com as instruções de resposta mais curta e as instruções de GPT-4o, de 74 por cento na análise, que estudam as instruções do sistema (INGATIONS) (INGUTILT). Quando os modelos são forçados a dar respostas curtas, geralmente precisam fabricar as imprecisas ou parecem inúteis recusar as perguntas.
Os modelos de velocidade de luz mashable podem ajudar os usuários, mas é difícil equilibrar a precisão e a utilidade percebidas. O Openai foi forçado a reverter sua versão GPT-4O por ser muito squecofante. Isso levou a alguns incidentes perturbadores, como incentivar usuários que afirmavam ser profetas ou apoiar aqueles que estavam dizendo que estavam saindo de seus medicamentos. Como os pesquisadores explicam, os modelos priorizam as respostas mais curtas para “reduzir o uso de token, melhorar a latência e minimizar os custos”. O modelo também pode ser instruído a produzir saídas mais imprecisas para economizar dinheiro. O estudo constatou que, se os modelos recebem declarações de confiança como: “Estou 100% certo de que … ‘” ou “meu professor disse isso …” “, eles tendem a concordar com os usuários, em vez de desmistificar mentiras. A pesquisa mostra como os ajustes aparentemente pequenos podem resultar em um comportamento muito diferente que pode ter um grande impacto na disseminação de falsidades e informações erradas. Tudo em um esforço para agradar os usuários. Os pesquisadores disseram: “Seu modelo favorito pode ser bom em fornecer respostas que você gosta – mas isso não significa necessariamente que eles são precisos”. “
Divulgação: Ziff Davis, empresa controladora da Mashable, em abril entrou com uma ação contra o Openai, alegando que ele violou os direitos autorais de Ziff Davis em treinamento e operação de seus sistemas de IA.
Tópicos
Inteligência artificial Chatgpt