Por mais poderosos que os LLMs possam ser, todos têm uma fraqueza comum: a alucinação. Por razões que vão além da nossa compreensão, os modelos de IA têm o hábito de inventar coisas, totalmente do nada. Uma resposta pode ser precisa, com fontes bem citadas e informações relevantes; então, de repente, a IA faz uma afirmação falsa ou interpreta erroneamente um comentário irônico do fórum como um fato. (É assim que você acaba com as visões gerais de IA do Google recomendando adicionar cola à sua pizza.) Alguns LLMs podem ter menos alucinações do que outros, mas nenhum está imune. É por isso que sempre que você usar um chatbot, você verá algum tipo de aviso na tela, informando que a IA pode cometer erros.
Apple Intelligence, a plataforma de IA da Apple, não é exceção aqui. Quando a empresa lançou sua IA pela primeira vez, incluiu resumos de notificações como uma “vantagem”. A Apple teve que voltar atrás rapidamente, no entanto, quando o recurso começou a resumir incorretamente os alertas de notícias – como em um caso, quando a Apple Intelligence condensou uma manchete da BBC para ler que o suspeito do tiroteio na United Healthcare, Luigi Mangione, havia se matado na prisão. Posteriormente, a empresa restaurou o recurso, mas incluiu algumas proteções adicionais, como colocar resumos de notícias em itálico.
A Apple Intelligence pode estar inventando novas palavras
Encontrei esta postagem no subreddit r/iOS na quinta-feira, que adiciona uma nota interessante à discussão sobre alucinações sobre IA. A postagem diz: “Alguém mais recebeu palavras falsas em seus resumos de IA?” com uma captura de tela anexada, mostrando resumos de notificação para o aplicativo Acme Weather. A primeira frase diz: “Chuva leve imbixente durante a hora.” Ah, chuva imbixente. Pelo menos é só por uma hora. Espere; imbixente?”
Apesar de soar plausivelmente como uma palavra real, inbixtent é, na verdade, totalmente inventado. O autor da postagem não compartilhou exatamente o que diz a notificação, então não podemos saber em quais palavras o Apple Intelligence está trabalhando a partir daqui. O que sabemos é que o autor da postagem viu “imbixente” três vezes e não está sozinho. Olhando além dos golpes que se divertem com o aplicativo meteorológico que o OP usa, alguns comentários na postagem afirmam que outros viram a Apple Intelligence inventando palavras falsas em seus resumos de notificação. Um comentarista disse que viu “flemulação” em um resumo e “tranquilizado” em um resumo do Mail; outro compartilhou que eles viram “estritamente” em vez de estritamente em duas ocasiões distintas.
O que você acha até agora?
Não consigo encontrar nenhum outro exemplo na internet que mostre esse fenômeno e, pessoalmente, não uso resumos de notificação no meu iPhone, então não vi esse problema sozinho. Não sei dizer com certeza o quão difundido esse problema é ou se está limitado a uma determinada versão do iOS, a um dispositivo específico ou a um aplicativo em vez de outro. No entanto, um dos comentaristas tem uma teoria: eles acham que quando o modelo de IA no dispositivo que a Apple Intelligence usa não consegue encurtar a frase original por si só, ele cria uma mala para acomodar. Em suas palavras, a IA “yolos” é uma “palavra-vibrações”, como imbixente. Eles dizem que isso acontece mais com eles com os resumos do aplicativo Weather.
A Apple Intelligence inventa palavras em seus resumos?
Novamente, não há como dizer se isso afeta um grande número de usuários da Apple ou apenas uma pequena fração. O fato de só conseguir encontrar uma postagem sobre isso, com dois comentaristas compartilhando experiências semelhantes, me leva a acreditar que seja a última opção, mas adoraria ouvir de alguém que tenha uma experiência semelhante. Se você usa os resumos de notificação do Apple Intelligence, informe-me se viu palavras inventadas. Talvez seja necessário ativar o recurso para ficar de olho.



