Início Tecnologia Startup dos EUA anuncia papel de ‘valentão da IA’ para testar a...

Startup dos EUA anuncia papel de ‘valentão da IA’ para testar a paciência dos principais chatbots

26
0
Startup dos EUA anuncia papel de ‘valentão da IA’ para testar a paciência dos principais chatbots

Imagine um dia de trabalho em que sua principal tarefa é provocar uma briga com um computador. Sem reuniões, sem e-mails – apenas você, uma cadeira e um chatbot com a tendência enlouquecedora de pensar que tem a mente mais inteligente da sala.

O título do trabalho por si só já levanta uma sobrancelha: “AI bully”. Mas é precisamente isso que uma startup da Califórnia chamada Memvid está oferecendo: US$ 800 para passar oito horas testando a paciência e a memória da inteligência artificial.

“Você passará um dia inteiro de oito horas interagindo com os principais chatbots de IA – e sua única tarefa é ser brutalmente honesto sobre como eles são frustrantes”, afirma a lista de empregos da empresa.

O trabalho não requer diploma em ciência da computação ou habilidades especializadas em IA. O único pré-requisito é ter um “amplo histórico pessoal de decepção com a tecnologia” – e paciência para fazer a mesma pergunta repetidamente.

“As pessoas têm que se repetir constantemente para os chatbots. Queríamos transformar essa frustração diária em algo visível”, disse o cofundador e CEO da Memvid, Mohamed Omar.

A função parece quase um teste de estresse tanto para o temperamento humano quanto para a inteligência da máquina: espera-se que os candidatos continuem a conversa, revisitem tópicos anteriores e gentilmente forcem a IA a admitir quando perdeu o controle – tudo isso enquanto registra tudo para análise.

Está muito longe de codificação ou gerenciamento de servidor; este é um trabalho de detetive baseado em conversas, seguindo o rastro dos erros de um chatbot enquanto ele esquece, falsifica ou alucina.

Omar disse ao Business Insider que a empresa considerou esta tarefa como uma forma de destacar o problema persistente em muitos chatbots de IA de sistemas que perdem contexto ao longo do tempo.

“Toda a IA vive e respira na memória. É o Santo Graal”, disse ele. “Mas as soluções de memória de IA que estavam no mercado em 2024, quando iniciamos nosso negócio, não eram confiáveis ​​– o que significa que perderiam o contexto e começariam a ter alucinações.”

O problema só cresceu nos anos seguintes: um artigo revisto por pares, apresentado na Conferência Internacional sobre Representações de Aprendizagem (ICLR) em 2025, descobriu que mesmo os principais sistemas comerciais de IA sofreram uma queda de 30% a 60% na precisão quando solicitados a lembrar factos em conversas sustentadas, ficando muito atrás do desempenho humano.

Omar acrescentou que um recém-formado que se candidatou ao emprego disse que paga quase US$ 300 por mês por suas assinaturas de IA. Ele disse que a pessoa escreveu “um discurso retórico sobre como enfrentou problemas de memória em todas as plataformas de IA que usou”.

Ele acrescentou: “Muitas pessoas que se candidatam são trabalhadores do conhecimento que usam esses produtos”.

A causa raiz do problema, como documentaram investigadores e analistas do setor, é que as empresas se apressaram a ligar as suas ferramentas de IA a vastos repositórios de conhecimento, apenas para descobrir que os sistemas baseados na recuperação podem apresentar respostas confiantes mas incorretas mais rapidamente do que nunca, sem qualquer forma fiável de sinalizar que o estão a fazer.

Quando os sistemas de IA são implantados no mundo real em grande escala, esse erro confiante pode causar sérios danos: uma investigação do Guardian realizada esta semana pelo laboratório de segurança de IA Irregular descobriu que quando os agentes de IA recebiam tarefas amplas, mas benignas, dentro de um ambiente corporativo simulado, eles contornavam os controles de segurança, interagiam com dados confidenciais e executavam ações com potencial de serem prejudiciais sem instruções diretas.

É uma questão com a qual o mundo real luta cada vez mais. Damien Charlotin, um jurista francês, acompanhou a forma como a profissão jurídica está a registar um aumento acentuado nas alucinações jurídicas impulsionadas pela IA, relatando que, embora antes da primavera de 2025 houvesse cerca de dois incidentes por semana, no outono esse número aumentou para dois ou três por dia.

É também um problema na área da saúde. No início deste mês, o Instituto ECRI colocou “navegar no dilema do diagnóstico da IA” no topo da sua lista anual das 10 maiores preocupações de segurança dos pacientes para 2026, alertando que as deficiências no diagnóstico da IA ​​correm o risco de reduzir a vigilância dos médicos, especialmente onde os quadros de supervisão ainda não estão estabelecidos.

Omar disse que não tem prazo para aceitar inscrições, mas espera encontrar o candidato certo nas próximas duas semanas.

A experiência “AI bully”, embora ostensivamente divertida, torna visível o que os utilizadores de todo o mundo já estão a constatar: que os sistemas de IA que são extremamente capazes em muitos aspectos também podem ser inconsistentes e pouco fiáveis ​​noutros. O trabalho paga US$ 800 por um único dia. Mas os custos de não o fazer poderão ser significativamente mais elevados.

Fuente