KRista Pawloski lembra-se do momento decisivo que moldou sua opinião sobre a ética da inteligência artificial. Como trabalhadora de IA no Amazon Mechanical Turk – um mercado que permite às empresas contratar trabalhadores para realizar tarefas como inserir dados ou combinar um prompt de IA com seus resultados – Pawloski passa seu tempo moderando e avaliando a qualidade de textos, imagens e vídeos gerados por IA, bem como verificando alguns fatos.
Cerca de dois anos atrás, enquanto trabalhava em casa na mesa da sala de jantar, ela começou a designar tweets como racistas ou não. Quando lhe foi apresentado um tweet que dizia “Ouça aquele mooncricket cantar”, ela quase clicou no botão “não” antes de decidir verificar o significado da palavra “mooncricket”, que, para sua surpresa, era um insulto racial contra os negros americanos.
“Fiquei sentado pensando quantas vezes posso ter cometido o mesmo erro e não me conter”, disse Pawloski.
A escala potencial dos seus próprios erros e dos de milhares de outros trabalhadores como ela fez Pawloski entrar em espiral. Quantos outros, sem saber, deixaram escapar material ofensivo? Ou pior, escolheu permitir isso?
Depois de anos testemunhando o funcionamento interno dos modelos de IA, Pawloski decidiu não usar mais produtos de IA generativos pessoalmente e disse à sua família para ficar longe deles.
“É um não absoluto na minha casa”, disse Pawloski, referindo-se a como ela não permite que sua filha adolescente use ferramentas como o ChatGPT. E com as pessoas que ela conhece socialmente, ela as incentiva a perguntar à IA sobre algo em que tenham muito conhecimento, para que possam detectar seus erros e compreender por si próprios o quão falível a tecnologia é. Pawloski disse que toda vez que vê um menu de novas tarefas para escolher no site Mechanical Turk, ela se pergunta se há alguma maneira de o que ela está fazendo ser usado para machucar pessoas – muitas vezes, diz ela, a resposta é sim.
Um comunicado da Amazon disse que os trabalhadores podem escolher quais tarefas concluir a seu critério e revisar os detalhes de uma tarefa antes de aceitá-la. Os solicitantes definem as especificidades de qualquer tarefa, como tempo alocado, pagamento e níveis de instrução, de acordo com a Amazon.
“O Amazon Mechanical Turk é um mercado que conecta empresas e pesquisadores, chamados solicitantes, com trabalhadores para realizar tarefas on-line, como rotular imagens, responder pesquisas, transcrever textos ou revisar resultados de IA”, disse Montana MacLachlan, porta-voz da Amazon.
Pawloski não está sozinho. Uma dúzia de avaliadores de IA, trabalhadores que verificam as respostas de uma IA quanto à precisão e fundamentação, disseram ao Guardian que, depois de tomarem consciência da forma como os chatbots e geradores de imagens funcionam e quão errados podem ser os seus resultados, começaram a exortar os seus amigos e familiares a não utilizarem a IA generativa – ou pelo menos a tentarem educar os seus entes queridos sobre a sua utilização com cautela. Esses treinadores trabalham em uma variedade de modelos de IA – Gemini do Google, Grok de Elon Musk, outros modelos populares e vários bots menores ou menos conhecidos.
Uma funcionária, avaliadora de IA do Google que avalia as respostas geradas pelas visões gerais de IA da Pesquisa Google, disse que tenta usar a IA com a maior moderação possível, se é que o faz. A abordagem da empresa às respostas geradas pela IA a questões de saúde, em particular, fez com que ela hesitasse, disse ela, solicitando anonimato por medo de represálias profissionais. Ela disse que observou seus colegas avaliando acriticamente as respostas geradas pela IA a questões médicas e foi encarregada de avaliar ela mesma essas questões, apesar da falta de treinamento médico.
Em casa, ela proibiu a filha de 10 anos de usar chatbots. “Ela precisa primeiro aprender habilidades de pensamento crítico ou não será capaz de dizer se o resultado é bom”, disse o avaliador.
“As classificações são apenas um dos muitos pontos de dados agregados que nos ajudam a medir o quão bem nossos sistemas estão funcionando, mas não impactam diretamente nossos algoritmos ou modelos”, diz um comunicado do Google. “Também temos uma série de proteções fortes para divulgar informações de alta qualidade em nossos produtos.”
Observadores de bots soam o alarme
Essas pessoas fazem parte de uma força de trabalho global de dezenas de milhares de pessoas que ajudam os chatbots a parecerem mais humanos. Ao verificar as respostas da IA, eles também fazem o possível para garantir que um chatbot não divulgue informações imprecisas ou prejudiciais.
Contudo, quando as pessoas que fazem a IA parecer confiável são aquelas que menos confiam nela, os especialistas acreditam que isso sinaliza um problema muito maior.
“Isso mostra que provavelmente há incentivos para enviar e escalar através de uma validação lenta e cuidadosa, e que o feedback dado pelos avaliadores está sendo ignorado”, disse Alex Mahadevan, diretor do MediaWise no Poynter, um programa de alfabetização midiática. “Portanto, isso significa que quando vemos a versão final do chatbot, podemos esperar o mesmo tipo de erros que eles estão enfrentando. Isso não é um bom presságio para um público que recorre cada vez mais aos LLMs em busca de notícias e informações.”
Os trabalhadores de IA disseram que desconfiam dos modelos em que trabalham devido à ênfase consistente no tempo de resposta rápido em detrimento da qualidade. Brook Hansen, trabalhadora de IA na Amazon Mechanical Turk, explicou que, embora não desconfie da IA generativa como conceito, ela também não confia nas empresas que desenvolvem e implantam essas ferramentas. Para ela, o maior ponto de viragem foi perceber quão pouco apoio recebem as pessoas que treinam estes sistemas.
“Espera-se que ajudemos a melhorar o modelo, mas muitas vezes recebemos instruções vagas ou incompletas, treinamento mínimo e prazos irrealistas para concluir tarefas”, disse Hansen, que trabalha com dados desde 2010 e participou do treinamento de alguns dos modelos de IA mais populares do Vale do Silício. “Se os trabalhadores não estão equipados com as informações, os recursos e o tempo de que necessitamos, como poderão os resultados ser seguros, precisos ou éticos? Para mim, essa lacuna entre o que se espera de nós e o que realmente nos é dado para fazer o trabalho é um sinal claro de que as empresas estão a dar prioridade à velocidade e ao lucro em detrimento da responsabilidade e da qualidade.”
Distribuir informações falsas num tom confiante, em vez de não oferecer resposta quando nenhuma está prontamente disponível, é uma grande falha da IA generativa, dizem os especialistas. Uma auditoria dos 10 principais modelos de IA generativa, incluindo ChatGPT, Gemini e Meta’s AI, realizada pela organização sem fins lucrativos de alfabetização midiática NewsGuard, revelou que as taxas de não resposta dos chatbots caíram de 31% em agosto de 2024 para 0% em agosto de 2025. Ao mesmo tempo, a probabilidade dos chatbots de repetir informações falsas quase dobrou de 18% para 35%, descobriu o NewsGuard. Nenhuma das empresas respondeu ao pedido de comentário do NewsGuard na época.
“Eu não confiaria em nenhum fato que (o bot) oferecesse sem verificá-los eu mesmo – simplesmente não é confiável”, disse outra avaliadora de IA do Google, solicitando anonimato devido a um acordo de confidencialidade que assinou com a empresa contratante. Ela alerta as pessoas sobre seu uso e ecoou o ponto de outro avaliador sobre pessoas com conhecimento apenas superficial serem encarregadas de questões médicas e éticas sensíveis também. “Este não é um robô ético. É apenas um robô.”
pular a promoção do boletim informativo
Um mergulho semanal em como a tecnologia está moldando nossas vidas
Aviso de privacidade: Os boletins informativos podem conter informações sobre instituições de caridade, anúncios online e conteúdo financiado por terceiros. Se você não tiver uma conta, criaremos uma conta de convidado para você em theguardian.com para enviar este boletim informativo. Você pode concluir o registro completo a qualquer momento. Para mais informações sobre como utilizamos os seus dados consulte a nossa Política de Privacidade. Usamos o Google reCaptcha para proteger nosso site e a Política de Privacidade e os Termos de Serviço do Google se aplicam.
após a promoção do boletim informativo
“Nós brincamos que (os chatbots) seriam ótimos se conseguíssemos fazer com que parassem de mentir”, disse um tutor de IA que trabalhou com Gemini, ChatGPT e Grok, solicitando anonimato, tendo assinado acordos de sigilo.
‘Entra lixo, sai lixo’
Outro avaliador de IA que iniciou sua jornada avaliando as respostas dos produtos do Google no início de 2024 começou a sentir que não podia confiar na IA cerca de seis meses após o início do trabalho. Ele foi encarregado de confundir o modelo – o que significa que ele teve que fazer várias perguntas à IA do Google que exporiam suas limitações ou fraquezas. Formado em história, esse trabalhador fez perguntas históricas ao modelo para a tarefa.
“Perguntei-lhe sobre a história do povo palestiniano e não me dava uma resposta, por mais que reformulasse a pergunta”, recordou este trabalhador, pedindo anonimato, tendo assinado um acordo de confidencialidade. “Quando perguntei sobre a história de Israel, não tive problemas em me dar um resumo muito extenso. Nós reportamos, mas ninguém parecia se importar no Google.” Quando questionado especificamente sobre a situação descrita pelo avaliador, o Google não emitiu nenhuma declaração.
Para este funcionário do Google, a maior preocupação com o treinamento em IA é o feedback dado aos modelos de IA por avaliadores como ele. “Depois de ver o quão ruins são os dados que supostamente envolvem o treinamento do modelo, eu sabia que não havia absolutamente nenhuma maneira de treiná-lo corretamente dessa maneira”, disse ele. Ele usou o termo “entra lixo, sai lixo”, um princípio da programação de computadores que explica que se você alimentar dados ruins ou incompletos em um sistema técnico, o resultado também terá as mesmas falhas.
O avaliador evita usar IA generativa e também “aconselhou todos os membros da família e amigos meus a não comprarem telefones mais novos que tenham IA integrada, a resistir a atualizações automáticas, se possível, que adicionem integração de IA, e a não contar nada pessoal à IA”, disse ele.
Frágil, não futurista
Sempre que o tema da IA surge numa conversa social, Hansen lembra às pessoas que a IA não é mágica – explicando o exército de trabalhadores invisíveis por trás dela, a falta de fiabilidade da informação e o quão prejudicial é para o ambiente.
“Depois de ver como esses sistemas são montados – os preconceitos, os cronogramas apressados, os compromissos constantes – você deixa de ver a IA como futurística e começa a vê-la como frágil”, disse Adio Dinika, que estuda o trabalho por trás da IA no Distributed AI Research Institute, sobre as pessoas que trabalham nos bastidores. “Na minha experiência, são sempre as pessoas que não entendem a IA que ficam encantadas com ela.”
Os trabalhadores da IA que falaram com o Guardian disseram que estão a assumir a responsabilidade de fazer melhores escolhas e criar consciência à sua volta, enfatizando particularmente a ideia de que a IA, nas palavras de Hansen, “só é tão boa quanto o que é colocado nela, e o que é colocado nela nem sempre é a melhor informação”. Ela e Pawloski fizeram uma apresentação em maio na conferência de primavera da Associação de Conselhos Escolares de Michigan. Numa sala repleta de membros do conselho escolar e administradores de todo o estado, eles falaram sobre os impactos éticos e ambientais da inteligência artificial, na esperança de iniciar uma conversa.
“Muitos participantes ficaram chocados com o que aprenderam, já que a maioria nunca tinha ouvido falar sobre o trabalho humano ou a pegada ambiental por trás da IA”, disse Hansen. “Alguns ficaram gratos pelo insight, enquanto outros ficaram na defensiva ou frustrados, acusando-nos de sermos ‘desastrosos e pessimistas’ em relação à tecnologia que consideravam excitante e cheia de potencial.”
Pawloski compara a ética da IA à da indústria têxtil: quando as pessoas não sabiam como as roupas baratas eram feitas, ficavam felizes em encontrar o melhor negócio e economizar alguns dólares. Mas à medida que as histórias de fábricas exploradoras começaram a ser divulgadas, os consumidores tiveram uma escolha e sabiam que deveriam fazer perguntas. Ela acredita que é o mesmo para a IA.
“De onde vêm os seus dados? Este modelo baseia-se na violação de direitos autorais? Os trabalhadores foram compensados de forma justa pelo seu trabalho?” ela disse. “Estamos apenas a começar a fazer essas perguntas, por isso, na maioria dos casos, o público em geral não tem acesso à verdade, mas, tal como a indústria têxtil, se continuarmos a perguntar e a pressionar, a mudança é possível.”


