As empresas de inteligência artificial estão “fundamentalmente despreparadas” para as consequências da criação de sistemas com desempenho intelectual em nível humano, de acordo com um grupo de segurança da IA líder.
O Future of Life Institute (FLI) disse que nenhuma das empresas em seu índice de segurança da IA obteve uma pontuação superior ao “planejamento de segurança existencial”.
Um dos cinco revisores do relatório da FLI disse que, apesar do objetivo ter de desenvolver inteligência geral artificial (AGI), nenhuma das empresas investigadas “tinha algo como um plano coerente e utilizável” para garantir que os sistemas permanecessem seguros e controláveis.
AGI refere -se a um estágio teórico de desenvolvimento de IA, onde um sistema é capaz de combinar uma pessoa ao executar uma tarefa intelectual. Openai, o desenvolvedor do ChatGPT, disse que é sua missão garantir que AGI “beneficie toda a humanidade”. Os ativistas de segurança alertaram que a AGI poderia representar uma ameaça existencial, evitando o controle humano e ativando um evento catastrófico.
O relatório da FLI dizia: “O setor está fundamentalmente despreparado por suas próprias metas declaradas. As empresas afirmam que alcançarão a inteligência geral artificial (AGI) na década, mas ninguém pontuou acima de D no planejamento de segurança existencial. “
O índice avalia sete desenvolvedores de IA – Google Deepmind, Openai, Antrópico, Meta, Xai e Zchipu AI da China e Deepseek – em seis áreas, incluindo “danos atuais” e “segurança existencial”.
O antropic recebeu a maior pontuação geral de segurança com um C+, seguido pelo OpenAI com um C e Google Deepmind com um c-.
O FLI é uma organização sem fins lucrativos baseada nos EUA que campanha por um uso mais seguro de tecnologia avançada e pode trabalhar de forma independente devido a uma doação “incondicional” do empresário de criptografia Vitalik Buterin.
A Saferéi, outra organização sem fins lucrativos orientada para a segurança, também publicou um relatório na quinta-feira que as empresas avançadas de IA têm “práticas fracas a muito fracas de gerenciamento de riscos” e rotularam sua abordagem atual de “inaceitável”.
Os graus de segurança do FLI foram alocados e avaliados por um painel de especialistas em IA, incluindo o cientista da computação britânico Stuart Russell e Sneha Revanur, fundador do Grupo de Campanha da Regulamentação da IA para justiça.
Max Tegmark, co-fundador da FLI e professor do Instituto de Tecnologia de Massachusetts, disse que foi “bastante chocante” que as empresas avançadas de IA procurassem construir sistemas super inteligentes sem publicar planos para lidar com as consequências.
Ele disse: “É como se alguém estivesse construindo uma gigantesca usina nuclear na cidade de Nova York e será aberta na próxima semana – mas não há plano para impedir que ela tenha um colapso”.
Tegmark disse que a tecnologia continuou a exceder as expectativas e citou anteriormente que os especialistas teriam décadas para enfrentar os desafios da AGI. “Agora as próprias empresas dizem que está a alguns anos”, disse ele.
Ele acrescentou que o progresso nas possibilidades da IA havia sido “notável” desde o topo da IA global em Paris em fevereiro, com novos modelos como o GROK 4 da Xai, o Gemini 2.5 do Google e o videogerador Veo3, que mostraram melhorias em seus ancestrais.
Um porta -voz do Google DeepMind disse que os relatórios não aceitaram “todos os esforços de segurança da IA do Google DeepMind”. Eles acrescentaram: “Nossa extensa abordagem à segurança e segurança da IA se estende muito além do que é registrado”.
Openai, antropia, Meta, Xai, Zhipu AI e Deepseek também foram abordados para comentar.