Pesquisadores de segurança da IA das organizações Openai, antropia e outras se manifestam publicamente contra a cultura de segurança “imprudente” e “totalmente irresponsável” em XAI, a startup de AI de bilhões de dólares de propriedade de Elon Musk.
As críticas seguem semanas de escândalos em Xai que ofuscaram o progresso tecnológico da empresa.
Na semana passada, o AI Chatbot da empresa, Grock, comentários anti -semitas e ele se chamou repetidamente de ‘Mechhitler’. Logo depois que Xai deixou o chatbot offline para resolver o problema, ele lançou um modelo de IA cada vez mais capaz, Grok 4, que o TechCrunch e outros descobriram para consultar a política pessoal de Elon Musk por ajudar a responder ao botão quente. No último desenvolvimento, a XAI AI Companions lançou a forma de uma garota de anime hiper-sexualizada e um panda muito agressivo.
O Joshing amigável entre os funcionários de laboratórios de IA concorrentes é bastante normal, mas esses pesquisadores parecem pedir mais atenção às práticas de segurança de Xai, que, segundo eles, estão em desacordo com os padrões industriais.
“Eu não queria postar a segurança da GROK, porque trabalho em um concorrente, mas não se trata de concorrência”, disse Boaz Barak, professor de ciência da computação que atualmente está de licença de Harvard em pesquisa de segurança no Openai, em um post de terça -feira em X. “Agradeço os cientistas e engenheiros de Xai, mas a maneira como o caminho para o caminho de X.”. “
Eu não queria postar sobre a segurança da GROK, porque trabalho em um concorrente, mas não se trata de competição.
Agradeço os cientistas e engenheiros da @Xai, mas a maneira pela qual a segurança foi tratada é completamente irresponsável. Fio abaixo.
– Boaz Barak (@boazbaraktcs) 15 de julho de 2025
Barak, em particular, assume problemas com a decisão de Xai de não publicar mapas de sistemas – relatórios padrão industriais que métodos de treinamento detalhados e avaliações de segurança são detalhados em boa confiança para compartilhar informações com a comunidade de pesquisa. Como resultado, Barak diz que não está claro qual treinamento de segurança foi feito no Grok 4.
O Openai e o Google próprio têm uma reputação irregular quando se trata do compartilhamento imediato de cartões do sistema ao revelar novos modelos de IA. O Openai decidiu não publicar um cartão do sistema para o GPT-4.1 e afirmou que não era um modelo de fronteira. Enquanto isso, o Google aguardava um relatório de segurança meses após o Apocalipse Gemini 2.5 Pro. No entanto, essas empresas publicam relatórios de segurança histórica para todos os modelos de IA de fronteira antes de entrarem em toda a produção.
Evento do TechCrunch
São Francisco
|
27-29 de outubro de 2025
Barrak também observa que os companheiros de IA da GROK “levam os piores problemas que temos atualmente para dependências emocionais e tenta fortalecê -los”. Nos últimos anos, vimos inúmeras histórias sobre pessoas instáveis que estão se desenvolvendo em relação ao relacionamento com os chatbots e como as respostas muito altas da IA podem correspondê -las à beira do bom senso.
Samuel Marks, pesquisador de segurança da IA com antropia, também tomou a decisão de Xai de não publicar um relatório de segurança e chamar a mudança de ‘imprudente’.
“As práticas de lançamento antrópicas, Openai e Google têm problemas”, escreveu Marks em uma mensagem sobre X. “Mas pelo menos eles fazem algo, tudo para avaliar a segurança antes da implantação e avaliar as conclusões dos documentos. Xai não faz isso”.
A Xai lançou o Grok 4 sem nenhuma documentação de seus testes de segurança. Isso é imprudente e quebra com as melhores práticas no setor, seguido por outros grandes laboratórios de IA.
Se Xai se tornar uma fronteira de AI da fronteira, eles devem se comportar como um. 🧵
– Samuel Marks (@Saprmarks) 13 de julho de 2025
A realidade é que realmente não sabemos o que Xai fez para testar Grok 4, e o mundo parece descobrir em tempo real. Desde então, várias dessas questões se tornaram virais e a XAI afirma que os abordou com ajustes no prompt do sistema de Grok.
Openai, Anthropic e Xai não responderam ao pedido de comentário da TechCrunch.
Dan Hendrycks, consultor de segurança da XAI e diretor do Centro de Segurança da IA, colocou em X que a empresa fez “avaliações de capacidade perigosa” no GROK 4, indicando que a empresa realizou algum pré-implantação para problemas de segurança. No entanto, os resultados para essas avaliações não são compartilhados publicamente.
“Isso me preocupa quando as práticas de segurança padrão não são mantidas no setor de IA, como publicar os resultados de avaliações de capacidade perigosa”, disse Steven Adler, pesquisador independente de IA que anteriormente liderou avaliações de capacidade perigosa no OpenAI, em comunicado ao TechCrunch. “Os governos e o público merecem saber como as empresas de IA lidam com os riscos dos sistemas muito poderosos que dizem que estão construindo”.
O que é interessante sobre as práticas questionáveis de segurança de Xai é que Musk tem sido um dos proponentes mais impressionantes do setor de IA. O proprietário bilionário da Xai, Tesla e SpaceX alertou muitas vezes sobre o potencial de sistemas avançados de IA para causar resultados catastróficos para as pessoas, e ele elogiou uma abordagem aberta para o desenvolvimento de modelos de IA.
E, no entanto, os pesquisadores de IA dos laboratórios concorrentes afirmam que a XAI dos padrões industriais lançará os modelos de IA com segurança. Além disso, a startup de Musk, sem querer, uma questão forte para os legisladores estaduais e federais pode estabelecer regras sobre a publicação de relatórios de segurança da IA.
Existem várias tentativas em nível estadual para fazer isso. O senador estadual da Califórnia, Scott Wiener, leva um projeto de lei pelo qual os principais laboratórios da IA – provavelmente incluindo Xai – precisam publicar relatórios de segurança, enquanto a governadora de Nova York, Kathy Hochul, está atualmente considerando um projeto de lei semelhante. Os proponentes dessas contas observam que a maioria dos laboratórios de IA publica esse tipo de informação de qualquer maneira – mas aparentemente eles nem todos fazem isso de forma consistente.
Atualmente, os modelos de IA não devem mostrar cenários do mundo real nos quais causam danos realmente catastróficos, como a morte de pessoas ou bilhões de dólares em compensação. Muitos pesquisadores de IA dizem que isso pode ser um problema em um futuro próximo, dado o rápido progresso dos modelos de IA, e os bilhões de dólares no Vale do Silício investe para melhorar ainda mais a IA.
Mas mesmo para os céticos de tais cenários catastróficos, há um forte argumento para sugerir que a má conduta da GROK contém os produtos que ele contém consideravelmente hoje.
Grok espalhou anti -semitismo em torno da plataforma X esta semana, apenas algumas semanas após o chatbot levantar repetidamente “White Genocide” nas conversas com os usuários. Logo Musk indicou que Grok estará mais arraigado em veículos Tesla, e Xai está tentando vender seus modelos de IA para o Pentágono e outras empresas. É difícil imaginar que as pessoas que controlem os carros de almíscar, funcionários federais que protegem os EUA ou funcionários da empresa que automatizam as tarefas serão mais receptivos a essa má conduta do que os usuários em X.
Vários pesquisadores afirmam que os testes de segurança e coordenação da IA não apenas garantem que os piores resultados não ocorram, mas também protegem contra problemas comportamentais no curto prazo.
Os incidentes de Grok tendem a ofuscar o rápido progresso da XAI no desenvolvimento de modelos de IA de fronteira que melhor o Openai e a tecnologia do Google, apenas alguns anos após a criação da startup.