Início Tecnologia O relatório de segurança prometido de Xai é MIA

O relatório de segurança prometido de Xai é MIA

17
0
The xAI logo displayed on a smartphone screen.

A empresa de IA de Elon Musk, Xai, perdeu um prazo auto-imposto para publicar uma estrutura de segurança de IA definitiva, conforme observado pelo projeto WaakhondGroep the Midas.

O XAI não é exatamente conhecido por seus fortes compromissos com a segurança da IA, porque geralmente é entendida. Um relatório recente mostrou que o chatbot da AI da empresa, Grok, despiria fotos de mulheres quando solicitado. Grok também pode ser consideravelmente mais grosseiro do que os chatbots como Gemini e Chatgpt, maldição sem muita relutância em falar.

No entanto, a XAI publicou em fevereiro na cúpula da AI Seoul, uma reunião global de líderes e partes interessadas de IA, uma estrutura conceitual na qual a abordagem da empresa para segurança de IA foi estabelecida. O documento de oito páginas explicou as prioridades de segurança e a filosofia de Xai, incluindo os protocolos de benchmarking da empresa e considerações do modelo de IA.

No entanto, como afirmou na terça -feira o projeto de Midas em uma postagem no blog, o design se aplica apenas a futuros modelos de IA não específicos “atualmente não em desenvolvimento”. Além disso, não conseguiu articular como a XAI identificaria e implementaria restrições de risco, um componente central de um documento que a empresa assinou no AI Seoul -Top.

No design, Xai disse que planejava lançar uma versão revisada de sua política de segurança “dentro de três meses” – em 10 de maio. O prazo chegou e foi sem reconhecimento nos canais oficiais de Xai.

Apesar dos avisos frequentes de Musk para os perigos da IA ​​que não foram verificados, Xai tem um histórico ruim da IA. Um estudo recente da Saferéi, uma organização sem fins lucrativos que deseja melhorar a responsabilidade dos laboratórios da IA, mostrou que Xai marca mal entre seus colegas por causa das práticas de gerenciamento de riscos “muito fracas”.

Isso não significa que outros laboratórios de IA façam isso dramaticamente melhor. Nos últimos meses, os rivais da XAI, incluindo Google e Openai, correram para os testes de segurança e demoram a publicar os relatórios de segurança dos modelos de modelos (ou publicar relatórios de publicação completamente). Alguns especialistas expressaram preocupação de que a aparente depioritização dos esforços de segurança chegue em um momento em que a IA é mais capaz – e, portanto, potencialmente perigosa – do que nunca.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here