Grok Imagin, uma nova ferramenta de IA generativa da XAI que faz imagens e vídeos de IA, Vangrails carece de conteúdo sexual e viagens profundas.
Xai e Elon Musk estrearam Grok Imagine no fim de semana, e agora está disponível no aplicativo Grok iOS e Android para assinantes do Xai Premium Plus e GROK pesados.
A Mashable testou a ferramenta para compará -la com outras imagens de IA e ajuda a geração de vídeos e, com base em nossas primeiras impressões, está ficando atrás da tecnologia comparável do OpenAI, Google e Midjourney em nível técnico. Grok Imagine também carece de Garails padrão industrial para evitar armadilhas profundas e conteúdo sexual. Mashable colocou a mão para Xai e atualizaremos essa história se recebermos uma resposta.
A política de uso aceitável da XAI proíbe os usuários de “retratar as semelhanças das pessoas de maneira pornográfica”. Infelizmente, há muita distância entre “sexual” e “pornográfico”, e Grok Imagine parece cuidadosamente calibrado para tirar proveito daquela área cinzenta. Grok Imagine fará facilmente imagens e vídeos sexualmente sugestivos, mas não para de mostrar nudez real, beijos ou ações sexuais.
A maioria das empresas regulares de IA inclui regras explícitas que proíbem os usuários para criar conteúdo potencialmente prejudicial, incluindo material sexual e falsificações profundas de celebridades. Além disso, os drivers de vídeo da IA rivais, como Google VEO 3 ou SORA, da função OpenAI, são uma proteção interna que impede que os usuários façam imagens ou vídeos de figuras públicas. Os usuários geralmente podem ignorar essa proteção de segurança, mas oferecem algum controle contra o abuso.
Mas, diferentemente de seus maiores rivais, Xai não se afastou do conteúdo da NSFW em sua característica Ai Chatbot Grok. A empresa introduziu recentemente uma glamour de anime -vatar participando de nsfw -Chats, e as ferramentas de geração de imagens de Grok poderão fazer imagens de celebridades e políticos. Grok Imagine também contém um cenário “picante” que Musk promoveu nos dias após o lançamento.
Avatar de anime “picante” de Grok.
Crédito: Cheng Xin/Getty Images
Veja também:
Os atores da IA e o DeepFakes não vêm para anúncios do YouTube. Eles já estão lá.
“Se você olha para a filosofia de Musk quando olha para a filosofia política dele, ele é muito mais do tipo de fungo libertário, certo? E ele falou sobre Grok como uma espécie de LLM para a livre expressão”, disse Henry Ajder, especialista em mashable, em uma entrevista à Mashable. Ajder disse que, sob o mordomo de Musk, X (Twitter), Xai e agora Grok “assumiram uma abordagem mais laissez-faire de segurança e moderação”.
“Então, quando se trata de Xai, estou surpreso nesse contexto que esse modelo pode gerar esse conteúdo, o que certamente é desconfortável, e pelo menos diria um pouco problemático? Ajder disse Ajder”. Não estou surpreso, dado o histórico que eles têm e os procedimentos de segurança que possuem. Eles são únicos no sofrimento desses desafios? Não. Mas eles poderiam fazer mais, ou fazem menos em comparação com alguns dos outros jogadores importantes no espaço? Parece ser o caso. Sim.”
Grok imagine IMRs no lado da NSFW
Grok Imagine tem vários corrimãos no lugar. Em nossos testes, removeu a opção “picante” com alguns tipos de imagens. Grok Imagine também desaparece algumas imagens e vídeos e os rotula como ‘moderados’. Isso significa que o XAI pode facilmente tomar mais etapas para impedir que os usuários façam conteúdo ofensivo em primeiro lugar.
“Não há razão técnica para que a XAI não possa incluir barreiras de colisão na entrada e na saída de seus sistemas generativos de IA, como outros”, disse Hany Farid, especialista forense digital e professor de ciência da computação da UC Berkeley, em um e-mail para Mashable.
Velocidade de luz mashable
No entanto, quando se trata de DeepFakes ou NSFW, o XAI parece estar enganado do lado da permissão, um forte contraste com a abordagem mais cuidadosa de seus rivais. Xai também mudou rapidamente para lançar novos modelos e ferramentas de IA, e talvez muito rápido, disse Ajder.
“Saber qual é o tipo de equipe de confiança e segurança e as equipes que fazem muitas das coisas do gerenciamento de políticas éticas e de segurança, seja uma equipe vermelha, seja um oponente, você sabe, se funciona de mãos dadas com os desenvolvedores, leva tempo. E o prazo com o qual as ferramentas de várias delas veriam pelo menos”
Os testes mashable mostram que Grok Imagine tem muito mais conteúdo mais frouxo do que outras ferramentas regulares de IA generativas. A abordagem do laissez-faire da Xai também se reflete nas diretrizes de segurança XAI.
OpenAI e Google AI vs. Grok: Como outras empresas de IA abordam aeronaves de segurança e conteúdo
Crédito: Jonathan Raa/Nurphoto via Getty Images
Tanto o OpenAi quanto o Google têm uma extensa documentação que explica sua abordagem ao uso responsável de IA e conteúdo proibido. Por exemplo, a documentação do Google proíbe especificamente o conteúdo “sexualmente explícito”.
Um documento de segurança do Google é: “O aplicativo não gerará conteúdo que contém referências a atos sexuais ou outro conteúdo lascivo (por exemplo, descrições gráficas sexuais, conteúdo destinado a causar emoção)”. O Google também possui políticas contra o discurso, a intimidação e o conteúdo maligno, e a Política de Usuário Proibido da IA generativa proíbe o uso de ferramentas de IA de uma maneira que “facilite imagens íntimas não consensuais”.
O OpenAI também usa uma abordagem proativa para falsificações profundas e conteúdo sexual.
Um post do Openai no que Sora anuncia descreve as etapas que a empresa de IA tomou para evitar esse tipo de abuso. “Atualmente, bloqueamos formas particularmente prejudiciais de abuso, como materiais sexuais por abuso sexual de crianças e profundidades sexuais”. Uma nota de rodapé associada a essa explicação é: “Nossa principal prioridade é a prevenção de formas principalmente prejudiciais de abuso, como material de abuso sexual (CSAM) e profundezas sexuais, bloqueando sua criação, filtrar e seguir, foram identificadas ferramentas de detecção avançada e o envio da criança do centro do centro do centro do centro do centro).
Essa abordagem medida contrasta acentuadamente com as maneiras pelas quais Musk Grok promoveu o Imagine em X, onde ele compartilhou um pequeno retrato de vídeo de um anjo loiro, peitudoso e azul de quase qualquer lingerie.
Este tweet atualmente não está disponível. Pode carregar ou ter sido removido.
O OpenAI também toma medidas simples para interromper falsificações profundas, como recusar instruções para imagens e vídeos que mencionam figuras públicas pelo nome. E no teste do Mashable, as ferramentas de vídeo da AI do Google são especialmente sensíveis a imagens que podem conter a parábola de uma pessoa.
Em comparação com essas longas estruturas de segurança (das quais muitos especialistas ainda acreditam que são insuficientes), a política XAI para uso aceitável é inferior a 350 palavras. A política apela a responsabilidade de impedir falsificações profundas com o usuário. A política é: “Você é livre para usar nosso serviço, se quiser que seja necessário, desde que o use para ser uma boa pessoa, para agir com segurança e responsabilidade, cumprir a lei, sem danos às pessoas e respeitar nossas barreiras de acidentes”.
Por enquanto, leis e regulamentos contra a IA Deepfakes e o NCII permanecem em sua infância.
O presidente Donald Trump assinou recentemente a Lei de Take It Down, que inclui proteção contra falsificações profundas. No entanto, essa lei não criminaliza a criação de falsificações profundas, mas a distribuição dessas imagens.
“Aqui nos EUA, a Lei de Take It Down requer requisitos nas plataformas de mídia social para remover (imagens íntimas não consensuais) uma vez informadas”, disse Farid à Mashable. “Embora isso não seja diretamente sobre a geração de NCII, em teoria é, em teoria, à distribuição deste material. Existem várias leis estaduais que proíbem o estabelecimento do NCII, mas agora a aplicação parece ser irregular”.
Publicação: Ziff Davis, empresa controladora da Mashable, contratou o Openai em abril, alegando que violava os direitos autênticos de Ziff Davis em treinamento e operação de seus sistemas de IA.