Quando Deepseek, Alibaba e outras empresas chinesas lançaram seus modelos de IA, os pesquisadores ocidentais rapidamente notaram que cercavam perguntas críticas sobre o Partido Comunista Chinês. As autoridades americanas confirmaram mais tarde que essas ferramentas foram projetadas para exibir os pontos de conversa de Pequim, para que se preocupem com a censura e o viés.
Líderes americanos de IA como o OpenAI apontaram isso como uma justificativa para promover rapidamente sua tecnologia, sem muitos regulamentos ou supervisão. Como o diretor de assuntos globais da Openai, Chris Lehane, escreveu em um post do LinkedIn no mês passado, há uma competição entre “a IA democrática guiada pelos EUA e a IA autocrática da China, guiada pelos comunistas”.
Uma ordem executiva assinada pelo presidente Donald Trump na quarta -feira que proibido “AI” e os modelos de IA despertados que não são “ideologicamente neutros” de contratos governamentais pode perturbar esse equilíbrio.
A ordem evoca diversidade, justiça e inclusão (DEI) que a chamam de ideologia “penetrante e destrutiva” que pode “distorcer a qualidade e a precisão da saída”. Em particular, a ordem refere -se a informações sobre raça ou sexo, manipulação de representação racial ou sexual, teoria crítica das corridas, transgenderismo, viés inconsciente, interseccionalidade e racismo sistêmico.
Especialistas alertam que pode criar um efeito de arrecadamento sobre os desenvolvedores que podem sentir a pressão para alinhar saídas e conjuntos de dados com retórica da Casa Branca para proteger dólares federais por suas empresas em queima de dinheiro.
A ordem ocorre no mesmo dia em que a Casa Branca publicou o ‘Plano de Ação da AI’ de Trump que as prioridades nacionais tiram o risco social e se concentra na construção de infraestrutura de IA, reduzindo a burocracia para empresas de tecnologia, reforçando a segurança nacional e competindo com a China.
O pedido concede ao Diretor do Escritório de Gerenciamento e Orçamento, juntamente com o gerente da Política Federal de Compra, o Gerente de Serviços Gerais e o Diretor do Escritório de Política de Ciência e Tecnologia para cumprir com outras agências.
Evento do TechCrunch
São Francisco
|
27-29 de outubro de 2025
“Não autorizado e para sempre perdemos”, disse Trump na quarta-feira, durante um evento de IA organizado pelo All-In Podcast e Hill & Valley Forum. “Vou assinar uma ordem que proíbe o governo federal de comprar a tecnologia de IA que é mergulhada em viés partidário ou agendas ideológicas, como a teoria crítica das corridas, que é ridícula. E a partir de agora o governo dos EUA apenas lidará com a IA que a verdade, a honestidade e a imparcialidade estrita”.
Determinar o que é imparcial ou objetivo é um dos muitos desafios para a ordem.
Philip Seargeant, professor de linguista aplicado sênior da Open University, disse ao TechCrunch que nada pode ser objetivo.
“Um dos princípios fundamentais da sociolinguística é que a linguagem nunca é neutra”, disse o sargento. “Então, a ideia de que você pode obter objetividade pura é uma fantasia.”
Além disso, a ideologia do governo Trump não reflete as crenças e valores de todos os americanos. Trump tentou repetidamente financiamento para iniciativas climáticas, educação, emissor público, pesquisa, provedores de serviços sociais, programas de apoio comunitário e agrícola e cuidados de confirmação de gênero, e essas iniciativas geralmente como exemplos de gastos governamentais “acordados” ou politicamente tendenciosos.
Como Rumman Chowdhury, um cientista de dados, CEO da inteligência humana técnica sem fins lucrativos, e o ex -enviado da ciência americana da IA, disseram: “Tudo (o governo Trump não é) é imediatamente acordado nessa pilha pejorativa”.
As definições de “buscador de verdade” e “neutralidade ideológica” na quarta -feira, publicada na quarta -feira, são vagas e específicas em outras pessoas. Embora “buscar a verdade” seja definida como LLMS que “prioriza a precisão histórica, a pesquisa científica e a objetividade”, “a neutralidade ideológica” é definida como LLMs que são “ferramentas neutras e não relacionadas à parte que não manipulam reações para dogmas ideológicos como DEI”.
Essas definições deixam espaço para uma ampla interpretação, bem como a pressão potencial. As empresas de IA instaram menos restrições sobre como funcionam. E embora uma ordem executiva não tenha a lei da legislação, as empresas de IA da fronteira ainda podem estar sujeitas às prioridades de mudança da agenda política do governo.
Na semana passada, o Openai, Anthropic, Google e Xai assinaram contratos com o Ministério da Defesa para receber até US $ 200 milhões para desenvolver fluxos de trabalho do agente AI relacionados a desafios críticos no campo da segurança nacional.
Não está claro qual dessas empresas está melhor posicionada para vencer a proibição do Word Ai, ou que elas satisfaçam.
O TechCrunch entrou em contato com cada um deles e atualizará este artigo quando ouvirmos novamente.
Apesar do fato de ele mostrar preconceitos, Xai é talvez o mais alinhado com a ordem – pelo menos neste estágio inicial. Elon Musk tem Grock, o chatbot de Xai, posicionado como o melhor anti-wok, “menos tendencioso”, tese de verdade. Os avisos do sistema da GROK os instruíram a impedir que adie as autoridades e mídias regulares, a procurar -as informações da clarificação, mesmo que sejam politicamente incorretas e até para referir as próprias opiniões de Musk sobre tópicos controversos. Nos últimos meses, Grok até espalhou comentários anti -semitas e elogiou Hitler em X, incluindo mensagens odiosas, racistas e misóginas.
Mark Lemley, professor de direito da Universidade de Stanford, disse ao TechCrunch que a Ordem Executiva “é claramente destinada como discriminação contra o ponto de vista, porque (o governo) acabou de assinar um contrato com Grok, também conhecido como ‘Mechahitler'”.
Além do financiamento do Departamento de Defesa da XAI, a empresa anunciou que “Grock para o governo” foi adicionado ao cronograma da Administração Geral de Serviços, o que significa que os produtos XAI estão agora disponíveis para compra em todos os escritórios e agências do governo.
“A pergunta correta é a seguinte: eles proibiriam Grock, a IA com a qual acabaram de assinar um contrato grande, porque foi deliberadamente projetado para dar respostas politicamente carregadas?” Disse Lemley em uma entrevista de e -mail. “Caso contrário, é claramente projetado para discriminar um certo ponto de vista”.
Como os próprios instruções do sistema da GROK mostraram, as saídas do modelo podem refletir as pessoas que constroem a tecnologia e os dados sobre os quais a IA é treinada. Em alguns casos, uma abundância de cautela entre os desenvolvedores e a IA treinou no conteúdo da Internet que promove os valores como inclusivos, levou a saídas de modelo distorcidas. Por exemplo, o Google foi criticado no ano passado, depois que o Gêmeos-Chatbot grita um George Washington negro e vários nazistas morrem a ordem de Trump como um exemplo de modelos de IA infectados pela DEI.
Chowdhury diz que seu maior medo dessa ordem executiva é que as empresas de IA retrabalhem ativamente os dados de treinamento para arrastar a linha do partido. Ela apontou para declarações de Musk algumas semanas antes do lançamento do GROK 4 e disse que Xai usaria o novo modelo e as opções avançadas de raciocínio para “reescrever todo o corpus do conhecimento humano, adicionar informações ausentes e remover erros. Em seguida, reorganize -o”.
Aparentemente, isso levaria Musk à posição de julgar o que é verdadeiro, que enorme poder que reduz as implicações de redução de poder poderia ter como as informações são acessíveis.
Obviamente, as empresas fizeram conversas sobre quais informações são vistas e não vistas desde o início da Internet.
Conservadores como David Sacks-de empresário e investidor que nomearam Trump como o czar da AI-é declarado suas preocupações com “acordaram ai” no podcast All-In, que co-convidou sua co-luta. Sacks acusou os fabricantes de produtos de IA proeminentes de infundi-los com valores de esquerda, enquadrando seus argumentos como uma defesa da liberdade de expressão e um aviso contra uma tendência ao controle ideológico centralizado nas plataformas digitais.
O problema, dizem os especialistas, é que não há verdade. É impossível alcançar resultados imparciais ou neutros, especialmente no mundo de hoje, onde até os fatos são politizados.
“Se os resultados que uma IA produz dizem que a ciência climática está correta, é a ala esquerda tendenciosa?” Saygeant disse. “Algumas pessoas dizem que você precisa dar aos dois lados do argumento objetivo, mesmo que um lado do argumento não tenha status”.