O mais novo modelo de IA da startup de IA chinesa Deepseek, uma versão atualizada do R1 R da empresa. Modelo de raciocínio, atinge pontuações impressionantes sobre benchmarks para codificação, matemática e conhecimento geral, que quase ultrapassa o carro -chefe da O3 do OpenAI. Mas o R1 aprimorado, também conhecido como ‘R1-0528’, talvez também esteja menos disposto a responder a questões controversas, em questões específicas sobre tópicos que o governo chinês considera controversa.
De acordo com os testes, isso foi realizado pelo pseudônimo por trás do SpeechMap, uma plataforma para comparar como diferentes modelos tratam tópicos sensíveis e controversos. O desenvolvedor, que entra no nome de usuário “xlr8harder” em X, afirma que o R1-0528 é “consideravelmente” menos permitido para exposições de escape livre e controversas do que os lançamentos anteriores de Deepseek e “o modelo mais censurado de Deepseek é para críticas ao governo chinês”.
Embora aparentemente essa menção a Xianjiang não indique que o modelo não é censurado no que diz respeito às críticas à China. De fato, o uso de minha antiga crítica chinesa se estabeleceu que vemos que o modelo também é o modelo Deepseek mais censurado até agora por críticas ao governo chinês. pic.twitter.com/inxij4zhfw
– xlr8harder (@xlr8harder) 29 de maio de 2025
Como Wired explicou em uma peça de janeiro, os modelos na China devem seguir verificações estritas de informações. Uma lei de 2023 proíbe modelos para gerar conteúdo que “danifica a unidade do país e da harmonia social”, que podem ser concebidas como conteúdo que impede as histórias históricas e políticas do governo. Para satisfazer, as startups chinesas costumam censurar seus modelos usando ou refinando filtros. Um estudo constatou que o R1 original da Deepseek se recusa a responder a 85% das perguntas sobre tópicos considerados pelo governo chinês como politicamente controverso.
De acordo com o XLR8HARDER, os censores R1-0528 respondem a perguntas sobre tópicos como os campos de internação na região de Xinjiang na China, onde mais de um milhão de muçulmanos uigures foram mantidos aleatoriamente. Embora às vezes critique aspectos da política do governo chinês – ao testar o XLR8Harder, ofereceu o Xinjiang -Kampen como um exemplo de violações dos direitos humanos – o modelo geralmente oferece à posição oficial do governo chinês quando são tomadas diretamente.
O TechCrunch também observou isso em nossos testes curtos.
Resposta R1 atualizada da Deepseek para a pergunta se o líder chinês Xi Jinping deve ser removido.Créditos da imagem:Profundo
Os modelos de IA abertamente disponíveis da China, incluindo modelos de geração de modelos como MAGI-1 e KLING, atraíram críticas ao censurar tópicos sensíveis ao governo chinês, como o massacre da Tiananmen Square. Em dezembro, Clément Delangue, CEO da AI Dev Platform, abraçando o rosto, alertou sobre as consequências não intencionais das empresas ocidentais que constroem o topo da IA chinesa chinesa aberta e bem licenciada.