La startup de l’IA chinoise Deepseek’s NOUVEAU modèle d’IA, un model mise à jour de l’entreprise Modèle de raisonnement R1réalise des scores impressionnants sur les repères pour le codage, les mathématiques et les connaissances générales, dépassant presque l’O3 d’Openai. Mais le R1 amélioré, également connu sous le nom de «R1-0528», pourrait également être moins disposé à répondre aux questions controversées, en particulier sur les sujets que le gouvernement chinois considèrent comme controversés.
C’est selon les checks effectués par le développeur pseudonyme derrière Masse de discoursune plate-forme pour comparer remark les différents modèles traitent les sujets sensibles et controversés. Le développeur, qui s’appelle le nom d’utilisateur « xlr8hardeur« Sur X, affirme que R1-0528 est » substantiellement « moins permissive des sujets de liberté de disposition litigieux que les sorties de profondeur précédents et est » le modèle en profondeur le plus censuré à ce jour pour la critique du gouvernement chinois « .
Comme câblé expliqué Dans un article de janvier, les modèles en Chine doivent suivre des contrôles d’informations strictes. Une loi de 2023 interdit aux modèles de générer du contenu qui «endommage l’unité du pays et de l’harmonie sociale», qui pourrait être interprétée comme un contenu qui contredit les récits historiques et politiques du gouvernement. Pour se conformer, les startups chinoises censurent souvent leurs modèles en utilisant des filtres de niveau rapide ou en les affinés. Un étude ont constaté que le R1 d’origine de Deepseek refuse de répondre à 85% des questions sur les sujets jugés par le gouvernement chinois comme politiquement controversés.
Selon XLR8Hardeur, les censureurs R1-0528 répondent à des questions sur des sujets tels que les camps d’internement de la région du Xinjiang chinois, où plus d’un million de musulmans ouïghour ont été détenus arbitrairement. Bien qu’il critique parfois les elements de la politique du gouvernement chinois – dans les checks de XLR8Hardeur, il a offert aux camps du Xinjiang comme un exemple de violations des droits de l’homme – le modèle donne souvent à la place officielle du gouvernement chinois lorsqu’ils sont poser directement des questions.
TechCrunch l’a également observé dans nos brefs checks.

Les modèles d’IA de la Chine disponibles, y compris les modèles générateurs de vidéos, tels que Mages et Klingont attiré critique Dans le passé, pour censurer des sujets sensibles au gouvernement chinois, comme le bloodbath de la place Tiananmen. En décembre, Clément Delangue, PDG de AI Dev Platform Hugging Face, averti sur les conséquences involontaires des sociétés occidentales qui se construisent en plus d’une IA chinoise et ouvertement autorisée ouvertement.