Xai a blâmé une «modification non autorisée» pour un bug dans son chatbot Grok propulsé par AI qui a fait que Grok se référer à plusieurs reprises à «Genocide blanc en Afrique du Sud» lorsqu’il a été invoqué dans certains contextes sur X.
Mercredi, Grok a commencé à répondre à des dizaines de messages sur X avec des informations sur le génocide blanc en Afrique du Sud, même en réponse à des sujets non liés. Les réponses étranges provenaient du compte X pour Grok, qui répond aux utilisateurs avec des publications générées par AI chaque fois qu’une personne marque «@grok».
Selon un article jeudi du compte officiel de Xai, un changement a été apporté mercredi matin à l’invite du système du bot de Grok – les directions de haut niveau qui guident le comportement du bot – qui a ordonné à Grok de fournir une «réponse spécifique» sur un «sujet politique». XAI dit que le toit «a violé (ses) politiques internes et valeurs fondamentales» et que la société a «mené une enquête approfondie».
C’est la deuxième fois que XAI reconnaît publiquement un changement non autorisé au code de Grok a fait réagir l’IA de manière controversée.
En février, Grok brièvement censuré Des mentions peu flatteuses de Donald Trump et Elon Musk, le fondateur milliardaire de Xai et propriétaire de X. Igor Babuschkin, une avance d’ingénierie de Xai, ont déclaré que Grok avait été instruit par un employé voyou pour ignorer les sources qui ont mentionné Musk ou Trump répandant la désinformation, et que Xai a remonté le changement dès que les utilisateurs ont commencé à le souligner.
Xai a déclaré jeudi qu’il allait apporter plusieurs modifications pour empêcher les incidents similaires de se produire à l’avenir.
À partir d’aujourd’hui, Xai Publier les invitations du système Grok sur github ainsi qu’un changelog. La société affirme qu’elle «metra en place des contrôles et mesures supplémentaires» pour s’assurer que les employés de Xai ne peuvent pas modifier l’invite du système sans examen et établir une «équipe de surveillance 24/7 pour répondre aux incidents avec les réponses de Grok qui ne sont pas capturées par des systèmes automatisés».
Malgré les avertissements fréquents de Musk sur les risks de IA disparu incontrôléXai a une mauvaise expérience en matière de sécurité de l’IA. Un rapport récent ont constaté que Grok déshabillerait les pictures des femmes lorsqu’on lui a demandé. Le chatbot peut également être considérablement plus grossier que l’IA comme les Gémeaux de Google et le Chatgpt, maudissant sans trop de retenue à parler.
Une étude de Saferai, un organisme à however non lucratif visant à améliorer la responsabilité des laboratoires d’IA, a révélé que XAI se classe mal sur la sécurité parmi ses pairs, en raison de son Pratiques de gestion des risques «très faibles». Plus tôt ce mois-ci, xai manqué une date limite auto-imposée pour publier un cadre de sécurité IA finalisé.