Méta a expliqué Pourquoi son chatbot IA n’a-t-il pas voulu répondre aux questions sur la tentative d’assassinat de Trump et a-t-il ensuite, dans certains cas, nié que l’événement ait eu lieu ? L’entreprise a déclaré avoir programmé Meta AI pour ne pas répondre aux questions sur un événement juste après qu’il se soit produit, automobile il y a généralement « une énorme quantité de confusion, d’informations contradictoires ou de théories de conspiration pure et easy dans le domaine public ». Quant à la raison pour laquelle Meta AI a fini par affirmer que la tentative n’avait pas eu lieu « dans un petit nombre de cas », c’était apparemment dû à des hallucinations.
Une IA « hallucine » lorsqu’elle génère des réponses fausses ou trompeuses à des questions qui nécessitent des réponses factuelles en raison de divers facteurs tels que des données d’entraînement inexactes et des modèles d’IA qui peinent à analyser plusieurs sources d’info. Meta affirme avoir mis à jour les réponses de son IA et admet qu’elle aurait dû le faire plus tôt. Elle travaille toutefois toujours à résoudre son problème d’hallucinations, de sorte que son chatbot pourrait toujours dire aux gens qu’il n’y a pas eu d’attentat contre la vie de l’ancien président.
Meta a également expliqué pourquoi ses plateformes de médias sociaux avaient appliqué à tort l’étiquette de vérification des faits à la photograph de Trump le poing en l’air prise juste après la tentative d’assassinat. Une model trafiquée de cette picture donnait l’impression que ses brokers des companies secrets and techniques souriaient, et l’entreprise lui a appliqué une étiquette de vérification des faits. Comme les photographs originales et trafiquées étaient presque identiques, les systèmes de Meta ont également appliqué l’étiquette à la vraie picture. L’entreprise a depuis corrigé l’erreur.
Les partisans de Trump ont crié au scandale à propos des actions de Meta AI et ont accusé l’entreprise de supprimer l’histoire. Google a dû émettre une réponse Le moteur de recherche de Google a imposé une « interdiction de recherche » à l’ancien président Elon Musk. Musk a partagé une picture montrant la saisie semi-automatique de Google suggérant « président Donald Duck » lorsque quelqu’un tape « président Donald ». Google a expliqué que cela était dû à un bug affectant sa fonction de saisie semi-automatique et a déclaré que les utilisateurs peuvent rechercher ce qu’ils veulent à tout second.