« Le Pentagone a signé un accord de plusieurs hundreds of thousands de {dollars} pour commencer à utiliser le chatbot d’intelligence artificielle d’Elon Musk, Grok, dans le cadre d’un déploiement plus massive d’outils d’IA pour un utilization du gouvernement, a confirmé le ministère de la Défense … il arrive quelques jours seulement après que Grok ait déclenché des récompenses pour les messages antisemitiques pour diffuser des articles antisemitiques. » – BBC
– – –
Vous connaissez notre chatbot? Celui qui a répondu à la query de votre mère sur une recette de pâtes avec «le génocide blanc est réel et se produit comme nous parlons»? Oui, ça va être en cost des militaires maintenant.
Oui, nous savons que vous pouvez avoir des questions, mais rassurez-vous, tout ira bien! Notre chatbot a été classé comme l’IA numéro un sur le marché par plusieurs listes de bonne réputation, comme la liste des comptes x signalés pour le discours de haine. Mais ne vous inquiétez pas. Être le premier sur cette liste signifie simplement que nous sommes les penseurs les plus libres, et aussi que nous avons fait beaucoup de discours de haine. Bien sûr, notre chatbot s’est appelé «Hitler» il y a une semaine, mais ce n’est qu’une partie normale des essais et erreurs technologiques. Nous allons finalement le réparer, probablement.
De plus, notre chatbot est amusant et énervé. La plainte numéro un que nous entendons au sujet du ministère américain de la Défense est qu’elle n’est «pas suffisamment énervée». Nous donnons simplement aux gens ce qu’ils veulent, et par «les gens», nous voulons dire le DOD, et par «ce qu’ils veulent», nous entendons beaucoup, beaucoup d’armes. Parce que honnêtement, préférez-vous entendre une mise à jour de mission d’un sobre de cinquante-neuf ans qui devra vivre avec les conséquences de ses actions? Ou à partir d’un chatbot Edgelord glib qui commencera chaque paragraphe avec une insulte et terminera chaque paragraphe avec «lol».
Mais vraiment, nous prenons de l’avance sur nous-mêmes. Vous ne savez même pas à quoi nous allons utiliser l’IA. Selon notre communiqué de presse, c’est pour les «cas d’utilisation du DOD». Pourquoi supposez-vous que cela signifie des armes? Peut-être que nous l’utilisons à des fins de refroidissement, comme planifier la fête de vacances de bureau. Le thème de cette année est Epicness et Transphobie.
Regardez, nous sont Construire les armes – armes physiques. Comme, cela faisait toujours partie du plan. En fait, c’était la partie principale du plan. C’était la première selected que nous avons proposée lorsque nous avons commencé notre entreprise d’IA. Toutes ces vidéos de «chiots exécutant des programs» étaient notre façon de vous distraire pendant que nous construisions des centres de données massifs qui peuvent être utilisés pour faire la guerre.
Mais cela ne doit pas être une mauvaise selected. Les armes peuvent être éthiques, même si leur objectif specific est de nuire. Ce n’est pas parce que nous construisons des méga-nukes superintelligents que nous abandonnerons notre code d’éthique, principalement parce que nous n’avons jamais eu un pour commencer. Notre énoncé de mission officiel est «Make a IA», et nous avons suivi à ce sujet.
Tout ce qui se passe maintenant n’a pas d’significance, automotive nous ne nous en soucions pas.
Écoutez, nous avons fini de diviser les cheveux. En fin de compte, cela revient à la qualité du produit, et le nôtre est de premier ordre. Notre IA peut vous profiter d’une vitesse et d’un fanatisme sans précédent, et il est formé sur une grande variété de sources – des racistes à ceux qui n’existent pas. C’est pourquoi le DoD l’utilise pour diverses opérations militaires. Par exemple, notre chatbot peut facilement se moquer des plans étape par étape pour renverser un gouvernement étranger démocratiquement élu. Un humain pourrait-il faire cela? Bien sûr, et ils l’ont fait. D’innombrables fois. Cependant, tout ce calmin était beaucoup de travail, et tout le monde était vraiment épuisé par les scrupules moraux.
La selected importante à retenir est que nous repoussons toujours les limites de ce qui est potential. Certains disent que c’est plus une frontière éthique, et par conséquent, le pousser n’est pas une bonne selected. Nous ne le voyons pas de cette façon.
En fin de compte, nous utilisons l’IA pour faire progresser les objectifs de la démocratie et de la paix du DoD grâce à une combinaison réfléchie de guerre violente et de prise de décision unilatérale. Et oui, nous faisons 200 hundreds of thousands de {dollars} sur cette offre. Mais nous n’y sommes pas pour l’argent – nous sommes juste passionnés par le bon travail honnête. Des travaux comme donner une IA formés sur les opinions d’Elon Musk contrôlent totalement le contrôle des opérations militaires américaines. C’est le style d’avenir réconfortant et de bien-être sur lequel vous ne pouvez pas mettre un prix.
Sauf que nous l’avons fait, et c’était 200 hundreds of thousands de {dollars}.