Les dirigeants de la Silicon Valley, dont David Sacks, tsar de l’IA et de la cryptographie à la Maison Blanche, et Jason Kwon, directeur de la stratégie d’OpenAI, ont fait sensation en ligne cette semaine pour leurs commentaires sur les groupes promouvant la sécurité de l’IA. Dans des cas distincts, ils ont allégué que certains partisans de la sécurité de l’IA ne sont pas aussi vertueux qu’il y paraît et agissent soit dans leur propre intérêt, soit dans celui de marionnettistes milliardaires en coulisses.
Les groupes de sécurité de l’IA qui se sont entretenus avec TechCrunch affirment que les allégations de Sacks et d’OpenAI sont la dernière tentative de la Silicon Valley d’intimider ses détracteurs, mais certainement pas la première. En 2024, certaines sociétés de capital-risque répandre des rumeurs qu’un projet de loi californien sur la sécurité de l’IA, BS 1047enverrait les fondateurs de startups en jail. La Brookings Establishment a qualifié cette rumeur de « parmi tant d’autres »fausses déclarations » à propos du projet de loi, mais le gouverneur Gavin Newsom a quand même finalement opposé son veto.
Que Sacks et OpenAI aient eu ou non l’intention d’intimider les critiques, leurs actions ont suffisamment effrayé plusieurs défenseurs de la sécurité de l’IA. De nombreux dirigeants d’organisations à however non lucratif contactés par TechCrunch la semaine dernière ont demandé à s’exprimer sous couvert d’anonymat pour épargner à leurs groupes des représailles.
La controverse souligne la rigidity croissante de la Silicon Valley entre la development de l’IA de manière responsable et sa development pour en faire un produit de consommation huge – un thème que mes collègues Kirsten Korosec, Anthony Ha et moi-même aborderons dans l’édition de cette semaine. Équité podcast. Nous nous penchons également sur une nouvelle loi sur la sécurité de l’IA adoptée en Californie pour réglementer les chatbots, ainsi que sur l’approche d’OpenAI en matière d’érotisme dans ChatGPT.
Mardi, Sacks a écrit un poster sur X alléguant qu’Anthropic – qui a soulevé des inquiétudes sur la capacité de l’IA à contribuer au chômage, aux cyberattaques et aux dommages catastrophiques causés à la société – est simplement un discours alarmiste visant à faire adopter des lois qui lui seront bénéfiques et à noyer les petites startups dans la paperasse. Anthropic était le seul grand laboratoire d’IA à approuver le projet de loi 53 du Sénat de Californie (SB 53), un projet de loi qui fixe les exigences en matière de rapports de sécurité pour les grandes entreprises d’IA, qui a été promulgué le mois dernier.
Sacks répondait à un essai viral du co-fondateur d’Anthropic, Jack Clark, à propos de ses craintes concernant l’IA. Clark a prononcé l’essai sous forme de discours lors de la conférence sur la sécurité Curve AI à Berkeley quelques semaines plus tôt. Assis dans le public, cela ressemblait certainement à un véritable récit des réserves d’un technologue à l’égard de ses produits, mais Sacks ne le voyait pas de cette façon.
Sacks a déclaré qu’Anthropic mène une « stratégie sophistiquée de seize de la réglementation », même s’il convient de noter qu’une stratégie véritablement sophistiquée n’impliquerait probablement pas de faire du gouvernement fédéral un ennemi. Dans un publish de suivi sur X, Sacks a noté qu’Anthropic s’est « systématiquement positionné comme un ennemi de l’administration Trump ».
Événement Techcrunch
San Francisco
|
27-29 octobre 2025
Cette semaine également, le directeur de la stratégie d’OpenAI, Jason Kwon, a écrit un poster sur X expliquant pourquoi l’entreprise envoyait des assignations à comparaître à des organisations à however non lucratif chargées de la sécurité de l’IA, telles que Encode, une organisation à however non lucratif qui milite en faveur d’une politique responsable en matière d’IA. (Une assignation à comparaître est un ordre juridique exigeant des paperwork ou un témoignage.) Kwon a déclaré qu’après qu’Elon Musk ait poursuivi OpenAI – en raison de craintes que le créateur de ChatGPT ne se soit détourné de sa mission à however non lucratif – OpenAI a trouvé suspect la façon dont plusieurs organisations ont également soulevé leur opposition à sa restructuration. Encode a déposé un mémoire d’amicus à l’appui du procès de Musk, et d’autres organisations à however non lucratif se sont prononcées publiquement contre la restructuration d’OpenAI.
« Cela a soulevé des questions de transparence quant à savoir qui les finançait et s’il y avait une coordination », a déclaré Kwon.
NBC Information a rapporté cette semaine qu’OpenAI avait envoyé de larges assignations à comparaître à Encode et six autres organisations à however non lucratif qui a critiqué l’entreprise, demandant ses communications liées à deux des plus grands opposants d’OpenAI, Musk et le PDG de Meta, Mark Zuckerberg. OpenAI a également demandé à Encode des communications liées à sa prise en cost du SB 53.
Un éminent chief de la sécurité de l’IA a déclaré à TechCrunch qu’il existe une division croissante entre l’équipe des affaires gouvernementales d’OpenAI et son organisation de recherche. Alors que les chercheurs en sécurité d’OpenAI publient fréquemment des rapports révélant les risques des systèmes d’IA, l’unité politique d’OpenAI a fait pression contre le SB 53, affirmant qu’elle préférerait avoir des règles uniformes au niveau fédéral.
Joshua Achiam, responsable de l’alignement des missions d’OpenAI, a parlé du fait que son entreprise avait envoyé des assignations à comparaître à des organisations à however non lucratif dans un poster sur X cette semaine.
« Au risque de mettre ma carrière en hazard, je dirai : cela ne semble pas génial », a déclaré Achiam.
Brendan Steinhauser, PDG de l’Alliance for Safe AI (qui n’a pas été assignée à comparaître par OpenAI), a déclaré à TechCrunch qu’OpenAI semble convaincu que ses détracteurs font partie d’une conspiration dirigée par Musk. Cependant, il soutient que ce n’est pas le cas et qu’une grande partie de la communauté de la sécurité de l’IA est assez critique à l’égard des pratiques de sécurité de xAI, ou son absence.
« De la half d’OpenAI, cela vise à faire taire les critiques, à les intimider et à dissuader d’autres organisations à however non lucratif de faire de même », a déclaré Steinhauser. « Pour Sacks, je pense qu’il s’inquiète du fait que le mouvement (pour la sécurité de l’IA) se développe et que les gens veulent demander des comptes à ces entreprises. »
Sriram Krishnan, conseiller politique principal de la Maison Blanche pour l’IA et ancien associé général d’a16z, est intervenu dans la dialog cette semaine avec un publication sur les réseaux sociaux de lui-même, qualifiant les défenseurs de la sécurité de l’IA de déconnectés. Il a exhorté les organisations chargées de la sécurité de l’IA à parler « aux personnes du monde réel qui utilisent, vendent et adoptent l’IA chez elles et dans leurs organisations ».
Une étude récente de Pew a révélé qu’environ la moitié des Américains sont plus inquiet qu’excité à propos de l’IA, mais on ne sait pas exactement ce qui les inquiète. Une autre étude récente a été plus détaillée et a révélé que les électeurs américains se soucient davantage de pertes d’emploi et deepfakes que les risques catastrophiques causés par l’IA, sur lesquels se concentre largement le mouvement pour la sécurité de l’IA.
Répondre à ces problèmes de sécurité pourrait se faire au détriment de la croissance rapide du secteur de l’IA – un compromis qui inquiète de nombreuses personnes dans la Silicon Valley. Alors que les investissements dans l’IA soutiennent une grande partie de l’économie américaine, la crainte d’une réglementation extreme est compréhensible.
Mais après des années de progrès non réglementés en matière d’IA, le mouvement pour la sécurité de l’IA semble prendre un réel élan à l’approche de 2026. Les tentatives de la Silicon Valley pour lutter contre les groupes axés sur la sécurité pourraient être le signe qu’elles fonctionnent.