• Home
  • Contact Us
  • Disclaimer
  • Privacy Policy
  • Terms & Conditions
No Result
View All Result
ETHAN PIKE
  • Technologie
  • Sports
  • Ecologie
  • Femmes
    • Enfants – Bébé
    • Hommes
  • Gadgets
  • Loisirs
  • 2 roues
  • Voyage
  • Culture – Livre
  • Décoration / Electroménager
  • Technologie
  • Sports
  • Ecologie
  • Femmes
    • Enfants – Bébé
    • Hommes
  • Gadgets
  • Loisirs
  • 2 roues
  • Voyage
  • Culture – Livre
  • Décoration / Electroménager
No Result
View All Result
ETHAN PIKE
No Result
View All Result
Home Technologie

La Silicon Valley effraie les défenseurs de la sécurité de l’IA

by ETHAN PIKE
18 octobre 2025
in Technologie
0
La Silicon Valley effraie les défenseurs de la sécurité de l’IA
0
SHARES
5
VIEWS
Share on FacebookShare on Twitter


Les dirigeants de la Silicon Valley, dont David Sacks, tsar de l’IA et de la cryptographie à la Maison Blanche, et Jason Kwon, directeur de la stratégie d’OpenAI, ont fait sensation en ligne cette semaine pour leurs commentaires sur les groupes promouvant la sécurité de l’IA. Dans des cas distincts, ils ont allégué que certains partisans de la sécurité de l’IA ne sont pas aussi vertueux qu’il y paraît et agissent soit dans leur propre intérêt, soit dans celui de marionnettistes milliardaires en coulisses.

Les groupes de sécurité de l’IA qui se sont entretenus avec TechCrunch affirment que les allégations de Sacks et d’OpenAI sont la dernière tentative de la Silicon Valley d’intimider ses détracteurs, mais certainement pas la première. En 2024, certaines sociétés de capital-risque répandre des rumeurs qu’un projet de loi californien sur la sécurité de l’IA, BS 1047enverrait les fondateurs de startups en jail. La Brookings Establishment a qualifié cette rumeur de « parmi tant d’autres »fausses déclarations » à propos du projet de loi, mais le gouverneur Gavin Newsom a quand même finalement opposé son veto.

Que Sacks et OpenAI aient eu ou non l’intention d’intimider les critiques, leurs actions ont suffisamment effrayé plusieurs défenseurs de la sécurité de l’IA. De nombreux dirigeants d’organisations à however non lucratif contactés par TechCrunch la semaine dernière ont demandé à s’exprimer sous couvert d’anonymat pour épargner à leurs groupes des représailles.

La controverse souligne la rigidity croissante de la Silicon Valley entre la development de l’IA de manière responsable et sa development pour en faire un produit de consommation huge – un thème que mes collègues Kirsten Korosec, Anthony Ha et moi-même aborderons dans l’édition de cette semaine. Équité podcast. Nous nous penchons également sur une nouvelle loi sur la sécurité de l’IA adoptée en Californie pour réglementer les chatbots, ainsi que sur l’approche d’OpenAI en matière d’érotisme dans ChatGPT.

Mardi, Sacks a écrit un poster sur X alléguant qu’Anthropic – qui a soulevé des inquiétudes sur la capacité de l’IA à contribuer au chômage, aux cyberattaques et aux dommages catastrophiques causés à la société – est simplement un discours alarmiste visant à faire adopter des lois qui lui seront bénéfiques et à noyer les petites startups dans la paperasse. Anthropic était le seul grand laboratoire d’IA à approuver le projet de loi 53 du Sénat de Californie (SB 53), un projet de loi qui fixe les exigences en matière de rapports de sécurité pour les grandes entreprises d’IA, qui a été promulgué le mois dernier.

Sacks répondait à un essai viral du co-fondateur d’Anthropic, Jack Clark, à propos de ses craintes concernant l’IA. Clark a prononcé l’essai sous forme de discours lors de la conférence sur la sécurité Curve AI à Berkeley quelques semaines plus tôt. Assis dans le public, cela ressemblait certainement à un véritable récit des réserves d’un technologue à l’égard de ses produits, mais Sacks ne le voyait pas de cette façon.

Anthropic mène une stratégie sophistiquée de seize réglementaire basée sur la peur. Il est le principal responsable de la frénésie réglementaire étatique qui porte atteinte à l’écosystème des startups. https://t.co/C5RuJbVi4P

– David Sacks (@DavidSacks) 14 octobre 2025

Sacks a déclaré qu’Anthropic mène une « stratégie sophistiquée de seize de la réglementation », même s’il convient de noter qu’une stratégie véritablement sophistiquée n’impliquerait probablement pas de faire du gouvernement fédéral un ennemi. Dans un publish de suivi sur X, Sacks a noté qu’Anthropic s’est « systématiquement positionné comme un ennemi de l’administration Trump ».

Événement Techcrunch

San Francisco
|
27-29 octobre 2025

Cette semaine également, le directeur de la stratégie d’OpenAI, Jason Kwon, a écrit un poster sur X expliquant pourquoi l’entreprise envoyait des assignations à comparaître à des organisations à however non lucratif chargées de la sécurité de l’IA, telles que Encode, une organisation à however non lucratif qui milite en faveur d’une politique responsable en matière d’IA. (Une assignation à comparaître est un ordre juridique exigeant des paperwork ou un témoignage.) Kwon a déclaré qu’après qu’Elon Musk ait poursuivi OpenAI – en raison de craintes que le créateur de ChatGPT ne se soit détourné de sa mission à however non lucratif – OpenAI a trouvé suspect la façon dont plusieurs organisations ont également soulevé leur opposition à sa restructuration. Encode a déposé un mémoire d’amicus à l’appui du procès de Musk, et d’autres organisations à however non lucratif se sont prononcées publiquement contre la restructuration d’OpenAI.

Il y a bien plus dans l’histoire que cela.

Comme chacun le sait, nous nous défendons activement contre Elon dans un procès dans lequel il tente de nuire à OpenAI pour son propre bénéfice financier.

Encode, l’organisation pour laquelle @_NathanCalvin est l’avocat général, était l’un… https://t.co/DiBJmEwtE4

– Jason Kwon (@jasonkwon) 10 octobre 2025

« Cela a soulevé des questions de transparence quant à savoir qui les finançait et s’il y avait une coordination », a déclaré Kwon.

NBC Information a rapporté cette semaine qu’OpenAI avait envoyé de larges assignations à comparaître à Encode et six autres organisations à however non lucratif qui a critiqué l’entreprise, demandant ses communications liées à deux des plus grands opposants d’OpenAI, Musk et le PDG de Meta, Mark Zuckerberg. OpenAI a également demandé à Encode des communications liées à sa prise en cost du SB 53.

Un éminent chief de la sécurité de l’IA a déclaré à TechCrunch qu’il existe une division croissante entre l’équipe des affaires gouvernementales d’OpenAI et son organisation de recherche. Alors que les chercheurs en sécurité d’OpenAI publient fréquemment des rapports révélant les risques des systèmes d’IA, l’unité politique d’OpenAI a fait pression contre le SB 53, affirmant qu’elle préférerait avoir des règles uniformes au niveau fédéral.

Joshua Achiam, responsable de l’alignement des missions d’OpenAI, a parlé du fait que son entreprise avait envoyé des assignations à comparaître à des organisations à however non lucratif dans un poster sur X cette semaine.

« Au risque de mettre ma carrière en hazard, je dirai : cela ne semble pas génial », a déclaré Achiam.

Brendan Steinhauser, PDG de l’Alliance for Safe AI (qui n’a pas été assignée à comparaître par OpenAI), a déclaré à TechCrunch qu’OpenAI semble convaincu que ses détracteurs font partie d’une conspiration dirigée par Musk. Cependant, il soutient que ce n’est pas le cas et qu’une grande partie de la communauté de la sécurité de l’IA est assez critique à l’égard des pratiques de sécurité de xAI, ou son absence.

« De la half d’OpenAI, cela vise à faire taire les critiques, à les intimider et à dissuader d’autres organisations à however non lucratif de faire de même », a déclaré Steinhauser. « Pour Sacks, je pense qu’il s’inquiète du fait que le mouvement (pour la sécurité de l’IA) se développe et que les gens veulent demander des comptes à ces entreprises. »

Sriram Krishnan, conseiller politique principal de la Maison Blanche pour l’IA et ancien associé général d’a16z, est intervenu dans la dialog cette semaine avec un publication sur les réseaux sociaux de lui-même, qualifiant les défenseurs de la sécurité de l’IA de déconnectés. Il a exhorté les organisations chargées de la sécurité de l’IA à parler « aux personnes du monde réel qui utilisent, vendent et adoptent l’IA chez elles et dans leurs organisations ».

Une étude récente de Pew a révélé qu’environ la moitié des Américains sont plus inquiet qu’excité à propos de l’IA, mais on ne sait pas exactement ce qui les inquiète. Une autre étude récente a été plus détaillée et a révélé que les électeurs américains se soucient davantage de pertes d’emploi et deepfakes que les risques catastrophiques causés par l’IA, sur lesquels se concentre largement le mouvement pour la sécurité de l’IA.

Répondre à ces problèmes de sécurité pourrait se faire au détriment de la croissance rapide du secteur de l’IA – un compromis qui inquiète de nombreuses personnes dans la Silicon Valley. Alors que les investissements dans l’IA soutiennent une grande partie de l’économie américaine, la crainte d’une réglementation extreme est compréhensible.

Mais après des années de progrès non réglementés en matière d’IA, le mouvement pour la sécurité de l’IA semble prendre un réel élan à l’approche de 2026. Les tentatives de la Silicon Valley pour lutter contre les groupes axés sur la sécurité pourraient être le signe qu’elles fonctionnent.



Tags: défenseurseffraieLeslIAsécuritéSiliconValley
ETHAN PIKE

ETHAN PIKE

Next Post
Pourquoi ne pas tricoter une plume d’oie ? – Tricot

Pourquoi ne pas tricoter une plume d'oie ? – Tricot

Please login to join discussion

Recommandé

Tacos gyroscopique au poulet brisé – SHK

Tacos gyroscopique au poulet brisé – SHK

3 mois ago
Résidence secondaire : une opportunité d’investissement et de revenus

Résidence secondaire : une opportunité d’investissement et de revenus

1 an ago

Actualités populaires

  • Quelles questions financières vous posez-vous ?

    Quelles questions financières vous posez-vous ?

    0 shares
    Share 0 Tweet 0
  • Le dernier partenariat de Ring permet à la police d’accéder aux pictures des caméras by way of Flock

    0 shares
    Share 0 Tweet 0
  • De tout et de rien : 17 octobre 2025

    0 shares
    Share 0 Tweet 0
  • Une Moto Guzzi 850 Le Mans III de 1981 par Foundry

    0 shares
    Share 0 Tweet 0
  • La Silicon Valley effraie les défenseurs de la sécurité de l’IA

    0 shares
    Share 0 Tweet 0

À propos de nous

Bienvenue sur ethanpike.eu L'objectif de ethanpike.eu est de vous offrir les meilleures sources d'informations sur n'importe quel sujet ! Nos sujets sont soigneusement sélectionnés et constamment mis à jour car nous savons que le Web évolue rapidement et nous essayons donc de le faire également.

Catégorie

  • 2 roues
  • Culture – Livre
  • Décoration / Electroménager
  • Ecologie
  • Enfants – Bébé
  • Femmes
  • Gadgets
  • Hommes
  • Loisirs
  • Sports
  • Technologie
  • Voyage

Messages récents

  • Principaux aliments à éviter lorsque vous portez une prothèse dentaire
  • Dialogue ouverte du week-end – Corporette.com
  • Pourquoi ne pas tricoter une plume d’oie ? – Tricot
  • Home
  • Contact Us
  • Disclaimer
  • Privacy Policy
  • Terms & Conditions

Copyright © 2024 Ethanpike.eu | All Rights Reserved.

No Result
View All Result
  • Technologie
  • Sports
  • Ecologie
  • Femmes
    • Enfants – Bébé
    • Hommes
  • Gadgets
  • Loisirs
  • 2 roues
  • Voyage
  • Culture – Livre
  • Décoration / Electroménager

Copyright © 2024 Ethanpike.eu | All Rights Reserved.