Les défenseurs des droits de la vie privée et des droits numériques stimulent les alarmes sur une loi que beaucoup s’attendraient à ce qu’elles applaudissent: une répression fédérale contre le porno de vengeance et les profondeurs générées par l’AI.
Le nouvellement signé Avoir le coup Il est illégal de publier des pictures explicites non consensuelles – réelles ou générées par l’AI – et ne donne que 48 heures pour se conformer à la demande de retrait d’une victime ou à la responsabilité du visage. Bien que largement félicité comme une victoire attendue depuis longtemps pour les victimes, les consultants ont également mis en garde sa langue imprecise, ses normes laxistes pour la vérification des revendications et une fenêtre de conformité serrée pourrait ouvrir la voie à la dépassement, à la censure du contenu légitime, et même à la surveillance.
«La modération du contenu à grande échelle est largement problématique et se retrouve toujours avec un discours vital et nécessaire», a déclaré à TechCrunch India McKinney, directrice des affaires fédérales chez Digital Frontier Basis, une organisation de défense des droits numériques.
Les plateformes en ligne ont un an pour établir un processus de supprimer l’imagerie intime non consensuelle (NCII). Bien que la loi exige que les demandes de retrait proviennent des victimes ou de leurs représentants, il demande seulement une signature physique ou électronique – aucune pièce d’identité picture ou autre forme de vérification n’est nécessaire. Cela vise probablement à réduire les obstacles aux victimes, mais cela pourrait créer une opportunité d’abus.
« Je veux vraiment me tromper à ce sujet, mais je pense qu’il y aura plus de demandes pour éliminer les pictures représentant des personnes queer et trans dans les relations, et plus encore que cela, je pense que ce sera du porno consensuel », a déclaré McKinney.
Le sénateur Marsha Blackburn (R-TN), co-sponsor de la Take It Down Act, a également parrainé le Acte de sécurité en ligne pour enfants Ce qui met les plates-formes onus pour protéger les enfants contre le contenu nocif en ligne. Blackburn a dit qu’elle croyait Contenu lié aux personnes transgenres est nocif pour les enfants. De même, la Heritage Basis – le groupe de réflexion conservateur derrière le projet 2025 – a également dit que «garder le contenu trans loin des enfants protège les enfants».
En raison de la responsabilité auquel les plates-formes sont confrontées si elles ne retirent pas une picture dans les 48 heures suivant la réception d’une demande, «la valeur par défaut sera qu’elle le supprime sans faire aucune enquête pour voir si c’est réellement NCII ou s’il s’agit d’un autre kind de discours protégé, ou s’il est même pertinent pour la personne qui fait la demande», a déclaré McKinney.
Snapchat et Meta ont tous deux déclaré qu’ils soutiennent la loi, mais ni l’un ni l’autre n’a répondu aux demandes de TechCrunch pour plus d’informations sur la façon dont ils vérifieront si la personne qui demande un retrait est une victime.
Mastodon, une plate-forme décentralisée qui héberge son propre serveur phare que d’autres peuvent rejoindre, a déclaré à TechCrunch qu’il se pencherait vers le retrait s’il était trop difficile de vérifier la victime.
Mastodon et d’autres plates-formes décentralisées comme Bluesky ou Pixelded peuvent être particulièrement vulnérables à l’effet effrayant de la règle de retrait de 48 heures. Ces réseaux s’appuient sur des serveurs indépendants, souvent gérés par des organisations à however non lucratif ou des individus. En vertu de la loi, la FTC peut traiter n’importe quelle plate-forme qui ne se conforme pas raisonnablement aux demandes de retrait comme commettant un «acte ou pratique trompeur ou trompeur» – même si l’hôte n’est pas une entité commerciale.
«C’est troublant sur son visage, mais c’est particulièrement vrai à un second où la chaise de la FTC a pris sans précédent étapes politiser l’agence et a explicitement promis d’utiliser le pouvoir de l’agence pour punir les plateformes et providers sur un idéologiquepar opposition à la base des principe déclaration.
Surveillance proactive
McKinney prédit que les plateformes commenceront à modérer le contenu avant de être diffusée afin qu’ils aient moins de publications problématiques à éliminer à l’avenir.
Les plates-formes utilisent déjà l’IA pour surveiller le contenu nocif.
Kevin Guo, PDG et co-fondateur d’Ai-Generated startup de détection de contenu Hivea déclaré que son entreprise travaille avec des plates-formes en ligne pour détecter les carats d’abus sexuels Deepfakes et les enfants (CSAM). Certains shoppers de Hive incluent Reddit, Giphy, Vevo, Bluesky et Bereal.
« Nous étions en fait l’une des entreprises technologiques qui ont approuvé ce projet de loi », a déclaré Guo à TechCrunch. «Cela aidera à résoudre des problèmes assez importants et à obliger ces plateformes à adopter des options de manière plus proactive.»
Le modèle de Hive est un logiciel en tant que service, donc le démarrage ne contrôle pas remark les plateformes utilisent son produit pour signaler ou supprimer le contenu. Mais Guo a déclaré que de nombreux shoppers insérent l’API de Hive au level de téléchargement pour surveiller avant que tout soit envoyé à la communauté.
Un porte-parole de Reddit a déclaré à TechCrunch que la plate-forme utilisait «des outils internes, des processus et des équipes sophistiqués pour aborder et supprimer» NCII. Reddit s’associe également à SWGFL à however non lucratif pour déployer son outil StopnCII, qui analyse le trafic en direct pour les matchs avec une base de données de NCII connue et supprime des correspondances précises. L’entreprise n’a pas partagé remark elle garantirait que la personne qui demande le retrait est la victime.
McKinney avertit que ce kind de surveillance pourrait s’étendre aux messages chiffrés à l’avenir. Bien que la loi se concentre sur la diffusion publique ou semi-publique, elle nécessite également des plateformes pour «supprimer et faire des efforts raisonnables pour empêcher le revers» des pictures intimes non consensuelles. Elle soutient que cela pourrait inciter la numérisation proactive de tout le contenu, même dans les espaces chiffrés. La loi n’inclut pas de retraits de sculpture pour les providers de messagerie cryptés de bout en bout comme WhatsApp, Sign ou iMessage.
Meta, Sign et Apple n’ont pas répondu à la demande de TechCrunch pour plus d’informations sur leurs plans de messagerie cryptée.
Implications plus larges de la liberté d’expression
Le 4 mars, Trump a prononcé une adresse conjointe au Congrès dans lequel il a salué la loi sur la prise et a déclaré qu’il avait hâte de le signer.
« Et je vais aussi utiliser cette facture pour moi-même, si cela ne vous dérange pas », a-t-il ajouté. « Il n’y a personne qui est traité pire que moi en ligne. »
Alors que le public rit du commentaire, tout le monde ne l’a pas pris comme une blague. Trump n’a pas hésité à supprimer ou à riposter contre le discours défavorable, que ce soit l’étiquetage des médias grand public « ennemis du peuple » sauf l’Related Press du bureau ovale malgré une ordonnance du tribunal, ou Tirer le financement de NPR et PBS.
Jeudi, l’administration Trump Université de Harvard à barre De l’acceptation des admissions à l’étranger, l’escalade d’un conflit qui a commencé après que Harvard ait refusé d’adhérer aux demandes de Trump qu’il apporte des modifications à son programme d’études et d’éliminer le contenu lié à la DEI, entre autres. En représailles, Trump a gelé le financement fédéral de Harvard et a menacé de révoquer le statut d’exonération fiscale de l’université.
«À un second où nous voyons déjà des conseils scolaires, essayer d’interdire les livres et nous voyons que certains politiciens soient très explicitement sur les sorts de contenu qu’ils ne veulent pas que les gens voinent, qu’il s’agisse de théorie de la race ou d’informations sur l’avortement ou d’informations sur le changement climatique… il est profondément mal à l’aise pour nous avec notre travail passé sur la modération du contenu pour voir les deux events pour défendre ouvertement la modération du contenu à cette échelle», McKinney, a déclaré McKinney.