Jeudi, l’Union européenne publié sa première ébauche de code de bonnes pratiques pour modèles d’IA à utilization général (GPAI). Le doc, qui ne sera finalisé qu’en mai, présente des lignes directrices pour gérer les risques et donne aux entreprises un plan pour se conformer et éviter de lourdes sanctions. Le La loi européenne sur l’IA est entrée en vigueur le 1er août, mais cela laissait la possibilité de préciser ultérieurement les détails de la réglementation GPAI. Ce projet (by way of TechCrunch) est la première tentative de clarifier ce que l’on attend de ces modèles plus avancés, en donnant aux events prenantes le temps de soumettre leurs commentaires et de les affiner avant de se lancer.
Les GPAI sont ceux formés avec une puissance de calcul totale de plus de 10²⁵ FLOP. Les entreprises qui devraient relever des directives de l’UE comprennent OpenAI, Google, Meta, Anthropic et Mistral. Mais cette liste pourrait s’allonger.
Le doc aborde plusieurs domaines essentiels pour les créateurs de GPAI : la transparence, le respect des droits d’auteur, l’évaluation des risques et l’atténuation des risques methods/de gouvernance. Ce projet de 36 pages couvre beaucoup de terrain (et en fera probablement beaucoup plus avant d’être finalisé), mais plusieurs factors saillants ressortent.
Le code met l’accent sur la transparence dans le développement de l’IA et exige que les sociétés d’IA fournissent des informations sur les robots d’exploration Net qu’elles ont utilisés pour former leurs modèles – une préoccupation majeure pour titulaires de droits d’auteur et créateurs. La part d’évaluation des risques vise à prévenir les cyberdélits, la discrimination généralisée et la perte de contrôle sur l’IA (le second smart « c’est devenu voyou » dans un million de mauvais movies de science-fiction).
Les créateurs d’IA devraient adopter un cadre de sûreté et de sécurité (SSF) pour décomposer leurs politiques de gestion des risques et les atténuer proportionnellement à leurs risques systémiques. Les règles couvrent également des domaines methods tels que la safety des données des modèles, la fourniture de contrôles d’accès sécurisés et la réévaluation proceed de leur efficacité. Enfin, la part gouvernance s’efforce de responsabiliser les entreprises elles-mêmes, en exigeant une évaluation proceed des risques et en faisant appel à des specialists externes si nécessaire.
Comme le Autres réglementations de l’UE liées à la technologieles entreprises qui enfreignent les Loi sur l’IA peut s’attendre à de lourdes sanctions. Ils peuvent être condamnés à une amende allant jusqu’à 35 thousands and thousands d’euros (actuellement 36,8 thousands and thousands de {dollars}) ou jusqu’à sept pour cent de leurs bénéfices annuels globaux, le montant le plus élevé étant retenu.
Les events prenantes sont invitées à soumettre leurs commentaires by way of la plateforme dédiée Futurium avant le 28 novembre pour aider à affiner la prochaine model. Les règles devraient être finalisées d’ici le 1er mai 2025.