OpenAI a créé une échelle interne pour suivre les progrès réalisés par ses grands modèles linguistiques vers l’intelligence artificielle générale, ou l’IA avec une intelligence de sort humain, a déclaré un porte-parole. dit Bloomberg.
Les chatbots actuels, comme ChatGPT, sont au niveau 1. OpenAI affirme qu’il se rapproche du niveau 2, défini comme un système succesful de résoudre des problèmes de base au niveau d’une personne titulaire d’un doctorat. Le niveau 3 fait référence aux brokers IA capables d’agir au nom d’un utilisateur. Le niveau 4 concerne l’IA succesful de créer de nouvelles improvements. Le niveau 5, l’étape finale pour atteindre l’IAG, est l’IA succesful d’effectuer le travail d’organisations entières de personnes. OpenAI a précédemment défini l’IAG comme « un système hautement autonome surpassant les humains dans la plupart des tâches économiquement intéressantes ».
La construction distinctive d’OpenAI est centrée sur sa mission de réalisation de l’AGI, et la manière dont OpenAI définit l’AGI est importante. L’entreprise a déclaré que « si un projet axé sur la valeur et soucieux de la sécurité se rapproche de la building de l’AGI » avant OpenAI, elle s’have interaction à ne pas concurrencer le projet et à tout laisser tomber pour l’aider. La formulation de cette phrase dans le communiqué d’OpenAI charte est obscure, laissant place au jugement de l’entité à however lucratif (gouvernée par l’organisme à however non lucratif), mais une échelle sur laquelle OpenAI peut se tester elle-même et ses concurrents pourrait aider à déterminer quand l’AGI est atteinte en termes plus clairs.
Pourtant, l’AGI est encore loin d’être une réalité : il faudra des milliards et des milliards de {dollars} de puissance de calcul pour y parvenir, si jamais on y parvient. Les délais fixés par les consultants, et même par OpenAI, varient énormément. En octobre 2023, le PDG d’OpenAI, Sam Altman dit il nous reste « cinq ans, à peu près », avant d’atteindre l’AGI.
Cette nouvelle échelle de notation, bien qu’encore en cours de développement, a été introduite un jour après OpenAI annoncé sa collaboration avec le Laboratoire nationwide de Los Alamos, qui vise à explorer remark des modèles d’IA avancés comme GPT-4o peuvent contribuer en toute sécurité à la recherche bioscientifique. Un responsable de programme à Los Alamos, responsable du portefeuille de biologie de la sécurité nationale et qui a contribué à sécuriser le partenariat OpenAI, a déclaré Le bord L’objectif est de tester les capacités du GPT-4o et d’établir un ensemble de facteurs de sécurité et autres pour le gouvernement américain. À terme, des modèles publics ou privés pourront être testés par rapport à ces facteurs pour évaluer leurs propres modèles.
En mai, OpenAI a dissous son équipe de sécurité après le départ du chief du groupe, le cofondateur d’OpenAI, Ilya Sutskever. Jan Leike, un chercheur clé d’OpenAI, a démissionné peu de temps après OpenAI a affirmé dans un message que « la tradition et les processus de sécurité ont été relégués au second plan par rapport aux produits brillants » dans l’entreprise. Bien qu’OpenAI ait nié que ce soit le cas, certains s’inquiètent de ce que cela signifie si l’entreprise atteint effectivement l’AGI.
OpenAI n’a pas fourni de détails sur la manière dont il attribue les modèles à ces niveaux internes (et a refusé Le bord(demande de commentaire de l’entreprise). Cependant, les dirigeants de l’entreprise ont présenté un projet de recherche utilisant le modèle d’IA GPT-4 lors d’une réunion générale jeudi et pensent que ce projet présente de nouvelles compétences qui présentent un raisonnement de sort humain, selon Bloomberg.
Cette échelle pourrait aider à fournir une définition stricte des progrès, plutôt que de les laisser à l’interprétation. Par exemple, Mira Murati, directrice approach d’OpenAI, a déclaré dans une interview en juin que les modèles de ses laboratoires ne sont pas beaucoup mieux que ceux dont dispose déjà le public. Pendant ce temps, le PDG Sam Altman a déclaré à la fin de l’année dernière que l’entreprise a récemment « repoussé le voile de l’ignorance », ce qui signifie que les modèles sont remarquablement plus intelligents.