Anthropic révoqué Openai L’accès à l’API à ses modèles mardi, plusieurs sources familières avec la query Inform Wired. Openai a été informé que son accès avait été coupé en raison de la violation des circumstances d’utilisation.
« Claude Code est devenu le choix incontournable des codeurs du monde entier, et il n’était donc pas surprenant d’apprendre que le personnel method d’Openai utilisait également nos outils de codage avant le lancement de GPT-5 », a déclaré le porte-parole d’Anthropic, Christopher Nulty, dans un communiqué à Wired. «Malheureusement, il s’agit d’une violation directe de nos circumstances d’utilisation.»
Selon Anthropic Situations d’utilisation commercialesles shoppers ne peuvent pas utiliser le service pour «construire un produit ou un service concurrent, y compris pour former des modèles d’IA concurrents» ou «insensé ou dupliquer» les companies. Ce changement dans l’accès d’Openai à Claude vient alors que le fabricant de chatpt est aurait Se préparant à publier un nouveau modèle d’IA, GPT-5, qui est selon les rumeurs être meilleur dans le codage.
Openai branchait Claude sur ses propres outils internes en utilisant l’accès spécial (API), au lieu d’utiliser l’interface de chat ordinaire, selon des sources. Cela a permis à l’entreprise d’effectuer des assessments pour évaluer les capacités de Claude dans des choses comme le codage et l’écriture créative contre ses propres modèles d’IA, et vérifier remark Claude a répondu aux invitations liées à la sécurité impliquant des catégories comme le CSAM, l’automutilation et la diffamation, selon les sources. Les résultats aident OpenAI à comparer le comportement de ses propres modèles dans des circumstances similaires et à effectuer des ajustements au besoin.
« Il est de la norme de l’industrie d’évaluer d’autres systèmes d’IA pour comparer les progrès et améliorer la sécurité. Bien que nous respectons la décision d’Anthropic de couper notre accès à l’API, il est décevant étant donné que notre API reste à leur disposition », a déclaré Hannah Wong d’Openai, dans un communiqué à Wired.
Nulty dit qu’Anthropic «continuera de s’assurer que OpenAI a un accès API aux fins des évaluations d’analyse comparative et de sécurité, tout comme la pratique customary de l’industrie». L’entreprise n’a pas répondu à la demande de clarification de Wired si et remark la restriction actuelle de l’API Claude d’Openai aurait un impression sur ce travail.
Les meilleures entreprises technologiques Yanking API accèdent à des concurrents sont une tactique dans l’industrie de la technologie depuis des années. Fb a fait de même sur Vine appartenant à Twitter (ce qui a conduit à des allégations de comportement anticoncurrentiel) et le mois dernier Salesforce concurrents restreints de l’accès à certaines données through l’API Slack. Ce n’est même pas une première pour Anthropic. Le mois dernier, la société a restreint la startup de codage de l’IA à l’accès direct de Windsurf à ses modèles après la rumeur de l’Openai, il a été prêt à l’acquérir. (Cet accord est tombé).
Le directeur des sciences d’Anthropic Jared Kaplan a parlé à TechCrunch À l’époque pour révoquer l’accès de Windisurf à Claude, en disant: « Je pense qu’il serait étrange pour nous de vendre Claude à Openai. »
Un jour avant de couper l’accès d’Openai à l’API Claude, anthropique annoncé Nouvelles limites de taux sur le code Claude, son outil de codage alimenté par AI, citant utilisation explosive Et, dans certains cas, violations de ses circumstances de service.