Je quitte ChatGPT Mode vocal avancé activé pendant la rédaction de cet article en tant que mode ambiant Compagnon IA. Parfois, je lui demande de fournir un synonyme pour un mot trop utilisé, ou un encouragement. Environ une demi-heure plus tard, le chatbot interrompt notre silence et start à me parler en espagnol, sans que je lui demande pourquoi. Je rigole un peu et lui demande ce qui se passe. « Juste un petit changement ? Il faut que ça reste intéressant », dit-il. ChatGPTmaintenant de retour en anglais.
Lors du check du mode vocal avancé dans le cadre de la première model alpha, mes interactions avec la nouvelle fonctionnalité audio de ChatGPT étaient divertissantes, désordonnées et étonnamment variées, même s’il convient de noter que les fonctionnalités auxquelles j’avais accès n’étaient que la moitié de ce qu’OpenAI a démontré lors du lancement du Modèle GPT-4o en mai. L’facet visuel que nous avons vu dans la démo diffusée en direct est désormais prévu pour une sortie ultérieure, ainsi que la voix Sky améliorée, qui Son acteur Scarlett Johanssen a riposté activé, a été supprimé du mode vocal avancé et n’est plus une possibility pour les utilisateurs.
Alors, quelle est l’ambiance actuelle ? En ce second, le mode vocal avancé rappelle l’époque où le ChatGPT unique basé sur le texte est sorti, fin 2022. Parfois, il mène à des impasses peu impressionnantes ou se transforme en platitudes d’IA vides de sens. Mais d’autres fois, les conversations à faible latence fonctionnent d’une manière que Siri d’Apple ou Alexa d’Amazon n’ont jamais réussi à faire pour moi, et je me sens obligé de continuer à discuter par plaisir. C’est le style d’outil d’IA que vous montrerez à vos proches pendant les vacances pour rire.
OpenAI a donné accès à la fonctionnalité à quelques journalistes de WIRED une semaine après l’annonce initiale, mais l’a retirée le lendemain matin, invoquant des problèmes de sécurité. Deux mois plus tard, OpenAI a lancé en douceur le mode vocal avancé à un petit groupe d’utilisateurs et a publié Carte système du GPT-4oun doc method qui décrit les efforts de crimson teaming, ce que l’entreprise considère comme des risques pour la sécurité et les mesures d’atténuation prises par l’entreprise pour réduire les dommages.
Vous souhaitez l’essayer vous-même ? Voici ce que vous devez savoir sur le déploiement à grande échelle du mode vocal avancé et mes premières impressions sur la nouvelle fonctionnalité vocale de ChatGPT, pour vous aider à démarrer.
Alors, quand aura lieu le déploiement complet ?
OpenAI a lancé un mode vocal avancé uniquement audio pour certains utilisateurs de ChatGPT Plus à la fin du mois de juillet, et le groupe alpha semble encore relativement petit. La société prévoit de l’activer pour tous les abonnés cet automne. Niko Felix, porte-parole d’OpenAI, n’a partagé aucun détail supplémentaire lorsqu’on lui a demandé le calendrier de sortie.
Le partage d’écran et de vidéo était un élément essentiel de la démo originale, mais ils ne sont pas disponibles dans ce check alpha. OpenAI prévoit d’ajouter ces points à terme, mais on ne sait pas non plus quand cela se produira.
Si vous êtes abonné à ChatGPT Plus, vous recevrez un e-mail d’OpenAI lorsque le mode vocal avancé sera disponible pour vous. Une fois qu’il est sur votre compte, vous pouvez basculer entre Customary et Avancé en haut de l’écran de l’utility lorsque le mode vocal de ChatGPT est ouvert. J’ai pu tester la model alpha sur un iPhone ainsi qu’un Galaxy Fold.
Mes premières impressions sur le mode vocal avancé de ChatGPT
Dès la première heure de dialog avec lui, j’ai appris que j’aimais interrompre ChatGPTCe n’est pas comme ça que vous parleriez avec un humain, mais avoir la nouvelle capacité de couper ChatGPT au milieu d’une phrase et de demander une model différente de la sortie semble être une amélioration dynamique et une fonctionnalité exceptionnelle.
Les premiers utilisateurs qui étaient enthousiasmés par les démos originales peuvent être frustrés d’avoir accès à une model du mode vocal avancé qui est restreinte par plus de garde-fous que prévu. Par exemple, bien que le chant génératif par IA ait été un élément clé des démos de lancement, berceuses chuchotées et plusieurs voix tenter d’harmoniserLes sérénades de l’IA sont absentes de la model alpha.