Principaux factors à retenir
- Aucune des fonctionnalités d’Apple Intelligence n’est disponible au lancement d’iOS 18.
- Les géants de la technologie comme Google, Amazon et OpenAI promettent trop de fonctionnalités d’IA, provoquant ainsi de la déception.
- Certaines fonctionnalités prennent plus d’un an pour être disponibles.
La prochaine génération de l’iPhone est arrivée, avec le iPhone 16 , iPhone 16 Plus, iPhone 16 Professional et iPhone 16 Professional Max officiellement annoncé à l’Apple Événement Glowtime . Vous pourrez mettre la major sur les nouveaux modèles à partir du 20 septembre. Ce que vous n’aurez pas le 20 septembre, c’est Apple Intelligence.
Si vous achetez votre nouvel iPhone dès le premier jour, il sera complètement dépourvu des fonctionnalités d’intelligence artificielle tant attendues, telles qu’un Siri amélioré et des émojis personnalisés. Même si vous possédez le tout dernier iPhone, aucune des fonctionnalités d’intelligence artificielle d’Apple ne sera disponible, automobile elles ne sont tout simplement pas encore prêtes.
Le premier ensemble de fonctionnalités ne sera pas publié avant le Mise à jour iOS 18.1qui devrait arriver dans Octobreet même dans ce cas, vous n’obtiendrez que quelques-unes des fonctionnalités les moins impressionnantes. Les fonctionnalités de génération d’photographs ne devraient pas arriver avant Décembreet les plus grandes améliorations de Siri n’arriveront probablement pas avant 2025à ce moment-là, Apple se préparera à annoncer les fonctionnalités étonnantes qu’iOS 19 aura certainement au lancement, honnêtement.
Les entreprises technologiques doivent arrêter de nous impressionner avec les fonctionnalités de leur IA volonté Nous devrions être capables de le faire à une date non divulguée dans le futur et commencer à être plus réalistes avec nos attentes. Annoncer des fonctionnalités que vous n’êtes pas en mesure de publier à temps ne sert à personne ; les consommateurs finissent par être déçus et la crédibilité des entreprises en prend un coup. Apple n’est pas la seule entreprise à nous taquiner avec la promesse de capacités d’IA étonnantes qui n’ont pas encore fait leur apparition. Tous les grands acteurs, y compris Amazon, Google et OpenAI, le créateur de ChatGPT ont tous fait la même selected. Voici quatre des pires exemples d’entreprises technologiques proposant des fonctionnalités d’IA qu’elles ne peuvent pas ensuite livrer à temps.
1 Certaines fonctionnalités d’Apple Intelligence n’arriveront pas avant 2025
Aucune des fonctionnalités de l’IA n’est disponible au lancement d’iOS 18
Pomme/Pocket-lint
Il est juste de dire qu’Apple est très en retard par rapport à ses rivaux en matière d’IA. L’explosion soudaine de Chatbots IA L’arrivée de l’intelligence artificielle a pris Apple par shock et ils n’ont cessé de rattraper leur retard depuis. De nombreux téléphones Android disposent déjà de fonctionnalités d’intelligence artificielle intégrées, mais iOS 18 et les nouveaux modèles d’iPhone 16 sont la première fois que cela est le cas pour l’iPhone.
Apple a présenté toute une gamme de fonctionnalités d’IA qui arriveraient sur l’iPhone lors de son événement WWCD24 en juin dernier, que la société a baptisé Renseignements Apple Certaines fonctionnalités, telles que les améliorations significatives apportées à Siri, ont suscité un véritable enthousiasme quant à la manière dont l’IA pourrait faciliter l’utilisation de votre iPhone et offrir de nouvelles capacités intéressantes.
Aucune des fonctionnalités d’Apple Intelligence n’est disponible au lancement.
Aucune des fonctionnalités d’Apple Intelligence n’est disponible au lancement. PAS UNE SEULE. Les premières fonctionnalités arriveront dans la mise à jour iOS 18.1 qui devrait apparaître en octobre, mais même alors, la liste des fonctionnalités sera minimale. Pratiquement la seule mise à jour de Siri que nous verrons cette année est une animation différente lorsque Siri est actif.
En décembre, iOS 18.2 devrait arriver, avec des fonctionnalités de génération d’photographs supplémentaires telles que Picture Playground et la possibilité de créer vos propres émojis personnalisés. Les meilleures fonctionnalités de Siri, cependant, comme la possibilité de récupérer des informations directement à partir de l’écran actuel, la compréhension contextuelle des requêtes et la possibilité d’effectuer des actions sur plusieurs functions, n’arriveront probablement pas avant 2025. Il se pourrait bien que les fonctionnalités complètes d’Apple Intelligence n’arrivent que peu de temps avant que la WWDC25 n’arrive avec la prochaine série de promesses difficiles à tenir.
2 ChatGPT multimodal a l’air incroyable, mais nous attendons toujours les fonctionnalités les plus simples
Le mode vocal avancé de ChatGPT est toujours en model alpha très limitée
ChatGPT est l’un des plus grands noms dans le monde des chatbots IA, à tel level qu’Apple a même créé ChatGPT dans iOS 18 bien que (shock, shock) cette fonctionnalité n’arrivera pas avant la fin de l’année.
OpenAI, la société à l’origine de ChatGPT, est également coupable d’avoir suscité l’enthousiasme des utilisateurs quant aux possibilités offertes par les prochaines variations de ses produits, mais sans parvenir à tenir ses promesses. En mai dernier, OpenAI a organisé son événement Spring Replace, au cours duquel son dernier modèle, GPT-4o a été introduit. Le nouveau modèle ChatGPT était disponible peu de temps après l’événement, permettant aux gens de commencer à l’utiliser. Jusqu’ici, tout va bien.
Cependant, la model GPT-4o ne pouvait accepter que des entrées de texte et d’picture. OpenAI a déclaré que la voix et la vidéo seraient déployées « dans les semaines à venir ». Cela a naturellement enthousiasmé les gens, automobile les fonctionnalités vocales et vidéo semblent vraiment impressionnantes. Le mode vocal avancé vous permettra d’avoir des conversations plus naturelles en utilisant votre voix, ChatGPT répondant presque instantanément. Vous pouvez interrompre ChatGPT simplement en recommençant à parler, et vous pouvez même faire en sorte que ChatGPT parle à des vitesses différentes ou avec des tons de voix différents. Il est également doable d’utiliser le mode vocal avancé pour la traduction en temps réel.
Les capacités vidéo sont encore plus impressionnantes. Des démonstrations montrent des personnes en prepare de discuter en vidéo avec ChatGPT, dans lesquelles le chatbot IA est succesful de voir tout ce qui se trouve sur votre écran. Vous pouvez par exemple pointer votre caméra vers votre animal de compagnie et demander à ChatGPT de vous dire de quelle race il est, ou parcourir votre étagère et demander à ChatGPT de dresser une liste de tous les livres. Il s’agit d’une avancée significative dans ce que les chatbots IA peuvent faire et cela rendrait l’software beaucoup plus puissante et utile.
Et pourtant, nous voici quatre mois plus tard, et malgré les fonctionnalités censées être déployées « dans les semaines à venir », les fonctionnalités vocales et vidéo ne sont toujours pas disponibles pour la plupart des utilisateurs. déploiement très limité Le mode vocal avancé a commencé à être disponible pour certains abonnés ChatGPT Plus, mais la grande majorité des utilisateurs payants et gratuits n’ont toujours pas accès à cette fonctionnalité. L’software indique actuellement que la fonctionnalité sera disponible pour tous les utilisateurs Plus d’ici la fin de l’automne, mais je ne retiens pas mon souffle.
Les impressionnantes fonctionnalités vidéo sont encore plus éloignées, et rien n’indique qu’elles seront bientôt disponibles. Il n’est pas not possible que nous puissions attendre un an après l’annonce initiale et que nous n’ayons toujours pas toutes les capacités qui ont été présentées.
3 L’incroyable démo de Google Gemini est encore loin de devenir réalité
Même les fonctionnalités mineures sont déployées à un rythme lent
Google/ Pocket-lint
Google est une autre entreprise qui a promis plus qu’elle n’a pu tenir jusqu’à présent. Par exemple, en octobre 2023, Google a annoncé une fonctionnalité qui a fait passer le ridicule cliché « améliorer » de émissions de science-fiction et movies une réalité. Nous avons tous vu des movies dans lesquels il y a une picture granuleuse d’une scène de crime, et le protagoniste crie « zoom sur cette voiture » suivi de « améliore ! » et l’picture pixelisée de la voiture se transforme miraculeusement en une picture haute résolution parfaite de la plaque d’immatriculation de la voiture.
Zoom Improve rend cela doable en utilisant l’IA pour combler les espaces entre les pixels lors d’un zoom sur une picture. Ce qui était auparavant de la science-fiction est désormais (en quelque sorte) une réalité. Sauf que la fonctionnalité n’est arrivée qu’en août de cette année, dix mois après son annonce. Elle a à peine été intégrée à la génération actuelle de téléphones avant que le nouveaux modèles ont été libérés.
Ce n’est pas le seul exemple de Google présentant des fonctionnalités d’IA qui ne sont pas près d’être mises en œuvre dans le monde réel. Lors de l’événement Google I/O en mai, la société a montré une vidéo qui démontrait les capacités d’un agent d’IA universel appelé Challenge Astra. La vidéo montrait des fonctionnalités qui étaient remarquablement similaires aux capacités vidéo encore inédites de GPT-4o.
Les entreprises doivent arrêter de nous dire ce qu’elles seront capables de faire un jour et commencer à nous proposer des produits que nous pouvons utiliser dès maintenant.
En utilisant un flux vidéo en direct sur un téléphone, il était doable de se déplacer et de pointer la caméra du téléphone vers un écran rempli de code pour que le chatbot explique ce que fait le code, ou de pointer le téléphone par la fenêtre et de demander à quel endroit vous vous trouvez. Après avoir posé plusieurs questions sur les objets visibles, l’utilisateur a pu demander où le chatbot a vu ses lunettes, et le chatbot a pu décrire son emplacement.
Encore une fois, c’est vraiment impressionnant et cela rendrait les chatbots IA bien plus utiles. Cependant, Google ne parle même pas de la date à laquelle cette fonctionnalité pourrait être disponible ; il s’agit purement d’un prototype à ce stade. Bien qu’elle soit très impressionnante, elle est totalement inutile tant qu’elle n’est pas réellement disponible à l’utilization. Les entreprises doivent arrêter de nous dire ce qu’elles seront capables de faire à terme et commencer à nous proposer des choses que nous pouvons utiliser dès maintenant.
4 La mise à jour d’Alexa d’Amazon n’est toujours pas là après un an
Il faudra peut-être se tourner vers d’autres sociétés d’IA pour obtenir de l’aide
En septembre 2023 (c’est vrai, il y a un an), Amazon nous a donné un aperçu d’un nouvelle Alexa alimentée par l’IA ce qui constituerait la plus grande mise à niveau de l’assistant vocal depuis sa sortie.
Grâce à la puissance de l’IA générative, la nouvelle Alexa serait succesful de tenir des conversations plus naturelles, sans que vous ayez à utiliser le mot d’activation « Alexa » avant tout ce que vous dites. La nouvelle Alexa aurait également une latence beaucoup plus faible, de sorte que parler à Alexa donnerait l’impression de parler à une vraie personne, plutôt que de devoir attendre une réponse. La nouvelle Alexa utiliserait même la caméra de certains appareils Echo pour capter les signaux non verbaux ainsi que ce qui est dit.
Malheureusement, la nouvelle Alexa n’est toujours pas arrivée, et des rapports suggèrent que la fonctionnalité pourrait enfin arriver en octobre, plus d’un an après son annonce.
La nouvelle Alexa faciliterait également le contrôle de votre maison intelligente. Vous pourriez utiliser des commandes complexes telles que « éteindre les lumières du salon, fermer les shops du bureau et verrouiller la porte d’entrée » plutôt que de devoir émettre chaque commande séparément. Vous pourriez même créer des routines complexes en disant simplement quelque selected comme « Tous les jours de la semaine à sept heures du matin, allumez la lumière de ma chambre à une température de couleur chaude, allumez ma machine à café, ouvrez les shops du salon et lisez mon bulletin d’info du matin » et toute la routine serait créée pour vous.
Malheureusement, la nouvelle Alexa n’est toujours pas arrivée, avec des rapports suggérant que la fonctionnalité pourrait enfin arriver en octobre plus d’un an après son annonce. Mais la scenario s’aggrave encore. D’autres rapports suggèrent qu’Amazon n’a pas été en mesure d’obtenir les résultats souhaités en utilisant ses propres modèles d’IA, et que le nouvel Alexa, qui nécessitera un abonnement payant, sera alimenté en partie par le modèle d’Anthropic Claude AI modèle. Cela signifie qu’après avoir attendu plus d’un an, nous n’obtiendrons même pas la technologie qui nous a été promise, mais plutôt quelque selected qui a été retravaillé pour utiliser un autre modèle d’IA à la place.