À CEATEC 2024, nous avons visité le JVCKENWOOD standqui présentait trois domaines thématiques autour “Connecter les gens, le temps et l’espace pour créer l’avenir.” Cela correspond à la philosophie de l’entreprise consistant à « apporter enthousiasme et tranquillité d’esprit aux gens du monde entier » grâce à une technologie de pointe pour enrichir la vie. JVCKENWOOD présenté des options vidéo, audio et sans fil innovantes conçues pour créer une nouvelle valeur pour l’avenir. Le premier espace, labellisé par l’entreprise « Impression – Zone de divertissement » * présentait des démonstrations technologiques faisant appel aux cinq sens (imaginative and prescient, ouïe, toucher, odorat et goût), offrant une expérience multisensorielle profondément immersive.
L’IA crée de la musique et des vidéos en fonction de votre réponse émotionnelle subconsciente
Au « Zone de divertissement d’impression » du stand JVCKENWOOD* nous avons assisté à une démo innovante combinant la détection des ondes cérébrales, les sens humains et l’IA pour créer de la musique et des vidéos personnalisées. Les members sont exposés à des stimuli, tels que des vidéos pré-préparées, conçues pour susciter des réponses émotionnelles. Un casque brainwave détecte ensuite les émotions générées et l’IA utilise ces données pour composer de la musique et projeter les photographs correspondantes en temps réel. Le résultat, décrit comme « la musique et la vidéo que vous avez créées », est lu. L’IA classe en outre les réactions subconscientes du participant, générant automatiquement de la musique et des visuels qui reflètent son état émotionnel, offrant ainsi une expérience interactive distinctive.
Remark fonctionne la technologie derrière la création musicale et vidéo générée par l’IA et basée sur les émotions ?
Suguru Aller à, Professeur agrégé au Département de créativité musicale et d’environnement de l’Université des Arts de Tokyo, présenté une démo développé par une équipe de chercheurs avec le soutien de JVCKENWOOD. Suguru Goto, qui est également compositeur et artiste médiatique, a présenté l’utilisation innovante de la technologie d’interface cerveau-ordinateur pour la création artistique sur le stand JVCKENWOOD.
Remark a fonctionné la démo ?
L’équipe a utilisé un Casque Emotiv Perception EEG conçu pour aider les chercheurs et les ingénieurs à développer des options innovantes pour les interfaces cerveau-ordinateur dans divers domaines. Ayant personnellement testé plusieurs Émotive produits à leurs débuts, je peux garantir la robustesse de leurs outils matériels compatibles avec les ondes cérébrales, qui sont devenus des options fiables dans le développement d’interfaces basées sur les neurosciences.
Lorsque nous sommes arrivés à la démo, le casque était déjà calibré pour les ondes cérébrales des members. Selon Suguru Goto, le système ne nécessite que quelques minutes pour se calibrer pour chaque nouvel utilisateur. Le processus a commencé par une brève séance de méditation, suivie par le visionnement par le participant de plusieurs vidéos préparées à l’avance, conçues pour déclencher des réponses émotionnelles spécifiques.. Le casque Emotiv Perception a enregistré les ondes cérébrales au cours de ces activités tandis qu’un logiciel basé sur l’IA interprétait les données.
Suguru Goto a expliqué que les ondes cérébrales sont analysées à l’aide d’algorithmes d’apprentissage automatique, qui classent les données en 28 états émotionnels. Ces états sont organisés sur un plan cartésien, avec l’axe X (horizontal) allant de l’inconfort (déplaisir) au plaisir, et l’axe Y (vertical) allant de la vigilance (éveil) à la somnolence. Il m’a également montré une tablette affichant une représentation graphique de la façon dont le logiciel divise en outre ces 28 états émotionnels en 64 subdivisionsfournissant une vue plus détaillée des réponses émotionnelles du participant.
Une fois que le participant a terminé les classes vidéo, le système a généré automatiquement de la musique et des vidéos en fonction de ses réponses émotionnelles. Cette démonstration a mis en évidence remark les données des ondes cérébrales, combinées à l’intelligence artificielle, peuvent créer un contenu audiovisuel personnalisé basé sur le subconscient, offrant ainsi un aperçu du potentiel des applied sciences d’interface cerveau-ordinateur dans les domaines créatifs.
Pour la démo au CEATEC, le le son était diffusé by way of des haut-parleurs en bois JVCKENWOODet le La vidéo générée par l’IA était affichée sur un grand écran.
Le idea artistique du projet, partagé avec moi dans une vidéo privée, consiste à montrer des vidéos déclenchant des émotions sur un moniteur face au participant, tandis que les visuels générés par l’IA sont projetés sur le sol dans une pièce sombre où la personne est assise.
Au-delà de l’artwork basé sur l’IA : débloquez des possibilités illimitées pour le bien-être humain
Même si c’est un projet de recherche artistique impressionnant, Le professeur agrégé Suguru Goto a indiqué qu’il offre un potentiel necessary pour des functions liées à la santé, en particulier aux soins de santé mentale.
Je sais que l’objectif principal d’Emotiv est de fournir des outils matériels et logiciels de haute qualité basés sur l’EEG pour permettre aux chercheurs de développer des options qui améliorer la santé cognitive et mentale. Cela inclut la création d’approches innovantes à la thérapie par neurofeedback musical.
En plus des stimuli vidéo, d’autres entrées sensorielles, telles que le son, le goût et l’odorat, pourraient également déclencher des réponses émotionnelles chez les members. Par exemple, le participant pourrait détenir un JVCKENWOOD «Haut-parleur câlin» (voir photograph), qui vibrate en synchronisation avec le son, ou eProfitez du parfum du bois provenant d’enceintes fabriquées à partir de différents sorts de bois naturel. Ces stimuli pourraient compléter la vidéo et la musique générées par l’IA et créées à partir des données des ondes cérébrales.
Bien que nous n’ayons pas fait l’expérience de la démonstration d’autres stimuli sensoriels sur le stand, je suis convaincu qu’ils fonctionneraient de manière transparente avec la même configuration de démonstration et le même logiciel piloté par l’IA, créant des photographs et de la musique basées sur la réponse émotionnelle subconsciente du participant à cette stimulation sensorielle.
* NDLR : « Impression – Leisure Space » est une traduction anglaise de Google basée sur Communiqué de presse japonais de JVCKENWOOD
Déposé dans IA (Intelligence Artificielle), Onde cérébrale, CEATEC, Céatec 2024, EEG, Émotive et Japon.
. En savoir plus sur