Casque Vision Pro : quel impact pour la formation ?

Casque vision pro : quel impact pour la formation ?

Apple Vision Pro vient d’être annoncé en fanfare. Non encore disponible sur le marché français, son potentiel d’impact sur la formation professionnelle est considérable. Les Directions Formation ont tout intérêt à suivre l’affaire de près… L’occasion également d’un rappel sur les casques VR2024.

L’année 2023 a été témoin de plusieurs tendances clés dans le développement des casques VR, incluant l’autonomie, l’amélioration de la résolution d’écran, la réduction du poids des appareils et l’intégration de technologies de suivi des mouvements plus précises. Très abordables financièrement, les populaires Quest 3 et Pico 4 ont ainsi offert des expériences immersives de haute qualité, sans le fardeau d’un équipement lourd ou d’une installation complexe. Ils ont rendu la formation en réalité virtuelle plus accessible aux entreprises de toutes tailles.

L’évolution des casques de réalité virtuelle (VR) vers la réalité mixte (MR) est une autre tendance majeure qui a pris de l’ampleur. La réalité mixte combine des éléments de réalité virtuelle et de réalité augmentée (AR), offrant un spectre plus large d’expériences immersives, plus riches et plus contextuelles. Cette transition marque un changement significatif dans la manière dont nous interagissons avec le contenu numérique, en le fusionnant de manière transparente avec le monde réel.

Dans le domaine de la formation, cela signifie que les apprenants peuvent manipuler des objets virtuels tout en restant conscients et interactifs avec leur environnement réel, ce qui enrichit l’apprentissage et améliore la rétention des connaissances. Par exemple, dans le secteur médical, les étudiants peuvent pratiquer des procédures chirurgicales dans un environnement virtuel superposé à des mannequins physiques, offrant une simulation très réaliste. De même, dans la formation industrielle, les opérateurs peuvent recevoir des instructions virtuelles et des conseils superposés sur des machines réelles, facilitant ainsi l’apprentissage et la maintenance sur le terrain.

À l’aube de son lancement sur le marché français, l’Apple Vision Pro suscite déjà un vif intérêt pour son potentiel disruptif dans le domaine de la formation professionnelle. Ce casque de réalité mixte et virtuelle, doté du système d’exploitation Apple VisionOS, promet d’ouvrir de nouvelles frontières dans l’apprentissage et le développement des compétences.

En premier lieu, l’Apple Vision Pro devrait se distinguer par sa capacité à exécuter des applications d’une qualité graphique supérieure, surpassant de loin les performances des casques VR existants. De plus, avec une résolution de 23 millions de pixels et un affichage 3D Micro-OLED,  l’Apple Vision Pro veut garantir une clarté et une précision visuelles exceptionnelles. Cette qualité d’image remarquable, associée à une immersion sonore de premier plan, marqueront une avancée significative dans le contexte de la formation en VR, où le hyper-réalisme s’avère être un facteur clé d’engagement.

Une autre innovation majeure de l’Apple Vision Pro réside dans sa capacité à capturer les mouvements des yeux, les gestes de la main et les commandes vocales, sans nécessiter l’usage de manettes. Cette fonctionnalité enrichit l’interaction avec le contenu de formation, rendant l’apprentissage plus intuitif. De plus, sa grande capacité de stockage signifie que les utilisateurs pourront accéder à une vaste bibliothèque de formations, allant de la simple initiation aux cours plus avancés.

L’aspect spatial décrit pour l’Apple Vision Pro souligne une autre avancée dans la gestion des espaces virtuels et la réalité augmentée. Cette fonctionnalité permet aux utilisateurs de positionner et d’interagir avec des interfaces virtuelles dans l’espace physique qui les entoure. L’utilisateur peut ainsi placer des éléments virtuels, tels que des écrans, des tableaux de bord, ou des objets 3D, dans un espace physique, comme une pièce de leur domicile ou bureau. Par exemple, positionner un écran virtuel sur un mur vide et un objet 3D sur une table. Ce qui distingue cette capacité, c’est le suivi spatial précis et persistant. Une fois qu’un élément virtuel est placé dans un espace physique, l’Apple Vision Pro mémorise sa position. Vous pouvez quitter la pièce, puis y revenir plus tard, et retrouver l’élément exactement à l’endroit où vous l’aviez laissé.

Les formateurs pourront ainsi créer des espaces de travail virtuels sur mesure, disposant d’écrans et d’outils nécessaires à leur activité sans nécessiter d’équipement physique additionnel. Cela permettra de créer une grande variété d’environnements d’apprentissage interactifs et immersifs, où les apprenants  pourront interagir avec des matériaux didactiques virtuels intégrés à leur espace..

Enfin, en permettant aux apprenants de naviguer et d’interagir ensemble et de façon fluide et naturelle dans un espace virtuel, l’Apple Vision Pro devrait faciliter une approche structurée et interactive de la formation, transcendant les barrières physiques et réinventant la manière dont nous apprenons et travaillons en groupe.

En conclusion, l’Apple Vision Pro offre un potentiel immense pour révolutionner la formation professionnelle, en proposant des expériences d’apprentissage immersives, interactives, et collaboratives. Toutefois, l’intégration réussie de cette technologie dans les environnements de formation existants et son coût restent des défis importants à surmonter.

Formations VR : une application formateur de gestion et visualisation multi-apprenants.

Formations VR : une application formateur de gestion et visualisation multi-apprenants.

Dans le paysage en constante évolution de l’elearning et de la formation immersive, une difficulté majeure rencontrée par les formateurs est le suivi et l’interaction avec les apprenants utilisant des casques autonomes. Jusqu’à récemment, les solutions existantes laissaient les formateurs quelque peu démunis, incapables de mesurer efficacement le progrès des apprenants ou d’interagir avec eux de manière significative lorsque ceux-ci étaient plongés dans l’expérience virtuelle. Cette lacune dans la technologie de formation a créé un besoin pour une solution plus intégrée et interactive. Pour y répondre, Audace a développé une application innovante à destination des formateurs.

Le défi des formations immersives

La formation immersive, bien qu’étant un outil très puissant pour l’apprentissage et l’engagement, présente un défi : l’isolement de l’apprenant dans le casque VR, ce qui rend difficile pour les formateurs le suivi de l’évolution de chaque participant et l’apport d’une aide en temps réel. Les plateformes comme UnityRenderStreaming et le Package WebRTC ont tenté de répondre à ce besoin en permettant la diffusion de contenus immersifs en direct. Cependant, ces technologies offrent une solution partielle, principalement limitée par des interactions en temps réel à sens unique et une capacité restreinte à gérer plusieurs utilisateurs simultanément.

L'innovation d'Audace

Face à ce défi, Audace a développé une application novatrice de gestion et de visualisation multi-apprenants pour casques autonomes. Cette solution permet non seulement aux formateurs de suivre en temps réel l’évolution de plusieurs apprenants dans un environnement virtuel partagé mais permet également une interaction directe et significative. Ce progrès technologique représente une avancée majeure en résolvant le problème de l’isolement de l’apprenant en formation immersive.

Caractéristiques et bénéfices

L’application se distingue par sa capacité à offrir une vue d’ensemble en temps réel de l’activité des apprenants, ainsi qu’une option pour zoomer sur un utilisateur spécifique, le tout avec une mise à jour fluide toutes les deux secondes. Elle est conçue pour être légère, adaptable et personnalisable, répondant ainsi aux besoins variés des formateurs et des apprenants dans différents contextes de formation. De plus, cette solution est compatible avec un large éventail de dispositifs ce qui élargit considérablement son application potentielle.

Comparaison et contexte

En comparant avec les technologies antérieures, l’application d’Audace offre une solution plus robuste et flexible pour les défis de la formation immersive. Alors que UnityRenderStreaming et WebRTC ont posé les bases de la diffusion de contenu en direct, ils n’ont pas réussi à fournir une plateforme permettant une interaction multi-apprenants efficace et en temps réel. L’innovation d’Audace vient combler cette lacune.

L’initiative d’Audace répond ainsi à un besoin pressant dans le domaine de la formation immersive en fournissant aux formateurs les outils nécessaires pour suivre, interagir et mesurer efficacement le progrès des apprenants utilisant des casques autonomes.

La Table de Marie : un serious game multirécompensé !

SKEMA Business School, grande école de management française, a remporté cette année deux trophées pour son serious game « La Table de Marie » créé en partenariat avec Audace : le Trophée du Digital Learning dans la catégorie « Enseignement Supérieur » et le Prix AUNEGe/FNEGE 2024 du Meilleur dispositif pédagogique à l’ère du numérique

"La Table de Marie" : un dispositif pédagogique original
pour répondre aux nouvelles exigences des élèves

Chaque année, SKEMA Business School organise le « Sprint Knowledge Management », un séminaire visant à sensibiliser les étudiants de L3 aux enjeux du management de la connaissance avec une mise en perspective de son impact organique et nourricier au sein d’une structure.

Convaincus de la nécessité de revoir les modèles pédagogiques traditionnels destinés aux jeunes générations, SKEMA a souhaité concevoir une formation originale mixant serious game multi-joueurs et coaching. En effet, un pilier du dispositif est assuré par des coachs qui accompagnent les étudiants à donner du sens à leurs actions, ainsi que par une équipe de correcteurs qui alimente les scores en temps réels et communique du feed-back aux équipes.

Le jeu sérieux (ou serious game) est un outil potentiellement puissant, encore largement sous-exploité, dans le contexte de la formation initiale. Une analyse comparative (benchmark) a révélé qu’il était peu développé dans l’enseignement supérieur. Pourtant, la jeune génération d’étudiants affiche des attentes élevées en matière de pédagogie. Ils considèrent qu’une trop grande quantité de théorie sans mise en application pratique est insuffisante, tandis qu’un excès d’études de cas traditionnelles est perçu comme répétitif. Il existe donc un dilemme : les étudiants ont besoin d’interagir plusieurs fois avec les concepts pour les assimiler, mais une répétition excessive leur donne l’impression que le contenu est redondant.

Convaincue de la nécessité de repenser les modèles pédagogiques traditionnels, l’école a donc cherché à répondre aux nouvelles attentes des étudiants en proposant un nouveau support ludique et pédagogique : un serious game collaboratif intitulé « La Table de Marie ».

La pédagogie inductive, telle que mise en œuvre dans ce dispositif, permet de résoudre ces dilemmes. Elle offre aux étudiants l’opportunité de découvrir de manière concrète les problématiques organisationnelles et humaines rencontrées dans le monde professionnel de manière ludique, tout en établissant des liens avec les concepts abordés au cours de leur programme de premier cycle universitaire. Cette approche vise à préparer les étudiants à des futures responsabilités au sein d’entreprises internationales, en les obligeant à travailler en équipe, à prendre des décisions collectives et à faire des choix dans un cadre limité en temps.

« Nous croyons fermement que plus tôt les étudiants sont exposés à des situations de gestion complexes, plus ils développeront des compétences de gestion responsables, ce qui est essentiel à la fois pour les organisations et la société dans son ensemble. »

Béatrice TOUSTOU, Enseignante-chercheuse

Réunir 800 joueurs, répartis en 160 équipes et sur 3 sites en France :
le pari fou de ce serious game hautement collaboratif

Chaque année, non moins de 800 étudiants de L3, répartis en 160 équipes sur 3 campus participent au séminaire Knowledge Management de SKEMA Business School.

Pour ce faire, le dispositif développé par Audace devait répondre à plusieurs défis : gérer un grand nombre de joueurs en simultané, permettre la collaboration d’équipes à distance et l’utilisation d’une application temps réel avec un serveur scalable.

Le serious game multijoueur « La Table de Marie » plonge ainsi les étudiants dans un scénario similaire à celui de « Cauchemar en cuisine », les mettant au défi de résoudre des problématiques organisationnelles et humaines dans un restaurant haut de gamme. Ils endossent le rôle de consultants et doivent collaborer en équipe pour trouver des solutions, tout en recevant un accompagnement personnalisé de coachs et de correcteurs.

 

Cette solution repose sur le moteur de jeu Unity 3D et offre une variété d’activités interactives pour renforcer l’apprentissage : des activités fermées, telles que des processus et des quiz, ainsi que des activités ouvertes axées sur la créativité et la réflexion. Les fonctionnalités de l’application permettent aux étudiants de travailler de manière interactive, de valider leurs réponses en équipe. 

Plus de 86% de satisfaction : l’impact positif de la formation !

Qu’il s’agisse de collaboration, de résultats d’apprentissage ou du niveau d’implication et de motivation des étudiants, l’impact positif de cette innovation pédagogique a été nettement constaté par les équipes de coachs et de correcteurs.

La satisfaction s’est exprimée par le biais des questionnaires de satisfaction à chaud et de l’enquête de satisfaction réalisée par l’équipe pédagogique. Nous avons également organisé des séances de debriefing post-séminaire avec les délégués de classe et les intervenants (voir verbatims). Le pourcentage de satisfaction est au niveau de 86,4%, sur la base d’un très bon taux de réponses (37,85%).

Le questionnaire spécifique au serious game traité par une chercheuse indique les résultats suivants : activités intéressantes (88%), absorption par les activités proposées (88%), exercices mentalement exigeants (73%), amusement (86%), travail en équipe satisfaisant (88%). 

“Meilleur séminaire de l’année”

“Le cours pour lequel nous avons le plus travaillé”

“Ce côté pédagogie inductive est hyper puissant !”

Fort de son succès, le projet est destiné à être diffusé au-delà de l’établissement, ouvrant ainsi la voie à de nouvelles opportunités dans le domaine du digital learning.

 

En remportant le Trophée du Digital Learning, SKEMA Business School témoigne de son engagement envers l’innovation pédagogique et l’excellence de son enseignement. De notre point de vue, ce succès illustre parfaitement la capacité des institutions éducatives à s’adapter aux besoins des étudiants et à repousser les limites de l’apprentissage traditionnel grâce aux technologies numériques.

Découvrez le projet en vidéo

Ce qu’on vous réserve sur le salon Elearning Expo 2024

Du 19 au 22 mars 2024 se tiendra le Salon SIRH/E-learning Expo à Paris Expo, Porte de Versailles. Comme chaque année, Audace ne manquera pas ce rendez-vous incontournable dans le domaine de la formation digitale et vous attend nombreux sur le stand A58.

Venez découvrir nos dispositifs de formation elearning, serious games ou immersive learning les plus innovantes et performantes dans de nombreux secteurs (enseignement et formation, industrie, logistique, BTP…) et répondant à de nombreux champs d’application : accueil de nouveaux salariés, RGPD, sécurité au travail et cybersécurité, formations aux gestes techniques, etc.

Nous vous inviterons également à tester nos simulateurs en réalité virtuelle sur mesure ou sur étagère (simulateur VR de formation à la conduite d’engins, simulations de process industriels, etc).

Assistez à notre sélection de mini-conférences

Jérôme POULAIN, Directeur associé d’Audace, spécialiste de la pédagogie depuis plus de 25 ans et Yann LEURENT, Chef de produit VR, auront le plaisir d’animer une série de mini-conférences gratuites (durée : 10 min.) sur des sujets de formation digitale. Chaque intervention sera suivie d’un temps d’échanges. Rendez-vous sur le stand A58 !

Programme du 20 mars 2024
11 h 00 :   Elearning, Serious Game, XR… Comment choisir le bon dispositif ?

Comment déterminer la meilleure approche pour répondre à vos objectifs pédagogiques ? Découvrez les avantages et inconvénients de chaque modalité d’apprentissage. Et maximisez l’engagement et la mémorisation de vos apprenants. Ciblé pour les experts en formation et RH. Obtenez les clés pour des choix d’apprentissage judicieux. 

11 h 30 :   Former en réalité virtuelle : quel coût ? quelle rentabilité ?

Dans cette mini-conférence, Yann Leurent bat en brèche les idées reçues et démontre comment la réalité virtuelle peut significativement réduire les coûts de formation tout en améliorant la qualité de l’apprentissage et l’excellence opérationnelle de l’entreprise. Avec des cas concrets pour illustrer la démonstration.

15 h 00 :  Comment ludifier ou gamifier son parcours digital de formation ?

Découvrez comment capter l’attention de vos apprenants, conserver la motivation tout au long de la formation et travailler la mémorisation des savoirs. Quels sont les leviers de la pédagogie et comment l’adapter à vos profils d’apprenants ? Comment intégrer de la ludo pédagogie dans un parcours de formation présentielle ou distancielle ? Peut-on tout gamifier ? Jérôme Poulain répondra à toutes vos questions.

15 h 30 :  Chasse aux risques, formations techniques… L’immersive learning au service de la sécurité et de la productivité de vos collaborateurs.

Casques de plus en plus accessibles, technologie de plus en plus perfectionnée… Avec l’immersive learning, l’apprentissage par la pratique et la logique d’essais/erreurs restent le meilleur moyen d’acquérir des compétences. L’immersive Learning se montre particulièrement efficiente pour répondre à de nombreux enjeux :intégrer de nouveaux opérateurs sans prendre de risque sur la production ; les former rapidement aux gestes métier critiques ;  déléguer la maintenance aux opérateurs dans le cadre de la TPM, améliorer la sécurité de vos opérateurs et réduire les accidents au travail…

Programme du 21 mars 2024
11 h 00 :   Intégrer un dispositif XR dans un parcours pédagogique : les bonnes questions à vous poser

Vous vous interrogez sur l’intégration de la réalité virtuelle dans votre parcours pédagogique ? Découvrez lors de cette mini-conférence les questions essentielles à considérer, de la pertinence du contenu à l’accessibilité technologique pour garantir la réussite de l’expérience immersive.

11 h 30 :   Réussir sa stratégie de déploiement d’un dispositif VR

Yann Leurent, Chef de produit VR chez Audace, vous livrera ses conseils pour un déploiement réussi de la réalité virtuelle dans votre parcours de formation. Apprenez à élaborer une stratégie efficace, de l’identification des besoins à la mise en œuvre pratique, et maximisez l’impact de vos initiatives VR sur la formation et l’engagement de vos apprenants.

14 h 00 :  Le pouvoir du « beau » en digital learning

Dans le monde du digital learning, la qualité rédactionnelle et l’esthétisme ne sont pas des détails, mais au contraire des éléments essentiels qui transforment l’expérience de formation. Rejoignez-nous pour découvrir comment ces composants clés peuvent significativement améliorer l’engagement, la compréhension et la rétention de l’information dans nos environnements numériques saturés.

15 h 45 :  Soyez novateurs avec SCORM, audacieux avec Tin Can

Pilier incontournable de la standardisation des contenus elearning, les stratégies SCORM peuvent considérablement optimiser la gestion et le suivi des formations. Pour aller plus loin, Tin Can offre de son côté une flexibilité inégalée dans la collecte de données, ouvrant ainsi la voie à des expériences d’apprentissage personnalisées et immersives. Rejoignez Jérôme Poulain pour une exploration de ces outils essentiels pour des formations plus efficaces.

Sony et Pimax : nouvelles avancées pour les casques

Sony a présenté un nouveau casque XR qui se distingue par son orientation vers la création de contenu spatial. Ce casque, conçu pour les applications professionnelles, cible les ingénieurs, les développeurs et les concepteurs de produits impliqués dans l’exploration et la modélisation d’environnements 3D, ainsi que pour les tests et les prototypes de design de produits.

Sony, le casque orienté création de contenu spatial

Le casque est équipé du chipset Qualcomm Snapdragon XR2+ Gen 2 et dispose de deux micro-écrans OLED 4K, offrant une expérience visuelle de haute qualité. Il inclut également une fonctionnalité de vidéo en transparence et possède au total six caméras et capteurs pour une reconnaissance spatiale et des expériences de réalité mixte améliorées. Le dispositif est conçu pour soutenir les créateurs dans la création de contenu 3D sophistiqué, avec des collaborations prévues par Sony avec divers développeurs de logiciels de production 3D, tant dans les domaines du divertissement que du design industriel.

Caractéristiques uniques du casque Sony : ses options de contrôle physique.

 Il comprend un accessoire de bague portable pour la manipulation intuitive d’objets dans l’espace virtuel, et un hybride de stylet et contrôleur pour une interaction et un pointage précis. Une autre caractéristique remarquable est la visière rabattable du casque, qui permet une transition facile entre les environnements virtuels et physiques sans avoir besoin de retirer complètement le casque. Ce mécanisme de rabattement est particulièrement utile pour les professionnels qui peuvent avoir besoin de passer fréquemment entre les tâches virtuelles et réelles.

Dans l’ensemble, le casque XR de Sony représente un pas important vers l’intégration des workflows virtuels et physiques dans les environnements professionnels, offrant un outil immersif et intuitif pour la création de contenu spatial.

Pimax Crystal, le casque de réalité virtuelle (VR) qui redéfinit les normes de l’expérience visuelle.

Bienvenue dans le monde technologique du Pimax Crystal, un casque de réalité virtuelle (VR) qui redéfinit les normes de l’expérience visuelle. Cette analyse détaillée met en lumière les aspects techniques essentiels qui font du Pimax Crystal un futur pionnier dans le domaine de la VR.

La clarté exceptionnelle du Pimax Crystal

Le Pimax Crystal se distingue par sa mesure révolutionnaire de Pixels-Per-Degree (PPD), atteignant une clarté visuelle inégalée de 35 PPD, l’expérience visuelle est alors hautement augmentée (en moyenne en dessous de 20 pour les autres casques). Ses panneaux QLED+Mini LED, avec une résolution de 5760 pixels horizontaux et 2880 pixels verticaux, créent une expérience visuelle inégalée.

Panneaux QLED+Mini LED

Doté de panneaux QLED+Mini LED, le Pimax Crystal offre une gamme de couleurs plus large, des noirs plus purs, et un rétroéclairage mini-LED avec atténuation locale. Cette conception unique assure des contrastes améliorés et des couleurs éclatantes, créant une immersion visuelle exceptionnelle, avec des couleurs éclatantes et un noir profond, donnant une palette visuelle riche et vibrante.

Conception ergonomique, équilibre et confort

Au-delà de ses performances visuelles, le Pimax Crystal propose une répartition équilibrée du poids pour un confort optimal. Avec un poids de 960g, ce casque reste parmi les plus légers sur le marché, garantissant un ajustement sûr et agréable. Sa conception angulaire redéfinit les normes de confort pour les utilisateurs de casques VR. Les lentilles en verre interchangeables assurent une clarté visuelle constante et une vision nette, offrant une expérience visuelle sans compromis.

Suivi des yeux de haute précision

Intégrant un suivi des yeux de haute qualité fonctionnant à 120 Hz, le Pimax Crystal propose un contrôle visuel immersif. Le système de suivi des yeux permet un rendu visuel optimal, avec un système de Foveated Rendering (Le « Foveated rendering » est une technique de rendu qui utilise un suivi oculaire intégré à un casque de réalité virtuelle pour réduire la charge de rendu en diminuant considérablement la qualité d’image dans la vision périphérique (en dehors de la zone regardée par l’utilisateur), dynamique pour des performances exceptionnelles.

Deux modes puissants : PCVR et Standalone XR2

Explorez les deux modes exceptionnels du Pimax Crystal. En mode PCVR, plongez dans l’univers de la réalité virtuelle avec la puissance d’un ordinateur robuste. Découvrez comment le mode autonome XR2 offre une expérience légère et mobile, avec la prise en charge de wifi 6e et des fonctionnalités de streaming sans fil prévues via WiGig (WiGig est une technologie sans fil ultra-rapide pour des connexions de courte distance, idéale pour le streaming haute définition et les périphériques sans fil).

Caméras Externes pour une Expérience Sans Stations de Base

Avec 4 caméras externes de champ de profondeur, le Pimax Crystal élimine le besoin de stations de base. Ces caméras assurent un suivi précis sans nécessiter d’accessoires supplémentaires, simplifiant l’installation et améliorant la commodité d’utilisation. Les caméras externes permettent également des fonctionnalités avancées, comme le suivi des mains et la réalité augmentée, élargissant les possibilités d’interaction dans le monde virtuel

Malgré quelques défauts mineurs, le Pimax Crystal offre une expérience visuelle exceptionnelle. Cette exploration technique révèle la convergence de la clarté, de la technologie et du confort, positionnant le Pimax Crystal (au prix de 1999€) comme un casque à suivre dans le monde de la réalité virtuelle !

De nouvelles lunettes de réalité augmentée, les Air 2 Ultra de chez Xreal, au CES 2024 !

La start-up chinoise Xreal (anciennement Nreal) a dévoilé ses lunettes de réalité augmentée, les Xreal Air 2 Ultra, lors du CES 2024. Ces lunettes révolutionnaires, qui seront disponibles en mars, se distinguent par deux capteurs frontaux permettant un tracking 6DOF (c’est la capacité de détecter les mouvements dans l’espace en trois dimensions, ajoutant une dimension à la liberté de mouvement classique (haut/bas, gauche/droite, avant/arrière), le déplacement se veut libre), offrant une expérience immersive inégalée. Compatible avec les smartphones Galaxy S22 et S23, les Xreal Air 2 Ultra sont équipées d’écrans micro-OLED Sony, offrant une résolution de 1080p par œil avec un taux de rafraîchissement de 120 Hz en 2D et 90 Hz en 3D.

Design et poids

Les lunettes, au design élégant de lunettes de soleil, ne pèsent que 80 grammes grâce à leurs montures en titane. Dotées de petits haut-parleurs directionnels et de deux micros, elles offrent une expérience sonore immersive. Le verre des lunettes peut être obscurci pour une immersion accrue, avec trois niveaux d’ajustement disponibles.

Fonctionnalités

Les Xreal Air 2 Ultra nécessitent une connexion à un smartphone ou un ordinateur via un câble USB-C. La surcouche logicielle Nebula permet d’afficher des applications Android ou Windows sous forme de fenêtres virtuelles dans l’environnement. Les lunettes peuvent cartographier l’environnement en 3D, avec une analyse sémantique des surfaces. Les gestes des mains sont suivis pour une interaction intuitive.

Compatibilité et prix

Compatible avec les Samsung Galaxy S22 et S23, ainsi qu’avec les ordinateurs sous Windows ou MacOS, les Xreal Air 2 Ultra sont en précommande à 799 euros. Principalement destinées aux développeurs, elles promettent de créer la prochaine génération d’expériences de réalité mixte. Le kit de développement logiciel (NRSDK 2.2) sera disponible en mars. Cela permettra à nos développeurs de chez Audace Digital Learning de trouver une utilisation poussée à ces lunettes pour de futures formations novatrices !

Comparaison et autonomie, le défaut de ces lunettes

Bien que Xreal présente les Air 2 Ultra comme concurrentes à l’Apple Vision Pro, elles se distinguent par un champ de vision plus réduit et une technologie moins avancée. Leur autonomie, dépendante de la batterie de l’appareil hôte, offre environ trois heures de visionnage de film sur smartphone. Il faut tout de même garder en mémoire le prix de ces deux appareils, qui ajoute cette différence, 799€ contre environ 3200€ !

Croissance du marché de la réalité augmentée

Les lunettes de réalité augmentée, en plein essor en 2023, évoluent avec les Xreal Air 2 Ultra. Malgré quelques limites, ces lunettes anticipent une nouvelle ère de confort visuel et de fonctionnalités spatiales, stimulant l’expansion du marché de la réalité augmentée.

L’annonce des Xreal Air 2 Ultra représente une avancée significative dans le domaine de la réalité augmentée, offrant aux développeurs et aux utilisateurs une expérience immersive inédite. Bien que présentant quelques différences par rapport à l’Apple Vision Pro, ces lunettes ouvrent la voie à une nouvelle ère d’innovations visuelles. Avec des fonctionnalités prometteuses et un design élégant, elles démontrent le potentiel continu de croissance du marché de la réalité augmentée. A noter : BMW a mis en avant l’intégration de la réalité augmentée dans les voitures avec les lunettes Xreal Air 2. Des indications AR guident le conducteur, à l’aide de superposition d’instructions de navigation dans son champ de vision, d’avertissements de danger, offrant une démo convaincante de l’avenir de la conduite assistée par AR.

NVIDIA ACE (Avatar Cloud Engine), un futur ajout majeur pour l’elearning ?

Révolutionnez vos Expériences avec NVIDIA ACE : Des Avatars Intelligents pour un Futur Ludique et Instructif

NVIDIA Avatar Cloud Engine (ACE), une percée technologique permettant aux développeurs de créer des avatars numériques innovants grâce à l’IA générative. ACE offre une personnalisation aisée, des résultats sécurisés et une flexibilité de déploiement, ouvrant la voie à des avatars réalistes et engageants, pour vos futurs formations cela pourrait être un gros plus. Ce projet révolutionne l’immersion des joueurs. Les PNJ (personnages non joueurs) deviennent interactifs, réagissant de manière réaliste aux paroles des joueurs, offrant des dialogues naturels, avec la possibilité de discuter au micro avec eux, et multilingues avec des temps de latence d’une seconde.

Points Forts d’ACE:

Facile à construire – Hautement personnalisable: Personnalisez les modèles ACE sans expertise approfondie, intégrez-les facilement dans vos applications pour des avatars réalistes.

Résultats sécurisés et cohérents : ACE propose des modèles AI sûrs (Audio2Face, Live Portrait, Voice Font, Riva, et NeMo) assurant des avatars précis et appropriés dans divers contextes répondant aux futurs demandes pour des formations par exemple.

Options de déploiement flexibles: Déployez des avatars via le cloud, PC, public ou privé, en temps réel ou hors ligne, offrant une adaptabilité totale aux développeurs.

Composants clés d’ACE:

IA Animation: Utilise Audio2Face pour des animations 3D réalistes, facilitant également l’animation de portraits 2D avec Live Portrait.

IA Parole et traduction : Offre une transcription précise (ASR), synthèse vocale (TTS), et jusqu’à 31 traductions bidirectionnelles avec NeMo. (En savoir plus : https://www.nvidia.com/fr-fr/ai-data-science/generative-ai/nemo-framework/)

IA générative: NVIDIA NeMo fournit des modèles linguistiques pour des réponses avancées, assurant la précision et la sécurité des avatars.

Exploration des possibilités :

NVIDIA ACE propose une solution novatrice aux développeurs, leur permettant de créer des avatars personnalisés ou d’adopter des processus spécifiques à leur domaine d’application, tels que l’interaction client et les services intelligents. Dans le domaine des jeux, le développement avec NVIDIA Kairos introduit des personnages non jouables (PNJ) intelligents, assurant des interactions naturelles grâce à ACE via NeMo, Riva et Audio2Face. Enfin, la communication en temps réel est optimisée par NVIDIA Maxine, qui intègre la traduction et la synthèse vocale en temps réel, avec l’ajout de Riva pour une communication immersive à l’échelle mondiale.

En résumé, NVIDIA ACE propulse les avatars vers de nouveaux horizons, offrant une intégration transparente dans des expériences numériques. Des jeux aux communications en temps réel, ACE ouvre la voie à un avenir où les avatars deviennent un ajout d’interaction majeur pour de futurs formations. Imaginez pouvoir interagir en temps réel avec un avatar qui vous donne de plus amples informations sur votre formation, cela pourrait être un gros plus !

L’IAG, vedette du CES 2024

L’année dernière déjà, l’intelligence artificielle générative (IAG) était la star du Consumer Electronics Show (CES) de Las Vegas, deux mois seulement après le lancement de ChatGPT par OpenAI. Cette année, la tendance se confirme sur cette nouvelle édition du salon : l’IA sera de plus en plus utilisée dans des secteurs tels que la santé, la finance, la logistique et l’éducation, transformant ainsi la manière dont ces industries fonctionnent.

Les Géants de l’Industrie mettent en avant l’IAG :

Nvidia, célèbre pour ses contributions aux grands modèles de langage (LLM), a dévoilé une solution hybride conjuguant la puissance de ses unités de traitement graphiques (GPU) avec le cloud computing. Cette approche répond à la demande croissante d’IAG et s’étend à des secteurs tels que la modélisation 3D et les jeux vidéo. Intel, son concurrent direct, annonce une nouvelle génération de processeurs axés sur l’IAG et exprime son engagement envers l’intégration de l’IAG dans les futurs flottes automobiles.

Lors de l’événement, Volkswagen a annoncé intégrer ChatGPT dans ses véhicules. LG, de son côté, envisage d’infuser ses appareils ménagers d’IAG pour leur permettre de prodiguer des conseils verbaux.

Métavers industriel : Comment Siemens veut façonner le futur

Parmi les grands acteurs de l’industrie présents, Siemens a dévoilé des avancées majeures visant à créer un métavers industriel, fusionnant le monde réel et numérique pour une collaboration innovante grâce à l’intelligence artificielle (IA). Le PDG de Siemens, Roland Busch, a souligné les opportunités offertes par ce métavers, permettant aux individus de collaborer en temps réel pour résoudre les défis du monde physique.

L’un des partenariats clés annoncés est avec Sony, centré sur le développement de l’ingénierie immersive. Siemens et Sony travaillent sur une solution appelée « NX Immersive Designer », prévue pour 2024. Cette solution novatrice combine le logiciel NX de Siemens avec le nouveau système de création de contenu spatial de Sony, incluant un casque de réalité étendue XR. Cette technologie XR offre une expérience virtuelle et augmentée avec des micro-écrans OLED 4K de haute qualité et des contrôleurs pour une interaction intuitive avec les objets 3D. La démonstration montre comment les ingénieurs de Red Bull Racing peuvent s’affranchir des contraintes traditionnelles en s’immergeant dans le métavers industriel.

Parallèlement, Siemens renforce sa collaboration avec Amazon Web Services (AWS) pour faciliter la création et le déploiement d’applications d’IA générative. En intégrant Amazon Bedrock à Mendix (plate-forme low-code de Siemens Xcelerator), les clients peuvent choisir et intégrer facilement des modèles d’IA générative sans nécessiter des compétences de programmation spécialisées. Cette collaboration simplifie le développement d’applications intelligentes, améliorant la productivité en facilitant des tâches telles que la recherche de documentation machine et la suggestion d’ajustements d’équipement. L’IA générative offre une interface conviviale pour interagir avec les informations, accélérant ainsi le processus de développement tout en garantissant sécurité et confidentialité dans la manipulation des données.

En résumé, Siemens s’engage activement à façonner le futur avec des partenariats clés et des avancées technologiques, visant à concrétiser le concept de métavers industriel par le biais d’une ingénierie immersive et de solutions d’IA générative. Le CES 2024 a mis en lumière l’appétit grandissant pour l’IAG, suggérant que cette technologie est en passe de devenir la norme pour l’ensemble des acteurs économiques. Cette vague d’innovation rappelle l’avènement du web à la fin des années 1990, marquant un tournant majeur dans le paysage technologique mondial. Restez à l’affût de ces développements passionnants, car le futur de l’apprentissage n’a jamais été aussi prometteur.

Rendez-vous sur le salon Learning Technologies 2024

L'événement phare dans le domaine de l'apprentissage et des technologies éducatives arrive !

Audace vous donne rendez-vous sur le salon Learning Technologies 2024 les 24 et 25 janvier à Paris Expo – Porte de Versailles.

Venez nous partager vos questions, discuter de vos besoins spécifiques et partager des démonstrations en direct sur le stand R21 !
Nos équipes se feront un plaisir de vous expliquer comment nos solutions innovantes de formation peuvent booster les performances de votre entreprise et aider vos équipes à exceller !

HRS Inside : un onboarding innovant pour un accueil réussi

Un onboarding bien géré a un impact déterminant sur la réussite des salariés, et donc de l’entreprise. Il permet une meilleure prise de poste, une augmentation de la productivité, une plus grande satisfaction au travail et de fait, une baisse du turnover. C’est ainsi que le Groupe des Hôpitaux Robert Schuman (HRS), comprenant 4 établissements au Luxembourg (2300 collaborateurs et 310 médecins) lance un parcours d’onboarding novateur pour ses nouveaux collaborateurs. Développé en collaboration avec Audace, ce programme s’inscrit dans le cadre de la RSE du Groupe HRS, visant à faciliter l’intégration des nouveaux membres de l’équipe.

Le parcours de formation se compose de 15 modules, tous disponibles en Français et en Allemand. Il expose des sujets variés permettant aux collaborateurs de se sentir bien accueillis, avec une vidéo de bienvenue du directeur du groupe et de la directrice des ressources humaines ; de découvrir les valeurs, l’histoire du groupe et ses périmètres d’actions ; de se familiariser avec le pôle qu’ils vont intégrer ; de disposer de toutes les informations logistiques nécessaires mais aussi de comprendre le contexte du milieu hospitalier, ses enjeux et d’en connaître les bonnes pratiques à appliquer au quotidien.

Plateau TV en guise de décor, présentateur vedette, jingle sonorisé, spécialistes interviewés, envoyé spécial sur place, reportages découverte, flashs-infos, ….  le collaborateur est plongé dans une émission télé (très inspirée) et guidé par le présentateur Guillaume et ses invités.

Le choix scénaristique du reportage type caméra à l’épaule permet de s’immerger au cœur du groupe HRS, d’en connaître de façon approfondie les différents pôles. Chaque vidéo introduit un contenu pédagogique interactif.

Cerise sur  le gâteau, l’apprenant prend parfois la place de l’expert invité sur le plateau afin de donner son avis via une série de questions diverses posées au fil du module. Après chaque prise de décision, un feedback lui est systématiquement proposé selon la nature de la réponse pour un meilleur ancrage mémoriel.