Les pérégrinations du CogLab #3 (juin 2023)

Les pérégrinations du CogLab constituent une synthèse de l’actualité vue par Romain, agrégée des moments de partage lors des soirées HackNight du lundi soir et d’un travail de veille et de curation personnelle.

Édito, l’actualité de début juin

Le premier weekend de juin est passé, avec la double programmation du forum BrainPlay (voir notre billet dédié), puis le forum des sciences « Science Friction » à Ground Control. Nous préparons également notre Assemblée Générale Extraordinaire, avant la période estivale.

Pendant ce temps, les médias ont allègrement relayé les grandes annonces en matière d’informatique spatiale : Quest 3 de Meta et Vision Pro d’Apple. Une surenchère passagère sur les sujets liés à l’intelligence artificielle et autres tendances du moment ?

Les défis restent immenses face aux enjeux éthiques, et de régulation, pour protéger les usagers de dérives encore difficile à cerner. Face aux différents appels à réguler, nos voisins anglais semblent déterminés à organiser le premier sommet mondial sur l’IA (source GovUK), et toutes les institutions s’emparent activement du sujet (source : Intelligence artificielle : la course à la régulation entre grandes puissances, LeMonde.fr).

D’autant plus, après les vagues de licenciement opéré par les géants du numérique ces derniers mois, on observe un recul de la qualité des services permettant de protéger des utilisateurs. Une conséquence directe de licenciements particulièrement ciblés sur les équipes en charges de… la protection des utilisateurs (source : Next Inpact).

Alors que des hybridations sont de plus en plus perceptibles, entre les neurotechnologies, l’IA et les technologies immersives — en écho à la conférence XR Biosense que nous avons organisé en début d’année dernière — ce numéro de nos pérégrinations apporte de nouveaux exemples de convergences et outils émergents pour appréhender tous ces défis.

 

Revue de veille sur l’actualité, les évènements et autres ressources

Actualités locales

  • [Rediffusion] Les vidéos des conférences du 22ᵉ Forum des Sciences Cognitives sont désormais disponibles sur la chaîne YouTube de l’association Cognivence. Merci à toute l’équipe !
  • [Podcast] Un épisode de France Culture accueillait les chercheurs Aïda Elamrani et Guillaume Dumas permet d’évoquer l’état des recherches sur la conscience artificielle : « Intelligence artificielle : en mon âme et conscience ». On y trouvera un reportage avec Jean-Pierre Changeux (département des neurosciences de l’Institut Pasteur) et la mention d’un papier « Consciousness matters: phenomenal experience has functional value ».
  • [Université d’été] Les inscriptions pour la prochaine université d’été organisée par le MakerLab du Learning Planet Institute (LPI) sont ouvertes. Cette année, la thématique est axée sur le prototypage de solution open source pour la santé (source : LPI) ;
  • [Résidence] Marie-Laure Cazin vient d’annoncer le démarrage d’une résidence au SCRIME (LaBRI, université de Bordeaux), pour créer une version 2.0 de son projet « Cinéma émotif ». Il s’agit d’un prototype de cinéma interactif modulé par les spectateurs à l’aide de capteurs EEGs. Parmi les partenaires, nous noterons la startup-studio Mentalista ;
  • [Salon] On parlait de Ramses Alcaid, CEO de la startup américaine Neurable dans nos précédentes pérégrinations. Il sera à Paris ce mercredi 14 juin en tant que conférencier au salon Viva Technology (source : LinkedIn). Il y aura probablement de nombreuses démonstrations en lien avec les neurotechnologies à cette occasion, comme celles annoncées par l’INRIA ;
  • [Festival] En parallèle du salon Viva Tech. se tiendra Pas Sage en Seine (PSES) du 15 au 17 juin à Choisy-le-Roi (94). Une rencontre consacrée aux logiciels libres, au hacking et sa culture qui se déroule tous les ans depuis 2008. Le programme d’ateliers et conférences est disponible en ligne.
  • [Lecture] Dans un entretien avec Olivier Lefebvre, ex-ingénieur spécialisé dans la philosophie de la technique, ce dernier lance un appel aux ingénieurs, qualifié d’ « hologramme sociologique » et « Descartes des temps modernes », à « s’évader de leur cage dorée » (source : l’ADN). L’article est lié à la sortie de son ouvrage : « Lettre aux ingénieurs qui doutent » (édition L’échappée) ;
  • [Recherche] L’Inserm et Inria pilotent un programme de recherche national d’envergure sur la santé numérique dans le cadre de France Relance (source : Inria.fr). On y retrouve des notions avancées de traitement de données multimodales, multi-échelles et le jumeau numérique.

Actualités internationales

  • [Appel à projet] GuestXR, un programme de recherche européen (financement Horizon 2020) sur les technologies immersives, propose actuellement une série de webinaires (les rediffusions sont accessibles sur la chaîne YouTube) et vient d’annoncer un appel à projet ;
  • [Industrie] La startup française Wisear vient d’annoncer deux partenariats : (1) avec DigiLens, fabricant américain de lunette en réalité augmentée et mixte, (2) ainsi qu’avec Pico (vidéo), le fabricant de masque de réalité virtuelle chinois, pour intégrer leurs technologies respectives. Ces annonces ont été faites à l’occasion du grand salon AWE USA 2023, dédiés aux technologies immersives, qui se tenait du 31 mai au 2 juin en Californie (source : LinkedIn & LinkedIn) ;
  • [Lecture] « Why your thoughts may not be private for much longer », une n-ième interview de Nita Farahany, cette fois sur la BBC, relayée par nos voisins de NTX Londres (source : @NeuroTechLDN sur Twitter). Nita est une chercheuse spécialisée en neuro-éthique, autrice de l’ouvrage « The Battle for Your Brain: Defending the Right to Think Freely in the Age of Neurotechnology ». On vous conseille son TED Talk : « Your right to mental privacy in the age of brain-sensing tech » ;
  • [Séminaire] L’université californienne de Santa Clara va accueillir un séminaire intitulé « Brain capital innovation summit » du 26 au 28 juin, axé sur la santé. La page d’accueil de cette initiative met en avant la définition d’une « brain health » de l’OMS (Organisation mondiale de la Santé) ;
  • [Poster] Une équipe allemande communique sur l’acquisition de données EEG pendant la natation. Une collaboration avec la startup mBrainTrain (source : Twitter @mBrainTrain). Des travaux présentés lors de la conférence PuG2023 par Melanie Klapprott, qui a réalisé son mémoire de master sur le sujet ;
  • [Produit] La startup indienne Neuphony propose un casque EEG, avec une approche fondée sur la méditation pour luter contre le stress, à l’image des casques Muse (Interaxon, Canada), Melomind (myBrain Technologies, France) ou le future Enten (Neurable, USA) ;
  • [Colloque] La 32nd Annual Computational Neuroscience Meeting (CNS2023) se tiendra du 15 au 19 juillet à Leipzig, en Allemagne ;
  • [Colloque] Le colloque international annuel OHBM 2023 se tiendra du 22 au 26 juillet au Palais des Congrès de Montréal (Canada) ;
  • [Colloque] Le colloque Neuroinformatics Assembly 2023 se tiendra du 18 au 20 septembre en ligne. Un appel à orateur est ouvert. La thématique de cette année est : « Transparency in FAIR Neuroinformatics ».

Réseau NeuroTechX

  • [Formation] Le centre des études en neurosciences de l’université de Queen (Ontario, Canada), en partenariat avec le réseau NeuroTechX, annonce le lancement d’un programme de micro-formation certifiée en neurotechnologie : Neurotech Micro-credentials Program. Le premier cours est ouvert depuis le 5 juin.
  • [Outil] La version 0.5 de MOABB (Mother Of All BCI Benchmarks) est disponible, avec de nouveaux modèles, bases de données et des outils d’évaluation de l’analyse de signaux EEGs (source : @BAristimunha sur Twitter)
  • [Offre d’emploi] Une offre de doctorat ou post-doctorat est ouvert à l’Université Technologique de Berlin « PhD/PostDoc at TU Berlin – Electronics Engineering and ML for Wearable Brain-Body Imaging » (source : Slack NeuroTechX). En passant, le chapitre berlinois devrait bientôt rouvrir.
  • [Outil] Une base de données ouvertes EEG-RestingState avec des données EEGs, basées sur le casque Crown de Neurosity et la plateforme Fusion, est partagée sur Hugging Face. Annonce initiale : « Sharing an open dataset of eyes closed EEG recorded over the course of a week from a single participant using the Neurosity Crown and the Neurofusion platform. If you’re interested in longitudinal eeg analysis or have experiments you’d like to generate data for » (source : Slack NTX)

 

Informations sur les évènements passés

 

Zoom sur BCI Meeting 2023

C’est dans une forêt bruxelloise que se tenait la 10ᵉ conférence internationale « BCI Meeting » organisée par la BCI Society du 6 au 9 juin. Retrouvez le détail complet d’une des conférences les plus emblématiques de l’année (version PDF).

Image

Source : Tweet de @MJvanSteensel

Un clin d’œil à l’équipe de Timeflux qui animait un atelier intitulé « Offline and Online Tools for Real-World BCI Applications ». Retrouvez un live-tweet de Marie-Constance Corsi, et le contenu intégral de l’atelier sur le dépôt GitHub associé.

L’équipe de NeuraFutures, une initiative conduite par Nataliya Kosmyna, était également présente et organisait une soirée-ciné 🙂

Cover Image for BCI Movie Night!

Source : visuel de la soirée Neura Futures lors de la BCI Society, URL

 

 

 


À propos des « Pérégrinations du CogLab »

Les « Pérégrinations du CogLab » est un nouveau format expérimental qui vise à valoriser et à partager le travail de curation et notre lecture de l’actualité. Il a vocation à être diffusé toutes les deux semaines. Faites-nous part de vos retours sur cette initiative et à nous remonter tout sujet qui vous paraitrait pertinent.

 

Crédit de l’image d’illustration : Wandering Waves of Brain de GollyGforce sous licence CC BY 2.0

HackNight ViRtuelles #Covid19

Depuis 2016, le CogLab (NeuroTechX Paris) organise des soirées « HackNight » presque chaque lundi. A l’approche de la 150ème soirée et pendant la période de confinement #Covid19, nous faisons une rétrospective.

 

 

Historique des HackNight

Depuis plus de 4 ans, le CogLab organise des soirées « HackNight » quasi hebdomadaire qui ont démarré à La Paillasse (de février 2016 à décembre 2016), puis se sont déroulée dans les locaux de la société af83 (de janvier 2017 à août 2019) et enfin au Centre de Recherches Interdisciplinaire ou CRI (de septembre 2019 à Covid19).

Certaines de ces soirées ont été marquées par des événements :

  • les premières HackNight ont démarré avec l’équipe Meiso à La Paillasse avec des EEGs
  • des soirées parfois rythmées par des sprints pour préparer des stands au Forum des Sciences Cognitives ou autres nombreux événements auxquels nous avons participé
  • en janvier 2019 nous avons fêté la Galette des rois (14 janvier), puis la 100ème soirée (21 janvier) !
  • le 9 juillet 2019, Hans réalisait ses premières expérimentation en réalité augmentée (tweet)
  • le 12 juillet 2019 nous étions avec le collectif Hack Your PhD pour un Potluck apéro sur les Sciences ouvertes (tweet)
  • le 2 décembre 2019 nous faisions un combo avec l’association ÉphiScience (voir notre article)

Depuis quelques mois nous essayons de fêter les anniversaires des membres réguliers et d’autres occasions (Pâques, Galette, …) pour partager un repas.

 

Soirée HackNight spéciale Galette des rois du 14 janvier 2019

 

Nos soirées sont également l’occasion d’avoir des visites de nouvelles personnes régulièrement : curieux, étudiants, jeunes ou moins jeunes chercheurs, des membres de NeuroTechX, …

 

 

L’effet Covid19

Depuis le lundi 16 mars (HackNight N°139), nos soirées se déroulent exclusivement en ligne !

 

Pendant cette période de confinement, nous communiquons par visioconférences, encourageons les échanges entre nos membres, et aussi avec les autres chapitres NeuroTechX (communauté internationale).

 

Nos outils collaboratifs habituels sont ainsi nos principaux moyens d’échange : un fil de discussion Slack (chaine #HackNight) ainsi qu’une instance Jitsy.

Nous nous sommes ainsi adapté à de nouvelles façons de faire :

  • Utilisation d’une chaîne de discussion Skype, puis depuis le 27 avril, passage sur un serveur Jitsi HackNight de NeuroTechX, présentant l’avantage d’être léger et Open source
  • Comme en présentiel, chacun est libre de nous rejoindre à l’heure qu’il le souhaite, les échanges sont souvent informel, à l’image d’un forum de discussion, avec parfois des courtes présentations programmées ou non
  • Accueil de membres internationaux, notamment plusieurs personnes de NeuroTechX San Francisco — qui organisent leur propre HackNight SF le jeudi — mais aussi des membres de NeurotechX Toronto, Moscou et d’autres villes de par le monde, générant beaucoup d’échange en anglais.
  • Nous reprenons une prise de note active de ces échanges, à disposition des membres de l’association

 

En fonction des besoins et retours, exprimé en direct ou en différé, nous poursuivons l’exercice d’animation et adaptation de notre format HackNight et envisageons d’aller plus loin.

 

 

Vers un CogLab Virtuel

Depuis la création de la communauté en 2013, le CogLab est vu comme un laboratoire non officiel et accessible à tous, à l’image d’un tiers-lieu ; animé via les réseaux sociaux et des outils numérique désormais classiques (Trello, Slack, …).

 

Alternant depuis des années entre les rencontres physiques et les interactions numériques, la situation sanitaire à bousculer le monde entier dans des interactions majoritairement numérique. Cela à pour effet de (re)mettre en avant des outils comme les mondes virtuels (ou métavers). On observe par ailleurs une migration massive vers Second Life, un métavers emblématique et toujours actif depuis 2003.

Romain a soumis l’idée de créer un espace persistant virtuel pour le CogLab, qui pourrait également être pertinent à l’échelle de NeuroTechX, pour proposer des espaces de rencontres et collaboration plus immersif que les dizaines de chaînes Slack.

 

Inspiré par quelques migrations qui ont fait leurs preuves récemment :

  • La conférence scientifique IEEE VR, entièrement construite avec Mozilla Hubs et retransmise en direct sur Zoom et Twitch
  • Le Laval Virtual World français, construit en un temps record sur la plateforme VirBela, retransmis sur YouTube
  • L’organisation par un ensemble de pièces d’une grande maison du serveur Discord des Petits Débrouillards

 

Aperçu du Laval Virtual World, vendredi 24 avril 2020 sur Virbela

 

L’équipe va donc essayer d’explorer cette piste, avec un monde virtuel qui pourrait être composé de salles : Hall (accueil), HackNight (forum ouvert et informel), Meetup (conférence), Labs (1 salle / projets et leurs spécificités + hall d’accueil), Brainstorming (sprint sessions), …

 

Une première expérimentation à démarré sur : https://hubs.mozilla.com/9dSfXsw/neurotechx

 

Si l’initiative prend forme, elle pourrait servir de lancement expérimental pour la 150ème HackNight, à priori le 1er juin 2020, puis pour notre prochain cycle de conférence.

 

 

Retrouvez toutes les informations sur notre page dédiée : https://coglab.fr/hacknight ainsi que Meetup.

Rencontre WebXR et « pitch » du projet Autispace

Fabien Benetou organisait une rencontre informelle WebXR au Pavillon ce vendredi 13 septembre. L’occasion pour Hans et Romain de s’y rendre et de présenter Autispace.

 

En ce vendredi 13 — particulièrement mouvementé à Paris, sur fond de grève de la RATP — Fabien Benetou aka Utopiah organisait une rencontre « WebXR Paris » après quelques mois de pause, dans un nouveau format décontracté et informel.

Cette communauté regroupe les passionnés des technologies de réalité augmentée et virtuelle sur le web, et était accueillie par Marion Scordia du Pavillon immersif dans les locaux (ou plutôt la terrasse) de NUMA Paris. Ce fût un plaisir pour Hans et Romain de se retrouver ici après la tenue de notre cycle de Meetup CogLab Saison 3 « Réalités Mixtes et Sciences Cognitives » !

 

Source Rencontre informelle WebXR @ Le Pavillon!

 

État de l’art du marché

Ce moment d’échange a permis à chacun de partager son ressentis sur l’état de l’art du marché et les tendances émergentes. Un constat encore en demi-teinte, surtout pour l’Open Source et les standard du web qui peinent à se rendre visible et proposer des usages satisfaisant :

  • aFrame, un Framework WebVR très complet, n’est malheureusement plus soutenu officiellement par Mozilla et laissé au bon vouloir de la communauté.
  • AR.js la librairie de Jérôme Etienne (aujourd’hui chez Amazon Sumerian), qui s’interface avec aFrame
  • Des attentes autour des deux acteurs incontournable de la création libre : Blender et The Gimp
  • Babylon JS, un moteur 3D Open Source pour navigateur venant d’une initiative d’employés chez Microsoft
  • Godot engine est un moteur de jeu prometteur en prenant le meilleur de Unity et Unreal, mais encore flou sur sa roadmap

 

Là où le marché est concentré sur de gros acteurs, majoritairement les GAFA :

  • Les attentes autour de la plateforme de réalité mixte Hololens 2 de Microsoft, qui devrait enfin sortir dans les prochaines semaines
  • La collaboration entre HTC et Vive avec un positionnement software (Steam VR, OpenVR SDK) et hardware sur la VR pour les professionnels
  • Le géant Facebook propose une offre très populaire avec la plateforme Spark AR permettant de créer et déployer des filtres sur Facebook, Instagram et What’s app. Il est également fortement positionné sur la VR avec le store d’applications et les casques Oculus pour le grand public et les professionnels
  • Snaps.inc, l’entreprise qui développe Snapchat et les lunettes Spectacles développe massivement ses filtres en réalité augmentée
  • Amazon Sumerian est assez discret mais se positionne sur l’AR et la VR dans le cloud
  • Apple continue le développement de son ARKit et recrute des talents autour du hardware
  • La bibliothèque AR Core de Google se positionne en challenger d’ARKit avec la plateforme hardware Daydream qui a fait un flop
  • La solution Web AR de 8th Wall est portée par une croissance très dynamique
  • La plateforme Vuforia achetée par le géant PTC (Parametric Technology Corporation)

 

Il y a énormément d’acteurs et de nouvelles startup qui émergent régulièrement partout dans le monde sur tous les aspects de ces technologies (hardware, software, création de contenu, …) et des expérimentations pour faire émerger de nouveaux usages et déploiement à large échelle.

Les conférences et levée de fond se multiplie, il y a également beaucoup d’échecs. La création de standard avec les travaux W3C et du groupe Chronos (la spécification du WebXR est disponible depuis cet été !) notamment vos permettre d’assurer de l’interopérabilité et nous l’espérons un renforcement des communautés Open Source 🙂

 

 

C’est en tout cas la volonté de ce groupe actif et passionné :

 

Pitch de notre projet Autispace

Enfin, cette occasion à permis à Romain de présenter rapidement notre démarche autour du projet Autispace, ayant pour objectif de proposer un outil de médiation immersif pour mieux comprendre l’autisme.

En pause depuis quelques mois, nous reprendrons activement le développement de ce projet d’ici la fin de l’année pour proposer un premier démonstrateur en AR et VR sur des technologies web et Open Source.

Pendant les échanges, nous avons mentionné les initiatives Hol’Autisme (présenté par Guillaume lors de notre Meetup S3E4) et Bliss.

 

Voici les slides présentées :

 

Meetup S3E04 : Technologies immersives vs Open Sciences & DIY

Les Meetups CogLab

Meetup Coglab, Saison 3, Épisode 4.
Cet épisode conclut notre exploration du domaine en pleine mutation des interfaces en réalités virtuelles, augmentées, diminuées, mixtes, … (ajouter le terme qui vous plaira) et leurs liens avec les Sciences Cognitives.

On vous donne rendez-vous le lundi 3 juin 2019 à 19h00 au Pavillon (39 Rue du Caire, 75002 Paris)
Ce quatrième épisode se focalisera sur les initiatives collaboratives, la Sciences ouverte et le Do It Yourself appliqués aux technologies immersives.

Comme à notre habitude, nous vous proposons un panel d’intervenant.e.s pour varier les points de vue et expertises, et présenter des projets et retours d’expériences, avec une approche ouverte et une pointe de prospective.

Nous remercions également toute l’équipe du Pavillon à NUMA de nous accueillir !

Inscription sur MeetupInscription sur EventbriteInscription sur Eventbrite

Evénement ouvert et gratuit, dans la limite des places disponibles.

 

 

Programme de la soirée

Introduction (19h15, 15′)

Les actualités du CogLab, présentation du Pavillon et programme de la soirée.

Romain ROUYER

Président / CogLab, NeuroTechX Paris

Fondateur et président de l’association CogLab et Creative Technologist chez af83

Marion SCORDIA

Coordinatrice des événements / Le Pavillon

Event Coordinator @LePavillonXR #VR #AR #MR #Womenintech

 

Partie 1 — Neurosciences et exploration de soi avec la VR

Jonas CHATEL-GOLDMAN

Directeur de la recherche / Open Mind Innovation

Cofounder & research director at Open Mind Innovation @OMindme. Using data science, mind-body techniques and VR to unlock cognitive abilities.

Nicolas BASSAN

Psychologue / Open Mind Innovation

 

Partie 2 — Des neurosciences de l’interaction sociales à la médecine personnalisée pour l’autisme via jeu vidéo en réalité mixte (20h00, 30′)

Guillaume DUMAS

Chargé de recherche au département de neurosciences / Institut Pasteur

Guillaume DUMAS est chargé de recherche au département de neurosciences de l’Institut Pasteur et coordonne la plateforme Social Neuroscience for Therapeutic Approaches in Autism (SoNeTAA) dans le service de pédopsychiatrie de l’hôpital Robert Debré. Ses recherches combinent les interactions homme-homme et homme-machine avec le neuro-imagerie et la bioinformatique pour l’études de nos dynamiques neurales, comportementales et sociales. Il participe également à de nombreux projets à l’interface entre la science et la société notamment par la sensibilisation dans les institutions politiques et de recherche à la science ouverte (co-fondateur d’HackYourPhD) et le maintien des droits citoyens (expert invité à l’ONU).

___

Résumé: Les troubles du spectre autistique concernent plus de 1% de la population, mais il n’existe pas encore de traitement. Les neurosciences cognitives ont commencé à démontrer le rôle important de l’interaction sociale avec les autres pour façonner notre esprit individuel. Cette présentation montrera comment un modèle théorique basé sur la recherche fondamentale en science cognitive a été transformé en une interaction expérimentale homme-machine en laboratoire, puis progressivement transféré dans le contexte clinique de la psychiatrie de l’enfant et de l’adolescent, pour finalement être adapté comme un jeu vidéo en réalité mixte. Nous verrons comment ces développements ont été réalisés en faisant face à des défis clés d’ouverture : des défis techniques comme la portabilité et la durabilité aux défis plus sociaux comme la gestion du changement et la conception du modèle économique.

 

 

Partie 3 — Conclusion

Petite synthèse de ce cycle de Meetup sur les Sciences Cognitives et les technologies immersives. Nous reviendrons sur les temps forts et les perspectives à venir

Romain ROUYER

Président / CogLab, NeuroTechX Paris

Fondateur et président de l’association CogLab et Creative Technologist chez af83

 

 

Partie 4 — Pecha Kucha et/ou débat

A vous la parole !

Ce meetup se veut un peu plus dans l’échange, pour cela, nous laissons la parole à celles et ceux d’entre vous qui souhaiterait nous parler d’un retour d’expérience ou un projet, au format Pecha Kucha (20 diapositives, se succédant toutes les 20 secondes : un pitch de 6 minutes et 40 secondes).

Proposer un sujet

Et pour compléter, nous pourrons lancer un échange collectif autour des retours d’expérience de la soirée pour prendre de la hauteur, autour d’une petite collation et des démonstrations !

 

 

Compte-rendu (à venir)

Un compte-rendu détaillé est en cours d’élaboration et sera diffusé sur Meetup et via notre newsletter.

En attendant, retrouvez les slides de Romain :

 

Meetup CogLab S3E3 : Spécial Laval Virtual et biais cognitif

Les Meetups CogLab

Meetup Coglab, Saison 3, Épisode 3.

Nous continuons notre exploration du domaine des interfaces en réalités virtuelles, augmentées, diminuées, mixtes, … (ajouter le terme qui vous plaira) en pleine mutation et leurs liens avec les Sciences Cognitives !

Ce troisième épisode s’attardera sur la production de contenu, comment ces technologies permettent de tromper notre cerveau, et nous aurons un reportage du Laval Virtual !

Comme à notre habitude, nous vous proposons un panel d’intervenant.e.s pour varier les points de vue, présenter des projets, retours d’expériences et expertises, avec une approche ouverte et une pointe de prospective.

Nous remercions également toute l’équipe du Pavillon à NUMA de nous accueillir !

EN SAVOIR PLUS ET PARTICIPER

Evénement ouvert et gratuit, dans la limite des places disponibles.

 

 

Programme de la soirée

Introduction (19h15, 15′)

Les actualités du CogLab, présentation du Pavillon et programme de la soirée.
-> Présenté par Romain ROUYER, président de l’association CogLab, NeuroTechX Paris et Marion SCORDIA, coordinatrice des événements Le Pavillon

 

Partie 1 — Réalité virtuelle, augmentée, mixte : effets sur l’utilisateur et questions éthiques, applications en santé

→ Présenté par Bahman Ajang, psychologue cognitiviste (Paris 5 et ENS Paris ) et psychopraticien, spécialiste des nouvelles technologies, leurs usages, leur impact et leur régulation; consultant et conférencier concernant la réalité virtuelle (salon Virtuality Paris, EDF, Natixis), membre du comité éthique VR à destination d’EDF-Air France-Orange-Thalès.

DEMANDE D’ACCÈS À LA PRÉSENTATION

 

Livetweet de la présentation de Bahman

 

Partie 2 — Immersion au Laval Virtual 2019

La 21ème édition du Laval Virtual, le salon international et programme de conférences sur la VR/AR et les Techniques Immersives, se déroule du 20 au 24 mars. L’occasion de vous proposer un retour en image et à chaud des centaines d’exposants, conférences et installations immersives avec un oeil de cogniticien.
→ Présenté par Romain Rouyer (@rouffi), Creative Technologist chez af83 et président du CogLab

 

Support de présentation de Romain :

 

 

Partie 3 — Pecha Kucha et/ou débat

A vous la parole !

Ce meetup se veut un peu plus dans l’échange, pour cela, nous laissons la parole à celles et ceux d’entre vous qui souhaiterait nous parler d’un retour d’expérience ou un projet, au format Pecha Kucha (20 diapositives, se succédant toutes les 20 secondes : un pitch de 6 minutes et 40 secondes).

Proposer un sujet

Et pour compléter, nous pourrons lancer un échange collectif autour des retours d’expérience de la soirée pour prendre de la hauteur, autour d’une petite collation et des démonstrations !

 

 

 

Compte-rendu (en cours)

Un compte-rendu détaillé est en cours d’élaboration et sera diffusé sur Meetup et via notre newsletter.

En attendant, la captation vidéo ‘brute’ est à disposition :

Meetup CogLab S3E1 : Introduction

Présentation

Meetup Coglab, Saison 3, Épisode 1

Nous étions assez discrets depuis notre présence au Forum des Sciences Cognitives à la Cité des Sciences et poursuivons nos soirées HackNight hebdomadaires en groupes projets.

Pour marquer le début de l’hiver, c’est parti pour une nouvelle saison de Meetup organisé par l’association CogLab, NeuroTechX Paris !

Pour ce premier épisode introductif, nous explorerons le domaine des interfaces en réalités virtuelles, augmentées, diminuées et mixtes en pleine mutation … et leurs liens avec les Sciences Cognitives 🙂

Comme à notre habitude, nous nous efforçons d’avoir plusieurs intervenants pour varier les points de vue, présenter des projets, retours d’expériences et expertises, avec une approche ouverte et une pointe de prospective.

Nous remercions toute l’équipe du Pavillon à NUMA de nous accueillir !
https://www.lepavillonimmersif.com

En savoir plus et participer

Evénement ouvert et gratuit, dans la limite des places disponibles.

 

 

 

Programme de la soirée

#Introduction (19h30, 15′)
La rentrée du CogLab.
Programme de la soirée.
Rapide introduction sur les réalitées mixtes, défis, et perspectives.
-> Présenté par Romain ROUYER, président de l’association

#Partie 1 — État de l’art ( 19h45, 20′)
Les applications et dispositifs aujourd’hui du point de vue d’un journaliste : usages, développements, aspects techniques et barrières physiologiques.
-> Présenté par Julien Bergounhoux, tech reporter à l’Usine Digitale

#Partie 2 — L’apport des Sciences Cognitives (20h10, 20′)
Recherche sur la perception cognitive de l’environnement VR : immersion ou dissonance cognitive ? Exemple de la cinétose en ‘simulation’ de mobilité.
-> Présenté par Romain ROUYER, Creative Technologist chez af83

#Partie 3 — Zoom sur un projet (20h30, 20′)
Présentation du projet Autispace en développement au CogLab, sur le thème de l’Autisme. Retour d’expérience et état d’avancement.
-> Présenté par Isabelle NICHELLE, Business Analyst / UX Designer sur Autispace

#Conclusion et Discussions (20h45, 45′)
Moment libre et informel avec les participants, autour d’une petite collation.

 

Contenu du meetup

Accueil

Après une longue période centrée sur d’autres activités, le collectif CogLab, devenu depuis l’association CogLab, NeuroTechX Paris reprends l’organisation de ses Meetups thématiques avec une saison 3 traitant des “Réalités Mixtes et Sciences Cognitives” (la Saison 2 datait de 2015-2016 !).

Pour l’occasion, Le Pavillon à accepté de nous accueillir dans son espace au rez-de-chaussée de NUMA Paris. Nous avons donc préparé l’espace très convivial pour accueillir nos intervenant.e.s et participants.

 

Fort d’une cinquantaine d’inscrits (Meetup) et l’essai d’un livestream (YouTube) — qui nécessite des ajustements au niveau de la captation sonore — ce Meetup introductif s’annonce très riche en présentation et échanges !

Avant de démarrer le livestream et notre programme à 19h30 — et suite à une suggestion très pertinente d’un participant — nous avons amorcé la soirée par un tour de table avec toutes les personnes présentes. Comme à leurs habitudes, nos Meetups touchent des profils très variés, de l’étudiant au professionnel en passant par le milieu de la recherche académique. On notera quelques Designers au passage, qui seront particulièrement intéressé.e.s par le prochain épisode.

 

 

Introduction

La soirée commence par une présentation du programme, comme énoncé dans l’invitation Meetup, par Romain président et fondateur du CogLab.

Puis une présentation du Pavillon par Marion Scordia, chargée de la coordination des événements.

 

La rentrée du CogLab.

Romain présente rapidement l’association, son objet, ses activités et ses événements comme le format HackNight — moment de rencontre hebdomadaire centré sur les projets et quelques rencontres — le tout animé par une communauté :

  • 1088 abonnés sur Twitter (305 tweets)
  • 960 followers sur Facebook
  • 519 membres dans la communauté
  • 411 abonnés à la newsletter (9 lettres)
  • 443 membres Meetup (10 événements)
  • 64 membres sur Slack (8,896 messages)

Rapide introduction sur les réalitées mixtes, défis, et perspectives.

 

Partie 1 — État de l’art

Présentation de Julien

Romain présente notre invité de la soirée, Julien Bergounhoux, tech reporter à l’Usine Digitale pour nous présenter un état de l’art des applications et dispositifs aujourd’hui du point de vue d’un journaliste : usages, développements, aspects techniques et barrières physiologiques.

 

Préambule et définition

Le terme réalité mixte est encore trop ambitieux pour être employé aujourd’hui. Les technologies fournissent de la réalitée virtuelle d’un côté, de la réalité augmentée de l’autre, avec des cas d’usages très différent.

Des appareils proposant des deux arriveront probablement d’ici une vingtaine d’années.

 

Petit historique de la réalité virtuelle

Premier système à été développé en 1968 par Ivan E. Suther­land du MIT. Un système appelé l’épée de damoclès, très lourd et fixé sur une poulie.

Après des années de recherche et expérimentation, en 2011 une startup appelée Oculus à émergée, rachetée par Facebook en 2014 pour 2 milliard de dollars, ce qui à été un signal fort dans l’industrie. Depuis les investissements ont explosé pour faire décoller le marché.

Ulti­mate Display, égale­ment appelé l’ « épée de Damo­clès »

« L’idée fonda­men­tale derrière ce dispo­si­tif en trois dimen­sions est de propo­ser à l’uti­li­sa­teur une image en pers­pec­tive qui se modi­fie lorsqu’il bouge. L’image doit se modi­fier exac­te­ment de la même manière que se trans­forme l’image d’un objet réel lorsque l’uti­li­sa­teur bouge sa tête », explique le scien­ti­fique dans un de ses articles.

Source : blog

Petit historique de la réalité augmentée

Le marché est différent, il existe des dispositif que l’on appelle Head Up Display, les systèmes d’affichage tête haute utilisé au début pour les pilotes de chasses dans le domaine militaire.

Aujourd’hui, l’acteur qui a démocratisé la technologie c’est Microsoft avec son Hololens. Il se différencie par son aspect immersif et la spatialisation, par rapport à l’essai des Google Glass par exemple.

 

Les grands acteurs

Tous les grands acteurs de l’industries investissent énormément dans ces technologies. Facebook est en tête dans la VR, et Microsoft dans l’AR, suivi par Google, Amazon, Apple, Sony. Il travaillent sur la plateforme informatique du futur : après le bureau (PC, laptop) puis le smartphone, demain ça sera les lunettes.

 

Les types d’appareils

En VR on as deux types d’appareil :

  • l’accessoire de Smartphone (3 axes), comme le Samsung GearVR ou Google Dreamview, qui tends à disparaître car trop contraignant. Sans citer le Google Cardboard, créé à l’origine dans un laboratoire, également concepteur des manettes du Playstation VR.
  • casques pour PC utilisant la puissance d’un ordinateur et casque standalone (qui intègre l’électronique) de première génération qui sont équipés de capteurs externes pour permettre le tracking de la position (6 axes). Une nouvelle génération de casque “Standalone” est en approche, comme l’Oculus Quest intégrant tous les capteurs.

En AR :

  • Sur Smartphone les plateformes ARKit sur iOS et ARCore de Google dominent le marché. En terme d’usage cela reste limité et des démonstrateurs grand public comme Pokemon Go.
  • Hololens reste le plus grand démonstrateurs d’usage professionnel, malgré l’aspect encore émergeant de la technologie.

 

Les Sciences Cognitives

Le sentiment de présence est très fort en réalité virtuel, l’illusion d’être trompé, permis techniquement par la stéréoscopie (vision coupée en deux, avec les lentilles qui donnent l’impression de voir de loin).

Beaucoup de limites aujourd’hui, comme :

  • la cinétose (plus connu sous l’appellation anglophone “motion sickness”)
  • la définition (nombre de pixel) et champs de vision (FOV) limité
  • l’absence de focal pour une sensation de profondeur

 

Evolution matériel

Parmis l’amélioration des écrans, les lentilles, la taille du champ de vision, la puissance de calcul, c’est aussi l’arrivée de l’oculométrie (“eyetracking” en anglais) qui un aspect très attendu et recherché en VR car il va permettre un rendu fovéal, c’est à dire proposer un rendu plus net uniquement à l’emplacement visionné par l’usager, permettant un gain de performance non négligeable (wiki).

Du côté de l’AR, c’est essentiellement la capacité d’affichage qui est le plus gros challenge, avec une surface plus importante, aujourd’hui opéré par un système de projection holographique très limité par la luminosité.

 

Principaux usages

En réalité virtuelle :

  • Domaine du jeu vidéo, 3D temps réel, qui se démocratise par les espaces physique (escape game VR, salle de projection dédiée et salle d’arcade)
  • Formation professionnel est le secteur le plus développé aujourd’hui. Exemple de Wallmark qui à acheté plus de 7000 Oculus Go et formé 1 millions d’employé au Etat-Unis. Les résultats sont prometteurs : les employés apprennent mieux, plus vite et retiennent l’information par rapport aux autres méthodes d’apprentissages d’après certaines études.
  • Les thérapies comme les phobies ou les patients sont confrontés à leur peur de manière progressive et sont habitué à des situations pour vaincre des phobies.

En réalités augmentée

  • L’assistance d’un expert à distance fonctionne plutôt bien (Hololens)
  • Affichage tête haute sur les pare-brise des véhicules

 

Partie 2 — L’apport des Sciences Cognitives

Recherche sur la perception cognitive de l’environnement VR : immersion ou dissonance cognitive ? Exemple de la cinétose en ‘simulation’ de mobilité.

-> Présenté par Romain ROUYER, Creative Technologist chez af83

Présentation

< Présentation slides 15 à 35 Google Slide >

< Video 38’30 à 54’00 https://youtu.be/6VzJSTu9aKY >

Question

< Video 54’00 à 58’00 https://youtu.be/6VzJSTu9aKY >

 

Slide :

 

 

Partie 3 — Zoom sur un projet

Présentation du projet Autispace en développement au CogLab, sur le thème de l’Autisme. Retour d’expérience et état d’avancement.

-> Présenté par Isabelle NICHELLE, Business Analyst / UX Designer sur Autispace

Présentation d’Isabelle

< Présentation slides 37 à 63 Google Slide >

< Video 54’00 à 1’13’45 https://youtu.be/6VzJSTu9aKY >

 

 

Ressources

  • The Party: a virtual experience of autism, The Gardian, 2017, YouTube
  • Autism TMI Virtual Reality Experience, The National Autistic Society, 2016, YouTube

Autispace sélectionné au LabVR StoryCode

Dans le cadre de notre projet Autispace, vulgarisant l’autisme à l’aide de la VR, notre candidature a été sélectionné pour l’appel à participation de LabVR StoryCode.

 

 

L’appel à participation

Vous avez un projet de narration en Réalité Virtuelle ?
Cette année, Storycode Paris vous propose un nouveau rendez-vous dans la galaxie des nouvelles écritures : un espace-temps pour travailler sur vos projets de réalité virtuelle 🙂

Sur cette nouvelle planète VR, tout est encore à trouver. C’est pourquoi nous vous proposons d’avancer collectivement dans cette exploration avec le soutien d’autres pionniers de la VR.

 

Pour faire avancer vos projets de narration interactive, nous vous proposons une session d’échanges mensuelle entre porteurs de projets : amener vos points d’interrogations, nous mettrons en commun les compétences et les expériences pour y répondre.

  • Le temps : tous les 1ers mercredis et les 3èmes jeudis du mois entre 19h30 et 21h30
  • L’espace : Paris&co nous accueille dans une des bulles rouges du Cargo (Porte de la Villette). Un lieu qui héberge des startups et des industries créatives (dont Innerspace VR).

 

D’autres événements VR avec différents partenaires sont prévus dans l’année, l’occasion de faire venir des experts, rencontrer d’autres professionnels, présenter vos projets, etc…

Lien vers l’appel à participation : Storycode LabVR // appel à participation

 

 

Soirée d’échanges

Chaque rencontre est un moment d’échange entre porteurs de projet et professionnels de ces nouveaux métiers liés à la réalité virtuelle.

Ces rencontres s’organisent en 3 parties :

  • Présentation de nouveaux projets et retours collectifs
  • La question VR : tour de table sur une problématique précise
  • Démo, tests utilisateurs – 1 ou 2 prévue à l’avance (sur demande)

Lien vers nos compte-rendu : Sessions LabVR Storycode

 

 

Déjà de nombreux feedback pour Autispace

Les échanges très riches avec les games designers, spécialistes des effets en VR, autres porteurs de projets et développeurs nous ont permis de challenger nos idées et notre scénario.

Par exemple, nous avions prévu de créer une expérience en 2 temps :

  • des interactions à la première personne,
  • puis un point de vue explicatif à la 3ème personne à la fin du dénouement.

 

Un autre procédé, serait d’ajouter une sorte de conscience, tel un ‘Jiminy criquet’ pour nous expliquer l’interaction vécue, dans son contexte.

 

Nous avons également eu de bons retours et un grand intérêt sur l’objet de notre étude. L’autisme et les neurosciences sont en effet des sujets d’actualité, mais encore très méconnus.

Enfin, nous avons eu l’occasion de tester quelques démonstrations d’autres projets en avant première et avons été bluffés par la qualité des projets !

 

La prochaine soirée LabVR à lieu mercredi 6 Septembre, avant une pause estivale jusque début septembre. D’ici là, nous allons essayer de préparer une première mise en scène !