jeudi 5 mai 2011

Histoire des interfaces utilisateurs (7) – Les interfaces du futur

Ceux qui croient que l'histoire des interfaces utilisateurs est écrite se trompent : tout reste à inventer !
 
Pour ceux qui considéraient le système à base de fenêtres contrôlées à la souris comme l’interface ultime ont dû avoir un choc à la sortie, en 2002, du film de Steven Spielberg, Minority Report. On y voyait le héros incarné par Tom Cruise manipuler des applications par geste, debout devant des écrans transparents.
Le film n’a pourtant fait que révéler des techniques déjà effectives en laboratoire et qui vont alors rapidement arriver sur le marché, notamment tiré par le marché des jeux vidéo. Le succès de la Wii, de Nintendo, démontre l’appétence du public pour des interfaces radicalement nouvelles. La Wiimote, avec son accéléromètre, puis la Wii Motion Plus, équipée d’un gyroscope, permet à Nintendo de créer une interface gestuelle efficace.
Le succès de la formule pousse Microsoft à acquérir une technologie alternative, celle de la société israélienne PrimeSense. L’analyse des images d’une batterie de caméras permet une capture de mouvement. Cette technologie, que l’on retrouve aujourd’hui dans le Kinect, a immédiatement séduit les développeurs, qui s’en sont rapidement emparés pour la détourner, notamment, en l’exploitant dans le cadre d’applications de simulation de type serious game.

Vers une généralisation de la réalité augmentée

Autre piste explorée, en particulier sur les smartphones et les tablettes : la réalité augmentée. Quelques applications mobiles exploitent avec pertinence un mode d’affichage qui mèle les images réelles venant de la caméra du terminal avec des éléments de l'interface. La contrainte reste la taille de l’écran, une bien petite fenêtre sur le monde.
Un projet mené conjointement par le Human-Computer Interaction Institute, l’université Carnegie Mellon et Microsoft a tenté d’utiliser le corps humain lui-même comme périphérique d’entrée pour la machine. L’expérience, baptisée Skinput, a mis en œuvre un petit projecteur qui affichait les éléments d’interface sur les mains et les bras de l’opérateur. La solution a fait apparaître l’intérêt de la solution, mais aussi ses limites en termes de précision.
La solution la plus évidente pour généraliser la réalité augmentée consisterait à recourir à des lunettes de réalité virtuelle sur lesquelles on pourrait afficher tant le monde extérieur que l’IHM (interface homme-machine) des applications. Keiichi Matsuda a imaginé un monde où la réalité augmenté deviendrait omniprésente. Un monde peut-être pas forcement enviable.

Les ondes cérébrales, le Graal de l’IHM ?
Les interfaces gestuelles sont désormais une réalité sur les mobiles et les consoles de jeu. Mais elles ne sont pas la panacée. Les chercheurs travaillent à bien d’autres voies pour nous éviter de devoir gesticuler devant nos ordinateurs. Par exemple, le clavier Lomak utilise un laser pour guider le curseur de la souris. Une solution adaptée aux handicapés, puisque l'émetteur laser, qui peut être fixé sur la main ou sur la tête, ne nécessite que des mouvements de faible amplitude pour contrôler l'ordinateur. Une solution néanmoins moins efficace que la combinaison clavier-souris.
Le Graal des chercheurs reste la création d'une interface directe cerveau-machine. Quelques animaux de laboratoire y ont laissé leur vie ces dernières années. C'est notamment le cas d'un singe que les chercheurs du centre universitaire médical de Pittsburg ont connecté à un bras robotique en 2008. Les électrodes étaient alors posées directement dans le cerveau du primate. Celles-ci devaient lui permettre de commander ce bras par la seule pensée pour pouvoir s'emparer de sa nourriture. L'application envisagée pour cette technique invasive est d'équiper les personnes handicapées et privées de l'usage d'un membre. Difficile d'imposer une telle torture à l'utilisateur lambda d'un PC !

Une idée ancienne, mais difficile à mettre en oeuvre

Les plus cinéfiles se souviendront peut-être du film de Clint Eastwood Firefox, l'arme absolue, film dans lequel le héros volait un chasseur soviétique ultrasecret,  dont les systèmes d'armements étaient contrôlés par la pensée via des électrodes placées dans le casque du pilote... Encore fallait-il penser en russe !
Le roman de Craig Thomas qui a inspiré le film a été publié en 1978. L'idée n'est donc pas nouvelle, mais la mise en application s'est avérée pour le moins complexe et la technologie progresse lentement.
La montée en puissance des composants d'analyse de signaux et des micro-processeurs permettent d'envisager de commander une machine à partir de l'analyse des signaux du cerveau, les électro-encéphalogramme captés depuis des capteurs placé sur le casque, voire une simple paire de lunettes un peu enveloppantes.
Par exemple, XWave propose le XWave Sensor. Il se présente comme un casque téléphonique qui, couplé à une application iPhone, permet à son utilisateur de visualiser quelques-unes de ses ondes cérébrales pour tenter de mettre en mouvement une bille sur l'écran de son smartphone.
L'application a tout du gadget, tout comme celles de Mindball, présentée lors du CES de Las Vegas en 2009. Son Mind Flex mettait au défit le joueur de déplacer une balle sur un petit parcours semé d'obstacles amusants. Commercialisé par Mattel moins de 80 dollars, le jeu témoigne d'un premier niveau de démocratisation de la technologie.
Plus sérieusement, l'Inria et l'Inserm travaillent ensemble sur ce thème depuis plusieurs années. Ils ont ainsi mis au point le logiciel OpenVibe. Disponible en open source, ce dernier permet de créer des applications de réalité virtuelle tant sous Windows que sous Linux en exploitant les ondes cérébrales. Le monde de l'open source se passionne désormais pour ces interfaces cérébrales. L'alliance OpenEEG fédère en effet neuf projets dans le domaine. C'est désormais une question de temps avant que nos PC, smatphones, TV connectées et autres tablettes ne soient, au moins pour partie, télécommandés par notre seule pensée.

Aucun commentaire:

Enregistrer un commentaire