Perception(s) numérique(s) - Shin Kim
Master Degree Thesis from ENSCI Publication : March 2016 Author : Shin hyung KIM
Master Degree Thesis from ENSCI
Publication : March 2016
Author : Shin hyung KIM
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Touch Gesture Reference Guide<br />
2010<br />
www.lukew.com<br />
88. Ingénieur, informaticien et co-fondateur<br />
de l’IxDA (Interaction Design<br />
Association)<br />
89. Conception, Illustration par Craig<br />
Villamor, Dan Willis & Luke Wroblewski,<br />
La version mise à jour le 26 juin 2011<br />
www.lukew.com/ff/entry.asp?1071<br />
Il semble qu’aujourd’hui nous soyons globalement<br />
habitués à l’ensemble des commandes <strong>numérique</strong>s, elles<br />
ne nous surprennent plus. Par exemple, je me réfère à<br />
Touch Gesture Reference Guide crée par Luke Wroblewski 89<br />
et ses collaborateurs, un catalogue de gestes utilisés sur une<br />
interface tactile. 90 Lors d’une manipulation de l’objet dans<br />
le <strong>numérique</strong>, les mouvements des doigts sont distincts<br />
et la surface tactile les comprend. Les doigts restent<br />
appuyés et on tire pour déplacer un objet sur l’écran, ou bien<br />
on écarte les deux doigts pour faire un zoom avant. Il existe<br />
un premier degré de personnalisation avec la surface tactile,<br />
parce que chacun peut associer son geste à une commande<br />
<strong>numérique</strong>. Sur la plateforme de MacOS par exemple, en<br />
faisant écarter mes quatre doigts, je peux agrandir l’objet<br />
affiché, ou bien me débarrasser de l’objet en premier plan<br />
pour dévoiler les éléments placés derrière.<br />
En 2010, Kinect de Microsoft a ouvert une première voie<br />
vers l’interaction avec le corps entier : Il s’agissait de transformer<br />
la caméra en détecteur de mouvement corporel. Initialement<br />
développé pour être utilisé sur une console de jeux<br />
vidéo, le joueur peut désormais manier un objet sur l’écran<br />
sans passer par une manette. Alors que le mouvement du<br />
joueur est interprété sous forme d’images bidimensionnelles,<br />
le principe de Keynect est intéressant parce que ce sont<br />
des mouvements intuitifs qui deviennent des commandes<br />
<strong>numérique</strong>s. Le corps interagit directement avec l’objet.<br />
En 2012, LeapMotion, une technologie de contrôle gestuel<br />
de la main, emmène la gestuelle encore plus loin : un petit<br />
détecteur équipé de LEDs infrarouges permet d’interpréter la<br />
gestuelle de la main en trois dimensions. Avec cette technologie,<br />
on peut imaginer une expérience où on manipule un<br />
objet sur l’interface, comme si cet objet était présent matériellement.<br />
Il n’y a pas d’obligation de mimer une telle gestuelle,<br />
mais chacun a la possibilité de générer sa propre gestuelle pour<br />
interagir avec l’objet. Aujourd’hui, on commence à croiser<br />
ce principe d’émission infrarouge avec d’autres technologies<br />
dans différents secteurs. La conduite d’automobile en est<br />
un exemple. Ainsi, Harman Industries, un fournisseur de<br />
technologie automobile, développe un système qui reconnaît<br />
les gestes et les expressions faciales du conducteur pour<br />
les associer avec des fonctionnalités liées au confort de la<br />
conduite. Par exemple, le bouton volume n’est plus à tourner,<br />
mas le conducteur peut choisir un geste avec trois doigts pliés,<br />
pour distinguer des autres commandes de contrôle. Selon un<br />
article de Dailymail paru en juillet 2012 91 , le projet est déjà en<br />
phase de démonstration en Europe.<br />
Il existe aussi désormais des dispositifs portatifs, comme la<br />
bague connectée Nod de Nod Labs, qui détecte les mouvements.<br />
Dévoilée en 2014, cette bague laisse envisager les possibilités<br />
de relation à l’objet connecté qui s’ouvrent à nous. Le porteur a<br />
deux bagues aux index ; le système de captation est développé<br />
pour reconnaitre tous les mouvements effectués par les<br />
mains et les bras. Il permet de contrôler l’ensemble des<br />
objets connectés environnants d’un simple geste intuitif.<br />
Aujourd’hui, il est surtout conçu pour le marché du jeu vidéo :<br />
certains jeux d’action demandent une liberté et une fluidité<br />
du mouvement des mains qui se visualisent sur l’écran. Si ce<br />
processus d’interaction était appliqué à une expérience plus<br />
subtile de l’objet dans le <strong>numérique</strong>, il est possible d’imaginer<br />
une infinité de scénarios répondant aux envies de l’utilisateur.<br />
L’exemple du système Myo, le brassard de contrôle par gestes<br />
évoqué dans la première partie, est représentatif de cette<br />
tendance à la personnalisation de la commande, parce que la<br />
reconnaissance de la gestuelle est basée sur une analyse fine du<br />
mouvement musculaire. L’ensemble des nouvelles technologies<br />
<strong>numérique</strong>s contribue ainsi à la construction d’une nouvelle<br />
génération de la gestuelle, l’objet dans le <strong>numérique</strong> s’adaptant<br />
aux capacités et aux habitudes personnelles de chacun.<br />
90. « New gadget that controls a car’s<br />
functions with just a wink or a nod of<br />
the driver’s head », Dailymail, 23 juillet<br />
2012<br />
www.dailymail.co.uk/sciencetech/<br />
article-2177329/New-gadget-controls-cars-functions-just-wink-noddrivers-head.html,<br />
page consultée le<br />
12.05.2015<br />
90 91