16.07.2018 Views

Perception(s) numérique(s) - Shin Kim

Master Degree Thesis from ENSCI Publication : March 2016 Author : Shin hyung KIM

Master Degree Thesis from ENSCI
Publication : March 2016
Author : Shin hyung KIM

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Touch Gesture Reference Guide<br />

2010<br />

www.lukew.com<br />

88. Ingénieur, informaticien et co-fondateur<br />

de l’IxDA (Interaction Design<br />

Association)<br />

89. Conception, Illustration par Craig<br />

Villamor, Dan Willis & Luke Wroblewski,<br />

La version mise à jour le 26 juin 2011<br />

www.lukew.com/ff/entry.asp?1071<br />

Il semble qu’aujourd’hui nous soyons globalement<br />

habitués à l’ensemble des commandes <strong>numérique</strong>s, elles<br />

ne nous surprennent plus. Par exemple, je me réfère à<br />

Touch Gesture Reference Guide crée par Luke Wroblewski 89<br />

et ses collaborateurs, un catalogue de gestes utilisés sur une<br />

interface tactile. 90 Lors d’une manipulation de l’objet dans<br />

le <strong>numérique</strong>, les mouvements des doigts sont distincts<br />

et la surface tactile les comprend. Les doigts restent<br />

appuyés et on tire pour déplacer un objet sur l’écran, ou bien<br />

on écarte les deux doigts pour faire un zoom avant. Il existe<br />

un premier degré de personnalisation avec la surface tactile,<br />

parce que chacun peut associer son geste à une commande<br />

<strong>numérique</strong>. Sur la plateforme de MacOS par exemple, en<br />

faisant écarter mes quatre doigts, je peux agrandir l’objet<br />

affiché, ou bien me débarrasser de l’objet en premier plan<br />

pour dévoiler les éléments placés derrière.<br />

En 2010, Kinect de Microsoft a ouvert une première voie<br />

vers l’interaction avec le corps entier : Il s’agissait de transformer<br />

la caméra en détecteur de mouvement corporel. Initialement<br />

développé pour être utilisé sur une console de jeux<br />

vidéo, le joueur peut désormais manier un objet sur l’écran<br />

sans passer par une manette. Alors que le mouvement du<br />

joueur est interprété sous forme d’images bidimensionnelles,<br />

le principe de Keynect est intéressant parce que ce sont<br />

des mouvements intuitifs qui deviennent des commandes<br />

<strong>numérique</strong>s. Le corps interagit directement avec l’objet.<br />

En 2012, LeapMotion, une technologie de contrôle gestuel<br />

de la main, emmène la gestuelle encore plus loin : un petit<br />

détecteur équipé de LEDs infrarouges permet d’interpréter la<br />

gestuelle de la main en trois dimensions. Avec cette technologie,<br />

on peut imaginer une expérience où on manipule un<br />

objet sur l’interface, comme si cet objet était présent matériellement.<br />

Il n’y a pas d’obligation de mimer une telle gestuelle,<br />

mais chacun a la possibilité de générer sa propre gestuelle pour<br />

interagir avec l’objet. Aujourd’hui, on commence à croiser<br />

ce principe d’émission infrarouge avec d’autres technologies<br />

dans différents secteurs. La conduite d’automobile en est<br />

un exemple. Ainsi, Harman Industries, un fournisseur de<br />

technologie automobile, développe un système qui reconnaît<br />

les gestes et les expressions faciales du conducteur pour<br />

les associer avec des fonctionnalités liées au confort de la<br />

conduite. Par exemple, le bouton volume n’est plus à tourner,<br />

mas le conducteur peut choisir un geste avec trois doigts pliés,<br />

pour distinguer des autres commandes de contrôle. Selon un<br />

article de Dailymail paru en juillet 2012 91 , le projet est déjà en<br />

phase de démonstration en Europe.<br />

Il existe aussi désormais des dispositifs portatifs, comme la<br />

bague connectée Nod de Nod Labs, qui détecte les mouvements.<br />

Dévoilée en 2014, cette bague laisse envisager les possibilités<br />

de relation à l’objet connecté qui s’ouvrent à nous. Le porteur a<br />

deux bagues aux index ; le système de captation est développé<br />

pour reconnaitre tous les mouvements effectués par les<br />

mains et les bras. Il permet de contrôler l’ensemble des<br />

objets connectés environnants d’un simple geste intuitif.<br />

Aujourd’hui, il est surtout conçu pour le marché du jeu vidéo :<br />

certains jeux d’action demandent une liberté et une fluidité<br />

du mouvement des mains qui se visualisent sur l’écran. Si ce<br />

processus d’interaction était appliqué à une expérience plus<br />

subtile de l’objet dans le <strong>numérique</strong>, il est possible d’imaginer<br />

une infinité de scénarios répondant aux envies de l’utilisateur.<br />

L’exemple du système Myo, le brassard de contrôle par gestes<br />

évoqué dans la première partie, est représentatif de cette<br />

tendance à la personnalisation de la commande, parce que la<br />

reconnaissance de la gestuelle est basée sur une analyse fine du<br />

mouvement musculaire. L’ensemble des nouvelles technologies<br />

<strong>numérique</strong>s contribue ainsi à la construction d’une nouvelle<br />

génération de la gestuelle, l’objet dans le <strong>numérique</strong> s’adaptant<br />

aux capacités et aux habitudes personnelles de chacun.<br />

90. « New gadget that controls a car’s<br />

functions with just a wink or a nod of<br />

the driver’s head », Dailymail, 23 juillet<br />

2012<br />

www.dailymail.co.uk/sciencetech/<br />

article-2177329/New-gadget-controls-cars-functions-just-wink-noddrivers-head.html,<br />

page consultée le<br />

12.05.2015<br />

90 91

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!