Perception(s) numérique(s) - Shin Kim
Master Degree Thesis from ENSCI Publication : March 2016 Author : Shin hyung KIM
Master Degree Thesis from ENSCI
Publication : March 2016
Author : Shin hyung KIM
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
133. Google I/O 2015 developer conference,<br />
SanFrancisco, le 29 May 2015<br />
Le principe est le même pour la réalité augmentée.<br />
Certaines interactions suggérées par l’écran (investir les<br />
extrémités, incliner, secouer, glisser, etc.) ne sont plus valables<br />
dans cette autre réalité qui n’a plus de contraintes d’espace.<br />
Les designers doivent donc créer un nouveau langage adapté ;<br />
il s’agit d’un travail subtil sur la gestuelle. Nous avons déjà<br />
exploré les nouvelles possibilités induites par la gestuelle<br />
dans ce mémoire. Certaines technologies de captation comme<br />
Kinect et Leap Motion permettent déjà un premier degré d’interaction<br />
entre l’objet et les mains, mais cette interaction est<br />
limitée à un cadre physique spécifique. Par exemple, je peux<br />
manipuler un objet 3D avec le mouvement de mes mains grâce<br />
à Leap Motion, mais uniquement devant le capteur dédié. Au<br />
contraire, dans la réalité augmentée, la gestuelle doit avoir un<br />
effet sur tous les éléments perçus par l’utilisateur. Ce ne sont<br />
pas uniquement des objets <strong>numérique</strong>s, mais aussi ceux de la<br />
réalité analogique qui deviendront de plus en plus interactifs.<br />
Google a ouvert la voie avec son projet Soli. Les chercheurs du<br />
laboratoire ATAP (Google’s Advanced Technology and Projects<br />
group) ont dévoilé, lors de la conférence Google I/O 2015 134 ,<br />
une puce radar minuscule qui peut se loger dans les différents<br />
objets et les rendre connectés. D’après la vidéo diffusée en<br />
mai 2015, le projet repose aussi sur la recherche de typologies<br />
de mouvements des doigts qui permettent de communiquer<br />
avec la puce. (figure:ATAP Soli) Ce projet laisse présager un<br />
futur où la gestuelle sera de plus en plus importante et oblige<br />
à repenser les habitudes pratiques qu’on avait avec nos écrans.<br />
Dans certaines vidéos avec des effets spéciaux graphiques, la<br />
réalité augmentée semble effacer la complexité de l’objet. La<br />
vidéo de présentation de Hololens en est un exemple : tout le<br />
monde peut potentiellement être créateur d’objet puisqu’il<br />
n’est plus nécessaire d’avoir des connaissances techniques<br />
pour manipuler et modifier un volume.<br />
Cependant, même si nous entrons dans une ère peuplée<br />
d’objets interactifs, il existe toujours une complexité importante<br />
derrière une image qui semble simple. Pour distinguer<br />
les différents objets à sélectionner, ainsi que les différentes<br />
fonctions à activer, le langage des gestes que nous avons<br />
aujourd’hui avec nos écrans ne sera pas suffisant. Imaginons<br />
une simple situation, la consultation d’un catalogue de<br />
meubles. Le catalogue sort de son cadre physique (papier<br />
ou écran) et peut se visualiser sur la totalité de la zone de<br />
perception. L’environnement recouvert d’une multitude<br />
d’objets nous demande donc un ensemble de gestes subtils et<br />
précis. Par exemple, quel geste pourrait réduire la taille d’un<br />
meuble sans réduire celle de l’affichage du catalogue? Dans ce<br />
contexte, la création ainsi que la classification et la hiérarchisation<br />
des commandes possibles dans l’espace en trois dimensions<br />
formeront un discipline indispensables. Voilà sans doute<br />
une tâche possible pour les designers qui deviendraient alors<br />
« prescripteurs de perception d’usage ».<br />
120 121