16.07.2018 Views

Perception(s) numérique(s) - Shin Kim

Master Degree Thesis from ENSCI Publication : March 2016 Author : Shin hyung KIM

Master Degree Thesis from ENSCI
Publication : March 2016
Author : Shin hyung KIM

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

133. Google I/O 2015 developer conference,<br />

SanFrancisco, le 29 May 2015<br />

Le principe est le même pour la réalité augmentée.<br />

Certaines interactions suggérées par l’écran (investir les<br />

extrémités, incliner, secouer, glisser, etc.) ne sont plus valables<br />

dans cette autre réalité qui n’a plus de contraintes d’espace.<br />

Les designers doivent donc créer un nouveau langage adapté ;<br />

il s’agit d’un travail subtil sur la gestuelle. Nous avons déjà<br />

exploré les nouvelles possibilités induites par la gestuelle<br />

dans ce mémoire. Certaines technologies de captation comme<br />

Kinect et Leap Motion permettent déjà un premier degré d’interaction<br />

entre l’objet et les mains, mais cette interaction est<br />

limitée à un cadre physique spécifique. Par exemple, je peux<br />

manipuler un objet 3D avec le mouvement de mes mains grâce<br />

à Leap Motion, mais uniquement devant le capteur dédié. Au<br />

contraire, dans la réalité augmentée, la gestuelle doit avoir un<br />

effet sur tous les éléments perçus par l’utilisateur. Ce ne sont<br />

pas uniquement des objets <strong>numérique</strong>s, mais aussi ceux de la<br />

réalité analogique qui deviendront de plus en plus interactifs.<br />

Google a ouvert la voie avec son projet Soli. Les chercheurs du<br />

laboratoire ATAP (Google’s Advanced Technology and Projects<br />

group) ont dévoilé, lors de la conférence Google I/O 2015 134 ,<br />

une puce radar minuscule qui peut se loger dans les différents<br />

objets et les rendre connectés. D’après la vidéo diffusée en<br />

mai 2015, le projet repose aussi sur la recherche de typologies<br />

de mouvements des doigts qui permettent de communiquer<br />

avec la puce. (figure:ATAP Soli) Ce projet laisse présager un<br />

futur où la gestuelle sera de plus en plus importante et oblige<br />

à repenser les habitudes pratiques qu’on avait avec nos écrans.<br />

Dans certaines vidéos avec des effets spéciaux graphiques, la<br />

réalité augmentée semble effacer la complexité de l’objet. La<br />

vidéo de présentation de Hololens en est un exemple : tout le<br />

monde peut potentiellement être créateur d’objet puisqu’il<br />

n’est plus nécessaire d’avoir des connaissances techniques<br />

pour manipuler et modifier un volume.<br />

Cependant, même si nous entrons dans une ère peuplée<br />

d’objets interactifs, il existe toujours une complexité importante<br />

derrière une image qui semble simple. Pour distinguer<br />

les différents objets à sélectionner, ainsi que les différentes<br />

fonctions à activer, le langage des gestes que nous avons<br />

aujourd’hui avec nos écrans ne sera pas suffisant. Imaginons<br />

une simple situation, la consultation d’un catalogue de<br />

meubles. Le catalogue sort de son cadre physique (papier<br />

ou écran) et peut se visualiser sur la totalité de la zone de<br />

perception. L’environnement recouvert d’une multitude<br />

d’objets nous demande donc un ensemble de gestes subtils et<br />

précis. Par exemple, quel geste pourrait réduire la taille d’un<br />

meuble sans réduire celle de l’affichage du catalogue? Dans ce<br />

contexte, la création ainsi que la classification et la hiérarchisation<br />

des commandes possibles dans l’espace en trois dimensions<br />

formeront un discipline indispensables. Voilà sans doute<br />

une tâche possible pour les designers qui deviendraient alors<br />

« prescripteurs de perception d’usage ».<br />

120 121

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!