22.09.2016 Views

Thesis - Motion Capture - Magazine

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

SECONDA


4


POLITECNICO<br />

DI TORINO<br />

Dipartimento di Architettura e Design<br />

Corso di laurea in Design e Comunicazione Visiva<br />

Anno Accademico 2013/2014<br />

SECONDA<br />

PELLE<br />

Relatore<br />

Michele Cafarelli<br />

Candidati<br />

Federico Pennisi<br />

&<br />

Marco Gontero<br />

5


INDICE<br />

INTRODUZIONE<br />

TIMELINE<br />

14<br />

18<br />

LE ORIGINI<br />

19<br />

1.1 ORIGINE DELLA MOCAP<br />

1.2 IL CYBER GLOVE<br />

1.3 DATA GLOVE E TOY STORY<br />

20<br />

21<br />

22<br />

MOTION CAPTURE<br />

25<br />

2.1 MOTION CAPTURE: DEFINIZIONE<br />

2.2 AMBITI APPLICATIVI<br />

2.3 ANALISI DEL MOVIMENTO: LA STORIA<br />

2.4 TECNICHE DI MOCAP<br />

2.4.1 SISTEMI NON OTTICI<br />

2.4.2 SISTEMI OTTICI<br />

2.5 MARKERS<br />

2.6 VANTAGGI E LIMITAZIONI<br />

2.7 MOCAP NEL CINEMA: L’ESEMPIO DI GOLLUM<br />

26<br />

27<br />

28<br />

29<br />

30<br />

31<br />

32<br />

33<br />

34<br />

PERFORMANCE CAPTURE<br />

37<br />

3.1 THE POLAR EXPRESS<br />

3.2 A CHRISTMAS CAROL<br />

3.3 POTENZIALITÀ E MALLEABILITÀ ESPRESSIVE<br />

38<br />

42<br />

44<br />

6


MICROSOFT KINECT<br />

49<br />

4.1 LA PRIMESENSE E L’INNOVAZIONE DI KINECT<br />

4.2 COMPONENTI HARDWARE<br />

4.3 FUNZIONAMENTO SOFTWARE<br />

50<br />

52<br />

54<br />

AVATAR<br />

59<br />

5.1 AVATAR: UN LAVORO COLOSSALE<br />

5.2 RIVOLUZIONE TECNOLOGICA<br />

5.3 RIPRESE: LA FUSION 3-D<br />

5.4 NATURALEZZA DEI VOLTI<br />

5.5 REALTÀ SENZA TRUCCO<br />

5.6 EFFETTO “DEAD EYE”<br />

5.7 ANIMAZIONE<br />

64<br />

65<br />

66<br />

70<br />

73<br />

74<br />

74<br />

MOCAP TEATRALE<br />

83<br />

6.1 RE UBÙ INCATENATO<br />

6.2 COMPOSIZIONE DELLA SCENA TEATRALE<br />

6.3 RELAZIONE TRA SPAZIO DIGITALE E ATTORE<br />

6.4 MOCAP PER UN TEATRO SPERIMENTALE<br />

6.5 18 INTERPRETAZIONI, UN UNICO ATTORE<br />

6.6 L’ESEMPIO DI DOMINIQUE BULGIN<br />

84<br />

86<br />

88<br />

89<br />

90<br />

91<br />

CONCLUSIONI<br />

BIBLIOGRAFIA<br />

SITOGRAFIA<br />

RIVISTE<br />

92<br />

95<br />

96<br />

97<br />

7


8


Apes Polar Revolution Express<br />

9


INTRODUZIONE<br />

Di progressi nel campo dei videogiochi si sente spesso parlare<br />

relativamente a nuove routine di intelligenza artificiale, nuovi<br />

stratosferici engine grafici e sofisticatissimi motori fisici in grado<br />

di simulare e rappresentare un mondo virtuale in modo credibile<br />

e quasi indistinguibile da quello reale, ma poco o nulla è dato sui<br />

passi da gigante che il settore delle animazioni ha compiuto negli<br />

ultimi dieci anni. Molti dei titoli attuali vantano un realismo nei<br />

movimenti quasi umano, fluido ed armonioso senza mai risultare<br />

impacciato o spezzato grazie alla tecnica del motion capture in<br />

grado di rappresentare al meglio il movimento del corpo umano in<br />

un ambiente fittizio.<br />

Abbiamo voluto affidare alla tesi il compito e l’obiettivo di<br />

approfondire il funzionamento base di questa importante tecnica<br />

e gli ambiti di applicazione e cercheremo di capire cosa potrebbe<br />

aspettarci in futuro viste le recenti innovazioni del settore.<br />

La tecnica in questione ha ben più antiche origini ma, in particolare,<br />

focalizzeremo la nostra attenzione in ambito cinematografico che è<br />

quello che più ci appassiona.<br />

Attraverso approfondimenti, analisi di film d’animazione, registi,<br />

attori e riscontri con la quotidianità speriamo di condurre il lettore<br />

in un viaggio interessante che mostrerà in modo curioso la frontiera<br />

del futuro cinematografico e non solo.<br />

Il motion capture è la tecnologia della cattura e dell’analisi<br />

del movimento, prevalentemente umano, attraverso una serie<br />

di strumenti appositamente utilizzati. Le tecnica alla base del<br />

motion capture è piuttosto semplice da capire e si compone di<br />

pochi elementi di base, fra cui dei marcatori (marker) composti<br />

da materiale riflettente o luminoso (ad esempio dei led), e delle<br />

telecamere fotosensibili. Il soggetto da studiare viene coperto<br />

dai marker ed il movimento dei marker viene catturato dalle<br />

telecamere che ne registrano i dati emessi sottoforma luminosa.<br />

Questi dati vengono poi elaborati in tempo reale da un software<br />

in grado di creare uno scheletro digitale dalle informazioni<br />

ricevute per studiarne il movimento relativo. I marker forniscono<br />

quindi le coordinate della posizione di alcuni punti cardine come<br />

gli arti, e le telecamere registrano la velocità di spostamento e<br />

l’orientamento. E’ importante notare come sia necessario uno<br />

spazio ed uno studio dedicato per ottenere risultati soddisfacenti,<br />

con conseguenti esigenze economiche non indifferenti, oltre che di<br />

10


un team specializzato. Nonostante l’utilizzo sempre più quotidiano<br />

nel mondo videoludico e del cinema, il sistema del motion<br />

capture nasce per tutta un’altra serie di scopi, principalmente di<br />

valenza medica. Inizialmente, infatti, veniva utilizzato per valutare<br />

i progressi compiuti da persone dotate di protesi o sottoposte a<br />

particolari cure. Data la sua precisione, ben presto è stato adottato<br />

anche in altri campi, fra cui, quello più peculiare, dell’animazione<br />

tridimensionale. Accostare il motion capture ad un sistema di<br />

animazioni è quantomeno intuitivo e semplice.<br />

Con i dati forniti dalla rilevazione spettrofotogrammica, si possono<br />

realizzare delle bozze di animazioni di base, dando al modello un<br />

realismo nei movimento elevato. Avendo a disposizione dati molto<br />

precisi e riferimenti spazio-temporali reali, è possibile rappresentare<br />

praticamente movimenti così complessi che, se realizzati a mano,<br />

impiegherebbero molte ore aggiuntive di lavoro senza comunque<br />

raggiungere gli stessi livelli qualitativi. La differenza, infatti, fra un<br />

sistema di animazioni che utilizza il motion capture ed un altro che<br />

non lo fa, è notevole; il motion capture rende più armonioso un<br />

movimento, meno meccanico, meno spezzato e soprattutto molto<br />

più realistico essendo basato proprio su azioni compiute davvero<br />

dal vivo, senza alcuna simulazione.<br />

GOLLUM<br />

Non sono pochi i casi in cui il<br />

mondo del cinema e quello dei<br />

videogames si avvalgono di tale<br />

tecnologia. Uno dei casi più<br />

celebri è relativo al famosissimo<br />

Gollum della trilogia del Signore<br />

degli Anelli. Lasciando da parte<br />

la qualità eccellente di texture e<br />

filtri grafici applicati al modello<br />

tridimensionale, ciò che stupisce<br />

più di tutto è l’incredibile<br />

flessuosità e morbidezza con<br />

cui il personaggio si muove.<br />

I movimenti dell’attore Andy<br />

Serkis, infatti, sono stati<br />

catturati tramite motion capture<br />

ed utilizzati come base per le<br />

animazioni di Gollum. Il risultato<br />

è qualcosa di sorprendente che<br />

rende la creatura viva e reale<br />

nonostante sia completamente<br />

digitalizzata.<br />

11


MOTION CAPTURE<br />

LA CATTURA DELLA REALTÀ UMANA<br />

OBIETTIVO<br />

La <strong>Motion</strong> Caputure è una<br />

tecnologia cinematografica<br />

che permette di catturare i<br />

movimenti naturali del corpo<br />

di un soggetto (anche più di un<br />

soggetto compresi gli animali)<br />

reale per poi applicarli ad un<br />

personaggio virtuale.<br />

Famosissimo è l’utilizzo di<br />

questa tecnica per la creazione<br />

dei movimenti del personaggio<br />

di Gollum nella trilogia de Il<br />

Signore degli anelli.<br />

Agli attori viene fatta indossare<br />

una speciale tuta di scena che,<br />

ricoperta da moltissimi sensori<br />

(fino a 300) registra e cattura i<br />

movimenti.<br />

In questo modo viene creata<br />

un’immagine virtuale che<br />

riproduce perfettamente i<br />

movimenti originali degli attori.<br />

LIBERTÀ E NATURALEZZA DEI<br />

MOVIMENTI<br />

Le tute motion capture variano a<br />

seconda della tipologia di cattura<br />

che si vuole attuare. Lo scopo<br />

finale della cattura decide a priori<br />

l’utilizzo di una tuta o di un’altra.<br />

In figura (a destra) si può osservare<br />

una delle tute che vengono<br />

utilizzate più comunemente in<br />

ambito cinematografico.<br />

Registazione e cattura del movimento naturale<br />

12


PERFORMANCE CAPTURE<br />

L’EMOZIONE DELL’ESPRESSIONE<br />

OBIETTIVO<br />

La Performance Caputure è<br />

una tecnologia cinematografica<br />

che permette di catturare<br />

movimenti ed espressioni<br />

facciali di un soggetto reale per<br />

poi applicarli ad un personaggio<br />

virtuale.<br />

Tecnica utilizzata per la prima<br />

volta da Robert Zemeckis<br />

nel film Polar Express, è poi<br />

stata utilizzata e perfezionata<br />

da James Cameron nel<br />

pluripremiato film Avatar.<br />

Per permettere alla realtà di<br />

diventare animazione, agli<br />

attori viene fatto indossare uno<br />

speciale casco, al quale viene<br />

applicato, tramite braccio rigido,<br />

una telecamerina rivolta verso<br />

il viso. Il volto è ricoperto da<br />

decine di micro sensori per la<br />

cattura istantanea dei movimenti<br />

ed espressioni facciali.<br />

CATTURA DELL’ESPRESSIONE<br />

Micro sensori facciali per la cattura<br />

di ogni espressione, anche le più<br />

impercettibili.<br />

maggiore è il numero di sensori<br />

applicati al volto migliore sarà<br />

la precisione di analisi e cattura<br />

dell’espressione.<br />

Evoluzione del volto di lara croft per i videogiochi di tomb raider<br />

13


<strong>Motion</strong> <strong>Capture</strong> Timeline<br />

Gli eventi più rilevanti che hanno portato all’ evolversi di questa straordinaria tecnica in campo<br />

videoludico e cinematografico. Dalla nascita ad oggi.<br />

Il mocap nasce dall’esigenza<br />

di studiare il movimento<br />

di persone ed animali, per<br />

comprenderne le leggi che<br />

lo governano e, nel caso di<br />

patologie, quantificarne l’effetto.<br />

Nel XX secolo, il mocap approda<br />

anche nel mondo dello sport e<br />

dei videogames.<br />

Walt Disney si rende conto delle<br />

potenzialità di questa tecnologia<br />

ed inizia ad utilizzarla per la<br />

produzione dei propri cartoni<br />

animati. Nel 1937, l’azienda<br />

rilancia il primo lungometraggio,<br />

Biancaneve ed i Sette Nani,<br />

che viene animato filmando<br />

attori reali e ricalcando i loro<br />

movimenti. Dato il successo<br />

ottenuto da questo film animato,<br />

la Disney impiega questa<br />

tecnologia per molti altri lavori<br />

come Peter Pan, Alice nel<br />

Paese delle Meraviglie e La<br />

Bella Addormentata.<br />

14<br />

XX sec<br />

1915<br />

1937<br />

Quando si parla di mocap in<br />

ambito cinematografico, ci<br />

si riferisce alla possibilità di<br />

acquisire i movimenti di una<br />

persona reale per poi trasferirli<br />

ad un personaggio animato.<br />

Il primo esempio nell’ambito<br />

dell’industria dell’entertainment<br />

è la serie di cortometraggi Out<br />

of the Inkwell girati da Max<br />

Fleischer. Nel 1915 Fleischer<br />

idea la tecnica del rotoscopio,<br />

un sistema di animazione<br />

utilizzato per creare un cartone<br />

animato in cui le figure umane<br />

risultano molto realistiche<br />

nei movimenti. Il disegnatore<br />

ricalca le scene a partire da una<br />

pellicola filmata in precedenza.<br />

In origine, le immagini filmate<br />

in precedenza venivano<br />

proiettate su un pannello di<br />

vetro traslucido, dove fungevano<br />

da supporto per l’attività di<br />

disegno.


Il mocap diviene presto uno<br />

strumento indispensabile<br />

per i film-makers e George<br />

Lucas lo impiega per animare<br />

il personaggio Jar-Jar Binks<br />

in Star Wars: Episodio I – La<br />

Minaccia Fantasma.<br />

1999<br />

Avatar di James Cameron,<br />

uscito nelle sale nel 2009.<br />

Il regista aspetta oltre un<br />

decennio per fare uso di<br />

questa tecnologia in un suo<br />

film, e quando lo fa propone<br />

un nuovo sistema chiamato<br />

“camera virtuale”. Mentre gli<br />

attori si muovono all’interno<br />

di una apposita sala per le<br />

riprese attrezzata con un sistema<br />

mocap (soprannominata ‘The<br />

Vault’), un software costruisce<br />

in tempo reale sull’acquisizione<br />

il personaggio animato in<br />

modo tale che il regista può<br />

controllarne il risultato.<br />

2001<br />

2009<br />

2011<br />

Peter Jackson lancia il<br />

personaggio Gollum nel film<br />

Il Signore degli Anelli: La<br />

Compagnia dell’Anello. Ed è<br />

nel film successivo, Il Signore<br />

degli Anelli: Le Due Torri, che<br />

avviene una grande rivoluzione.<br />

Se prima gli attori “reali” e quelli<br />

che venivano successivamente<br />

animati recitavano<br />

separatamente, ora attori “reali”<br />

e virtuali recitano insieme nella<br />

la medesima scena. L’attore<br />

che impersona Gollum, e che<br />

è ormai diventato un guru di<br />

questa tecnica, è Andy Serkis.<br />

Ma è nel 2011, all’uscita del<br />

film L’alba del Pianeta delle<br />

Scimmie, che lo spettatore<br />

si trova davanti ad un film<br />

nel quale è quasi impossibile<br />

pensare che le scimmie non<br />

siano vere. Merito ovviamente di<br />

Andy Serkis.<br />

15


IL FUTURO È UN OBIETTIVO,<br />

NON UNA DESTINAZIONE.<br />

16


17


18


11<br />

LE ORIGINI<br />

Cosa si intende per motion capture?<br />

Partendo da alcuni esempi fondamentali, vogliamo<br />

fare comprendere cosa abbia dato il via a quella<br />

che oggi è l’animazione cinematografica.<br />

Lo studio del movimento umano incide in maniera<br />

assai massiccia in quell’ambiente che chiamiamo<br />

“settima arte”.<br />

19


1.1 LE ORIGINI DELLA MOTION CAPTURE<br />

In origine la Mocap viene<br />

usata soprattutto per scopi<br />

militari o in ambito sportivo,<br />

dove serve come strumento<br />

per la ricerca biomeccanica e il<br />

funzionamento dei muscoli in<br />

movimento.<br />

Il primo vero strumento di motion<br />

capture, però, vede la luce solo<br />

agli inizi degli anni ’80, grazie<br />

al Data Glove, un’invenzione<br />

brevettata da Thomas<br />

Zimmerman, con cui vengono<br />

manipolati i suoni della chitarra<br />

grazie ad un’interfaccia hardware.<br />

In pratica, la chitarra può essere<br />

suonata senza la presenza della<br />

chitarra stessa, ma semplicemente<br />

indossando un guanto su cui sono<br />

cuciti dei piccoli tubi di plastica<br />

all’interno dei quali passa un<br />

fascio luminoso.<br />

L’infinitesimo ritardo che la luce<br />

accumula quando il piccolo tubo<br />

si piega è indice di quanto il tubo<br />

stesso si è piegato e se questo<br />

oggetto è solidale con le dita<br />

indica in modo preciso quanto<br />

queste si sono piegate e quindi il<br />

movimento che stanno facendo.<br />

Grazie a questo brevetto insieme<br />

a Jaron Lanier fonda la VPL<br />

Research che diventa fornitrice<br />

ufficiale per la NASA dei data<br />

glove e di tutti quegli strumenti,<br />

come successivamente l’head<br />

mounted display, necessari per<br />

costruire applicazioni di Realtà<br />

Virtuale.<br />

E’ proprio alla fine degli anni<br />

’80 infatti che Lanier conia il<br />

termine appena citato legandolo<br />

strettamente alla tecnologia<br />

che erano in grado di offrire sul<br />

mercato e di li a poco scienziati<br />

e filosofi di tutto il mondo si<br />

lanceranno in fantascientifici<br />

voli pindarici immaginandosi<br />

applicazioni e modalità d’uso<br />

in grado di mettere seriamente<br />

in discussione le nostre vere<br />

esperienze sensoriali.<br />

La Realtà Virtuale non si è evoluta<br />

così come si pensava agli inizi<br />

degli anni ’90 fondamentalmente<br />

perché i computer non erano<br />

abbastanza potenti per gestire<br />

real-time una interazione uomomacchina<br />

così complessa e con<br />

una qualità percettiva tale da<br />

poter essere confusa con una<br />

esperienza reale.<br />

• 1982 Sayre Glove<br />

• 1987 Glove Nintendo<br />

Il Sayre Glove, creato da Electronic<br />

Visualization Laboratory nel 1977, fu il<br />

primo guanto cablato. Nel 1982 Thomas G.<br />

Zimmerman depositato un brevetto su un<br />

sensore ottico di flex montato in un guanto<br />

per misurare il dito flessione.<br />

20


I GUANTI MAGICI CHE SUONANO LA CHITARRA SENZA CHITARRA E GLI<br />

INIZI DEL FENOMENO MOTION CAPTURE HANNO PROBABILMENTE DATO<br />

IL VIA AL CINEMA DEL FUTURO E PIÙ IN GENERALE ALL’ESPANSIONE<br />

SEMPRE CRESCENTE DELLA GRAFICA DIGITALE.<br />

1.2 IL CYBER GLOVE<br />

L’ elemento chiave è un guanto al<br />

quale sono attaccati dei sensori<br />

che definiscono la posizione<br />

e l’orientamento della mano<br />

mediante ultrasuoni. Delle bende<br />

piezoceramiche, posizionate<br />

intorno alla mano, forniscono, a<br />

chi indossa il guanto, un feedback<br />

tattile grazie al fatto che i guanti<br />

sono connessi all’ hardware del<br />

computer tramite un piccolo<br />

cavo. Questo processo permette,<br />

interagendo con l’host del<br />

computer, di guidare, in tempo<br />

reale, il modello tridimensionale<br />

della mano consentendo di<br />

manipolare oggetti generati al<br />

computer come se fossero reali.<br />

Abduction<br />

PIP<br />

MP<br />

Z Glove<br />

Z Glove<br />

• 1990 Cyber Glove<br />

Oggi<br />

Uno dei primi guanti cablati disponibili per gli<br />

utenti domestici nel 1987 era il potere Glove<br />

Nintendo. Questo è stato progettato come un<br />

guanto di gioco per il Nintendo Entertainment<br />

System. Aveva un tracker greggio e sensori<br />

Questa è stata seguita dalla CyberGlove,<br />

creato da tecnologie virtuali, Inc. nel 1990<br />

tecnologie virtuali è stata acquisita da<br />

Immersion Corporation nel settembre 2000.<br />

dito piegare, più pulsanti sul retro.<br />

21


1.3 DAI DATA GLOVES A TOY STORY<br />

Negli ultimi venticinque anni,<br />

questa tecnica è diventata<br />

uno strumento essenziale<br />

nel mondo dell’animazione,<br />

dando la possibilità ai grafici<br />

3D di rendere più realistici i<br />

personaggi dei cartoni animati e<br />

di animare creature fantastiche.<br />

I primi prodotti commerciali che<br />

hanno avuto una diffusione di<br />

massa e che hanno utilizzato<br />

le tecnologie proprie della<br />

Realtà Virtuale, anche se<br />

ne sono solo un surrogato,<br />

sono il videogioco di “Lara<br />

Croft” ed il lungometraggio<br />

di animazione “Toy Story”.<br />

Siamo nel 1995 e, per la prima<br />

volta, dei personaggi digitali<br />

realizzati utilizzando le tecniche<br />

dell’animazione tridimensionale<br />

diventano delle vere e proprie<br />

star internazionali.<br />

?<br />

IL MOUSE<br />

COME MOCAP<br />

22<br />

Anche il mouse, in fondo,<br />

può essere considerato uno<br />

strumento di motion capture<br />

digitale perché riesce a<br />

codificare il movimento della<br />

nostra mano in informazioni<br />

binarie e, grazie alla semplicità<br />

del meccanismo e dei dati<br />

elaborati, trasferisce in “tempo<br />

reale” il movimento allo<br />

schermo del pc garantendoci<br />

quell’interattività che facilita la<br />

navigazione, il gioco on line, etc.


23


24


MOTION CAPTURE<br />

La “cattura del movimento” e i vari e possibili<br />

ambiti nei quali questa tecnologia può essere<br />

utilizzata e possibilmente sviluppata. Analizziamo<br />

i diversi sistemi che questa offre distinguendone i<br />

vantaggi e gli svantaggi.<br />

Più in particolare ci soffermiamo sull’uso che si fa<br />

della motion capture nell’ambito del cinema. In<br />

ultimo valutiamo quali sono realmente i limiti e le<br />

possibili soluzioni future.<br />

25


2.1 MOTION CAPTURE: DEFINIZIONE<br />

Esempio di motion capture in ambito<br />

cinematografico, il software rileva i movimenti<br />

dell’attore associandoli allo scheletro 3D del<br />

computer<br />

Se parliamo di “<strong>Motion</strong><br />

<strong>Capture</strong>” o, come spesso<br />

si abbrevia, di “MoCap”,<br />

una definizione piuttosto comune<br />

e largamente accettata è quella<br />

fornita da Menache nel suo libro:<br />

« <strong>Motion</strong> <strong>Capture</strong> is the process<br />

of recording a live motion event<br />

and translating it into usable<br />

mathematical terms by tracking<br />

a number of key points in<br />

space over time and combining<br />

them obtaining a single 3D<br />

representation of performance 1 ».<br />

In accordo con la definizione<br />

appena data, scopo della motion<br />

capture è dunque quello di<br />

“digitalizzare” il movimento<br />

di un soggetto, fornendo<br />

del movimento reale una<br />

rappresentazione matematica<br />

quantitativa che renda il<br />

movimento stesso facilmente<br />

fruibile come input per successivi<br />

studi e successive elaborazioni.<br />

Tale caratteristica rende le<br />

tecniche di motion capture utili<br />

e interessanti per un grande<br />

ventaglio di applicazioni, per studi<br />

di biomeccanica, per scopi di<br />

sorveglianza, nella realtà virtuale o<br />

nel cinema.<br />

La <strong>Motion</strong> <strong>Capture</strong>, rappresenta una delle innovazioni più importanti in ambito videoludico e non solo.<br />

Molto del realismo delle animazioni odierne, è dovuto all’utilizzo accurato ed efficace di questa tecnica<br />

che, se sfruttata a dovere, regala ad un gioco o un film d’animazione quel qualcosa in più rispetto agli altri<br />

che non lo utilizzano.<br />

26<br />

1 A. Menache, Understamding <strong>Motion</strong> <strong>Capture</strong> for Computer Animation and Video Games. Morgan Kaufmann, 2000.


2.2 AMBITI APPLICATIVI<br />

Tra i vari usi delle tecnologie per<br />

la motion capture, ricordiamo<br />

innanzitutto quelli in ambito<br />

clinico e in ambito sportivo. Per<br />

quanto riguarda gli studi clinici,<br />

le tecniche di motion capture<br />

sono necessarie per pervenire<br />

ad una conoscenza accurata<br />

della cinematica del soggetto,<br />

per poter diagnosticare i<br />

problemi di locomozione dei<br />

pazienti. Per quanto riguarda<br />

l’ambito sportivo, le tecniche<br />

MoCap vengono comunemente<br />

utilizzate per registrare il<br />

movimento al fine di individuare<br />

eventuali raffinamenti da attuare<br />

per il miglioramento della<br />

performance sportiva nel suo<br />

complesso. Un altro ambito<br />

di utilizzo delle tecnologie di<br />

motion capture è quello della<br />

sicurezza: le tecniche MoCap<br />

possono infatti essere impiegate<br />

nella progettazione di sistemi di<br />

sorveglianza intelligenti Sistemi<br />

di MoCap sono stati utilizzati per<br />

il riconoscimento dell’andatura<br />

nel cammino di un soggetto<br />

come segnale di riconoscimento<br />

biometrico. È stato infatti<br />

proposto che l’andatura sia una<br />

caratteristica sufficientemente<br />

distintiva da permettere la<br />

discriminazione tra soggetti<br />

diversi.<br />

Citiamo infine, a conclusione<br />

di questa breve carrellata di<br />

esempi, un altro importante<br />

campo di applicazione per<br />

queste tecnologie: la realtà<br />

virtuale. Grazie alle tecnologie<br />

MoCap, infatti, essendo in grado<br />

di tradurre il movimento umano<br />

in modelli digitali comprensibili,<br />

eventualmente, anche dalle<br />

macchine, è possibile infine<br />

per utenti umani interagire con<br />

contenuti digitali in tempo reale:<br />

questo aspetto può risultare<br />

molto utile ad esempio nella<br />

costruzione di simulazioni di<br />

allenamento, o per eseguire test<br />

di percettibilità visiva, oppure<br />

ancora per donare in generale<br />

un movimento naturale a<br />

personaggi creati interamente al<br />

computer (caratteristica, questa,<br />

molto apprezzata e utilizzata<br />

migliorare i rendering degli<br />

effetti speciali in TV, nei film e<br />

nei video games.<br />

Il primo gioco ad utilizzare la cattura del movimento fu<br />

Prince of Persia che fu realizzato nel 1989.<br />

Lionel Messi catturato dalla motion capture per<br />

i movimenti del gioco per PS3 Pro Evolution<br />

Soccer 2010<br />

27


2.3 L’ANALISI DEL MOVIMENTO: LA STORIA<br />

L’interesse per l’analisi del<br />

movimento in generale è in<br />

realtà molto antico, che si rifà<br />

ai tempi dell’antica Grecia, e<br />

anche se la sua evoluzione passa<br />

attraverso i nomi dei più grandi<br />

scienziati, filosofi e teorici di<br />

sempre, da Aristotele (384-322<br />

a.C.) a Thomas Young (1773-<br />

1829), fino ai giorni nostri, è in<br />

particolare l’invenzione della<br />

fotografia nell’800 a contribuire<br />

all’evoluzione di ciò che oggi è<br />

noto come motion capture. In<br />

particolare, è piuttosto comune<br />

l’identificazione nel lavoro di<br />

Etienne Jules Marey (1830-1904)<br />

e Eadweard Muybridge (1830-<br />

1904) un passo fondamentale<br />

per lo sviluppo della motion<br />

capture, fino alla sua evoluzione<br />

a come la conosciamo oggi:<br />

infatti grazie all’invenzione<br />

del cronofotografo ad opera<br />

di Marey è possibile per<br />

Muybridge, negli anni successivi,<br />

continuare l’analisi sul modo<br />

in cui sia gli animali che gli<br />

umani si muovevano, scattando<br />

fotografie a umani e animali<br />

nell’atto di compiere svariate<br />

attività. Questi esperimenti di<br />

Muybridge furono collezionati, e<br />

sono diventati famosi con i nomi<br />

di Animal Locomotion e di The<br />

Eadweard Muybridge fotografò con successo un cavallo in corsa utilizzando 50<br />

fotocamere, sistemate parallelamente lungo il tracciato.<br />

Ogni macchina era azionata da un filo colpito dagli zoccoli del cavallo (1878).<br />

Fucile fotografico invenzione di Marey. La telecamera era montata su un fucile: veniva puntato sul<br />

soggetto e registrava fino a 12 immagini al secondo<br />

Human Figure in <strong>Motion</strong>.<br />

Dopo il lavoro di Marey e<br />

Muybridge, nel citare quali altri<br />

contributi hanno permesso<br />

l’evoluzione delle tecniche<br />

di motion capture da allora<br />

fino ad oggi, è d’obbligo<br />

menzionare anche il lavoro di<br />

G. Johansson (1911 - 1998) che,<br />

nel 1973, nei suoi Moving Light<br />

Display Experiments utilizzò<br />

dei piccoli marker riflettenti<br />

applicati alle giunture di<br />

soggetti umani per registrare<br />

il loro movimento. L’obiettivo<br />

del lavoro di Johansson era<br />

quello di essere in grado di<br />

identificare movimenti noti<br />

solo a partire dall’analisi delle<br />

traiettorie dei marker, il che ci<br />

avvicina sempre più a quella<br />

che è la moderna analisi del<br />

movimento, ad esempio, tramite<br />

stereofotogrammetria.<br />

28


2.4 TECNICHE MOCAP DIFFERENTI<br />

Le tecniche MoCap esistenti<br />

per l’analisi della cinematica<br />

di un soggetto si possono<br />

concettualmente dividere in due<br />

grandi categorie: le tecniche che<br />

si basano su approcci non ottici,<br />

e quelle che sfruttano principi<br />

ottici. Per le tecniche “non<br />

ottiche”, possiamo individuare<br />

tre approcci principali:<br />

approccio elettromeccanico,<br />

elettromagnetico e approccio<br />

inerziale.<br />

Per i metodi ottici, distinguiamo<br />

principalmente tra le tecniche<br />

che si avvalgono dell’utilizzo di<br />

marker e le tecniche markerless.<br />

Tuta indossabile Mocap elettromeccanica.<br />

2.4.1 I SISTEMI “NON OTTICI”<br />

Nell’ambito dei sistemi<br />

MoCap non ottici, uno tra i<br />

primi approcci implementati<br />

fu quello elettromeccanico: i<br />

sistemi basati su questo tipo<br />

di approccio consistono, ad<br />

oggi, in speciali tute indossabili<br />

che formano una sorta di<br />

“esoscheletro” per il soggetto<br />

in movimento, munite di<br />

dispositivi di misura in alcuni<br />

punti chiave. I sistemi di misura<br />

presenti sono generalmente<br />

costituiti da potenziometri uniti<br />

a speciali dispositivi scorrevoli<br />

(sliding rods) che misurano gli<br />

spostamenti tra i giunti della<br />

tuta indossabile, e da<br />

sensori (quali ad esempio<br />

elettrogoniometri) in grado di<br />

misurare gli angoli tra i segmenti<br />

adiacenti dell’esoscheletro.<br />

Quando il soggetto si muove,<br />

l’azione viene rilevata attraverso<br />

piccoli cambiamenti di tensione<br />

ai capi dei potenziometri.<br />

Le tute ad oggi possono<br />

integrare anche sensori di tipo<br />

inerziale e forniscono risultati<br />

accurati ma condizionano il<br />

movimento perché sono pesanti<br />

e non permettono una piena<br />

libertà di azione: il principale<br />

problema di queste tute è infatti<br />

proprio il loro andare a limitare<br />

o comunque a condizionare<br />

il movimento che si sta<br />

analizzando.<br />

29


Nella MoCap basata su<br />

approccio elettromagnetico,<br />

la libertà di movimento<br />

del soggetto migliora. Le<br />

tute indossabili realizzate<br />

rispetto a questo tipo di<br />

approccio presentano sensori<br />

posizionati in punti chiave del<br />

corpo, dove ogni sensore è<br />

fondamentalmente costituito da<br />

un insieme di bobine orientate<br />

secondo le tre direzioni dello<br />

spazio. Il funzionamento del<br />

sistema prevede inoltre la<br />

generazione di un campo<br />

magnetico esterno per cui alla<br />

fine sia possibile, incrociando<br />

i dati sul flusso del campo<br />

magnetico attraverso ciascuna<br />

delle bobine costituenti i<br />

sensori, ricostruire posizione e<br />

orientamento di ciascun sensore.<br />

Le tute elettromagnetiche<br />

così costituite sono più<br />

comode e leggere di quelle<br />

elettromeccaniche, pertanto<br />

i movimenti del soggetto<br />

vengono meno condizionati.<br />

Il problema principale<br />

legato a questi sistemi è la<br />

difficoltà d’impiego al di fuori<br />

dell’ambiente controllato di<br />

laboratorio, poiché in presenza<br />

di materiali ferromagnetici il<br />

campo viene distorto e le misure<br />

perdono in accuratezza. Infine, in<br />

questo caso vi è una limitazione<br />

rispetto all’acquisizione di<br />

movimenti troppo ampi, data<br />

la necessità per i sensori di<br />

rimanere sempre all’interno<br />

dello spazio pervaso dal<br />

campo magnetico imposto dal<br />

generatore.<br />

Una terza categoria di sistemi<br />

MoCap non ottici è quella che<br />

utilizza sensori inerziali: l’idea<br />

alla base di questi sistemi<br />

è quella di poter ricostruire<br />

il movimento del soggetto<br />

a partire dalla misura delle<br />

accelerazioni in gioco. Quando<br />

si parla di sensori inerziali, ci<br />

si riferisce comunemente ad<br />

accelerometri e giroscopi.<br />

L’accelerometro è uno<br />

strumento in grado di tradurre<br />

un’ accelerazione lineare in una<br />

grandezza elettrica. Il dispositivo<br />

è fondamentalmente costituito<br />

da una massa nota, libera<br />

di muoversi all’interno dello<br />

strumento per effetto delle<br />

forze inerziali: lo spostamento<br />

compiuto dalla massa è poi<br />

legato alla forza (e quindi<br />

all’accelerazione) per mezzo<br />

di una relazione nota, e viene<br />

rilevato attraverso l’effetto<br />

capacitivo o grazie all’uso<br />

di estensimetri.<br />

Ad oggi esistono<br />

accelerometri mono-, bi- e<br />

triassiali che, grazie alla<br />

tecnologia MEMS (Micro<br />

Electro-Mechanical Systems)<br />

possono essere integrati su un<br />

unico chip.<br />

Il giroscopio è un dispositivo in<br />

grado di tradurre una velocità<br />

angolare in una grandezza<br />

elettrica secondo una relazione<br />

nota. Grazie alla tecnologia<br />

MEMS, anche del giroscopio<br />

esistono attualmente versioni<br />

mono- o triassiali integrate<br />

su un unico chip. Il problema<br />

intrinsecamente legato alla<br />

MoCap basata su sensori<br />

inerziali è la sensibilità di queste<br />

tecniche rispetto a offset e<br />

derive, dato che per ricondursi<br />

a spostamenti e velocità a<br />

partire dalle accelerazioni<br />

occorre effettuare processi di<br />

integrazione numerica. Per<br />

questo motivo, ad oggi questi<br />

dispositivi vengono integrati in<br />

unità multi-sensore, in modo<br />

da poter sfruttare la ridondanza<br />

di informazione per contenere<br />

l’effetto degli errori.<br />

30


2.4.2 I SISTEMI “OTTICI”<br />

I sistemi MoCap ottici si basano<br />

sull’utilizzo di una o di un set di<br />

telecamere sincronizzate per<br />

ricostruire in ogni istante la posa<br />

3D di un soggetto in movimento.<br />

Concettualmente, possiamo<br />

classificare i sistemi MoCap ottici<br />

a seconda del numero di punti di<br />

vista assunti durante l’acquisizione<br />

(sistemi monoculari o multiview)<br />

e a seconda dell’impiego<br />

o meno di marker (siano questi<br />

attivi o passivi), distinguendo<br />

dunque due tipi di approccio: il<br />

marker-based e il markerless. Nei<br />

sistemi marker-based l’obiettivo<br />

è ricostruire la cinematica dei<br />

segmenti ossei attraverso<br />

l’individuazione della traiettoria<br />

3D dei marker (piccoli oggetti<br />

applicati alla superficie corporea<br />

del soggetto in movimento),<br />

mentre le tecniche markerless<br />

mirano a estrarre i parametri<br />

relativi al movimento a partire da<br />

silhouettes o altre caratteristiche<br />

del soggetto nelle immagini<br />

(come ad esempio i contorni).<br />

Il funzionamento delle tecniche<br />

marker-based si basa<br />

fondamentalmente sul principio<br />

di triangolazione: quando almeno<br />

due telecamere riprendono<br />

contemporaneamente un<br />

punto dello spazio 3D allora è<br />

possibile, a partire dalle immagini<br />

formatesi sui piani principali<br />

delle telecamere, ricostruire la<br />

posizione di quel punto tramite<br />

semplici retroproiezioni. La tecnica<br />

MoCap ottica marker-based<br />

di questo tipo è detta anche<br />

stereofotogrammetria, dove il<br />

prefisso stereo- discende proprio<br />

dal principio appena esposto.<br />

Per ricostruire la posizione di<br />

un punto tramite triangolazione<br />

è necessario aver definito a<br />

priori un sistema di riferimento<br />

globale. Occorre inoltre che i<br />

parametri dell’intero sistema<br />

stereofotogrammetrico siano noti,<br />

sia i parametri esterni (posizione e<br />

orientamento dei piani principali<br />

delle telecamere) che i parametri<br />

interni (come lunghezza focale,<br />

coordinate del punto nodale,<br />

coefficienti di distorsione delle<br />

telecamere). In altri termini,<br />

prima di poter effettuare le<br />

acquisizioni è necessario calibrare<br />

lo spazio all’interno del quale<br />

verrà eseguito il movimento. La<br />

calibrazione avviene di norma<br />

in due fasi. Nella prima fase<br />

viene acquisito un oggetto<br />

di calibrazione composto da<br />

3 assi ortogonali con marker<br />

attaccati in posizioni note, allo<br />

scopo di definire il sistema di<br />

riferimento globale e di ottenere<br />

posizione e orientamento dei<br />

piani delle telecamere. Nella<br />

seconda fase della calibrazione<br />

una barra rigida (wand) con<br />

marker attaccati in posizioni<br />

note viene mossa lungo le 3<br />

direzioni dello spazio all’interno<br />

del volume di calibrazione per<br />

ottenere i parametri interni delle<br />

telecamere.<br />

Prima di poter effettuare le acquisizioni è<br />

necessario calibrare lo spazio all’interno<br />

del quale verrà eseguito il movimento:<br />

nell’immagine si vede una ricostruzione della<br />

posizione del punto P, note le sue proiezioni<br />

P1 e P2 sui piani principali delle telecamere<br />

e le posizioni N1 e N2 del punti nodali delle<br />

telecamere.<br />

31


2.5 MARKERS<br />

32<br />

I marker utilizzati in<br />

stereofotogrammetria possono<br />

essere di due tipi: passivi e<br />

attivi. I marker passivi sono<br />

semplicemente piccole sferette<br />

leggere uniformemente<br />

ricoperte da materiale<br />

riflettente, mentre i<br />

marker attivi sono veri e propri<br />

LED in grado di emettere<br />

luce propria nello spettro<br />

infrarosso.<br />

I sensori optoelettronici utilizzati<br />

sono telecamere che lavorano<br />

nello spettro infrarosso e<br />

integrano dispositivi per la<br />

rilevazione e trasduzione del<br />

segnale luminoso in un segnale<br />

elettrico, quali ad esempio i<br />

sensori CCD (charged coupled<br />

device) e CMOS<br />

(complementary metal<br />

oxide semiconductor).<br />

Indipendentemente dalla<br />

tecnologia, i sensori vengono<br />

solitamente organizzati in matrici<br />

di pixel sul piano immagine<br />

della telecamera. Nel caso in<br />

cui il sistema lavori con marker<br />

passivi, le telecamere sono<br />

inoltre costruite in modo da<br />

emettere esse stesse fasci di<br />

luce<br />

infrarossa. Dato che i marker<br />

passivi sono ricoperti da<br />

materiale riflettente, il segnale<br />

luminoso di ritorno proveniente<br />

da questi sarà molto più<br />

intenso rispetto a un’eventuale<br />

riflessione di luce da parte del<br />

background, permettendo<br />

così una facile localizzazione<br />

dei marker. Impostando infine<br />

un’adeguata soglia di luminosità<br />

per le telecamere, la probabilità<br />

che vengano erroneamente<br />

riconosciuti segnali provenienti<br />

da pelle o vestiti del soggetto si<br />

riduce drasticamente. Nel caso<br />

in cui vengano impiegati marker<br />

attivi non è necessario siano<br />

le telecamere a illuminare lo<br />

spazio, essendo gli stessi marker<br />

a emettere un segnale luminoso.<br />

Si noti che con questa seconda<br />

modalità di acquisizione si ha<br />

un minor consumo di potenza,<br />

dato che il segnale luminoso<br />

deve percorrere la metà dello<br />

spazio per incidere sul piano<br />

immagine della telecamera,<br />

rispetto al caso in cui si<br />

impiegano marker passivi. Un<br />

altro vantaggio legato ai marker<br />

attivi riguarda una miglior<br />

tracciabilità degli stessi rispetto<br />

ai marker passivi. Questa<br />

miglior tracciabilità è dovuta<br />

alla possibilità di diversificare<br />

i tempi di attivazione e le<br />

frequenze di pulsazione dei<br />

LED: potendosi basare anche<br />

su questi parametri, il sistema<br />

riconosce più facilmente<br />

ciascun marker. Nonostante<br />

queste considerazioni positive<br />

sui marker attivi, viene ancora<br />

tendenzialmente preferito<br />

l’uso dei sistemi a marker<br />

passivi, dato che in molti casi<br />

è ancora necessario il wiring<br />

per l’alimentazione dei marker<br />

attivi, il che va a limitare il<br />

movimento del soggetto. Con<br />

l’avvento del wireless, tuttavia,<br />

anche questo problema sta<br />

scomparendo.


2.6 VANTAGGI E LIMITAZIONI<br />

Tra tutti i sistemi MoCap<br />

visti finora, quelli che hanno<br />

riscosso maggior successo<br />

sono i sistemi ottici. I principali<br />

motivi del successo riguardano<br />

innanzitutto il ridotto ingombro<br />

sul soggetto, e la possibilità di<br />

acquisire, con opportuni setup,<br />

anche movimenti ampi come il<br />

cammino, la corsa, il ballo. Un<br />

altro importante vantaggio di<br />

questo tipo di MoCap sulle altre<br />

tecniche riguarda la flessibilità<br />

nella scelta della posizione<br />

e del numero dei marker a<br />

seconda del tipo di acquisizione,<br />

anche se numerosi protocolli sul<br />

posizionamento dei marker sono<br />

stati sviluppati (come il SAFLo,<br />

il VCM, il CAST). Infine, i sistemi<br />

ottici possono raggiungere<br />

frequenze di campionamento<br />

tendenzialmente più elevate<br />

rispetto alle altre tecniche,<br />

permettendo l’analisi anche dei<br />

movimenti rapidi, e presentano<br />

una buona accuratezza: nei<br />

sistemi marker-based a marker<br />

passivi, ad esempio, l’errore di<br />

ricostruzione della posizione<br />

dei marker è dell’ordine dei<br />

mm o inferiore. Nonostante la<br />

popolarità, l’approccio ottico<br />

presenta alcune importanti<br />

limitazioni che devono essere<br />

considerate. Innanzitutto, anche<br />

se l’ingombro è limitato se<br />

comparato agli altri sistemi, la<br />

presenza di marker attaccati<br />

alla pelle può influenzare il<br />

movimento del soggetto.<br />

Essendo inoltre i marker molto<br />

piccoli, è possibile che in<br />

determinate fasi del movimento<br />

un marker venga<br />

nascosto alle telecamere,<br />

facendo così perdere<br />

temporaneamente la sua traccia.<br />

In corrispondenza di questi<br />

eventi capita anche che le<br />

traiettorie di marker molto<br />

vicini vengano confuse.<br />

Questi problemi possono<br />

tuttavia essere parzialmente<br />

superati con l’utilizzo di un<br />

maggior numero di telecamere<br />

e un adeguato posizionamento<br />

dei marker.<br />

33


2.7 MOCAP NEL CINEMA: L’ESEMPIO DI GOLLUM<br />

Non sono pochi i casi in cui il<br />

mondo del cinema e quello dei<br />

videogames si avvalgono di tale<br />

tecnologia.<br />

Uno dei casi più celebri è<br />

relativo al famosissimo Gollum<br />

della trilogia del Signore degli<br />

Anelli. Lasciando da parte la<br />

qualità eccellente di texture e<br />

filtri grafici applicati al modello<br />

tridimensionale, ciò che stupisce<br />

più di tutto è l’incredibile<br />

flessuosità e morbidezza con cui<br />

il personaggio si muove.<br />

I movimenti dell’ attore Andy<br />

Serkis, infatti, sono stati catturati<br />

tramite motion capture ed<br />

utilizzati come base per le<br />

animazioni di Gollum. Il risultato<br />

è qualcosa di sorprendente che<br />

rende la creatura viva e reale<br />

nonostante sia completamente<br />

digitalizzata.<br />

Il personaggio CGI è<br />

stato creato seguendo le<br />

caratteristiche facciali di Serkis,<br />

mentre i suoi movimenti sulla<br />

34


pellicola sono stati riprodotti<br />

utilizzando un misto tra la<br />

motion capture, in cui le<br />

movenze dell’attore sono state<br />

convertite in immagini digitali,<br />

e il tradizionale processo di<br />

keyframing, a partire da un<br />

pupazzo digitale creato da Jason<br />

Shleifer e Bay Raitt. Il processo<br />

di creazione del personaggio è<br />

stato molto lungo, e ha richiesto<br />

il lavoro di un gran numero di<br />

artisti digitali. Ne Il Ritorno del<br />

Re, Serkis appare in carne ed<br />

ossa, in un flashback, come<br />

Sméagol prima che l’Anello lo<br />

trasformasse in Gollum.<br />

Fra altre produzioni<br />

cinematografiche che utilizzano<br />

tecniche di motion capture non<br />

possiamo non citare il quasi<br />

umano robot di Io Robot dalle<br />

movenze aggraziate, quelle<br />

feline di Angelina Jolie in<br />

Beowulf, e le acrobazie presenti<br />

Matrix, frutto di ore di sessioni in<br />

studio fra marker e telecamere.<br />

35


36


PERFORMANCE<br />

CAPTURE<br />

La performance capture è una tecnologia più<br />

nuova e sofisticata rispetto alla precedente motion.<br />

Grazie a tale tecnica, è possibile percepire ogni<br />

minima emozione dal volto degli attori e quindi<br />

riuscire a catturarne la performance. Il principio è<br />

fondamentalmente lo stesso della motion e quindi<br />

ci limitiamo a fornire degli esempi cinematografici<br />

che risulteranno ottimi per una visione a 360 gradi<br />

del fenomeno in questione. Abbiamo affiancato<br />

questi esempi con un’accurata analisi che permette<br />

una comprensione delle eccezionali potenzialità e<br />

dei miglioramenti abissali che questa tecnologia ha<br />

apportato al cinema d’animazione e non solo.<br />

37


Con la cattura delle espressioni e dei movimenti più impercettibili del volto la<br />

tecnica della performance capture ha permesso fedeltà e naturalezza umana<br />

che fino a un paio di anni fa erano impensabili. Tutto cominciò con Zemeckis e<br />

il suo trampolino di lancio: Polar Express<br />

3.1 PERFORMANCE CAPTURE: THE POLAR EXPRESS<br />

38<br />

Ci sono nomi che in<br />

questo momento<br />

cinematografico<br />

dedicato alle nuove tecnologie,<br />

e, più in particolare, alla tecnica<br />

di cattura dei movimenti,<br />

ricorrono più di altri. Uno di<br />

questi è senz’altro quello di<br />

Robert Zemeckis.<br />

Il regista di Chi ha incastrato<br />

Roger Rabbit, Forrest Gump e<br />

la saga di Ritorno al Futuro (solo<br />

per citarne alcuni), decise nel<br />

2004 di lanciare una nuova sfida<br />

al mondo dell’ animazione e di<br />

arruolare star di prima grandezza<br />

non soltanto per doppiare i<br />

personaggi o per crearne degli<br />

alterego caricaturali (come era<br />

stato fatto quello stesso anno<br />

per Shark Tale e tanti altri) ma<br />

per dare loro letteralmente vita.<br />

Il film scelto per dare inizio al<br />

nuovo trend è Polar Express,<br />

lungometraggio nel quale<br />

movimenti ed espressioni dei<br />

personaggio virtuali sono stati<br />

eseguiti e registrati da attori<br />

reali. Zemeckis volle sul set il<br />

suo attore feticcio Tom Hanks<br />

(Forrest Gump e Cast Away).<br />

Per traghettarlo sul grande


? IL TRENO<br />

schermo e creare il suo alterego<br />

virtuale Zemeckis utilizzò per<br />

la prima volta la tecnica della<br />

performance capture, evoluzione<br />

della motion capture, diventata<br />

nel giro di poco la sua tecnica<br />

d’elezione.<br />

Del tutto simile al suo<br />

predecessore, la Performance<br />

<strong>Capture</strong> si avvale di una<br />

tecnologia più sofisticata<br />

che, attraverso dei sensori<br />

estremamente piccoli posizionati<br />

anche sul volto degli attori,<br />

riesce a catturare anche le<br />

espressioni facciali oltre che<br />

il movimento del corpo, e a<br />

registrarli grazie alla computer<br />

grafica per creare personaggi<br />

animati capaci di sorridere,<br />

piangere, parlare e muoversi<br />

proprio come i loro interpreti<br />

umani. Questa tecnica consentì<br />

a Zemeckis di utilizzare il suo<br />

protagonista Tom Hanks per ben<br />

6 ruoli diversi, da un ragazzino<br />

di 8 anni, a suo padre, a Hobo<br />

(un viaggiatore solitario) fino a<br />

Babbo Natale, e anche il suo<br />

somigliantissimo alter ego<br />

virtuale: il capotreno. Questo<br />

fa capire come sia malleabile<br />

questa tecnica, dato che può<br />

essere applicata a personaggi<br />

totalmente differenti pur<br />

partendo da un singolo<br />

soggetto, ottenendo ottimi<br />

risultati.<br />

Polar Express si aggiudica<br />

il primato di film realizzato<br />

interamente con il nuovo<br />

sistema performance<br />

capture ad eccezione dei<br />

camerieri che servono<br />

la cioccolata calda a<br />

bordo del treno. Le loro<br />

acrobazie sarebbero<br />

infatti state impossibili<br />

da compiere da attori<br />

veri e per questo si optò<br />

per l’animazione digitale<br />

classica.<br />

39


40


Polar Express<br />

41


3.2 PERFORMANCE CAPTURE: A CHRISTMAS CAROL<br />

L'ultimo futuristico progetto di Robert Zemeckis<br />

Con A Christmas Carol, i passi<br />

avanti nell’applicazione della<br />

motion capture, rispetto ai<br />

precedenti Polar Express e La<br />

Leggenda di Beowoulf, sono<br />

evidenti e riescono a dare molto<br />

più rilevanza ai risultati raggiunti<br />

da questa tecnica. Forse anche<br />

per questo si è scelto di adattare<br />

un classico della letteratura,<br />

essendo una storia che non<br />

ha una elevata complessità<br />

narrativa e così ben si<br />

predispone alla sperimentazione<br />

digitale. Il regista preferisce così<br />

abbandonare totalmente la sfera<br />

narrativa per investire tutto sul<br />

coinvolgimento emozionale,<br />

riuscendo così attraverso<br />

motion capture e 3D a rapire<br />

lo sguardo non sullo schermo,<br />

ma direttamente all’interno<br />

della visuale stessa.<br />

momenti di coinvolgimento<br />

emotivo.<br />

Cambiando i canoni con i quali<br />

si guarda il film, cambia la<br />

percezione stessa con cui ci si<br />

interfaccia alla vicende.<br />

A Christmas Carol può<br />

sostanzialmente definirsi<br />

un passo importante nella<br />

sperimentazione digitale, una<br />

tappa decisiva con la quale si è<br />

saggiata l’influenza della tecnica<br />

digitale sulla sfera narrativa.<br />

Lo spettatore cambia di status.<br />

Nelle sequenze nelle quali<br />

Scrooge si rimpicciolisce e<br />

viene inseguito dai cavalli,<br />

ci si sente visceralmente in<br />

moto, realmente circondato da<br />

cavalli, spiriti oscuri e fiocchi<br />

di neve. Da osservatori esterni<br />

di un film si diventa parte<br />

integrante della scena. I frutti<br />

di questo processo, però, non<br />

si riscontrano solo nelle scene<br />

d’azione, ma soprattutto nei<br />

42


43


3.3<br />

POTENZIALITÀ E<br />

MALLEABILITÀ ESPRESSIVE<br />

Una evoluzione dei processi di motion capture che<br />

sposta l’accento dal punto di vista tecnico a quello più<br />

propriamente espressivo.<br />

Se gli studi ed i primi strumenti<br />

di acquisizione si focalizzavano<br />

sulle singole parti del corpo<br />

umano, acquisite in momenti<br />

diversi e successivamente<br />

riassemblate costringendo<br />

l’attore a frammentare il proprio<br />

lavoro in parti, limitandone<br />

la potenzialità espressiva<br />

dell’insieme, il performing<br />

capture cerca di mantenere<br />

unica la fase di acquisizione<br />

del movimento di tutto il corpo<br />

umano.<br />

In questo modo l’attenzione<br />

viene posta sulla performance<br />

generale che può anche<br />

essere realizzata da più attori<br />

contemporanemente, mantendo<br />

il più possibile coerente l’azione<br />

che si stà svolgendo.<br />

La Performance <strong>Capture</strong> si<br />

differenzia dalla ordinaria<br />

<strong>Motion</strong> <strong>Capture</strong>, per il fatto che<br />

44


cattura contemporaneamente<br />

i movimenti del corpo (come<br />

già fa la <strong>Motion</strong>), delle mani e<br />

le espressioni del volto così da<br />

non frammentare e snaturare<br />

l’atto recitativo e quindi la<br />

performance dell’attore, punto<br />

cardine di questa tecnica.<br />

La tecnica di cattura dei<br />

movimenti è la stessa che si<br />

usa per la <strong>Motion</strong>, la differenza<br />

sta nel fatto che per zone dove<br />

si necessita di una precisione<br />

maggiore nell’acquisizione,<br />

come ad esempio per i<br />

viso ed i suoi movimenti,<br />

si utilizzano logicamente<br />

marcatori di dimensioni minori e<br />

maggiormente ravvicinati.<br />

? ANDY<br />

SERKIS<br />

Lo chiamano "l'uomo scimmia"<br />

perché nessuno meglio di lui riesce<br />

a imitare le movenze dei primati.<br />

Andy Serkis ne dà prova, di nuovo,<br />

in Apes Revolution - Il pianeta delle<br />

scimmie, sequel del fortunato L'alba<br />

del pianeta delle scimmie del 2011,<br />

in cui grazie alla motion capture<br />

torna nei "panni" dello scimpanzè<br />

Caesar. Nello stesso modo ha<br />

interpretato Gollum nella trilogia di<br />

Il signore degli anelli e nei vari Lo<br />

hobbit e prima ancora King Kong,<br />

sempre per l'amico Peter Jackson.<br />

45


«Non ho mai fatto distinzioni nel processo<br />

di creazione di un personaggio in computer<br />

grafica da quello per la creazione di un ruolo<br />

convenzionale. Per me non c'è differenza»<br />

Andy Serkis<br />

46


Apes Revolution<br />

47


48


MICROSOFT KINECT<br />

Un esempio “quotidiano” di motion capture è<br />

di certo il Kinect. Questa periferica permette di<br />

interagire con la consolle (e non solo) di casa<br />

senza l’uso di strumenti aggiuntivi, superando di<br />

gran lunga l’avvento del touch screen domestico<br />

e primeggiando a discapito delle altre consolle<br />

come la Sony e la NintendoWii, le quali utilizzano<br />

controller Wi-fi o altri strumenti.<br />

Noi abbiamo gestito la periferica connettendola<br />

al personal computer per realizzare un’interazione<br />

“uomo-macchina” alla Minority Report.<br />

49


4.1 LA PRIMESENSE E L’INNOVAZIONE DI KINECT<br />

L’uscita di Kinect ha<br />

provocato un grande<br />

scossone nella comunità<br />

di sviluppo libero di software<br />

per PC e Mac. Una moltitudine<br />

di programmatori è infatti<br />

attualmente al lavoro sulla<br />

periferica, allo scopo di trovare<br />

nuove modalità di utilizzo di<br />

tale dispositivo che si configura<br />

come il primo di una serie di<br />

sistemi che potrebbero davvero<br />

portarci in un futuro alla Minority<br />

Report.<br />

Nel dicembre del 2010 la società<br />

PrimeSense, una compagnia<br />

israeliana da tempo impegnata<br />

in ricerca e sviluppo di sistemi di<br />

controllo senza dispositivi fisici<br />

e responsabile della tecnologia<br />

del sistema di telecamere di<br />

Kinect, ha rilasciato i driver open<br />

source per questa innovativa<br />

periferica, compatibili con<br />

Windows e Linux. Questi driver<br />

che consentono di accedere<br />

alle funzioni audio e video<br />

e ai sensori di profondità di<br />

Kinect sono basati su una API<br />

(Application Programming<br />

Interface) completa, nota<br />

come Open NI (Open Natural<br />

Interactions). Quest’ultima<br />

permette di catturare il<br />

movimento in tempo reale,<br />

il riconoscimento di gesti<br />

delle mani e dei comandi<br />

vocali e implementa anche un<br />

“analizzatore di scena”, che<br />

rileva figure in primo piano e le<br />

separa dallo sfondo.<br />

50


? PROJECT NATAL<br />

Il Kinect, inizialmente conosciuto con il nome di Project<br />

Natal, è un dispositivo di input per la console di gioco di<br />

casa Microsoft, l’Xbox 360.<br />

Tale dispositivo è sensibile al movimento del corpo umano di<br />

modo che, a differenza dei suoi concorrenti, quali il Wiimote della<br />

Nintendo e il PlayStation Move della Sony, esso rende il giocatore<br />

controller della console senza l’uso di strumenti. Sebbene in origine<br />

pensata per l’ Xbox 360, Microsoft ha reso disponibile l’uso della<br />

periferica a tutti i PC dotati di un sistema operativo Windows (da<br />

poco è possibile ottenere i software anche per Macintosh).<br />

51


4.2 LE COMPONENTI INTERNE<br />

L’ hardware di Kinect si basa<br />

su tecnologie di 3DV, una<br />

compagnia che Microsoft ha<br />

prima finanziato e poi acquisito<br />

nel 2009, nonchè sul lavoro<br />

dell’israeliana PrimeSense,<br />

che ha poi dato in licenza<br />

la tecnologia a Microsoft.<br />

Il 13 maggio 2010 è stato<br />

pubblicato negli Stati Uniti da<br />

PrimeSense un brevetto dal<br />

titolo “Depth Mapping using<br />

Projected Patterns” che spiega<br />

esattamente la tecnologia<br />

implementata in Kinect:<br />

- un array di microfoni orientati<br />

verso il basso (3 sul lato destro e<br />

uno sul lato sinistro);<br />

- tre apparati ottici utilizzati per<br />

il riconoscimento visuale del<br />

corpo in movimento;<br />

52


- due videocamere ed un<br />

sensore infrarossi aggiuntivo;<br />

- una ventola per la dissipazione<br />

del calore;<br />

- 64MB di memoria flash DDR2;<br />

- un accelerometro Kionix<br />

KXSD9 a tre assi;<br />

- Prime Sense PS1080-A2, il chip<br />

che rappresenta il cuore della<br />

tecnologia di Kinect.<br />

53


4.3 FUNZIONAMENTO SOFTWARE<br />

Il chip PS1080-A2 di PrimeSense<br />

sovraintende tutta la<br />

procedura di analisi della scena<br />

controllando adeguatamente gli<br />

apparati ottici e audio al fine di<br />

raccogliere le informazioni di cui<br />

necessita.<br />

Il corredo di apparati ottici<br />

di Kinect si compone di una<br />

telecamera RGB e un doppio<br />

sensore di profondità a raggi<br />

infrarossi. Tale sensore è composto da un proiettore a infrarossi e<br />

da una telecamera sensibile alla stessa banda, che in pratica serve<br />

a leggere quanto rilevato dai raggi infrarossi. La telecamera RGB ha<br />

una risoluzione di 640 × 480 pixel, mentre quella a infrarossi usa una<br />

matrice di 320 × 240 pixel. L’array di microfoni è usato dal sistema<br />

per la calibrazione dell’ambiente in cui ci si trova, mediante l’analisi<br />

della riflessione del suono sulle pareti e sull’arredamento. In tal<br />

modo il rumore di fondo e i suoni del gioco vengono eliminati ed è<br />

possibile riconoscere correttamente i comandi vocali. La barra del<br />

Kinect è motorizzata lungo l’asse verticale e segue i movimenti dei<br />

giocatori, orientandosi nella posizione migliore per il riconoscimento<br />

dei movimenti.<br />

54


L’ultimo modello di dispositivo<br />

kinect per la XBox 360 migliora<br />

le prestazioni:<br />

3 apparati ottici utilizzati per<br />

il riconoscimento visuale del<br />

corpo in movimento.<br />

Telecamera RGB<br />

640x240 pixel<br />

Telecamera a raggi infrarossi<br />

320x240 pixel<br />

Sensore rilevamento dinamico<br />

55


? MINORITY<br />

REPORT<br />

VS<br />

KINECT<br />

Tre mesi prima di iniziare<br />

le riprese, il regista Steven<br />

Spielberg convocò un<br />

gruppo di futurologi perché<br />

immaginassero per lui un<br />

2054 credibile.<br />

Tra costoro v'erano esperti<br />

del MIT, del dipartimento di<br />

ricerca biomedica alla difesa,<br />

di software e di realtà virtuale.<br />

Quel futuro immaginato nel<br />

2054 si verifica invece con la<br />

nascita del primo Microsoft<br />

Kinect nel 2010 (inizialmente<br />

con il nome di Project<br />

Natal). Ben 44 anni prima<br />

rispetto alla previsione dei<br />

futurologhi, i quali saranno<br />

stati poco ottimisti.<br />

Cosa ci attende realmente<br />

nel 2054?<br />

56


Minority Report<br />

57


58


AVATAR<br />

Un viaggio che ci conduce alla scoperta totale<br />

del film esempio indiscusso della motion capture<br />

e più in generale padre della Tecnologia (con la<br />

“T” maiuscola). Il gigante del cinema dei nostri<br />

tempi: Avatar. Dalle idee che lo hanno generato<br />

alle tecniche e tecnologie grazie alle quali è stato<br />

possibile realizzarlo. Un lavoro colossale che ha<br />

aperto la strada al cinema del futuro.<br />

59


Uno dei più importanti maestri<br />

della storia del cinema che,<br />

fra tripudi di effetti visivi ad<br />

alto livello, sufficienti sviluppi<br />

narrativi e la presenza rocciosa<br />

e impenetrabile di capitani<br />

spaziali inseguite da alieni<br />

parassiti, transatlantici sul punto<br />

di affondare e abissi esplorati<br />

in 3D, ha scritto un’importante<br />

pagina nel mondo della settima<br />

arte.<br />

60


James Francis<br />

Cameron (Kapuskasing,<br />

16 agosto 1954) è un<br />

regista, sceneggiatore,<br />

produttore<br />

cinematografico e<br />

esploratore canadese.<br />

JAMES<br />

CAMERON<br />

?<br />

NUMERI<br />

NELLA STORIA<br />

I suoi due ultimi film (Titanic e<br />

Avatar) sono rispettivamente<br />

il secondo e il primo film<br />

di maggiore incasso della<br />

storia del cinema. In totale i<br />

suoi lavori da regista hanno<br />

incassato complessivamente<br />

1,5 miliardi di dollari negli<br />

Stati Uniti e altri 3,68 miliardi<br />

di dollari nel resto del mondo.<br />

Parallelamente all’attività di<br />

cineasta Cameron si è cimentato<br />

nella produzione di documentari<br />

e, in seguito, nell’ideazione e nella<br />

realizzazione di nuove tecnologie<br />

cinematografiche. Cameron ha<br />

anche contributo alla realizzazione<br />

di riprese sottomarine, allo<br />

sviluppo della computer grafica e<br />

del cinema tridimensionale.<br />

61


62<br />

«Ho aspettato che la tecnologia della grafica<br />

computerizzata avanzasse sempre più, facendo sì<br />

che i costi del film non sarebbero lievitati troppo,<br />

cosa che sarebbe accaduta dieci anni fa!<br />

Voglio creare un nuovo tipo di grafica virtuale<br />

aiutandomi con l’ animazione del motion capture.<br />

Con il mio Reality Camera System, il digitale sembra<br />

reale e viceversa»<br />

James Cameron


63


Dalle idee alle tecniche che hanno dato origine ad un film unico nella storia del cinema<br />

grazie allo straordinario contributo delle nuove tecnologie in particolare grazie all’aiuto<br />

della Performance <strong>Capture</strong><br />

5.1 AVATAR: UN LAVORO COLOSSALE<br />

Avatar è il film nel quale si fa il maggiore utilizzo della<br />

<strong>Motion</strong> <strong>Capture</strong> Technology e più in generale è il film nel<br />

quale si fa più uso di tecniche cinematografiche.<br />

Avatar è il film frutto della mente geniale di James Cameron, il quale<br />

aveva avuto la prima idea di questo film nel lontano 1995 ma non ne<br />

aveva fatto niente in quanto, all’ epoca, non c’ era la possibilità di<br />

realizzare gli effetti speciali che lui tanto desiderava.<br />

Nonostante avesse pronta la sceneggiatura e moltissimi bozzetti<br />

ha dovuto tenere tutto nel cassetto fino a che gli esperti di effetti<br />

speciali non gli hanno dato il via libera.<br />

Per rendere l’idea della grandezza e dell’ unicità del capolavoro<br />

si pensi al fatto che la lavorazione sia durata 7 anni e che il regista<br />

abbia affidato la realizzazione degli effetti digitali del “film più<br />

complesso che abbia mai girato (J. Cameron)” sia alla Weta Digital<br />

Film che alla ILM 1 , le quali si sono spartite il lavoro per dare vita al<br />

mondo in Computer Generated Imagery di Pandora.<br />

Per poter comprendere ancora meglio la mole di lavoro dietro a<br />

questo progetto basti pensare che la Weta ha dovuto utilizzare un<br />

petabyte (mille terabyte) di memoria digitale per tutti gli elementi<br />

del film realizzati con la CGI (la miriade di piante, animali, insetti,<br />

rocce ecc..). Per fare un paragone comprensibile ai comuni mortali<br />

che non parlano la “lingua binaria” si può dire che Titanic ha<br />

richiesto due terabyte di memoria per creare (e affondare) la nave<br />

e le migliaia di passeggeri, circa 1/500 della memoria utilizzata per<br />

Avatar.<br />

64<br />

1 Industrial Light & Magic


5.2 RIVOLUZIONE TECNOLOGICA<br />

Per Avatar, J. Cameron ha<br />

rivoluzionato il modo di fare le<br />

riprese. Molte delle faccende<br />

che solitamente sono assegnate<br />

alla fase di post-produzione,<br />

infatti, sono state risolte in<br />

contemporanea alla fase di<br />

ripresa (circa l’ 80% di lavoro<br />

di post-produzione in meno).<br />

Molte delle virtualità digitali che<br />

necessitavano un’ elaborazione<br />

per essere viste e maneggiate<br />

grazie alla nuova tecnologia<br />

possono essere gestite in Real<br />

Time. Grazie alla tecnologia<br />

della Simulcam è possibile<br />

ottenere immediatamente<br />

il risultato delle riprese in<br />

Performance <strong>Capture</strong>. Gran<br />

parte del girato, infatti, è basato<br />

sull’adozione della Performance<br />

<strong>Capture</strong> degli attori, i cui<br />

movimenti corporei risultano<br />

generati in tempo reale sulla<br />

riproduzione virtuale della scena<br />

attraverso le tute XSens (in lycra)<br />

da <strong>Motion</strong> <strong>Capture</strong> indossate<br />

dagli attori stessi.<br />

Ed è qui che entra in gioco<br />

la Simulcam che consente di<br />

sovrapporre in tempo reale le<br />

riprese in Performance <strong>Capture</strong><br />

con vere e proprie sequenze in<br />

live-action. Ad esempio, se una<br />

scena prevede un personaggio<br />

reale e uno virtuale su un<br />

background alieno, è possibile<br />

fornire in tempo reale al regista<br />

una ripresa in tempo reale e<br />

in perfetta simultaneità con la<br />

camera principale con i due<br />

personaggi, quello reale e<br />

quello virtuale.<br />

65


5.3<br />

RIPRESE: LA<br />

FUSION 3-D<br />

La maggior parte delle riprese<br />

sono state realizzate tra le<br />

Hawaii e Los Angeles. Quelle<br />

legate agli effetti speciali sono<br />

state prodotte negli studi di<br />

Weta Digital e ILM.<br />

Le riprese delle scene<br />

ambientate su Pandora, si sono<br />

svolte in un grande magazzino<br />

(chiamato il “Volume”) svuotato<br />

e riempito di pareti verdi e<br />

sensori. Tutto è stato organizzato<br />

di modo che le camere puntate<br />

sugli attori (che indossano tute<br />

anch’esse piene di sensori)<br />

possano mostrare in tempo<br />

reale al regista una versione in<br />

bassa qualità dei personaggi<br />

digitali che si muovono come gli<br />

attori nell’ ambiente virtuale.<br />

Cosi Cameron dirige le scene<br />

vedendo subito il risultato.<br />

A tal fine James Cameron ha<br />

ideato una nuova telecamera<br />

per garantire la migliore resa<br />

66<br />

LA SIMULCAM.<br />

Zoe Saldana tra avatar e realtà;<br />

la recitazione e la visualizzazione<br />

virtuale nel medesimo istante.<br />

Visione in tempo reale del<br />

personaggio virtuale di Zoe<br />

Saldana (Neytiri).<br />

Grazie alla tecnologia della<br />

Simulcam è possibile ottenere<br />

immediatamente il risultato delle<br />

riprese visualizzando le immagini in<br />

bassa qualità.<br />

Tanta tecnologia e tanta<br />

innovazione, che confluiscono<br />

nella virtual camera, l’invenzione<br />

probabilmente più originale<br />

avvenuta durante le riprese del<br />

film. La virtual camera permetteva<br />

a James Cameron di ‘girare’ le<br />

scene vedendole già modificate<br />

con gli effetti speciali: per fare<br />

un esempio, Cameron vedeva<br />

Zoe Saldana nei panni del suo<br />

avatar e non vedeva l’attrice<br />

coperta di strumenti e accessori<br />

per trasformare la sua figura in<br />

post-produzione. In breve, la<br />

virtual camera permette di girare<br />

all’interno di un mondo realizzato<br />

al computer, una comodità non da<br />

poco per il regista.<br />

visiva in funzione degli effetti<br />

speciali e del 3D.<br />

Questa nuova macchina da<br />

presa è dotata di due obiettivi<br />

capaci di girare immagini in alta<br />

definizione e separatamente<br />

per ogni obiettivo. In questo<br />

modo gli obiettivi simulano il<br />

comportamenti del sistema<br />

visivo umano: infatti, la distanza<br />

tra i due obiettivi è la medesima<br />

di quella tra gli occhi umani. Per<br />

fare ciò Cameron ha brevettato<br />

un sistema di ripresa chiamato<br />

Fusion 3-D Camera System<br />

ottenuto mettendo insieme due<br />

Sony HDCF950 HD. Il regista ha<br />

convinto la Sony Entertainment<br />

a ratificare il nuovo sistema.


SONY HDCF950 HD.<br />

Il sistema di telecamere Fusion fatto<br />

il primo utilizzo di Sony HDC - F950 e<br />

poi di telecamere Sony HDC -1500 HD<br />

quando si sono resi disponibili .<br />

Le telecamere sono dotate di lenti<br />

Fujinon da Fujifilm.<br />

INVENZIONI e INVENTORI.<br />

James Cameron e le sue più<br />

nuove invenzioni. Il regista al<br />

centro regge la Fusion 3-D<br />

Camera System.<br />

FUSION 3-D CAMERA SYSTEM.<br />

Il regista di Avatar con la sua Fusion<br />

3-D Camera System con due<br />

obiettivi separati che simulano il<br />

comportamento del sistema visivo<br />

umano.<br />

Sistema Fusion Camera è un sistema<br />

di cinepresa digitale sviluppata da<br />

James Cameron e Vince Pace . È stato<br />

sviluppato come un modo per sparare<br />

funzioni stereoscopiche in 3D.<br />

67


«Cameron è effetti speciali.<br />

Cameron è una fotografia<br />

spettacolare.<br />

Cameron è l’impiego di mezzi<br />

grandissimi.<br />

Cameron è anche un lungo film.<br />

Cameron è cura maniacale per i<br />

particolari, ma anche una colonna<br />

sonora efficacissima»<br />

Avatar - STAFF Cameron<br />

68


PERFORMANCE<br />

CAPTURE<br />

69


?<br />

SEQUEL<br />

Dopo lo straordinario<br />

successo di Avatar, il<br />

regista James Cameron<br />

ha annunciato la<br />

realizzazione di ben due<br />

sequel del suo film.<br />

5.4 NATURALEZZA DEI VOLTI<br />

Per quanto riguarda le<br />

espressioni facciali dei<br />

personaggi è stata adottata<br />

una nuova tecnica: tutti gli<br />

attori sono equipaggiati con<br />

un braccio rigido attaccato al<br />

loro corpo, sulla cui estremità<br />

è montata una telecamera<br />

che riprende i movimenti e le<br />

espressioni del viso.<br />

Le fasi di ripresa vera e propria<br />

sono due:<br />

inizialmente vengono catturati<br />

i movimenti degli attori, sul cui<br />

corpo sono stati posizionati<br />

dei led che emanano una luce<br />

infrarossa che viene registrata<br />

da alcune telecamere poste in<br />

specifici punti del magazzino.<br />

I dati aggregati di queste<br />

telecamere restituiranno<br />

con precisione il movimento<br />

tridimensionale. I led sono<br />

applicati sul corpo degli attori e<br />

anche sui loro volti.<br />

Il sistema, come detto, opera<br />

in tempo reale, facendo in<br />

modo che Cameron possa<br />

vedere immediatamente il<br />

risultato delle riprese e, qualora<br />

fosse necessario o ne avesse il<br />

desiderio, apportare modifiche<br />

e correzioni o rigirare l’intera<br />

scena.<br />

Quello che Cameron vede è<br />

un framework digitale con dei<br />

marcatori che gli permettono di<br />

capire la posizione degli attori<br />

all’ interno della scena.<br />

Uno degli strumenti più potenti<br />

che la tecnologia gli mette a<br />

disposizione è di modificare la<br />

posizione dei marcatori posti<br />

sui volti e di generare in questo<br />

modo in maniera dinamica tipi di<br />

espressione che nella realtà non<br />

sono stati eseguiti dagli attori.<br />

Ma quest’ ultima possibilità<br />

non è mai stata esercitata da<br />

Cameron, perchè non ha voluto<br />

perdere la naturalezza della<br />

recitazione degli attori che è<br />

proprio lo scopo per cui viene<br />

utilizzato il sistema di <strong>Motion</strong> e<br />

Performance <strong>Capture</strong>.<br />

70


«Il modo in cui abbiamo<br />

sviluppato la performance<br />

capture lavorando ad Avatar<br />

dipende dalla nostra virtual<br />

camera che mi permette di<br />

tenere in mano una telecamera<br />

in tempo reale, in realtà è un<br />

monitor, e puntarla verso gli<br />

attori, così da poterli vedere<br />

come se fossero i loro Avatar.<br />

È straordinaria questa capacità<br />

di far apparire velocemente<br />

scene, immagini e bellissimi<br />

paesaggi di fantasia… Quando<br />

ricorri alla performance capture,<br />

da un punto di vista creativo<br />

è scoraggiante. È difficile<br />

immaginarsi come sarà la scena.<br />

Ma se puoi vederla, se puoi<br />

avere un’immagine virtuale di<br />

come sarà, allora è fatta»<br />

James Cameron<br />

71


«Quello che stiamo cercando di eliminare sono le cinque ore di trucco, che è il modo in cui venivano<br />

creati personaggi quali gli alieni, i lupi mannari, le streghe, i demoni e così via.<br />

Ora è possibile essere chiunque o qualunque cosa si voglia, a qualunque età, si può perfino cambiare<br />

sesso, senza le lungaggini e il fastidio di un trucco complicato»<br />

James Cameron<br />

72


5.5 REALTÀ<br />

SENZA TRUCCO<br />

A James Cameron non<br />

interessava usare il trucco per<br />

creare la sua specie aliena.<br />

Gli alieni umanoidi sono stati<br />

interpretati per anni dagli attori<br />

grazie al trucco, fin dai tempi<br />

dei film a basso costo degli<br />

anni ’50 e, nei successivi quattro<br />

decenni, negli spin-off di “Star<br />

Trek”, nei film e programmi TV<br />

di fantascienza. Ad oggi, sono<br />

praticamente stati studiati e<br />

sperimentati tutti i metodi per<br />

applicare gomma sui volti degli<br />

attori, senza trascurare il fatto<br />

che, in sé, la tecnica pone dei<br />

limiti. La grandezza e la distanza<br />

tra gli occhi non può essere<br />

cambiata. Le proporzioni del<br />

corpo non possono essere<br />

modificate, né può esserlo nel<br />

complesso la dimensione del<br />

personaggio. Da ultimo, il trucco<br />

fino ad oggi utilizzato limita l’<br />

interpretazione<br />

dell’attore, perché frappone una<br />

barriera tra lui e la macchina da<br />

presa.<br />

Con il processo di “performance<br />

capture” tutti questi limiti<br />

vengono superati. Sebbene i<br />

personaggi realizzati per Avatar<br />

con la Computer Grafica (CG)<br />

somiglino agli attori che li<br />

interpretano, le loro proporzioni<br />

sono fondamentalmente<br />

diverse. Gli occhi dei Na’ vi<br />

hanno un diametro doppio<br />

rispetto a quelli umani e sono<br />

più distanziati tra loro. Come<br />

corporatura gli alieni sono più<br />

longilinei degli umani, hanno<br />

il collo più lungo e strutture<br />

muscolari e ossee differenti, ad<br />

esempio le mani hanno solo<br />

quattro dita. Con la CG i Na’<br />

vi e gli avatar possono avere<br />

dimensioni molto maggiori<br />

rispetto agli umani. Mentre<br />

il trucco blu avrebbe reso la<br />

pelle opaca, la CG dona ai<br />

personaggi una pelle traslucida<br />

che si comporta proprio come<br />

quella vera, la cui pigmentazione<br />

superficiale non maschera il<br />

bagliore sottostante del sangue,<br />

come ad esempio quando la<br />

forte luce del sole colpisce la<br />

parte posteriore delle orecchie.<br />

Tutte queste sfumature si<br />

mescolano permettendo di<br />

ottenere delle creature che<br />

sembrano vive.<br />

73


5.6 EFFETTO “DEAD EYE”<br />

Come già accennato nei<br />

paragrafi precedenti, Cameron<br />

era da tempo in cerca di<br />

un modo per trasportare la<br />

creazione di figure aliene nel<br />

XXI secolo. Nel 1995 ha assistito<br />

ai rapidi progressi compiuti<br />

dagli esperti CG, Cameron<br />

ha capito che le tecnologie<br />

necessarie per avere il<br />

fotorealismo a cui ambiva<br />

erano ancora lontane, quindi<br />

ha accantonato il progetto.<br />

Quando il regista lo ha ripreso<br />

messo a punto un nuovo sistema<br />

di performance capture delle<br />

espressioni del viso basato sulle<br />

immagini, usando un dispositivo<br />

da far indossare agli attori sulla<br />

testa, munito di una piccola<br />

telecamera, che ha permesso di<br />

dalla CG nella realizzazione<br />

di creature e ha pensato che<br />

il progetto dei suoi sogni,<br />

ambientato in un altro mondo,<br />

avrebbe forse potuto vedere la<br />

luce. Avendo già<br />

creato alcuni personaggi<br />

che possono considerarsi<br />

delle pietre miliari della<br />

CG in “Abyss” (The Abyss)<br />

e “Terminator 2: Il giorno<br />

del giudizio” (Terminator 2:<br />

Judgment Day), Cameron voleva<br />

spingere l’ arte della CG verso<br />

nuovi traguardi e così ha scritto il<br />

visivamente ambizioso Avatar.<br />

Ma quando le sue idee sono<br />

state analizzate e poi bocciate<br />

in mano nel 2005, sembrava<br />

che le tecnologie richieste<br />

fossero a portata di mano. All’<br />

epoca, c’ era ancora qualche<br />

perplessità riguardo al fatto<br />

che i personaggi potessero<br />

apparire totalmente reali,<br />

perché avrebbero sofferto dello<br />

sgradevole effetto “Dead eye”,<br />

cioè la mancanza di luminosità<br />

osservata in alcuni dei primi<br />

film realizzati con la tecnica<br />

del performance capture. Il<br />

team di Cameron ha provato<br />

ad andare oltre e migliorare<br />

questi primi tentativi, in modo<br />

da assicurare la totale realtà<br />

dei personaggi. Per fare ciò, ha<br />

5.7<br />

ANIMAZIONE<br />

Ci sono volute competenze<br />

eccezionali nel campo dell’<br />

animazione per assicurare che<br />

i personaggi CG recitassero<br />

esattamente come gli attori.<br />

Ma, al tempo stesso, le<br />

interpretazioni non sono<br />

state alterate, né abbellite<br />

né esagerate. Gli animatori<br />

si sono impegnati a<br />

rappresentare in modo<br />

74


autentico il lavoro degli attori,<br />

senza nulla aggiungere e nulla<br />

togliere a quanto Sam, Zoë o<br />

Sigourney avevano fatto nel<br />

“Volume”. Ovviamente, gli<br />

animatori hanno apportato<br />

qualche modifica, ad esempio<br />

nel movimento della coda o<br />

delle orecchie, laddove gli attori<br />

non potevano compiere queste<br />

azioni. Anche in questo caso,<br />

comunque, l’ obiettivo era di<br />

essere coerenti con le emozioni<br />

manifestate dagli attori durante<br />

le riprese originali. Così, quando<br />

Neytiri sferza l’ aria con la coda<br />

o abbassa le orecchie per la<br />

rabbia, gli animatori si limitano<br />

ad accentuare l’espressione<br />

collerica manifestata da Zoë<br />

Saldana durante la ripresa della<br />

scena.<br />

75


catturare anche le sfumature<br />

più impercettibili dei loro volti.<br />

Invece di ricorrere alla tecnica<br />

della motion capture, basata<br />

su marcatori riflettenti sul volto<br />

per cogliere le espressioni, gli<br />

attori hanno indossato una sorta<br />

di casco a cui era collegata una<br />

piccola telecamera. Questa<br />

era rivolta verso il viso degli<br />

attori, in modo da registrare le<br />

loro espressioni e i movimenti<br />

?<br />

Avatar è arrivato per la<br />

prima volta nelle sale<br />

italiane il 15 Gennaio 2010<br />

(20th Century Fox); la data<br />

di uscita originale è: 17<br />

Dicembre 2009 (UK).<br />

Le riprese del film si sono<br />

svolte nel periodo 16 Aprile<br />

2007 - 01 Dicembre 2007 in<br />

Nuova Zelanda e USA.<br />

Di seguito alcune delle<br />

location in cui è stato girato<br />

il film:<br />

Stone Street Studios, Stone<br />

Street, Miramar, Wellington,<br />

Nuova Zelanda Wellington,<br />

Nuova Zelanda<br />

RIPRESE E<br />

LOCATION<br />

Hamakua Coast, Hawaii,<br />

USA Hughes Aircraft - 909<br />

N. Sepulveda Boulevard, El<br />

Segundo, California, USA<br />

Kaua'i, Hawaii, USA<br />

Los Angeles, California,<br />

USA O'ahu, Hawaii, USA<br />

Playa Vista, California, USA<br />

dei muscoli con un livello di<br />

dettaglio mai ottenuto fino<br />

ad allora ma, soprattutto, ha<br />

registrato il movimento degli<br />

occhi, cosa che non era mai<br />

stata fatta con i sistemi utilizzati<br />

in precedenza.<br />

Questo dispositivo a casco<br />

ha permesso di catturare le<br />

espressioni del viso con una<br />

chiarezza e una precisione senza<br />

precedenti.<br />

Inoltre, non utilizzando le<br />

macchine da presa del motion<br />

capture, queste ultime sono<br />

state usate per catturare i<br />

movimenti del corpo, quindi<br />

sono state posizionate a una<br />

maggiore distanza dagli attori.<br />

In questo modo, il team di<br />

Avatar ha potuto disporre nel<br />

<strong>Capture</strong> Environment (ambiente<br />

di cattura) di uno spazio (detto<br />

“Volume” - come già citato<br />

prima), molto più ampio di<br />

quanto non si sia mai avuto in<br />

precedenza. Con un capture<br />

environment sei volte più grande<br />

rispetto al passato, il “Volume”<br />

di Avatar è stato usato per<br />

cogliere dal vivo il movimento di<br />

cavalli al galoppo, per sequenze<br />

acrobatiche piuttosto complesse<br />

e perfino per i combattimenti<br />

tra apparecchi aerei e creature<br />

volanti. Quindi, la rivoluzionaria<br />

tecnica adoperata è stata la<br />

chiave non solo per ottenere<br />

le sfumature più sottili delle<br />

emozioni espresse dai<br />

personaggi, ma anche per<br />

amplificare la grandiosità dello<br />

spettacolo cinematografico.<br />

76


«Ho ringraziato Jim.<br />

Neytiri era sexy, bella e longilinea,<br />

ma l’interprete ero solo e soltanto<br />

io!»<br />

Zoe Saldana<br />

77


78


Avatar<br />

79


80


Fotogallery - Avatar<br />

81


82


MOCAP TEATRALE<br />

Le sperimentazioni della motion capture live<br />

realizzate nel teatro sono rarissime. L’Ubù<br />

incatenato come esempio in ambito teatrale per<br />

dimostrare le tante possibilità della motion capture,<br />

capace di accostarsi, attraverso vari e differenti<br />

metodi, a mondi molto diversi fra loro.<br />

83


Un teatro digitale composto da cyberattori e supermarionette.<br />

L’attore domina la tecnologia e si fa dominare creando un’interazione tra uomo e macchina<br />

senza precedenti.<br />

6.1 RE UBÙ INCATENATO<br />

Sono rarissimi gli esempi di utilizzo della tecnologia <strong>Motion</strong> <strong>Capture</strong> in una<br />

rappresentazione teatrale dal vivo, essendo questa una modalità più frequentata dalla<br />

coreografia digitale o dalla cinematografia degli “effetti speciali”.<br />

Per sperimentare le<br />

potenzialità espressive<br />

del corpo in-macchinato<br />

(armatura esoscheletrica o<br />

meccanico-protesica di cattura<br />

del movimento) associato ai<br />

data glove , occorreva un artista<br />

davvero eclettico come Roberto<br />

Latini, riconosciuto talento del<br />

nuovo teatro di ricerca italiano.<br />

Latini crea ed interpreta solo<br />

in scena un insolito Ubu<br />

incatenato, continuazione<br />

o “contropartita” del più<br />

famoso Ubu re del dissacrante<br />

e pungente pre-surrealista (o<br />

protodadaista come lo definisce<br />

lo storico Henri Béhar) Alfred<br />

Jarry.<br />

Messo in scena nel 1937 (ovvero<br />

47 anni dopo la memorabile<br />

rappresentazione dell’ Ubu Roi<br />

al Theatre de louvre di Parigi)<br />

con le scenografie di Max Ernst,<br />

questo testo racconta con un<br />

humour moderno, le vicende<br />

di Re Ubu che dopo essere<br />

stato Re di Polonia si accinge<br />

a liberarsi dall’alienazione<br />

collettiva diventando<br />

volontariamente schiavo, ovvero<br />

il più libero tra gli uomini. Un<br />

tema questo, della mitizzazione<br />

della schiavitù che si presta a<br />

interessanti attualizzazioni e<br />

sfumature interpretative, come<br />

ricorda lo stesso Latini:<br />

«Padre Ubu diventa un esempio<br />

per molti, che da liberi cercano<br />

di ferrarsi a una qualche catena.<br />

Libertà e Schiavitù sono dentro<br />

un solo concetto».<br />

84


Roberto Latini è l’attore<br />

teatrale più eclettico<br />

del panorama italiano in<br />

questo momento. In figura<br />

(a sinistra) lo si vede in<br />

azione sul palco, mentre<br />

indossa una speciale tuta<br />

<strong>Motion</strong> <strong>Capture</strong>.<br />

(In basso) L’attore, in<br />

una delle scene più<br />

indimenticabili della<br />

rappresentazione di Re ubù<br />

Incatenato.<br />

85


6.2 COMPOSIZIONE DELLA SCENA<br />

Una scenografia molto<br />

meccanica (alla Ernst) a due<br />

piani, ingombra di vecchi<br />

elettrodomestici, di ferraglia,<br />

di binari, di cessi, che ricorda<br />

l’assemblaggio artistico secondo<br />

il metodo della casualità,<br />

tipicamente surrealista, fa da<br />

sottofondo a questa piéce per<br />

attore e macchine.<br />

La scena è composta da<br />

tre pannelli su cui vengono<br />

proiettati ambienti 3D,<br />

immagini da una webcam, video<br />

pre registrati e personaggi<br />

computer-animated gestiti Real<br />

Time direttamente da Latini<br />

(tra cui un manichino per il<br />

crash test) grazie alla tuta per<br />

<strong>Motion</strong> <strong>Capture</strong> con la quale<br />

Re Ubu con il suo asservimento<br />

autoimposto per ottenere la<br />

vera libertà, diventa incatenato<br />

alla macchina tecnologica; altri<br />

personaggi sono poi creati<br />

con la grafica computerizzata e<br />

mossi dal guanto virtuale o con<br />

alterazioni dei toni di voce.<br />

«È un paradosso che ha determinato le<br />

modalità di ricerca.<br />

Forse per la cara riflessione sull’attore, sullo<br />

stare in scena, sull’essere autori di sé, e<br />

forse anche per Jarry rispetto a Ubu, per<br />

il loro grado di relazione, appartenenza e<br />

dipendenza, la questione più interessante ci è<br />

sembrata quella dell’identità, dal punto di<br />

86


?<br />

L’ATTORE<br />

MECCANICO<br />

vista dei ruoli abbiamo cercato un modo<br />

per essere allo stesso tempo Ubu e Jarry,<br />

quindi non solo la marionetta, e la mano che<br />

la anima, non solo il burattino e colui che<br />

tira i fili, ma anche l’autore di fronte a quelle<br />

forme di se stesso che diventano le proprie<br />

opere».<br />

Roberto Latini<br />

Una prova davvero superba<br />

che evidentemente colloca<br />

questo Ubu tra gli esempi più<br />

significativi del teatro nell’era<br />

digitale; un teatro che afferma<br />

la centralità dell’attore, fulcro<br />

vitale dell’esperienza scenica il<br />

cui corpo interfacciato permette<br />

di far funzionare, per contagio<br />

tecnologico, l’intero spettacolo.<br />

Il cyberattore assume i caratteri<br />

della supermarionetta,<br />

dell’uomo-architettura ambulante<br />

e dell’attore biomeccanico:<br />

«il corpo è la macchina e l’attore<br />

il meccanico»<br />

V. E. Mejerchol’d 1<br />

1 Regista teatrale russo (1874 - 1940)<br />

87


6.3 REALAZIONE TRA SPAZIO DIGITALE E ATTORE<br />

La bellezza dello spazio<br />

teatrale è proprio quello di<br />

non avere limitazioni su cosa<br />

e come rappresentare. La<br />

relazione vivente che si instaura<br />

fra lo spazio digitale e l’attore<br />

ha un aspetto particolare, è<br />

molto diversa rispetto quella<br />

che si può realizzare in una<br />

installazione fruita direttamente<br />

dallo spettatore.<br />

Con l’installazione bisogna<br />

per forza limitare e rendere<br />

abbastanza intuitive le<br />

modalità interattive in modo<br />

che l’utente sia veramente in<br />

grado di relazionarsi con lo<br />

spazio e quindi in grado di fare<br />

una esperienza costruttiva. In<br />

teatro invece lavorando con gli<br />

attori, si possono costruire<br />

sistemi relazionali molto<br />

88<br />

più complessi, a volte se si<br />

vuole anche più difficili da<br />

gestire, dove però si possono<br />

veramente sperimentare<br />

forme interattive molto<br />

evolute. Quando lo spettacolo<br />

va in scena l’attore conosce<br />

alla perfezione lo spazio che<br />

lo circonda, è effettivamente<br />

“come un abito di scena che<br />

gli è stato cucito addosso”<br />

(Roberto Latini), in cui si deve<br />

sentire a suo agio e di cui deve<br />

avere la piena padronanza. E’<br />

quindi qualcosa di più di una<br />

scenografia tradizionale e non<br />

può essere costruita all’ultimo<br />

momento.<br />

Per fare questo è necessario che<br />

l’ambiente digitale all’interno<br />

del quale dovrà muoversi<br />

l’attore, venga progettato in<br />

un processo organico fin dalle<br />

prime fasi progettuali dello<br />

spettacolo stesso; sono in molti<br />

a sostenere che già la scrittura<br />

del testo, quando si può lavorare<br />

su testi originali, ne dovrebbe<br />

tenere in considerazione.<br />

Bisogna che l’attenzione sia<br />

sempre concentrata sulle<br />

necessità espressive dell’attore<br />

in modo da far diventare<br />

l’ambiente virtuale una sorta di<br />

estensione del suo corpo e della<br />

sua gestualità.<br />

Prima quindi si progetta<br />

l’aspetto interattivo che<br />

l’attore deve avere con la<br />

scena, dopodiché si scelgono<br />

le tecnologie adatte e si inizia<br />

la fase di sperimentazione con<br />

l’attore.


6.4 MOCAP PER UN TEATRO SPERIMENTALE<br />

La presenza nelle sale<br />

cinematografiche di produzioni<br />

in animazione digitale (dal<br />

cartoon 3D ai film pieni di<br />

effetti visuali) sempre più<br />

numerose dimostra quanto<br />

questa tecnologia non abbia<br />

limiti espressivi. Nel cinema il<br />

motion capture naturalmente<br />

viene utilizzato per animare<br />

creature fantastiche, personaggi<br />

digitali in un rapporto diretto<br />

attore/rappresentazione che<br />

mostra solo la rappresentazione<br />

nascondendo la fase di<br />

costruzione. In teatro però<br />

l’attore è in scena,<br />

visibile sul palco, perno<br />

centrale della narrazione<br />

e il suo rapporto con la<br />

rappresentazione digitale<br />

cambia completamente<br />

statuto. Naturalmente non è<br />

questa una tecnologia che possa<br />

essere usata indifferentemente<br />

per qualsiasi spettacolo di<br />

prosa ma al contrario non<br />

è nemmeno vero che sia<br />

utilizzabile solo per certe<br />

forme di teatro sperimentale.<br />

Risulta fondamentale un lavoro<br />

sinergico sia con il testo che con<br />

l’attore, è necessario che il testo<br />

sia adatto ma anche che l’attore<br />

sia in grado di mettersi in gioco<br />

studiando e lavorando su nuove<br />

tecniche espressive che partono<br />

dal suo corpo e si amplificano<br />

nello spazio rappresentativo che<br />

lo circonda.<br />

Il rischio se non si ha una<br />

approfondita conoscenza della<br />

tecnologia è quello di fare<br />

un teatrino delle marionette,<br />

che può risultare non così<br />

interessante. Se si usano<br />

queste tecnologie per svolgere<br />

i compiti per cui sono state<br />

progettate, ed è quindi facile<br />

usarle, ci si limita a costruire ed<br />

animare dei personaggi digitali.<br />

La macchina scenica digitale<br />

diventa importante non<br />

tanto per l’oggetto che è o<br />

che rappresenta ma come<br />

infrastruttura dinamica<br />

strettamente legata alla<br />

narrazione.<br />

«La ricerca e la sperimentazione diventa interessante invece quando si usano queste<br />

tecnologie in modo improprio, si sottomettono agli aspetti narrativi e rappresentativi, se<br />

ne stravolgono le loro funzioni originali o le si fanno diventare linguaggio puro».<br />

Andrea Brogi 1<br />

1 Architetto digitale è attualmente uno dei massimi esperti italiani in materia di animazione grafica 3D Real time.<br />

89


6.5 18 INTERPRETAZIONI PER UN SOLO ATTORE<br />

Ubu si incatena<br />

tecnologicamente (sia nel senso<br />

fisico che in quello patafisico),<br />

in un percorso evolutivo tale<br />

da trasformarlo solo alla fine<br />

nella supermarionetta che<br />

lascerà nuda in scena per<br />

prendere ordini solo dalla sua<br />

pancia. In questo percorso<br />

infatti le varie tappe della sua<br />

carriera di schiavo (lustrascarpe,<br />

maggiordomo tuttofare,<br />

prigioniero, vogatore su di una<br />

galera del Solimano) sono messe<br />

in relazione con un evolversi del<br />

suo incatenamento tecnologico<br />

che lo lega alle macchine digitali<br />

in grado di rilevare qualsiasi<br />

aspetto espressivo dell’attore,<br />

al quale vengono attribuiti,<br />

volutamente, diciotto ruoli<br />

differenti tra schiavi e uomini<br />

liberi. Prima la voce ripresa con<br />

un microfono, poi il movimento<br />

delle dita delle mani, poi quello<br />

delle braccia e del busto per<br />

arrivare infine anche alle gambe<br />

e racchiuderlo completamente<br />

all’interno di uno spazio virtuale<br />

che non trascura nessun aspetto<br />

dell’espressione corporea<br />

dell’attore. Ed ancora giocando<br />

sul ruolo avuto dagli schiavi<br />

e dagli uomini liberi, che<br />

disobbediscono di default a tutti<br />

gli ordini che ricevono (altrimenti<br />

che uomini liberi sarebbero!)<br />

così fedelmente tanto da<br />

costringersi a ordinarsi cosa non<br />

vogliono fare per poter fare il<br />

contrario, ci siamo immaginati<br />

due forme rappresentative<br />

diverse: gli uomini liberi sono<br />

sempre raffigurati tramite delle<br />

riprese video live o preregistrate<br />

che mettono in evidenza gli<br />

aspetti più assurdi della figura<br />

umana (dalla la pianta del<br />

piede alla pancia bucata che<br />

gira vorticosamente come<br />

il cestello di una lavatrice)<br />

mentre gli schiavi sono sempre<br />

e soltanto rappresentazioni<br />

virtuali che hanno la loro stessa<br />

essenza all’interno dello spazio<br />

cibernetico e prendono vita<br />

tramite una complessa rete<br />

di associazioni che le lega<br />

strettamente al movimento del<br />

corpo dell’attore.<br />

90


6.6 L’ESEMPIO DI DOMINIQUE BULGIN<br />

Una performance alla Fortezza da Basso di Firenze per il festival della creatività<br />

“Nuovo e Utile”. Dominique Bulgin (ballerina francese) si esibisce in un ballo del tutto<br />

innovativo.<br />

Dominique Bulgin indossa la<br />

parte superiore dell’esoscheletro<br />

usato per fare motion capture.<br />

I suoi movimenti possono così<br />

essere catturati ed elaborati<br />

dai computer in modo tale che<br />

i suoi armoniosi movimenti, da<br />

ballerina professionista, possano<br />

generare l’ambiente sonoro<br />

all’interno del quale lei stessa<br />

ballava.<br />

Per la prima volta l’ambiente che<br />

viene generato dal movimento<br />

del corpo non era visuale,<br />

luminoso, fatto di pixel (come in<br />

tante altre sperimentazioni) ma<br />

costruito da onde sonore che si<br />

propagano liberamente nell’aria.<br />

La bellezza di questo spazio<br />

sonoro veniva inoltre esaltato<br />

dalla sua tridimensionalità;<br />

usando infatti un apposito<br />

sistema hardware/software di<br />

nome ImEasy le fonti sonore<br />

(sia l’environment di base che<br />

gli interventi di Dominique)<br />

possono essere posizionate<br />

esattamente in punti precisi<br />

dello spazio e manipolate non<br />

solo come onde sonore ma<br />

anche come movimento spaziale<br />

percepibile, un movimento che<br />

è la stessa ballerina a gestire<br />

quasi inconsapevolmente.<br />

I suoni che la ballerina genera<br />

e manipola con il movimento<br />

delle braccia stanno di fronte<br />

a lei, a circa 5 o 6 metri e<br />

seguono esattamente il suo<br />

corpo quando questo volteggia<br />

nell’aria. Lo spettatore si<br />

trova cosi all’interno di uno<br />

spazio virtuale dove ballerina<br />

ed ambiente sonoro sono un<br />

tutt’uno dimenticandosi se sia la<br />

ballerina a guidare o viceversa<br />

sia l’ambiente a farla muovere.<br />

91


CONCLUSIONI<br />

Il <strong>Motion</strong> <strong>Capture</strong>, forse, rappresenta una delle innovazioni più<br />

importanti in ambito videoludico e non solo. Molto del realismo<br />

delle animazioni odierne, è dovuto all'utilizzo accurato ed efficace<br />

di questa tecnica che, se sfruttata a dovere, regala ad un film o un<br />

gioco quel qualcosa in più rispetto agli altri che non lo utilizzano.<br />

Nonostante i limiti logistici ed economici, sono sempre più le<br />

case di produzioni che si affidano al mocap per rendere realistici<br />

i movimenti dei propri modelli virtuali, in virtù del sorprendente<br />

risultato in termini di fluidità ed armonia ottenuti. La nuova<br />

frontiera, inoltre, è in grado di abbassare drasticamente i costi di<br />

produzione e renderne ancora più attuabile la diffusione su larga<br />

scala a tutto beneficio della simulazione dei movimenti.<br />

E' indubbio, dunque, che il futuro delle animazioni e della ricerca<br />

del movimento perfetto appaia sempre più rosa.<br />

LIMITI...<br />

Sebbene esistano diverse<br />

tecniche di motion capture<br />

principalmente individuate<br />

dalla tecnologia di sensori<br />

e telecamere utilizzate, il<br />

sistema attuale presenta non<br />

pochi limiti. Il primo di tutti<br />

è ovviamente quello di uno<br />

studio dedicato, necessario per<br />

le sessioni di capture per gli<br />

attori. Questo oltre a richiedere<br />

spazio e costi aggiuntivi, limita<br />

l’azione eseguibile a poche<br />

operazioni semplici facilmente<br />

simulabili dal vivo. Contesti<br />

troppo complessi non possono<br />

essere rappresentati poiché<br />

non si hanno ancora le strutture<br />

necessarie flessibili quanto<br />

basta.<br />

...e SVILUPPI<br />

Invenzione recente di un gruppo<br />

formato da Swiss Federal<br />

institute of Technology, MIT<br />

e Mitsubishi Electric Research<br />

Laboratories, è proprio quella<br />

di un nuovo sistema di motion<br />

capture flessibile, che non<br />

richiede attrezzature o spazi<br />

eccessivi. Il sistema è ancora<br />

in fase di sperimentazione,<br />

tuttavia i prototipi rilasciati<br />

hanno già dimostrato di<br />

poter inaugurare una nuova<br />

era per questa affascinante<br />

tecnologia. Per abbattere il<br />

costo si è lavorato soprattutto<br />

sugli elementi di base, ovvero<br />

sullo studio apposito e le<br />

telecamere specializzate.<br />

Sono state, infatti, sostituite<br />

entrambe grazie a particolari<br />

92


sensori dotati di giroscopi<br />

ed accelerometri, in grado di<br />

fornire autonomamente i dati<br />

relativi a coordinate spaziali<br />

ed angolari, oltre che velocità<br />

di spostamento. Per catturare<br />

questi dati, ogni sensore è<br />

dotato di un emettitore di<br />

ultrasuoni necessario per<br />

captare la distanza dei sensori<br />

dal resto del corpo. I suoni<br />

sono catturati da un particolare<br />

microfono posto vicino al plesso<br />

solare ed il tutto è gestito in<br />

tempo reale da un sistema<br />

portatile applicato a mò di zaino<br />

dietro la schiena.<br />

Riassumendo : diminuisce<br />

il numero di sensori (posti<br />

soltanto sugli arti), i dati relativi<br />

ad angolazione, velocità di<br />

movimento sono dati dagli<br />

stessi sensori quindi non c'è<br />

necessità di ulteriori elementi<br />

esterni come le telecamere,<br />

ed infine la precisione nella<br />

realizzazione dello scheletro<br />

digitale risulta più accurata<br />

rispetto al passato, grazie<br />

alla distanza percepita dai<br />

sensori tramite ultrasuoni. Con<br />

questo sistema i costi maggiori<br />

relativi all’applicazione del<br />

motion capture sono stati<br />

abbattuti come pure il range<br />

di applicabilità. Essendo<br />

un dispositivo portatile<br />

ed autonomo, lo si potrà<br />

utilizzare in tutte le situazioni<br />

immaginabili, anche quelle più<br />

complesse. Il futuro del motion<br />

capture è fortemente legato<br />

alla diffusione di questa ed altre<br />

tecnologie simili.<br />

93


BIBLIOGRAFIA<br />

Andriacchi, E. J. Alexander, Studies of human locomotion: past, present and<br />

future, 2000.<br />

Benedetti, A. Cappozzo. Anatomical Landmark Definition and Identification,<br />

1994.<br />

Borghese, P. Cerveri, A fast method for calibrating video-based motion<br />

analysers using only a rigid bar, 2001.<br />

J. Bray, Markerless Based Human <strong>Motion</strong> <strong>Capture</strong>: A Survey. Vision and VR<br />

Group, Brunel University, 2001.<br />

Cappello, P. F. La Palombara, Optimization and smoothing techniques in<br />

movement analysis, 1996.<br />

A. Cappozzo, A. Cappello, Surface-marker cluster design criteria for 3-D<br />

bone movement reconstruction, 1997.<br />

A. Cappozzo, U. Della Croce, Stereometric system accuracy tests:<br />

Measurement and data processing methodology in clinical movement analysis<br />

preliminary, 1993.<br />

U. Della Croce, A. Leardini, Human movement analysis using<br />

stereophotogrammetry and assessment of anatomical landmark<br />

misplacement and its effects on joint kinematics, 2005.<br />

L., L., Morando Morandini, IlMorandini - Dizionario del Cinema, Bologna,<br />

Zanichelli Editore, 2013.<br />

94


M. Donati, 3-D Reconstruction of the Human Skeleton during <strong>Motion</strong>, 2005.<br />

G. Ferrigno, N. A. Borghese, Pattern-recognition in 3-D automatic<br />

human motion analysis, 1990.<br />

H. Furnée, Real-time motion capture systems. Three-dimensional analysis of<br />

human locomotion. New York, Wiley & Sons, 1997.<br />

J.O. Greaves, Instrumentation in video-based three-dimensional systems.<br />

Three-dimensional analysis of human movement, P. Allard e J. Blanchi editors,<br />

1995.<br />

D. Karlsson, A. Lundberg, Accuracy estimation of kinematic data derived from<br />

bone anchored external markers, Stockholm, 1994.<br />

A. Menache, Understamding <strong>Motion</strong> <strong>Capture</strong> for Computer Animation and<br />

Video Games. Morgan Kaufmann, 2000.<br />

Edward Muybridge, The Human Figure in <strong>Motion</strong>. Douer Publications, 1955.<br />

J.C Sabel, Camera calibration with a single marker, Stockholm, 1994.<br />

W. P. Stevens, Reconstruction of three-dimensional anatomical landmark<br />

coordinates using video-based stereophotogrammetry, 1997.<br />

Van Sint Jan, I. Hilal, Data representation for joint kinematics simulation of the<br />

lower limb within an educational context, 2003.<br />

95


SITOGRAFIA<br />

BESTMOVIE. IT<br />

CINEBLOG. IT<br />

CINEBAZAR. IT<br />

DIGICULT. IT<br />

EVOLUCE. COM<br />

GPEMMOCAP. COM<br />

IPISOFT. COM<br />

KEYSOUL. IT<br />

LACOMUNICAZIONE. IT<br />

MOTION.CAPTURE. FR<br />

NATURALPOINT. COM<br />

NETZSPANNING. ORG<br />

NEXT. IT<br />

PREZI. COM<br />

SPAZIOGAMES. IT<br />

TECNOLOGICAMENTE.<br />

INFO<br />

VENUS. IT<br />

XLAB. IT<br />

WIRED. IT<br />

96


RIVISTE<br />

ARC DESIGN<br />

ARCHITECTURE<br />

ART & ADVERTISING<br />

COMPUTER ARTS<br />

COMPUTER DESIGN<br />

CONNECT<br />

DIGIT<br />

DIGITAL<br />

DIGITAL CREATIVE<br />

ELETTRONICA IN<br />

LINK<br />

MAXIMUM PC<br />

MY MOBILE<br />

ONVIEW<br />

PC MAGAZINE<br />

PC WORLD<br />

PHOTOGRAPHER<br />

PRINT<br />

TECH SMART<br />

TECHNOVOIZE<br />

THE BLOGGER BOOK<br />

WEB DESIGN<br />

WINDOWS<br />

WIRED<br />

97


98


99


In un futuro non lontano, mouse<br />

e tastiere non serviranno più:<br />

si potrà lavorare in modalità<br />

multischermo, trasferendo<br />

immagini con semplici gesti delle<br />

mani.<br />

Il futuro alla Minority Report è<br />

sempre più vicino.<br />

John Underkoffler<br />

100


101


102


Si ringraziano<br />

il Professore, nonché relatore, Michele Cafarelli per la passione e<br />

la disponibilità con le quali ci ha accompagnato e seguito durante<br />

l’intero percorso accademico<br />

le nostre care Famiglie che ci hanno supportato, sopportato,<br />

finanziato e sostenuto moralmente in ogni momento<br />

i nostri Amici con i quali abbiamo condiviso idee, collaborazioni e<br />

che hanno sviluppato insieme a noi un percorso di crescita umana e<br />

professionale<br />

103


Marco<br />

Eccomi qui, dopo 3 anni a<br />

scrivere i ringraziamenti.<br />

La sensazione che si prova<br />

è piacevole, perchè questo<br />

momento segna la fine di un<br />

percorso e chissà, l’inizio di un<br />

qualcosa di nuovo, di stimolante.<br />

In queste righe colgo<br />

l’occasione di ringraziare tutte le<br />

persone che mi son state vicine<br />

nel raggiungimento di questo<br />

traguardo nella speranza di non<br />

dimenticar nessuno.<br />

Ringrazio i miei “Colleghi di<br />

Avventura”, Eugenio C per la<br />

sua innata positività, amicizia e<br />

per la sua capacità produttiva in<br />

team. Da notare che nel Design<br />

è bravino, mala musica è il suo<br />

mondo,<br />

CANTAUTORE NATO<br />

Filippo F uno “Statup Designer”,<br />

ha sempre 10 progetti differenti<br />

in mente che non sempre<br />

vengono realizzati, ma quando<br />

accade che successone. SCUSA<br />

U TRAM A MURO<br />

Marta B e Martina R per la loro<br />

presenza, amiche colleghe<br />

e non solo, compagne vere<br />

di avventure, grazie di tutto<br />

SBIELLATE<br />

Ultimi in elenco non per<br />

importanza anzi tutto il<br />

contrario, ringrazio e saluto<br />

i colleghi di Believe®, un<br />

agenzia visuale torinese nel<br />

quale sono cresciuto, col quale<br />

sono entrato nel mondo del<br />

lavoro cominciando a vedere<br />

il mondo con gli occhi di un<br />

professionista.<br />

PierPaolo V grazie per l’immenso<br />

esempio di vita, di capo e di<br />

amico che sei stato per me,<br />

Believe for President<br />

Filippo M un amico e collega<br />

che tutti vorrebbero avere,<br />

ha una soluzione per tutto,<br />

indistruttibile<br />

Nicoletta B.un’amica e<br />

collega, la piu folle del<br />

gruppo, genovese ma torinese<br />

di adozione, alternativa e<br />

intelligente.<br />

Believe thank you for everything<br />

E non poteva mancare il mio compango di tesi Federico, un<br />

collega, un coinquilino, un conquistatore. Conserviamo ricordi di<br />

situazioni stupende, bei momenti passati che ricorderemo tutta la<br />

vita, conquiste e traguardi incredibili, che mai e poi mai mi sarei<br />

aspettato di vivere così bene. Abbiamo sconfinato sino a Barcellona,<br />

conquistata pure lei, ora ci manca solo più la tesi.<br />

CONQUISTATORE<br />

104


Federico<br />

Un percorso accademico è<br />

giunto al capolinea.<br />

Sorge una leggera nostalgia,<br />

suscitata da ricordi ed emozioni<br />

di questi intensissimi anni.<br />

Affiorano alla mente quei tanti<br />

momenti trascorsi in compagnia<br />

di amici formidabili, i quali<br />

hanno partecipato attivamente<br />

e simpaticamente all’evoluzione<br />

di una storia, una grandissima<br />

storia di vita:<br />

Al mitico e famigeratissimo<br />

Carlone, pilastro insostituibile<br />

(1,90 m) di un attacco che,<br />

insieme al sottoscritto, ha<br />

condotto la squadra verso il<br />

successo. Con le sue freddure e<br />

i suoi racconti ha caratterizzato<br />

momenti pazzeschi che<br />

rimangono vivi in quella che<br />

è stata, è e sarà una grande e<br />

gloriosa storia.<br />

JUVENTINO FALLITO<br />

Ai grandissimi e intramontabili<br />

Boucheroniani coinquilini e<br />

compagni di vita che vanno di<br />

certo menzionati per la loro<br />

peculiarissima tendenza al<br />

fancazzismo. I 3 Galli colpiranno<br />

nel segno, sempre.<br />

STREPITOSI<br />

All’incontenibile miglior cugino<br />

tedesco che pur di assistere<br />

alla discussione della tesi ha<br />

affrontato 7 ore di macchina,<br />

è stato plurimultato in svizzera<br />

causa eccesso di velocità;<br />

aveva evidentemente fretta di<br />

vedere il cugino.<br />

PAZZO<br />

Grazie<br />

Un ringraziamento particolare è, rivolto al mio grande amico, collega<br />

e compagno d’avventura Marco, con il quale ho condiviso emozioni<br />

e affrontato argutissime sfide variopinte. A partire da un memorabile<br />

periodo di mobilità erasmus fino alla realizzazione di questo<br />

meraviglioso lavoro di tesi.<br />

INFALLIBILE<br />

105

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!