Thesis - Motion Capture - Magazine
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
SECONDA
4
POLITECNICO<br />
DI TORINO<br />
Dipartimento di Architettura e Design<br />
Corso di laurea in Design e Comunicazione Visiva<br />
Anno Accademico 2013/2014<br />
SECONDA<br />
PELLE<br />
Relatore<br />
Michele Cafarelli<br />
Candidati<br />
Federico Pennisi<br />
&<br />
Marco Gontero<br />
5
INDICE<br />
INTRODUZIONE<br />
TIMELINE<br />
14<br />
18<br />
LE ORIGINI<br />
19<br />
1.1 ORIGINE DELLA MOCAP<br />
1.2 IL CYBER GLOVE<br />
1.3 DATA GLOVE E TOY STORY<br />
20<br />
21<br />
22<br />
MOTION CAPTURE<br />
25<br />
2.1 MOTION CAPTURE: DEFINIZIONE<br />
2.2 AMBITI APPLICATIVI<br />
2.3 ANALISI DEL MOVIMENTO: LA STORIA<br />
2.4 TECNICHE DI MOCAP<br />
2.4.1 SISTEMI NON OTTICI<br />
2.4.2 SISTEMI OTTICI<br />
2.5 MARKERS<br />
2.6 VANTAGGI E LIMITAZIONI<br />
2.7 MOCAP NEL CINEMA: L’ESEMPIO DI GOLLUM<br />
26<br />
27<br />
28<br />
29<br />
30<br />
31<br />
32<br />
33<br />
34<br />
PERFORMANCE CAPTURE<br />
37<br />
3.1 THE POLAR EXPRESS<br />
3.2 A CHRISTMAS CAROL<br />
3.3 POTENZIALITÀ E MALLEABILITÀ ESPRESSIVE<br />
38<br />
42<br />
44<br />
6
MICROSOFT KINECT<br />
49<br />
4.1 LA PRIMESENSE E L’INNOVAZIONE DI KINECT<br />
4.2 COMPONENTI HARDWARE<br />
4.3 FUNZIONAMENTO SOFTWARE<br />
50<br />
52<br />
54<br />
AVATAR<br />
59<br />
5.1 AVATAR: UN LAVORO COLOSSALE<br />
5.2 RIVOLUZIONE TECNOLOGICA<br />
5.3 RIPRESE: LA FUSION 3-D<br />
5.4 NATURALEZZA DEI VOLTI<br />
5.5 REALTÀ SENZA TRUCCO<br />
5.6 EFFETTO “DEAD EYE”<br />
5.7 ANIMAZIONE<br />
64<br />
65<br />
66<br />
70<br />
73<br />
74<br />
74<br />
MOCAP TEATRALE<br />
83<br />
6.1 RE UBÙ INCATENATO<br />
6.2 COMPOSIZIONE DELLA SCENA TEATRALE<br />
6.3 RELAZIONE TRA SPAZIO DIGITALE E ATTORE<br />
6.4 MOCAP PER UN TEATRO SPERIMENTALE<br />
6.5 18 INTERPRETAZIONI, UN UNICO ATTORE<br />
6.6 L’ESEMPIO DI DOMINIQUE BULGIN<br />
84<br />
86<br />
88<br />
89<br />
90<br />
91<br />
CONCLUSIONI<br />
BIBLIOGRAFIA<br />
SITOGRAFIA<br />
RIVISTE<br />
92<br />
95<br />
96<br />
97<br />
7
8
Apes Polar Revolution Express<br />
9
INTRODUZIONE<br />
Di progressi nel campo dei videogiochi si sente spesso parlare<br />
relativamente a nuove routine di intelligenza artificiale, nuovi<br />
stratosferici engine grafici e sofisticatissimi motori fisici in grado<br />
di simulare e rappresentare un mondo virtuale in modo credibile<br />
e quasi indistinguibile da quello reale, ma poco o nulla è dato sui<br />
passi da gigante che il settore delle animazioni ha compiuto negli<br />
ultimi dieci anni. Molti dei titoli attuali vantano un realismo nei<br />
movimenti quasi umano, fluido ed armonioso senza mai risultare<br />
impacciato o spezzato grazie alla tecnica del motion capture in<br />
grado di rappresentare al meglio il movimento del corpo umano in<br />
un ambiente fittizio.<br />
Abbiamo voluto affidare alla tesi il compito e l’obiettivo di<br />
approfondire il funzionamento base di questa importante tecnica<br />
e gli ambiti di applicazione e cercheremo di capire cosa potrebbe<br />
aspettarci in futuro viste le recenti innovazioni del settore.<br />
La tecnica in questione ha ben più antiche origini ma, in particolare,<br />
focalizzeremo la nostra attenzione in ambito cinematografico che è<br />
quello che più ci appassiona.<br />
Attraverso approfondimenti, analisi di film d’animazione, registi,<br />
attori e riscontri con la quotidianità speriamo di condurre il lettore<br />
in un viaggio interessante che mostrerà in modo curioso la frontiera<br />
del futuro cinematografico e non solo.<br />
Il motion capture è la tecnologia della cattura e dell’analisi<br />
del movimento, prevalentemente umano, attraverso una serie<br />
di strumenti appositamente utilizzati. Le tecnica alla base del<br />
motion capture è piuttosto semplice da capire e si compone di<br />
pochi elementi di base, fra cui dei marcatori (marker) composti<br />
da materiale riflettente o luminoso (ad esempio dei led), e delle<br />
telecamere fotosensibili. Il soggetto da studiare viene coperto<br />
dai marker ed il movimento dei marker viene catturato dalle<br />
telecamere che ne registrano i dati emessi sottoforma luminosa.<br />
Questi dati vengono poi elaborati in tempo reale da un software<br />
in grado di creare uno scheletro digitale dalle informazioni<br />
ricevute per studiarne il movimento relativo. I marker forniscono<br />
quindi le coordinate della posizione di alcuni punti cardine come<br />
gli arti, e le telecamere registrano la velocità di spostamento e<br />
l’orientamento. E’ importante notare come sia necessario uno<br />
spazio ed uno studio dedicato per ottenere risultati soddisfacenti,<br />
con conseguenti esigenze economiche non indifferenti, oltre che di<br />
10
un team specializzato. Nonostante l’utilizzo sempre più quotidiano<br />
nel mondo videoludico e del cinema, il sistema del motion<br />
capture nasce per tutta un’altra serie di scopi, principalmente di<br />
valenza medica. Inizialmente, infatti, veniva utilizzato per valutare<br />
i progressi compiuti da persone dotate di protesi o sottoposte a<br />
particolari cure. Data la sua precisione, ben presto è stato adottato<br />
anche in altri campi, fra cui, quello più peculiare, dell’animazione<br />
tridimensionale. Accostare il motion capture ad un sistema di<br />
animazioni è quantomeno intuitivo e semplice.<br />
Con i dati forniti dalla rilevazione spettrofotogrammica, si possono<br />
realizzare delle bozze di animazioni di base, dando al modello un<br />
realismo nei movimento elevato. Avendo a disposizione dati molto<br />
precisi e riferimenti spazio-temporali reali, è possibile rappresentare<br />
praticamente movimenti così complessi che, se realizzati a mano,<br />
impiegherebbero molte ore aggiuntive di lavoro senza comunque<br />
raggiungere gli stessi livelli qualitativi. La differenza, infatti, fra un<br />
sistema di animazioni che utilizza il motion capture ed un altro che<br />
non lo fa, è notevole; il motion capture rende più armonioso un<br />
movimento, meno meccanico, meno spezzato e soprattutto molto<br />
più realistico essendo basato proprio su azioni compiute davvero<br />
dal vivo, senza alcuna simulazione.<br />
GOLLUM<br />
Non sono pochi i casi in cui il<br />
mondo del cinema e quello dei<br />
videogames si avvalgono di tale<br />
tecnologia. Uno dei casi più<br />
celebri è relativo al famosissimo<br />
Gollum della trilogia del Signore<br />
degli Anelli. Lasciando da parte<br />
la qualità eccellente di texture e<br />
filtri grafici applicati al modello<br />
tridimensionale, ciò che stupisce<br />
più di tutto è l’incredibile<br />
flessuosità e morbidezza con<br />
cui il personaggio si muove.<br />
I movimenti dell’attore Andy<br />
Serkis, infatti, sono stati<br />
catturati tramite motion capture<br />
ed utilizzati come base per le<br />
animazioni di Gollum. Il risultato<br />
è qualcosa di sorprendente che<br />
rende la creatura viva e reale<br />
nonostante sia completamente<br />
digitalizzata.<br />
11
MOTION CAPTURE<br />
LA CATTURA DELLA REALTÀ UMANA<br />
OBIETTIVO<br />
La <strong>Motion</strong> Caputure è una<br />
tecnologia cinematografica<br />
che permette di catturare i<br />
movimenti naturali del corpo<br />
di un soggetto (anche più di un<br />
soggetto compresi gli animali)<br />
reale per poi applicarli ad un<br />
personaggio virtuale.<br />
Famosissimo è l’utilizzo di<br />
questa tecnica per la creazione<br />
dei movimenti del personaggio<br />
di Gollum nella trilogia de Il<br />
Signore degli anelli.<br />
Agli attori viene fatta indossare<br />
una speciale tuta di scena che,<br />
ricoperta da moltissimi sensori<br />
(fino a 300) registra e cattura i<br />
movimenti.<br />
In questo modo viene creata<br />
un’immagine virtuale che<br />
riproduce perfettamente i<br />
movimenti originali degli attori.<br />
LIBERTÀ E NATURALEZZA DEI<br />
MOVIMENTI<br />
Le tute motion capture variano a<br />
seconda della tipologia di cattura<br />
che si vuole attuare. Lo scopo<br />
finale della cattura decide a priori<br />
l’utilizzo di una tuta o di un’altra.<br />
In figura (a destra) si può osservare<br />
una delle tute che vengono<br />
utilizzate più comunemente in<br />
ambito cinematografico.<br />
Registazione e cattura del movimento naturale<br />
12
PERFORMANCE CAPTURE<br />
L’EMOZIONE DELL’ESPRESSIONE<br />
OBIETTIVO<br />
La Performance Caputure è<br />
una tecnologia cinematografica<br />
che permette di catturare<br />
movimenti ed espressioni<br />
facciali di un soggetto reale per<br />
poi applicarli ad un personaggio<br />
virtuale.<br />
Tecnica utilizzata per la prima<br />
volta da Robert Zemeckis<br />
nel film Polar Express, è poi<br />
stata utilizzata e perfezionata<br />
da James Cameron nel<br />
pluripremiato film Avatar.<br />
Per permettere alla realtà di<br />
diventare animazione, agli<br />
attori viene fatto indossare uno<br />
speciale casco, al quale viene<br />
applicato, tramite braccio rigido,<br />
una telecamerina rivolta verso<br />
il viso. Il volto è ricoperto da<br />
decine di micro sensori per la<br />
cattura istantanea dei movimenti<br />
ed espressioni facciali.<br />
CATTURA DELL’ESPRESSIONE<br />
Micro sensori facciali per la cattura<br />
di ogni espressione, anche le più<br />
impercettibili.<br />
maggiore è il numero di sensori<br />
applicati al volto migliore sarà<br />
la precisione di analisi e cattura<br />
dell’espressione.<br />
Evoluzione del volto di lara croft per i videogiochi di tomb raider<br />
13
<strong>Motion</strong> <strong>Capture</strong> Timeline<br />
Gli eventi più rilevanti che hanno portato all’ evolversi di questa straordinaria tecnica in campo<br />
videoludico e cinematografico. Dalla nascita ad oggi.<br />
Il mocap nasce dall’esigenza<br />
di studiare il movimento<br />
di persone ed animali, per<br />
comprenderne le leggi che<br />
lo governano e, nel caso di<br />
patologie, quantificarne l’effetto.<br />
Nel XX secolo, il mocap approda<br />
anche nel mondo dello sport e<br />
dei videogames.<br />
Walt Disney si rende conto delle<br />
potenzialità di questa tecnologia<br />
ed inizia ad utilizzarla per la<br />
produzione dei propri cartoni<br />
animati. Nel 1937, l’azienda<br />
rilancia il primo lungometraggio,<br />
Biancaneve ed i Sette Nani,<br />
che viene animato filmando<br />
attori reali e ricalcando i loro<br />
movimenti. Dato il successo<br />
ottenuto da questo film animato,<br />
la Disney impiega questa<br />
tecnologia per molti altri lavori<br />
come Peter Pan, Alice nel<br />
Paese delle Meraviglie e La<br />
Bella Addormentata.<br />
14<br />
XX sec<br />
1915<br />
1937<br />
Quando si parla di mocap in<br />
ambito cinematografico, ci<br />
si riferisce alla possibilità di<br />
acquisire i movimenti di una<br />
persona reale per poi trasferirli<br />
ad un personaggio animato.<br />
Il primo esempio nell’ambito<br />
dell’industria dell’entertainment<br />
è la serie di cortometraggi Out<br />
of the Inkwell girati da Max<br />
Fleischer. Nel 1915 Fleischer<br />
idea la tecnica del rotoscopio,<br />
un sistema di animazione<br />
utilizzato per creare un cartone<br />
animato in cui le figure umane<br />
risultano molto realistiche<br />
nei movimenti. Il disegnatore<br />
ricalca le scene a partire da una<br />
pellicola filmata in precedenza.<br />
In origine, le immagini filmate<br />
in precedenza venivano<br />
proiettate su un pannello di<br />
vetro traslucido, dove fungevano<br />
da supporto per l’attività di<br />
disegno.
Il mocap diviene presto uno<br />
strumento indispensabile<br />
per i film-makers e George<br />
Lucas lo impiega per animare<br />
il personaggio Jar-Jar Binks<br />
in Star Wars: Episodio I – La<br />
Minaccia Fantasma.<br />
1999<br />
Avatar di James Cameron,<br />
uscito nelle sale nel 2009.<br />
Il regista aspetta oltre un<br />
decennio per fare uso di<br />
questa tecnologia in un suo<br />
film, e quando lo fa propone<br />
un nuovo sistema chiamato<br />
“camera virtuale”. Mentre gli<br />
attori si muovono all’interno<br />
di una apposita sala per le<br />
riprese attrezzata con un sistema<br />
mocap (soprannominata ‘The<br />
Vault’), un software costruisce<br />
in tempo reale sull’acquisizione<br />
il personaggio animato in<br />
modo tale che il regista può<br />
controllarne il risultato.<br />
2001<br />
2009<br />
2011<br />
Peter Jackson lancia il<br />
personaggio Gollum nel film<br />
Il Signore degli Anelli: La<br />
Compagnia dell’Anello. Ed è<br />
nel film successivo, Il Signore<br />
degli Anelli: Le Due Torri, che<br />
avviene una grande rivoluzione.<br />
Se prima gli attori “reali” e quelli<br />
che venivano successivamente<br />
animati recitavano<br />
separatamente, ora attori “reali”<br />
e virtuali recitano insieme nella<br />
la medesima scena. L’attore<br />
che impersona Gollum, e che<br />
è ormai diventato un guru di<br />
questa tecnica, è Andy Serkis.<br />
Ma è nel 2011, all’uscita del<br />
film L’alba del Pianeta delle<br />
Scimmie, che lo spettatore<br />
si trova davanti ad un film<br />
nel quale è quasi impossibile<br />
pensare che le scimmie non<br />
siano vere. Merito ovviamente di<br />
Andy Serkis.<br />
15
IL FUTURO È UN OBIETTIVO,<br />
NON UNA DESTINAZIONE.<br />
16
17
18
11<br />
LE ORIGINI<br />
Cosa si intende per motion capture?<br />
Partendo da alcuni esempi fondamentali, vogliamo<br />
fare comprendere cosa abbia dato il via a quella<br />
che oggi è l’animazione cinematografica.<br />
Lo studio del movimento umano incide in maniera<br />
assai massiccia in quell’ambiente che chiamiamo<br />
“settima arte”.<br />
19
1.1 LE ORIGINI DELLA MOTION CAPTURE<br />
In origine la Mocap viene<br />
usata soprattutto per scopi<br />
militari o in ambito sportivo,<br />
dove serve come strumento<br />
per la ricerca biomeccanica e il<br />
funzionamento dei muscoli in<br />
movimento.<br />
Il primo vero strumento di motion<br />
capture, però, vede la luce solo<br />
agli inizi degli anni ’80, grazie<br />
al Data Glove, un’invenzione<br />
brevettata da Thomas<br />
Zimmerman, con cui vengono<br />
manipolati i suoni della chitarra<br />
grazie ad un’interfaccia hardware.<br />
In pratica, la chitarra può essere<br />
suonata senza la presenza della<br />
chitarra stessa, ma semplicemente<br />
indossando un guanto su cui sono<br />
cuciti dei piccoli tubi di plastica<br />
all’interno dei quali passa un<br />
fascio luminoso.<br />
L’infinitesimo ritardo che la luce<br />
accumula quando il piccolo tubo<br />
si piega è indice di quanto il tubo<br />
stesso si è piegato e se questo<br />
oggetto è solidale con le dita<br />
indica in modo preciso quanto<br />
queste si sono piegate e quindi il<br />
movimento che stanno facendo.<br />
Grazie a questo brevetto insieme<br />
a Jaron Lanier fonda la VPL<br />
Research che diventa fornitrice<br />
ufficiale per la NASA dei data<br />
glove e di tutti quegli strumenti,<br />
come successivamente l’head<br />
mounted display, necessari per<br />
costruire applicazioni di Realtà<br />
Virtuale.<br />
E’ proprio alla fine degli anni<br />
’80 infatti che Lanier conia il<br />
termine appena citato legandolo<br />
strettamente alla tecnologia<br />
che erano in grado di offrire sul<br />
mercato e di li a poco scienziati<br />
e filosofi di tutto il mondo si<br />
lanceranno in fantascientifici<br />
voli pindarici immaginandosi<br />
applicazioni e modalità d’uso<br />
in grado di mettere seriamente<br />
in discussione le nostre vere<br />
esperienze sensoriali.<br />
La Realtà Virtuale non si è evoluta<br />
così come si pensava agli inizi<br />
degli anni ’90 fondamentalmente<br />
perché i computer non erano<br />
abbastanza potenti per gestire<br />
real-time una interazione uomomacchina<br />
così complessa e con<br />
una qualità percettiva tale da<br />
poter essere confusa con una<br />
esperienza reale.<br />
• 1982 Sayre Glove<br />
• 1987 Glove Nintendo<br />
Il Sayre Glove, creato da Electronic<br />
Visualization Laboratory nel 1977, fu il<br />
primo guanto cablato. Nel 1982 Thomas G.<br />
Zimmerman depositato un brevetto su un<br />
sensore ottico di flex montato in un guanto<br />
per misurare il dito flessione.<br />
20
I GUANTI MAGICI CHE SUONANO LA CHITARRA SENZA CHITARRA E GLI<br />
INIZI DEL FENOMENO MOTION CAPTURE HANNO PROBABILMENTE DATO<br />
IL VIA AL CINEMA DEL FUTURO E PIÙ IN GENERALE ALL’ESPANSIONE<br />
SEMPRE CRESCENTE DELLA GRAFICA DIGITALE.<br />
1.2 IL CYBER GLOVE<br />
L’ elemento chiave è un guanto al<br />
quale sono attaccati dei sensori<br />
che definiscono la posizione<br />
e l’orientamento della mano<br />
mediante ultrasuoni. Delle bende<br />
piezoceramiche, posizionate<br />
intorno alla mano, forniscono, a<br />
chi indossa il guanto, un feedback<br />
tattile grazie al fatto che i guanti<br />
sono connessi all’ hardware del<br />
computer tramite un piccolo<br />
cavo. Questo processo permette,<br />
interagendo con l’host del<br />
computer, di guidare, in tempo<br />
reale, il modello tridimensionale<br />
della mano consentendo di<br />
manipolare oggetti generati al<br />
computer come se fossero reali.<br />
Abduction<br />
PIP<br />
MP<br />
Z Glove<br />
Z Glove<br />
• 1990 Cyber Glove<br />
Oggi<br />
Uno dei primi guanti cablati disponibili per gli<br />
utenti domestici nel 1987 era il potere Glove<br />
Nintendo. Questo è stato progettato come un<br />
guanto di gioco per il Nintendo Entertainment<br />
System. Aveva un tracker greggio e sensori<br />
Questa è stata seguita dalla CyberGlove,<br />
creato da tecnologie virtuali, Inc. nel 1990<br />
tecnologie virtuali è stata acquisita da<br />
Immersion Corporation nel settembre 2000.<br />
dito piegare, più pulsanti sul retro.<br />
21
1.3 DAI DATA GLOVES A TOY STORY<br />
Negli ultimi venticinque anni,<br />
questa tecnica è diventata<br />
uno strumento essenziale<br />
nel mondo dell’animazione,<br />
dando la possibilità ai grafici<br />
3D di rendere più realistici i<br />
personaggi dei cartoni animati e<br />
di animare creature fantastiche.<br />
I primi prodotti commerciali che<br />
hanno avuto una diffusione di<br />
massa e che hanno utilizzato<br />
le tecnologie proprie della<br />
Realtà Virtuale, anche se<br />
ne sono solo un surrogato,<br />
sono il videogioco di “Lara<br />
Croft” ed il lungometraggio<br />
di animazione “Toy Story”.<br />
Siamo nel 1995 e, per la prima<br />
volta, dei personaggi digitali<br />
realizzati utilizzando le tecniche<br />
dell’animazione tridimensionale<br />
diventano delle vere e proprie<br />
star internazionali.<br />
?<br />
IL MOUSE<br />
COME MOCAP<br />
22<br />
Anche il mouse, in fondo,<br />
può essere considerato uno<br />
strumento di motion capture<br />
digitale perché riesce a<br />
codificare il movimento della<br />
nostra mano in informazioni<br />
binarie e, grazie alla semplicità<br />
del meccanismo e dei dati<br />
elaborati, trasferisce in “tempo<br />
reale” il movimento allo<br />
schermo del pc garantendoci<br />
quell’interattività che facilita la<br />
navigazione, il gioco on line, etc.
23
24
MOTION CAPTURE<br />
La “cattura del movimento” e i vari e possibili<br />
ambiti nei quali questa tecnologia può essere<br />
utilizzata e possibilmente sviluppata. Analizziamo<br />
i diversi sistemi che questa offre distinguendone i<br />
vantaggi e gli svantaggi.<br />
Più in particolare ci soffermiamo sull’uso che si fa<br />
della motion capture nell’ambito del cinema. In<br />
ultimo valutiamo quali sono realmente i limiti e le<br />
possibili soluzioni future.<br />
25
2.1 MOTION CAPTURE: DEFINIZIONE<br />
Esempio di motion capture in ambito<br />
cinematografico, il software rileva i movimenti<br />
dell’attore associandoli allo scheletro 3D del<br />
computer<br />
Se parliamo di “<strong>Motion</strong><br />
<strong>Capture</strong>” o, come spesso<br />
si abbrevia, di “MoCap”,<br />
una definizione piuttosto comune<br />
e largamente accettata è quella<br />
fornita da Menache nel suo libro:<br />
« <strong>Motion</strong> <strong>Capture</strong> is the process<br />
of recording a live motion event<br />
and translating it into usable<br />
mathematical terms by tracking<br />
a number of key points in<br />
space over time and combining<br />
them obtaining a single 3D<br />
representation of performance 1 ».<br />
In accordo con la definizione<br />
appena data, scopo della motion<br />
capture è dunque quello di<br />
“digitalizzare” il movimento<br />
di un soggetto, fornendo<br />
del movimento reale una<br />
rappresentazione matematica<br />
quantitativa che renda il<br />
movimento stesso facilmente<br />
fruibile come input per successivi<br />
studi e successive elaborazioni.<br />
Tale caratteristica rende le<br />
tecniche di motion capture utili<br />
e interessanti per un grande<br />
ventaglio di applicazioni, per studi<br />
di biomeccanica, per scopi di<br />
sorveglianza, nella realtà virtuale o<br />
nel cinema.<br />
La <strong>Motion</strong> <strong>Capture</strong>, rappresenta una delle innovazioni più importanti in ambito videoludico e non solo.<br />
Molto del realismo delle animazioni odierne, è dovuto all’utilizzo accurato ed efficace di questa tecnica<br />
che, se sfruttata a dovere, regala ad un gioco o un film d’animazione quel qualcosa in più rispetto agli altri<br />
che non lo utilizzano.<br />
26<br />
1 A. Menache, Understamding <strong>Motion</strong> <strong>Capture</strong> for Computer Animation and Video Games. Morgan Kaufmann, 2000.
2.2 AMBITI APPLICATIVI<br />
Tra i vari usi delle tecnologie per<br />
la motion capture, ricordiamo<br />
innanzitutto quelli in ambito<br />
clinico e in ambito sportivo. Per<br />
quanto riguarda gli studi clinici,<br />
le tecniche di motion capture<br />
sono necessarie per pervenire<br />
ad una conoscenza accurata<br />
della cinematica del soggetto,<br />
per poter diagnosticare i<br />
problemi di locomozione dei<br />
pazienti. Per quanto riguarda<br />
l’ambito sportivo, le tecniche<br />
MoCap vengono comunemente<br />
utilizzate per registrare il<br />
movimento al fine di individuare<br />
eventuali raffinamenti da attuare<br />
per il miglioramento della<br />
performance sportiva nel suo<br />
complesso. Un altro ambito<br />
di utilizzo delle tecnologie di<br />
motion capture è quello della<br />
sicurezza: le tecniche MoCap<br />
possono infatti essere impiegate<br />
nella progettazione di sistemi di<br />
sorveglianza intelligenti Sistemi<br />
di MoCap sono stati utilizzati per<br />
il riconoscimento dell’andatura<br />
nel cammino di un soggetto<br />
come segnale di riconoscimento<br />
biometrico. È stato infatti<br />
proposto che l’andatura sia una<br />
caratteristica sufficientemente<br />
distintiva da permettere la<br />
discriminazione tra soggetti<br />
diversi.<br />
Citiamo infine, a conclusione<br />
di questa breve carrellata di<br />
esempi, un altro importante<br />
campo di applicazione per<br />
queste tecnologie: la realtà<br />
virtuale. Grazie alle tecnologie<br />
MoCap, infatti, essendo in grado<br />
di tradurre il movimento umano<br />
in modelli digitali comprensibili,<br />
eventualmente, anche dalle<br />
macchine, è possibile infine<br />
per utenti umani interagire con<br />
contenuti digitali in tempo reale:<br />
questo aspetto può risultare<br />
molto utile ad esempio nella<br />
costruzione di simulazioni di<br />
allenamento, o per eseguire test<br />
di percettibilità visiva, oppure<br />
ancora per donare in generale<br />
un movimento naturale a<br />
personaggi creati interamente al<br />
computer (caratteristica, questa,<br />
molto apprezzata e utilizzata<br />
migliorare i rendering degli<br />
effetti speciali in TV, nei film e<br />
nei video games.<br />
Il primo gioco ad utilizzare la cattura del movimento fu<br />
Prince of Persia che fu realizzato nel 1989.<br />
Lionel Messi catturato dalla motion capture per<br />
i movimenti del gioco per PS3 Pro Evolution<br />
Soccer 2010<br />
27
2.3 L’ANALISI DEL MOVIMENTO: LA STORIA<br />
L’interesse per l’analisi del<br />
movimento in generale è in<br />
realtà molto antico, che si rifà<br />
ai tempi dell’antica Grecia, e<br />
anche se la sua evoluzione passa<br />
attraverso i nomi dei più grandi<br />
scienziati, filosofi e teorici di<br />
sempre, da Aristotele (384-322<br />
a.C.) a Thomas Young (1773-<br />
1829), fino ai giorni nostri, è in<br />
particolare l’invenzione della<br />
fotografia nell’800 a contribuire<br />
all’evoluzione di ciò che oggi è<br />
noto come motion capture. In<br />
particolare, è piuttosto comune<br />
l’identificazione nel lavoro di<br />
Etienne Jules Marey (1830-1904)<br />
e Eadweard Muybridge (1830-<br />
1904) un passo fondamentale<br />
per lo sviluppo della motion<br />
capture, fino alla sua evoluzione<br />
a come la conosciamo oggi:<br />
infatti grazie all’invenzione<br />
del cronofotografo ad opera<br />
di Marey è possibile per<br />
Muybridge, negli anni successivi,<br />
continuare l’analisi sul modo<br />
in cui sia gli animali che gli<br />
umani si muovevano, scattando<br />
fotografie a umani e animali<br />
nell’atto di compiere svariate<br />
attività. Questi esperimenti di<br />
Muybridge furono collezionati, e<br />
sono diventati famosi con i nomi<br />
di Animal Locomotion e di The<br />
Eadweard Muybridge fotografò con successo un cavallo in corsa utilizzando 50<br />
fotocamere, sistemate parallelamente lungo il tracciato.<br />
Ogni macchina era azionata da un filo colpito dagli zoccoli del cavallo (1878).<br />
Fucile fotografico invenzione di Marey. La telecamera era montata su un fucile: veniva puntato sul<br />
soggetto e registrava fino a 12 immagini al secondo<br />
Human Figure in <strong>Motion</strong>.<br />
Dopo il lavoro di Marey e<br />
Muybridge, nel citare quali altri<br />
contributi hanno permesso<br />
l’evoluzione delle tecniche<br />
di motion capture da allora<br />
fino ad oggi, è d’obbligo<br />
menzionare anche il lavoro di<br />
G. Johansson (1911 - 1998) che,<br />
nel 1973, nei suoi Moving Light<br />
Display Experiments utilizzò<br />
dei piccoli marker riflettenti<br />
applicati alle giunture di<br />
soggetti umani per registrare<br />
il loro movimento. L’obiettivo<br />
del lavoro di Johansson era<br />
quello di essere in grado di<br />
identificare movimenti noti<br />
solo a partire dall’analisi delle<br />
traiettorie dei marker, il che ci<br />
avvicina sempre più a quella<br />
che è la moderna analisi del<br />
movimento, ad esempio, tramite<br />
stereofotogrammetria.<br />
28
2.4 TECNICHE MOCAP DIFFERENTI<br />
Le tecniche MoCap esistenti<br />
per l’analisi della cinematica<br />
di un soggetto si possono<br />
concettualmente dividere in due<br />
grandi categorie: le tecniche che<br />
si basano su approcci non ottici,<br />
e quelle che sfruttano principi<br />
ottici. Per le tecniche “non<br />
ottiche”, possiamo individuare<br />
tre approcci principali:<br />
approccio elettromeccanico,<br />
elettromagnetico e approccio<br />
inerziale.<br />
Per i metodi ottici, distinguiamo<br />
principalmente tra le tecniche<br />
che si avvalgono dell’utilizzo di<br />
marker e le tecniche markerless.<br />
Tuta indossabile Mocap elettromeccanica.<br />
2.4.1 I SISTEMI “NON OTTICI”<br />
Nell’ambito dei sistemi<br />
MoCap non ottici, uno tra i<br />
primi approcci implementati<br />
fu quello elettromeccanico: i<br />
sistemi basati su questo tipo<br />
di approccio consistono, ad<br />
oggi, in speciali tute indossabili<br />
che formano una sorta di<br />
“esoscheletro” per il soggetto<br />
in movimento, munite di<br />
dispositivi di misura in alcuni<br />
punti chiave. I sistemi di misura<br />
presenti sono generalmente<br />
costituiti da potenziometri uniti<br />
a speciali dispositivi scorrevoli<br />
(sliding rods) che misurano gli<br />
spostamenti tra i giunti della<br />
tuta indossabile, e da<br />
sensori (quali ad esempio<br />
elettrogoniometri) in grado di<br />
misurare gli angoli tra i segmenti<br />
adiacenti dell’esoscheletro.<br />
Quando il soggetto si muove,<br />
l’azione viene rilevata attraverso<br />
piccoli cambiamenti di tensione<br />
ai capi dei potenziometri.<br />
Le tute ad oggi possono<br />
integrare anche sensori di tipo<br />
inerziale e forniscono risultati<br />
accurati ma condizionano il<br />
movimento perché sono pesanti<br />
e non permettono una piena<br />
libertà di azione: il principale<br />
problema di queste tute è infatti<br />
proprio il loro andare a limitare<br />
o comunque a condizionare<br />
il movimento che si sta<br />
analizzando.<br />
29
Nella MoCap basata su<br />
approccio elettromagnetico,<br />
la libertà di movimento<br />
del soggetto migliora. Le<br />
tute indossabili realizzate<br />
rispetto a questo tipo di<br />
approccio presentano sensori<br />
posizionati in punti chiave del<br />
corpo, dove ogni sensore è<br />
fondamentalmente costituito da<br />
un insieme di bobine orientate<br />
secondo le tre direzioni dello<br />
spazio. Il funzionamento del<br />
sistema prevede inoltre la<br />
generazione di un campo<br />
magnetico esterno per cui alla<br />
fine sia possibile, incrociando<br />
i dati sul flusso del campo<br />
magnetico attraverso ciascuna<br />
delle bobine costituenti i<br />
sensori, ricostruire posizione e<br />
orientamento di ciascun sensore.<br />
Le tute elettromagnetiche<br />
così costituite sono più<br />
comode e leggere di quelle<br />
elettromeccaniche, pertanto<br />
i movimenti del soggetto<br />
vengono meno condizionati.<br />
Il problema principale<br />
legato a questi sistemi è la<br />
difficoltà d’impiego al di fuori<br />
dell’ambiente controllato di<br />
laboratorio, poiché in presenza<br />
di materiali ferromagnetici il<br />
campo viene distorto e le misure<br />
perdono in accuratezza. Infine, in<br />
questo caso vi è una limitazione<br />
rispetto all’acquisizione di<br />
movimenti troppo ampi, data<br />
la necessità per i sensori di<br />
rimanere sempre all’interno<br />
dello spazio pervaso dal<br />
campo magnetico imposto dal<br />
generatore.<br />
Una terza categoria di sistemi<br />
MoCap non ottici è quella che<br />
utilizza sensori inerziali: l’idea<br />
alla base di questi sistemi<br />
è quella di poter ricostruire<br />
il movimento del soggetto<br />
a partire dalla misura delle<br />
accelerazioni in gioco. Quando<br />
si parla di sensori inerziali, ci<br />
si riferisce comunemente ad<br />
accelerometri e giroscopi.<br />
L’accelerometro è uno<br />
strumento in grado di tradurre<br />
un’ accelerazione lineare in una<br />
grandezza elettrica. Il dispositivo<br />
è fondamentalmente costituito<br />
da una massa nota, libera<br />
di muoversi all’interno dello<br />
strumento per effetto delle<br />
forze inerziali: lo spostamento<br />
compiuto dalla massa è poi<br />
legato alla forza (e quindi<br />
all’accelerazione) per mezzo<br />
di una relazione nota, e viene<br />
rilevato attraverso l’effetto<br />
capacitivo o grazie all’uso<br />
di estensimetri.<br />
Ad oggi esistono<br />
accelerometri mono-, bi- e<br />
triassiali che, grazie alla<br />
tecnologia MEMS (Micro<br />
Electro-Mechanical Systems)<br />
possono essere integrati su un<br />
unico chip.<br />
Il giroscopio è un dispositivo in<br />
grado di tradurre una velocità<br />
angolare in una grandezza<br />
elettrica secondo una relazione<br />
nota. Grazie alla tecnologia<br />
MEMS, anche del giroscopio<br />
esistono attualmente versioni<br />
mono- o triassiali integrate<br />
su un unico chip. Il problema<br />
intrinsecamente legato alla<br />
MoCap basata su sensori<br />
inerziali è la sensibilità di queste<br />
tecniche rispetto a offset e<br />
derive, dato che per ricondursi<br />
a spostamenti e velocità a<br />
partire dalle accelerazioni<br />
occorre effettuare processi di<br />
integrazione numerica. Per<br />
questo motivo, ad oggi questi<br />
dispositivi vengono integrati in<br />
unità multi-sensore, in modo<br />
da poter sfruttare la ridondanza<br />
di informazione per contenere<br />
l’effetto degli errori.<br />
30
2.4.2 I SISTEMI “OTTICI”<br />
I sistemi MoCap ottici si basano<br />
sull’utilizzo di una o di un set di<br />
telecamere sincronizzate per<br />
ricostruire in ogni istante la posa<br />
3D di un soggetto in movimento.<br />
Concettualmente, possiamo<br />
classificare i sistemi MoCap ottici<br />
a seconda del numero di punti di<br />
vista assunti durante l’acquisizione<br />
(sistemi monoculari o multiview)<br />
e a seconda dell’impiego<br />
o meno di marker (siano questi<br />
attivi o passivi), distinguendo<br />
dunque due tipi di approccio: il<br />
marker-based e il markerless. Nei<br />
sistemi marker-based l’obiettivo<br />
è ricostruire la cinematica dei<br />
segmenti ossei attraverso<br />
l’individuazione della traiettoria<br />
3D dei marker (piccoli oggetti<br />
applicati alla superficie corporea<br />
del soggetto in movimento),<br />
mentre le tecniche markerless<br />
mirano a estrarre i parametri<br />
relativi al movimento a partire da<br />
silhouettes o altre caratteristiche<br />
del soggetto nelle immagini<br />
(come ad esempio i contorni).<br />
Il funzionamento delle tecniche<br />
marker-based si basa<br />
fondamentalmente sul principio<br />
di triangolazione: quando almeno<br />
due telecamere riprendono<br />
contemporaneamente un<br />
punto dello spazio 3D allora è<br />
possibile, a partire dalle immagini<br />
formatesi sui piani principali<br />
delle telecamere, ricostruire la<br />
posizione di quel punto tramite<br />
semplici retroproiezioni. La tecnica<br />
MoCap ottica marker-based<br />
di questo tipo è detta anche<br />
stereofotogrammetria, dove il<br />
prefisso stereo- discende proprio<br />
dal principio appena esposto.<br />
Per ricostruire la posizione di<br />
un punto tramite triangolazione<br />
è necessario aver definito a<br />
priori un sistema di riferimento<br />
globale. Occorre inoltre che i<br />
parametri dell’intero sistema<br />
stereofotogrammetrico siano noti,<br />
sia i parametri esterni (posizione e<br />
orientamento dei piani principali<br />
delle telecamere) che i parametri<br />
interni (come lunghezza focale,<br />
coordinate del punto nodale,<br />
coefficienti di distorsione delle<br />
telecamere). In altri termini,<br />
prima di poter effettuare le<br />
acquisizioni è necessario calibrare<br />
lo spazio all’interno del quale<br />
verrà eseguito il movimento. La<br />
calibrazione avviene di norma<br />
in due fasi. Nella prima fase<br />
viene acquisito un oggetto<br />
di calibrazione composto da<br />
3 assi ortogonali con marker<br />
attaccati in posizioni note, allo<br />
scopo di definire il sistema di<br />
riferimento globale e di ottenere<br />
posizione e orientamento dei<br />
piani delle telecamere. Nella<br />
seconda fase della calibrazione<br />
una barra rigida (wand) con<br />
marker attaccati in posizioni<br />
note viene mossa lungo le 3<br />
direzioni dello spazio all’interno<br />
del volume di calibrazione per<br />
ottenere i parametri interni delle<br />
telecamere.<br />
Prima di poter effettuare le acquisizioni è<br />
necessario calibrare lo spazio all’interno<br />
del quale verrà eseguito il movimento:<br />
nell’immagine si vede una ricostruzione della<br />
posizione del punto P, note le sue proiezioni<br />
P1 e P2 sui piani principali delle telecamere<br />
e le posizioni N1 e N2 del punti nodali delle<br />
telecamere.<br />
31
2.5 MARKERS<br />
32<br />
I marker utilizzati in<br />
stereofotogrammetria possono<br />
essere di due tipi: passivi e<br />
attivi. I marker passivi sono<br />
semplicemente piccole sferette<br />
leggere uniformemente<br />
ricoperte da materiale<br />
riflettente, mentre i<br />
marker attivi sono veri e propri<br />
LED in grado di emettere<br />
luce propria nello spettro<br />
infrarosso.<br />
I sensori optoelettronici utilizzati<br />
sono telecamere che lavorano<br />
nello spettro infrarosso e<br />
integrano dispositivi per la<br />
rilevazione e trasduzione del<br />
segnale luminoso in un segnale<br />
elettrico, quali ad esempio i<br />
sensori CCD (charged coupled<br />
device) e CMOS<br />
(complementary metal<br />
oxide semiconductor).<br />
Indipendentemente dalla<br />
tecnologia, i sensori vengono<br />
solitamente organizzati in matrici<br />
di pixel sul piano immagine<br />
della telecamera. Nel caso in<br />
cui il sistema lavori con marker<br />
passivi, le telecamere sono<br />
inoltre costruite in modo da<br />
emettere esse stesse fasci di<br />
luce<br />
infrarossa. Dato che i marker<br />
passivi sono ricoperti da<br />
materiale riflettente, il segnale<br />
luminoso di ritorno proveniente<br />
da questi sarà molto più<br />
intenso rispetto a un’eventuale<br />
riflessione di luce da parte del<br />
background, permettendo<br />
così una facile localizzazione<br />
dei marker. Impostando infine<br />
un’adeguata soglia di luminosità<br />
per le telecamere, la probabilità<br />
che vengano erroneamente<br />
riconosciuti segnali provenienti<br />
da pelle o vestiti del soggetto si<br />
riduce drasticamente. Nel caso<br />
in cui vengano impiegati marker<br />
attivi non è necessario siano<br />
le telecamere a illuminare lo<br />
spazio, essendo gli stessi marker<br />
a emettere un segnale luminoso.<br />
Si noti che con questa seconda<br />
modalità di acquisizione si ha<br />
un minor consumo di potenza,<br />
dato che il segnale luminoso<br />
deve percorrere la metà dello<br />
spazio per incidere sul piano<br />
immagine della telecamera,<br />
rispetto al caso in cui si<br />
impiegano marker passivi. Un<br />
altro vantaggio legato ai marker<br />
attivi riguarda una miglior<br />
tracciabilità degli stessi rispetto<br />
ai marker passivi. Questa<br />
miglior tracciabilità è dovuta<br />
alla possibilità di diversificare<br />
i tempi di attivazione e le<br />
frequenze di pulsazione dei<br />
LED: potendosi basare anche<br />
su questi parametri, il sistema<br />
riconosce più facilmente<br />
ciascun marker. Nonostante<br />
queste considerazioni positive<br />
sui marker attivi, viene ancora<br />
tendenzialmente preferito<br />
l’uso dei sistemi a marker<br />
passivi, dato che in molti casi<br />
è ancora necessario il wiring<br />
per l’alimentazione dei marker<br />
attivi, il che va a limitare il<br />
movimento del soggetto. Con<br />
l’avvento del wireless, tuttavia,<br />
anche questo problema sta<br />
scomparendo.
2.6 VANTAGGI E LIMITAZIONI<br />
Tra tutti i sistemi MoCap<br />
visti finora, quelli che hanno<br />
riscosso maggior successo<br />
sono i sistemi ottici. I principali<br />
motivi del successo riguardano<br />
innanzitutto il ridotto ingombro<br />
sul soggetto, e la possibilità di<br />
acquisire, con opportuni setup,<br />
anche movimenti ampi come il<br />
cammino, la corsa, il ballo. Un<br />
altro importante vantaggio di<br />
questo tipo di MoCap sulle altre<br />
tecniche riguarda la flessibilità<br />
nella scelta della posizione<br />
e del numero dei marker a<br />
seconda del tipo di acquisizione,<br />
anche se numerosi protocolli sul<br />
posizionamento dei marker sono<br />
stati sviluppati (come il SAFLo,<br />
il VCM, il CAST). Infine, i sistemi<br />
ottici possono raggiungere<br />
frequenze di campionamento<br />
tendenzialmente più elevate<br />
rispetto alle altre tecniche,<br />
permettendo l’analisi anche dei<br />
movimenti rapidi, e presentano<br />
una buona accuratezza: nei<br />
sistemi marker-based a marker<br />
passivi, ad esempio, l’errore di<br />
ricostruzione della posizione<br />
dei marker è dell’ordine dei<br />
mm o inferiore. Nonostante la<br />
popolarità, l’approccio ottico<br />
presenta alcune importanti<br />
limitazioni che devono essere<br />
considerate. Innanzitutto, anche<br />
se l’ingombro è limitato se<br />
comparato agli altri sistemi, la<br />
presenza di marker attaccati<br />
alla pelle può influenzare il<br />
movimento del soggetto.<br />
Essendo inoltre i marker molto<br />
piccoli, è possibile che in<br />
determinate fasi del movimento<br />
un marker venga<br />
nascosto alle telecamere,<br />
facendo così perdere<br />
temporaneamente la sua traccia.<br />
In corrispondenza di questi<br />
eventi capita anche che le<br />
traiettorie di marker molto<br />
vicini vengano confuse.<br />
Questi problemi possono<br />
tuttavia essere parzialmente<br />
superati con l’utilizzo di un<br />
maggior numero di telecamere<br />
e un adeguato posizionamento<br />
dei marker.<br />
33
2.7 MOCAP NEL CINEMA: L’ESEMPIO DI GOLLUM<br />
Non sono pochi i casi in cui il<br />
mondo del cinema e quello dei<br />
videogames si avvalgono di tale<br />
tecnologia.<br />
Uno dei casi più celebri è<br />
relativo al famosissimo Gollum<br />
della trilogia del Signore degli<br />
Anelli. Lasciando da parte la<br />
qualità eccellente di texture e<br />
filtri grafici applicati al modello<br />
tridimensionale, ciò che stupisce<br />
più di tutto è l’incredibile<br />
flessuosità e morbidezza con cui<br />
il personaggio si muove.<br />
I movimenti dell’ attore Andy<br />
Serkis, infatti, sono stati catturati<br />
tramite motion capture ed<br />
utilizzati come base per le<br />
animazioni di Gollum. Il risultato<br />
è qualcosa di sorprendente che<br />
rende la creatura viva e reale<br />
nonostante sia completamente<br />
digitalizzata.<br />
Il personaggio CGI è<br />
stato creato seguendo le<br />
caratteristiche facciali di Serkis,<br />
mentre i suoi movimenti sulla<br />
34
pellicola sono stati riprodotti<br />
utilizzando un misto tra la<br />
motion capture, in cui le<br />
movenze dell’attore sono state<br />
convertite in immagini digitali,<br />
e il tradizionale processo di<br />
keyframing, a partire da un<br />
pupazzo digitale creato da Jason<br />
Shleifer e Bay Raitt. Il processo<br />
di creazione del personaggio è<br />
stato molto lungo, e ha richiesto<br />
il lavoro di un gran numero di<br />
artisti digitali. Ne Il Ritorno del<br />
Re, Serkis appare in carne ed<br />
ossa, in un flashback, come<br />
Sméagol prima che l’Anello lo<br />
trasformasse in Gollum.<br />
Fra altre produzioni<br />
cinematografiche che utilizzano<br />
tecniche di motion capture non<br />
possiamo non citare il quasi<br />
umano robot di Io Robot dalle<br />
movenze aggraziate, quelle<br />
feline di Angelina Jolie in<br />
Beowulf, e le acrobazie presenti<br />
Matrix, frutto di ore di sessioni in<br />
studio fra marker e telecamere.<br />
35
36
PERFORMANCE<br />
CAPTURE<br />
La performance capture è una tecnologia più<br />
nuova e sofisticata rispetto alla precedente motion.<br />
Grazie a tale tecnica, è possibile percepire ogni<br />
minima emozione dal volto degli attori e quindi<br />
riuscire a catturarne la performance. Il principio è<br />
fondamentalmente lo stesso della motion e quindi<br />
ci limitiamo a fornire degli esempi cinematografici<br />
che risulteranno ottimi per una visione a 360 gradi<br />
del fenomeno in questione. Abbiamo affiancato<br />
questi esempi con un’accurata analisi che permette<br />
una comprensione delle eccezionali potenzialità e<br />
dei miglioramenti abissali che questa tecnologia ha<br />
apportato al cinema d’animazione e non solo.<br />
37
Con la cattura delle espressioni e dei movimenti più impercettibili del volto la<br />
tecnica della performance capture ha permesso fedeltà e naturalezza umana<br />
che fino a un paio di anni fa erano impensabili. Tutto cominciò con Zemeckis e<br />
il suo trampolino di lancio: Polar Express<br />
3.1 PERFORMANCE CAPTURE: THE POLAR EXPRESS<br />
38<br />
Ci sono nomi che in<br />
questo momento<br />
cinematografico<br />
dedicato alle nuove tecnologie,<br />
e, più in particolare, alla tecnica<br />
di cattura dei movimenti,<br />
ricorrono più di altri. Uno di<br />
questi è senz’altro quello di<br />
Robert Zemeckis.<br />
Il regista di Chi ha incastrato<br />
Roger Rabbit, Forrest Gump e<br />
la saga di Ritorno al Futuro (solo<br />
per citarne alcuni), decise nel<br />
2004 di lanciare una nuova sfida<br />
al mondo dell’ animazione e di<br />
arruolare star di prima grandezza<br />
non soltanto per doppiare i<br />
personaggi o per crearne degli<br />
alterego caricaturali (come era<br />
stato fatto quello stesso anno<br />
per Shark Tale e tanti altri) ma<br />
per dare loro letteralmente vita.<br />
Il film scelto per dare inizio al<br />
nuovo trend è Polar Express,<br />
lungometraggio nel quale<br />
movimenti ed espressioni dei<br />
personaggio virtuali sono stati<br />
eseguiti e registrati da attori<br />
reali. Zemeckis volle sul set il<br />
suo attore feticcio Tom Hanks<br />
(Forrest Gump e Cast Away).<br />
Per traghettarlo sul grande
? IL TRENO<br />
schermo e creare il suo alterego<br />
virtuale Zemeckis utilizzò per<br />
la prima volta la tecnica della<br />
performance capture, evoluzione<br />
della motion capture, diventata<br />
nel giro di poco la sua tecnica<br />
d’elezione.<br />
Del tutto simile al suo<br />
predecessore, la Performance<br />
<strong>Capture</strong> si avvale di una<br />
tecnologia più sofisticata<br />
che, attraverso dei sensori<br />
estremamente piccoli posizionati<br />
anche sul volto degli attori,<br />
riesce a catturare anche le<br />
espressioni facciali oltre che<br />
il movimento del corpo, e a<br />
registrarli grazie alla computer<br />
grafica per creare personaggi<br />
animati capaci di sorridere,<br />
piangere, parlare e muoversi<br />
proprio come i loro interpreti<br />
umani. Questa tecnica consentì<br />
a Zemeckis di utilizzare il suo<br />
protagonista Tom Hanks per ben<br />
6 ruoli diversi, da un ragazzino<br />
di 8 anni, a suo padre, a Hobo<br />
(un viaggiatore solitario) fino a<br />
Babbo Natale, e anche il suo<br />
somigliantissimo alter ego<br />
virtuale: il capotreno. Questo<br />
fa capire come sia malleabile<br />
questa tecnica, dato che può<br />
essere applicata a personaggi<br />
totalmente differenti pur<br />
partendo da un singolo<br />
soggetto, ottenendo ottimi<br />
risultati.<br />
Polar Express si aggiudica<br />
il primato di film realizzato<br />
interamente con il nuovo<br />
sistema performance<br />
capture ad eccezione dei<br />
camerieri che servono<br />
la cioccolata calda a<br />
bordo del treno. Le loro<br />
acrobazie sarebbero<br />
infatti state impossibili<br />
da compiere da attori<br />
veri e per questo si optò<br />
per l’animazione digitale<br />
classica.<br />
39
40
Polar Express<br />
41
3.2 PERFORMANCE CAPTURE: A CHRISTMAS CAROL<br />
L'ultimo futuristico progetto di Robert Zemeckis<br />
Con A Christmas Carol, i passi<br />
avanti nell’applicazione della<br />
motion capture, rispetto ai<br />
precedenti Polar Express e La<br />
Leggenda di Beowoulf, sono<br />
evidenti e riescono a dare molto<br />
più rilevanza ai risultati raggiunti<br />
da questa tecnica. Forse anche<br />
per questo si è scelto di adattare<br />
un classico della letteratura,<br />
essendo una storia che non<br />
ha una elevata complessità<br />
narrativa e così ben si<br />
predispone alla sperimentazione<br />
digitale. Il regista preferisce così<br />
abbandonare totalmente la sfera<br />
narrativa per investire tutto sul<br />
coinvolgimento emozionale,<br />
riuscendo così attraverso<br />
motion capture e 3D a rapire<br />
lo sguardo non sullo schermo,<br />
ma direttamente all’interno<br />
della visuale stessa.<br />
momenti di coinvolgimento<br />
emotivo.<br />
Cambiando i canoni con i quali<br />
si guarda il film, cambia la<br />
percezione stessa con cui ci si<br />
interfaccia alla vicende.<br />
A Christmas Carol può<br />
sostanzialmente definirsi<br />
un passo importante nella<br />
sperimentazione digitale, una<br />
tappa decisiva con la quale si è<br />
saggiata l’influenza della tecnica<br />
digitale sulla sfera narrativa.<br />
Lo spettatore cambia di status.<br />
Nelle sequenze nelle quali<br />
Scrooge si rimpicciolisce e<br />
viene inseguito dai cavalli,<br />
ci si sente visceralmente in<br />
moto, realmente circondato da<br />
cavalli, spiriti oscuri e fiocchi<br />
di neve. Da osservatori esterni<br />
di un film si diventa parte<br />
integrante della scena. I frutti<br />
di questo processo, però, non<br />
si riscontrano solo nelle scene<br />
d’azione, ma soprattutto nei<br />
42
43
3.3<br />
POTENZIALITÀ E<br />
MALLEABILITÀ ESPRESSIVE<br />
Una evoluzione dei processi di motion capture che<br />
sposta l’accento dal punto di vista tecnico a quello più<br />
propriamente espressivo.<br />
Se gli studi ed i primi strumenti<br />
di acquisizione si focalizzavano<br />
sulle singole parti del corpo<br />
umano, acquisite in momenti<br />
diversi e successivamente<br />
riassemblate costringendo<br />
l’attore a frammentare il proprio<br />
lavoro in parti, limitandone<br />
la potenzialità espressiva<br />
dell’insieme, il performing<br />
capture cerca di mantenere<br />
unica la fase di acquisizione<br />
del movimento di tutto il corpo<br />
umano.<br />
In questo modo l’attenzione<br />
viene posta sulla performance<br />
generale che può anche<br />
essere realizzata da più attori<br />
contemporanemente, mantendo<br />
il più possibile coerente l’azione<br />
che si stà svolgendo.<br />
La Performance <strong>Capture</strong> si<br />
differenzia dalla ordinaria<br />
<strong>Motion</strong> <strong>Capture</strong>, per il fatto che<br />
44
cattura contemporaneamente<br />
i movimenti del corpo (come<br />
già fa la <strong>Motion</strong>), delle mani e<br />
le espressioni del volto così da<br />
non frammentare e snaturare<br />
l’atto recitativo e quindi la<br />
performance dell’attore, punto<br />
cardine di questa tecnica.<br />
La tecnica di cattura dei<br />
movimenti è la stessa che si<br />
usa per la <strong>Motion</strong>, la differenza<br />
sta nel fatto che per zone dove<br />
si necessita di una precisione<br />
maggiore nell’acquisizione,<br />
come ad esempio per i<br />
viso ed i suoi movimenti,<br />
si utilizzano logicamente<br />
marcatori di dimensioni minori e<br />
maggiormente ravvicinati.<br />
? ANDY<br />
SERKIS<br />
Lo chiamano "l'uomo scimmia"<br />
perché nessuno meglio di lui riesce<br />
a imitare le movenze dei primati.<br />
Andy Serkis ne dà prova, di nuovo,<br />
in Apes Revolution - Il pianeta delle<br />
scimmie, sequel del fortunato L'alba<br />
del pianeta delle scimmie del 2011,<br />
in cui grazie alla motion capture<br />
torna nei "panni" dello scimpanzè<br />
Caesar. Nello stesso modo ha<br />
interpretato Gollum nella trilogia di<br />
Il signore degli anelli e nei vari Lo<br />
hobbit e prima ancora King Kong,<br />
sempre per l'amico Peter Jackson.<br />
45
«Non ho mai fatto distinzioni nel processo<br />
di creazione di un personaggio in computer<br />
grafica da quello per la creazione di un ruolo<br />
convenzionale. Per me non c'è differenza»<br />
Andy Serkis<br />
46
Apes Revolution<br />
47
48
MICROSOFT KINECT<br />
Un esempio “quotidiano” di motion capture è<br />
di certo il Kinect. Questa periferica permette di<br />
interagire con la consolle (e non solo) di casa<br />
senza l’uso di strumenti aggiuntivi, superando di<br />
gran lunga l’avvento del touch screen domestico<br />
e primeggiando a discapito delle altre consolle<br />
come la Sony e la NintendoWii, le quali utilizzano<br />
controller Wi-fi o altri strumenti.<br />
Noi abbiamo gestito la periferica connettendola<br />
al personal computer per realizzare un’interazione<br />
“uomo-macchina” alla Minority Report.<br />
49
4.1 LA PRIMESENSE E L’INNOVAZIONE DI KINECT<br />
L’uscita di Kinect ha<br />
provocato un grande<br />
scossone nella comunità<br />
di sviluppo libero di software<br />
per PC e Mac. Una moltitudine<br />
di programmatori è infatti<br />
attualmente al lavoro sulla<br />
periferica, allo scopo di trovare<br />
nuove modalità di utilizzo di<br />
tale dispositivo che si configura<br />
come il primo di una serie di<br />
sistemi che potrebbero davvero<br />
portarci in un futuro alla Minority<br />
Report.<br />
Nel dicembre del 2010 la società<br />
PrimeSense, una compagnia<br />
israeliana da tempo impegnata<br />
in ricerca e sviluppo di sistemi di<br />
controllo senza dispositivi fisici<br />
e responsabile della tecnologia<br />
del sistema di telecamere di<br />
Kinect, ha rilasciato i driver open<br />
source per questa innovativa<br />
periferica, compatibili con<br />
Windows e Linux. Questi driver<br />
che consentono di accedere<br />
alle funzioni audio e video<br />
e ai sensori di profondità di<br />
Kinect sono basati su una API<br />
(Application Programming<br />
Interface) completa, nota<br />
come Open NI (Open Natural<br />
Interactions). Quest’ultima<br />
permette di catturare il<br />
movimento in tempo reale,<br />
il riconoscimento di gesti<br />
delle mani e dei comandi<br />
vocali e implementa anche un<br />
“analizzatore di scena”, che<br />
rileva figure in primo piano e le<br />
separa dallo sfondo.<br />
50
? PROJECT NATAL<br />
Il Kinect, inizialmente conosciuto con il nome di Project<br />
Natal, è un dispositivo di input per la console di gioco di<br />
casa Microsoft, l’Xbox 360.<br />
Tale dispositivo è sensibile al movimento del corpo umano di<br />
modo che, a differenza dei suoi concorrenti, quali il Wiimote della<br />
Nintendo e il PlayStation Move della Sony, esso rende il giocatore<br />
controller della console senza l’uso di strumenti. Sebbene in origine<br />
pensata per l’ Xbox 360, Microsoft ha reso disponibile l’uso della<br />
periferica a tutti i PC dotati di un sistema operativo Windows (da<br />
poco è possibile ottenere i software anche per Macintosh).<br />
51
4.2 LE COMPONENTI INTERNE<br />
L’ hardware di Kinect si basa<br />
su tecnologie di 3DV, una<br />
compagnia che Microsoft ha<br />
prima finanziato e poi acquisito<br />
nel 2009, nonchè sul lavoro<br />
dell’israeliana PrimeSense,<br />
che ha poi dato in licenza<br />
la tecnologia a Microsoft.<br />
Il 13 maggio 2010 è stato<br />
pubblicato negli Stati Uniti da<br />
PrimeSense un brevetto dal<br />
titolo “Depth Mapping using<br />
Projected Patterns” che spiega<br />
esattamente la tecnologia<br />
implementata in Kinect:<br />
- un array di microfoni orientati<br />
verso il basso (3 sul lato destro e<br />
uno sul lato sinistro);<br />
- tre apparati ottici utilizzati per<br />
il riconoscimento visuale del<br />
corpo in movimento;<br />
52
- due videocamere ed un<br />
sensore infrarossi aggiuntivo;<br />
- una ventola per la dissipazione<br />
del calore;<br />
- 64MB di memoria flash DDR2;<br />
- un accelerometro Kionix<br />
KXSD9 a tre assi;<br />
- Prime Sense PS1080-A2, il chip<br />
che rappresenta il cuore della<br />
tecnologia di Kinect.<br />
53
4.3 FUNZIONAMENTO SOFTWARE<br />
Il chip PS1080-A2 di PrimeSense<br />
sovraintende tutta la<br />
procedura di analisi della scena<br />
controllando adeguatamente gli<br />
apparati ottici e audio al fine di<br />
raccogliere le informazioni di cui<br />
necessita.<br />
Il corredo di apparati ottici<br />
di Kinect si compone di una<br />
telecamera RGB e un doppio<br />
sensore di profondità a raggi<br />
infrarossi. Tale sensore è composto da un proiettore a infrarossi e<br />
da una telecamera sensibile alla stessa banda, che in pratica serve<br />
a leggere quanto rilevato dai raggi infrarossi. La telecamera RGB ha<br />
una risoluzione di 640 × 480 pixel, mentre quella a infrarossi usa una<br />
matrice di 320 × 240 pixel. L’array di microfoni è usato dal sistema<br />
per la calibrazione dell’ambiente in cui ci si trova, mediante l’analisi<br />
della riflessione del suono sulle pareti e sull’arredamento. In tal<br />
modo il rumore di fondo e i suoni del gioco vengono eliminati ed è<br />
possibile riconoscere correttamente i comandi vocali. La barra del<br />
Kinect è motorizzata lungo l’asse verticale e segue i movimenti dei<br />
giocatori, orientandosi nella posizione migliore per il riconoscimento<br />
dei movimenti.<br />
54
L’ultimo modello di dispositivo<br />
kinect per la XBox 360 migliora<br />
le prestazioni:<br />
3 apparati ottici utilizzati per<br />
il riconoscimento visuale del<br />
corpo in movimento.<br />
Telecamera RGB<br />
640x240 pixel<br />
Telecamera a raggi infrarossi<br />
320x240 pixel<br />
Sensore rilevamento dinamico<br />
55
? MINORITY<br />
REPORT<br />
VS<br />
KINECT<br />
Tre mesi prima di iniziare<br />
le riprese, il regista Steven<br />
Spielberg convocò un<br />
gruppo di futurologi perché<br />
immaginassero per lui un<br />
2054 credibile.<br />
Tra costoro v'erano esperti<br />
del MIT, del dipartimento di<br />
ricerca biomedica alla difesa,<br />
di software e di realtà virtuale.<br />
Quel futuro immaginato nel<br />
2054 si verifica invece con la<br />
nascita del primo Microsoft<br />
Kinect nel 2010 (inizialmente<br />
con il nome di Project<br />
Natal). Ben 44 anni prima<br />
rispetto alla previsione dei<br />
futurologhi, i quali saranno<br />
stati poco ottimisti.<br />
Cosa ci attende realmente<br />
nel 2054?<br />
56
Minority Report<br />
57
58
AVATAR<br />
Un viaggio che ci conduce alla scoperta totale<br />
del film esempio indiscusso della motion capture<br />
e più in generale padre della Tecnologia (con la<br />
“T” maiuscola). Il gigante del cinema dei nostri<br />
tempi: Avatar. Dalle idee che lo hanno generato<br />
alle tecniche e tecnologie grazie alle quali è stato<br />
possibile realizzarlo. Un lavoro colossale che ha<br />
aperto la strada al cinema del futuro.<br />
59
Uno dei più importanti maestri<br />
della storia del cinema che,<br />
fra tripudi di effetti visivi ad<br />
alto livello, sufficienti sviluppi<br />
narrativi e la presenza rocciosa<br />
e impenetrabile di capitani<br />
spaziali inseguite da alieni<br />
parassiti, transatlantici sul punto<br />
di affondare e abissi esplorati<br />
in 3D, ha scritto un’importante<br />
pagina nel mondo della settima<br />
arte.<br />
60
James Francis<br />
Cameron (Kapuskasing,<br />
16 agosto 1954) è un<br />
regista, sceneggiatore,<br />
produttore<br />
cinematografico e<br />
esploratore canadese.<br />
JAMES<br />
CAMERON<br />
?<br />
NUMERI<br />
NELLA STORIA<br />
I suoi due ultimi film (Titanic e<br />
Avatar) sono rispettivamente<br />
il secondo e il primo film<br />
di maggiore incasso della<br />
storia del cinema. In totale i<br />
suoi lavori da regista hanno<br />
incassato complessivamente<br />
1,5 miliardi di dollari negli<br />
Stati Uniti e altri 3,68 miliardi<br />
di dollari nel resto del mondo.<br />
Parallelamente all’attività di<br />
cineasta Cameron si è cimentato<br />
nella produzione di documentari<br />
e, in seguito, nell’ideazione e nella<br />
realizzazione di nuove tecnologie<br />
cinematografiche. Cameron ha<br />
anche contributo alla realizzazione<br />
di riprese sottomarine, allo<br />
sviluppo della computer grafica e<br />
del cinema tridimensionale.<br />
61
62<br />
«Ho aspettato che la tecnologia della grafica<br />
computerizzata avanzasse sempre più, facendo sì<br />
che i costi del film non sarebbero lievitati troppo,<br />
cosa che sarebbe accaduta dieci anni fa!<br />
Voglio creare un nuovo tipo di grafica virtuale<br />
aiutandomi con l’ animazione del motion capture.<br />
Con il mio Reality Camera System, il digitale sembra<br />
reale e viceversa»<br />
James Cameron
63
Dalle idee alle tecniche che hanno dato origine ad un film unico nella storia del cinema<br />
grazie allo straordinario contributo delle nuove tecnologie in particolare grazie all’aiuto<br />
della Performance <strong>Capture</strong><br />
5.1 AVATAR: UN LAVORO COLOSSALE<br />
Avatar è il film nel quale si fa il maggiore utilizzo della<br />
<strong>Motion</strong> <strong>Capture</strong> Technology e più in generale è il film nel<br />
quale si fa più uso di tecniche cinematografiche.<br />
Avatar è il film frutto della mente geniale di James Cameron, il quale<br />
aveva avuto la prima idea di questo film nel lontano 1995 ma non ne<br />
aveva fatto niente in quanto, all’ epoca, non c’ era la possibilità di<br />
realizzare gli effetti speciali che lui tanto desiderava.<br />
Nonostante avesse pronta la sceneggiatura e moltissimi bozzetti<br />
ha dovuto tenere tutto nel cassetto fino a che gli esperti di effetti<br />
speciali non gli hanno dato il via libera.<br />
Per rendere l’idea della grandezza e dell’ unicità del capolavoro<br />
si pensi al fatto che la lavorazione sia durata 7 anni e che il regista<br />
abbia affidato la realizzazione degli effetti digitali del “film più<br />
complesso che abbia mai girato (J. Cameron)” sia alla Weta Digital<br />
Film che alla ILM 1 , le quali si sono spartite il lavoro per dare vita al<br />
mondo in Computer Generated Imagery di Pandora.<br />
Per poter comprendere ancora meglio la mole di lavoro dietro a<br />
questo progetto basti pensare che la Weta ha dovuto utilizzare un<br />
petabyte (mille terabyte) di memoria digitale per tutti gli elementi<br />
del film realizzati con la CGI (la miriade di piante, animali, insetti,<br />
rocce ecc..). Per fare un paragone comprensibile ai comuni mortali<br />
che non parlano la “lingua binaria” si può dire che Titanic ha<br />
richiesto due terabyte di memoria per creare (e affondare) la nave<br />
e le migliaia di passeggeri, circa 1/500 della memoria utilizzata per<br />
Avatar.<br />
64<br />
1 Industrial Light & Magic
5.2 RIVOLUZIONE TECNOLOGICA<br />
Per Avatar, J. Cameron ha<br />
rivoluzionato il modo di fare le<br />
riprese. Molte delle faccende<br />
che solitamente sono assegnate<br />
alla fase di post-produzione,<br />
infatti, sono state risolte in<br />
contemporanea alla fase di<br />
ripresa (circa l’ 80% di lavoro<br />
di post-produzione in meno).<br />
Molte delle virtualità digitali che<br />
necessitavano un’ elaborazione<br />
per essere viste e maneggiate<br />
grazie alla nuova tecnologia<br />
possono essere gestite in Real<br />
Time. Grazie alla tecnologia<br />
della Simulcam è possibile<br />
ottenere immediatamente<br />
il risultato delle riprese in<br />
Performance <strong>Capture</strong>. Gran<br />
parte del girato, infatti, è basato<br />
sull’adozione della Performance<br />
<strong>Capture</strong> degli attori, i cui<br />
movimenti corporei risultano<br />
generati in tempo reale sulla<br />
riproduzione virtuale della scena<br />
attraverso le tute XSens (in lycra)<br />
da <strong>Motion</strong> <strong>Capture</strong> indossate<br />
dagli attori stessi.<br />
Ed è qui che entra in gioco<br />
la Simulcam che consente di<br />
sovrapporre in tempo reale le<br />
riprese in Performance <strong>Capture</strong><br />
con vere e proprie sequenze in<br />
live-action. Ad esempio, se una<br />
scena prevede un personaggio<br />
reale e uno virtuale su un<br />
background alieno, è possibile<br />
fornire in tempo reale al regista<br />
una ripresa in tempo reale e<br />
in perfetta simultaneità con la<br />
camera principale con i due<br />
personaggi, quello reale e<br />
quello virtuale.<br />
65
5.3<br />
RIPRESE: LA<br />
FUSION 3-D<br />
La maggior parte delle riprese<br />
sono state realizzate tra le<br />
Hawaii e Los Angeles. Quelle<br />
legate agli effetti speciali sono<br />
state prodotte negli studi di<br />
Weta Digital e ILM.<br />
Le riprese delle scene<br />
ambientate su Pandora, si sono<br />
svolte in un grande magazzino<br />
(chiamato il “Volume”) svuotato<br />
e riempito di pareti verdi e<br />
sensori. Tutto è stato organizzato<br />
di modo che le camere puntate<br />
sugli attori (che indossano tute<br />
anch’esse piene di sensori)<br />
possano mostrare in tempo<br />
reale al regista una versione in<br />
bassa qualità dei personaggi<br />
digitali che si muovono come gli<br />
attori nell’ ambiente virtuale.<br />
Cosi Cameron dirige le scene<br />
vedendo subito il risultato.<br />
A tal fine James Cameron ha<br />
ideato una nuova telecamera<br />
per garantire la migliore resa<br />
66<br />
LA SIMULCAM.<br />
Zoe Saldana tra avatar e realtà;<br />
la recitazione e la visualizzazione<br />
virtuale nel medesimo istante.<br />
Visione in tempo reale del<br />
personaggio virtuale di Zoe<br />
Saldana (Neytiri).<br />
Grazie alla tecnologia della<br />
Simulcam è possibile ottenere<br />
immediatamente il risultato delle<br />
riprese visualizzando le immagini in<br />
bassa qualità.<br />
Tanta tecnologia e tanta<br />
innovazione, che confluiscono<br />
nella virtual camera, l’invenzione<br />
probabilmente più originale<br />
avvenuta durante le riprese del<br />
film. La virtual camera permetteva<br />
a James Cameron di ‘girare’ le<br />
scene vedendole già modificate<br />
con gli effetti speciali: per fare<br />
un esempio, Cameron vedeva<br />
Zoe Saldana nei panni del suo<br />
avatar e non vedeva l’attrice<br />
coperta di strumenti e accessori<br />
per trasformare la sua figura in<br />
post-produzione. In breve, la<br />
virtual camera permette di girare<br />
all’interno di un mondo realizzato<br />
al computer, una comodità non da<br />
poco per il regista.<br />
visiva in funzione degli effetti<br />
speciali e del 3D.<br />
Questa nuova macchina da<br />
presa è dotata di due obiettivi<br />
capaci di girare immagini in alta<br />
definizione e separatamente<br />
per ogni obiettivo. In questo<br />
modo gli obiettivi simulano il<br />
comportamenti del sistema<br />
visivo umano: infatti, la distanza<br />
tra i due obiettivi è la medesima<br />
di quella tra gli occhi umani. Per<br />
fare ciò Cameron ha brevettato<br />
un sistema di ripresa chiamato<br />
Fusion 3-D Camera System<br />
ottenuto mettendo insieme due<br />
Sony HDCF950 HD. Il regista ha<br />
convinto la Sony Entertainment<br />
a ratificare il nuovo sistema.
SONY HDCF950 HD.<br />
Il sistema di telecamere Fusion fatto<br />
il primo utilizzo di Sony HDC - F950 e<br />
poi di telecamere Sony HDC -1500 HD<br />
quando si sono resi disponibili .<br />
Le telecamere sono dotate di lenti<br />
Fujinon da Fujifilm.<br />
INVENZIONI e INVENTORI.<br />
James Cameron e le sue più<br />
nuove invenzioni. Il regista al<br />
centro regge la Fusion 3-D<br />
Camera System.<br />
FUSION 3-D CAMERA SYSTEM.<br />
Il regista di Avatar con la sua Fusion<br />
3-D Camera System con due<br />
obiettivi separati che simulano il<br />
comportamento del sistema visivo<br />
umano.<br />
Sistema Fusion Camera è un sistema<br />
di cinepresa digitale sviluppata da<br />
James Cameron e Vince Pace . È stato<br />
sviluppato come un modo per sparare<br />
funzioni stereoscopiche in 3D.<br />
67
«Cameron è effetti speciali.<br />
Cameron è una fotografia<br />
spettacolare.<br />
Cameron è l’impiego di mezzi<br />
grandissimi.<br />
Cameron è anche un lungo film.<br />
Cameron è cura maniacale per i<br />
particolari, ma anche una colonna<br />
sonora efficacissima»<br />
Avatar - STAFF Cameron<br />
68
PERFORMANCE<br />
CAPTURE<br />
69
?<br />
SEQUEL<br />
Dopo lo straordinario<br />
successo di Avatar, il<br />
regista James Cameron<br />
ha annunciato la<br />
realizzazione di ben due<br />
sequel del suo film.<br />
5.4 NATURALEZZA DEI VOLTI<br />
Per quanto riguarda le<br />
espressioni facciali dei<br />
personaggi è stata adottata<br />
una nuova tecnica: tutti gli<br />
attori sono equipaggiati con<br />
un braccio rigido attaccato al<br />
loro corpo, sulla cui estremità<br />
è montata una telecamera<br />
che riprende i movimenti e le<br />
espressioni del viso.<br />
Le fasi di ripresa vera e propria<br />
sono due:<br />
inizialmente vengono catturati<br />
i movimenti degli attori, sul cui<br />
corpo sono stati posizionati<br />
dei led che emanano una luce<br />
infrarossa che viene registrata<br />
da alcune telecamere poste in<br />
specifici punti del magazzino.<br />
I dati aggregati di queste<br />
telecamere restituiranno<br />
con precisione il movimento<br />
tridimensionale. I led sono<br />
applicati sul corpo degli attori e<br />
anche sui loro volti.<br />
Il sistema, come detto, opera<br />
in tempo reale, facendo in<br />
modo che Cameron possa<br />
vedere immediatamente il<br />
risultato delle riprese e, qualora<br />
fosse necessario o ne avesse il<br />
desiderio, apportare modifiche<br />
e correzioni o rigirare l’intera<br />
scena.<br />
Quello che Cameron vede è<br />
un framework digitale con dei<br />
marcatori che gli permettono di<br />
capire la posizione degli attori<br />
all’ interno della scena.<br />
Uno degli strumenti più potenti<br />
che la tecnologia gli mette a<br />
disposizione è di modificare la<br />
posizione dei marcatori posti<br />
sui volti e di generare in questo<br />
modo in maniera dinamica tipi di<br />
espressione che nella realtà non<br />
sono stati eseguiti dagli attori.<br />
Ma quest’ ultima possibilità<br />
non è mai stata esercitata da<br />
Cameron, perchè non ha voluto<br />
perdere la naturalezza della<br />
recitazione degli attori che è<br />
proprio lo scopo per cui viene<br />
utilizzato il sistema di <strong>Motion</strong> e<br />
Performance <strong>Capture</strong>.<br />
70
«Il modo in cui abbiamo<br />
sviluppato la performance<br />
capture lavorando ad Avatar<br />
dipende dalla nostra virtual<br />
camera che mi permette di<br />
tenere in mano una telecamera<br />
in tempo reale, in realtà è un<br />
monitor, e puntarla verso gli<br />
attori, così da poterli vedere<br />
come se fossero i loro Avatar.<br />
È straordinaria questa capacità<br />
di far apparire velocemente<br />
scene, immagini e bellissimi<br />
paesaggi di fantasia… Quando<br />
ricorri alla performance capture,<br />
da un punto di vista creativo<br />
è scoraggiante. È difficile<br />
immaginarsi come sarà la scena.<br />
Ma se puoi vederla, se puoi<br />
avere un’immagine virtuale di<br />
come sarà, allora è fatta»<br />
James Cameron<br />
71
«Quello che stiamo cercando di eliminare sono le cinque ore di trucco, che è il modo in cui venivano<br />
creati personaggi quali gli alieni, i lupi mannari, le streghe, i demoni e così via.<br />
Ora è possibile essere chiunque o qualunque cosa si voglia, a qualunque età, si può perfino cambiare<br />
sesso, senza le lungaggini e il fastidio di un trucco complicato»<br />
James Cameron<br />
72
5.5 REALTÀ<br />
SENZA TRUCCO<br />
A James Cameron non<br />
interessava usare il trucco per<br />
creare la sua specie aliena.<br />
Gli alieni umanoidi sono stati<br />
interpretati per anni dagli attori<br />
grazie al trucco, fin dai tempi<br />
dei film a basso costo degli<br />
anni ’50 e, nei successivi quattro<br />
decenni, negli spin-off di “Star<br />
Trek”, nei film e programmi TV<br />
di fantascienza. Ad oggi, sono<br />
praticamente stati studiati e<br />
sperimentati tutti i metodi per<br />
applicare gomma sui volti degli<br />
attori, senza trascurare il fatto<br />
che, in sé, la tecnica pone dei<br />
limiti. La grandezza e la distanza<br />
tra gli occhi non può essere<br />
cambiata. Le proporzioni del<br />
corpo non possono essere<br />
modificate, né può esserlo nel<br />
complesso la dimensione del<br />
personaggio. Da ultimo, il trucco<br />
fino ad oggi utilizzato limita l’<br />
interpretazione<br />
dell’attore, perché frappone una<br />
barriera tra lui e la macchina da<br />
presa.<br />
Con il processo di “performance<br />
capture” tutti questi limiti<br />
vengono superati. Sebbene i<br />
personaggi realizzati per Avatar<br />
con la Computer Grafica (CG)<br />
somiglino agli attori che li<br />
interpretano, le loro proporzioni<br />
sono fondamentalmente<br />
diverse. Gli occhi dei Na’ vi<br />
hanno un diametro doppio<br />
rispetto a quelli umani e sono<br />
più distanziati tra loro. Come<br />
corporatura gli alieni sono più<br />
longilinei degli umani, hanno<br />
il collo più lungo e strutture<br />
muscolari e ossee differenti, ad<br />
esempio le mani hanno solo<br />
quattro dita. Con la CG i Na’<br />
vi e gli avatar possono avere<br />
dimensioni molto maggiori<br />
rispetto agli umani. Mentre<br />
il trucco blu avrebbe reso la<br />
pelle opaca, la CG dona ai<br />
personaggi una pelle traslucida<br />
che si comporta proprio come<br />
quella vera, la cui pigmentazione<br />
superficiale non maschera il<br />
bagliore sottostante del sangue,<br />
come ad esempio quando la<br />
forte luce del sole colpisce la<br />
parte posteriore delle orecchie.<br />
Tutte queste sfumature si<br />
mescolano permettendo di<br />
ottenere delle creature che<br />
sembrano vive.<br />
73
5.6 EFFETTO “DEAD EYE”<br />
Come già accennato nei<br />
paragrafi precedenti, Cameron<br />
era da tempo in cerca di<br />
un modo per trasportare la<br />
creazione di figure aliene nel<br />
XXI secolo. Nel 1995 ha assistito<br />
ai rapidi progressi compiuti<br />
dagli esperti CG, Cameron<br />
ha capito che le tecnologie<br />
necessarie per avere il<br />
fotorealismo a cui ambiva<br />
erano ancora lontane, quindi<br />
ha accantonato il progetto.<br />
Quando il regista lo ha ripreso<br />
messo a punto un nuovo sistema<br />
di performance capture delle<br />
espressioni del viso basato sulle<br />
immagini, usando un dispositivo<br />
da far indossare agli attori sulla<br />
testa, munito di una piccola<br />
telecamera, che ha permesso di<br />
dalla CG nella realizzazione<br />
di creature e ha pensato che<br />
il progetto dei suoi sogni,<br />
ambientato in un altro mondo,<br />
avrebbe forse potuto vedere la<br />
luce. Avendo già<br />
creato alcuni personaggi<br />
che possono considerarsi<br />
delle pietre miliari della<br />
CG in “Abyss” (The Abyss)<br />
e “Terminator 2: Il giorno<br />
del giudizio” (Terminator 2:<br />
Judgment Day), Cameron voleva<br />
spingere l’ arte della CG verso<br />
nuovi traguardi e così ha scritto il<br />
visivamente ambizioso Avatar.<br />
Ma quando le sue idee sono<br />
state analizzate e poi bocciate<br />
in mano nel 2005, sembrava<br />
che le tecnologie richieste<br />
fossero a portata di mano. All’<br />
epoca, c’ era ancora qualche<br />
perplessità riguardo al fatto<br />
che i personaggi potessero<br />
apparire totalmente reali,<br />
perché avrebbero sofferto dello<br />
sgradevole effetto “Dead eye”,<br />
cioè la mancanza di luminosità<br />
osservata in alcuni dei primi<br />
film realizzati con la tecnica<br />
del performance capture. Il<br />
team di Cameron ha provato<br />
ad andare oltre e migliorare<br />
questi primi tentativi, in modo<br />
da assicurare la totale realtà<br />
dei personaggi. Per fare ciò, ha<br />
5.7<br />
ANIMAZIONE<br />
Ci sono volute competenze<br />
eccezionali nel campo dell’<br />
animazione per assicurare che<br />
i personaggi CG recitassero<br />
esattamente come gli attori.<br />
Ma, al tempo stesso, le<br />
interpretazioni non sono<br />
state alterate, né abbellite<br />
né esagerate. Gli animatori<br />
si sono impegnati a<br />
rappresentare in modo<br />
74
autentico il lavoro degli attori,<br />
senza nulla aggiungere e nulla<br />
togliere a quanto Sam, Zoë o<br />
Sigourney avevano fatto nel<br />
“Volume”. Ovviamente, gli<br />
animatori hanno apportato<br />
qualche modifica, ad esempio<br />
nel movimento della coda o<br />
delle orecchie, laddove gli attori<br />
non potevano compiere queste<br />
azioni. Anche in questo caso,<br />
comunque, l’ obiettivo era di<br />
essere coerenti con le emozioni<br />
manifestate dagli attori durante<br />
le riprese originali. Così, quando<br />
Neytiri sferza l’ aria con la coda<br />
o abbassa le orecchie per la<br />
rabbia, gli animatori si limitano<br />
ad accentuare l’espressione<br />
collerica manifestata da Zoë<br />
Saldana durante la ripresa della<br />
scena.<br />
75
catturare anche le sfumature<br />
più impercettibili dei loro volti.<br />
Invece di ricorrere alla tecnica<br />
della motion capture, basata<br />
su marcatori riflettenti sul volto<br />
per cogliere le espressioni, gli<br />
attori hanno indossato una sorta<br />
di casco a cui era collegata una<br />
piccola telecamera. Questa<br />
era rivolta verso il viso degli<br />
attori, in modo da registrare le<br />
loro espressioni e i movimenti<br />
?<br />
Avatar è arrivato per la<br />
prima volta nelle sale<br />
italiane il 15 Gennaio 2010<br />
(20th Century Fox); la data<br />
di uscita originale è: 17<br />
Dicembre 2009 (UK).<br />
Le riprese del film si sono<br />
svolte nel periodo 16 Aprile<br />
2007 - 01 Dicembre 2007 in<br />
Nuova Zelanda e USA.<br />
Di seguito alcune delle<br />
location in cui è stato girato<br />
il film:<br />
Stone Street Studios, Stone<br />
Street, Miramar, Wellington,<br />
Nuova Zelanda Wellington,<br />
Nuova Zelanda<br />
RIPRESE E<br />
LOCATION<br />
Hamakua Coast, Hawaii,<br />
USA Hughes Aircraft - 909<br />
N. Sepulveda Boulevard, El<br />
Segundo, California, USA<br />
Kaua'i, Hawaii, USA<br />
Los Angeles, California,<br />
USA O'ahu, Hawaii, USA<br />
Playa Vista, California, USA<br />
dei muscoli con un livello di<br />
dettaglio mai ottenuto fino<br />
ad allora ma, soprattutto, ha<br />
registrato il movimento degli<br />
occhi, cosa che non era mai<br />
stata fatta con i sistemi utilizzati<br />
in precedenza.<br />
Questo dispositivo a casco<br />
ha permesso di catturare le<br />
espressioni del viso con una<br />
chiarezza e una precisione senza<br />
precedenti.<br />
Inoltre, non utilizzando le<br />
macchine da presa del motion<br />
capture, queste ultime sono<br />
state usate per catturare i<br />
movimenti del corpo, quindi<br />
sono state posizionate a una<br />
maggiore distanza dagli attori.<br />
In questo modo, il team di<br />
Avatar ha potuto disporre nel<br />
<strong>Capture</strong> Environment (ambiente<br />
di cattura) di uno spazio (detto<br />
“Volume” - come già citato<br />
prima), molto più ampio di<br />
quanto non si sia mai avuto in<br />
precedenza. Con un capture<br />
environment sei volte più grande<br />
rispetto al passato, il “Volume”<br />
di Avatar è stato usato per<br />
cogliere dal vivo il movimento di<br />
cavalli al galoppo, per sequenze<br />
acrobatiche piuttosto complesse<br />
e perfino per i combattimenti<br />
tra apparecchi aerei e creature<br />
volanti. Quindi, la rivoluzionaria<br />
tecnica adoperata è stata la<br />
chiave non solo per ottenere<br />
le sfumature più sottili delle<br />
emozioni espresse dai<br />
personaggi, ma anche per<br />
amplificare la grandiosità dello<br />
spettacolo cinematografico.<br />
76
«Ho ringraziato Jim.<br />
Neytiri era sexy, bella e longilinea,<br />
ma l’interprete ero solo e soltanto<br />
io!»<br />
Zoe Saldana<br />
77
78
Avatar<br />
79
80
Fotogallery - Avatar<br />
81
82
MOCAP TEATRALE<br />
Le sperimentazioni della motion capture live<br />
realizzate nel teatro sono rarissime. L’Ubù<br />
incatenato come esempio in ambito teatrale per<br />
dimostrare le tante possibilità della motion capture,<br />
capace di accostarsi, attraverso vari e differenti<br />
metodi, a mondi molto diversi fra loro.<br />
83
Un teatro digitale composto da cyberattori e supermarionette.<br />
L’attore domina la tecnologia e si fa dominare creando un’interazione tra uomo e macchina<br />
senza precedenti.<br />
6.1 RE UBÙ INCATENATO<br />
Sono rarissimi gli esempi di utilizzo della tecnologia <strong>Motion</strong> <strong>Capture</strong> in una<br />
rappresentazione teatrale dal vivo, essendo questa una modalità più frequentata dalla<br />
coreografia digitale o dalla cinematografia degli “effetti speciali”.<br />
Per sperimentare le<br />
potenzialità espressive<br />
del corpo in-macchinato<br />
(armatura esoscheletrica o<br />
meccanico-protesica di cattura<br />
del movimento) associato ai<br />
data glove , occorreva un artista<br />
davvero eclettico come Roberto<br />
Latini, riconosciuto talento del<br />
nuovo teatro di ricerca italiano.<br />
Latini crea ed interpreta solo<br />
in scena un insolito Ubu<br />
incatenato, continuazione<br />
o “contropartita” del più<br />
famoso Ubu re del dissacrante<br />
e pungente pre-surrealista (o<br />
protodadaista come lo definisce<br />
lo storico Henri Béhar) Alfred<br />
Jarry.<br />
Messo in scena nel 1937 (ovvero<br />
47 anni dopo la memorabile<br />
rappresentazione dell’ Ubu Roi<br />
al Theatre de louvre di Parigi)<br />
con le scenografie di Max Ernst,<br />
questo testo racconta con un<br />
humour moderno, le vicende<br />
di Re Ubu che dopo essere<br />
stato Re di Polonia si accinge<br />
a liberarsi dall’alienazione<br />
collettiva diventando<br />
volontariamente schiavo, ovvero<br />
il più libero tra gli uomini. Un<br />
tema questo, della mitizzazione<br />
della schiavitù che si presta a<br />
interessanti attualizzazioni e<br />
sfumature interpretative, come<br />
ricorda lo stesso Latini:<br />
«Padre Ubu diventa un esempio<br />
per molti, che da liberi cercano<br />
di ferrarsi a una qualche catena.<br />
Libertà e Schiavitù sono dentro<br />
un solo concetto».<br />
84
Roberto Latini è l’attore<br />
teatrale più eclettico<br />
del panorama italiano in<br />
questo momento. In figura<br />
(a sinistra) lo si vede in<br />
azione sul palco, mentre<br />
indossa una speciale tuta<br />
<strong>Motion</strong> <strong>Capture</strong>.<br />
(In basso) L’attore, in<br />
una delle scene più<br />
indimenticabili della<br />
rappresentazione di Re ubù<br />
Incatenato.<br />
85
6.2 COMPOSIZIONE DELLA SCENA<br />
Una scenografia molto<br />
meccanica (alla Ernst) a due<br />
piani, ingombra di vecchi<br />
elettrodomestici, di ferraglia,<br />
di binari, di cessi, che ricorda<br />
l’assemblaggio artistico secondo<br />
il metodo della casualità,<br />
tipicamente surrealista, fa da<br />
sottofondo a questa piéce per<br />
attore e macchine.<br />
La scena è composta da<br />
tre pannelli su cui vengono<br />
proiettati ambienti 3D,<br />
immagini da una webcam, video<br />
pre registrati e personaggi<br />
computer-animated gestiti Real<br />
Time direttamente da Latini<br />
(tra cui un manichino per il<br />
crash test) grazie alla tuta per<br />
<strong>Motion</strong> <strong>Capture</strong> con la quale<br />
Re Ubu con il suo asservimento<br />
autoimposto per ottenere la<br />
vera libertà, diventa incatenato<br />
alla macchina tecnologica; altri<br />
personaggi sono poi creati<br />
con la grafica computerizzata e<br />
mossi dal guanto virtuale o con<br />
alterazioni dei toni di voce.<br />
«È un paradosso che ha determinato le<br />
modalità di ricerca.<br />
Forse per la cara riflessione sull’attore, sullo<br />
stare in scena, sull’essere autori di sé, e<br />
forse anche per Jarry rispetto a Ubu, per<br />
il loro grado di relazione, appartenenza e<br />
dipendenza, la questione più interessante ci è<br />
sembrata quella dell’identità, dal punto di<br />
86
?<br />
L’ATTORE<br />
MECCANICO<br />
vista dei ruoli abbiamo cercato un modo<br />
per essere allo stesso tempo Ubu e Jarry,<br />
quindi non solo la marionetta, e la mano che<br />
la anima, non solo il burattino e colui che<br />
tira i fili, ma anche l’autore di fronte a quelle<br />
forme di se stesso che diventano le proprie<br />
opere».<br />
Roberto Latini<br />
Una prova davvero superba<br />
che evidentemente colloca<br />
questo Ubu tra gli esempi più<br />
significativi del teatro nell’era<br />
digitale; un teatro che afferma<br />
la centralità dell’attore, fulcro<br />
vitale dell’esperienza scenica il<br />
cui corpo interfacciato permette<br />
di far funzionare, per contagio<br />
tecnologico, l’intero spettacolo.<br />
Il cyberattore assume i caratteri<br />
della supermarionetta,<br />
dell’uomo-architettura ambulante<br />
e dell’attore biomeccanico:<br />
«il corpo è la macchina e l’attore<br />
il meccanico»<br />
V. E. Mejerchol’d 1<br />
1 Regista teatrale russo (1874 - 1940)<br />
87
6.3 REALAZIONE TRA SPAZIO DIGITALE E ATTORE<br />
La bellezza dello spazio<br />
teatrale è proprio quello di<br />
non avere limitazioni su cosa<br />
e come rappresentare. La<br />
relazione vivente che si instaura<br />
fra lo spazio digitale e l’attore<br />
ha un aspetto particolare, è<br />
molto diversa rispetto quella<br />
che si può realizzare in una<br />
installazione fruita direttamente<br />
dallo spettatore.<br />
Con l’installazione bisogna<br />
per forza limitare e rendere<br />
abbastanza intuitive le<br />
modalità interattive in modo<br />
che l’utente sia veramente in<br />
grado di relazionarsi con lo<br />
spazio e quindi in grado di fare<br />
una esperienza costruttiva. In<br />
teatro invece lavorando con gli<br />
attori, si possono costruire<br />
sistemi relazionali molto<br />
88<br />
più complessi, a volte se si<br />
vuole anche più difficili da<br />
gestire, dove però si possono<br />
veramente sperimentare<br />
forme interattive molto<br />
evolute. Quando lo spettacolo<br />
va in scena l’attore conosce<br />
alla perfezione lo spazio che<br />
lo circonda, è effettivamente<br />
“come un abito di scena che<br />
gli è stato cucito addosso”<br />
(Roberto Latini), in cui si deve<br />
sentire a suo agio e di cui deve<br />
avere la piena padronanza. E’<br />
quindi qualcosa di più di una<br />
scenografia tradizionale e non<br />
può essere costruita all’ultimo<br />
momento.<br />
Per fare questo è necessario che<br />
l’ambiente digitale all’interno<br />
del quale dovrà muoversi<br />
l’attore, venga progettato in<br />
un processo organico fin dalle<br />
prime fasi progettuali dello<br />
spettacolo stesso; sono in molti<br />
a sostenere che già la scrittura<br />
del testo, quando si può lavorare<br />
su testi originali, ne dovrebbe<br />
tenere in considerazione.<br />
Bisogna che l’attenzione sia<br />
sempre concentrata sulle<br />
necessità espressive dell’attore<br />
in modo da far diventare<br />
l’ambiente virtuale una sorta di<br />
estensione del suo corpo e della<br />
sua gestualità.<br />
Prima quindi si progetta<br />
l’aspetto interattivo che<br />
l’attore deve avere con la<br />
scena, dopodiché si scelgono<br />
le tecnologie adatte e si inizia<br />
la fase di sperimentazione con<br />
l’attore.
6.4 MOCAP PER UN TEATRO SPERIMENTALE<br />
La presenza nelle sale<br />
cinematografiche di produzioni<br />
in animazione digitale (dal<br />
cartoon 3D ai film pieni di<br />
effetti visuali) sempre più<br />
numerose dimostra quanto<br />
questa tecnologia non abbia<br />
limiti espressivi. Nel cinema il<br />
motion capture naturalmente<br />
viene utilizzato per animare<br />
creature fantastiche, personaggi<br />
digitali in un rapporto diretto<br />
attore/rappresentazione che<br />
mostra solo la rappresentazione<br />
nascondendo la fase di<br />
costruzione. In teatro però<br />
l’attore è in scena,<br />
visibile sul palco, perno<br />
centrale della narrazione<br />
e il suo rapporto con la<br />
rappresentazione digitale<br />
cambia completamente<br />
statuto. Naturalmente non è<br />
questa una tecnologia che possa<br />
essere usata indifferentemente<br />
per qualsiasi spettacolo di<br />
prosa ma al contrario non<br />
è nemmeno vero che sia<br />
utilizzabile solo per certe<br />
forme di teatro sperimentale.<br />
Risulta fondamentale un lavoro<br />
sinergico sia con il testo che con<br />
l’attore, è necessario che il testo<br />
sia adatto ma anche che l’attore<br />
sia in grado di mettersi in gioco<br />
studiando e lavorando su nuove<br />
tecniche espressive che partono<br />
dal suo corpo e si amplificano<br />
nello spazio rappresentativo che<br />
lo circonda.<br />
Il rischio se non si ha una<br />
approfondita conoscenza della<br />
tecnologia è quello di fare<br />
un teatrino delle marionette,<br />
che può risultare non così<br />
interessante. Se si usano<br />
queste tecnologie per svolgere<br />
i compiti per cui sono state<br />
progettate, ed è quindi facile<br />
usarle, ci si limita a costruire ed<br />
animare dei personaggi digitali.<br />
La macchina scenica digitale<br />
diventa importante non<br />
tanto per l’oggetto che è o<br />
che rappresenta ma come<br />
infrastruttura dinamica<br />
strettamente legata alla<br />
narrazione.<br />
«La ricerca e la sperimentazione diventa interessante invece quando si usano queste<br />
tecnologie in modo improprio, si sottomettono agli aspetti narrativi e rappresentativi, se<br />
ne stravolgono le loro funzioni originali o le si fanno diventare linguaggio puro».<br />
Andrea Brogi 1<br />
1 Architetto digitale è attualmente uno dei massimi esperti italiani in materia di animazione grafica 3D Real time.<br />
89
6.5 18 INTERPRETAZIONI PER UN SOLO ATTORE<br />
Ubu si incatena<br />
tecnologicamente (sia nel senso<br />
fisico che in quello patafisico),<br />
in un percorso evolutivo tale<br />
da trasformarlo solo alla fine<br />
nella supermarionetta che<br />
lascerà nuda in scena per<br />
prendere ordini solo dalla sua<br />
pancia. In questo percorso<br />
infatti le varie tappe della sua<br />
carriera di schiavo (lustrascarpe,<br />
maggiordomo tuttofare,<br />
prigioniero, vogatore su di una<br />
galera del Solimano) sono messe<br />
in relazione con un evolversi del<br />
suo incatenamento tecnologico<br />
che lo lega alle macchine digitali<br />
in grado di rilevare qualsiasi<br />
aspetto espressivo dell’attore,<br />
al quale vengono attribuiti,<br />
volutamente, diciotto ruoli<br />
differenti tra schiavi e uomini<br />
liberi. Prima la voce ripresa con<br />
un microfono, poi il movimento<br />
delle dita delle mani, poi quello<br />
delle braccia e del busto per<br />
arrivare infine anche alle gambe<br />
e racchiuderlo completamente<br />
all’interno di uno spazio virtuale<br />
che non trascura nessun aspetto<br />
dell’espressione corporea<br />
dell’attore. Ed ancora giocando<br />
sul ruolo avuto dagli schiavi<br />
e dagli uomini liberi, che<br />
disobbediscono di default a tutti<br />
gli ordini che ricevono (altrimenti<br />
che uomini liberi sarebbero!)<br />
così fedelmente tanto da<br />
costringersi a ordinarsi cosa non<br />
vogliono fare per poter fare il<br />
contrario, ci siamo immaginati<br />
due forme rappresentative<br />
diverse: gli uomini liberi sono<br />
sempre raffigurati tramite delle<br />
riprese video live o preregistrate<br />
che mettono in evidenza gli<br />
aspetti più assurdi della figura<br />
umana (dalla la pianta del<br />
piede alla pancia bucata che<br />
gira vorticosamente come<br />
il cestello di una lavatrice)<br />
mentre gli schiavi sono sempre<br />
e soltanto rappresentazioni<br />
virtuali che hanno la loro stessa<br />
essenza all’interno dello spazio<br />
cibernetico e prendono vita<br />
tramite una complessa rete<br />
di associazioni che le lega<br />
strettamente al movimento del<br />
corpo dell’attore.<br />
90
6.6 L’ESEMPIO DI DOMINIQUE BULGIN<br />
Una performance alla Fortezza da Basso di Firenze per il festival della creatività<br />
“Nuovo e Utile”. Dominique Bulgin (ballerina francese) si esibisce in un ballo del tutto<br />
innovativo.<br />
Dominique Bulgin indossa la<br />
parte superiore dell’esoscheletro<br />
usato per fare motion capture.<br />
I suoi movimenti possono così<br />
essere catturati ed elaborati<br />
dai computer in modo tale che<br />
i suoi armoniosi movimenti, da<br />
ballerina professionista, possano<br />
generare l’ambiente sonoro<br />
all’interno del quale lei stessa<br />
ballava.<br />
Per la prima volta l’ambiente che<br />
viene generato dal movimento<br />
del corpo non era visuale,<br />
luminoso, fatto di pixel (come in<br />
tante altre sperimentazioni) ma<br />
costruito da onde sonore che si<br />
propagano liberamente nell’aria.<br />
La bellezza di questo spazio<br />
sonoro veniva inoltre esaltato<br />
dalla sua tridimensionalità;<br />
usando infatti un apposito<br />
sistema hardware/software di<br />
nome ImEasy le fonti sonore<br />
(sia l’environment di base che<br />
gli interventi di Dominique)<br />
possono essere posizionate<br />
esattamente in punti precisi<br />
dello spazio e manipolate non<br />
solo come onde sonore ma<br />
anche come movimento spaziale<br />
percepibile, un movimento che<br />
è la stessa ballerina a gestire<br />
quasi inconsapevolmente.<br />
I suoni che la ballerina genera<br />
e manipola con il movimento<br />
delle braccia stanno di fronte<br />
a lei, a circa 5 o 6 metri e<br />
seguono esattamente il suo<br />
corpo quando questo volteggia<br />
nell’aria. Lo spettatore si<br />
trova cosi all’interno di uno<br />
spazio virtuale dove ballerina<br />
ed ambiente sonoro sono un<br />
tutt’uno dimenticandosi se sia la<br />
ballerina a guidare o viceversa<br />
sia l’ambiente a farla muovere.<br />
91
CONCLUSIONI<br />
Il <strong>Motion</strong> <strong>Capture</strong>, forse, rappresenta una delle innovazioni più<br />
importanti in ambito videoludico e non solo. Molto del realismo<br />
delle animazioni odierne, è dovuto all'utilizzo accurato ed efficace<br />
di questa tecnica che, se sfruttata a dovere, regala ad un film o un<br />
gioco quel qualcosa in più rispetto agli altri che non lo utilizzano.<br />
Nonostante i limiti logistici ed economici, sono sempre più le<br />
case di produzioni che si affidano al mocap per rendere realistici<br />
i movimenti dei propri modelli virtuali, in virtù del sorprendente<br />
risultato in termini di fluidità ed armonia ottenuti. La nuova<br />
frontiera, inoltre, è in grado di abbassare drasticamente i costi di<br />
produzione e renderne ancora più attuabile la diffusione su larga<br />
scala a tutto beneficio della simulazione dei movimenti.<br />
E' indubbio, dunque, che il futuro delle animazioni e della ricerca<br />
del movimento perfetto appaia sempre più rosa.<br />
LIMITI...<br />
Sebbene esistano diverse<br />
tecniche di motion capture<br />
principalmente individuate<br />
dalla tecnologia di sensori<br />
e telecamere utilizzate, il<br />
sistema attuale presenta non<br />
pochi limiti. Il primo di tutti<br />
è ovviamente quello di uno<br />
studio dedicato, necessario per<br />
le sessioni di capture per gli<br />
attori. Questo oltre a richiedere<br />
spazio e costi aggiuntivi, limita<br />
l’azione eseguibile a poche<br />
operazioni semplici facilmente<br />
simulabili dal vivo. Contesti<br />
troppo complessi non possono<br />
essere rappresentati poiché<br />
non si hanno ancora le strutture<br />
necessarie flessibili quanto<br />
basta.<br />
...e SVILUPPI<br />
Invenzione recente di un gruppo<br />
formato da Swiss Federal<br />
institute of Technology, MIT<br />
e Mitsubishi Electric Research<br />
Laboratories, è proprio quella<br />
di un nuovo sistema di motion<br />
capture flessibile, che non<br />
richiede attrezzature o spazi<br />
eccessivi. Il sistema è ancora<br />
in fase di sperimentazione,<br />
tuttavia i prototipi rilasciati<br />
hanno già dimostrato di<br />
poter inaugurare una nuova<br />
era per questa affascinante<br />
tecnologia. Per abbattere il<br />
costo si è lavorato soprattutto<br />
sugli elementi di base, ovvero<br />
sullo studio apposito e le<br />
telecamere specializzate.<br />
Sono state, infatti, sostituite<br />
entrambe grazie a particolari<br />
92
sensori dotati di giroscopi<br />
ed accelerometri, in grado di<br />
fornire autonomamente i dati<br />
relativi a coordinate spaziali<br />
ed angolari, oltre che velocità<br />
di spostamento. Per catturare<br />
questi dati, ogni sensore è<br />
dotato di un emettitore di<br />
ultrasuoni necessario per<br />
captare la distanza dei sensori<br />
dal resto del corpo. I suoni<br />
sono catturati da un particolare<br />
microfono posto vicino al plesso<br />
solare ed il tutto è gestito in<br />
tempo reale da un sistema<br />
portatile applicato a mò di zaino<br />
dietro la schiena.<br />
Riassumendo : diminuisce<br />
il numero di sensori (posti<br />
soltanto sugli arti), i dati relativi<br />
ad angolazione, velocità di<br />
movimento sono dati dagli<br />
stessi sensori quindi non c'è<br />
necessità di ulteriori elementi<br />
esterni come le telecamere,<br />
ed infine la precisione nella<br />
realizzazione dello scheletro<br />
digitale risulta più accurata<br />
rispetto al passato, grazie<br />
alla distanza percepita dai<br />
sensori tramite ultrasuoni. Con<br />
questo sistema i costi maggiori<br />
relativi all’applicazione del<br />
motion capture sono stati<br />
abbattuti come pure il range<br />
di applicabilità. Essendo<br />
un dispositivo portatile<br />
ed autonomo, lo si potrà<br />
utilizzare in tutte le situazioni<br />
immaginabili, anche quelle più<br />
complesse. Il futuro del motion<br />
capture è fortemente legato<br />
alla diffusione di questa ed altre<br />
tecnologie simili.<br />
93
BIBLIOGRAFIA<br />
Andriacchi, E. J. Alexander, Studies of human locomotion: past, present and<br />
future, 2000.<br />
Benedetti, A. Cappozzo. Anatomical Landmark Definition and Identification,<br />
1994.<br />
Borghese, P. Cerveri, A fast method for calibrating video-based motion<br />
analysers using only a rigid bar, 2001.<br />
J. Bray, Markerless Based Human <strong>Motion</strong> <strong>Capture</strong>: A Survey. Vision and VR<br />
Group, Brunel University, 2001.<br />
Cappello, P. F. La Palombara, Optimization and smoothing techniques in<br />
movement analysis, 1996.<br />
A. Cappozzo, A. Cappello, Surface-marker cluster design criteria for 3-D<br />
bone movement reconstruction, 1997.<br />
A. Cappozzo, U. Della Croce, Stereometric system accuracy tests:<br />
Measurement and data processing methodology in clinical movement analysis<br />
preliminary, 1993.<br />
U. Della Croce, A. Leardini, Human movement analysis using<br />
stereophotogrammetry and assessment of anatomical landmark<br />
misplacement and its effects on joint kinematics, 2005.<br />
L., L., Morando Morandini, IlMorandini - Dizionario del Cinema, Bologna,<br />
Zanichelli Editore, 2013.<br />
94
M. Donati, 3-D Reconstruction of the Human Skeleton during <strong>Motion</strong>, 2005.<br />
G. Ferrigno, N. A. Borghese, Pattern-recognition in 3-D automatic<br />
human motion analysis, 1990.<br />
H. Furnée, Real-time motion capture systems. Three-dimensional analysis of<br />
human locomotion. New York, Wiley & Sons, 1997.<br />
J.O. Greaves, Instrumentation in video-based three-dimensional systems.<br />
Three-dimensional analysis of human movement, P. Allard e J. Blanchi editors,<br />
1995.<br />
D. Karlsson, A. Lundberg, Accuracy estimation of kinematic data derived from<br />
bone anchored external markers, Stockholm, 1994.<br />
A. Menache, Understamding <strong>Motion</strong> <strong>Capture</strong> for Computer Animation and<br />
Video Games. Morgan Kaufmann, 2000.<br />
Edward Muybridge, The Human Figure in <strong>Motion</strong>. Douer Publications, 1955.<br />
J.C Sabel, Camera calibration with a single marker, Stockholm, 1994.<br />
W. P. Stevens, Reconstruction of three-dimensional anatomical landmark<br />
coordinates using video-based stereophotogrammetry, 1997.<br />
Van Sint Jan, I. Hilal, Data representation for joint kinematics simulation of the<br />
lower limb within an educational context, 2003.<br />
95
SITOGRAFIA<br />
BESTMOVIE. IT<br />
CINEBLOG. IT<br />
CINEBAZAR. IT<br />
DIGICULT. IT<br />
EVOLUCE. COM<br />
GPEMMOCAP. COM<br />
IPISOFT. COM<br />
KEYSOUL. IT<br />
LACOMUNICAZIONE. IT<br />
MOTION.CAPTURE. FR<br />
NATURALPOINT. COM<br />
NETZSPANNING. ORG<br />
NEXT. IT<br />
PREZI. COM<br />
SPAZIOGAMES. IT<br />
TECNOLOGICAMENTE.<br />
INFO<br />
VENUS. IT<br />
XLAB. IT<br />
WIRED. IT<br />
96
RIVISTE<br />
ARC DESIGN<br />
ARCHITECTURE<br />
ART & ADVERTISING<br />
COMPUTER ARTS<br />
COMPUTER DESIGN<br />
CONNECT<br />
DIGIT<br />
DIGITAL<br />
DIGITAL CREATIVE<br />
ELETTRONICA IN<br />
LINK<br />
MAXIMUM PC<br />
MY MOBILE<br />
ONVIEW<br />
PC MAGAZINE<br />
PC WORLD<br />
PHOTOGRAPHER<br />
PRINT<br />
TECH SMART<br />
TECHNOVOIZE<br />
THE BLOGGER BOOK<br />
WEB DESIGN<br />
WINDOWS<br />
WIRED<br />
97
98
99
In un futuro non lontano, mouse<br />
e tastiere non serviranno più:<br />
si potrà lavorare in modalità<br />
multischermo, trasferendo<br />
immagini con semplici gesti delle<br />
mani.<br />
Il futuro alla Minority Report è<br />
sempre più vicino.<br />
John Underkoffler<br />
100
101
102
Si ringraziano<br />
il Professore, nonché relatore, Michele Cafarelli per la passione e<br />
la disponibilità con le quali ci ha accompagnato e seguito durante<br />
l’intero percorso accademico<br />
le nostre care Famiglie che ci hanno supportato, sopportato,<br />
finanziato e sostenuto moralmente in ogni momento<br />
i nostri Amici con i quali abbiamo condiviso idee, collaborazioni e<br />
che hanno sviluppato insieme a noi un percorso di crescita umana e<br />
professionale<br />
103
Marco<br />
Eccomi qui, dopo 3 anni a<br />
scrivere i ringraziamenti.<br />
La sensazione che si prova<br />
è piacevole, perchè questo<br />
momento segna la fine di un<br />
percorso e chissà, l’inizio di un<br />
qualcosa di nuovo, di stimolante.<br />
In queste righe colgo<br />
l’occasione di ringraziare tutte le<br />
persone che mi son state vicine<br />
nel raggiungimento di questo<br />
traguardo nella speranza di non<br />
dimenticar nessuno.<br />
Ringrazio i miei “Colleghi di<br />
Avventura”, Eugenio C per la<br />
sua innata positività, amicizia e<br />
per la sua capacità produttiva in<br />
team. Da notare che nel Design<br />
è bravino, mala musica è il suo<br />
mondo,<br />
CANTAUTORE NATO<br />
Filippo F uno “Statup Designer”,<br />
ha sempre 10 progetti differenti<br />
in mente che non sempre<br />
vengono realizzati, ma quando<br />
accade che successone. SCUSA<br />
U TRAM A MURO<br />
Marta B e Martina R per la loro<br />
presenza, amiche colleghe<br />
e non solo, compagne vere<br />
di avventure, grazie di tutto<br />
SBIELLATE<br />
Ultimi in elenco non per<br />
importanza anzi tutto il<br />
contrario, ringrazio e saluto<br />
i colleghi di Believe®, un<br />
agenzia visuale torinese nel<br />
quale sono cresciuto, col quale<br />
sono entrato nel mondo del<br />
lavoro cominciando a vedere<br />
il mondo con gli occhi di un<br />
professionista.<br />
PierPaolo V grazie per l’immenso<br />
esempio di vita, di capo e di<br />
amico che sei stato per me,<br />
Believe for President<br />
Filippo M un amico e collega<br />
che tutti vorrebbero avere,<br />
ha una soluzione per tutto,<br />
indistruttibile<br />
Nicoletta B.un’amica e<br />
collega, la piu folle del<br />
gruppo, genovese ma torinese<br />
di adozione, alternativa e<br />
intelligente.<br />
Believe thank you for everything<br />
E non poteva mancare il mio compango di tesi Federico, un<br />
collega, un coinquilino, un conquistatore. Conserviamo ricordi di<br />
situazioni stupende, bei momenti passati che ricorderemo tutta la<br />
vita, conquiste e traguardi incredibili, che mai e poi mai mi sarei<br />
aspettato di vivere così bene. Abbiamo sconfinato sino a Barcellona,<br />
conquistata pure lei, ora ci manca solo più la tesi.<br />
CONQUISTATORE<br />
104
Federico<br />
Un percorso accademico è<br />
giunto al capolinea.<br />
Sorge una leggera nostalgia,<br />
suscitata da ricordi ed emozioni<br />
di questi intensissimi anni.<br />
Affiorano alla mente quei tanti<br />
momenti trascorsi in compagnia<br />
di amici formidabili, i quali<br />
hanno partecipato attivamente<br />
e simpaticamente all’evoluzione<br />
di una storia, una grandissima<br />
storia di vita:<br />
Al mitico e famigeratissimo<br />
Carlone, pilastro insostituibile<br />
(1,90 m) di un attacco che,<br />
insieme al sottoscritto, ha<br />
condotto la squadra verso il<br />
successo. Con le sue freddure e<br />
i suoi racconti ha caratterizzato<br />
momenti pazzeschi che<br />
rimangono vivi in quella che<br />
è stata, è e sarà una grande e<br />
gloriosa storia.<br />
JUVENTINO FALLITO<br />
Ai grandissimi e intramontabili<br />
Boucheroniani coinquilini e<br />
compagni di vita che vanno di<br />
certo menzionati per la loro<br />
peculiarissima tendenza al<br />
fancazzismo. I 3 Galli colpiranno<br />
nel segno, sempre.<br />
STREPITOSI<br />
All’incontenibile miglior cugino<br />
tedesco che pur di assistere<br />
alla discussione della tesi ha<br />
affrontato 7 ore di macchina,<br />
è stato plurimultato in svizzera<br />
causa eccesso di velocità;<br />
aveva evidentemente fretta di<br />
vedere il cugino.<br />
PAZZO<br />
Grazie<br />
Un ringraziamento particolare è, rivolto al mio grande amico, collega<br />
e compagno d’avventura Marco, con il quale ho condiviso emozioni<br />
e affrontato argutissime sfide variopinte. A partire da un memorabile<br />
periodo di mobilità erasmus fino alla realizzazione di questo<br />
meraviglioso lavoro di tesi.<br />
INFALLIBILE<br />
105