Foam Making Sense
Thesis project by Matteo Salsi - advisor: Alessio Erioli co-advisor: Umberto Scarcia - Thesis project done @ Università di Bologna - 2018
Thesis project by Matteo Salsi - advisor: Alessio Erioli co-advisor: Umberto Scarcia - Thesis project done @ Università di Bologna - 2018
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Tesi di Laurea in Architettura e Composizione Architettonica
Corso di Ingegneria Edile Architettura
Scuola di Ingegneria e Architettura
Alma Mater Studiorum - Università di Bologna
aa 2017/2018
Relatore: Prof. Alessio Erioli
Corelatore: Umberto Scarcia
Matteo Salsi
1 2
foam making sense
Integration of agent-based logics,
behavioral robotic deposition and material feedback
for multi-performance ridged shells, with a case study
of an open space enhancer
Tesi di Laurea in Architettura e Composizione Architettonica
Corso di Ingegneria Edile Architettura
Scuola di Ingegneria e Architettura
Alma Mater Studiorum - Università di Bologna
aa 2017/2018
Relatore: Prof. Alessio Erioli
Corelatore: Umberto Scarcia
Matteo Salsi
. . . foam
. . . making
. . . sense
.
abstract
.
La seguente tesi di ricerca affronta il progetto
architettonico da un punto di vista multidisciplinare,
integrando biomimetica, informatica,
computer vision e robotica. L’indagine si focalizza
sull’interazione via feedback tra un robot, utilizzato
per la deposizione di materiale, e un algoritmo basato
su sistemi complessi ispirati al mondo biologico.
L’obiettivo è quello di esplorare le potenzialità
morfologiche, costruttive ed espressive generate
dall’influenza reciproca di design computazionale
e comportamento materico reale.
Alla base di questa ricerca vi è l’approfondimento
dei sistemi stigmergici, utilizzati nella programmazione
dell’algoritmo che definisce le traiettorie
eseguite dal robot, e la messa a punto di un
sistema di visione e scansione tridimensionale che
agisce come mezzo di comunicazione tra ambiente
reale e digitale. Lo sviluppo di questi temi ha
portato alla realizzazione di un processo iterativo
di scansione e deposizione che genera un risultato
non determinabile a priori ma che è frutto della
negoziazione tra le intenzioni progettuali, i limiti
fabbricativi, le performance richieste e il comportamento
del materiale. La stigmergia applicata alla
fabbricazione robotica consente, a differenza dei
normali metodi di fabbricazione digitale, di legare
fase di design e costruzione in un unico processo
in cui il robot agisce come estensione fisica diretta
del comportamento dell’agente virtuale.
I risultati ottenuti hanno portato alla realizzazione
di superfici architettoniche in vetroresina
dove il materiale depositato, schiuma poliuretanica,
sviluppa un sistema di nervature che integrano
performance strutturali, funzionali e ornamento.
I mold necessari alla laminazione del fibro-composito
sono stati realizzati per mezzo di superfici
rigate e Robotic Hot-Wire Cutting, tecnica che
consente l’impiego di materiali riciclabili di relativa
economicità (EPS - polistirene espanso) e il taglio
di grandi superfici in tempi brevi.
Infine, è stata studiata l’applicazione architettonica
del sistema con la realizzazione di un
open-space polifunzionale all’interno di un progetto
di riqualificazione urbana attualmente in atto
presso il Parco Innovazione delle Ex-Officine Reggiane
a Reggio Emilia.
introduzione
“I leave it to you to find your own instrument, which is
necessarily an investment for combat”
Marcel Proust citato da Gill Deleuze
Fin dalle sue origini la relazione tra architettura e
computazione è stata oggetto di un acceso dibattito.
Risale al 1964 la First Boston Architectural
Center Conference denominata “Architecture and
the Computer” nella quale architetti, ingegneri e
ricercatori provenienti da varie discipline si trovarono
per confrontarsi sui recenti avanzamenti e sulle
nuove possibilità introdotte dalla computazione in
ambito architettonico.
Le opinioni fin dal principio furono in
contrasto fra chi con entusiasmo intravedeva nei
computer una immediata applicazione all’interno
del processo progettuale e chi ne interpretava
l’avvento come “la fine del ruolo tradizionale
dell’architetto, costretto a passare in secondo piano
nel momento in cui avesse scelto di utilizzare
lo strumento del diavolo, nemico dell’umanesimo,
dell’arte, della diversità e della bellezza.” Alcuni
teorici come Vigler già all’epoca sottolinearono
che l’utilizzo del computer come una semplice
macchina da disegno, rapida ma fine a sé stessa,
non fosse sostanzialmente il miglior uso possibile.
Christopher Alexander nel 1965 argomentò che
“un computer è essenzialmente un esercito di
impiegati, equipaggiati di libri, carta e penna, tutti
stupidi e privi di iniziativa, ma abili nel seguire esattamente
milioni di precise istruzioni definite … Nel
chiederci come il computer possa essere applicato
alla progettazione architettonica dobbiamo prima
di tutto chiederci che tipo di problemi possono essere
risolti da un esercito di impiegati … Al momento
ne vedo molto pochi.”
Il punto fondamentale di queste teorizzazioni è
9 10
tutt’ora pertinente: per esplorare appieno il computazionale,
è necessario chiedersi, parafrasando
Alexander, quali compiti possiamo far svolgere
all’esercito di impiegati per creare una forma di
intelligenza? E quali sono le prospettive di un sistema
computazionale in grado di gestire una propria
autonomia decisionale più o meno complessa?
La curva esponenziale che descrive il
progresso tecnologico dell’ultimo secolo e l’integrazione
di conoscenze afferenti a discipline
diverse quali la biologia, la filosofia, l’informatica
e la robotica hanno portato nel corso degli anni a
fornire alcune risposte a queste domande. L’architettura
ha frequentemente preso ispirazione
dalla natura, dalle sue forme, dalle sue strutture e
più recentemente, dalla logica intrinseca dei suoi
processi morfologici. La modellazione di questi
complessi processi naturali richiede l’utilizzo dei
computer, e non è una coincidenza che lo sviluppo
computativo sia stato significativamente influenzato
proprio dalla costruzione di modelli digitali
che consentissero la simulazione di tali processi. Il
parallelismo tra natura e architettura è interpretabile
oggi con un’analogia tra codice genetico contenente
le informazioni riguardanti la forma (intesa
come insieme di regole interne che definiscono la
morfogenesi) e codice computazionale. L’ insieme
delle istruzioni che compongono il sistema, oltre
ad avere una loro coerenza interna, per essere interpretate
devono confrontarsi costantemente con
l’ambiente esterno, ovvero il substrato su cui il sistema
definito ha la capacità di generarsi. Il proget-
F1. in alto a sx:
copertina del catalogo
della conferenza
“Architecture and the
Computer”, organizzata
a Boston nel 1964.
F2. in alto a dx:
Schizzi di Christopher
Alexander.
F3. in alto: vista
aerea di un gregge di
pecore. uno dei tanti
esempi di comportamento
di sciame
presenti in natura.
tista ha quindi la possibilità di guidare attraverso la
propria sensibilità lo sviluppo del sistema definendo
in maniera più o meno vincolante l’insieme di
queste regole e le caratteristiche che costituiscono
il substrato al fine del raggiungimento di determinati
obbiettivi o performance, ma a differenza dei
normali processi di design dove il prodotto finale
è definito in maniera diretta dal modellatore, in
questo caso il progettista pur essendo chiaro nelle
intenzioni, è “cieco” rispetto all’eventuale risultato
del processo che sta creando.
Ciò significa che da un singolo sistema
è possibile generare un numero potenzialmente
infinito di variazioni, le quali tramite l’utilizzo di
sistemi a controllo numerico sono rese fabbricabili.
La precisione e la velocità dei sistemi di fabbricazione
robotica consentono oggi di interfacciare fase
di progettazione e fase di fabbricazione in un’unica
fase in cui la capacità espressiva del sistema
si genera nello spazio e nel tempo. Un ulteriore
tassello è stato aggiunto con la dotazione dei
sistemi fabbricativi di sensori che consentano loro
di percepire l’ambiente reale piuttosto che quello
digitale e di decidere in relazione a determinati
stimoli quali azioni compiere nel corso del processo.
Questo filone di ricerca in ambito architettonico
è ancora largamente in fase di sviluppo e prende
il nome di Behavioral Fabrication. Questa tesi di
ricerca si propone di indagare e approfondire proprio
questo filone della ricerca contemporanea.
11 12
digital fabrication /
behavioral fabrication
“E così torniamo al modo medievale e pre-notazionale di
concepire e creare allo stesso tempo - questo è ciò che
chiamiamo artigianalità digitale.” M.Carpo
Quando guardiamo agli sviluppi tecnologici notiamo
che spesso, nella fase iniziale, le nuove tecnologie
vengono utilizzate per imitare vecchi processi
o riprodurre vecchi prodotti. Questo è vero per
quasi tutte le tecnologie, sia software che hardware.
Per quanto riguarda l’ambito architettonico
ne sono un esempio le prime generazioni di applicazioni
CAD commerciali dove lo schermo imita
le tavole da disegno e il mouse diventa la matita
con cui disegnare. Lo stesso è anche vero per le
tecnologie di produzione CAM, utilizzate principalmente
per automatizzare e ottimizzare processi di
fabbricazione già esistenti.
È possibile sostenere che stiamo passando da
questa prima fase di utilizzo delle tecnologie digitali
per progettare e realizzare manufatti predigitali
ad una seconda fase in cui si iniziano ad esplorare
processi e prodotti realmente ispirati dalle potenzialità
computazionali; cioè oggetti che non avremmo
potuto realizzare e forse nemmeno concepire
in epoca predigitale.
L’introduzione dei sistemi di fabbricazione digitali a
controllo numerico come stampanti 3D, laser cutter
13 14
2D o routing ha segnato un’inversione rispetto ai
metodi di produzione industriali. Come sostiene
Mario Carpo in the Alphabet and the Algorithm:
Tutto ciò che è digitale è variabile, e la variabilità
digitale va contro a tutti i postulati di identicità
che hanno caratterizzato la storia delle tecnologie
e della cultura occidentale nel corso degli ultimi
cinquecento anni. In architettura questo significa la
fine della standardizzazione industriale.
Se da un lato queste tecnologie svincolano dalla
produzione di oggetti standardizzati, dall’altro il
passaggio dal disegno alla fabbricazione rimane
lineare e unidirezionale. Terminato il design
dell’oggetto - indipendentemente dal metodo di
rappresentazione utilizzato – le sue qualità geometriche
vengono tradotte in una serie di istruzioni
statiche (incapsulate ad esempio in un GCode)
ed inviate alla macchina. Una volta iniziata la
fabbricazione non vi è quindi più nessuna influenza
tra design e costruzione. Questo processo
non è diverso dal modo di operare dell’architetto
rinascimentale - abituato alla disgiunzione tra il
processo intellettuale e l’atto fisico del fare. Tale
visione è stata teorizzata da Leon Battista Alberti
nel XV secolo ed ha avuto un grande impatto sulla
disciplina tanto da rappresentare ancora oggi il
F3. Water-Based
Digital Fabrication
Platform: fabbricazione
robotica additiva
di strutture leggere,
biodegradabili e materialmente
eterogenee.
Mit Media Lab
F3. Silk Pavillion
del Mit Media Lab,
integra form-finding e
fabbricazione ispirata
a processi biologici.
principale metodo di fabbricazione architettonica:
basato sull’autorialità del progettista e sul primato
della notazione geometrica.
Quindi, se per poter costruire qualcosa devo prima
poterlo disegnare, i vincoli della rappresentazione
geometrica condizioneranno le possibilità fabbricative
e il modo stesso che il progettista ha di
pensare il processo costruttivo. Ma cosa accade
se i mezzi di produzione smettono di eseguire una
serie di istruzioni predeterminate e acquisiscono la
capacità di recepire, valutare ed agire?
Con il recente sviluppo e l’introduzione di sistemi
cyber-fisici nell’industria manifatturiera le macchine
di produzione sono sempre più in grado di
percepire, elaborare e interagire fra di loro e con
l’ambiente fisico in tempo reale. Questo permette
di realizzare un processo di design che invece di
essere interamente predeterminato all’interno del
dominio digitale, si disvela nel regno materiale
attraverso un processo esplorativo di costruzione
computazionale. Menges.
Le stesse tecnologie sviluppate ai fini dell’automazione
industriale aprono la possibilità di realizzare
una fabbricazione basata sul comportamento.
L’architettura ha sempre cercato di standardizzare
i materiali o inventarne di nuovi per renderli sem-
15 16
F3. in alto a sx: ICD/
ITKE Research Pavillion
2014/15. Nella
deposizione robotica
delle fibra di carbonio
è stato utilizzato un
sistema per valutare
la deformazione
della superficie del
gonfiabile.
plici, isotropici, così da poterli controllare; ma un
approccio basato sul comportamento consente di
considerare l’errore e l’imprevisto non come un
problema di precisione ma piuttosto come un potenziale
generativo. Il materiale diviene in questo
modo componente attiva del design, non solo attraverso
l’anticipazione delle sue possibilità - attraverso
simulazione digitale - ma soprattutto tramite
una continua raccolta di dati che ne descrivono
il comportamento. Questo significa che nuove
informazioni vengono ottenute durante il processo
e nuove caratteristiche possono essere percepite:
il design si evolve contemporaneamente alla fase
di creazione.
Questa potenziale fusione dei processi di progettazione
e realizzazione rappresenta una sfida
considerevole sia per il consueto modo che
abbiamo di immaginare il design che per le attuali
tecniche di progettazione. Per quanto riguarda il
primo, l’impresa intellettuale di esplorare il potenziale
progettuale latente di uno spostamento verso
la costruzione computazionale potrebbe trovare
maggiore ispirazione nei modelli biologici piuttosto
che in quelli tecnologici. Ciò potrebbe includere i
comportamenti costruttivi che si verificano nell’intero
spettro del regno animale – ad esempio, le
F3. a dx: Adaptive
Pneumatic Shell
Structure: progetto
che utilizza feedbeck
per l’irrigidimento di
strutture gonfiabili.
F3. in basso a sx:
scansione di un tronco
biforcato utilizzato nel
progetto Wood Chip
Barn per fini strutturali.
architetture animali degli uccelli tessitori o delle
vespe - o gli onnipresenti processi ontogenetici
presenti in natura. Per quanto invece riguarda le
tecniche di progettazione, la modellazione basata
su agenti è stata identificata come un approccio
particolarmente promettente, in quanto consente
di colmare direttamente lo spazio tra dominio virtuale
e mondo fisico. menges
Il potenziale introdotto dall’adozione di questi sistemi
consente quindi di inventare metodi radicalmente
nuovi di progettazione e realizzazione. Particolarmente
interessante è il modo in cui i processi
di fabbricazione digitale diventano in questo modo
più aperti, flessibili o, in altre parole, progettabili.
Oggi i ricercatori si stanno impegnano attivamente
nello sviluppo di nuovi processi di fabbricazione
come parte del processo di progettazione. Questo,
oltre ad essere una grande promessa rappresenta
una sfida al ruolo del designer, poiché non si tratta
solo di aggiornare strumenti e tecniche ma è la
concezione stessa di “progettazione” ad essere
messa in discussione.
17 18
CO-CREAZIONE UOMO-MACCHINA
In un certo senso, siamo passati dal documentare il
design all’informare il design, e ora ci stiamo spostando
in un luogo in cui l’atto del design sarà una
co-creazione tra persone e macchine. C.Bass
L’atto stesso di fabbricazione sta diventando sempre
più performativo, una dimostrazione in tempo reale
che le prestazioni del fare fanno parte del design.
Ma non solo: il feedback in senso reale permette
l’interazione umana, consente all’uomo di inserirsi
nel reticolo di scelte operate dal robot e modificarne
l’esito finale senza distruggerne la coerenza generale.
Come accade nei sistemi naturali le perturbazioni
esterne causano una riorganizzazione del sistema e
in questo senso è già possibile immaginare scenari in
cui la sensibilità umana agisce in parallelo alla costruzione
realizzando un sempre più stretto rapporto collaborativo.
Se fino a qualche anno fa questa visione
era considerata fantascientifica, oggi nel mondo delle
arti performative e non solo gli esempi che esplorano
questi territori sono già molti.
DAL LABORATORIO ALL’INDUSTRIA
Con il progredire della ricerca ci si domanda quando
queste nuove tecniche potranno entrare a far parte
F3. in alto a sx:
installazione dello
studio ATONATON che
esplora la percezione
e la comunicazione
uomo-macchina.
F3. n alto a dx: Interlacing.
Procedura algortmica
interattiva di
disposizione di oggetti
nello spazio tramite
tecnologia CNC.
F3. a lato: Augmented
Materiality. Studio
sulla generazione di
forme basato su feedback
in tempo reale.
del nostro modo di costruire. Grazie a numerosi sforzi
accademici, lo slancio sta crescendo: mentre le prime
ricerche si limitavano alla realizzazione di prototipi
di dimensioni ridotte, l’ultimo decennio ha visto la
genesi di una gamma di tecnologie di costruzione
robotica promettenti per l’adozione nell’ambito delle
costruzioni. I punti critici da superare per permettere
a questi sistemi di passare dal laboratorio al cantiere
consistono nel portare la fabbricazione alla scala
architettonica, e lo sviluppo di un’industria commercialmente
sostenibile - rompendo forse l’attuale fase
di stasi tecnologica.
La conservazione architettonica è un’area in cui i
nuovi metodi di fabbricazione sono stati adottati in
anticipo, con conseguente accettazione a livello di
settore. Uno degli esempi più intraprendenti è sicuramente
il cantiere della Sagrada Familia dove sistemi
di scansione e fabbricazione robotica sono stati applicati
nello studio e nella realizzazione delle geometrie
disegnate da Gaudì. È proprio grazie all’adozione
di questi sistemi che è stato possibile avvicinare la
data prevista per il completamento.
Una delle tecniche che oggi appare tra le più promettenti
per la fabbricazione robotica a scala architettonica
è il taglio a controllo numerico con filo a caldo, Robotic-Hot-Wire-Cutting
(RHWC). Tale tecnica si avvale
di un materiale estremamente leggero ed economicamente
convenienti, riciclabile e facile da modellare:
la schiuma EPS. Per queste ragioni il materiale ha visto
nel tempo molte applicazioni dalla realizzazione di
casseri, nelle infrastrutture autostradali e nell’industria
delle costruzioni. Tipicamente viene lavorato tramite
CNC router, e per forme a doppia curvatura è ancora
necessario; ma può essere anche taglio per mezzo di
RHWC, metodo le cui origini possono essere associate
alla stereotomia e alle superfici sviluppabili delle
19 20
murature in pietra.
RHWC presenta una serie di vantaggi quando viene
utilizzato per creare casseforme. Alla scala architettonica,
gli approcci tradizionali come la fresatura
CNC diventano proibitivi in termini di tempo. A fronte
del volume richiesto per architetture in situ su scala
reale, come ponti e edifici commerciali, la rimozione
incrementale del materiale offerto dalla tecnologia
di fresatura richiede tempi di lavorazione considerevoli
e comporta costi di produzione inaccettabili per
la maggior parte dei budget di costruzione (McGee
2011, Feringa 2011 ). Le ore di lavorazione possono
essere ridotte tollerando una superficie più ruvida,
tuttavia i tempi di produzione rimangono proibitivi
e i percorsi di lavorazione grezzi simultaneamente
complicano il processo di sformatura. Ciò limita la
prospettiva applicativa per la tecnologia di fresatura
CNC principalmente per le attività di dettaglio, i
budget esclusivi di fascia alta e i cast ripetitivi, in cui è
possibile riutilizzare le casseforme. RHWC offre una
serie di vantaggi. La rimozione di materiale in questo
processo è essenzialmente volumica; il processo di
taglio elabora una superficie in un unico movimento
di spazzamento, mentre nella fresatura il volume
viene rimosso strato per strato, vincolato dalla profondità
limitata della punta di fresatura. La differenza
nella velocità di produzione è facilmente comprensi-
F3. Carrara Robotics
by Jelle Feringa
(Odico) taglio di una
lastra di marmo on il
medesimo processo
dell’Hot Wire Cutting.
F3. Gramazio & Kohler
Research: prove
geometriche sulle
possibilità espressive
delle forme generate
tramite Hot Wire
Cutting.
bile geometricamente; mentre la fresatura rimuove
essenzialmente una sfera, RHWC rimuove un cilindro
di materiale in un istante nel tempo (Fig. 4) che
equivale a una differenza di 1 o 2 ordini di grandezza,
come mostra il seguente studio comparativo, approssimando
le differenze nel tempo di produzione per
entrambe le tecniche di produzione (tabella 1).
È importante ricordare che, mentre l’aumento della
velocità di produzione è drammatico, lo sforzo supplementare
per razionalizzare la geometria a superfici
rigate - un argomento chiave della geometria
architettonica - non viene preso in considerazione
in questo confronto. Mentre RHWC è notevolmente
efficiente, la grammatica geometrica che può essere
prodotta è un sottoinsieme di ciò che può essere
prodotto dalla fresatura. Tuttavia, è importante
rendersi conto che la scala architettonica funziona a
favore di RHWC. Prima di tutto, nel senso che ora si
possono produrre forme che tradizionalmente non
sarebbero fabbricate con metodi CNC. In secondo
luogo, grazie alla scala, la limitazione alle superfici
rigate diventa meno problematica, dal momento
che una maggiore superficie rende la costruzione di
un’approssimazione soddisfacente meno problematica.
21 22
Mentre la fresatura CNC a robot ha da tempo dimostrato
la sua versatilità, il suo principio meccanico
di sottrazione di materiale incrementale è intrinsecamente
lento e quindi non è adatto a scalare economicamente
oltre l’esclusività di progetti di costruzione
di alto profilo. In quanto tale, la capacità del RHWC
di tagliare grandi volumi di EPS con tempi di lavorazione
significativamente più bassi, con conseguenti
superfici di colata ad alta scorrevolezza, può produrre
notevoli riduzioni dei costi nella produzione di
casseforme.
Nella presente ricerca di tesi si è deciso di approfondire
una delle tecniche di fabbricazione che attualmente
sembra essere più vicina a realizzare questo
passaggio di scala: il taglio robotico per mezzo di filo
a caldo: Robotic-Hot-Wire-Cutting (RHWC). L’industria
leader di tale tecnica è Odico, la quale ha confrontato
l’efficienza della fresatura robotizzata con RHWC
degli stampi di EPS, ed ha rilevato che RHWC riduce
i tempi di un fattore compreso tra 10 e 100. Questo
risultato è particolarmente rilevante per raggiungere
una scalabilità utile nella produzione di costruzioni,
dove il volumi di grandi elementi è un problema
centrale.
Per la fabbricazione robotizzata di tali volumi, il tempo
di lavorazione sostituisce il lavoro come fattore di
costo chiave e diviene quindi un obiettivo primario.
F3. in alto a sx:
accostamento di due
profili di paraboloidi
iporbolici in EPS
ottenuti per RHWC.
F3. a dx: Zaha Hadid,
Mathematics Gallery.
Le panchine sono
realizzate a partire
da superfici rigate
per mezzo di stampi
stampi in polistirolo.
23 24
emergence and
self-organized systems
“...and the thousands of fishes moved as a huge beast,
piercing the water. They appeared united, inexorably bound
to a common fate. How comes this unity?”
anonymous, 17 century, da “Flocks, Herds, and Schools: A Distributed Behavioral Model” di Craig Raynolds
25 26
Lo studio dei sistemi auto-organizzanti è stato
esplorato a partire dal 1953 con il lavoro svolto
da Grassé sulle società di insetti. Grassé scoprì
che queste società presentavano mutevoli forme
d’ordine senza la presenza di nessun controllo
centralizzato.
La varietà dei sistemi in cui compare la nozione
di auto-organizzazione rende difficile trovare una
definizione univoca. Nella sua forma più semplice,
l’auto-organizzazione può essere considerata
come la formazione di un ordine generale a
partire da interazioni locali tra le parti più piccole
di un sistema inizialmente disordinato.
La questione fondamentale che accomuna i
sistemi auto-organizzati è, infatti, la capacità di
implementare un comportamento globale efficace
al fine di realizzare determinati obiettivi
intenzionali o non intenzionali.
Intuitivamente, l’auto-organizzazione si riferisce
al fatto che la struttura o l’organizzazione di un
sistema appare privo di alcun controllo esplicito
o di vincoli imposti dall’esterno. In altre parole,
l’organizzazione è intrinseca al sistema auto-organizzante,
e deriva da vincoli e meccanismi
interni, che sono basati sulle interazioni locali tra
i suoi componenti.
Queste interazioni possono essere dirette, cioè
tra gli agenti stessi, o indirette: effettuate attraverso
l’ambiente esterno.
La natura non deterministica e dinamica delle
interazioni permette la comparsa delle proprietà
emergenti del sistema, le quali trascendono le
caratteristiche di tutte le singole sotto unità che
lo compongono. Inoltre, le operazioni dinamiche
influenzano e modificano l’ambiente in cui si trova
il sistema e, a sua volta, le alterazioni dell’ambiente
influenzano nuovamente il sistema in un
ciclo continuo di feedback.
Nella maggior parte dei casi le influenze ambientali
e le perturbazioni non influenzano i meccanismi
interni ma ne causano la riorganizzazione
dinamica. Di conseguenza, il sistema evolve
dinamicamente sia nel tempo che nello spazio,
F3. Fotografia di Lukas
Felzmann. Stormo di
merli dalle ali rosse
si forma e si riformula
a Sacramento Valley,
California.
e può mirare sia a mantenere una forma stabile
che presentare fenomeni transitori.
La condizione di stabilità può essere raggiunta
attraverso forme differenti di stimoli che possono
essere raggruppate in due categorie: feedback
positivi e feedback negativi. Il feedback negativo
produce limiti o vincoli che portano a una correzione
strutturale o all’inibizione di determinati
comportamenti. Al contrario il feedback positivo
promuove e stimola il cambiamento, consentendo
alle variazioni locali di crescere ed influenzare
maggiormente il modello globale. La coesistenza
di entrambi i sistemi e la loro reciproca
influenza consente al sistema di autoregolarsi e
auto-organizzarsi.
SISTEMI NATURALI
Fenomeni auto-organizzanti ed emergenti possono
essere osservati in molti sistemi naturali
come ad esempio stormi di uccelli, banchi di
pesci o greggi di pecore. In questi casi il comportamento
auto-organizzante collettivo viene
raggiunto attraverso la percezione sincrona
27 28
dell’ambiente esterno e degli altri agenti. Il primo
a teorizzare il funzionamento di questi sistemi
fu Craig Reynolds che nel 1986 realizzò Boids,
programma di simulazione del comportamento di
sciame in cui il movimento aggregato del branco
è creato a partire da un modello comportamentale
distribuito molto simile a quello che compare
in un gregge naturale. Ogni uccello simulato è
implementato come attore indipendente che naviga
secondo la sua percezione locale dell’ambiente
dinamico seguendo semplici regole:
Separation: evitare le collisioni con gli agenti
vicini.
Alignment: cercare di allineare la propria velocità
a quella dei vicini.
Cohesion: cercare di restare vicino agli agenti
vicini.
F3. In alto a sx: Simulazione
al computer
del comportamento di
sciame.
F3. in alto a dx:
Swarm system con
visualizzazione
della prossimità tra
gli agenti. Ciascuno
vede i suoi vicini entro
un predefinito raggio
d’azione.
F3. in basso a dx e
sx: immagini della
simulazione Boids di
Craigh Reynolds
Il movimento del branco è quindi il risultato
dell’interazione tra i comportamenti dei singoli
agenti. Per rendere ancora più verosimile la
simulazione occorre considerare non soltanto le
interazioni interne ma anche quelle esterne, cioè
informare il sistema tramite l’ambiente. Per rendere
sensibili gli agenti al mondo esterno Reynold
propone due soluzioni: o l’introduzione di un
campo di forze repulsive in prossimità dei corpi
da evitare oppure un nuovo comportamento da
lui definito come Steer-to-avoid, in cui il singolo
agent valuta di quanto modificare la prioria traiettoria
in base alle geometrie che rientrano nel
suo campo di visione.
Altri esempi di sistemi auto-organizzanti
naturali sono le colonie di insetti come formiche,
api, vespe e termiti, le quali hanno dimostrato
di saper integrare perfettamente le loro attività
individuali. Ogni singolo insetto sembra operare
individualmente e senza alcuna supervisione
centrale.
Ma a differenza del comportamento di sciame
l’interazione tra membri in tali colonie avviene
per stigmergia e cioè effettuata indirettamente
e in modo asincrono modificando e successivamente
percependo lo stato dell’ambiente circostante.
29 30
STIGMERGIA
s.f. [dal greco stigma <<puntura, segno che ne
rimane>>, ed ergon <<lavoro, azione o prodotto
del lavoro>>]
Il concetto di stigmergia è stato utilizzato per
analizzare le attività auto-organizzanti in una
gamma di domini sempre più ampia, inclusi gli
insetti sociali, la robotica, le comunità Web e la
società umana. La stigmergia può essere definita
come un meccanismo di coordinamento indiretto
in cui la traccia lasciata da un’azione in un mezzo
stimola un’azione successiva.
Il concetto di stigmergia fu introdotto dall’entomologo
francese Pierre-Paul Grassé per descrivere
un meccanismo di coordinamento usato dagli
insetti. Il principio è che il lavoro svolto da un
agente lascia una traccia nell’ambiente che a sua
volta stimola le prestazioni di lavoro successivo,
dello stesso o di altri agenti. Questa mediazione
tramite l’ambiente garantisce che le attività vengano
eseguite nel giusto ordine, senza necessità
di pianificazione, controllo o interazione diretta tra
gli agenti.
La nozione di stigmergia ha permesso a Grassé
di risolvere il “paradosso della coordinazione”,
F3. NonstandardStudio,
Daniel Bolojan.
Simluazione di
comportamento
stigmergico.
F3. Schema riassuntivo
dei meccanismi
che definiscono la
stigmergia. L’ambiente
è il mezzo di comunicazione
che contiene
le tracce degli agenti
e ne stimola le azioni
successive.
ovvero la questione di come insetti di intelligenza
molto limitata, senza una comunicazione apparente,
riescano ad affrontare in modo collaborativo
progetti complessi, come la costruzione di un
nido.
L’intuizione è venuta a Grassé osservando il comportamento
delle termiti nella costruzione del loro
nido. Notò che inizialmente le termiti trasportano
il fango e lo depositano qua o là intraprendendo
traiettorie apparentemente casuali. Tuttavia, i
depositi che vengono creati stimolano gli insetti
ad aggiungere ulteriori quantità di fango in quei
punti. Così, i piccoli cumuli si trasformano rapidamente
in colonne che alla fine si uniscono per
formare una cattedrale intricata di archi ad incastro.
L’unica comunicazione tra le termiti è indiretta:
il lavoro parzialmente eseguito dagli uni fornisce
informazioni agli altri su dove dare il proprio contributo.
Il processo stigmergico può quindi essere schematizzato,
riducendolo alle sue componenti minime,
come una sequenza di azioni che si verificano
all’accadere di determinate condizioni:
condizione --> azione [immagine paper]
SE la condizione è valida, ALLORA esegue un’azi-
31 32
one
L’azione può essere intesa come un processo
causale che produce un cambiamento nello stato
del mezzo. Normalmente, assumiamo che un’azione
sia eseguita da un agente, che in genere è
visto come un sistema autonomo, orientato agli
obiettivi.
Rispetto ai metodi tradizionali di organizzazione,
la stigmergia fa richieste assolutamente minime
agli agenti. In particolare, in collaborazione stigmergica
non è necessaria:
pianificazione o anticipazione: gli agenti devono
solo conoscere lo stato attuale dell’attività; l’obiettivo
generale, il passo successivo o il risultato
finale sono irrilevanti per il loro lavoro attuale.
In Wikipedia, non esiste un piano che specifichi
quali informazioni dovrebbero essere aggiunte
all’enciclopedia.
memoria: gli agenti non hanno bisogno di ricordare
la loro precedente attività; nessuna informazione
sullo stato del lavoro deve essere memorizzata
ovunque tranne che nel mezzo.
comunicazione: nessuna informazione deve essere
trasferita tra gli agenti, tranne che attraverso
il lavoro svolto nel mezzo; in particolare non c’è
bisogno che gli agenti negozino su chi fa cosa.
consapevolezza reciproca: ogni agente lavora in
F3. Simulazione di
comportamento
stigmergico fra 10000
agenti. Frame 150.
F3. Simulazione di
comportamento
stigmergico al frame
300. In pochissimo
tempo è emersa una
struttura stigmergica
che varia nel tempo e
risponde a comportamenti
locali.
modo indipendente; non ha nemmeno bisogno
di sapere che gli altri partecipano. Ad esempio, i
contributori di Wikipedia in genere non si conoscono
o comunicano tra loro.
presenza simultanea: in generale non c’è bisogno
che gli agenti siano presenti nello stesso momento
o nello stesso luogo; le attività sono registrate
nel mezzo in modo che possano essere percepite
dagli agenti quando e dove sono disponibili. È
così che le comunità in tutto il mondo possono
collaborare su un singolo progetto software.
sequenza imposta: le azioni vengono eseguite
automaticamente nell’ordine corretto, dal momento
che un’azione non verrà avviata fino a
quando non verrà trovata la condizione giusta. il
flusso di lavoro emerge spontaneamente, poiché
il completamento di un’attività determina l’avvio
dell’attività successiva
controllo o supervisione centralizzata: errori o
perturbazioni vengono automaticamente corretti,
in quanto creano semplicemente una nuova
condizione che stimola nuove azioni per affrontare
la sfida; l’attività è auto-organizzativa: l’organizzazione
globale emerge dalle interazioni locali,
senza alcun controllo centralizzato che diriga
l’attività
AZIONE PARALLELA E SEQUENZIALE
33 34
F3. Schema che
esemplifica il rapporto
tra gli agenti e l’ambiente.
Questi possono
agire separatamente
nel momento in ui la
memoria dell’ambiente
non decade.
F3. Simulazione
stigmergica in cui si
mette in evidenza l’informazione
immagazzinata
nell’ambiente.
Il gradiente di bianco
indica la quantità di
feromoni presente in
ciascuna cella.
Il coordinamento (stigmergico) può essere di due
tipi fondamentali: parallelo o sequenziale. Agenti
che agiscono in parallelo aggiungono semplicemente
i loro effetti contemporaneamente. Poiché
le loro azioni sono simultanee, non è possibile
che l’una influisca causalmente sull’altra. Pertanto,
il loro effetto totale risulta essere la semplice
aggregazione, sovrapposizione o somma dei loro
effetti individuali. Viceversa, come abbiamo visto,
le regole funzionano in sequenza, e dal momento
che il risultato del primo influenza le prestazioni
del secondo, due agenti che agiscono in maniera
sequenziale possono sviluppare un’interazione.
È proprio questo meccanismo a consentire la
non-linearità del sistema, cioè il raggiungimento
di un effetto totale diverso dalla somma dei singoli
effetti.
È dunque possibile individuare delle differenze
fondamentali di comportamento che si delineano
in base alla transitorietà o meno delle informazioni
del mezzo. Le tracce persistenti portano a
quella che può essere definita stigmergia asincrona:
i diversi agenti o produzioni non devono
necessariamente essere presenti allo stesso
tempo, poiché la traccia rimane per guidarli in
qualsiasi momento successivo. Il vantaggio è che
le informazioni rimangono disponibili, in modo
che possano essere elaborate nell’occasione più
appropriata e possano accumularsi e maturare a
lungo termine. Le tracce transitorie portano alla
stigmergia sincrona: gli agenti devono essere
presenti simultaneamente affinché la coordinazione
possa avere successo.
TRACCE TRANSITORIE VS PERSISTENTI
Il mezzo può essere attivo, cioè includere un
comportamento interno a cui tutti gli agenti sono
influenzati come ad esempio un tempo di dissipazione
delle informazioni trattenute. Ma anche
un mezzo passivo è soggetto a dissipazione, erosione
o all’aumento di entropia comportato dalla
seconda legge della termodinamica. Ciò significa
che strutture e marcatori tendono a decadere
spontaneamente, a meno che non siano attivamente
mantenuti e ricostruiti.
35 36
vision system
Come abbiamo visto per poter parlare di fabbricazione
robotica comportamentale è necessario
dotare il sistema costruttivo di un dispositivo
cyber-fisico che attraverso un loop continuo di
feedback informa iterativamente il sistema riguardo
l’ambiente in cui si sta muovendo e il comportamento
del materiale. Per realizzare questo
ciclo è stato scelta una camera RGB-D, cioè uno
scanner 3D accoppiato ad una camera RGB: il
sistema in questione è il Microsoft Kinect. Dispositivo
inizialmente sviluppato come sensore di
movimento per console di videogiochi è stato poi
adottato da numerosi istituti di ricerca diventando
uno standard nell’ambito della computer vision.
Tale strumento permette di realizzare in tempo
reale una ricostruzione dello spazio in tre dimensioni
attraverso una nuvola di punti organizzati in
griglia a cui il dispositivo associa i relativi colori
letti dalla camera. Ai fini della ricerca sono state
testate sia la versione uno che la versione due
del dispositivo, in quanto entrambe presentano
un livello di dettaglio sufficiente, un frame rate al
37 38
di sotto del secondo, ed un costo accessibile. I
due dispositivi dispongono di due sistemi di ricostruzione
tridimensionale differenti le cui caratteristiche
hanno influenzato nel corso della ricerca
parte delle scelte progettuali.
Kinect I misura la profondità con il principio del
Pattern Projection, metodo in cui un pattern a infrarossi
noto viene proiettato nella scena e la distorsione
del pattern viene analizzata per calcolare
la profondità. Kinect II contiene una fotocamera di
tipo Time of Flight (ToF) e determina la profondità
misurando il tempo che la luce emessa impiega
per uscire dalla camera, arrivare all’oggetto e
ritornare alla camera. Pertanto, emette costantemente
luce infrarossa con onde modulate e rileva
la fase spostata della luce di ritorno. Paper.
Mentre nelle prove iniziali è stato utilizzato la
prima versione del dispositivo per le fasi successive,
e quindi per la maggior parte della ricerca, si
è scelto di impiegare Kinect II. Tale scelta deriva
dal fatto che la tecnica del Pattern Projection
risente in maniera non lineare della distanza
dall’oggetto scansionato. In pratica man mano
che ci si allontana dalla superficie di riferimento
le misurazioni di profondità tendono a perdere
accuratezza; dove per accuratezza si intende la
distanza (offset) del valore misurato rispetto alla
distanza reale della camera dall’oggetto. Questa
caratteristica del Kinect I non rappresenta un
problema se ad essere scansionate sono superfici
piane mentre può portare a errori nell’ordine
di 20-30 mm se, come nel caso di questa
tesi, vengono rilevate superfici con variazioni di
profondità pari a 40-60 cm. Viceversa, Kinect II
presenta un’accuratezza maggiore al variare della
F3. In basso a sx: Gradiente
sulla distanza
dalla ground truth a
distanze crescenti: da
sx: 0.6m, 1.2m, 1.6m.
F3. in alto a dx: area
di lavoro e griglia di
riferimento scansionata
tramite kinect.
Si mette in evidenza
il raggio entro cui i
risultati sono maggiormente
accurati.
distanza ed un offset costante di -18 mm: essendo
l’errore costante è semplice correggerlo in fase
di elaborazione della nuvola di punti. Tale risultato
è valido principalmente per i pixel centrali
dove la deviazione standard è costante mentre
tende a crescere considerevolmente per i pixel
più esterni. Questa considerazione ha portato alla
definizione di un’area circolare di rifermento di
300 pixel di raggio attorno al centro della camera
e di una distanza standard del dispositivo dall’oggetto
che consentisse di includere nell’area di
riferimento una superficie di un metro quadrato
– cioè di dimensioni paragonabili al campo
di azione del robot. Un’ultima ragione per cui si
è scelto di utilizzare la camera di tipo Time of
Flight è il diverso tipo di rumore prodotto. Kinect
I presenta una forma di rumore per macro-aree:
ciascun pixel ha valori ed errori simili a quelli
dei suoi vicini. Il rumore di Kinect II può essere
invece definito per-pixel: ciascun punto ha valori
di profondità leggermente diversi dai vicini;
circa nell’ordine di 5 mm. Questo difetto rende il
dispositivo meno preciso - dove per precisione si
intende la ripetibilità di misurazioni consecutive a
parità di condizioni - e può essere parzialmente
corretto in fase di elaborazione attraverso la fu-
39 40
sione di scansioni successive. Nonostante questa
imprecisione di fondo la seconda camera risulta
essere migliore nella ricostruzione delle proporzioni
geometriche dell’oggetto.
Un ulteriore valutazione è stata fatta sull’influenza
dei colori nella misurazione di profondità del
Kinect II. Da alcuni test fisici è stato rilevato che
colori chiari e superfici poco riflettenti rappresentino
le condizioni ottimali per la scansione, al
contrario i colori scuri che si avvicinano al nero e
i riflessi di luce troppo forti causano un aumento
del rumore. Per l’esecuzione dei test di deposizione
si è quindi prestata particolare attenzione
al colore e al materiale da utilizzare come sfondo
cercando di ottenere un basso livello di rumore,
l’assenza di riflessi e un buon contrasto con il
colore della schiuma. Quest’ultima caratteristica
è stata fondamentale per poter separare il materiale
depositato dallo sfondo e limitare il rumore
della camera.
Dopo un’attenta analisi delle caratteristiche e dei
limiti del sistema di visione si è scelto di operare
mantenendo la posizione del dispositivo fissa in
modo da garantire la ripetibilità dei risultati nel
tempo.
F3. Componenti
elettronici del Kinect
II per la scansione del
tipo Time of Flight
F3. Scansione di
un area soggetta a
luminosità differenti.
Si nota come le zone
eccessivamente
chiare creino notevole
disturbo alla camera.
COLOR FILTER
Come abbiamo visto la misurazione della profondità
fornita dalla camera RGB-D presenta un
margine d’errore. Tale imprecisione è causata da
un rumore diffuso per cui ogni punto della nuvola
ha uno sfasamento della coordinata Z rispetto
ai vicini che può andare da zero ad un massimo
di 5 mm. Questa imprecisione è leggermente
maggiore nelle zone di colore scuro e migliora
in quelle chiare; è quindi meno accentuata sulle
estrusioni. Per limitare tale fenomeno è possibile
operare una fusione di scansioni successive. Cioè
la mesh ambientale viene ricostruita utilizzando le
posizione medie di ciascun punto, tuttavia pur diminuendo
l’errore a circa 3 mm di scarto il rumore
risulta ancora percettibile. Questo può causare
dei problemi in fase di analisi della curvatura
soprattutto nelle aree di sfondo: l’algoritmo infatti
legge picchi e valli dovuti al rumore anche quando
la superficie risulta piana.
Per ottenere una misurazione delle curvatura più
precisa si è scelto di filtrare i punti appartenenti
al materiale depositato per mezzo dei colori. A
questo scopo si è scelto di utilizzare uno sfondo
in cartoncino opaco di colore blu, abbastanza
41 42
rigido da non avere eccessive deformazioni. Tale
colore contrasta bene con quello della schiuma,
ed è quindi semplice da isolare: attraverso una
limitazione nel dominio dei colori RGB a partire
dalla stessa pointcloud vengono create due
nuvole di punti distinte. Una contenente le estrusioni,
l’altra i punti appartenenti allo sfondo. Di
quest’ultima viene fatta per ogni punto un analisi
della distanza dalla mesh digitale di riferimento.
Sottraendo vettorialmente tale distanza si proiettano
i punti della point cloud e si riduce drasticamente
l’errore. Successivamente le due pointcloud
vengono ricomposte in una nuova mesh
che conserva tutte le informazioni di profondità
del materiale depositato e presenta superfici regolarizzate
come sfondo. Il risultato ottenuto limita
gli effetti del rumore alle sole zone in cui è presente
la schiuma, nelle quali però risulta essere
sufficientemente contenuto da non comprometterne
la rappresentazione geometrica.
La mesh ricomposta è utilizzata solamente ai fini
del calcolo della curvatura. Infatti, i valori di curvatura
così ottenuti vengono poi assegnati ai vertici
della mesh iniziale, la quale, al netto del rumore, è
quella che meglio descrive lo spazio reale in cui il
robot dovrà muoversi. Infine, gli agenti si muovono
nell’ambiente seguendo un target, e dato che
questo viene calcolato come media ponderata
della posizione dei punti che rientrano nella loro
area di visione, esso svolge anche una funzione
inerziale che consente agli agenti di ignorare le
irregolarità locali e mantenere traiettorie fluide e
aderenti alla mesh.
Immagini blu/rosse: stigmergia sui picchi e sulle
valli come sottotitoli.
CURVATURE ANALISYS
Oltre all’informazione geometrica intrinseca della
pointcloud e la colorazione di ciascun punto una
delle informazioni fondamentali che è stato possibile
estrarre dal comportamento del materiale
e l’analisi della curvatura. Una volta orientata la
scansione, essendo i punti organizzati in griglia
ed indicizzati in base alla posizione, è possibile
ricostruire la mesh ambientale. La curvatura di
ciascun vertice della mesh è quindi calcolata
misurando l’angolo tra il vettore che connette il
vertice con il centro della faccia afferente e la
F3. Sequenza di
filtraggio dei colori. Le
zone eccessivamente
chiare creano riflessi
difficili da gestire. per
tale motivo si è optato
per un materiale di
sfondo opaco.
F3. Analisi della curvatura
operata sulla
mesh ricostruita a partire
dalla pointCloud.
le zone rosse indicano
i picchi, le blu le zone
planari, le bianche
quelle concave.
normale della faccia. Tale misura viene operata
per tutte le facce che hanno il medesimo vertice
in comune. La media degli angoli ponderata
sull’area delle rispettive facce restituisce il valore
della curvatura nel punto. Tale valore è compreso
tra Pi greco e zero. Le zone della mesh che presentano
planarità avranno valori che si avvicinano
a Pi greco mezzi, valori inferiori si avranno nelle
zone concave e viceversa valori superiori per
quelle convesse.
In questo modo è possibile distinguere
sulla mesh - attraverso un gradiente di colore - le
zone planari, concave e convesse. In altre parole,
diventa immediato individuare i picchi e le valli
che si vengono a creare dalla deposizione del
materiale. Tale informazione risulta fondamentale
in quanto la sola alternativa per l’individuazione di
valli e picchi poteva essere l’utilizzo della coordinata
Z dei punti rispetto ad un piano di riferimento:
sistema che funziona perfettamente per
deposizioni sul piano ma non per superfici curve.
Inoltre, consente all’agente di avere un informazione
globale e non locale, cioè non limitata alla
sua area di visione.
L’analisi della curvatura diviene quindi
ancora prima del fattore geometrico la principale
informazione per realizzare la stigmergia. Gli
agenti si muoveranno sulla superficie indifferentemente
se si trovano in zone planari, tenderanno
43 44
ad avvicinarsi ai picchi nel momento in cui questi
entreranno nella loro area di visione ed in base
alle circostanze avranno più o meno repulsione
per le valli. L’adesione alla mesh ambientale è
quindi garantita in quanto tutte le informazioni si
muovono su di essa.
attraverso una fresa a controllo numerico o altri
metodi sottrattivi. I tempi di cura relativamente rapidi
permettono la deposizione di strati successivi
in maniera continua. La texture di superficie e la
sua colorazione la rendono semplice da rilevare e
da isolare nel processo di scansione.
Nella prima parte della ricerca e nelle prove di
deposizione manuali è stata utilizzata una pistola
per l’erogazione di schiuma tramite bomboletta
pressurizzata. Il sistema di erogazione è composto
da un ugello metallico di circa 15 cm e da una
valvola che controllata manualmente consente la
COMPORTAMENTO MATERICO
La schiuma poliuretanica espansa è stata scelta
come materiale di deposizione per la facilità di
sperimentazione e la possibilità di gestire un ampio
spettro di comportamenti materici. Controllando
la pressione con cui la schiuma viene emessa
è possibile ottenere comportamenti altamente
prevedibili o viceversa estremamente volatili.
Grazie alla sua leggerezza può essere facilmente
montata su un robot e utilizzata in processi di
fabbricazione additivi. Una volta indurita il materiale
può essere facilmente tagliato o modellato
F3. Sviluppo del
comportamento
stigmergico su di una
mesh contenente
informazioni basate
sulla geometria
stessa.
F3. Vista superiore
del sistema dove gli
agenti tendono a mantanere
la traiettoria
lungo i picchi.
gestione del flusso di fuoriuscita della schiuma.
Il controllo risulta sufficientemente preciso se la
pressione che il gas all’interno della bomboletta
esercita sulla schiuma è mantenuta costante.
Questo non accade in quanto man mano che la
schiuma fuoriesce la pressione diminuisce causando
una riduzione del flusso di erogazione. È
tuttavia possibile contrastare tale diminuzione
aumentando il passaggio di schiuma consentito
dalla valvola. Quindi mentre non è possibili controllare
la pressione esercitata dal gas sulla schiuma
si può invece correlare la quantità di materiale
45 46
F3. in alto a sx: prova
manuale di estrusione
a differenti livelli di
apertura della valvola
presente sulla pistola.
F3. in basso a dx: Test
di estrusione dell’effettore
realizzato
insieme ad Eugenio
Bettucchi presso il
Laboratorio di Automazione
e Robotica di
Bologna
F3. in alto a dx: prima
versione dell’effettore
con vano per ospitare
la camera RGB-D e
ugello di estrusione.
erogato con il livello di apertura della valvola.
Attraverso dei test manuali si è notato come tale
rapporto sia lineare per aperture piccole e tenda
ad aumentare esponenzialmente per valori più
alti.
Al fine di automatizzare il processo è stato realizzato
un primo effettore per braccio robotico
a sei assi di rotazione (Comau Smart Six) che
ingloba in un unico supporto sia le componenti
necessarie alla deposizione sia il sensore di
visione. Il robot utilizzato è dotato di un sistema
di controllo aperto che gli consente di ricevere
informazioni di movimento in tempo reale tramite
un apposito controller manuale oppure attraverso
Matlab: software di calcolo che si occupa della
risoluzione della cinematica inversa per la corretta
esecuzione delle traiettorie. Il robot, all’interno
dello spazio limite di lavoro, consente di depositare
con movimenti fluidi il materiale attraverso
un’ampia libertà di movimento e di inclinazione
della piastra terminale. Il peso finale dell’effettore,
ampliamente al di sotto della soglia massima dei
6 kg al polso permette al robot di muoversi con
una precisione del decimo di millimetro. Il meccanismo
di apertura della valvola è stato gestito
attraverso una cremagliera calibrata e uno stepper
motor controllato da Arduino tramite Matlab.
Questa prima versione ha però riscontrato alcuni
limiti, quali la difficolta di gestire agevolmente
la quantità di schiuma erogata a causa del poco
margine di movimento della cremagliera e la
diminuzione della pressione all’interno della
bomboletta che rende il flusso di erogazione non
costante nel tempo.
47 48
from multy to
asynchronous agency
L’approccio al design indagato in questa ricerca
deriva dalle logiche basata su multi-agent
systems, ed in particolare dal comportamento
stigmergico che, come abbiamo visto, genera un
ordine complesso a partire dall’accumulazione e
la riorganizzazione della materia. Queste logiche
di auto-organizzazione forniscono le basi per un
approccio alla fabbricazione di tipo stigmergico.
Mentre questi sistemi tipicamente coinvolgono
molti agenti semplici, non vi è necessità di una
comunicazione diretta tra di essi, poiché è l’ambiente
a divenire il substrato comunicativo. Di
conseguenza lo stesso livello di complessità
può essere raggiunto attraverso l’interazione
49 50
dell’ambiente esterno con un singolo agente o
una grande popolazione di agenti – assumendo
che il numero di operazioni sia equivalente. Altra
condizione necessaria è che il feedback non sia
soggetto ad evaporazione, cioè che l’ambiente
trattenga le informazione senza dissiparle. Questo
risulta automaticamente vero nel momento in
cui il materiale una volta depositato non viene
rimosso. Si potrebbe quindi parlare erroneamente
di sistema basato su un singolo agente, ma in
realtà tale condizione è solo di tipo temporale.
Perché una forma d’ordine complesso emerga
rimane necessario il verificarsi di più interazioni
tra agenti diversi; cioè che non è necessario,
come visto in precedenza, è invece la condizione
di contemporaneità. Questa proprietà della
stigmergia consente di far emergere un assemblaggio
complesso a partire da un singolo robot
oppure una piccola popolazione di robot, sfruttando
la loro capacità di lavorare autonomamente
per lunghi periodi di tempo.
L’approccio indagato emerge proprio da queste
logiche basate su un singolo robot che deposita e
interagisce con un materiale che presenta qualità
volatili. L’approccio stigmergico alla robotica è
stato indagato da studi di ricerca e speculazione
architettonica come Kokkugia, che porta avanti
da diverso tempo ricerche riguardanti gli algoritmi
basati su sistemi multi-agenti e approcci comportamentali
alla costruzione che si sono successivamente
indirizzati verso l’integrazione di meccanismi
di feedback e interazione robotica in tempo
reale.
CONDIZIONE DI SIMULTANEITÀ VS PROCESSO
ITERATIVO
Oggi i sistemi di feedback e di controllo robotico
consentono una comunicazione in tempo reale
che permette ai processi digitali e fabbricativi
da raggiungere una effettiva simultaneità. Tale
approccio è stato indagato da Roland Snooks e
Gwyllian Jahn e sintetizzato nella ricerca Stigmergic
Accretion; tra i riferimenti di questa ricerca
di tesi. Essi presentano il concetto di “Patient
Agency”: per realizzare un polimorfismo tra agent
e robot è necessario condizionare il comportamento
dell’agente digitale alla velocità del processo
di fabbricazione robotica. In questo modo il
F3. a sx: simulazione
di 1000 agenti in
contemporanea rispettivamente
al frame
100, 300 e 700.
F3. a dx: primo test
di simulazione di
agenti in sequenza.
il pattern generato è
influenzato dalle linee
di stress della piastra
incastrata.
comportamento digitale “aspetta” sia semanticamente
che concettualmente il completamento dei
compiti fisici del robot. Questo permette al robot
e all’agente di operare simultaneamente senza ricorrere
a un processo sequenziale di simulazione
digitale e successiva esecuzione. Nella ricerca
intrapresa in questa tesi non è stato possibile per
limiti tecnici raggiungere tale condizione di simultaneità.
Pertanto, si è cercato di raggiungere un
flusso di lavoro che permettesse si avvicinarvisi il
più possibile: mantenendo la condizione iterativa,
che alterna la fase di comportamento digitale a
quella di deposizione robotica, si ritiene che per
intervalli di tempo sufficiente brevi è possibile
ottenere comportamenti simili se non identici a
quelli ottenuti in completa simultaneità. Questa
considerazione nasce dell’esperienza acquisita
e dalla constatazione che la principale differenza
tra processo iterativo e simultaneo consiste nella
capacità del secondo di poter influenzare il comportamento
digitale dell’agente con le tracce che
esso stesso ha da poco depositato: cioè se e solo
se un agente torna velocemente su sé stesso.
Implementando il comportamento degli agenti
in modo da scoraggiare il verificarsi di tale circostanza
e mantenendo un alta frequenza delle
iterazioni si sostiene che gli effetti del processo
iterativo e simultaneo convergano alla medesima
soluzione.
CANTILEVER TEST
Come modello di studio iniziale su cui testare il
processo di lettura e scrittura è stata scelta una
piastra incastrata di forma quadrata e lato pari ad
un metro. Sia la forma che la dimensione sono
state impostate per semplificare il più possibile
la disposizione dello scanner e l’identificazione
dello spazio digitale con quello fisico. La camera
RGB-D infatti è stata posta - tramite un sostegno
rigido esterno - al centro della piastra, ad un’altezza
di 1.2 metri sull’asse Z. Tale configurazione
è stata studiata per mantenere l’intera piastra
nella zona di maggior precisione del sensore.
Per poter proseguire nella ricerca è stato fondamentale
stabilire una correlazione efficace
tra spazio digitale e spazio fisico. Per agevolare
tale allineamento è stata realizzata una griglia
fisica composta di linee ortogonali distanti 10 cm
51 52
l’una dall’altra e una corrispettiva griglia digitale.
Durante la scansione è stato quindi possibile
allineare le due griglie manualmente muovendo
la camera fino a farle combaciare. Tale procedimento
è stato successivamente automatizzato
attraverso l’utilizzo di marker. Una volta allineata
griglia reale e digitale ciò che accade nello spazio
fisico acquisisce consistenza digitale grazie al
sensore, ed è quindi possibile iniziare il ciclo di
lettura e scrittura.
La griglia di 1x1 m e la posizione fissa della camera
sono rimasti uno standard anche per tutte le
prove successive, sia perché risultano coerenti
con l’area di lavoro del robot sia per la praticità di
definire punti precisi nello spazio reale e digitale.
Stabilita la geometria e la condizione statica è
stata poi realizzata un analisi agli elementi finiti
tramite Karamba3D, software parametrico di
calcolo strutturale. Tramite il quale si sono estratti
i valori scalari delle tensioni principali, le direzioni
principali di tensione e le linee di sforzo, con
l’obbiettivo di informare con essi lo sviluppo del
sistema stigmergico.
Al fine di realizzare il primo ciclo di lettura e scrittura
si sono andate a definire le regole alla base
del comportamento del sistema.
F3. in alto: area di
lavoro digitale (a sx) e
reale (a dx) con griglia
standardizzata e marker
per l’orientamento
della pointCloud.
F3. analisi strutturale
dello schema statico
di riferimento: piastra
di 1x1m incastrata sul
lato sx e caricata con
un carico distribuito
sul lato dx.
F3. Dall’analisi FEM
sono ricavate le
linee di stress e i
valori delle tensioni
principali. inoltre è
visualizzata l’analisi
topostruct realizzata
con millipede.
53 54
COMPORTAMENTO DELL’AGENTE
Posizione futura: ciascun agente è caratterizzato
da tre vettori fondamentali: posizione, velocità e
accelerazione. A partire dai primi due è possibile
definire un quarto elemento definito nell’algoritmo
come future Position (fPos). Questo corrisponde
alla capacità dell’agente di percepire non
l’ambiente occupato dalla sua posizione attuale
ma quello che occuperà di lì a poco nella sua
posizione futura. Permette quindi all’agente di
guardarsi avanti ed anticipare la propria reazione
ad un determinato input esterno.
Area di visione: uno dei parametri fondamentali
di un sistema stigmergico è sicuramente l’area
di visione: ciò che l’agente vede. Tale parametro
è definito da un raggio che descrive la distanza
massima entro cui l’agente percepisce l’ambiente
e da un angolo, calcolato rispetto alla direzione
del vettore velocità, che definisce il grado di apertura
della visuale.
Adesione alla pointCloud: gli agenti per
definizione non hanno nessun vincolo di movimento
nello spazio tridimensionale ma essendo
in questa ricerca tutte le informazioni codificate
nell’ ambiente si è deciso di inserire nella
condizioni di movimento l’aderenza alla mesh.
Ciascun agente quindi in base all’area di visione
vede una porzione di ambiente e le informazioni
che vi sono codificate; operando una media sulla
posizione dei vertici viene calcolato un target che
l’agente tende a seguire e lo mantiene aderente
alla superfice.
Influenza dell’ambiente: le informazioni immagazzinate
nel tensore quali le linee di stress, il
campo vettoriale delle tensioni principali, i limiti
di movimento e le condizioni al contorno vengono
reinterpretate dell’algoritmo in modo da
far operare all’agente una scelta sulla sua futura
direzione.
F3. Visualizzazione
schematica
dell’agente digitale
e della sua area di
visione definita da un
angolo massimo e
due raggi di distanza
dalla sua posizione.
55 56
PRIMO CICLO DI LETTURA E SCRITTURA
Come primo test di fattibilità dell’intera operazione
di lettura e scrittura si è deciso di stabilire i
punti di partenza degli agenti in modo randomico
all’interno dell’area di lavoro e le direzioni delle
velocità iniziali coerentemente con il campo
delle tensioni principali. I risultati hanno evidenziato
come favorire la densificazione dei punti
di partenza in determinate aree si ripercuota
sulla distribuzione del materiale. Inoltre l’influenza
del campo vettoriale delle tensioni permette
all’agente di negoziare tra la traccia stigmergica
e i requisiti strutturali. Nell’immagine in alto infatti
a un certo punto l’agente sceglie di abbandonare
la scia di materiale che stava seguendo a favore
della direzioni indicata dalle tensioni principali.
F3. Area di lavoro e
pointCloud orientata
su cui l’agente si
muove.
F3. in alto: filtraggio
dei colori sulla
pointcloud permette
vdi eliminare il rimore
nelle aree piane.
F3. sotto: Ambiente
reale con griglia
standardizzata e prime
iterazioni del processo
di lettura e scrittura.
In seguito a questa prima prova si è scelto di
organizzare in modo diverso la distribuzione dei
punti di partenza degli agenti. Una volta terminato
ciascun ciclo di deposizione la nuova posizione
di partenza viene determinata a partire da un
mappa che interpola le zone in cui il materiale
è stato depositato e quelle di maggior tensione,
cercando di evitare le prime e favorire le seconde.
Inoltre è stata realizzata una direzionalità
di formazione stabilendo che il punto successivo
fosse in successione rispetto al precedente coerentemente
con la direzione indicate dalle tensioni
principali.
57 58
SIMULAZIONE
Per avanzare nello studio e affinare la definizone
del comportamento in esame è stato fondamentale
sviluppare parallelamente una simulazione
del sistema interamente digitale. Il grande vantaggio
del poter riprodurre un comportamento simile
a quello reale in simulazione è quello di poter
aumentare esponenzialmente il numero di prove
e casistiche in cui il sistema si può sviluppare. Tuttavia
rappresenta una forte semplificazione, sia
in termini di programmazione: la perfezione delle
geometrie generate al computer le rende più facili
da gestire, uniformi e prive di irregolarità non
previste; sia in termini di comportamento materico,
risulta infatti impossibile riprodurre in maniera
esaustiva la geometria del materiale depositato e
le sue possibili variazioni di volume nel tempo.
Per realizzare la simulazione si è scelto
di sostituire la nuvola di punti con una mesh che
descrive la forma dell’ambiente di deposizione, e
il tensore con le scie/tracce degli agenti (denominate
trails) che altro non sono se non il salvataggio
progressivo delle posizioni avute dal singolo
agente durante il movimento. Attraverso queste
tracce è possibile simulare la deposizione di materiale
e realizzare la comunicazione indiretta. Per
permettere una rappresentazione più realistica
dell’ingombro occupato dal materiale si è scelto
di utilizzare un comportamento di separazione:
una forza inversamente proporzionale alla distanza
dalle altre trail che consente all’agente di
seguire le traiettorie senza andarvi contro. Nella
definizione di tale parametro è stato introdotta la
preferenza dell’agente a mantenere la distanza
dalle tracce in direzione perpendicolare al piano
di movimento, in modo da ricreare la tendenza a
seguire i picchi.
Nella pagina seguente si mostra il processo di
formazione del pattern risultato dalla simulazione.
Ciascun agente digitale agisce singolarmente e
viene creato nel momento in cui l’agente precedente
ha terminato la propria traiettoria di deposizione.
Ad ogni immagine si aggiungono circa
dieci traiettorie per un totale di circa duecento
agenti che agiscono separatamente nel tempo.
F3. Schema rappresentante
l’agente
utilizzato in fase di
simulazione, Diventa
fondamentale la
separation per definire
lo spazio occupato dal
materiale nello spazio
reale.
59 60
frameCount: 1000 2000
3000 4000
5000 6000
7000 8000
9000 10000
11000 12000
13000 14000
15000 16000
17000 18000
19000 20000
61 62
Dall’analisi delle simulazioni si sono riscontrati
alcune caratteristiche del sistema che hanno poi
influenzato i successivi sviulppi progettuali. Il
pattern che si viene a creare è una struttura ramificata
che media tra comportamento stigmergico,
proprietà strutturali, esigenze funzionali e qualità
estetiche. Uno dei parametri che si è deciso di
indagare riguarda proprio la posizione di partenza
dei singoli agenti. Gestendo infatti l’avanzamento
nella direzione del tensore degli sforzi delle
successive posizioni iniziali si può influenzare la
morfologia delle connessioni all’interno del sistema
o creando nuove diramazioni innestandosi
lungo una traiettoria oppure ongiungendosi con
quelle già esistenti. Un altro parametro fondamentale
riguarda la forza con cui gli agenti sono
influenzati dal campo vettoriale delle tensioni e
quanto dalle tracce nell’ambiente. Nel proseguire
la ricerca si è attribuita un importanza principale
al comportamento stigmergico rispetto all’allineamento
con il campo di vettori strutturale, tuttavia
utilizzando il campo scalare composto dai moduli
delle tensioni si è andata a creare una mappa di
intensità dove nei punti massima tensione il comportamento
stigmergico non tende a prevalere e
l’agente può abbandonare la traccia in favore di
un nuovo percorso.
F3. Caso A: l’agente
incontra una traccia
preesistente e crea
una nuova diramazione.
Caso B: l’agente
allunga la diramazione
preesistente.
F3.Gradiente di
intesità sul comportamento
di followTrail
in aumento dal basso
verso l’alto.
F3. Gradiente di
intensità sul comportamento
di followPeak
in aumento dal basso
verso l’alto.
63 64
tensMag = 0.2
tensMag = 0.6
tensMag = 0.8
VARIAZIONI
Una volta stabiliti i comportamenti
e le regole fondamentali sottese
alla morfogenesi del sistema si
è proceduto con un analisi dei
parametri principali in modo da
individuarne e gestirne gli effetti.
Per effettuare questa analisi si è
modifcato un parametro per volta
mantenendo gli altri costanti. In
genrale i tre parametri che sono
risultati essere i più interessanti al
fine della formazione del sistema
sono la forza con cui il tensore
degli sforzi influenza il sistema, la
distanza tra un punto di partenza
e il successivo e la direzionalità di
formazione.
2000
8000
TENSORE DEGLI SFORZI
in questa tabella è schemattizzata
l’influenza del tensore degli sforzi
sul sistema, denominato tensorMagnitude
(tensMag). Sull’asse delle
ordinate sono riportati i frame a
cui appartengono le immagini, su
quello delle ascisse il valore che
moltiplicato per campo vettoriale
influisce sulla direzionalità degli
agenti.
14000
Si può notare come per alti valori
di tensMag gli agenti tendano a
formare traiettorie molto nette nella
direzione degli sforzi principali
maggiori e siano assenti connessioni
nelle direzione perpendicolare.
Viceversa per valori più
bassi gli agenti per comportamento
stigmergico tendono a foavorire le
connessioni.
20000
65 66
nextPosDist = 1.2
nextPosDist = 0.7
nextPosDist = 0.2
2000
DISTANZA STARTING POINTS
in questa tabella è schemattizzata
l’influenza della distanza tra punti
successivi di partenza sul sistema.
Tale parametro è denominato
nextPositionDistance (nextPosDist).
Sull’asse delle ordinate sono
riportati i frame a cui appartengono
le immagini, su quello delle ascisse
il valore che moltiplicato per la
distanza massima influisce sulla
distanza che un nuovo punto di
partenza può avere dal precedente.
La distanza massima per tutti e
tre i casi e di 200mm.
8000
Si può notare come diminuendo
la distanza tra punti di partenza
conseguenti aumenta anche il
numero di punti necessari a coprire
la superficie. Per distanze molto
piccole il sistema diventa molto
più denso e si va via via perdendo
sempre di più la diramazione principale
in favore delle diramazioni
secondarie.
14000
20000
67 68
n° passaggi = 1
n° passaggi = 2
n° passaggi = 3
2000
ORDINE DI FORMAZIONE
in questa tabella è schemattizzata
l’influenza dell’ordine di fromazione
tra punti successivi di partenza.
Per realizzare questa prova si è
mantenuto un basso valore di tens-
Mag e un alta distanza tra i punti
inziali. é stata fatto invece variare
l’ordine con cui gli agenti attraversano
il sistema er mezzo di tempi
successivi. Per tempo si intende
un passaggio completo di tutti gli
agenti su l’intera superficie. Un volta
terminato viene fatto partire un
secondo tempo, e così in successione.
Sull’asse delle ordinate sono
riportati i frame a cui appartengono
le immagini, su quello delle ascisse
il numero di iterazioni successive.
8000
Si può notare come all’aumentare
delle iterazioni aumenti la
formazioni di rami secondari e vi
sia un generale densificazione
del sistema. Tuttavia questi effetti
non producono un aumento delle
connessioni trasversali tra i rami. In
seguito a queste prove si è deciso
di introdurre, come vedremo, un
ulteriore comportamento da
integrare a quello qui dimostrato
che favorisca le interconnessioni
tra i rami.
14000
20000
69 70
CROSS BEHAVIOR
Dopo aver svolto le prime analisi sulla morfogenesi
del pattern attraverso i benchmark mostrati
nelle pagine precedenti si è notato come il
processo di formazione sia estremamamente
efficace nello svilupparsi e nel rispondere alle
direzioni delle tensioni principali maggiori ma, al
contrario, non presenta tendenzialmente nessuna
interconnessione tra i rami ausando così una
labilità superficiale nella direzione delle tensioni
secondarie. Per rispondere alla necessità di
connettere tra di loro le ramificazioni si è deciso
di implementare il comportamento fin’ora studiato
dotando gli agenti di una soglia di attenzione e
della possibilità di modificare il loro percorso in
base a questa.
Ogni agente in prima istanza va alla ricerca delle
tracce depositate dagli altri. Se non le trova il
suo comportamento può essere influenzato dalle
direzioni delle tensioni principali o da un secondo
campo vettoriale definito a fini funzionali
e progettuali. Nel momento in cui una traccia
stigmergica (un picco) entra nel campo di visione
dell’agente questo tende ad avvicinarvisi. Dal momento
in cui la traccia stigmergica è arrivata al di
sotto della distanza definita come sensitiveArea
(vedi immagine) l’agente nizia a tener conto del
numero di frame che intercorrono mentre prosegue
lungo quella traccia. La capacità dell’agente di
stancarsi è definita attraverso un parametro che
in questa ricerca è stato legato al valore delle tensioni.
Più è alto il valore delle tensioni nel punto in
cui si trova l’agente, maggiore sarà la probabilità
che ha questo di stancarsi.
L’agente, una volta raggiunta la soglia di
stanchezza inizia ad allargare l’area di visione
F3. Sequenza che
mostra l’attraversamento
degli agenti da
una traccia all’altra.
F3. Schema che rappresenta
l’agente nella
fase di discovery.
Cioè nel momento in
cui ampia il suo raggio
di visione per andare
alla ricerca di nuove
tracce diverse da
quella su cui si trova.
71 72
(discoveryArea) in cerca del picco più vicino non
appartenete alla traccia sulla quale si trova. Fino
a quando l’agente non lo troverà manterrà invariato
il suo comportamento, viceversa una volta
identificato il Target inizierà il comportamento di
avvicinamento, denominato di approaching. Tale
comportamento è composto da due fasi principali
(vedi immagine). La Fase I inizia nel momento
in cui il target viene individuato e termina
soltanto nel momento in cui non vi è più nessun
picco presente nella emptyArea. Fino a quando
la emptyArea non rimarrà vuota l’agente non
sarà sensibile: ciò significa che pur cercando di
avvicinarsi al Target non tornerà ad eseguire il
comportamento di followPeak. Questo permette
di evitare che l’agente torni sulla stessa traccia
che stava tentando di abbandonare. Una volta
che la emptyArea è stata liberata l’agente diviene
sensibile e inizia la Fase II. Questa termina nel
momento in cui un qualsiasi picco - quindi non
solo il Target - rientra nella sua area sensibile e
può quindi riprendere con il comportamento di
followPeak. Il raggio che descrive l’area sensibile
è determinato a partire della emptyArea per
mezzo del parametro sensitiveRadReduction che
consente di regolare la differenza tra le due aree.
Tale riduzione consente di controllare la forma
della curva che l’agente crea in Fase II e inizia a
seguire la nuova traccia.
F3. Comportamento
di cross tra due tracce
distinte. Il modo in cui
gli agenti lasciano una
traccia e si avvicinano
all’altra è gestibile
attraverso i parametri
del sistema.
F3. Fase I: l’agente
va in cerca di nuove
tracce e non ne segue
finchè non si è allontanato
a sufficienza da
quella attuale. Fase
II, l’agente si è allontanato
ed è diventato
sensibile alle nuove
traiettorie.
73 74
material test part I
“...its so much easier
when seafoam green is in fashion”
“Are you in?”, Incubus, Morning View, 2001
Una volta implementata una prima versione del
comportamento di cross che consente l’interconnessione
tra i rami del sistema si è deciso
di testarlo passando dalla simulazione digitale
all’intero processo di scansione e deposizione. Il
comportamento di cross è stato infatti sviluppato
sia per mezzo di trails (simulazione) sia tramite
pointCloud (processo di lettura e scrittura). Questi
primi test sono stati svolti depositando la schiuma
manualmente e utilizzando come riferimento
la griglia di 10cm x 10cm ed area pari a un metro
quadrato. La corrispondenza tra la griglia fisica
e quella digitale consente un livello di approsimazione
accettabile ed inoltre dimostra come un
75 76
errore in fase di deposizine non vada interpretato
come irreversibile ma come parte coerente
e integrabile all’interno del sistema costruttivo
indagato. Una volta che il nuovo ambiente viene
scansionato e tradotto in digitale il sistema può
auto-adattarsi sulla nuova configurazione dell’ambiente
esterno e non risentire di nessun errore
presente o passato.
F3. Risultato dell’iterazione
di scansione e
deposizione integrando
il comportamento
di cross.
In questa fase sono state eseguite due deposizioni
variando i parametri del sistema ma mantenendo
costante il numero di iterazioni. Il parametro
che è stato fatto vairare è l’intensità del campo
vettoriale dell tensioni che provoca un maggiore
o minore allineamento delle traiettorie degli
agenti.
77 78
F3. Prima sequenza di
scansione edeposizione
con un alto
valore di intensità sul
tensore degli sforzi.
F3. Seconda sequenza
in cui gli agenti sono
più influenzati dalla
traccia stignmergica e
meno dalle informazioni
strutturali.
79 80
Una volta terminati i due processi di scansione e
deposizione si è notato come l’influenza del campo
tensoriale sia riscontrabile anche attraverso
un test empirico. Essendo la struttura di partenza
una piastra incastrata si è sollavata la piastra
tenendola ferma per l’incastro e mantenendo
l’altra estremità libera di inflettersi. Si sono quindi
confrontati i riusultati tra il foglio di carta senza
estrusioni e i due test. Quello che risulta evidente
è che anche per sola aderenza al foglio di carta
una diversa distribuzione materica prodotta
F3. in alto: prova con
solo cartone.
F3. sotto: seconda
iterazione.
F3. Risultati più soddisfacienti
dal punto
di vista strutturale
ottenuti con la prima
deposizione.
dallo stesso numero di iterazioni può manifestare
diversi comportamenti strutturali. In particolare
una maggiore aderenza alla direzione delle
tensioni principali ha provocato nel primo test
oltre che una distribuzione più coerente anche un
maggiore inspessimento delle nervature ed un
conseguente miglioramento delle performance
strutturali.
81 82
foam effector development
In seguito all’esecuzione dei primi test di simulazione
digitale e fisici si è proceduto alla realizzazione
di un effettore per l’estrusione di schiuma
poliuretanica bicomponente attraverso un robot a
6 assi: Comau Smart Six. La scelta della schiuma
bicomponente è stata fatta in seguito all’esperienza
avuta nella costruzione del primo effettore.
Questo, come abbiamo visto, ha presentato
alcuni limiti nella controllabilità e nella gestione
del flusso in uscita dovuti al poco margine di movimento
del motore e alla progressiva diminuzione
della pressione all’interno della bomboletta nel
corso della deposizione. A differenza della schiuma
in bomboletta quella bicomponente è composta
da due tubetti separati contenenti le due
sostanze responsabili della formazione del poliu-
83 84
retano espanso. La reazione fra queste due può
quindi avvenire solamente nel momento in cui
una pressione viene applicata all’estremità superiore
delle bombolette per mezzo di un pistone.
Questo consente ai due materiali di fuoriuscire
in forma liquida e di attraversare l’ugello, al cui
interno è posto un miscelatore statico in plastica
che li mescola e ne agevola la reazione. Essendo
tale sistema dipendente solo dalla pressione
esercitata è possibile, attraverso un meccanismo
meccanico e un sistema di controllo della velocità
del motore gestire agevolmente il flusso di materiale
in uscita. Nella fabbricazione dell’effettore si
sono tenute in considerazione le aree di lavoro
del robot al fine di limitare il meno possibile gli
angoli di movimento. Essendo il controllo della
pressione esercitata uno dei parametri fondamentali
si è cercato un sistema che potesse garantire
una coppia alta e allo stesso tempo movimenti
sufficientemente lenti e costanti.
F3. Schema delle
componenti dell’effettore.
F3. Area di lavoro
del robot a sei assi:
Comau Smart Six
utilizzato al Lar di
Bologna.
85 86
Per rispondere a tali caratteristiche è stata individuata
una pistola elettrica a pressione, normalmente
utilizzata per sigillature in silicone. Il
meccanismo di riduzione della rotazione inserito
all’interno della pistola presenta un rapporto di 1 a
18, un basso amperaggio e una coppia sufficientemente
alta da mantenere una velocità e una
pressione costante sulla schiuma. Per tale motivo
si è scelto di utilizzare parte dalle componenti
meccaniche presenti nella pistola e di modificarle
al fine di estrudere schiuma bicomponente. Come
materiale per la struttura di base e di connessione
tra le parti è stato utilizzato compensato marino
multistrato: scelto sia per la sua versatilità che
per le caratteristiche di resistenza. La cremagliera
integrata nella pistola è stata resa solidale con
una piastra a cui sono saldati i due pistoni. Attorno
a questi è stato realizzato il vano in legno per
mentanere in posizione le bombolette. Il meccanismo
di chiusura permette un ricambio veloce
dei tubetti senza dover smontare nè l’effettore
dal robot nè l’ugello dal vano. Per mezzo di un
supporto stampato in 3D presso i laboratori del
Lar di Bologna è stato possibile connettere un
rotary encoder all’asse di rotazione del motore.
F3. Vista frontale sul
vano delle schiume
dell’effettore. Le
piastre in alluminio
sono state inserite per
permettere l’utilizzo
del’effettore sulla
Wasp Delta 3MT.
F3. Parti elettroniche
dell’effettore
che controllano il
motore, l’encoder e il
microSwitch.
Questo, messo in comunicazione seriale con un
computer permette di leggere in tempo reale il
numero di rotazioni compiute nell’unità di tempo
(RPM: revolutions per minute). Tale dato consente
di verificare la ripetibilità dei risultati e valutarne
gli effetti con esattezza.
Infine è stato inserito un microSwitch nella parte
superiore del vano schiume in modo da far combaciare
l’interruttore con la piastra nel momento
in cui questa si avvicina. Il suo scopo è quello di
interrompere la corsa del pistone una volta terminata
la bomboletta. Infatti il contenitore opaco
non consente di vedere la quantità di schiuma
rimasta e la forza esercitata dal motore è tale che
se lasciato andare potre piegare facilmente la
struttura din legno.
L’intero sistema elettronico è stato realizzato
tramite Arduino e controllato direttamente da
Grasshopper con il firmata di Firefly. In questo
modo il computer può inviare velocità e verso
di rotazione al motore e ricevere in tempo reale
RPM e stato del microSwitch.
In seguito, grazie alla collaborazione con Wasp, il
sistema è stato riadattato per poter essere supportato
dalla loro Wasp 3MT e 5MT.
87 88
material test part II
I test di deposizione tramite macchine a controllo
numerico sono stati possibili grazie alla collaborazione
con Wasp, azienda specializzata nella
stampa 3D che dal 2012 investe nello sviluppo e
nella ricerca di sistemi di fabbricazione additiva
che possano confrontarsi con la scala architettonica.
In particolare sono state utilizzate due
stampanti: Wasp Delta 3MT e Wasp Delta 4 MT.
Entrambe sfruttano il sistema di movimento di tipo
robot Delta che consiste di tre bracci collegati da
giunti universali alla base e che mantengono l’orientamento
dell’effettore posto all’estremità. L’area
di lavoro delle due stampanti è di forma cilindrica
e nella 3MT raggiunge circa un metro di diametro
e un metro d’altezza. Le triettorie di deposizione
determinate dall’algoritmo sono state tradotte ad
ogni iterazione di scansione e deposizione in lin-
89 90
F3. Area di lavoro della
Wasp Delta 3 MT.
Una volta determinato
il centro e l’altezza
dell’asse zeta della
machcina è possibile
correlare spazio
digitale e reale.
F3. Supporto per la
camera, mantenuto
fisso e vista dell’effettore
in posizione
Home.
91 92
guaggio G-Code e inviate alla macchina. All’effettore
è stato aggiunto un supporto composto di tre
piastre per essere sorretto dai bracci.
PRIMI TEST DI DEPOSIZIONE
Nei test iniziali si è eseguito un tracciato lineare
predefinito al fine di correlare la velocità di
movimento della macchina con la velocità di
rotazione del motore. Nella prima prova entrambe
le velocità sono mantenute costanti. Si noti il
comportamento della schiuma nel momento
in cui torna su se stessa senza aver terminato
l'espansione. Nel secondo esempio la velocità
di movimento è costante e quella di estrusione
cresce con salti di 25 PWM ad ogni curva.
L'espansione è direttamente proporzionale alla
quantità di materiale depositato mentrei tempi
di espansione rimangono costanti. Il controllo
è istantaneo. Nell'immagine F120 si nota dopo
la prima curva dall'alto, dopo circa cinque
cm, un aumento nel diametro del materiale: è
esattamente il punto in cui è avvenuto il salto.
F3. sx: prova di
estruzione a velocità
di movimento costante
e velocità di rotazione
costante. Erroneamente
si è fatto
iniziare la deposizione
dalla posizione Home.
F3. Seconda prova
con velocità di
movimento castante e
velocità di estrusione
crescente ad ogni
curva.
93 94
TEST DI MORFOGENESI PLANARE
Una volta settati i parametri di velocità del sistema
si è proceduto alla realizzazione del primo
ciclo di lettura e scrittura. Lo schema statico è
sempre quello di piastra incastrata e la geometria
della superfice circolare è stata scelta in base
all’area di lavoro disponibile sulla Wasp Delta
3MT. Si è scelto di iniziare con una superfice
planare per semplificare e rendere più evidente
possibile il comportamento materico.
In questo test è stata favorita la stratificazione di
layer successivi al fine raggiungere un maggior
spessore delle nervature nelle zone di maggior
tensione. I risultati mostrano come il pattern
emerga al crescere del numero di iterazioni
anche di fronte ad un compoirtamento materico
estremamente volatile, non prevedibile.
F3. Mesh ricostruita a
partire dalla scansione
e traiettorie degli
agenti pronte per
essere inviate tramite
G-Code alla macchina.
95 96
F3. Sequenza della
deposizone di schiuma
e formazione del
pattern.
F3. Modello digitale
intermedio
97 98
TEST DI MORFOGENESI IN CURVATURA
Dopo aver portato a termine con successo i test
sul piano si è passati allo sperimentare la deposizione
su superfici curve. Per la realizzazione
degli stampi la tecnica indagata in questa tesi è il
Robotic Hot Wire Cutting (RHWC). Tuttavia al fine
di dimostrare la fattibilità del processo si è proceduto
alla realizzazione di due strutture in legno
la cui geometria potesse fungere da esempio
dimostrativo senza limitare o modificare in alcun
modo la veridicità dei risultati.
La forma dei due mold è stata generata a partire dal
paraboloide iperbolico, superfice notoriamente rigata,
che può essere quindi facilmente fabbricata per
RHWC. La dimensione delle due superfici è all’incirca
di un metro quadrato e per ricreare la curvatura
sono stati utilizzati fili di nylon posti in tensione sul
telaio in legno.
99 100
18 19 20 21 223 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 4041 42 43 44 45
18 19 10 20 21 11 223 12 24 25 13 26 27 14 28 29 15 30 31 16 32 33 17 34 35 18 36 37 19 38 39 20 4041 42 21 43 44 22 45
18 19 20 21 223 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 4041 42 43 44 45
21
22
23
24
25
26
27
2829
30 31
32 33
34 35
36 37
3839
40
41
42 43
44
45
46
47
48
18 19 20 21 223 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 4041 42 43 44 45
9
10
10
11
11
12
12
13
13
14
14
15
15
16
16
17
17
18
18
19
19
20
20
21
21
22
22
10
11
12
13
14
15
16
17
18
19
20
21
22
9
10
11
12
13
14
15
16
21
22
23
24
25
26
27
2829
30 31
32 33
34 35
36 37
3839
40
41
42 43
44
45
46
47
48
21
10
22
23
11
24
25
12
26
27
13
2829
14
30 31
15
32 33
16
34 35
17
36 37
18
3839
19
40
41
20
42 43
44
21
45
46
47
48
22
9
10
11
12
13
14
15
16
17
18
19
20
21
22
9
10
11
12
13
14
15
16
17
18
19
20
21
22
9
10
11
12
13
14
15
16
21
22
23
24
25
26
27
2829
30 31
32 33
34 35
36 37
3839
40
41
42 43
44
45
46
47
48
9
10
11
12
13
14
15
16
9
10
11
12
13
14
15
16
17
18
19
20
21
22
9
10
11
12
13
14
15
16
F3. Mold I e II studiati
per essere accostati e
consentire una estruzione
in continuità.
101 102
c
f
h
l
o
a
b
d
e
g
i
m
n
ASSEMBLAGGIO E ORDINE DI FABBRICAZIONE
Il processo stigmergico in qui sviluppato agisce
in continuità sull’intera superficie. L’area di lavoro
del robot (se questo è ancorato al suolo) è limitata
e richiede una discretizzazione dell’intera supericie
in parti. Per ovviare a questo problema si è
ricorso ancora una volta ad una delle caratteristiche
fondamentali del comportamento stigmergico:
la possibilità di lavorare in tempi e spazi
differenti a patto che l’ambiente sia condiviso da
tutti gli agenti. Grazie a questo principio è possibile
depositare materiale su una singola superficie
alla volta. La superficie rigata totale è stata
quindi suddivisa in parti facilmente fabbricabili
per RHWC. Ciascun mold ha nella parte superiore
la superficie di deposizione mentre in quella
inferiore presenta diversi piani di inclanazione
che permettono a due mold consecutivi di essere
accostabili e al robot di depositare materiale nelle
aree di giuntura. Una volta effettuata la deposizione
i mold possono essere divisi e la schiuma
facilmente tagliata. Una volta effettuata la seprazione
saranno pronti per la fase di laminazione del
fibrocomposito.
Mold a Mold a + Mold b Mold b Mold
103 104
F3. Prova di estruzione
in curvatura. Questo
benchmark dimostra
l’efficacia dell’adesione
della schiuma
alla superficie.
105 106
F3. Dettagli del materiale
depositato
F3. Modello digitale
intermedio con
visualizzazione
della curvatura e delle
prossime traiettorie di
deposizione.
107 108
109 110
applicazione architettonica
111 112
L’applicazione architettonica del sistema è stata
studiata attraverso lo studio delle superfici rigate;
in particolare dell’iperboloide il quale pur essendo
geometricamente di facile definizione presenta un
enorme variabilità e differenziazione nel momento
in cui si lo si va a tagliare. L’accostamento di più iperboloidi
consente la creazione di grandi coperture.
Tale sistema è stato pensato per la realizzazione di
un grande open space per il tecnopolo di Reggio
Emilia. Area attualmente in fase di recupero che presenta
grandi vuoti urbani e che l’amministrazione ha
intenzione di utilizzare per eventi pubblici. Il sistema
fin qui studiato è stato quindi declinato all’interno di
questo contesto.
113 114
115 116
117 118
119 120
121 122
123 124