31.10.2023 Views

Foam Making Sense

Thesis project by Matteo Salsi - advisor: Alessio Erioli co-advisor: Umberto Scarcia - Thesis project done @ Università di Bologna - 2018

Thesis project by Matteo Salsi - advisor: Alessio Erioli co-advisor: Umberto Scarcia - Thesis project done @ Università di Bologna - 2018

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Tesi di Laurea in Architettura e Composizione Architettonica

Corso di Ingegneria Edile Architettura

Scuola di Ingegneria e Architettura

Alma Mater Studiorum - Università di Bologna

aa 2017/2018

Relatore: Prof. Alessio Erioli

Corelatore: Umberto Scarcia

Matteo Salsi

1 2


foam making sense

Integration of agent-based logics,

behavioral robotic deposition and material feedback

for multi-performance ridged shells, with a case study

of an open space enhancer

Tesi di Laurea in Architettura e Composizione Architettonica

Corso di Ingegneria Edile Architettura

Scuola di Ingegneria e Architettura

Alma Mater Studiorum - Università di Bologna

aa 2017/2018

Relatore: Prof. Alessio Erioli

Corelatore: Umberto Scarcia

Matteo Salsi


. . . foam

. . . making

. . . sense


.

abstract

.

La seguente tesi di ricerca affronta il progetto

architettonico da un punto di vista multidisciplinare,

integrando biomimetica, informatica,

computer vision e robotica. L’indagine si focalizza

sull’interazione via feedback tra un robot, utilizzato

per la deposizione di materiale, e un algoritmo basato

su sistemi complessi ispirati al mondo biologico.

L’obiettivo è quello di esplorare le potenzialità

morfologiche, costruttive ed espressive generate

dall’influenza reciproca di design computazionale

e comportamento materico reale.

Alla base di questa ricerca vi è l’approfondimento

dei sistemi stigmergici, utilizzati nella programmazione

dell’algoritmo che definisce le traiettorie

eseguite dal robot, e la messa a punto di un

sistema di visione e scansione tridimensionale che

agisce come mezzo di comunicazione tra ambiente

reale e digitale. Lo sviluppo di questi temi ha

portato alla realizzazione di un processo iterativo

di scansione e deposizione che genera un risultato

non determinabile a priori ma che è frutto della

negoziazione tra le intenzioni progettuali, i limiti

fabbricativi, le performance richieste e il comportamento

del materiale. La stigmergia applicata alla

fabbricazione robotica consente, a differenza dei

normali metodi di fabbricazione digitale, di legare

fase di design e costruzione in un unico processo

in cui il robot agisce come estensione fisica diretta

del comportamento dell’agente virtuale.

I risultati ottenuti hanno portato alla realizzazione

di superfici architettoniche in vetroresina

dove il materiale depositato, schiuma poliuretanica,

sviluppa un sistema di nervature che integrano

performance strutturali, funzionali e ornamento.

I mold necessari alla laminazione del fibro-composito

sono stati realizzati per mezzo di superfici

rigate e Robotic Hot-Wire Cutting, tecnica che

consente l’impiego di materiali riciclabili di relativa

economicità (EPS - polistirene espanso) e il taglio

di grandi superfici in tempi brevi.

Infine, è stata studiata l’applicazione architettonica

del sistema con la realizzazione di un

open-space polifunzionale all’interno di un progetto

di riqualificazione urbana attualmente in atto

presso il Parco Innovazione delle Ex-Officine Reggiane

a Reggio Emilia.


introduzione

“I leave it to you to find your own instrument, which is

necessarily an investment for combat”

Marcel Proust citato da Gill Deleuze

Fin dalle sue origini la relazione tra architettura e

computazione è stata oggetto di un acceso dibattito.

Risale al 1964 la First Boston Architectural

Center Conference denominata “Architecture and

the Computer” nella quale architetti, ingegneri e

ricercatori provenienti da varie discipline si trovarono

per confrontarsi sui recenti avanzamenti e sulle

nuove possibilità introdotte dalla computazione in

ambito architettonico.

Le opinioni fin dal principio furono in

contrasto fra chi con entusiasmo intravedeva nei

computer una immediata applicazione all’interno

del processo progettuale e chi ne interpretava

l’avvento come “la fine del ruolo tradizionale

dell’architetto, costretto a passare in secondo piano

nel momento in cui avesse scelto di utilizzare

lo strumento del diavolo, nemico dell’umanesimo,

dell’arte, della diversità e della bellezza.” Alcuni

teorici come Vigler già all’epoca sottolinearono

che l’utilizzo del computer come una semplice

macchina da disegno, rapida ma fine a sé stessa,

non fosse sostanzialmente il miglior uso possibile.

Christopher Alexander nel 1965 argomentò che

“un computer è essenzialmente un esercito di

impiegati, equipaggiati di libri, carta e penna, tutti

stupidi e privi di iniziativa, ma abili nel seguire esattamente

milioni di precise istruzioni definite … Nel

chiederci come il computer possa essere applicato

alla progettazione architettonica dobbiamo prima

di tutto chiederci che tipo di problemi possono essere

risolti da un esercito di impiegati … Al momento

ne vedo molto pochi.”

Il punto fondamentale di queste teorizzazioni è

9 10


tutt’ora pertinente: per esplorare appieno il computazionale,

è necessario chiedersi, parafrasando

Alexander, quali compiti possiamo far svolgere

all’esercito di impiegati per creare una forma di

intelligenza? E quali sono le prospettive di un sistema

computazionale in grado di gestire una propria

autonomia decisionale più o meno complessa?

La curva esponenziale che descrive il

progresso tecnologico dell’ultimo secolo e l’integrazione

di conoscenze afferenti a discipline

diverse quali la biologia, la filosofia, l’informatica

e la robotica hanno portato nel corso degli anni a

fornire alcune risposte a queste domande. L’architettura

ha frequentemente preso ispirazione

dalla natura, dalle sue forme, dalle sue strutture e

più recentemente, dalla logica intrinseca dei suoi

processi morfologici. La modellazione di questi

complessi processi naturali richiede l’utilizzo dei

computer, e non è una coincidenza che lo sviluppo

computativo sia stato significativamente influenzato

proprio dalla costruzione di modelli digitali

che consentissero la simulazione di tali processi. Il

parallelismo tra natura e architettura è interpretabile

oggi con un’analogia tra codice genetico contenente

le informazioni riguardanti la forma (intesa

come insieme di regole interne che definiscono la

morfogenesi) e codice computazionale. L’ insieme

delle istruzioni che compongono il sistema, oltre

ad avere una loro coerenza interna, per essere interpretate

devono confrontarsi costantemente con

l’ambiente esterno, ovvero il substrato su cui il sistema

definito ha la capacità di generarsi. Il proget-

F1. in alto a sx:

copertina del catalogo

della conferenza

“Architecture and the

Computer”, organizzata

a Boston nel 1964.

F2. in alto a dx:

Schizzi di Christopher

Alexander.

F3. in alto: vista

aerea di un gregge di

pecore. uno dei tanti

esempi di comportamento

di sciame

presenti in natura.

tista ha quindi la possibilità di guidare attraverso la

propria sensibilità lo sviluppo del sistema definendo

in maniera più o meno vincolante l’insieme di

queste regole e le caratteristiche che costituiscono

il substrato al fine del raggiungimento di determinati

obbiettivi o performance, ma a differenza dei

normali processi di design dove il prodotto finale

è definito in maniera diretta dal modellatore, in

questo caso il progettista pur essendo chiaro nelle

intenzioni, è “cieco” rispetto all’eventuale risultato

del processo che sta creando.

Ciò significa che da un singolo sistema

è possibile generare un numero potenzialmente

infinito di variazioni, le quali tramite l’utilizzo di

sistemi a controllo numerico sono rese fabbricabili.

La precisione e la velocità dei sistemi di fabbricazione

robotica consentono oggi di interfacciare fase

di progettazione e fase di fabbricazione in un’unica

fase in cui la capacità espressiva del sistema

si genera nello spazio e nel tempo. Un ulteriore

tassello è stato aggiunto con la dotazione dei

sistemi fabbricativi di sensori che consentano loro

di percepire l’ambiente reale piuttosto che quello

digitale e di decidere in relazione a determinati

stimoli quali azioni compiere nel corso del processo.

Questo filone di ricerca in ambito architettonico

è ancora largamente in fase di sviluppo e prende

il nome di Behavioral Fabrication. Questa tesi di

ricerca si propone di indagare e approfondire proprio

questo filone della ricerca contemporanea.

11 12


digital fabrication /

behavioral fabrication

“E così torniamo al modo medievale e pre-notazionale di

concepire e creare allo stesso tempo - questo è ciò che

chiamiamo artigianalità digitale.” M.Carpo

Quando guardiamo agli sviluppi tecnologici notiamo

che spesso, nella fase iniziale, le nuove tecnologie

vengono utilizzate per imitare vecchi processi

o riprodurre vecchi prodotti. Questo è vero per

quasi tutte le tecnologie, sia software che hardware.

Per quanto riguarda l’ambito architettonico

ne sono un esempio le prime generazioni di applicazioni

CAD commerciali dove lo schermo imita

le tavole da disegno e il mouse diventa la matita

con cui disegnare. Lo stesso è anche vero per le

tecnologie di produzione CAM, utilizzate principalmente

per automatizzare e ottimizzare processi di

fabbricazione già esistenti.

È possibile sostenere che stiamo passando da

questa prima fase di utilizzo delle tecnologie digitali

per progettare e realizzare manufatti predigitali

ad una seconda fase in cui si iniziano ad esplorare

processi e prodotti realmente ispirati dalle potenzialità

computazionali; cioè oggetti che non avremmo

potuto realizzare e forse nemmeno concepire

in epoca predigitale.

L’introduzione dei sistemi di fabbricazione digitali a

controllo numerico come stampanti 3D, laser cutter

13 14


2D o routing ha segnato un’inversione rispetto ai

metodi di produzione industriali. Come sostiene

Mario Carpo in the Alphabet and the Algorithm:

Tutto ciò che è digitale è variabile, e la variabilità

digitale va contro a tutti i postulati di identicità

che hanno caratterizzato la storia delle tecnologie

e della cultura occidentale nel corso degli ultimi

cinquecento anni. In architettura questo significa la

fine della standardizzazione industriale.

Se da un lato queste tecnologie svincolano dalla

produzione di oggetti standardizzati, dall’altro il

passaggio dal disegno alla fabbricazione rimane

lineare e unidirezionale. Terminato il design

dell’oggetto - indipendentemente dal metodo di

rappresentazione utilizzato – le sue qualità geometriche

vengono tradotte in una serie di istruzioni

statiche (incapsulate ad esempio in un GCode)

ed inviate alla macchina. Una volta iniziata la

fabbricazione non vi è quindi più nessuna influenza

tra design e costruzione. Questo processo

non è diverso dal modo di operare dell’architetto

rinascimentale - abituato alla disgiunzione tra il

processo intellettuale e l’atto fisico del fare. Tale

visione è stata teorizzata da Leon Battista Alberti

nel XV secolo ed ha avuto un grande impatto sulla

disciplina tanto da rappresentare ancora oggi il

F3. Water-Based

Digital Fabrication

Platform: fabbricazione

robotica additiva

di strutture leggere,

biodegradabili e materialmente

eterogenee.

Mit Media Lab

F3. Silk Pavillion

del Mit Media Lab,

integra form-finding e

fabbricazione ispirata

a processi biologici.

principale metodo di fabbricazione architettonica:

basato sull’autorialità del progettista e sul primato

della notazione geometrica.

Quindi, se per poter costruire qualcosa devo prima

poterlo disegnare, i vincoli della rappresentazione

geometrica condizioneranno le possibilità fabbricative

e il modo stesso che il progettista ha di

pensare il processo costruttivo. Ma cosa accade

se i mezzi di produzione smettono di eseguire una

serie di istruzioni predeterminate e acquisiscono la

capacità di recepire, valutare ed agire?

Con il recente sviluppo e l’introduzione di sistemi

cyber-fisici nell’industria manifatturiera le macchine

di produzione sono sempre più in grado di

percepire, elaborare e interagire fra di loro e con

l’ambiente fisico in tempo reale. Questo permette

di realizzare un processo di design che invece di

essere interamente predeterminato all’interno del

dominio digitale, si disvela nel regno materiale

attraverso un processo esplorativo di costruzione

computazionale. Menges.

Le stesse tecnologie sviluppate ai fini dell’automazione

industriale aprono la possibilità di realizzare

una fabbricazione basata sul comportamento.

L’architettura ha sempre cercato di standardizzare

i materiali o inventarne di nuovi per renderli sem-

15 16


F3. in alto a sx: ICD/

ITKE Research Pavillion

2014/15. Nella

deposizione robotica

delle fibra di carbonio

è stato utilizzato un

sistema per valutare

la deformazione

della superficie del

gonfiabile.

plici, isotropici, così da poterli controllare; ma un

approccio basato sul comportamento consente di

considerare l’errore e l’imprevisto non come un

problema di precisione ma piuttosto come un potenziale

generativo. Il materiale diviene in questo

modo componente attiva del design, non solo attraverso

l’anticipazione delle sue possibilità - attraverso

simulazione digitale - ma soprattutto tramite

una continua raccolta di dati che ne descrivono

il comportamento. Questo significa che nuove

informazioni vengono ottenute durante il processo

e nuove caratteristiche possono essere percepite:

il design si evolve contemporaneamente alla fase

di creazione.

Questa potenziale fusione dei processi di progettazione

e realizzazione rappresenta una sfida

considerevole sia per il consueto modo che

abbiamo di immaginare il design che per le attuali

tecniche di progettazione. Per quanto riguarda il

primo, l’impresa intellettuale di esplorare il potenziale

progettuale latente di uno spostamento verso

la costruzione computazionale potrebbe trovare

maggiore ispirazione nei modelli biologici piuttosto

che in quelli tecnologici. Ciò potrebbe includere i

comportamenti costruttivi che si verificano nell’intero

spettro del regno animale – ad esempio, le

F3. a dx: Adaptive

Pneumatic Shell

Structure: progetto

che utilizza feedbeck

per l’irrigidimento di

strutture gonfiabili.

F3. in basso a sx:

scansione di un tronco

biforcato utilizzato nel

progetto Wood Chip

Barn per fini strutturali.

architetture animali degli uccelli tessitori o delle

vespe - o gli onnipresenti processi ontogenetici

presenti in natura. Per quanto invece riguarda le

tecniche di progettazione, la modellazione basata

su agenti è stata identificata come un approccio

particolarmente promettente, in quanto consente

di colmare direttamente lo spazio tra dominio virtuale

e mondo fisico. menges

Il potenziale introdotto dall’adozione di questi sistemi

consente quindi di inventare metodi radicalmente

nuovi di progettazione e realizzazione. Particolarmente

interessante è il modo in cui i processi

di fabbricazione digitale diventano in questo modo

più aperti, flessibili o, in altre parole, progettabili.

Oggi i ricercatori si stanno impegnano attivamente

nello sviluppo di nuovi processi di fabbricazione

come parte del processo di progettazione. Questo,

oltre ad essere una grande promessa rappresenta

una sfida al ruolo del designer, poiché non si tratta

solo di aggiornare strumenti e tecniche ma è la

concezione stessa di “progettazione” ad essere

messa in discussione.

17 18


CO-CREAZIONE UOMO-MACCHINA

In un certo senso, siamo passati dal documentare il

design all’informare il design, e ora ci stiamo spostando

in un luogo in cui l’atto del design sarà una

co-creazione tra persone e macchine. C.Bass

L’atto stesso di fabbricazione sta diventando sempre

più performativo, una dimostrazione in tempo reale

che le prestazioni del fare fanno parte del design.

Ma non solo: il feedback in senso reale permette

l’interazione umana, consente all’uomo di inserirsi

nel reticolo di scelte operate dal robot e modificarne

l’esito finale senza distruggerne la coerenza generale.

Come accade nei sistemi naturali le perturbazioni

esterne causano una riorganizzazione del sistema e

in questo senso è già possibile immaginare scenari in

cui la sensibilità umana agisce in parallelo alla costruzione

realizzando un sempre più stretto rapporto collaborativo.

Se fino a qualche anno fa questa visione

era considerata fantascientifica, oggi nel mondo delle

arti performative e non solo gli esempi che esplorano

questi territori sono già molti.

DAL LABORATORIO ALL’INDUSTRIA

Con il progredire della ricerca ci si domanda quando

queste nuove tecniche potranno entrare a far parte

F3. in alto a sx:

installazione dello

studio ATONATON che

esplora la percezione

e la comunicazione

uomo-macchina.

F3. n alto a dx: Interlacing.

Procedura algortmica

interattiva di

disposizione di oggetti

nello spazio tramite

tecnologia CNC.

F3. a lato: Augmented

Materiality. Studio

sulla generazione di

forme basato su feedback

in tempo reale.

del nostro modo di costruire. Grazie a numerosi sforzi

accademici, lo slancio sta crescendo: mentre le prime

ricerche si limitavano alla realizzazione di prototipi

di dimensioni ridotte, l’ultimo decennio ha visto la

genesi di una gamma di tecnologie di costruzione

robotica promettenti per l’adozione nell’ambito delle

costruzioni. I punti critici da superare per permettere

a questi sistemi di passare dal laboratorio al cantiere

consistono nel portare la fabbricazione alla scala

architettonica, e lo sviluppo di un’industria commercialmente

sostenibile - rompendo forse l’attuale fase

di stasi tecnologica.

La conservazione architettonica è un’area in cui i

nuovi metodi di fabbricazione sono stati adottati in

anticipo, con conseguente accettazione a livello di

settore. Uno degli esempi più intraprendenti è sicuramente

il cantiere della Sagrada Familia dove sistemi

di scansione e fabbricazione robotica sono stati applicati

nello studio e nella realizzazione delle geometrie

disegnate da Gaudì. È proprio grazie all’adozione

di questi sistemi che è stato possibile avvicinare la

data prevista per il completamento.

Una delle tecniche che oggi appare tra le più promettenti

per la fabbricazione robotica a scala architettonica

è il taglio a controllo numerico con filo a caldo, Robotic-Hot-Wire-Cutting

(RHWC). Tale tecnica si avvale

di un materiale estremamente leggero ed economicamente

convenienti, riciclabile e facile da modellare:

la schiuma EPS. Per queste ragioni il materiale ha visto

nel tempo molte applicazioni dalla realizzazione di

casseri, nelle infrastrutture autostradali e nell’industria

delle costruzioni. Tipicamente viene lavorato tramite

CNC router, e per forme a doppia curvatura è ancora

necessario; ma può essere anche taglio per mezzo di

RHWC, metodo le cui origini possono essere associate

alla stereotomia e alle superfici sviluppabili delle

19 20


murature in pietra.

RHWC presenta una serie di vantaggi quando viene

utilizzato per creare casseforme. Alla scala architettonica,

gli approcci tradizionali come la fresatura

CNC diventano proibitivi in termini di tempo. A fronte

del volume richiesto per architetture in situ su scala

reale, come ponti e edifici commerciali, la rimozione

incrementale del materiale offerto dalla tecnologia

di fresatura richiede tempi di lavorazione considerevoli

e comporta costi di produzione inaccettabili per

la maggior parte dei budget di costruzione (McGee

2011, Feringa 2011 ). Le ore di lavorazione possono

essere ridotte tollerando una superficie più ruvida,

tuttavia i tempi di produzione rimangono proibitivi

e i percorsi di lavorazione grezzi simultaneamente

complicano il processo di sformatura. Ciò limita la

prospettiva applicativa per la tecnologia di fresatura

CNC principalmente per le attività di dettaglio, i

budget esclusivi di fascia alta e i cast ripetitivi, in cui è

possibile riutilizzare le casseforme. RHWC offre una

serie di vantaggi. La rimozione di materiale in questo

processo è essenzialmente volumica; il processo di

taglio elabora una superficie in un unico movimento

di spazzamento, mentre nella fresatura il volume

viene rimosso strato per strato, vincolato dalla profondità

limitata della punta di fresatura. La differenza

nella velocità di produzione è facilmente comprensi-

F3. Carrara Robotics

by Jelle Feringa

(Odico) taglio di una

lastra di marmo on il

medesimo processo

dell’Hot Wire Cutting.

F3. Gramazio & Kohler

Research: prove

geometriche sulle

possibilità espressive

delle forme generate

tramite Hot Wire

Cutting.

bile geometricamente; mentre la fresatura rimuove

essenzialmente una sfera, RHWC rimuove un cilindro

di materiale in un istante nel tempo (Fig. 4) che

equivale a una differenza di 1 o 2 ordini di grandezza,

come mostra il seguente studio comparativo, approssimando

le differenze nel tempo di produzione per

entrambe le tecniche di produzione (tabella 1).

È importante ricordare che, mentre l’aumento della

velocità di produzione è drammatico, lo sforzo supplementare

per razionalizzare la geometria a superfici

rigate - un argomento chiave della geometria

architettonica - non viene preso in considerazione

in questo confronto. Mentre RHWC è notevolmente

efficiente, la grammatica geometrica che può essere

prodotta è un sottoinsieme di ciò che può essere

prodotto dalla fresatura. Tuttavia, è importante

rendersi conto che la scala architettonica funziona a

favore di RHWC. Prima di tutto, nel senso che ora si

possono produrre forme che tradizionalmente non

sarebbero fabbricate con metodi CNC. In secondo

luogo, grazie alla scala, la limitazione alle superfici

rigate diventa meno problematica, dal momento

che una maggiore superficie rende la costruzione di

un’approssimazione soddisfacente meno problematica.

21 22


Mentre la fresatura CNC a robot ha da tempo dimostrato

la sua versatilità, il suo principio meccanico

di sottrazione di materiale incrementale è intrinsecamente

lento e quindi non è adatto a scalare economicamente

oltre l’esclusività di progetti di costruzione

di alto profilo. In quanto tale, la capacità del RHWC

di tagliare grandi volumi di EPS con tempi di lavorazione

significativamente più bassi, con conseguenti

superfici di colata ad alta scorrevolezza, può produrre

notevoli riduzioni dei costi nella produzione di

casseforme.

Nella presente ricerca di tesi si è deciso di approfondire

una delle tecniche di fabbricazione che attualmente

sembra essere più vicina a realizzare questo

passaggio di scala: il taglio robotico per mezzo di filo

a caldo: Robotic-Hot-Wire-Cutting (RHWC). L’industria

leader di tale tecnica è Odico, la quale ha confrontato

l’efficienza della fresatura robotizzata con RHWC

degli stampi di EPS, ed ha rilevato che RHWC riduce

i tempi di un fattore compreso tra 10 e 100. Questo

risultato è particolarmente rilevante per raggiungere

una scalabilità utile nella produzione di costruzioni,

dove il volumi di grandi elementi è un problema

centrale.

Per la fabbricazione robotizzata di tali volumi, il tempo

di lavorazione sostituisce il lavoro come fattore di

costo chiave e diviene quindi un obiettivo primario.

F3. in alto a sx:

accostamento di due

profili di paraboloidi

iporbolici in EPS

ottenuti per RHWC.

F3. a dx: Zaha Hadid,

Mathematics Gallery.

Le panchine sono

realizzate a partire

da superfici rigate

per mezzo di stampi

stampi in polistirolo.

23 24


emergence and

self-organized systems

“...and the thousands of fishes moved as a huge beast,

piercing the water. They appeared united, inexorably bound

to a common fate. How comes this unity?”

anonymous, 17 century, da “Flocks, Herds, and Schools: A Distributed Behavioral Model” di Craig Raynolds

25 26

Lo studio dei sistemi auto-organizzanti è stato

esplorato a partire dal 1953 con il lavoro svolto

da Grassé sulle società di insetti. Grassé scoprì

che queste società presentavano mutevoli forme

d’ordine senza la presenza di nessun controllo

centralizzato.

La varietà dei sistemi in cui compare la nozione

di auto-organizzazione rende difficile trovare una

definizione univoca. Nella sua forma più semplice,

l’auto-organizzazione può essere considerata

come la formazione di un ordine generale a

partire da interazioni locali tra le parti più piccole

di un sistema inizialmente disordinato.

La questione fondamentale che accomuna i

sistemi auto-organizzati è, infatti, la capacità di

implementare un comportamento globale efficace

al fine di realizzare determinati obiettivi

intenzionali o non intenzionali.

Intuitivamente, l’auto-organizzazione si riferisce

al fatto che la struttura o l’organizzazione di un


sistema appare privo di alcun controllo esplicito

o di vincoli imposti dall’esterno. In altre parole,

l’organizzazione è intrinseca al sistema auto-organizzante,

e deriva da vincoli e meccanismi

interni, che sono basati sulle interazioni locali tra

i suoi componenti.

Queste interazioni possono essere dirette, cioè

tra gli agenti stessi, o indirette: effettuate attraverso

l’ambiente esterno.

La natura non deterministica e dinamica delle

interazioni permette la comparsa delle proprietà

emergenti del sistema, le quali trascendono le

caratteristiche di tutte le singole sotto unità che

lo compongono. Inoltre, le operazioni dinamiche

influenzano e modificano l’ambiente in cui si trova

il sistema e, a sua volta, le alterazioni dell’ambiente

influenzano nuovamente il sistema in un

ciclo continuo di feedback.

Nella maggior parte dei casi le influenze ambientali

e le perturbazioni non influenzano i meccanismi

interni ma ne causano la riorganizzazione

dinamica. Di conseguenza, il sistema evolve

dinamicamente sia nel tempo che nello spazio,

F3. Fotografia di Lukas

Felzmann. Stormo di

merli dalle ali rosse

si forma e si riformula

a Sacramento Valley,

California.

e può mirare sia a mantenere una forma stabile

che presentare fenomeni transitori.

La condizione di stabilità può essere raggiunta

attraverso forme differenti di stimoli che possono

essere raggruppate in due categorie: feedback

positivi e feedback negativi. Il feedback negativo

produce limiti o vincoli che portano a una correzione

strutturale o all’inibizione di determinati

comportamenti. Al contrario il feedback positivo

promuove e stimola il cambiamento, consentendo

alle variazioni locali di crescere ed influenzare

maggiormente il modello globale. La coesistenza

di entrambi i sistemi e la loro reciproca

influenza consente al sistema di autoregolarsi e

auto-organizzarsi.

SISTEMI NATURALI

Fenomeni auto-organizzanti ed emergenti possono

essere osservati in molti sistemi naturali

come ad esempio stormi di uccelli, banchi di

pesci o greggi di pecore. In questi casi il comportamento

auto-organizzante collettivo viene

raggiunto attraverso la percezione sincrona

27 28


dell’ambiente esterno e degli altri agenti. Il primo

a teorizzare il funzionamento di questi sistemi

fu Craig Reynolds che nel 1986 realizzò Boids,

programma di simulazione del comportamento di

sciame in cui il movimento aggregato del branco

è creato a partire da un modello comportamentale

distribuito molto simile a quello che compare

in un gregge naturale. Ogni uccello simulato è

implementato come attore indipendente che naviga

secondo la sua percezione locale dell’ambiente

dinamico seguendo semplici regole:

Separation: evitare le collisioni con gli agenti

vicini.

Alignment: cercare di allineare la propria velocità

a quella dei vicini.

Cohesion: cercare di restare vicino agli agenti

vicini.

F3. In alto a sx: Simulazione

al computer

del comportamento di

sciame.

F3. in alto a dx:

Swarm system con

visualizzazione

della prossimità tra

gli agenti. Ciascuno

vede i suoi vicini entro

un predefinito raggio

d’azione.

F3. in basso a dx e

sx: immagini della

simulazione Boids di

Craigh Reynolds

Il movimento del branco è quindi il risultato

dell’interazione tra i comportamenti dei singoli

agenti. Per rendere ancora più verosimile la

simulazione occorre considerare non soltanto le

interazioni interne ma anche quelle esterne, cioè

informare il sistema tramite l’ambiente. Per rendere

sensibili gli agenti al mondo esterno Reynold

propone due soluzioni: o l’introduzione di un

campo di forze repulsive in prossimità dei corpi

da evitare oppure un nuovo comportamento da

lui definito come Steer-to-avoid, in cui il singolo

agent valuta di quanto modificare la prioria traiettoria

in base alle geometrie che rientrano nel

suo campo di visione.

Altri esempi di sistemi auto-organizzanti

naturali sono le colonie di insetti come formiche,

api, vespe e termiti, le quali hanno dimostrato

di saper integrare perfettamente le loro attività

individuali. Ogni singolo insetto sembra operare

individualmente e senza alcuna supervisione

centrale.

Ma a differenza del comportamento di sciame

l’interazione tra membri in tali colonie avviene

per stigmergia e cioè effettuata indirettamente

e in modo asincrono modificando e successivamente

percependo lo stato dell’ambiente circostante.

29 30


STIGMERGIA

s.f. [dal greco stigma <<puntura, segno che ne

rimane>>, ed ergon <<lavoro, azione o prodotto

del lavoro>>]

Il concetto di stigmergia è stato utilizzato per

analizzare le attività auto-organizzanti in una

gamma di domini sempre più ampia, inclusi gli

insetti sociali, la robotica, le comunità Web e la

società umana. La stigmergia può essere definita

come un meccanismo di coordinamento indiretto

in cui la traccia lasciata da un’azione in un mezzo

stimola un’azione successiva.

Il concetto di stigmergia fu introdotto dall’entomologo

francese Pierre-Paul Grassé per descrivere

un meccanismo di coordinamento usato dagli

insetti. Il principio è che il lavoro svolto da un

agente lascia una traccia nell’ambiente che a sua

volta stimola le prestazioni di lavoro successivo,

dello stesso o di altri agenti. Questa mediazione

tramite l’ambiente garantisce che le attività vengano

eseguite nel giusto ordine, senza necessità

di pianificazione, controllo o interazione diretta tra

gli agenti.

La nozione di stigmergia ha permesso a Grassé

di risolvere il “paradosso della coordinazione”,

F3. NonstandardStudio,

Daniel Bolojan.

Simluazione di

comportamento

stigmergico.

F3. Schema riassuntivo

dei meccanismi

che definiscono la

stigmergia. L’ambiente

è il mezzo di comunicazione

che contiene

le tracce degli agenti

e ne stimola le azioni

successive.

ovvero la questione di come insetti di intelligenza

molto limitata, senza una comunicazione apparente,

riescano ad affrontare in modo collaborativo

progetti complessi, come la costruzione di un

nido.

L’intuizione è venuta a Grassé osservando il comportamento

delle termiti nella costruzione del loro

nido. Notò che inizialmente le termiti trasportano

il fango e lo depositano qua o là intraprendendo

traiettorie apparentemente casuali. Tuttavia, i

depositi che vengono creati stimolano gli insetti

ad aggiungere ulteriori quantità di fango in quei

punti. Così, i piccoli cumuli si trasformano rapidamente

in colonne che alla fine si uniscono per

formare una cattedrale intricata di archi ad incastro.

L’unica comunicazione tra le termiti è indiretta:

il lavoro parzialmente eseguito dagli uni fornisce

informazioni agli altri su dove dare il proprio contributo.

Il processo stigmergico può quindi essere schematizzato,

riducendolo alle sue componenti minime,

come una sequenza di azioni che si verificano

all’accadere di determinate condizioni:

condizione --> azione [immagine paper]

SE la condizione è valida, ALLORA esegue un’azi-

31 32


one

L’azione può essere intesa come un processo

causale che produce un cambiamento nello stato

del mezzo. Normalmente, assumiamo che un’azione

sia eseguita da un agente, che in genere è

visto come un sistema autonomo, orientato agli

obiettivi.

Rispetto ai metodi tradizionali di organizzazione,

la stigmergia fa richieste assolutamente minime

agli agenti. In particolare, in collaborazione stigmergica

non è necessaria:

pianificazione o anticipazione: gli agenti devono

solo conoscere lo stato attuale dell’attività; l’obiettivo

generale, il passo successivo o il risultato

finale sono irrilevanti per il loro lavoro attuale.

In Wikipedia, non esiste un piano che specifichi

quali informazioni dovrebbero essere aggiunte

all’enciclopedia.

memoria: gli agenti non hanno bisogno di ricordare

la loro precedente attività; nessuna informazione

sullo stato del lavoro deve essere memorizzata

ovunque tranne che nel mezzo.

comunicazione: nessuna informazione deve essere

trasferita tra gli agenti, tranne che attraverso

il lavoro svolto nel mezzo; in particolare non c’è

bisogno che gli agenti negozino su chi fa cosa.

consapevolezza reciproca: ogni agente lavora in

F3. Simulazione di

comportamento

stigmergico fra 10000

agenti. Frame 150.

F3. Simulazione di

comportamento

stigmergico al frame

300. In pochissimo

tempo è emersa una

struttura stigmergica

che varia nel tempo e

risponde a comportamenti

locali.

modo indipendente; non ha nemmeno bisogno

di sapere che gli altri partecipano. Ad esempio, i

contributori di Wikipedia in genere non si conoscono

o comunicano tra loro.

presenza simultanea: in generale non c’è bisogno

che gli agenti siano presenti nello stesso momento

o nello stesso luogo; le attività sono registrate

nel mezzo in modo che possano essere percepite

dagli agenti quando e dove sono disponibili. È

così che le comunità in tutto il mondo possono

collaborare su un singolo progetto software.

sequenza imposta: le azioni vengono eseguite

automaticamente nell’ordine corretto, dal momento

che un’azione non verrà avviata fino a

quando non verrà trovata la condizione giusta. il

flusso di lavoro emerge spontaneamente, poiché

il completamento di un’attività determina l’avvio

dell’attività successiva

controllo o supervisione centralizzata: errori o

perturbazioni vengono automaticamente corretti,

in quanto creano semplicemente una nuova

condizione che stimola nuove azioni per affrontare

la sfida; l’attività è auto-organizzativa: l’organizzazione

globale emerge dalle interazioni locali,

senza alcun controllo centralizzato che diriga

l’attività

AZIONE PARALLELA E SEQUENZIALE

33 34


F3. Schema che

esemplifica il rapporto

tra gli agenti e l’ambiente.

Questi possono

agire separatamente

nel momento in ui la

memoria dell’ambiente

non decade.

F3. Simulazione

stigmergica in cui si

mette in evidenza l’informazione

immagazzinata

nell’ambiente.

Il gradiente di bianco

indica la quantità di

feromoni presente in

ciascuna cella.

Il coordinamento (stigmergico) può essere di due

tipi fondamentali: parallelo o sequenziale. Agenti

che agiscono in parallelo aggiungono semplicemente

i loro effetti contemporaneamente. Poiché

le loro azioni sono simultanee, non è possibile

che l’una influisca causalmente sull’altra. Pertanto,

il loro effetto totale risulta essere la semplice

aggregazione, sovrapposizione o somma dei loro

effetti individuali. Viceversa, come abbiamo visto,

le regole funzionano in sequenza, e dal momento

che il risultato del primo influenza le prestazioni

del secondo, due agenti che agiscono in maniera

sequenziale possono sviluppare un’interazione.

È proprio questo meccanismo a consentire la

non-linearità del sistema, cioè il raggiungimento

di un effetto totale diverso dalla somma dei singoli

effetti.

È dunque possibile individuare delle differenze

fondamentali di comportamento che si delineano

in base alla transitorietà o meno delle informazioni

del mezzo. Le tracce persistenti portano a

quella che può essere definita stigmergia asincrona:

i diversi agenti o produzioni non devono

necessariamente essere presenti allo stesso

tempo, poiché la traccia rimane per guidarli in

qualsiasi momento successivo. Il vantaggio è che

le informazioni rimangono disponibili, in modo

che possano essere elaborate nell’occasione più

appropriata e possano accumularsi e maturare a

lungo termine. Le tracce transitorie portano alla

stigmergia sincrona: gli agenti devono essere

presenti simultaneamente affinché la coordinazione

possa avere successo.

TRACCE TRANSITORIE VS PERSISTENTI

Il mezzo può essere attivo, cioè includere un

comportamento interno a cui tutti gli agenti sono

influenzati come ad esempio un tempo di dissipazione

delle informazioni trattenute. Ma anche

un mezzo passivo è soggetto a dissipazione, erosione

o all’aumento di entropia comportato dalla

seconda legge della termodinamica. Ciò significa

che strutture e marcatori tendono a decadere

spontaneamente, a meno che non siano attivamente

mantenuti e ricostruiti.

35 36


vision system

Come abbiamo visto per poter parlare di fabbricazione

robotica comportamentale è necessario

dotare il sistema costruttivo di un dispositivo

cyber-fisico che attraverso un loop continuo di

feedback informa iterativamente il sistema riguardo

l’ambiente in cui si sta muovendo e il comportamento

del materiale. Per realizzare questo

ciclo è stato scelta una camera RGB-D, cioè uno

scanner 3D accoppiato ad una camera RGB: il

sistema in questione è il Microsoft Kinect. Dispositivo

inizialmente sviluppato come sensore di

movimento per console di videogiochi è stato poi

adottato da numerosi istituti di ricerca diventando

uno standard nell’ambito della computer vision.

Tale strumento permette di realizzare in tempo

reale una ricostruzione dello spazio in tre dimensioni

attraverso una nuvola di punti organizzati in

griglia a cui il dispositivo associa i relativi colori

letti dalla camera. Ai fini della ricerca sono state

testate sia la versione uno che la versione due

del dispositivo, in quanto entrambe presentano

un livello di dettaglio sufficiente, un frame rate al

37 38


di sotto del secondo, ed un costo accessibile. I

due dispositivi dispongono di due sistemi di ricostruzione

tridimensionale differenti le cui caratteristiche

hanno influenzato nel corso della ricerca

parte delle scelte progettuali.

Kinect I misura la profondità con il principio del

Pattern Projection, metodo in cui un pattern a infrarossi

noto viene proiettato nella scena e la distorsione

del pattern viene analizzata per calcolare

la profondità. Kinect II contiene una fotocamera di

tipo Time of Flight (ToF) e determina la profondità

misurando il tempo che la luce emessa impiega

per uscire dalla camera, arrivare all’oggetto e

ritornare alla camera. Pertanto, emette costantemente

luce infrarossa con onde modulate e rileva

la fase spostata della luce di ritorno. Paper.

Mentre nelle prove iniziali è stato utilizzato la

prima versione del dispositivo per le fasi successive,

e quindi per la maggior parte della ricerca, si

è scelto di impiegare Kinect II. Tale scelta deriva

dal fatto che la tecnica del Pattern Projection

risente in maniera non lineare della distanza

dall’oggetto scansionato. In pratica man mano

che ci si allontana dalla superficie di riferimento

le misurazioni di profondità tendono a perdere

accuratezza; dove per accuratezza si intende la

distanza (offset) del valore misurato rispetto alla

distanza reale della camera dall’oggetto. Questa

caratteristica del Kinect I non rappresenta un

problema se ad essere scansionate sono superfici

piane mentre può portare a errori nell’ordine

di 20-30 mm se, come nel caso di questa

tesi, vengono rilevate superfici con variazioni di

profondità pari a 40-60 cm. Viceversa, Kinect II

presenta un’accuratezza maggiore al variare della

F3. In basso a sx: Gradiente

sulla distanza

dalla ground truth a

distanze crescenti: da

sx: 0.6m, 1.2m, 1.6m.

F3. in alto a dx: area

di lavoro e griglia di

riferimento scansionata

tramite kinect.

Si mette in evidenza

il raggio entro cui i

risultati sono maggiormente

accurati.

distanza ed un offset costante di -18 mm: essendo

l’errore costante è semplice correggerlo in fase

di elaborazione della nuvola di punti. Tale risultato

è valido principalmente per i pixel centrali

dove la deviazione standard è costante mentre

tende a crescere considerevolmente per i pixel

più esterni. Questa considerazione ha portato alla

definizione di un’area circolare di rifermento di

300 pixel di raggio attorno al centro della camera

e di una distanza standard del dispositivo dall’oggetto

che consentisse di includere nell’area di

riferimento una superficie di un metro quadrato

– cioè di dimensioni paragonabili al campo

di azione del robot. Un’ultima ragione per cui si

è scelto di utilizzare la camera di tipo Time of

Flight è il diverso tipo di rumore prodotto. Kinect

I presenta una forma di rumore per macro-aree:

ciascun pixel ha valori ed errori simili a quelli

dei suoi vicini. Il rumore di Kinect II può essere

invece definito per-pixel: ciascun punto ha valori

di profondità leggermente diversi dai vicini;

circa nell’ordine di 5 mm. Questo difetto rende il

dispositivo meno preciso - dove per precisione si

intende la ripetibilità di misurazioni consecutive a

parità di condizioni - e può essere parzialmente

corretto in fase di elaborazione attraverso la fu-

39 40


sione di scansioni successive. Nonostante questa

imprecisione di fondo la seconda camera risulta

essere migliore nella ricostruzione delle proporzioni

geometriche dell’oggetto.

Un ulteriore valutazione è stata fatta sull’influenza

dei colori nella misurazione di profondità del

Kinect II. Da alcuni test fisici è stato rilevato che

colori chiari e superfici poco riflettenti rappresentino

le condizioni ottimali per la scansione, al

contrario i colori scuri che si avvicinano al nero e

i riflessi di luce troppo forti causano un aumento

del rumore. Per l’esecuzione dei test di deposizione

si è quindi prestata particolare attenzione

al colore e al materiale da utilizzare come sfondo

cercando di ottenere un basso livello di rumore,

l’assenza di riflessi e un buon contrasto con il

colore della schiuma. Quest’ultima caratteristica

è stata fondamentale per poter separare il materiale

depositato dallo sfondo e limitare il rumore

della camera.

Dopo un’attenta analisi delle caratteristiche e dei

limiti del sistema di visione si è scelto di operare

mantenendo la posizione del dispositivo fissa in

modo da garantire la ripetibilità dei risultati nel

tempo.

F3. Componenti

elettronici del Kinect

II per la scansione del

tipo Time of Flight

F3. Scansione di

un area soggetta a

luminosità differenti.

Si nota come le zone

eccessivamente

chiare creino notevole

disturbo alla camera.

COLOR FILTER

Come abbiamo visto la misurazione della profondità

fornita dalla camera RGB-D presenta un

margine d’errore. Tale imprecisione è causata da

un rumore diffuso per cui ogni punto della nuvola

ha uno sfasamento della coordinata Z rispetto

ai vicini che può andare da zero ad un massimo

di 5 mm. Questa imprecisione è leggermente

maggiore nelle zone di colore scuro e migliora

in quelle chiare; è quindi meno accentuata sulle

estrusioni. Per limitare tale fenomeno è possibile

operare una fusione di scansioni successive. Cioè

la mesh ambientale viene ricostruita utilizzando le

posizione medie di ciascun punto, tuttavia pur diminuendo

l’errore a circa 3 mm di scarto il rumore

risulta ancora percettibile. Questo può causare

dei problemi in fase di analisi della curvatura

soprattutto nelle aree di sfondo: l’algoritmo infatti

legge picchi e valli dovuti al rumore anche quando

la superficie risulta piana.

Per ottenere una misurazione delle curvatura più

precisa si è scelto di filtrare i punti appartenenti

al materiale depositato per mezzo dei colori. A

questo scopo si è scelto di utilizzare uno sfondo

in cartoncino opaco di colore blu, abbastanza

41 42


rigido da non avere eccessive deformazioni. Tale

colore contrasta bene con quello della schiuma,

ed è quindi semplice da isolare: attraverso una

limitazione nel dominio dei colori RGB a partire

dalla stessa pointcloud vengono create due

nuvole di punti distinte. Una contenente le estrusioni,

l’altra i punti appartenenti allo sfondo. Di

quest’ultima viene fatta per ogni punto un analisi

della distanza dalla mesh digitale di riferimento.

Sottraendo vettorialmente tale distanza si proiettano

i punti della point cloud e si riduce drasticamente

l’errore. Successivamente le due pointcloud

vengono ricomposte in una nuova mesh

che conserva tutte le informazioni di profondità

del materiale depositato e presenta superfici regolarizzate

come sfondo. Il risultato ottenuto limita

gli effetti del rumore alle sole zone in cui è presente

la schiuma, nelle quali però risulta essere

sufficientemente contenuto da non comprometterne

la rappresentazione geometrica.

La mesh ricomposta è utilizzata solamente ai fini

del calcolo della curvatura. Infatti, i valori di curvatura

così ottenuti vengono poi assegnati ai vertici

della mesh iniziale, la quale, al netto del rumore, è

quella che meglio descrive lo spazio reale in cui il

robot dovrà muoversi. Infine, gli agenti si muovono

nell’ambiente seguendo un target, e dato che

questo viene calcolato come media ponderata

della posizione dei punti che rientrano nella loro

area di visione, esso svolge anche una funzione

inerziale che consente agli agenti di ignorare le

irregolarità locali e mantenere traiettorie fluide e

aderenti alla mesh.

Immagini blu/rosse: stigmergia sui picchi e sulle

valli come sottotitoli.

CURVATURE ANALISYS

Oltre all’informazione geometrica intrinseca della

pointcloud e la colorazione di ciascun punto una

delle informazioni fondamentali che è stato possibile

estrarre dal comportamento del materiale

e l’analisi della curvatura. Una volta orientata la

scansione, essendo i punti organizzati in griglia

ed indicizzati in base alla posizione, è possibile

ricostruire la mesh ambientale. La curvatura di

ciascun vertice della mesh è quindi calcolata

misurando l’angolo tra il vettore che connette il

vertice con il centro della faccia afferente e la

F3. Sequenza di

filtraggio dei colori. Le

zone eccessivamente

chiare creano riflessi

difficili da gestire. per

tale motivo si è optato

per un materiale di

sfondo opaco.

F3. Analisi della curvatura

operata sulla

mesh ricostruita a partire

dalla pointCloud.

le zone rosse indicano

i picchi, le blu le zone

planari, le bianche

quelle concave.

normale della faccia. Tale misura viene operata

per tutte le facce che hanno il medesimo vertice

in comune. La media degli angoli ponderata

sull’area delle rispettive facce restituisce il valore

della curvatura nel punto. Tale valore è compreso

tra Pi greco e zero. Le zone della mesh che presentano

planarità avranno valori che si avvicinano

a Pi greco mezzi, valori inferiori si avranno nelle

zone concave e viceversa valori superiori per

quelle convesse.

In questo modo è possibile distinguere

sulla mesh - attraverso un gradiente di colore - le

zone planari, concave e convesse. In altre parole,

diventa immediato individuare i picchi e le valli

che si vengono a creare dalla deposizione del

materiale. Tale informazione risulta fondamentale

in quanto la sola alternativa per l’individuazione di

valli e picchi poteva essere l’utilizzo della coordinata

Z dei punti rispetto ad un piano di riferimento:

sistema che funziona perfettamente per

deposizioni sul piano ma non per superfici curve.

Inoltre, consente all’agente di avere un informazione

globale e non locale, cioè non limitata alla

sua area di visione.

L’analisi della curvatura diviene quindi

ancora prima del fattore geometrico la principale

informazione per realizzare la stigmergia. Gli

agenti si muoveranno sulla superficie indifferentemente

se si trovano in zone planari, tenderanno

43 44


ad avvicinarsi ai picchi nel momento in cui questi

entreranno nella loro area di visione ed in base

alle circostanze avranno più o meno repulsione

per le valli. L’adesione alla mesh ambientale è

quindi garantita in quanto tutte le informazioni si

muovono su di essa.

attraverso una fresa a controllo numerico o altri

metodi sottrattivi. I tempi di cura relativamente rapidi

permettono la deposizione di strati successivi

in maniera continua. La texture di superficie e la

sua colorazione la rendono semplice da rilevare e

da isolare nel processo di scansione.

Nella prima parte della ricerca e nelle prove di

deposizione manuali è stata utilizzata una pistola

per l’erogazione di schiuma tramite bomboletta

pressurizzata. Il sistema di erogazione è composto

da un ugello metallico di circa 15 cm e da una

valvola che controllata manualmente consente la

COMPORTAMENTO MATERICO

La schiuma poliuretanica espansa è stata scelta

come materiale di deposizione per la facilità di

sperimentazione e la possibilità di gestire un ampio

spettro di comportamenti materici. Controllando

la pressione con cui la schiuma viene emessa

è possibile ottenere comportamenti altamente

prevedibili o viceversa estremamente volatili.

Grazie alla sua leggerezza può essere facilmente

montata su un robot e utilizzata in processi di

fabbricazione additivi. Una volta indurita il materiale

può essere facilmente tagliato o modellato

F3. Sviluppo del

comportamento

stigmergico su di una

mesh contenente

informazioni basate

sulla geometria

stessa.

F3. Vista superiore

del sistema dove gli

agenti tendono a mantanere

la traiettoria

lungo i picchi.

gestione del flusso di fuoriuscita della schiuma.

Il controllo risulta sufficientemente preciso se la

pressione che il gas all’interno della bomboletta

esercita sulla schiuma è mantenuta costante.

Questo non accade in quanto man mano che la

schiuma fuoriesce la pressione diminuisce causando

una riduzione del flusso di erogazione. È

tuttavia possibile contrastare tale diminuzione

aumentando il passaggio di schiuma consentito

dalla valvola. Quindi mentre non è possibili controllare

la pressione esercitata dal gas sulla schiuma

si può invece correlare la quantità di materiale

45 46


F3. in alto a sx: prova

manuale di estrusione

a differenti livelli di

apertura della valvola

presente sulla pistola.

F3. in basso a dx: Test

di estrusione dell’effettore

realizzato

insieme ad Eugenio

Bettucchi presso il

Laboratorio di Automazione

e Robotica di

Bologna

F3. in alto a dx: prima

versione dell’effettore

con vano per ospitare

la camera RGB-D e

ugello di estrusione.

erogato con il livello di apertura della valvola.

Attraverso dei test manuali si è notato come tale

rapporto sia lineare per aperture piccole e tenda

ad aumentare esponenzialmente per valori più

alti.

Al fine di automatizzare il processo è stato realizzato

un primo effettore per braccio robotico

a sei assi di rotazione (Comau Smart Six) che

ingloba in un unico supporto sia le componenti

necessarie alla deposizione sia il sensore di

visione. Il robot utilizzato è dotato di un sistema

di controllo aperto che gli consente di ricevere

informazioni di movimento in tempo reale tramite

un apposito controller manuale oppure attraverso

Matlab: software di calcolo che si occupa della

risoluzione della cinematica inversa per la corretta

esecuzione delle traiettorie. Il robot, all’interno

dello spazio limite di lavoro, consente di depositare

con movimenti fluidi il materiale attraverso

un’ampia libertà di movimento e di inclinazione

della piastra terminale. Il peso finale dell’effettore,

ampliamente al di sotto della soglia massima dei

6 kg al polso permette al robot di muoversi con

una precisione del decimo di millimetro. Il meccanismo

di apertura della valvola è stato gestito

attraverso una cremagliera calibrata e uno stepper

motor controllato da Arduino tramite Matlab.

Questa prima versione ha però riscontrato alcuni

limiti, quali la difficolta di gestire agevolmente

la quantità di schiuma erogata a causa del poco

margine di movimento della cremagliera e la

diminuzione della pressione all’interno della

bomboletta che rende il flusso di erogazione non

costante nel tempo.

47 48


from multy to

asynchronous agency

L’approccio al design indagato in questa ricerca

deriva dalle logiche basata su multi-agent

systems, ed in particolare dal comportamento

stigmergico che, come abbiamo visto, genera un

ordine complesso a partire dall’accumulazione e

la riorganizzazione della materia. Queste logiche

di auto-organizzazione forniscono le basi per un

approccio alla fabbricazione di tipo stigmergico.

Mentre questi sistemi tipicamente coinvolgono

molti agenti semplici, non vi è necessità di una

comunicazione diretta tra di essi, poiché è l’ambiente

a divenire il substrato comunicativo. Di

conseguenza lo stesso livello di complessità

può essere raggiunto attraverso l’interazione

49 50


dell’ambiente esterno con un singolo agente o

una grande popolazione di agenti – assumendo

che il numero di operazioni sia equivalente. Altra

condizione necessaria è che il feedback non sia

soggetto ad evaporazione, cioè che l’ambiente

trattenga le informazione senza dissiparle. Questo

risulta automaticamente vero nel momento in

cui il materiale una volta depositato non viene

rimosso. Si potrebbe quindi parlare erroneamente

di sistema basato su un singolo agente, ma in

realtà tale condizione è solo di tipo temporale.

Perché una forma d’ordine complesso emerga

rimane necessario il verificarsi di più interazioni

tra agenti diversi; cioè che non è necessario,

come visto in precedenza, è invece la condizione

di contemporaneità. Questa proprietà della

stigmergia consente di far emergere un assemblaggio

complesso a partire da un singolo robot

oppure una piccola popolazione di robot, sfruttando

la loro capacità di lavorare autonomamente

per lunghi periodi di tempo.

L’approccio indagato emerge proprio da queste

logiche basate su un singolo robot che deposita e

interagisce con un materiale che presenta qualità

volatili. L’approccio stigmergico alla robotica è

stato indagato da studi di ricerca e speculazione

architettonica come Kokkugia, che porta avanti

da diverso tempo ricerche riguardanti gli algoritmi

basati su sistemi multi-agenti e approcci comportamentali

alla costruzione che si sono successivamente

indirizzati verso l’integrazione di meccanismi

di feedback e interazione robotica in tempo

reale.

CONDIZIONE DI SIMULTANEITÀ VS PROCESSO

ITERATIVO

Oggi i sistemi di feedback e di controllo robotico

consentono una comunicazione in tempo reale

che permette ai processi digitali e fabbricativi

da raggiungere una effettiva simultaneità. Tale

approccio è stato indagato da Roland Snooks e

Gwyllian Jahn e sintetizzato nella ricerca Stigmergic

Accretion; tra i riferimenti di questa ricerca

di tesi. Essi presentano il concetto di “Patient

Agency”: per realizzare un polimorfismo tra agent

e robot è necessario condizionare il comportamento

dell’agente digitale alla velocità del processo

di fabbricazione robotica. In questo modo il

F3. a sx: simulazione

di 1000 agenti in

contemporanea rispettivamente

al frame

100, 300 e 700.

F3. a dx: primo test

di simulazione di

agenti in sequenza.

il pattern generato è

influenzato dalle linee

di stress della piastra

incastrata.

comportamento digitale “aspetta” sia semanticamente

che concettualmente il completamento dei

compiti fisici del robot. Questo permette al robot

e all’agente di operare simultaneamente senza ricorrere

a un processo sequenziale di simulazione

digitale e successiva esecuzione. Nella ricerca

intrapresa in questa tesi non è stato possibile per

limiti tecnici raggiungere tale condizione di simultaneità.

Pertanto, si è cercato di raggiungere un

flusso di lavoro che permettesse si avvicinarvisi il

più possibile: mantenendo la condizione iterativa,

che alterna la fase di comportamento digitale a

quella di deposizione robotica, si ritiene che per

intervalli di tempo sufficiente brevi è possibile

ottenere comportamenti simili se non identici a

quelli ottenuti in completa simultaneità. Questa

considerazione nasce dell’esperienza acquisita

e dalla constatazione che la principale differenza

tra processo iterativo e simultaneo consiste nella

capacità del secondo di poter influenzare il comportamento

digitale dell’agente con le tracce che

esso stesso ha da poco depositato: cioè se e solo

se un agente torna velocemente su sé stesso.

Implementando il comportamento degli agenti

in modo da scoraggiare il verificarsi di tale circostanza

e mantenendo un alta frequenza delle

iterazioni si sostiene che gli effetti del processo

iterativo e simultaneo convergano alla medesima

soluzione.

CANTILEVER TEST

Come modello di studio iniziale su cui testare il

processo di lettura e scrittura è stata scelta una

piastra incastrata di forma quadrata e lato pari ad

un metro. Sia la forma che la dimensione sono

state impostate per semplificare il più possibile

la disposizione dello scanner e l’identificazione

dello spazio digitale con quello fisico. La camera

RGB-D infatti è stata posta - tramite un sostegno

rigido esterno - al centro della piastra, ad un’altezza

di 1.2 metri sull’asse Z. Tale configurazione

è stata studiata per mantenere l’intera piastra

nella zona di maggior precisione del sensore.

Per poter proseguire nella ricerca è stato fondamentale

stabilire una correlazione efficace

tra spazio digitale e spazio fisico. Per agevolare

tale allineamento è stata realizzata una griglia

fisica composta di linee ortogonali distanti 10 cm

51 52


l’una dall’altra e una corrispettiva griglia digitale.

Durante la scansione è stato quindi possibile

allineare le due griglie manualmente muovendo

la camera fino a farle combaciare. Tale procedimento

è stato successivamente automatizzato

attraverso l’utilizzo di marker. Una volta allineata

griglia reale e digitale ciò che accade nello spazio

fisico acquisisce consistenza digitale grazie al

sensore, ed è quindi possibile iniziare il ciclo di

lettura e scrittura.

La griglia di 1x1 m e la posizione fissa della camera

sono rimasti uno standard anche per tutte le

prove successive, sia perché risultano coerenti

con l’area di lavoro del robot sia per la praticità di

definire punti precisi nello spazio reale e digitale.

Stabilita la geometria e la condizione statica è

stata poi realizzata un analisi agli elementi finiti

tramite Karamba3D, software parametrico di

calcolo strutturale. Tramite il quale si sono estratti

i valori scalari delle tensioni principali, le direzioni

principali di tensione e le linee di sforzo, con

l’obbiettivo di informare con essi lo sviluppo del

sistema stigmergico.

Al fine di realizzare il primo ciclo di lettura e scrittura

si sono andate a definire le regole alla base

del comportamento del sistema.

F3. in alto: area di

lavoro digitale (a sx) e

reale (a dx) con griglia

standardizzata e marker

per l’orientamento

della pointCloud.

F3. analisi strutturale

dello schema statico

di riferimento: piastra

di 1x1m incastrata sul

lato sx e caricata con

un carico distribuito

sul lato dx.

F3. Dall’analisi FEM

sono ricavate le

linee di stress e i

valori delle tensioni

principali. inoltre è

visualizzata l’analisi

topostruct realizzata

con millipede.

53 54


COMPORTAMENTO DELL’AGENTE

Posizione futura: ciascun agente è caratterizzato

da tre vettori fondamentali: posizione, velocità e

accelerazione. A partire dai primi due è possibile

definire un quarto elemento definito nell’algoritmo

come future Position (fPos). Questo corrisponde

alla capacità dell’agente di percepire non

l’ambiente occupato dalla sua posizione attuale

ma quello che occuperà di lì a poco nella sua

posizione futura. Permette quindi all’agente di

guardarsi avanti ed anticipare la propria reazione

ad un determinato input esterno.

Area di visione: uno dei parametri fondamentali

di un sistema stigmergico è sicuramente l’area

di visione: ciò che l’agente vede. Tale parametro

è definito da un raggio che descrive la distanza

massima entro cui l’agente percepisce l’ambiente

e da un angolo, calcolato rispetto alla direzione

del vettore velocità, che definisce il grado di apertura

della visuale.

Adesione alla pointCloud: gli agenti per

definizione non hanno nessun vincolo di movimento

nello spazio tridimensionale ma essendo

in questa ricerca tutte le informazioni codificate

nell’ ambiente si è deciso di inserire nella

condizioni di movimento l’aderenza alla mesh.

Ciascun agente quindi in base all’area di visione

vede una porzione di ambiente e le informazioni

che vi sono codificate; operando una media sulla

posizione dei vertici viene calcolato un target che

l’agente tende a seguire e lo mantiene aderente

alla superfice.

Influenza dell’ambiente: le informazioni immagazzinate

nel tensore quali le linee di stress, il

campo vettoriale delle tensioni principali, i limiti

di movimento e le condizioni al contorno vengono

reinterpretate dell’algoritmo in modo da

far operare all’agente una scelta sulla sua futura

direzione.

F3. Visualizzazione

schematica

dell’agente digitale

e della sua area di

visione definita da un

angolo massimo e

due raggi di distanza

dalla sua posizione.

55 56


PRIMO CICLO DI LETTURA E SCRITTURA

Come primo test di fattibilità dell’intera operazione

di lettura e scrittura si è deciso di stabilire i

punti di partenza degli agenti in modo randomico

all’interno dell’area di lavoro e le direzioni delle

velocità iniziali coerentemente con il campo

delle tensioni principali. I risultati hanno evidenziato

come favorire la densificazione dei punti

di partenza in determinate aree si ripercuota

sulla distribuzione del materiale. Inoltre l’influenza

del campo vettoriale delle tensioni permette

all’agente di negoziare tra la traccia stigmergica

e i requisiti strutturali. Nell’immagine in alto infatti

a un certo punto l’agente sceglie di abbandonare

la scia di materiale che stava seguendo a favore

della direzioni indicata dalle tensioni principali.

F3. Area di lavoro e

pointCloud orientata

su cui l’agente si

muove.

F3. in alto: filtraggio

dei colori sulla

pointcloud permette

vdi eliminare il rimore

nelle aree piane.

F3. sotto: Ambiente

reale con griglia

standardizzata e prime

iterazioni del processo

di lettura e scrittura.

In seguito a questa prima prova si è scelto di

organizzare in modo diverso la distribuzione dei

punti di partenza degli agenti. Una volta terminato

ciascun ciclo di deposizione la nuova posizione

di partenza viene determinata a partire da un

mappa che interpola le zone in cui il materiale

è stato depositato e quelle di maggior tensione,

cercando di evitare le prime e favorire le seconde.

Inoltre è stata realizzata una direzionalità

di formazione stabilendo che il punto successivo

fosse in successione rispetto al precedente coerentemente

con la direzione indicate dalle tensioni

principali.

57 58


SIMULAZIONE

Per avanzare nello studio e affinare la definizone

del comportamento in esame è stato fondamentale

sviluppare parallelamente una simulazione

del sistema interamente digitale. Il grande vantaggio

del poter riprodurre un comportamento simile

a quello reale in simulazione è quello di poter

aumentare esponenzialmente il numero di prove

e casistiche in cui il sistema si può sviluppare. Tuttavia

rappresenta una forte semplificazione, sia

in termini di programmazione: la perfezione delle

geometrie generate al computer le rende più facili

da gestire, uniformi e prive di irregolarità non

previste; sia in termini di comportamento materico,

risulta infatti impossibile riprodurre in maniera

esaustiva la geometria del materiale depositato e

le sue possibili variazioni di volume nel tempo.

Per realizzare la simulazione si è scelto

di sostituire la nuvola di punti con una mesh che

descrive la forma dell’ambiente di deposizione, e

il tensore con le scie/tracce degli agenti (denominate

trails) che altro non sono se non il salvataggio

progressivo delle posizioni avute dal singolo

agente durante il movimento. Attraverso queste

tracce è possibile simulare la deposizione di materiale

e realizzare la comunicazione indiretta. Per

permettere una rappresentazione più realistica

dell’ingombro occupato dal materiale si è scelto

di utilizzare un comportamento di separazione:

una forza inversamente proporzionale alla distanza

dalle altre trail che consente all’agente di

seguire le traiettorie senza andarvi contro. Nella

definizione di tale parametro è stato introdotta la

preferenza dell’agente a mantenere la distanza

dalle tracce in direzione perpendicolare al piano

di movimento, in modo da ricreare la tendenza a

seguire i picchi.

Nella pagina seguente si mostra il processo di

formazione del pattern risultato dalla simulazione.

Ciascun agente digitale agisce singolarmente e

viene creato nel momento in cui l’agente precedente

ha terminato la propria traiettoria di deposizione.

Ad ogni immagine si aggiungono circa

dieci traiettorie per un totale di circa duecento

agenti che agiscono separatamente nel tempo.

F3. Schema rappresentante

l’agente

utilizzato in fase di

simulazione, Diventa

fondamentale la

separation per definire

lo spazio occupato dal

materiale nello spazio

reale.

59 60


frameCount: 1000 2000

3000 4000

5000 6000

7000 8000

9000 10000

11000 12000

13000 14000

15000 16000

17000 18000

19000 20000

61 62


Dall’analisi delle simulazioni si sono riscontrati

alcune caratteristiche del sistema che hanno poi

influenzato i successivi sviulppi progettuali. Il

pattern che si viene a creare è una struttura ramificata

che media tra comportamento stigmergico,

proprietà strutturali, esigenze funzionali e qualità

estetiche. Uno dei parametri che si è deciso di

indagare riguarda proprio la posizione di partenza

dei singoli agenti. Gestendo infatti l’avanzamento

nella direzione del tensore degli sforzi delle

successive posizioni iniziali si può influenzare la

morfologia delle connessioni all’interno del sistema

o creando nuove diramazioni innestandosi

lungo una traiettoria oppure ongiungendosi con

quelle già esistenti. Un altro parametro fondamentale

riguarda la forza con cui gli agenti sono

influenzati dal campo vettoriale delle tensioni e

quanto dalle tracce nell’ambiente. Nel proseguire

la ricerca si è attribuita un importanza principale

al comportamento stigmergico rispetto all’allineamento

con il campo di vettori strutturale, tuttavia

utilizzando il campo scalare composto dai moduli

delle tensioni si è andata a creare una mappa di

intensità dove nei punti massima tensione il comportamento

stigmergico non tende a prevalere e

l’agente può abbandonare la traccia in favore di

un nuovo percorso.

F3. Caso A: l’agente

incontra una traccia

preesistente e crea

una nuova diramazione.

Caso B: l’agente

allunga la diramazione

preesistente.

F3.Gradiente di

intesità sul comportamento

di followTrail

in aumento dal basso

verso l’alto.

F3. Gradiente di

intensità sul comportamento

di followPeak

in aumento dal basso

verso l’alto.

63 64


tensMag = 0.2

tensMag = 0.6

tensMag = 0.8

VARIAZIONI

Una volta stabiliti i comportamenti

e le regole fondamentali sottese

alla morfogenesi del sistema si

è proceduto con un analisi dei

parametri principali in modo da

individuarne e gestirne gli effetti.

Per effettuare questa analisi si è

modifcato un parametro per volta

mantenendo gli altri costanti. In

genrale i tre parametri che sono

risultati essere i più interessanti al

fine della formazione del sistema

sono la forza con cui il tensore

degli sforzi influenza il sistema, la

distanza tra un punto di partenza

e il successivo e la direzionalità di

formazione.

2000

8000

TENSORE DEGLI SFORZI

in questa tabella è schemattizzata

l’influenza del tensore degli sforzi

sul sistema, denominato tensorMagnitude

(tensMag). Sull’asse delle

ordinate sono riportati i frame a

cui appartengono le immagini, su

quello delle ascisse il valore che

moltiplicato per campo vettoriale

influisce sulla direzionalità degli

agenti.

14000

Si può notare come per alti valori

di tensMag gli agenti tendano a

formare traiettorie molto nette nella

direzione degli sforzi principali

maggiori e siano assenti connessioni

nelle direzione perpendicolare.

Viceversa per valori più

bassi gli agenti per comportamento

stigmergico tendono a foavorire le

connessioni.

20000

65 66


nextPosDist = 1.2

nextPosDist = 0.7

nextPosDist = 0.2

2000

DISTANZA STARTING POINTS

in questa tabella è schemattizzata

l’influenza della distanza tra punti

successivi di partenza sul sistema.

Tale parametro è denominato

nextPositionDistance (nextPosDist).

Sull’asse delle ordinate sono

riportati i frame a cui appartengono

le immagini, su quello delle ascisse

il valore che moltiplicato per la

distanza massima influisce sulla

distanza che un nuovo punto di

partenza può avere dal precedente.

La distanza massima per tutti e

tre i casi e di 200mm.

8000

Si può notare come diminuendo

la distanza tra punti di partenza

conseguenti aumenta anche il

numero di punti necessari a coprire

la superficie. Per distanze molto

piccole il sistema diventa molto

più denso e si va via via perdendo

sempre di più la diramazione principale

in favore delle diramazioni

secondarie.

14000

20000

67 68


n° passaggi = 1

n° passaggi = 2

n° passaggi = 3

2000

ORDINE DI FORMAZIONE

in questa tabella è schemattizzata

l’influenza dell’ordine di fromazione

tra punti successivi di partenza.

Per realizzare questa prova si è

mantenuto un basso valore di tens-

Mag e un alta distanza tra i punti

inziali. é stata fatto invece variare

l’ordine con cui gli agenti attraversano

il sistema er mezzo di tempi

successivi. Per tempo si intende

un passaggio completo di tutti gli

agenti su l’intera superficie. Un volta

terminato viene fatto partire un

secondo tempo, e così in successione.

Sull’asse delle ordinate sono

riportati i frame a cui appartengono

le immagini, su quello delle ascisse

il numero di iterazioni successive.

8000

Si può notare come all’aumentare

delle iterazioni aumenti la

formazioni di rami secondari e vi

sia un generale densificazione

del sistema. Tuttavia questi effetti

non producono un aumento delle

connessioni trasversali tra i rami. In

seguito a queste prove si è deciso

di introdurre, come vedremo, un

ulteriore comportamento da

integrare a quello qui dimostrato

che favorisca le interconnessioni

tra i rami.

14000

20000

69 70


CROSS BEHAVIOR

Dopo aver svolto le prime analisi sulla morfogenesi

del pattern attraverso i benchmark mostrati

nelle pagine precedenti si è notato come il

processo di formazione sia estremamamente

efficace nello svilupparsi e nel rispondere alle

direzioni delle tensioni principali maggiori ma, al

contrario, non presenta tendenzialmente nessuna

interconnessione tra i rami ausando così una

labilità superficiale nella direzione delle tensioni

secondarie. Per rispondere alla necessità di

connettere tra di loro le ramificazioni si è deciso

di implementare il comportamento fin’ora studiato

dotando gli agenti di una soglia di attenzione e

della possibilità di modificare il loro percorso in

base a questa.

Ogni agente in prima istanza va alla ricerca delle

tracce depositate dagli altri. Se non le trova il

suo comportamento può essere influenzato dalle

direzioni delle tensioni principali o da un secondo

campo vettoriale definito a fini funzionali

e progettuali. Nel momento in cui una traccia

stigmergica (un picco) entra nel campo di visione

dell’agente questo tende ad avvicinarvisi. Dal momento

in cui la traccia stigmergica è arrivata al di

sotto della distanza definita come sensitiveArea

(vedi immagine) l’agente nizia a tener conto del

numero di frame che intercorrono mentre prosegue

lungo quella traccia. La capacità dell’agente di

stancarsi è definita attraverso un parametro che

in questa ricerca è stato legato al valore delle tensioni.

Più è alto il valore delle tensioni nel punto in

cui si trova l’agente, maggiore sarà la probabilità

che ha questo di stancarsi.

L’agente, una volta raggiunta la soglia di

stanchezza inizia ad allargare l’area di visione

F3. Sequenza che

mostra l’attraversamento

degli agenti da

una traccia all’altra.

F3. Schema che rappresenta

l’agente nella

fase di discovery.

Cioè nel momento in

cui ampia il suo raggio

di visione per andare

alla ricerca di nuove

tracce diverse da

quella su cui si trova.

71 72


(discoveryArea) in cerca del picco più vicino non

appartenete alla traccia sulla quale si trova. Fino

a quando l’agente non lo troverà manterrà invariato

il suo comportamento, viceversa una volta

identificato il Target inizierà il comportamento di

avvicinamento, denominato di approaching. Tale

comportamento è composto da due fasi principali

(vedi immagine). La Fase I inizia nel momento

in cui il target viene individuato e termina

soltanto nel momento in cui non vi è più nessun

picco presente nella emptyArea. Fino a quando

la emptyArea non rimarrà vuota l’agente non

sarà sensibile: ciò significa che pur cercando di

avvicinarsi al Target non tornerà ad eseguire il

comportamento di followPeak. Questo permette

di evitare che l’agente torni sulla stessa traccia

che stava tentando di abbandonare. Una volta

che la emptyArea è stata liberata l’agente diviene

sensibile e inizia la Fase II. Questa termina nel

momento in cui un qualsiasi picco - quindi non

solo il Target - rientra nella sua area sensibile e

può quindi riprendere con il comportamento di

followPeak. Il raggio che descrive l’area sensibile

è determinato a partire della emptyArea per

mezzo del parametro sensitiveRadReduction che

consente di regolare la differenza tra le due aree.

Tale riduzione consente di controllare la forma

della curva che l’agente crea in Fase II e inizia a

seguire la nuova traccia.

F3. Comportamento

di cross tra due tracce

distinte. Il modo in cui

gli agenti lasciano una

traccia e si avvicinano

all’altra è gestibile

attraverso i parametri

del sistema.

F3. Fase I: l’agente

va in cerca di nuove

tracce e non ne segue

finchè non si è allontanato

a sufficienza da

quella attuale. Fase

II, l’agente si è allontanato

ed è diventato

sensibile alle nuove

traiettorie.

73 74


material test part I

“...its so much easier

when seafoam green is in fashion”

“Are you in?”, Incubus, Morning View, 2001

Una volta implementata una prima versione del

comportamento di cross che consente l’interconnessione

tra i rami del sistema si è deciso

di testarlo passando dalla simulazione digitale

all’intero processo di scansione e deposizione. Il

comportamento di cross è stato infatti sviluppato

sia per mezzo di trails (simulazione) sia tramite

pointCloud (processo di lettura e scrittura). Questi

primi test sono stati svolti depositando la schiuma

manualmente e utilizzando come riferimento

la griglia di 10cm x 10cm ed area pari a un metro

quadrato. La corrispondenza tra la griglia fisica

e quella digitale consente un livello di approsimazione

accettabile ed inoltre dimostra come un

75 76


errore in fase di deposizine non vada interpretato

come irreversibile ma come parte coerente

e integrabile all’interno del sistema costruttivo

indagato. Una volta che il nuovo ambiente viene

scansionato e tradotto in digitale il sistema può

auto-adattarsi sulla nuova configurazione dell’ambiente

esterno e non risentire di nessun errore

presente o passato.

F3. Risultato dell’iterazione

di scansione e

deposizione integrando

il comportamento

di cross.

In questa fase sono state eseguite due deposizioni

variando i parametri del sistema ma mantenendo

costante il numero di iterazioni. Il parametro

che è stato fatto vairare è l’intensità del campo

vettoriale dell tensioni che provoca un maggiore

o minore allineamento delle traiettorie degli

agenti.

77 78


F3. Prima sequenza di

scansione edeposizione

con un alto

valore di intensità sul

tensore degli sforzi.

F3. Seconda sequenza

in cui gli agenti sono

più influenzati dalla

traccia stignmergica e

meno dalle informazioni

strutturali.

79 80


Una volta terminati i due processi di scansione e

deposizione si è notato come l’influenza del campo

tensoriale sia riscontrabile anche attraverso

un test empirico. Essendo la struttura di partenza

una piastra incastrata si è sollavata la piastra

tenendola ferma per l’incastro e mantenendo

l’altra estremità libera di inflettersi. Si sono quindi

confrontati i riusultati tra il foglio di carta senza

estrusioni e i due test. Quello che risulta evidente

è che anche per sola aderenza al foglio di carta

una diversa distribuzione materica prodotta

F3. in alto: prova con

solo cartone.

F3. sotto: seconda

iterazione.

F3. Risultati più soddisfacienti

dal punto

di vista strutturale

ottenuti con la prima

deposizione.

dallo stesso numero di iterazioni può manifestare

diversi comportamenti strutturali. In particolare

una maggiore aderenza alla direzione delle

tensioni principali ha provocato nel primo test

oltre che una distribuzione più coerente anche un

maggiore inspessimento delle nervature ed un

conseguente miglioramento delle performance

strutturali.

81 82


foam effector development

In seguito all’esecuzione dei primi test di simulazione

digitale e fisici si è proceduto alla realizzazione

di un effettore per l’estrusione di schiuma

poliuretanica bicomponente attraverso un robot a

6 assi: Comau Smart Six. La scelta della schiuma

bicomponente è stata fatta in seguito all’esperienza

avuta nella costruzione del primo effettore.

Questo, come abbiamo visto, ha presentato

alcuni limiti nella controllabilità e nella gestione

del flusso in uscita dovuti al poco margine di movimento

del motore e alla progressiva diminuzione

della pressione all’interno della bomboletta nel

corso della deposizione. A differenza della schiuma

in bomboletta quella bicomponente è composta

da due tubetti separati contenenti le due

sostanze responsabili della formazione del poliu-

83 84


retano espanso. La reazione fra queste due può

quindi avvenire solamente nel momento in cui

una pressione viene applicata all’estremità superiore

delle bombolette per mezzo di un pistone.

Questo consente ai due materiali di fuoriuscire

in forma liquida e di attraversare l’ugello, al cui

interno è posto un miscelatore statico in plastica

che li mescola e ne agevola la reazione. Essendo

tale sistema dipendente solo dalla pressione

esercitata è possibile, attraverso un meccanismo

meccanico e un sistema di controllo della velocità

del motore gestire agevolmente il flusso di materiale

in uscita. Nella fabbricazione dell’effettore si

sono tenute in considerazione le aree di lavoro

del robot al fine di limitare il meno possibile gli

angoli di movimento. Essendo il controllo della

pressione esercitata uno dei parametri fondamentali

si è cercato un sistema che potesse garantire

una coppia alta e allo stesso tempo movimenti

sufficientemente lenti e costanti.

F3. Schema delle

componenti dell’effettore.

F3. Area di lavoro

del robot a sei assi:

Comau Smart Six

utilizzato al Lar di

Bologna.

85 86


Per rispondere a tali caratteristiche è stata individuata

una pistola elettrica a pressione, normalmente

utilizzata per sigillature in silicone. Il

meccanismo di riduzione della rotazione inserito

all’interno della pistola presenta un rapporto di 1 a

18, un basso amperaggio e una coppia sufficientemente

alta da mantenere una velocità e una

pressione costante sulla schiuma. Per tale motivo

si è scelto di utilizzare parte dalle componenti

meccaniche presenti nella pistola e di modificarle

al fine di estrudere schiuma bicomponente. Come

materiale per la struttura di base e di connessione

tra le parti è stato utilizzato compensato marino

multistrato: scelto sia per la sua versatilità che

per le caratteristiche di resistenza. La cremagliera

integrata nella pistola è stata resa solidale con

una piastra a cui sono saldati i due pistoni. Attorno

a questi è stato realizzato il vano in legno per

mentanere in posizione le bombolette. Il meccanismo

di chiusura permette un ricambio veloce

dei tubetti senza dover smontare nè l’effettore

dal robot nè l’ugello dal vano. Per mezzo di un

supporto stampato in 3D presso i laboratori del

Lar di Bologna è stato possibile connettere un

rotary encoder all’asse di rotazione del motore.

F3. Vista frontale sul

vano delle schiume

dell’effettore. Le

piastre in alluminio

sono state inserite per

permettere l’utilizzo

del’effettore sulla

Wasp Delta 3MT.

F3. Parti elettroniche

dell’effettore

che controllano il

motore, l’encoder e il

microSwitch.

Questo, messo in comunicazione seriale con un

computer permette di leggere in tempo reale il

numero di rotazioni compiute nell’unità di tempo

(RPM: revolutions per minute). Tale dato consente

di verificare la ripetibilità dei risultati e valutarne

gli effetti con esattezza.

Infine è stato inserito un microSwitch nella parte

superiore del vano schiume in modo da far combaciare

l’interruttore con la piastra nel momento

in cui questa si avvicina. Il suo scopo è quello di

interrompere la corsa del pistone una volta terminata

la bomboletta. Infatti il contenitore opaco

non consente di vedere la quantità di schiuma

rimasta e la forza esercitata dal motore è tale che

se lasciato andare potre piegare facilmente la

struttura din legno.

L’intero sistema elettronico è stato realizzato

tramite Arduino e controllato direttamente da

Grasshopper con il firmata di Firefly. In questo

modo il computer può inviare velocità e verso

di rotazione al motore e ricevere in tempo reale

RPM e stato del microSwitch.

In seguito, grazie alla collaborazione con Wasp, il

sistema è stato riadattato per poter essere supportato

dalla loro Wasp 3MT e 5MT.

87 88


material test part II

I test di deposizione tramite macchine a controllo

numerico sono stati possibili grazie alla collaborazione

con Wasp, azienda specializzata nella

stampa 3D che dal 2012 investe nello sviluppo e

nella ricerca di sistemi di fabbricazione additiva

che possano confrontarsi con la scala architettonica.

In particolare sono state utilizzate due

stampanti: Wasp Delta 3MT e Wasp Delta 4 MT.

Entrambe sfruttano il sistema di movimento di tipo

robot Delta che consiste di tre bracci collegati da

giunti universali alla base e che mantengono l’orientamento

dell’effettore posto all’estremità. L’area

di lavoro delle due stampanti è di forma cilindrica

e nella 3MT raggiunge circa un metro di diametro

e un metro d’altezza. Le triettorie di deposizione

determinate dall’algoritmo sono state tradotte ad

ogni iterazione di scansione e deposizione in lin-

89 90


F3. Area di lavoro della

Wasp Delta 3 MT.

Una volta determinato

il centro e l’altezza

dell’asse zeta della

machcina è possibile

correlare spazio

digitale e reale.

F3. Supporto per la

camera, mantenuto

fisso e vista dell’effettore

in posizione

Home.

91 92


guaggio G-Code e inviate alla macchina. All’effettore

è stato aggiunto un supporto composto di tre

piastre per essere sorretto dai bracci.

PRIMI TEST DI DEPOSIZIONE

Nei test iniziali si è eseguito un tracciato lineare

predefinito al fine di correlare la velocità di

movimento della macchina con la velocità di

rotazione del motore. Nella prima prova entrambe

le velocità sono mantenute costanti. Si noti il

comportamento della schiuma nel momento

in cui torna su se stessa senza aver terminato

l'espansione. Nel secondo esempio la velocità

di movimento è costante e quella di estrusione

cresce con salti di 25 PWM ad ogni curva.

L'espansione è direttamente proporzionale alla

quantità di materiale depositato mentrei tempi

di espansione rimangono costanti. Il controllo

è istantaneo. Nell'immagine F120 si nota dopo

la prima curva dall'alto, dopo circa cinque

cm, un aumento nel diametro del materiale: è

esattamente il punto in cui è avvenuto il salto.

F3. sx: prova di

estruzione a velocità

di movimento costante

e velocità di rotazione

costante. Erroneamente

si è fatto

iniziare la deposizione

dalla posizione Home.

F3. Seconda prova

con velocità di

movimento castante e

velocità di estrusione

crescente ad ogni

curva.

93 94


TEST DI MORFOGENESI PLANARE

Una volta settati i parametri di velocità del sistema

si è proceduto alla realizzazione del primo

ciclo di lettura e scrittura. Lo schema statico è

sempre quello di piastra incastrata e la geometria

della superfice circolare è stata scelta in base

all’area di lavoro disponibile sulla Wasp Delta

3MT. Si è scelto di iniziare con una superfice

planare per semplificare e rendere più evidente

possibile il comportamento materico.

In questo test è stata favorita la stratificazione di

layer successivi al fine raggiungere un maggior

spessore delle nervature nelle zone di maggior

tensione. I risultati mostrano come il pattern

emerga al crescere del numero di iterazioni

anche di fronte ad un compoirtamento materico

estremamente volatile, non prevedibile.

F3. Mesh ricostruita a

partire dalla scansione

e traiettorie degli

agenti pronte per

essere inviate tramite

G-Code alla macchina.

95 96


F3. Sequenza della

deposizone di schiuma

e formazione del

pattern.

F3. Modello digitale

intermedio

97 98


TEST DI MORFOGENESI IN CURVATURA

Dopo aver portato a termine con successo i test

sul piano si è passati allo sperimentare la deposizione

su superfici curve. Per la realizzazione

degli stampi la tecnica indagata in questa tesi è il

Robotic Hot Wire Cutting (RHWC). Tuttavia al fine

di dimostrare la fattibilità del processo si è proceduto

alla realizzazione di due strutture in legno

la cui geometria potesse fungere da esempio

dimostrativo senza limitare o modificare in alcun

modo la veridicità dei risultati.

La forma dei due mold è stata generata a partire dal

paraboloide iperbolico, superfice notoriamente rigata,

che può essere quindi facilmente fabbricata per

RHWC. La dimensione delle due superfici è all’incirca

di un metro quadrato e per ricreare la curvatura

sono stati utilizzati fili di nylon posti in tensione sul

telaio in legno.

99 100


18 19 20 21 223 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 4041 42 43 44 45

18 19 10 20 21 11 223 12 24 25 13 26 27 14 28 29 15 30 31 16 32 33 17 34 35 18 36 37 19 38 39 20 4041 42 21 43 44 22 45

18 19 20 21 223 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 4041 42 43 44 45

21

22

23

24

25

26

27

2829

30 31

32 33

34 35

36 37

3839

40

41

42 43

44

45

46

47

48

18 19 20 21 223 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 4041 42 43 44 45

9

10

10

11

11

12

12

13

13

14

14

15

15

16

16

17

17

18

18

19

19

20

20

21

21

22

22

10

11

12

13

14

15

16

17

18

19

20

21

22

9

10

11

12

13

14

15

16

21

22

23

24

25

26

27

2829

30 31

32 33

34 35

36 37

3839

40

41

42 43

44

45

46

47

48

21

10

22

23

11

24

25

12

26

27

13

2829

14

30 31

15

32 33

16

34 35

17

36 37

18

3839

19

40

41

20

42 43

44

21

45

46

47

48

22

9

10

11

12

13

14

15

16

17

18

19

20

21

22

9

10

11

12

13

14

15

16

17

18

19

20

21

22

9

10

11

12

13

14

15

16

21

22

23

24

25

26

27

2829

30 31

32 33

34 35

36 37

3839

40

41

42 43

44

45

46

47

48

9

10

11

12

13

14

15

16

9

10

11

12

13

14

15

16

17

18

19

20

21

22

9

10

11

12

13

14

15

16

F3. Mold I e II studiati

per essere accostati e

consentire una estruzione

in continuità.

101 102


c

f

h

l

o

a

b

d

e

g

i

m

n

ASSEMBLAGGIO E ORDINE DI FABBRICAZIONE

Il processo stigmergico in qui sviluppato agisce

in continuità sull’intera superficie. L’area di lavoro

del robot (se questo è ancorato al suolo) è limitata

e richiede una discretizzazione dell’intera supericie

in parti. Per ovviare a questo problema si è

ricorso ancora una volta ad una delle caratteristiche

fondamentali del comportamento stigmergico:

la possibilità di lavorare in tempi e spazi

differenti a patto che l’ambiente sia condiviso da

tutti gli agenti. Grazie a questo principio è possibile

depositare materiale su una singola superficie

alla volta. La superficie rigata totale è stata

quindi suddivisa in parti facilmente fabbricabili

per RHWC. Ciascun mold ha nella parte superiore

la superficie di deposizione mentre in quella

inferiore presenta diversi piani di inclanazione

che permettono a due mold consecutivi di essere

accostabili e al robot di depositare materiale nelle

aree di giuntura. Una volta effettuata la deposizione

i mold possono essere divisi e la schiuma

facilmente tagliata. Una volta effettuata la seprazione

saranno pronti per la fase di laminazione del

fibrocomposito.

Mold a Mold a + Mold b Mold b Mold

103 104


F3. Prova di estruzione

in curvatura. Questo

benchmark dimostra

l’efficacia dell’adesione

della schiuma

alla superficie.

105 106


F3. Dettagli del materiale

depositato

F3. Modello digitale

intermedio con

visualizzazione

della curvatura e delle

prossime traiettorie di

deposizione.

107 108


109 110


applicazione architettonica

111 112

L’applicazione architettonica del sistema è stata

studiata attraverso lo studio delle superfici rigate;

in particolare dell’iperboloide il quale pur essendo

geometricamente di facile definizione presenta un

enorme variabilità e differenziazione nel momento

in cui si lo si va a tagliare. L’accostamento di più iperboloidi

consente la creazione di grandi coperture.

Tale sistema è stato pensato per la realizzazione di

un grande open space per il tecnopolo di Reggio

Emilia. Area attualmente in fase di recupero che presenta

grandi vuoti urbani e che l’amministrazione ha

intenzione di utilizzare per eventi pubblici. Il sistema

fin qui studiato è stato quindi declinato all’interno di

questo contesto.


113 114


115 116


117 118


119 120


121 122


123 124

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!