Rivista bimestrale - anno XX - Numero 2/2016 - Sped. in abb. postale 70% - Filiale di Roma
TERRITORIO CARTOGRAFIA
GIS
CATASTO
3D
INFORMAZIONE GEOGRAFICA
FOTOGRAMMETRIA
URBANISTICA
GNSS
BIM
RILIEVO TOPOGRAFIA
CAD
REMOTE SENSING SPAZIO
EDILIZIA
WEBGIS
UAV
SMART CITY
AMBIENTE
NETWORKS
BENI CULTURALI
LBS
LiDAR
Mar/Apr 2016 anno XX N°2
La prima rivista italiana di geomatica e geografia intelligente
L'esperienza
immersiva di
Quirinale 3D VR
Considerazioni sulle nuvole di
punti da scansione laser e imaging
Story-telling della
Geologia di Roma
La scarsa attendibilità del
Codice di Avviamento Postale
Sotto
controllo
Codevintec Italiana
via Labus 13 - Milano
tel. +39 02 4830.2175
info@codevintec.it
www.codevintec.it
Strumenti per lo studio
del sottosuolo e dei fondali marini.
Sai cosa c’è sotto?
> Studio del sottosuolo
georadar, sismica, geoelettrica,
logger da foro.
> Rappresentazione
dei fondali e delle coste
Multibeam, SideScanSonar,
SubBottom Profiler.
Photo: Sophie Hay
> Vulcanologia
e Monitoraggio sismico
sismometri, gravimetri,
inclinometri.
> Monitoraggio ambientale
e Ingegneria civile
georadar, sismografi, laser
scanner, magnetometri.
> Qualificato laboratorio di
Assistenza Tecnica.
> Sistemi disponibili a noleggio.
> Noleggio a lungo termine.
CODEVINTEC
Tecnologie per le Scienze della Terra
Poca fotogrammetria nei sistemi GIS
Sappiamo bene che la Fotogrammetria è la scienza che consente di effettuare misurazioni da
fotografie ottenendo le tre coordinate spaziali di un congruo numero di punti dell’oggetto
da rilevare, attraverso misure eseguite su una o più coppie di fotogrammi. Se pensiamo che il
fondamento geometrico della fotogrammetria si ritrova negli studi sulla prospettiva e nelle sue
applicazioni, con primi cenni che risalgono ai Babilonesi e che la fotogrammetria aerea è oggi la
procedura più utilizzata per realizzare cartografie tecniche, a media grande scala, di estese porzioni
di territorio, ci si chiede come mai sia tanto sconosciuta.
"Il problema è che è difficile trovare un fotogrammetrista qualificato sotto l'età di 50 anni," afferma
Darryl Murdock, vice presidente della U.S. Geospatial Intelligence Foundation (http://usgif.org/)
in un recente articolo apparso su Geodatapoint. "Invece, ciò che abbiamo sono molte persone che
hanno un background di fondo sui sistemi informativi geografici (GIS), ma molto poca esperienza
analitica e predisposizione ad altre discipline geospaziali".
Nello stesso articolo si racconta la storia di un avvocato che ha difeso una persona che era stata
citata in giudizio per negligenza in un esercizio commerciale. Un cliente del procuratore era
scivolato su una crepa nel marciapiede di fronte all’esercizio commerciale e stava sostenendo che il
suo infortunio era colpa del proprietario dell’esercizio che aveva il dovere di mantenere e rendere
sicuro il marciapiede di fronte alla sua attività, in modo che i clienti non fossero esposti al rischio di
inciampare ferendosi.
L’esercizio commerciale ha sostenuto che era la municipalità responsabile di eseguire la
manutenzione sul marciapiede e che, a causa di questo, l'attività commerciale non poteva essere
ritenuta responsabile. Per la difesa ha citato un'ordinanza locale sulla riparazione dei marciapiede
che specificava come le grandi crepe nella pavimentazione dovevano essere manutenute dal
municipio e ha sostenuto che la crepa nel marciapiede era sufficientemente grande per rispondere ai
requisiti della ordinanza citata essendo pertanto di competenza del municipio.
Lo studio legale ha assunto quindi un ingegnere. Per misurare le dimensioni della crepa, che ha
usato una funzione di mappatura, basata su Internet, per rilevare la strada e per prendere misure.
Con questo approccio però la mappa aveva pochissime informazioni accessorie a supporto della sua
accuratezza. Aveva la data delle fotografie, ma non l'ora del giorno, il punto dove la fotografia era
stata scattata e l'orientamento della fotocamera.
Alla fine il prodotto realizzato dall’ingegnere attraverso un GIS via Internet aveva molte interessanti
caratteristiche, ma era privo dell’essenza metrica di fondo che ha la fotogrammetria.
"Con l'uso corretto dei dati geospaziali, sarebbe stato possibile incorporare tutti i tipi di dati relativi
a una foto per ottenere la massima precisione", spiegò Murdock allo studio legale che lo aveva
consultato.
Concordiamo con Murdock in questa visione e ciò che ci sforziamo di sostenere è la massima
incentivazione della formazione geospaziale estesa che può arricchire le competenze GIS e di
mappatura che molte persone nella professione hanno già.
Buona lettura,
Renzo Carlucci
In questo
numero...
FOCUS
REPORT
Nuvole di punti -
fra scansione
laser e imaging di
prossimità
qualche considerazione
e riflessione
di Luigi Colombo
6
LE RUBRICHE
48 MERCATO
50 AGENDA
Immagine di sfondo satellitare che
ricorda una pittura astratta ottenuta da
Sentinel-1: mostra l’aspetto vorticoso
del paesaggio di Dasht-e Kavir,
deserto salato iraniano.
Credits: ESA.
12
Raccontare la
geologia attraverso
le story-telling
Roma dal 1820 al
2008
di Maria Pia Congi, Fabiana
Console, Marco Pantaloni,
Paolo Perini e Mauro Roma
Una infrastruttura
geografica europea
il Progetto E.L.F.
(European Location
Framework)
di Stefano Campus, Patrizia
Nazio e Gianbartolomeo Siletto
18
24
Il rilievo
con drone
nei centri
storici
di Zaira
Baglione
Pagliaroli
In copertina una
ricostruzione
tridimensionale in
realtà virtuale del
Piano Nobile del
Palazzo del Quirinale
creata dalle società
italiane Geocart e
Digital Lighthouse
con le più innovative
tecniche del Digital
Heritage.
L’esperienza 26
immersiva di
QUIRINALE 3D VR
di Federico Capriuoli, Davide
Colangelo, Luca Curto, Diego
Fileri, Annibale Guariglia,
Vito Mario Sansanelli e Paola
Santarsiero
geomediaonline.it
GEOmedia, bimestrale, è la prima rivista italiana di geomatica.
Da 20 anni pubblica argomenti collegati alle tecnologie dei
processi di acquisizione, analisi e interpretazione dei dati,
in particolare strumentali, relativi alla superficie terrestre.
In questo settore GEOmedia affronta temi culturali e tecnologici
per l’operatività degli addetti ai settori dei sistemi informativi
geografici e del catasto, della fotogrammetria e cartografia,
della geodesia e topografia, del telerilevamento aereo e
spaziale, con un approccio tecnico-scientifico e divulgativo.
INSERZIONISTI
30 GeoDataBase
geomorfologico per
acquisizione dei dati
tramite tecnologie
mobile
di Mattia De Amicis, Fabio
Olivotti, Stefano Roverato,
Alice Mayer e Luca Dangella
Una questione di
centimetri
34
di Fulvio Bernardini
3D TARGET 52
AerRobotix 10
Codevintec 2
Epsilon 42
Esri 17
Flytop 16
Intergeo 29
Leica 11
Me.s.a 47
Planetek 23
Sinergis 51
Sistemi territoriali 50
TECHNOLOGYforALL 37
Teorema 48
Topcon 49
Trimble 43
44
La scarsa
attendibilità
del CAP come
riferimento
geografico in
Italia
di Marianna Ronconi, Alice
Pasquinelli, Anna Privitera e
Franco Guzzetti
38
L’uso del GIS
come strumento
di analisi e
rappresentazione
del consumo di
suolo
di Valentina Sannicandro
e Carmelo Maria Torre
una pubblicazione
Science & Technology Communication
Direttore
RENZO CARLUCCI, direttore@rivistageomedia.it
Comitato editoriale
Vyron Antoniou, Fabrizio Bernardini, Mario Caporale, Luigi
Colombo, Mattia Crespi, Luigi Di Prinzio, Michele Dussi, Michele
Fasolo, Flavio Lupia, Beniamino Murgante, Aldo Riggio, Mauro
Salvemini, Domenico Santarsiero, Attilio Selvini, Donato Tufillaro
Direttore Responsabile
FULVIO BERNARDINI, fbernardini@rivistageomedia.it
Redazione
VALERIO CARLUCCI, GIANLUCA PITITTO,
redazione@rivistageomedia.it
Diffusione e Amministrazione
TATIANA IASILLO, diffusione@rivistageomedia.it
Comunicazione e marketing
ALFONSO QUAGLIONE, marketing@rivistageomedia.it
Progetto grafico e impaginazione
DANIELE CARLUCCI, dcarlucci@rivistageomedia.it
MediaGEO soc. coop.
Via Palestro, 95 00185 Roma
Tel. 06.62279612 - Fax. 06.62209510
info@rivistageomedia.it
ISSN 1128-8132
Reg. Trib. di Roma N° 243/2003 del 14.05.03
Stampa: SPADAMEDIA srl
VIA DEL LAVORO 31, 00043 CIAMPINO (ROMA)
Editore: mediaGEO soc. coop.
Condizioni di abbonamento
La quota annuale di abbonamento alla rivista
Science
è di €
&
45,00.
Technology Communication
Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di
ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa.
L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita
revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza
dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo.
La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti.
Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta
dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere
richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo.
Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la
riproduzione anche parziale del contenuto di questo numero della Rivista in
qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i
sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore.
Rivista fondata da Domenico Santarsiero.
Numero chiuso in redazione il 15 maggio 2016.
FOCUS
NUVOLE DI PUNTI - FRA SCANSIONE
LASER E IMAGING DI PROSSIMITÀ
QUALCHE CONSIDERAZIONE E RIFLESSIONE
di Luigi Colombo
L’articolo prende in esame le tecniche automatizzate di rilevamento,
senza contatto, che acquisiscono nuvole di punti sull’oggetto di interesse.
Si spazia dalla scansione laser alla tecnica per immagini, che sta avendo
risvegli importanti grazie al rilevamento di prossimità sviluppatosi con
l’avvento dei sistemi Aerei a Pilotaggio Remoto.
Una valutazione degli ambiti di applicazione, dei vantaggi-svantaggi
dei processi e i necessari supporti tecnologici, telematici e informatici
Fig. 1 - Griglia di campionamento corrispondente
alla nuvola di punti.
corredano l’analisi.
La sorgente dei dati spaziali
Le nuvole di punti costituiscono
attualmente la principale sorgente
di dati per l’informazione
spaziale (anche texturizzata con
il colore o l’energia riflessa).
Sono generate dall’impiego di
tecniche automatizzate di rilevamento
(senza contatto) e costituiscono
la base per la creazione
di modelli 3D, i cosiddetti
Digital Surface Models, da cui si
possono derivare sottoprodotti
metrici 2D, come piante, sezioni,
prospetti e rappresentazioni
per isolinee.
In questi anni, i sistemi a
scansione laser (terrestri e aerotrasportati)
sono stati la via
primaria per generare interattivamente
nuvole di punti; più
recentemente, la ricerca nel
settore della Computer Vision ha
rivoluzionato la tecnica di rilievo
per immagini e reso possibile
l’estrazione differita di dettagliate
nuvole di punti da blocchi di
immagini, normali ed oblique.
Si parla in questi casi di Dense
image matching, con riferimento
alla procedura tecnica che ha
garantito questo sviluppo tecnologico.
Si sa che l’acquisizione dei punti
di una nuvola (point cloud)
non avviene in forma deterministica,
come nel rilievo manuale
(solo i punti caratteristici), bensì
in modo stocastico: si tratta
dei nodi di una griglia di campionamento
spaziale che viene
automaticamente sovrapposta
all’oggetto (Fig. 1).
Il valore del passo effettivo della
griglia dipende non solo dal
campionamento e dalla distanza
di acquisizione ma anche
dalle condizioni geometriche
d’impatto del fascio laser con le
superfici di interesse (normalità,
obliquità) e dalle irregolarità
morfologiche di queste ultime.
Si può risalire poi dai nodi della
griglia agli specifici punti di interesse
tramite l’applicazione di
processi interpolativi locali.
Le tecniche automatizzate di
rilevamento operano dunque
tramite la scansione laser o la
ripresa per immagini (Figg.
2-3) che sono spesso opportunamente
combinate fra loro.
L’integrazione fra i due dataset
produce un modello (denso) di
punti spaziali in grado di descrivere
più compiutamente ed
economicamente le geometrie
di un oggetto.
Ben supportate dai molti software
finalizzati all’elaborazione
delle nuvole, le due tecniche
costituiscono oggi le soluzioni
attiva e passiva del processo di
acquisizione automatizzata. Esse
risultano più adatte, la prima
nel rilevamento di interni (vista
la minore dipendenza dalle
condizioni di illuminazione), la
seconda in quello di esterni, per
la semplicità del sensore fotografico,
la necessità di adeguate
condizioni di luce e l’avvento
dei sistemi aerei a pilotaggio remoto
(SAPR).
6 GEOmedia n°2-2016
FOCUS
con la sensibilità (ISO) del
sensore, così da contenere il
trascinamento dS immagine [1]
entro
il pixel della camera e conseguentemente
lo spostamento
dS oggetto all’interno del parametro
GSD (Ground Sampling
Distance) [2].
[1] dS immagine
= dS oggetto
* f / Q
con
relativa media di volo
dS oggetto
= V * dt
Fig. 2 - La scansione laser terrestre (da RIEGL).
Molto si conosce e si è scritto
sui sistemi a scansione e sulle
procedure operative ad essi
associate, molto meno si sa,
forse, della bi-centenaria tecnica
per immagini e dell’uso del
vettore aereo, in questi anni
surclassati dallo sviluppo della
scansione laser e che solo ora
stanno ritornando di moda
grazie ai nuovi aeromobili di
uso personale (SAPR). Insieme
a loro, non si possono dimenticare
sia le tecnologie satellitari
e non (automatizzate) di supporto
al volo sia quelle digitali e
telematiche per la gestione operativa
dei processi. Non si tratta
dunque di un ritorno al passato
bensì di un ritorno al futuro
(come ben ha scritto qualcuno),
visto che gli scenari tecnologici
degli algoritmi del rilevamento
per immagini risultano significativamente
cambiati.
I sistemi APR
I sistemi aerei di rilevamento a
pilotaggio remoto, con finalità
ben diverse da quelle degli aeromodelli
ricreativi e sportivi,
possono essere a decollo-atterraggio
verticale e con funzioni
di hovering (multi-rotore), oppure
ad ala fissa. Questi sistemi
sono dotati di un supporto stabilizzato
per la compensazione
delle rotazioni spaziali indotte
dal volo, dalla turbolenza dell’aria
e dal vento e sono in grado
di trasportare un carico utile
(payload), costituito dai sensori
per la ripresa.
I vantaggi-svantaggi funzionali,
rispetto ai vettori aerei tradizionali,
sono indicati nella figura 4.
I SAPR consentono riprese aeree
da quote relative inferiori,
con conseguente aumento della
scala media delle immagini (a
parità di valore della focale fissa
riguardante la fotocamera) e
quindi del livello di dettaglio e
della precisione altimetrica.
Una ridotta quota relativa di
volo accentua però gli effetti
di trascinamento (Figg. 5-6)
dell’immagine, con conseguente
fenomeni di sfocatura (foto
mossa): si potrà intervenire
limitando la velocità di crociera
(V) dell’APR e coordinando
opportunamente il tempo di
esposizione (dt) della ripresa
Fig. 4 - Valutazione dei sistemi APR.
Fig. 5 - Il trascinamento dell’immagine digitale.
In senso tecnico, la scansione
laser detiene comparativamente
il rilevante vantaggio (disponendo
del valore della distanza
di posizione) che un solo raggio
debba essere riflesso da un
punto oggetto per la sua determinazione
3D; la ripresa per
immagini comporta invece la
necessità di disporre di almeno
due raggi (omologhi) riflessi
per ciascun punto da restituire
spazialmente, relativi a differenti
posizioni del sensore fotografico,
oltre ad informazioni
Fig. 3 - Il rilievo di prossimità per immagini (Cristo
Redentore a Rio de Janeiro, da Pix4D).
GEOmedia n°2-2016 7
FOCUS
Fig. 6 - Ripresa nadirale da aereo e di prossimità da APR.
metriche, acquisite sull’oggetto,
necessarie per la ricostruzione
univoca del modello di punti
(Fig.7).
Inoltre, se nel laser scanning
emergono problemi di impiego
su superfici riflettenti, trasparenti
e traslucide (metalli,
marmi, vernici, vetro…), nel
caso della ripresa per immagini
l’oggetto deve presentare altresì
un’adeguata caratterizzazione
geometrica e tematica (superfici
non uniformi, non lisce, non
monocromatiche e con poche
Fig. 7 - Schema del rilevamento per immagini (da GIM International).
ombre); questo perché sia consentito
il riconoscimento automatico
dei punti omologhi sui
fotogrammi corrispondenti. Il
processo di ricerca viene attuato
tramite la correlazione digitale
delle immagini.
La correlazione digitale
di immagini
Le tecniche per l’individuazione
dei punti omologhi su
immagini sovrapposte, dette di
matching, sono del tipo areabased
(ABM) e feature-based
(FBM): le prime si fondano sul
confronto dei livelli di colore
di areole poste sulle immagini
di interesse, mentre le seconde
pongono a raffronto primitive
grafiche (punti, linee, poligoni),
estratte preliminarmente dalle
immagini attraverso operatori di
interesse.
Quando la risoluzione del
matching deve scendere a livello
del singolo pixel, la ricerca dei
punti per correlazione diviene
operativamente proibitiva:
questo accade soprattutto con
immagini oblique (per esempio,
nel caso di riprese di facciate
o prese terrestri) e quando le
morfologie dell’oggetto siano
altimetricamente assai irregolari
(edifici alti, ecc.).
Negli ultimi anni sono stati
introdotti algoritmi più efficaci
e veloci, come il Semi-Global-
Matching (Hirschmueller,
2005-2008), che si avvalgono
del contributo della geometria
epipolare (Fig. 8) (per limitare
la ricerca dei punti omologhi a
linee immagine) e consentono
l’estrazione di nuvole di punti
dense con campionamento (griglia)
corrispondente al valore
del pixel sull’oggetto (GSD).
[2] GSD = pixel immagine *
quota media relativa / focale del
sensore fotografico
Il valore GSD definisce la scala
massima della restituzione
vettoriale-raster producibile dal
modello:
[3] 1/N R
= k / GSD con k =
0,1 mm oppure (0,1* 1,96) mm
(incertezza grafica, al 95%).
Il rilevamento di
prossimità per immagini
Le acquisizioni per immagini, effettuate
sempre più diffusamente
da SAPR, consistono in un blocco
di foto oblique o normali, opportunamente
sovrapposte longitudinalmente
e trasversalmente
(in funzione del tipo di rilievo
previsto, 2D o 3D).
Si tratta, in dettaglio, di riprese
di tipo normale (all’oggetto)
effettuate secondo strisciate orizzontali
oppure di riprese di tipo
obliquo spesso su strisciate verticali
(modelli di facciate). Esse risultano
utili per generare nuvole
di punti o per estrarre elaborati
2D vettoriali e raster; questi ultimi
vengono ortogonalizzati, cioè
corretti dalle deformazioni geometriche
indotte dalla morfologia
dell’oggetto, dalla geometria
della ripresa e dai sistematismi
del sensore (Fig. 9).
Il vettore aereo dispone, oltre
che di sensori di rilevamento,
di sensori navigazionali per la
registrazione in tempo reale
del posizionamento e dell’assetto
della foto-camera: questo
consente l’esecuzione di voli
autonomi attraverso way-points
con georeferenziazione diretta
8 GEOmedia n°2-2016
FOCUS
(in modalità RTK o PPK) delle
riprese (fotogrammetria diretta).
In genere, però, la georeferenziazione
è effettuata ancora
con metodologia indiretta o
mista, cioè utilizzando anche
punti di controllo GCP
(GroundControlPoints, premisurati
topograficamente
sull’oggetto), per motivi sia di
costo che di affidabilità metrica.
I punti di controllo sono
materializzati con target o coincidono
con particolari naturali
ben riconoscibili e vengono
distribuiti sul contorno e al centro
del blocco di immagini, a
quote differenti. La qualità metrica
del blocco viene verificata
per confronto attraverso CP
(CheckPoints), scelti fra i GCP
e rideterminati poi anche tramite
il modello di immagini.
La compensazione del blocco è
effettuata con software di elaborazione
digitale (produttori noti
sono Agisoft, Pix4D, Menci…);
vengono calcolati i parametri
di orientamento esterno di ogni
immagine (risoluzione del noto
vertice di piramide), nonché i
residui stimati sui punti di controllo
(GCP).
La creazione del modello di
punti-oggetto (DSM), dalle
singole immagini sovrapposte,
è poi gestita mediante intersezione
spaziale di raggi omologhi
corrispondenti (restituzione
3D); importante per garantire
una buona precisione altimetrica
risulta in questo caso il rapporto
base della ripresa / quota
media relativa (Fig. 9).
Alla nuvola di punti, estratta
automaticamente e più adatta
alla descrizione di superfici semplici
e a basso dettaglio, si può
affiancare localmente, come per
la scansione laser, l’acquisizione
manuale di specifici punti
oggetto (tramite osservazione
monoscopica su più fotogrammi)
o ancora una restituzione
stereoscopica (per linee oggetto)
Fig. 8 - La correlazione digitale delle immagini (da GIM International).
utile su superfici pseudo-verticali
(facciate) o con dettaglio
complesso.
È possibile, insieme al calcolo
del blocco, effettuare l’autocalibrazione
della foto-camera,
correggere la distorsione radiale
dell’obbiettivo e produrre elaborati
raster di tipo ortografico.
Il rilevamento per immagini
utilizza nella fase di ripresa una
serie di rapporti prestabiliti (di
tipo sperimentale) fra la scala
media dell’immagine e il
successivo livello di dettaglio
(cioè la scala) della restituzione
(raster o vettoriale). La figura
10 riporta tali rapporti, insieme
ai corrispondenti livelli di precisione
conseguibili. La precisione
(s.q.m. o ripetibilità) è calcolata
sulla reiterazione dello stesso
processo di misura, mentre l’accuratezza
(o RMSe) origina dal
confronto del processo di misura
in atto con uno più affidabile;
in assenza di errori grossolani
e sistematici i due parametri
coinciderebbero.
Sicurezza della fase di volo
e ripresa
L’uso dei sistemi APR a pilotaggio
remoto è regolamentato
in Italia dall’ENAC, l’ente di
coordinamento dell’Aviazione
Civile; ad esso si rimanda per i
dovuti approfondimenti.
Un aspetto importante, e spesso
controverso, del Regolamento è
Fig. 9 - Schemi per la ripresa di immagini.
Fig. 10 - Rapporti di scala nel rilevamento per immagini.
GEOmedia n°2-2016 9
FOCUS
quello relativo all’interpretazione
delle condizioni di criticità di
una ripresa, che possono condizionare
o precludere le attività
operative sul campo.
La figura 11 riporta graficamente
le prescrizioni relative ai voli
professionali eseguiti di giorno e
con l’operatore in contatto visivo
continuo con il mezzo aereo
in volo (le cosiddette operazioni
VLOS).
Considerazioni finali
Le tecnologie innovative connesse
ai sistemi esperti di rilevamento
per scansione laser e per
immagini, gestibili autonomamente
da terra e dal cielo, stanno
rivoluzionando le tecniche
di acquisizione 3D, sempre più
integrate fra loro e orientate
alla ricostruzione spaziale, al
mondo telematico-informatico
e all’automazione.
Tutto ciò saprà offrire certamente
crescenti vantaggi operativi,
semplificando significativamente
le attività di misura
sul campo, ma non potrà mai
cancellare l’importanza di una
rigorosa formazione di base
unita all’esperienza professionale
degli addetti ai lavori.
BIBLIOGRAFIA
F. Chiabrando, A. Lingua e M. Piras -
Fotogrammetria diretta con RPAS - Geomedia,
1-2015
L. Colombo (2016) - Scansione laser terrestre e
sensori GNSS-RTK per la creazione di modelli
spaziali urbani - Geomedia, 1-2016
ENAC (2015) - Regolamento APR - Edizione
n.2 con emendamento n.1 - www.enac.gov.it
H. Hirschmueller (2011) - Semi-Global
Matching - Motivation, developments and applications
– Proceedings of Photogrammetric
Week 2011, Stuttgart - Wichmann
M. Kodde (2016) - Dense Image Matching -
GIM International, 1-2016
M. Naumann, G. Grenzdoerffer (2016)
- Reconstructing a church in 3D - GIM
International, 2-2016
R. Pacey, P. Fricker (2005) - Forward Motion
Compensation (FMC) - Photogrammetric
Engineering & Remote Sensing, November
2005
DronEzine - Magazine & books - www.dronezine.it
ABSTRACT
The article deals with the automatic survey techniques
which collect point clouds over the objects of interest.
It ranges from laser scanning to survey for images, that
is having meaningful awakenings through the proximity
aerial survey after the advent of Unmanned Aircraft
Systems.
Assessments regarding the aim of application, the
advantages-disadvantages of processes and the necessary
technological support about telematics and information
technology, complement the benchmarking.
Fig. 11 - Operazioni critiche e non
critiche nelle riprese VLOS con
SAPR (da DronEzine)
PAROLE CHIAVE
Nuvole di punti; laser scanning; rilevamento per
immagini; SAPR; ENAC
AUTORE
Luigi Colombo
Luigi.colombo@unibg.it
Università di Bergamo - DISA
Gruppo di Geomatica - Dalmine
• Rilievi batimetrici automatizzati
• Fotogrammetria delle sponde
• Acquisizione dati e immagini
• Mappatura parametri ambientali
• Attività di ricerca
Vendita – Noleggio - Servizi chiavi in mano, anche con strumentazione cliente
10 GEOmedia n°2-2016
FOCUS
Leica Viva GS16
Smartantenna GNSS con tecnologia RTKplus
e SmartLink
Tracciamento di tutti i segnali GNSS di oggi e
di domani
Antenna GNSS con auto-apprendimento grazie
a RTKplus
Efficiente in tutte le condizioni anche in ambienti
sfavorevoli
Leica Viva GS16 - Smartantenna GNSS ad auto-apprendimento
Experience 3D innovation
Leica Geosystems S.p.A.
surveying@leica-geosystems.com
www.leica-geosystems.it
GEOmedia n°2-2016 11
FOCUS
Raccontare la geologia
attraverso le story-telling
Roma dal 1820 al 2008
di Maria Pia Congi, Fabiana Console, Marco Pantaloni, Paolo Perini e Mauro Roma
In questo lavoro viene ricostruito,
attraverso l’uso degli strumenti
disponibili nella piattaforma
ArcGIS Online di ESRI®, un
percorso scientifico-culturale
che presenta i progressi di
ordine tecnico e conoscitivo della
geologia attraverso l’analisi della
cartografia geologica realizzata
nell’area romana a partire dal
1820 fino ad oggi.
Fig. 1 - Schema geologico di Roma realizzato da Giovanni Battista Brocchi tra il 1820 ed il 1830,
disegnato a mano a due colori.
La cartografia geologica
rappresenta una delle
più innovative “scoperte”
scientifiche del XIX secolo e la
stessa cartografia ha costituito
l’elemento di base per lo sviluppo
economico di molti paesi
europei ed extraeuropei (Pantaloni,
2014). In Italia, nel 1873,
viene istituito il Regio Ufficio
Geologico ed avviato il rilevamento
geologico sistematico del
territorio e la sua rappresentazione
cartografica.
In precedenza, però, alcuni
scienziati riportarono su carta i
risultati degli studi e dei rilievi
eseguiti in varie parti della penisola.
Tra i primi esempi va senza
dubbio ricordato lo Schema
geologico di Roma, realizzato da
Giovanni Battista Brocchi tra il
1820 e il 1830.
Dopo aver analizzato la produzione
scientifica e cartografica
realizzata da diversi Autori
nell’area romana, si è costruito
un progetto di Story telling cercando
di evidenziare i progressi
di ordine tecnico e conoscitivo,
inserendo i singoli lavori nel
contesto storico e culturale del
periodo.
La ricostruzione di questo interessante
percorso viene fatta
sfruttando le potenzialità of-
12 GEOmedia n°2-2016
FOCUS
ferte dai sistemi GIS attraverso
strumenti disponibili nella
piattaforma ESRI ® di ArcGIS
Online, tutto ciò con lo scopo
di valorizzare il contenuto scientifico-culturale
della cartografia
e contribuire alla conoscenza
dello sviluppo delle Scienze geologiche.
Il patrimonio bibliografico
e cartografico della Biblioteca
dell’ISPRA
La Biblioteca dell’ISPRA, specializzata
nelle Scienze della Terra
e nelle tematiche ambientali,
vanta nella sua ricca consistenza
l’intero patrimonio della Biblioteca
del Servizio Geologico
d’Italia. La biblioteca possiede,
attualmente, 3.300 testate di
periodici, 50.000 monografie
ed una base di dati, elaborata
ed arricchita costantemente dai
bibliotecari, di circa 60.000
contributi di periodici e di monografie.
Questo patrimonio è
contraddistinto da una cartoteca
caratterizzata da oltre 50.000
carte geologiche e geotematiche,
la cui copertura territoriale
interessa 170 paesi per un arco
temporale di 140 anni. Delle
15.000 carte italiane, circa un
migliaio sono di particolare
pregio e valore storico perché
prime edizioni oppure originali
d’autore acquerellate a mano di
cui molte inedite. Per esigenze
di conservazione, tutela e diffusione,
la Biblioteca ha realizzato
un progetto di riproduzione in
formato digitale di oltre 1.500
carte geologiche antiche.
Materiale cartografico
utilizzato
La più antica carta dell’area romana
con indicazioni di natura
geologica è lo Schema geologico
di Roma (Fig. 1) realizzato da
Giovanni Battista Brocchi tra
il 1820 ed il 1830, disegnato a
mano a due colori sulla riduzione
della “Nuova pianta di
Roma” eseguita nel 1773 da
Giovanni Battista Nolli.
Nell’unica copia manoscritta
esistente, conservata presso la
Biblioteca dell’ISPRA, si legge,
in basso a destra, l’indicazione
di responsabilità autografa,
mentre in alto a sinistra la nota
“La linea rossa che attraversa il
Gianicolo e il Vaticano indica
la creta del colle”. La scala della
carta, di 2000 palmi romani di
architettura è indicata in basso
a destra su un frammento architettonico.
L’altro elemento studiato è la
Carta geologica e idrografica della
Campagna Romana alla scala
1:210.000, realizzata in forma
manoscritta da Paolo Mantovani
nel 1870. A causa di alcuni
grossolani errori interpretativi,
quest’opera venne considerata
di importanza minore e quindi
dimenticata nelle ricostruzioni
storiche della geologia romana.
La conoscenza geologica dell’area
di Roma subisce un profondo
sviluppo subito dopo la
fondazione del R. Ufficio Geologico,
con l’inizio delle attività
di rilevamento sistematico del
territorio per la realizzazione
della Carta geologica d’Italia in
scala 1:100.000.
Proprio a cura del R. Ufficio
Geologico, nel 1888 viene
pubblicata la prima edizione
del Foglio geologico 150 Roma;
il fattore di scala adottato, pur
offrendo una importante chiave
di lettura per l’inquadramento
delle strutture geologiche a scala
regionale, non rende questo
prodotto idoneo ad attività di
caratterizzazione per la piani-
Fig. 2- In alto, panorama della
formazione nettunica (da Degli
Abbati, 1869); sullo sfondo, lo
stesso panorama, oggi.
GEOmedia n°2-2016 13
FOCUS
Fig. 4 - Pagina di ingresso della Story Map “Geologia di Roma (1820-2008)”;
a destra, pagina descrittiva della Carta geologica di Roma realizzata nel 1915 da Antonio Verri.
Fig. 3- In alto, la Via Portuense nel 1891, nell’area
dell’esplosione della polveriera di Vigna Pia; in basso,
la stessa strada, oggi.
ficazione territoriale urbana,
proprio nel periodo di massima
espansione urbana immediatamente
successivo al trasferimento
della capitale da Firenze
a Roma.
Nel 1893 Achille Tellini pubblica
una Carta geologica dei dintorni
di Roma: regione alla destra
del Fiume Tevere, in due fogli in
scala di dettaglio di 1:15.000.
Essendo limitata al solo settore
in destra del Fiume Tevere, la
carta pecca per l’incompletezza
della copertura territoriale.
Questa lacuna viene compensata
nel 1915, quando il Tenente
Generale Antonio Verri pubblica,
per conto del R. Ufficio
Geologico, la sua Carta geologica
di Roma, anche questa a scala
1:15.000. Questo è il primo
esempio di rappresentazione
geologica su una carta topografica
di dettaglio per l’intera
città che iniziava la sua moderna
e ampia urbanizzazione e, a
distanza di 100 anni dalla sua
pubblicazione, presenta ancora
oggi interessanti elementi di
attualità (Pantaloni, Luberti,
2015).
Il nostro studio ha poi analizzato
la seconda edizione del
Foglio geologico 150 Roma in
scala 1:100.000, realizzato dal
Servizio Geologico d’Italia nel
1967, sotto la direzione di E.
Beneo. La completezza dell’area
urbana però, essendo il “taglio”
della base IGM centrato sul
meridiano di Monte Mario, viene
completata con il limitrofo
Foglio geologico 149 Cerveteri,
pubblicato nel 1963.
Lo studio comparativo si conclude
con la nuova cartografia
geologica in scala 1:50.000
(Progetto CARG) del Servizio
Geologico d’Italia – ISPRA, con
il Foglio geologico 374 Roma,
pubblicato nel 2008 e realizzato
in collaborazione con l’Università
di Roma Tre.
Acquisizione dei dati cartografici
e georeferenziazione
La ricostruzione dell’evoluzione
delle conoscenze geologiche
della città di Roma tramite una
Story Map ha richiesto un meticoloso
lavoro preparatorio sui
documenti originali.
Dopo la fase di scansione del
documento cartaceo, effettuata
con risoluzione a 300 dpi, si è
proceduto ad un lavoro di accurata
georeferenziazione. Essendo
queste cartografie spesso prive
di un sistema di riferimento, la
georeferenziazione è stata effettuata
attraverso l’identificazione
di un discreto numero di punti
omologhi utilizzati come GCP
(Ground Control Point). A tal
fine sono stati individuati punti
di origine antropica facilmente
e sicuramente riconoscibili, essendo
legati a monumenti e/o
edifici storici che hanno svolto
la funzione di “caposaldo” topografico.
Per le carte di più
recente produzione, invece, l’operazione
di georeferenziazione
è stata facilitata grazie ai vertici
delle carte con coordinate note.
A tutti i file raster è stato assegnato
il sistema di riferimento
Web Mercator EPSG 3857.
14 GEOmedia n°2-2016
FOCUS
Acquisizione e rielaborazione
dei dati iconografici
Congiuntamente all’analisi della
cartografia geologica, si è sviluppata
una fase di raccolta di materiale
iconografico, analizzando
la vasta mole di pubblicazioni
scientifiche disponibili presso
la Biblioteca dell’ISPRA. L’arco
temporale coperto spazia dal
1869 con i paesaggi raffigurati
nel volume di Francesco Degli
Abbati, alle pubblicazioni di
Alessandro Portis (1893, 1896),
fino ad arrivare agli anni ’50
con i numerosi lavori di Gioacchino
De Angelis d’Ossat (ad
es., 1945, 1956). Questi lavori
contengono viste panoramiche,
schemi geologici e rappresentazioni
di sezioni che oggi non
sono più visibili o sono pesantemente
coperte dalle opere
civili (Fig. 2). È stato quindi
effettuato il recupero di queste
informazioni ubicando con
precisione il luogo dove furono
eseguite e confrontando, attraverso
operazioni di riposizionamento
grafico, il passato con
l’attuale (Fig. 3).
Il lavoro è proseguito attraverso
la raccolta di immagini
fotografiche tratte da pubblicazioni
o da archivi storici selezionando
quelle immagini che
offrono informazioni di natura
geologica-geomorfologica
dell’area urbana.
Metadati e servizi
Il Servizio Geologico d’Italia –
ISPRA, Organo Cartografico
dello Stato, ha da diversi anni
concentrato una parte delle
proprie attività verso la condivisione
delle informazioni verso
utenti esterni, in ottemperanza
alla direttiva INSPIRE. Tutte
le informazioni afferenti alle
Scienze della Terra sono state
quindi oggetto di analisi e di
una successiva trasformazione
verso gli standard maggiormente
diffusi. Questo processo di
“rinnovamento” è stato applicato
anche alla cartografia storica
che trova in questo progetto pilota
la sua prima applicazione.
Dopo la fase di georeferenziazione
il materiale cartografico
utilizzato è stato pubblicato sotto
forma di servizi standard di
tipo WMS (Web Map Service).
Per ciascun servizio sono stati
compilati i file di capability per
definire un primo metadato. In
particolare sono stati compilati
tutti i campi utili al reperimento
delle informazioni e dei contatti,
nonché quelli relativi ai
contenuti e alle funzioni abilitate
sul servizio, con particolare
attenzione alla licenza d’uso attribuita,
in questo caso creative
commons (cc-by-sa).
Una volta generati, i servizi di
mappa sono stati pubblicati
all’interno di ArcGIS Online,
che include una suite di applicazioni
che permettono la diffusione
di queste mappe al fine di
poterle condividere all’esterno.
Story Maps
La metodologia sviluppata
sfrutta le potenzialità offerte dai
sistemi GIS con l’impiego di
applicazioni WEB precostruite
nella piattaforma cloud ESRI ®
di ArcGIS Online attraverso alcuni
modelli di Story Maps.
Fig. 5- Story Map di confronto attraverso il template Swipe “spyglass” delle cartografie Foglio geologico 374 Roma
(2008) in sovrapposizione alla Carta geologica di Roma di Antonio Verri (1915) all’interno della lente.
GEOmedia n°2-2016 15
FOCUS
Lo story-telling, come ESRI ®
denomina questo metodo di
comunicazione, rappresenta
una forma di racconto tematico
attraverso una videonavigazione
supportata da informazioni
geo-grafiche, corredata
da immagini, da un testo descrittivo
o da altro contenuto
multimediale.
La Story Map realizzata nel
formato Map Journal permette
di visualizzare i caratteri geologici
dell’intera area romana o,
alternativamente, di esplorare
il dettaglio di una determinata
località, svelando l’evoluzione
scientifica geologico-ambientale,
ampliando quindi la conoscenza
del territorio anche
in ordine temporale. Le pagine
del Map Journal sono composte
da una mappa principale
e da un banner laterale che
raccoglie immagini e informazioni
descrittive sintetiche (Fig.
4). Grazie a diverse tipologie
di Story Maps, che comportano
una diversa metodologia di accesso
alle informazioni, si stanno
organizzando altre forme
di “racconto”, per un diverso
approccio alla divulgazione.
Ad esempio, il formato “Map
Tour” consente di organizzare
informazioni spot del territorio
attraverso una mappa di punti
opportunamente simboleggiati
ai quali sono collegate
informazioni alfanumeriche
o fotografiche, presenti nella
tabella degli attributi dei punti,
che l’utente può facilmente
consultare.
Il formato “Swipe”, invece,
permette di confrontare coppie
di carte verificandone le significative
differenze attraverso
degli artifici grafici disponibili
(scorrimento verticale o lente
d’ingrandimento) (Fig. 5).
Questa nuova forma di rappresentazione,
che si inserisce
perfettamente nell’evoluzione
della gestione della cartografia
storica fino ad arrivare al moderno
2.0, costituisce una interessante
e moderna soluzione
di comunicazione in grado di
fornire nuovi strumenti di consultazione
e conoscenza del territorio,
oltre che a permettere
la condivisione dei risultati con
un maggior numero di utenti
anche non esperti di software
GIS.
La visualizzazione del prodotto
realizzato è possibile all’indirizzo:
http://arcg.is/1FiXreQ
RIFERIMENTI BIBLIOGRAFICI
De Angelis d’Ossat G. (1945), “Aggiornamenti sulla carta geologica del Vaticano”,
Bollettino della Società Geologica Italiana, 64: 9-10.
De Angelis d’Ossat G. (1956), Geologia del Colle Palatino in Roma, Servizio
Geologico d’Italia, Libreria dello Stato, Roma, 95 pp.
Degli Abbati F. (1869), Del suolo fisico di Roma e suoi contorni: sua origine e sua
trasformazione, Tip. G. Migliaccio, Cosenza, 64 pp.
Pantaloni M. (2014), “15 giugno 1873, nasce il R. Ufficio Geologico. 140 anni di
geologia in Italia”, Geologia Tecnica & Ambientale, 1/2014: 37-44.
Pantaloni M., Congi M.P., Console F., Ercolani G., Severino F., Roma M. (2014),
“La cartografia geologica storica della Biblioteca ISPRA: dall’originale cartografico
alla visualizzazione su portale”, Atti 18a Conferenza Nazionale ASITA, 14 – 16
ottobre 2014, Firenze.
Pantaloni M., Luberti G.M. (2015), “Elementi di attualità della Carta geologica
di Roma di Antonio Verri nel centenario della sua pubblicazione”, Professione
Geologo, 44: 10-15.
Portis A. (1893), Contribuzioni alla storia fisica del bacino di Roma e studii sopra
l'estensione da darsi al Pliocene superiore, parti 4 e 5, Roux Frassati, Torino, 293
pp.
Portis A. (1896), Contribuzioni alla storia fisica del bacino di Roma e studii sopra
l'estensione da darsi al Pliocene superiore, parti 1, 2,e 3, L. Roux, Torino, 513 pp.
PAROLE CHIAVE
Cartografia geologica; Storia della geologia; Geologia
urbana; Roma
ABSTRACT
Geological mapping is one of the most innovative "discoveries" (in
Earth Sciences development) of the 19th century and it represented
the basic knowledge for the economic exploitation of many European
countries. In 1873, with the foundation of the Regio Ufficio Geologico,
started the systematic geological survey of the Italian territory and
its cartographic representation. In the previous period some scientists
reported on scientific publications the results of their studies and surveys
carried out in different parts of the peninsula. Undoubtedly, the
early example is the “Geological scheme of Rome”, realized by Giovanni
Battista Brocchi between 1820 and 1830. The analysis of scientific
and cartographic production carried out by several authors in the
urban area of Rome and its surroundings permitted us to built a Story
telling project finalized to highlight the progress of geological knowledge,
placing the individual works in the historical and cultural context
of the period. This reconstruction path is done by exploiting the potential
of ESRI ArcGIS Online tools, with the purpose of enhancing the
scientific and cultural content of the geological cartography contributing
to the knowledge of Geological Sciences development.
AUTORE
Maria Pia Congi,
Marco Pantaloni, marco.pantaloni@isprambiente.it
Paolo Perini, Mauro Roma
Servizio Geologico d'Italia
Fabiana Console - Biblioteca
Istituto Superiore per la Protezione e la Ricerca
Ambientale (ISPRA) - via V. Brancati, 48 - 00144 Roma.
16 GEOmedia n°2-2016
FOCUS
GEOmedia n°2-2016 17
REPORT
Una infrastruttura geografica europea
il Progetto E.L.F. (European Location Framework)
di Stefano Campus, Patrizia Nazio e Gianbartolomeo Siletto
L’European Location Framework è
un’infrastruttura tecnica che consentirà
di fornire vari servizi online per
l’individuazione, l’accesso e l’utilizzo di
dati geografici di riferimento ufficiali di
tutta Europa, attraverso un unico punto
di accesso. La piattaforma E.L.F. si basa
sul concetto di servizi in cascata che
“raccolgono” i dati provenienti dai servizi
nazionali conformi alla Direttiva IINSPIRE
e li rendono disponibili come un unico
servizio paneuropeo.
In questa nota, verrà descritto il Progetto
ed il contributo di Regione Piemonte.
Fig. 1 – Schema dei contenuti della piattaforma E.L.F.
Entro il Programma Competitività
e Innovazione
(CIP) e il Programma di
sostegno alle politiche delle Tecnologie
dell’Informazione e Comunicazione
(ICT PSP) dell’Unione
Europea è stato finanziato
il Progetto European Location
Framework (E.L.F.) con lo scopo
di realizzare un’infrastruttura
tecnica fondata su soluzioni di
interoperabilità in grado di offrire
dei dati e servizi geo-spaziali.
Il Progetto (www.elfproject.eu)
ha una durata di 36 mesi (marzo
2013-marzo 2016) e vede tra i
suoi 30 partner la maggior parte
degli Enti Cartografici Nazionali
(National Mapping and Cadastral
Agencies – NMCAs) degli stati
membri dell’Unione, partner
tecnologici e stakeholder, come
ad esempio OGC. In particolare
tra i suoi 30 partner, la metà
sono NMCAs che forniscono
l’accesso ai propri dati nazionali;
il resto sono esperti di dominio
nella fornitura di servizi web e di
strumenti per il trattamento di
dati spaziali, università e sviluppatori
di applicazioni.
Obbiettivi del progetto sono:
4realizzare un’infrastruttura
fondata su soluzioni cloud di
interoperabilità per le pubbliche
amministrazioni europee,
in grado di offrire dati e servizi
geo-spaziali affidabili (conformi
alla Direttiva INSPIRE) ed
armonizzati, giuridicamente e
tecnicamente interoperabili;
4promuovere un utilizzo più
ampio dei dati territoriali da
parte del settore pubblico e
privato e dei cittadini, anche in
linea con la Direttiva europea
sul riutilizzo dell’informazione
del settore pubblico (Direttiva
PSI);
4promuovere lo sviluppo di
servizi innovativi a valore aggiunto.
Attraverso l’esposizione di dati e
servizi, le informazioni geografiche
saranno aggiornate, ufficiali,
interoperabili, armonizzate a
livello transfrontaliero e paneuropeo
e di riferimento per l’uso
da parte del pubblico europeo
(cittadini ed imprese).
Le attività prevedono specifiche
sulla produzione di dati e servizi,
sviluppo di una piattaforma di
pubblicazione cloud open source,
tool per la trasformazione, verifica,
generalizzazione ed armonizazione
dei dati.
Particolare attenzione è posta
al contesto giuridico entro cui
si inseriranno i dati e i servizi
18 GEOmedia n°2-2016
REPORT
pubblicati dalle Autorità Nazionali
nella piattaforma E.L.F.
Questo per assicurare che i
prodotti siano disponibili anche
dopo il periodo di esecuzione
del Progetto. Inoltre non
dovranno esserci problemi di
interpretazione delle politiche
di diffusione che ogni stato
membro applica ai propri
prodotti, in termini di licenze,
pagamenti di oneri ecc.
Regione Piemonte è l’unico
partner del consorzio che pur
producendo dati geografici di
base non è un ente cartografico
nazionale.
Struttura del Progetto
E.L.F. è un progetto grande
e complesso che richiede un
lavoro coordinato di 30 partner
del consorzio; a tal fine è suddiviso
in 9 sotto-progetti, Work
Packages (WP). Ogni pacchetto
di lavoro è descritto di seguito,
indicando obbiettivi e prodotti.
WP1 Gestione
Questo pacchetto di lavoro
riguarda la gestione amministrativa
e finanziaria del progetto.
In particolare si occupa di: coordinare
e verificare che la produzione
degli elaborati avvenga nei
tempi previsti ed entro il budget
approvato, coerentemente con
il contratto siglato con la Commissione;
garantire la corretta ed
efficiente gestione e il coordinamento
dei partner del progetto e
del loro piano di lavoro; fornire
periodicamente valutazioni e
feedback ai partner; fornire report
finanziari e amministrativi;
esaminare e valutare i risultati
del progetto.
WP2 Specifiche dati
Questo pacchetto di lavoro prevede
di fornire le specifiche per i
dati del progetto, sulla base delle
specifiche INSPIRE esistenti;
fornire le specifiche per la manutenzione
dei dati e le specifiche
Fig. 2 – Schema dei flussi di alimentazione della piattaforma E.L.F.
per i geo-tools; fornire le specifiche
per i prodotti e i servizi forniti
nella piattaforma E.L.F.
WP3 Contenuto di servizi e dati
Questo pacchetto di lavoro
prevede di fornire i dati tramite
servizi nazionali (basati sulle
specifiche di progetto); elaborare
i servizi di progetto E.L.F. in
cascata sulla base dei servizi nazionali;
fornire una piattaforma
cloud open source per i servizi.
WP4 Implementazione dei
geo-tools E.L.F.
Questo pacchetto di lavoro
prevede di fornire dei geo-tools
per la trasformazione, la verifica
della qualità, la generalizzazione,
l’armonizzazione ai confini, la
visualizzazione, il rilevamento e
la ricerca dei dati.
WP5 Piattaforma dei servizi
cloud
Questo pacchetto di lavoro
prevede di offrire un servizio
altamente scalabile, immediatamente
utilizzabile dagli sviluppatori
di applicazioni e dagli utenti
finali, sia che utilizzino applicazioni
GIS desktop, web o mobili;
raccogliere i dati dalle diverse
fonti (harvesting); documentare
l’architettura tecnica della piattaforma
E.L.F. come attuata dal
progetto.
WP6 Contenuto di soggetti terzi
(data provider) ed esigenze degli
utenti
Questo pacchetto di lavoro prevede
di rilevare la disponibilità di
dati tematici provenienti da fonti
diverse e renderli disponibili per
lo sviluppo di servizi a valore
aggiunto per gli utilizzatori; incrementare
l’utilizzo di dati autoritativi
ed ufficiali; incrementare
l’integrazione tra i servizi
di soggetti terzi e derivanti dalla
cooperazione transfrontaliera.
WP7 Istanze dei servizi
Questo pacchetto di lavoro prevede
di sviluppare ed estendere le
applicazioni che fanno uso della
piattaforma E.L.F. e dei dati autoritativi,
sia da parte dei membri
del Consorzio sia da parte di
soggetti terzi; in generale, stimolare
l’innovazione attraverso l’uso
della piattaforma E.L.F.
GEOmedia n°2-2016 19
REPORT
WP8 Disseminazione
Questo pacchetto di lavoro prevede
di promuovere la conoscenza
del progetto tra i portatori di
interesse; impegnarsi ad aumentare
la diffusione dei risultati del
progetto; creare e implementare
un piano strategico di comunicazione
per il progetto; partecipare
ad azioni focalizzate, seminari
tematici e a gruppi di interesse
specifici, per favorire l’utilizzo
sostenibile della piattaforma
anche oltre il periodo di realizzazione
del progetto.
WP9 Accesso sostenibile ed utilizzo
dei servizi E.L.F.
Questo pacchetto di lavoro
prevede di creare regole di utilizzo
della piattaforma che siano
giuridicamente sostenibili e
garantire che i prodotti E.L.F.
siano resi disponibili per il loro
uso e ri-uso anche dopo il periodo
di realizzazione del progetto;
assicurare che la politica definita
dal progetto sia coerente con la
legislazione e la politica europea,
in particolare con le regole per
lo scambio di dati e per i servizi
previsti dalle Direttive INSPIRE
e PSI; incrementare la mole di
dati liberamente disponibili,
incoraggiando l’istituzione di accordi
quadro, licenze aperte e tariffe
minime o senza alcun costo;
fornire i termini di riferimento
elaborati dalla piattaforma
E.L.F.; mettere in atto un piano
strategico di comunicazione
verso i portatori di interesse per
favorire l’accesso sostenibile alla
piattaforma oltre il periodo di
realizzazione del progetto.
Prodotti e servizi
La piattaforma E.L.F. fornirà
l’accesso a una serie di dataset regionali
e nazionali supportato da
un certo numero di servizi:
4E.L.F. Basemap service.
Si configura come uno specifico
servizio di visualizzazione
multi-scala da utilizzare
come sfondo di riferimento
su cui rappresentare atri dati.
È realizzato a partire da dati
esistenti a livello globale
(paneuropeo) e regionale di
EuroGeographics e da dati
nazionali;
4E.L.F. Geo Product Finder.
È un servizio per la localizzazione
dei dati sulla piattaforma
e delle licenze e dei
contratti di utilizzo ad essi
associati;
4E.L.F. View and Download
Services. Sono i servizi di accesso
a dataset e mappe contenuti
nell’infrastruttura dati di
E.L.F. Permette di visualizzare
e scaricare attraverso le più comuni
interfacce utilizzate da
applicazioni web e mobili;
4E.L.F. Geolocator. È un modulo
che fornirà un servizio di
geocodifica in base agli indirizzi,
nomi geografici (EGN)
e confini amministrativi.
I servizi sono implementati entro
il software open source Oskari
(www.oskari.org), il cui sviluppo
è coordinato da National Land
Survey of Finland e promosso
entro il Progetto E.L.F.
Oskari è una piattaforma open
per esplorare, condividere ed
analizzare informazioni geografiche
a partire da risorse dati
distribuite.
La Figura 1 illustra schematicamente
il livello multiscala dei
dataset presenti a partire da un
livello di dettaglio (LoD) globale
(paneuropeo), regionale (multinazionale)
e nazionale e quali
servizi sono implementati per
l’accesso ai dataset ed ai servizi.
La Figura 2, invece, illustra tutto
il processo di acquisizione, normalizzazione,
armonizzazione e
controllo di qualità, vestizione
ed esposizione di dati e servizi.
Appare chiaro allora che grazie
agli strumenti messi a disposizione
dai partner entro il consorzio
Fig. 3 – INSPIRE Data Model Tool, sviluppato dallo
Spatial DB Group del Politecnico di Milano (http://
spatialdbgroup.polimi.it).
(geo-tools) è possibile alimentare
la piattaforma con dati (autoritativi)
di Servizi Cartografici
nazionali o di terze parti.
Eseguendo le operazioni di trasformazione
dallo schema dati
di partenza a quello indicato
nelle Data Specifications E.L.F./
INSPIRE, omogeneizzazione,
armonizzazione e verifica di
20 GEOmedia n°2-2016
REPORT
qualità è possibile alimentare la
piattaforma E.L.F. o attraverso
Oskari oppure un’apposita istanza
E.L.F. entro ArcGIS online.
I dati e i servizi saranno via via
disponibili al pubblico attraverso
la piattaforma E.L.F.
www.locationframework.eu.
Licenze sui dati e
servizi esposti
Il WP9 è espressamente dedicato
alla definizione di un modello di
business e alla redazione di specifiche
licenze e contratti, in virtù
dei quali un’Autorità nazionale o
un Ente terzo che fornisce dati e
servizi alla piattaforma si tutela
rispetto alle proprie politiche di
diffusione.
Sono previsti specifici contratti
da sottoscrivere tra l’Ente fornitore
dei dati e servizi ed il gestore
della piattaforma E.L.F., che è
stato individuato in EuroGeographics,
associazione, partner
del Progetto, che rappresenta e
raggruppa le NMCAs europee.
Viene anche immaginata la
possibilità che a fornire dati e
servizi non sia una NMCA; in
questo caso sono previsti tre tipi
di situazioni che danno origine
a differenti rapporti contrattuali:
1) il data provider fornisce direttamente
i dati ed i servizi ad
E.L.F. e regola il proprio rapporto
contrattuale direttamente con
il proprietario della piattaforma
E.L.F., cioè EuroGeographics,
2) il data provider fornisce i
dati ed i servizi direttamente ad
E.L.F., ma i rapporti contrattuali
sono tra la NMCA (che “rappresenta”
così il data provider)
ed EuroGeographcs. Tra il data
provider e la NMCA esistono
poi rapporti contrattuali; 3) il
data provider fornisce i dati alla
NMCA che li espone sulla piattaforma
E.L.F.; in questo caso
il rapporto contrattuale è tra la
NMCA e il proprietario della
piattaforma E.L.F., cioè EuroGeographics.
Tali modelli coprono
Fig. 4 – WMS delle classi Hydrography su ortofoto Regione Piemonte 2010.
sicuramente tutti i possibili casi
di forniture di dati da parte di
soggetti che non sono autorità
cartografiche nazionali, e ben
si potrebbero adattare alla specificità
italiana, nella quale, ad
esempio, le Regioni sono sì produttori
di temi geografiche ma
non sono autorità cartografiche
nazionali.
Il contributo di
Regione Piemonte
Regione Piemonte partecipa al
Progetto E.L.F. con il Settore
Sistema informativo territoriale
e ambientale e fin dall’inizio del
Progetto è emersa una grande
differenza organizzativa e di
competenze cartografiche rispetto
agli altri Stati. Infatti, nella
maggior parte dei casi, nei paesi
europei esiste un solo ente nazionale
che si occupa di cartografia e
spesso anche di catasto. La realtà
italiana invece vede cinque enti
cartografici dello Stato assieme
ai quali, come già ricordato,
sono da considerare almeno le
Regioni che producono cartografia
di base generalmente ad una
scala locale che va da 1:5000 a
1:10:000. Pertanto, Regione Piemonte,
non avendone la competenza.,
non ha potuto operare in
termini di armonizzazione geometrica
ai confini (edge matching)
con autorità nazionali transfrontaliere
(segnatamente la Francia),
poiché si richiede di esporre sulla
piattaforma E.L.F. dati e servizi
autoritativi. Si è quindi operato
per creare dataset e servizi
conformi alle specifiche E.L.F./
INSPIRE a partire dal Database
Topografico regionale, basato
sulle specifiche tecniche di cui al
DM 11 novembre 2011 (Regole
tecniche per la definizione delle
specifiche di contenuto dei database
geotopografici), cosiddetto
National Core. Sono state trasformate
le classi relative all’idrografia
dalla struttura National Core
alla struttura E.L.F./INSPIRE e
creato quindi sia nuovi dataset sia
servizi WMS e WFS conformi
alle specifiche E.L.F./INSPIRE.
È stata eseguita la mappatura
concettuale utilizzando i template
in formato xml forniti dal Progetto
e facendo riferimento alle
definizioni contenute nel relativo
Data Specification di INSPIRE.
La mappatura è stata realizzata
ricercando all’interno della base
dati regionale, strutturata secondo
National Core, la coerenza e
corrispondenza tra classi NC e
feature E.L.F.
GEOmedia n°2-2016 21
REPORT
È stato più volte necessario
far convergere oggetti e valori
coerenti e collegati tra loro in
differenti classi NC all’interno di
un’unica feature ELF.
Lo strumento utilizzato per
procedere alla strutturazione dei
dati, oltre ai documenti ufficiali
del progetto, è stato il INSPIRE
Data Model Tool, sviluppato
dallo Spatial DB Group del
Politecnico di Milano (http://
spatialdbgroup.polimi.it), che
ha lo scopo di facilitare l’esplorazione
del modello dati INSPIRE
(al quale il progetto E.L.F. è
strettamente legato) e renderne
esplicite le relazioni.
Tale strumento, attualmente ancora
in fase di sperimentazione
da parte di un gruppo di lavoro,
permette il mapping tra due specifiche
concettuali per poi derivarne
il relativo modello fisico.
Il software contiene al proprio
interno l’intero modello ed
utilizzando le caratteristiche
proprie di ogni oggetto, feature,
relazione od associazione che sia,
guida l’utente attraverso un più
ristretto panorama di scelte, indirizzandone
il lavoro.
La trasformazione del modello
fisico delle classi dell’Idrografia
da National Core a E.L.F./
INSPIRE è stata eseguita in ambiente
FME © .
Una volta eseguita la trasformazione,
le attività successive
riguardano la creazione di servizi
OGC di esposizione delle classi
Idrografia secondo le specifiche
E.L.F./INSPIRE.
Sono stati generati: un servizio
WMS, un WFS e un WMTS in
cascading sul WMS con applicazione
di SLD esterno.
Tali servizi sono in via di integrazione
nella piattaforma E.L.F.
e concorrono alla definizione
dell’idrografia a livello europeo.
Conclusioni
E.L.F. implementa l’infrastruttura
di dati spaziali europea
(INSPIRE) a livello transfrontaliero
ed europeo, rendendo
interoperabili e di facile accesso
i dati di riferimento nazionali ed
altri dati. La piattaforma diventa
così una risorsa per lo sviluppo
di applicazioni transfrontaliere,
incluse le esigenze di reporting da
parte della UE.
Inoltre i dati nazionali acquistano
un valore aggiunto poiché
sono accessibili tramite un unico
servizio europeo che garantisce la
conformità e la omogeneità.
Gli utenti di E.L.F. accederanno
così ai servizi gestiti da NMCAs
ed infrastrutture spaziali nazionali
tramite un unico punto
di accesso, mentre le NMCAs
manterranno il pieno controllo
di come i loro dati e servizi sono
concessi in licenza e utilizzati.
Ringraziamenti
Lavoro finanziato dal Programma
Competitività e Innovazione
(CIP) e dal Programma di sostegno
alle politiche delle Tecnologie
dell’Informazione e Comunicazione
(ICT PSP) dell’Unione
Europea nel Progetto European
Location Framework (Grant n.
325140).
Si ringrazia il C.S.I.-Piemonte,
partner tecnologico di Regione
Piemonte nel campo della IT,
per il contributo nelle attività
previste nel Progetto E.L.F.
NOTA REDAZIONE
Il Presente articolo è stato presentato
all 19° Conferenza ASITA
2015 (Lecco). Si ringrazia la segreteria
organizzativa per la cortesia e
disponibilità dimostrata. Inoltre si augura la migliore
riuscita per la 20° Conferenza ASITA 2016 (Cagliari,
8-9-10 Novembre 2016).
PAROLE CHIAVE
ELF; dati geospaziali; infrastruttura geografica;
interoperabilità
ABSTRACT
Within the Competitiveness and Innovation Framework
Programme (CIP) and the Information and
Communication Technologies Policy Support Programme
(ICT-PSP) of European Union was funded
European Location Framework Project (E.L.F.) with
the aim of creating a spatial data infrastructure framework
based on interoperability solutions, able to offer
data and geo-spatial services.
The Project (www.elfproject.eu) has a duration of
36 months (March 2013-March 2016) and includes
among its 30 partners most of the National Mapping
Agencies of the member states and technology partners.
The European Location Framework is a technical
infrastructure that will deliver various online services
for locating, accessing and using reference data from
across Europe - via a single point of access. The E.L.F.
platform is built on the concept of cascading services
which harvests data from national INSPIRE services
and makes it available as a single pan European service.
This paper describes the Project and the contribution
of the Piedmont Region.
AUTORE
Stefano Campus
stefano.campus@regione.piemonte.it
Patrizia Nazio
Gianbartolomeo Siletto
Regione Piemonte
Settore Sistema informativo
territoriale e ambientale
cartografico@regione.piemonte.it
22 GEOmedia n°2-2016
REPORT
GEOmedia n°2-2016 23
REPORT
Il rilievo con drone nei centri storici
di Zaira Baglione Pagliaroli
Nell’ambito di un Progetto di Ricerca Nazionale, l’Università degli Studi
dell’Aquila ha avviato l’impiego della tecnologia SAPR in alcune zone
colpite dal sisma del 2009. Un’indagine sinergica per evidenziare le
criticità e monitorare lo stato degli edifici in ottica di prevenzione delle
emergenze e di innovazione delle metodologie di telerilevamento.
La testimonianza della coordinatrice Prof. Donatella Dominici che
descrive i risultati della ricognizione eseguita con il multirotore nel
centro storico aquilano.
La fotogrammetria è stata
letteralmente rivoluzionata
con l’avvento della
tecnologia SAPR. In quest’ultimo
decennio si è affermata, di
fatto, una nuova cultura per la
gestione delle problematiche
territoriali e ambientali.
Sicuramente la possibilità di
eseguire rilievi attraverso i droni,
soprattutto per il monitoraggio
del territorio in situazioni di
emergenza, rappresenta una
conquista importante ai fini
non solo della stima dei danni
causati da calamità naturali, ma
anche nell’ottica dell’attività di
prevenzione.
Nei centri storici aggregati è
sempre esistita un’oggettiva
difficoltà nella raccolta dei dati
necessari per determinare gli
interventi per la messa in sicurezza
di strutture ed edifici coinvolti da
eventi catastrofici. Fino a poco
tempo fa l’utilizzo del laser scanner
ha rappresentato l’unica possibilità
per fornire, in tempi celeri e
con alti standard qualitativi,
il quadro di deformazione
delle strutture prese in esame,
consentendone valutazioni mirate
e precise. Tale strumento, non
solo negli ambienti di ricerca,
ha permesso la ricostruzione
di modelli tridimensionali
attraverso la registrazione di
scansioni singole o multiple. I
modelli tridimensionali, risultati
dalla scansione, hanno formato
una banca dati completa e
di altissima precisione, che
opportunamente impiegata ha
consentito all’operatore di estrarre
informazioni geometriche,
morfologiche e relative alla
densità dei materiali e colorazione
degli stessi. La metodologia di
rilievo con laser scanner, oltre
che in presenza di strutture
particolari come i versanti in
roccia o di materiali di riporto, è
facilmente applicata anche nelle
aree coinvolte dal sisma. Negli
anni si sono però incontrate delle
difficoltà per quanto concerne
la raccolta dati in situazioni di
alta aderenza dei piani strutturali,
fatto che ha reso non totalmente
adeguata la strumentazione da
terra. Tuttavia, nell’esperienza
fatta nel capoluogo abruzzese
tragicamente colpito dal terremoto
del 2009, con l’introduzione della
nuova metodologia di rilievo
tramite drone è stato possibile
per gli operatori raggiungere zone
e punti inaccessibili, ottenendo
risultati di maggiore dettaglio a
completamento e integrazione
delle informazioni raccolte
con gli strumenti topografici
tradizionali. La peculiarità del
rilievo da drone è quella di
produrre una rappresentazione
fotografica in un periodo storico
preciso, ed eventualmente ripeterla
per monitorare l’evoluzione o
l’arresto dei dissesti strutturali
e dare così modo ai soggetti
competenti di eseguire interventi
di restauro puntualmente. Il
valore aggiunto dei SAPR è
indubbiamente rappresentato dal
fatto che si è in grado di superare
il limite di raggiungibilità delle
zone terremotate e riportare il
rilievo completo e dall’alto di
tutta l’area considerata, non
solo delle parti sottostanti
dell’edificio. A questo proposito
l’agglomerato urbano rilevato
con il laser scanner è confinato
alla sola forma e dimensione,
mentre grazie all’utilizzo della
nuvola di punti generata dalla
24 GEOmedia n°2-2016
REPORT
fotogrammetria da UAV si
ottengono punti già correlati
con gli scatti effettuati. Pertanto
la produzione della nuvola di
punti e delle ortofoto avviene
all’interno dello stesso processo
e utilizzando la stessa fonte del
dato. Si può dire, in maniera
semplificata, che rilievo fatto solo
con laser scanner è come avere
solo una pentola, contrariamente
al risultato della ripresa eseguita
con il drone, unitamente al laser
scanner, che è come una pentola
completa di coperchio. Quindi
questo determina una completa
rielaborazione 3D, dell’ortofoto e
di tutti i prospetti che dettagliano
la situazione effettiva. Inoltre,
se si considera che nel caso
dei modelli multirotore con la
funzione di hovering è consentito
lo stazionamento a quota costante
in più punti, si comprende come
queste opportunità allarghino
il panorama conoscitivo
dell’agglomerato di edifici
analizzati. In buona sostanza
si arriva a una ricostruzione
3D estremamente fedele che
rispecchia la situazione reale sul
territorio, condizione ottimale e
necessaria per la predisposizione
di interventi di messa in sicurezza
e ripristino delle strutture
danneggiate. Tutto questo
azzerando eventuali rischi per
l’operatore incaricato e favorendo
un lavoro accurato per stabilire
l’entità di danneggiamento ai fini
di una totale ricostruzione o mera
riqualificazione.
In materia di Geomatica e
tecnologia UAV, un contributo
degno di nota lo riporta Donatella
Dominici, docente dell’Università
degli Studi dell’Aquila presso il
Dipartimento di Ingegneria Civile,
Edile-Architettura e Ambientale
(DICEAA). La Professoressa
Dominici ci descrive l’esperienza
maturata come coordinatrice del
progetto di topografia e APR
nel centro storico aquilano.
La ricerca è stata avviata nel
2011 e finanziata dal Miur con
l’obiettivo di definire le strategie
innovative per il telerilevamento
e mappatura webgis del rischio
in tempo reale e la prevenzione
del disastro ambientale. Diretta a
livello nazionale dal Prof. Raffaele
Santamaria dell’Università degli
Studi di Napoli Parthenope, la
ricerca ha raggruppato circa 10
unità locali, in particolare l’unita
dell’Aquila si è impegnata nella
valutazione dell’impatto del
sisma nel centro storico, nella
Piazza Palazzo e nella Basilica
Collemaggio e anche in altri
comuni limitrofi.
Prof. Dominici: “Si è trattato di
un lavoro sinergico per testare
i vantaggi dell’impiego degli
APR al fine di monitorare lo
stato delle strutture e valutarne
la riqualificazione. Con l’ausilio
di Flytop abbiamo svolto diversi
voli per affinare la metodologia
fotogrammetrica. A questo scopo
è stato molto utile l’impiego
dell’esacottero FlyNovex, quale
autorizzato ENAC che è stato
equipaggiato con fotocamera
24Mpx a focale 16 mm, che ci ha
permesso di ispezionare le facciate
degli edifici situati nel comune di
Raiano”.
Z. Baglione: Come in altri ambiti
di rilievo da APR anche in
questo caso è fondamentale la
pianificazione a terra del volo e
il lavoro di post-produzione per
una corretta interpretazione dei
dati acquisiti in volo. Quali i passi
compiuti prima del volo vero e
proprio?
Prof. Dominici: Il drone
è un mezzo per svolgere
l’aerofotogrammetria in
condizioni particolari o di
emergenza. Prima di iniziare la
ricognizione è indispensabile
eseguire un sopralluogo per
ricostruire i possibili ostacoli,
pianificare i punti d’appoggio
e successivamente elaborare i
dati con appositi software di
restituzione per ottenere un
overlap almeno del 70% delle
strisciate. Questo progetto ha
rappresentato una sfida perché,
per la prima volta, in Italia un
progetto di ricerca ha avuto
come oggetto un centro storico
cittadino. La fotogrammetria da
UAV ha il vantaggio di integrarsi
perfettamente con le altre tecniche
di rilievo, inoltre l’applicazione
di sensori diversi a seconda delle
esigenze del momento può
portare ad ottenere fotogrammi
migliori e quindi prodotti finali di
qualità ancora più alta. Nel futuro
questa esperienza potrebbe essere
riproposta per rilanciare l’edilizia
nazionale e soprattutto dovrebbe
essere estesa coinvolgendo ancora
di più le istituzioni.
PAROLE CHIAVE
Droni; SAPR; APR; monitoraggio; sisma; Aquila;
rilievi ambientali; aerofotogrammetria; centri urbani;
topografia; cartografia; architettura; ricerca;
innovazione; prevenzione
ABSTRACT
The survey with an UAV in the city centre for a research
project of the University of L'Aquila has been started the
use of UAV technology in some areas damaged by the
earthquake of 2009. A synergistic survey to highlight the
criticality and monitor the state of the buildings in order to
prevent the emergencies and innovate the remote sensing
methodologies. The testimony of the project coordinator,
Prof. Donatella Dominici, describing the results of the survey
carried out with the multicopter
AUTORE
Zaira Baglione Pagliaroli
zaira@flytop.it
GEOmedia n°2-2016 25
REPORT
L’esperienza immersiva di «QUIRINALE 3D VR»
La ricostruzione 3D in realtà virtuale del
Piano Nobile del Palazzo del Quirinale
di Federico Capriuoli,
Davide Colangelo,
Luca Curto, Diego Fileri,
Annibale Guariglia,
Vito Mario Sansanelli
e Paola Santarsiero
La soluzione tecnologica
è stata sviluppata dalle
società italiane Geocart e
Digital Lighthouse per la
valorizzazione del Palazzo
Fig. 1 – Schermata principale del software QUIRINALE 3D VR.
del Quirinale attraverso le
più innovative tecniche del
Digital Heritage. Il progetto,
partendo dall'integrazione
tra metodologie esistenti
e processi inediti per
la digitalizzazione del
patrimonio, ha generato
un risultato unico sul
piano del coinvolgimento e
dell'esperienza di fruizione
da parte dell'utente.
L’
innovazione tecnologica
gioca un ruolo fondamentale
nella ricerca e
nella sperimentazione di nuovi
linguaggi e modelli per la conservazione
e la valorizzazione del
patrimonio culturale. Il settore
del Digital Heritage, che negli
ultimi anni sta conoscendo un'interessante
fase di sviluppo, attinge
costantemente a risorse tecnologiche,
metodologiche e creative in
grado di tracciare percorsi ancora
inesplorati per vivere e riscoprire
edifici storici e opere artistiche.
In questo senso, QUIRINALE
3D VR rappresenta un esempio
concreto di come, partendo
dall'integrazione tra tecniche
esistenti e processi inediti per la
digitalizzazione del patrimonio,
si possa realizzare uno strumento
di fruizione culturale capace di
rendere accessibile al cittadino,
in modo efficace e coinvolgente,
beni di inestimabile valore.
Il progetto di ricostruzione
3D e navigazione virtuale
del Palazzo del Quirinale
QUIRINALE 3D VR è un software
per la navigazione virtuale
del Piano Nobile del Palazzo del
Quirinale, risultato di un importante
progetto di ricostruzione
3D realizzato dalla società di ingegneria
italiana Geocart S.p.A.,
attraverso la sua controllata per lo
sviluppo di soluzioni digitali
Digital Lighthouse S.r.l. (Fig. 1).
La soluzione è stata implementata
adottando le più innovative
tecnologie nel rispetto dei recenti
standard della digitalizzazione
3D e della navigazione virtuale
in modalità immersiva. La ricostruzione
digitale è stata realizzata
grazie ai rilievi effettuati con laser
scanner e fotocamere ad alta riso-
26 GEOmedia n°2-2016
Fig. 2 – Pianta e modello wireframe del Piano Nobile.
REPORT
luzione e con avanzate tecniche di
computer grafica applicate ai dati
rilevati (Fig. 2).
Si differenzia rispetto a quelle già
disponibili in quanto permette di
superare i limiti fisici e tecnici imposti
dalle metodologie e tecnologie
più comunemente utilizzate.
L’utente, infatti, può decidere
con maggiore autonomia quali
ambienti esplorare e su quali
particolari concentrare la propria
attenzione, potendo compiere
liberamente azioni nello spazio
tridimensionale:
• posizionarsi in un qualsiasi punto
delle aree rilevate;
• scegliere la prospettiva di osservazione
a lui più congeniale;
• interagire con gli oggetti e le
opere d'arte presenti nelle stanze;
• accedere a contenuti multimediali
e interattivi di approfondimento.
L’integrazione di immagini e modelli
tridimensionali ad altissima
risoluzione (Fig. 3), realizzata con
tecniche e metodologie appositamente
studiate e implementate da
Geocart e Digital Lighthouse, garantiscono
un’esperienza realistica
di navigazione che consente al
visitatore di visualizzare qualsiasi
dettaglio degli ambienti e degli
oggetti e, cosa non possibile nella
realtà, di ammirare da vicino soffitti
e lampadari.
La fruizione degli ambienti del
Quirinale è assicurata attraverso
una duplice modalità: l’utente
può effettuare la navigazione virtuale
3D attraverso pc desktop o
mediante esperienza immersiva,
nel caso in cui disponga dei visori
di ultima generazione Oculus
Rift. Il risultato finale è un'esperienza
di navigazione immersiva
di grande suggestione.
Il software QUIRINALE 3D VR
è reso disponibile attraverso il sito
web istituzionale del Palazzo del
Quirinale (palazzo.quirinale.it).
L'installazione dell’applicativo sul
computer consente all’utente la
Fig. 3 – Ricostruzione 3D della Biblioteca del Piffetti.
navigazione virtuale all’interno
degli ambienti del Quirinale.
La ricostruzione 3D in realtà virtuale
del Piano Nobile del Palazzo
del Quirinale è un’opera donata
al Segretariato Generale della Presidenza
della Repubblica Italiana.
Dal rilievo all’elaborazione
dei dati
La complessità degli ambienti da
rilevare, la presenza di fregi, stucchi
e affreschi ad altezze anche
considerevoli (fino a 21 metri), i
frequenti cambiamenti di luce e
la necessità di limitare l’invasività
nelle fasi di acquisizione di dati
ed immagini all'interno del Palazzo,
hanno richiesto l’integrazione
di diverse tecniche di rilievo per
garantire la qualità geometrica,
fotografica e artistica della restituzione
3D del Piano Nobile del
Quirinale (Fig. 4).
La pianificazione delle attività si
è preposta il raggiungimento dei
seguenti obiettivi tecnici:
Peculiarità della soluzione
QUIRINALE 3D VR
• Esperienza di navigazione estremamente dinamica
e confortevole grazie all'utilizzo delle più evolute
tecniche di game design ed entertainment a
vantaggio del coinvolgimento dell'utente;
• Completa libertà di movimento negli ambienti
non vincolato a punti di presa, potendo osservare
elementi ed oggetti da vicino o da una qualsiasi
prospettiva;
• Fruizione interattiva attraverso l’utilizzo di appositi
comandi e funzionalità;
• Altissima risoluzione della ricostruzione 3D che
consente di osservare da vicino e zoomare sui
particolari di affreschi, quadri, statue, pareti e
altri elementi architettonici;
• Fedele ricostruzione virtuale 3D degli ambienti
e degli oggetti che assicurano una visione realistica,
evitando le distorsioni tipiche dei tour fotografici
virtuali più comunemente implementati;
• Duplice possibilità di navigazione attraverso pc o
in modalità immersiva con visori Oculus Rift;
• Espandibilità della soluzione ad ulteriori funzionalità
ed estensione dell’utilizzo anche a
smartphone e tablet attraverso il rilascio della
versione mobile app;
• Crossmedialità dello strumento grazie al costante
collegamento tra l'applicativo e i contenuti
multimediali di approfondimento disponibili
anche via web.
Fig. 4 – Ricostruzione 3D della Loggia d’Onore.
GEOmedia n°2-2016 27
REPORT
4 acquisizione della geometria
dettagliata di ogni singolo ambiente
ad alta risoluzione;
4 acquisizione del dato fotografico
e colorimetrico;
4 digitalizzazione di oggetti, statue,
busti e altri elementi artistici
presenti nelle singole sale.
L'attività di rilievo è stata eseguita
con l'utilizzo di laser scanner e
camere fotografiche di ultima generazione:
ogni ambiente è stato
ricostruito con precisione e accuratezza
millimetrica.
La complessa attività di restituzione
colorimetrica degli ambienti
è stata gestita attraverso la stretta
collaborazione tra la componente
tecnica e quella artistica presenti
in Digital Lighthouse. Questa
collaborazione ha portato allo
sviluppo di soluzioni ad hoc per
l'illuminazione di ogni singolo
ambiente, alla personalizzazione
delle configurazioni delle camere
e delle relative ottiche impiegate e
all'implementazione di una catena
di software dedicata alla post elaborazione.
La mole di dati gestita per sviluppare
la soluzione QUIRINALE
3D VR è enorme. Questi i numeri
dell'attività di rilevazione e
ricostruzione digitale del Piano
Nobile:
4 780 scansioni laser;
4 120.000 fotogrammi;
4 15TB di dati.
La vera sfida è stata trasformare
un prodotto complesso, che gestisce
enormi quantità di informazioni,
in una soluzione facilmente
fruibile sui computer domestici.
È il risultato di un processo che
parte dall'integrazione di tecniche
di rilievo con laser scanner
e camere fotogrammetriche e si
completa con lo sviluppo e l'implementazione
di un software di
navigazione virtuale in real time.
Digital Lighthouse per l’Industria
Culturale e Creativa
Digital Lighthouse è una Entertainment
& Media House italiana
specializzata nella realizzazione di
prodotti audiovisivi, effetti visivi
digitali, ricostruzioni virtuali,
animazioni grafiche, applicazioni
software e mobile per l'Industria
Culturale e Creativa (Fig. 5).
La società è nata da un progetto
di ricerca e sviluppo nel campo
della computer grafica 3D
promosso nel 2013 da Geocart,
società di ingegneria all’avanguardia
nei settori del telerilevamento
aereo e terrestre, delle tecnologie
aerospaziali, dell’ICT e nella progettazione
multidisciplinare.
In ambito Digital Heritage, la società
sviluppa soluzioni basate su
un modello di valorizzazione dei
beni culturali che, sfruttando le
potenzialità delle nuove tecnologie,
è in grado di offrire all'utente
strumenti e modalità innovative
per vivere e riscoprire il patrimonio
culturale.
Le applicazioni e i contenuti realizzati
vanno ben oltre la semplice
digitalizzazione del bene: attraverso
l'integrazione tra le moderne
tecniche di gamification e di
entertainment realizza esperienze
immersive di grande coinvolgimento.
I servizi offerti, inoltre, sono in
grado di fornire i dati tecnici con
cui è possibile ricostruire lo stato
del patrimonio storico, architettonico
e culturale per pianificare
interventi di conservazione
programmata o di restauro straordinario,
offrendo informazioni
integrative sulle condizioni di
opere d’arte, affreschi, dipinti e
oggettistica di pregio.
PAROLE CHIAVE
Realtà Virtuale; palazzo del Quirinale; esperienza
immersiva; ricostruzione 3D; digital heritage; laser
scanner; fotogrammetria; computer grafica
ABSTRACT
QUIRINALE 3D VR is a software for the navigation in
virtual reality of the Quirinale Palace. It is the result of an
innovative 3D reconstruction project developed by the Italian
companies Geocart and Digital Lighthouse aiming to the
enhancement of the Quirinale through the most innovative
techniques of Digital Heritage field. The project, based on
the integration of existing methodologies and novel processes
for cultural heritage digitization supported by computer
graphics, has created a unique result in terms of user involvement,
also by means of immersive experience.
AUTORE
Federico Capriuoli
f.capriuoli@digitallighthouse.it
Davide Colangelo
d.colangelo@digitallighthouse.it
Luca Curto
l.curto@digitallighthouse.it
Diego Fileri
d.fileri@digitallighthouse.it
Digital Lighthouse S.r.l.,
Viale del Basento 120, Potenza
www.digitallighthouse.it
info@digitallighthouse.it
Annibale Guariglia
a.guariglia@geocart.net
Vito Mario Sansanelli
v.sansanelli@geocart.net
Paola Santarsiero
p.santarsiero@geocart.net
28 GEOmedia n°2-2016
Fig. 5 – Sala di post produzione degli Studios di Digital Lighthouse.
Geocart S.p.A.,
Viale del Basento 120, Potenza
www.geocart.net
geocart@geocart.net
REPORT
SMART GEODATA –
SMART CITIES
GEOSPATIAL 4.0 –
BIG DATA
GEOBIM –
DIGITAL CONSTRUCTION
JOIN US NOW!
WWW.INTERGEO.DE
UK
PARTNER COUNTRY 2016
Host: DVW e.V.
Conference organiser: DVW GmbH
Trade fair organiser: HINTE GmbH
SPONSORS:
GEOmedia n°2-2016 29
REPORTS
GeoDataBase geomorfologico per acquisizione
dei dati tramite tecnologie mobile
di Mattia De Amicis, Fabio Olivotti, Stefano Roverato, Alice Mayer e Luca Dangella
Con questo lavoro è stato predisposto un Geodatabase (GDB) in grado di archiviare, tramite tablet e smartphone,
tutti i dati che descrivono la geomorfologia di un territorio, secondo la struttura e la classificazione fornita dal
Servizio Geologico Nazionale (S.G.N.) per la redazione della Carta Geomorfologica.
La penisola italiana è caratterizzata,
dal punto di
vista geomorfologico, da
una grande varietà di fenomeni
e di processi che la rendono un
territorio unico al mondo. La
possibilità di descriverne e classificarne
gli elementi direttamente
sul campo e in formato digitale è
dunque un passo di fondamentale
importanza per un tipo di
lavoro scientifico atto a migliorare
la conoscenza del nostro Paese.
Al giorno d’oggi, l’uso delle tecnologie
digitali nella creazione,
elaborazione e gestione di dati in
sostituzione alla documentazione
cartacea permette una notevole
riduzione dei costi e dei tempi di
analisi, di gestione e di interrogazione
dei dati. Qualsiasi tipo
di dato spaziale può essere infatti
raccolto non più su semplici
supporti cartacei, ma in formato
digitale e archiviato all’interno di
un geodatabase.
L’obiettivo del presente lavoro è
stata quindi la creazione un sistema
di acquisizione di dati geomorfologici
sul terreno mediante
tecnologie mobile, come tablet
e smartphone, classificando gli
elementi ed i processi geomorfologici
secondo lo standard della
Carta Geomorfologica d’Italia
1:50.000, pubblicata dal Servizio
Geologico Nazionale (S.G.N).
La Carta Geomorfologica
La carta geomorfologica rappresenta
in modo dettagliato la
tipologia delle forme del rilievo
terrestre, compreso quello sottomarino,
ne interpreta l’origine in
funzione dei processi geomorfici
(endogeni ed esogeni), passati e
presenti, che le hanno generate, e
ne individua la sequenza cronologica
con una particolare distinzione
fra le forme attive e quelle
non attive. Essa consente quindi
di delineare un quadro completo
delle caratteristiche geomorfologiche
del territorio studiato
e offre le basi per prevederne
l’evoluzione futura. A livello nazionale
le linee guida per la redazione
della carta geomorfologica
sono descritte nel dettaglio nei
Periodici Tecnici “I Quaderni”
(serie III), n°4 e n°10, relativi alla
Carta Geomorfologica d’Italia
1:50.000, pubblicati dall’S.G.N.
Il Quaderno n°4 in particolare,
comprende le linee guida per
il rilevamento degli elementi
geomorfologici, la simbologia
per la loro rappresentazione cartografica
e le note per l’uso della
simbologia e la classificazione
tassonomica di tutti gli elementi
e processi suddivisi per classe e
sottoclasse. Il Quaderno n°10 è
invece composto dalla guida alla
rappresentazione cartografica,
dalle note sull’inquadratura marginale
dei fogli geomorfologici,
dalle note illustrative e l’aggior-
30 GEOmedia n°2-2016
REPORT
non più in evoluzione e non più
riattivabili. Elementi identici
ma che si originano da processi
geomorfologici differenti hanno
lo stesso simbolo geometrico
ma si differenziano per il colore;
esempi classici possono essere
le scarpate (di origine tettonica,
gravitativa, glaciale) e le linee di
cresta (strutturali, gravitative).
Fig. 2 – La suddivisione delle Feature Classes in subtypes e domains.
namento delle norme e infine
dalla libreria dei simboli con i codici
relativi e i segni convenzionali
della carta geomorfologica.
La classificazione tassonomica
prevista dal Quaderno n°4
suddivide gli elementi geomorfologici
in 13 classi mentre
nel Quaderno n°10 ne viene
riportata la simbologia, che dal
punto di vista geometrico può
essere di tipo puntuale, lineare o
areale. Per ogni simbolo è inoltre
presente una relativa scheda
descrittiva composta da undici
attributi: numero progressivo del
segno convenzionale, codifica
S.G.N. del quaderno n°4, identificativo
cartografia numerica,
descrizione del simbolo, rappresentazione
alla scala della carta,
geometria dei segni e specifiche
dimensionali, dettagli delle trame
e ancoraggi nella carta, sigle
dei colori per le forme attive,
sigle dei colori per le forme non
attive, sigle dei colori per altre
forme e note per l’applicazione
in carta (Figura 1).
I primi attributi contengono
le informazioni più importanti
ai fini della strutturazione del
geodatabase: il codice S.G.N.,
l’identificativo cartografico, la
breve descrizione e la geometria
dell’elemento. Le colonne
centrali riguardano invece caratteristiche
di tipo grafico per la
rappresentazione dei simboli e
sono state prese in considerazione
per la successiva fase di creazione
della simbologia. Le ultime
colonne determinano infine il
colore del simbolo che indica la
genesi prevalente del elemento
considerato. Le diverse tonalità
dello stesso colore precisano lo
stato di attività del processo:
tonalità più accese vengono attribuite
alle forme in evoluzione
per processi attivi o riattivabili
e tonalità più tenui alle forme
Fig. 1 –
Estratto delle
simbologie di
tipo puntuale,
lineare e areale
tratto dai Periodici
Tecnici
“I Quaderni”
(serie III) n°10
del Servizio
Geologico Nazionale.
La struttura del
Geodatabase
Il primo passo per la predisposizione
del Geodatabase è stata
l’identificazione di tutti i possibili
elementi geomorfologici
potenzialmente cartografabili e la
loro relativa classificazione, organizzando
gli elementi individuati
all’interno di un’unica tabella.
Per la strutturazione delle tabelle
del GDB sono stati estrapolati
dal Quaderno 4 solo i dati necessari
al raggiungimento degli
obiettivi di progetto. Si è quindi
costruito un GDB contente le
seguenti informazioni:
4“classe”, corrisponde alla classificazione
tassonomica degli
elementi in 13 classi relative ai
processi geomorfologici;
4“n°classe”, ossia il numero
identificativo della classe di
appartenenza da 1 a 13;
4“sottoclasse”, descrizione della
sottoclasse di appartenenza se
previsto;
4“n°prog”, corrisponde al numero
progressivo dell’elemento
all’interno della libreria dei
simboli del Quaderno n°10
del S.G.N.;
4“codice s.g.n.”, corrisponde al
codice identificativo definito
nel Quaderno n°4 del S.G.N.;
4“identificativo requisiti
cartografici”, identifica la
nuova codifica introdotta nel
Quaderno n°10 del S.G.N.;
4“geometria”, definisce la geometria
dell’elemento (puntuale,
lineare o poligonale);
4“descrizione”, descrive il tipo
di elemento;
4“cod_processo”, identifica
il codice del processo geo-
GEOmedia n°2-2016 31
REPORT
morfologico di appartenenza
secondo il Quaderno n°4 del
S.G.N.;
4“modifiche”, con la lettera “v”
si identifica una variazione
grafica del simbolo mentre
con la lettera “i” si identifica
l’aggiunta di un nuovo elemento
rispetto a quelli previsti
nel Quaderno n°4;
4”stato”, indica se l’elemento
è in forma attiva o non attiva
(quando previsto).
Nella tabella degli elementi geomorfologici
ogni elemento è
stato duplicato per ognuna delle
tipologie geometriche con le
quali può essere rappresentato
e, successivamente, per ognuna
delle forme previste (attiva o
inattiva). In questo modo i record
contenuti nella tabella rappresentano
una tipologia di elemento
univoca: ogni elemento
possiede degli attributi univoci
che lo descrivono.
Oltre agli attributi già definiti
in precedenza nella tabella sono
stati creati tre nuovi attributi per
ogni elemento:
4l’attributo “Codice stato” che
contiene le iniziali dello stato
di un elemento. Viene visualizzata
la lettera “a” se l’elemento
si trova nella sua forma
attiva mentre la lettera “i” se
si trova in forma non attiva
(inattiva);
4l’attributo “Codice simbologia”
che rappresenta la somma
dell’attributo “identificativo
requisiti cartografici” con
l’attributo “Codice stato” (Es:
CN102128a/CN102128i).
Questo attributo è di fondamentale
importanza poiché
definisce dei codici univoci
per ogni elemento geomorfologico.
Ad ogni codice corrisponde
una sola tipologia di
elemento con una geometria
ed uno stato di attivazione
ben definito;
4l’attributo “descrizione con
stato” che rappresenta l’unione
del testo contenuto nel
campo “descrizione” con il
testo del campo “stato” separati
da un trattino “ – “ (Es:
Superficie a suoli striati - stato
attivo, Superficie a suoli striati
- stato inattivo).
Nel GDB sono stati identificati
come attributi primari per la
classificazione degli elementi geomorfologici,
quelli relativi alla
classe geomorfologica di appartenenza
(campo “classe”) e quelli
che ne identificano la geometria
dell’elemento (campo “geometria”).
Costruendo la nuova banca dati
secondo le classi geomorfologiche
di appartenenza sarebbe stato
necessario creare, per ognuna
delle 13 classi geomorfologiche,
tre Feature Classes per le tre
diverse geometrie, ottenendo
un totale di 39 diverse Feature
Classes. Classificando invece i
dati secondo la loro geometria
si creano 3 sole Feature Class,
una per ogni geometria, ed è così
possibile classificare successivamente
gli elementi sulla base delle
13 classi geomorfologiche utilizzando
i sottotipi ed i domini
nel GDB. È stata scelta la seconda
ipotesi in quanto l’operatore
può più facilmente identificare
un elemento da mappare sulla
base della sua geometria per poi
classificarlo successivamente in
base al processo geomorfologico
di appartenenza. Inoltre il geodatabase
cosi strutturato risulta più
semplice e più facilmente interrogabile
poiché contiene meno
oggetti.
Si è proceduto quindi alla creazione
delle tre classi di oggetti
con differente geometria: puntuale,
lineare e areale. Il sistema
di riferimento utilizzato è il
Monte Mario - Gauss Boaga
fuso Ovest (EPSG 3003).
Il passo successivo è stato di
creare dei “subtypes” (sottotipi)
per l’ulteriore classificazione
sulla base della geomorfologia.
I sottotipi sono dei sottoinsiemi
di funzioni in una Feature
Class o oggetti in una tabella che
condividono gli stessi attributi
e vengono usati per classificare i
dati. Sono stati in seguito creati
dei domains (domini) contenenti
la descrizione e la relativa codifica
degli elementi appartenenti
ad ogni sottotipo e geometria. Il
dominio utilizzato per il nuovo
geodatabase è di tipo “Coded
Value” che permette di definire
un elenco di valori ai quali viene
associata una codifica.
Fig. 3 – Esempio di raccolta dati tramite smartphone con l’App ESRI Collector. A sinistra
l’interfaccia che permette di georeferenziare una nuova feature, a destra la form che consente
di specificarne gli attributi.
32 GEOmedia n°2-2016
REPORT
Ad ognuno dei 13 sottotipi delle
tre differenti Feature Classes
(geometria puntuale, lineare e
poligonale) è stato associato un
dominio, per un totale di 39
domini. Il dominio che verrà
visualizzato per classificare i dati
dipenderà quindi dal subtype
selezionato e dalla geometria della
Feature Class in cui verranno
archiviati i dati. Di conseguenza
il geodatabase è composto da un
totale di 39 tabelle: 13 tabelle
per la geometria puntuale, 13
per quella lineare e 13 per la
poligonale (cfr. Figura 2).
L’ultima fase per l’organizzazione
delle tabelle ha previsto la creazione
di tre “relationship class”
in modo da poter legare ulteriori
informazioni all’elemento geomorfologico
analizzato. Pertanto
sono state costruite delle relazioni
tra la tabella della raccolta dei dati
e le Feature Classes utilizzando
l’attributo “codice simbologia”
come Primary Key delle relazioni
poiché rappresenta un attributo
univoco che individua ogni elemento
senza ambiguità. Lo stesso
codice è stato poi utilizzato nella
fase della simbologia per assegnare
ogni segno convenzionale al
relativo elemento geomorfologico.
In questo modo è possibile
ottenere una tabella degli attributi
completa, per ogni elemento
o processo analizzato, di tutte le
informazioni presenti nei documenti
del S.G.N.
Il GDB così creato è stato installato
su una macchina server
di tipo Mapserver che consente
la scrittura e la lettura in remoto
dei dati. Tramite Arcgis Server
è stato attivato e reso pubblico
un servizio di Feature Access,
che viene richiamato in Arcgis
Online con una mappa dedicata
condivisa con tutti gli utenti
abilitati. Tale mappa può infine
essere aperta con un tablet o
smartphone attraverso l’applicativo
mobile ESRI Collector.
Seguendo questo schema di lavoro
è possibile instaurare una
connessione in tempo reale tra
l’operatore sul campo e il geodatabase,
che consente di archiviare
velocemente e facilmente i
dati territoriali rilevati.
La raccolta dati sul campo
L’operatore che si troverà sul
campo a raccogliere ed elaborare
i dati attraverso il proprio
smartphone o tablet si collegherà
al geodatabase su server tramite
l’applicativo ESRI Collector ed
archivierà i dati definendone
in primo luogo la geometria ed
identificando in secondo luogo
il processo geomorfologico a cui
appartengono. Il primo passo
nella raccolta dei dati è quindi
la selezione della Feature Class
di appartenenza dell’elemento
da mappare (lineare, puntuale
o areale); l’operatore selezionerà
poi la classe geomorfologica
dell’elemento mediante l’uso
dei subtypes (es: Elementi geologico-strutturali)
e infine potrà
scegliere la descrizione che identifica
l’elemento da mappare,
fornita dal dominio (es: Rocce
prevalentemente dolomitiche,
cfr. Figura 3).
All’interno di quest’ultimo campo
è già prevista una distinzione
tra quegli elementi che si possono
presentare in forma attiva o
in forma non attiva, solo per le
classi che ne prevedono la suddivisione.
Questo procedimento
potrà essere ripetuto per qualsiasi
elemento geomorfologico
analizzato e per le tre differenti
tipologie di geometrie a cui appartengono.
Poiché la banca dati rispetta
le direttive fornite dal Servizio
Geologico Nazionale, sia in
termini di struttura che a livello
di simbologia, ai dati geomorfologici
archiviati al suo interno è
stata infine collegata una libreria
di simboli (style) che permettono
immediatamente agli oggetti
mappati di essere visualizzati
con i simboli corretti, secondo
quanto riportato nel Quaderno
n°10 dell’S.G.N. In tal modo
si può passare direttamente
dall’acquisizione dei dati sul
campo alla stampa della Carta
Geomorfologica dal desktop
senza dover effettuare ulteriori
interventi sulla banca dati.
Conclusioni
Questo lavoro ha dimostrato
come l’utilizzo di strumenti versatili
come i geodatabase consenta
di semplificare e velocizzare
notevolmente l’attività di rilievo
sul campo che, fino all’introduzione
dei moderni sistemi informativi
territoriali, richiedeva un
notevole dispendio di tempo e
di energie. Questa capacità, unita
alla possibilità di classificare
i dati rilevati secondo le specifiche
previste dalla normativa
nazionale, pongono il sistema
qui analizzato come modello per
una funzionale ed efficace organizzazione
dei dati provenienti
dai rilievi geomorfologici sul
campo.
BIBLIOGRAFIA
Servizio Geologico Nazionale (1994), “Carta Geomorfologica d’Italia in
scala 1:50000 - Guida al rilevamento, Quaderno III Serie n°4”.
Servizio Geologico Nazionale (1997), “Carta geologica d’Italia 1:50.000 -
Banca dati geologici, Quaderno III Serie n°6”.
Servizio Geologico Nazionale (2007), “Carta Geomorfologica d’Italia in
scala 1:50.000 - Guida alla rappresentazione cartografica, Quaderno III
Serie n°10”.
MacDonald A. (1999), “Building a Geodatabase, GIS by Esri, ESRI”
De Amicis et al., “Gestione di dati tramite dispositivi mobili per la pianificazione
di emergenza” - GEOmedia n.1, 2015.
PAROLE CHIAVE
Geodatabase; geomorfologia; simboli; collector; tablet;
smartphone
ABSTRACT
Among the creation of geomorphological maps the data collection of elements
and features is one of the most important steps. The most relevant
information to be collected are not only their position (geolocalization) but
also their classification and properties according to the official encoding:
within this context the Italian National Geologic Service (SGN) set up data
collection and data storing standards through a focused documentation,
the “I Quaderni” (series III), n.4 e n.10. In this paper we describe a new
system to collect these kind of data directly on the field through the most
commonly used tablets and smartphones. This system is based on an ESRI
Geodatabase Enterprise installed on a server, an ArcGIS Online account and
the ESRI Collector App for smartphones. Data collected by operators on
the field are directly sent to the Geodatabase on server using mobile internet
connection; data structure and format follow the national standards, so they
are ready to be added into a geomorphological map.
AUTORE
Mattia De Amicis, mattia.deamicis@unimib.it
Fabio Olivotti, fabio.olivotti@unimib.it
Stefano Roverato, stefano.roverato@unimib.it
Alice Mayer, alice.mayer@unimib.it
Luca Dangella
l.dangella@campus.unimib.it
Università degli Studi di Milano Bicocca, Dipartimento
di Scienze dell’Ambiente e del Territorio e di Scienze
della Terra, Laboratorio di Geomatica
Geomatic Laboratory - Earth and Environmental
Sciences Department, University of Milano Bicocca,
Piazza della Scienza 1 - 20126 Milano, Italy, geomatica.
GEOmedia n°2-2016 33
ambientale@unimib.it
REPORTS
Una questione di centimetri
di Fulvio Bernardini
Prima dell’annessione della regione della Savoia,
nel 1860, la Barre des Écrins, con i suoi 4102 metri,
era la cima più alta di Francia. La montagna fa parte
della regione francese della Provenza-Alpi-Costa
Azzurra (PACA) e fu scalata per la prima volta da un
gruppo di alpinisti britannici nel 1864.
La Barre des Écrins – che, assieme con i vicini Pic
Lory e Dôme de Neige, va a formare il Massiccio
degli Écrins – rimane oggi una montagna dall’alto
valore simbolico: si tratta infatti dell’unica cima
superiore ai 4000 metri che risiede interamente
in territorio francese e rappresenta una sfida per i
molti alpinisti che ogni anno provano a scalarla.
Nell’estate del 2014,
in concomitanza con
le celebrazione per il
150° anniversario della prima
ascesa della Barre, l’Union
Nationale des Géomètre-Experts
(UNGE) e i suoi partner
Geotopo e Geomesure, hanno
organizzato una spedizione
volta a misurare precisamente
tramite GPS le tre sommità del
massiccio. Le misure sarebbero
servite per determinare, a
livello centimetrico, l’elevazione
delle tre cime e avrebbero
al contempo fornito dei
dati di controllo utili per il
monitoraggio e la valutazione
diacronica dei fenomeni di
surrezione alpina. La spedizione
era aperta a tutti i topografi
appartenenti alla regione PACA.
34 GEOmedia n°2-2016
REPORT
Michel Baud, uno degli
organizzatori della spedizione,
ricorda: “La scalata del
Massiccio degli Écrins è
un’iniziativa complessa, difficile
in circostanze normali ma
comunque fattibile con la
giusta preparazione. La nostra
spedizione, nello specifico, ha
avuto a che fare con condizioni
meteo estreme, le peggiori
registrate negli ultimi anni.
Nonostante ciò, era per noi
molto importante riuscire
nell’impresa: per raggiungere gli
obiettivi scientifici, certamente,
ma anche per una questione
personale. Eravamo infatti tutti
topografi della PACA che si
cimentavano sulle montagne della
regione. Insomma, il tutto era
profondamente simbolico.”
La spedizione
La spedizione si è svolta in due
fasi e in due diverse scalate.
La prima fase contemplava
l’installazione di piccoli
supporti metallici nei pressi
della cima della Barre des
Écrins, del Pic Lory e del Dôme
de Neige; questi supporti in
acciaio inox, del diametro
di 20 millimetri e lunghi 10
centimetri, avevano un’estremità
filettata adattata al passo degli
strumenti che sarebbero poi
stati usati durante la seconda
fase. I supporti dovevano essere
posizionati all’interno di tre
fori che sarebbero stati creati
in quota tramite un martello
pneumatico a batteria.
L’ascesa relativa alla ‘fase
1’ si è svolta il 26 giugno e
ha coinvolto 6 membri tra
ingegneri, geologi e topografi, i
quali hanno installato i supporti
metallici sulla sommità della
Barre des Écrins e del Pic Lory.
Già durante questa spedizione
preliminare, le condizioni
meteorologiche cominciavano
a creare difficoltà alla cordata:
le operazioni si sono rivelate
molto dispendiose in termini
di tempo e, a causa delle
condizioni che si facevano man
mano più difficili, non è stato
possibile installare il supporto
sulla sommità del Dôme de
Neige. Il supporto mancante
è stato quindi installato il
successivo 13 agosto durante
una spedizione ad hoc.
La ‘fase 2’ è iniziata il 27
agosto e prevedeva l’esecuzione
delle misure GPS in modo
da garantire una base di dati
utile per il monitoraggio
della surrezione alpina e,
contemporaneamente, fornire
la prima misura centimetrica
del massiccio. Per eseguire il
lavoro, il team ha scelto dei
ricevitori GNSS Trimble®
R10 e dei controller Trimble
TSC3. Arnaud Ollivier, che
ha partecipato alla spedizione,
spiega: “Oltre alla precisione,
avevamo bisogno di strumenti
che fossero leggeri, resistenti
e facili da trasportare: con le
condizioni che ci siamo trovati
ad affrontare, non potevamo
permetterci di portare nessun
peso in eccesso.” Al fine di avere
un maggior controllo sul
calcolo e guadagnare quindi in
precisione, il team ha scelto la
post-elaborazione come metodo
di calcolo finale.
Il gruppo che ha partecipato
alla ‘fase 2’ comprendeva
20 partecipanti e 5 guide
d’alta montagna ed era
equipaggiato con ramponi,
corde, moschettoni oltre che
computer portatili, quattro
ricevitori GNSS Trimble R10
e tre controller Trimble TSC3.
Il primo giorno contemplava
l’installazione di uno dei
ricevitori Trimble R10 sul tetto
di un rifugio di montagna
situato a 3175 metri di
altitudine, appena sotto le tre
cime; questo ricevitore avrebbe
fornito un punto di controllo
per le misurazione del giorno
dopo, una volta che i rimanenti
tre ricevitori fossero stati
montati, tramite delle apposite
paline, sui supporti metallici
posizionati su ciascuna delle
tre cime. Al fine di fornire un
riferimento geodetico accurato,
GEOmedia n°2-2016 35
REPORT
il rilievo è stato svolto usando
la rete GNSS dell’Institut
Géographique National (IGN)
francese.
La salita verso il rifugio si è
svolta senza imprevisti: uno
splendido sole alpino ha
accompagnato gli scalatori i
quali, una volta raggiunto il
rifugio, hanno installato sul
tetto un ricevitore Trimble R10,
come previsto. Durante la fase
di misurazione, infatti, questo
ricevitore sarebbe servito da
punto di controllo al fine di
ridurre gli errori: ciò a causa
della notevole differenza di
altitudine (circa 3000 metri) tra
le stazioni dell’IGN e i ricevitori
sulle vette del massiccio.
La mattina del 28 agosto,
verso le 3.30, le cordate si sono
lanciate dunque verso i rispettivi
obiettivi. Ciascuna cordata era
equipaggiata con un ricevitore
R10, la relativa palina di
supporto e un controller TSC3.
Al fine di limitare gli interventi
sui dispositivi in tali condizioni
estreme, i ricevitori sono stati
configurati per raccogliere dati
in automatico una volta al
secondo non appena il gruppo
fosse partito. I controller TSC3
servivano per verificare che
l’acquisizione dei dati si stesse
svolgendo correttamente.
Dopo tre ore d’ascesa, i gruppi
hanno incontrato condizioni
estremamente complicate.
Le cordate dirette al Pic Lory
e al Dôme de Neige sono
state costrette a fermarsi a
metà strada e a tornare verso
il rifugio. La neve e il ghiaccio
hanno reso la scalata troppo
pericolosa e hanno impedito al
gruppo di proseguire oltre.
Pur con estrema difficoltà, la
cordata diretta alla Barre des
Écrins ha raggiunto invece
il suo obiettivo: dopo aver
montato l’R10 sulla palina
che, a sua volta, è stata
fissata al supporto metallico
precedentemente installato,
il ricevitore ha inviato dati
simultaneamente al ricevitore
sul tetto del rifugio per circa
un’ora.
“La squadra ha incontrato
delle condizioni proibitive ma,
nonostante questo e nonostante il
fatto che le altre due cordate siano
dovute tornare indietro, la cima
della Barre è stata raggiunta.
Faceva freddo e c’era parecchio
umidità, ma la strumentazione
Trimble si è comportata
egregiamente.”
Dopo aver acquisito i dati,
il gruppo è ridisceso verso
il rifugio; e da qui, dopo
un meritato riposo, tutti i
componenti della spedizione
sono tornati alla base.
Misure accurate
Di ritorno dalla spedizione,
i tecnici hanno intrapreso la
fase di post elaborazione con
Trimble Business Center, al
fine di confermare l’integrità
dei dati e produrre dei risultati
preliminari. I dati sono stati poi
inviati all’IGN, che ha verificato
e corretto i dati acquisiti
in quota tenendo conto di
variabili quali l’atmosfera
o gli scarti nelle orbite dei
satelliti. I tecnici hanno così
determinato che l’altezza della
Barre des Ècrins è di 4102,10
metri. È prevista una nuova
campagna di validazione
volta a portare a termine la
misurazione delle rimanenti
due cime. Altre spedizioni
scientifiche si occuperanno poi
di eseguire le misurazioni utili
alla valutazione dei fenomeni di
surrezione alpina.
Nonostante le difficoltà
climatiche, la spedizione può
considerarsi un successo: oltre
ad aver acquisito la prima
misura centimetrica della Barre
des Écrins, l’intera impresa
ha finito per rappresentare
una vera e propria avventura,
ha poi attirato l’attenzione
del pubblico sul lavoro del
topografo e ha svolto una
funzione associativa, avendo
riunito molti tra i migliori
professionisti dei distretti
PACA attorno a un obiettivo
comune. E, ultimo ma non
meno importante, ha fornito
agli scienziati un strumento
fondamentale per monitorare i
movimenti alpini nel tempo.
PAROLE CHIAVE
Barre des Écrins; Trimble; rilievo
ABSTRACT
In the summer of 2014, concurrently with the 150th anniversary
celebrations of the first ascent of the Barre des Écrins,
the Union Nationale des Géomètre Experts (UNGE) with
his partners Geotopo and Geomesure organized an expedition
to the Massif des Écrins to make precise GPS measurements
of its three summits. The expedition turned out to
be an adventure and provided scientists with the first ever
centimeter-level measurement of the Barre.
AUTORE
Fulvio Bernardini
fbernardini@rivistageomedia.it
36 GEOmedia n°2-2016
REPORT
GEOmedia n°2-2016 37
REPORT
L’uso del GIS come strumento di analisi e
rappresentazione del consumo di suolo
di Valentina Sannicandro
e Carmelo Maria Torre
L’intreccio tra la morfologia
territoriale e l’analisi basata
sull’informazione geografica
supporta chiavi interpretative
plurime del consumo di suolo
che corrispondono a quadri la
cui variabilità è ampia, come
trattato in questo articolo.
Fig. 1 - Mappatura della superficie urbanizzata
(Comune di Bari, località Ceglie del Campo).
Definizione dell’ambito di
riferimento: il consumo di
suolo
L’intensità e la continuità dei
processi di consumo di suolo impongono
la necessità di un intervento
articolato ed efficace, sia di
livello legislativo, statale e regionale,
sia nella ridefinizione mirata
di contenuti e strategie degli strumenti
di governo del territorio a
scala locale e territoriale.
La domanda crescente di suoli
disponibili è imputabile allo sviluppo
delle aree urbane ed alle
relative infrastrutture (Rapporto
CRCS, 2010); non solo si costruisce
tanto ma anche al di fuori
dei centri abitati, erodendo quel
territorio agricolo che è fondamentale
per garantire la produzione
di cibo ma anche per regolare
il clima e il ciclo dell’acqua
(Pileri 2007); tanto che lo sfruttamento
e la continua sottrazione
di suolo dai contesti tipicamente
naturali e rurali sta determinando
cambiamenti radicali non solo
per l’ecosistema e per l’ambiente,
ma anche per il paesaggio, urbano
ed agrario.
L’impermeabilizzazione, ovvero la
realizzazione di una “membrana”
che sigilla il suolo e lo separa fisicamente
dai comparti ambientali,
ha l’effetto di ostacolare il passaggio
di acqua, aria e sostanze organiche,
determinando l’alterazione
definitiva delle normali funzioni
chimiche, fisiche e biologiche
del suolo, che non è più in grado
di svolgere alcune funzioni (approvvigionamento,
regolazione,
supporto).
In particolar modo, la rilevanza
degli impatti determinati dal
fenomeno del “consumo di suolo”,
inteso più in generale come
la perdita definitiva di una o
più delle funzioni che il suolo
svolge nell’ecosistema e nella
regolazione dell’equilibrio tra
capitale naturale e attività antropiche,
alla scala locale e globale,
spinge a riflettere sulla necessità
di acquisire una metodologia
di analisi che tenga conto della
complessità del problema, dettata
dalle caratteristiche intrinseche e
non del contesto geografico, dagli
attori coinvolti nei processi di
pianificazione territoriale, dagli
interessi talvolta sinergici e talvolta
conflittuali, dai molteplici impatti
diretti e indiretti sul sistema
ambientale, urbano, sociale ed
economico.
L’efficacia di qualsiasi politica
di contenimento delle trasformazioni
d’uso che determinano
degrado e/o perdita dei suoli,
ad oggi, è stata affrontata con la
valutazione ex-post, ovvero da
un punto di vista meramente
quantitativo. Nella maggior parte
dei casi, infatti, le politiche di
governo del territorio sono state
analizzate rispetto alla misura del
suolo impermeabilizzato, non
considerando, tra le altre, la questione
distributiva.
Trattandosi di un processo di
trasformazione del territorio, la
dimensione spaziale è una va-
38 GEOmedia n°2-2016
REPORT
riabile imprescindibile, per cui
la disponibilità di dati di uso e
di copertura dei suoli su base
cartografica che siano aggiornati,
confrontabili e scalabili ai diversi
livelli entro cui operano le scelte
di governo territoriale (Rapporto
CRCS 2009) costituisce il punto
di partenza per la valutazione ed
il monitoraggio del fenomeno del
consumo di suolo.
Tuttavia, in Italia, con i dati a
disposizione può essere effettuata
una valutazione del consumo
di suolo attraverso la foto-interpretazione
e la classificazione di
immagini satellitari incrociata
ai dati provenienti da indagini
censuarie o da statistiche socioeconomiche,
poiché non sono
disponibili dati omogenei e attendibili
su tutto il territorio nazionale.
Gran parte delle basi di dati
utilizzate per le analisi spaziali
sono nate per rispondere a esigenze
specifiche aventi la necessità di
definire alcuni sistemi di classificazione,
come il Rapporto Land
Cover vs. Lans Use, poco adatte a
fornire uno scenario completo,
contraddistinto da omogeneità,
accuratezza tematica e unità di
rilevazione.
Verso la costruzione di
un modello di analisi
quantitativa e distributiva
del fenomeno
Trasformare un’area “consumata”,
con l’intento di ripristinare lo
stato dei suoli, innovare la città
e salvaguardare l’ambiente ed il
paesaggio, è un’azione complessa,
forse perché, ad oggi, ancora
pochi sono gli studi e i centri
di ricerca finalizzati a mettere a
punto metodologie in grado di
supportare la scelta degli interventi
da realizzare nei progetti di
rigenerazione urbana.
Lo schema di riferimento per la
costruzione del modello di analisi
quantitativa e distributiva è stato
quello utilizzato dal Piano Territoriale
di Coordinamento Provinciale
di Torino (provincia.torino.it),
uno dei pochi piani provinciali a
carattere prescrittivo.
Il Piano si serve di un sistema di
norme rivolte a recuperare e riutilizzare
il patrimonio edilizio esistente
e contemporaneamente a
penalizzare i Comuni che hanno
consumato più suolo negli anni
passati assumendo il principio
che il suolo “libero” ha un alto
valore ed è pertanto inedificabile.
Il modello di densità proposto
dal PTCP per classificare le aree
in “dense”, “di transizione” e
“libere”, è caratterizzato dalle seguenti
fasi:
1. acquisizione dell’impronta
vettoriale dell’urbanizzato;
2. conversione dell’immagine da
vettoriale a raster, a cui associare
una matrice quadrata;
3. calcolo dell’indice di densità e
attribuzione del codice binario
0-1 per ogni cella;
4. calcolo del valore medio degli
indici da attribuire a ciascuna
finestra (operazione di smoothing)
circoscrivendo un’area
buffer.
Le “aree dense” sono costituite
dalle porzioni di territorio urbanizzato
aventi un impianto
urbanistico significativo, ovvero
caratterizzate da un indice di copertura
elevato.
Le “aree di transizione” sono caratterizzate
da porzioni di territorio
di limitata estensione con un
indice di copertura medio.
Le “aree libere” si contraddistinguono
per la prevalente funzione
agricola, per la presenza di
insediamenti minori o sparsi,
generalmente esterne al tessuto
densificato e aventi un indice di
copertura basso.
L’obiettivo della tecnica smoothing
è quello di fornire un’idea sulla
variazione della densità tra due
aree limitrofe, mediante una
compensazione tra il valore esatto
e il valore medio (Castiglioni et
al. 2011). Per l’applicazione si
utilizza una finestra simmetrica
centrata sul punto di interesse,
che può essere circolare o quadrata,
ipotizzando implicitamente
una condizione di isotropia.
Questa applicazione ha raggiunto
nel caso di Torino le finalità per
le quali è stata concepita, tuttavia,
se trasposta ad un nuovo contesto
urbano, presenta alcuni limiti. Il
modello non fornisce una stima
dell’errore e si applica su superfici
piane; non tiene conto della
volumetria dell’edificato, la quale
produce un consumo di suolo
dipendente da più fattori indotti
come la pressione antropica e la
superficie destinata al rispetto
degli standard urbanistici, in più
Fig. 2 - Smoothing della distribuzione dell’indice di densità (Comune di Bari, località Ceglie del Campo).
GEOmedia n°2-2016 39
REPORT
lo stato della vegetazione non
viene né approfondito né valutato.
Inoltre, non vi è univocità
nella dimensione della maglia da
utilizzare ed anche il perimetro
dell’area buffer che smorzi il valore
esatto in maniera graduale, non è
definito.
Per le ragioni suddette, è stata
condotta un’analisi rivolta a calcolare
l’indice di densità della
perdita di suolo naturale cioè della
superficie urbanizzata, basata non
su una logica binaria (0-1) ma sulla
gradazione reale della superficie
degli elementi geografici minimi
di supporto.
È opportuno precisare che per
superficie urbanizzata si intende la
somma della superficie edificata e
della superficie occupata dall’infrastruttura
per la viabilità, per
indice di densità si intende il rapporto
tra la superficie urbanizzata
e la superficie della cella, scelta
pari ad un quadrato di lato 50m.
Infine, oltre alla quantificazione
del consumo di suolo, l’analisi
evidenzia la distribuzione della
densità del suolo consumato; in
particolar modo si nota come la
componente infrastrutturale sia
quella che incide maggiormente
sul territorio e come il rispetto
delle aree tutelate e soprattutto
vincolate possa ridurre notevolmente
il consumo di suolo “vergine”.
In sintesi, questa metodologia
si propone come un primo
contributo all’approfondimento
degli elementi da individuare
all’interno di un’area e delle condizioni
da valutare nel contesto,
per tracciare le possibili azioni di
trasformazione in grado di innescare
dei processi di mitigazione
della problematica e riqualificazione
del territorio più ampi.
Applicazione del modello
L’introduzione al caso di studio
consiste nella scelta del Provincia
“Campione” da osservare, analizzare
e sul quale si è elaborata una
mappa territoriale che consente
facilmente di codificare l’uso del
suolo. Il caso studio selezionato
per la fase di test è la provincia di
Bari della regione Puglia.
Il percorso metodologico, per
grandi linee, si articola nel modo
seguente:
I. analisi approfondita delle
aree interessate dal consumo
di suolo;
II. individuazione e caratterizzazione
della superficie urbanizzata;
III. elaborazione di una mappatura
dell’uso del suolo rispetto
all’indice di densità;
IV. sovrapposizione del livello
dei vincoli e delle tutele;
V. classificazione.
La prima fase della ricerca consiste
nel focalizzare le aree interessate
da questo fenomeno. Gli
elementi investigati sono stati:
4Viabilità urbana: il cui maggiore
fattore strutturale è legato ai
cambiamenti della morfologia
urbana e alle modifiche dell’intero
sistema urbano. Rientrano
in questo ambito: le strade e le
infrastrutture annesse, i sistemi
di trasporto pubblico e privato,
la mobilità delle persone e
delle merci ed i parcheggi.
4Agricoltura: si considerano
appartenenti a questo ambito
tutti i suoli agricoli coltivati e
non, le aree destinate a verde,
i parchi urbani, i corridoi ecologici.
4Paesaggio (vincoli e tutele):
“il paesaggio rappresenta un
elemento chiave del benessere
individuale e sociale, e la sua
salvaguardia, la sua gestione e
la sua pianificazione comportano
diritti e responsabilità per
ciascun individuo” (Convenzione
Europea sul Paesaggio, Firenze
2000). In questa categoria
sono compresi tutti i beni
architettonici, storici, culturali
e paesaggistici vincolati dalla
legge, le zone di protezione
speciale e i siti di interesse comunitario,
i parchi nazionali e
le Important Birds Areas.
4Residenze e servizi annessi: si
indaga lo sprawl urbano ovvero
la crescita disordinata e rapida
della città soprattutto nelle
zone periferiche, il mercato
dell’edilizia residenziale e delle
opere di urbanizzazione primaria
e secondaria in nuove aree
di espansione.
4Terziario: costituito dalla
presenza di aree industriali
e/o commerciali dismesse o
sottoutilizzate, dalla quantità
di mq occupati dai centri commerciali,
dalle infrastrutture
turistiche.
Per indagare l’assetto del territorio
in ognuno di questi ambiti,
si è ritenuto opportuno condurre
Fig. 3 - Classificazione delle aree rispetto al livello dei vincoli e delle tutele (Comune di Bari, località Ceglie del Campo).
40 GEOmedia n°2-2016
REPORT
questo studio attraverso l’interpretazione
e le elaborazioni della
Carta Tecnica e della Carta di
Uso del Suolo della Regione Puglia,
cartografie georeferenziate
disponibili sul portale SIT-Puglia
(www.sit.punglia.it), dalle quali
è possibile individuare tutte le
caratteristiche tecniche, fisiche e
ambientali del territorio in questione.
La seconda fase è costituita dall’elaborazione
dei dati, finalizzata a
calcolare:
4Superficie urbanizzata: data
dalla somma della superficie
edificata e della superficie per
la viabilità, qualsiasi superficie
antropizzata non classificabile
come suolo agricolo o naturale;
4Superficie permeabile: ogni
superficie, sgombra da costruzioni
sopra o sotto il suolo, in
grado di garantire l’assorbimento
delle acque e in grado
di favorire la produttività del
suolo;
4Superficie impermeabile: ogni
superficie cementificata, utilizzata
e ricoperta da qualsiasi
tipo di struttura;
4Superficie tutelata: un luogo
pubblico o privato di grande
interesse naturalistico, storico
o artistico che lo Stato, o un
altro ente o associazione, protegge
allo scopo di impedire
che venga rovinato o distrutto;
4Superficie vincolata: ogni
zona in cui l’inserimento di
opere edilizie e infrastrutture
risulta vincolato ad un parere
sovraordinato, rendendo il più
possibile compatibili le attività
dell’uomo con la bellezza e il
pregio di questi posti.
L’output è una “mappatura dello
stato del suolo”, che consiste nella
suddivisione del territorio comunale
in n particelle utilizzando
un’apposita matrice (50m).
Data la difficile quantificazione,
l’obiettivo della “mappatura”
consiste nella catalogazione e
monitoraggio dei dati; in questo
modo i dati possono essere utilizzati
anche in altri contesti con lo
stesso metodo semplice, ordinato
e univoco e quindi si possono
confrontare le diverse situazioni
con le mappe della densità dei
vari comuni (fig.1).
Per proseguire l’analisi rispetto
allo stato di fatto del “suolo
consumato” si investiga nello
specifico sulla densità territoriale,
ritenuta in letteratura la principale
causa del consumo di suolo.
Il modello analitico sperimentato
per la classificazione delle aree
in “dense”, “di transizione” e “libere"
rinviene dalla best-practice
torinese, per quanto afferisce al
PTCP (II edizione), costruito
sulla misura esatta della superficie
urbanizzata, data dalla superficie
occupata dal tessuto edificato e
dalla rete infrastrutturale, ricadente
in una particella e di conseguenza
sulla media dei valori
attribuiti ad ogni cella dell’area
buffer, pari a 150 m. Dunque,
“l’indice di densità dell’impermeabilizzazione”
è dato dal rapporto
tra l’area urbanizzata e l’area della
cella (fig.2).
Infine, la cartografia elaborata
con la tecnica smoothing rispetto
all’indice di densità, che esprime
la quantificazione del consumo
di suolo, è stata incrociata con il
livello dei vincoli e il livello delle
tutele (costituite dal Piano Paesaggistico
Territoriale della Regione
Puglia), da cui emerge la distribuzione
sul territorio delle aree
precedentemente classificate per
delineare le aree effettivamente
“libere” e “di transizione” rispetto
alle quali muovere proposte di
pianificazione urbanistica (fig.3).
Tempi di monitoraggio dei dati
Il presente studio si è maturato
nell’ambito dell’Osservatorio
sul risparmio di suolo, uno dei
“progetti pilota” del Laboratorio
MITO (Multimedia Information
for Territorial Objects) del Dipartimento
di Scienza dell’Ingegneria
Civile e dell’Architettura
del Politecnico di Bari, avviato a
settembre 2014.
La ricerca, a partire da precedenti
sperimentazioni inerenti l’analisi
del consumo di suolo, si inserisce
in un filone che l’Osservatorio
intende proseguire, oltre la chiusura
del progetto prevista nel
2016.
L’analisi è stata espletata attraverso
l’utilizzo del software ArcGIS,
per le potenzialità che offre un
Sistema Informativo Territoriale.
Il GIS rappresenta un’innovazione
epocale per la pianificazione
urbanistica nella gestione e nella
produzione cartografica (Borrough
1986).
Difatti, con questo modello si
intende studiare e realizzare uno
Spatial Decision Support System
che contenga una legenda strutturata
in modo gerarchico, con
la finalità di sostenere la pianificazione
territoriale a vari livelli,
in funzione delle caratteristiche
specifiche di ciascuna area di applicazione.
Stato di avanzamento
lavori
La ricerca basata sulla misura
del consumo di suolo, di cui il
presente contributo rappresenta
una minima parte, è in corso d’opera.
Si ritiene di aver raggiunto
notevoli traguardi in seguito a
questa sperimentazione, tuttavia
sviluppando il modello si nota
che il valore massimo ottenuto
dallo smoothing si basa sulla dimensione
dell’intorno; inoltre, la
scala di valori si riflette sulla scelta
degli intervalli, per cui la classificazione
deve necessariamente
essere sottoposta ad una analisi
preliminare.
Pertanto, la prospettiva della
ricerca si prefigge di associare
ulteriori elaborazioni preparatorie
per la fase di classificazione delle
aree e di approfondire le indagini
rispetto alla mappatura, affinché
si possa non solo quantificare il
consumo di suolo ma anche qualificarne
gli usi.
Conclusioni
L’attenzione all’ambiente, alla politica
ecologica e ai valori del paesaggio
è da considerarsi l’opzione
prioritaria rispetto ad ogni altra
politica e in particolare a quelle
GEOmedia n°2-2016 41
REPORT
42 GEOmedia n°2-2016
economiche e territoriali: è sul
territorio che si svolge pressoché
totalmente l’attività umana dalla
quale provengono le interazioni
con l’ambiente, che mettono
spesso a rischio i suoi fragili
equilibri.
Risulta evidente che la pianificazione
dell’uso del suolo e
dell’organizzazione delle azioni
che su di esso si svolgono, se
si fa carico di valutazioni ambientali
divenga uno strumento
regolatore fondamentale per la
salvaguardia della intera sfera
ecologica.
L’integrazione tra il GIS e i
diversi metodi di valutazione
(Malczewski 1999), costituisce
un supporto fondamentale in
quanto permette di catalizzare
i processi metodologici e di ripetere
le operazioni per tutto il
territorio in qualsivoglia istante,
costituendo una risorsa importante
nella costruzione di uno
Spatial Decision Support System,
nel quale la varietà dell’informazione
territoriale, determinata
da elementi sociali, economici e
ambientali, può essere facilmente
combinata con le differenti
alternative di uso del territorio.
Le parole chiave sono divenute:
partecipazione, negoziazione,
redistribuzione, costruzione del
consenso, risoluzione dei conflitti
(Couclelis 1991). In questo
senso, la possibilità di realizzare,
con il supporto delle moderne
tecnologie, nuovi approcci alla
valutazione, consente di costruire
una pianificazione aperta
(Nedović-Budić 2000) a diversi
punti di vista ed inclusiva.
Ringraziamenti
Gli autori sono grati al gruppo
di lavoro del progetto MITO
(Multimedia Information for Territorial
Objects) del Politecnico
di Bari; in particolar modo, si
ringraziano: Raffaele Attardi,
Alessandro Bonifazi, Pasquale
Balena, i collaboratori dell’Osservatorio
del risparmio di suolo
e i consulenti tecnico-scientifici
della società REDO.
BIBLIOGRAFIA
Arcidiacono, A., Di Simine, D.,
Oliva, F., Pareglio, S., Pileri, P. e
Salata, S. (2009, 2010), Rapporto
sul Consumo di suolo, Centro di
Ricerca sul Consumo di Suolo, (a
cura di) INU Legambiente, Dipartimento
di Architettura e Pianificazione
del Politecnico di Milano,
Fondazione Cariplo.
Borrough, P.A. (1986), Principles of
geographical information systems for
land resource assessment, Clarendon
Press, Oxford, UK, p. 194.
Castiglioni, S., Castellarin, A.,
Montanari, A., Skoien, J.O.,
Laaha, G. and Blosch, G. (2011),
Smooth regional estimation of
low-flow indices: physiographical
space based Interpolation and topkriging,
Hydrology and Earth System
Sciences.
Craglia, M. and Wise, S. (2007),
GIS and Evidence- Based Policy
Making, Innovations in GIS, CRC
Press Inc.
Couclelis, H. (1991), Requirements
for planning-relevant GIS: a
spatial perspective, Regional Science,
70, n. 1, pp. 9-20.
Krige, D.G. (1984), Geostatistics
and the definition of uncertainty,
Inst. Min. Met. Trans., 93-A, pp.
A41-47.
Malczewski, J. (1999), GIS and
Multicriteria Decision Analysis, John
Wiley, ISBN9780471329442,
NewYork, USA.
Nedović-Budić, Z. (2000),
Geographic information science
implications for urban and regional
planning, Journal of the Urban and
Regional Information Systems Association,
12, n. 2, pp. 81-93.
Pileri, P. (2007), Compensazione
ecologica preventiva, Carocci, Roma.
PAROLE CHIAVE
land take and soil sealing;
saving soil; spatial analysis;
focal statistics
ABSTRACT
Soil Framework Directive COM(2006)
232 stated that soil, fairly recognizable
as an ecosystem structure, can be considered
essentially as a non-renewable
resource.
In this perspective, the aim of the present
research is to quantify land take
and soil sealing and to suggest actions
for its mitigation in land-use policies.
Land take and soil sealing quantifies the
land-use change from natural land uses
to artificial ones for urban and infrastructure
development. In order to calculate
the extension of areas concerned
by the land take and soil sealing, this
paper proposes a methodological approach
for the construction of the density
index of impervious areas through
specific spatial analysis, namely the
focal statistics, performed in a GIS
environment.
The experimentation is conducted in
the MITO (Multimedia Information
of Territorial Objects) Laboratory of
the Technical University of Bari (Italy)
in order to launch a regional observatory
for land-use change.
AUTORE
Valentina Sannicandro
valentina.sannicandro@unina.it
Università degli Studi
Federico II di Napoli
Carmelo Maria Torre
carmelomaria.torre@poliba.it
Politecnico di Bari
REPORT
Transforming The way The worLd works
Le soLuzioni TrimbLe favoriscono
fLussi di Lavoro sempLici, precisi e inTegraTi
La tecnologia VISION TM e il software Trimble access a bordo
dell’imaging rover Trimble v10 vi permettono di catturare
immagini digitali panoramiche a 360° e generare nuvole di
punti per una accurata rappresentazione 3D dell’area rilevata.
In combinazione con un ricevitore GNSS o una Stazione Totale,
Trimble v10 integra le immagini con la posizione geospaziale
di ogni punto.
In tre edizioni scalabili, la suite Trimble business center ne
rappresenta il miglior completamento software, per elaborare
e restituire i dati acquisiti.
dall’immagine georiferita al modello 3d
spektra srl, a Trimble company
039.625051 | info@trimble-italia.it | www.trimble-italia.it
GEOmedia n°2-2016 43
REPORT
La scarsa attendibilità del CAP come
riferimento geografico in Italia
di Marianna Ronconi,
Alice Pasquinelli,
Anna Privitera e
Franco Guzzetti
Nell’ambito degli studi legati all’analisi dei grandi rischi territoriali è possibile,
a livello internazionale, trovare applicativi che utilizzano come riferimento
geografico il Codice di Avviamento Postale (CAP). Sul territorio italiano risulta
tuttavia inadatto l’impiego del CAP come elemento di valenza territoriale, se
non si considerano le logiche di assegnazione e la specifica distribuzione.
Nell’articolo sono riportati una serie di esempi.
La necessità di porre
l’attenzione sul tema
trattato nel presente
articolo, ha origine nell’ambito
di un progetto di ricerca,
tra il Dipartimento ABC
del Politecnico di Milano e
un’importante compagnia
assicurativa, che mira alla
realizzazione di analisi
territoriali relative alla
distribuzione della pericolosità
sismica nel territorio italiano,
rispetto al portafoglio
assicurato, con la finalità
di implementare un webgis
per la gestione dei rischi
assicurativi, inizialmente
realizzato per l’analisi del rischio
idrogeologico [Guzzetti et al,
2014]. Nel corso di svolgimento
di tale ricerca ci si è resi conto
di come, all’interno della società
assicurativa committente, sia
in uso un software che può
utilizzare come informazione
geografica per le analisi
territoriali relative alla
pericolosità sismica, il Codice
di Avviamento Postale (CAP),
metodologia ammissibile nello
Stato di produzione del software
(USA), ma assolutamente
scorretta in un paese come
l’Italia, dove le geometrie che
costituiscono tale informazione
risultano inadatte a qualsiasi
tipo di analisi territoriale.
Origine e scopo del Codice
di Avviamento Postale
Il Codice di Avviamento
Postale, generalmente chiamato
Codice Postale o ancora
CAP, viene introdotto in
Italia a partire dal 1967, ai
fini di facilitare le operazioni
di smistamento e recapito
postale. È formato da una
serie di cinque cifre a ognuna
delle quali viene attribuito un
significato ben preciso.
Come riportato nella tabella
soprastante (Fig.1) le prime due
cifre indicano rispettivamente
la regione postale e la provincia
e presentano una certa logicità
geografica: infatti, analizzando
i confini delle regioni postali
(non corrispondenti a quelle
amministrative) e della
successiva sotto-articolazione in
province è possibile rilevare una
rigorosa continuità territoriale.
Le ultime tre cifre individuano
invece le località provinciali
(compresi i capoluoghi
di provincia) e, andando
sempre più nello specifico, la
penultima e l’ultima cifra fanno
riferimento alle informazioni
di un particolare stradario, lo
stradale provinciale, in uso alle
Poste Italiane.
Fig. 1 – Significato di ognuna delle cifre del CAP (dalla pagina web http://www.poste.
it/postali/cap.shtml).
44 GEOmedia n°2-2016
REPORT
Fig. 2 - Esempio di CAP che
comprendono più comuni nella
regione Friuli Venezia Giulia.
La continuità territoriale
sopracitata viene meno nel
momento in cui si scende nel
dettaglio delle singole località
servite dal recapito postale. I
CAP infatti, sono stati attribuiti
progressivamente alle diverse
zone dove opera il servizio
postale e, se da un lato sono
stati identificati CAP specifici
per i comuni maggiori (con
addirittura suddivisioni di
maggior dettaglio nelle grandi
città), in alcuni casi i comuni
meno popolosi (e non sempre
contigui tra loro) sono stati
aggregati sotto un unico CAP:
il criterio di aggregazione è
costituito dalle infrastrutture
viarie che collegano le diverse
località, per cui, per esempio,
a più comuni ricadenti in
una valle montana può essere
attribuito il medesimo CAP,
se le località sono servite dalla
medesima strada principale. Ciò
in linea con lo scopo originario
del CAP, cioè di facilitare il
recapito postale, ma poco utile
quando si tratta di localizzare
geograficamente un comune.
Ne consegue che nelle zone
meno densamente abitate, ci
si ritrova spesso con codici
di avviamento postale che
identificano più comuni, che in
alcuni casi non sono nemmeno
contigui tra di loro.
A livello internazionale
[INSPIRE, 2014], il CAP
costituisce un dato integrante
delle stringhe di testo relative
agli indirizzi (insieme a
Comune, via e numero
civico) ed è utilizzato anche
a scopi di geolocalizzazione;
nel documento citato, viene
riconosciuto che non
esiste un’uniformità
di costruzione di tale
codice né della qualità
dell’informazione che vi è
associata nei diversi Stati
europei.
Problematiche legate
alle analisi territoriali
Per meglio specificare
ciò che è stato accennato
fin qui, verranno
ora analizzate alcune
delle problematiche
che rendono inadatto
l’uso del CAP come
riferimento geografico
per le analisi territoriali.
Il primo problema
evidenziato è la
discontinuità territoriale
dei CAP.
Postal Descriptor
5.3.1.1.17. Postal Descriptor - The address
component subtype “postal descriptor”
represents the identification of a subdivision of
addresses and postal delivery points created for
postal purposes. The most common example
of a postal descriptor is a post code associated
with the name of the post office, town or area.
Even though the original purpose of post codes
was sorting and delivery of mail, the usage
of post codes has been extended into many
other sectors and applications. The concept,
structure and formats of national postal
descriptor systems are different. For example
in some countries post codes are seen as a
proper geographic subdivision of the country,
in other countries the post code is regarded
only as an attribute that characterizes a small
number of adjacent postal delivery points and
addresses. Sometimes the post code itself is
the only information required for a complete
address; in other situations both the post code
and the associated name of post office or town
is required. Sometimes there is a simple 1:1
relationship between the code and the name; in
other situations a set of postcodes are associated
with a single post office or town. In some
countries such as The Republic of Ireland, no
post code system currently exists; therefore the
postal descriptor is only represented by the
name of the post town.
(Estratto dalle specifiche INSPIRE sull’Address)
Fig. 3 - Distribuzione della
continuità territoriale dei CAP.
GEOmedia n°2-2016 45
REPORT
L’entità che serve per
identificare un determinato
Codice Postale può infatti essere
un poligono multipart, ovvero
formato da più geometrie
non contigue, associate a un
unico record tabellare. Come
si nota dalla Fig. 3, in alcuni
casi si arriva a superare le 15
porzioni, che corrispondono
ad un equivalente numero di
raggruppamenti di comuni,
facenti parti della geometria
dello stesso CAP.
Prendendo poi in
considerazione i confini
comunali, si evidenzia
che possono verificarsi tre
situazioni: il CAP coincide col
Comune; il CAP è associato
a più comuni (arrivando a
essere attribuito anche a più
di 30 comuni); un comune
può essere suddiviso in più
zone postali, a ognuna delle
quali è associato un CAP
differente (generalmente è il
caso delle grandi città; in Italia
ciò capita in circa 40 città).
Anche in questo caso si nota
la discontinuità territoriale e
la mancanza di uniformità di
attribuzione rispetto ai confini
comunali.
Fig. 4 - Aggregazione dei
comuni per CAP di riferimento.
Un’altra problematica che
è importante ricordare
riguarda la mutevolezza
dell’informazione legata al
Codice di Avviamento Postale.
Nel corso degli anni, infatti,
hanno subito variazioni sia le
modalità di attribuzione del
codice (ad esempio i codici
generici in uso fino al 2006
nelle città suddivise in più
zone postali non sono più
in uso), sia la sussistenza di
alcuni CAP, che possono essere
eliminati o aggiunti seguendo
le evoluzioni amministrative,
che prevedono l’istituzione o
l’accorpamento di comuni,
province ecc., oppure ancora
per un’ulteriore suddivisione di
una città in più zone postali.
Dal 2009 tali modifiche
avvengono con cadenza annuale
e l’ultima è entrata in vigore
ad aprile 2015; dunque, vista
la velocità con cui avvengono
le modifiche dei Codici
Postali, questa informazione
risulta poco adatta ad analisi
territoriali che possono restare a
lungo stabili nel tempo.
Problematiche legate ai
rischi catastrofali
Gli aspetti presentati
acquisiscono notevole
rilevanza nel momento
in cui i CAP sono
utilizzati come
riferimento geografico
per la valutazione della
distribuzione di rischi
catastrofali, in particolare
con riferimento a quei
fenomeni che hanno una
diffusione omogenea e
graduale sul territorio
(come i terremoti, gli
eventi meteorici e le
relative previsioni).
L’identificazione
geografica di un’area
attraverso il CAP non
consente di valutare con
precisione se e con quale
Fig. 5 - Sovrapposizione della mappa di pericolosità
sismica INGV 2004 con le geometrie dei CAP della
regione Friuli Venezia Giulia.
intensità tale area è soggetta
al fenomeno catastrofale,
dato che due punti inclusi
nella medesima geometria
che rappresenta un CAP,
possono essere molto distanti
tra loro e avere caratteristiche
morfologiche molto differenti.
Ad esempio, andando a
sovrapporre le geometrie dei
CAP con le informazioni
riguardanti il livello di
pericolosità sismica del
territorio italiano (espresso
in termini di accelerazione
massima del suolo - ag),
secondo la mappa prodotta
nel 2004 (in riferimento
all’Ordinanza PCM del 28
aprile 2006 n.3519, All.1b)
dall’Istituto Nazionale di
Geofisica e Vulcanologia
(INGV), si può notare come
comuni che si riferiscono al
medesimo CAP sono interessati
da livelli di pericolosità sismica
anche molto differenti tra
loro. Nella figura 5, vediamo
un esempio significativo della
regione Friuli Venezia Giulia,
regione che presenta sia una
forte variabilità a livello sismico,
sia dei Codici Postali costituiti
da geometrie complesse.
Nell’ultima immagine della
sequenza, relativa al CAP
33030 si può notare come
46 GEOmedia n°2-2016
ZEB 1 | SURVEY IN MOTION
Arriva in Italia il primo laser scanner
handheld per il mobile mapping.
Basato su tecnologia SLAM,
rappresenta la soluzione ideale
per il rilievo 3D rapido e accurato
di realtà complesse.
Forestale, underground mining,
immobiliare:
rivoluziona il tuo modo di
lavorare!
Presentazione ufficiale del prodotto
a settembre 2015.
Seguirà un programma di roadshow
in Italia nei mesi successivi.
Per maggiorni informazioni scrivere a
info@mesasrl.it.
Il tuo partner ideale per il rilievo 3D
ME.S.A. srl (Metrology & Survey
Application) già partner esclusivo in
Italia della Faro Technologies e della
GeoSLAM UK, rinforza la gamma di
tecnologie d'avanguardia presenti a
livello mondiale nel campo
dell'architettura del survey e della
metrologia. ME.S.A. srl si propone sul
mercato nazionale con uno sguardo
all'Europa come supporto
d'eccellenza a tutte quelle aziende
che, resistenti agli anni della crisi,
fanno dell'innovazione il loro cavallo
di battaglia per rendersi altamente
competitive.
ME.S.A. s.r.l. a Socio Unico
P.IVA 11315870011- Cap. Soc. € 500.000,00
Strada Antica di None 2 - 10092 BEINASCO (TO)
Tel +39 011 3971937 Fax +39 011 3972614
info@mesasrl.it www.mesasrl.it
questo sia attraversato da 5
livelli di pericolosità sismica
e da come si possa passare
da un punto che ricade
nell’intervallo massimo di
ag compreso tra 0,275 e
0,300 a uno molto più lieve
compreso tra 0,100 a 0,125,
in una scala nazionale
compresa tra 0,025 e
0,300g.
Conclusioni
Gli esempi riportati
nell’articolo a supporto della
tesi che considera il CAP
un’informazione inadatta
a essere utilizzata come
riferimento geografico,
dimostrano come sia errato,
in un paese come l’Italia,
l’uso di questo dato come
identificatore geografico.
Come già sostenuto in altre
occasioni [Guzzetti et al,
2014] la tendenza dev’essere
quella di strutturare le
analisi territoriali, in
particolare quelle in cui uno
dei termini di paragone sia
costituito da elementi che
possano essere identificati
puntualmente, come
può essere un portafoglio
assicurativo, utilizzando le
coordinate spaziali degli
oggetti.
Questa soluzione
consente, all’interno
di un determinato
sistema di riferimento, la
precisa e inequivocabile
identificazione degli
oggetti in esame, posizione
immutabile nel tempo
e oggettiva. Inoltre
permette di attribuire
ogni elemento in esame
a una determinata classe
di pericolosità, nel caso
legato alla ricerca presentata
rispetto alle catastrofi
naturali, utilizzabile come
informazione per impostare
ulteriori approfondimenti e
indagini.
NOTA REDAZIONE
Il REPORT Presente
articolo è
stato presentato
all 19°
Conferenza
ASITA 2015
(Lecco). Si ringrazia la segreteria
organizzativa per la cortesia e
disponibilità dimostrata. Inoltre si
augura la migliore riuscita per la 20°
Conferenza ASITA 2016 (Cagliari,
8-9-10 Novembre 2016).
BIBLIOGRAFIA
Address Service Centre (2015),
Il codice di avviamento postale,
http://www.address-service-center.
it/ (Retrieved: 03.09.2015).
Istituto Nazionale di Geofisica
e Vulcanologia - INGV (2015),
Pericolosità sismica, http://www.
mi.ingv.it/pericolosita-sismica/
(Retrieved: 03.09.2015).
Poste Italiane (2015), Il servizio
CAP, http://www.poste.it/
postali/cap.shtml (Retrieved:
03.09.2015).
Guzzetti F., Pasquinelli A.,
Privitera A., Ronconi M.
(2014) Test metrico sulla ricerca
automatica della posizione degli
indirizzi, 18^ Conferenza
Nazionale Asita, Firenze.
Guzzetti F., Pasquinelli A.,
Viskanic P., (2014) L’informazione
geografica nella gestione dei rischi
catastrofali, 18^ Conferenza
Nazionale Asita, Firenze.
INSPIRE Thematic Working
Group Addresses (2014),
D2.8.I.5 Data Specification on
Addresses - Technical Guidelines,
INSPIRE Infrastructure for
Spatial Information in Europe.
Thompson, S. (2013). Be insured
with risk mapping, in Geospatial
World Magazine.
PAROLE CHIAVE
Codice di avviamento postale;
CAP; Postal Descriptor;
riferimenti geografici; rischi
territoriali
ABSTRACT
Many software made in the USA for
analyzing big territorial risks use Post
Code (P.C.) as a geographical reference.
However, if those software are used in
Italy, the purpose of the Post Code as
territorial reference results unsuitable.
In fact, in Italy the P.C. was created to
facilitate the processes of mail delivery.
It is made up of a five numbers code
and the level of information contained
decreases the deeper the code is analyzed
and the more their territorial continuity
fails. Moreover, at times a single
Post Code refers to multiple towns, at
others a single town can be divided in
various P.C.
This article shows some examples on
how the Post Code can not be used in
Italy for analyze territorial distribution
of natural disasters.
AUTORE
Marianna Ronconi,
marianna.ronconi@polimi.it
Alice Pasquinelli,
alice.pasquinelli@polimi.it
Anna Privitera,
anna.privitera@polimi.it
Franco Guzzetti,
ranco.guzzetti@polimi.it
Dipartimento ABC –
Politecnico di Milano
GEOmedia n°2-2016 47
MERCATO
Remtech 2016: bonifiche
dei siti contaminati,
protezione
e riqualificazione del
territorio
Dal 21 al 23 settembre 2016,
a Ferrara, appuntamento con
la X edizione di RemTech
Expo, il punto di riferimento
più specializzato, in Italia,
sui temi della bonifica, della
riqualificazione, della tutela e
del recupero.
I suoi quattro eventi paralleli
– RemTech, Coast,
Esonda e Inertia – presentano
diverse novità, che contribuiscono
a consolidare il
prestigio sempre più internazionale
della manifestazione
organizzata da Ferrara
Fiere Congressi (partner, la
Regione Emilia-Romagna).
Le bonifiche dei siti contaminati,
la protezione e la riqualificazione
del territorio
– temi portanti di RemTech
– sono al centro di un’area
espositiva e di un programma
congressuale di elevato profilo.
In agenda, tavole rotonde,
approfondimenti tecnici
e dibattiti multidisciplinari
su casi di studio ed esperienze
reali, B2B tra espositori e
delegazioni straniere, corsi di
formazione e momenti di confronto
particolarmente significativi
e attesi, quali gli Stati
Generali delle Bonifiche, la
Conferenza Nazionale dell’Industria
sull’Ambiente e sulle
Bonifiche (in collaborazione
con Confindustria e patrocinata
dal Ministero dell’Ambiente),
e la RemTech Europe
International Conference,
con la partnership della
Commissione europea.
La II Conferenza Nazionale
dei Porti, cui partecipano
alcune delle principali
Autorità Portuali straniere,
e la presentazione dei lavori
del Tavolo Nazionale sull’Erosione
Costiera, promosso
dal Ministero dell’Ambiente
e della Tutela del Territorio e
del Mare, insieme alle quindici
Regioni costiere italiane,
sono tra gli eventi clou di
Coast che, con il contributo
di Assoporti, approfondirà
le opere di difesa, i dragaggi,
la gestione dei sedimenti,
i porti e la Marine Strategy.
A Esonda, riflettori puntati
sul dissesto idrogeologico,
la direttiva alluvioni e
la manutenzione del territorio,
grazie al contributo
dei Distretti Idrografici, dei
Consorzi di Bonifica e delle
imprese ad alto contenuto
tecnologico, e alla fruttuosa
sinergia con #italiasicura, la
Struttura di missione presso
la Presidenza del Consiglio
dei Ministri. Da segnalare,
la Conferenza Nazionale
sul Dissesto Idrogeologico
e la Smart Rivers Network
International Conference.
Nel calendario di Inertia spicca,
invece, la tavola rotonda
sulla Sostenibilità Ambientale
delle Grandi Opere, che
coinvolgerà i maggiori player
internazionali. Stazioni appaltanti,
general contractor,
strade, autostrade e ferrovie
saranno protagonisti dell’esposizione
e di convegni sulle
demolizioni, gli impianti per
la selezione, il riciclaggio, la
certificazione e la marcatura
CE, l’attività estrattiva, le infrastrutture.
(Fonte:
http://www.remtechexpo.com)
48 GEOmedia n°2-2016
MERCATO
With you all the way
Le innovative soluzioni Geospaziali Topcon
ed un pieno supporto forniscono una precisione senza precedenti
ed incrementi di efficienza in ogni progetto.
experience how ...
www.topconpositioning.it
Tokyo · San FranciSco · MoSca · roTTerdaM · BriSBane
GEOmedia n°2-2016 49
AGENDA
30 maggio 2 giugno 2016
2016 European Navigation
Conference
Helsinki (Finland)
www.geoforall.it/kawf9
30 maggio - 3 Giugno 2016
European Space Solution
L'Aia (Olanda)
www.geoforall.it/kawf9
8-10 giugno 2016
Convegno SIFET
Lecce
www.geoforall.it/kax4h
13-17 giugno 2016
6th International Conference
on Cartography & GIS
Albena (Bulgaria)
www.geoforall.it/kawfw
20-24 Giugno 2016
36th EARSeL Symposium
Bonn (Germany)
www.geoforall.it/kawfw
22-24 Giugno
VIII CONVEGNO AIT
Associazione Italiana di
telerilevamento
Palermo
www.geoforall.it/kax4q
12-19 Luglio 2016
23rd ISPRS Congress
Praga (Czech Republic)
www.geoforall.it/k3fcd
24-26 agosto 2016
FOSS4G 2016
Bonn (Germania)
www.geoforall.it/kaxry
14-16 settembre 2016
GEOBIA 2016
Enschede (The Netherlands)
www.geoforall.it/ka9ur
20-21 settembre 2016
2016 DGON Inertial Sensors
and Systems (ISS)
Karlsruhe (Germany)
www.geoforall.it/kawfx
26-30 settembre 2016
INSPIRE Conference 2016
Barcelona (Spain)
www.geoforall.it/kauk3
29-30 settembre 2016
Malaga (Spain)
EUROGEO 2016
www.geoforall.it/kawfk
4-6 ottobre 2016
TECHNOLOGY for ALL
2016
Roma
www.technologyforall.it
11-13 ottobre
INTERGEO 2016
Hamburg (Germania)
www.geoforall.it/kaxhh
12-14 ottobre 2016
Perugia
Open Source Geospatial
Research Education
Symposium #OGRS2016
www.geoforall.it/kauka
19-21 ottobre 2016
GEOMETOC Workshop:
Geospatial, Hydrometerological
and GNSS
Prague (Czech Republic)
www.geoforall.it/kaxhc
20-21 ottobre 2016
5th International FIG 3D
Cadastre Workshop
Atene (Grecia)
www.geoforall.it/kaxq9
20-21 ottobre 2016
11th 3D Geoinfo Conference
Atene (Grecia)
www.geoforall.it/kaxqw
26-30 Ottobre 2016
TOPCART 2016 XI Congreso
Internacional de Geomática y
Ciencias de La Tierra
Toledo (Spagna)
www.geoforall.it/k3ydc
16-17 novembre 2016
ITSNT 2016 International
Technical Symposium on
Navigation and Timing
Toulose (France)
www.geoforall.it/kaxhy
FIBER MANAGER ®
TUTTA LA TUA RETE A PORTATA DI MANO
GESTISCI L’INFRASTRUTTURA CON UN SOLO GEODATABASE INTEGRATO
Con FiberManager® puoi gestire le reti di telecomunicazione con un unico geodatabase che consente la
visione globale ed integrata dell’intera infrastruttura di rete. In questo modo hai a disposizione uno strumento
di business intelligence geografica centralizzato, da cui puoi estrarre tutti i report, gli schemi e i documenti
necessari a progettare, costruire, sviluppare e gestire la tua rete nel modo più efficace possibile.
FiberManager® mette a fattor comune la piattaforma GIS leader nel mondo con il modello dati e le funzionalità
smart implementate da una community network di aziende di telecomunicazioni operanti in vari paesi nel
mondo.
FiberManager® è una verticalizzazione della suite ArcFM® di Schneider Electric, di cui Sinergis è rivenditore
esclusivo in Italia.
www.sinergis.it