GEOmedia 2 2016

mediageo

La prima rivista italiana di geomatica

Rivista bimestrale - anno XX - Numero 2/2016 - Sped. in abb. postale 70% - Filiale di Roma

TERRITORIO CARTOGRAFIA

GIS

CATASTO

3D

INFORMAZIONE GEOGRAFICA

FOTOGRAMMETRIA

URBANISTICA

GNSS

BIM

RILIEVO TOPOGRAFIA

CAD

REMOTE SENSING SPAZIO

EDILIZIA

WEBGIS

UAV

SMART CITY

AMBIENTE

NETWORKS

BENI CULTURALI

LBS

LiDAR

Mar/Apr 2016 anno XX N°2

La prima rivista italiana di geomatica e geografia intelligente

L'esperienza

immersiva di

Quirinale 3D VR

Considerazioni sulle nuvole di

punti da scansione laser e imaging

Story-telling della

Geologia di Roma

La scarsa attendibilità del

Codice di Avviamento Postale


Sotto

controllo

Codevintec Italiana

via Labus 13 - Milano

tel. +39 02 4830.2175

info@codevintec.it

www.codevintec.it

Strumenti per lo studio

del sottosuolo e dei fondali marini.

Sai cosa c’è sotto?

> Studio del sottosuolo

georadar, sismica, geoelettrica,

logger da foro.

> Rappresentazione

dei fondali e delle coste

Multibeam, SideScanSonar,

SubBottom Profiler.

Photo: Sophie Hay

> Vulcanologia

e Monitoraggio sismico

sismometri, gravimetri,

inclinometri.

> Monitoraggio ambientale

e Ingegneria civile

georadar, sismografi, laser

scanner, magnetometri.

> Qualificato laboratorio di

Assistenza Tecnica.

> Sistemi disponibili a noleggio.

> Noleggio a lungo termine.

CODEVINTEC

Tecnologie per le Scienze della Terra


Poca fotogrammetria nei sistemi GIS

Sappiamo bene che la Fotogrammetria è la scienza che consente di effettuare misurazioni da

fotografie ottenendo le tre coordinate spaziali di un congruo numero di punti dell’oggetto

da rilevare, attraverso misure eseguite su una o più coppie di fotogrammi. Se pensiamo che il

fondamento geometrico della fotogrammetria si ritrova negli studi sulla prospettiva e nelle sue

applicazioni, con primi cenni che risalgono ai Babilonesi e che la fotogrammetria aerea è oggi la

procedura più utilizzata per realizzare cartografie tecniche, a media grande scala, di estese porzioni

di territorio, ci si chiede come mai sia tanto sconosciuta.

"Il problema è che è difficile trovare un fotogrammetrista qualificato sotto l'età di 50 anni," afferma

Darryl Murdock, vice presidente della U.S. Geospatial Intelligence Foundation (http://usgif.org/)

in un recente articolo apparso su Geodatapoint. "Invece, ciò che abbiamo sono molte persone che

hanno un background di fondo sui sistemi informativi geografici (GIS), ma molto poca esperienza

analitica e predisposizione ad altre discipline geospaziali".

Nello stesso articolo si racconta la storia di un avvocato che ha difeso una persona che era stata

citata in giudizio per negligenza in un esercizio commerciale. Un cliente del procuratore era

scivolato su una crepa nel marciapiede di fronte all’esercizio commerciale e stava sostenendo che il

suo infortunio era colpa del proprietario dell’esercizio che aveva il dovere di mantenere e rendere

sicuro il marciapiede di fronte alla sua attività, in modo che i clienti non fossero esposti al rischio di

inciampare ferendosi.

L’esercizio commerciale ha sostenuto che era la municipalità responsabile di eseguire la

manutenzione sul marciapiede e che, a causa di questo, l'attività commerciale non poteva essere

ritenuta responsabile. Per la difesa ha citato un'ordinanza locale sulla riparazione dei marciapiede

che specificava come le grandi crepe nella pavimentazione dovevano essere manutenute dal

municipio e ha sostenuto che la crepa nel marciapiede era sufficientemente grande per rispondere ai

requisiti della ordinanza citata essendo pertanto di competenza del municipio.

Lo studio legale ha assunto quindi un ingegnere. Per misurare le dimensioni della crepa, che ha

usato una funzione di mappatura, basata su Internet, per rilevare la strada e per prendere misure.

Con questo approccio però la mappa aveva pochissime informazioni accessorie a supporto della sua

accuratezza. Aveva la data delle fotografie, ma non l'ora del giorno, il punto dove la fotografia era

stata scattata e l'orientamento della fotocamera.

Alla fine il prodotto realizzato dall’ingegnere attraverso un GIS via Internet aveva molte interessanti

caratteristiche, ma era privo dell’essenza metrica di fondo che ha la fotogrammetria.

"Con l'uso corretto dei dati geospaziali, sarebbe stato possibile incorporare tutti i tipi di dati relativi

a una foto per ottenere la massima precisione", spiegò Murdock allo studio legale che lo aveva

consultato.

Concordiamo con Murdock in questa visione e ciò che ci sforziamo di sostenere è la massima

incentivazione della formazione geospaziale estesa che può arricchire le competenze GIS e di

mappatura che molte persone nella professione hanno già.

Buona lettura,

Renzo Carlucci


In questo

numero...

FOCUS

REPORT

Nuvole di punti -

fra scansione

laser e imaging di

prossimità

qualche considerazione

e riflessione

di Luigi Colombo

6

LE RUBRICHE

48 MERCATO

50 AGENDA

Immagine di sfondo satellitare che

ricorda una pittura astratta ottenuta da

Sentinel-1: mostra l’aspetto vorticoso

del paesaggio di Dasht-e Kavir,

deserto salato iraniano.

Credits: ESA.

12

Raccontare la

geologia attraverso

le story-telling

Roma dal 1820 al

2008

di Maria Pia Congi, Fabiana

Console, Marco Pantaloni,

Paolo Perini e Mauro Roma

Una infrastruttura

geografica europea

il Progetto E.L.F.

(European Location

Framework)

di Stefano Campus, Patrizia

Nazio e Gianbartolomeo Siletto

18

24

Il rilievo

con drone

nei centri

storici

di Zaira

Baglione

Pagliaroli

In copertina una

ricostruzione

tridimensionale in

realtà virtuale del

Piano Nobile del

Palazzo del Quirinale

creata dalle società

italiane Geocart e

Digital Lighthouse

con le più innovative

tecniche del Digital

Heritage.

L’esperienza 26

immersiva di

QUIRINALE 3D VR

di Federico Capriuoli, Davide

Colangelo, Luca Curto, Diego

Fileri, Annibale Guariglia,

Vito Mario Sansanelli e Paola

Santarsiero

geomediaonline.it

GEOmedia, bimestrale, è la prima rivista italiana di geomatica.

Da 20 anni pubblica argomenti collegati alle tecnologie dei

processi di acquisizione, analisi e interpretazione dei dati,

in particolare strumentali, relativi alla superficie terrestre.

In questo settore GEOmedia affronta temi culturali e tecnologici

per l’operatività degli addetti ai settori dei sistemi informativi

geografici e del catasto, della fotogrammetria e cartografia,

della geodesia e topografia, del telerilevamento aereo e

spaziale, con un approccio tecnico-scientifico e divulgativo.


INSERZIONISTI

30 GeoDataBase

geomorfologico per

acquisizione dei dati

tramite tecnologie

mobile

di Mattia De Amicis, Fabio

Olivotti, Stefano Roverato,

Alice Mayer e Luca Dangella

Una questione di

centimetri

34

di Fulvio Bernardini

3D TARGET 52

AerRobotix 10

Codevintec 2

Epsilon 42

Esri 17

Flytop 16

Intergeo 29

Leica 11

Me.s.a 47

Planetek 23

Sinergis 51

Sistemi territoriali 50

TECHNOLOGYforALL 37

Teorema 48

Topcon 49

Trimble 43

44

La scarsa

attendibilità

del CAP come

riferimento

geografico in

Italia

di Marianna Ronconi, Alice

Pasquinelli, Anna Privitera e

Franco Guzzetti

38

L’uso del GIS

come strumento

di analisi e

rappresentazione

del consumo di

suolo

di Valentina Sannicandro

e Carmelo Maria Torre

una pubblicazione

Science & Technology Communication

Direttore

RENZO CARLUCCI, direttore@rivistageomedia.it

Comitato editoriale

Vyron Antoniou, Fabrizio Bernardini, Mario Caporale, Luigi

Colombo, Mattia Crespi, Luigi Di Prinzio, Michele Dussi, Michele

Fasolo, Flavio Lupia, Beniamino Murgante, Aldo Riggio, Mauro

Salvemini, Domenico Santarsiero, Attilio Selvini, Donato Tufillaro

Direttore Responsabile

FULVIO BERNARDINI, fbernardini@rivistageomedia.it

Redazione

VALERIO CARLUCCI, GIANLUCA PITITTO,

redazione@rivistageomedia.it

Diffusione e Amministrazione

TATIANA IASILLO, diffusione@rivistageomedia.it

Comunicazione e marketing

ALFONSO QUAGLIONE, marketing@rivistageomedia.it

Progetto grafico e impaginazione

DANIELE CARLUCCI, dcarlucci@rivistageomedia.it

MediaGEO soc. coop.

Via Palestro, 95 00185 Roma

Tel. 06.62279612 - Fax. 06.62209510

info@rivistageomedia.it

ISSN 1128-8132

Reg. Trib. di Roma N° 243/2003 del 14.05.03

Stampa: SPADAMEDIA srl

VIA DEL LAVORO 31, 00043 CIAMPINO (ROMA)

Editore: mediaGEO soc. coop.

Condizioni di abbonamento

La quota annuale di abbonamento alla rivista

Science

è di €

&

45,00.

Technology Communication

Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di

ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa.

L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita

revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza

dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo.

La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti.

Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta

dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere

richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo.

Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la

riproduzione anche parziale del contenuto di questo numero della Rivista in

qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i

sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore.

Rivista fondata da Domenico Santarsiero.

Numero chiuso in redazione il 15 maggio 2016.


FOCUS

NUVOLE DI PUNTI - FRA SCANSIONE

LASER E IMAGING DI PROSSIMITÀ

QUALCHE CONSIDERAZIONE E RIFLESSIONE

di Luigi Colombo

L’articolo prende in esame le tecniche automatizzate di rilevamento,

senza contatto, che acquisiscono nuvole di punti sull’oggetto di interesse.

Si spazia dalla scansione laser alla tecnica per immagini, che sta avendo

risvegli importanti grazie al rilevamento di prossimità sviluppatosi con

l’avvento dei sistemi Aerei a Pilotaggio Remoto.

Una valutazione degli ambiti di applicazione, dei vantaggi-svantaggi

dei processi e i necessari supporti tecnologici, telematici e informatici

Fig. 1 - Griglia di campionamento corrispondente

alla nuvola di punti.

corredano l’analisi.

La sorgente dei dati spaziali

Le nuvole di punti costituiscono

attualmente la principale sorgente

di dati per l’informazione

spaziale (anche texturizzata con

il colore o l’energia riflessa).

Sono generate dall’impiego di

tecniche automatizzate di rilevamento

(senza contatto) e costituiscono

la base per la creazione

di modelli 3D, i cosiddetti

Digital Surface Models, da cui si

possono derivare sottoprodotti

metrici 2D, come piante, sezioni,

prospetti e rappresentazioni

per isolinee.

In questi anni, i sistemi a

scansione laser (terrestri e aerotrasportati)

sono stati la via

primaria per generare interattivamente

nuvole di punti; più

recentemente, la ricerca nel

settore della Computer Vision ha

rivoluzionato la tecnica di rilievo

per immagini e reso possibile

l’estrazione differita di dettagliate

nuvole di punti da blocchi di

immagini, normali ed oblique.

Si parla in questi casi di Dense

image matching, con riferimento

alla procedura tecnica che ha

garantito questo sviluppo tecnologico.

Si sa che l’acquisizione dei punti

di una nuvola (point cloud)

non avviene in forma deterministica,

come nel rilievo manuale

(solo i punti caratteristici), bensì

in modo stocastico: si tratta

dei nodi di una griglia di campionamento

spaziale che viene

automaticamente sovrapposta

all’oggetto (Fig. 1).

Il valore del passo effettivo della

griglia dipende non solo dal

campionamento e dalla distanza

di acquisizione ma anche

dalle condizioni geometriche

d’impatto del fascio laser con le

superfici di interesse (normalità,

obliquità) e dalle irregolarità

morfologiche di queste ultime.

Si può risalire poi dai nodi della

griglia agli specifici punti di interesse

tramite l’applicazione di

processi interpolativi locali.

Le tecniche automatizzate di

rilevamento operano dunque

tramite la scansione laser o la

ripresa per immagini (Figg.

2-3) che sono spesso opportunamente

combinate fra loro.

L’integrazione fra i due dataset

produce un modello (denso) di

punti spaziali in grado di descrivere

più compiutamente ed

economicamente le geometrie

di un oggetto.

Ben supportate dai molti software

finalizzati all’elaborazione

delle nuvole, le due tecniche

costituiscono oggi le soluzioni

attiva e passiva del processo di

acquisizione automatizzata. Esse

risultano più adatte, la prima

nel rilevamento di interni (vista

la minore dipendenza dalle

condizioni di illuminazione), la

seconda in quello di esterni, per

la semplicità del sensore fotografico,

la necessità di adeguate

condizioni di luce e l’avvento

dei sistemi aerei a pilotaggio remoto

(SAPR).

6 GEOmedia n°2-2016


FOCUS

con la sensibilità (ISO) del

sensore, così da contenere il

trascinamento dS immagine [1]

entro

il pixel della camera e conseguentemente

lo spostamento

dS oggetto all’interno del parametro

GSD (Ground Sampling

Distance) [2].

[1] dS immagine

= dS oggetto

* f / Q

con

relativa media di volo

dS oggetto

= V * dt

Fig. 2 - La scansione laser terrestre (da RIEGL).

Molto si conosce e si è scritto

sui sistemi a scansione e sulle

procedure operative ad essi

associate, molto meno si sa,

forse, della bi-centenaria tecnica

per immagini e dell’uso del

vettore aereo, in questi anni

surclassati dallo sviluppo della

scansione laser e che solo ora

stanno ritornando di moda

grazie ai nuovi aeromobili di

uso personale (SAPR). Insieme

a loro, non si possono dimenticare

sia le tecnologie satellitari

e non (automatizzate) di supporto

al volo sia quelle digitali e

telematiche per la gestione operativa

dei processi. Non si tratta

dunque di un ritorno al passato

bensì di un ritorno al futuro

(come ben ha scritto qualcuno),

visto che gli scenari tecnologici

degli algoritmi del rilevamento

per immagini risultano significativamente

cambiati.

I sistemi APR

I sistemi aerei di rilevamento a

pilotaggio remoto, con finalità

ben diverse da quelle degli aeromodelli

ricreativi e sportivi,

possono essere a decollo-atterraggio

verticale e con funzioni

di hovering (multi-rotore), oppure

ad ala fissa. Questi sistemi

sono dotati di un supporto stabilizzato

per la compensazione

delle rotazioni spaziali indotte

dal volo, dalla turbolenza dell’aria

e dal vento e sono in grado

di trasportare un carico utile

(payload), costituito dai sensori

per la ripresa.

I vantaggi-svantaggi funzionali,

rispetto ai vettori aerei tradizionali,

sono indicati nella figura 4.

I SAPR consentono riprese aeree

da quote relative inferiori,

con conseguente aumento della

scala media delle immagini (a

parità di valore della focale fissa

riguardante la fotocamera) e

quindi del livello di dettaglio e

della precisione altimetrica.

Una ridotta quota relativa di

volo accentua però gli effetti

di trascinamento (Figg. 5-6)

dell’immagine, con conseguente

fenomeni di sfocatura (foto

mossa): si potrà intervenire

limitando la velocità di crociera

(V) dell’APR e coordinando

opportunamente il tempo di

esposizione (dt) della ripresa

Fig. 4 - Valutazione dei sistemi APR.

Fig. 5 - Il trascinamento dell’immagine digitale.

In senso tecnico, la scansione

laser detiene comparativamente

il rilevante vantaggio (disponendo

del valore della distanza

di posizione) che un solo raggio

debba essere riflesso da un

punto oggetto per la sua determinazione

3D; la ripresa per

immagini comporta invece la

necessità di disporre di almeno

due raggi (omologhi) riflessi

per ciascun punto da restituire

spazialmente, relativi a differenti

posizioni del sensore fotografico,

oltre ad informazioni

Fig. 3 - Il rilievo di prossimità per immagini (Cristo

Redentore a Rio de Janeiro, da Pix4D).

GEOmedia n°2-2016 7


FOCUS

Fig. 6 - Ripresa nadirale da aereo e di prossimità da APR.

metriche, acquisite sull’oggetto,

necessarie per la ricostruzione

univoca del modello di punti

(Fig.7).

Inoltre, se nel laser scanning

emergono problemi di impiego

su superfici riflettenti, trasparenti

e traslucide (metalli,

marmi, vernici, vetro…), nel

caso della ripresa per immagini

l’oggetto deve presentare altresì

un’adeguata caratterizzazione

geometrica e tematica (superfici

non uniformi, non lisce, non

monocromatiche e con poche

Fig. 7 - Schema del rilevamento per immagini (da GIM International).

ombre); questo perché sia consentito

il riconoscimento automatico

dei punti omologhi sui

fotogrammi corrispondenti. Il

processo di ricerca viene attuato

tramite la correlazione digitale

delle immagini.

La correlazione digitale

di immagini

Le tecniche per l’individuazione

dei punti omologhi su

immagini sovrapposte, dette di

matching, sono del tipo areabased

(ABM) e feature-based

(FBM): le prime si fondano sul

confronto dei livelli di colore

di areole poste sulle immagini

di interesse, mentre le seconde

pongono a raffronto primitive

grafiche (punti, linee, poligoni),

estratte preliminarmente dalle

immagini attraverso operatori di

interesse.

Quando la risoluzione del

matching deve scendere a livello

del singolo pixel, la ricerca dei

punti per correlazione diviene

operativamente proibitiva:

questo accade soprattutto con

immagini oblique (per esempio,

nel caso di riprese di facciate

o prese terrestri) e quando le

morfologie dell’oggetto siano

altimetricamente assai irregolari

(edifici alti, ecc.).

Negli ultimi anni sono stati

introdotti algoritmi più efficaci

e veloci, come il Semi-Global-

Matching (Hirschmueller,

2005-2008), che si avvalgono

del contributo della geometria

epipolare (Fig. 8) (per limitare

la ricerca dei punti omologhi a

linee immagine) e consentono

l’estrazione di nuvole di punti

dense con campionamento (griglia)

corrispondente al valore

del pixel sull’oggetto (GSD).

[2] GSD = pixel immagine *

quota media relativa / focale del

sensore fotografico

Il valore GSD definisce la scala

massima della restituzione

vettoriale-raster producibile dal

modello:

[3] 1/N R

= k / GSD con k =

0,1 mm oppure (0,1* 1,96) mm

(incertezza grafica, al 95%).

Il rilevamento di

prossimità per immagini

Le acquisizioni per immagini, effettuate

sempre più diffusamente

da SAPR, consistono in un blocco

di foto oblique o normali, opportunamente

sovrapposte longitudinalmente

e trasversalmente

(in funzione del tipo di rilievo

previsto, 2D o 3D).

Si tratta, in dettaglio, di riprese

di tipo normale (all’oggetto)

effettuate secondo strisciate orizzontali

oppure di riprese di tipo

obliquo spesso su strisciate verticali

(modelli di facciate). Esse risultano

utili per generare nuvole

di punti o per estrarre elaborati

2D vettoriali e raster; questi ultimi

vengono ortogonalizzati, cioè

corretti dalle deformazioni geometriche

indotte dalla morfologia

dell’oggetto, dalla geometria

della ripresa e dai sistematismi

del sensore (Fig. 9).

Il vettore aereo dispone, oltre

che di sensori di rilevamento,

di sensori navigazionali per la

registrazione in tempo reale

del posizionamento e dell’assetto

della foto-camera: questo

consente l’esecuzione di voli

autonomi attraverso way-points

con georeferenziazione diretta

8 GEOmedia n°2-2016


FOCUS

(in modalità RTK o PPK) delle

riprese (fotogrammetria diretta).

In genere, però, la georeferenziazione

è effettuata ancora

con metodologia indiretta o

mista, cioè utilizzando anche

punti di controllo GCP

(GroundControlPoints, premisurati

topograficamente

sull’oggetto), per motivi sia di

costo che di affidabilità metrica.

I punti di controllo sono

materializzati con target o coincidono

con particolari naturali

ben riconoscibili e vengono

distribuiti sul contorno e al centro

del blocco di immagini, a

quote differenti. La qualità metrica

del blocco viene verificata

per confronto attraverso CP

(CheckPoints), scelti fra i GCP

e rideterminati poi anche tramite

il modello di immagini.

La compensazione del blocco è

effettuata con software di elaborazione

digitale (produttori noti

sono Agisoft, Pix4D, Menci…);

vengono calcolati i parametri

di orientamento esterno di ogni

immagine (risoluzione del noto

vertice di piramide), nonché i

residui stimati sui punti di controllo

(GCP).

La creazione del modello di

punti-oggetto (DSM), dalle

singole immagini sovrapposte,

è poi gestita mediante intersezione

spaziale di raggi omologhi

corrispondenti (restituzione

3D); importante per garantire

una buona precisione altimetrica

risulta in questo caso il rapporto

base della ripresa / quota

media relativa (Fig. 9).

Alla nuvola di punti, estratta

automaticamente e più adatta

alla descrizione di superfici semplici

e a basso dettaglio, si può

affiancare localmente, come per

la scansione laser, l’acquisizione

manuale di specifici punti

oggetto (tramite osservazione

monoscopica su più fotogrammi)

o ancora una restituzione

stereoscopica (per linee oggetto)

Fig. 8 - La correlazione digitale delle immagini (da GIM International).

utile su superfici pseudo-verticali

(facciate) o con dettaglio

complesso.

È possibile, insieme al calcolo

del blocco, effettuare l’autocalibrazione

della foto-camera,

correggere la distorsione radiale

dell’obbiettivo e produrre elaborati

raster di tipo ortografico.

Il rilevamento per immagini

utilizza nella fase di ripresa una

serie di rapporti prestabiliti (di

tipo sperimentale) fra la scala

media dell’immagine e il

successivo livello di dettaglio

(cioè la scala) della restituzione

(raster o vettoriale). La figura

10 riporta tali rapporti, insieme

ai corrispondenti livelli di precisione

conseguibili. La precisione

(s.q.m. o ripetibilità) è calcolata

sulla reiterazione dello stesso

processo di misura, mentre l’accuratezza

(o RMSe) origina dal

confronto del processo di misura

in atto con uno più affidabile;

in assenza di errori grossolani

e sistematici i due parametri

coinciderebbero.

Sicurezza della fase di volo

e ripresa

L’uso dei sistemi APR a pilotaggio

remoto è regolamentato

in Italia dall’ENAC, l’ente di

coordinamento dell’Aviazione

Civile; ad esso si rimanda per i

dovuti approfondimenti.

Un aspetto importante, e spesso

controverso, del Regolamento è

Fig. 9 - Schemi per la ripresa di immagini.

Fig. 10 - Rapporti di scala nel rilevamento per immagini.

GEOmedia n°2-2016 9


FOCUS

quello relativo all’interpretazione

delle condizioni di criticità di

una ripresa, che possono condizionare

o precludere le attività

operative sul campo.

La figura 11 riporta graficamente

le prescrizioni relative ai voli

professionali eseguiti di giorno e

con l’operatore in contatto visivo

continuo con il mezzo aereo

in volo (le cosiddette operazioni

VLOS).

Considerazioni finali

Le tecnologie innovative connesse

ai sistemi esperti di rilevamento

per scansione laser e per

immagini, gestibili autonomamente

da terra e dal cielo, stanno

rivoluzionando le tecniche

di acquisizione 3D, sempre più

integrate fra loro e orientate

alla ricostruzione spaziale, al

mondo telematico-informatico

e all’automazione.

Tutto ciò saprà offrire certamente

crescenti vantaggi operativi,

semplificando significativamente

le attività di misura

sul campo, ma non potrà mai

cancellare l’importanza di una

rigorosa formazione di base

unita all’esperienza professionale

degli addetti ai lavori.

BIBLIOGRAFIA

F. Chiabrando, A. Lingua e M. Piras -

Fotogrammetria diretta con RPAS - Geomedia,

1-2015

L. Colombo (2016) - Scansione laser terrestre e

sensori GNSS-RTK per la creazione di modelli

spaziali urbani - Geomedia, 1-2016

ENAC (2015) - Regolamento APR - Edizione

n.2 con emendamento n.1 - www.enac.gov.it

H. Hirschmueller (2011) - Semi-Global

Matching - Motivation, developments and applications

– Proceedings of Photogrammetric

Week 2011, Stuttgart - Wichmann

M. Kodde (2016) - Dense Image Matching -

GIM International, 1-2016

M. Naumann, G. Grenzdoerffer (2016)

- Reconstructing a church in 3D - GIM

International, 2-2016

R. Pacey, P. Fricker (2005) - Forward Motion

Compensation (FMC) - Photogrammetric

Engineering & Remote Sensing, November

2005

DronEzine - Magazine & books - www.dronezine.it

ABSTRACT

The article deals with the automatic survey techniques

which collect point clouds over the objects of interest.

It ranges from laser scanning to survey for images, that

is having meaningful awakenings through the proximity

aerial survey after the advent of Unmanned Aircraft

Systems.

Assessments regarding the aim of application, the

advantages-disadvantages of processes and the necessary

technological support about telematics and information

technology, complement the benchmarking.

Fig. 11 - Operazioni critiche e non

critiche nelle riprese VLOS con

SAPR (da DronEzine)

PAROLE CHIAVE

Nuvole di punti; laser scanning; rilevamento per

immagini; SAPR; ENAC

AUTORE

Luigi Colombo

Luigi.colombo@unibg.it

Università di Bergamo - DISA

Gruppo di Geomatica - Dalmine

• Rilievi batimetrici automatizzati

• Fotogrammetria delle sponde

• Acquisizione dati e immagini

• Mappatura parametri ambientali

• Attività di ricerca

Vendita – Noleggio - Servizi chiavi in mano, anche con strumentazione cliente

10 GEOmedia n°2-2016


FOCUS

Leica Viva GS16

Smartantenna GNSS con tecnologia RTKplus

e SmartLink

Tracciamento di tutti i segnali GNSS di oggi e

di domani

Antenna GNSS con auto-apprendimento grazie

a RTKplus

Efficiente in tutte le condizioni anche in ambienti

sfavorevoli

Leica Viva GS16 - Smartantenna GNSS ad auto-apprendimento

Experience 3D innovation

Leica Geosystems S.p.A.

surveying@leica-geosystems.com

www.leica-geosystems.it

GEOmedia n°2-2016 11


FOCUS

Raccontare la geologia

attraverso le story-telling

Roma dal 1820 al 2008

di Maria Pia Congi, Fabiana Console, Marco Pantaloni, Paolo Perini e Mauro Roma

In questo lavoro viene ricostruito,

attraverso l’uso degli strumenti

disponibili nella piattaforma

ArcGIS Online di ESRI®, un

percorso scientifico-culturale

che presenta i progressi di

ordine tecnico e conoscitivo della

geologia attraverso l’analisi della

cartografia geologica realizzata

nell’area romana a partire dal

1820 fino ad oggi.

Fig. 1 - Schema geologico di Roma realizzato da Giovanni Battista Brocchi tra il 1820 ed il 1830,

disegnato a mano a due colori.

La cartografia geologica

rappresenta una delle

più innovative “scoperte”

scientifiche del XIX secolo e la

stessa cartografia ha costituito

l’elemento di base per lo sviluppo

economico di molti paesi

europei ed extraeuropei (Pantaloni,

2014). In Italia, nel 1873,

viene istituito il Regio Ufficio

Geologico ed avviato il rilevamento

geologico sistematico del

territorio e la sua rappresentazione

cartografica.

In precedenza, però, alcuni

scienziati riportarono su carta i

risultati degli studi e dei rilievi

eseguiti in varie parti della penisola.

Tra i primi esempi va senza

dubbio ricordato lo Schema

geologico di Roma, realizzato da

Giovanni Battista Brocchi tra il

1820 e il 1830.

Dopo aver analizzato la produzione

scientifica e cartografica

realizzata da diversi Autori

nell’area romana, si è costruito

un progetto di Story telling cercando

di evidenziare i progressi

di ordine tecnico e conoscitivo,

inserendo i singoli lavori nel

contesto storico e culturale del

periodo.

La ricostruzione di questo interessante

percorso viene fatta

sfruttando le potenzialità of-

12 GEOmedia n°2-2016


FOCUS

ferte dai sistemi GIS attraverso

strumenti disponibili nella

piattaforma ESRI ® di ArcGIS

Online, tutto ciò con lo scopo

di valorizzare il contenuto scientifico-culturale

della cartografia

e contribuire alla conoscenza

dello sviluppo delle Scienze geologiche.

Il patrimonio bibliografico

e cartografico della Biblioteca

dell’ISPRA

La Biblioteca dell’ISPRA, specializzata

nelle Scienze della Terra

e nelle tematiche ambientali,

vanta nella sua ricca consistenza

l’intero patrimonio della Biblioteca

del Servizio Geologico

d’Italia. La biblioteca possiede,

attualmente, 3.300 testate di

periodici, 50.000 monografie

ed una base di dati, elaborata

ed arricchita costantemente dai

bibliotecari, di circa 60.000

contributi di periodici e di monografie.

Questo patrimonio è

contraddistinto da una cartoteca

caratterizzata da oltre 50.000

carte geologiche e geotematiche,

la cui copertura territoriale

interessa 170 paesi per un arco

temporale di 140 anni. Delle

15.000 carte italiane, circa un

migliaio sono di particolare

pregio e valore storico perché

prime edizioni oppure originali

d’autore acquerellate a mano di

cui molte inedite. Per esigenze

di conservazione, tutela e diffusione,

la Biblioteca ha realizzato

un progetto di riproduzione in

formato digitale di oltre 1.500

carte geologiche antiche.

Materiale cartografico

utilizzato

La più antica carta dell’area romana

con indicazioni di natura

geologica è lo Schema geologico

di Roma (Fig. 1) realizzato da

Giovanni Battista Brocchi tra

il 1820 ed il 1830, disegnato a

mano a due colori sulla riduzione

della “Nuova pianta di

Roma” eseguita nel 1773 da

Giovanni Battista Nolli.

Nell’unica copia manoscritta

esistente, conservata presso la

Biblioteca dell’ISPRA, si legge,

in basso a destra, l’indicazione

di responsabilità autografa,

mentre in alto a sinistra la nota

“La linea rossa che attraversa il

Gianicolo e il Vaticano indica

la creta del colle”. La scala della

carta, di 2000 palmi romani di

architettura è indicata in basso

a destra su un frammento architettonico.

L’altro elemento studiato è la

Carta geologica e idrografica della

Campagna Romana alla scala

1:210.000, realizzata in forma

manoscritta da Paolo Mantovani

nel 1870. A causa di alcuni

grossolani errori interpretativi,

quest’opera venne considerata

di importanza minore e quindi

dimenticata nelle ricostruzioni

storiche della geologia romana.

La conoscenza geologica dell’area

di Roma subisce un profondo

sviluppo subito dopo la

fondazione del R. Ufficio Geologico,

con l’inizio delle attività

di rilevamento sistematico del

territorio per la realizzazione

della Carta geologica d’Italia in

scala 1:100.000.

Proprio a cura del R. Ufficio

Geologico, nel 1888 viene

pubblicata la prima edizione

del Foglio geologico 150 Roma;

il fattore di scala adottato, pur

offrendo una importante chiave

di lettura per l’inquadramento

delle strutture geologiche a scala

regionale, non rende questo

prodotto idoneo ad attività di

caratterizzazione per la piani-

Fig. 2- In alto, panorama della

formazione nettunica (da Degli

Abbati, 1869); sullo sfondo, lo

stesso panorama, oggi.

GEOmedia n°2-2016 13


FOCUS

Fig. 4 - Pagina di ingresso della Story Map “Geologia di Roma (1820-2008)”;

a destra, pagina descrittiva della Carta geologica di Roma realizzata nel 1915 da Antonio Verri.

Fig. 3- In alto, la Via Portuense nel 1891, nell’area

dell’esplosione della polveriera di Vigna Pia; in basso,

la stessa strada, oggi.

ficazione territoriale urbana,

proprio nel periodo di massima

espansione urbana immediatamente

successivo al trasferimento

della capitale da Firenze

a Roma.

Nel 1893 Achille Tellini pubblica

una Carta geologica dei dintorni

di Roma: regione alla destra

del Fiume Tevere, in due fogli in

scala di dettaglio di 1:15.000.

Essendo limitata al solo settore

in destra del Fiume Tevere, la

carta pecca per l’incompletezza

della copertura territoriale.

Questa lacuna viene compensata

nel 1915, quando il Tenente

Generale Antonio Verri pubblica,

per conto del R. Ufficio

Geologico, la sua Carta geologica

di Roma, anche questa a scala

1:15.000. Questo è il primo

esempio di rappresentazione

geologica su una carta topografica

di dettaglio per l’intera

città che iniziava la sua moderna

e ampia urbanizzazione e, a

distanza di 100 anni dalla sua

pubblicazione, presenta ancora

oggi interessanti elementi di

attualità (Pantaloni, Luberti,

2015).

Il nostro studio ha poi analizzato

la seconda edizione del

Foglio geologico 150 Roma in

scala 1:100.000, realizzato dal

Servizio Geologico d’Italia nel

1967, sotto la direzione di E.

Beneo. La completezza dell’area

urbana però, essendo il “taglio”

della base IGM centrato sul

meridiano di Monte Mario, viene

completata con il limitrofo

Foglio geologico 149 Cerveteri,

pubblicato nel 1963.

Lo studio comparativo si conclude

con la nuova cartografia

geologica in scala 1:50.000

(Progetto CARG) del Servizio

Geologico d’Italia – ISPRA, con

il Foglio geologico 374 Roma,

pubblicato nel 2008 e realizzato

in collaborazione con l’Università

di Roma Tre.

Acquisizione dei dati cartografici

e georeferenziazione

La ricostruzione dell’evoluzione

delle conoscenze geologiche

della città di Roma tramite una

Story Map ha richiesto un meticoloso

lavoro preparatorio sui

documenti originali.

Dopo la fase di scansione del

documento cartaceo, effettuata

con risoluzione a 300 dpi, si è

proceduto ad un lavoro di accurata

georeferenziazione. Essendo

queste cartografie spesso prive

di un sistema di riferimento, la

georeferenziazione è stata effettuata

attraverso l’identificazione

di un discreto numero di punti

omologhi utilizzati come GCP

(Ground Control Point). A tal

fine sono stati individuati punti

di origine antropica facilmente

e sicuramente riconoscibili, essendo

legati a monumenti e/o

edifici storici che hanno svolto

la funzione di “caposaldo” topografico.

Per le carte di più

recente produzione, invece, l’operazione

di georeferenziazione

è stata facilitata grazie ai vertici

delle carte con coordinate note.

A tutti i file raster è stato assegnato

il sistema di riferimento

Web Mercator EPSG 3857.

14 GEOmedia n°2-2016


FOCUS

Acquisizione e rielaborazione

dei dati iconografici

Congiuntamente all’analisi della

cartografia geologica, si è sviluppata

una fase di raccolta di materiale

iconografico, analizzando

la vasta mole di pubblicazioni

scientifiche disponibili presso

la Biblioteca dell’ISPRA. L’arco

temporale coperto spazia dal

1869 con i paesaggi raffigurati

nel volume di Francesco Degli

Abbati, alle pubblicazioni di

Alessandro Portis (1893, 1896),

fino ad arrivare agli anni ’50

con i numerosi lavori di Gioacchino

De Angelis d’Ossat (ad

es., 1945, 1956). Questi lavori

contengono viste panoramiche,

schemi geologici e rappresentazioni

di sezioni che oggi non

sono più visibili o sono pesantemente

coperte dalle opere

civili (Fig. 2). È stato quindi

effettuato il recupero di queste

informazioni ubicando con

precisione il luogo dove furono

eseguite e confrontando, attraverso

operazioni di riposizionamento

grafico, il passato con

l’attuale (Fig. 3).

Il lavoro è proseguito attraverso

la raccolta di immagini

fotografiche tratte da pubblicazioni

o da archivi storici selezionando

quelle immagini che

offrono informazioni di natura

geologica-geomorfologica

dell’area urbana.

Metadati e servizi

Il Servizio Geologico d’Italia –

ISPRA, Organo Cartografico

dello Stato, ha da diversi anni

concentrato una parte delle

proprie attività verso la condivisione

delle informazioni verso

utenti esterni, in ottemperanza

alla direttiva INSPIRE. Tutte

le informazioni afferenti alle

Scienze della Terra sono state

quindi oggetto di analisi e di

una successiva trasformazione

verso gli standard maggiormente

diffusi. Questo processo di

“rinnovamento” è stato applicato

anche alla cartografia storica

che trova in questo progetto pilota

la sua prima applicazione.

Dopo la fase di georeferenziazione

il materiale cartografico

utilizzato è stato pubblicato sotto

forma di servizi standard di

tipo WMS (Web Map Service).

Per ciascun servizio sono stati

compilati i file di capability per

definire un primo metadato. In

particolare sono stati compilati

tutti i campi utili al reperimento

delle informazioni e dei contatti,

nonché quelli relativi ai

contenuti e alle funzioni abilitate

sul servizio, con particolare

attenzione alla licenza d’uso attribuita,

in questo caso creative

commons (cc-by-sa).

Una volta generati, i servizi di

mappa sono stati pubblicati

all’interno di ArcGIS Online,

che include una suite di applicazioni

che permettono la diffusione

di queste mappe al fine di

poterle condividere all’esterno.

Story Maps

La metodologia sviluppata

sfrutta le potenzialità offerte dai

sistemi GIS con l’impiego di

applicazioni WEB precostruite

nella piattaforma cloud ESRI ®

di ArcGIS Online attraverso alcuni

modelli di Story Maps.

Fig. 5- Story Map di confronto attraverso il template Swipe “spyglass” delle cartografie Foglio geologico 374 Roma

(2008) in sovrapposizione alla Carta geologica di Roma di Antonio Verri (1915) all’interno della lente.

GEOmedia n°2-2016 15


FOCUS

Lo story-telling, come ESRI ®

denomina questo metodo di

comunicazione, rappresenta

una forma di racconto tematico

attraverso una videonavigazione

supportata da informazioni

geo-grafiche, corredata

da immagini, da un testo descrittivo

o da altro contenuto

multimediale.

La Story Map realizzata nel

formato Map Journal permette

di visualizzare i caratteri geologici

dell’intera area romana o,

alternativamente, di esplorare

il dettaglio di una determinata

località, svelando l’evoluzione

scientifica geologico-ambientale,

ampliando quindi la conoscenza

del territorio anche

in ordine temporale. Le pagine

del Map Journal sono composte

da una mappa principale

e da un banner laterale che

raccoglie immagini e informazioni

descrittive sintetiche (Fig.

4). Grazie a diverse tipologie

di Story Maps, che comportano

una diversa metodologia di accesso

alle informazioni, si stanno

organizzando altre forme

di “racconto”, per un diverso

approccio alla divulgazione.

Ad esempio, il formato “Map

Tour” consente di organizzare

informazioni spot del territorio

attraverso una mappa di punti

opportunamente simboleggiati

ai quali sono collegate

informazioni alfanumeriche

o fotografiche, presenti nella

tabella degli attributi dei punti,

che l’utente può facilmente

consultare.

Il formato “Swipe”, invece,

permette di confrontare coppie

di carte verificandone le significative

differenze attraverso

degli artifici grafici disponibili

(scorrimento verticale o lente

d’ingrandimento) (Fig. 5).

Questa nuova forma di rappresentazione,

che si inserisce

perfettamente nell’evoluzione

della gestione della cartografia

storica fino ad arrivare al moderno

2.0, costituisce una interessante

e moderna soluzione

di comunicazione in grado di

fornire nuovi strumenti di consultazione

e conoscenza del territorio,

oltre che a permettere

la condivisione dei risultati con

un maggior numero di utenti

anche non esperti di software

GIS.

La visualizzazione del prodotto

realizzato è possibile all’indirizzo:

http://arcg.is/1FiXreQ

RIFERIMENTI BIBLIOGRAFICI

De Angelis d’Ossat G. (1945), “Aggiornamenti sulla carta geologica del Vaticano”,

Bollettino della Società Geologica Italiana, 64: 9-10.

De Angelis d’Ossat G. (1956), Geologia del Colle Palatino in Roma, Servizio

Geologico d’Italia, Libreria dello Stato, Roma, 95 pp.

Degli Abbati F. (1869), Del suolo fisico di Roma e suoi contorni: sua origine e sua

trasformazione, Tip. G. Migliaccio, Cosenza, 64 pp.

Pantaloni M. (2014), “15 giugno 1873, nasce il R. Ufficio Geologico. 140 anni di

geologia in Italia”, Geologia Tecnica & Ambientale, 1/2014: 37-44.

Pantaloni M., Congi M.P., Console F., Ercolani G., Severino F., Roma M. (2014),

“La cartografia geologica storica della Biblioteca ISPRA: dall’originale cartografico

alla visualizzazione su portale”, Atti 18a Conferenza Nazionale ASITA, 14 – 16

ottobre 2014, Firenze.

Pantaloni M., Luberti G.M. (2015), “Elementi di attualità della Carta geologica

di Roma di Antonio Verri nel centenario della sua pubblicazione”, Professione

Geologo, 44: 10-15.

Portis A. (1893), Contribuzioni alla storia fisica del bacino di Roma e studii sopra

l'estensione da darsi al Pliocene superiore, parti 4 e 5, Roux Frassati, Torino, 293

pp.

Portis A. (1896), Contribuzioni alla storia fisica del bacino di Roma e studii sopra

l'estensione da darsi al Pliocene superiore, parti 1, 2,e 3, L. Roux, Torino, 513 pp.

PAROLE CHIAVE

Cartografia geologica; Storia della geologia; Geologia

urbana; Roma

ABSTRACT

Geological mapping is one of the most innovative "discoveries" (in

Earth Sciences development) of the 19th century and it represented

the basic knowledge for the economic exploitation of many European

countries. In 1873, with the foundation of the Regio Ufficio Geologico,

started the systematic geological survey of the Italian territory and

its cartographic representation. In the previous period some scientists

reported on scientific publications the results of their studies and surveys

carried out in different parts of the peninsula. Undoubtedly, the

early example is the “Geological scheme of Rome”, realized by Giovanni

Battista Brocchi between 1820 and 1830. The analysis of scientific

and cartographic production carried out by several authors in the

urban area of Rome and its surroundings permitted us to built a Story

telling project finalized to highlight the progress of geological knowledge,

placing the individual works in the historical and cultural context

of the period. This reconstruction path is done by exploiting the potential

of ESRI ArcGIS Online tools, with the purpose of enhancing the

scientific and cultural content of the geological cartography contributing

to the knowledge of Geological Sciences development.

AUTORE

Maria Pia Congi,

Marco Pantaloni, marco.pantaloni@isprambiente.it

Paolo Perini, Mauro Roma

Servizio Geologico d'Italia

Fabiana Console - Biblioteca

Istituto Superiore per la Protezione e la Ricerca

Ambientale (ISPRA) - via V. Brancati, 48 - 00144 Roma.

16 GEOmedia n°2-2016


FOCUS

GEOmedia n°2-2016 17


REPORT

Una infrastruttura geografica europea

il Progetto E.L.F. (European Location Framework)

di Stefano Campus, Patrizia Nazio e Gianbartolomeo Siletto

L’European Location Framework è

un’infrastruttura tecnica che consentirà

di fornire vari servizi online per

l’individuazione, l’accesso e l’utilizzo di

dati geografici di riferimento ufficiali di

tutta Europa, attraverso un unico punto

di accesso. La piattaforma E.L.F. si basa

sul concetto di servizi in cascata che

“raccolgono” i dati provenienti dai servizi

nazionali conformi alla Direttiva IINSPIRE

e li rendono disponibili come un unico

servizio paneuropeo.

In questa nota, verrà descritto il Progetto

ed il contributo di Regione Piemonte.

Fig. 1 – Schema dei contenuti della piattaforma E.L.F.

Entro il Programma Competitività

e Innovazione

(CIP) e il Programma di

sostegno alle politiche delle Tecnologie

dell’Informazione e Comunicazione

(ICT PSP) dell’Unione

Europea è stato finanziato

il Progetto European Location

Framework (E.L.F.) con lo scopo

di realizzare un’infrastruttura

tecnica fondata su soluzioni di

interoperabilità in grado di offrire

dei dati e servizi geo-spaziali.

Il Progetto (www.elfproject.eu)

ha una durata di 36 mesi (marzo

2013-marzo 2016) e vede tra i

suoi 30 partner la maggior parte

degli Enti Cartografici Nazionali

(National Mapping and Cadastral

Agencies – NMCAs) degli stati

membri dell’Unione, partner

tecnologici e stakeholder, come

ad esempio OGC. In particolare

tra i suoi 30 partner, la metà

sono NMCAs che forniscono

l’accesso ai propri dati nazionali;

il resto sono esperti di dominio

nella fornitura di servizi web e di

strumenti per il trattamento di

dati spaziali, università e sviluppatori

di applicazioni.

Obbiettivi del progetto sono:

4realizzare un’infrastruttura

fondata su soluzioni cloud di

interoperabilità per le pubbliche

amministrazioni europee,

in grado di offrire dati e servizi

geo-spaziali affidabili (conformi

alla Direttiva INSPIRE) ed

armonizzati, giuridicamente e

tecnicamente interoperabili;

4promuovere un utilizzo più

ampio dei dati territoriali da

parte del settore pubblico e

privato e dei cittadini, anche in

linea con la Direttiva europea

sul riutilizzo dell’informazione

del settore pubblico (Direttiva

PSI);

4promuovere lo sviluppo di

servizi innovativi a valore aggiunto.

Attraverso l’esposizione di dati e

servizi, le informazioni geografiche

saranno aggiornate, ufficiali,

interoperabili, armonizzate a

livello transfrontaliero e paneuropeo

e di riferimento per l’uso

da parte del pubblico europeo

(cittadini ed imprese).

Le attività prevedono specifiche

sulla produzione di dati e servizi,

sviluppo di una piattaforma di

pubblicazione cloud open source,

tool per la trasformazione, verifica,

generalizzazione ed armonizazione

dei dati.

Particolare attenzione è posta

al contesto giuridico entro cui

si inseriranno i dati e i servizi

18 GEOmedia n°2-2016


REPORT

pubblicati dalle Autorità Nazionali

nella piattaforma E.L.F.

Questo per assicurare che i

prodotti siano disponibili anche

dopo il periodo di esecuzione

del Progetto. Inoltre non

dovranno esserci problemi di

interpretazione delle politiche

di diffusione che ogni stato

membro applica ai propri

prodotti, in termini di licenze,

pagamenti di oneri ecc.

Regione Piemonte è l’unico

partner del consorzio che pur

producendo dati geografici di

base non è un ente cartografico

nazionale.

Struttura del Progetto

E.L.F. è un progetto grande

e complesso che richiede un

lavoro coordinato di 30 partner

del consorzio; a tal fine è suddiviso

in 9 sotto-progetti, Work

Packages (WP). Ogni pacchetto

di lavoro è descritto di seguito,

indicando obbiettivi e prodotti.

WP1 Gestione

Questo pacchetto di lavoro

riguarda la gestione amministrativa

e finanziaria del progetto.

In particolare si occupa di: coordinare

e verificare che la produzione

degli elaborati avvenga nei

tempi previsti ed entro il budget

approvato, coerentemente con

il contratto siglato con la Commissione;

garantire la corretta ed

efficiente gestione e il coordinamento

dei partner del progetto e

del loro piano di lavoro; fornire

periodicamente valutazioni e

feedback ai partner; fornire report

finanziari e amministrativi;

esaminare e valutare i risultati

del progetto.

WP2 Specifiche dati

Questo pacchetto di lavoro prevede

di fornire le specifiche per i

dati del progetto, sulla base delle

specifiche INSPIRE esistenti;

fornire le specifiche per la manutenzione

dei dati e le specifiche

Fig. 2 – Schema dei flussi di alimentazione della piattaforma E.L.F.

per i geo-tools; fornire le specifiche

per i prodotti e i servizi forniti

nella piattaforma E.L.F.

WP3 Contenuto di servizi e dati

Questo pacchetto di lavoro

prevede di fornire i dati tramite

servizi nazionali (basati sulle

specifiche di progetto); elaborare

i servizi di progetto E.L.F. in

cascata sulla base dei servizi nazionali;

fornire una piattaforma

cloud open source per i servizi.

WP4 Implementazione dei

geo-tools E.L.F.

Questo pacchetto di lavoro

prevede di fornire dei geo-tools

per la trasformazione, la verifica

della qualità, la generalizzazione,

l’armonizzazione ai confini, la

visualizzazione, il rilevamento e

la ricerca dei dati.

WP5 Piattaforma dei servizi

cloud

Questo pacchetto di lavoro

prevede di offrire un servizio

altamente scalabile, immediatamente

utilizzabile dagli sviluppatori

di applicazioni e dagli utenti

finali, sia che utilizzino applicazioni

GIS desktop, web o mobili;

raccogliere i dati dalle diverse

fonti (harvesting); documentare

l’architettura tecnica della piattaforma

E.L.F. come attuata dal

progetto.

WP6 Contenuto di soggetti terzi

(data provider) ed esigenze degli

utenti

Questo pacchetto di lavoro prevede

di rilevare la disponibilità di

dati tematici provenienti da fonti

diverse e renderli disponibili per

lo sviluppo di servizi a valore

aggiunto per gli utilizzatori; incrementare

l’utilizzo di dati autoritativi

ed ufficiali; incrementare

l’integrazione tra i servizi

di soggetti terzi e derivanti dalla

cooperazione transfrontaliera.

WP7 Istanze dei servizi

Questo pacchetto di lavoro prevede

di sviluppare ed estendere le

applicazioni che fanno uso della

piattaforma E.L.F. e dei dati autoritativi,

sia da parte dei membri

del Consorzio sia da parte di

soggetti terzi; in generale, stimolare

l’innovazione attraverso l’uso

della piattaforma E.L.F.

GEOmedia n°2-2016 19


REPORT

WP8 Disseminazione

Questo pacchetto di lavoro prevede

di promuovere la conoscenza

del progetto tra i portatori di

interesse; impegnarsi ad aumentare

la diffusione dei risultati del

progetto; creare e implementare

un piano strategico di comunicazione

per il progetto; partecipare

ad azioni focalizzate, seminari

tematici e a gruppi di interesse

specifici, per favorire l’utilizzo

sostenibile della piattaforma

anche oltre il periodo di realizzazione

del progetto.

WP9 Accesso sostenibile ed utilizzo

dei servizi E.L.F.

Questo pacchetto di lavoro

prevede di creare regole di utilizzo

della piattaforma che siano

giuridicamente sostenibili e

garantire che i prodotti E.L.F.

siano resi disponibili per il loro

uso e ri-uso anche dopo il periodo

di realizzazione del progetto;

assicurare che la politica definita

dal progetto sia coerente con la

legislazione e la politica europea,

in particolare con le regole per

lo scambio di dati e per i servizi

previsti dalle Direttive INSPIRE

e PSI; incrementare la mole di

dati liberamente disponibili,

incoraggiando l’istituzione di accordi

quadro, licenze aperte e tariffe

minime o senza alcun costo;

fornire i termini di riferimento

elaborati dalla piattaforma

E.L.F.; mettere in atto un piano

strategico di comunicazione

verso i portatori di interesse per

favorire l’accesso sostenibile alla

piattaforma oltre il periodo di

realizzazione del progetto.

Prodotti e servizi

La piattaforma E.L.F. fornirà

l’accesso a una serie di dataset regionali

e nazionali supportato da

un certo numero di servizi:

4E.L.F. Basemap service.

Si configura come uno specifico

servizio di visualizzazione

multi-scala da utilizzare

come sfondo di riferimento

su cui rappresentare atri dati.

È realizzato a partire da dati

esistenti a livello globale

(paneuropeo) e regionale di

EuroGeographics e da dati

nazionali;

4E.L.F. Geo Product Finder.

È un servizio per la localizzazione

dei dati sulla piattaforma

e delle licenze e dei

contratti di utilizzo ad essi

associati;

4E.L.F. View and Download

Services. Sono i servizi di accesso

a dataset e mappe contenuti

nell’infrastruttura dati di

E.L.F. Permette di visualizzare

e scaricare attraverso le più comuni

interfacce utilizzate da

applicazioni web e mobili;

4E.L.F. Geolocator. È un modulo

che fornirà un servizio di

geocodifica in base agli indirizzi,

nomi geografici (EGN)

e confini amministrativi.

I servizi sono implementati entro

il software open source Oskari

(www.oskari.org), il cui sviluppo

è coordinato da National Land

Survey of Finland e promosso

entro il Progetto E.L.F.

Oskari è una piattaforma open

per esplorare, condividere ed

analizzare informazioni geografiche

a partire da risorse dati

distribuite.

La Figura 1 illustra schematicamente

il livello multiscala dei

dataset presenti a partire da un

livello di dettaglio (LoD) globale

(paneuropeo), regionale (multinazionale)

e nazionale e quali

servizi sono implementati per

l’accesso ai dataset ed ai servizi.

La Figura 2, invece, illustra tutto

il processo di acquisizione, normalizzazione,

armonizzazione e

controllo di qualità, vestizione

ed esposizione di dati e servizi.

Appare chiaro allora che grazie

agli strumenti messi a disposizione

dai partner entro il consorzio

Fig. 3 – INSPIRE Data Model Tool, sviluppato dallo

Spatial DB Group del Politecnico di Milano (http://

spatialdbgroup.polimi.it).

(geo-tools) è possibile alimentare

la piattaforma con dati (autoritativi)

di Servizi Cartografici

nazionali o di terze parti.

Eseguendo le operazioni di trasformazione

dallo schema dati

di partenza a quello indicato

nelle Data Specifications E.L.F./

INSPIRE, omogeneizzazione,

armonizzazione e verifica di

20 GEOmedia n°2-2016


REPORT

qualità è possibile alimentare la

piattaforma E.L.F. o attraverso

Oskari oppure un’apposita istanza

E.L.F. entro ArcGIS online.

I dati e i servizi saranno via via

disponibili al pubblico attraverso

la piattaforma E.L.F.

www.locationframework.eu.

Licenze sui dati e

servizi esposti

Il WP9 è espressamente dedicato

alla definizione di un modello di

business e alla redazione di specifiche

licenze e contratti, in virtù

dei quali un’Autorità nazionale o

un Ente terzo che fornisce dati e

servizi alla piattaforma si tutela

rispetto alle proprie politiche di

diffusione.

Sono previsti specifici contratti

da sottoscrivere tra l’Ente fornitore

dei dati e servizi ed il gestore

della piattaforma E.L.F., che è

stato individuato in EuroGeographics,

associazione, partner

del Progetto, che rappresenta e

raggruppa le NMCAs europee.

Viene anche immaginata la

possibilità che a fornire dati e

servizi non sia una NMCA; in

questo caso sono previsti tre tipi

di situazioni che danno origine

a differenti rapporti contrattuali:

1) il data provider fornisce direttamente

i dati ed i servizi ad

E.L.F. e regola il proprio rapporto

contrattuale direttamente con

il proprietario della piattaforma

E.L.F., cioè EuroGeographics,

2) il data provider fornisce i

dati ed i servizi direttamente ad

E.L.F., ma i rapporti contrattuali

sono tra la NMCA (che “rappresenta”

così il data provider)

ed EuroGeographcs. Tra il data

provider e la NMCA esistono

poi rapporti contrattuali; 3) il

data provider fornisce i dati alla

NMCA che li espone sulla piattaforma

E.L.F.; in questo caso

il rapporto contrattuale è tra la

NMCA e il proprietario della

piattaforma E.L.F., cioè EuroGeographics.

Tali modelli coprono

Fig. 4 – WMS delle classi Hydrography su ortofoto Regione Piemonte 2010.

sicuramente tutti i possibili casi

di forniture di dati da parte di

soggetti che non sono autorità

cartografiche nazionali, e ben

si potrebbero adattare alla specificità

italiana, nella quale, ad

esempio, le Regioni sono sì produttori

di temi geografiche ma

non sono autorità cartografiche

nazionali.

Il contributo di

Regione Piemonte

Regione Piemonte partecipa al

Progetto E.L.F. con il Settore

Sistema informativo territoriale

e ambientale e fin dall’inizio del

Progetto è emersa una grande

differenza organizzativa e di

competenze cartografiche rispetto

agli altri Stati. Infatti, nella

maggior parte dei casi, nei paesi

europei esiste un solo ente nazionale

che si occupa di cartografia e

spesso anche di catasto. La realtà

italiana invece vede cinque enti

cartografici dello Stato assieme

ai quali, come già ricordato,

sono da considerare almeno le

Regioni che producono cartografia

di base generalmente ad una

scala locale che va da 1:5000 a

1:10:000. Pertanto, Regione Piemonte,

non avendone la competenza.,

non ha potuto operare in

termini di armonizzazione geometrica

ai confini (edge matching)

con autorità nazionali transfrontaliere

(segnatamente la Francia),

poiché si richiede di esporre sulla

piattaforma E.L.F. dati e servizi

autoritativi. Si è quindi operato

per creare dataset e servizi

conformi alle specifiche E.L.F./

INSPIRE a partire dal Database

Topografico regionale, basato

sulle specifiche tecniche di cui al

DM 11 novembre 2011 (Regole

tecniche per la definizione delle

specifiche di contenuto dei database

geotopografici), cosiddetto

National Core. Sono state trasformate

le classi relative all’idrografia

dalla struttura National Core

alla struttura E.L.F./INSPIRE e

creato quindi sia nuovi dataset sia

servizi WMS e WFS conformi

alle specifiche E.L.F./INSPIRE.

È stata eseguita la mappatura

concettuale utilizzando i template

in formato xml forniti dal Progetto

e facendo riferimento alle

definizioni contenute nel relativo

Data Specification di INSPIRE.

La mappatura è stata realizzata

ricercando all’interno della base

dati regionale, strutturata secondo

National Core, la coerenza e

corrispondenza tra classi NC e

feature E.L.F.

GEOmedia n°2-2016 21


REPORT

È stato più volte necessario

far convergere oggetti e valori

coerenti e collegati tra loro in

differenti classi NC all’interno di

un’unica feature ELF.

Lo strumento utilizzato per

procedere alla strutturazione dei

dati, oltre ai documenti ufficiali

del progetto, è stato il INSPIRE

Data Model Tool, sviluppato

dallo Spatial DB Group del

Politecnico di Milano (http://

spatialdbgroup.polimi.it), che

ha lo scopo di facilitare l’esplorazione

del modello dati INSPIRE

(al quale il progetto E.L.F. è

strettamente legato) e renderne

esplicite le relazioni.

Tale strumento, attualmente ancora

in fase di sperimentazione

da parte di un gruppo di lavoro,

permette il mapping tra due specifiche

concettuali per poi derivarne

il relativo modello fisico.

Il software contiene al proprio

interno l’intero modello ed

utilizzando le caratteristiche

proprie di ogni oggetto, feature,

relazione od associazione che sia,

guida l’utente attraverso un più

ristretto panorama di scelte, indirizzandone

il lavoro.

La trasformazione del modello

fisico delle classi dell’Idrografia

da National Core a E.L.F./

INSPIRE è stata eseguita in ambiente

FME © .

Una volta eseguita la trasformazione,

le attività successive

riguardano la creazione di servizi

OGC di esposizione delle classi

Idrografia secondo le specifiche

E.L.F./INSPIRE.

Sono stati generati: un servizio

WMS, un WFS e un WMTS in

cascading sul WMS con applicazione

di SLD esterno.

Tali servizi sono in via di integrazione

nella piattaforma E.L.F.

e concorrono alla definizione

dell’idrografia a livello europeo.

Conclusioni

E.L.F. implementa l’infrastruttura

di dati spaziali europea

(INSPIRE) a livello transfrontaliero

ed europeo, rendendo

interoperabili e di facile accesso

i dati di riferimento nazionali ed

altri dati. La piattaforma diventa

così una risorsa per lo sviluppo

di applicazioni transfrontaliere,

incluse le esigenze di reporting da

parte della UE.

Inoltre i dati nazionali acquistano

un valore aggiunto poiché

sono accessibili tramite un unico

servizio europeo che garantisce la

conformità e la omogeneità.

Gli utenti di E.L.F. accederanno

così ai servizi gestiti da NMCAs

ed infrastrutture spaziali nazionali

tramite un unico punto

di accesso, mentre le NMCAs

manterranno il pieno controllo

di come i loro dati e servizi sono

concessi in licenza e utilizzati.

Ringraziamenti

Lavoro finanziato dal Programma

Competitività e Innovazione

(CIP) e dal Programma di sostegno

alle politiche delle Tecnologie

dell’Informazione e Comunicazione

(ICT PSP) dell’Unione

Europea nel Progetto European

Location Framework (Grant n.

325140).

Si ringrazia il C.S.I.-Piemonte,

partner tecnologico di Regione

Piemonte nel campo della IT,

per il contributo nelle attività

previste nel Progetto E.L.F.

NOTA REDAZIONE

Il Presente articolo è stato presentato

all 19° Conferenza ASITA

2015 (Lecco). Si ringrazia la segreteria

organizzativa per la cortesia e

disponibilità dimostrata. Inoltre si augura la migliore

riuscita per la 20° Conferenza ASITA 2016 (Cagliari,

8-9-10 Novembre 2016).

PAROLE CHIAVE

ELF; dati geospaziali; infrastruttura geografica;

interoperabilità

ABSTRACT

Within the Competitiveness and Innovation Framework

Programme (CIP) and the Information and

Communication Technologies Policy Support Programme

(ICT-PSP) of European Union was funded

European Location Framework Project (E.L.F.) with

the aim of creating a spatial data infrastructure framework

based on interoperability solutions, able to offer

data and geo-spatial services.

The Project (www.elfproject.eu) has a duration of

36 months (March 2013-March 2016) and includes

among its 30 partners most of the National Mapping

Agencies of the member states and technology partners.

The European Location Framework is a technical

infrastructure that will deliver various online services

for locating, accessing and using reference data from

across Europe - via a single point of access. The E.L.F.

platform is built on the concept of cascading services

which harvests data from national INSPIRE services

and makes it available as a single pan European service.

This paper describes the Project and the contribution

of the Piedmont Region.

AUTORE

Stefano Campus

stefano.campus@regione.piemonte.it

Patrizia Nazio

Gianbartolomeo Siletto

Regione Piemonte

Settore Sistema informativo

territoriale e ambientale

cartografico@regione.piemonte.it

22 GEOmedia n°2-2016


REPORT

GEOmedia n°2-2016 23


REPORT

Il rilievo con drone nei centri storici

di Zaira Baglione Pagliaroli

Nell’ambito di un Progetto di Ricerca Nazionale, l’Università degli Studi

dell’Aquila ha avviato l’impiego della tecnologia SAPR in alcune zone

colpite dal sisma del 2009. Un’indagine sinergica per evidenziare le

criticità e monitorare lo stato degli edifici in ottica di prevenzione delle

emergenze e di innovazione delle metodologie di telerilevamento.

La testimonianza della coordinatrice Prof. Donatella Dominici che

descrive i risultati della ricognizione eseguita con il multirotore nel

centro storico aquilano.

La fotogrammetria è stata

letteralmente rivoluzionata

con l’avvento della

tecnologia SAPR. In quest’ultimo

decennio si è affermata, di

fatto, una nuova cultura per la

gestione delle problematiche

territoriali e ambientali.

Sicuramente la possibilità di

eseguire rilievi attraverso i droni,

soprattutto per il monitoraggio

del territorio in situazioni di

emergenza, rappresenta una

conquista importante ai fini

non solo della stima dei danni

causati da calamità naturali, ma

anche nell’ottica dell’attività di

prevenzione.

Nei centri storici aggregati è

sempre esistita un’oggettiva

difficoltà nella raccolta dei dati

necessari per determinare gli

interventi per la messa in sicurezza

di strutture ed edifici coinvolti da

eventi catastrofici. Fino a poco

tempo fa l’utilizzo del laser scanner

ha rappresentato l’unica possibilità

per fornire, in tempi celeri e

con alti standard qualitativi,

il quadro di deformazione

delle strutture prese in esame,

consentendone valutazioni mirate

e precise. Tale strumento, non

solo negli ambienti di ricerca,

ha permesso la ricostruzione

di modelli tridimensionali

attraverso la registrazione di

scansioni singole o multiple. I

modelli tridimensionali, risultati

dalla scansione, hanno formato

una banca dati completa e

di altissima precisione, che

opportunamente impiegata ha

consentito all’operatore di estrarre

informazioni geometriche,

morfologiche e relative alla

densità dei materiali e colorazione

degli stessi. La metodologia di

rilievo con laser scanner, oltre

che in presenza di strutture

particolari come i versanti in

roccia o di materiali di riporto, è

facilmente applicata anche nelle

aree coinvolte dal sisma. Negli

anni si sono però incontrate delle

difficoltà per quanto concerne

la raccolta dati in situazioni di

alta aderenza dei piani strutturali,

fatto che ha reso non totalmente

adeguata la strumentazione da

terra. Tuttavia, nell’esperienza

fatta nel capoluogo abruzzese

tragicamente colpito dal terremoto

del 2009, con l’introduzione della

nuova metodologia di rilievo

tramite drone è stato possibile

per gli operatori raggiungere zone

e punti inaccessibili, ottenendo

risultati di maggiore dettaglio a

completamento e integrazione

delle informazioni raccolte

con gli strumenti topografici

tradizionali. La peculiarità del

rilievo da drone è quella di

produrre una rappresentazione

fotografica in un periodo storico

preciso, ed eventualmente ripeterla

per monitorare l’evoluzione o

l’arresto dei dissesti strutturali

e dare così modo ai soggetti

competenti di eseguire interventi

di restauro puntualmente. Il

valore aggiunto dei SAPR è

indubbiamente rappresentato dal

fatto che si è in grado di superare

il limite di raggiungibilità delle

zone terremotate e riportare il

rilievo completo e dall’alto di

tutta l’area considerata, non

solo delle parti sottostanti

dell’edificio. A questo proposito

l’agglomerato urbano rilevato

con il laser scanner è confinato

alla sola forma e dimensione,

mentre grazie all’utilizzo della

nuvola di punti generata dalla

24 GEOmedia n°2-2016


REPORT

fotogrammetria da UAV si

ottengono punti già correlati

con gli scatti effettuati. Pertanto

la produzione della nuvola di

punti e delle ortofoto avviene

all’interno dello stesso processo

e utilizzando la stessa fonte del

dato. Si può dire, in maniera

semplificata, che rilievo fatto solo

con laser scanner è come avere

solo una pentola, contrariamente

al risultato della ripresa eseguita

con il drone, unitamente al laser

scanner, che è come una pentola

completa di coperchio. Quindi

questo determina una completa

rielaborazione 3D, dell’ortofoto e

di tutti i prospetti che dettagliano

la situazione effettiva. Inoltre,

se si considera che nel caso

dei modelli multirotore con la

funzione di hovering è consentito

lo stazionamento a quota costante

in più punti, si comprende come

queste opportunità allarghino

il panorama conoscitivo

dell’agglomerato di edifici

analizzati. In buona sostanza

si arriva a una ricostruzione

3D estremamente fedele che

rispecchia la situazione reale sul

territorio, condizione ottimale e

necessaria per la predisposizione

di interventi di messa in sicurezza

e ripristino delle strutture

danneggiate. Tutto questo

azzerando eventuali rischi per

l’operatore incaricato e favorendo

un lavoro accurato per stabilire

l’entità di danneggiamento ai fini

di una totale ricostruzione o mera

riqualificazione.

In materia di Geomatica e

tecnologia UAV, un contributo

degno di nota lo riporta Donatella

Dominici, docente dell’Università

degli Studi dell’Aquila presso il

Dipartimento di Ingegneria Civile,

Edile-Architettura e Ambientale

(DICEAA). La Professoressa

Dominici ci descrive l’esperienza

maturata come coordinatrice del

progetto di topografia e APR

nel centro storico aquilano.

La ricerca è stata avviata nel

2011 e finanziata dal Miur con

l’obiettivo di definire le strategie

innovative per il telerilevamento

e mappatura webgis del rischio

in tempo reale e la prevenzione

del disastro ambientale. Diretta a

livello nazionale dal Prof. Raffaele

Santamaria dell’Università degli

Studi di Napoli Parthenope, la

ricerca ha raggruppato circa 10

unità locali, in particolare l’unita

dell’Aquila si è impegnata nella

valutazione dell’impatto del

sisma nel centro storico, nella

Piazza Palazzo e nella Basilica

Collemaggio e anche in altri

comuni limitrofi.

Prof. Dominici: “Si è trattato di

un lavoro sinergico per testare

i vantaggi dell’impiego degli

APR al fine di monitorare lo

stato delle strutture e valutarne

la riqualificazione. Con l’ausilio

di Flytop abbiamo svolto diversi

voli per affinare la metodologia

fotogrammetrica. A questo scopo

è stato molto utile l’impiego

dell’esacottero FlyNovex, quale

autorizzato ENAC che è stato

equipaggiato con fotocamera

24Mpx a focale 16 mm, che ci ha

permesso di ispezionare le facciate

degli edifici situati nel comune di

Raiano”.

Z. Baglione: Come in altri ambiti

di rilievo da APR anche in

questo caso è fondamentale la

pianificazione a terra del volo e

il lavoro di post-produzione per

una corretta interpretazione dei

dati acquisiti in volo. Quali i passi

compiuti prima del volo vero e

proprio?

Prof. Dominici: Il drone

è un mezzo per svolgere

l’aerofotogrammetria in

condizioni particolari o di

emergenza. Prima di iniziare la

ricognizione è indispensabile

eseguire un sopralluogo per

ricostruire i possibili ostacoli,

pianificare i punti d’appoggio

e successivamente elaborare i

dati con appositi software di

restituzione per ottenere un

overlap almeno del 70% delle

strisciate. Questo progetto ha

rappresentato una sfida perché,

per la prima volta, in Italia un

progetto di ricerca ha avuto

come oggetto un centro storico

cittadino. La fotogrammetria da

UAV ha il vantaggio di integrarsi

perfettamente con le altre tecniche

di rilievo, inoltre l’applicazione

di sensori diversi a seconda delle

esigenze del momento può

portare ad ottenere fotogrammi

migliori e quindi prodotti finali di

qualità ancora più alta. Nel futuro

questa esperienza potrebbe essere

riproposta per rilanciare l’edilizia

nazionale e soprattutto dovrebbe

essere estesa coinvolgendo ancora

di più le istituzioni.

PAROLE CHIAVE

Droni; SAPR; APR; monitoraggio; sisma; Aquila;

rilievi ambientali; aerofotogrammetria; centri urbani;

topografia; cartografia; architettura; ricerca;

innovazione; prevenzione

ABSTRACT

The survey with an UAV in the city centre for a research

project of the University of L'Aquila has been started the

use of UAV technology in some areas damaged by the

earthquake of 2009. A synergistic survey to highlight the

criticality and monitor the state of the buildings in order to

prevent the emergencies and innovate the remote sensing

methodologies. The testimony of the project coordinator,

Prof. Donatella Dominici, describing the results of the survey

carried out with the multicopter

AUTORE

Zaira Baglione Pagliaroli

zaira@flytop.it

GEOmedia n°2-2016 25


REPORT

L’esperienza immersiva di «QUIRINALE 3D VR»

La ricostruzione 3D in realtà virtuale del

Piano Nobile del Palazzo del Quirinale

di Federico Capriuoli,

Davide Colangelo,

Luca Curto, Diego Fileri,

Annibale Guariglia,

Vito Mario Sansanelli

e Paola Santarsiero

La soluzione tecnologica

è stata sviluppata dalle

società italiane Geocart e

Digital Lighthouse per la

valorizzazione del Palazzo

Fig. 1 – Schermata principale del software QUIRINALE 3D VR.

del Quirinale attraverso le

più innovative tecniche del

Digital Heritage. Il progetto,

partendo dall'integrazione

tra metodologie esistenti

e processi inediti per

la digitalizzazione del

patrimonio, ha generato

un risultato unico sul

piano del coinvolgimento e

dell'esperienza di fruizione

da parte dell'utente.

L’

innovazione tecnologica

gioca un ruolo fondamentale

nella ricerca e

nella sperimentazione di nuovi

linguaggi e modelli per la conservazione

e la valorizzazione del

patrimonio culturale. Il settore

del Digital Heritage, che negli

ultimi anni sta conoscendo un'interessante

fase di sviluppo, attinge

costantemente a risorse tecnologiche,

metodologiche e creative in

grado di tracciare percorsi ancora

inesplorati per vivere e riscoprire

edifici storici e opere artistiche.

In questo senso, QUIRINALE

3D VR rappresenta un esempio

concreto di come, partendo

dall'integrazione tra tecniche

esistenti e processi inediti per la

digitalizzazione del patrimonio,

si possa realizzare uno strumento

di fruizione culturale capace di

rendere accessibile al cittadino,

in modo efficace e coinvolgente,

beni di inestimabile valore.

Il progetto di ricostruzione

3D e navigazione virtuale

del Palazzo del Quirinale

QUIRINALE 3D VR è un software

per la navigazione virtuale

del Piano Nobile del Palazzo del

Quirinale, risultato di un importante

progetto di ricostruzione

3D realizzato dalla società di ingegneria

italiana Geocart S.p.A.,

attraverso la sua controllata per lo

sviluppo di soluzioni digitali

Digital Lighthouse S.r.l. (Fig. 1).

La soluzione è stata implementata

adottando le più innovative

tecnologie nel rispetto dei recenti

standard della digitalizzazione

3D e della navigazione virtuale

in modalità immersiva. La ricostruzione

digitale è stata realizzata

grazie ai rilievi effettuati con laser

scanner e fotocamere ad alta riso-

26 GEOmedia n°2-2016

Fig. 2 – Pianta e modello wireframe del Piano Nobile.


REPORT

luzione e con avanzate tecniche di

computer grafica applicate ai dati

rilevati (Fig. 2).

Si differenzia rispetto a quelle già

disponibili in quanto permette di

superare i limiti fisici e tecnici imposti

dalle metodologie e tecnologie

più comunemente utilizzate.

L’utente, infatti, può decidere

con maggiore autonomia quali

ambienti esplorare e su quali

particolari concentrare la propria

attenzione, potendo compiere

liberamente azioni nello spazio

tridimensionale:

• posizionarsi in un qualsiasi punto

delle aree rilevate;

• scegliere la prospettiva di osservazione

a lui più congeniale;

• interagire con gli oggetti e le

opere d'arte presenti nelle stanze;

• accedere a contenuti multimediali

e interattivi di approfondimento.

L’integrazione di immagini e modelli

tridimensionali ad altissima

risoluzione (Fig. 3), realizzata con

tecniche e metodologie appositamente

studiate e implementate da

Geocart e Digital Lighthouse, garantiscono

un’esperienza realistica

di navigazione che consente al

visitatore di visualizzare qualsiasi

dettaglio degli ambienti e degli

oggetti e, cosa non possibile nella

realtà, di ammirare da vicino soffitti

e lampadari.

La fruizione degli ambienti del

Quirinale è assicurata attraverso

una duplice modalità: l’utente

può effettuare la navigazione virtuale

3D attraverso pc desktop o

mediante esperienza immersiva,

nel caso in cui disponga dei visori

di ultima generazione Oculus

Rift. Il risultato finale è un'esperienza

di navigazione immersiva

di grande suggestione.

Il software QUIRINALE 3D VR

è reso disponibile attraverso il sito

web istituzionale del Palazzo del

Quirinale (palazzo.quirinale.it).

L'installazione dell’applicativo sul

computer consente all’utente la

Fig. 3 – Ricostruzione 3D della Biblioteca del Piffetti.

navigazione virtuale all’interno

degli ambienti del Quirinale.

La ricostruzione 3D in realtà virtuale

del Piano Nobile del Palazzo

del Quirinale è un’opera donata

al Segretariato Generale della Presidenza

della Repubblica Italiana.

Dal rilievo all’elaborazione

dei dati

La complessità degli ambienti da

rilevare, la presenza di fregi, stucchi

e affreschi ad altezze anche

considerevoli (fino a 21 metri), i

frequenti cambiamenti di luce e

la necessità di limitare l’invasività

nelle fasi di acquisizione di dati

ed immagini all'interno del Palazzo,

hanno richiesto l’integrazione

di diverse tecniche di rilievo per

garantire la qualità geometrica,

fotografica e artistica della restituzione

3D del Piano Nobile del

Quirinale (Fig. 4).

La pianificazione delle attività si

è preposta il raggiungimento dei

seguenti obiettivi tecnici:

Peculiarità della soluzione

QUIRINALE 3D VR

• Esperienza di navigazione estremamente dinamica

e confortevole grazie all'utilizzo delle più evolute

tecniche di game design ed entertainment a

vantaggio del coinvolgimento dell'utente;

• Completa libertà di movimento negli ambienti

non vincolato a punti di presa, potendo osservare

elementi ed oggetti da vicino o da una qualsiasi

prospettiva;

• Fruizione interattiva attraverso l’utilizzo di appositi

comandi e funzionalità;

• Altissima risoluzione della ricostruzione 3D che

consente di osservare da vicino e zoomare sui

particolari di affreschi, quadri, statue, pareti e

altri elementi architettonici;

• Fedele ricostruzione virtuale 3D degli ambienti

e degli oggetti che assicurano una visione realistica,

evitando le distorsioni tipiche dei tour fotografici

virtuali più comunemente implementati;

• Duplice possibilità di navigazione attraverso pc o

in modalità immersiva con visori Oculus Rift;

• Espandibilità della soluzione ad ulteriori funzionalità

ed estensione dell’utilizzo anche a

smartphone e tablet attraverso il rilascio della

versione mobile app;

• Crossmedialità dello strumento grazie al costante

collegamento tra l'applicativo e i contenuti

multimediali di approfondimento disponibili

anche via web.

Fig. 4 – Ricostruzione 3D della Loggia d’Onore.

GEOmedia n°2-2016 27


REPORT

4 acquisizione della geometria

dettagliata di ogni singolo ambiente

ad alta risoluzione;

4 acquisizione del dato fotografico

e colorimetrico;

4 digitalizzazione di oggetti, statue,

busti e altri elementi artistici

presenti nelle singole sale.

L'attività di rilievo è stata eseguita

con l'utilizzo di laser scanner e

camere fotografiche di ultima generazione:

ogni ambiente è stato

ricostruito con precisione e accuratezza

millimetrica.

La complessa attività di restituzione

colorimetrica degli ambienti

è stata gestita attraverso la stretta

collaborazione tra la componente

tecnica e quella artistica presenti

in Digital Lighthouse. Questa

collaborazione ha portato allo

sviluppo di soluzioni ad hoc per

l'illuminazione di ogni singolo

ambiente, alla personalizzazione

delle configurazioni delle camere

e delle relative ottiche impiegate e

all'implementazione di una catena

di software dedicata alla post elaborazione.

La mole di dati gestita per sviluppare

la soluzione QUIRINALE

3D VR è enorme. Questi i numeri

dell'attività di rilevazione e

ricostruzione digitale del Piano

Nobile:

4 780 scansioni laser;

4 120.000 fotogrammi;

4 15TB di dati.

La vera sfida è stata trasformare

un prodotto complesso, che gestisce

enormi quantità di informazioni,

in una soluzione facilmente

fruibile sui computer domestici.

È il risultato di un processo che

parte dall'integrazione di tecniche

di rilievo con laser scanner

e camere fotogrammetriche e si

completa con lo sviluppo e l'implementazione

di un software di

navigazione virtuale in real time.

Digital Lighthouse per l’Industria

Culturale e Creativa

Digital Lighthouse è una Entertainment

& Media House italiana

specializzata nella realizzazione di

prodotti audiovisivi, effetti visivi

digitali, ricostruzioni virtuali,

animazioni grafiche, applicazioni

software e mobile per l'Industria

Culturale e Creativa (Fig. 5).

La società è nata da un progetto

di ricerca e sviluppo nel campo

della computer grafica 3D

promosso nel 2013 da Geocart,

società di ingegneria all’avanguardia

nei settori del telerilevamento

aereo e terrestre, delle tecnologie

aerospaziali, dell’ICT e nella progettazione

multidisciplinare.

In ambito Digital Heritage, la società

sviluppa soluzioni basate su

un modello di valorizzazione dei

beni culturali che, sfruttando le

potenzialità delle nuove tecnologie,

è in grado di offrire all'utente

strumenti e modalità innovative

per vivere e riscoprire il patrimonio

culturale.

Le applicazioni e i contenuti realizzati

vanno ben oltre la semplice

digitalizzazione del bene: attraverso

l'integrazione tra le moderne

tecniche di gamification e di

entertainment realizza esperienze

immersive di grande coinvolgimento.

I servizi offerti, inoltre, sono in

grado di fornire i dati tecnici con

cui è possibile ricostruire lo stato

del patrimonio storico, architettonico

e culturale per pianificare

interventi di conservazione

programmata o di restauro straordinario,

offrendo informazioni

integrative sulle condizioni di

opere d’arte, affreschi, dipinti e

oggettistica di pregio.

PAROLE CHIAVE

Realtà Virtuale; palazzo del Quirinale; esperienza

immersiva; ricostruzione 3D; digital heritage; laser

scanner; fotogrammetria; computer grafica

ABSTRACT

QUIRINALE 3D VR is a software for the navigation in

virtual reality of the Quirinale Palace. It is the result of an

innovative 3D reconstruction project developed by the Italian

companies Geocart and Digital Lighthouse aiming to the

enhancement of the Quirinale through the most innovative

techniques of Digital Heritage field. The project, based on

the integration of existing methodologies and novel processes

for cultural heritage digitization supported by computer

graphics, has created a unique result in terms of user involvement,

also by means of immersive experience.

AUTORE

Federico Capriuoli

f.capriuoli@digitallighthouse.it

Davide Colangelo

d.colangelo@digitallighthouse.it

Luca Curto

l.curto@digitallighthouse.it

Diego Fileri

d.fileri@digitallighthouse.it

Digital Lighthouse S.r.l.,

Viale del Basento 120, Potenza

www.digitallighthouse.it

info@digitallighthouse.it

Annibale Guariglia

a.guariglia@geocart.net

Vito Mario Sansanelli

v.sansanelli@geocart.net

Paola Santarsiero

p.santarsiero@geocart.net

28 GEOmedia n°2-2016

Fig. 5 – Sala di post produzione degli Studios di Digital Lighthouse.

Geocart S.p.A.,

Viale del Basento 120, Potenza

www.geocart.net

geocart@geocart.net


REPORT

SMART GEODATA –

SMART CITIES

GEOSPATIAL 4.0 –

BIG DATA

GEOBIM –

DIGITAL CONSTRUCTION

JOIN US NOW!

WWW.INTERGEO.DE

UK

PARTNER COUNTRY 2016

Host: DVW e.V.

Conference organiser: DVW GmbH

Trade fair organiser: HINTE GmbH

SPONSORS:

GEOmedia n°2-2016 29


REPORTS

GeoDataBase geomorfologico per acquisizione

dei dati tramite tecnologie mobile

di Mattia De Amicis, Fabio Olivotti, Stefano Roverato, Alice Mayer e Luca Dangella

Con questo lavoro è stato predisposto un Geodatabase (GDB) in grado di archiviare, tramite tablet e smartphone,

tutti i dati che descrivono la geomorfologia di un territorio, secondo la struttura e la classificazione fornita dal

Servizio Geologico Nazionale (S.G.N.) per la redazione della Carta Geomorfologica.

La penisola italiana è caratterizzata,

dal punto di

vista geomorfologico, da

una grande varietà di fenomeni

e di processi che la rendono un

territorio unico al mondo. La

possibilità di descriverne e classificarne

gli elementi direttamente

sul campo e in formato digitale è

dunque un passo di fondamentale

importanza per un tipo di

lavoro scientifico atto a migliorare

la conoscenza del nostro Paese.

Al giorno d’oggi, l’uso delle tecnologie

digitali nella creazione,

elaborazione e gestione di dati in

sostituzione alla documentazione

cartacea permette una notevole

riduzione dei costi e dei tempi di

analisi, di gestione e di interrogazione

dei dati. Qualsiasi tipo

di dato spaziale può essere infatti

raccolto non più su semplici

supporti cartacei, ma in formato

digitale e archiviato all’interno di

un geodatabase.

L’obiettivo del presente lavoro è

stata quindi la creazione un sistema

di acquisizione di dati geomorfologici

sul terreno mediante

tecnologie mobile, come tablet

e smartphone, classificando gli

elementi ed i processi geomorfologici

secondo lo standard della

Carta Geomorfologica d’Italia

1:50.000, pubblicata dal Servizio

Geologico Nazionale (S.G.N).

La Carta Geomorfologica

La carta geomorfologica rappresenta

in modo dettagliato la

tipologia delle forme del rilievo

terrestre, compreso quello sottomarino,

ne interpreta l’origine in

funzione dei processi geomorfici

(endogeni ed esogeni), passati e

presenti, che le hanno generate, e

ne individua la sequenza cronologica

con una particolare distinzione

fra le forme attive e quelle

non attive. Essa consente quindi

di delineare un quadro completo

delle caratteristiche geomorfologiche

del territorio studiato

e offre le basi per prevederne

l’evoluzione futura. A livello nazionale

le linee guida per la redazione

della carta geomorfologica

sono descritte nel dettaglio nei

Periodici Tecnici “I Quaderni”

(serie III), n°4 e n°10, relativi alla

Carta Geomorfologica d’Italia

1:50.000, pubblicati dall’S.G.N.

Il Quaderno n°4 in particolare,

comprende le linee guida per

il rilevamento degli elementi

geomorfologici, la simbologia

per la loro rappresentazione cartografica

e le note per l’uso della

simbologia e la classificazione

tassonomica di tutti gli elementi

e processi suddivisi per classe e

sottoclasse. Il Quaderno n°10 è

invece composto dalla guida alla

rappresentazione cartografica,

dalle note sull’inquadratura marginale

dei fogli geomorfologici,

dalle note illustrative e l’aggior-

30 GEOmedia n°2-2016


REPORT

non più in evoluzione e non più

riattivabili. Elementi identici

ma che si originano da processi

geomorfologici differenti hanno

lo stesso simbolo geometrico

ma si differenziano per il colore;

esempi classici possono essere

le scarpate (di origine tettonica,

gravitativa, glaciale) e le linee di

cresta (strutturali, gravitative).

Fig. 2 – La suddivisione delle Feature Classes in subtypes e domains.

namento delle norme e infine

dalla libreria dei simboli con i codici

relativi e i segni convenzionali

della carta geomorfologica.

La classificazione tassonomica

prevista dal Quaderno n°4

suddivide gli elementi geomorfologici

in 13 classi mentre

nel Quaderno n°10 ne viene

riportata la simbologia, che dal

punto di vista geometrico può

essere di tipo puntuale, lineare o

areale. Per ogni simbolo è inoltre

presente una relativa scheda

descrittiva composta da undici

attributi: numero progressivo del

segno convenzionale, codifica

S.G.N. del quaderno n°4, identificativo

cartografia numerica,

descrizione del simbolo, rappresentazione

alla scala della carta,

geometria dei segni e specifiche

dimensionali, dettagli delle trame

e ancoraggi nella carta, sigle

dei colori per le forme attive,

sigle dei colori per le forme non

attive, sigle dei colori per altre

forme e note per l’applicazione

in carta (Figura 1).

I primi attributi contengono

le informazioni più importanti

ai fini della strutturazione del

geodatabase: il codice S.G.N.,

l’identificativo cartografico, la

breve descrizione e la geometria

dell’elemento. Le colonne

centrali riguardano invece caratteristiche

di tipo grafico per la

rappresentazione dei simboli e

sono state prese in considerazione

per la successiva fase di creazione

della simbologia. Le ultime

colonne determinano infine il

colore del simbolo che indica la

genesi prevalente del elemento

considerato. Le diverse tonalità

dello stesso colore precisano lo

stato di attività del processo:

tonalità più accese vengono attribuite

alle forme in evoluzione

per processi attivi o riattivabili

e tonalità più tenui alle forme

Fig. 1 –

Estratto delle

simbologie di

tipo puntuale,

lineare e areale

tratto dai Periodici

Tecnici

“I Quaderni”

(serie III) n°10

del Servizio

Geologico Nazionale.

La struttura del

Geodatabase

Il primo passo per la predisposizione

del Geodatabase è stata

l’identificazione di tutti i possibili

elementi geomorfologici

potenzialmente cartografabili e la

loro relativa classificazione, organizzando

gli elementi individuati

all’interno di un’unica tabella.

Per la strutturazione delle tabelle

del GDB sono stati estrapolati

dal Quaderno 4 solo i dati necessari

al raggiungimento degli

obiettivi di progetto. Si è quindi

costruito un GDB contente le

seguenti informazioni:

4“classe”, corrisponde alla classificazione

tassonomica degli

elementi in 13 classi relative ai

processi geomorfologici;

4“n°classe”, ossia il numero

identificativo della classe di

appartenenza da 1 a 13;

4“sottoclasse”, descrizione della

sottoclasse di appartenenza se

previsto;

4“n°prog”, corrisponde al numero

progressivo dell’elemento

all’interno della libreria dei

simboli del Quaderno n°10

del S.G.N.;

4“codice s.g.n.”, corrisponde al

codice identificativo definito

nel Quaderno n°4 del S.G.N.;

4“identificativo requisiti

cartografici”, identifica la

nuova codifica introdotta nel

Quaderno n°10 del S.G.N.;

4“geometria”, definisce la geometria

dell’elemento (puntuale,

lineare o poligonale);

4“descrizione”, descrive il tipo

di elemento;

4“cod_processo”, identifica

il codice del processo geo-

GEOmedia n°2-2016 31


REPORT

morfologico di appartenenza

secondo il Quaderno n°4 del

S.G.N.;

4“modifiche”, con la lettera “v”

si identifica una variazione

grafica del simbolo mentre

con la lettera “i” si identifica

l’aggiunta di un nuovo elemento

rispetto a quelli previsti

nel Quaderno n°4;

4”stato”, indica se l’elemento

è in forma attiva o non attiva

(quando previsto).

Nella tabella degli elementi geomorfologici

ogni elemento è

stato duplicato per ognuna delle

tipologie geometriche con le

quali può essere rappresentato

e, successivamente, per ognuna

delle forme previste (attiva o

inattiva). In questo modo i record

contenuti nella tabella rappresentano

una tipologia di elemento

univoca: ogni elemento

possiede degli attributi univoci

che lo descrivono.

Oltre agli attributi già definiti

in precedenza nella tabella sono

stati creati tre nuovi attributi per

ogni elemento:

4l’attributo “Codice stato” che

contiene le iniziali dello stato

di un elemento. Viene visualizzata

la lettera “a” se l’elemento

si trova nella sua forma

attiva mentre la lettera “i” se

si trova in forma non attiva

(inattiva);

4l’attributo “Codice simbologia”

che rappresenta la somma

dell’attributo “identificativo

requisiti cartografici” con

l’attributo “Codice stato” (Es:

CN102128a/CN102128i).

Questo attributo è di fondamentale

importanza poiché

definisce dei codici univoci

per ogni elemento geomorfologico.

Ad ogni codice corrisponde

una sola tipologia di

elemento con una geometria

ed uno stato di attivazione

ben definito;

4l’attributo “descrizione con

stato” che rappresenta l’unione

del testo contenuto nel

campo “descrizione” con il

testo del campo “stato” separati

da un trattino “ – “ (Es:

Superficie a suoli striati - stato

attivo, Superficie a suoli striati

- stato inattivo).

Nel GDB sono stati identificati

come attributi primari per la

classificazione degli elementi geomorfologici,

quelli relativi alla

classe geomorfologica di appartenenza

(campo “classe”) e quelli

che ne identificano la geometria

dell’elemento (campo “geometria”).

Costruendo la nuova banca dati

secondo le classi geomorfologiche

di appartenenza sarebbe stato

necessario creare, per ognuna

delle 13 classi geomorfologiche,

tre Feature Classes per le tre

diverse geometrie, ottenendo

un totale di 39 diverse Feature

Classes. Classificando invece i

dati secondo la loro geometria

si creano 3 sole Feature Class,

una per ogni geometria, ed è così

possibile classificare successivamente

gli elementi sulla base delle

13 classi geomorfologiche utilizzando

i sottotipi ed i domini

nel GDB. È stata scelta la seconda

ipotesi in quanto l’operatore

può più facilmente identificare

un elemento da mappare sulla

base della sua geometria per poi

classificarlo successivamente in

base al processo geomorfologico

di appartenenza. Inoltre il geodatabase

cosi strutturato risulta più

semplice e più facilmente interrogabile

poiché contiene meno

oggetti.

Si è proceduto quindi alla creazione

delle tre classi di oggetti

con differente geometria: puntuale,

lineare e areale. Il sistema

di riferimento utilizzato è il

Monte Mario - Gauss Boaga

fuso Ovest (EPSG 3003).

Il passo successivo è stato di

creare dei “subtypes” (sottotipi)

per l’ulteriore classificazione

sulla base della geomorfologia.

I sottotipi sono dei sottoinsiemi

di funzioni in una Feature

Class o oggetti in una tabella che

condividono gli stessi attributi

e vengono usati per classificare i

dati. Sono stati in seguito creati

dei domains (domini) contenenti

la descrizione e la relativa codifica

degli elementi appartenenti

ad ogni sottotipo e geometria. Il

dominio utilizzato per il nuovo

geodatabase è di tipo “Coded

Value” che permette di definire

un elenco di valori ai quali viene

associata una codifica.

Fig. 3 – Esempio di raccolta dati tramite smartphone con l’App ESRI Collector. A sinistra

l’interfaccia che permette di georeferenziare una nuova feature, a destra la form che consente

di specificarne gli attributi.

32 GEOmedia n°2-2016


REPORT

Ad ognuno dei 13 sottotipi delle

tre differenti Feature Classes

(geometria puntuale, lineare e

poligonale) è stato associato un

dominio, per un totale di 39

domini. Il dominio che verrà

visualizzato per classificare i dati

dipenderà quindi dal subtype

selezionato e dalla geometria della

Feature Class in cui verranno

archiviati i dati. Di conseguenza

il geodatabase è composto da un

totale di 39 tabelle: 13 tabelle

per la geometria puntuale, 13

per quella lineare e 13 per la

poligonale (cfr. Figura 2).

L’ultima fase per l’organizzazione

delle tabelle ha previsto la creazione

di tre “relationship class”

in modo da poter legare ulteriori

informazioni all’elemento geomorfologico

analizzato. Pertanto

sono state costruite delle relazioni

tra la tabella della raccolta dei dati

e le Feature Classes utilizzando

l’attributo “codice simbologia”

come Primary Key delle relazioni

poiché rappresenta un attributo

univoco che individua ogni elemento

senza ambiguità. Lo stesso

codice è stato poi utilizzato nella

fase della simbologia per assegnare

ogni segno convenzionale al

relativo elemento geomorfologico.

In questo modo è possibile

ottenere una tabella degli attributi

completa, per ogni elemento

o processo analizzato, di tutte le

informazioni presenti nei documenti

del S.G.N.

Il GDB così creato è stato installato

su una macchina server

di tipo Mapserver che consente

la scrittura e la lettura in remoto

dei dati. Tramite Arcgis Server

è stato attivato e reso pubblico

un servizio di Feature Access,

che viene richiamato in Arcgis

Online con una mappa dedicata

condivisa con tutti gli utenti

abilitati. Tale mappa può infine

essere aperta con un tablet o

smartphone attraverso l’applicativo

mobile ESRI Collector.

Seguendo questo schema di lavoro

è possibile instaurare una

connessione in tempo reale tra

l’operatore sul campo e il geodatabase,

che consente di archiviare

velocemente e facilmente i

dati territoriali rilevati.

La raccolta dati sul campo

L’operatore che si troverà sul

campo a raccogliere ed elaborare

i dati attraverso il proprio

smartphone o tablet si collegherà

al geodatabase su server tramite

l’applicativo ESRI Collector ed

archivierà i dati definendone

in primo luogo la geometria ed

identificando in secondo luogo

il processo geomorfologico a cui

appartengono. Il primo passo

nella raccolta dei dati è quindi

la selezione della Feature Class

di appartenenza dell’elemento

da mappare (lineare, puntuale

o areale); l’operatore selezionerà

poi la classe geomorfologica

dell’elemento mediante l’uso

dei subtypes (es: Elementi geologico-strutturali)

e infine potrà

scegliere la descrizione che identifica

l’elemento da mappare,

fornita dal dominio (es: Rocce

prevalentemente dolomitiche,

cfr. Figura 3).

All’interno di quest’ultimo campo

è già prevista una distinzione

tra quegli elementi che si possono

presentare in forma attiva o

in forma non attiva, solo per le

classi che ne prevedono la suddivisione.

Questo procedimento

potrà essere ripetuto per qualsiasi

elemento geomorfologico

analizzato e per le tre differenti

tipologie di geometrie a cui appartengono.

Poiché la banca dati rispetta

le direttive fornite dal Servizio

Geologico Nazionale, sia in

termini di struttura che a livello

di simbologia, ai dati geomorfologici

archiviati al suo interno è

stata infine collegata una libreria

di simboli (style) che permettono

immediatamente agli oggetti

mappati di essere visualizzati

con i simboli corretti, secondo

quanto riportato nel Quaderno

n°10 dell’S.G.N. In tal modo

si può passare direttamente

dall’acquisizione dei dati sul

campo alla stampa della Carta

Geomorfologica dal desktop

senza dover effettuare ulteriori

interventi sulla banca dati.

Conclusioni

Questo lavoro ha dimostrato

come l’utilizzo di strumenti versatili

come i geodatabase consenta

di semplificare e velocizzare

notevolmente l’attività di rilievo

sul campo che, fino all’introduzione

dei moderni sistemi informativi

territoriali, richiedeva un

notevole dispendio di tempo e

di energie. Questa capacità, unita

alla possibilità di classificare

i dati rilevati secondo le specifiche

previste dalla normativa

nazionale, pongono il sistema

qui analizzato come modello per

una funzionale ed efficace organizzazione

dei dati provenienti

dai rilievi geomorfologici sul

campo.

BIBLIOGRAFIA

Servizio Geologico Nazionale (1994), “Carta Geomorfologica d’Italia in

scala 1:50000 - Guida al rilevamento, Quaderno III Serie n°4”.

Servizio Geologico Nazionale (1997), “Carta geologica d’Italia 1:50.000 -

Banca dati geologici, Quaderno III Serie n°6”.

Servizio Geologico Nazionale (2007), “Carta Geomorfologica d’Italia in

scala 1:50.000 - Guida alla rappresentazione cartografica, Quaderno III

Serie n°10”.

MacDonald A. (1999), “Building a Geodatabase, GIS by Esri, ESRI”

De Amicis et al., “Gestione di dati tramite dispositivi mobili per la pianificazione

di emergenza” - GEOmedia n.1, 2015.

PAROLE CHIAVE

Geodatabase; geomorfologia; simboli; collector; tablet;

smartphone

ABSTRACT

Among the creation of geomorphological maps the data collection of elements

and features is one of the most important steps. The most relevant

information to be collected are not only their position (geolocalization) but

also their classification and properties according to the official encoding:

within this context the Italian National Geologic Service (SGN) set up data

collection and data storing standards through a focused documentation,

the “I Quaderni” (series III), n.4 e n.10. In this paper we describe a new

system to collect these kind of data directly on the field through the most

commonly used tablets and smartphones. This system is based on an ESRI

Geodatabase Enterprise installed on a server, an ArcGIS Online account and

the ESRI Collector App for smartphones. Data collected by operators on

the field are directly sent to the Geodatabase on server using mobile internet

connection; data structure and format follow the national standards, so they

are ready to be added into a geomorphological map.

AUTORE

Mattia De Amicis, mattia.deamicis@unimib.it

Fabio Olivotti, fabio.olivotti@unimib.it

Stefano Roverato, stefano.roverato@unimib.it

Alice Mayer, alice.mayer@unimib.it

Luca Dangella

l.dangella@campus.unimib.it

Università degli Studi di Milano Bicocca, Dipartimento

di Scienze dell’Ambiente e del Territorio e di Scienze

della Terra, Laboratorio di Geomatica

Geomatic Laboratory - Earth and Environmental

Sciences Department, University of Milano Bicocca,

Piazza della Scienza 1 - 20126 Milano, Italy, geomatica.

GEOmedia n°2-2016 33

ambientale@unimib.it


REPORTS

Una questione di centimetri

di Fulvio Bernardini

Prima dell’annessione della regione della Savoia,

nel 1860, la Barre des Écrins, con i suoi 4102 metri,

era la cima più alta di Francia. La montagna fa parte

della regione francese della Provenza-Alpi-Costa

Azzurra (PACA) e fu scalata per la prima volta da un

gruppo di alpinisti britannici nel 1864.

La Barre des Écrins – che, assieme con i vicini Pic

Lory e Dôme de Neige, va a formare il Massiccio

degli Écrins – rimane oggi una montagna dall’alto

valore simbolico: si tratta infatti dell’unica cima

superiore ai 4000 metri che risiede interamente

in territorio francese e rappresenta una sfida per i

molti alpinisti che ogni anno provano a scalarla.

Nell’estate del 2014,

in concomitanza con

le celebrazione per il

150° anniversario della prima

ascesa della Barre, l’Union

Nationale des Géomètre-Experts

(UNGE) e i suoi partner

Geotopo e Geomesure, hanno

organizzato una spedizione

volta a misurare precisamente

tramite GPS le tre sommità del

massiccio. Le misure sarebbero

servite per determinare, a

livello centimetrico, l’elevazione

delle tre cime e avrebbero

al contempo fornito dei

dati di controllo utili per il

monitoraggio e la valutazione

diacronica dei fenomeni di

surrezione alpina. La spedizione

era aperta a tutti i topografi

appartenenti alla regione PACA.

34 GEOmedia n°2-2016


REPORT

Michel Baud, uno degli

organizzatori della spedizione,

ricorda: “La scalata del

Massiccio degli Écrins è

un’iniziativa complessa, difficile

in circostanze normali ma

comunque fattibile con la

giusta preparazione. La nostra

spedizione, nello specifico, ha

avuto a che fare con condizioni

meteo estreme, le peggiori

registrate negli ultimi anni.

Nonostante ciò, era per noi

molto importante riuscire

nell’impresa: per raggiungere gli

obiettivi scientifici, certamente,

ma anche per una questione

personale. Eravamo infatti tutti

topografi della PACA che si

cimentavano sulle montagne della

regione. Insomma, il tutto era

profondamente simbolico.”

La spedizione

La spedizione si è svolta in due

fasi e in due diverse scalate.

La prima fase contemplava

l’installazione di piccoli

supporti metallici nei pressi

della cima della Barre des

Écrins, del Pic Lory e del Dôme

de Neige; questi supporti in

acciaio inox, del diametro

di 20 millimetri e lunghi 10

centimetri, avevano un’estremità

filettata adattata al passo degli

strumenti che sarebbero poi

stati usati durante la seconda

fase. I supporti dovevano essere

posizionati all’interno di tre

fori che sarebbero stati creati

in quota tramite un martello

pneumatico a batteria.

L’ascesa relativa alla ‘fase

1’ si è svolta il 26 giugno e

ha coinvolto 6 membri tra

ingegneri, geologi e topografi, i

quali hanno installato i supporti

metallici sulla sommità della

Barre des Écrins e del Pic Lory.

Già durante questa spedizione

preliminare, le condizioni

meteorologiche cominciavano

a creare difficoltà alla cordata:

le operazioni si sono rivelate

molto dispendiose in termini

di tempo e, a causa delle

condizioni che si facevano man

mano più difficili, non è stato

possibile installare il supporto

sulla sommità del Dôme de

Neige. Il supporto mancante

è stato quindi installato il

successivo 13 agosto durante

una spedizione ad hoc.

La ‘fase 2’ è iniziata il 27

agosto e prevedeva l’esecuzione

delle misure GPS in modo

da garantire una base di dati

utile per il monitoraggio

della surrezione alpina e,

contemporaneamente, fornire

la prima misura centimetrica

del massiccio. Per eseguire il

lavoro, il team ha scelto dei

ricevitori GNSS Trimble®

R10 e dei controller Trimble

TSC3. Arnaud Ollivier, che

ha partecipato alla spedizione,

spiega: “Oltre alla precisione,

avevamo bisogno di strumenti

che fossero leggeri, resistenti

e facili da trasportare: con le

condizioni che ci siamo trovati

ad affrontare, non potevamo

permetterci di portare nessun

peso in eccesso.” Al fine di avere

un maggior controllo sul

calcolo e guadagnare quindi in

precisione, il team ha scelto la

post-elaborazione come metodo

di calcolo finale.

Il gruppo che ha partecipato

alla ‘fase 2’ comprendeva

20 partecipanti e 5 guide

d’alta montagna ed era

equipaggiato con ramponi,

corde, moschettoni oltre che

computer portatili, quattro

ricevitori GNSS Trimble R10

e tre controller Trimble TSC3.

Il primo giorno contemplava

l’installazione di uno dei

ricevitori Trimble R10 sul tetto

di un rifugio di montagna

situato a 3175 metri di

altitudine, appena sotto le tre

cime; questo ricevitore avrebbe

fornito un punto di controllo

per le misurazione del giorno

dopo, una volta che i rimanenti

tre ricevitori fossero stati

montati, tramite delle apposite

paline, sui supporti metallici

posizionati su ciascuna delle

tre cime. Al fine di fornire un

riferimento geodetico accurato,

GEOmedia n°2-2016 35


REPORT

il rilievo è stato svolto usando

la rete GNSS dell’Institut

Géographique National (IGN)

francese.

La salita verso il rifugio si è

svolta senza imprevisti: uno

splendido sole alpino ha

accompagnato gli scalatori i

quali, una volta raggiunto il

rifugio, hanno installato sul

tetto un ricevitore Trimble R10,

come previsto. Durante la fase

di misurazione, infatti, questo

ricevitore sarebbe servito da

punto di controllo al fine di

ridurre gli errori: ciò a causa

della notevole differenza di

altitudine (circa 3000 metri) tra

le stazioni dell’IGN e i ricevitori

sulle vette del massiccio.

La mattina del 28 agosto,

verso le 3.30, le cordate si sono

lanciate dunque verso i rispettivi

obiettivi. Ciascuna cordata era

equipaggiata con un ricevitore

R10, la relativa palina di

supporto e un controller TSC3.

Al fine di limitare gli interventi

sui dispositivi in tali condizioni

estreme, i ricevitori sono stati

configurati per raccogliere dati

in automatico una volta al

secondo non appena il gruppo

fosse partito. I controller TSC3

servivano per verificare che

l’acquisizione dei dati si stesse

svolgendo correttamente.

Dopo tre ore d’ascesa, i gruppi

hanno incontrato condizioni

estremamente complicate.

Le cordate dirette al Pic Lory

e al Dôme de Neige sono

state costrette a fermarsi a

metà strada e a tornare verso

il rifugio. La neve e il ghiaccio

hanno reso la scalata troppo

pericolosa e hanno impedito al

gruppo di proseguire oltre.

Pur con estrema difficoltà, la

cordata diretta alla Barre des

Écrins ha raggiunto invece

il suo obiettivo: dopo aver

montato l’R10 sulla palina

che, a sua volta, è stata

fissata al supporto metallico

precedentemente installato,

il ricevitore ha inviato dati

simultaneamente al ricevitore

sul tetto del rifugio per circa

un’ora.

“La squadra ha incontrato

delle condizioni proibitive ma,

nonostante questo e nonostante il

fatto che le altre due cordate siano

dovute tornare indietro, la cima

della Barre è stata raggiunta.

Faceva freddo e c’era parecchio

umidità, ma la strumentazione

Trimble si è comportata

egregiamente.”

Dopo aver acquisito i dati,

il gruppo è ridisceso verso

il rifugio; e da qui, dopo

un meritato riposo, tutti i

componenti della spedizione

sono tornati alla base.

Misure accurate

Di ritorno dalla spedizione,

i tecnici hanno intrapreso la

fase di post elaborazione con

Trimble Business Center, al

fine di confermare l’integrità

dei dati e produrre dei risultati

preliminari. I dati sono stati poi

inviati all’IGN, che ha verificato

e corretto i dati acquisiti

in quota tenendo conto di

variabili quali l’atmosfera

o gli scarti nelle orbite dei

satelliti. I tecnici hanno così

determinato che l’altezza della

Barre des Ècrins è di 4102,10

metri. È prevista una nuova

campagna di validazione

volta a portare a termine la

misurazione delle rimanenti

due cime. Altre spedizioni

scientifiche si occuperanno poi

di eseguire le misurazioni utili

alla valutazione dei fenomeni di

surrezione alpina.

Nonostante le difficoltà

climatiche, la spedizione può

considerarsi un successo: oltre

ad aver acquisito la prima

misura centimetrica della Barre

des Écrins, l’intera impresa

ha finito per rappresentare

una vera e propria avventura,

ha poi attirato l’attenzione

del pubblico sul lavoro del

topografo e ha svolto una

funzione associativa, avendo

riunito molti tra i migliori

professionisti dei distretti

PACA attorno a un obiettivo

comune. E, ultimo ma non

meno importante, ha fornito

agli scienziati un strumento

fondamentale per monitorare i

movimenti alpini nel tempo.

PAROLE CHIAVE

Barre des Écrins; Trimble; rilievo

ABSTRACT

In the summer of 2014, concurrently with the 150th anniversary

celebrations of the first ascent of the Barre des Écrins,

the Union Nationale des Géomètre Experts (UNGE) with

his partners Geotopo and Geomesure organized an expedition

to the Massif des Écrins to make precise GPS measurements

of its three summits. The expedition turned out to

be an adventure and provided scientists with the first ever

centimeter-level measurement of the Barre.

AUTORE

Fulvio Bernardini

fbernardini@rivistageomedia.it

36 GEOmedia n°2-2016


REPORT

GEOmedia n°2-2016 37


REPORT

L’uso del GIS come strumento di analisi e

rappresentazione del consumo di suolo

di Valentina Sannicandro

e Carmelo Maria Torre

L’intreccio tra la morfologia

territoriale e l’analisi basata

sull’informazione geografica

supporta chiavi interpretative

plurime del consumo di suolo

che corrispondono a quadri la

cui variabilità è ampia, come

trattato in questo articolo.

Fig. 1 - Mappatura della superficie urbanizzata

(Comune di Bari, località Ceglie del Campo).

Definizione dell’ambito di

riferimento: il consumo di

suolo

L’intensità e la continuità dei

processi di consumo di suolo impongono

la necessità di un intervento

articolato ed efficace, sia di

livello legislativo, statale e regionale,

sia nella ridefinizione mirata

di contenuti e strategie degli strumenti

di governo del territorio a

scala locale e territoriale.

La domanda crescente di suoli

disponibili è imputabile allo sviluppo

delle aree urbane ed alle

relative infrastrutture (Rapporto

CRCS, 2010); non solo si costruisce

tanto ma anche al di fuori

dei centri abitati, erodendo quel

territorio agricolo che è fondamentale

per garantire la produzione

di cibo ma anche per regolare

il clima e il ciclo dell’acqua

(Pileri 2007); tanto che lo sfruttamento

e la continua sottrazione

di suolo dai contesti tipicamente

naturali e rurali sta determinando

cambiamenti radicali non solo

per l’ecosistema e per l’ambiente,

ma anche per il paesaggio, urbano

ed agrario.

L’impermeabilizzazione, ovvero la

realizzazione di una “membrana”

che sigilla il suolo e lo separa fisicamente

dai comparti ambientali,

ha l’effetto di ostacolare il passaggio

di acqua, aria e sostanze organiche,

determinando l’alterazione

definitiva delle normali funzioni

chimiche, fisiche e biologiche

del suolo, che non è più in grado

di svolgere alcune funzioni (approvvigionamento,

regolazione,

supporto).

In particolar modo, la rilevanza

degli impatti determinati dal

fenomeno del “consumo di suolo”,

inteso più in generale come

la perdita definitiva di una o

più delle funzioni che il suolo

svolge nell’ecosistema e nella

regolazione dell’equilibrio tra

capitale naturale e attività antropiche,

alla scala locale e globale,

spinge a riflettere sulla necessità

di acquisire una metodologia

di analisi che tenga conto della

complessità del problema, dettata

dalle caratteristiche intrinseche e

non del contesto geografico, dagli

attori coinvolti nei processi di

pianificazione territoriale, dagli

interessi talvolta sinergici e talvolta

conflittuali, dai molteplici impatti

diretti e indiretti sul sistema

ambientale, urbano, sociale ed

economico.

L’efficacia di qualsiasi politica

di contenimento delle trasformazioni

d’uso che determinano

degrado e/o perdita dei suoli,

ad oggi, è stata affrontata con la

valutazione ex-post, ovvero da

un punto di vista meramente

quantitativo. Nella maggior parte

dei casi, infatti, le politiche di

governo del territorio sono state

analizzate rispetto alla misura del

suolo impermeabilizzato, non

considerando, tra le altre, la questione

distributiva.

Trattandosi di un processo di

trasformazione del territorio, la

dimensione spaziale è una va-

38 GEOmedia n°2-2016


REPORT

riabile imprescindibile, per cui

la disponibilità di dati di uso e

di copertura dei suoli su base

cartografica che siano aggiornati,

confrontabili e scalabili ai diversi

livelli entro cui operano le scelte

di governo territoriale (Rapporto

CRCS 2009) costituisce il punto

di partenza per la valutazione ed

il monitoraggio del fenomeno del

consumo di suolo.

Tuttavia, in Italia, con i dati a

disposizione può essere effettuata

una valutazione del consumo

di suolo attraverso la foto-interpretazione

e la classificazione di

immagini satellitari incrociata

ai dati provenienti da indagini

censuarie o da statistiche socioeconomiche,

poiché non sono

disponibili dati omogenei e attendibili

su tutto il territorio nazionale.

Gran parte delle basi di dati

utilizzate per le analisi spaziali

sono nate per rispondere a esigenze

specifiche aventi la necessità di

definire alcuni sistemi di classificazione,

come il Rapporto Land

Cover vs. Lans Use, poco adatte a

fornire uno scenario completo,

contraddistinto da omogeneità,

accuratezza tematica e unità di

rilevazione.

Verso la costruzione di

un modello di analisi

quantitativa e distributiva

del fenomeno

Trasformare un’area “consumata”,

con l’intento di ripristinare lo

stato dei suoli, innovare la città

e salvaguardare l’ambiente ed il

paesaggio, è un’azione complessa,

forse perché, ad oggi, ancora

pochi sono gli studi e i centri

di ricerca finalizzati a mettere a

punto metodologie in grado di

supportare la scelta degli interventi

da realizzare nei progetti di

rigenerazione urbana.

Lo schema di riferimento per la

costruzione del modello di analisi

quantitativa e distributiva è stato

quello utilizzato dal Piano Territoriale

di Coordinamento Provinciale

di Torino (provincia.torino.it),

uno dei pochi piani provinciali a

carattere prescrittivo.

Il Piano si serve di un sistema di

norme rivolte a recuperare e riutilizzare

il patrimonio edilizio esistente

e contemporaneamente a

penalizzare i Comuni che hanno

consumato più suolo negli anni

passati assumendo il principio

che il suolo “libero” ha un alto

valore ed è pertanto inedificabile.

Il modello di densità proposto

dal PTCP per classificare le aree

in “dense”, “di transizione” e

“libere”, è caratterizzato dalle seguenti

fasi:

1. acquisizione dell’impronta

vettoriale dell’urbanizzato;

2. conversione dell’immagine da

vettoriale a raster, a cui associare

una matrice quadrata;

3. calcolo dell’indice di densità e

attribuzione del codice binario

0-1 per ogni cella;

4. calcolo del valore medio degli

indici da attribuire a ciascuna

finestra (operazione di smoothing)

circoscrivendo un’area

buffer.

Le “aree dense” sono costituite

dalle porzioni di territorio urbanizzato

aventi un impianto

urbanistico significativo, ovvero

caratterizzate da un indice di copertura

elevato.

Le “aree di transizione” sono caratterizzate

da porzioni di territorio

di limitata estensione con un

indice di copertura medio.

Le “aree libere” si contraddistinguono

per la prevalente funzione

agricola, per la presenza di

insediamenti minori o sparsi,

generalmente esterne al tessuto

densificato e aventi un indice di

copertura basso.

L’obiettivo della tecnica smoothing

è quello di fornire un’idea sulla

variazione della densità tra due

aree limitrofe, mediante una

compensazione tra il valore esatto

e il valore medio (Castiglioni et

al. 2011). Per l’applicazione si

utilizza una finestra simmetrica

centrata sul punto di interesse,

che può essere circolare o quadrata,

ipotizzando implicitamente

una condizione di isotropia.

Questa applicazione ha raggiunto

nel caso di Torino le finalità per

le quali è stata concepita, tuttavia,

se trasposta ad un nuovo contesto

urbano, presenta alcuni limiti. Il

modello non fornisce una stima

dell’errore e si applica su superfici

piane; non tiene conto della

volumetria dell’edificato, la quale

produce un consumo di suolo

dipendente da più fattori indotti

come la pressione antropica e la

superficie destinata al rispetto

degli standard urbanistici, in più

Fig. 2 - Smoothing della distribuzione dell’indice di densità (Comune di Bari, località Ceglie del Campo).

GEOmedia n°2-2016 39


REPORT

lo stato della vegetazione non

viene né approfondito né valutato.

Inoltre, non vi è univocità

nella dimensione della maglia da

utilizzare ed anche il perimetro

dell’area buffer che smorzi il valore

esatto in maniera graduale, non è

definito.

Per le ragioni suddette, è stata

condotta un’analisi rivolta a calcolare

l’indice di densità della

perdita di suolo naturale cioè della

superficie urbanizzata, basata non

su una logica binaria (0-1) ma sulla

gradazione reale della superficie

degli elementi geografici minimi

di supporto.

È opportuno precisare che per

superficie urbanizzata si intende la

somma della superficie edificata e

della superficie occupata dall’infrastruttura

per la viabilità, per

indice di densità si intende il rapporto

tra la superficie urbanizzata

e la superficie della cella, scelta

pari ad un quadrato di lato 50m.

Infine, oltre alla quantificazione

del consumo di suolo, l’analisi

evidenzia la distribuzione della

densità del suolo consumato; in

particolar modo si nota come la

componente infrastrutturale sia

quella che incide maggiormente

sul territorio e come il rispetto

delle aree tutelate e soprattutto

vincolate possa ridurre notevolmente

il consumo di suolo “vergine”.

In sintesi, questa metodologia

si propone come un primo

contributo all’approfondimento

degli elementi da individuare

all’interno di un’area e delle condizioni

da valutare nel contesto,

per tracciare le possibili azioni di

trasformazione in grado di innescare

dei processi di mitigazione

della problematica e riqualificazione

del territorio più ampi.

Applicazione del modello

L’introduzione al caso di studio

consiste nella scelta del Provincia

“Campione” da osservare, analizzare

e sul quale si è elaborata una

mappa territoriale che consente

facilmente di codificare l’uso del

suolo. Il caso studio selezionato

per la fase di test è la provincia di

Bari della regione Puglia.

Il percorso metodologico, per

grandi linee, si articola nel modo

seguente:

I. analisi approfondita delle

aree interessate dal consumo

di suolo;

II. individuazione e caratterizzazione

della superficie urbanizzata;

III. elaborazione di una mappatura

dell’uso del suolo rispetto

all’indice di densità;

IV. sovrapposizione del livello

dei vincoli e delle tutele;

V. classificazione.

La prima fase della ricerca consiste

nel focalizzare le aree interessate

da questo fenomeno. Gli

elementi investigati sono stati:

4Viabilità urbana: il cui maggiore

fattore strutturale è legato ai

cambiamenti della morfologia

urbana e alle modifiche dell’intero

sistema urbano. Rientrano

in questo ambito: le strade e le

infrastrutture annesse, i sistemi

di trasporto pubblico e privato,

la mobilità delle persone e

delle merci ed i parcheggi.

4Agricoltura: si considerano

appartenenti a questo ambito

tutti i suoli agricoli coltivati e

non, le aree destinate a verde,

i parchi urbani, i corridoi ecologici.

4Paesaggio (vincoli e tutele):

“il paesaggio rappresenta un

elemento chiave del benessere

individuale e sociale, e la sua

salvaguardia, la sua gestione e

la sua pianificazione comportano

diritti e responsabilità per

ciascun individuo” (Convenzione

Europea sul Paesaggio, Firenze

2000). In questa categoria

sono compresi tutti i beni

architettonici, storici, culturali

e paesaggistici vincolati dalla

legge, le zone di protezione

speciale e i siti di interesse comunitario,

i parchi nazionali e

le Important Birds Areas.

4Residenze e servizi annessi: si

indaga lo sprawl urbano ovvero

la crescita disordinata e rapida

della città soprattutto nelle

zone periferiche, il mercato

dell’edilizia residenziale e delle

opere di urbanizzazione primaria

e secondaria in nuove aree

di espansione.

4Terziario: costituito dalla

presenza di aree industriali

e/o commerciali dismesse o

sottoutilizzate, dalla quantità

di mq occupati dai centri commerciali,

dalle infrastrutture

turistiche.

Per indagare l’assetto del territorio

in ognuno di questi ambiti,

si è ritenuto opportuno condurre

Fig. 3 - Classificazione delle aree rispetto al livello dei vincoli e delle tutele (Comune di Bari, località Ceglie del Campo).

40 GEOmedia n°2-2016


REPORT

questo studio attraverso l’interpretazione

e le elaborazioni della

Carta Tecnica e della Carta di

Uso del Suolo della Regione Puglia,

cartografie georeferenziate

disponibili sul portale SIT-Puglia

(www.sit.punglia.it), dalle quali

è possibile individuare tutte le

caratteristiche tecniche, fisiche e

ambientali del territorio in questione.

La seconda fase è costituita dall’elaborazione

dei dati, finalizzata a

calcolare:

4Superficie urbanizzata: data

dalla somma della superficie

edificata e della superficie per

la viabilità, qualsiasi superficie

antropizzata non classificabile

come suolo agricolo o naturale;

4Superficie permeabile: ogni

superficie, sgombra da costruzioni

sopra o sotto il suolo, in

grado di garantire l’assorbimento

delle acque e in grado

di favorire la produttività del

suolo;

4Superficie impermeabile: ogni

superficie cementificata, utilizzata

e ricoperta da qualsiasi

tipo di struttura;

4Superficie tutelata: un luogo

pubblico o privato di grande

interesse naturalistico, storico

o artistico che lo Stato, o un

altro ente o associazione, protegge

allo scopo di impedire

che venga rovinato o distrutto;

4Superficie vincolata: ogni

zona in cui l’inserimento di

opere edilizie e infrastrutture

risulta vincolato ad un parere

sovraordinato, rendendo il più

possibile compatibili le attività

dell’uomo con la bellezza e il

pregio di questi posti.

L’output è una “mappatura dello

stato del suolo”, che consiste nella

suddivisione del territorio comunale

in n particelle utilizzando

un’apposita matrice (50m).

Data la difficile quantificazione,

l’obiettivo della “mappatura”

consiste nella catalogazione e

monitoraggio dei dati; in questo

modo i dati possono essere utilizzati

anche in altri contesti con lo

stesso metodo semplice, ordinato

e univoco e quindi si possono

confrontare le diverse situazioni

con le mappe della densità dei

vari comuni (fig.1).

Per proseguire l’analisi rispetto

allo stato di fatto del “suolo

consumato” si investiga nello

specifico sulla densità territoriale,

ritenuta in letteratura la principale

causa del consumo di suolo.

Il modello analitico sperimentato

per la classificazione delle aree

in “dense”, “di transizione” e “libere"

rinviene dalla best-practice

torinese, per quanto afferisce al

PTCP (II edizione), costruito

sulla misura esatta della superficie

urbanizzata, data dalla superficie

occupata dal tessuto edificato e

dalla rete infrastrutturale, ricadente

in una particella e di conseguenza

sulla media dei valori

attribuiti ad ogni cella dell’area

buffer, pari a 150 m. Dunque,

“l’indice di densità dell’impermeabilizzazione”

è dato dal rapporto

tra l’area urbanizzata e l’area della

cella (fig.2).

Infine, la cartografia elaborata

con la tecnica smoothing rispetto

all’indice di densità, che esprime

la quantificazione del consumo

di suolo, è stata incrociata con il

livello dei vincoli e il livello delle

tutele (costituite dal Piano Paesaggistico

Territoriale della Regione

Puglia), da cui emerge la distribuzione

sul territorio delle aree

precedentemente classificate per

delineare le aree effettivamente

“libere” e “di transizione” rispetto

alle quali muovere proposte di

pianificazione urbanistica (fig.3).

Tempi di monitoraggio dei dati

Il presente studio si è maturato

nell’ambito dell’Osservatorio

sul risparmio di suolo, uno dei

“progetti pilota” del Laboratorio

MITO (Multimedia Information

for Territorial Objects) del Dipartimento

di Scienza dell’Ingegneria

Civile e dell’Architettura

del Politecnico di Bari, avviato a

settembre 2014.

La ricerca, a partire da precedenti

sperimentazioni inerenti l’analisi

del consumo di suolo, si inserisce

in un filone che l’Osservatorio

intende proseguire, oltre la chiusura

del progetto prevista nel

2016.

L’analisi è stata espletata attraverso

l’utilizzo del software ArcGIS,

per le potenzialità che offre un

Sistema Informativo Territoriale.

Il GIS rappresenta un’innovazione

epocale per la pianificazione

urbanistica nella gestione e nella

produzione cartografica (Borrough

1986).

Difatti, con questo modello si

intende studiare e realizzare uno

Spatial Decision Support System

che contenga una legenda strutturata

in modo gerarchico, con

la finalità di sostenere la pianificazione

territoriale a vari livelli,

in funzione delle caratteristiche

specifiche di ciascuna area di applicazione.

Stato di avanzamento

lavori

La ricerca basata sulla misura

del consumo di suolo, di cui il

presente contributo rappresenta

una minima parte, è in corso d’opera.

Si ritiene di aver raggiunto

notevoli traguardi in seguito a

questa sperimentazione, tuttavia

sviluppando il modello si nota

che il valore massimo ottenuto

dallo smoothing si basa sulla dimensione

dell’intorno; inoltre, la

scala di valori si riflette sulla scelta

degli intervalli, per cui la classificazione

deve necessariamente

essere sottoposta ad una analisi

preliminare.

Pertanto, la prospettiva della

ricerca si prefigge di associare

ulteriori elaborazioni preparatorie

per la fase di classificazione delle

aree e di approfondire le indagini

rispetto alla mappatura, affinché

si possa non solo quantificare il

consumo di suolo ma anche qualificarne

gli usi.

Conclusioni

L’attenzione all’ambiente, alla politica

ecologica e ai valori del paesaggio

è da considerarsi l’opzione

prioritaria rispetto ad ogni altra

politica e in particolare a quelle

GEOmedia n°2-2016 41


REPORT

42 GEOmedia n°2-2016

economiche e territoriali: è sul

territorio che si svolge pressoché

totalmente l’attività umana dalla

quale provengono le interazioni

con l’ambiente, che mettono

spesso a rischio i suoi fragili

equilibri.

Risulta evidente che la pianificazione

dell’uso del suolo e

dell’organizzazione delle azioni

che su di esso si svolgono, se

si fa carico di valutazioni ambientali

divenga uno strumento

regolatore fondamentale per la

salvaguardia della intera sfera

ecologica.

L’integrazione tra il GIS e i

diversi metodi di valutazione

(Malczewski 1999), costituisce

un supporto fondamentale in

quanto permette di catalizzare

i processi metodologici e di ripetere

le operazioni per tutto il

territorio in qualsivoglia istante,

costituendo una risorsa importante

nella costruzione di uno

Spatial Decision Support System,

nel quale la varietà dell’informazione

territoriale, determinata

da elementi sociali, economici e

ambientali, può essere facilmente

combinata con le differenti

alternative di uso del territorio.

Le parole chiave sono divenute:

partecipazione, negoziazione,

redistribuzione, costruzione del

consenso, risoluzione dei conflitti

(Couclelis 1991). In questo

senso, la possibilità di realizzare,

con il supporto delle moderne

tecnologie, nuovi approcci alla

valutazione, consente di costruire

una pianificazione aperta

(Nedović-Budić 2000) a diversi

punti di vista ed inclusiva.

Ringraziamenti

Gli autori sono grati al gruppo

di lavoro del progetto MITO

(Multimedia Information for Territorial

Objects) del Politecnico

di Bari; in particolar modo, si

ringraziano: Raffaele Attardi,

Alessandro Bonifazi, Pasquale

Balena, i collaboratori dell’Osservatorio

del risparmio di suolo

e i consulenti tecnico-scientifici

della società REDO.

BIBLIOGRAFIA

Arcidiacono, A., Di Simine, D.,

Oliva, F., Pareglio, S., Pileri, P. e

Salata, S. (2009, 2010), Rapporto

sul Consumo di suolo, Centro di

Ricerca sul Consumo di Suolo, (a

cura di) INU Legambiente, Dipartimento

di Architettura e Pianificazione

del Politecnico di Milano,

Fondazione Cariplo.

Borrough, P.A. (1986), Principles of

geographical information systems for

land resource assessment, Clarendon

Press, Oxford, UK, p. 194.

Castiglioni, S., Castellarin, A.,

Montanari, A., Skoien, J.O.,

Laaha, G. and Blosch, G. (2011),

Smooth regional estimation of

low-flow indices: physiographical

space based Interpolation and topkriging,

Hydrology and Earth System

Sciences.

Craglia, M. and Wise, S. (2007),

GIS and Evidence- Based Policy

Making, Innovations in GIS, CRC

Press Inc.

Couclelis, H. (1991), Requirements

for planning-relevant GIS: a

spatial perspective, Regional Science,

70, n. 1, pp. 9-20.

Krige, D.G. (1984), Geostatistics

and the definition of uncertainty,

Inst. Min. Met. Trans., 93-A, pp.

A41-47.

Malczewski, J. (1999), GIS and

Multicriteria Decision Analysis, John

Wiley, ISBN9780471329442,

NewYork, USA.

Nedović-Budić, Z. (2000),

Geographic information science

implications for urban and regional

planning, Journal of the Urban and

Regional Information Systems Association,

12, n. 2, pp. 81-93.

Pileri, P. (2007), Compensazione

ecologica preventiva, Carocci, Roma.

PAROLE CHIAVE

land take and soil sealing;

saving soil; spatial analysis;

focal statistics

ABSTRACT

Soil Framework Directive COM(2006)

232 stated that soil, fairly recognizable

as an ecosystem structure, can be considered

essentially as a non-renewable

resource.

In this perspective, the aim of the present

research is to quantify land take

and soil sealing and to suggest actions

for its mitigation in land-use policies.

Land take and soil sealing quantifies the

land-use change from natural land uses

to artificial ones for urban and infrastructure

development. In order to calculate

the extension of areas concerned

by the land take and soil sealing, this

paper proposes a methodological approach

for the construction of the density

index of impervious areas through

specific spatial analysis, namely the

focal statistics, performed in a GIS

environment.

The experimentation is conducted in

the MITO (Multimedia Information

of Territorial Objects) Laboratory of

the Technical University of Bari (Italy)

in order to launch a regional observatory

for land-use change.

AUTORE

Valentina Sannicandro

valentina.sannicandro@unina.it

Università degli Studi

Federico II di Napoli

Carmelo Maria Torre

carmelomaria.torre@poliba.it

Politecnico di Bari


REPORT

Transforming The way The worLd works

Le soLuzioni TrimbLe favoriscono

fLussi di Lavoro sempLici, precisi e inTegraTi

La tecnologia VISION TM e il software Trimble access a bordo

dell’imaging rover Trimble v10 vi permettono di catturare

immagini digitali panoramiche a 360° e generare nuvole di

punti per una accurata rappresentazione 3D dell’area rilevata.

In combinazione con un ricevitore GNSS o una Stazione Totale,

Trimble v10 integra le immagini con la posizione geospaziale

di ogni punto.

In tre edizioni scalabili, la suite Trimble business center ne

rappresenta il miglior completamento software, per elaborare

e restituire i dati acquisiti.

dall’immagine georiferita al modello 3d

spektra srl, a Trimble company

039.625051 | info@trimble-italia.it | www.trimble-italia.it

GEOmedia n°2-2016 43


REPORT

La scarsa attendibilità del CAP come

riferimento geografico in Italia

di Marianna Ronconi,

Alice Pasquinelli,

Anna Privitera e

Franco Guzzetti

Nell’ambito degli studi legati all’analisi dei grandi rischi territoriali è possibile,

a livello internazionale, trovare applicativi che utilizzano come riferimento

geografico il Codice di Avviamento Postale (CAP). Sul territorio italiano risulta

tuttavia inadatto l’impiego del CAP come elemento di valenza territoriale, se

non si considerano le logiche di assegnazione e la specifica distribuzione.

Nell’articolo sono riportati una serie di esempi.

La necessità di porre

l’attenzione sul tema

trattato nel presente

articolo, ha origine nell’ambito

di un progetto di ricerca,

tra il Dipartimento ABC

del Politecnico di Milano e

un’importante compagnia

assicurativa, che mira alla

realizzazione di analisi

territoriali relative alla

distribuzione della pericolosità

sismica nel territorio italiano,

rispetto al portafoglio

assicurato, con la finalità

di implementare un webgis

per la gestione dei rischi

assicurativi, inizialmente

realizzato per l’analisi del rischio

idrogeologico [Guzzetti et al,

2014]. Nel corso di svolgimento

di tale ricerca ci si è resi conto

di come, all’interno della società

assicurativa committente, sia

in uso un software che può

utilizzare come informazione

geografica per le analisi

territoriali relative alla

pericolosità sismica, il Codice

di Avviamento Postale (CAP),

metodologia ammissibile nello

Stato di produzione del software

(USA), ma assolutamente

scorretta in un paese come

l’Italia, dove le geometrie che

costituiscono tale informazione

risultano inadatte a qualsiasi

tipo di analisi territoriale.

Origine e scopo del Codice

di Avviamento Postale

Il Codice di Avviamento

Postale, generalmente chiamato

Codice Postale o ancora

CAP, viene introdotto in

Italia a partire dal 1967, ai

fini di facilitare le operazioni

di smistamento e recapito

postale. È formato da una

serie di cinque cifre a ognuna

delle quali viene attribuito un

significato ben preciso.

Come riportato nella tabella

soprastante (Fig.1) le prime due

cifre indicano rispettivamente

la regione postale e la provincia

e presentano una certa logicità

geografica: infatti, analizzando

i confini delle regioni postali

(non corrispondenti a quelle

amministrative) e della

successiva sotto-articolazione in

province è possibile rilevare una

rigorosa continuità territoriale.

Le ultime tre cifre individuano

invece le località provinciali

(compresi i capoluoghi

di provincia) e, andando

sempre più nello specifico, la

penultima e l’ultima cifra fanno

riferimento alle informazioni

di un particolare stradario, lo

stradale provinciale, in uso alle

Poste Italiane.

Fig. 1 – Significato di ognuna delle cifre del CAP (dalla pagina web http://www.poste.

it/postali/cap.shtml).

44 GEOmedia n°2-2016


REPORT

Fig. 2 - Esempio di CAP che

comprendono più comuni nella

regione Friuli Venezia Giulia.

La continuità territoriale

sopracitata viene meno nel

momento in cui si scende nel

dettaglio delle singole località

servite dal recapito postale. I

CAP infatti, sono stati attribuiti

progressivamente alle diverse

zone dove opera il servizio

postale e, se da un lato sono

stati identificati CAP specifici

per i comuni maggiori (con

addirittura suddivisioni di

maggior dettaglio nelle grandi

città), in alcuni casi i comuni

meno popolosi (e non sempre

contigui tra loro) sono stati

aggregati sotto un unico CAP:

il criterio di aggregazione è

costituito dalle infrastrutture

viarie che collegano le diverse

località, per cui, per esempio,

a più comuni ricadenti in

una valle montana può essere

attribuito il medesimo CAP,

se le località sono servite dalla

medesima strada principale. Ciò

in linea con lo scopo originario

del CAP, cioè di facilitare il

recapito postale, ma poco utile

quando si tratta di localizzare

geograficamente un comune.

Ne consegue che nelle zone

meno densamente abitate, ci

si ritrova spesso con codici

di avviamento postale che

identificano più comuni, che in

alcuni casi non sono nemmeno

contigui tra di loro.

A livello internazionale

[INSPIRE, 2014], il CAP

costituisce un dato integrante

delle stringhe di testo relative

agli indirizzi (insieme a

Comune, via e numero

civico) ed è utilizzato anche

a scopi di geolocalizzazione;

nel documento citato, viene

riconosciuto che non

esiste un’uniformità

di costruzione di tale

codice né della qualità

dell’informazione che vi è

associata nei diversi Stati

europei.

Problematiche legate

alle analisi territoriali

Per meglio specificare

ciò che è stato accennato

fin qui, verranno

ora analizzate alcune

delle problematiche

che rendono inadatto

l’uso del CAP come

riferimento geografico

per le analisi territoriali.

Il primo problema

evidenziato è la

discontinuità territoriale

dei CAP.

Postal Descriptor

5.3.1.1.17. Postal Descriptor - The address

component subtype “postal descriptor”

represents the identification of a subdivision of

addresses and postal delivery points created for

postal purposes. The most common example

of a postal descriptor is a post code associated

with the name of the post office, town or area.

Even though the original purpose of post codes

was sorting and delivery of mail, the usage

of post codes has been extended into many

other sectors and applications. The concept,

structure and formats of national postal

descriptor systems are different. For example

in some countries post codes are seen as a

proper geographic subdivision of the country,

in other countries the post code is regarded

only as an attribute that characterizes a small

number of adjacent postal delivery points and

addresses. Sometimes the post code itself is

the only information required for a complete

address; in other situations both the post code

and the associated name of post office or town

is required. Sometimes there is a simple 1:1

relationship between the code and the name; in

other situations a set of postcodes are associated

with a single post office or town. In some

countries such as The Republic of Ireland, no

post code system currently exists; therefore the

postal descriptor is only represented by the

name of the post town.

(Estratto dalle specifiche INSPIRE sull’Address)

Fig. 3 - Distribuzione della

continuità territoriale dei CAP.

GEOmedia n°2-2016 45


REPORT

L’entità che serve per

identificare un determinato

Codice Postale può infatti essere

un poligono multipart, ovvero

formato da più geometrie

non contigue, associate a un

unico record tabellare. Come

si nota dalla Fig. 3, in alcuni

casi si arriva a superare le 15

porzioni, che corrispondono

ad un equivalente numero di

raggruppamenti di comuni,

facenti parti della geometria

dello stesso CAP.

Prendendo poi in

considerazione i confini

comunali, si evidenzia

che possono verificarsi tre

situazioni: il CAP coincide col

Comune; il CAP è associato

a più comuni (arrivando a

essere attribuito anche a più

di 30 comuni); un comune

può essere suddiviso in più

zone postali, a ognuna delle

quali è associato un CAP

differente (generalmente è il

caso delle grandi città; in Italia

ciò capita in circa 40 città).

Anche in questo caso si nota

la discontinuità territoriale e

la mancanza di uniformità di

attribuzione rispetto ai confini

comunali.

Fig. 4 - Aggregazione dei

comuni per CAP di riferimento.

Un’altra problematica che

è importante ricordare

riguarda la mutevolezza

dell’informazione legata al

Codice di Avviamento Postale.

Nel corso degli anni, infatti,

hanno subito variazioni sia le

modalità di attribuzione del

codice (ad esempio i codici

generici in uso fino al 2006

nelle città suddivise in più

zone postali non sono più

in uso), sia la sussistenza di

alcuni CAP, che possono essere

eliminati o aggiunti seguendo

le evoluzioni amministrative,

che prevedono l’istituzione o

l’accorpamento di comuni,

province ecc., oppure ancora

per un’ulteriore suddivisione di

una città in più zone postali.

Dal 2009 tali modifiche

avvengono con cadenza annuale

e l’ultima è entrata in vigore

ad aprile 2015; dunque, vista

la velocità con cui avvengono

le modifiche dei Codici

Postali, questa informazione

risulta poco adatta ad analisi

territoriali che possono restare a

lungo stabili nel tempo.

Problematiche legate ai

rischi catastrofali

Gli aspetti presentati

acquisiscono notevole

rilevanza nel momento

in cui i CAP sono

utilizzati come

riferimento geografico

per la valutazione della

distribuzione di rischi

catastrofali, in particolare

con riferimento a quei

fenomeni che hanno una

diffusione omogenea e

graduale sul territorio

(come i terremoti, gli

eventi meteorici e le

relative previsioni).

L’identificazione

geografica di un’area

attraverso il CAP non

consente di valutare con

precisione se e con quale

Fig. 5 - Sovrapposizione della mappa di pericolosità

sismica INGV 2004 con le geometrie dei CAP della

regione Friuli Venezia Giulia.

intensità tale area è soggetta

al fenomeno catastrofale,

dato che due punti inclusi

nella medesima geometria

che rappresenta un CAP,

possono essere molto distanti

tra loro e avere caratteristiche

morfologiche molto differenti.

Ad esempio, andando a

sovrapporre le geometrie dei

CAP con le informazioni

riguardanti il livello di

pericolosità sismica del

territorio italiano (espresso

in termini di accelerazione

massima del suolo - ag),

secondo la mappa prodotta

nel 2004 (in riferimento

all’Ordinanza PCM del 28

aprile 2006 n.3519, All.1b)

dall’Istituto Nazionale di

Geofisica e Vulcanologia

(INGV), si può notare come

comuni che si riferiscono al

medesimo CAP sono interessati

da livelli di pericolosità sismica

anche molto differenti tra

loro. Nella figura 5, vediamo

un esempio significativo della

regione Friuli Venezia Giulia,

regione che presenta sia una

forte variabilità a livello sismico,

sia dei Codici Postali costituiti

da geometrie complesse.

Nell’ultima immagine della

sequenza, relativa al CAP

33030 si può notare come

46 GEOmedia n°2-2016


ZEB 1 | SURVEY IN MOTION

Arriva in Italia il primo laser scanner

handheld per il mobile mapping.

Basato su tecnologia SLAM,

rappresenta la soluzione ideale

per il rilievo 3D rapido e accurato

di realtà complesse.

Forestale, underground mining,

immobiliare:

rivoluziona il tuo modo di

lavorare!

Presentazione ufficiale del prodotto

a settembre 2015.

Seguirà un programma di roadshow

in Italia nei mesi successivi.

Per maggiorni informazioni scrivere a

info@mesasrl.it.

Il tuo partner ideale per il rilievo 3D

ME.S.A. srl (Metrology & Survey

Application) già partner esclusivo in

Italia della Faro Technologies e della

GeoSLAM UK, rinforza la gamma di

tecnologie d'avanguardia presenti a

livello mondiale nel campo

dell'architettura del survey e della

metrologia. ME.S.A. srl si propone sul

mercato nazionale con uno sguardo

all'Europa come supporto

d'eccellenza a tutte quelle aziende

che, resistenti agli anni della crisi,

fanno dell'innovazione il loro cavallo

di battaglia per rendersi altamente

competitive.

ME.S.A. s.r.l. a Socio Unico

P.IVA 11315870011- Cap. Soc. € 500.000,00

Strada Antica di None 2 - 10092 BEINASCO (TO)

Tel +39 011 3971937 Fax +39 011 3972614

info@mesasrl.it www.mesasrl.it

questo sia attraversato da 5

livelli di pericolosità sismica

e da come si possa passare

da un punto che ricade

nell’intervallo massimo di

ag compreso tra 0,275 e

0,300 a uno molto più lieve

compreso tra 0,100 a 0,125,

in una scala nazionale

compresa tra 0,025 e

0,300g.

Conclusioni

Gli esempi riportati

nell’articolo a supporto della

tesi che considera il CAP

un’informazione inadatta

a essere utilizzata come

riferimento geografico,

dimostrano come sia errato,

in un paese come l’Italia,

l’uso di questo dato come

identificatore geografico.

Come già sostenuto in altre

occasioni [Guzzetti et al,

2014] la tendenza dev’essere

quella di strutturare le

analisi territoriali, in

particolare quelle in cui uno

dei termini di paragone sia

costituito da elementi che

possano essere identificati

puntualmente, come

può essere un portafoglio

assicurativo, utilizzando le

coordinate spaziali degli

oggetti.

Questa soluzione

consente, all’interno

di un determinato

sistema di riferimento, la

precisa e inequivocabile

identificazione degli

oggetti in esame, posizione

immutabile nel tempo

e oggettiva. Inoltre

permette di attribuire

ogni elemento in esame

a una determinata classe

di pericolosità, nel caso

legato alla ricerca presentata

rispetto alle catastrofi

naturali, utilizzabile come

informazione per impostare

ulteriori approfondimenti e

indagini.

NOTA REDAZIONE

Il REPORT Presente

articolo è

stato presentato

all 19°

Conferenza

ASITA 2015

(Lecco). Si ringrazia la segreteria

organizzativa per la cortesia e

disponibilità dimostrata. Inoltre si

augura la migliore riuscita per la 20°

Conferenza ASITA 2016 (Cagliari,

8-9-10 Novembre 2016).

BIBLIOGRAFIA

Address Service Centre (2015),

Il codice di avviamento postale,

http://www.address-service-center.

it/ (Retrieved: 03.09.2015).

Istituto Nazionale di Geofisica

e Vulcanologia - INGV (2015),

Pericolosità sismica, http://www.

mi.ingv.it/pericolosita-sismica/

(Retrieved: 03.09.2015).

Poste Italiane (2015), Il servizio

CAP, http://www.poste.it/

postali/cap.shtml (Retrieved:

03.09.2015).

Guzzetti F., Pasquinelli A.,

Privitera A., Ronconi M.

(2014) Test metrico sulla ricerca

automatica della posizione degli

indirizzi, 18^ Conferenza

Nazionale Asita, Firenze.

Guzzetti F., Pasquinelli A.,

Viskanic P., (2014) L’informazione

geografica nella gestione dei rischi

catastrofali, 18^ Conferenza

Nazionale Asita, Firenze.

INSPIRE Thematic Working

Group Addresses (2014),

D2.8.I.5 Data Specification on

Addresses - Technical Guidelines,

INSPIRE Infrastructure for

Spatial Information in Europe.

Thompson, S. (2013). Be insured

with risk mapping, in Geospatial

World Magazine.

PAROLE CHIAVE

Codice di avviamento postale;

CAP; Postal Descriptor;

riferimenti geografici; rischi

territoriali

ABSTRACT

Many software made in the USA for

analyzing big territorial risks use Post

Code (P.C.) as a geographical reference.

However, if those software are used in

Italy, the purpose of the Post Code as

territorial reference results unsuitable.

In fact, in Italy the P.C. was created to

facilitate the processes of mail delivery.

It is made up of a five numbers code

and the level of information contained

decreases the deeper the code is analyzed

and the more their territorial continuity

fails. Moreover, at times a single

Post Code refers to multiple towns, at

others a single town can be divided in

various P.C.

This article shows some examples on

how the Post Code can not be used in

Italy for analyze territorial distribution

of natural disasters.

AUTORE

Marianna Ronconi,

marianna.ronconi@polimi.it

Alice Pasquinelli,

alice.pasquinelli@polimi.it

Anna Privitera,

anna.privitera@polimi.it

Franco Guzzetti,

ranco.guzzetti@polimi.it

Dipartimento ABC –

Politecnico di Milano

GEOmedia n°2-2016 47


MERCATO

Remtech 2016: bonifiche

dei siti contaminati,

protezione

e riqualificazione del

territorio

Dal 21 al 23 settembre 2016,

a Ferrara, appuntamento con

la X edizione di RemTech

Expo, il punto di riferimento

più specializzato, in Italia,

sui temi della bonifica, della

riqualificazione, della tutela e

del recupero.

I suoi quattro eventi paralleli

– RemTech, Coast,

Esonda e Inertia – presentano

diverse novità, che contribuiscono

a consolidare il

prestigio sempre più internazionale

della manifestazione

organizzata da Ferrara

Fiere Congressi (partner, la

Regione Emilia-Romagna).

Le bonifiche dei siti contaminati,

la protezione e la riqualificazione

del territorio

– temi portanti di RemTech

– sono al centro di un’area

espositiva e di un programma

congressuale di elevato profilo.

In agenda, tavole rotonde,

approfondimenti tecnici

e dibattiti multidisciplinari

su casi di studio ed esperienze

reali, B2B tra espositori e

delegazioni straniere, corsi di

formazione e momenti di confronto

particolarmente significativi

e attesi, quali gli Stati

Generali delle Bonifiche, la

Conferenza Nazionale dell’Industria

sull’Ambiente e sulle

Bonifiche (in collaborazione

con Confindustria e patrocinata

dal Ministero dell’Ambiente),

e la RemTech Europe

International Conference,

con la partnership della

Commissione europea.

La II Conferenza Nazionale

dei Porti, cui partecipano

alcune delle principali

Autorità Portuali straniere,

e la presentazione dei lavori

del Tavolo Nazionale sull’Erosione

Costiera, promosso

dal Ministero dell’Ambiente

e della Tutela del Territorio e

del Mare, insieme alle quindici

Regioni costiere italiane,

sono tra gli eventi clou di

Coast che, con il contributo

di Assoporti, approfondirà

le opere di difesa, i dragaggi,

la gestione dei sedimenti,

i porti e la Marine Strategy.

A Esonda, riflettori puntati

sul dissesto idrogeologico,

la direttiva alluvioni e

la manutenzione del territorio,

grazie al contributo

dei Distretti Idrografici, dei

Consorzi di Bonifica e delle

imprese ad alto contenuto

tecnologico, e alla fruttuosa

sinergia con #italiasicura, la

Struttura di missione presso

la Presidenza del Consiglio

dei Ministri. Da segnalare,

la Conferenza Nazionale

sul Dissesto Idrogeologico

e la Smart Rivers Network

International Conference.

Nel calendario di Inertia spicca,

invece, la tavola rotonda

sulla Sostenibilità Ambientale

delle Grandi Opere, che

coinvolgerà i maggiori player

internazionali. Stazioni appaltanti,

general contractor,

strade, autostrade e ferrovie

saranno protagonisti dell’esposizione

e di convegni sulle

demolizioni, gli impianti per

la selezione, il riciclaggio, la

certificazione e la marcatura

CE, l’attività estrattiva, le infrastrutture.

(Fonte:

http://www.remtechexpo.com)

48 GEOmedia n°2-2016


MERCATO

With you all the way

Le innovative soluzioni Geospaziali Topcon

ed un pieno supporto forniscono una precisione senza precedenti

ed incrementi di efficienza in ogni progetto.

experience how ...

www.topconpositioning.it

Tokyo · San FranciSco · MoSca · roTTerdaM · BriSBane

GEOmedia n°2-2016 49


AGENDA

30 maggio 2 giugno 2016

2016 European Navigation

Conference

Helsinki (Finland)

www.geoforall.it/kawf9

30 maggio - 3 Giugno 2016

European Space Solution

L'Aia (Olanda)

www.geoforall.it/kawf9

8-10 giugno 2016

Convegno SIFET

Lecce

www.geoforall.it/kax4h

13-17 giugno 2016

6th International Conference

on Cartography & GIS

Albena (Bulgaria)

www.geoforall.it/kawfw

20-24 Giugno 2016

36th EARSeL Symposium

Bonn (Germany)

www.geoforall.it/kawfw

22-24 Giugno

VIII CONVEGNO AIT

Associazione Italiana di

telerilevamento

Palermo

www.geoforall.it/kax4q

12-19 Luglio 2016

23rd ISPRS Congress

Praga (Czech Republic)

www.geoforall.it/k3fcd

24-26 agosto 2016

FOSS4G 2016

Bonn (Germania)

www.geoforall.it/kaxry

14-16 settembre 2016

GEOBIA 2016

Enschede (The Netherlands)

www.geoforall.it/ka9ur

20-21 settembre 2016

2016 DGON Inertial Sensors

and Systems (ISS)

Karlsruhe (Germany)

www.geoforall.it/kawfx

26-30 settembre 2016

INSPIRE Conference 2016

Barcelona (Spain)

www.geoforall.it/kauk3

29-30 settembre 2016

Malaga (Spain)

EUROGEO 2016

www.geoforall.it/kawfk

4-6 ottobre 2016

TECHNOLOGY for ALL

2016

Roma

www.technologyforall.it

11-13 ottobre

INTERGEO 2016

Hamburg (Germania)

www.geoforall.it/kaxhh

12-14 ottobre 2016

Perugia

Open Source Geospatial

Research Education

Symposium #OGRS2016

www.geoforall.it/kauka

19-21 ottobre 2016

GEOMETOC Workshop:

Geospatial, Hydrometerological

and GNSS

Prague (Czech Republic)

www.geoforall.it/kaxhc

20-21 ottobre 2016

5th International FIG 3D

Cadastre Workshop

Atene (Grecia)

www.geoforall.it/kaxq9

20-21 ottobre 2016

11th 3D Geoinfo Conference

Atene (Grecia)

www.geoforall.it/kaxqw

26-30 Ottobre 2016

TOPCART 2016 XI Congreso

Internacional de Geomática y

Ciencias de La Tierra

Toledo (Spagna)

www.geoforall.it/k3ydc

16-17 novembre 2016

ITSNT 2016 International

Technical Symposium on

Navigation and Timing

Toulose (France)

www.geoforall.it/kaxhy


FIBER MANAGER ®

TUTTA LA TUA RETE A PORTATA DI MANO

GESTISCI L’INFRASTRUTTURA CON UN SOLO GEODATABASE INTEGRATO

Con FiberManager® puoi gestire le reti di telecomunicazione con un unico geodatabase che consente la

visione globale ed integrata dell’intera infrastruttura di rete. In questo modo hai a disposizione uno strumento

di business intelligence geografica centralizzato, da cui puoi estrarre tutti i report, gli schemi e i documenti

necessari a progettare, costruire, sviluppare e gestire la tua rete nel modo più efficace possibile.

FiberManager® mette a fattor comune la piattaforma GIS leader nel mondo con il modello dati e le funzionalità

smart implementate da una community network di aziende di telecomunicazioni operanti in vari paesi nel

mondo.

FiberManager® è una verticalizzazione della suite ArcFM® di Schneider Electric, di cui Sinergis è rivenditore

esclusivo in Italia.

www.sinergis.it

More magazines by this user
Similar magazines