Rivista bimestrale - anno XX - Numero 6/2016 - Sped. in abb. postale 70% - Filiale di Roma
TERRITORIO CARTOGRAFIA
GIS
CATASTO
3D
INFORMAZIONE GEOGRAFICA
FOTOGRAMMETRIA
URBANISTICA
GNSS
BIM
RILIEVO TOPOGRAFIA
CAD
REMOTE SENSING SPAZIO
EDILIZIA
WEBGIS
UAV
SMART CITY
AMBIENTE
NETWORKS
LiDAR
BENI CULTURALI
LBS
Nov/Dic 2016 anno XX N°6
La prima rivista italiana di geomatica e geografia intelligente
Mappe
di Rischio
e impatto
potenziale
DECOSTRUZIONE
SELETTIVA
ISOLE DI CALORE IN
AMBIENTE URBANO
EMERGENZE DA
RISCHI NATECH
trimBle SX10
la rivoluzione
è appena cominciata
abbiamo creato uno strumento innovativo, versatile
e integrato. trimble SX10 coniuga la tecnologia di una
Stazione totale robotica di alta precisione con quella di uno
Scanner ad alta velocità e funzionalità imaging reale, senza
alcun compromesso prestazionale.
noleggialo, anche solo per un giorno.
Soluzioni innovative per il rilievo, la misura e la modellazione.
Transforming the way the world works
Spektra Srl, a Trimble Company
039.625051 | info@trimble-italia.it | www.trimble-italia.com
Chi è il garante dell’infrastruttura geografica?
Il potenziamento dell’Infrastruttura di dati territoriali, con il dettaglio e l’accuratezza che serve a fornire
cartografie e mappe del territorio affidabili per gli interventi istituzionali, è una operazione che deve
essere garantita con norme di uniformazione ed omogeneizzazione, nonché di produzione, che siano
rispettate ed applicate in maniera uniforme sul territorio nazionale.
Attualmente il lavoro di produzione di specifiche e norme sui dati territoriali non è tutelato e
garantito ma solamente condiviso ed approvato, in un consesso allargato di tecnici ed esperti del
settore, che hanno prodotto una serie di documenti con prescrizioni e suggerimenti che basterebbe
aggiornare al vaglio delle opportune tecnologie che si sono oggi rese disponibili, per renderli applicabili
universalmente.
Siamo carenti anche di un elemento istituzionale di raccordo dei vari organi, enti e amministrazioni che
operano sulla acquisizione di Dati Territoriali e possa fungere da interfaccia per il raccordo istituzionale
internazionale.
Numerose amministrazioni, ignare o a vario titolo impossibilitate dalla farraginosità di meccanismi
burocratici, non riescono ad avvalersi di quanto già rilevato da altre amministrazioni e viene spesso
duplicata o triplicata la spesa globale in tale settore.
La attuale situazione si origina, come molti di noi sanno bene, da uno stato di confusione generato
dalla mancata riorganizzazione dei servizi cartografici, seguita all'abrogazione di Enti considerati inutili
avvenuta durante il primo passaggio legislativo di competenze dallo Stato alle Regioni negli anni ‘70.
All’epoca gli organi cartografici nazionali erano solo 5 (Istituto Geografico Militare, Istituto Idrografico
della Marina, Servizio geo-topo-cartografico dell’Aeronautica Militare, Servizio Geologico di Stato,
Catasto), oggi incrementati di almeno 20 organi cartografici delle Regioni oltre a vari altri organi di
amministrazioni che operano a vario titolo acquisendo dati territoriali. Abbiamo però finalmente
un organo centrale come catalogo di dati territoriali che sta spingendo fortemente sulla creazione di
metadati che possano riuscire ad aiutare nella ricerca dei dati territoriali già in possesso della PA. Il
Repertorio Nazionale dei Dati Territoriali (RNDT) è l’unica novità di rilievo che possiamo notare nel
settore proponendosi come ente istituzionale e rappresentativo in grado di acquisire informazioni da
tutte le amministrazioni. Ma quello che ci chiediamo è se questa istituzione abbia poi il potere effettivo
di far rispettare a tutti la compilazione e l’uso del sistema centralizzato.
Una carenza che si manifesta, oltre che nelle normali operazioni di pianificazione del territorio, in
occasione delle emergenze per disastri naturali. Valga per tutti considerare la necessaria realizzazione
di modelli idrografici del territorio, per un effettivo piano di prevenzione del rischio idrogeologico,
basato su un quadro di riferimento dato da modelli digitali del terreno che oggi è possibile realizzare con
accuratezza estrema.
La problematica della gestione dell’emergenza in caso di disastri naturali è evidente nel momento in
cui squadre di soccorso ed operatori dell’emergenza non dispongono di dati affidabili, come purtroppo
di nuovo ha dimostrato il recente sisma in Italia Centrale, verificatosi a cavallo di ben 4 Regioni,
non riuscendo nelle poche ore a disposizione per i primi soccorsi, ad interrogare un sistema centrale
affidabile, né ad integrare la realtà di organizzazioni che si prodigano per mappare il territorio con
operazioni di volontariato geografico.
Un garante del coordinamento dell’infrastruttura geografica territoriale nell’emergenza dovrebbe far si
che tutta la documentazione territoriale sia disponibile immediatamente in caso di emergenze e che si
colmino lacune ormai primordiali, come ad esempio la carenza dell’assegnazione di numeri civici e la
loro georeferenziazione.
la prossima volta
#mappiamoprima
http://rivistageomedia.it/cartografia-per-emergenza
Buona lettura,
Renzo Carlucci
In questo
numero...
FOCUS
REPORT
GUEST
LE RUBRICHE
Nuove prospettive
per l’utilizzo del
remote sensing
nella gestione delle
emergenze da rischi
Natech e l’uso della
terminologia specifica
di Sabina Di Franco,
lena Rapisardi,
Rosamaria Salvatori
6
11 TECHNOLOGY for ALL
24 ASSOCIAZIONI
26 IMMAGINE ESA
42 MERCATO
48 SMART CITY
50 AGENDA
Il 20 gennaio 2017, il Moderate
Resolution Imaging Spectroradiometer
(MODIS) a bordo del
satellite Aqua della NASA ha catturato
una immagine true-color
della neve nell'Europa centrale.
Le nuvole sovrastano l'Italia
orientale innevata, mentre le
Alpi sono ricoperte da una fitta
coltre di bianco. La neve si estende,
ad Est, sopra la Slovenia, la
Croatia e la Bosnia Erzegovina.
14 Telerilevamento
e GIS per la
valutazione e il
monitoraggio delle
isole di calore in
ambiente urbano
di Sabrina Adelfio,
Caterina Enea, Giuseppe Bazan,
Pietro Orlando
Crediti immagine: Jeff Schmaltz,
MODIS Land Rapid Response
Team, NASA GSFC
In copertina una
rappresentazione della
mappa del rischio di impatto
potenziale del cinghiale
in formato raster, circa il
comprensorio di Lucca.
20
Soluzioni
informatiche
innovative a supporto
della Decostruzione
Selettiva
di Antonio Bottaro
geomediaonline.it
GEOmedia, bimestrale, è la prima rivista italiana di geomatica.
Da 20 anni pubblica argomenti collegati alle tecnologie dei
processi di acquisizione, analisi e interpretazione dei dati,
in particolare strumentali, relativi alla superficie terrestre.
In questo settore GEOmedia affronta temi culturali e tecnologici
per l’operatività degli addetti ai settori dei sistemi informativi
geografici e del catasto, della fotogrammetria e cartografia,
della geodesia e topografia, del telerilevamento aereo e
spaziale, con un approccio tecnico-scientifico e divulgativo.
INSERZIONISTI
3D Target 52
28
Analisi GIS
applicate alla
gestione faunistica
Le mappe di rischio
di impatto degli
ungulati
di Alessandro Giugni, Marco
Ferretti, Leonardo Conti
AerRobotix 37
Aeropix 50
Epsilon 42
Esri Italia 41
Flytop 43
GEOCART 48
ME.S.A 40
Planetek Italia 13
Sinergis 51
Sistemi Territoriali 49
Teorema 47
Topcon 23
UNIcuIque
SUUM
di Attilio Selvini
38
Trimble 2
34
A Digital “New World”
The Big Fusion between
Ubiquitous Localization
(GNSS), Sensing (IOT)
and Communications
(5G) by Marco Lisi
una pubblicazione
Science & Technology Communication
Direttore
RENZO CARLUCCI, direttore@rivistageomedia.it
Comitato editoriale
Vyron Antoniou, Fabrizio Bernardini, Mario Caporale,
Luigi Colombo, Mattia Crespi, Luigi Di Prinzio,
Michele Dussi, Michele Fasolo, Marco Lisi, Flavio Lupia,
Beniamino Murgante, Aldo Riggio, Mauro Salvemini,
Domenico Santarsiero, Attilio Selvini, Donato Tufillaro
Direttore Responsabile
FULVIO BERNARDINI, fbernardini@rivistageomedia.it
Redazione
VALERIO CARLUCCI, GIANLUCA PITITTO,
redazione@rivistageomedia.it
Diffusione e Amministrazione
TATIANA IASILLO, diffusione@rivistageomedia.it
Comunicazione e marketing
ALFONSO QUAGLIONE, marketing@rivistageomedia.it
Progetto grafico e impaginazione
DANIELE CARLUCCI, dcarlucci@rivistageomedia.it
MediaGEO soc. coop.
Via Palestro, 95 00185 Roma
Tel. 06.64871209 - Fax. 06.62209510
info@rivistageomedia.it
ISSN 1128-8132
Reg. Trib. di Roma N° 243/2003 del 14.05.03
Stampa: SPADAMEDIA srl
VIA DEL LAVORO 31, 00043 CIAMPINO (ROMA)
Editore: mediaGEO soc. coop.
Condizioni di abbonamento
La quota annuale di abbonamento alla rivista Science è di € & 45,00. Technology Communication
Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di
ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa.
L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita
revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza
dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo.
La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti.
Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta
dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere
richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo.
Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la
riproduzione anche parziale del contenuto di questo numero della Rivista in
qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i
sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore.
Rivista fondata da Domenico Santarsiero.
Numero chiuso in redazione il 22 gennaio 2016.
FOCUS
Nuove prospettive per l’utilizzo del remote
sensing nella gestione delle emergenze da
rischi Natech e l’uso della terminologia specifica
di Sabina Di Franco, Elena Rapisardi, Rosamaria Salvatori
Le tecniche di remote sensing hanno assunto un ruolo fondamentale
nella gestione dei rischi, come è dimostrato anche dal programma
Copernicus, fase operativa del GMES (Global Monitoring for
Environment and Security), che offe tra i suoi servizi l’Emergency
Management Service.
Fig. 1 - Ciclo dell’emergenza.
La gestione del rischio è
un’attività complessa che
richiede un approccio
multidisciplinare. Quando avviene
un disastro ogni minuto
è fondamentale per salvare vite
umane, limitare i danni, proteggere
persone, cose e ambiente.
Gli eventi che si susseguono
durante il verificarsi di un
disastro sono, in una certa misura,
ripetitivi e possono essere
schematizzati in un ciclo: il cosiddetto
“ciclo dell’emergenza”
o del disastro. Il ciclo dell’emergenza
può essere suddiviso
in quattro fasi: mitigazione e
prevenzione (prima dell’evento)
e risposta e recupero, ripristino
o superamento (post evento)
(Di Franco, Salvatori, 2015).
La mitigazione consiste in tutte
quelle azioni necessarie per ridurre
l’impatto dei disastri futuri
(Menoni et al., 2012). La fase
di prevenzione comprende le
attività necessarie per ridurre gli
impatti in previsione o nell’imminenza
di eventi disastrosi. La
fase di risposta attiene a tutte
quelle azioni intraprese durante,
o immediatamente dopo l’evento,
con l’intento primario di
salvare e proteggere le vite umane.
Infine il termine recupero
riguarda le attività relative al
processo di ripristino dei servizi,
alla ricostruzione delle opere e
la riparazione dei danni, dopo
l’evento (Alexander, 2002).
Nella letteratura internazionale
vengono definiti rischi Natech
(Natural - Technological) quegli
incidenti tecnologici innescati
da disastri naturali, si tratta di
tutti quegli incidenti che si verificano
in impianti, nella rete
di distribuzione o durante il
trasporto di sostanze pericolose,
a seguito del verificarsi di un
terremoto, un’alluvione, uno
tsunami o altro evento naturale.
(Clerc, Le Claire, 1994; Lindell,
Perry, 1996; Cruz et al., 2004).
Questi rischi sembrano essere
in aumento, non solo per la
crescita delle zone industrializzate,
ma anche in relazione
ai cambiamenti climatici
(Karusman et al., 2011, Salzano
et al., 2013). Le peculiari caratteristiche
degli eventi Natech,
rapidità di svolgimento, possibilità
dell’innesco di catene di
eventi, variabilità dell’estensione
areale, rendono la loro gestione
particolarmente complessa. Il
Joint Research Centre - JRC
della Commissione Europea ha
Fig. 2 - Incendio di un serbatoio di gas naturale a seguito del terremoto del 2011 a Ichihara,
Prefettura di Chiba, Giappone. Foto: Reuters.
6 GEOmedia n°6-2016
FOCUS
Fig. 3 - Numero di eventi calamitosi per attività industriali. (2002–2012) eMARSJRC –
European Commission, MajorAccidentHazardsBureau.
richiesto nel 2004 alle autorità
nazionali europee, l’identificazione
delle aree potenzialmente
soggette a questi eventi e ha
sviluppato RAPID-N, uno
strumento per mapppare e valutare
rapidamente i danni, che
opera a scala globale (Girgin,
Krausmann, 2013).
Il contributo della comunità
scientifica e l’uso di tecnologie
innovative come quelle connesse
all’osservazione della terra,
sono di importanza strategica
durante tutte le fasi della gestione
dell’emergenza (Joyce et
al., 2009). Gli eventi causati
dai rischi Natech sono caratterizzati
da una rapida dinamica
evolutiva con scenari che si
modificano in un breve arco di
tempo, e in molti casi il lavoro
dei soccorritori è ritardato o
reso particolarmente difficile
dall’impossibilità di raggiungere
le zone colpite e di operare in
sicurezza. Ad esempio, nel caso
di un incidente con rilascio
di sostanze tossiche nell’aria,
le squadre di soccorso devono
evacuare rapidamente i residenti
dell’area a rischio, di cui vanno
definiti dimensioni e contorni.
Per fare ciò è necessario avere
informazioni come il punto
di emissione, la direzione e la
velocità del vento e le condizioni
meteorologiche generali
nel momento del verificarsi
dell’evento. E’ anche necessario
conoscere le caratteristiche geografiche
dell’area, la presenza e
lo stato delle reti stradali e delle
infrastrutture, la cartografia, di
base e tematica è quindi indispensabile.
Inoltre la complessità intrinseca
nei rischi Natech, rende particolarmente
efficace l’uso di
strumenti terminologici dedicati
come glossari e thesauri che
facciano chiarezza sui concetti e
sui termini specifici del dominio,
specialmente nel momento
del verificarsi dell’emergenza.
Le tecnologie
dell’osservazione della
terra e la gestione dei
rischi Natech
I sistemi per l’osservazione della
terra nell’ambito della gestione
delle emergenze rivestono un
ruolo di importanza crescente,
attraverso di essi si possono ricavare
dati tempestivi e accurati
non solo per la valutazione dei
danni durante un evento, ma
anche tutte le informazioni necessarie
per le attività pre e post
emergenziali.
I satelliti orbitanti intorno alla
Terra sono numerosi ed equipaggiati
con sensori attivi e passivi
che operano coprendo tutte
le lunghezze d’onda dall’ultravioletto
alle microonde, si può
supporre quindi che la superficie
della terra sia monitorata
dallo spazio, anche nei momenti
e nei luoghi in cui accadono
le emergenze. Le missioni spaziali
in atto sono versatili e utili
per vari obiettivi, i sensori montati
sui satelliti, possono essere
dedicati a tematiche specifiche
(es. l’osservazione del ghiaccio
polare, la vegetazione, la qualità
dell’acqua, ecc.). I dati attualmente
provenienti dai sensori
sono comparabili con i dati
provenienti dalle prime missioni
spaziali, questo consente di
eseguire analisi multi-temporali
impossibili fino a poco tempo
fa, come la misura dell’urban
sprawl o l’estensione delle calotte
polari.
Le missioni dell’ESA
(European Space Agency),
dell’EUMETSAT (European
Organisation for the
Exploitation of Meteorological
Satellites), della NASA
(National Aeronautics and
Space Administration), del
NOAA (National Oceanic and
Fig. 4 - Numero di eventi per tipo di incidente. (2002–2012) eMARSJRC – European
Commission, MajorAccidentHazardsBureau.
GEOmedia n°6-2016 7
FOCUS
Atmospheric Administration),
del DLR (Deutschen Zentrum
für Luft- und Raumfahrt),
e dell’ASI (Agenzia Spaziale
Italiana), forniscono un’ampia
varietà di sistemi osservativi che
verrano ulteriormente arricchiti
dalle missioni Sentinel, nell’ambito
del programma europeo
Copernicus. La maggior parte
dei programmi spaziali europei
sono indirizzati verso la gestione
delle emergenze, non solo
da un punto di vista tecnicoscientifico,
ma anche come
impegno economico da parte di
paesi ed imprese. Ad esempio
nel programma GMES (Global
Monitoring for Environment
and Security), ora Copernicus,
la gestione delle emergenze
ha avuto da subito un ruolo
cruciale, è infatti uno dei “Fast
Track Services”, i servizi forniti
e finanziati dal programma. Il
servizio è attualmente operativo
e svolge attività di “rapid
mapping”, a richiesta fornisce
informazioni geospaziali immediatamente
dopo (ore o giorni)
il verificarsi di un evento: dal
2012 il servizio ha fornito
mappe a seguito di circa un
centinaio di richieste, correlate
ad eventi idro-meteorologici e a
incendi (European Commision.
Copernicus Emergency
Management Service - www.
emergency.copernicus.eu). In
quest’ambito la geomatica sta
studiando come migliorare,
semplificare e rendere più rapidi
ed efficienti i flussi per la realizzazione
di mappe tematiche
(Ajmar et al., 2015).
Le immagini satellitari non solo
sono utili nel fornire dati “realtime”,
o “near real-time” per la
gestione dei disastri, ma diventano
fondamentali anche nelle
fasi di prevenzione e mitigazione
(Showalter et al., 1999). Gli
incidenti industriali, sia quelli
causati direttamente dalle attività
umane che quelli innescati
da eventi naturali, ad eccezione
degli sversamenti di petrolio in
mare aperto, sono meno “imprevedibili”
dal punto di vista
della localizzazione spaziale,
poiché avvengono in aree industriali
note e definite (Marzo et
al., 2015).
I fenomeni naturali, anche se
intrinsecamente caratterizzati da
una maggiore “imprevedibilità”
geografica, di solito coinvolgono
porzioni di territorio più
ampie e grazie alla loro scala è
stato possibile utilizzare i satelliti
anche quando le risoluzioni
delle immagini non avevano
il dettaglio e la scala di quelle
odierne. Proprio il progresso
tecnologico su risoluzione e scala,
nonché il maggior numero
Fig. 5 - Campi di applicazione dei dati dell’osservazione della terra. Modificato da Sandau (2010).
di satelliti disponibili, permette
l’uso di questi ultimi anche per
l’analisi e il monitoraggio dei rischi
industriali e, di conseguenza,
dei cosiddetti Natech.
Nell’ambito del progetto
GEOSS i sensori satellitari
attualmente disponibili sono
stati utilizzati sia per attività di
prevenzione, che per il monitoraggio
dei danni provocati
da disastri naturali (terremoti,
piene, incendi boschivi, ecc…).
Gli eventi Natech possono essere
più complessi da analizzare
in remoto, in quanto l’area in
cui avviene l’incidente innescato
dalle cause naturali può essere
piccola. Se però si considera la
durata nel tempo dell’evento e
gli effetti che l’evento produce,
l’area che subisce danni può
essere anche molto estesa. Per
analizzare le zone colpite dagli
eventi calamitosi è necessario
avere cognizione di causa del
tipo di dati da utilizzare in
relazione anche all’estensione
geografica e alla risoluzione
spettrale. Ad esempio immagini
multispettrali ad alta risoluzione
possono essere utilizzate per ottenere
delle mappe dell’uso del
suolo necessarie per derivarne
mappe multi-rischio (Sengupta,
2007).
I grandi incidenti negli impianti
industriali, sia innescati da
eventi naturali che antropici,
provocano spesso la repentina
fuoriuscita di sostanze chimiche
pericolose e possono innescare
degli “effetti domino”, che
causano danni gravi ed estesi
(Antonioni et al., 2009); i dati
del telerilevamento, anche se
difficilmente possono venire
usati per le attività di “previsione”
di questi incidenti, sono
però fondamentali, se raccolti
tempestivamente, nella fase
di intervento per formulare le
strategie di azione e migliorare
le attività di primo soccorso.
Sono inoltre essenziali per la
8 GEOmedia n°6-2016
FOCUS
valutazione dei danni sia sulle
costruzioni, sia sull’ambiente -
aria, acqua, suolo - (Galderisi et
al., 2008).
Opportunità future: piccoli
satelliti e UAV
Considerando quanto detto nei
paragrafi precedenti, tra i servizi
di EO, in caso di incidenti in
cui è necessaria un’informazione
immediata, possono essere
molto utili i dati forniti dalle
costellazioni di “piccoli” satelliti
(Kucera et al., 2012); i satelliti
tradizionali infatti hanno tempi
di rivisitazione non adatti per
questo tipo di servizio. Le missioni
con i “piccoli” satelliti, di
contro, possono essere appositamente
progettate per un scopo
specifico quale, ad esempio, il
monitoraggio di un’area industriale
(Sandau, 2010) utilizzando
tecnologie già pronte, le
cosiddette (off-the-shelf technologies).
E’ possibile, inoltre,
creare sistemi molto piccoli (bus
and payload) rivedendo l’ingegneria
di sistemi già esistenti e
cercando di miniaturizzarli. In
generale, piccoli satelliti sono
equipaggiati con spettroradiometri
in VIS-nearIR e i dati
sono disponibili in giornata; in
futuro, si prevede di aumentare
la capacità di elaborazione a
bordo e inviare i dati agli utenti
già corretti ed appositamente
elaborati per la specifica applicazione
(Sandau, 2006). Nei
prossimi anni lo sviluppo di
missioni con piccoli satelliti sarà
inoltre favorita dalla comparsa
sul mercato di nuovi sistemi di
lancio dedicati dalla necessità
di “testare” le diverse componenti
prima di una missione
più articolata e costosa, dallo
sviluppo di sistemi interconnessi
di piccole stazioni di ricezione
e, ultimo ma non meno importante,
dalla richiesta di dati
in tempo reale per gli eventi
con rapida evoluzione, come
incidenti industriali o disastri
naturali (Sandau, 2010). Verrà
sicuramente implementata l’interferometria
3D che può essere
estremamente utile nel monitoraggio
dei cambiamenti di uso
del suolo, tra cui lo studio delle
deformazioni in aree urbanoindustriale
e la stima dei danni
derivanti da incidenti industriali
(Sandau e Briess, 2010).
In futuro, aumentando della
risoluzione spaziale delle immagini
aumenterà la domanda di
dati ottici da integrare con i dati
acquisiti dai sensori a microonde
e con i dati rilevati dai sensori
montati su droni ((Lewis,
2011, Sandau, Briess, 2008)
o UAV (Unmanned Aerial
Vehicle). In particolare, i micro-
UAV (peso inferiore a 2 kg) rappresentano
l’ultima frontiera per
l’osservazione della Terra ad alta
risoluzione e bassa quota. Su i
micro-UAV possono essere installati,
infatti, vari sensori che li
rendono utilissimi per le attività
di monitoraggio del territorio
nelle aree urbane e naturali.
Recentemente i micro-UAV
hanno avuto un notevole sviluppo
in seguito alla maggiore
affidabilità e ai costi ridotti per
l’utilizzo di sensori basati sulle
nano-tecnologie (AA. VV.,
2011).
Con UAV, è anche possibile
Fig. 6 - Il termine e le sue relazioni, un diagramma.
osservare la superficie terrestre,
con vista nadirale e prospettica,
ottimi requisiti per valutare i
danni derivanti da incidenti
industriali quali, ad esempio il
crollo degli edifici. I dati prodotti
possono inoltre essere condivisi
come livelli informativi
su piattaforma web (geoSDI) in
pochissimo tempo (dell’ordine
di dieci minuti) fondamentali in
caso di emergenza, poichè hanno
una risoluzione molto alta
ed un corretto posizionamento
geografico (AA. VV., 2011).
I dati acquisiti con gli UAV
saranno sempre più richiesti in
particolare per eventi calamitosi,
sia di origine naturale, antropica
o Natech. Essi, infatti, possono
montare a bordo contemporaneamente
sia fotocamere sia
strumenti dedicati ad acquisire
informazioni specifiche sull’evento
da analizzare. In caso di
incidenti su aree industriali, per
esempio, in cui è possibile la
fuoriuscita di gas tossici e nocivi,
noti in precedenza, i sensori
possono essere progettati ad hoc
per campionare il particolato
atmosferico, rilevare la concentrazione
delle sostanze tossiche e
raccogliere campioni da analizzare
in laboratorio (Wang et al.,
2013). Questi sensori possono
quindi fornire informazione sulle
aree in cui particolato (fumo
GEOmedia n°6-2016 9
FOCUS
e ceneri) e/o inquinanti possono
ricadere, con evidenti vantaggi
per l’organizzazione delle procedure
di intervento sul territorio.
Inoltre possono monitorare le
zone a rischio più elevato dove è
impossibile l’accesso ai soccorritori.
L’uso di questi mezzi è particolarmente
efficace nel caso di
incidenti in cui si prevede una
reazione a catena (esplosioni,
incendi e crolli) per la formulazione
di un piano di ricerca e
salvataggio e per la prevenzione
dell’effetto domino stesso.
Durante gli incidenti in impianti
che contengono sostanze
chimiche pericolose, possono
essere prodotti gas facilmente
infiammabili, che generano
esplosioni. Queste esplosioni
causano improvvisi movimenti
delle masse d’aria e temperature
molto elevate. Gli UAV, però,
spesso non sono in grado di far
fronte a temperature elevate;
non possono nemmeno mantenere
la stabilità sufficiente per
minimizzare le deformazioni
delle immagini. L’equilibrio, la
stabilità e il controllo del velivolo
durante il volo nonché la durata
delle batterie sono oggetto
di studio per poter minimizzare
questi inconvenienti (AA. VV.,
2011). Di contro, questi velivoli
possono essere di notevole
supporto in quanto, volando
a bassa quota, a differenza dei
satelliti, possono acquisire
immagini sotto la copertura
nuvolosa e sono estremamente
meno costosi di aeromobili con
equipaggio.
Lo sviluppo di sistemi unmanned
non richiede fondi eccessivi
e potrebbe combinare gli
interessi del mondo scientifico
e di quello industriale. Nel
caso di monitoraggio pre- o
post- incidente, infatti, la possibilità
di utilizzare dati acquisiti
da sensori dedicati prevede il
coinvolgimento della piccola e
media industria; la possibilità
di finalizzare le acquisizioni a
specifici utilizzi può diversificare
e aumentare notevolmente i
potenziali utenti.
Fig. 7 - Il Natural Hazards Wikisaurus (NHW), (Wiki + Thesaurus), propone un set di strumenti
terminologici per la conoscenza dei pericoli naturali (http://www.nhwikisaurus.com/).
La terminologia
Le parole assumono significati
diversi a seconda del contesto
nel quale sono utilizzate e molte
ambiguità emergono quando il
dominio di conoscenza al quale
appartengono è complesso o
poco chiaro. Gli strumenti terminologici,
ovvero strumenti
come glossari, lessici e thesauri,
aiutano sia chi produce, organizza
e cataloga l’informazione,
qualunque essa sia, sia quanti
usufruiscano delle informazioni
stesse. In particolare rendono
la ricerca di queste ultime efficace
e rapida, minimizzando
l’effetto del rumore di fondo
e massimizzando la precisione
nel recupero delle informazioni
cercate. Questi concetti, validi
ogni qual volta si utilizzi il linguaggio
per la comunicazione,
divengono ancora più discriminanti
in domini che utilizzano
termini specialistici e tecnici
come quelli legati alle attività
di osservazione della terra e
della gestione delle emergenze.
Inoltre, la necessità di liberare
il campo da ogni “ambiguità
semantica” diventa ancora più
pressante nel momento della
pianificazione del rischio e del
soccorso. La mole di dati attualmente
a disposizione è un vero
e proprio tesoro di informazioni,
ma un tesoro di cui non
possediamo la mappa, un modo
per costruirla è partire dalle
“parole”. Le parole sono quelle
che usiamo quando facciamo
una ricerca e sono i machinereadable
metadata come le key
words associate a i prodotti e
servizi relativi all’earth observation
(EO), che ci permettono
di trovare le informazioni ricercate;
usiamo le parole quando
classifichiamo e organizziamo le
informazioni; usiamo le parole e
le relazioni tra i concetti definiti
da esse quando organizziamo i
contenuti.
Molto si sta facendo nel
campo dell’informatica dove
con le SDI (Spatial Data
Infrastructure) si è raggiunto
un elevato grado di interoperabilità
anche grazie al brokering
approach (Nativi et al., 2013),
per il recupero e la gestione
dei dati. Queste infrastrutture
10 GEOmedia n°6-2016
FOCUS
permettono, anche attraverso
l’uso di ontologie, la gestione
semantica del sistema, ma alcuni
bisogni rimangono ancora
non soddisfatti soprattutto
quando le query vertono su
qualcosa di molto specifico,
o al contrario quando non si
è esperti nel settore e non si
sa bene cosa cercare. Di fatto
la “componente umana” del
sistema utilizza i termini per
interrogare il sistema stesso e
avere a disposizione un chiara
semantica sui rischi e sui sistemi
di EO, significa innanzitutto
avere dei risultati migliori nel
recupero delle informazioni ed
impegnarsi in una prospettiva
di «conoscenza resiliente», in
grado di usare le conoscenze
scientifiche e degli esperti in
un ottica di «spiegazione» e
«comprensione», elementi chiave
per prendere la decisione
migliore di fronte a un disastro.
Se in qualche modo tecniche e
conoscenze scientifiche hanno
una sorta di “interoperabilitàcontestuale”,
le gestione del rischio
e le attività operative sono
strettamente legate ai domini
semantici determinati anche da
differenze politiche e culturali;
ciò significa che vi è la necessità
di rendere esplicite le relazioni
esatte e precise tra concetti (e
termini) appartenenti ad una
ampia gamma di discipline e
anche a lingue diverse.
Si propongono qui due strumenti
utili per affrontare le
criticità connesse al corretto
utilizzo di linguaggi specifici:
l’NHWikisaurus (http://www.
nhwikisaurus.com/) e Earth
Observation Systems Thesaurus
- EOSterm (http://thesaurusonline.iia.cnr.it/vocabs/eosterm/en/index.php).
Il NHWikisaurus, nasce dalla
collaborazione tra la facoltà
di Scienze della Terra dell’
Università di Torino e del’IIA
- CNR (Rapisardi et al., 2014)
e propone un prototipo collaborativo
di produzione dei
contenuti nella parte wiki e per
gli articoli di approfondimento,
mentre nel contempo offre strumenti
teminologici “classici”
(thesaurus, glossario e ontologia),
per una corretta comprensione
dei concetti e delle parole
legate ai rischi naturali. In una
tematica complessa come quella
della gestione dei pericoli e dei
rischi, lo sforzo di costruire una
mappa tra i concetti aiuta molto
a ridurre ed organizzare la complessità
di tutto il sistema, nelle
sue diverse fasi dalla prevenzione,
alla gestione dell’emergenza,
dal superamento delle crisi
all’analisi migliorativa del processo.
Sono stati identificati i
fenomeni, i processi, gli attori e
le azioni e sono state costruite le
relazioni tra questi “entità”.
EOSterm - Earth Observation
Systems Thesaurus, nasce da un
progetto del CNR IIA (Plini
et al., 2007, 2014), volto alla
costruzione di un sistema terminologico
per telerilevamento
e GIS. I termini selezionati
ed organizzati con relazioni
gerarchiche, di equivalenza e
associative, contiene circa 3.000
termini in italiano ed inglese.
Le principali fonti dalle quali
è stata ricavata la terminologia
sono le seguenti: AGI, CCRS
Remote Sensing Glossary of
Canada Centre, ATIS Telecom
glossary 2000, Glossary of
Cartographic Terms” of Texas
University, Dictionary of
Abbreviations and Acronyms
in GIS, Cartography and
Remote Sensing of the
University of California,
Glossary of Oceanography,
Climatology and the Related
Geosciences, GIS Glossary”
of Environmental Systems
Research Institute Inc. (ESRI),
Glossary of GIS and Metadata
terms of Environmental On-
Line Services (ERIN).
Conclusioni
Negli ultimi anni si è dimostrato
come l’integrazione ed il confronto
delle immagini raccolte
attraverso diverse piattaforme,
satelliti, aeroplani, elicotteri,
UAV, possa fornire informazioni
utili ai soccorritori e a chi
gestisce l’emergenza. Inoltre l’e-
Fig. 8 - EOSterm - Thesaurus su i sistemi di osservazione della terra (http://thesaurusonline.iia.cnr.
it/vocabs/eosterm/it/index.php).
GEOmedia n°6-2016 11
FOCUS
laborazione dei dati provenienti
dall’EO costituisce una base
conoscitiva per creare scenari
incidentali, individuare le zone
a rischio Natech e di conseguenza
creare piani per la pianificazione
dell’emergenza, dalla
prevenzione alla ricostruzione,
così come fornisce dati utili per
le analisi post evento. La visone
di insieme mostra chiaramente
come i dati del remote sensing
siano una fonte di informazioni
sempre più importante, sia per i
rischi Natech che per tutte le altre
tipologie di rischio, in tutte
le fasi del ciclo dell’emergenza,
dalla fase di prevenzione a quella
della gestione dell’emergenza,
alla ricostruzione, per poi tornare
di nuovo alla prevenzione
secondo un ciclo di miglioramento
continuo.
Una delle sfide cruciali dei prossimi
anni sarà quella di pianificare
accuratamente le missioni
dei micro-satelliti al fine di
massimizzarne l’uso per l’osservazione
delle aree potenzialmente
a rischio per migliorarne
la valutazione e la gestione e per
studiare i fattori di causalità e le
connessioni tra rischi antropici
e rischi naturali.
Inoltre gli UAV sembrano essere
particolarmente adatti nelle
operazioni di soccorso, anche in
quelle situazioni o luoghi dove
per le squadre di soccorso non
è sicuro intervenire (ad esempio
per la presenza di crolli o sostanze
nocive).
Inoltre la gran mole di dati a
disposizione rende utile l’uso
di strumenti terminologici che,
attraverso i concetti e i termini
in essi contenuti, ne facilitino
la catalogazione, la gestione e il
recupero, in modo da rendere le
informazioni fruibili in tempi
rapidi. Sarebbe utile disporre di
glossari e thesauri relativi specificamente
ai rischi Natech e alla
tecnologia necessaria per la loro
gestione.
BIBLIOGRAFIA
AA. VV. (2011), “Dipartimento IUAV per la Ricerca. Unità di Ricerca: Nuove tecnologie per la conoscenza del territorio e
dell’ambiente. “City Sensing” e “Near Mapping” microdrone i-uav piattaforma aerea leggera a bassa quota per il monitoraggio citta’
ambiente e territorio, rilievi di parchi, infrastrutture, aree industriali, edifici, aree in dissesto idrogeologico, applicazioni tematiche
di protezione civile”, Rapporto Conclusivo, http://www.ricercasit.it/smartcities/ricerca/Pervasive%20Real%20Time%20Sensing/
MicrodroneUAV/Progetto%20I-UAV.pdf
Alexander D. (2002), “From civil defence to civil protection and back again”, Disaster Prevention and Management, 11, (3): 209-213
Ajmar A, Boccardo P, Disabato F, Giulio Tonolo F. (2015), “Rapid Mapping: geomatics role and research opportunities”, Geodesy
And Geomatics To The Edge. Rendiconti Lincei, 26, 1: 63-73 DOI: 10.1007/s12210-015-0410-9
Antonioni G, Bonvicini S, Spadoni G, Cozzani V. (2009), “Development of a framework for the risk assessment of Na-Tech accidental
events”, Reliability Engineering & System Safety, 94, 9: 1442-1450
Clerc A, Le Claire G. (1994), “The environmental impacts of natural and technological (Na-tech) disasters”, Background discussion
paper for The World Conference on Natural Disaster Reduction, Yokohama, Japan, 23–27 May 1994
Cruz AM, Steinberg LJ, Vetere Arellano L, Nordvik JP, Pisano F. (2004), “State of the Art in Natech Risk Management (NATECH:
Natural Hazard Triggering a Technological Disaster)”, EUR 21292 EN, © European Communities
Di Franco S, Salvatori R. (2015), “Current situation and needs in man-made and Natech risks management using Earth
Observation techniques”, Remote Sensing Applications: Society and Environment, 1: 72–84. DOI: http://dx.doi.org/10.1016/j.rsase.2015.06.004
European Commision. Copernicus Emergency Management Service, http://emergency.copernicus.eu/mapping/#zoom=2&lat=20.
25728&lon=17.0555&layers=0B000000T
Galderisi A, Ceudech A, Pistucci M. (2008), “A method for Na-tech risk assessment as supporting tool for land use planning mitigation
strategies”, Nat Hazards, DOI 10.1007/s11069-008-9224-8
Girgin S, Krausmann E. (2013), “RAPID-N: Rapid Natech risk assessment and mapping framework”, Journal of Loss Prevention in
the Process Industries, 26: 949 - 960, DOI:10.1016/j.jlp.2013.10.004
Joyce KE, Wright KC, Samsonov SV, Ambrosia VG. (2009), Remote sensing and the disaster management cycle. Advances in Geoscience
and Remote Sensing, Gary Jedlovec (Ed.), ISBN: 978-953-307-005-6, InTech, DOI: 10.5772/8341
Krausmann E, Cozzani V, Salzano E, Renni E. (2011), “Industrial accidents triggered by natural hazards: an emerging risk issue”,
Nat. Hazards Earth Syst. Sci., 11: 921–929, DOI:10.5194/nhess-11-921-2011
Kucera J, Lemoine G, Kemper T. (2012), “Post-Disaster Needs Assessment: the role of remote sensing and geospatial information”,
IPSC - Institute for the Protection and Security of the Citizen. JRC- European Commission. Vienna, PDNA training, https://www.gfdrr.
org/sites/gfdrr.org/files/3_JRC-Remote_Sensing.pdf
Lewis PE. (2011), “The Evolution of Airborne Chemical and Radiological Remote Sensing For Emergency and Natural
Disaster Response”, National Geospatial-Intelligence Agency (NGA) - USA. SPIE 2011 Remote Sensing PlenaryTalk, http://spie.org/
Documents/AboutSPIE/PDF/ERS11-plenary-Lewis.pdf
Lindell MK, Perry RW. (1996), “Identifying and managing conjoint threats: earthquake-induced hazardous materials releases”. The
US. J Hazard Mater 50: 31–46
Marzo E, Busini V, Rota R. (2015)), “Definition of a short-cut methodology for assessing the vulnerability of a territory in naturaltechnological
risk estimation”, Reliability Engineering and System Safety, 134: 92–97
Menoni S, Molinari D, Parker D, Ballio F, Tapsell S. (2012), “Assessing multifaceted vulnerability and resilience in order to design
risk-mitigation strategies”, Nat Hazards, 64: 2057–2082, DOI 10.1007/s11069-012-0134-4
Nativi S, Craglia M, Pearlman J. (2013), “Earth Science Infrastructures Interoperability: The Brokering Approach”, IEEE Journal of
selected topics in applied earth observations and remote sensing, 6, 3, DOI: 10.1109/JSTARS.2013.2243113
Plini P, Di Franco S, De Santis V, Salvatori R. (2015), “EOSterm - Earth Observation Systems Thesaurus”, http://thesaurusonline.
iia.cnr.it/vocabs/eosterm/en/index.php
Plini P, Salvatori R, Di Franco S, De Santis V. (2007), “L’organizzazione di metadati e dati relativi a piattaforme aeree e satellitari per
il telerilevamento”, 11ª Conferenza Nazionale ASITA, Torino
Rapisardi E, Di Franco S, Giardino M. (2014), “Web Participatory Framework for Disaster Resilience: Coping with Information
Deluge”, Conference: IAEG 2014, Engineering Geology for Society and Territory, 7
Salzano E, Basco A, Busini V, Cozzani V, Marzo E, Rota R, Spadoni G. (2013), “Public awareness promoting new or emerging
risks: Industrial accidents triggered by natural hazards (Natech)”, Journal of Risk Research, 16, 3-4: 469-485, DOI:
10.1080/13669877.2012.729529
Sandau R. (2006), International Study on Cost-Effective Earth Observation Missions, Balkema A.A. Publishers, Taylor & Francis
Group, Leiden, The Netherlands, 160. ISBN10:0-415-39136-9, ISBN13:9-78-0-415-39136-8
Sandau R, Briess K. (2008), “Potential for advancements in remote sensing using small satellites”, The International Archives of the
Photogrammetry, Remote Sensing and Spatial Information Sciences. XXXVII, B1, Beijing
Sandau R, Briess K. (2010). “The role of small satellite mission in global change studies- Advances”, Chuvieco, E., Li, J., Yang, X.
(Eds). Earth Observation of Global Change. Springer Science & Business Media, 298
Sandau R. (2010), “Status and trends of small satellite missions for Earth observation”, Acta Astronautica, 66: 1 - 12
Sengupta A. (2007), “Industrial hazard, vulnerability and Risk Assessment for land use Planning: A case study old Haldia, west
Bengal, India”, International Institute for Geo-information Science and Earth Observation (ITC), http://www.itc.nl/library/papers_2007/msc/iirs/sengupta.pdf
Showalter PS, Ramspott M. (1999), “The use of remote sensing in detecting and analyzing natural hazards and disaster, 1972-
1998. A partially annotated Bibliography”. J.M. Lovell Center for Environmental Geography and Hazards Research, Southwest Texas
State University., 1
Wang L, Zhou W, Zhao S.(2013), “Application of Mini-UAV in Emergency Rescue of Major Accidents of Hazardous Chemicals”,
International Conference on Remote Sensing, Environment and Transportation Engineering (RSETE 2013)
ABSTRACT
The Earth Observation (EO) techniques are becoming increasingly important in risk management activities not only for natural hazards
and natural disaster monitoring but also to ride out industrial and Natech accidents. The latest development in the aerospace industry such
as sensors miniaturization and high spatial and temporal resolution missions devoted to monitoring areas of specific interest, have made the
use of EO techniques more efficient and ready to use in near real time conditions. This paper summarize the current state of knowledge on
how EO data can be useful in manage all the phases of the Natech disaster, from the environmental conditions before the accident strikes to
the post accident relief, from the scenario setting and planning stage to damage assessment. Moreover some terminological tools are proposed
NHWikisaurus and EOSterm thesaurus, that could be useful for semantic knowledge spreading in EO and risk managment.
PAROLE CHIAVE
Gestione del rischio; Natech; remote sensing; telerilevamento; Copernicus; GMES; emergenza
AUTORE
Sabina Di Franco
difranco@iia.cnr.it
Rosamaria Salvatori
Istituto sull'InquinamentoAtmosferico – CNR
via salaria Km 29,300
Elena Rapisardi
NatRisk, Università di Torino
NOTA REDAZIONE
Il tema di questo articolo è stato presentato per la prima volta nella XIX Conferenza ASITA.
12 GEOmedia n°6-2016
FOCUS
GEOmedia n°6-2016 13
REPORT
Telerilevamento e GIS per la
valutazione e il monitoraggio delle
isole di calore in ambiente urbano
di Sabrina Adelfio, Caterina Enea, Giuseppe Bazan, Pietro Orlando
Fig. 1 – Strisciata immagine MIVIS 2002.
Le tecniche di analisi spaziale e di telerilevamento costituiscono uno strumento molto utile per la conoscenza e lo
studio del fenomeno dell’isola di calore urbano (indicata anche come UHI, dall’acronimo inglese Urban Heat Island).
Nel presente studio, tra le molteplici cause che portano alla generazione di questo fenomeno, sono state approfondite
quelle relative alle caratteristiche fisiche delle superfici e alla presenza delle diverse coperture di uso del suolo.
Negli ultimi secoli l’aumento
demografico
mondiale e la crescita
incontrollata delle città hanno
causato significativi cambiamenti
del territorio da parte dell’uomo.
Una delle conseguenze provocate
da questa trasformazione è la
formazione dell’UHI. Questa si
presenta come un evento microclimatico
che si verifica nelle aree
urbanizzate e consiste in un notevole
aumento della temperatura
nell’ambito urbano rispetto alla
periferia della città e, in particolare,
alle aree rurali circostanti
(Oke, 1973). Nonostante il fenomeno
sia noto almeno dal XIX
secolo, solamente negli ultimi
decenni ha suscitato l’interesse
del mondo scientifico, divenendo
una problematica su cui i pianificatori
urbani stanno ponendo
una grande attenzione. Gli studi
finora effettuati ne distinguono
tre tipologie:
4Isola di calore atmosferica
(Atmospheric UHI - AUHI),
che si distingue ulteriormente
in:
o Isola di calore dello strato
limite urbano, situato al
di sopra dell’altezza media
degli edifici (Urban
Boundary Layer – UBL);
o Isola di calore dello strato
della copertura urbana,
ubicato sotto l’altezza
media degli edifici (Urban
Canopy Layer - UCL);
4Isola di calore di superficie
o epidermica (Surface UHI –
SUHI);
4Isola di calore del sottosuolo
(Subsurface UHI).
Questi diversi tipi di isola di
calore sono certamente correlati,
infatti l’interazione tra il
Boundary Layer, il Canopy Layer e
il Surface Layer genera o meno la
presenza sopra la città di un’isola
di colore. Tuttavia è importante
distinguerli, poiché differiscono
per cause, strumenti di misurazione
e dinamiche temporali.
Le isole di calore atmosferiche
si manifestano in prevalenza di
notte e possono essere negative
di giorno, viceversa quelle di superficie
raggiungono la massima
intensità durante le ore diurne.
Per dedurre con sufficiente precisione
la temperatura superficiale
delle coperture al suolo è stato
utilizzato il Telerilevamento
Termico (Thermal Remote Sensing
- TRS), effettuato con sensori che
acquisiscono informazioni nella
sottobanda dell’infrarosso termico.
Il TRS permette, dunque, di
misurare la quantità di radiazione
elettromagnetica emessa dalla superficie
terrestre nelle lunghezze
d’onda che appartengono alla
regione dell’infrarosso termico.
In seguito, attraverso l’utilizzo
integrato delle tecnologie di telerilevamento
implementate in
ambiente GIS, è stato possibile
analizzare le caratteristiche della
struttura urbana e, in particolare,
comprendere come variano le
temperature all’aumentare della
distanza dalle aree verdi.
14 GEOmedia n°6-2016
REPORT
Area di studio
La città di Palermo si trova ad
una latitudine di 38°06’56”N
e longitudine di 13°21’41”E,
con un’altitudine di 14 m s.l.m.
Il Comune si estende per una
superficie pari a 160,59 Km 2
con una popolazione di 678 492
abitanti. La città è caratterizzata
da un clima temperato delle medie
latitudini con estati asciutte e
calde e inverni freschi e piovosi.
Nell’analisi condotta è stata presa
in considerazione una strisciata
corrispondente alla zona Ovest di
Palermo delimitata a nord dalla
borgata marinara di Mondello e a
sud dalla valle del fiume Oreto.
La scelta dell’area è stata orientata
dalla presenza di differenti tipologie
di tessuto urbano, al fine
di verificare il comportamento
delle temperature al variare delle
differenti coperture di uso del
suolo. Sono, infatti, presenti aree
consolidate ad alta densità, con
tessuto diffuso a media e bassa
densità e aree verdi di notevole
estensione. Tra le infrastrutture
presenti, Viale della Regione
Siciliana è quella che segna
maggiormente il territorio,
attraversandolo da nord a sud.
Questa, se da un lato rappresenta
un fondamentale elemento di
decongestionamento del traffico
urbano, dall’altro provoca un inquinamento
acustico e atmosferico
tale da ridurre la qualità della
vita e della salute dei cittadini.
Tale impatto viene testimoniato
da dati relativi alle emissioni di
CO (g/Km) ricavate con l’applicazione
del metodo COPERT
II (COmputer Programme to
calculate Emission from Road
Traffic) nell’ambito delle attività
del progetto CORINAIR
(COoRdination Information
AIR) (Corriere, 2011). Da qui la
necessità di eseguire analisi più
approfondite con l’obiettivo di
quantificare le variazioni di temperatura
dovute all’aumento delle
distanze dalla vegetazione.
Materiali e metodologia
L’immagine è stata acquisita dal
sensore MIVIS (Multispectral
Infrared and Visible Immaging
Spectrometer) che opera con
un’elevata risoluzione spettrale
e spaziale. I dati sono stati rilevati
con un volo effettuato sulla
città di Palermo nel luglio del
2002, intorno alle ore 12, ora
che ha permesso di ridurre le
zone d’ombra data la posizione
zenitale del sole. L’immagine è
stata calibrata radiometricamente
e corretta geometricamente al
fine di eliminare le distorsioni
geometriche e radiometriche
dovute al sistema di acquisizione,
al mezzo di propagazione del
segnale, all’angolo di ripresa e
all’effetto della curvatura terrestre.
Successivamente l’immagine
MIVIS è stata georeferenziata
nel sistema cartografico di riferimento
WGS84 UTM33.
Per elaborare l’immagine in
esame si è fatto uso del software
ENVI (Environment for
Visualizing Images), realizzato
dalla Research Systems Inc., nella
versione 4.3. Questa è stata
sottoposta inizialmente ad una
fase di calibrazione mediante
l’utilizzo del metodo empirico
lineare che rimuove approssimativamente
l’irradianza solare,
l’assorbimento atmosferico, gli
effetti di scattering e permette di
passare da valori di radianza a valori
di riflettenza. A tal proposito
si è fatto riferimento ad alcune
misurazioni condotte su alcune
porzioni di asfalto, messo in opera
da poco, e su della ghiaia.
Sono state compiute molteplici
elaborazioni con le tecniche di
classificazione pixel-based, utilizzando
i differenti algoritmi implementati
nel software ENVI, al
fine di valutare e confrontare le
mappe tematiche risultanti dalle
differenti metodologie di classificazione.
Si è potuto constatare
che il risultato qualitativamente
migliore e più rappresentativo
per il territorio osservato è stato
ottenuto con l’algoritmo SAM.
Questo richiede come input un
numero di aree di prova (training
areas) o spettri di riferimento,
derivanti da specifiche ROI
(Region of Interest). Nel presente
studio gli spettri input
sono stati ricavati da ROI
individuate nella scena, dove la
metodologia seguita si è avvalsa
di un’analisi visiva di sintesi
additive in RGB. Ogni ROI è
costituita da raggruppamenti di
pixel il più possibile omogenei
e rappresentativi, che serviranno
ad addestrare l’algoritmo di
classificazione affinché associ
ogni pixel dell’immagine ad
una data categoria. Le ROI
utilizzate per la classificazione
fanno riferimento a 5 classi
di copertura del suolo (Asfalto,
Vegetazione, Edifici con Tetto
bianco, Edifici con Tetto rosso)
più la classe Ombra. La distinzione
tra Tetti rossi e Tetti
bianchi è servita non solo ad individuare
la tipologia di uso del
suolo, ma anche ad analizzare
le caratteristiche termiche dei
ROI NAME COLOR PIXELS POLYGONOS FILL ORIEN ORIENT
Ombra Sea Green 38 3/38 Solid 45 0.10
Asfalto Magenta 186 4/186 Solid 45 0.10
Vegetazione Green 472 12/147 Solid 45 0.10
Edifici con Cyan 60 5/60 Solid 45 0.10
tetto bianco
Edifici con Red 30 3/30 Solid 45 0.10
tetto rosso
Suolo nudo Yellow 34 2/34 Solid 45 0.10
Fig. 2 – ROI strisciata immagine MIVIS 2002
GEOmedia n°6-2016 15
REPORT
materiali utilizzati. Anche la
classe Ombra, fornisce più che
informazioni relative all’uso del
suolo, informazioni termiche,
in quanto temperature inferiori
nella classe dell’asfalto o dell’urbanizzato
non sarebbe state
altrimenti spiegate.
Nel processo decisionale di
classificazione sono state utilizzate
le bande da 1 a 32 e da 93
a 102. Le bande centrali sono
state escluse al fine di evitare sovrapposizioni
tra le firme spettrali,
con conseguenti errori di classificazione
dei pixel. Attraverso
il processo di classificazione si
passa da un’immagine composta
da Digital Number ad un’immagine
di classi corrispondenti
alle categorie di usi del suolo.
Nonostante la classificazione
ottenuta mediante l’utilizzo
dell’algoritmo SAM sia stata la
migliore, si è potuto riscontrare
come una medesima classe tematica
fosse al suo interno molto
variegata e risultasse costituita da
classi spettrali differenti fra loro.
L’errore che può essere commesso
durante il processo di classificazione
è quello di assegnare un
pixel ad una categoria o classe
diversa da quella a cui appartiene.
Per avere contezza dell’errore
commesso, si ricorre alla “verifica
di accuratezza” che prevede la
realizzazione di una matrice di
confusione, ovvero una matrice
quadrata in cui vengono riportati
i risultati dal confronto tra
la mappa tematica prodotta in
seguito alla classificazione e la
verità di riferimento. La matrice
ha dimensione q×q, dove q è il
numero delle classi o categorie
nella mappa; le colonne rappresentano
i dati di riferimento
(verità), mentre le righe rappresentano
i dati della classificazione.
Il software ENVI può calcolare
una matrice di confusione
utilizzando la ground true image
oppure le ground true ROIs. Nel
presente lavoro è stato utilizzato
CLASS TETTI SUOLO ASFALTO OMBRA TETTI VEGETAZIONE TOTALE
ROSSI NUDO
BIANCHI
Unclassified 0 0 0 0 69 0 69
Tetti rossi 127 0 0 0 0 0 127
Suolo nudo 40 111 0 0 0 0 151
Asfalto 0 54 46 0 0 0 100
Ombra 0 35 55 108 0 0 198
Tetti bianchi 0 0 0 0 50 0 50
Vegetazione 0 0 0 0 0 175 175
Totale 167 200 101 108 119 175 870
Fig. 3 – Ground Truth (pixels).
il secondo metodo che prevede la
realizzazione di ulteriori ROI di
verità a terra, che saranno confrontate
con le ROI utilizzate per
la classificazione delle immagini.
Il prodotto dell’analisi comprende
una valutazione di accuratezza
totale in percentuale (Overall
Accuracy), data dal rapporto tra
i pixel classificati correttamente
e i pixel totali; il coefficiente
kappa; la matrice di confusione,
nella cui diagonale vengono
rappresentati i pixel classificati
correttamente; gli errori di commissione
(percentuale di pixel
in più nella classe); gli errori di
omissione (percentuale di pixel
lasciati fuori dalla classe di appartenenza);
le precisioni producer
and user (utente e produttore)
per ogni classe. La precisione
producer è la probabilità che un
pixel nell’immagine classificata
venga assegnato alla classe x
dato che la classe di verità a
terra è x. La precisione user è la
probabilità che la classe di verità
a terra sia x dato che il pixel è
CLASS
COMMISSION
stato assegnato alla classe x nella
classificazione.
Di seguito si riportano la verifica
di accuratezza dell’intera strisciata
presa in esame.
Overall Accuracy: (617/870)
70,9195%; Coefficiente Kappa:
0,6547
Si è cercato a questo punto di
migliorare i risultati fin qui ottenuti
eseguendo un’operazione
di filtraggio che consiste nell’eliminare
i pixel che in realtà non
appartengono alla classe corretta.
Tale operazione sfrutta, per determinare
il valore del pixel di
destinazione, il valore di alcuni
pixel ad esso più vicini. Nel caso
specifico si è scelto un quadrato
di 3x3 pixel in cui quello in esame
si trova in posizione centrale.
In questo modo è stato possibile
risolvere le problematiche connesse
alla presenza di pixel isolati
presenti in altre classi.
Successivamente l’immagine
classificata è stata importata in
ambiente GIS come shapefile,
elaborata con il software ArcGis
OMISSION
COMMISSION
OMISSION
%
%
(pixels)
(pixels)
Tetti rossi 0 23,95 0/127 40/167
Suolo nudo 26,49 44,50 40/151 89/200
Asfalto 54,00 54,46 54/100 55/101
Ombra 45,45 0 90/198 0/108
Tetti bianchi 0 57,98 0/50 69/119
Vegetazione 0 0 0/175 0/175
Fig. 4 – Errori di commissione e omissione.
16 GEOmedia n°6-2016
REPORT
10.0 e ulteriormente corretta,
in quanto sono state riscontrate
anomalie nella classificazione del
suolo nudo, erroneamente individuato
come Edifici con tetto
rosso. È stata quindi fatta una
query selezionando tutti i poligoni
classificati come Tetti rossi
che presentavano una superficie
maggiore di 5000 mq, per verificare
di volta in volta la reale
classe di appartenenza. Si sono
riscontrati, inoltre, degli errori
relativi alla classe dell’Asfalto che
spesso presentava al suo interno
porzioni rocciose di Suolo nudo;
anche queste sono state di volta
in volta verificate e corrette.
Non avendo, inoltre, inserito
all’interno delle ROI la classe
Acqua il mare viene classificato
come Ombra. In questa fase di
correzione, pertanto, il mare è
stato ritagliato dall’immagine
in modo da non tenerne conto
nelle successive elaborazioni. Pur
non essendo l’Ombra, una tipologia
di copertura di uso del suolo,
è stato necessario mantenerla
come classe a sé, in quanto le
zone d’ombra creavano dei problemi
nella classificazione. Sono
state così ottenute le immagini
finali, sulle quali sono state calcolate
le percentuali di coperture
di uso del suolo. Nella strisciata
si ha il 27,80% di Suolo nudo,
il 22,53% di Vegetazione, il
19,52% di Ombra, il 13,03% di
Asfalto, il 9,52% di Edifici con
tetto rosso e il 7,60% di Edifici
con tetto bianco.
Dall’immagine MIVIS è stata
poi realizzata una termografia
prendendo in considerazione le
bande dell’infrarosso termico
CLASS PROD. ACC.
%
USER. ACC.
%
PROD. ACC. USER. ACC.
(pixels
(pixels)
Tetti rossi 76,05 100,00 127/167 127/127
Suolo nudo 55,50 73,51 111/200 111/151
Asfalto 45,54 46,00 46/101 46/100
Ombra 100,00 54,55 108/108 108/198
Tetti bianchi 42,02 100,00 50/119 50/50
Vegetazione 100,00 100,00 175/175 175/175
Fig. 5 – Precisioni utente e produttore.
(dalla 93 alla 102 corrispondenti
alle lunghezze d’onda comprese
tra 8,2 e 12,7 μm). In particolare
estraendo la banda 93 (con
lunghezza d’onda compresa tra
8,20 e 8,60 μm) è stato possibile
ricavare valori di emissività delle
superfici, ossia valori di temperatura.
Le informazioni ottenute
con la realizzazione dell’immagine
termica sono servite a comprendere
come le componenti
del paesaggio urbano influenzino
le dinamiche della radiazione
termica e come vi sia dunque
una forte correlazione tra caratteristiche
delle superfici urbane
e temperatura. Per rappresentare
le variazioni di temperatura è
stata utilizzata una graduazione
di colori che va dal verde delle
zone più fredde al rosso delle
zone più calde. Importando le
immagini in ambiente GIS è
stato possibile calcolare le temperature
medie di ogni classe
di uso del suolo. Nell’intera
strisciata la temperatura media
più elevata si ha per il Suolo
nudo con 36,99°, seguono gli
Edifici con tetto rosso e l’Asfalto
con 36,02°, gli Edifici
con tetto bianco con 34,47°,
la Vegetazione con 30,81° e per
ultima l’Ombra con 28,99°.
Nonostante il Suolo nudo sia
caratterizzato da una superficie
permeabile in cui si ha il processo
di evapotraspirazione, l’assenza
totale di vegetazione e di zone
d’ombra lo rende la superficie
più calda. Gli Edifici con tetto
rosso hanno una temperatura
più elevata rispetto a quelli con
Tetto bianco, in quanto superfici
con vernici o materiali chiari
riflettono gran parte della radiazione
proveniente dal sole,
assorbendone quantità irrisorie.
Inoltre, un tessuto a bassa densità
intervallato da vegetazione
può contribuire all’abbassamento
delle temperature; tuttavia
anche il tessuto consolidato
presenta temperature inferiori a
causa della formazione di zone
d’ombra tra gli edifici. L’asfalto
delle strade e dei grandi parcheggi
crea delle vaste superfici
impermealizzate e assorbe una
quantità notevole di radiazione,
a causa del colore scuro dei manti
bituminosi. Al contrario i tetti
bianchi, per le loro proprietà
riflettenti, e la vegetazione presentano
temperature inferiori.
Quest’ultima, infatti, caratterizza
i suoli permeabili favorendo
Fig. 6 – Classificazione finale – Strisciata immagine MIVIS 2002.
GEOmedia n°6-2016 17
REPORT
Fig. 7 – Termografia – Strisciata immagine MIVIS 2002.
il processo di evapotraspirazione
e garantisce la presenza di zone
d’ombra. Le informazioni ottenute
dall’analisi termica hanno
confermato la presenza di elevate
temperature in corrispondenza
di forti emissioni di CO, nello
specifico l’attenzione è stata
rivolta su due tratti stradali di
Viale della Regione Siciliana,
quantificando le variazioni di
temperatura dovute all’aumento
delle distanze dalla vegetazione.
Al fine di verificare il comportamento
delle temperature in aree
con tipologie di tessuto urbano a
bassa densità edilizia e in assenza
di forti emissioni di CO, sono
state prese in considerazione due
porzioni di territorio caratterizzate
dalla presenza di aree verdi.
L’analisi prevede innanzitutto
di estrapolare la vegetazione
dalla classificazione effettuata
precedentemente e importarla in
ambiente GIS, dove saranno costruiti
cinque buffer con larghezza
di 3 m attorno alle aree verdi,
aumentando progressivamente la
distanza da queste. Il primo parte
direttamente dal limite esterno
della vegetazione (si indicherà
in seguito a una distanza di 0
m), il secondo da una distanza
di 3 m, il terzo di 6 m, il quarto
di 12 m e infine l’ultimo di 18.
Successivamente i buffer così costruiti
vengono intersecati con la
classificazione, al fine di calcolare
le temperature medie di ogni
classe all’interno di ogni buffer,
per comprenderne il comportamento
all’aumentare delle distanze
dalla vegetazione. Sotto si
riportano le variazioni di temperatura
in C° (asse Y) rapportate
all’aumento delle distanze in m
dalla vegetazione (asse X).
Nelle immagini si può notare
come le classi di uso del suolo
presentino un cambiamento
repentino delle temperature alle
distanze di 0, 3 e 6 m dalla vegetazione,
mentre le variazioni
diventano meno evidenti dai 6
ai 18 m, ad eccezione della classe
Ombra. In particolare le temperature
di tutte le classi tendono
ad innalzarsi all’aumentare della
distanza dalla vegetazione, ad
esclusione delle classi Asfalto e
Ombra. Nello specifico si può
notare come tutte le classi, ad
esclusione dell’Ombra, presenti-
Fig. 8 – Variazioni di temperatura a diverse distanze dalla vegetazione per classi di copertura di uso del suolo.
Fig. 9 - Variazioni di temperatura a diverse distanze dalla vegetazione per classi di copertura di uso del suolo.
Fig. 10 - Variazioni di temperatura a diverse distanze dalla vegetazione per classi di copertura di uso del suolo.
Fig. 11 - Variazioni di temperatura a diverse distanze dalla vegetazione per classi di copertura di uso del suolo.
18 GEOmedia n°6-2016
no un andamento logaritmico
con coefficiente di determinazione
(più comunemente
R 2) che varia da un minimo di
circa 0,70 per l’Asfalto ad un
massimo di 0,98 per il Suolo
nudo. Si può scrivere, quindi,
la seguente equazione:
∆T= k (lnxi-lnxi-1)
Dove ∆T rappresenta la differenza
di temperatura tra il
buffer nella distanza xi e il precedente
xi-1; k è una costante.
Pertanto è possibile determinare
la differenza di temperatura
in funzione della distanza
dalla vegetazione, in quanto a
valori bassi di ∆T corrispondono
distanze ridotte tra le
diverse piantumazioni di verde;
viceversa fissato ∆T è possibile
quantificare le distanze
tra le diverse piantumazioni.
Tuttavia la temperatura media
dell’intero buffer non dipende
più soltanto dalla distanza dalla
vegetazione ma anche dalle
percentuali di copertura di
ogni classe presente.
Inoltre, come si evince dalle
ultime due immagini e grafici,
una distribuzione diffusa nel
territorio di aree verdi (Fig.
11) favorisce un significativo
abbassamento delle temperature
di circa 2 gradi, rispetto
alla presenza della stessa quantità
di verde (circa il 50% per
entrambe le figure). concentrato
in determinate aree (Fig.
10).
Conclusioni
Le aree urbane rappresentano
gli ambiti più a rischio per
i cambiamenti climatici, in
quanto laddove è più alta la
densità abitativa maggiori
sono i rischi ambientali e
sociali. Le città dovranno contribuire
ad adattarsi al cambiamento
climatico e allo stesso
tempo mitigarlo, adottando
politiche che affrontino le due
problematiche in maniera integrata.
Mentre l’adattamento
richiede strategie,
politiche e azioni specifiche a
livello locale per aumentarne
la resilienza al cambiamento,
la mitigazione è un’azione
globale che richiede sostanziali
cambiamenti del comportamento
individuale ed importanti
innovazioni tecnologiche.
Pertanto se gli interventi
vengono applicati sul singolo
edificio si ha come conseguenza
una riduzione della temperatura
delle superfici delle
singole abitazioni, consentendo
di ridurre il consumo
di energia elettrica. Ma se le
azioni di mitigazione vengono
effettuate da molte strutture,
le numerose riduzioni di temperatura
locale e di emissioni
di calore antropogenico provocano
una diminuzione della
temperatura di tutta la città,
apportando un vantaggio per
l’intera collettività e di conseguenza
una migliore qualità
dell’aria. Fondamentale risulta
quindi contribuire alla conoscenza
dei fenomeni in atto ed
alle possibilità di adattamento
che i centri urbani possono
attuare. Nel presente studio
il telerilevamento si è rivelato
una tecnica eccellente per la
rilevazione delle temperature,
confermando che la presenza
di superfici asfaltate, la
continua cementificazione e
l’inquinamento atmosferico
sono le principali cause della
generazione di calore urbano.
Da qui la necessità di attuare
interventi di greening urbano
con un’ottica multiobiettivo
che affianchi alle funzioni termoregolative,
anche quelle di
ottimizzare la risposta idrologica,
apportando conseguenze
positive sotto il profilo ambientale,
ecologico ma anche
estetico, sociale e culturale.
REPORT
BIBLIOGRAFIA
Arnfield A. J. (2003), Two decades of urban climate research: a
review of turbulence, exchanges of energy and water, and the urban heat
island, in “International journal of climatology” 23
Brivio P. A., Lechi G., Zilioli E. (2006), Principi e metodi di Telerilevamento,
Città Studi Edizioni
Corriere F. (2011), Impianti ettometrici e infrastrutture puntuali per i
trasporti, FrancoAngeli
Department of Environmental Science and Engineering, Fudan University
(2009), Remote sensing evaluation of urban heat island and its
spatial pattern of the Shanghai metropolitan area, China, in “Ecological
Complexity” 6
Department of Physics, Faculty of Science, Mahasarakham University
and Department of Geoinformatics, Faculty of Informatics,
Mahasarakham University (2012), Urban heat island monitoring
and analysis by using integration of satellite data and knowledge based
method, in “International Journal of Development and Sustainability,
Vol. 1 Number 2
Institute of Space and Earth Information Science, Yuen Yuen
Research Centre for Satellite Remote Sensing, The Chinese
University of Hong Kong (2011), Urban Heat Island Analysis Using
the Landsat TM Data and ASTER Data: A Case Study in Hong Kong,
in “Remote Sensing” 3
Key Laboratory of Soil & Water Conservation and Desert Prevention,
Ministry of Education, Beijing Forest University (2008), Study
on the distribution changes of urban heat island based on heat-grenness
feature space, in “The International Archives of the Photogrammetry,
Remote Sensing and Spatial Information Sciences” Vol. XXXVII.
Part B7
Oke T. R. (1973), City size and the urban heat island, Atmospheric
Environment, 7.
Oke T. R. (1995), The heat island characteristics of the urban boundary
layer: Characteristics, causes and effects, in “Wind Climate in Cities”
Oke T.R. (1997), Urban Climates and Global Environmental Change,
in “Thompson, R.D. and A. Perry (eds.) Applied Climatology: Principles
& Practices”, New York
Rizwan, Ahmed Memon, Leung Dennis Y.C. e Chunho Liu (2008),
A review on the generation, determination and mitigation of Urban
Heat Island, in “Journal of Environmental Sciences” 20
Stanganelli M., Soravia M. (2012), Consumo energetico e caratteristiche
della morfologia urbana, in “Planum. The Journal of Urbanism”, n.
25, vol 2
State Key Laboratory of Information Engineering in Surveying,
Mapping and Remote Sensing (LIESMARS) and Marine Science
and Environmental Studies, University of San Diego (2006).
PAROLE CHIAVE
Telerilevamento; analisi spaziale; isole di calore urbano; territorio
ABSTRACT
The techniques of spatial analysis and Remote Sensing represent an useful tool for
the knowledge and the study of the Urban Heat Island phenomenon (English acronym
UHI). In this study, among the different causes that lead to the generation
of the event, those regarding physical features of the surface and the presence of
different land use/cover such as: the high cover of urban areas and the lack of green
areas have been examined. The Remote Sensing techniques allow to create maps
of the land use/cover, then, in order to estimate the different in temperature due
to the distance to the vegetation, the temperature of the bodies already tested have
been compared with a thermal map. In detail the aim of the research is to examine
the presence of the phenomenon in Palermo, through the analysis of portion of soil
with different morphological features.
AUTORE
Sabrina Adelfio,
sabrina.adelfio@gmail.com
Caterina Enea
eneakatia@libero.it
Università di Palermo, Scuola Politecnica, Dipartimento
di Architettura, Viale delle Scienze, Edificio 14, Palermo.
Giuseppe Bazan
Giuseppe.bazan@unipa.it
Pietro Orlando
pietro.orlando@unipa.it
Università di Palermo, Scuola Politecnica, Viale delle
Scienze, Edificio 14, Palermo.
NOTA DELLA REDAZIONE
Il tema di questo articolo è stato presentato per la prima volta
nella XIX Conferenza ASITA. GEOmedia n°6-2016 19
REPORT
Soluzioni informatiche innovative a
supporto della Decostruzione Selettiva
di Antonio Bottaro
Soluzioni informatiche
innovative per ridurre
l'impatto del processo edilizio
sull'ambiente e sul riuso
dei materiali da costruzione
intesi come risorse da reimpiegare
nell’intervento
edilizio stesso. È necessario
volgere verso un modello
a “zero energia” e a “zero
rifiuti”.
Dobbiamo sentirci tutti
coinvolti nel portare
un contributo all’elaborazione
di una risposta
collettiva di contrasto rispetto
ai cambiamenti climatici che
affliggono i nostri tempi.
Un contributo in tal senso può
venire dall’adeguamento del
ciclo di vita del ‘Fabbricato’ che,
considerato alla stregua di un
’organismo edilizio’, può essere
riportato in linea con la natura
ciclica di fenomeni naturali (paradigma
ecologico).
Questo vuol dire orientare le
attività di ricerca all’individuazione
di soluzioni atte alla
‘chiusura del cerchio’ inerente
il ciclo di vita del fabbricato in
modo che venga modificata la
tradizionale risposta ‘lineare’
(Cradle to Grave: dalla culla alla
tomba), grandemente energivora,
verso la realizzazione di
diversi cicli di decostruzione/ricostruzione
che consentano, l’adozione
di un sempre maggior
contenuto di ‘riuso’ dei materiali
(Cradle to Cradle: dalla culla
alla culla).
Le ristrutturazioni cicliche infatti
ben si adattano al naturale
processo di efficientamento del
Fabbricato che si adegua, nel
tempo, all’evoluzione delle tecnologie
e dei materiali connessi
ai diversi aspetti che lo riguardano:
energetico, di sicurezza,
sismico, etc.
Al fine di ridurre effettivamente,
ed in modo complessivo gli
impatti ambientali dovuti agli
interventi edilizi, appare necessario
ed imprescindibile, che il
progetto si faccia carico del tema
dei materiali in modo complessivo.
Il processo edilizio ed il
progetto tecnologico devono essere
rinnovati per far sì che possano
accogliere le istanze ambientali
in modo completo. In
questo senso, al modello a ‘zero
energia’ (ciascun fabbricato deve
produrre almeno l’energia che
consuma) si deve integrare l’aspetto
della costruzione a ‘zero
rifiuti’. Con questa espressione
si intende richiamare il nuovo
paradigma progettuale nel quale
i materiali di scarto, derivanti
dalle demolizioni, siano intesi
come risorse da re-impiegare
nell’intervento edilizio stesso.
Riuscire a tenere conto dei
materiali in sede di progetto
è un tema importante anche
nella governance delle politiche
di incentivazione al riuso. Le
amministrazioni necessitano di
strumenti idonei al computo ed
anche al controllo delle quantità
oggetto di riuso o di avvenuto
‘smaltimento’ nelle corrette filiere
di recupero.
Servono quindi nuovi strumenti
per tenere in debito conto, nel
ciclo di vita di un manufatto,
20 GEOmedia n°6-2016
REPORT
il trattamento digitale dei ‘materiali’
nel tempo, supportando
nuove esigenze di progetto quali:
il Design for Deconstruction,
il Design for Recycling ed il
Design for Waste.
Andranno prodotte scene di
realtà aumentata, georiferite al
territorio, innestate su modellazioni
3D veloci, facilmente
navigabili e misurabili. I materiali
dovranno essere ’battezzati’
secondo codifiche internazionalmente
riconosciute.
Tutti i cicli di ristrutturazione
prevedono atti preliminari di
decostruzione e di successiva
ri-costruzione mirati alla
sostituzione di ‘materiali’ per
il raggiungimento di stati di
maggiore efficientamento.
Contemplare i materiali in questo
nuovo contesto comporta
il loro riporto, nei Data Base
associati, attraverso codifiche
idonee sia al loro smaltimento
(in Europa sono le codifiche
CER – Codifica Europea dei
Rifiuti) che, ad esempio, per la
fase di progettazione del ‘nuovo’,
dall’utilizzo di codifiche
conformi a quanto richiesto
dal BIM (Building Information
Modeling).
La tendenza a non antropizzare
più nuovo terreno ma a meglio
riutilizzare quanto ‘costruito’ ed
in disuso, o non efficientatile, è
una necessità che sta diventando
sempre più cogente nelle
società avanzate. A tale proposito
si rileva che si possiede
una ottima conoscenza dei costi
di costruzione (ex-novo) ma si
conosce poco dei prezzi di sostituzione
(completa demolizione
selettiva). Una moderna demolizione
selettiva richiede l’intervento
umano che comporta costi
assicurativi elevati in ragione
della ovvia pericolosità di detta
classe di interventi. Questo
aspetto apre quindi il tema della
‘guida’ automatica di automi
in grado di sostituire l’uomo.
E’ necessaria quindi una modellazione
3D, aumentata dal
punto di vista metrico mediante
contributi fotogrammetrici per
una definizione utile di tipo
centimetrico. In tale contesto
dovrà essere possibile guidare
automi senza la presenza umana
(Droni) che saranno in grado di
operare in un contesto, anche
semanticamente conosciuto, restituendo,
in tempo quasi reale,
gli aggiornamenti sulla realtà
che contestualmente contribuiscono
a ‘modificare’.
La demolizione selettiva è però
un processo che si ‘innesta’ su
un ‘quadro’ di espletamenti
burocratici che attualmente
affiancano il processo con un
notevole ‘peso’. I processi di
informatizzazione della componente
‘burocratica’ nascono,
comunemente, come mera
trasposizione, in formati digitalmente
memorizzabili, di quanto
precedentemente richiesto sotto
forma ‘cartacea’. L’effettuazione
di questo passo consente di
certo il superamento della carta
e, nella migliore delle ipotesi,
con la standardizzazione dei
formati e dei processi, si può
raggiungere un più elevato livello
di automazione attraverso
il trattamento digitale dei dati
ottenibile mediante elaborazione
informatica. Sono risultati
importanti ma che non colgono
a pieno le positività insite in
un vero processo di digitalizzazione.
Anche il documento
noto come ‘Piano di gestione
dei rifiuti’, in tal senso, non
costituisce un’eccezione. Tutte
le informazioni codificate al suo
interno sono infatti 'digitalizzate'
solo ai sensi di una dematerializzazione
del documento e
non per un possibile loro riutilizzo
in un processo digitale.
Un’informatizzazione di solo
primo livello può fornire la
possibilità di riporto dei dati
previsti per detto documento,
ospitabili in un opportuno
‘cartiglio’, redatto a partire da
‘dati’ che il professionista compila
e correda attraverso il loro
reperimento con un processo
di acquisizione, per ispezione
diretta sul posto, eventualmente
arricchito da elementi della propria
conoscenza professionale
supportata da archivi (codici,
foto, manuali, abachi…) che
consente, ovviamente, la formalizzazione
di un lavoro serio di
perizia, ma non è in grado di
ottimizzare a pieno il portato
di un processo che, ove svolto
in una filiera ad elevato livello
di contenuto di servizi digitali,
vedrebbe il tutto dipanarsi ad
un più elevato livello di risoluzione
automatica delle complessità
sottese.
Provare a pensare l’intero processo
trasposto in un’ottica
digitale significa affrontarlo in
un contesto di trasposizione
della realtà in realtà aumentata
che coinvolge una modellazione
3D, opportunamente ‘aumentata’
nel senso della ‘vestizione’
GEOmedia n°6-2016 21
REPORT
degli spazi con le informazioni
provenienti dai consueti processi
di 3D‘data capture’. In
tale processo va logicamente
separato quanto utile alla ‘navigazione’
da quanto necessario
al processo di misura. Per avere
rappresentazioni fedeli a livelli
di precisione elevata servono
grandissime moli di dati, mentre,
per una corretta navigazione
in una realtà virtuale, molto
simile alla vera, è sufficiente
solo un piccolo sottoinsieme di
punti.
Ai professionisti andranno forniti
servizi e processi digitali
in grado di operare su scenari
di realtà virtuale/aumentata
che consentano di ‘entrare’ in
un modello evoluto di ‘modellazione
3D’ (quest’ultima
sviluppata da RomaTre nell’ambito
del Computational Visual
Design (CVD-Lab) e denominata
LAR -Linear Algebraic
Representation) sulla quale è
‘strutturalmente’ possibile operare
anche con i consueti operatori
matematici differenziali.
Questa realtà virtuale dovrà
essere servita della possibilità di
georiferire le informazioni proprie
alle diverse specializzazioni
professionali che operano sullo
steso contesto (e sulla medesima
rappresentazione) consentendo
la disamina delle diverse ‘viste’
secondo gli specifici argomenti
che si desidera affrontare:
Design for Deconstruction,
il Design for Recycling ed il
Design for Waste.
L’avere il tutto contestualizzato
secondo i codici CER consente
di avere in automatico sia la
valutazione del costo finale di
smaltimento dei diversi cicli
di ristrutturazione che i dati
connessi al ‘riuso’ con l’annessa
produzione automatica del carico
‘burocratico’ (es. Piano di
smaltimento dei rifiuti, Registro
di carico e scarico, FIR, componente
MUD). Nel caso ‘terminale’
della Sostituzione Edilizia
viene prodotto un GANTT
relativo alle ‘fasi’ della decostruzione
selettiva con stima dei
tempi e computo della gestione
ottimizata delle aree di buffer
(scarrabili).
BIBLIOGRAFIA
Altamura, P. (2012). Gestione eco-efficace dei
materiali da costruzione nel ciclo di vita del fabbricato.
Tesi di Dottorato, Sapienza Università
di Roma.
DiCarlo, A., Paoluzzi, A., and Shapiro, V.
(2014). Linear algebraic representation for
topological structures. Comput. Aided Des.,
46:269–274.
Paoluzzi, A., Pascucci, V., Vicentino, M., Baldazzi,
C., and Portuesi, S. (2001). Geometric
Programming for Computer Aided Design.
John Wiley & Sons, Inc., New York, NY, USA.
815 pages.
PAROLE CHIAVE
Soluzioni informatiche; decostruzione;
riuso; rifiuti; modellazione
3D; droni; servizi digitali; realtà
aumentata; PA
ABSTRACT
Building processes and designs have to be renewed
to take account of environmental concerns.
To reduce the impact of construction
projects on the environment, the design needs
to take the issue of building materials into consideration.
Public administrations need suitable
tools for the calculation and the control of reused
or disposed materials. Innovative IT tools
should handle the digital processing of materials
throughout the project, supporting new project
requirements such as: Design for Deconstruction,
Design for Recycling and Design for
Waste.
AUTORE
Antonio Bottaro
abottaro@geoweb.it
GEOWEB S.p.A.
Viale Luca Gaurico 9/11 00143-Roma
http://www.geoweb.it
22 GEOmedia n°6-2016
REPORT
SOLUZIONI DI GEOPOSIZIONAMENTO
topconpositioning.com/hiper-hr
PRESENTA HIPER HR
CONNETTIVITÀ AVANZATA
FORMA
E FUNZIONE
ALTAMENTE
CONFIGURABILE
PRESTAZIONI
SUPERIORI
A PROVA
DI FUTURO
MODERNA TECNOLOGIA DI POSIZIONAMENTO IBRIDO
Traccia tutti i segnali satellitari con la versatilità di gestire qualsiasi progetto. La tecnologia all’avanguardia,
brevettata di HiPer HR, offre elevata ripetibilità di posizionamento in un design compatto.
© 2016 Topcon Positioning Group
GEOmedia n°6-2016 23
REPORT
Forum TECHNOLOGY for ALL
Pubblicate le date 2017 - online gli atti dell'edizione 2016
Si svolgerà dal 17 al 19 ottobre
2017 la quarta edizione
del Forum TECHNOLOGY
for ALL, evento dedicato alle
soluzioni tecnologiche d’avanguardia
per i settori del territorio,
dei beni culturali e delle
smartcity storiche. Giunto alla
sua quarta edizione, il Forum
TECHNOLOGY for ALL si
propone in maniera sempre più
innovativa, con workshop in
campo, formazione e conferenze
per comprendere e diffondere
le applicazioni delle nuove
tecnologie. Come nelle precedenti
edizioni le tre giornate saranno
dedicate a test in campo,
alla formazione e allo scambio
di esperienze in quanto il Forum
è un momento informativo, ma
anche formativo, che segue
l’intero processo di applicazione
delle tecnologie innovative,
dall’acquisizione dei dati all’elaborazione,
dalla strutturazione
all’organizzazione per la diffusione
agli utenti finali. Tra le
novità di quest’anno uno sguardo
alla crescita dell’arte mediatica
nella misura e documentazione
di precisione, vista nella
diffusione anche ai non esperti
degli applicativi per usare semplicemente
tecniche complesse.
Uno sguardo al ruolo dell’Italia
nello sviluppo e conservazione
del patrimonio dell’Umanità e,
a fronte delle recenti emergenze
affrontate, una analisi degli
strumenti per mitigare gli eventi
potenzialmente disastrosi.
Proseguirà il dibattito aperto
sull’apporto ponderato delle
tecnologie che, superato l’entusiasmo
del primo impatto innovativo,
possano effettivamente
essere ammesse a un ciclo di
produzione normato con standard
condivisi per uno sviluppo
socio-economico sostenibile
in cui l’innovazione intelligente
giochi un ruolo chiave
per il Territorio, il Patrimonio
Culturale e le Smart City.
Stiamo progettando anche un
percorso itinerante e distribuito
nel tempo per presentare test sul
campo eseguiti preventivamente
in accordo con le istituzioni
e i siti che parteciperanno all’evento.
La precedente edizione
2016 con oltre mille visitatori,
80 relatori, 28 sponsor e 19 patrocini,
iniziata nella splendida
cornice dell’Area di Massenzio
sulla Via Appia Antica a Roma,
si è conclusa negli spazi articolati
dell’Auditorium della
Biblioteca Nazionale Centrale
di Roma. Nello stile anche fieristico
ed istituzionale il Forum
allargato alla cittadinanza e dedicato
all’innovazione, ha promosso
con sessioni, dibattiti,
incontri e discussioni aperte,
un’interattività tra produttori,
esperti, studiosi, ricercatori,
studenti, utenti ed operatori, disposti
al confronto negli organismi
conferenzieri ed espositivi
che hanno ad3erito all’iniziativa,
strumentale ad un vero
e proprio campus di formazione
con decine di ‘workshops’.
Per consultare gli
Atti del Forum vai su:
http://www.technologyforall.it/
24 GEOmedia n°6-2016
ASSOCIAZIONI
XXXII Congresso
dei Geografi Italiani
Convegno FOSS4G-IT 2017
Il XXXII Congresso geografico italiano, promosso dall’Associazione
dei geografi italiani, si svolgerà a Roma dal 7 al 10 Giugno
2017. Nell’anno in cui ricorrono il centenario della Rivoluzione
d’Ottobre, e il cinquecentenario della Riforma luterana, il tema
del Congresso saranno appunto le rivoluzioni e le riforme. Si
tratta di un tema con il quale la geografia si è confrontata più
volte. In questi ultimi anni si sono poi modificati profondamente
sia i contenuti sia le pratiche della ricerca. Interventi legislativi
e tagli hanno comportato una progressiva precarizzazione e una
sostanziale diaspora dei geografi italiani. Se, da una parte, sono
scomparsi insegnamenti, corsi di laurea e di dottorato, linee di
indagine, dall’altra la ricerca, così come la formazione geografica,
si confronta oggi più che mai con un contesto transdisciplinare e
transnazionale. Il riferimento a paradigmi scientifici unificanti e
a tradizioni consolidate si è indebolito. I linguaggi, gli interessi e
i metodi si sono frammentati anche per via di fenomeni più generali
quali la globalizzazione della ricerca, l’inevitabile ricambio
generazionale, le difficoltà che il mondo contemporaneo pone
in termini di comprensione, rappresentazione, progettualità. Il
Congresso vuole valorizzare questo mosaico di diversità, ma al
tempo stesso ricostruire il senso di un’appartenenza attraverso un
confronto aperto sia all’interno sia e soprattutto verso l’esterno.
Si adottano per questo modalità organizzative inedite rispetto
alle edizioni precedenti: qualsiasi studioso o studiosa potrà proporre
e gestire specifiche sessioni tematiche in autonomia, e la
gran parte del programma congressuale sarà strutturato in sessioni
parallele. L’idea è che il Congresso non debba essere un palcoscenico
per pochi, ma un luogo che si nutre di varietà, confronti
e relazioni orizzontali, aperto al contributo di tutti. L’ambizione
è mostrare come la geografia, una delle forme più antiche di conoscenza
del mondo, sia più che mai viva e vitale: una chiave
di lettura cruciale per comprendere l’attualità e per progettare
alternative, tra nuove riforme e rivoluzioni.
La deadline per la sottomissione degli abstract è il 15 febbraio 2017.
Per maggiori informazioni:
http://www.congressogeografico.it
Per il primo anno tale convegno raccoglie insieme il “XVIII
Meeting degli utenti italiani di GRASS GIS e GFOSS” e il “X
GFOSS DAY” e dedicherà la giornata di sabato a OpenStreetMap.
Date dell’evento
6-11 febbraio 2017 GRASS Community Sprint
8 febbraio 2017 Giornata dedicata ai Workshop
9-10 febbraio 2017 Convegno
11 febbraio 2017 Giornata dedicata a Open
Quanto ne sa la Pubblica Amministrazione di Open Source?
Una recente indagine dell'ISTAT su ICT e Pubblica Amministrazione
ha fatto un quadro non lusinghiero della situazione
Italiana per le PA locali.
In questo senso i software open source possono dare un grande
supporto. Per monitorare questa situazione un gruppo di lavoro
che ha racchiuso personalità universitarie appartenenti al gruppo
degli utenti italiani di GRASS e membri dell'associazione
GFOSS.it ha predisposto un semplice e veloce questionario
(http://goo.gl/forms/tAAXJsIlPZ) utile per raccogliere alcune
indicazioni circa l'utilizzo del software free e open source in
ambito geografico (Geographical Free and Open Sorce Software
- GFOSS) da parte della Pubblica Amministrazione.
Il questionario potrà mettere in luce timori e limiti del software
GFOSS, ma anche evidenziare buone pratiche ed esempi di
amministrazioni virtuose, con l'obiettivo di redigerne un cosiddetto
libro bianco e di presentarne i primi risultati nel corso del
prossimo XVIII meeting che si terrà a Genova il 9 - 10 febbraio
2017.
E' disponibile il programma dettagliato dell'evento,
vedi news qui:
http://www.geoforall.it/kwpy3
grass.gfoss.genova@gmail.com
Convegno AIC 2017
Il convegno annuale dell’AIC del 2017 si terrà a Genova presso il Museo
del Mare dal 10 al 12 maggio del 2017. Organizzato in collaborazione con
l’Istituto Idrografico della Marina, con il Museo del Mare e con l’Università
di Genova, tratterà di Cartografia e crescita blu: conoscenza, politiche,
gestione e rappresentazione di una tematica sensibile. E’ disponibile la
prima circolare con la tempistica per la sottomissione degli articoli e le condizioni
di partecipazione, mentre a breve saranno attivati i link per la diffusione della call e per la trasmissione diretta
di abstract e articoli.
Per maggiori informazioni vedi: http://www.aic-cartografia.it/news/convegno-aic-2017cartografia-e-crescita-blu/
GEOmedia n°6-2016 25
I Monti Virunga
L’immagine satellitare è di tipo radar-composito
ed è stata ottenuta da Sentinel-1:
mostra il sistema dei monti Virunga in Africa
orientale, una catena di vulcani che si estende attraverso
il confine settentrionale del Ruanda con l’Uganda e verso est
all’interno della Repubblica Democratica del Congo.
Mentre la maggioranza di questi otto vulcani è dormiente, due
di essi sono ancora attivi, con le eruzioni più recenti che risalgono
al 2006 ed al 2010. Queste montagne sorgono sull’Alberine Rift,
dove la Placca Somala si allontana dal resto del continente africano.
Quest’area è una delle regioni africane a più alta diversità biologica,
ma l’elevata densità di popolazione umana, la povertà ed i conflitti
costituiscono una sfida alla conservazione. In ogni caso, all’interno
dell’area montuosa è stata realizzata una serie di parchi
nazionali allo scopo di proteggere la
Credits: ESA.
Traduzione: Gianluca Pititto
REPORT
Analisi GIS applicate alla gestione faunistica
Le mappe di rischio di impatto degli ungulati
Fig. 1 - Mappa di impatto in formato
raster. Esempio per il cinghiale comprensorio
di Lucca.
di Alessandro Giugni,
Marco Ferretti,
Leonardo Conti
Gli ungulati selvatici sono
ormai diffusi nella quasi
totalità della penisola italiana.
La loro presenza crea criticità
sia alle colture agricole che
alle strutture e alle attività
antropiche. Una corretta
pianificazione territoriale può
attenuare le problematiche ad
oggi presenti. Gli strumenti
GIS possono aiutare in questa
elaborazione, partendo da
open data disponibili sul web.
La fauna selvatica, ed
in particolar modo gli
ungulati, hanno subito
un incremento demografico e
geografico significativo negli
ultimi decenni, soprattutto in
regioni come la Toscana dove
l’habitat ed il clima sono ideali
per la loro proliferazione. Gli
Ungulati presenti in Toscana
sono i seguenti: Cinghiale
(Sus scrofa L.), Cervo (Cervus
elaphus L.) , Capriolo (Capreolus
capreolus L.), Daino (Dama
dama L.), Muflone (Ovis
musimon P.) (Regione Toscana
2012). Le cause principali
dell’aumento di ungulati sono
l’abbandono delle coltivazioni
in ambiente montano, la
diminuzione della pressione
venatoria, l’aumento delle
aree protette e l’immissione
incontrollata di specie come il
cinghiale (Riga et al. 2011). La
maggiore presenza sul territorio
delle popolazioni di ungulati
selvatici ha portato ad un aumento
di vantaggi e di benefici
sociali ed economici, come il
possibile utilizzo per attività
turistico-venatorie, ma ha
causato anche un aumento di
problematiche relative alla loro
convivenza con l’uomo e alla
loro presenza in zone antropizzate
(Riga et al. 2011, Banti et
al. 2009). Attraverso l’utilizzo
di programmi GIS è però possibile
pianificare strategie gestionali
che possono diminuire
l’impatto di queste specie sul
territorio e favorire un equilibrio
di essi con l’ambiente e le
attività umane.
28 GEOmedia n°6-2016
REPORT
Obiettivo dello studio
Nel corso del 2013 sono state
pubblicate dall’ISPRA (Istituto
per la Protezione e la Ricerca
Ambientale) le Linee Guida per
la Gestione degli Ungulati (Raganella
Pelliccioni et al. 2013).
Una parte di queste riguarda
l’importanza di una corretta
pianificazione territoriale per
la gestione delle criticità legate
agli ungulati, in particolare
nel testo si sottolinea come sia
importante individuare aree
problematiche (dette anche in
un’accezione gestionale non
vocate ad una determinata specie),
dove programmare una
gestione di tipo non conservativo.
Queste aree devono essere
scelte tramite parametri oggettivi,
attraverso strumenti informatici
(GIS) e con tecniche
ripetibili e controllabili. L’obiettivo
di questo studio è stato
quello di creare una mappa di
impatto potenziale degli ungulati
a livello regionale toscano,
secondo le modalità dettate da
ISPRA. Partendo da questa,
si sono poi individuate aree
dove poter svolgere interventi
di controllo faunistico ai sensi
dell’art. 19 L.N. 157/92, per il
contenimento delle specie nei
confronti delle colture agricole
e delle aree antropizzate.
n. Ucs2013 Descrizione Cinghiale Capriolo Cervo Daino Muflone
1 111 Zone residenziali a tessuto continuo 5 5 5 5 5
2 112 Zone residenziali a tessuto discontinuo 5 5 5 5 5
3 1121 Pertinenza abitativa, edificato sparso 5 5 5 5 5
4 121 Aree industriali, commerciali e dei servizi pub. 5 5 5 5 5
5 1211 Depuratori 5 5 5 5 5
6 1212 Impianto fotovoltaico 5 5 5 5 5
7 122 Reti stradali, ferroviarie e infrastrutture tecnici 5 5 5 5 5
8 1221 Strade in aree boscate 5 5 5 5 5
9 123 Aree portuali 5 5 5 5 5
10 124 Aeroporti 5 5 5 5 5
11 131 Aree estrattive 5 5 5 5 5
12 132 Discariche, depositi di rottami 5 5 5 5 5
13 133 Cantieri, edifici in costruzione 5 5 5 5 5
14 141 Aree verdi urbane 5 5 5 5 5
15 1411 Cimitero 5 5 5 5 5
16 142 Aree ricreative e sportive 5 5 5 5 5
17 210 Seminativi irrigui e non irrigui 3 2 2 2 2
18 2101 Serre stabili 5 5 5 5 5
19 2102 Vivai 4 4 4 4 4
20 213 Risaie 4 4 4 4 4
21 221 Vigneti 4 4 4 4 4
22 222 Frutteti 4 4 4 4 4
23 223 Oliveti 2 3 3 3 3
24 2221 Arboricoltura 2 2 2 2 2
25 231 Prati stabili 2 1 1 1 1
26 241 Colture temporanee associate a colture perm. 2 1 1 1 1
27 242 Sistemi colturali e particellari complessi 4 1 1 1 1
28 243 Colture agrarie con presenza di spazi naturali 2 1 1 1 1
29 244 Aree agroforestali 1 1 1 1 1
30 311 Boschi di latifoglie 0 0 0 0 0
31 312 Boschi di conifere 0 0 0 0 0
32 313 Boschi misti di conifere e latifoglie 0 0 0 0 0
33 321 Pascolo naturale e praterie 2 1 1 1 1
34 322 Brughiere e cespuglieti 0 0 0 0 0
35 323 Vegetazione sclerofilla 0 0 0 0 0
36 324 Vegetazione boschiva ed arbustiva in evol. 0 0 0 0 0
37 331 Spiagge, dune e sabbie 3 3 3 3 3
38 332 Rocce nude, falesie, rupi affioramenti 0 0 0 0 0
39 333 Aree con vegetazione rada 0 0 0 0 0
40 3331 Cesse parafuoco 0 0 0 0 0
41 334 Aree percorse da incendio 0 0 0 0 0
42 411 Paludi interne 3 3 3 3 3
43 421 Paludi salmastre 3 3 3 3 3
44 422 Saline 5 5 5 5 5
45 423 Zone intertidali 3 3 3 3 3
46 511 Corsi d'acqua, canali e idrovie 0 0 0 0 0
47 512 Specchi d'acqua 0 0 0 0 0
48 5124 Acquacoltura 0 0 0 0 0
49 521 Lagune 0 0 0 0 0
50 523 Mare 0 0 0 0 0
Tab.1 - Categoria uso del suolo con valori di impatto.
Area di studio e software
utilizzato
L’ area di studio è la Regione
Toscana. Il territorio toscano
è per la maggior parte collinare
66,5%, comprende anche
zone di pianura (circa l’8,4%)
e importanti massicci montuosi
(25,1%) (Regione Toscana
2012).
Per la produzione della cartografia
oggetto dello studio
è stato utilizzato un software
GIS, nello specifico ArcGIS
10.2 di ESRI. Il GIS comprende
una serie di strumenti
software per acquisire, memorizzare,
estrarre, trasformare
e visualizzare dati spaziali dal
mondo reale (Burrough 1986).
Si basa su un DBMS (Data
Base Management System)
spaziale che è capace di gestire
le posizioni degli elementi sul
territorio poiché sono associate
all’informazione geografica oltre
che all’informazione testuale
e numerica.
Produzione della mappa di
impatto potenziale
Dal portale cartografico della
Regione Toscana Geoscopio
(www.regione.toscana.it/
geoscopio) è stato scaricato
l’open data geografico vettoriale
“ucs2013”, che contiene
l’uso e la copertura del suolo
realizzato analizzando le foto
aeree raccolte nel 2013. Tale
file risulta il più aggiornato, in
quanto prodotto dalla Regione
Toscana nel 2015, ed è in formato
vettoriale poligonale, versione
shape file. Il file vettoriale
contiene diversi campi (fields),
il campo che descrive i valori
delle 50 categorie dell’uso del
suolo è ucs2013. Le categorie
sono basate sui tre livelli del
Corine Land Cover (European
Environment Agency 2000),
per alcune di esse la Regione
Toscana ha prodotto un quarto
livello. Sempre dal portale
Geoscopio è stato scaricato il
file poligonale vettoriale con
i confini amministrativi delle
province toscane, è stato quindi
creato un nuovo file nel
quale sono state unite quelle
di Firenze e Prato, essendo da
un punto di vista gestionale un
unico comprensorio omogeneo.
Con la funzione GIS clip l’uso
del suolo regionale è stato suddiviso
nei 9 comprensori del
GEOmedia n°6-2016 29
REPORT
Livello di impatto Categorie Superficie (ha)
0 Nullo 118.154
1 Irrilevante 2.507
2 Aree coltivate, impatto scarso 14.937
3 Aree coltivate aperte, impatto probabile 16.661
4 Aree coltivate di pregio, impatto molto probabile 4.329
5 Aree urbane e similari, impatto certo 20.774
Tab.2 - Tabella categoria uso del suolo con valori di impatto.
territorio regionale: Firenze e
Prato, Arezzo, Grosseto, Livorno,
Lucca, Massa Carrara, Pisa,
Pistoia, Siena.
È stata poi creata una tabella,
denominata Tabella di Impatto
(Tab. 1), con cinque colonne,
una per ogni specie di ungulati
presente in Toscana, e 50 righe,
una per ogni categoria dell’uso
del suolo. Per ogni categoria di
uso del suolo sono stati assegnati
nella tabella suddetta dei
valori che vanno da 0 (impatto
nullo) a 5 (impatto certo), differenziato
a seconda della specie
ungulata. In sintesi i valori
degli impatti sono stati suddivisi
nelle seguenti categorie:
• 5: aree urbane e similari
(impatto certo)
• 4: aree coltivate di pregio
(impatto molto probabile)
• 3: aree coltivate (aperte)
Fig. 2 - Mappa di impatto in formato raster. Esempio per il capriolo nel comprensorio di Lucca
dove l’impatto è possibile
• 2: aree coltivate dove
l’impatto è scarso
• 1: impatto non rilevante
• 0: impatto da considerarsi
nullo
Le prime elaborazioni per arrivare
a definire delle mappe
di impatto potenziale hanno
riguardato operazioni di geoprocessing,
in particolare con la
funzione join field è stata agganciata
la Tabella di Impatto
contenente i valori di impatto
potenziale, ad ogni file vettoriale
poligonale di uso del suolo,
a livello di comprensorio.
Come risultato è stato prodotto
un file poligonale vettoriale
per ogni comprensorio similare
a ucs2013, con la presenza dei
5 campi in più derivanti dalla
tabella (5 impatto certo, 0
impatto nullo), uno per ogni
specie ungulata. Il primo file
creato (vettoriale poligonale,
per ogni comprensorio) è stato
nominato ucs_nomecomprensorio.
Agendo sulla simbologia
è possibile, utilizzando la
classificazione di impatto nei
campi di ogni specie ungulata,
visualizzare facilmente l’impatto
potenziale di ciascuna
specie a livello di comprensorio.
Successivamente sono stati
creati dei file in formato raster,
mediante la funzione convert
polygon to raster, che facilitasse
l’analisi e la lettura (Fig. 1).
Questi file raster hanno celle di
dimensioni 10 m x 10 m, contenenti
i valori di impatto potenziale
per ogni specie ungulata
del file poligonale vettoriale
riferita ad ogni singola cella. Il
30 GEOmedia n°6-2016
REPORT
Sup. Tot. (ha) Sup. Agro-forestale Sup. Intervento Liv. impatto Sup. % Sup. ha
177.363 152.815 86.136 0 14 12.059
1 3 2.584
2 8 6.891
3 35 30.148
4 11 9.475
5 29 24.979
Tab.3 - Tabella superfici per il controllo del cinghiale per ogni livello di impatto.
seguito quanto prodotto per la
specie cinghiale e capriolo.
Selezionando da ucs_nomecomprensorio
i poligoni aventi impatto
più elevato per il cinghiale
(cioè 3-4-5 rispettivamente
seminativi in aree aperte, aree
con colture pregiate, aree urbane)
è stato elaborato un ultefile
è stato prodotto per ogni
specie e per ogni comprensorio,
ed è stato nominato usosuolospecie_comprensorio.
Analizzando la mappa del comprensorio
di Lucca presa come
esempio del lavoro svolto a
scala regionale, è evidente l’impatto
potenziale del cinghiale
maggiormente significativo
nelle aree urbane (ad est Lucca
ed a ovest la Versilia) e nelle
aree agricole di pianura e della
Valle del Serchio. Nella Tabella
2 si riporta l’esempio del
Comprensorio di Lucca. Dalla
tabella si evincono i dati relativi
alle superfici (ha) in relazione
ai diversi livelli di impatto e
alle diverse categorie.
Medesima operazione è stata
svolta per le altre quattro
specie di ungulati per i nove
compresori gestionali. A titolo
di esempio si riporta la
mappa di impatto potenziale
del capriolo nel comprensorio
lucchese. Queste mappe sono
di fondamentale importanza
per la definizione delle aree
problematiche (dette anche
non vocate) agli ungulati, così
come previste da ISPRA.
riore file vettoriale poligonale.
Questo ha consentito di individuare
esclusivamente le zone
dove il cinghiale ha un impatto
significativo. Sono stati eliminati
i poligoni con codice strade
e strade in ambiente boscato
(codici 122 e 1221) e quelli
aventi superficie inferiore ad
Produzione delle mappe
per il controllo art. 19
L.N. 157/92
Successivamente è stato creato
un file per rappresentare le aree
dove è più importante svolgere
il controllo delle specie ai
sensi dell’art. 19 L.N.157/92,
per contenerne il numero. Di
Fig. 3 - Aree da sottoporre al controllo ai sensi dell’art. 19 L.N. 157/92. Esempio per il cinghiale
comprensorio di Lucca.
GEOmedia n°6-2016 31
REPORT
Sup. Tot. (ha) Sup. Agro-forestale Sup. Intervento Liv. impatto Sup. % Sup. ha
177.363 152.815 63.964 0 12 7.676
1 4 2.529
2 7 4.477
3 15 9.595
4 24 15.351
5 38 24.306
Tab. 4 - Tabella superfici per il controllo del capriolo per ogni livello di impatto.
un ettaro. A questo punto, per
i restanti poligoni è stata utilizzata
la funzione buffer, che ha
permesso di creare un contorno
(buffer zone) di 300 metri dagli
stessi. Infine con la funzione
dissolve sono stati uniti i precedenti
buffer in un unico file.
Il file prodotto per ogni comprensorio
è stato denominato
comprensorio_ctrcinghiale.
Da qui si nota che le aree di
Fig. 4 - Aree da sottoporre al controllo ai
sensi dell’art. 19 L.N. 157/92. Esempio per il
capriolo comprensorio di Lucca.
intervento per il controllo del
cinghiale si sovrappongono alle
zone dove il rischio di impatto
è maggiore. Nella Tabella 3
le superfici di riferimento per
ogni livello di impatto.
Per il capriolo, Selezionando
dal file dell’uso del suolo
ucs_nomecomprensorio i poligoni
aventi impatto 4-5 per la
specie (in sintesi aree urbane,
aree con colture pregiate come
vivai o vigneti) è stato elaborato
un ulteriore file vettoriale
poligonale, con ben individuate
le aree a maggiore impatto. Da
questo file sono stati poi eliminati
i poligoni con codice strade
e strade in ambiente boscato
(122 e 1221) e quelli aventi superficie
inferiore ad un ettaro.
Per i restanti è stata utilizzata la
funzione buffer, che ha permesso
di creare un contorno di 300
metri dai poligoni. Infine con
la funzione dissolve sono stati
uniti i precedenti buffer in un
unico file. Il risultato è un file
comprensorio_ctrcapriolo dove è
possibile visualizzare l’area sovrapposta
alla mappa di impatto
potenziale del capriolo.
E’ possibile verificare che l’area
è diversa e inferiore rispetto a
quella del cinghiale (Tabella
4) che si concentra nelle aree
urbane e nelle colture di pregio
e non considera i seminativi.
In tutti e due i casi è evidente,
confrontando gli ettaraggi, che
le aree da sottoporre agli interventi
di controllo sono solo
una parte di tutta la superficie
del comprensorio.
La verifica delle mappe:
danni della specie georiferiti
sovrapposti alla mappa
di impatto
Una volta prodotte le mappe
di impatto, vi era la necessità
di una verifica delle stesse. Per
questo sono stati raccolti e georiferiti
i dati sui danni periziati
degli ungulati all’agricoltura in
possesso di Province e Ambiti
32 GEOmedia n°6-2016
REPORT
Fig.5 - Danni accertati georiferiti e mappe di
impatto. Esempio per il cinghiale comprensorio
di Lucca dal 2011 al 2015.
BIBLIOGRAFIA
Banti, P., Nuti, S., Ponzetta, M.P. & Sorbetti
Guerri, F. (2009), Gli incidenti stradali causati
dalla fauna selvatica nella Regione Toscana. Analisi
del fenomeno nel periodo 2001-2008. Ed. Centro
stampa Giunta Regionale Toscana.
Burrough, P. A. (1986), Principles of Geographic
Information Systems for Land Resource Assessment.
Monographs on Soil and Resources Survey No.
12, Oxford Science Publications, New York.
European Environment Agency (2000),
CORINE Land Cover, Technical Guidelines.
Technical Addendum 2000
Raganella Pelliccioni, E., Riga, F. & Toso, S.
(2013), Linee guida per la gestione degli Ungulati.
Manuali e Linee Guida ISPRA 91/2013
(Retrieved: 01.09.2016)
http://www.isprambiente.gov.it/files/
pubblicazioni/manuali-lineeguida/
MLG_91_2013.pdf
(Retrieved: 01.09.2016)
Regione Toscana (2012), Piano Regionale Agricolo
Forestale 2012-2015. Regione Toscana
http://www.regione.toscana.it/cittadini/
alimentazione
(Retrieved: 01.09.2016)
Riga, F., Genghini, M., Cascone, C. & Di
Luzio, P. (2011), Impatto degli Ungulati sulle
colture agricole e forestali: proposta per linee
guida nazionali. Manuali e Linee guida ISPRA
68/2011.
http://www.isprambiente.gov.it/files/
pubblicazioni/manuali-lineeguida/10673_
MLG_68_2011.pdf
(Retrieved: 01.09.2016)
Territoriali di Caccia (ATC).
I danni accertati non sono stati
inseriti come parametro diretto
per la realizzazione delle mappe
di rischio di impatto, poiché
il dato non copre del tutto il
territorio regionale ma solo
una porzione di esso: i danni
infatti non sono accertati nelle
aree protette (20-30% del
territorio) e negli istituti faunistici
privati (massimo 15% del
territorio) e i danni accertati
non sono tutti i danni effettivi
(possono essere richiesti solo
dalle Aziende Agricole munite
di Partita IVA). Sono stati
sovrapposti i danni georeferenziati
con la mappa di rischio di
impatto per ciascuna specie: si
ottiene una mappa che dimostra
come la quasi totalità dei
danni si concentrino nelle aree
a massimo rischio di impatto.
Il risultato, per il comprensorio
di Lucca riferito ai danni del
cinghiale, è visibile nella Figura 5.
Le mappe di impatto degli
ungulati sono degli strumenti
fondamentali per definire le
aree non vocate/problematiche,
dove seguire una gestione
non conservativa delle specie
ungulate. E’ possibile inoltre
raffinare questa analisi individuando
le porzioni di territorio
dove effettuare le operazioni di
controllo ai sensi dell’art. 19
L.N. 157/92.
PAROLE CHIAVE
GIS; gestione del rischio; pianificazione
faunistica; area non vocata; interventi di
controllo
ABSTRACT
Wild ungulates are widespread in almost all of the
Italian peninsula. Their presence creates critical
both to agricultural crops than to human structures.
Proper wildlife territory planning can mitigate
the problems present today. GIS tools can help
in this process. It is possible through repeatable and
objective measurable data to produce maps of potential
impact of wild ungulates and guide management
decisions through them. The study has
produced maps of potential impact in the Tuscany
territory for species: wild boar, roe deer, red deer,
fallow deer and mouflon. The study also identified
areas where operate through containment strategies
provided by national legislation.
AUTORE
Dott. Alessandro Giugni
giugni.alessandro7@gmail.com
Dott. Marco Ferretti
marco.ferretti@regione.toscana.it
Regione Toscana
Dott. Leonardo Conti
leonardo.conti@unifi.it
GESAAF Università degli Studi di Firenze
GEOmedia n°6-2016 33
GUEST PAPER
A Digital “New World”
The Big Fusion between Ubiquitous Localization
(GNSS), Sensing (IOT) and Communications (5G)
by Marco Lisi
La grande fusione fra
servizi di localizzazione
(GNSS), monitoraggio
remoto (IoT) e
comunicazione (5G).
Fig. 1 - GNSS Multi-Constellation Scenario.
We are at the dawn of
the discovery of a
“New World”: not
a virtual one, but the digital
representation, in all its minute
details, of our physical world, of
planet Earth.
This epochal transition in the
history of mankind is being
triggered by three main technological
trends:
4Ubiquitous Localization and
Timing: Global Navigation
Satellite Systems and other
similar Positioning, Navigation
and Timing (PNT)
infrastructures make possible
a very accurate localization in
space and time of both people
and things;
4Ubiquitous Sensing: from 1
to 10 trillion sensors will be
connected to Internet in the
next decade (a minimum of
140 sensors for every human
being on the planet);
4Ubiquitous Connectivity:
2.3 billion mobile broadband
devices and 7 billion mobile
cellular device in 2014. In the
next years 5G will dramatically
increase both connectivity
and data rates.
Enormous amounts of data are
being collected daily and at an
exponentially increasing rate.
99% of them is digitized and
50% has an associated IP address.
Fig. 2 - the global PNT
infrastructure.
We are practically going for a
detailed digital mapping of the
world around us. It is an entirely
New World we are facing,
but we have not learnt yet how
to navigate and explore it.
Ubiquitous Localization
and Timing
Global Navigation Satellite
Systems, such as GPS, GLO-
NASS, Galileo and Beidou,
constitute together a potentially
34 GEOmedia n°6-2015
GUEST PAPER
Fig. 3 - IoT impacts on business and society.
Data deriving from different
systems and platforms will
be seamlessly “fused” at user
receiver level, guaranteeing a
high degree of availability and
continuity.
interoperable and coordinated
infrastructure, supporting in a
vital way most industrial and
economic aspects of our society
(fig. 1).
Fig. 4 - 5G infrastructure architecture.
GPS in particular is nowadays
considered a worldwide utility,
tightly interconnected with all
other critical infrastructures,
from electric power distribution
systems to air traffic management
systems, from railways to
water and oil piping networks.
In the mind of the average user
(but also in that of many engineers)
the main contribution
of GNSS’s, their true “raison
d’être”, is in providing one’s accurate
position and in allowing
a reliable navigation, be it by
car, by airplane, by train or by
boat.
Precise timing is understood,
at least by engineers, as an enabling
feature of GNSS’s and a
very useful by-product, after
positioning and navigation.
The reality, as shown by studies
performed e.g. by the US Department
of Homeland Security
(DHS), is that in fact timing
is the most strategic and essential
of the services offered by
GNSS’s, and the one most affecting
all critical infrastructures
of our society.
Non-GNSS PNT systems and
technologies are also being developed
worldwide.
In the not so far future, a PNT
system of systems, including
GNSS and non-GNSS infrastructures,
is likely to take place,
while, at user receiver level, a
fusion of data from GNSS and
other sensors (such as inertial
platforms, Wi-Fi, GSM, signals
of opportunity, etc.) will become
normal practice (fig. 2).
Ubiquitous Sensing
(Internet of Things)
The Internet of Things (IoT)
envisions many billions of
Internet-connected objects
(ICOs) or “things” that can
sense, communicate, compute,
and potentially actuate, as well
as have intelligence, multimodal
interfaces, physical/virtual identities,
and attributes.
The IoT is likely to revolutionize
all aspects of our society and
daily life (fig. 3).
Its exponential growth will actually
imply the practical feasibility
of an Ubiquitous Sensing:
from 1 to 10 trillion sensors will
be connected to Internet in the
next decade (a minimum of 140
sensors for every human being
on the planet).
Ubiquitous sensing, or ubiquitous
“geo”-sensing to emphasize
the spatial dimension, as deriving
from IoT and from mobile
broadband communications,
will mean that we will be able
to probe, even in real time,
the phenomena around us, the
surrounding reality, with capabilities
far beyond those made
so far available by our senses.
Enormous amounts of data will
be available for our analyses, all
of them referenced in space and
time.
Ubiquitous
Connectivity (5G)
5G, the forth coming wave in
mobile communications, will
realize a quantum leap towards
the goal of ubiquitous connectivity
(fig. 4).
As a matter of fact, 5G will not
simply extend in a linear way
the capabilities of the previous
GEOmedia n°6-2015 35
GUEST PAPER
Fig. 5 - 5G and the Internet of Things.
Fig. 6 - 16th century plan of the City of London
four generations of mobile
networks. Its dramatically enhanced
performance in terms
of flexibility and throughput
will make fully feasible those
“smart” applications and infrastructures
that require networking,
high data rates, real time
processing.
It is evident how 5G will become
the natural complement of
the IoT, its technological enabler
(fig. 5).
A new perception
of the world
An example will make clear the
potentialities deriving from the
fusion of ubiquitous localization
and timing, sensing and
connectivity.
Fig. 7 - City of London aerial view.
Figure 6 shows a plan of the
City of London in the time of
Queen Elizabeth (16th century).
Public (e.g. the London
Tower) and private buildings
are clearly identifiable, as well as
London Bridge and the banks
of the Thames river. Fairly detailed
and useful for its time.
Figure 7 offers a far more detailed
view of approximately the
same area, as made available
by Google Earth. The picture
is fairly detailed and can enriched
with street names, labels,
photos, etc. Let us now imagine
to be able to link and merge
almost in real time all the information
coming from thousands
(if not millions) of sensors spread
over the area (fig. 8).
What we will get is a sort of
“Augmented Reality” representation
of the same geographical
site, through which we might
be able this time to exercise
most of our senses: smell the
clean waters of the river Thames,
feel the slightly chilly wind
along the banks, hear the sounds
and calls of the six (or nine?)
legendary ravens living at the
Tower of London.
The role of satellites in the
“Digital New World”
Satellites are going to play an
important (in some cases primary)
role in this new scenario.
In terms of localization and
timing, GNSSs presently (and
most likely also in the years to
come) are the backbone of a
worldwide PNT infrastructure,
also including alternative
ground-based systems (such as
eLoran) as well as stand-alone
technologies (miniaturized
inertial platforms and atomic
clocks). As far as sensing is
concerned, despite the enormous
amount of sensors being
integrated in smartphones and
other portable devices, Earth
observation will keep depending
heavily on satellites of various
complexity (down to nano
and pico satellites) and with
a variety of embarked sensors
(multi spectral optical, radiometers,
altimeters, SARs).
36 GEOmedia n°6-2015
REPORT
moving towards an integration
of PNT, Remote Sensing and
Telecommunications systems leading
to a worldwide, system of
systems infrastructure (fig. 9).
Fig. 8 - An “Augmented Reality” evolution through data fusion
In the area of telecommunications,
notwithstanding the
exponential development of
mobile cellular networks, both
in terms of data rates and coverage,
satellites remain the
primary solution to guarantee
services over the oceans and to
provide an affordable last-mile
connections to users in scarcely
populated areas.
Moreover, satellite networks,
both for trunk and mobile
communications, are the natural
back-up for terrestrial
networks, improving the overall
resilience, security and availability
of the world telecommunications
infrastructure.
Satellite and terrestrial system
integration, already being experimented
with 4G mobile cellular
communications systems,
is high priority in the agenda of
the coming 5G network, with
the clear purpose of achieving
a truly ubiquitous coverage.
This integration will require the
development of interoperability
standards to make the two sectors
interconnect efficiently and
reliably, both at network and at
IP levels.
In conclusion, we are rapidly
Conclusion
Ubiquitous Localization and
Timing, Ubiquitous Sensing,
Ubiquitous Connectivity: these
three main technological trends
are triggering an epochal transition
in the history of mankind.
We are practically going for a
detailed digital mapping of the
world around us, for an evolution
of reality as we can sense
it today towards an enriched,
augmented reality.
It is an entirely New World
we are facing, but we have not
learnt yet how to navigate and
explore it.
The future asks for an ever
closer integration and fusion of
Telecommunications, Sensing
and Positioning, Navigation
and Timing applications.
KEYWORDS
GNSS; PNT; IoT; communication; infrastructure;
networks; precise timing
ABSTRACT
La grande fusione fra servizi di localizzazione (GNSS), monitoraggio
remoto (IoT) e comunicazione (5G). Un “Nuovo
Mondo” digitale si profila all’orizzonte: le tecnologie sono
sempre più onnipresenti nella nostra vita quotidiana e termini
come geolocalizzazione, Internet of Things (IoT), connettività,
sensori, GPS, GNSS o rappresentazione digitale sono ormai
conosciuti anche ai non addetti ai lavori. Il mondo dell’industria
è sempre più basato è devoto ai sistemi di posizionamento satellitare
e sulla misura del tempo. I principali trend tecnologici del
momento come il GNSS e altre infrastrutture PNT, l’Internet
delle Cose e la connettività (5G) cambieranno drasticamente
la nostra vita quotidiana; l’integrazione fra queste infrastrutture
(GNSS, IoT e connettività) giocherà un ruolo fondamentale per
la realizzazione del “Nuovo Mondo” digitale.
AUTHOR
Marco Lisi
marco.lisi@esa.int
Responsabile dei Servizi GNSS
(Agenzia Spaziale Europea)
Fig. 9 - Worldwide systems of systems infrastructure.
GEOmedia n°6-2016 37
REPORT
UNICUIQUE SUUM
di Attilio Selvini
Fig. 1 - A sinistra, DGK 5N; a destra DGK 5G.
In un momento in cui i GIS e i servizi basati sui dati geospaziali
sono sempre più richiesti, l'autore riflette sull'effettiva validità
dell'informatica applicata alla cartografia e sulla massa di dati
prodotti dagli uffici regionali che, talvolta, vengono utilizzati solo
in minima parte.
Ancora una volta debbo
scomodare Cicerone. Il
titolo di questa breve
nota riprende un aforisma
romano che si rifà al grande
senatore: («Iustitia ... suum
cuique distribuit», De nat. deor.
III, 15) ma che qui assume ben
altro significato.
Mi riferisco ancora all’intervista
che il Direttore di
GEOmedia ha fatto all’amico e
collega Mattia Crespi, ordinario
alla Sapienza (1) nella quale
si fa notare come in Italia,
esempio unico in Europa, vi
siano non solo cinque organi
cartografici dello Stato, bensì
una ulteriore miriade di organi
e organucci locali che
decidono come e qualmente
procurarsi cartografia (scusate:
“database” topocartografici),
salvo poi, come dice ancora il
Direttore in uno degli ultimi
“GeoForUs” (2), non essere
nemmeno in grado di farne
trovare traccia.
A quanto pare, in tema cartografico,
il detto ciceroniano
“a ciascuno il suo” va inteso
come segue: ogni ente, dal
piccolo comune alla grande
regione, faccia quello che
vuole; a scapito dell’economia
ma prima di tutto della razionalità:
tanto, paga Pantalone.
Al solito debbo ricordare la
carta fondamentale tedesca, la
“DGK 5”, per la quale vi sono
norme severe e uniche per tutti
i “Länder”, con l’eccezione dei
territori ex-DDR nei quali la
scala nominale, per motivi di
tempestività, venne ridotta all’
1: 10000. Il sistema di riferimento
è unico: ATKIS, ovvero
Amtliches Topographisch-
Kartographisches
InformationsSysteme, in
italiano Sistema informativo
topocartografico
ufficiale. Le versioni
della carta sono quattro:
la prima è quella
ordinaria (DGK
5N); la seconda è
la rappresentazione
tridimensionale del
suolo ma senza curve
di livello (DGK
5G). La terza è la
nota rappresentazione
ortofotografica
(DGK 5 L) e infine
l’ultima è la carta d’uso
del suolo (DGK 5 Bo).
Se ne vedono, in ordine,
le relative immagini qui a
fianco.
Ancora negli anni novanta del
secolo ventesimo, da noi si
produceva cartografia tecnica
per restituzione analitica; qualcuno
usava anche strumenti
analogici provvisti di motori
“passo-passo”, mentre si affacciava
sul mercato la restituzione
digitale. E di cartografia numerica
se ne produsse tanta nel
decennio di fine del Duemila,
così come ancora in quello
successivo. Basti pensare a titolo
esemplificativo alla grande
carta numerica di Milano alla
scala nominale di 1:1000, fra
i cui collaudatori vi è anche
chi scrive. Tutta questa cartografia
aveva rappresentazione
su diversi “livelli”, per cui era
immediato separare (e se del
caso proiettare su carta) il reticolo
stradale, oppure le acque
superficiali, o ancora la sola
vegetazione, la sola altimetria a
curve di livello, i soli edifici e
così via, a seconda delle necessità
dell’ente utilizzatore della
cartografia stessa.
Ma nel frattempo si diffonde-
38 GEOmedia n°6-2016
REPORT
va il concetto di “database”:
DB in sigla, ovviamente e
secondo la mania imperante
di sottomettersi all’inglese,
dimenticando l’espressione
più corretta nella nostra lingua
madre, che parla di “banca dei
dati”. Proprio nell’ultimo decennio
appena sopra ricordato,
chi scrive fu relatore di una
tesi di laurea in architettura,
che aveva appunto per tema la
proposta di un “database” per il
comune milanese. In un articolo
di alcuni anni fa (3), avevo
messo in guardia sulla ormai
certa prevalenza (o prevaricazione)
dell’informatica sulla topografia;
ciò si è puntualmente
verificato. Scrivevo allora:
“l’informatica ha inizialmente
tarpato le ali a molti topografi
tradizionali, ed ha per contro
promosso topografi e cartografi
molte persone provenienti da altri
tipi di studi, che lentamente
ma inesorabilmente stanno trasformando
la cartografia in una
valanga di dati informatici di
assai dubbio valore.
Se si leggono le voluminose
prescrizioni sui DB topografici
di alcune regioni italiane, ci
si stupisce per la massa di dati
richiesti, per la minuzia con cui
si chiede di estrarne le cose più
o meno minime e utili, per la
possibilità richiesta di ricavarne
estratti alle scale più varie.
Scrivevo ancora, nella “lettera
aperta” citata: “So di molte e
serie aziende di cartografia, che
vacillano sotto il peso di imposizioni
informatiche con altrettanti
programmi elaborativi, di cui
in buona parte si potrebbe fare
a meno. Purtroppo ciò a scapito
della leggibilità delle carte e
soprattutto della loro bo-ntà (dovrei
dire correttamente “incertezza”)
metrica, sulla quale spesso
enti committenti e collaudatori
sorvolano facilmente.” Come
non ripetermi ora?
Ho chiesto, alla maggiore
Fig. 2 - A sinistra, DGK 5L, a destra DGK 5Bo.
azienda italiana di rilevamento
e rappresentazione, la CGR
di Parma, e a un paio di altre
imprese di media grandezza e
di ottime capacità, di espormi
quanto fanno in tema di cartografia
tecnica. Le risposte
concordi mi dicono che ormai
quasi nessuna richiesta di cartografia
numerica perviene
loro dagli enti territoriali: solo
DB topografici e naturalmente
multiscala. La restituzione
analitica è scomparsa: si fa
solo restituzione digitale, con
prevalenza di ortofoto. Sempre
più richiesta la presa appoggiata
a GPS e INS. I prezzi sono
inadeguati, i tempi di collaudo
addirittura improponibili! Le
poche aziende sopravvissute ai
bei tempi dell’ultimo scorcio
di secolo tirano avanti con
difficoltà, in mezzo alla selva
di capitolati e bandi in genere
diversi fra di loro.
Ma a che cosa in realtà servono
questi DB? Nella “lettera” rammentata,
e mi spiace citarmi
ma vi sono costretto, osservavo
quanto segue: “Le carte comunali,
insomma i “database”
odierni, servono soprattutto alla
redazione di quelli che erano
sino a ieri i piani regolatori
generali e che oggi si chiamano
“piani di governo del territorio”.
Oppure per progettare nuovi
quartieri e nuove strade, sempre
nell’ambito limitato dei comuni
o delle comunità più o meno
montane.
Tertium non datur: le grandi
strade ordinarie e ferrate, gli
elettrodotti ed i gasdotti richiedono
cartografia specifica, con
rappresentazioni sia sul piano
cartografico UTM o GB che sia
(oggi meglio, su ETRF2000), sia
sul piano medio locale (le cosiddette
carte in “coordinate rettilinee
locali” dei costruttori). Che
poi gli attuali “database” permettano
di trovare, sempre con le
incertezze della scala nominale,
la posizione dei chiusini, delle
condutture di smaltimento o di
adduzione; che permettano di
individuare linee di marciapiede
od isole pedonali; che possano
dire al fisco locale chi abita in
un certo edificio, è più materia
di sistema informativo che di
database.” E mi pare che non
vi sia altro da aggiungere. Solo
una riflessione: quante battaglie
sono state condotte dal
sessanta al settanta, per invitare
i Comuni e poi le Regioni a
provvedersi di cartografia tecnica!
Vi erano allora enti che per
procurarsi carte urbane non
si peritavano di usare quelle
catastali, sovrapponendovi alla
bell’e meglio l’altimetria ricavata
dalle “tavolette” IGM al
venticinquemila! Quando arrivarono
le prime carte comunali
GEOmedia n°6-2016 39
REPORT
aerofotogrammetriche, redatte
per restituzione dagli strumenti
analogici (quelli digitali si diffusero
fra il settanta e l’ottanta)
molti uffici tecnici gridarono
alla meraviglia. Ero allora assessore
all’urbanistica del mio
comune di nascita e di residenza,
ed ero stato io a presentare
in consiglio la richiesta di un’asta
pubblica per provvedere alla
carta al 2000 dell’intero territorio,
che comprendeva anche
buona parte dell’aeroporto
(non ancora intercontinentale)
di Malpensa. La carta, redatta
dalla IRTA milanese, una
delle quattro aziende storiche
italiane, e magistralmente collaudata
da Mariano Cunietti,
ordinario nel Politecnico di
Milano e più oltre presidente
della SIFET, venne immediatamente
utilizzata con successo
per la redazione del PRG.
E altrettanto fecero molti
comuni e consorzi sparsi per
l’Italia. Le carte di quei tempi
erano rigorosamente collaudate
(4) non solo per il contenuto
semantico, bensì anche per
l’incertezza metrica in posizione
e quota. E assolvevano
egregiamente le necessità urbanistiche
e progettuali locali.
Trent’anni dopo, ogni ente ha
dimenticato quei tempi felici,
e smania per avere “database”
talvolta illeggibili dagli stessi
tecnici preposti al loro impiego.
Valanghe di dati, al limite
della comprensibilità, dei quali
sono una minima parte viene
di fatto utilizzata. Ma l’informatica
deve prevalere!
BIBLIOGRAFIA
1) Carlucci, R. (2015), Un incontro con Mattia
Crespi, docente di Geomatica alla Sapienza di
Roma, in GEOmedia, n° 1, Roma.
2) Carlucci, R. (2015), Mamma ho perso il
DBGT della Calabria, in GEOmedia, n° 6
Roma.
3) Selvini, A. (2012) Lettera aperta ai topografi,
in Il Seprio, n° 4, Varese.
4) Cunietti, M. & Selvini, A. (1965) Il collaudo
dei rilievi fotogrammetrici, in Boll. SIFET, n°
3, Milano.
PAROLE CHIAVE
Cartografia; informatica; database; dati
ABSTRACT
The article is a reflection on the actual value
of information technology applied to cartography.
In particular, the author wonders
how thousands of data can be really useful in
as many databases which are difficult to understand
to the same technicians who should
have use them.
AUTORE
Attilio Selvini
Attilio.selvini@gmail.com
Politecnico di Milano
40 GEOmedia n°6-2016
REPORT
ArcGIS
il WebGIS accessibile
ovunque
in ogni momento
da ogni dispositivo
www.esriitalia.it
GEOmedia n°6-2016 41
MERCATO
Tecnologie per la localizzazione indoor/
outdoor sviluppate dal progetto Europeo
i-locate
Nel corso del triennio del progetto i-locate è stata
sviluppata una tecnologia per la localizzazione indoor/
outdoor mediante l’utilizzo di dispositivi Bluetooth,
WiFi, GPS.
ll progetto i-locate, giunto al termine del terzo anno,
ha inoltre sviluppato un portale per la condivisione
dei dati geografici aperti relativi a spazi indoor, quali,
ad esempio, ospedali, centri commerciali, musei.
Le tecnologie realizzate sono state applicate a diversi
casi d’uso, tra i quali:
4Sanitario, per guidare i pazienti sino alla struttura
ospedaliera e all’interno dell’edificio stesso;
4Servizi al cittadino, per guidare i cittadini verso gli
uffici pubblici di interesse e all’interno dell’edificio
stesso;
4Gestione delle apparecchiature, per supportare
i tecnici e gli operatori nell’individuazione delle
apparecchiature all’interno di edifici.
I siti pilota in Europa in cui sono state validate tali
tecnologie, mediante il coinvolgimento degli utenti
finali sono situati in: Rovereto (IT), Malta, Atene
(GR), Alba Iulia (RO), Eindhoven (NL), Baia Sprie
(RO), Dresden (DE), Rijeka (HR), Brasov (RO),
Genova (IT), Lussemburgo, Sibiu (RO), Velletri (IT),
Tremosine (IT).
I risultati del progetto e in particolare di ciascun sito
pilota sono stati presentati durante l’ultimo meeting
di progetto che si è tenuto a Velletri (Italia) presso la
Casa delle Culture e della Musica (ex Convento del
Carmine) dal 2 al 4 Novembre 2016.
Durante l’evento si è inoltre tenuto un Exploitation
Booster Workshop presieduto da Giovanni Zazzerini,
esperto nominato dalla Commissione Europea, con lo
scopo di aiutare il consorzio a sfruttare i risultati del
progetto nel migliore dei modi.
Ulteriori informazioni sono disponibili sul sito web di
progetto: http://www.i-locate.eu
http://www.epsilon-italia.it
42 GEOmedia n°6-2016
MERCATO
CUBE T: il nuovo software
STONEX per rilievi a 360°
Grazie alla partnership con Leonardo
Software House, STONEX amplia
la sua gamma di soluzioni per rilievi
a 360 gradi dando vita a CUBE T, il
nuovo e potente software per il rilievo
integrato per Tablet Windows 8/10 con
piena compatibilità con Leonardo XE.
STONEX CUBE T unisce i vantaggi
di un potente software per il rilievo ed
i tracciamenti con GPS con un CAD
Topografico.
Rilievi GPS e software office in un
un unica soluzione
STONEX CUBE T, il nuovo software
per Windowsrc PC, rappresenta l’unione
tra un potente software CAD
per il Mapping e la Topografia e un
software per i rilievi ed i tracciamenti
GPS/RTK.
CUBE T consente di importare anche
i dati provenienti dalle Stazioni Totali
per la creazione di file di lavoro integrati.
Per lo più dedicato agli Utenti di
Ricevitori GNSS STONEX, CUBE
T consente la gestione dei vari formati
dei dati provenienti delle stazioni totali
e dal protocollo universale NMEA, per
consentire anche agli utenti di GPS
non Stonex di beneficiare delle funzionalità
di CUBE T.
CUBE T fornisce un set completo
di funzioni per la raccolta dei dati in
diverse modalità: Base + Rover, Rover
da rete GPS, sia in modo RTK che
Statico o Statico Rapido: il controllo
totale del ricevitore garantisce un lavoro
sensza soluzione di continuità e
dalla elevata affidabilità.
File GeoTiff o qualsiasi tipo di file immagine
possono essere importati, georeferenziati
ed usati come immagini di
sfondo durante il rilievo.
La vasta gamma di formati di
Importazione/Esportazione come
DXF, DXB, DWG, SHP, XML, fanno
di CUBE T uno dei sistemi per il
mapping più aperti in commercio.
Caratteristiche Principali
• Software per il rilievo e la restituzione
in un’unica soluzione
• Gestione completa dei Ricevitori
GNSS Stonex
• Funzioni Grafiche – colori, dimensioni,
layer, simboli (punti, linee, testo…)
totalmente gestite dall’Utente
• Lavori indipendenti possono essere
memorizzati in un unico file di lavoro,
garantendo una gestione efficace
dei diversi cantieri
• Il libretto di campagna del rilievo
con stazione totale può essere integrato
coi dati GPS
• Gestione delle immagini raster di
sfondo
• Set completo di funzioni COGO e
per il disegno cartografico
• Funzioni topografiche incluse: poligonale,
celerimensura, intersezione
• Possibilità di scegliere tra sistemi
di riferimento standard e personalizzati
• Calcolo dei 7 parametri di rototraslazione
dal sistema WGS84/ECEF
al sistema di coordinate locali
• La vasta scelta di formati di importazione/esportazione
permette
all’Utente lo scambio dati con qualsiasi
software esterno (DXF, DXB,
DWG, SHP, Land XML, ASCII
personalizzato, Excel®…)
• RTK NTRIP, Statico, Sistema
Base + Rover sono pienamente supportati
• Connessione WiFi con i ricevitori
GPS più avanzati
• Gestione E-Bubble & Tilt sensor
• STONEX CUBE Tablet è adatto e
Tablet Windows 10 o notebook.
http://www.stonexpositioning.com/
index.php/it/
GEOmedia n°6-2016 43
MERCATO
App MAGNET
Construct 2.0
di Topcon
T o p c o n
Positioning
Group lancia
MAGNET
Construct 2.0,
la app di nuova
generazione realizzata
per gestire
una vasta gamma
di stazioni
totali Topcon da
uno smartphone
o da un tablet.
La prima versione
della app invece, era stata
realizzata appositamente
per gestire unicamente il
sistema LN-100 Layout
Navigator system. “Questa
produttività ‘pronta all’uso’
è ora disponibile per
gran parte degli strumenti
Topcon,” ha affermato
David Ahl, direttore della
gestione prodotti software.
“Che si preferisca avvalersi
di dispositivi Android
o dell’ultimo hardware
Apple iPhone, iPad, o iPod
Touch, la app MAGNET
Construct 2.0 offre opzioni
intuitive per connettersi
in modalità wireless e gestire
una stazione totale per
misurazioni rapide, oltre
a un orientamento grafico
dei vostri dati.”
“Si tratta di un esempio di
ciò su cui ci stiamo concentrando
per offrire più
opzioni che siano di utilità
per gli utenti finali,” ha
affermato Ahl. “Questa
compatibilità multipiattaforma
offerta dalla app
MAGNET Construct 2.0,
rende ancora più accessibili
le soluzioni di misurazione
per diverse applicazioni.”
MAGNET Construct
offre anche una connettività
sicura ai servizi
web di MAGNET
Enterprise per un interscambio
dati in tempo reale
tra il cantiere o la campagna,
e l›ufficio.
La app è disponibile sia
sull’Apple App Store che
su Google Play.
Per maggiori informazioni,
visitare il sito topconpositioning.com.
http://topconpositioning.com
Formazione
TerreLogiche 2017
E’ online il calendario
2017 della Formazione
Terrelogiche con una proposta
formativa molto
ricca e tante novità. Tra i
corsi del nuovo anno due
new entry: “Statistica con
R (base)” e “Geodatabase
(PostGIS)”.
Nel primo semestre verranno
proposti due nuovi
corsi:
• “Statistica con R (base)”
che affronta i principali
aspetti riguardanti la
gestione statistica dei
dati e la loro rappresentazione
grafica tramite
l’utilizzo del software
Open Source R.
• “Geodatabase
(PostGIS)” che introduce
all’utilizzo di
PostGIS per l’immagazzinamento,
l’interrogazione
e la manipolazione
di dati territoriali georiferiti
in modo rapido
ed efficiente.
Per maggiori informazioni
sui corsi: http://
www.terrelogiche.com/
calendario-e-costi.html
Tra le novità anche la
possibilità di acquisto dei
“Pacchetti Formativi”,
percorsi tematici creati
da un team di docenti
che permettono di seguire
più sessioni formative
con riduzioni sul costo
di listino e possibilità di
dilazionare il pagamento.
E per tutti coloro che
vogliono tenere costantemente
aggiornato il proprio
team, Terrelogiche
propone i corsi in house
con personalizzazione
dei contenuti didattici e
delle tematiche affrontate
in base alle specifiche esigenze
degli uffici.
Le iscrizioni ai corsi
2017 sono aperte!
http://www.terrelogiche.com
• Rilievi batimetrici automatizzati
• Fotogrammetria delle sponde
• Acquisizione dati e immagini
• Mappatura parametri ambientali
• Attività di ricerca
Vendita – Noleggio - Servizi chiavi in mano, anche con strumentazione cliente
44 GEOmedia n°6-2016
MERCATO
Teorema presenta
le ultime novità dei
Laser Scanner HDS
Teorema, Distributore per
Lombardia e Piacenza degli
Strumenti Topografici
Leica presenta le ultime
novità dei Laser Scanner
HDS.
L’elevata qualità, le prestazioni
e la massima robustezza,
rendono Leica
ScanStation P16 lo strumento
ideale nel mondo
della scansione laser 3D.
Il suo interessante rapporto
prezzo-prestazioni e
l›interfaccia semplice, garantiscono
una soluzione
interessante per tutte le applicazioni
con una portata
fino a 40 metri.
Leica ScanStation P16
Leica ScanStation P16
dispone di un’interfaccia
touchscreen pratica
ed intuitiva. Il pulsante
di scansione «one-touch»
e il software in modalità
procedura guidata garantiscono
un flusso di lavoro
semplice ed un controllo
rapido dei dati sul campo.
Combinato al comando a
distanza WLAN, il sistema
Leica ScanStation P16 può
essere utilizzato da qualsiasi
dispositivo palmare.
Leica ScanStation
P30 e P40
Leica ScanStation P30 è
uno scanner ad alta versatilità
adatto per una vasta
gamma di tipiche soluzioni
di scansione. Con il suo
mix ottimale di velocità,
autonomia e precisione ed
una robustezza senza pari,
è la soluzione all-in-one
per una ampia gamma
completa di applicazioni.
Leica ScanStation P40 offre
massima versatilità,
ottima portata, elevata
velocità di scansione ed
eccellente qualità dei dati
quando e dove necessario.
E’ la soluzione perfetta
per qualsiasi attività
di scansione laser 3D.
La scelta giusta
Sia che ti occorra una rappresentazione
dettagliata
di una facciata costruita,
una planimetria in 2D o
dati 3D per l’integrazione
nella modellazione BIM
(Building Information
Modeling), ricostruire una
scena del crimine, acquisire
la geometria 3D di strade,
gallerie e ponti, sai che per i
tuoi progetti, avrai bisogno
di un strumento di scansione
preciso. I nuovi laser
scanner ScanStation P30 e
P40 sono la scelta giusta,
perché i dettagli sono importanti.
Teorema srl
Via Romilli 20/8 20139
Milano
Tel 02/5398739
http://www.geomatica.it/
GEOmedia n°6-2016 45
MERCATO
Cosa riserva il sistema Galileo all’Italia nel
prossimo futuro? Sono quasi 20 anni che si parla del
sistema Galileo con investimenti che dall’anno 2000 al 2020
arriveranno ad oltre 10 miliardi di euro. Ovviamente ogni paese
della Comunità ha dato il suo contributo in quota parte,
ricevendo poi benefici più o meno proporzionali all’investimento.
Oggi a distanza di quasi venti anni ci chiediamo quale
sia la ricaduta di tale investimento per l’Italia.
Di certo l’Italia ha il ruolo di fanalino di coda nel settore pur
avendo know-how specifico e strutture di ricerca di tutto rispetto,
anche in rapporto a quel mondo che travalicando i
confini d’Europa offre competenza e professionalità di alto
livello. Galileo si dirige essenzialmente a servizi basati sulla localizzazione
(LBS), che dipendono fortemente dall’affidabilità
e dalla disponibilità del posizionamento la cui realizzazione, lo
ricordiamo, ancora oggi, nelle nostre zone, è affidata al sistema
GPS statunitense, e al sistema GLONASS russo.
Il ruolo dell’Italia nel sistema di posizionamento Galileo, dal
punto di vista dei servizi indotti, è abbastanza marginale e
quanto dei previsti benefici saranno disponibili alle piccole e
medie imprese italiane che potrebbero usufruire degli “Initial
Services” avviati a fine 2016 e promossi dalla GSA, l’Agenzia
del GNNS europeo?
I professionisti del settore topografico non sembrano interessati
dal nuovo sistema in quanto gli altri sono disponibili e altamente
precisi. Una piccola indagine nel settore ci conferma
che da tempo i produttori hanno abilitato la ricezione delle
frequenze riservate al sistema Galileo, ma nessuno ancora parla
di evidenti vantaggi nell’esecuzione delle misurazioni. Nel
settore degli smartphone attualmente risulta un solo produttore,
BQ, che con il suo smartphone Aquarius riceve i satelliti
Galileo, ma non spiega quale siano i vantaggi, neanche durante
un Hackaton promosso recentemente dalla GSA a Praga.
Servizi di interesse prioritario sono nel supporto al soccorso
per le emergenze ed anche nella grande accuratezza dell’orologio
atomico che porterà all’aumento della precisione sulla
localizzazione da singolo, ma avrà molte applicazioni secondarie.
“La geolocalizzazione è al centro dell’attuale rivoluzione digitale,
con nuovi servizi che trasformano la nostra vita quotidiana
– ha affermato il vicepresidente della Commissione
Europea Maroš Šefčovič in occasione della dichiarazione degli
Initial services –. Galileo sarà alla base della prossima generazione
di tecnologie basate sulla localizzazione, come le automobili
autonome, i dispositivi connessi o i servizi urbani
intelligenti. Oggi mi rivolgo agli imprenditori europei con
questo invito: immaginate cosa potete fare con Galileo. Non
aspettate, innovate!”.
Ma in pratica quanto conoscono gli utenti italiani di questa
innovazione Europea?
Cercheremo di appurarlo nel corso di questo anno e il primo
appuntamento è al numero 1 2017 di GEOmedia dedicato
interamente a questo tema con approfondimenti su:
4 Gli Initial Services Galileo
4 I primi gestori del servizio
4 L’impatto nel settore del survey
4 Quali giovamenti per i Location Based Services?
4 GPS e Galileo, lotta ad armi pari?
4 I nuovi servizi per il soccorso
4 Smartphone Galileo ready, esistono?
Renzo Carlucci
Conferenza Esri Italia
2017
Cogli l’occasione e partecipa
al Call for Paper
della manifestazione più
articolata e completa a livello
nazionale nel settore
delle tecnologie geospaziali
e dei Sistemi Informativi
Geografici: la Conferenza
Esri Italia, che si terrà a
Roma il 10 e 11 maggio
2017.
Condividi i risultati dei
tuoi progetti, la tua storia
di successo e racconta a
un pubblico di esperti del
settore come la tecnologia
Esri ha permesso di migliorare
il tuo lavoro.
Diventa protagonista di
un momento di arricchimento
che coinvolge
migliaia di professionisti
da molti anni.
http://www.esri.com
In promozione lo scanner
ZEB1 la soluzione
portatile per il rilievo 3D
Lo scanner ZEB1, sviluppato
da GeoSLAM,
è la soluzione di rilievo
vincente per la misura e
la mappatura di ambienti
tridimensionali su più livelli.
ZEB1 rileva oltre 40.000
punti di misura al secondo
e li trasforma in una nuvola
di punti interamente
registrata. Estremamente
portatile e leggero, viene
utilizzato in movimento
ed è l’ideale per il rilievo
di spazi interni complessi
e sotterranei.
Promozione da prendere
al volo!
19.990,00
Inclusi 10.000 data processing
credits per il processamento
della nuvola
di punti
Vai ai prodotti:
https://goo.gl/uNpzOC
http://www.mesa-laserscanner3d.com
46 GEOmedia n°6-2016
MERCATO
Mesh il piccolo drone professionale
che supporta Galileo
Mesh sarà il primo drone professionale inoffensivo al mondo
a supportare Galileo, il nuovo sistema di navigazione satellitare
sviluppato dall’Agenzia Spaziale Europea (ESA) per
l’Unione Europea.
La sua entrata in funzione è stata prevista per giovedì 15
dicembre. E permetterà di sganciare il Vecchio Continente
dallo statunitense GPS e dal russo GLONASS.
Dopo 17 anni di sviluppo, Galileo è ora pronto per entrare
in funzione, permettendo all’Europa di rendersi
indipendente anche sul fronte dei sistemi di posizionamento
satellitare. Il supporto a Galileo, in questa prima
fase iniziale, sarà garantito solo su alcuni dispositivi
che comunque potrebbero aver necessità, in ogni
caso, di ricevere un piccolo aggiornamento software.
Cosa cambierà nel mondo dei droni professionali dopo
l’entrata in funzione di Galileo?
Maggiore precisione, disponibilità, copertura. La precisione
dei GNSS (sistema satellitare globale di navigazione) sarà
migliorata grazie alla possibilità di utilizzare una costellazione
combinata GPS-Galileo. In questo modo, il numero
di satelliti costantemente disponibili sarà quasi il doppio,
permettendo misure più precise. Per lo stesso motivo, il
numero maggiore di satelliti che diffondono un segnale di
geo-localizzazione, permetterà di avere un servizio con maggiore
disponibilità, anche in ambienti a visibilità limitate.
Infine, la copertura offerta da Galileo in alcune aree geografiche
sarà migliore del GPS, per come è stata progettata
la posizione dei satelliti. Anche a livello di servizio, Galileo
sarà migliorativo rispetto al GPS, offrendo alcune caratteristiche
ora assenti nei GNSS, come i servizi di integrità
garantita del segnale, e in generale l’affidabilità del sistema,
oppure la possibilità di accedere ai dati grezzi non elaborati.
Le applicazioni che nascono ogni giorno sono moltissime e
questo enorme mercato è destinato a raggiungere 3 miliardi
di utenti entro il 2020, la sua crescita sarà progressiva e promette
prestazioni di altissimo livello.
http://www.italdron.com/it
TEOREMA sRl MIlANO:
sOlUZIONI INNOVATIVE PER lA TOPOGRAFIA
E lA TERMOGRAFIA “IR”
Dal 1986 Teorema srl lavora a fianco del professionista
fornendo la tecnologia più avanzata, la migliore formazione tecnica
ed una accurata assistenza post-vendita
per rendere affidabile e produttivo il vostro lavoro.
Leica HDS P30 / P40
Leica Nova MS60
Leica Serie Captivate
Leica CS35
Rugged Tablet
Ricevitore
GNSS GS14
Leica 3D Disto
Leica
Disto S910
Termocamera
Flir T420
www.geomatica.it • www.disto.it • www.termocamere.com
Via A. Romilli, 20/8 20139 Milano • Tel. 02 5398739 • teorema@geomatica.it GEOmedia n°6-2016 47
SMART CITIES
Smart cities
or dumb cities?
Servizi geospaziali e
città
di Beniamino Murgante
e Giuseppe Borruso
La discussione più recente
sulla città si sofferma
sempre più sulla
sua ‘intelligenza’, richiamando
il concetto
di Smart Cities, più
volte affrontato su queste
colonne. Tale intelligenza
si concretizza,
nella maggior parte dei
casi, nell’introduzione
di uno ‘strato tecnologico’
sulla città,
spesso caratterizzato
dall’installazione di alcuni
dispositivi quali
lampioni in grado di
accendersi e spegnersi
da soli in base alle condizioni
di luce, o un
set di telecamere per il
controllo del traffico, o
l’implementazione di
una rete wi-fi pubblica
al servizio di cittadini,
o, più propriamente,
city users. Tali elementi
sono senz’altro necessari
ma, più volte, si è ribadito
come questi, da
soli, non siano in grado
di rendere intelligente
una città, senza una
vera e propria rete, in
grado di coniugare regole
condivise, aspetti
tecnologici, dati e cittadini.
Una città smart,
infatti, è una città che
prima di tutto viene incontro
ai propri cittadini
o utenti, fornendo
loro dei servizi, e in cui
il lato tecnologico rappresenta
l’elemento per
raggiungere un’elevata
efficienza, per ottimizzare
tali elementi e, auspicabilmente,
risultare
quasi invisibile.
Il legame tra città
‘smart’ e le tecnologie
e i servizi geospaziali è
necessariamente molto
forte, quasi scontato,
apparentemente. Le
città sono localizzate
nello spazio. Le strade,
gli edifici, gli elementi
naturali e artificiali, i
servizi, hanno una posizione,
e così gli utilizzatori
della città, anche
se questi si muovono
nello spazio. Realtà statiche
e dinamiche allo
stesso tempo. Nodi,
relazioni, reti, flussi,
sono tutti elementi che
caratterizzano la città,
secondo la tradizione
degli studi urbanistici
e della geografia urbana.
Se fino a ieri questi
potevano essere rappresentati
in modo statico,
oggi la dinamica
di questi elementi può
essere raccolta, analizzata,
elaborata, visualizzata.
Le tecnologie geoinformatiche
sono oggi alla
base di tutta una serie
di servizi geolocalizzati,
quelli che di fatto contribuiscono
o possono
contribuire a rendere le
città più o meno smart.
Videocamere e sensori
smart possono monitorare
il traffico urbano
– e questi oggetti sono
dotati di una posizione
nello spazio, geolocalizzabile
– così come
dispositivi mobili,
come gli smartphones,
raccogliendo dati aiutano
a produrre le mappe
di, appunto, traffico
urbano di Google. Gli
smartphones nelle nostre
tasche sono oggi
dei concentrati di tecnologia
che l’ampiezza
di banda della rete cellulare
e la liberalizzazione
civile del segnale
GPS, per citare solo
due rivoluzioni degli
ultimi lustri, hanno
reso senza precedenti la
possibilità di scambiarsi
dati e informazioni,
consentendo elevati livelli
di interazione tra
soggetti e con lo spazio
circostante, e di raccogliere
queste ultime, a
scopo ludico, ma anche
utilizzabili per attività
di pianificazione commerciale
(da parte di
chi questi dati li raccoglie)
e urbana.
Sempre più la posizione,
diventa elemento
importante e alla base
di quanto ruota attorno
al servizio di smartness:
i cittadini, i sensori e i
dispositivi, i dati (siano
essi open, siano essi
big), le infrastrutture, e
tutti i servizi che possono
derivare da queste
interazioni. E ciò, anche
se apparentemente
ormai consolidato, non
rappresenta ancora un
elemento facilmente
gestibile, soprattutto
in termini di precisione.
Da un lato, infatti,
tutte le componenti
‘fisse’ possiedono una
posizione: gli hot spot
wi-fi, le centraline, tutti
i dispositivi e sensoristica;
dall’altro lato
i dispositivi mobili o,
in accezione più umanizzata,
i cittadini o gli
utenti della città, cambiano
la loro posizione
nello spazio e questa
può avere diversi livelli
di precisione e affidabilità.
Ed è qui che si giocheranno
le sfide dei
prossimi anni. Il posizionamento
outdoor e
quello indoor sono infatti
il terreno di gioco
dove si svilupperanno
servizi, sempre più precisi,
basati sulla geolocalizzazione.
Gli attuali
dispositivi mobili, dotati
di ricevitore GNSS
adattato soprattutto
per ricevere il segnale
della costellazione statunitense
GPS, si attestano
infatti su livelli
di precisione dell’ordine
dei 5 – 10 metri,
con peggioramenti dovuto
all’effetto ‘canyon’
riscontrabile in molte
realtà urbane. Tale
dato è destinato a migliorare,
con la capacità,
già esistente e ulteriormente
implementabile
nel futuro più
prossimo, dei ricevitori
(multicostellazione) di
captare i segnali da altre
costellazioni, quali
la russa GLONASS,
quella cinese Beidou e,
da quest’anno, l’europea
GALILEO. L’altra
grande frontiera è rappresentata
dal posizionamento
interno, dove
i sistemi satellitari perdono
la loro efficacia.
Gli utenti della città
si muovono all’interno
di edifici, quali abitazioni,
punti vendita,
luoghi pubblici. Qui
la localizzazione non
può più essere garantita,
ad esempio, dalla
posizione del dispositivo
all’interno della
cella di telefonia mo-
48 GEOmedia n°6-2015
SMART CITIES
bile per fornire servizi
e informazioni ad hoc e
precisamente indirizzate.
Sistemi che garantiscano
la localizzazione a
ogni singolo piano di un
edificio e con precisioni
senz’altro sub-metriche
sono pertanto necessari,
e le ricerche sono in atto,
sia con riferimento all’utilizzo
dei sensori montati
all’interno dei dispositivi,
sia relativi a sistemi
esterni (es. hot spot
wi-fi, ibeacons, ecc.). Al
di là delle applicazioni
meramente commerciali,
ovviamente tra le prime
a essere sviluppabili anche
tenendo conto di
un ritorno economico,
le applicazioni in ambito
smart sono molto
ampie. Dal monitoraggio
dei flussi di persone
all’interno degli edifici a
scopi di pianificazione,
a sistemi di guida e di
somministrazione di informazioni
per persone
disabili, a servizi di assistenza
remota, per esempio
per persone anziane.
Geolocalizzazione e
smartness sono pertanto
ancora agli inizi della
loro coesistenza, pur
trattandosi di concetti e
di tecnologie ormai ampiamente
testate e rese
disponibili negli ultimi
decenni, e con ampie e
promettenti evoluzioni.
RIFERIMENTI BIBLIOGRAFICI
Batty M., Urban studies: Diverse cities, successful cities, Nature
Human Behaviour, Volume 1, article 0022, pp. 1 – 2. http://www.
nature.com/articles/s41562-016-0022
Batty M., Building a Science of Cities, Cities, Volume 29,
Supplement 1, March 2012, Pp. S9 – S16, http://www.complexcity.
info/files/2011/12/BATTY-CITIES-2011.pdf
Batty M., The New Science of Cities, The MIT Press, 2013.
Bezerra J. et al., The Mobile Revolution: How Mobile Technologies
Drive a Trillion-Dollar Impact, bcg perspectives, visitato il 20 gennaio
2016 https://www.bcgperspectives.com/content/articles/
telecommunications_technology_business_transformation_mobile_revolution/
Murgante B., Borruso G., Smart Cities or Dumb Cities? Città e
Applicazioni per Smartphones, GEOmedia Vol 17, N° 5, 2013.
Murgante B., Borruso G., Smart cities: un’analisi critica delle opportunità
e dei rischi, GEOmedia Vol 17, N° 3, 2013.
Tweddle JC, Robinson LD, Pocock MJ, Roy HE. Guide to citizen
science: developing, implementing and evaluating citizen science
to study biodiversity and the environment in the UK. Natural
History Museum and NERC Centre for Ecology and Hydrology for
UK-EOF 2012. www.ukeof.org.uk
Warf B. e Sui D. (2010), From GIS to neogeography: ontological implications
and theories of truth, “Annals of GIS”, 16 (4), pp. 197-209.
AGENDA
07 - 09 febbraio 2017
Berna (Svizzera)
8th Workshop on Remote
Sensing of Land Ice and Snow
of the European Association of
Remote Sensing Laboratories
(EARSeL)
www.geoforall.it/kwpaw
8-11 febbraio
Genova
FOSS4G-IT 2017
www.geoforall.it/kwppx
21 - 24 febbraio 2017
Firenze
10th Coastal Altimetry
Workshop
www.geoforall.it/kwp8a
1-3 marzo 2017
Nafplio (Grecia)
International Workshop ISPRS/
CIPA 3D-ARCH
www.geoforall.it/k9yx4
05-07 marzo 2017
Dubai (UAE)
JURSE 2017 URBAN 2017
URS 2017
www.geoforall.it/k9cwu
14-16 marzo 2017
Munich (Germania)
Munich Satellite Navigation
Summit 2017
www.geoforall.it/k9cu4
29 marzo 2017
Roma
UAV & SAR: i droni nelle
operazioni di salvataggio
www.geoforall.it/k9cy3
10-12 Aprile 2017
Roma
AIIT International Congress
TIS Rome 2017
www.geoforall.it/k9c46
18-20 aprile 2017
Sharjah (UAE)
ASCMCES-17
www.geoforall.it/k9cw6
23–28 aprile 2017
Vienna (Austria)
European Geosciences Union
(EGU) Special session on RPAS
in monitoring applications and
management of natural hazards
www.geoforall.it/kwp6c
24–26 aprile 2017
Vienna (Austria)
Geosciences Information For
Teachers (GIFT) workshop by
EGU
www.geoforall.it/k9crp
27-28 aprile 2017
Porto (Portugal)
GISTAM 2017 3rd
International Conference on
Geographical Information
Systems Theory, Applications
and Management
www.geoforall.it/kx9wx
06-08 maggio 2017
Cairo (Egypt)
10th International Symposium
On Mobile Mapping
Technology and Summer
School on mobile Mapping
www.geoforall.it/k9cw8
10-11 maggio 2017
Roma
Conferenza Esri Italia 2017
www.geoforall.it/k9cyk
15-17 maggio 2017
Mosca (Russia)
ISPRS International Workshop
Photogrammetric and
computer vision techniques for
video Surveillance, Biometrics
and Biomedicine - PSBB17
www.geoforall.it/kwp9r
23-24 maggio 2017
London (UK)
GEO Business 2017
www.geoforall.it/k9cwd
29 maggio - 2 giugno 2017
Salzburg (Austria)
GNC 2017 10th ESA GNC
Conference
www.geoforall.it/k9chh
06-09 giugno 2017
Hannover (GERMANY)
ISPRS WG Hannover
Workshop HRIGI 17 – CMRT
17 – EuroCOW 17 Joint
Meeting
www.geoforall.it/k9cw4
7-10 giugno 2017
Roma
XXXII Congresso dei Geografi
Italiani
www.geoforall.it/kwphk
25 giugno-1 luglio 2017
Zagreb (Croatia)
XXX International Geodetic
Student Meeting
www.geoforall.it/kxpff
26-29 giugno 2017
Munich (Germany)
SPIE Optical Metrology
Videometrics, Range Imaging
and Applications XIV
www.geoforall.it/kwp9f
4 - 7 luglio 2017
Salzburg (Austria)
GI_Forum 2017
www.geoforall.it/k9cup
16-22 luglio 2017
Obergurgl (AUSTRIA)
Innsbruck Summer School of
Alpine Research 2017 Close
Range Sensing Techniques in
Alpine Terrain Venue
www.geoforall.it/k9cwh
FIBER MANAGER ®
TUTTA LA TUA RETE A PORTATA DI MANO
GESTISCI L’INFRASTRUTTURA CON UN SOLO GEODATABASE INTEGRATO
Con FiberManager® puoi gestire le reti di telecomunicazione con un unico geodatabase che consente la
visione globale ed integrata dell’intera infrastruttura di rete. In questo modo hai a disposizione uno strumento
di business intelligence geografica centralizzato, da cui puoi estrarre tutti i report, gli schemi e i documenti
necessari a progettare, costruire, sviluppare e gestire la tua rete nel modo più efficace possibile.
FiberManager® mette a fattor comune la piattaforma GIS leader nel mondo con il modello dati e le funzionalità
smart implementate da una community network di aziende di telecomunicazioni operanti in vari paesi nel
mondo.
FiberManager® è una verticalizzazione della suite ArcFM® di Schneider Electric, di cui Sinergis è rivenditore
esclusivo in Italia.
www.sinergis.it