GEOmedia_6_2016

mediageo

La prima rivista italiana di geomatica

Rivista bimestrale - anno XX - Numero 6/2016 - Sped. in abb. postale 70% - Filiale di Roma

TERRITORIO CARTOGRAFIA

GIS

CATASTO

3D

INFORMAZIONE GEOGRAFICA

FOTOGRAMMETRIA

URBANISTICA

GNSS

BIM

RILIEVO TOPOGRAFIA

CAD

REMOTE SENSING SPAZIO

EDILIZIA

WEBGIS

UAV

SMART CITY

AMBIENTE

NETWORKS

LiDAR

BENI CULTURALI

LBS

Nov/Dic 2016 anno XX N°6

La prima rivista italiana di geomatica e geografia intelligente

Mappe

di Rischio

e impatto

potenziale

DECOSTRUZIONE

SELETTIVA

ISOLE DI CALORE IN

AMBIENTE URBANO

EMERGENZE DA

RISCHI NATECH


trimBle SX10

la rivoluzione

è appena cominciata

abbiamo creato uno strumento innovativo, versatile

e integrato. trimble SX10 coniuga la tecnologia di una

Stazione totale robotica di alta precisione con quella di uno

Scanner ad alta velocità e funzionalità imaging reale, senza

alcun compromesso prestazionale.

noleggialo, anche solo per un giorno.

Soluzioni innovative per il rilievo, la misura e la modellazione.

Transforming the way the world works

Spektra Srl, a Trimble Company

039.625051 | info@trimble-italia.it | www.trimble-italia.com


Chi è il garante dell’infrastruttura geografica?

Il potenziamento dell’Infrastruttura di dati territoriali, con il dettaglio e l’accuratezza che serve a fornire

cartografie e mappe del territorio affidabili per gli interventi istituzionali, è una operazione che deve

essere garantita con norme di uniformazione ed omogeneizzazione, nonché di produzione, che siano

rispettate ed applicate in maniera uniforme sul territorio nazionale.

Attualmente il lavoro di produzione di specifiche e norme sui dati territoriali non è tutelato e

garantito ma solamente condiviso ed approvato, in un consesso allargato di tecnici ed esperti del

settore, che hanno prodotto una serie di documenti con prescrizioni e suggerimenti che basterebbe

aggiornare al vaglio delle opportune tecnologie che si sono oggi rese disponibili, per renderli applicabili

universalmente.

Siamo carenti anche di un elemento istituzionale di raccordo dei vari organi, enti e amministrazioni che

operano sulla acquisizione di Dati Territoriali e possa fungere da interfaccia per il raccordo istituzionale

internazionale.

Numerose amministrazioni, ignare o a vario titolo impossibilitate dalla farraginosità di meccanismi

burocratici, non riescono ad avvalersi di quanto già rilevato da altre amministrazioni e viene spesso

duplicata o triplicata la spesa globale in tale settore.

La attuale situazione si origina, come molti di noi sanno bene, da uno stato di confusione generato

dalla mancata riorganizzazione dei servizi cartografici, seguita all'abrogazione di Enti considerati inutili

avvenuta durante il primo passaggio legislativo di competenze dallo Stato alle Regioni negli anni ‘70.

All’epoca gli organi cartografici nazionali erano solo 5 (Istituto Geografico Militare, Istituto Idrografico

della Marina, Servizio geo-topo-cartografico dell’Aeronautica Militare, Servizio Geologico di Stato,

Catasto), oggi incrementati di almeno 20 organi cartografici delle Regioni oltre a vari altri organi di

amministrazioni che operano a vario titolo acquisendo dati territoriali. Abbiamo però finalmente

un organo centrale come catalogo di dati territoriali che sta spingendo fortemente sulla creazione di

metadati che possano riuscire ad aiutare nella ricerca dei dati territoriali già in possesso della PA. Il

Repertorio Nazionale dei Dati Territoriali (RNDT) è l’unica novità di rilievo che possiamo notare nel

settore proponendosi come ente istituzionale e rappresentativo in grado di acquisire informazioni da

tutte le amministrazioni. Ma quello che ci chiediamo è se questa istituzione abbia poi il potere effettivo

di far rispettare a tutti la compilazione e l’uso del sistema centralizzato.

Una carenza che si manifesta, oltre che nelle normali operazioni di pianificazione del territorio, in

occasione delle emergenze per disastri naturali. Valga per tutti considerare la necessaria realizzazione

di modelli idrografici del territorio, per un effettivo piano di prevenzione del rischio idrogeologico,

basato su un quadro di riferimento dato da modelli digitali del terreno che oggi è possibile realizzare con

accuratezza estrema.

La problematica della gestione dell’emergenza in caso di disastri naturali è evidente nel momento in

cui squadre di soccorso ed operatori dell’emergenza non dispongono di dati affidabili, come purtroppo

di nuovo ha dimostrato il recente sisma in Italia Centrale, verificatosi a cavallo di ben 4 Regioni,

non riuscendo nelle poche ore a disposizione per i primi soccorsi, ad interrogare un sistema centrale

affidabile, né ad integrare la realtà di organizzazioni che si prodigano per mappare il territorio con

operazioni di volontariato geografico.

Un garante del coordinamento dell’infrastruttura geografica territoriale nell’emergenza dovrebbe far si

che tutta la documentazione territoriale sia disponibile immediatamente in caso di emergenze e che si

colmino lacune ormai primordiali, come ad esempio la carenza dell’assegnazione di numeri civici e la

loro georeferenziazione.

la prossima volta

#mappiamoprima

http://rivistageomedia.it/cartografia-per-emergenza

Buona lettura,

Renzo Carlucci


In questo

numero...

FOCUS

REPORT

GUEST

LE RUBRICHE

Nuove prospettive

per l’utilizzo del

remote sensing

nella gestione delle

emergenze da rischi

Natech e l’uso della

terminologia specifica

di Sabina Di Franco,

lena Rapisardi,

Rosamaria Salvatori

6

11 TECHNOLOGY for ALL

24 ASSOCIAZIONI

26 IMMAGINE ESA

42 MERCATO

48 SMART CITY

50 AGENDA

Il 20 gennaio 2017, il Moderate

Resolution Imaging Spectroradiometer

(MODIS) a bordo del

satellite Aqua della NASA ha catturato

una immagine true-color

della neve nell'Europa centrale.

Le nuvole sovrastano l'Italia

orientale innevata, mentre le

Alpi sono ricoperte da una fitta

coltre di bianco. La neve si estende,

ad Est, sopra la Slovenia, la

Croatia e la Bosnia Erzegovina.

14 Telerilevamento

e GIS per la

valutazione e il

monitoraggio delle

isole di calore in

ambiente urbano

di Sabrina Adelfio,

Caterina Enea, Giuseppe Bazan,

Pietro Orlando

Crediti immagine: Jeff Schmaltz,

MODIS Land Rapid Response

Team, NASA GSFC

In copertina una

rappresentazione della

mappa del rischio di impatto

potenziale del cinghiale

in formato raster, circa il

comprensorio di Lucca.

20

Soluzioni

informatiche

innovative a supporto

della Decostruzione

Selettiva

di Antonio Bottaro

geomediaonline.it

GEOmedia, bimestrale, è la prima rivista italiana di geomatica.

Da 20 anni pubblica argomenti collegati alle tecnologie dei

processi di acquisizione, analisi e interpretazione dei dati,

in particolare strumentali, relativi alla superficie terrestre.

In questo settore GEOmedia affronta temi culturali e tecnologici

per l’operatività degli addetti ai settori dei sistemi informativi

geografici e del catasto, della fotogrammetria e cartografia,

della geodesia e topografia, del telerilevamento aereo e

spaziale, con un approccio tecnico-scientifico e divulgativo.


INSERZIONISTI

3D Target 52

28

Analisi GIS

applicate alla

gestione faunistica

Le mappe di rischio

di impatto degli

ungulati

di Alessandro Giugni, Marco

Ferretti, Leonardo Conti

AerRobotix 37

Aeropix 50

Epsilon 42

Esri Italia 41

Flytop 43

GEOCART 48

ME.S.A 40

Planetek Italia 13

Sinergis 51

Sistemi Territoriali 49

Teorema 47

Topcon 23

UNIcuIque

SUUM

di Attilio Selvini

38

Trimble 2

34

A Digital “New World”

The Big Fusion between

Ubiquitous Localization

(GNSS), Sensing (IOT)

and Communications

(5G) by Marco Lisi

una pubblicazione

Science & Technology Communication

Direttore

RENZO CARLUCCI, direttore@rivistageomedia.it

Comitato editoriale

Vyron Antoniou, Fabrizio Bernardini, Mario Caporale,

Luigi Colombo, Mattia Crespi, Luigi Di Prinzio,

Michele Dussi, Michele Fasolo, Marco Lisi, Flavio Lupia,

Beniamino Murgante, Aldo Riggio, Mauro Salvemini,

Domenico Santarsiero, Attilio Selvini, Donato Tufillaro

Direttore Responsabile

FULVIO BERNARDINI, fbernardini@rivistageomedia.it

Redazione

VALERIO CARLUCCI, GIANLUCA PITITTO,

redazione@rivistageomedia.it

Diffusione e Amministrazione

TATIANA IASILLO, diffusione@rivistageomedia.it

Comunicazione e marketing

ALFONSO QUAGLIONE, marketing@rivistageomedia.it

Progetto grafico e impaginazione

DANIELE CARLUCCI, dcarlucci@rivistageomedia.it

MediaGEO soc. coop.

Via Palestro, 95 00185 Roma

Tel. 06.64871209 - Fax. 06.62209510

info@rivistageomedia.it

ISSN 1128-8132

Reg. Trib. di Roma N° 243/2003 del 14.05.03

Stampa: SPADAMEDIA srl

VIA DEL LAVORO 31, 00043 CIAMPINO (ROMA)

Editore: mediaGEO soc. coop.

Condizioni di abbonamento

La quota annuale di abbonamento alla rivista Science è di € & 45,00. Technology Communication

Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di

ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa.

L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita

revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza

dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo.

La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti.

Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta

dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere

richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo.

Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la

riproduzione anche parziale del contenuto di questo numero della Rivista in

qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i

sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore.

Rivista fondata da Domenico Santarsiero.

Numero chiuso in redazione il 22 gennaio 2016.


FOCUS

Nuove prospettive per l’utilizzo del remote

sensing nella gestione delle emergenze da

rischi Natech e l’uso della terminologia specifica

di Sabina Di Franco, Elena Rapisardi, Rosamaria Salvatori

Le tecniche di remote sensing hanno assunto un ruolo fondamentale

nella gestione dei rischi, come è dimostrato anche dal programma

Copernicus, fase operativa del GMES (Global Monitoring for

Environment and Security), che offe tra i suoi servizi l’Emergency

Management Service.

Fig. 1 - Ciclo dell’emergenza.

La gestione del rischio è

un’attività complessa che

richiede un approccio

multidisciplinare. Quando avviene

un disastro ogni minuto

è fondamentale per salvare vite

umane, limitare i danni, proteggere

persone, cose e ambiente.

Gli eventi che si susseguono

durante il verificarsi di un

disastro sono, in una certa misura,

ripetitivi e possono essere

schematizzati in un ciclo: il cosiddetto

“ciclo dell’emergenza”

o del disastro. Il ciclo dell’emergenza

può essere suddiviso

in quattro fasi: mitigazione e

prevenzione (prima dell’evento)

e risposta e recupero, ripristino

o superamento (post evento)

(Di Franco, Salvatori, 2015).

La mitigazione consiste in tutte

quelle azioni necessarie per ridurre

l’impatto dei disastri futuri

(Menoni et al., 2012). La fase

di prevenzione comprende le

attività necessarie per ridurre gli

impatti in previsione o nell’imminenza

di eventi disastrosi. La

fase di risposta attiene a tutte

quelle azioni intraprese durante,

o immediatamente dopo l’evento,

con l’intento primario di

salvare e proteggere le vite umane.

Infine il termine recupero

riguarda le attività relative al

processo di ripristino dei servizi,

alla ricostruzione delle opere e

la riparazione dei danni, dopo

l’evento (Alexander, 2002).

Nella letteratura internazionale

vengono definiti rischi Natech

(Natural - Technological) quegli

incidenti tecnologici innescati

da disastri naturali, si tratta di

tutti quegli incidenti che si verificano

in impianti, nella rete

di distribuzione o durante il

trasporto di sostanze pericolose,

a seguito del verificarsi di un

terremoto, un’alluvione, uno

tsunami o altro evento naturale.

(Clerc, Le Claire, 1994; Lindell,

Perry, 1996; Cruz et al., 2004).

Questi rischi sembrano essere

in aumento, non solo per la

crescita delle zone industrializzate,

ma anche in relazione

ai cambiamenti climatici

(Karusman et al., 2011, Salzano

et al., 2013). Le peculiari caratteristiche

degli eventi Natech,

rapidità di svolgimento, possibilità

dell’innesco di catene di

eventi, variabilità dell’estensione

areale, rendono la loro gestione

particolarmente complessa. Il

Joint Research Centre - JRC

della Commissione Europea ha

Fig. 2 - Incendio di un serbatoio di gas naturale a seguito del terremoto del 2011 a Ichihara,

Prefettura di Chiba, Giappone. Foto: Reuters.

6 GEOmedia n°6-2016


FOCUS

Fig. 3 - Numero di eventi calamitosi per attività industriali. (2002–2012) eMARSJRC –

European Commission, MajorAccidentHazardsBureau.

richiesto nel 2004 alle autorità

nazionali europee, l’identificazione

delle aree potenzialmente

soggette a questi eventi e ha

sviluppato RAPID-N, uno

strumento per mapppare e valutare

rapidamente i danni, che

opera a scala globale (Girgin,

Krausmann, 2013).

Il contributo della comunità

scientifica e l’uso di tecnologie

innovative come quelle connesse

all’osservazione della terra,

sono di importanza strategica

durante tutte le fasi della gestione

dell’emergenza (Joyce et

al., 2009). Gli eventi causati

dai rischi Natech sono caratterizzati

da una rapida dinamica

evolutiva con scenari che si

modificano in un breve arco di

tempo, e in molti casi il lavoro

dei soccorritori è ritardato o

reso particolarmente difficile

dall’impossibilità di raggiungere

le zone colpite e di operare in

sicurezza. Ad esempio, nel caso

di un incidente con rilascio

di sostanze tossiche nell’aria,

le squadre di soccorso devono

evacuare rapidamente i residenti

dell’area a rischio, di cui vanno

definiti dimensioni e contorni.

Per fare ciò è necessario avere

informazioni come il punto

di emissione, la direzione e la

velocità del vento e le condizioni

meteorologiche generali

nel momento del verificarsi

dell’evento. E’ anche necessario

conoscere le caratteristiche geografiche

dell’area, la presenza e

lo stato delle reti stradali e delle

infrastrutture, la cartografia, di

base e tematica è quindi indispensabile.

Inoltre la complessità intrinseca

nei rischi Natech, rende particolarmente

efficace l’uso di

strumenti terminologici dedicati

come glossari e thesauri che

facciano chiarezza sui concetti e

sui termini specifici del dominio,

specialmente nel momento

del verificarsi dell’emergenza.

Le tecnologie

dell’osservazione della

terra e la gestione dei

rischi Natech

I sistemi per l’osservazione della

terra nell’ambito della gestione

delle emergenze rivestono un

ruolo di importanza crescente,

attraverso di essi si possono ricavare

dati tempestivi e accurati

non solo per la valutazione dei

danni durante un evento, ma

anche tutte le informazioni necessarie

per le attività pre e post

emergenziali.

I satelliti orbitanti intorno alla

Terra sono numerosi ed equipaggiati

con sensori attivi e passivi

che operano coprendo tutte

le lunghezze d’onda dall’ultravioletto

alle microonde, si può

supporre quindi che la superficie

della terra sia monitorata

dallo spazio, anche nei momenti

e nei luoghi in cui accadono

le emergenze. Le missioni spaziali

in atto sono versatili e utili

per vari obiettivi, i sensori montati

sui satelliti, possono essere

dedicati a tematiche specifiche

(es. l’osservazione del ghiaccio

polare, la vegetazione, la qualità

dell’acqua, ecc.). I dati attualmente

provenienti dai sensori

sono comparabili con i dati

provenienti dalle prime missioni

spaziali, questo consente di

eseguire analisi multi-temporali

impossibili fino a poco tempo

fa, come la misura dell’urban

sprawl o l’estensione delle calotte

polari.

Le missioni dell’ESA

(European Space Agency),

dell’EUMETSAT (European

Organisation for the

Exploitation of Meteorological

Satellites), della NASA

(National Aeronautics and

Space Administration), del

NOAA (National Oceanic and

Fig. 4 - Numero di eventi per tipo di incidente. (2002–2012) eMARSJRC – European

Commission, MajorAccidentHazardsBureau.

GEOmedia n°6-2016 7


FOCUS

Atmospheric Administration),

del DLR (Deutschen Zentrum

für Luft- und Raumfahrt),

e dell’ASI (Agenzia Spaziale

Italiana), forniscono un’ampia

varietà di sistemi osservativi che

verrano ulteriormente arricchiti

dalle missioni Sentinel, nell’ambito

del programma europeo

Copernicus. La maggior parte

dei programmi spaziali europei

sono indirizzati verso la gestione

delle emergenze, non solo

da un punto di vista tecnicoscientifico,

ma anche come

impegno economico da parte di

paesi ed imprese. Ad esempio

nel programma GMES (Global

Monitoring for Environment

and Security), ora Copernicus,

la gestione delle emergenze

ha avuto da subito un ruolo

cruciale, è infatti uno dei “Fast

Track Services”, i servizi forniti

e finanziati dal programma. Il

servizio è attualmente operativo

e svolge attività di “rapid

mapping”, a richiesta fornisce

informazioni geospaziali immediatamente

dopo (ore o giorni)

il verificarsi di un evento: dal

2012 il servizio ha fornito

mappe a seguito di circa un

centinaio di richieste, correlate

ad eventi idro-meteorologici e a

incendi (European Commision.

Copernicus Emergency

Management Service - www.

emergency.copernicus.eu). In

quest’ambito la geomatica sta

studiando come migliorare,

semplificare e rendere più rapidi

ed efficienti i flussi per la realizzazione

di mappe tematiche

(Ajmar et al., 2015).

Le immagini satellitari non solo

sono utili nel fornire dati “realtime”,

o “near real-time” per la

gestione dei disastri, ma diventano

fondamentali anche nelle

fasi di prevenzione e mitigazione

(Showalter et al., 1999). Gli

incidenti industriali, sia quelli

causati direttamente dalle attività

umane che quelli innescati

da eventi naturali, ad eccezione

degli sversamenti di petrolio in

mare aperto, sono meno “imprevedibili”

dal punto di vista

della localizzazione spaziale,

poiché avvengono in aree industriali

note e definite (Marzo et

al., 2015).

I fenomeni naturali, anche se

intrinsecamente caratterizzati da

una maggiore “imprevedibilità”

geografica, di solito coinvolgono

porzioni di territorio più

ampie e grazie alla loro scala è

stato possibile utilizzare i satelliti

anche quando le risoluzioni

delle immagini non avevano

il dettaglio e la scala di quelle

odierne. Proprio il progresso

tecnologico su risoluzione e scala,

nonché il maggior numero

Fig. 5 - Campi di applicazione dei dati dell’osservazione della terra. Modificato da Sandau (2010).

di satelliti disponibili, permette

l’uso di questi ultimi anche per

l’analisi e il monitoraggio dei rischi

industriali e, di conseguenza,

dei cosiddetti Natech.

Nell’ambito del progetto

GEOSS i sensori satellitari

attualmente disponibili sono

stati utilizzati sia per attività di

prevenzione, che per il monitoraggio

dei danni provocati

da disastri naturali (terremoti,

piene, incendi boschivi, ecc…).

Gli eventi Natech possono essere

più complessi da analizzare

in remoto, in quanto l’area in

cui avviene l’incidente innescato

dalle cause naturali può essere

piccola. Se però si considera la

durata nel tempo dell’evento e

gli effetti che l’evento produce,

l’area che subisce danni può

essere anche molto estesa. Per

analizzare le zone colpite dagli

eventi calamitosi è necessario

avere cognizione di causa del

tipo di dati da utilizzare in

relazione anche all’estensione

geografica e alla risoluzione

spettrale. Ad esempio immagini

multispettrali ad alta risoluzione

possono essere utilizzate per ottenere

delle mappe dell’uso del

suolo necessarie per derivarne

mappe multi-rischio (Sengupta,

2007).

I grandi incidenti negli impianti

industriali, sia innescati da

eventi naturali che antropici,

provocano spesso la repentina

fuoriuscita di sostanze chimiche

pericolose e possono innescare

degli “effetti domino”, che

causano danni gravi ed estesi

(Antonioni et al., 2009); i dati

del telerilevamento, anche se

difficilmente possono venire

usati per le attività di “previsione”

di questi incidenti, sono

però fondamentali, se raccolti

tempestivamente, nella fase

di intervento per formulare le

strategie di azione e migliorare

le attività di primo soccorso.

Sono inoltre essenziali per la

8 GEOmedia n°6-2016


FOCUS

valutazione dei danni sia sulle

costruzioni, sia sull’ambiente -

aria, acqua, suolo - (Galderisi et

al., 2008).

Opportunità future: piccoli

satelliti e UAV

Considerando quanto detto nei

paragrafi precedenti, tra i servizi

di EO, in caso di incidenti in

cui è necessaria un’informazione

immediata, possono essere

molto utili i dati forniti dalle

costellazioni di “piccoli” satelliti

(Kucera et al., 2012); i satelliti

tradizionali infatti hanno tempi

di rivisitazione non adatti per

questo tipo di servizio. Le missioni

con i “piccoli” satelliti, di

contro, possono essere appositamente

progettate per un scopo

specifico quale, ad esempio, il

monitoraggio di un’area industriale

(Sandau, 2010) utilizzando

tecnologie già pronte, le

cosiddette (off-the-shelf technologies).

E’ possibile, inoltre,

creare sistemi molto piccoli (bus

and payload) rivedendo l’ingegneria

di sistemi già esistenti e

cercando di miniaturizzarli. In

generale, piccoli satelliti sono

equipaggiati con spettroradiometri

in VIS-nearIR e i dati

sono disponibili in giornata; in

futuro, si prevede di aumentare

la capacità di elaborazione a

bordo e inviare i dati agli utenti

già corretti ed appositamente

elaborati per la specifica applicazione

(Sandau, 2006). Nei

prossimi anni lo sviluppo di

missioni con piccoli satelliti sarà

inoltre favorita dalla comparsa

sul mercato di nuovi sistemi di

lancio dedicati dalla necessità

di “testare” le diverse componenti

prima di una missione

più articolata e costosa, dallo

sviluppo di sistemi interconnessi

di piccole stazioni di ricezione

e, ultimo ma non meno importante,

dalla richiesta di dati

in tempo reale per gli eventi

con rapida evoluzione, come

incidenti industriali o disastri

naturali (Sandau, 2010). Verrà

sicuramente implementata l’interferometria

3D che può essere

estremamente utile nel monitoraggio

dei cambiamenti di uso

del suolo, tra cui lo studio delle

deformazioni in aree urbanoindustriale

e la stima dei danni

derivanti da incidenti industriali

(Sandau e Briess, 2010).

In futuro, aumentando della

risoluzione spaziale delle immagini

aumenterà la domanda di

dati ottici da integrare con i dati

acquisiti dai sensori a microonde

e con i dati rilevati dai sensori

montati su droni ((Lewis,

2011, Sandau, Briess, 2008)

o UAV (Unmanned Aerial

Vehicle). In particolare, i micro-

UAV (peso inferiore a 2 kg) rappresentano

l’ultima frontiera per

l’osservazione della Terra ad alta

risoluzione e bassa quota. Su i

micro-UAV possono essere installati,

infatti, vari sensori che li

rendono utilissimi per le attività

di monitoraggio del territorio

nelle aree urbane e naturali.

Recentemente i micro-UAV

hanno avuto un notevole sviluppo

in seguito alla maggiore

affidabilità e ai costi ridotti per

l’utilizzo di sensori basati sulle

nano-tecnologie (AA. VV.,

2011).

Con UAV, è anche possibile

Fig. 6 - Il termine e le sue relazioni, un diagramma.

osservare la superficie terrestre,

con vista nadirale e prospettica,

ottimi requisiti per valutare i

danni derivanti da incidenti

industriali quali, ad esempio il

crollo degli edifici. I dati prodotti

possono inoltre essere condivisi

come livelli informativi

su piattaforma web (geoSDI) in

pochissimo tempo (dell’ordine

di dieci minuti) fondamentali in

caso di emergenza, poichè hanno

una risoluzione molto alta

ed un corretto posizionamento

geografico (AA. VV., 2011).

I dati acquisiti con gli UAV

saranno sempre più richiesti in

particolare per eventi calamitosi,

sia di origine naturale, antropica

o Natech. Essi, infatti, possono

montare a bordo contemporaneamente

sia fotocamere sia

strumenti dedicati ad acquisire

informazioni specifiche sull’evento

da analizzare. In caso di

incidenti su aree industriali, per

esempio, in cui è possibile la

fuoriuscita di gas tossici e nocivi,

noti in precedenza, i sensori

possono essere progettati ad hoc

per campionare il particolato

atmosferico, rilevare la concentrazione

delle sostanze tossiche e

raccogliere campioni da analizzare

in laboratorio (Wang et al.,

2013). Questi sensori possono

quindi fornire informazione sulle

aree in cui particolato (fumo

GEOmedia n°6-2016 9


FOCUS

e ceneri) e/o inquinanti possono

ricadere, con evidenti vantaggi

per l’organizzazione delle procedure

di intervento sul territorio.

Inoltre possono monitorare le

zone a rischio più elevato dove è

impossibile l’accesso ai soccorritori.

L’uso di questi mezzi è particolarmente

efficace nel caso di

incidenti in cui si prevede una

reazione a catena (esplosioni,

incendi e crolli) per la formulazione

di un piano di ricerca e

salvataggio e per la prevenzione

dell’effetto domino stesso.

Durante gli incidenti in impianti

che contengono sostanze

chimiche pericolose, possono

essere prodotti gas facilmente

infiammabili, che generano

esplosioni. Queste esplosioni

causano improvvisi movimenti

delle masse d’aria e temperature

molto elevate. Gli UAV, però,

spesso non sono in grado di far

fronte a temperature elevate;

non possono nemmeno mantenere

la stabilità sufficiente per

minimizzare le deformazioni

delle immagini. L’equilibrio, la

stabilità e il controllo del velivolo

durante il volo nonché la durata

delle batterie sono oggetto

di studio per poter minimizzare

questi inconvenienti (AA. VV.,

2011). Di contro, questi velivoli

possono essere di notevole

supporto in quanto, volando

a bassa quota, a differenza dei

satelliti, possono acquisire

immagini sotto la copertura

nuvolosa e sono estremamente

meno costosi di aeromobili con

equipaggio.

Lo sviluppo di sistemi unmanned

non richiede fondi eccessivi

e potrebbe combinare gli

interessi del mondo scientifico

e di quello industriale. Nel

caso di monitoraggio pre- o

post- incidente, infatti, la possibilità

di utilizzare dati acquisiti

da sensori dedicati prevede il

coinvolgimento della piccola e

media industria; la possibilità

di finalizzare le acquisizioni a

specifici utilizzi può diversificare

e aumentare notevolmente i

potenziali utenti.

Fig. 7 - Il Natural Hazards Wikisaurus (NHW), (Wiki + Thesaurus), propone un set di strumenti

terminologici per la conoscenza dei pericoli naturali (http://www.nhwikisaurus.com/).

La terminologia

Le parole assumono significati

diversi a seconda del contesto

nel quale sono utilizzate e molte

ambiguità emergono quando il

dominio di conoscenza al quale

appartengono è complesso o

poco chiaro. Gli strumenti terminologici,

ovvero strumenti

come glossari, lessici e thesauri,

aiutano sia chi produce, organizza

e cataloga l’informazione,

qualunque essa sia, sia quanti

usufruiscano delle informazioni

stesse. In particolare rendono

la ricerca di queste ultime efficace

e rapida, minimizzando

l’effetto del rumore di fondo

e massimizzando la precisione

nel recupero delle informazioni

cercate. Questi concetti, validi

ogni qual volta si utilizzi il linguaggio

per la comunicazione,

divengono ancora più discriminanti

in domini che utilizzano

termini specialistici e tecnici

come quelli legati alle attività

di osservazione della terra e

della gestione delle emergenze.

Inoltre, la necessità di liberare

il campo da ogni “ambiguità

semantica” diventa ancora più

pressante nel momento della

pianificazione del rischio e del

soccorso. La mole di dati attualmente

a disposizione è un vero

e proprio tesoro di informazioni,

ma un tesoro di cui non

possediamo la mappa, un modo

per costruirla è partire dalle

“parole”. Le parole sono quelle

che usiamo quando facciamo

una ricerca e sono i machinereadable

metadata come le key

words associate a i prodotti e

servizi relativi all’earth observation

(EO), che ci permettono

di trovare le informazioni ricercate;

usiamo le parole quando

classifichiamo e organizziamo le

informazioni; usiamo le parole e

le relazioni tra i concetti definiti

da esse quando organizziamo i

contenuti.

Molto si sta facendo nel

campo dell’informatica dove

con le SDI (Spatial Data

Infrastructure) si è raggiunto

un elevato grado di interoperabilità

anche grazie al brokering

approach (Nativi et al., 2013),

per il recupero e la gestione

dei dati. Queste infrastrutture

10 GEOmedia n°6-2016


FOCUS

permettono, anche attraverso

l’uso di ontologie, la gestione

semantica del sistema, ma alcuni

bisogni rimangono ancora

non soddisfatti soprattutto

quando le query vertono su

qualcosa di molto specifico,

o al contrario quando non si

è esperti nel settore e non si

sa bene cosa cercare. Di fatto

la “componente umana” del

sistema utilizza i termini per

interrogare il sistema stesso e

avere a disposizione un chiara

semantica sui rischi e sui sistemi

di EO, significa innanzitutto

avere dei risultati migliori nel

recupero delle informazioni ed

impegnarsi in una prospettiva

di «conoscenza resiliente», in

grado di usare le conoscenze

scientifiche e degli esperti in

un ottica di «spiegazione» e

«comprensione», elementi chiave

per prendere la decisione

migliore di fronte a un disastro.

Se in qualche modo tecniche e

conoscenze scientifiche hanno

una sorta di “interoperabilitàcontestuale”,

le gestione del rischio

e le attività operative sono

strettamente legate ai domini

semantici determinati anche da

differenze politiche e culturali;

ciò significa che vi è la necessità

di rendere esplicite le relazioni

esatte e precise tra concetti (e

termini) appartenenti ad una

ampia gamma di discipline e

anche a lingue diverse.

Si propongono qui due strumenti

utili per affrontare le

criticità connesse al corretto

utilizzo di linguaggi specifici:

l’NHWikisaurus (http://www.

nhwikisaurus.com/) e Earth

Observation Systems Thesaurus

- EOSterm (http://thesaurusonline.iia.cnr.it/vocabs/eosterm/en/index.php).

Il NHWikisaurus, nasce dalla

collaborazione tra la facoltà

di Scienze della Terra dell’

Università di Torino e del’IIA

- CNR (Rapisardi et al., 2014)

e propone un prototipo collaborativo

di produzione dei

contenuti nella parte wiki e per

gli articoli di approfondimento,

mentre nel contempo offre strumenti

teminologici “classici”

(thesaurus, glossario e ontologia),

per una corretta comprensione

dei concetti e delle parole

legate ai rischi naturali. In una

tematica complessa come quella

della gestione dei pericoli e dei

rischi, lo sforzo di costruire una

mappa tra i concetti aiuta molto

a ridurre ed organizzare la complessità

di tutto il sistema, nelle

sue diverse fasi dalla prevenzione,

alla gestione dell’emergenza,

dal superamento delle crisi

all’analisi migliorativa del processo.

Sono stati identificati i

fenomeni, i processi, gli attori e

le azioni e sono state costruite le

relazioni tra questi “entità”.

EOSterm - Earth Observation

Systems Thesaurus, nasce da un

progetto del CNR IIA (Plini

et al., 2007, 2014), volto alla

costruzione di un sistema terminologico

per telerilevamento

e GIS. I termini selezionati

ed organizzati con relazioni

gerarchiche, di equivalenza e

associative, contiene circa 3.000

termini in italiano ed inglese.

Le principali fonti dalle quali

è stata ricavata la terminologia

sono le seguenti: AGI, CCRS

Remote Sensing Glossary of

Canada Centre, ATIS Telecom

glossary 2000, Glossary of

Cartographic Terms” of Texas

University, Dictionary of

Abbreviations and Acronyms

in GIS, Cartography and

Remote Sensing of the

University of California,

Glossary of Oceanography,

Climatology and the Related

Geosciences, GIS Glossary”

of Environmental Systems

Research Institute Inc. (ESRI),

Glossary of GIS and Metadata

terms of Environmental On-

Line Services (ERIN).

Conclusioni

Negli ultimi anni si è dimostrato

come l’integrazione ed il confronto

delle immagini raccolte

attraverso diverse piattaforme,

satelliti, aeroplani, elicotteri,

UAV, possa fornire informazioni

utili ai soccorritori e a chi

gestisce l’emergenza. Inoltre l’e-

Fig. 8 - EOSterm - Thesaurus su i sistemi di osservazione della terra (http://thesaurusonline.iia.cnr.

it/vocabs/eosterm/it/index.php).

GEOmedia n°6-2016 11


FOCUS

laborazione dei dati provenienti

dall’EO costituisce una base

conoscitiva per creare scenari

incidentali, individuare le zone

a rischio Natech e di conseguenza

creare piani per la pianificazione

dell’emergenza, dalla

prevenzione alla ricostruzione,

così come fornisce dati utili per

le analisi post evento. La visone

di insieme mostra chiaramente

come i dati del remote sensing

siano una fonte di informazioni

sempre più importante, sia per i

rischi Natech che per tutte le altre

tipologie di rischio, in tutte

le fasi del ciclo dell’emergenza,

dalla fase di prevenzione a quella

della gestione dell’emergenza,

alla ricostruzione, per poi tornare

di nuovo alla prevenzione

secondo un ciclo di miglioramento

continuo.

Una delle sfide cruciali dei prossimi

anni sarà quella di pianificare

accuratamente le missioni

dei micro-satelliti al fine di

massimizzarne l’uso per l’osservazione

delle aree potenzialmente

a rischio per migliorarne

la valutazione e la gestione e per

studiare i fattori di causalità e le

connessioni tra rischi antropici

e rischi naturali.

Inoltre gli UAV sembrano essere

particolarmente adatti nelle

operazioni di soccorso, anche in

quelle situazioni o luoghi dove

per le squadre di soccorso non

è sicuro intervenire (ad esempio

per la presenza di crolli o sostanze

nocive).

Inoltre la gran mole di dati a

disposizione rende utile l’uso

di strumenti terminologici che,

attraverso i concetti e i termini

in essi contenuti, ne facilitino

la catalogazione, la gestione e il

recupero, in modo da rendere le

informazioni fruibili in tempi

rapidi. Sarebbe utile disporre di

glossari e thesauri relativi specificamente

ai rischi Natech e alla

tecnologia necessaria per la loro

gestione.

BIBLIOGRAFIA

AA. VV. (2011), “Dipartimento IUAV per la Ricerca. Unità di Ricerca: Nuove tecnologie per la conoscenza del territorio e

dell’ambiente. “City Sensing” e “Near Mapping” microdrone i-uav piattaforma aerea leggera a bassa quota per il monitoraggio citta’

ambiente e territorio, rilievi di parchi, infrastrutture, aree industriali, edifici, aree in dissesto idrogeologico, applicazioni tematiche

di protezione civile”, Rapporto Conclusivo, http://www.ricercasit.it/smartcities/ricerca/Pervasive%20Real%20Time%20Sensing/

MicrodroneUAV/Progetto%20I-UAV.pdf

Alexander D. (2002), “From civil defence to civil protection and back again”, Disaster Prevention and Management, 11, (3): 209-213

Ajmar A, Boccardo P, Disabato F, Giulio Tonolo F. (2015), “Rapid Mapping: geomatics role and research opportunities”, Geodesy

And Geomatics To The Edge. Rendiconti Lincei, 26, 1: 63-73 DOI: 10.1007/s12210-015-0410-9

Antonioni G, Bonvicini S, Spadoni G, Cozzani V. (2009), “Development of a framework for the risk assessment of Na-Tech accidental

events”, Reliability Engineering & System Safety, 94, 9: 1442-1450

Clerc A, Le Claire G. (1994), “The environmental impacts of natural and technological (Na-tech) disasters”, Background discussion

paper for The World Conference on Natural Disaster Reduction, Yokohama, Japan, 23–27 May 1994

Cruz AM, Steinberg LJ, Vetere Arellano L, Nordvik JP, Pisano F. (2004), “State of the Art in Natech Risk Management (NATECH:

Natural Hazard Triggering a Technological Disaster)”, EUR 21292 EN, © European Communities

Di Franco S, Salvatori R. (2015), “Current situation and needs in man-made and Natech risks management using Earth

Observation techniques”, Remote Sensing Applications: Society and Environment, 1: 72–84. DOI: http://dx.doi.org/10.1016/j.rsase.2015.06.004

European Commision. Copernicus Emergency Management Service, http://emergency.copernicus.eu/mapping/#zoom=2&lat=20.

25728&lon=17.0555&layers=0B000000T

Galderisi A, Ceudech A, Pistucci M. (2008), “A method for Na-tech risk assessment as supporting tool for land use planning mitigation

strategies”, Nat Hazards, DOI 10.1007/s11069-008-9224-8

Girgin S, Krausmann E. (2013), “RAPID-N: Rapid Natech risk assessment and mapping framework”, Journal of Loss Prevention in

the Process Industries, 26: 949 - 960, DOI:10.1016/j.jlp.2013.10.004

Joyce KE, Wright KC, Samsonov SV, Ambrosia VG. (2009), Remote sensing and the disaster management cycle. Advances in Geoscience

and Remote Sensing, Gary Jedlovec (Ed.), ISBN: 978-953-307-005-6, InTech, DOI: 10.5772/8341

Krausmann E, Cozzani V, Salzano E, Renni E. (2011), “Industrial accidents triggered by natural hazards: an emerging risk issue”,

Nat. Hazards Earth Syst. Sci., 11: 921–929, DOI:10.5194/nhess-11-921-2011

Kucera J, Lemoine G, Kemper T. (2012), “Post-Disaster Needs Assessment: the role of remote sensing and geospatial information”,

IPSC - Institute for the Protection and Security of the Citizen. JRC- European Commission. Vienna, PDNA training, https://www.gfdrr.

org/sites/gfdrr.org/files/3_JRC-Remote_Sensing.pdf

Lewis PE. (2011), “The Evolution of Airborne Chemical and Radiological Remote Sensing For Emergency and Natural

Disaster Response”, National Geospatial-Intelligence Agency (NGA) - USA. SPIE 2011 Remote Sensing PlenaryTalk, http://spie.org/

Documents/AboutSPIE/PDF/ERS11-plenary-Lewis.pdf

Lindell MK, Perry RW. (1996), “Identifying and managing conjoint threats: earthquake-induced hazardous materials releases”. The

US. J Hazard Mater 50: 31–46

Marzo E, Busini V, Rota R. (2015)), “Definition of a short-cut methodology for assessing the vulnerability of a territory in naturaltechnological

risk estimation”, Reliability Engineering and System Safety, 134: 92–97

Menoni S, Molinari D, Parker D, Ballio F, Tapsell S. (2012), “Assessing multifaceted vulnerability and resilience in order to design

risk-mitigation strategies”, Nat Hazards, 64: 2057–2082, DOI 10.1007/s11069-012-0134-4

Nativi S, Craglia M, Pearlman J. (2013), “Earth Science Infrastructures Interoperability: The Brokering Approach”, IEEE Journal of

selected topics in applied earth observations and remote sensing, 6, 3, DOI: 10.1109/JSTARS.2013.2243113

Plini P, Di Franco S, De Santis V, Salvatori R. (2015), “EOSterm - Earth Observation Systems Thesaurus”, http://thesaurusonline.

iia.cnr.it/vocabs/eosterm/en/index.php

Plini P, Salvatori R, Di Franco S, De Santis V. (2007), “L’organizzazione di metadati e dati relativi a piattaforme aeree e satellitari per

il telerilevamento”, 11ª Conferenza Nazionale ASITA, Torino

Rapisardi E, Di Franco S, Giardino M. (2014), “Web Participatory Framework for Disaster Resilience: Coping with Information

Deluge”, Conference: IAEG 2014, Engineering Geology for Society and Territory, 7

Salzano E, Basco A, Busini V, Cozzani V, Marzo E, Rota R, Spadoni G. (2013), “Public awareness promoting new or emerging

risks: Industrial accidents triggered by natural hazards (Natech)”, Journal of Risk Research, 16, 3-4: 469-485, DOI:

10.1080/13669877.2012.729529

Sandau R. (2006), International Study on Cost-Effective Earth Observation Missions, Balkema A.A. Publishers, Taylor & Francis

Group, Leiden, The Netherlands, 160. ISBN10:0-415-39136-9, ISBN13:9-78-0-415-39136-8

Sandau R, Briess K. (2008), “Potential for advancements in remote sensing using small satellites”, The International Archives of the

Photogrammetry, Remote Sensing and Spatial Information Sciences. XXXVII, B1, Beijing

Sandau R, Briess K. (2010). “The role of small satellite mission in global change studies- Advances”, Chuvieco, E., Li, J., Yang, X.

(Eds). Earth Observation of Global Change. Springer Science & Business Media, 298

Sandau R. (2010), “Status and trends of small satellite missions for Earth observation”, Acta Astronautica, 66: 1 - 12

Sengupta A. (2007), “Industrial hazard, vulnerability and Risk Assessment for land use Planning: A case study old Haldia, west

Bengal, India”, International Institute for Geo-information Science and Earth Observation (ITC), http://www.itc.nl/library/papers_2007/msc/iirs/sengupta.pdf

Showalter PS, Ramspott M. (1999), “The use of remote sensing in detecting and analyzing natural hazards and disaster, 1972-

1998. A partially annotated Bibliography”. J.M. Lovell Center for Environmental Geography and Hazards Research, Southwest Texas

State University., 1

Wang L, Zhou W, Zhao S.(2013), “Application of Mini-UAV in Emergency Rescue of Major Accidents of Hazardous Chemicals”,

International Conference on Remote Sensing, Environment and Transportation Engineering (RSETE 2013)

ABSTRACT

The Earth Observation (EO) techniques are becoming increasingly important in risk management activities not only for natural hazards

and natural disaster monitoring but also to ride out industrial and Natech accidents. The latest development in the aerospace industry such

as sensors miniaturization and high spatial and temporal resolution missions devoted to monitoring areas of specific interest, have made the

use of EO techniques more efficient and ready to use in near real time conditions. This paper summarize the current state of knowledge on

how EO data can be useful in manage all the phases of the Natech disaster, from the environmental conditions before the accident strikes to

the post accident relief, from the scenario setting and planning stage to damage assessment. Moreover some terminological tools are proposed

NHWikisaurus and EOSterm thesaurus, that could be useful for semantic knowledge spreading in EO and risk managment.

PAROLE CHIAVE

Gestione del rischio; Natech; remote sensing; telerilevamento; Copernicus; GMES; emergenza

AUTORE

Sabina Di Franco

difranco@iia.cnr.it

Rosamaria Salvatori

Istituto sull'InquinamentoAtmosferico – CNR

via salaria Km 29,300

Elena Rapisardi

NatRisk, Università di Torino

NOTA REDAZIONE

Il tema di questo articolo è stato presentato per la prima volta nella XIX Conferenza ASITA.

12 GEOmedia n°6-2016


FOCUS

GEOmedia n°6-2016 13


REPORT

Telerilevamento e GIS per la

valutazione e il monitoraggio delle

isole di calore in ambiente urbano

di Sabrina Adelfio, Caterina Enea, Giuseppe Bazan, Pietro Orlando

Fig. 1 – Strisciata immagine MIVIS 2002.

Le tecniche di analisi spaziale e di telerilevamento costituiscono uno strumento molto utile per la conoscenza e lo

studio del fenomeno dell’isola di calore urbano (indicata anche come UHI, dall’acronimo inglese Urban Heat Island).

Nel presente studio, tra le molteplici cause che portano alla generazione di questo fenomeno, sono state approfondite

quelle relative alle caratteristiche fisiche delle superfici e alla presenza delle diverse coperture di uso del suolo.

Negli ultimi secoli l’aumento

demografico

mondiale e la crescita

incontrollata delle città hanno

causato significativi cambiamenti

del territorio da parte dell’uomo.

Una delle conseguenze provocate

da questa trasformazione è la

formazione dell’UHI. Questa si

presenta come un evento microclimatico

che si verifica nelle aree

urbanizzate e consiste in un notevole

aumento della temperatura

nell’ambito urbano rispetto alla

periferia della città e, in particolare,

alle aree rurali circostanti

(Oke, 1973). Nonostante il fenomeno

sia noto almeno dal XIX

secolo, solamente negli ultimi

decenni ha suscitato l’interesse

del mondo scientifico, divenendo

una problematica su cui i pianificatori

urbani stanno ponendo

una grande attenzione. Gli studi

finora effettuati ne distinguono

tre tipologie:

4Isola di calore atmosferica

(Atmospheric UHI - AUHI),

che si distingue ulteriormente

in:

o Isola di calore dello strato

limite urbano, situato al

di sopra dell’altezza media

degli edifici (Urban

Boundary Layer – UBL);

o Isola di calore dello strato

della copertura urbana,

ubicato sotto l’altezza

media degli edifici (Urban

Canopy Layer - UCL);

4Isola di calore di superficie

o epidermica (Surface UHI –

SUHI);

4Isola di calore del sottosuolo

(Subsurface UHI).

Questi diversi tipi di isola di

calore sono certamente correlati,

infatti l’interazione tra il

Boundary Layer, il Canopy Layer e

il Surface Layer genera o meno la

presenza sopra la città di un’isola

di colore. Tuttavia è importante

distinguerli, poiché differiscono

per cause, strumenti di misurazione

e dinamiche temporali.

Le isole di calore atmosferiche

si manifestano in prevalenza di

notte e possono essere negative

di giorno, viceversa quelle di superficie

raggiungono la massima

intensità durante le ore diurne.

Per dedurre con sufficiente precisione

la temperatura superficiale

delle coperture al suolo è stato

utilizzato il Telerilevamento

Termico (Thermal Remote Sensing

- TRS), effettuato con sensori che

acquisiscono informazioni nella

sottobanda dell’infrarosso termico.

Il TRS permette, dunque, di

misurare la quantità di radiazione

elettromagnetica emessa dalla superficie

terrestre nelle lunghezze

d’onda che appartengono alla

regione dell’infrarosso termico.

In seguito, attraverso l’utilizzo

integrato delle tecnologie di telerilevamento

implementate in

ambiente GIS, è stato possibile

analizzare le caratteristiche della

struttura urbana e, in particolare,

comprendere come variano le

temperature all’aumentare della

distanza dalle aree verdi.

14 GEOmedia n°6-2016


REPORT

Area di studio

La città di Palermo si trova ad

una latitudine di 38°06’56”N

e longitudine di 13°21’41”E,

con un’altitudine di 14 m s.l.m.

Il Comune si estende per una

superficie pari a 160,59 Km 2

con una popolazione di 678 492

abitanti. La città è caratterizzata

da un clima temperato delle medie

latitudini con estati asciutte e

calde e inverni freschi e piovosi.

Nell’analisi condotta è stata presa

in considerazione una strisciata

corrispondente alla zona Ovest di

Palermo delimitata a nord dalla

borgata marinara di Mondello e a

sud dalla valle del fiume Oreto.

La scelta dell’area è stata orientata

dalla presenza di differenti tipologie

di tessuto urbano, al fine

di verificare il comportamento

delle temperature al variare delle

differenti coperture di uso del

suolo. Sono, infatti, presenti aree

consolidate ad alta densità, con

tessuto diffuso a media e bassa

densità e aree verdi di notevole

estensione. Tra le infrastrutture

presenti, Viale della Regione

Siciliana è quella che segna

maggiormente il territorio,

attraversandolo da nord a sud.

Questa, se da un lato rappresenta

un fondamentale elemento di

decongestionamento del traffico

urbano, dall’altro provoca un inquinamento

acustico e atmosferico

tale da ridurre la qualità della

vita e della salute dei cittadini.

Tale impatto viene testimoniato

da dati relativi alle emissioni di

CO (g/Km) ricavate con l’applicazione

del metodo COPERT

II (COmputer Programme to

calculate Emission from Road

Traffic) nell’ambito delle attività

del progetto CORINAIR

(COoRdination Information

AIR) (Corriere, 2011). Da qui la

necessità di eseguire analisi più

approfondite con l’obiettivo di

quantificare le variazioni di temperatura

dovute all’aumento delle

distanze dalla vegetazione.

Materiali e metodologia

L’immagine è stata acquisita dal

sensore MIVIS (Multispectral

Infrared and Visible Immaging

Spectrometer) che opera con

un’elevata risoluzione spettrale

e spaziale. I dati sono stati rilevati

con un volo effettuato sulla

città di Palermo nel luglio del

2002, intorno alle ore 12, ora

che ha permesso di ridurre le

zone d’ombra data la posizione

zenitale del sole. L’immagine è

stata calibrata radiometricamente

e corretta geometricamente al

fine di eliminare le distorsioni

geometriche e radiometriche

dovute al sistema di acquisizione,

al mezzo di propagazione del

segnale, all’angolo di ripresa e

all’effetto della curvatura terrestre.

Successivamente l’immagine

MIVIS è stata georeferenziata

nel sistema cartografico di riferimento

WGS84 UTM33.

Per elaborare l’immagine in

esame si è fatto uso del software

ENVI (Environment for

Visualizing Images), realizzato

dalla Research Systems Inc., nella

versione 4.3. Questa è stata

sottoposta inizialmente ad una

fase di calibrazione mediante

l’utilizzo del metodo empirico

lineare che rimuove approssimativamente

l’irradianza solare,

l’assorbimento atmosferico, gli

effetti di scattering e permette di

passare da valori di radianza a valori

di riflettenza. A tal proposito

si è fatto riferimento ad alcune

misurazioni condotte su alcune

porzioni di asfalto, messo in opera

da poco, e su della ghiaia.

Sono state compiute molteplici

elaborazioni con le tecniche di

classificazione pixel-based, utilizzando

i differenti algoritmi implementati

nel software ENVI, al

fine di valutare e confrontare le

mappe tematiche risultanti dalle

differenti metodologie di classificazione.

Si è potuto constatare

che il risultato qualitativamente

migliore e più rappresentativo

per il territorio osservato è stato

ottenuto con l’algoritmo SAM.

Questo richiede come input un

numero di aree di prova (training

areas) o spettri di riferimento,

derivanti da specifiche ROI

(Region of Interest). Nel presente

studio gli spettri input

sono stati ricavati da ROI

individuate nella scena, dove la

metodologia seguita si è avvalsa

di un’analisi visiva di sintesi

additive in RGB. Ogni ROI è

costituita da raggruppamenti di

pixel il più possibile omogenei

e rappresentativi, che serviranno

ad addestrare l’algoritmo di

classificazione affinché associ

ogni pixel dell’immagine ad

una data categoria. Le ROI

utilizzate per la classificazione

fanno riferimento a 5 classi

di copertura del suolo (Asfalto,

Vegetazione, Edifici con Tetto

bianco, Edifici con Tetto rosso)

più la classe Ombra. La distinzione

tra Tetti rossi e Tetti

bianchi è servita non solo ad individuare

la tipologia di uso del

suolo, ma anche ad analizzare

le caratteristiche termiche dei

ROI NAME COLOR PIXELS POLYGONOS FILL ORIEN ORIENT

Ombra Sea Green 38 3/38 Solid 45 0.10

Asfalto Magenta 186 4/186 Solid 45 0.10

Vegetazione Green 472 12/147 Solid 45 0.10

Edifici con Cyan 60 5/60 Solid 45 0.10

tetto bianco

Edifici con Red 30 3/30 Solid 45 0.10

tetto rosso

Suolo nudo Yellow 34 2/34 Solid 45 0.10

Fig. 2 – ROI strisciata immagine MIVIS 2002

GEOmedia n°6-2016 15


REPORT

materiali utilizzati. Anche la

classe Ombra, fornisce più che

informazioni relative all’uso del

suolo, informazioni termiche,

in quanto temperature inferiori

nella classe dell’asfalto o dell’urbanizzato

non sarebbe state

altrimenti spiegate.

Nel processo decisionale di

classificazione sono state utilizzate

le bande da 1 a 32 e da 93

a 102. Le bande centrali sono

state escluse al fine di evitare sovrapposizioni

tra le firme spettrali,

con conseguenti errori di classificazione

dei pixel. Attraverso

il processo di classificazione si

passa da un’immagine composta

da Digital Number ad un’immagine

di classi corrispondenti

alle categorie di usi del suolo.

Nonostante la classificazione

ottenuta mediante l’utilizzo

dell’algoritmo SAM sia stata la

migliore, si è potuto riscontrare

come una medesima classe tematica

fosse al suo interno molto

variegata e risultasse costituita da

classi spettrali differenti fra loro.

L’errore che può essere commesso

durante il processo di classificazione

è quello di assegnare un

pixel ad una categoria o classe

diversa da quella a cui appartiene.

Per avere contezza dell’errore

commesso, si ricorre alla “verifica

di accuratezza” che prevede la

realizzazione di una matrice di

confusione, ovvero una matrice

quadrata in cui vengono riportati

i risultati dal confronto tra

la mappa tematica prodotta in

seguito alla classificazione e la

verità di riferimento. La matrice

ha dimensione q×q, dove q è il

numero delle classi o categorie

nella mappa; le colonne rappresentano

i dati di riferimento

(verità), mentre le righe rappresentano

i dati della classificazione.

Il software ENVI può calcolare

una matrice di confusione

utilizzando la ground true image

oppure le ground true ROIs. Nel

presente lavoro è stato utilizzato

CLASS TETTI SUOLO ASFALTO OMBRA TETTI VEGETAZIONE TOTALE

ROSSI NUDO

BIANCHI

Unclassified 0 0 0 0 69 0 69

Tetti rossi 127 0 0 0 0 0 127

Suolo nudo 40 111 0 0 0 0 151

Asfalto 0 54 46 0 0 0 100

Ombra 0 35 55 108 0 0 198

Tetti bianchi 0 0 0 0 50 0 50

Vegetazione 0 0 0 0 0 175 175

Totale 167 200 101 108 119 175 870

Fig. 3 – Ground Truth (pixels).

il secondo metodo che prevede la

realizzazione di ulteriori ROI di

verità a terra, che saranno confrontate

con le ROI utilizzate per

la classificazione delle immagini.

Il prodotto dell’analisi comprende

una valutazione di accuratezza

totale in percentuale (Overall

Accuracy), data dal rapporto tra

i pixel classificati correttamente

e i pixel totali; il coefficiente

kappa; la matrice di confusione,

nella cui diagonale vengono

rappresentati i pixel classificati

correttamente; gli errori di commissione

(percentuale di pixel

in più nella classe); gli errori di

omissione (percentuale di pixel

lasciati fuori dalla classe di appartenenza);

le precisioni producer

and user (utente e produttore)

per ogni classe. La precisione

producer è la probabilità che un

pixel nell’immagine classificata

venga assegnato alla classe x

dato che la classe di verità a

terra è x. La precisione user è la

probabilità che la classe di verità

a terra sia x dato che il pixel è

CLASS

COMMISSION

stato assegnato alla classe x nella

classificazione.

Di seguito si riportano la verifica

di accuratezza dell’intera strisciata

presa in esame.

Overall Accuracy: (617/870)

70,9195%; Coefficiente Kappa:

0,6547

Si è cercato a questo punto di

migliorare i risultati fin qui ottenuti

eseguendo un’operazione

di filtraggio che consiste nell’eliminare

i pixel che in realtà non

appartengono alla classe corretta.

Tale operazione sfrutta, per determinare

il valore del pixel di

destinazione, il valore di alcuni

pixel ad esso più vicini. Nel caso

specifico si è scelto un quadrato

di 3x3 pixel in cui quello in esame

si trova in posizione centrale.

In questo modo è stato possibile

risolvere le problematiche connesse

alla presenza di pixel isolati

presenti in altre classi.

Successivamente l’immagine

classificata è stata importata in

ambiente GIS come shapefile,

elaborata con il software ArcGis

OMISSION

COMMISSION

OMISSION

%

%

(pixels)

(pixels)

Tetti rossi 0 23,95 0/127 40/167

Suolo nudo 26,49 44,50 40/151 89/200

Asfalto 54,00 54,46 54/100 55/101

Ombra 45,45 0 90/198 0/108

Tetti bianchi 0 57,98 0/50 69/119

Vegetazione 0 0 0/175 0/175

Fig. 4 – Errori di commissione e omissione.

16 GEOmedia n°6-2016


REPORT

10.0 e ulteriormente corretta,

in quanto sono state riscontrate

anomalie nella classificazione del

suolo nudo, erroneamente individuato

come Edifici con tetto

rosso. È stata quindi fatta una

query selezionando tutti i poligoni

classificati come Tetti rossi

che presentavano una superficie

maggiore di 5000 mq, per verificare

di volta in volta la reale

classe di appartenenza. Si sono

riscontrati, inoltre, degli errori

relativi alla classe dell’Asfalto che

spesso presentava al suo interno

porzioni rocciose di Suolo nudo;

anche queste sono state di volta

in volta verificate e corrette.

Non avendo, inoltre, inserito

all’interno delle ROI la classe

Acqua il mare viene classificato

come Ombra. In questa fase di

correzione, pertanto, il mare è

stato ritagliato dall’immagine

in modo da non tenerne conto

nelle successive elaborazioni. Pur

non essendo l’Ombra, una tipologia

di copertura di uso del suolo,

è stato necessario mantenerla

come classe a sé, in quanto le

zone d’ombra creavano dei problemi

nella classificazione. Sono

state così ottenute le immagini

finali, sulle quali sono state calcolate

le percentuali di coperture

di uso del suolo. Nella strisciata

si ha il 27,80% di Suolo nudo,

il 22,53% di Vegetazione, il

19,52% di Ombra, il 13,03% di

Asfalto, il 9,52% di Edifici con

tetto rosso e il 7,60% di Edifici

con tetto bianco.

Dall’immagine MIVIS è stata

poi realizzata una termografia

prendendo in considerazione le

bande dell’infrarosso termico

CLASS PROD. ACC.

%

USER. ACC.

%

PROD. ACC. USER. ACC.

(pixels

(pixels)

Tetti rossi 76,05 100,00 127/167 127/127

Suolo nudo 55,50 73,51 111/200 111/151

Asfalto 45,54 46,00 46/101 46/100

Ombra 100,00 54,55 108/108 108/198

Tetti bianchi 42,02 100,00 50/119 50/50

Vegetazione 100,00 100,00 175/175 175/175

Fig. 5 – Precisioni utente e produttore.

(dalla 93 alla 102 corrispondenti

alle lunghezze d’onda comprese

tra 8,2 e 12,7 μm). In particolare

estraendo la banda 93 (con

lunghezza d’onda compresa tra

8,20 e 8,60 μm) è stato possibile

ricavare valori di emissività delle

superfici, ossia valori di temperatura.

Le informazioni ottenute

con la realizzazione dell’immagine

termica sono servite a comprendere

come le componenti

del paesaggio urbano influenzino

le dinamiche della radiazione

termica e come vi sia dunque

una forte correlazione tra caratteristiche

delle superfici urbane

e temperatura. Per rappresentare

le variazioni di temperatura è

stata utilizzata una graduazione

di colori che va dal verde delle

zone più fredde al rosso delle

zone più calde. Importando le

immagini in ambiente GIS è

stato possibile calcolare le temperature

medie di ogni classe

di uso del suolo. Nell’intera

strisciata la temperatura media

più elevata si ha per il Suolo

nudo con 36,99°, seguono gli

Edifici con tetto rosso e l’Asfalto

con 36,02°, gli Edifici

con tetto bianco con 34,47°,

la Vegetazione con 30,81° e per

ultima l’Ombra con 28,99°.

Nonostante il Suolo nudo sia

caratterizzato da una superficie

permeabile in cui si ha il processo

di evapotraspirazione, l’assenza

totale di vegetazione e di zone

d’ombra lo rende la superficie

più calda. Gli Edifici con tetto

rosso hanno una temperatura

più elevata rispetto a quelli con

Tetto bianco, in quanto superfici

con vernici o materiali chiari

riflettono gran parte della radiazione

proveniente dal sole,

assorbendone quantità irrisorie.

Inoltre, un tessuto a bassa densità

intervallato da vegetazione

può contribuire all’abbassamento

delle temperature; tuttavia

anche il tessuto consolidato

presenta temperature inferiori a

causa della formazione di zone

d’ombra tra gli edifici. L’asfalto

delle strade e dei grandi parcheggi

crea delle vaste superfici

impermealizzate e assorbe una

quantità notevole di radiazione,

a causa del colore scuro dei manti

bituminosi. Al contrario i tetti

bianchi, per le loro proprietà

riflettenti, e la vegetazione presentano

temperature inferiori.

Quest’ultima, infatti, caratterizza

i suoli permeabili favorendo

Fig. 6 – Classificazione finale – Strisciata immagine MIVIS 2002.

GEOmedia n°6-2016 17


REPORT

Fig. 7 – Termografia – Strisciata immagine MIVIS 2002.

il processo di evapotraspirazione

e garantisce la presenza di zone

d’ombra. Le informazioni ottenute

dall’analisi termica hanno

confermato la presenza di elevate

temperature in corrispondenza

di forti emissioni di CO, nello

specifico l’attenzione è stata

rivolta su due tratti stradali di

Viale della Regione Siciliana,

quantificando le variazioni di

temperatura dovute all’aumento

delle distanze dalla vegetazione.

Al fine di verificare il comportamento

delle temperature in aree

con tipologie di tessuto urbano a

bassa densità edilizia e in assenza

di forti emissioni di CO, sono

state prese in considerazione due

porzioni di territorio caratterizzate

dalla presenza di aree verdi.

L’analisi prevede innanzitutto

di estrapolare la vegetazione

dalla classificazione effettuata

precedentemente e importarla in

ambiente GIS, dove saranno costruiti

cinque buffer con larghezza

di 3 m attorno alle aree verdi,

aumentando progressivamente la

distanza da queste. Il primo parte

direttamente dal limite esterno

della vegetazione (si indicherà

in seguito a una distanza di 0

m), il secondo da una distanza

di 3 m, il terzo di 6 m, il quarto

di 12 m e infine l’ultimo di 18.

Successivamente i buffer così costruiti

vengono intersecati con la

classificazione, al fine di calcolare

le temperature medie di ogni

classe all’interno di ogni buffer,

per comprenderne il comportamento

all’aumentare delle distanze

dalla vegetazione. Sotto si

riportano le variazioni di temperatura

in C° (asse Y) rapportate

all’aumento delle distanze in m

dalla vegetazione (asse X).

Nelle immagini si può notare

come le classi di uso del suolo

presentino un cambiamento

repentino delle temperature alle

distanze di 0, 3 e 6 m dalla vegetazione,

mentre le variazioni

diventano meno evidenti dai 6

ai 18 m, ad eccezione della classe

Ombra. In particolare le temperature

di tutte le classi tendono

ad innalzarsi all’aumentare della

distanza dalla vegetazione, ad

esclusione delle classi Asfalto e

Ombra. Nello specifico si può

notare come tutte le classi, ad

esclusione dell’Ombra, presenti-

Fig. 8 – Variazioni di temperatura a diverse distanze dalla vegetazione per classi di copertura di uso del suolo.

Fig. 9 - Variazioni di temperatura a diverse distanze dalla vegetazione per classi di copertura di uso del suolo.

Fig. 10 - Variazioni di temperatura a diverse distanze dalla vegetazione per classi di copertura di uso del suolo.

Fig. 11 - Variazioni di temperatura a diverse distanze dalla vegetazione per classi di copertura di uso del suolo.

18 GEOmedia n°6-2016


no un andamento logaritmico

con coefficiente di determinazione

(più comunemente

R 2) che varia da un minimo di

circa 0,70 per l’Asfalto ad un

massimo di 0,98 per il Suolo

nudo. Si può scrivere, quindi,

la seguente equazione:

∆T= k (lnxi-lnxi-1)

Dove ∆T rappresenta la differenza

di temperatura tra il

buffer nella distanza xi e il precedente

xi-1; k è una costante.

Pertanto è possibile determinare

la differenza di temperatura

in funzione della distanza

dalla vegetazione, in quanto a

valori bassi di ∆T corrispondono

distanze ridotte tra le

diverse piantumazioni di verde;

viceversa fissato ∆T è possibile

quantificare le distanze

tra le diverse piantumazioni.

Tuttavia la temperatura media

dell’intero buffer non dipende

più soltanto dalla distanza dalla

vegetazione ma anche dalle

percentuali di copertura di

ogni classe presente.

Inoltre, come si evince dalle

ultime due immagini e grafici,

una distribuzione diffusa nel

territorio di aree verdi (Fig.

11) favorisce un significativo

abbassamento delle temperature

di circa 2 gradi, rispetto

alla presenza della stessa quantità

di verde (circa il 50% per

entrambe le figure). concentrato

in determinate aree (Fig.

10).

Conclusioni

Le aree urbane rappresentano

gli ambiti più a rischio per

i cambiamenti climatici, in

quanto laddove è più alta la

densità abitativa maggiori

sono i rischi ambientali e

sociali. Le città dovranno contribuire

ad adattarsi al cambiamento

climatico e allo stesso

tempo mitigarlo, adottando

politiche che affrontino le due

problematiche in maniera integrata.

Mentre l’adattamento

richiede strategie,

politiche e azioni specifiche a

livello locale per aumentarne

la resilienza al cambiamento,

la mitigazione è un’azione

globale che richiede sostanziali

cambiamenti del comportamento

individuale ed importanti

innovazioni tecnologiche.

Pertanto se gli interventi

vengono applicati sul singolo

edificio si ha come conseguenza

una riduzione della temperatura

delle superfici delle

singole abitazioni, consentendo

di ridurre il consumo

di energia elettrica. Ma se le

azioni di mitigazione vengono

effettuate da molte strutture,

le numerose riduzioni di temperatura

locale e di emissioni

di calore antropogenico provocano

una diminuzione della

temperatura di tutta la città,

apportando un vantaggio per

l’intera collettività e di conseguenza

una migliore qualità

dell’aria. Fondamentale risulta

quindi contribuire alla conoscenza

dei fenomeni in atto ed

alle possibilità di adattamento

che i centri urbani possono

attuare. Nel presente studio

il telerilevamento si è rivelato

una tecnica eccellente per la

rilevazione delle temperature,

confermando che la presenza

di superfici asfaltate, la

continua cementificazione e

l’inquinamento atmosferico

sono le principali cause della

generazione di calore urbano.

Da qui la necessità di attuare

interventi di greening urbano

con un’ottica multiobiettivo

che affianchi alle funzioni termoregolative,

anche quelle di

ottimizzare la risposta idrologica,

apportando conseguenze

positive sotto il profilo ambientale,

ecologico ma anche

estetico, sociale e culturale.

REPORT

BIBLIOGRAFIA

Arnfield A. J. (2003), Two decades of urban climate research: a

review of turbulence, exchanges of energy and water, and the urban heat

island, in “International journal of climatology” 23

Brivio P. A., Lechi G., Zilioli E. (2006), Principi e metodi di Telerilevamento,

Città Studi Edizioni

Corriere F. (2011), Impianti ettometrici e infrastrutture puntuali per i

trasporti, FrancoAngeli

Department of Environmental Science and Engineering, Fudan University

(2009), Remote sensing evaluation of urban heat island and its

spatial pattern of the Shanghai metropolitan area, China, in “Ecological

Complexity” 6

Department of Physics, Faculty of Science, Mahasarakham University

and Department of Geoinformatics, Faculty of Informatics,

Mahasarakham University (2012), Urban heat island monitoring

and analysis by using integration of satellite data and knowledge based

method, in “International Journal of Development and Sustainability,

Vol. 1 Number 2

Institute of Space and Earth Information Science, Yuen Yuen

Research Centre for Satellite Remote Sensing, The Chinese

University of Hong Kong (2011), Urban Heat Island Analysis Using

the Landsat TM Data and ASTER Data: A Case Study in Hong Kong,

in “Remote Sensing” 3

Key Laboratory of Soil & Water Conservation and Desert Prevention,

Ministry of Education, Beijing Forest University (2008), Study

on the distribution changes of urban heat island based on heat-grenness

feature space, in “The International Archives of the Photogrammetry,

Remote Sensing and Spatial Information Sciences” Vol. XXXVII.

Part B7

Oke T. R. (1973), City size and the urban heat island, Atmospheric

Environment, 7.

Oke T. R. (1995), The heat island characteristics of the urban boundary

layer: Characteristics, causes and effects, in “Wind Climate in Cities”

Oke T.R. (1997), Urban Climates and Global Environmental Change,

in “Thompson, R.D. and A. Perry (eds.) Applied Climatology: Principles

& Practices”, New York

Rizwan, Ahmed Memon, Leung Dennis Y.C. e Chunho Liu (2008),

A review on the generation, determination and mitigation of Urban

Heat Island, in “Journal of Environmental Sciences” 20

Stanganelli M., Soravia M. (2012), Consumo energetico e caratteristiche

della morfologia urbana, in “Planum. The Journal of Urbanism”, n.

25, vol 2

State Key Laboratory of Information Engineering in Surveying,

Mapping and Remote Sensing (LIESMARS) and Marine Science

and Environmental Studies, University of San Diego (2006).

PAROLE CHIAVE

Telerilevamento; analisi spaziale; isole di calore urbano; territorio

ABSTRACT

The techniques of spatial analysis and Remote Sensing represent an useful tool for

the knowledge and the study of the Urban Heat Island phenomenon (English acronym

UHI). In this study, among the different causes that lead to the generation

of the event, those regarding physical features of the surface and the presence of

different land use/cover such as: the high cover of urban areas and the lack of green

areas have been examined. The Remote Sensing techniques allow to create maps

of the land use/cover, then, in order to estimate the different in temperature due

to the distance to the vegetation, the temperature of the bodies already tested have

been compared with a thermal map. In detail the aim of the research is to examine

the presence of the phenomenon in Palermo, through the analysis of portion of soil

with different morphological features.

AUTORE

Sabrina Adelfio,

sabrina.adelfio@gmail.com

Caterina Enea

eneakatia@libero.it

Università di Palermo, Scuola Politecnica, Dipartimento

di Architettura, Viale delle Scienze, Edificio 14, Palermo.

Giuseppe Bazan

Giuseppe.bazan@unipa.it

Pietro Orlando

pietro.orlando@unipa.it

Università di Palermo, Scuola Politecnica, Viale delle

Scienze, Edificio 14, Palermo.

NOTA DELLA REDAZIONE

Il tema di questo articolo è stato presentato per la prima volta

nella XIX Conferenza ASITA. GEOmedia n°6-2016 19


REPORT

Soluzioni informatiche innovative a

supporto della Decostruzione Selettiva

di Antonio Bottaro

Soluzioni informatiche

innovative per ridurre

l'impatto del processo edilizio

sull'ambiente e sul riuso

dei materiali da costruzione

intesi come risorse da reimpiegare

nell’intervento

edilizio stesso. È necessario

volgere verso un modello

a “zero energia” e a “zero

rifiuti”.

Dobbiamo sentirci tutti

coinvolti nel portare

un contributo all’elaborazione

di una risposta

collettiva di contrasto rispetto

ai cambiamenti climatici che

affliggono i nostri tempi.

Un contributo in tal senso può

venire dall’adeguamento del

ciclo di vita del ‘Fabbricato’ che,

considerato alla stregua di un

’organismo edilizio’, può essere

riportato in linea con la natura

ciclica di fenomeni naturali (paradigma

ecologico).

Questo vuol dire orientare le

attività di ricerca all’individuazione

di soluzioni atte alla

‘chiusura del cerchio’ inerente

il ciclo di vita del fabbricato in

modo che venga modificata la

tradizionale risposta ‘lineare’

(Cradle to Grave: dalla culla alla

tomba), grandemente energivora,

verso la realizzazione di

diversi cicli di decostruzione/ricostruzione

che consentano, l’adozione

di un sempre maggior

contenuto di ‘riuso’ dei materiali

(Cradle to Cradle: dalla culla

alla culla).

Le ristrutturazioni cicliche infatti

ben si adattano al naturale

processo di efficientamento del

Fabbricato che si adegua, nel

tempo, all’evoluzione delle tecnologie

e dei materiali connessi

ai diversi aspetti che lo riguardano:

energetico, di sicurezza,

sismico, etc.

Al fine di ridurre effettivamente,

ed in modo complessivo gli

impatti ambientali dovuti agli

interventi edilizi, appare necessario

ed imprescindibile, che il

progetto si faccia carico del tema

dei materiali in modo complessivo.

Il processo edilizio ed il

progetto tecnologico devono essere

rinnovati per far sì che possano

accogliere le istanze ambientali

in modo completo. In

questo senso, al modello a ‘zero

energia’ (ciascun fabbricato deve

produrre almeno l’energia che

consuma) si deve integrare l’aspetto

della costruzione a ‘zero

rifiuti’. Con questa espressione

si intende richiamare il nuovo

paradigma progettuale nel quale

i materiali di scarto, derivanti

dalle demolizioni, siano intesi

come risorse da re-impiegare

nell’intervento edilizio stesso.

Riuscire a tenere conto dei

materiali in sede di progetto

è un tema importante anche

nella governance delle politiche

di incentivazione al riuso. Le

amministrazioni necessitano di

strumenti idonei al computo ed

anche al controllo delle quantità

oggetto di riuso o di avvenuto

‘smaltimento’ nelle corrette filiere

di recupero.

Servono quindi nuovi strumenti

per tenere in debito conto, nel

ciclo di vita di un manufatto,

20 GEOmedia n°6-2016


REPORT

il trattamento digitale dei ‘materiali’

nel tempo, supportando

nuove esigenze di progetto quali:

il Design for Deconstruction,

il Design for Recycling ed il

Design for Waste.

Andranno prodotte scene di

realtà aumentata, georiferite al

territorio, innestate su modellazioni

3D veloci, facilmente

navigabili e misurabili. I materiali

dovranno essere ’battezzati’

secondo codifiche internazionalmente

riconosciute.

Tutti i cicli di ristrutturazione

prevedono atti preliminari di

decostruzione e di successiva

ri-costruzione mirati alla

sostituzione di ‘materiali’ per

il raggiungimento di stati di

maggiore efficientamento.

Contemplare i materiali in questo

nuovo contesto comporta

il loro riporto, nei Data Base

associati, attraverso codifiche

idonee sia al loro smaltimento

(in Europa sono le codifiche

CER – Codifica Europea dei

Rifiuti) che, ad esempio, per la

fase di progettazione del ‘nuovo’,

dall’utilizzo di codifiche

conformi a quanto richiesto

dal BIM (Building Information

Modeling).

La tendenza a non antropizzare

più nuovo terreno ma a meglio

riutilizzare quanto ‘costruito’ ed

in disuso, o non efficientatile, è

una necessità che sta diventando

sempre più cogente nelle

società avanzate. A tale proposito

si rileva che si possiede

una ottima conoscenza dei costi

di costruzione (ex-novo) ma si

conosce poco dei prezzi di sostituzione

(completa demolizione

selettiva). Una moderna demolizione

selettiva richiede l’intervento

umano che comporta costi

assicurativi elevati in ragione

della ovvia pericolosità di detta

classe di interventi. Questo

aspetto apre quindi il tema della

‘guida’ automatica di automi

in grado di sostituire l’uomo.

E’ necessaria quindi una modellazione

3D, aumentata dal

punto di vista metrico mediante

contributi fotogrammetrici per

una definizione utile di tipo

centimetrico. In tale contesto

dovrà essere possibile guidare

automi senza la presenza umana

(Droni) che saranno in grado di

operare in un contesto, anche

semanticamente conosciuto, restituendo,

in tempo quasi reale,

gli aggiornamenti sulla realtà

che contestualmente contribuiscono

a ‘modificare’.

La demolizione selettiva è però

un processo che si ‘innesta’ su

un ‘quadro’ di espletamenti

burocratici che attualmente

affiancano il processo con un

notevole ‘peso’. I processi di

informatizzazione della componente

‘burocratica’ nascono,

comunemente, come mera

trasposizione, in formati digitalmente

memorizzabili, di quanto

precedentemente richiesto sotto

forma ‘cartacea’. L’effettuazione

di questo passo consente di

certo il superamento della carta

e, nella migliore delle ipotesi,

con la standardizzazione dei

formati e dei processi, si può

raggiungere un più elevato livello

di automazione attraverso

il trattamento digitale dei dati

ottenibile mediante elaborazione

informatica. Sono risultati

importanti ma che non colgono

a pieno le positività insite in

un vero processo di digitalizzazione.

Anche il documento

noto come ‘Piano di gestione

dei rifiuti’, in tal senso, non

costituisce un’eccezione. Tutte

le informazioni codificate al suo

interno sono infatti 'digitalizzate'

solo ai sensi di una dematerializzazione

del documento e

non per un possibile loro riutilizzo

in un processo digitale.

Un’informatizzazione di solo

primo livello può fornire la

possibilità di riporto dei dati

previsti per detto documento,

ospitabili in un opportuno

‘cartiglio’, redatto a partire da

‘dati’ che il professionista compila

e correda attraverso il loro

reperimento con un processo

di acquisizione, per ispezione

diretta sul posto, eventualmente

arricchito da elementi della propria

conoscenza professionale

supportata da archivi (codici,

foto, manuali, abachi…) che

consente, ovviamente, la formalizzazione

di un lavoro serio di

perizia, ma non è in grado di

ottimizzare a pieno il portato

di un processo che, ove svolto

in una filiera ad elevato livello

di contenuto di servizi digitali,

vedrebbe il tutto dipanarsi ad

un più elevato livello di risoluzione

automatica delle complessità

sottese.

Provare a pensare l’intero processo

trasposto in un’ottica

digitale significa affrontarlo in

un contesto di trasposizione

della realtà in realtà aumentata

che coinvolge una modellazione

3D, opportunamente ‘aumentata’

nel senso della ‘vestizione’

GEOmedia n°6-2016 21


REPORT

degli spazi con le informazioni

provenienti dai consueti processi

di 3D‘data capture’. In

tale processo va logicamente

separato quanto utile alla ‘navigazione’

da quanto necessario

al processo di misura. Per avere

rappresentazioni fedeli a livelli

di precisione elevata servono

grandissime moli di dati, mentre,

per una corretta navigazione

in una realtà virtuale, molto

simile alla vera, è sufficiente

solo un piccolo sottoinsieme di

punti.

Ai professionisti andranno forniti

servizi e processi digitali

in grado di operare su scenari

di realtà virtuale/aumentata

che consentano di ‘entrare’ in

un modello evoluto di ‘modellazione

3D’ (quest’ultima

sviluppata da RomaTre nell’ambito

del Computational Visual

Design (CVD-Lab) e denominata

LAR -Linear Algebraic

Representation) sulla quale è

‘strutturalmente’ possibile operare

anche con i consueti operatori

matematici differenziali.

Questa realtà virtuale dovrà

essere servita della possibilità di

georiferire le informazioni proprie

alle diverse specializzazioni

professionali che operano sullo

steso contesto (e sulla medesima

rappresentazione) consentendo

la disamina delle diverse ‘viste’

secondo gli specifici argomenti

che si desidera affrontare:

Design for Deconstruction,

il Design for Recycling ed il

Design for Waste.

L’avere il tutto contestualizzato

secondo i codici CER consente

di avere in automatico sia la

valutazione del costo finale di

smaltimento dei diversi cicli

di ristrutturazione che i dati

connessi al ‘riuso’ con l’annessa

produzione automatica del carico

‘burocratico’ (es. Piano di

smaltimento dei rifiuti, Registro

di carico e scarico, FIR, componente

MUD). Nel caso ‘terminale’

della Sostituzione Edilizia

viene prodotto un GANTT

relativo alle ‘fasi’ della decostruzione

selettiva con stima dei

tempi e computo della gestione

ottimizata delle aree di buffer

(scarrabili).

BIBLIOGRAFIA

Altamura, P. (2012). Gestione eco-efficace dei

materiali da costruzione nel ciclo di vita del fabbricato.

Tesi di Dottorato, Sapienza Università

di Roma.

DiCarlo, A., Paoluzzi, A., and Shapiro, V.

(2014). Linear algebraic representation for

topological structures. Comput. Aided Des.,

46:269–274.

Paoluzzi, A., Pascucci, V., Vicentino, M., Baldazzi,

C., and Portuesi, S. (2001). Geometric

Programming for Computer Aided Design.

John Wiley & Sons, Inc., New York, NY, USA.

815 pages.

PAROLE CHIAVE

Soluzioni informatiche; decostruzione;

riuso; rifiuti; modellazione

3D; droni; servizi digitali; realtà

aumentata; PA

ABSTRACT

Building processes and designs have to be renewed

to take account of environmental concerns.

To reduce the impact of construction

projects on the environment, the design needs

to take the issue of building materials into consideration.

Public administrations need suitable

tools for the calculation and the control of reused

or disposed materials. Innovative IT tools

should handle the digital processing of materials

throughout the project, supporting new project

requirements such as: Design for Deconstruction,

Design for Recycling and Design for

Waste.

AUTORE

Antonio Bottaro

abottaro@geoweb.it

GEOWEB S.p.A.

Viale Luca Gaurico 9/11 00143-Roma

http://www.geoweb.it

22 GEOmedia n°6-2016


REPORT

SOLUZIONI DI GEOPOSIZIONAMENTO

topconpositioning.com/hiper-hr

PRESENTA HIPER HR

CONNETTIVITÀ AVANZATA

FORMA

E FUNZIONE

ALTAMENTE

CONFIGURABILE

PRESTAZIONI

SUPERIORI

A PROVA

DI FUTURO

MODERNA TECNOLOGIA DI POSIZIONAMENTO IBRIDO

Traccia tutti i segnali satellitari con la versatilità di gestire qualsiasi progetto. La tecnologia all’avanguardia,

brevettata di HiPer HR, offre elevata ripetibilità di posizionamento in un design compatto.

© 2016 Topcon Positioning Group

GEOmedia n°6-2016 23


REPORT

Forum TECHNOLOGY for ALL

Pubblicate le date 2017 - online gli atti dell'edizione 2016

Si svolgerà dal 17 al 19 ottobre

2017 la quarta edizione

del Forum TECHNOLOGY

for ALL, evento dedicato alle

soluzioni tecnologiche d’avanguardia

per i settori del territorio,

dei beni culturali e delle

smartcity storiche. Giunto alla

sua quarta edizione, il Forum

TECHNOLOGY for ALL si

propone in maniera sempre più

innovativa, con workshop in

campo, formazione e conferenze

per comprendere e diffondere

le applicazioni delle nuove

tecnologie. Come nelle precedenti

edizioni le tre giornate saranno

dedicate a test in campo,

alla formazione e allo scambio

di esperienze in quanto il Forum

è un momento informativo, ma

anche formativo, che segue

l’intero processo di applicazione

delle tecnologie innovative,

dall’acquisizione dei dati all’elaborazione,

dalla strutturazione

all’organizzazione per la diffusione

agli utenti finali. Tra le

novità di quest’anno uno sguardo

alla crescita dell’arte mediatica

nella misura e documentazione

di precisione, vista nella

diffusione anche ai non esperti

degli applicativi per usare semplicemente

tecniche complesse.

Uno sguardo al ruolo dell’Italia

nello sviluppo e conservazione

del patrimonio dell’Umanità e,

a fronte delle recenti emergenze

affrontate, una analisi degli

strumenti per mitigare gli eventi

potenzialmente disastrosi.

Proseguirà il dibattito aperto

sull’apporto ponderato delle

tecnologie che, superato l’entusiasmo

del primo impatto innovativo,

possano effettivamente

essere ammesse a un ciclo di

produzione normato con standard

condivisi per uno sviluppo

socio-economico sostenibile

in cui l’innovazione intelligente

giochi un ruolo chiave

per il Territorio, il Patrimonio

Culturale e le Smart City.

Stiamo progettando anche un

percorso itinerante e distribuito

nel tempo per presentare test sul

campo eseguiti preventivamente

in accordo con le istituzioni

e i siti che parteciperanno all’evento.

La precedente edizione

2016 con oltre mille visitatori,

80 relatori, 28 sponsor e 19 patrocini,

iniziata nella splendida

cornice dell’Area di Massenzio

sulla Via Appia Antica a Roma,

si è conclusa negli spazi articolati

dell’Auditorium della

Biblioteca Nazionale Centrale

di Roma. Nello stile anche fieristico

ed istituzionale il Forum

allargato alla cittadinanza e dedicato

all’innovazione, ha promosso

con sessioni, dibattiti,

incontri e discussioni aperte,

un’interattività tra produttori,

esperti, studiosi, ricercatori,

studenti, utenti ed operatori, disposti

al confronto negli organismi

conferenzieri ed espositivi

che hanno ad3erito all’iniziativa,

strumentale ad un vero

e proprio campus di formazione

con decine di ‘workshops’.

Per consultare gli

Atti del Forum vai su:

http://www.technologyforall.it/

24 GEOmedia n°6-2016


ASSOCIAZIONI

XXXII Congresso

dei Geografi Italiani

Convegno FOSS4G-IT 2017

Il XXXII Congresso geografico italiano, promosso dall’Associazione

dei geografi italiani, si svolgerà a Roma dal 7 al 10 Giugno

2017. Nell’anno in cui ricorrono il centenario della Rivoluzione

d’Ottobre, e il cinquecentenario della Riforma luterana, il tema

del Congresso saranno appunto le rivoluzioni e le riforme. Si

tratta di un tema con il quale la geografia si è confrontata più

volte. In questi ultimi anni si sono poi modificati profondamente

sia i contenuti sia le pratiche della ricerca. Interventi legislativi

e tagli hanno comportato una progressiva precarizzazione e una

sostanziale diaspora dei geografi italiani. Se, da una parte, sono

scomparsi insegnamenti, corsi di laurea e di dottorato, linee di

indagine, dall’altra la ricerca, così come la formazione geografica,

si confronta oggi più che mai con un contesto transdisciplinare e

transnazionale. Il riferimento a paradigmi scientifici unificanti e

a tradizioni consolidate si è indebolito. I linguaggi, gli interessi e

i metodi si sono frammentati anche per via di fenomeni più generali

quali la globalizzazione della ricerca, l’inevitabile ricambio

generazionale, le difficoltà che il mondo contemporaneo pone

in termini di comprensione, rappresentazione, progettualità. Il

Congresso vuole valorizzare questo mosaico di diversità, ma al

tempo stesso ricostruire il senso di un’appartenenza attraverso un

confronto aperto sia all’interno sia e soprattutto verso l’esterno.

Si adottano per questo modalità organizzative inedite rispetto

alle edizioni precedenti: qualsiasi studioso o studiosa potrà proporre

e gestire specifiche sessioni tematiche in autonomia, e la

gran parte del programma congressuale sarà strutturato in sessioni

parallele. L’idea è che il Congresso non debba essere un palcoscenico

per pochi, ma un luogo che si nutre di varietà, confronti

e relazioni orizzontali, aperto al contributo di tutti. L’ambizione

è mostrare come la geografia, una delle forme più antiche di conoscenza

del mondo, sia più che mai viva e vitale: una chiave

di lettura cruciale per comprendere l’attualità e per progettare

alternative, tra nuove riforme e rivoluzioni.

La deadline per la sottomissione degli abstract è il 15 febbraio 2017.

Per maggiori informazioni:

http://www.congressogeografico.it

Per il primo anno tale convegno raccoglie insieme il “XVIII

Meeting degli utenti italiani di GRASS GIS e GFOSS” e il “X

GFOSS DAY” e dedicherà la giornata di sabato a OpenStreetMap.

Date dell’evento

6-11 febbraio 2017 GRASS Community Sprint

8 febbraio 2017 Giornata dedicata ai Workshop

9-10 febbraio 2017 Convegno

11 febbraio 2017 Giornata dedicata a Open

Quanto ne sa la Pubblica Amministrazione di Open Source?

Una recente indagine dell'ISTAT su ICT e Pubblica Amministrazione

ha fatto un quadro non lusinghiero della situazione

Italiana per le PA locali.

In questo senso i software open source possono dare un grande

supporto. Per monitorare questa situazione un gruppo di lavoro

che ha racchiuso personalità universitarie appartenenti al gruppo

degli utenti italiani di GRASS e membri dell'associazione

GFOSS.it ha predisposto un semplice e veloce questionario

(http://goo.gl/forms/tAAXJsIlPZ) utile per raccogliere alcune

indicazioni circa l'utilizzo del software free e open source in

ambito geografico (Geographical Free and Open Sorce Software

- GFOSS) da parte della Pubblica Amministrazione.

Il questionario potrà mettere in luce timori e limiti del software

GFOSS, ma anche evidenziare buone pratiche ed esempi di

amministrazioni virtuose, con l'obiettivo di redigerne un cosiddetto

libro bianco e di presentarne i primi risultati nel corso del

prossimo XVIII meeting che si terrà a Genova il 9 - 10 febbraio

2017.

E' disponibile il programma dettagliato dell'evento,

vedi news qui:

http://www.geoforall.it/kwpy3

grass.gfoss.genova@gmail.com

Convegno AIC 2017

Il convegno annuale dell’AIC del 2017 si terrà a Genova presso il Museo

del Mare dal 10 al 12 maggio del 2017. Organizzato in collaborazione con

l’Istituto Idrografico della Marina, con il Museo del Mare e con l’Università

di Genova, tratterà di Cartografia e crescita blu: conoscenza, politiche,

gestione e rappresentazione di una tematica sensibile. E’ disponibile la

prima circolare con la tempistica per la sottomissione degli articoli e le condizioni

di partecipazione, mentre a breve saranno attivati i link per la diffusione della call e per la trasmissione diretta

di abstract e articoli.

Per maggiori informazioni vedi: http://www.aic-cartografia.it/news/convegno-aic-2017cartografia-e-crescita-blu/

GEOmedia n°6-2016 25


I Monti Virunga

L’immagine satellitare è di tipo radar-composito

ed è stata ottenuta da Sentinel-1:

mostra il sistema dei monti Virunga in Africa

orientale, una catena di vulcani che si estende attraverso

il confine settentrionale del Ruanda con l’Uganda e verso est

all’interno della Repubblica Democratica del Congo.

Mentre la maggioranza di questi otto vulcani è dormiente, due

di essi sono ancora attivi, con le eruzioni più recenti che risalgono

al 2006 ed al 2010. Queste montagne sorgono sull’Alberine Rift,

dove la Placca Somala si allontana dal resto del continente africano.

Quest’area è una delle regioni africane a più alta diversità biologica,

ma l’elevata densità di popolazione umana, la povertà ed i conflitti

costituiscono una sfida alla conservazione. In ogni caso, all’interno

dell’area montuosa è stata realizzata una serie di parchi

nazionali allo scopo di proteggere la

Credits: ESA.

Traduzione: Gianluca Pititto


REPORT

Analisi GIS applicate alla gestione faunistica

Le mappe di rischio di impatto degli ungulati

Fig. 1 - Mappa di impatto in formato

raster. Esempio per il cinghiale comprensorio

di Lucca.

di Alessandro Giugni,

Marco Ferretti,

Leonardo Conti

Gli ungulati selvatici sono

ormai diffusi nella quasi

totalità della penisola italiana.

La loro presenza crea criticità

sia alle colture agricole che

alle strutture e alle attività

antropiche. Una corretta

pianificazione territoriale può

attenuare le problematiche ad

oggi presenti. Gli strumenti

GIS possono aiutare in questa

elaborazione, partendo da

open data disponibili sul web.

La fauna selvatica, ed

in particolar modo gli

ungulati, hanno subito

un incremento demografico e

geografico significativo negli

ultimi decenni, soprattutto in

regioni come la Toscana dove

l’habitat ed il clima sono ideali

per la loro proliferazione. Gli

Ungulati presenti in Toscana

sono i seguenti: Cinghiale

(Sus scrofa L.), Cervo (Cervus

elaphus L.) , Capriolo (Capreolus

capreolus L.), Daino (Dama

dama L.), Muflone (Ovis

musimon P.) (Regione Toscana

2012). Le cause principali

dell’aumento di ungulati sono

l’abbandono delle coltivazioni

in ambiente montano, la

diminuzione della pressione

venatoria, l’aumento delle

aree protette e l’immissione

incontrollata di specie come il

cinghiale (Riga et al. 2011). La

maggiore presenza sul territorio

delle popolazioni di ungulati

selvatici ha portato ad un aumento

di vantaggi e di benefici

sociali ed economici, come il

possibile utilizzo per attività

turistico-venatorie, ma ha

causato anche un aumento di

problematiche relative alla loro

convivenza con l’uomo e alla

loro presenza in zone antropizzate

(Riga et al. 2011, Banti et

al. 2009). Attraverso l’utilizzo

di programmi GIS è però possibile

pianificare strategie gestionali

che possono diminuire

l’impatto di queste specie sul

territorio e favorire un equilibrio

di essi con l’ambiente e le

attività umane.

28 GEOmedia n°6-2016


REPORT

Obiettivo dello studio

Nel corso del 2013 sono state

pubblicate dall’ISPRA (Istituto

per la Protezione e la Ricerca

Ambientale) le Linee Guida per

la Gestione degli Ungulati (Raganella

Pelliccioni et al. 2013).

Una parte di queste riguarda

l’importanza di una corretta

pianificazione territoriale per

la gestione delle criticità legate

agli ungulati, in particolare

nel testo si sottolinea come sia

importante individuare aree

problematiche (dette anche in

un’accezione gestionale non

vocate ad una determinata specie),

dove programmare una

gestione di tipo non conservativo.

Queste aree devono essere

scelte tramite parametri oggettivi,

attraverso strumenti informatici

(GIS) e con tecniche

ripetibili e controllabili. L’obiettivo

di questo studio è stato

quello di creare una mappa di

impatto potenziale degli ungulati

a livello regionale toscano,

secondo le modalità dettate da

ISPRA. Partendo da questa,

si sono poi individuate aree

dove poter svolgere interventi

di controllo faunistico ai sensi

dell’art. 19 L.N. 157/92, per il

contenimento delle specie nei

confronti delle colture agricole

e delle aree antropizzate.

n. Ucs2013 Descrizione Cinghiale Capriolo Cervo Daino Muflone

1 111 Zone residenziali a tessuto continuo 5 5 5 5 5

2 112 Zone residenziali a tessuto discontinuo 5 5 5 5 5

3 1121 Pertinenza abitativa, edificato sparso 5 5 5 5 5

4 121 Aree industriali, commerciali e dei servizi pub. 5 5 5 5 5

5 1211 Depuratori 5 5 5 5 5

6 1212 Impianto fotovoltaico 5 5 5 5 5

7 122 Reti stradali, ferroviarie e infrastrutture tecnici 5 5 5 5 5

8 1221 Strade in aree boscate 5 5 5 5 5

9 123 Aree portuali 5 5 5 5 5

10 124 Aeroporti 5 5 5 5 5

11 131 Aree estrattive 5 5 5 5 5

12 132 Discariche, depositi di rottami 5 5 5 5 5

13 133 Cantieri, edifici in costruzione 5 5 5 5 5

14 141 Aree verdi urbane 5 5 5 5 5

15 1411 Cimitero 5 5 5 5 5

16 142 Aree ricreative e sportive 5 5 5 5 5

17 210 Seminativi irrigui e non irrigui 3 2 2 2 2

18 2101 Serre stabili 5 5 5 5 5

19 2102 Vivai 4 4 4 4 4

20 213 Risaie 4 4 4 4 4

21 221 Vigneti 4 4 4 4 4

22 222 Frutteti 4 4 4 4 4

23 223 Oliveti 2 3 3 3 3

24 2221 Arboricoltura 2 2 2 2 2

25 231 Prati stabili 2 1 1 1 1

26 241 Colture temporanee associate a colture perm. 2 1 1 1 1

27 242 Sistemi colturali e particellari complessi 4 1 1 1 1

28 243 Colture agrarie con presenza di spazi naturali 2 1 1 1 1

29 244 Aree agroforestali 1 1 1 1 1

30 311 Boschi di latifoglie 0 0 0 0 0

31 312 Boschi di conifere 0 0 0 0 0

32 313 Boschi misti di conifere e latifoglie 0 0 0 0 0

33 321 Pascolo naturale e praterie 2 1 1 1 1

34 322 Brughiere e cespuglieti 0 0 0 0 0

35 323 Vegetazione sclerofilla 0 0 0 0 0

36 324 Vegetazione boschiva ed arbustiva in evol. 0 0 0 0 0

37 331 Spiagge, dune e sabbie 3 3 3 3 3

38 332 Rocce nude, falesie, rupi affioramenti 0 0 0 0 0

39 333 Aree con vegetazione rada 0 0 0 0 0

40 3331 Cesse parafuoco 0 0 0 0 0

41 334 Aree percorse da incendio 0 0 0 0 0

42 411 Paludi interne 3 3 3 3 3

43 421 Paludi salmastre 3 3 3 3 3

44 422 Saline 5 5 5 5 5

45 423 Zone intertidali 3 3 3 3 3

46 511 Corsi d'acqua, canali e idrovie 0 0 0 0 0

47 512 Specchi d'acqua 0 0 0 0 0

48 5124 Acquacoltura 0 0 0 0 0

49 521 Lagune 0 0 0 0 0

50 523 Mare 0 0 0 0 0

Tab.1 - Categoria uso del suolo con valori di impatto.

Area di studio e software

utilizzato

L’ area di studio è la Regione

Toscana. Il territorio toscano

è per la maggior parte collinare

66,5%, comprende anche

zone di pianura (circa l’8,4%)

e importanti massicci montuosi

(25,1%) (Regione Toscana

2012).

Per la produzione della cartografia

oggetto dello studio

è stato utilizzato un software

GIS, nello specifico ArcGIS

10.2 di ESRI. Il GIS comprende

una serie di strumenti

software per acquisire, memorizzare,

estrarre, trasformare

e visualizzare dati spaziali dal

mondo reale (Burrough 1986).

Si basa su un DBMS (Data

Base Management System)

spaziale che è capace di gestire

le posizioni degli elementi sul

territorio poiché sono associate

all’informazione geografica oltre

che all’informazione testuale

e numerica.

Produzione della mappa di

impatto potenziale

Dal portale cartografico della

Regione Toscana Geoscopio

(www.regione.toscana.it/

geoscopio) è stato scaricato

l’open data geografico vettoriale

“ucs2013”, che contiene

l’uso e la copertura del suolo

realizzato analizzando le foto

aeree raccolte nel 2013. Tale

file risulta il più aggiornato, in

quanto prodotto dalla Regione

Toscana nel 2015, ed è in formato

vettoriale poligonale, versione

shape file. Il file vettoriale

contiene diversi campi (fields),

il campo che descrive i valori

delle 50 categorie dell’uso del

suolo è ucs2013. Le categorie

sono basate sui tre livelli del

Corine Land Cover (European

Environment Agency 2000),

per alcune di esse la Regione

Toscana ha prodotto un quarto

livello. Sempre dal portale

Geoscopio è stato scaricato il

file poligonale vettoriale con

i confini amministrativi delle

province toscane, è stato quindi

creato un nuovo file nel

quale sono state unite quelle

di Firenze e Prato, essendo da

un punto di vista gestionale un

unico comprensorio omogeneo.

Con la funzione GIS clip l’uso

del suolo regionale è stato suddiviso

nei 9 comprensori del

GEOmedia n°6-2016 29


REPORT

Livello di impatto Categorie Superficie (ha)

0 Nullo 118.154

1 Irrilevante 2.507

2 Aree coltivate, impatto scarso 14.937

3 Aree coltivate aperte, impatto probabile 16.661

4 Aree coltivate di pregio, impatto molto probabile 4.329

5 Aree urbane e similari, impatto certo 20.774

Tab.2 - Tabella categoria uso del suolo con valori di impatto.

territorio regionale: Firenze e

Prato, Arezzo, Grosseto, Livorno,

Lucca, Massa Carrara, Pisa,

Pistoia, Siena.

È stata poi creata una tabella,

denominata Tabella di Impatto

(Tab. 1), con cinque colonne,

una per ogni specie di ungulati

presente in Toscana, e 50 righe,

una per ogni categoria dell’uso

del suolo. Per ogni categoria di

uso del suolo sono stati assegnati

nella tabella suddetta dei

valori che vanno da 0 (impatto

nullo) a 5 (impatto certo), differenziato

a seconda della specie

ungulata. In sintesi i valori

degli impatti sono stati suddivisi

nelle seguenti categorie:

• 5: aree urbane e similari

(impatto certo)

• 4: aree coltivate di pregio

(impatto molto probabile)

• 3: aree coltivate (aperte)

Fig. 2 - Mappa di impatto in formato raster. Esempio per il capriolo nel comprensorio di Lucca

dove l’impatto è possibile

• 2: aree coltivate dove

l’impatto è scarso

• 1: impatto non rilevante

• 0: impatto da considerarsi

nullo

Le prime elaborazioni per arrivare

a definire delle mappe

di impatto potenziale hanno

riguardato operazioni di geoprocessing,

in particolare con la

funzione join field è stata agganciata

la Tabella di Impatto

contenente i valori di impatto

potenziale, ad ogni file vettoriale

poligonale di uso del suolo,

a livello di comprensorio.

Come risultato è stato prodotto

un file poligonale vettoriale

per ogni comprensorio similare

a ucs2013, con la presenza dei

5 campi in più derivanti dalla

tabella (5 impatto certo, 0

impatto nullo), uno per ogni

specie ungulata. Il primo file

creato (vettoriale poligonale,

per ogni comprensorio) è stato

nominato ucs_nomecomprensorio.

Agendo sulla simbologia

è possibile, utilizzando la

classificazione di impatto nei

campi di ogni specie ungulata,

visualizzare facilmente l’impatto

potenziale di ciascuna

specie a livello di comprensorio.

Successivamente sono stati

creati dei file in formato raster,

mediante la funzione convert

polygon to raster, che facilitasse

l’analisi e la lettura (Fig. 1).

Questi file raster hanno celle di

dimensioni 10 m x 10 m, contenenti

i valori di impatto potenziale

per ogni specie ungulata

del file poligonale vettoriale

riferita ad ogni singola cella. Il

30 GEOmedia n°6-2016


REPORT

Sup. Tot. (ha) Sup. Agro-forestale Sup. Intervento Liv. impatto Sup. % Sup. ha

177.363 152.815 86.136 0 14 12.059

1 3 2.584

2 8 6.891

3 35 30.148

4 11 9.475

5 29 24.979

Tab.3 - Tabella superfici per il controllo del cinghiale per ogni livello di impatto.

seguito quanto prodotto per la

specie cinghiale e capriolo.

Selezionando da ucs_nomecomprensorio

i poligoni aventi impatto

più elevato per il cinghiale

(cioè 3-4-5 rispettivamente

seminativi in aree aperte, aree

con colture pregiate, aree urbane)

è stato elaborato un ultefile

è stato prodotto per ogni

specie e per ogni comprensorio,

ed è stato nominato usosuolospecie_comprensorio.

Analizzando la mappa del comprensorio

di Lucca presa come

esempio del lavoro svolto a

scala regionale, è evidente l’impatto

potenziale del cinghiale

maggiormente significativo

nelle aree urbane (ad est Lucca

ed a ovest la Versilia) e nelle

aree agricole di pianura e della

Valle del Serchio. Nella Tabella

2 si riporta l’esempio del

Comprensorio di Lucca. Dalla

tabella si evincono i dati relativi

alle superfici (ha) in relazione

ai diversi livelli di impatto e

alle diverse categorie.

Medesima operazione è stata

svolta per le altre quattro

specie di ungulati per i nove

compresori gestionali. A titolo

di esempio si riporta la

mappa di impatto potenziale

del capriolo nel comprensorio

lucchese. Queste mappe sono

di fondamentale importanza

per la definizione delle aree

problematiche (dette anche

non vocate) agli ungulati, così

come previste da ISPRA.

riore file vettoriale poligonale.

Questo ha consentito di individuare

esclusivamente le zone

dove il cinghiale ha un impatto

significativo. Sono stati eliminati

i poligoni con codice strade

e strade in ambiente boscato

(codici 122 e 1221) e quelli

aventi superficie inferiore ad

Produzione delle mappe

per il controllo art. 19

L.N. 157/92

Successivamente è stato creato

un file per rappresentare le aree

dove è più importante svolgere

il controllo delle specie ai

sensi dell’art. 19 L.N.157/92,

per contenerne il numero. Di

Fig. 3 - Aree da sottoporre al controllo ai sensi dell’art. 19 L.N. 157/92. Esempio per il cinghiale

comprensorio di Lucca.

GEOmedia n°6-2016 31


REPORT

Sup. Tot. (ha) Sup. Agro-forestale Sup. Intervento Liv. impatto Sup. % Sup. ha

177.363 152.815 63.964 0 12 7.676

1 4 2.529

2 7 4.477

3 15 9.595

4 24 15.351

5 38 24.306

Tab. 4 - Tabella superfici per il controllo del capriolo per ogni livello di impatto.

un ettaro. A questo punto, per

i restanti poligoni è stata utilizzata

la funzione buffer, che ha

permesso di creare un contorno

(buffer zone) di 300 metri dagli

stessi. Infine con la funzione

dissolve sono stati uniti i precedenti

buffer in un unico file.

Il file prodotto per ogni comprensorio

è stato denominato

comprensorio_ctrcinghiale.

Da qui si nota che le aree di

Fig. 4 - Aree da sottoporre al controllo ai

sensi dell’art. 19 L.N. 157/92. Esempio per il

capriolo comprensorio di Lucca.

intervento per il controllo del

cinghiale si sovrappongono alle

zone dove il rischio di impatto

è maggiore. Nella Tabella 3

le superfici di riferimento per

ogni livello di impatto.

Per il capriolo, Selezionando

dal file dell’uso del suolo

ucs_nomecomprensorio i poligoni

aventi impatto 4-5 per la

specie (in sintesi aree urbane,

aree con colture pregiate come

vivai o vigneti) è stato elaborato

un ulteriore file vettoriale

poligonale, con ben individuate

le aree a maggiore impatto. Da

questo file sono stati poi eliminati

i poligoni con codice strade

e strade in ambiente boscato

(122 e 1221) e quelli aventi superficie

inferiore ad un ettaro.

Per i restanti è stata utilizzata la

funzione buffer, che ha permesso

di creare un contorno di 300

metri dai poligoni. Infine con

la funzione dissolve sono stati

uniti i precedenti buffer in un

unico file. Il risultato è un file

comprensorio_ctrcapriolo dove è

possibile visualizzare l’area sovrapposta

alla mappa di impatto

potenziale del capriolo.

E’ possibile verificare che l’area

è diversa e inferiore rispetto a

quella del cinghiale (Tabella

4) che si concentra nelle aree

urbane e nelle colture di pregio

e non considera i seminativi.

In tutti e due i casi è evidente,

confrontando gli ettaraggi, che

le aree da sottoporre agli interventi

di controllo sono solo

una parte di tutta la superficie

del comprensorio.

La verifica delle mappe:

danni della specie georiferiti

sovrapposti alla mappa

di impatto

Una volta prodotte le mappe

di impatto, vi era la necessità

di una verifica delle stesse. Per

questo sono stati raccolti e georiferiti

i dati sui danni periziati

degli ungulati all’agricoltura in

possesso di Province e Ambiti

32 GEOmedia n°6-2016


REPORT

Fig.5 - Danni accertati georiferiti e mappe di

impatto. Esempio per il cinghiale comprensorio

di Lucca dal 2011 al 2015.

BIBLIOGRAFIA

Banti, P., Nuti, S., Ponzetta, M.P. & Sorbetti

Guerri, F. (2009), Gli incidenti stradali causati

dalla fauna selvatica nella Regione Toscana. Analisi

del fenomeno nel periodo 2001-2008. Ed. Centro

stampa Giunta Regionale Toscana.

Burrough, P. A. (1986), Principles of Geographic

Information Systems for Land Resource Assessment.

Monographs on Soil and Resources Survey No.

12, Oxford Science Publications, New York.

European Environment Agency (2000),

CORINE Land Cover, Technical Guidelines.

Technical Addendum 2000

Raganella Pelliccioni, E., Riga, F. & Toso, S.

(2013), Linee guida per la gestione degli Ungulati.

Manuali e Linee Guida ISPRA 91/2013

(Retrieved: 01.09.2016)

http://www.isprambiente.gov.it/files/

pubblicazioni/manuali-lineeguida/

MLG_91_2013.pdf

(Retrieved: 01.09.2016)

Regione Toscana (2012), Piano Regionale Agricolo

Forestale 2012-2015. Regione Toscana

http://www.regione.toscana.it/cittadini/

alimentazione

(Retrieved: 01.09.2016)

Riga, F., Genghini, M., Cascone, C. & Di

Luzio, P. (2011), Impatto degli Ungulati sulle

colture agricole e forestali: proposta per linee

guida nazionali. Manuali e Linee guida ISPRA

68/2011.

http://www.isprambiente.gov.it/files/

pubblicazioni/manuali-lineeguida/10673_

MLG_68_2011.pdf

(Retrieved: 01.09.2016)

Territoriali di Caccia (ATC).

I danni accertati non sono stati

inseriti come parametro diretto

per la realizzazione delle mappe

di rischio di impatto, poiché

il dato non copre del tutto il

territorio regionale ma solo

una porzione di esso: i danni

infatti non sono accertati nelle

aree protette (20-30% del

territorio) e negli istituti faunistici

privati (massimo 15% del

territorio) e i danni accertati

non sono tutti i danni effettivi

(possono essere richiesti solo

dalle Aziende Agricole munite

di Partita IVA). Sono stati

sovrapposti i danni georeferenziati

con la mappa di rischio di

impatto per ciascuna specie: si

ottiene una mappa che dimostra

come la quasi totalità dei

danni si concentrino nelle aree

a massimo rischio di impatto.

Il risultato, per il comprensorio

di Lucca riferito ai danni del

cinghiale, è visibile nella Figura 5.

Le mappe di impatto degli

ungulati sono degli strumenti

fondamentali per definire le

aree non vocate/problematiche,

dove seguire una gestione

non conservativa delle specie

ungulate. E’ possibile inoltre

raffinare questa analisi individuando

le porzioni di territorio

dove effettuare le operazioni di

controllo ai sensi dell’art. 19

L.N. 157/92.

PAROLE CHIAVE

GIS; gestione del rischio; pianificazione

faunistica; area non vocata; interventi di

controllo

ABSTRACT

Wild ungulates are widespread in almost all of the

Italian peninsula. Their presence creates critical

both to agricultural crops than to human structures.

Proper wildlife territory planning can mitigate

the problems present today. GIS tools can help

in this process. It is possible through repeatable and

objective measurable data to produce maps of potential

impact of wild ungulates and guide management

decisions through them. The study has

produced maps of potential impact in the Tuscany

territory for species: wild boar, roe deer, red deer,

fallow deer and mouflon. The study also identified

areas where operate through containment strategies

provided by national legislation.

AUTORE

Dott. Alessandro Giugni

giugni.alessandro7@gmail.com

Dott. Marco Ferretti

marco.ferretti@regione.toscana.it

Regione Toscana

Dott. Leonardo Conti

leonardo.conti@unifi.it

GESAAF Università degli Studi di Firenze

GEOmedia n°6-2016 33


GUEST PAPER

A Digital “New World”

The Big Fusion between Ubiquitous Localization

(GNSS), Sensing (IOT) and Communications (5G)

by Marco Lisi

La grande fusione fra

servizi di localizzazione

(GNSS), monitoraggio

remoto (IoT) e

comunicazione (5G).

Fig. 1 - GNSS Multi-Constellation Scenario.

We are at the dawn of

the discovery of a

“New World”: not

a virtual one, but the digital

representation, in all its minute

details, of our physical world, of

planet Earth.

This epochal transition in the

history of mankind is being

triggered by three main technological

trends:

4Ubiquitous Localization and

Timing: Global Navigation

Satellite Systems and other

similar Positioning, Navigation

and Timing (PNT)

infrastructures make possible

a very accurate localization in

space and time of both people

and things;

4Ubiquitous Sensing: from 1

to 10 trillion sensors will be

connected to Internet in the

next decade (a minimum of

140 sensors for every human

being on the planet);

4Ubiquitous Connectivity:

2.3 billion mobile broadband

devices and 7 billion mobile

cellular device in 2014. In the

next years 5G will dramatically

increase both connectivity

and data rates.

Enormous amounts of data are

being collected daily and at an

exponentially increasing rate.

99% of them is digitized and

50% has an associated IP address.

Fig. 2 - the global PNT

infrastructure.

We are practically going for a

detailed digital mapping of the

world around us. It is an entirely

New World we are facing,

but we have not learnt yet how

to navigate and explore it.

Ubiquitous Localization

and Timing

Global Navigation Satellite

Systems, such as GPS, GLO-

NASS, Galileo and Beidou,

constitute together a potentially

34 GEOmedia n°6-2015


GUEST PAPER

Fig. 3 - IoT impacts on business and society.

Data deriving from different

systems and platforms will

be seamlessly “fused” at user

receiver level, guaranteeing a

high degree of availability and

continuity.

interoperable and coordinated

infrastructure, supporting in a

vital way most industrial and

economic aspects of our society

(fig. 1).

Fig. 4 - 5G infrastructure architecture.

GPS in particular is nowadays

considered a worldwide utility,

tightly interconnected with all

other critical infrastructures,

from electric power distribution

systems to air traffic management

systems, from railways to

water and oil piping networks.

In the mind of the average user

(but also in that of many engineers)

the main contribution

of GNSS’s, their true “raison

d’être”, is in providing one’s accurate

position and in allowing

a reliable navigation, be it by

car, by airplane, by train or by

boat.

Precise timing is understood,

at least by engineers, as an enabling

feature of GNSS’s and a

very useful by-product, after

positioning and navigation.

The reality, as shown by studies

performed e.g. by the US Department

of Homeland Security

(DHS), is that in fact timing

is the most strategic and essential

of the services offered by

GNSS’s, and the one most affecting

all critical infrastructures

of our society.

Non-GNSS PNT systems and

technologies are also being developed

worldwide.

In the not so far future, a PNT

system of systems, including

GNSS and non-GNSS infrastructures,

is likely to take place,

while, at user receiver level, a

fusion of data from GNSS and

other sensors (such as inertial

platforms, Wi-Fi, GSM, signals

of opportunity, etc.) will become

normal practice (fig. 2).

Ubiquitous Sensing

(Internet of Things)

The Internet of Things (IoT)

envisions many billions of

Internet-connected objects

(ICOs) or “things” that can

sense, communicate, compute,

and potentially actuate, as well

as have intelligence, multimodal

interfaces, physical/virtual identities,

and attributes.

The IoT is likely to revolutionize

all aspects of our society and

daily life (fig. 3).

Its exponential growth will actually

imply the practical feasibility

of an Ubiquitous Sensing:

from 1 to 10 trillion sensors will

be connected to Internet in the

next decade (a minimum of 140

sensors for every human being

on the planet).

Ubiquitous sensing, or ubiquitous

“geo”-sensing to emphasize

the spatial dimension, as deriving

from IoT and from mobile

broadband communications,

will mean that we will be able

to probe, even in real time,

the phenomena around us, the

surrounding reality, with capabilities

far beyond those made

so far available by our senses.

Enormous amounts of data will

be available for our analyses, all

of them referenced in space and

time.

Ubiquitous

Connectivity (5G)

5G, the forth coming wave in

mobile communications, will

realize a quantum leap towards

the goal of ubiquitous connectivity

(fig. 4).

As a matter of fact, 5G will not

simply extend in a linear way

the capabilities of the previous

GEOmedia n°6-2015 35


GUEST PAPER

Fig. 5 - 5G and the Internet of Things.

Fig. 6 - 16th century plan of the City of London

four generations of mobile

networks. Its dramatically enhanced

performance in terms

of flexibility and throughput

will make fully feasible those

“smart” applications and infrastructures

that require networking,

high data rates, real time

processing.

It is evident how 5G will become

the natural complement of

the IoT, its technological enabler

(fig. 5).

A new perception

of the world

An example will make clear the

potentialities deriving from the

fusion of ubiquitous localization

and timing, sensing and

connectivity.

Fig. 7 - City of London aerial view.

Figure 6 shows a plan of the

City of London in the time of

Queen Elizabeth (16th century).

Public (e.g. the London

Tower) and private buildings

are clearly identifiable, as well as

London Bridge and the banks

of the Thames river. Fairly detailed

and useful for its time.

Figure 7 offers a far more detailed

view of approximately the

same area, as made available

by Google Earth. The picture

is fairly detailed and can enriched

with street names, labels,

photos, etc. Let us now imagine

to be able to link and merge

almost in real time all the information

coming from thousands

(if not millions) of sensors spread

over the area (fig. 8).

What we will get is a sort of

“Augmented Reality” representation

of the same geographical

site, through which we might

be able this time to exercise

most of our senses: smell the

clean waters of the river Thames,

feel the slightly chilly wind

along the banks, hear the sounds

and calls of the six (or nine?)

legendary ravens living at the

Tower of London.

The role of satellites in the

“Digital New World”

Satellites are going to play an

important (in some cases primary)

role in this new scenario.

In terms of localization and

timing, GNSSs presently (and

most likely also in the years to

come) are the backbone of a

worldwide PNT infrastructure,

also including alternative

ground-based systems (such as

eLoran) as well as stand-alone

technologies (miniaturized

inertial platforms and atomic

clocks). As far as sensing is

concerned, despite the enormous

amount of sensors being

integrated in smartphones and

other portable devices, Earth

observation will keep depending

heavily on satellites of various

complexity (down to nano

and pico satellites) and with

a variety of embarked sensors

(multi spectral optical, radiometers,

altimeters, SARs).

36 GEOmedia n°6-2015


REPORT

moving towards an integration

of PNT, Remote Sensing and

Telecommunications systems leading

to a worldwide, system of

systems infrastructure (fig. 9).

Fig. 8 - An “Augmented Reality” evolution through data fusion

In the area of telecommunications,

notwithstanding the

exponential development of

mobile cellular networks, both

in terms of data rates and coverage,

satellites remain the

primary solution to guarantee

services over the oceans and to

provide an affordable last-mile

connections to users in scarcely

populated areas.

Moreover, satellite networks,

both for trunk and mobile

communications, are the natural

back-up for terrestrial

networks, improving the overall

resilience, security and availability

of the world telecommunications

infrastructure.

Satellite and terrestrial system

integration, already being experimented

with 4G mobile cellular

communications systems,

is high priority in the agenda of

the coming 5G network, with

the clear purpose of achieving

a truly ubiquitous coverage.

This integration will require the

development of interoperability

standards to make the two sectors

interconnect efficiently and

reliably, both at network and at

IP levels.

In conclusion, we are rapidly

Conclusion

Ubiquitous Localization and

Timing, Ubiquitous Sensing,

Ubiquitous Connectivity: these

three main technological trends

are triggering an epochal transition

in the history of mankind.

We are practically going for a

detailed digital mapping of the

world around us, for an evolution

of reality as we can sense

it today towards an enriched,

augmented reality.

It is an entirely New World

we are facing, but we have not

learnt yet how to navigate and

explore it.

The future asks for an ever

closer integration and fusion of

Telecommunications, Sensing

and Positioning, Navigation

and Timing applications.

KEYWORDS

GNSS; PNT; IoT; communication; infrastructure;

networks; precise timing

ABSTRACT

La grande fusione fra servizi di localizzazione (GNSS), monitoraggio

remoto (IoT) e comunicazione (5G). Un “Nuovo

Mondo” digitale si profila all’orizzonte: le tecnologie sono

sempre più onnipresenti nella nostra vita quotidiana e termini

come geolocalizzazione, Internet of Things (IoT), connettività,

sensori, GPS, GNSS o rappresentazione digitale sono ormai

conosciuti anche ai non addetti ai lavori. Il mondo dell’industria

è sempre più basato è devoto ai sistemi di posizionamento satellitare

e sulla misura del tempo. I principali trend tecnologici del

momento come il GNSS e altre infrastrutture PNT, l’Internet

delle Cose e la connettività (5G) cambieranno drasticamente

la nostra vita quotidiana; l’integrazione fra queste infrastrutture

(GNSS, IoT e connettività) giocherà un ruolo fondamentale per

la realizzazione del “Nuovo Mondo” digitale.

AUTHOR

Marco Lisi

marco.lisi@esa.int

Responsabile dei Servizi GNSS

(Agenzia Spaziale Europea)

Fig. 9 - Worldwide systems of systems infrastructure.

GEOmedia n°6-2016 37


REPORT

UNICUIQUE SUUM

di Attilio Selvini

Fig. 1 - A sinistra, DGK 5N; a destra DGK 5G.

In un momento in cui i GIS e i servizi basati sui dati geospaziali

sono sempre più richiesti, l'autore riflette sull'effettiva validità

dell'informatica applicata alla cartografia e sulla massa di dati

prodotti dagli uffici regionali che, talvolta, vengono utilizzati solo

in minima parte.

Ancora una volta debbo

scomodare Cicerone. Il

titolo di questa breve

nota riprende un aforisma

romano che si rifà al grande

senatore: («Iustitia ... suum

cuique distribuit», De nat. deor.

III, 15) ma che qui assume ben

altro significato.

Mi riferisco ancora all’intervista

che il Direttore di

GEOmedia ha fatto all’amico e

collega Mattia Crespi, ordinario

alla Sapienza (1) nella quale

si fa notare come in Italia,

esempio unico in Europa, vi

siano non solo cinque organi

cartografici dello Stato, bensì

una ulteriore miriade di organi

e organucci locali che

decidono come e qualmente

procurarsi cartografia (scusate:

“database” topocartografici),

salvo poi, come dice ancora il

Direttore in uno degli ultimi

“GeoForUs” (2), non essere

nemmeno in grado di farne

trovare traccia.

A quanto pare, in tema cartografico,

il detto ciceroniano

“a ciascuno il suo” va inteso

come segue: ogni ente, dal

piccolo comune alla grande

regione, faccia quello che

vuole; a scapito dell’economia

ma prima di tutto della razionalità:

tanto, paga Pantalone.

Al solito debbo ricordare la

carta fondamentale tedesca, la

“DGK 5”, per la quale vi sono

norme severe e uniche per tutti

i “Länder”, con l’eccezione dei

territori ex-DDR nei quali la

scala nominale, per motivi di

tempestività, venne ridotta all’

1: 10000. Il sistema di riferimento

è unico: ATKIS, ovvero

Amtliches Topographisch-

Kartographisches

InformationsSysteme, in

italiano Sistema informativo

topocartografico

ufficiale. Le versioni

della carta sono quattro:

la prima è quella

ordinaria (DGK

5N); la seconda è

la rappresentazione

tridimensionale del

suolo ma senza curve

di livello (DGK

5G). La terza è la

nota rappresentazione

ortofotografica

(DGK 5 L) e infine

l’ultima è la carta d’uso

del suolo (DGK 5 Bo).

Se ne vedono, in ordine,

le relative immagini qui a

fianco.

Ancora negli anni novanta del

secolo ventesimo, da noi si

produceva cartografia tecnica

per restituzione analitica; qualcuno

usava anche strumenti

analogici provvisti di motori

“passo-passo”, mentre si affacciava

sul mercato la restituzione

digitale. E di cartografia numerica

se ne produsse tanta nel

decennio di fine del Duemila,

così come ancora in quello

successivo. Basti pensare a titolo

esemplificativo alla grande

carta numerica di Milano alla

scala nominale di 1:1000, fra

i cui collaudatori vi è anche

chi scrive. Tutta questa cartografia

aveva rappresentazione

su diversi “livelli”, per cui era

immediato separare (e se del

caso proiettare su carta) il reticolo

stradale, oppure le acque

superficiali, o ancora la sola

vegetazione, la sola altimetria a

curve di livello, i soli edifici e

così via, a seconda delle necessità

dell’ente utilizzatore della

cartografia stessa.

Ma nel frattempo si diffonde-

38 GEOmedia n°6-2016


REPORT

va il concetto di “database”:

DB in sigla, ovviamente e

secondo la mania imperante

di sottomettersi all’inglese,

dimenticando l’espressione

più corretta nella nostra lingua

madre, che parla di “banca dei

dati”. Proprio nell’ultimo decennio

appena sopra ricordato,

chi scrive fu relatore di una

tesi di laurea in architettura,

che aveva appunto per tema la

proposta di un “database” per il

comune milanese. In un articolo

di alcuni anni fa (3), avevo

messo in guardia sulla ormai

certa prevalenza (o prevaricazione)

dell’informatica sulla topografia;

ciò si è puntualmente

verificato. Scrivevo allora:

“l’informatica ha inizialmente

tarpato le ali a molti topografi

tradizionali, ed ha per contro

promosso topografi e cartografi

molte persone provenienti da altri

tipi di studi, che lentamente

ma inesorabilmente stanno trasformando

la cartografia in una

valanga di dati informatici di

assai dubbio valore.

Se si leggono le voluminose

prescrizioni sui DB topografici

di alcune regioni italiane, ci

si stupisce per la massa di dati

richiesti, per la minuzia con cui

si chiede di estrarne le cose più

o meno minime e utili, per la

possibilità richiesta di ricavarne

estratti alle scale più varie.

Scrivevo ancora, nella “lettera

aperta” citata: “So di molte e

serie aziende di cartografia, che

vacillano sotto il peso di imposizioni

informatiche con altrettanti

programmi elaborativi, di cui

in buona parte si potrebbe fare

a meno. Purtroppo ciò a scapito

della leggibilità delle carte e

soprattutto della loro bo-ntà (dovrei

dire correttamente “incertezza”)

metrica, sulla quale spesso

enti committenti e collaudatori

sorvolano facilmente.” Come

non ripetermi ora?

Ho chiesto, alla maggiore

Fig. 2 - A sinistra, DGK 5L, a destra DGK 5Bo.

azienda italiana di rilevamento

e rappresentazione, la CGR

di Parma, e a un paio di altre

imprese di media grandezza e

di ottime capacità, di espormi

quanto fanno in tema di cartografia

tecnica. Le risposte

concordi mi dicono che ormai

quasi nessuna richiesta di cartografia

numerica perviene

loro dagli enti territoriali: solo

DB topografici e naturalmente

multiscala. La restituzione

analitica è scomparsa: si fa

solo restituzione digitale, con

prevalenza di ortofoto. Sempre

più richiesta la presa appoggiata

a GPS e INS. I prezzi sono

inadeguati, i tempi di collaudo

addirittura improponibili! Le

poche aziende sopravvissute ai

bei tempi dell’ultimo scorcio

di secolo tirano avanti con

difficoltà, in mezzo alla selva

di capitolati e bandi in genere

diversi fra di loro.

Ma a che cosa in realtà servono

questi DB? Nella “lettera” rammentata,

e mi spiace citarmi

ma vi sono costretto, osservavo

quanto segue: “Le carte comunali,

insomma i “database”

odierni, servono soprattutto alla

redazione di quelli che erano

sino a ieri i piani regolatori

generali e che oggi si chiamano

“piani di governo del territorio”.

Oppure per progettare nuovi

quartieri e nuove strade, sempre

nell’ambito limitato dei comuni

o delle comunità più o meno

montane.

Tertium non datur: le grandi

strade ordinarie e ferrate, gli

elettrodotti ed i gasdotti richiedono

cartografia specifica, con

rappresentazioni sia sul piano

cartografico UTM o GB che sia

(oggi meglio, su ETRF2000), sia

sul piano medio locale (le cosiddette

carte in “coordinate rettilinee

locali” dei costruttori). Che

poi gli attuali “database” permettano

di trovare, sempre con le

incertezze della scala nominale,

la posizione dei chiusini, delle

condutture di smaltimento o di

adduzione; che permettano di

individuare linee di marciapiede

od isole pedonali; che possano

dire al fisco locale chi abita in

un certo edificio, è più materia

di sistema informativo che di

database.” E mi pare che non

vi sia altro da aggiungere. Solo

una riflessione: quante battaglie

sono state condotte dal

sessanta al settanta, per invitare

i Comuni e poi le Regioni a

provvedersi di cartografia tecnica!

Vi erano allora enti che per

procurarsi carte urbane non

si peritavano di usare quelle

catastali, sovrapponendovi alla

bell’e meglio l’altimetria ricavata

dalle “tavolette” IGM al

venticinquemila! Quando arrivarono

le prime carte comunali

GEOmedia n°6-2016 39


REPORT

aerofotogrammetriche, redatte

per restituzione dagli strumenti

analogici (quelli digitali si diffusero

fra il settanta e l’ottanta)

molti uffici tecnici gridarono

alla meraviglia. Ero allora assessore

all’urbanistica del mio

comune di nascita e di residenza,

ed ero stato io a presentare

in consiglio la richiesta di un’asta

pubblica per provvedere alla

carta al 2000 dell’intero territorio,

che comprendeva anche

buona parte dell’aeroporto

(non ancora intercontinentale)

di Malpensa. La carta, redatta

dalla IRTA milanese, una

delle quattro aziende storiche

italiane, e magistralmente collaudata

da Mariano Cunietti,

ordinario nel Politecnico di

Milano e più oltre presidente

della SIFET, venne immediatamente

utilizzata con successo

per la redazione del PRG.

E altrettanto fecero molti

comuni e consorzi sparsi per

l’Italia. Le carte di quei tempi

erano rigorosamente collaudate

(4) non solo per il contenuto

semantico, bensì anche per

l’incertezza metrica in posizione

e quota. E assolvevano

egregiamente le necessità urbanistiche

e progettuali locali.

Trent’anni dopo, ogni ente ha

dimenticato quei tempi felici,

e smania per avere “database”

talvolta illeggibili dagli stessi

tecnici preposti al loro impiego.

Valanghe di dati, al limite

della comprensibilità, dei quali

sono una minima parte viene

di fatto utilizzata. Ma l’informatica

deve prevalere!

BIBLIOGRAFIA

1) Carlucci, R. (2015), Un incontro con Mattia

Crespi, docente di Geomatica alla Sapienza di

Roma, in GEOmedia, n° 1, Roma.

2) Carlucci, R. (2015), Mamma ho perso il

DBGT della Calabria, in GEOmedia, n° 6

Roma.

3) Selvini, A. (2012) Lettera aperta ai topografi,

in Il Seprio, n° 4, Varese.

4) Cunietti, M. & Selvini, A. (1965) Il collaudo

dei rilievi fotogrammetrici, in Boll. SIFET, n°

3, Milano.

PAROLE CHIAVE

Cartografia; informatica; database; dati

ABSTRACT

The article is a reflection on the actual value

of information technology applied to cartography.

In particular, the author wonders

how thousands of data can be really useful in

as many databases which are difficult to understand

to the same technicians who should

have use them.

AUTORE

Attilio Selvini

Attilio.selvini@gmail.com

Politecnico di Milano

40 GEOmedia n°6-2016


REPORT

ArcGIS

il WebGIS accessibile

ovunque

in ogni momento

da ogni dispositivo

www.esriitalia.it

GEOmedia n°6-2016 41


MERCATO

Tecnologie per la localizzazione indoor/

outdoor sviluppate dal progetto Europeo

i-locate

Nel corso del triennio del progetto i-locate è stata

sviluppata una tecnologia per la localizzazione indoor/

outdoor mediante l’utilizzo di dispositivi Bluetooth,

WiFi, GPS.

ll progetto i-locate, giunto al termine del terzo anno,

ha inoltre sviluppato un portale per la condivisione

dei dati geografici aperti relativi a spazi indoor, quali,

ad esempio, ospedali, centri commerciali, musei.

Le tecnologie realizzate sono state applicate a diversi

casi d’uso, tra i quali:

4Sanitario, per guidare i pazienti sino alla struttura

ospedaliera e all’interno dell’edificio stesso;

4Servizi al cittadino, per guidare i cittadini verso gli

uffici pubblici di interesse e all’interno dell’edificio

stesso;

4Gestione delle apparecchiature, per supportare

i tecnici e gli operatori nell’individuazione delle

apparecchiature all’interno di edifici.

I siti pilota in Europa in cui sono state validate tali

tecnologie, mediante il coinvolgimento degli utenti

finali sono situati in: Rovereto (IT), Malta, Atene

(GR), Alba Iulia (RO), Eindhoven (NL), Baia Sprie

(RO), Dresden (DE), Rijeka (HR), Brasov (RO),

Genova (IT), Lussemburgo, Sibiu (RO), Velletri (IT),

Tremosine (IT).

I risultati del progetto e in particolare di ciascun sito

pilota sono stati presentati durante l’ultimo meeting

di progetto che si è tenuto a Velletri (Italia) presso la

Casa delle Culture e della Musica (ex Convento del

Carmine) dal 2 al 4 Novembre 2016.

Durante l’evento si è inoltre tenuto un Exploitation

Booster Workshop presieduto da Giovanni Zazzerini,

esperto nominato dalla Commissione Europea, con lo

scopo di aiutare il consorzio a sfruttare i risultati del

progetto nel migliore dei modi.

Ulteriori informazioni sono disponibili sul sito web di

progetto: http://www.i-locate.eu

http://www.epsilon-italia.it

42 GEOmedia n°6-2016


MERCATO

CUBE T: il nuovo software

STONEX per rilievi a 360°

Grazie alla partnership con Leonardo

Software House, STONEX amplia

la sua gamma di soluzioni per rilievi

a 360 gradi dando vita a CUBE T, il

nuovo e potente software per il rilievo

integrato per Tablet Windows 8/10 con

piena compatibilità con Leonardo XE.

STONEX CUBE T unisce i vantaggi

di un potente software per il rilievo ed

i tracciamenti con GPS con un CAD

Topografico.

Rilievi GPS e software office in un

un unica soluzione

STONEX CUBE T, il nuovo software

per Windowsrc PC, rappresenta l’unione

tra un potente software CAD

per il Mapping e la Topografia e un

software per i rilievi ed i tracciamenti

GPS/RTK.

CUBE T consente di importare anche

i dati provenienti dalle Stazioni Totali

per la creazione di file di lavoro integrati.

Per lo più dedicato agli Utenti di

Ricevitori GNSS STONEX, CUBE

T consente la gestione dei vari formati

dei dati provenienti delle stazioni totali

e dal protocollo universale NMEA, per

consentire anche agli utenti di GPS

non Stonex di beneficiare delle funzionalità

di CUBE T.

CUBE T fornisce un set completo

di funzioni per la raccolta dei dati in

diverse modalità: Base + Rover, Rover

da rete GPS, sia in modo RTK che

Statico o Statico Rapido: il controllo

totale del ricevitore garantisce un lavoro

sensza soluzione di continuità e

dalla elevata affidabilità.

File GeoTiff o qualsiasi tipo di file immagine

possono essere importati, georeferenziati

ed usati come immagini di

sfondo durante il rilievo.

La vasta gamma di formati di

Importazione/Esportazione come

DXF, DXB, DWG, SHP, XML, fanno

di CUBE T uno dei sistemi per il

mapping più aperti in commercio.

Caratteristiche Principali

• Software per il rilievo e la restituzione

in un’unica soluzione

• Gestione completa dei Ricevitori

GNSS Stonex

• Funzioni Grafiche – colori, dimensioni,

layer, simboli (punti, linee, testo…)

totalmente gestite dall’Utente

• Lavori indipendenti possono essere

memorizzati in un unico file di lavoro,

garantendo una gestione efficace

dei diversi cantieri

• Il libretto di campagna del rilievo

con stazione totale può essere integrato

coi dati GPS

• Gestione delle immagini raster di

sfondo

• Set completo di funzioni COGO e

per il disegno cartografico

• Funzioni topografiche incluse: poligonale,

celerimensura, intersezione

• Possibilità di scegliere tra sistemi

di riferimento standard e personalizzati

• Calcolo dei 7 parametri di rototraslazione

dal sistema WGS84/ECEF

al sistema di coordinate locali

• La vasta scelta di formati di importazione/esportazione

permette

all’Utente lo scambio dati con qualsiasi

software esterno (DXF, DXB,

DWG, SHP, Land XML, ASCII

personalizzato, Excel®…)

• RTK NTRIP, Statico, Sistema

Base + Rover sono pienamente supportati

• Connessione WiFi con i ricevitori

GPS più avanzati

• Gestione E-Bubble & Tilt sensor

• STONEX CUBE Tablet è adatto e

Tablet Windows 10 o notebook.

http://www.stonexpositioning.com/

index.php/it/

GEOmedia n°6-2016 43


MERCATO

App MAGNET

Construct 2.0

di Topcon

T o p c o n

Positioning

Group lancia

MAGNET

Construct 2.0,

la app di nuova

generazione realizzata

per gestire

una vasta gamma

di stazioni

totali Topcon da

uno smartphone

o da un tablet.

La prima versione

della app invece, era stata

realizzata appositamente

per gestire unicamente il

sistema LN-100 Layout

Navigator system. “Questa

produttività ‘pronta all’uso’

è ora disponibile per

gran parte degli strumenti

Topcon,” ha affermato

David Ahl, direttore della

gestione prodotti software.

“Che si preferisca avvalersi

di dispositivi Android

o dell’ultimo hardware

Apple iPhone, iPad, o iPod

Touch, la app MAGNET

Construct 2.0 offre opzioni

intuitive per connettersi

in modalità wireless e gestire

una stazione totale per

misurazioni rapide, oltre

a un orientamento grafico

dei vostri dati.”

“Si tratta di un esempio di

ciò su cui ci stiamo concentrando

per offrire più

opzioni che siano di utilità

per gli utenti finali,” ha

affermato Ahl. “Questa

compatibilità multipiattaforma

offerta dalla app

MAGNET Construct 2.0,

rende ancora più accessibili

le soluzioni di misurazione

per diverse applicazioni.”

MAGNET Construct

offre anche una connettività

sicura ai servizi

web di MAGNET

Enterprise per un interscambio

dati in tempo reale

tra il cantiere o la campagna,

e l›ufficio.

La app è disponibile sia

sull’Apple App Store che

su Google Play.

Per maggiori informazioni,

visitare il sito topconpositioning.com.

http://topconpositioning.com

Formazione

TerreLogiche 2017

E’ online il calendario

2017 della Formazione

Terrelogiche con una proposta

formativa molto

ricca e tante novità. Tra i

corsi del nuovo anno due

new entry: “Statistica con

R (base)” e “Geodatabase

(PostGIS)”.

Nel primo semestre verranno

proposti due nuovi

corsi:

• “Statistica con R (base)”

che affronta i principali

aspetti riguardanti la

gestione statistica dei

dati e la loro rappresentazione

grafica tramite

l’utilizzo del software

Open Source R.

• “Geodatabase

(PostGIS)” che introduce

all’utilizzo di

PostGIS per l’immagazzinamento,

l’interrogazione

e la manipolazione

di dati territoriali georiferiti

in modo rapido

ed efficiente.

Per maggiori informazioni

sui corsi: http://

www.terrelogiche.com/

calendario-e-costi.html

Tra le novità anche la

possibilità di acquisto dei

“Pacchetti Formativi”,

percorsi tematici creati

da un team di docenti

che permettono di seguire

più sessioni formative

con riduzioni sul costo

di listino e possibilità di

dilazionare il pagamento.

E per tutti coloro che

vogliono tenere costantemente

aggiornato il proprio

team, Terrelogiche

propone i corsi in house

con personalizzazione

dei contenuti didattici e

delle tematiche affrontate

in base alle specifiche esigenze

degli uffici.

Le iscrizioni ai corsi

2017 sono aperte!

http://www.terrelogiche.com

• Rilievi batimetrici automatizzati

• Fotogrammetria delle sponde

• Acquisizione dati e immagini

• Mappatura parametri ambientali

• Attività di ricerca

Vendita – Noleggio - Servizi chiavi in mano, anche con strumentazione cliente

44 GEOmedia n°6-2016


MERCATO

Teorema presenta

le ultime novità dei

Laser Scanner HDS

Teorema, Distributore per

Lombardia e Piacenza degli

Strumenti Topografici

Leica presenta le ultime

novità dei Laser Scanner

HDS.

L’elevata qualità, le prestazioni

e la massima robustezza,

rendono Leica

ScanStation P16 lo strumento

ideale nel mondo

della scansione laser 3D.

Il suo interessante rapporto

prezzo-prestazioni e

l›interfaccia semplice, garantiscono

una soluzione

interessante per tutte le applicazioni

con una portata

fino a 40 metri.

Leica ScanStation P16

Leica ScanStation P16

dispone di un’interfaccia

touchscreen pratica

ed intuitiva. Il pulsante

di scansione «one-touch»

e il software in modalità

procedura guidata garantiscono

un flusso di lavoro

semplice ed un controllo

rapido dei dati sul campo.

Combinato al comando a

distanza WLAN, il sistema

Leica ScanStation P16 può

essere utilizzato da qualsiasi

dispositivo palmare.

Leica ScanStation

P30 e P40

Leica ScanStation P30 è

uno scanner ad alta versatilità

adatto per una vasta

gamma di tipiche soluzioni

di scansione. Con il suo

mix ottimale di velocità,

autonomia e precisione ed

una robustezza senza pari,

è la soluzione all-in-one

per una ampia gamma

completa di applicazioni.

Leica ScanStation P40 offre

massima versatilità,

ottima portata, elevata

velocità di scansione ed

eccellente qualità dei dati

quando e dove necessario.

E’ la soluzione perfetta

per qualsiasi attività

di scansione laser 3D.

La scelta giusta

Sia che ti occorra una rappresentazione

dettagliata

di una facciata costruita,

una planimetria in 2D o

dati 3D per l’integrazione

nella modellazione BIM

(Building Information

Modeling), ricostruire una

scena del crimine, acquisire

la geometria 3D di strade,

gallerie e ponti, sai che per i

tuoi progetti, avrai bisogno

di un strumento di scansione

preciso. I nuovi laser

scanner ScanStation P30 e

P40 sono la scelta giusta,

perché i dettagli sono importanti.

Teorema srl

Via Romilli 20/8 20139

Milano

Tel 02/5398739

http://www.geomatica.it/

GEOmedia n°6-2016 45


MERCATO

Cosa riserva il sistema Galileo all’Italia nel

prossimo futuro? Sono quasi 20 anni che si parla del

sistema Galileo con investimenti che dall’anno 2000 al 2020

arriveranno ad oltre 10 miliardi di euro. Ovviamente ogni paese

della Comunità ha dato il suo contributo in quota parte,

ricevendo poi benefici più o meno proporzionali all’investimento.

Oggi a distanza di quasi venti anni ci chiediamo quale

sia la ricaduta di tale investimento per l’Italia.

Di certo l’Italia ha il ruolo di fanalino di coda nel settore pur

avendo know-how specifico e strutture di ricerca di tutto rispetto,

anche in rapporto a quel mondo che travalicando i

confini d’Europa offre competenza e professionalità di alto

livello. Galileo si dirige essenzialmente a servizi basati sulla localizzazione

(LBS), che dipendono fortemente dall’affidabilità

e dalla disponibilità del posizionamento la cui realizzazione, lo

ricordiamo, ancora oggi, nelle nostre zone, è affidata al sistema

GPS statunitense, e al sistema GLONASS russo.

Il ruolo dell’Italia nel sistema di posizionamento Galileo, dal

punto di vista dei servizi indotti, è abbastanza marginale e

quanto dei previsti benefici saranno disponibili alle piccole e

medie imprese italiane che potrebbero usufruire degli “Initial

Services” avviati a fine 2016 e promossi dalla GSA, l’Agenzia

del GNNS europeo?

I professionisti del settore topografico non sembrano interessati

dal nuovo sistema in quanto gli altri sono disponibili e altamente

precisi. Una piccola indagine nel settore ci conferma

che da tempo i produttori hanno abilitato la ricezione delle

frequenze riservate al sistema Galileo, ma nessuno ancora parla

di evidenti vantaggi nell’esecuzione delle misurazioni. Nel

settore degli smartphone attualmente risulta un solo produttore,

BQ, che con il suo smartphone Aquarius riceve i satelliti

Galileo, ma non spiega quale siano i vantaggi, neanche durante

un Hackaton promosso recentemente dalla GSA a Praga.

Servizi di interesse prioritario sono nel supporto al soccorso

per le emergenze ed anche nella grande accuratezza dell’orologio

atomico che porterà all’aumento della precisione sulla

localizzazione da singolo, ma avrà molte applicazioni secondarie.

“La geolocalizzazione è al centro dell’attuale rivoluzione digitale,

con nuovi servizi che trasformano la nostra vita quotidiana

– ha affermato il vicepresidente della Commissione

Europea Maroš Šefčovič in occasione della dichiarazione degli

Initial services –. Galileo sarà alla base della prossima generazione

di tecnologie basate sulla localizzazione, come le automobili

autonome, i dispositivi connessi o i servizi urbani

intelligenti. Oggi mi rivolgo agli imprenditori europei con

questo invito: immaginate cosa potete fare con Galileo. Non

aspettate, innovate!”.

Ma in pratica quanto conoscono gli utenti italiani di questa

innovazione Europea?

Cercheremo di appurarlo nel corso di questo anno e il primo

appuntamento è al numero 1 2017 di GEOmedia dedicato

interamente a questo tema con approfondimenti su:

4 Gli Initial Services Galileo

4 I primi gestori del servizio

4 L’impatto nel settore del survey

4 Quali giovamenti per i Location Based Services?

4 GPS e Galileo, lotta ad armi pari?

4 I nuovi servizi per il soccorso

4 Smartphone Galileo ready, esistono?

Renzo Carlucci

Conferenza Esri Italia

2017

Cogli l’occasione e partecipa

al Call for Paper

della manifestazione più

articolata e completa a livello

nazionale nel settore

delle tecnologie geospaziali

e dei Sistemi Informativi

Geografici: la Conferenza

Esri Italia, che si terrà a

Roma il 10 e 11 maggio

2017.

Condividi i risultati dei

tuoi progetti, la tua storia

di successo e racconta a

un pubblico di esperti del

settore come la tecnologia

Esri ha permesso di migliorare

il tuo lavoro.

Diventa protagonista di

un momento di arricchimento

che coinvolge

migliaia di professionisti

da molti anni.

http://www.esri.com

In promozione lo scanner

ZEB1 la soluzione

portatile per il rilievo 3D

Lo scanner ZEB1, sviluppato

da GeoSLAM,

è la soluzione di rilievo

vincente per la misura e

la mappatura di ambienti

tridimensionali su più livelli.

ZEB1 rileva oltre 40.000

punti di misura al secondo

e li trasforma in una nuvola

di punti interamente

registrata. Estremamente

portatile e leggero, viene

utilizzato in movimento

ed è l’ideale per il rilievo

di spazi interni complessi

e sotterranei.

Promozione da prendere

al volo!

19.990,00

Inclusi 10.000 data processing

credits per il processamento

della nuvola

di punti

Vai ai prodotti:

https://goo.gl/uNpzOC

http://www.mesa-laserscanner3d.com

46 GEOmedia n°6-2016


MERCATO

Mesh il piccolo drone professionale

che supporta Galileo

Mesh sarà il primo drone professionale inoffensivo al mondo

a supportare Galileo, il nuovo sistema di navigazione satellitare

sviluppato dall’Agenzia Spaziale Europea (ESA) per

l’Unione Europea.

La sua entrata in funzione è stata prevista per giovedì 15

dicembre. E permetterà di sganciare il Vecchio Continente

dallo statunitense GPS e dal russo GLONASS.

Dopo 17 anni di sviluppo, Galileo è ora pronto per entrare

in funzione, permettendo all’Europa di rendersi

indipendente anche sul fronte dei sistemi di posizionamento

satellitare. Il supporto a Galileo, in questa prima

fase iniziale, sarà garantito solo su alcuni dispositivi

che comunque potrebbero aver necessità, in ogni

caso, di ricevere un piccolo aggiornamento software.

Cosa cambierà nel mondo dei droni professionali dopo

l’entrata in funzione di Galileo?

Maggiore precisione, disponibilità, copertura. La precisione

dei GNSS (sistema satellitare globale di navigazione) sarà

migliorata grazie alla possibilità di utilizzare una costellazione

combinata GPS-Galileo. In questo modo, il numero

di satelliti costantemente disponibili sarà quasi il doppio,

permettendo misure più precise. Per lo stesso motivo, il

numero maggiore di satelliti che diffondono un segnale di

geo-localizzazione, permetterà di avere un servizio con maggiore

disponibilità, anche in ambienti a visibilità limitate.

Infine, la copertura offerta da Galileo in alcune aree geografiche

sarà migliore del GPS, per come è stata progettata

la posizione dei satelliti. Anche a livello di servizio, Galileo

sarà migliorativo rispetto al GPS, offrendo alcune caratteristiche

ora assenti nei GNSS, come i servizi di integrità

garantita del segnale, e in generale l’affidabilità del sistema,

oppure la possibilità di accedere ai dati grezzi non elaborati.

Le applicazioni che nascono ogni giorno sono moltissime e

questo enorme mercato è destinato a raggiungere 3 miliardi

di utenti entro il 2020, la sua crescita sarà progressiva e promette

prestazioni di altissimo livello.

http://www.italdron.com/it

TEOREMA sRl MIlANO:

sOlUZIONI INNOVATIVE PER lA TOPOGRAFIA

E lA TERMOGRAFIA “IR”

Dal 1986 Teorema srl lavora a fianco del professionista

fornendo la tecnologia più avanzata, la migliore formazione tecnica

ed una accurata assistenza post-vendita

per rendere affidabile e produttivo il vostro lavoro.

Leica HDS P30 / P40

Leica Nova MS60

Leica Serie Captivate

Leica CS35

Rugged Tablet

Ricevitore

GNSS GS14

Leica 3D Disto

Leica

Disto S910

Termocamera

Flir T420

www.geomatica.it • www.disto.it • www.termocamere.com

Via A. Romilli, 20/8 20139 Milano • Tel. 02 5398739 • teorema@geomatica.it GEOmedia n°6-2016 47


SMART CITIES

Smart cities

or dumb cities?

Servizi geospaziali e

città

di Beniamino Murgante

e Giuseppe Borruso

La discussione più recente

sulla città si sofferma

sempre più sulla

sua ‘intelligenza’, richiamando

il concetto

di Smart Cities, più

volte affrontato su queste

colonne. Tale intelligenza

si concretizza,

nella maggior parte dei

casi, nell’introduzione

di uno ‘strato tecnologico’

sulla città,

spesso caratterizzato

dall’installazione di alcuni

dispositivi quali

lampioni in grado di

accendersi e spegnersi

da soli in base alle condizioni

di luce, o un

set di telecamere per il

controllo del traffico, o

l’implementazione di

una rete wi-fi pubblica

al servizio di cittadini,

o, più propriamente,

city users. Tali elementi

sono senz’altro necessari

ma, più volte, si è ribadito

come questi, da

soli, non siano in grado

di rendere intelligente

una città, senza una

vera e propria rete, in

grado di coniugare regole

condivise, aspetti

tecnologici, dati e cittadini.

Una città smart,

infatti, è una città che

prima di tutto viene incontro

ai propri cittadini

o utenti, fornendo

loro dei servizi, e in cui

il lato tecnologico rappresenta

l’elemento per

raggiungere un’elevata

efficienza, per ottimizzare

tali elementi e, auspicabilmente,

risultare

quasi invisibile.

Il legame tra città

‘smart’ e le tecnologie

e i servizi geospaziali è

necessariamente molto

forte, quasi scontato,

apparentemente. Le

città sono localizzate

nello spazio. Le strade,

gli edifici, gli elementi

naturali e artificiali, i

servizi, hanno una posizione,

e così gli utilizzatori

della città, anche

se questi si muovono

nello spazio. Realtà statiche

e dinamiche allo

stesso tempo. Nodi,

relazioni, reti, flussi,

sono tutti elementi che

caratterizzano la città,

secondo la tradizione

degli studi urbanistici

e della geografia urbana.

Se fino a ieri questi

potevano essere rappresentati

in modo statico,

oggi la dinamica

di questi elementi può

essere raccolta, analizzata,

elaborata, visualizzata.

Le tecnologie geoinformatiche

sono oggi alla

base di tutta una serie

di servizi geolocalizzati,

quelli che di fatto contribuiscono

o possono

contribuire a rendere le

città più o meno smart.

Videocamere e sensori

smart possono monitorare

il traffico urbano

– e questi oggetti sono

dotati di una posizione

nello spazio, geolocalizzabile

– così come

dispositivi mobili,

come gli smartphones,

raccogliendo dati aiutano

a produrre le mappe

di, appunto, traffico

urbano di Google. Gli

smartphones nelle nostre

tasche sono oggi

dei concentrati di tecnologia

che l’ampiezza

di banda della rete cellulare

e la liberalizzazione

civile del segnale

GPS, per citare solo

due rivoluzioni degli

ultimi lustri, hanno

reso senza precedenti la

possibilità di scambiarsi

dati e informazioni,

consentendo elevati livelli

di interazione tra

soggetti e con lo spazio

circostante, e di raccogliere

queste ultime, a

scopo ludico, ma anche

utilizzabili per attività

di pianificazione commerciale

(da parte di

chi questi dati li raccoglie)

e urbana.

Sempre più la posizione,

diventa elemento

importante e alla base

di quanto ruota attorno

al servizio di smartness:

i cittadini, i sensori e i

dispositivi, i dati (siano

essi open, siano essi

big), le infrastrutture, e

tutti i servizi che possono

derivare da queste

interazioni. E ciò, anche

se apparentemente

ormai consolidato, non

rappresenta ancora un

elemento facilmente

gestibile, soprattutto

in termini di precisione.

Da un lato, infatti,

tutte le componenti

‘fisse’ possiedono una

posizione: gli hot spot

wi-fi, le centraline, tutti

i dispositivi e sensoristica;

dall’altro lato

i dispositivi mobili o,

in accezione più umanizzata,

i cittadini o gli

utenti della città, cambiano

la loro posizione

nello spazio e questa

può avere diversi livelli

di precisione e affidabilità.

Ed è qui che si giocheranno

le sfide dei

prossimi anni. Il posizionamento

outdoor e

quello indoor sono infatti

il terreno di gioco

dove si svilupperanno

servizi, sempre più precisi,

basati sulla geolocalizzazione.

Gli attuali

dispositivi mobili, dotati

di ricevitore GNSS

adattato soprattutto

per ricevere il segnale

della costellazione statunitense

GPS, si attestano

infatti su livelli

di precisione dell’ordine

dei 5 – 10 metri,

con peggioramenti dovuto

all’effetto ‘canyon’

riscontrabile in molte

realtà urbane. Tale

dato è destinato a migliorare,

con la capacità,

già esistente e ulteriormente

implementabile

nel futuro più

prossimo, dei ricevitori

(multicostellazione) di

captare i segnali da altre

costellazioni, quali

la russa GLONASS,

quella cinese Beidou e,

da quest’anno, l’europea

GALILEO. L’altra

grande frontiera è rappresentata

dal posizionamento

interno, dove

i sistemi satellitari perdono

la loro efficacia.

Gli utenti della città

si muovono all’interno

di edifici, quali abitazioni,

punti vendita,

luoghi pubblici. Qui

la localizzazione non

può più essere garantita,

ad esempio, dalla

posizione del dispositivo

all’interno della

cella di telefonia mo-

48 GEOmedia n°6-2015


SMART CITIES

bile per fornire servizi

e informazioni ad hoc e

precisamente indirizzate.

Sistemi che garantiscano

la localizzazione a

ogni singolo piano di un

edificio e con precisioni

senz’altro sub-metriche

sono pertanto necessari,

e le ricerche sono in atto,

sia con riferimento all’utilizzo

dei sensori montati

all’interno dei dispositivi,

sia relativi a sistemi

esterni (es. hot spot

wi-fi, ibeacons, ecc.). Al

di là delle applicazioni

meramente commerciali,

ovviamente tra le prime

a essere sviluppabili anche

tenendo conto di

un ritorno economico,

le applicazioni in ambito

smart sono molto

ampie. Dal monitoraggio

dei flussi di persone

all’interno degli edifici a

scopi di pianificazione,

a sistemi di guida e di

somministrazione di informazioni

per persone

disabili, a servizi di assistenza

remota, per esempio

per persone anziane.

Geolocalizzazione e

smartness sono pertanto

ancora agli inizi della

loro coesistenza, pur

trattandosi di concetti e

di tecnologie ormai ampiamente

testate e rese

disponibili negli ultimi

decenni, e con ampie e

promettenti evoluzioni.

RIFERIMENTI BIBLIOGRAFICI

Batty M., Urban studies: Diverse cities, successful cities, Nature

Human Behaviour, Volume 1, article 0022, pp. 1 – 2. http://www.

nature.com/articles/s41562-016-0022

Batty M., Building a Science of Cities, Cities, Volume 29,

Supplement 1, March 2012, Pp. S9 – S16, http://www.complexcity.

info/files/2011/12/BATTY-CITIES-2011.pdf

Batty M., The New Science of Cities, The MIT Press, 2013.

Bezerra J. et al., The Mobile Revolution: How Mobile Technologies

Drive a Trillion-Dollar Impact, bcg perspectives, visitato il 20 gennaio

2016 https://www.bcgperspectives.com/content/articles/

telecommunications_technology_business_transformation_mobile_revolution/

Murgante B., Borruso G., Smart Cities or Dumb Cities? Città e

Applicazioni per Smartphones, GEOmedia Vol 17, N° 5, 2013.

Murgante B., Borruso G., Smart cities: un’analisi critica delle opportunità

e dei rischi, GEOmedia Vol 17, N° 3, 2013.

Tweddle JC, Robinson LD, Pocock MJ, Roy HE. Guide to citizen

science: developing, implementing and evaluating citizen science

to study biodiversity and the environment in the UK. Natural

History Museum and NERC Centre for Ecology and Hydrology for

UK-EOF 2012. www.ukeof.org.uk

Warf B. e Sui D. (2010), From GIS to neogeography: ontological implications

and theories of truth, “Annals of GIS”, 16 (4), pp. 197-209.


AGENDA

07 - 09 febbraio 2017

Berna (Svizzera)

8th Workshop on Remote

Sensing of Land Ice and Snow

of the European Association of

Remote Sensing Laboratories

(EARSeL)

www.geoforall.it/kwpaw

8-11 febbraio

Genova

FOSS4G-IT 2017

www.geoforall.it/kwppx

21 - 24 febbraio 2017

Firenze

10th Coastal Altimetry

Workshop

www.geoforall.it/kwp8a

1-3 marzo 2017

Nafplio (Grecia)

International Workshop ISPRS/

CIPA 3D-ARCH

www.geoforall.it/k9yx4

05-07 marzo 2017

Dubai (UAE)

JURSE 2017 URBAN 2017

URS 2017

www.geoforall.it/k9cwu

14-16 marzo 2017

Munich (Germania)

Munich Satellite Navigation

Summit 2017

www.geoforall.it/k9cu4

29 marzo 2017

Roma

UAV & SAR: i droni nelle

operazioni di salvataggio

www.geoforall.it/k9cy3

10-12 Aprile 2017

Roma

AIIT International Congress

TIS Rome 2017

www.geoforall.it/k9c46

18-20 aprile 2017

Sharjah (UAE)

ASCMCES-17

www.geoforall.it/k9cw6

23–28 aprile 2017

Vienna (Austria)

European Geosciences Union

(EGU) Special session on RPAS

in monitoring applications and

management of natural hazards

www.geoforall.it/kwp6c

24–26 aprile 2017

Vienna (Austria)

Geosciences Information For

Teachers (GIFT) workshop by

EGU

www.geoforall.it/k9crp

27-28 aprile 2017

Porto (Portugal)

GISTAM 2017 3rd

International Conference on

Geographical Information

Systems Theory, Applications

and Management

www.geoforall.it/kx9wx

06-08 maggio 2017

Cairo (Egypt)

10th International Symposium

On Mobile Mapping

Technology and Summer

School on mobile Mapping

www.geoforall.it/k9cw8

10-11 maggio 2017

Roma

Conferenza Esri Italia 2017

www.geoforall.it/k9cyk

15-17 maggio 2017

Mosca (Russia)

ISPRS International Workshop

Photogrammetric and

computer vision techniques for

video Surveillance, Biometrics

and Biomedicine - PSBB17

www.geoforall.it/kwp9r

23-24 maggio 2017

London (UK)

GEO Business 2017

www.geoforall.it/k9cwd

29 maggio - 2 giugno 2017

Salzburg (Austria)

GNC 2017 10th ESA GNC

Conference

www.geoforall.it/k9chh

06-09 giugno 2017

Hannover (GERMANY)

ISPRS WG Hannover

Workshop HRIGI 17 – CMRT

17 – EuroCOW 17 Joint

Meeting

www.geoforall.it/k9cw4

7-10 giugno 2017

Roma

XXXII Congresso dei Geografi

Italiani

www.geoforall.it/kwphk

25 giugno-1 luglio 2017

Zagreb (Croatia)

XXX International Geodetic

Student Meeting

www.geoforall.it/kxpff

26-29 giugno 2017

Munich (Germany)

SPIE Optical Metrology

Videometrics, Range Imaging

and Applications XIV

www.geoforall.it/kwp9f

4 - 7 luglio 2017

Salzburg (Austria)

GI_Forum 2017

www.geoforall.it/k9cup

16-22 luglio 2017

Obergurgl (AUSTRIA)

Innsbruck Summer School of

Alpine Research 2017 Close

Range Sensing Techniques in

Alpine Terrain Venue

www.geoforall.it/k9cwh


FIBER MANAGER ®

TUTTA LA TUA RETE A PORTATA DI MANO

GESTISCI L’INFRASTRUTTURA CON UN SOLO GEODATABASE INTEGRATO

Con FiberManager® puoi gestire le reti di telecomunicazione con un unico geodatabase che consente la

visione globale ed integrata dell’intera infrastruttura di rete. In questo modo hai a disposizione uno strumento

di business intelligence geografica centralizzato, da cui puoi estrarre tutti i report, gli schemi e i documenti

necessari a progettare, costruire, sviluppare e gestire la tua rete nel modo più efficace possibile.

FiberManager® mette a fattor comune la piattaforma GIS leader nel mondo con il modello dati e le funzionalità

smart implementate da una community network di aziende di telecomunicazioni operanti in vari paesi nel

mondo.

FiberManager® è una verticalizzazione della suite ArcFM® di Schneider Electric, di cui Sinergis è rivenditore

esclusivo in Italia.

www.sinergis.it

More magazines by this user
Similar magazines