GEOmedia_5_2018
La prima rivista italiana di geomatica.
La prima rivista italiana di geomatica.
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Rivista bimestrale - anno XXII - Numero 5/2018 - Sped. in abb. postale 70% - Filiale di Roma
TERRITORIO CARTOGRAFIA
GIS
CATASTO
3D
INFORMAZIONE GEOGRAFICA
FOTOGRAMMETRIA
URBANISTICA
GNSS
BIM
RILIEVO TOPOGRAFIA
CAD
REMOTE SENSING SPAZIO
EDILIZIA
WEBGIS
UAV
SMART CITY
AMBIENTE
NETWORKS
LiDAR
BENI CULTURALI
LBS
Sett/Ott 2018 anno XXII N°5
La prima rivista italiana di geomatica e geografia intelligente
Tecnologie Geospaziali per la
lotta agli Incendi Boschivi
ANALISI SATELLITARE
DELL’INCENDIO DEL
VESUVIO LUGLIO 2017
SUPPORTO ALLE DECISIONI
PER LA SICUREZZA A SCALA
TERRITORIALE
QUESTIONI SULLA
SICUREZZA DEI
SISTEMI GNSS
X-PAD Ultimate
Tutto in un unico software
X-PAD Ultimate è un software modulare, facile da
usare per lavori topografici e del cantiere, come rilievi,
tracciamenti, catasto, controlli BIM, strade, mappe,
batimetria e GIS.
Il software è disponibile sulla piattaforma Android e
porta le migliori tecnologie direttamente in campo
nella tua mano: una completa visualizzazione 3D ed
un sistema CAD per visualizzare e modificare i disegni,
integrazione dei tuoi dati con tutte le tipologie di
mappe, supporti per la realtà aumentata e molto altro.
XPad Ultimate ti assicura la produttività e ti permette di
avere una perfetta integrazione con tutti gli strumenti.
Disponibile in due versioni, una dedicata a chi lavora nel
campo della topografia ed una dedicata alle imprese di
costruzioni, offrendo ad entrambi delle caratteristiche
dedicate.
geomax-positioning.it
©2018 Hexagon AB and/or its subsidiaries
and affiliates. All rights reserved.
Per trovare un distributore nella vostra zona, visitate il nostro sito web: geomax-positioning.it
Quintilioni di dati nel mondo del geospatial
L'industria mondiale del geospatial continua a crescere e non ci sono segni al momento di una
probabile recessione. Contemporaneamente cresce la quantità di dati che produciamo ogni giorno,
raggiungendo numeri sbalorditivi.
Ci sono 2,5 quintilioni di byte di dati creati ogni giorno, ma questo numero è destinato a crescere
con l'Internet of Things (IoT). Bernard Marr su Forbes, poco tempo fa diceva che solo negli ultimi
due anni è stato generato il 90% dei dati nel mondo. E i quintilioni nel gergo di Forbes dovrebbero
corrispondere a 10 elevato alla 30a potenza e non alla 18a potenza, come invece si usa in Italia
definendo un quintilione uguale a miliardo di miliardi. Un numero talmente grande che si stenta
anche a definire in modo univoco.
Oltre 3,7 miliardi di esseri umani utilizzano Internet con un tasso di crescita annuo del 7,5%. In
tutto il mondo ci sono 5 miliardi di ricerche al giorno. In media, Google elabora più di 40.000
ricerche ogni secondo (3,5 miliardi di ricerche al giorno). Mentre il 77% delle ricerche sono
condotte su Google, sarebbe trascurato non ricordare che anche altri motori di ricerca stanno
contribuendo alla nostra generazione quotidiana di dati.
Per non parlare dei social, tra i quali non possiamo non notare l’impressionante crescita di
Instagram di proprietà ora del grande social network Facebook (2 miliardi di utenti attivi) che ha
superato i 600 milioni di utenti attivi, definiti Instagrammers, 400 milioni di persone che ogni
giorno condividono su Instagram 95 milioni di foto e video.
L'Internet of Things con i suoi dispositivi "intelligenti" connessi, sta esplodendo passando da 2
miliardi di dispositivi nel 2006 a 200 miliardi previsti entro il 2020.
Tutto il flusso dei dati è relazionato al “dove”, in un modo approssimato o preciso in funzione della
situazione governata dal geospatial. Un mondo i cui attori hanno business evoluti, come abbiamo
visto nell'ultima fiera INTERGEO che ha raggruppato oltre 20.000 partecipanti provenienti da
oltre 100 paesi del mondo, o come ha dimostrato recentemente a Las Vegas la Trimble Dimensions
2018 User Conference, che con un evento di tre giorni ha riunito oltre 4.400 partecipanti. Oltre
18.000 persone hanno partecipato alla recente Esri User Conference negli USA con il motto diffuso
“Science of Where”.
La richiesta di mappe dettagliate, aggiornate e tridimensionali di città, strade e grandi strutture è in
costante crescita. Questa domanda è anche alimentata dalla continua diminuzione esponenziale del
costo della raccolta di nuvole di punti raccolte da sistemi di mappatura mobile, solitamente montati
su un'automobile, un furgone o altro veicolo che può viaggiare alla normale velocità del traffico
su strade e autostrade. Inoltre la continua miniaturizzazione di sensori ed elettronica connessa sta
portando alla costruzione di scanner laser che sono abbastanza leggeri da essere montati su sistemi
aerei senza equipaggio, ma anche su zaini o aste tenute in mano per catturare stanze, corridoi e
molti altri spazi interni o esterni.
Oggi il rilievo, con l'acquisizione di nuvole di punti, non è più un dominio esclusivo degli
specialisti della geomatica. La chiave di questa evoluzione è nei sensori affidabili e facili da usare,
accompagnati da software sempre più intelligenti. Di conseguenza il ruolo dello specialista
geomatico si sta spostando da operatore a consulente e sviluppatore di software.
Lo spettro delle conoscenze riguarda la comprensione del nocciolo dei dati geospaziali, la loro
fusione con altri dati e le esigenze di archiviazione delle grandi moli di dati.
Una corretta analisi di questi dati, può servire certamente a direzionare flussi commerciali,
rispondere ad esigenze della popolazione, indirizzare la necessaria pianificazione del territorio, oltre
che a rispondere alla primaria esigenza di analisi per la prevenzione e la difesa della popolazione
dagli eventi catastrofici.
Buona lettura,
Renzo Carlucci
In questo
numero...
FOCUS
REPORT
LE RUBRICHE
Tecnologie
geospaziali per
l’ottimizzazione della
DISTRIBUZIONE di
risorse (squadre a terra
e Dos) per la lotta agli
incendi boschivi nella
rete delle sedi del
Corpo Nazionale dei
Vigili del Fuoco
di Michele Fasolo
6
46 AGENDA
Nello sfondo vediamo Città
del Messico ripresa dalla
missione Sentinel-1 del
programma europeo Copernicus.
Questa capitale
intensamente popolata e di
grandi dimensioni si può riconoscere
nella parte in alto a
destra dell’immagine. Ospita
quasi 9 milioni di abitanti,
con l’area metropolitana circostante
- chiamata Greater
Mexico City - in cui si registra
una popolazione di oltre 21
milioni di individui. Questa
circostanza la rende la città di
lingua ispanica più grande al
mondo. (Credits ESA)
16
Studio
comparativo tra
lo stato dei luoghi
prima e dopo
l’incendio del
Vesuvio tramite
analisi satellitare
di Massimiliano Moraca,
Antonio Pepe
In copertina, la mappa di
valutazione dei danni "damage
grade assesment" nell'area del
Vesuvio derivata da immagini
satellitare GeoEye Pre-event
image: GeoEye © Digital Globe,
Inc. (2016) (26/04/2016 at 10:01,
GSD 0.5 m, 21.8° off-nadir angle)
fornita in COPERNICUS by the
European Union and ESA.
Post-event image: WorldView-2
© Digital Globe, Inc. (2017)
(16/07/2017 at 09:49, GSD 0.5
m, 26.6° off-nadir angle) fornita in
COPERNICUS by the European
Union and ESA.
30
Sicurezza a scala
territoriale: il ruolo
degli strumenti
di supporto alle
decisioni
di Stefano Marsella,
Marcello Marzoli
geomediaonline.it
GEOmedia, bimestrale, è la prima rivista italiana di geomatica.
Da 20 anni pubblica argomenti collegati alle tecnologie dei
processi di acquisizione, analisi e interpretazione dei dati,
in particolare strumentali, relativi alla superficie terrestre.
In questo settore GEOmedia affronta temi culturali e tecnologici
per l’operatività degli addetti ai settori dei sistemi informativi
geografici e del catasto, della fotogrammetria e cartografia,
della geodesia e topografia, del telerilevamento aereo e
spaziale, con un approccio tecnico-scientifico e divulgativo.
INSERZIONISTI
34 "...IN ERRORE
PERSEVERARE"
di Attilio Selvini
aerRobotix 26
Epsilon 41
Esri Italia 37
Geogrà 29
3DTarget 27
Geomax 2
GIS3W 33
Gter 24
Planetek Italia 15
Elaborazione di
Piattaforma GIS
sul fattore di
Rischio alluvionale
nel comprensorio
del Comune di
Sora (Fr)
di Fabio Cuzzocrea,
38
Stonex 47
Studio SIT 36
Teorema 46
Topcon 48
Stefano Lucidi
42
Aspetti di sicurezza
nell'utilizzo dei
sistemi di navigazione
satellitare
di Mauro Leonardi
28
L'aerofototeca
nazionale racconta…
la telefotografia,
prima della Grande
Guerra
di Elizabeth J. Shepherd
ERRATA CORRIGE
Nel numero precedente GEOmedia 4 2018 a pag. 5 nel sommario invece
di "Giovanni Nicolai” si legga “Francesca Pompilio” come autore nella
rubrica l'aerofototeca nazionale racconta...
una pubblicazione
Science & Technology Communication
Direttore
RENZO CARLUCCI, direttore@rivistageomedia.it
Comitato editoriale
Vyron Antoniou, Fabrizio Bernardini, Mario Caporale,
Luigi Colombo, Mattia Crespi, Luigi Di Prinzio, Michele
Dussi, Michele Fasolo, Marco Lisi, Flavio Lupia, Luigi
Mundula, Beniamino Murgante, Aldo Riggio, Mauro
Salvemini, Domenico Santarsiero, Attilio Selvini,
Donato Tufillaro
Direttore Responsabile
FULVIO BERNARDINI, fbernardini@rivistageomedia.it
Redazione
VALERIO CARLUCCI, GIANLUCA PITITTO,
redazione@rivistageomedia.it
Diffusione e Amministrazione
TATIANA IASILLO, diffusione@rivistageomedia.it
Comunicazione e marketing
ALFONSO QUAGLIONE, marketing@rivistageomedia.it
Progetto grafico e impaginazione
DANIELE CARLUCCI, dcarlucci@rivistageomedia.it
MediaGEO soc. coop.
Via Palestro, 95 00185 Roma
Tel. 06.64871209 - Fax. 06.62209510
info@rivistageomedia.it
ISSN 1128-8132
Reg. Trib. di Roma N° 243/2003 del 14.05.03
Stampa: SPADAMEDIA srl
VIA DEL LAVORO 31, 00043 CIAMPINO (ROMA)
Editore: mediaGEO soc. coop.
Condizioni di abbonamento
La quota annuale di abbonamento alla rivista Science è di € & 45,00. Technology Communication
Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di
ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa.
L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita
revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza
dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo.
La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti.
Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta
dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere
richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo.
Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la
riproduzione anche parziale del contenuto di questo numero della Rivista in
qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i
sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore.
Rivista fondata da Domenico Santarsiero.
Numero chiuso in redazione il 5 Dicembre 2018.
FOCUS
FOCUS
Tecnologie geospaziali per
l’ottimizzazione della
distribuzione
distribuione di risorse (squadre
a terra e Dos) per la lotta agli
incendi boschivi nella rete
delle sedi del Corpo
Nazionale dei Vigili del Fuoco
di Michele Fasolo
Fig. 1 - Territorio del comune di Patti (ME) percorso dal
fuoco nell’incendio del 30.06.2017 (rielaborazione in falsi
colori immagine Sentinel 2A del 03.08.2017 con combinazione
di bande nell’infrarosso. Aree percorse dal fuoco in
verde scuro).
Negli ultimi decenni la
letteratura sui sistemi di
soccorso ha registrato
un grandissimo numero
di contributi che hanno
utilizzato, pur declinandola
secondo prospettive
differenti, la Teoria delle code
per approntare procedure e
modelli utili a comprenderne
il comportamento, misurare
e ottimizzare le prestazioni
in termini di efficienza del
servizio reso nel territorio da
queste particolari strutture
sistemiche così importanti
sotto il profilo sociale. Si
tratta di strutture molto
complesse a causa dei fattori
prevedibili e imprevedibili di
variabilità che vi intervengono
sia a livello di numero di
richieste che di tempo
Il problema fondamentale
che si pone nell’analisi e
nella modellazione teorica è
proprio il loro essere caratterizzate
dall’irrompere casuale nel
loro sistema di quegli eventi che
determinano la loro attivazione,
con la possibilità di formazione
di una coda (o fila) in attesa,
quando il numero di eventi diviene
troppo elevato o troppo
concentrato nell’unità di tempo
in rapporto alle risorse operative
disponibili per lo svolgimento
del servizio richiesto. L’obiettivo
dello studio di questi sistemi è
dunque finalizzato all’analisi dei
regimi di servizio per dimensionare
correttamente le risorse al
fine di far fronte alle richieste
nella misura più efficace possibile,
nel rispetto dei vincoli
complessivi (quali p.e. il numero
complessivo di risorse impiegabili
o il livello minimo accettabile
della qualità di risposta che il
sistema deve poter garantire) .
Sorge dunque la necessità di
calcolare su base probabilistica
una distribuzione ottima delle
risorse tra i vari nodi della rete in
modo che queste non risultino
carenti laddove sarebbero previsionalmente
più necessarie e,
al contrario, poi effettivamente
sottoutilizzate laddove alla luce
delle probabili esigenze si presentino
sovrabbondanti. Una distribuzione
ottima basata in ogni
caso su criteri oggettivi, razionali
e scientifici. e supportata da consolidati
modelli matematici.
necessario a soddisfarle.
Figg. 2,3 - Patti (ME) incendio boschivo del 30.06.2017.
6 6 GEOmedia n°5-2018 n°4-2018
FOCUS
Una possibile soluzione è
quella di costruire un modello
matematico (analitico) di ottimizzazione,
di tipo stocastico,
attraverso variabili e relazioni
logico–matematiche che siano
corrispondenti alle relazioni del
modo reale, in grado di descrivere
in modo semplificato ma
soddisfacente il funzionamento
e i fenomeni che lo influenzano
e supportare le eventuali decisioni
a riguardo.
La teoria delle code con l’applicazione
del tipo di modello di
file d’attesa (c.d. a code) risponde
con risultati convincenti a
tali esigenze. Consente infatti di
misurare le prestazioni in termini
di efficienza del servizio reso
nel territorio di competenza da
ciascun nodo della rete.
Tra i metodi possibili si propone
qui e si valuta un procedimento
dedicato di ottimizzazione fondato
sulla “Teoria delle Code”,
formulato come problema di
Programmazione Lineare, .denominato
dal suo autore Fabrizio
Di Liberto, “Metodo delle
Code”.
Il metodo è stato applicato nel
contesto della lotta attiva agli
incendi boschivi per affrontare
il problema della dotazione
operativa ottimale delle sedi del
Corpo nazionale dei vigili del
fuoco (CNVVF) esistenti sul
territorio italiano, in termini di
squadre antincendio boschivo
(AIB) e di direttori delle operazioni
di spegnimento (DOS), in
base alle necessità di copertura
operativa conseguenti alla analisi
di rischio di incendio nel
territorio e delle capacità di servizio
delle sedi, entrambe elaborate
utilizzando le statistiche del
fenomeno negli ultimi anni.
zionalmente è stato utilizzato
dall’uomo per sfruttare l’ambiente
naturale modificandolo a
proprio vantaggio.
Anche il territorio italiano è
afflitto ogni anno da incendi
devastanti che interessano decine
di migliaia di ettari di zone
boscate e in generale vegetate,
costituendo una tra le più impegnative
criticità ambientali con
cui devono confrontarsi i cittadini
e le istituzioni.
Un’emergenza che va affrontata
su più piani, da quello sociale
ed economico, a quello della
repressione criminale per i tantissimi
eventi dolosi e le attività
delle ecomafie, con il concorso
sinergico di più attori istituzionali
con il rafforzamento delle
attività di programmazione e di
prevenzione.
Quadro normativo e nuove
competenze del CNVVF
In Italia la normativa in materia
di incendi boschivi è risultata
per molti anni insufficiente e
inadeguata alla gravità del fenomeno
sino all’approvazione
della legge 21 novembre 2000,
n. 353 (Legge-quadro sugli
incendi boschivi), che ha apportato
importantissimi elementi
di innovazione e di contrasto
all’aberrante circolo vizioso
degli interessi economici che
sorgono intorno al fuoco tra cui
quelli, affatto secondari, sintetizzati
dall’ossimoro “bruciare
per spegnere”. Tra gli aspetti
più rilevanti stabiliti dalla legge
quadro c’è il completo riordino
delle competenze Stato-Regioni
Fig. 4 - Superficie ha bruciata per anno; periodo 2010-2016
( Fonte dati Corpo Forestale dello Stato le Regioni italiane a
statuto ordinario).
Fig. 5 - Numero incendi boschivi per quota sul s.l.m ogni
100 km2 (Fonte dati Corpo Forestale dello Stato le Regioni
italiane a statuto ordinario).
Fig. 6 - Numero incendi boschivi per Regione; periodo
2010-2016 (Fonte dati Corpo Forestale dello Stato le Regioni
italiane a statuto ordinario).
Gli incendi boschivi in Italia
L’incendio boschivo è un fenomeno
globale, sempre presente,
comune a molti Paesi europei e
in particolare a quelli del bacino
del Mediterraneo dove tradicon
trasferimento a queste ultime
di tutte le competenze in
materia di previsione, prevenzione
e lotta attiva contro gli
incendi boschivi, lasciando allo
Stato il concorso in particolare
allo spegnimento degli incendi
con il supporto della flotta aerea
antincendio di Stato. Ciascuna
Tab. 1 - Distribuzione mensile numero incendi boschivi a livello regionale; periodo 2010-2016.
GEOmedia n°5-2018 n°4-2018 7
FOCUS
Regione affronta il contrasto
agli incendi boschivi secondo
un’organizzazione peculiare e
sulla base di norme regionali
che prevedono anche la possibilità
di stipulare specifiche
convenzioni con enti pubblici
ma anche privati come le associazioni
di volontariato AIB
Rispetto a questo impianto
normativo che individua nelle
Regioni i soggetti responsabili
dello spegnimento a terra, lasciando
allo Stato il concorso
con la flotta aerea di Stato, la
revisione normativa apportata
dal decreto legislativo 19 agosto
2016 n. 177 con l’assorbimento
del Corpo Forestale dello Stato
nell’Arma dei carabinieri, e il
contestuale trasferimento al
Corpo Nazionale dei Vigili del
fuoco (CNVVF) delle competenze
CFS in tema di lotta
attiva agli incendi boschivi
ha comportato il mutamento
dell’interlocutore statale, oggi
unicamente il CNVVF, per
la estinzione degli incendi, la
direzione delle operazioni di
spegnimento, il coordinamento
Fig. 7 - Suddivisione del territorio italiano mediante
il metodo dei poligoni di Thiessen, imperniati sulla
posizione delle 459 sedi territoriali VVF
delle forze regionali di volontariato,
la collaborazione all’interno
di ciascuna Sala operativa
unificata permanente (SOUP).
Il concorso del CNVVF al
dispositivo di antincendio boschivo
delle Regioni e degli Enti
parco viene regolato attraverso
accordi di programma che fanno
riferimento alle principali
norme in materia di antincendio
boschivo.
Unitamente al d.lgs.177/2016
la revisione del d.lgs 139/2006
ha reso necessario per il
CNVVF la predisposizione di
un dispositivo coordinato di
risposta in materia AIB con una
revisione e un rafforzamento
degli assetti organizzativi e funzionali
con una distribuzione
mirata del personale..
L’attuale dislocazione sul
territorio delle strutture del
CNVVF è infatti studiata per
il soccorso tecnico urgente alle
popolazioni, con una conseguente
minore prossimità alle
aree boschive che, solitamente,
sono contraddistinte da un basso
grado di urbanizzazione.
In conclusione il problema è
quello di individuare, al fine di
rafforzare le azioni di prevenzione
e di spegnimento un nuovo
assetto ottimale del dispositivo
di lotta attiva AIB rafforzandolo
in particolare nelle Regioni e
nelle Province a maggior rischio
in modo da consentire, con
interventi più rapidi a elevata
capacità operativa in territori
impervi e con poche vie di penetrazione,
l’estinzione degli
incendi nelle fasi iniziali, contenendo
al minimo i danni.
Di estrema importanza risulta
in particolare il calcolo delle
risorse aggiuntive da mettere
in campo ovvero la stima delle
esigenze da quantificare con le
Regioni competenti e da definire
negli Accordi Convenzionali
da stipulare.
Questo calcolo è stato impostato
in questo studio a partire
dalle statistiche degli incendi
verificatisi nel periodo 2010-
2016 nei singoli ambiti di
competenza territoriale delle
sedi VVF in particolare a partire
dagli indici di rischio e dalla
capacità relativa del sistema di
servizio delle sedi.
Il modello e la sua
applicazione
Secondo la procedura adottata
in questo studio, applicando il
Metodo delle Code, la rete dei
presidi di soccorso territoriali è
modellizzata come un network
di sistemi di servizio cui giungono
in istanti aleatori richieste
di intervento. La Teoria delle
Code è in grado di descrivere
processi stocastici (cd. “senza
memoria” o “markoviani”) di
questo tipo di sistema di servizio
a mezzo di equazioni differenziali
ordinarie.
Per approntare il modello si
sono innanzitutto definiti i territori
di competenza di ciascuna
sede territoriale di soccorso
tecnico urgente VVF (100
Comandi + 358 distaccamenti
permanenti + 1 distaccamento
misto). Per farlo si è suddiviso
(utilizzando la piattaforma
ArcGis 10.5) il territorio italiano
(dominio B=boundary)
mediante il metodo dei poligoni
di Thiessen, imperniati sulla
posizione delle sedi territoriali
VVF {m J
}, in k entità di discretizzazione
{b k
} (nodi).
Un altro possibile metodo di
discretizzazione delle aree di
competenza delle singole sedi di
servizio, qui non utilizzato per
ragioni di speditezza è quello di
individuarle come porzioni di
territorio accessibili dalla posizione
di ciascuna sede stimate
in funzione della rete stradale a
parità di tempo rispetto a quella
da ciascuna altra sede circostante
e senza sovrapposizioni (superfici
isocrone).
8 GEOmedia
GEOmedia
n°4-2018
n°5-2018
FOCUS
Si è comunque riscontrato che
ciscun poligono della discretizzazione
secondo il metodo di
Thiessen corrisponde a un’area
di accessibilità isocrona media
di 28-30 minuti.
A ciascuna sede territoriale del
CNVVF {m J
} è stata quindi
assegnata una quantità {U J
} di
unità di soccorso (partenze o
squadre) (due per i comandi e
le sedi classificate SD5, una per
tutte le altre) pronte all’impiego
in caso di necessità conseguenti
a incendi boschivi localizzati
nell’intorno definito dal poligono
corrispondente a ciascuna
sede {R J
} (raggio operativo).
Per la ricerca si sono utilizzati i
dati relativi ai 28.806 incendi
censiti dal Corpo Forestale dello
Stato nel territorio delle 15 Regioni
a statuto ordinario negli
anni dal 2010 al 2016 (archivio
AIB-FN Foglio Notizie AntIncendi
Boschivi). L’archivio AIB-
FN è stato realizzato per vari
decenni raccogliendo i dati che,
il personale Forestale intervenuto
sull’incendio e responsabile
delle operazioni di spegnimento
compilava dettagliatamente.
Si tratta di una fonte di dati
ricchissima di voci e quindi rilevante
con informazioni omogenee
e facilmente trattabili per
l’elaborazione statistica.
I dati sono stati riportati al
contesto dell’attuale dispositivo
di soccorso VVF a seguito
delle nuove funzioni assegnate
dal d.lgs.177/2016 e dalla revisione
del d.lgs 139/2006. Per
ciascuno dei 459 nodi-poligoni
del dominio di discretizzazione
i dati sono stati quindi geolocalizzati
su piattaforma Gis,
previa loro normalizzazione
ed eliminazione di quelli non
trattabili perché affetti da varie
incongruenze,
Si sono quindi analizzate al fine
di calcolare le diverse variabili
aleatorie del processo le occorrenze
degli incendi boschivi che
Fig. 8 - Particolare della discretizzazione di una porzione del territorio dell’Italia centrale attraverso il
metodo dei poligoni di Thiessen imperniati sulla posizione delle sedi operative VVF (triangoli rossi) (in
rosso gli ambiti dei Comandi e in azzurro i limiti regionali)
si sono presentati mediamente
nel periodo considerato 2010-
2016 all’interno di ciascuna
area di competenza (poligono)
di ciascuna sede. Il carico
medio di incendi per ciascuna
sede corrisponde al carico di
lavoro cui la sede è chiamata a
farsi carico. Sempre avvalendosi
della predetta banca dati, sono
stati quindi definiti: il corrispondente
tempio medio di
risposta {T run }, per ogni coppia
J
{b k
;m
j
}, i tempi medi necessari
{T dst } alle unità di soccorso
jk
per raggiungere nel periodo di
riferimento (mese) le località
dell’incendio da ciascuna sede
m j
e quelli di ritorno dalle località
alla sede di servizio maggiorati
rispetto ai precedenti
del 50%, dato il mancato uso
della sirena in questi tragitti,
entrambi questi ultimi due stimati
in base alle caratteristiche
di velocità ed autonomia dei
mezzi di soccorso impiegati e
delle caratteristiche di ciascun
arco del grafo stradale utilizzato
per la modellizzazione della rete
stradale; il tempo medio necessario,
alle unità di soccorso per
espletare un intervento localizzato
nel nodo k-mo nel periodo
di riferimento, {T emg }, nonchè
J
il tempo medio necessario alle
unità di soccorso rientrate in
base per ridisporsi in prontezza
operativa {T chk }. Dalla somma
J
di questi quattro tempi si è ricavato
il valore del tempo medio
totale di servizio m Tser
.
Per la stima dei tempi necessari
ai tragitti di andata e di ritorno
delle unità di soccorso tra ciascuna
sede operativa e le località
di incendio boschivo e viceversa
Fig. 9 - Incendi boschivi in Italia 2010-2016 (Fonte dati
Corpo Forestale dello Stato)
GEOmedia n°5-2018 n°4-2018 9
FOCUS
Fig. 10 - Procedura di stima del tempo medio dei tragitti tra la sede operativa VVF e ciascuna località
ricadente nel poligono di competenza in cui si è verificato nel periodo 2010-2016 un incendio boschivo.
si è utilizzato il tool Network
Analyst di Arcgis 10.5. applicato
al grafo stradale della rete
viaria nazionale, con riferimento
ai nodi di collocazione dei
presidi operativi del CNVVF.
In particolare è stata utilizzata
la funzione Closest facility per
stimare i tempi medi dei tragitto
tra la sede di servizio (facility)
e ciascuno degli incendi boschivi
(incidents) verificatisi nel
periodo 2010-2016 e ricadenti
nell’ambito di competenza.
Si è resa necessaria a tale riguardo
per lo studio una modellizzazione
della rete stradale
tramite il grafo OpenStreetMap
(OSM).
Con questi due strumenti si è
effettuata la modellizzazione
che ha adottato criteri di compromesso
tra la precisione dei
risultati e la minimizzazione
dei costi, in termini di impiego
di requisiti informativi, risorse
hardware, tempo uomo e tempo
macchina, necessari alla sua
implementazione e pertanto si
è ritenuto di non spingere verso
un livello di dettaglio elevato la
schematizzazione che pure non
ha escluso alcun tipo degli archi
della rete presente nella base di
dati di OSM optando però per
una valutazione prestazionale
semplificata del deflusso imperniata
sul tempo di percorrenza
determinato dai due soli attributi
concorrenti, lunghezza e
velocità e rinunciando a forme
funzionali delle funzioni di
costo più sofisticate. Ogni arco
della rete è stato quindi tipizzato
in base alla classifica tecnico
funzionale, ovvero in funzione
del livello amministrativo e delle
caratteristiche funzionali (velocità)
con aggiornamento della
relativa matrice. A ogni arco
sono stati associati una serie di
attributi tra cui il tempo di percorrenza
(minutes). Per fare ciò
le tabelle di attributi degli shape
Fig. 11 - Particolare tabella attributi modificata della rete stradale OSM in funzione della velocità e dei
tempi di percorrenza attribuiti a ogni singolo arco.
files del grafo stradale sono state
importate in un database di Microsoft
Access e attraverso una
macro si è associata la velocità
massima consentita dal Codice
della strada a ciascun corrispondente
arco. Contestualmente
si è suddivisa la lunghezza di
ciascun arco per la velocità in
minuti (tre cifre decimali). Successivamente
le tabelle modificate
sono state esportate in dbf
e associate agli shape file. A partire
dalla feature class lineare in
formato shape che costituisce la
rete è stato definito e costruito
in ArcCatalog di ArcGis il network
dataset e quindi attraverso
la voce del menù di Network
Analyst “Closest Facility” si
sono calcolati individuandone
i relativi percorsi (feature class
lineare Route) la distanza e il
tempo tra la sede VVF (facility)
e ciascun incendio (incident)
ricadente nel poligono di competenza.
Gli incendi boschivi nel territorio
sono stati caratterizzati
come eventi aleatori, assumendo
che:
1. si distribuiscano aleatoriamente
nel giorno medio
secondo una legge di Poisson
di parametro λ h
pari alla
densità media oraria locale
di accadimento;
2. a ciascun incendio boschivo
corrisponda una
richiesta di primo soccorso
che giunge al sistema con
un ritardo aleatorio, comunque
trascurabile ai fini
dello studio;
3. La durata T ser
delle missioni
di soccorso sia aleatoria e
distribuita secondo una
legge esponenziale di parametro
μ, inversamente
proporzionale al tempo
medio di durata m Tser
delle
missioni stesse.
Nell’ambito di queste ipotesi
in ciascuno dei nodi {b k
} risulta
10 GEOmedia n°4-2018 n°5-2018
FOCUS
pertanto definito una successione
temporale di eventi flusso
{F λ } che può essere schematizzato
con buona approssimazio-
J
ne come un flusso aleatorio elementare
definito dalla legge di
Poisson con un certo intervallo
temporale di riferimento {λ} J
.
ovvero indicando con P k
(m,λ)
la probabilità che si verifichino
nel nodo k m richieste di intervento
per incendio boschivo
con media l (ponendo λ=l) si ha
(1)
Quindi tramite la suddetta formula
di Poisson (1) ponendo
m=0, è stato possibile calcolare
la probabilità che nel nodo
k-mo NON AVVENGA AL-
CUN EVENTO:
e da questa, passando all’evento
contrario, è stato possibile calcolare
la probabilità che nel nodo
k-mo si verifichi ALMENO
UN EVENTO:
Quest’ultima relazione) esprime,
al variare di λ, la propensione
statistica al verificarsi di eventiemergenze
in un ambito territoriale
(nodo) soggetto in media
ad un numero λ di eventi/periodo.
Il valore P k
(λ) rappresenta
dunque un “indice di pericolosità”
per ogni nodo b k
del dominio
di discretizzazione.
L’indice di pericolosità è stato
stimato in base alle serie storiche
locali degli eventi ed è
stato assunto per quantificare
il carico di lavoro potenziale
delle sedi territoriali di soccorso
VVF nel raggio operativo (area)
di competenza (corrispondente
al rispettivo poligono di Thiessen).
Il valore dell’indice di
pericolo può essere poi pesato
e corretto a seconda delle esigenze
di modellizzazione al fine
di ottenere il corrispondente
“indice di rischio territoriale”
come prodotto della pericolosità
per il danno atteso (R=P*D).
Nel presente studio l’indice di
rischio è stato calcolato in particolare
moltiplicando la pericolosità
(percentuale di incendi
verificatesi in area di competenza
di ciascuna sede di servizio
VVF sul totale nazionale) per
il danno (superfici complessive
percorse dal fuoco dal fuoco in
km 2 ). Per la classificazione delle
sedi in base all’indice di rischio
si è utilizzato il metodo Quantile.
Misura statistico-probabilistica
di efficienza globale della
rete CNVVF in relazione ai
carichi di servizio valutati su
scala locale. Risultati.
La risposta in termini operativi
che la rete deve fornire al carico
di lavoro potenziale, derivante
dall’indice di rischio territoriale,
tramite le risorse U J
distribuite
nelle varie sedi VVF m J ,
ovvero
il livello di servizio, funzione
del numero di richieste che
giungono (carico di servizio),
del tempo medio di espletamento
del servizio richiesto (tempo
di servizio) e del numero di
unità di servizio (canali) che
agiscono nel sistema, può essere
limitata da alcuni vincoli dati
di varia natura ma determinano
sempre la difficoltà se non l’impossibilità
di corrispondere con
la voluta efficienza ed efficacia
alla domanda di prestazione richiesta.
Il rapporto tra le richieste
che giungono e quelle che
il sistema riesce a servire in un
certo lasso temporale definisce
la capacità relativa di ciascuna
sede.
A tale riguardo ciascuna sede
della rete nazionale del CNVVF
è stata considerata alla stregua
di un sistema di servizio ad n
canali e a richieste rifiutate.
Calcolata la media temporale di
incendi boschivi nella zona di
competenza operativa di ciascuna
sede VVF (flussi di richieste)
e il numero di squadre o partenze
in essa operative (canali),
si può calcolarne il regime limite
di servizio corrispondente.
A partire quindi dai parametri
statistici del processo di soccorso
ricavati dalle statistiche CFS
2010-2016 (flusso di richieste,
canali, tempo di servizio) si
è utilizzata a questo punto la
formula di Erlang per calcolare
il regime limite di saturazione
del sistema di servizio ideale
corrispondente. Nella formula
compare, oltre al numero n di
canali attivi, la densità ridotta a
di richieste, ottenuta moltiplicando
la densità oraria λ h
per il
tempo medio di servizio m Tser.
Si
sono in questo modo calcolati i
valori della capacità relativa Q rel
di ciascuna delle sedi per diversi
valori di λ e per un numero n
variabile di canali attivi, in generale
diversi da sede a sede.
I dati sono stati calcolati con riferimento
ai mesi in cui nei vari
anni si sono verificati gli incendi
in modo da poter calibrare
l’ottimizzazione secondo archi
temporali specifici e ristretti.
I dati di fonte CFS (AIB-fn) per
le regioni a statuto ordinario
sono stati inseriti i una tabella
ovvero i un foglio elettronico
in cui è stata convertita la
formulazione del problema di
ottimizzazione. Il foglio elettronico
è stata utilizzato per
misurare le prestazioni del sistema
di servizio delle reti delle
GEOmedia n°5-2018 n°4-2018 11
FOCUS
Fig. 12 - Indice di rischio R = pericolosità (% incendi
per Comando VVF su totale nazionale) per danno
(aree percorse dal fuoco in km2) (metodo di classificazione
Quantile).
Fig. 13 - Indice di rischio R = pericolosità (% incendi
per Sede VVF su totale nazionale) per danno (aree
percorse dal fuoco in km2) (metodo di classificazione
Quantile).
Fig. 14 - Capacità relativa del sistema di servizio
delle Sedi VVF (metodo di classificazione Quantile).
sedi operative territoriali VVF
e per ottimizzare la distribuzione
delle risorse. Le prime tre
colonne (A,B,C) contengono
i dati rispettivamente relativi a
Regione, Provincia, Comando
VVF competente di ciascuna
Sede operativa territoriale VVF
(colonna D) con indicata la Categoria
funzionale (colonna E).
Assunto il parametro l della legge
di Poisson pari alla media di
incendi boschivi registrata in un
dato arco temporale nel territorio
di competenza individuato
per ciascuna sede (poligono) nel
periodo 2010-2016, le colonne
da F a Q riportano il numero
assoluto di incendi boschivi
nei singoli mesi dell’anno, la
colonna R il totale incendi nel
periodo 2010-2016, la colonna
S la superficie totale percorsa
dal fuoco in ettari nel periodo
2010-2016, le colonne da T ad
AE le medie mensili nei singoli
mesi dell’anno e nelle colonne
AF e AG rispettivamente la media
eventi totale mensili per il
periodo 2010-16 (λ) e la media
eventi oraria per lo stesso periodo
2010-16 (λ). In questo modo
è stato possibile calcolare un
“coefficiente di pericolosità” per
singole scale spazio-temporali
(mese, ora) che esprime quantitativamente
la propensione al
verificarsi di eventi di incendio
boschivo che insiste su un dato
territorio in un certo periodo
dell’anno . La colonna AH
contiene per ciascuna sede la
Fig. 15 - Capacità relativa del sistema di servizio delle Sedi VVF (metodo di classificazione Quantile).
Funzione P(La) (λ) probabilità
eventi (1-Exp(-La)). E possibile
identificare tale coefficiente in
maniera diretta anche come
“indice di rischio” con il danno
della perdita del bene “bosco”. I
risultati ottenuti rappresentano
una misura del carico medio
di incendi ovvero il carico di
lavoro (commisurato al rischio
territoriale) cui ciascuna sede
VVF è chiamata a corrispondere
con le proprie risorse (partenze)
sempre occorre sottolinearlo
in base ai dati statistici
del fenomeno incendi boschivi
e della loro durata provenienti
dal disciolto Corpo Forestale
dello Stato e ai dati dei tempi di
raggiungimento delle località di
incendio dalle sedi VVF stimati
grazie al modello di rete stradale.
Seguono le colonne da AI
ad AO utilizzate per definire il
tempo medio di servizio m Tser
..
Innanzitutto nella colonna AI il
tempio medio di risposta {T run J }
tra la segnalazione dell’incendio
e l’uscita dalla sede operativa
della squadra d’intervento.
Essendo il lavoro riferito alle
sedi VVF non si sono in questo
caso usati i dati di provenienza
12 GEOmedia n°4-2018
12 GEOmedia n°5-2018
FOCUS
CFS è si è usato sulla base delle
statistiche VVF il tempo medio
di 5 minuti per tutte le sedi. La
colonna AJ contiene il tempo di
arrivo medio stimato (sulla base
del modello di rete stradale approntato
per la network analysis
descritto in precedenza) in minuti
della squadra d’intervento,
la colonna AK il tempo medio
in minuti necessario alla squadra
intervenuta per espletare un
intervento {T emg }, la colonna
AL il tempo di rientro in
J
sede medio stimato (sulla base
del modello di rete stradale approntato
per la network analysis
descritto in precedenza e convenzionalmente
aumentato del
50% per il mancato uso della
sirena sulla base delle statistiche
d’intervento VVF) in minuti
della squadra , la colonna AM
il tempo medio necessario alla
squadra rientrata in sede per
ridisporsi in prontezza operativa
{T chk }, Seguono le colonne
J
AN tempo medio di servizio in
minuti (somma delle precedenti
colonne da AI ad AM), AO
tempo medio di servizio in ora
e centesimi di ora. La colonna
AP contiene i valori della densità
eventi ridotta (λ) del flusso
in ora e cent. di ora definita
come il prodotto della densità λ h
per il tempo di servizio m Tser
,. I
valori di λ che descrivono i flussi
di richieste per ciascuna sede
possono essere trattati separatamente
per periodi di riferimento.
A partire dalla formula di Erlang
sono stati quindi calcolati
nelle colonne da AQ ad AU i
valori della capacità relativa Q rel
di ciascuna delle sedi per diversi
valori di λ e per un numero di
canali attivi (partenze/squadre
AIB), le variabili di decisione
comprese nel range fissato da 1
a 5 e assegnate alle colonne AZ-
BD.
L’ottimizzazione della rete delle
sedi può a questo punto essere
effettuata utilizzando come pesi
Tab. 2 - Sedi ad aree a rischio elevato, estremo e con bassa
capacità relativa di risposta.
i fattori di capacità con l’obiettivo
da massimizzare (funzione
obiettivo) identificato con la
somma delle capacità relative
delle basi (cella obiettivo nella
colonna BQ) e tra i vincoli
quello del numero complessivo
di risorse da ottimizzare (numero
di squadre già disponibili
nelle sedi operative incrementato
da quelle previste in aggiunta
in base agli accordi convenzionali)
(colonna BE).
Due mappe sintetizzano questi
dati. La prima è relativa all’indice
di rischio per ambito di
competenza delle sedi VVF
(Indice di rischio R = pericolosità
(% incendi per sede VVF
su totale nazionale per danno
ovvero aree percorse dal fuoco
in km 2 ) (metodo di classificazione
in cinque classi Quantile)
mentre la seconda è relativa alla
capacità relativa del sistema di
servizio delle sedi VVF (metodo
di classificazione in cinque classi
Quantile: estremo, elevato,
medio, basso e trascurabile).
Convertita la formulazione del
problema di ottimizzazione
in un foglio elettronico sono
diversi i sistemi di calcolo automatici
che possono fornire
una soluzione ottima della distribuzione
di risorse aggiuntive
da concordare con le Regioni,
tale da massimizzare la somme
delle capacità relative delle sedi
della rete. Tra i più elementari
linguaggi di modellizzazione si
è scelto quello di ottimizzazione
con il risolutore inserito nel
programma di foglio elettronico
Microsoft Excel.
E’ anche possibile basare empiricamente
e visivamente la distribuzione
ottimale delle risorse
a partire dall’ordinamento delle
capacità relative del sistema di
servizio dal valore più piccolo
al più grande per singoli ambiti
nel foglio elettronico utilizzato
oppure massimizzare l’efficienza
complessiva del sistema individuandola
e fissandola a priori in
una soglia minima di capacità
relativa per tutte le sedi.
Tab. 3 – Sedi ad aree a rischio estremo
con bassa capacità relativa di risposta
GEOmedia n°5-2018 n°4-2018 13
FOCUS
Conclusioni
Nel caso del nostro studio
l’applicazione del “metodo
delle code”, procedimento dedicato
di ottimizzazione nella
prospettiva della Teoria delle
Code, non solamente è riuscita
nonostante alcuni restrizioni a
modellizzare la realtà del fenomeno
incendi boschivi e del suo
contrasto attraverso la rete delle
sedi di servizio del CNVVF in
modo attendibile ma ha fornito
con i suoi risultati indicazioni
che confrontate con i dati della
stagione AIB 2017 sono risultate
del tutto soddisfacenti per lo
scopo prefisso.
Avrebbero permesso infatti
di calibrare in maniera più
adeguata la stima delle risorse
da richiedere in convenzione
da parte delle varie Regioni al
CNVVF e la loro distribuzione,
nel territorio e nei vari periodi
della campagna AIB. Il dispositivo
operativo prefigurato attraverso
l’applicazione del metodo
delle code non risulta una ipotesi
irrealistica rispetto al livello
fissato nella stagione AIB 2017
attraverso le convenzioni
A differenza di Candide-
Pangloss siamo coscienti che la
soluzione di ottimizzazione trovata
possa non essere la migliore
di quelle possibili.
In ogni caso l’aderenza alla realtà
del modello previsionale è
correlata strettamente alla quantità
e qualità delle informazioni
disponibili.
L’impatto dell’uso del Gis è
stato rilevante in quanto ha
permesso l’utilizzo pieno della
dimensione spaziale dei dati per
perseguire l’obiettivo dell’ottimizzazione
.
Va soggiunto che presso molte
Direzioni Regionali VVF allo
scopo di monitorare in tempo
reale il fenomeno degli incendi
boschivi e delle sue dinamiche
sul territorio sono stati predisposti
sistemi informative su
piattaforma dedicate Gis AS-
SET AIB che hanno riproposto
la positiva esperienza maturata
nel sisma del centro Italia 2016
consentendo di ottimizzare
l’allocazione e uso delle risorse
disponibili con continue rimodulazioni
e ottimizzazioni dei
tempi di risposta del dispositivo
e delle modalità di intervento
delle squadre sul territorio.
Ovvero la tecnologia sta consentendo
di affiancare alla fase
di pianificazione previsionale
ex ante una fase di gestione in
continua revisione e miglioramento.
Le indicazioni di metodo per
valutare il dimensionamento
delle risorse possono sicuramente
essere riproposte e nell’ambito
di studi volti a migliorare
l’efficienza dell’intera rete di
soccorso tecnico urgente.
NOTE
1 Lo studio riprende l’impostazione teorica e il metodo (“Metodo delle
code”) approntato e utilizzato da Fabrizio Di Liberto per l’ottimizzazione
della dislocazione stagionale ottimale sul territorio nazionale
della flotta aerea Antincendi Boschivi dello Stato: F. Di Liberto, “Lo
schieramento strategico ottimale per le flotte aeree antincendi boschivi”
in Silvae, anno I n. 1 (gennaio-aprile 2005), pp. 164-195.
BIBLIOGRAFIA
Adacher, L. http://ad acher.dia.uniroma3.it/automazione1/TeoriaCode.pdf.
Biagini, F. & M. Campanino (2006), Elementi di probabilità e statistica.
Springer.
Cesti, G. (1999), Antincendio boschivo, Musumeci Editore, 1999.
Conti Guglia, F. (2004) Manuale Antincendio Boschivo, sito internet:
www.ambientediritto.it.
Di Liberto, F. (gennaio-aprile 2005) “Lo schieramento strategico ottimale
per le flotte aeree antincendi boschivi” in Silvae, anno I n. 1,
pp. 164-195.
Kleinrock, L. (1992) Sistemi a coda : introduzione alla teoria delle
code, Milano, 1992.
Ventsel, E.S. (1983) Teoria delle probabilita, Edizioni Mir.
Fonti Dati statistici:
• Sistema Informativo della Montagna (SIM-FEI / AIBfn), (fonte:
CFS)
• Dati statistici Parchi Nazionali – Sito istituzionale DPN, (fonte:
MATTM)
• EFFIS – European Forest Fires Information System, (fonte: EFFIS-
UE)
Nelle mappe le aree in bianco segnalano la mancanza di dati.
ABSTRACT
In recent decades the literature on rescue systems has recorded a very
large number of contributions that have used, while declining according
to different perspectives, the Queue Theory to prepare procedures
and models to understand their behavior, measure and optimize performance
in terms of efficiency of the service rendered in the territory
by these particular systemic structures so important from a social point
of view.
These are very complex structures because of the predictable and
unpredictable factors of variability that intervene both in terms of the
number of requests and the time necessary to satisfy them.
PAROLE CHIAVE
Incendi; tecnologie geospaziali; distribuzione risorse; ottimizzazione
AUTORE
Michele Fasolo
michelefasolo@gmail.com
14 GEOmedia n°5-2018
14 GEOmedia n°4-2018
FOCUS
GEOmedia n°5-2018 15
REPORT
Studio comparativo tra lo stato dei
luoghi prima e dopo l’incendio del
Vesuvio tramite analisi satellitare
di Massimiliano Moraca, Antonio Pepe
Un incendio di vaste proporzioni ha
interessato il Vesuvio ed il Monte Somma
a metà Luglio 2017, distruggendo vaste
aree di vegetazione sia all’interno che
all’esterno del Parco Nazionale del
Vesuvio: in questo elaborato è stato
effettuato uno studio comparativo tra
lo stato dei luoghi prima dell’incendio
e dopo l’incendio, mediante immagini
satellitari multispettrali relative ai rilievi
Landsat 8 del 5 maggio e del 24 luglio.
Fig. 1 - RGB relativo allo stato dei luoghi al 24 luglio 2017.
A
metà luglio 2017 un
incendio di vaste proporzioni
ha interessato
il Vesuvio ed il Monte Somma
distruggendo vaste aree di vegetazione
all’interno del Parco
Nazionale del Vesuvio. Lo scopo
di questo studio è ottenere una
valutazione degli indici NDVI,
indice utile a valutare lo stato
fisiologico delle foreste e NBR,
uno degli indici più utilizzati
per mappare la severità di aree
incendiate, in modo da stimare
l’estensione dei danni provocati
dall’incendio.
Per questo studio sono state
usate immagini satellitari
multispettrali relative ai rilievi
Landsat 8 del 5 maggio e del 24
luglio 2017. Si è scelta la piattaforma
Landsat 8 piuttosto che
la Sentinel 2 nonostante i rilievi
della seconda abbiano una risoluzione
migliore della prima.
Questa scelta è stata fatta per tre
ordini di motivi:
4nei mesi subito precedenti
i giorni degli incendi, per i
Sentinel 2, non erano disponibili
dati liberamente scaricabili
che non avessero copertura
nuvolosa sul Vesuvio o sul
Somma;
4si è appositamente scelto di
non effettuare operazioni di
mascheramento della copertura
nuvolosa per non alterare
i risultati relativi a NDVI e
NBR;
4non si è voluto andare a
ritroso nel tempo per non
intercettare i danni provocati
dagli incendi estivi degli anni
precedenti il 2017.
Abbiamo voluto fare, quindi,
una fotografia del pre-post
incendio usando dati quanto
più vicini e confrontabili tra
loro. Le immagini sono state
processate usando il metodo
DOS, per rimuovere i disturbi
dovuti all’atmosfera terrestre, e
successivamente si è proceduto
ad una loro ulteriore elaborazione,
con il Pan-sharpening,
mirata a ridurre la risoluzione
delle immagini satellitari portandola
così da 30m/px a 15m/
px. Il processo elaborativo è
stato condotto usando esclusivamente
il software open source
QGIS, nella versione 2.18, ed il
Semi-Automatic Classification
Plug-in.
Remote Sensing
L’essere umano riesce ad identi-
16 GEOmedia n°5-2018
REPORT
ficare ed interpretare il territorio
grazie al processo di elaborazione
della luce effettuato dall’occhio.
L’occhio umano è assimilabile
al sensore che, montato su
un satellite o su un aeromobile,
analizza la luce solare e ne restituisce
un input interpretato dal
cervello.
La luce, cioè la radiazione visibile,
è una piccola parte della
radiazione elettromagnetica
ed insieme ad altre tipologie
di radiazioni forma lo spettro
elettromagnetico. Parliamo di
radiazione poichè facciamo riferimento
a quel processo fisico
per cui l’energia è trasportata da
un corpo ad un altro attraverso
il vuoto, quindi non per contatto
tra i corpi.
Con lo spettro elettromagnetico
andiamo a rappresentare su un
asse le lunghezze d’onda dei vari
tipi di radiazioni.
Lo spettro del visibile è solo
una piccolissima parte dello
spettro elettromagnetico
che va dai raggi Y, con lunghezza
d’onda nell’ordine
dell’Å(ångström), alle onde
radio, con lunghezza d’onda superiore
ai 100km. Per il remote
sensing le regioni significative
vanno dall’ultravioletto(UV) al
microonde(MW).
La radiazione elettromagnetica
risulta quindi fondamentale per
questo tipo di studi, essa risulta
essere trasportata dai fotoni,
secondo la teoria quantistica, e
l’energia trasmessa attraverso di
essi è detta energia radiante, Q.
A noi interessa una grandezza
ben specifica derivante dall’energia
radiante e cioè il flusso
di energia radiante, , che è la
quantità di energia trasportata
in un certo tempo:
passa attraverso una certa area.
Se esso fuoriesce da una fonte
energetica abbiamo l’exitanza,
M, misurata in:
Se invece un corpo ne è colpito
abbiamo l’irradianza, E,
anch’essa espressa in:
Una ulteriore grandezza radiometrica
fondamentale per il
remote sensing, anche perchè
risulta essere quella effettivamente
misurata dal sensore, è
la radianza, L, e cioè il flusso
radiante attraverso un’area ed
un certo angolo di osservazione.
Tale grandezza è espressa in in
cui sr è lo steradiante 1 :
in cui q è l’angolo di osservazione
e w è la normale alla superficie
osservata.
Tutto i corpi che sono ad una
temperatura superiore allo
zero assoluto emettono energia
elettromagnetica, in particolare
ogni tipologia di materiale
emette una propria firma
spettrale(Dainelli, 2011).
DOS e Pan-sharpening
Nell’utilizzo dei dati da rilievo
satellitare è importante andare
a rimuovere gli effetti deteriorativi
della qualità dell’immagine
che l’atmosfera terrestre
imprime su di esse. L’atmosfera
Fig. 2 - Lo spettro elettromagnetico. Da “L’osservazione
della Terra – Telerilevamento.”
Fig. 3 - Firme spettrali di alcuni materiali.
terrestre infatti attiva effetti
di dispersione, assorbimento
e riflessione della radiazione
elettromagnetica. Tali effetti
vanno rimossi per una corretta
analisi dei dati. In questo
studio è stata usato il metodo
DOS - Dark Object Subtraction
- ideato da Pat S. Chavez jr nel
1996 (Pat S.Chaver, 1996) ed
i cui algoritmi sono riportati
nel plugin di QGIS “Semi-
Automatic Classification Plugin”
(Congedo, 2016).
Il metodo DOS rimuove i pixel
neri dalle immagini rendendola
più nitida poichè parte dal
presupposto che alcuni pixel
riproducono aree che sono in
completa ombra e la radiazione
al satellite è dovuta all’effetto
di dispersione atmosferica; ciò
è combinato con il fatto che
pochissimi target al suolo sono
Tale flusso è espresso in Watt.
E’ di rilievo considerare anche
il flusso di energia radiante che
Fig. 4 - Comparazione delle bande multispettrali delle missioni Landsat.
GEOmedia n°5-2018 17
REPORT
di un nero intenso, è ipotizzata
quindi una riflettanza 2 dell’1%.
In gergo tecnico si dice che
con la rimozione dei disturbi si
“portano le immagini al di sotto
dell’atmosfera terrestre”. Per i
dati rilevati da aeromobile non
è necessario utilizzare nessuna
tecnica di rimozione degli effetti
di disturbo dell’atmosfera
terrestre.
Per migliorare la qualità
dell’output del nostro studio
è stata usata la tecnica del
Pan-Sharpening per ridurre
la risoluzione delle immagini
Landsat 8. Il Pan-Sharpening
o Panchromatic Sharpening è
una tecnica che sfrutta la banda
pancromatica combinandola
con le bande multispettrali
andando così a ridurre la risoluzione
spaziale delle bande
multispettrali. Anche per i processi
relativi al Pan-Sharpening
è stato usato il Semi-Automatic
Classification Plug-in.
Landsat 8
Il programma Landsat fornisce
immagini satellitari della superficie
terrestre da 45 anni; è
ampia e varia la comunità degli
utilizzatori dei dati Landsat
si va dai settori del business a
quelli della scienza e ricerca, il
governo del territorio e la sicurezza
nazionale.
Il programma Landsat prevede
l’acquisizione continua ed in
bande multispettrali di immagini
dell’intero globo terrestre,
producendo il più vasto archivio
di rilievi satellitari accessibile
per lo più gratuitamente da
chiunque.
Fig. 6 - Comparazione tra bande Landsat 7 e 8 (Landsat 8 Data
Users Handbook).
Il programma Landsat è gestito
dall’USGS - United States
Geological Survey - e dalla
NASA - National Aeronautics
and Space Administration - e
vede il lancio del primo satellite,
il Landsat 1, nel 1972; l’ultimo,
il Landsat 8, è stato messo
in orbita nel 2013.
Il Landsat 1 aveva una risoluzione
al suolo di 80m/px e 4
bande multispettrali; Landsat
2 e 3, lanciati rispettivamente
nel 1975 e nel 1978, avevano
una configurazione simile al
Landsat 1. Landsat 4, lanciato
nel 1984 aveva una risoluzione
di 30m/px e 7 bande multispettrali;
Landsat 5 era una copia
del 4 e fu lanciato nello stesso
anno. Landsat 6 andò perso
subito dopo il lancio nel 1993
perchè non riuscì a marcare
l’orbita. Landsat 7, lanciato nel
1999, aveva 8 bande multispettrali
a 30m/px di cui una pancromatica
a 15m/px.
Landsat 8 effettua un passaggio
sullo stesso punto della superficie
terrestre ogni 16 giorni, è
posto su un’orbita quasi polare,
elio-sincrona, circolare, ad una
quota di 705 km e rileva immagini
multispettrali a 11 bande.
Landsat 8 monta due importanti
sensori passivi 3 : OLI
- Operational Land Imager - e
TIRS - Thermal Infrared Sensor.
L’OLI ha un telescopio a quattro
specchi ed elabora immagini
a 12bit rispetto agli 8bit dei
sensori TM & ETM+.
Raccoglie immagini in 9 bande
multispettrali di cui 8 con risoluzione
pari a 30m/px ed una,
la banda pancromatica, a risoluzione
di 15m/px.
In particolare la banda pancromatica
è una risoluzione
minore rispetto alle altre
per accentuare il contrasto
tra aree vegetate ed aree senza
copertura vegetale.
La comparazione tra le
bande del Landsat 7 e del
Fig. 5 - Sensoristica a bordo del Landsat 8 (Landsat
8 Data Users Handbook).
Landsat 8 mettono in evidenza
le differenze tra le due piattaforme
presenti non solo per la
differente lunghezza d’onda
della sensoristica ma anche per
la presenza di ulteriori bande;
nello specifico la banda 1, la 9
e le bande 10 ed 11 relative al
TIRS.
La banda 1 è stata introdotta
per l’osservazione degli oceani,
la banda 9 è utile invece per
l’osservazione delle coperture
nuvolose anche sottili.
Le bande 10 ed 11, relative al
sensore TIRS, sono usate per
monitorare la temperatura della
superficie terrestre. TIRS utilizza
fotorivelatori a infrarossi
quantici QWIP - Quantum
Well Infrared Photodetectors - per
misurare l’energia termica a
infrarossi a onde lunghe (TIR)
emessa dalla superficie terrestre.
I QWIP di TIRS sono sensibili
a due bande di lunghezza d’onda
dell’infrarosso termico, consentendo
la separazione della
temperatura della superficie terrestre
da quella dell’atmosfera.
Dati usati e metodologia
Lo studio è stato condotto secondo
le seguenti fasi:
18 GEOmedia n°5-2018
REPORT
1. Individuazione del periodo
di interesse;
a. Raccolta dei tiles
Landsat 8;
b. Scrematura degli
stessi finalizzata
all’individuazione di
due dataset riferiti ad
altrettanti giorni utili
ai nostri scopi;
2. Pre-processamento dei
dataset;
a. Rimozione dei disturbi
dell’atmosfera
tramite DOS;
b. Aumento della risoluzione
del dataset tramite
Pan-Sharpening;
3. Post-processamento dei
dataset;
a. Calcolo di NDVI,
NBR;
b. Campionamento
della temperatura al
suolo;
c. Intersezione tra NBR
e Corine Land Cover.
I dati per il nostro studio sono
stati prelevati dal sito web
EarthExplorer dell’USGS effettuando
una prima scrematura
dei tile prima del download.
Successivamente con l’utilizzo
congiunto di QGIS e del Semiautomatic
Classification Plugin
è stato applicato il metodo
DOS sia al tile del 5 maggio
2017 sia a quello del 24 luglio
2017, metodo applicato ad
ognuna delle 11 bande dei singoli
tile.
L’output di questo primo processo
è stato rielaborato con il
Pan-Sharpening per ottenere
un output finale ad una risoluzione
di 15m/px, dimezzando
la risoluzione rispetto ai 30m/
px iniziali. Per questo processo
è stata combinata la banda 8,
la banda pancromatica, con le
bande da 2 a 7, cioè le bande
multispettrali.
Nell’immagine che segue è
indicato il flusso di lavoro per
Fig .7 - Flusso di lavoro sui dati Landsat 8.
entrambe le operazioni appena
indicate.
Il nuovo set di bande è stato riutilizzato
per la determinazione
degli indici NDVI - Normalized
DIfference Vegetation Index - e
NBR - Normalized Burn Ratio
-, indici che verranno approfonditi
nel paragrafo successivo.
Una delle prime analisi effettuate
è stata quella relativa alla
comparazione della temperatura
al suolo pre e post incendio
sfruttando la banda 10 TIRS.
Abbiamo rilevato 5 punti di
campionamento a cui abbiamo
associato il dato termico pre e
post incendio tramite join spaziale.
L’indice NBR ci ha consentito
di individuare, tramite differenza
pre-post incendio, l’area del
Parco Nazionale del Vesuvio in
cui si sono avuti i maggiori danni;
successivamente abbiamo
riclassificato e vettorializzato il
raster di differenza ottenuto in
Fig. 8 - Bande su cui si è condotto lo studio.
modo da avere una copertura
di tipo poligonale e vettoriale
dell’area di nostro interesse.
Tale dato è stato interpolato
con il vettore poligonale della
CLC 2012 - Corine Land
Cover -, prelevato dal sito web
Copernicus, tramite operazioni
di geoprocessing in modo da
ottenere una correlazione tra
il tipo di danno ed il tipo di
copertura del suolo. Dal vettore
poligonale così ottenuto sono
state estratte le estensioni delle
singole tipologie di suolo danneggiate.
Analisi dei risultati
Normalized Difference
Vegetation Index
Le piante sono caratterizzate da
un particolare firma spettrale.
Il loro comportamento nei
confronti della luce è influenzato
dalla attività dei pigmenti
(clorofilla, carotenoidi, antociani).
La clorofilla infatti ha un
GEOmedia n°5-2018 19
REPORT
Fig.10 - Firma spettrale dei vegetali tra i 400 e 950 nm.
picco di assorbimento nelle
lunghezze d’onda del rosso visibile,
mentre la struttura cellulare
delle foglie tende a riflettere
l’infrarosso. L’attività fotosintetica
influenza quindi la quantità
di luce assorbita e trasmessa
che viene rilevata dal satellite.
Utilizzando questo principio
è possibile monitorare lo stato
di salute del bosco ed eventuali
problemi (stress idrico, patologie,
incendi) che abbassano la
quantità di fotosintesi (Weier &
Herring, 2000).
Per quantificare la capacità
fotosintetica delle foreste viene
utilizzato l’Indice di Area
Fogliare (LAI, Leaf Area Index),
un indice che misura la quantità
di superficie fogliare fotosinteticamente
attiva per unità
di superficie di suolo (Bolstad,
1990). Il LAI può essere misurato
in capo tramite appositi
sensori ottici. Calcolare il LAI
in campo però risulta dispendioso
se non impossibile per
grandi superfici. Una valida
alternativa è l’utilizzo di indici
satellitari che consentono un
monitoraggio duraturo nel
tempo e anche per quelle aree
di difficile accessibilità. Per valutare
lo stato fisiologico delle
foreste vesuviane è stato utilizzato
l’indice di vegetazione normalizzato
(NDVI - Normalized
DIfference Vegetation Index),
uno degli indicatori più usati
per monitorare l’evolversi della
vegetazione nel tempo e soprattutto
un indice che in diversi
ambienti può quantificare in
modo ottimale l’area fogliare
fotosinteticamente attiva e
mostra una forte correlazione
con il LAI (Quan Wang 2005)
(Carlson 1997). Molti indici
inoltre, essendo sviluppati
nel centro-nord Europa e in
America settentrionale sono
calibrati per funzionare nel macro-clima
temperato, risultando
problematici in ambiente mediterraneo.
L’NDVI è uno dei
pochi indici ad avere una correlazione
lineare con i dati rilevati
empiricamente in campo su
superfici incendiate in ambiente
mediterraneo (Veraverbeke
et al. 2011). L’indice è calcolato
come rapporto tra differenza
e somma delle bande con lunghezza
d’onda nel vicino infrarosso
(r nir
) e rosso (r red
):
Fig. 9 - Assorbimento e riflessione della luce da parte dei
pigmenti vegetali.
Questo indice infatti, per i
motivi fisiologici già descritti,
ci indica innanzitutto la
presenza o meno di chiome.
Considerando infatti che le
foglie assorbono il rosso e riflettono
l’infrarosso (Fig. 10)
se vi è più radiazione riflessa
nel vicino infrarosso rispetto a
quella nelle lunghezze d’onda
del rosso, allora è probabile che
in quel pixel la vegetazione sia
maggiormente densa e fotosinteticamente
attiva. Essendo
legato anche alla capacità di
fotosintesi, le variazioni del
rapporto tra le due bande sono
spesso utilizzate per una quantificazione
di danno o stress che
rifletta lo stato di salute della
copertura arborea. I valori di
NDVI sono compresi tra -1
e 1, tende ad assumere valori
tanto più positivi quanto più è
presente una vegetazione fitta,
con grossa presenza di clorofilla.
Le foreste che si attestano ad
un valore medio che oscilla tra
0.7 a 0.9 a seconda del tipo di
vegetazione. Valore che scende
a 0.2/0.3 nel caso di formazioni
ad habitus erbaceo e scende
ulteriormente per le superfici
prive di vegetazione.
Il valore del NDVI non è costante
tutto l’anno ed è strettamente
legato alla fenologia
della specie. Si pensi ad esempio
alle specie a foglia caduca, che
in inverno non hanno attività
fotosintetica, in tal caso il bosco
avrà un valore di NDVI bassissimo
nel periodo invernale
(dovuto per lo più al suolo visibile)
con un rapido incremento
in primavera. Successivamente
l’indice tende a “saturarsi”, non
rilevando cambiamenti sostanziali
durante il periodo estivo.
Dopo il rapido incremento
primaverile i valori di NDVI
raggiungono quindi un plateau
e rimangono stabili fino ad un
decremento autunnale. Nel
monitorare quindi la variazione
di NDVI di un singolo evento
bisogna scegliere un intervallo
di date non troppo distanti tra
loro e che ricadano all’interno
della fase estiva, con valori di
NDVI stabili, affinchè la fenologia
non influenzi i risultati e
si possa isolare solamente l’effetto
dell’evento dannoso, nel
nostro caso un incendio.
20 GEOmedia n°5-2018
REPORT
Le immagini multispettrali del
satellite Landsat 8 sono state
quindi processate per il calcolo
del NDVI, utilizzando nel
nostro caso le bande 4 e 5 del
satellite Landsat 8. Sono stati
scelti due voli, uno antecedente
l’incendio uno posteriore. La
scelta è ricaduta sui voli del
05/05/2017 e 24/07/2017. I
voli sono stati scelti anche in
base all’assenza di nuvolosità. La
differenza del valore di NDVI
è in grado di restituirci una valutazione
sia quantitativa della
superficie danneggiata, sia qualitativa,
in base alle superficie
delle chiome rimaste fotosinteticamente
attive. Superfici maggiormente
danneggiate avranno
infatti un calo più drastico del
valore di NDVI. Al variare delle
condizioni della chioma e della
presenza di clorofilla varierà il
rapporto tra la riflessioni del
rosso e dell’infrarosso, restituendoci
quindi una variazione del
valore di NDVI. Questo indice
è stato scelto per monitorare
lo stato delle foreste vesuviane
per via del suo valore di sintesi
delle condizioni del bosco.
Delimitare la superficie bruciata
(che vedremo più avanti) infatti
non è sufficiente, l’NDVI
ci restituisce un riassunto del
danno ecologico e fisiologico
subito dalle foreste, restituendoci
quindi un’immagine del
vero danno ambientale causato
dall’incendio.
Tramite una semplice differenza
algebrica dei due voli otteniamo
la variazione di NDVI (ΔNDVI)
prima e dopo l’incendio. È
possibile notare come buona
parte delle foreste vesuviane
abbia perso almeno 0.2 punti di
NDVI, risultando quindi gravemente
danneggiata. L’intera
stazione Vesuviana ha subito un
calo dell’NDVI medio di tutta
la superficie forestale di 0.28
punti. Sul versante meridionale
nei comuni di Torre del Greco,
Fig. 11 - Differenza di NDVI tra il 5 maggio ed il 24 luglio.
Trecase e Boscotrecase, si registrano
ampie superfici con
una perdita di circa 0.6 punti,
valori estremamente elevati che
confermano una totale distruzione
delle chiome arboree. La
differenza di NDVI ha valori
significativi anche in tutta l’area
arbustiva della parte alta del
vesuvio, circondante il cratere.
Valori leggermente negativi visibili
sporadicamente caratterizzano
quelle aree che hanno visto
un aumento, seppur leggerissimo,
del valore di NDVI nella
finestra temporale considerata.
Questo rinverdimento delle
chiome non danneggiate è del
tutto naturale dato l’inoltrarsi
della stagione vegetativa; ciò è
avvenuto soprattutto sul versante
Nord, quello del monte
Somma dove l’incendio è stato
di gran lunga meno impattante.
Il Somma infatti ha visto
infatti una diminuzione media
dell’NDVI molto minore (una
diminuzione di 0.09). Il monte
Somma infatti, considerata la
sua esposizione settentrionale
presenta generalmente una
condizione di maggiore umidità.
La vegetazione inoltre è
completamente differente per i
due versanti: l’umidità e la lontananza
dalle distruttive colate
laviche hanno consentito uno
evoluzione della vegetazione
verso stadi più maturi. caratterizzati
da specie come pioppo,
ontano, acero, castagno. A differenza
delle pinete dei versanti
meridionali, gli habitat formati
da queste specie (boschi di latifoglie
decidue) presentano una
minore incendiabilità e una resistenza
al propagarsi del fuoco.
Per i suoli agrari o nudi (privi
quindi di vegetazione) invece
il risultato è da considerarsi un
dato non significativo poiché
dovuto a diverse cause come
cambio di coltura del suolo
agricolo, lavorazioni stagionali
o differenti condizioni di umidità
del suolo.
Normalized Burn Ratio
L’NDVI è però incompleto per
definire il danno e le superfici
causate da un incendio in ambiente
mediterraneo (Pereira
1999). Il NBR (Normalized
Burn Ratio) è uno degli indici
GEOmedia n°5-2018 21
REPORT
Fig.12 - Firma spettrale dei vegetali (verde) e delle aree incendiate (rosso).
più utilizzati per mappare la
severità di aree incendiate in
diversi ambienti, incluso il macroclima
mediterraneo (Boer
2008). L’NBR nacque inizialmente
come strumento per
delimitare le aree incendiate, fin
quando diversi studi (Key and
Benson 2006) non utilizzarono
il ΔNBR come indice per la severità
dell’incendio. Ad oggi è
largamente applicato insieme a
dati di origine satellitare e per
la sua affidabilità è utilizzato
all’interno di FireMon, un sistema
per il monitoraggio degli
incendi utilizzato negli USA.
Come l’NDVI anche questo
indice si basa su alcune caratteristiche
della firma spettrale
dei vegetali. Come già detto
una vegetazione in normale
stato di salute e produttività
mostrerà un picco di riflettanza
nel campo del cosiddetto vicino
infrarosso (NIR), valore invece
debole all’interno dell’infrarosso
ad onde corte (SWIR, Short-
Wave InfraRed) (Fig. 12).
A seguito di un incendio e
quindi di una perdita del materiale
fotosintetizzante, la
riflettanza nel NIR sarà calata
drasticamente. Nelle aree incendiate
inoltre potremo notare
un netto aumento di riflettanza
nello SWIR. Il rapporto tra i
valori di riflettanza nel NIR
e nello SWIR ci può quindi
aiutare nel delimitare le aree
che hanno subito un cambiamento
di copertura del suolo a
causa di un incendio. In maniera
molto simile a come già visto
per l’NDVI l’indice si basa sul
rapporto tra la differenza e la
somma delle due bande considerate:
Per quanto riguarda le bande
da utilizzare nel presente lavoro
sono state utilizzate le bande 7
e 5. Il Landsat 8 possiede ben
due bande nello SWIR (6 e 7)
con lunghezze d’onda differenti.
Le lunghezze d’onda utilizzate
per lo sviluppo nell’NBR
sono quelle tra i 2080 e 2350
nanometri, corrispondenti
per il Landsat 8 alla banda 7
(Fig.6).
Il ΔNBR non è altro che la
variazione del valore di NBR
di una determinata superficie,
prima e dopo l’incendio.
Dopo aver calcolato il ΔNBR
è necessaria una catalogazione
dei suoi valori per poterne interpretare
i risultati. Una delle
classificazioni più utilizzate per
ΔNBR
0.27 < Danni lievi o nulli
tra 0.27 e 0.44
tra 0.44 e 0.66
l’analisi del ΔNBR è quella usata
dalla USDA (United States
Department of Agriculture), i
cui valori soglia sono di seguito
riportati nella tabella a fondo
pagina.
La classificazione originale prevede
ulteriori differenziazioni.
Alcune di esse utilizzabili in
altri contesti come la delimitazione
di aree incendiate ricolonizzate
dalla vegetazione (valori
negativi di ΔNBR). La classe
“danni lievi o nulli” prevede
inoltre un ulteriore divisione
in “danni lievi” e “non danneggiato”.
Per capire il perchè
dell’accorpamento effettuato
all’interno di questo studio bisogna
innanzitutto considerare
le differenze climatiche e vegetazionali
tra l’ambiente mediterraneo
e quello nord-americano.
Questa classificazione dei valori
NBR è infatti calibrata per funzionare
principalmente nel macroclima
temperato delle foreste
nordamericane. Le foreste mediterranee
hanno valori diversi
di riflettanza, dovuti in parte
alla struttura stessa della macchia
mediterranea ed in parte
alle strutture fogliari completamente
diverse tra le latifoglie
decidue americane e la macchia
sempreverde mediterranea.
Questo influenza ovviamente
tutti gli indici vegetazionali:
l’NDVI di un ginestreto (comune
sul Vesuvio) può risultare
inferiore anche di diversi decimi
di punto rispetto ad una foresta
temperata (Telesca 2005). In
ambiente mediterraneo quindi
la classe più bassa, quella dei
danni di lieve entità risulterebbe
essere per buona parte formata
Intensità del danno
Danni moderatamente bassi
Danni moderatamente alti
> 0.66 Danni severamente elevati
22 GEOmedia n°5-2018
REPORT
Fig. 13 - Entità dei danni all’interno del parco nazionale del vesuvio calcolati
tramite il ΔNBR.
Fig. 14 - Estratto di Corine Land Cover 2012.
Fig. 15 - Distribuzione delle tipologie di danno
estratte dal NBR.
da falsi positivi ed ogni metodo
di selezione potrebbe risultare
privo di oggettività e standardizzazione,
vista l’assenza di
studi precedenti. Inoltre la scelta
è anche di natura pratica: il
presente lavoro vuole individuare
le aree interessanti per futuri
studi o interventi gestionali. Le
aree debolmente danneggiate
potrebbero ritornare alle condizioni
precedenti l’incendio
in poco tempo grazie alla loro
resilienza. Riteniamo quindi
ben più interessante limitare le
aree sicuramente danneggiate,
eseguende una lieve approssimazione
per difetto piuttosto
che per eccesso.
Classificazione dei suolo interessati
dall’incendio
Con l’ausilio della Corine Land
Cover 4 aggiornata al 2012 e tecniche
di geoprocessing, è stata
effettuata una comparazione
con la perimetrazione delle aree
incendiate al fine di stimare l’estensione
del danno e le specie
vegetali interessate dallo stesso.
Dalla comparazione sono state
escluse le aree urbane riportate
nella CLC.
Dall’analisi si è evidenziato che
le tipologie di suolo ad aver
subito il danno maggiore sono
le aree a vegetazione boschiva
ed arbustiva in evoluzione, seguite
poi dai boschi di conifere.
La presenza di danni anche in
aree a rocce nude, falesie, rupi,
affioramenti è dovuta alla distruzione
di quel minimo di vegetazione,
per lo più arbustiva,
che interessava le zone.
Tipo di suolo
Queste aree sono per lo più localizzate
sul cono del Vesuvio e
sulle recenti colate laviche.
Nel grafico è stata comparata
l’estensione delle tipologie di
suolo pre incendio e post incendio.
Nella tabella a fondo pagina è
riportata la stima delle estensioni,
in ettari, delle tipologie di
danno in funzione del tipo di
suolo.
Nella tabella a pagina seuente
invece riportata la variazione
dell’estensione delle tipologie di
suolo pre e post incendio, oltre
che il computo totale dei danni,
in ettari.
Sommando le estensioni pre e
post incendio delle aree boschive,
e cioè:
4Aree a vegetazione boschiva
ed arbustiva in evoluzione
4Boschi di conifere
Estensione pre
incendio
Estensione post
incendio
Estensione danni
Aree a vegetazione boschiva ed arbustiva in
evoluzione
1.024,43 507,70 516,73
Aree con vegetazione rada 90,02 56,10 33,91
Aree prevalentemente occupate da colture agrarie
con presenze di spazi naturali importanti
1.284,80 1.256,13 28,67
Boschi di conifere 698,81 249,94 448,88
Boschi di latifoglie 1.605,49 1.360,67 244,82
Boschi misti conifere e latifoglie 820,18 626,89 193,29
Frutteti e frutti minori 766,04 738,81 27,23
Rocce nude, falesie, rupi, affioramenti 255,62 205,31 50,31
Sistemi colturali e particellari complessi 1.158,11 1.055,09 103,02
Totale 7.703,51 6.056,65 1.646,86
GEOmedia n°5-2018 23
TELERILEVAMENTO
REPORT
Tipo di suolo
4Boschi di latifoglie
4Boschi misti conifere e la
tifoglie
risulta che prima degli eventi di
luglio, la macroarea bosco, aveva
una estensione di 4.148,92
Ha, ridotta a 2.745,21 Ha a
seguito dell’incendio. Si sono
persi quindi 1.403,72 Ha di
boschi.
Danni severamente
elevati
Danni
moderatamente alti
Danni
moderatamente
bassi
Aree a vegetazione boschiva ed arbustiva in
evoluzione
57,97 180,14 278,62
Aree con vegetazione rada 0,14 6,68 27,10
Aree prevalentemente occupate da colture agrarie
con presenze di spazi naturali importanti
1,45 5,92 21,29
Boschi di conifere 191,24 95,29 162,35
Boschi di latifoglie 15,40 75,16 154,26
Boschi misti conifere e latifoglie 37,37 47,29 108,63
Frutteti e frutti minori 0,33 7,27 19,63
Rocce nude, falesie, rupi, affioramenti 1,05 16,95 32,31
Sistemi colturali e particellari complessi 7,13 29,63 66,26
Totale 312,08 464,33 870,45
Temperatura
I rilievi 1 e 2 fanno riferimento
ad un’area boschiva totalmente
danneggiata, il 3 fa riferimento
ad un’area boschiva debolmente
danneggiata, mentre il 4 è in
un’area boschiva non interessata
dagli incendi ed il 5 è in area
urbana. Come si nota dal grafico
la aree boschive pre incendio
avevano una temperatura abbastanza
normalizzata, con 4°C
di scarto; mentre la differenza
di temperatura era molto più
accentuata tra area boschiva ed
urbana. Dopo l’incendio nelle
aree boschive danneggiate si è
avuto un netto aumento della
temperatura che risulta essere
anche più elevata di quella del
punto censito in area urbana.
Il confronto dei dati termici risulta
essere una forzatura poiché
andrebbe fatto un confronto
simile mantenendo costanti le
variabili al contorno con l’unica
eccezione del dato relativo al
suolo. Nonostante ciò abbiamo
voluto effettuare lo stesso
il confronto poiché si è voluto
evidenziare l’effetto di mitigazione
micro e mesoclimatica di
un’area boschiva.
Conclusioni
L’obiettivo del presente studio è
stato quello di comparare lo stato
delle foreste vesuviane prima
e dopo l’impatto del terribile
incendio verificatosi nel luglio
2017. La caratterizzazione ha
previsto l’utilizzo di più indici
satellitari applicati allo studio
della vegetazione.
L’NDVI, un indice basilare
nello studio dell’ecologia forestale,
che ci ha consentito di
capire quanto sia stata alterata
la funzione ecologica del bosco.
L’NDVI è infatti legato all’attività
fisiologica degli esemplari
arborei ed un suo drastico calo
vuol dire calo nella produttività
legnosa, calo nella capacità di
stoccare anidride carbonica,
calo nella capacità di regimazione
delle acque e di termoregolazione.
Tale capacità del bosco è stata
inoltre confermata dalla misura
dell’aumento di Temperatura
nelle aree private dalla vegetazione,
rispetto a quelle che
avevano subito lievi danni e
in cui la vegetazione non era
scomparsa.
L’utilizzo dell’NBR, un indice
che ci ha consentito di delimitare
le aree incendiate e catalogarle
per entità del danno. Ciò ci
ha consentito di poter superare
MONITORAGGIO 3D
GIS E WEBGIS
www.gter.it
info@gter.it
24 GEOmedia n°5-2018
GNSS
FORMAZIONE
RICERCA E INNOVAZIONE
REPORT
Fig. 16 - Confronto tra aree interessate dagli incendi e tipologie di suolo incendiate.
Fig. 17 - Estensione delle tipologie di suoli pre e post incendi.
temporalmente il report di
Copernicus, che perimetrava le
aree fino al 16 luglio, quando
l’incendio era ancora in corso.
il 24 luglio, ad incendio terminato,
erano 1.878 gli ettari di
bosco andati persi.
L’incrocio con i dati di copertura
del suolo del progetto Corine
Land Cover ci ha consentito di
poter analizzare quali tipologie
vegetazionali fossero risultate
maggiormente danneggiate dal
fuoco: i boschi di conifere e le
aree arbustive (di macchia o
in evoluzione). In ciò è riscontrabile
una colpa antropica da
ricercare a monte: Nei decenni
passati infatti l’abbandono
selvicolturale del patrimonio
boschivo ha gettato le basi per
questo annus horribilis a cui
abbiamo assistito. Pinete di
origine antropica come quelle
vesuviane infatti richiederebbero
un periodico diradamento
nel numero di esemplari, che
per motivi economici non viene
più effettuato. Si assiste così ad
un accumulo di necromassa, un
potenziale combustibile, soprattutto
nel caso
di una conifera
resinosa
come il Pino.
I rami secchi
e gli alberi
caduti inoltre
costituiscono
una via di
collegamento
tra il suolo
e lo strato
delle chiome,
trasformando
gli incendi di superficie in più
dannosi incendi di chioma.
Non a caso infatti la gran parte
dell’incendio ha riguardato i boschi
di conifere. Il 75% di essi
è andato distrutto. Le pinete
inoltre vigevano in un pessimo
stato fitosanitario. Erano rese
più vulnerabili da un fortissimo
attacco di Cocciniglia tartaruga
(Toumeyella parvicornis ), insetto
alloctono ed invasivo che dal
2015 è sbarcato in Campania.
Nello stesso anno era stata riportata
la diffusa presenza di un
fungo patogeno, Diplodia africana
(Cristinzio, 2015). Tutto
Fig. 18 - Confronto tra rilievi pre e post incendio.
ciò ha reso ancor più precaria
la condizione degli esemplari di
Pinus pinea locali. Seguendo la
classificazione di Corine Land
Cover, un’altra categoria fortemente
colpita è quella della “vegetazione
boschiva ed arbustiva
in evoluzione” ed anche in questo
possiamo scorgere gli effetti
della passata azione dell’uomo.
In questa categoria infatti rientrato
le estesissime distese
di Ginestra Etnea (Genista
aetnensis) un arbusto che non
appartiene alla flora vesuviana,
ma fu piantato dall’uomo per
stabilizzare i versanti e prevedibilmente,
come molte specie
aliene, ha preso il sopravvento,
trasformando molte aree che
una volta erano suolo nudo in
una fitta vegetazione arbustiva,
secca e sensibile al fuoco.
Un’altra causa scatenante è stata
certamente la natura del territorio:
la velocità di propagazione
di incendi di chioma è correlata
alla pendenza del territorio,
Fig. 19 - Rilievi Landsat 8 della temperatura al suolo; pre incendio (a sinistra), post incendio (a destra).
GEOmedia n°5-2018 25
REPORT
che nel caso delle pendici vesuviane
è elevata. La velocità
ha consentito all’incendio di
espandersi lungo un fronte
tanto ampio quanto difficile
da contrastare, facendo danni
anche nei giorni successivi
all’inizio degli interventi.
Preponderante è stata la limitata
disponibilità di mezzi
da parte delle autorità: gli incendi,
sia per la loro natura di
incendi di chioma, sia per le la
loro localizzazione, erano spesso
contrastabili solo tramite
mezzi aerei, di cui purtroppo
disponiamo in maniera limitatissima,
anche perché impegnati
negli stessi giorni già in
altri incendi.
In conclusione lo studio vuole
essere uno strumento di supporto
per ulteriori approfondimenti
e lavori riguardanti
il Vesuvio ed uno strumento
logistico fondamentale per la
progettazione di interventi di
recupero, aiutandone la localizzazione
puntuale grazie alle
analisi effettuate.
BIBLIOGRAFIA
Boer, M. (2008) Mapping burned areas and burn severity patterns in SW Australian eucalypt forest using
remotely-sensed changes in leaf area index.
Bolstad, P.V. & Gower S.T. (1990) Estimation of leaf area index in fourteen southern Wisconsin forest stands
using a portable radiometer. Tree Physiology.
Carlson, T. N. & D. A. Ripley (1997) On the relation between NDVI, fractional vegetation cover, and leaf
area index.
Congedo, L. ” (2016) Semi-Automatic Classification Plugin User Manual.
Cristinzio G. & Bosso L. (2015) Serious damage by Diplodia africana on Pinus pinea in the Vesuvius national
park (Campania region, southern italy).
Dainelli, N. (2011) L’osservazione della Terra – Telerilevamento.
Pat S. Chaver, (1996) junior - Image-Based Atmospheric Corrections - Revisited and Improved.
Pereira, J., (1999) “A comparative evaluation of NOAA-AVHRR vegetation indexes for burned surface detection
and mapping”, in IEEE Transactions on Geoscience and Remote Sensing, vol. 37, pp. 217–226.
Wang, Q., Adiku, S., Tenhunen J., Granier A. (2005) On the relationship of NDVI with leaf area index in
a deciduous forest site.
Telesca, L. & R. Lasaponara (2006) “Quantifying intra-annual persistent behavior” in Spot-Vegetation NDVI
data for Mediterranean ecosystems of southern Italy
Sander V., Lhermitte S. , Verstraeten W. W., Goossens R. (2011) Evaluation of pre/post-fire differenced
spectral indices for assessing burn severity in a Mediterranean environment with Landsat ThematicMapper.
Weier J., Herring D. (2000) Measuring Vegetation (NDVI & EVI).
NOTE
1 Lo steradiante è l’unità di misura del sistema internazione per l’angolo solido, ossia il corrispondente tridimensionale
del radiante.
2 La riflettanza, rapporto tra intensità del flusso radiante riflesso e intensità del flusso radiante incidente su un
corpo. E’ la capacità di un materiale o di una superficie di riflettere parte della luce incidente su di esso.
3 I sensori passivi sfruttano, per le loro analisi, la sola energia elettromagnetica proveniente dal corpo indagato
mentre quelli attivi, oltre a sfruttare l’energia elettromagnetica proveniente dal corpo indagato, producono
essi stessi energia utile ai fini del rilievo. I radiometri sono esempi di sensori passivi mentre i sensori radar ed
i LiDAR sono esempi di sensori attivi.
4 Il progetto Corine Land Cover (CLC) è nato a livello europeo specificamente per il rilevamento e il monitoraggio
delle caratteristiche di copertura e uso del territorio, con particolare attenzione alle esigenze di tutela
ambientale. Fonte: http://www.isprambiente.gov.it
PAROLE CHIAVE
Landsat8; change detection; Vesuvio; wildfire; NDVI; NBR; temperatura
ABSTRACT
At the half of july 2017 a big wildfire destroy a large area of Vesuvio and Mount Somma in the Vesuvio National
Park. In this work we have used Landsat8 multispectrals set of images to study the area before and after fire. We
have used tiles of 05-05-2017 and 24-07-2017. On the set of the images we have applied the DOS for pass from
TOA (Top Of the Atmosphere) to BOA (Bottom Of the Atmosphere). After this correction we have applied
the Pansharpening with the aim of improving images resolution from 30m/px to 15m/px. Therefore we have
estimate NDVI (Normalized Difference Vegetation Index), NBR (Normalized Burn Ratio) and temperature of
the ground before and after the fire.
AUTORE
Massimiliano Moraca
info@massimilianomoraca.it
Antonio Pepe
antonio.pepe.d@gmail.com
Droni Idrografici polivalenti
• Rilievi batimetrici automatizzati
• Acquisizione dati e immagini
• Mappatura parametri ambientali
• Ispezione fondali
Dighe, laghi, cave in falda, bacini, fiumi e
canali fino a 15 4 m/s. Km/h. Insensibili ai bassi ai bassi
fondali e alla presenza di alghe e detriti
Vendita - Noleggio - Servizi chiavi in mano,
anche con strumentazione cliente
26 GEOmedia n°5-2018
REPORT
GEOmedia n°5-2018 27
AEROFOTOTECA
MERCATO
L'AEROFOTOTECA
NAZIONALE RACCONTA…
la telefotografia, prima
della Grande Guerra
di Elizabeth J. Shepherd
«Nel campo della fotografia esisteva
prima della guerra una sezione
fotografica dell’Esercito,
ben nota soprattutto per le opere
di Tardivo in telefotografia e
telefotografia aerea. Queste trovarono
immediata applicazione
in guerra; e fosse dal cielo, dalla
terra o dal mare, gli esploratori
fotografi, utilizzando il buon apparato
progettato e costruito dalla
Sezione [Fotografica del Genio],
hanno dato un contribuito reale
alla conoscenza delle posizioni
nemiche. La telefotografia è stata
molto usata, soprattutto nelle regioni
alpine, e, quando la censura
lo ha consentito, i risultati sono
stati in parte pubblicati, come per
esempio i panorami della guerra
preparati sotto la direzione del
Comando Supremo dell’Esercito».
Il brano, tratto da un interessante
articolo di Giorgio Abetti,
The scientific mobilization in
Italy for the war, pubblicato sulla
rivista “Science” del 22 agosto
1919, ci fornisce il primo inquadramento
di un piccolo ma importante
nucleo di telefotografie
di grande formato conservate in
Aerofototeca Nazionale.
Le stampe ad albumina, montate
su cartone, recano il timbro
della Sezione Fotografica del 3°
Genio: si tratta di un «Panorama
fotografico verso Francia preso da
M. Valaisan” e di tre vedute romane
(la cupola di San Pietro, la
Colonna Antonina, Ponte Molle)
scattate tra 1898 e 1899 da Monte
Fig. 2 - Sezione Fotografica del 3° Reggimento Genio, La cupola di San Pietro, 1896. AFN, ICCD.
Mario, dove la Sezione aveva la
propria sede a Villa Mellini.
Dietro la realizzazione di queste
immagini, così particolari,
c’è l’attività di sperimentazione
nel settore della fotografia
“da campo” per scopi militari
di Giovanni Gargiolli, direttore
del Gabinetto Fotografico
Nazionale, e di Cesare Tardivo
della Sezione Fotografica della
Brigata Specialisti del Genio.
Tra il 1895 e la I Guerra
Mondiale la Brigata Specialisti
rappresentò un’eccellenza internazionale
in materia di aeronautica
e di fotografia, e non solo
in campo militare. Nel 1896 fu
creata, in seno alla Brigata, la
Sezione Fotografica che nel 1897
eseguì, al comando di Maurizio
Mario Moris (1860-1944) e con
il tenente Cesare Tardivo (1870-
1953), il primo rilievo aerofotografico
per mezzo di una macchina
fotografica sospesa ad un pallone
frenato, documentando un
tratto del corso del Tevere. Negli
anni seguenti la Sezione godrà di
fama internazionale per una serie
di rilievi topofotografici dal pallone:
di un tratto di 50 km del
Tevere (lavoro commissionato
dal Genio Civile) e, in collaborazione
con il Ministero della
Pubblica Istruzione, di tre celebri
aree archeologiche italiane:
il Foro Romano (varie riprese
tra 1898 e 1911, con la collaborazione
di Giacomo Boni), Pompei
(1910, con Vittorio Spinazzola) e
Ostia (1911, con Dante Vaglieri).
Tra 1906 e 1911 gli Specialisti
documentarono per il Magistrato
delle Acque anche Venezia e la
sua laguna.
Con un’accorta operazione di autopromozione,
i risultati di queste
riprese verranno presentati ai
congressi geografici, fotografici
e di fotogrammetria nazionali
ed internazionali, contribuendo
a creare all’Esercito italiano una
reputazione all’avanguardia per
progettualità e risorse.
Nei primi tempi di sperimentazione
l’aeronautica e la fotografia
furono soprattutto in mano
ai tecnici. Tra questi va indubbiamente
annoverato Giovanni
Gargiolli (1838-1913), il celebre
fondatore del Gabinetto
Fotografico Nazionale (oggi uno
degli archivi ICCD), la cui formazione
scientifica, matematica
e ingegneristica, unita alla
passione per la fotografia, ne
stimolò l’attenzione agli aspetti
progettuali dell’ottica fotografica.
La sua attività in questo campo,
inizialmente limitata alla ristretta
cerchia degli addetti ai lavori e
degli appassionati, arrivò alla notorietà
presso il grande pubblico
nel 1896, quando un articolo di
Ernesto Mancini sulla popolare
28 GEOmedia n°5-2018
Fig. 1 - Sezione Fotografica del 3° Reggimento Genio,
L’apparecchio telefotografico in azione sul Monte Mario,
1896. AFN, ICCD.
MERCATO
rivista “L’Illustrazione Italiana”
dei Fratelli Treves descrisse la
progettazione e la realizzazione
di un teleobiettivo, impiegato per
scattare foto a grande distanza da
una postazione su Monte Mario,
sede della Sezione Fotografica del
Genio. Tardivo nel 1911 ricorderà:
“fra i miei compagni di lavoro
rammento con piacere: gli ingegneri
Gargiolli, Letter e Sullam,
che nel primo periodo contribuirono
agli studi di telefotografia».
Gargiolli nel 1896 e Tardivo nel
1897 costruirono e misero in
azione un teleobiettivo ciascuno.
Con l’apparecchio Gargiolli, lungo
3 metri (fig. 1), “si vedeva così
bene Frascati da distinguere le
persone che passeggiavano sulla
piazza del paese ad una distanza
di 25 chilometri. […] i lettori
possono rilevare, confrontando
l’immagine della cupola di San
Pietro qui riprodotta, non a forte
ingrandimento, con quella piccola
data dall’obiettivo, eseguita
ad una distanza di 2250 metri,
quanto siano splendidi i risultati
ottenuti; anche i particolari
dell’agro romano che si vede
svolgersi lontanamente dietro alla
cupola, sono di una nitidezza meravigliosa»
(fig. 2).
Nel 1897 il teleobiettivo Steinheil
applicato sull’apparecchio telefotografico
“Tardivo” da 100 ingrandimenti
aveva una lunghezza
di soli metri 1,25 e una portata
di 25-30 chilometri. Di esso il
generale de la Penne lodava “una
telefotografia della Colonna
Antonina, eseguita con 250 ingrandimenti
dalla distanza di 3
km e che si presenta nelle stesse
condizioni di grandezza come se
fosse stata fatta alla distanza di 15
m con una macchina fotografica
ordinaria» (fig. 3).
Ma qual’era la differenza tra gli
apparecchi? Quello studiato da
Tardivo “non era più, come quelli
precedenti, un accoppiamento
sperimentale di elementi positivi
con altri negativi, ma costituiva
un sistema ottico a sé, in cui le varie
parti erano studiate in modo
che le une concorressero alla correzione
delle altre”. La maneggevolezza,
e poi la guerra, dichiareranno
il successo del teleobiettivo
“Tardivo”, che conoscerà successive
versioni perfezionate; il prototipo
è ancora oggi conservato
nel Museo Storico dell’Arma del
Genio di Roma, mentre di quello
“Gargiolli” sembrano oggi essersi
perse del tutto le tracce.
Fig. 3 - Sezione Fotografica del 3° Reggimento Genio, Roma,
Colonna Antonina da Monte Mario, 1899. AFN, ICCD.
Per approfondimenti e per la bibliografia
citata: E.J. Shepherd, Giovanni Gargiolli
e la telefotografia, in C. Marsicola (a c.),
Il viaggio in Italia di Giovanni Gargiolli,
Roma, 2014, 201-211.
PAROLE CHIAVE
Aerofototeca Nazionale; ICCD; telefotografia;
teleobiettivo; Gargiolli Tardivo
AUTORE
Elizabeth Jane Shepherd
elizabethjane.shepherd@beniculturali.it
Via Indipendenza, 106
46028 Sermide - Mantova - Italy
Phone +39.0386.62628
info@geogra.it
www.geogra.it
GEOmedia n°1-2018 29
REPORT
Sicurezza a scala territoriale: il ruolo
degli strumenti di supporto alle decisioni
di Stefano Marsella, Marcello Marzoli
Le problematiche da superare per
affrontare situazioni di emergenza
in caso di calamità naturali possono
essere molteplici e, soprattutto in
questi ultimi anni, richiedono specifiche
competenze in diversi ambiti. In
particolar modo si rendono sempre più
necessarie conoscenze approfondite di
tutte quelle piattaforme che possono
Fig. 1 - Lo standard NFPA 1616 individua un numero molto elevato di rischi da considerare per la
redazione dei piani di emergenza e di esodo di massa. In figura sono mostrati alcuni di quelli più
significativi, estrapolati dall'elenco del Cap. 5.
essere di supporto alle decisioni da
intraprendere in situazioni di rischio:
i cosiddetti DSS. Vediamo quali sono i
Nella notte tra il 17 ed il
18 giugno 2017 in Portogallo
erano attivi 156
incendi, causati da una intensa
ondata di calore iniziata alcuni
giorni prima. L’incendio che interessava
la zona montuosa nel
comune di Pedrogao Grande subì
nella notte un’intensificazione
rapida, che portò conseguenze
drammatiche: 66 persone decedute,
di cui 47 nella strada su una
strada rurale, intrappolati nelle
vetture o nel tentativo di fuggire a
piedi 1 . 2
Non sono ancora noti i motivi per
cui le vittime si sono trovate dove
non dovevano (mancata informazione
sulle vie di fuga? informazioni
sbagliate sulla percorribilità
di quel tratto? omissione nel bloccare
una strada divenuta pericolosa?).
Queste ed altre ipotesi sono
ancora oggetto di un’inchiesta, ma
la considerazione che interessa in
questa sede riguarda il fatto che,
negli ultimi decenni, è aumentato
il numero di calamità - di origine
naturale o antropica - nelle quali
sono morte persone che, con una
migliore organizzazione del sistema
di allarme e gestione dell’emergenza,
si sarebbero salvati,
come le 950 persone (di cui 540
studenti) coinvolti il 2 settembre
2014 nella frana Shanshucao in
Cina. In quel caso,
al primo movimento
del terreno, la rete di
monitoraggio e allarme
rapido permise di
analizzare la situazione
e dare l’allarme,
consentendo l’evacuazione
in 5 minuti
dall’edificio scolastico
[Bolin et Al.].
Realizzare sistemi
più efficaci dei piani
tradizionali e aumentare
le probabilità di
limiti degli attuali piani di emergenza a
scala territoriale, come possono essere
migliorati e il ruolo degli strumenti di
supporto alle decisioni.
sopravvivenza delle persone alle
calamità è quindi possibile. Fatta
eccezione per gli eventi improvvisi
(terremoti, esplosioni), gli strumenti
tecnologici disponibili permettono
di sfruttare l’intervallo di
tempo che intercorre tra l’inizio
dell’evento e quello in cui i suoi
effetti raggiungono le vittime potenziali
per avvertirle del pericolo
e far raggiungere loro un luogo
sicuro. A questo scopo la ricerca
ha già ampiamente dimostrato la
fattibilità di sistemi che integrano
i dati provenienti da sensori di
qualsiasi tipo, informazioni su
persone e infrastrutture e risultati
di simulazioni di eventi ed esodo,
per raggiungere il principale scopo
dei piani di emergenza: mettere in
sicurezza la popolazione attraverso
un allarme tempestivo ed una
informazione corretta su cosa fare
e su come raggiungere i luoghi
sicuri.
30 GEOmedia n°5-2018
REPORT
I limiti delle attuali pianificazioni
dell'emergenza a scala
territoriale
Quando si verifica una calamità,
le autorità che gestiscono i soccorsi
devono rispondere a domande
del tipo “un dato luogo è sicuro
rispetto alla minaccia (ad esempio,
un’onda di tsunami in arrivo)?”,
oppure “c’è il tempo per allontanare
le persone o è meglio che rimangano
nelle loro case (ad esempio,
in caso di incendi boschivi o
di nubi tossiche)?”.
La risposta che i cittadini si attendono,
in ogni caso, non può
essere preconfezionata: di volta
in volta saranno necessari dati ed
informazioni specifiche. Per quanto
si voglia spingere nel dettaglio
la pianificazione dell’emergenza,
non si potrà mai ipotizzare in
modo sufficientemente accurato
il numero delle persone coinvolte
e dove si trovano, come evolverà
la minaccia in relazione alle
condizioni meteo, come anche la
maggior parte dei dati rilevanti
per la valutazione degli effetti sulle
persone.
Molti piani di emergenza a scala
territoriale sembrano realizzati in
analogia a quelli che si predispongono
per gli edifici, nonostante
la radicale differenza che esiste tra
gli scenari: nel secondo caso, sono
note le informazioni su cosa fare
in caso di un evento (l’incendio)
ben noto, in un contesto già progettato
per l’esodo, con una posizione
più o meno nota delle persone,
una evoluzione dell’incendio
più o meno prevedibile e sistemi
di rilevazione ed allarme incendio
di cui i destinatari conoscono il
significato.
Poco di tutto questo può essere
previsto a scala territoriale. Le variabili
fondamentali per pianificare
con accuratezza sono troppe per
risolvere a priori il problema di gestire
le fasi di esodo. Le infrastrutture,
inoltre, raramente sono state
progettate in funzione dei rischi e
quasi mai in funzione dell’esodo,
con numeri di persone
coinvolte e rischi
da prevedere molto
più elevati.
Una pianificazione
tradizionale, che definisce
a priori cosa fare
durante l’emergenza
e prevede quali informazioni
dare alle
persone coinvolte,
dovrebbe considerare
un numero di scenari
pari ai rischi (fig. 1)
moltiplicati per il numero
di aree che possono
essere interessate
e per il numero di differenti
condizioni (notte, giorno, estate,
inverno, condizioni meteo ecc.),
che influiscono sulla distribuzione
delle persone e la disponibilità
di soccorritori. I relativi piani di
evacuazione per quanto accurati,
non potrebbero mai essere realistici
quanto quelli valutati sulla
situazione esistente nello scenario
dell’emergenza.
Come possono essere migliorati
i piani di emergenza?
I piani predisposti per gestire le
emergenze a livello territoriale di
solito sono concepiti per procedere
in modo organizzato al dispiegamento
delle risorse di soccorso
e di protezione civile. In questo
senso, quindi, rispondono a domande
del tipo: dove si collocano
i campi base? quali enti vanno
convocati? chi deve coordinare a
livello locale? dove si stabiliscono
i centri di comando e controllo? e
così via.
In sostanza, la pianificazione è mirata
a fornire il migliore soccorso
attraverso la soluzione preventiva
dei problemi che gli organi di
soccorso affrontano al momento
dell’evento. Questo approccio, che
scaturisce dalle esperienze di gestione
delle calamità, è indispensabile
per la gestione dei soccorsi.
L’aspetto speculare che il piano
di emergenza può ora compren-
dere è quello delle azioni che i
cittadini devono fare (o non fare)
per la loro sicurezza, soprattutto
nell’immediatezza della situazione.
In questo senso, l’uso di piattaforme
tecnologiche chiamate
DSS (dall’inglese Decision Support
System, cioè sistemi di aiuto alle
decisioni) può servire a indirizzare
nell’immediato le informazioni di
sicurezza alle persone esposte ai
rischi.
Nel paragrafo che segue si descrivono
in sintesi alcuni aspetti dei
DSS usati in ambito di sicurezza
territoriale. Va evidenziato che un
sistema di supporto alle decisioni,
per quanto accurato, è utile solo
se la politica di gestione dell’emergenza
prevede che:
- le autorità preposte alla gestione
dell’emergenza integrino nei
piani di emergenza gli elementi
di valutazione della situazione
in tempo reale (evoluzione di
un incendio, propagazione di
una nube tossica, allagamento
ecc.) che i DSS forniscono;
- i cittadini siano adeguatamente
informati sulle maggiori capacità
di gestione che la piattaforma
consente e sui canali e le
modalità di comunicazione in
emergenza.
Esistono già documenti che delineano
una strategia coerente
in cui integrare la pianificazione
dell’emergenza tradizionale con
GEOmedia n°5-2018 31
REPORT
l’uso di sistemi di supporto alle
decisioni, come ad esempio lo
standard NFPA 1616 (Common
Mass Evacuation and Sheltering) 3,
che contempla l’uso delle tecnologie
e chiede la valutazione del
tempo di esodo per la redazione
dei piani di emergenza.
I DSS - Sistemi di supporto alle
decisioni
Un sistema di supporto alle decisioni
è un sistema software “che
permette di aumentare l’efficacia
dell’analisi in quanto fornisce supporto
a tutti coloro che devono
prendere decisioni strategiche di
fronte a problemi che non possono
essere risolti con i modelli della
ricerca operativa. La funzione
principale di un DSS (dall’inglese
decision support system) è quella di
estrarre in poco tempo e in modo
versatile le informazioni utili ai
processi decisionali, provenienti
da una rilevante quantità di dati”.
I DSS sono usati nei settori dei
servizi finanziari, del commercio,
delle telecomunicazioni e della
sanità con lo scopo di facilitare
l’uso dei dati, fornire un ambiente
interattivo, fornire supporto al
processo decisionale e utilizzare in
modo efficace modelli per l’analisi
dei dati.
Solo nel settore dell’emergenza
il loro utilizzo si è fermato alla
ricerca. Progetti in tale senso
che hanno mostrato la fattibilità
di soluzioni tecnologiche
hanno riguardato anche l’Italia,
come LIAISON (Location
Based Services and Emergency
Indoor Location Systems, EC-
IST 2003), REACT (Control
centres and emergency services
interoperability, EC–IST 2005),
SAVE-ME (Disaster mitigation
and evacuation in transportation
hubs, EC-SST 2008), IDIRA
(Interoperability in large-scale
multinational disaster, EC-SEC
2010), AF3 (Advanced Forest Fire
Fighting, EC-FP7-SEC-2013),
TALED (Telecommunication, locAtion
and reaL timE Detection Discussione
of the environment, ESA-ARTES
2017), IN-PREP (An INtegrated
next generation PREParedness
programme for improving
effective inter-organisational
response capacity in complex environments
of disasters and causes
of crises , EC-H2020- SEC-01-
DRS-2016). In particolare, tali
progetti hanno mostrato che i
sistemi di supporto alle decisioni
possono fornire in tempo reale lo
stato degli eventi, e la simulazione
di incendi boschivi, eventi meteorologici,
onde di tsunami, inondazioni,
e forniscono informazioni
utilizzabili, insieme ai dati provenienti
dai sensori, per prendere
decisioni su cosa devono fare le
persone esposte al rischio.
Lo scopo del DSS è quindi includere
nelle procedure di valutazione
i dati in tempo reale e i risultati
delle simulazioni, per migliorare
in modo sostanziale la sicurezza
delle persone e l’efficienza dei
soccorsi. I principali strumenti
utilizzabili sono:
- sensoristica:
- monitoraggio terrestre satellitare;
- videosorveglianza (incendi
boschivi, traffico, infrastrutture
ecc.)
- crowd sensing (posizione
delle persone, eventi sismici,
ecc.)
- sensori specifici (sismici,
idrografici, ecc.)
- simulazione:
- eventi atmosferici
- alluvioni
- incendi boschivi
- onde tsunami
- diffusione di agenti pericolosi
in atmosfera
- comunicazione in emergenza
verso il pubblico:
- televisione, radio
- sms
- reti sociali
- internet
Fino ad ora, valutare in modo oggettivo
e con una approssimazione
sufficiente i tempi necessari per
mettere in salvo le persone in caso
di eventi catastrofici ha costituito
un ostacolo per la comunità internazionale
che opera nel soccorso
e nella protezione civile. Le principali
criticità incontrate possono
essere riassunte nei seguenti punti:
• il costo e la complessità dei
sistemi in grado di tenere sotto
osservazione l’evoluzione
dell’evento (dal momento in
cui insorge per tutta la durata
dell’emergenza, ad esempio,
incendio boschivo, alluvione,
rilascio di effluenti tossici in
atmosfera), che hanno rallentato
la richiesta di progettazione
di sistemi integrati di
supporto alle decisioni;
• la capacità di valutare su una
base oggettiva se il tempo di
esodo è adeguato a mettere in
salvo le persone. Quanto si fa
normalmente nella sicurezza
antincendio (il confronto
tra il tempo disponibile per
l’esodo e quello necessario
per mettersi in salvo) solo ora
inizia ad essere applicabile a
scale più grandi. Il principale
ostacolo è la disponibilità di
applicativi di simulazione l’esodo
a scala territoriale, partendo
da dati aggiornati sulla
posizione delle persone (ad
esempio, le zone centrali delle
città sono molto più affollate
di giorno che di notte, le aree
turistiche vedono il moltiplicarsi
delle presenze nei mesi
estivi, ecc.);
• la difficoltà di usare canali di
informazione che raggiungono
tutta la popolazione.
Il problema è più complesso
dell’uso estemporaneo delle
reti sociali. L’allarme dovrebbe
raggiungere tutti i cittadini,
indipendentemente dagli
strumenti che utilizzano per
32 GEOmedia n°5-2018
REPORT
essere informati
(tema che riguarda
il digital
divide presente
in tutte le società).
Anche in
questo caso, pur
tenendo conto
che informare
in tempo reale il
cento per cento dei cittadini è
un obiettivo non realistico, i
sistemi ed i protocolli in grado
di integrare i diversi mezzi
di comunicazione (media)
cominciano solo ora ad essere
diffusi;
• la mancanza di un protocollo
unificato di scambio dati. I
costi di realizzazione di una
rete di sensori potrebbero essere
notevolmente contenuti
se il DSS potesse utilizzare
dati provenienti da apparati
presenti sul territorio. Il ruolo
del protocollo di scambio
dati è quello di consentire che
sistemi diversi possano colloquiare
senza modifiche per i
sistemi stessi. Purtroppo, l’adesione
a protocolli unificati
(nel settore dell’emergenza il
protocollo più usato è il CAP
- Common Alerting Protocol)
avviene solo su base consensuale.
Conclusione
La gestione dell’emergenza a scala
territoriale può migliorare la sicurezza
dei cittadini nelle grandi
calamità avvalendosi in modo
più sistematico delle tecnologie
esistenti, e il coordinamento di
sistemi e competenze che già esistono,
ma che, per la mancata integrazione,
non riescono ad essere
utili quanto potrebbero. A nostro
parere, vanno affrontati due ordini
di problemi:
- la necessità di sviluppare nuove
professionalità in grado di
progettare e gestire sistemi che
coinvolgono discipline tanto
diverse (la gestione dell’emergenza,
le tecnologie dello
scambio dati, la sensoristica, le
comunicazioni e la valutazione
del rischio);
- la necessità, da parte delle organizzazioni
di protezione civile
e di soccorso, di concordare
l’utilizzo di uno standard di
scambio dati. Questo problema
è fondamentale in quanto
gli applicativi che mettono a
disposizione le informazioni
necessarie per gestire meglio
le emergenze non possono
essere usati in modo efficiente
senza un flusso continuo ed in
tempo reale dei dati tra i sistemi
degli enti coinvolti.
Di conseguenza, senza un protocollo
unico, non è possibile
ipotizzare la realizzazione di
sistemi di gestione dell’emergenza
adeguati alle aspettative
di sicurezza dei cittadini.
BIBLIOGRAFIA
Huang, B., Zheng, W., Yu, Z., & Liu, G. (2015). A successful
case of emergency landslide response - the Sept. 2,
2014, Shanshucao landslide, Three Gorges Reservoir, China.
Geoenvironmental Disasters, 2(1), 18. http://doi.org/10.1186/
s40677-015-0026-5
Decision support system - Wikipedia. (n.d.). Retrieved October
8, 2018, from https://it.wikipedia.org/wiki/Decision_support_system
NOTE DELLA REDAZIONE
1 https://en.wikipedia.org/wiki/June_2017_Portugal_
wildfires
2 https://www.nytimes.com/2017/06/18/world/europe/
portugal-pedrogao-grande-forest-fires.html
3 La National Fire Protection Association è una organizzazione
statunitense che, dalla protezione antincendio,
nel corso degli anni ha ampliato la sfera di interesse ai
settori della sicurezza territoriale
PAROLE CHIAVE
Incendi; rischio; emergenza; territorio; dss; sensoristica;
piattaforme
ABSTRACT
The problems to be overcome to deal with emergency situations
in case of natural disasters can be many and, especially
in recent years, require specific skills in various areas. In particular,
in-depth knowledge of all those platforms that can
support decisions to be taken in risk situations is increasingly
necessary: the so-called DSS (Decision Support Tools). Let's
see which are the limits of current emergency plans on a
territorial scale, how they can be improved and the role of
decision support tools.
AUTORE
Stefano Marsella
stefano.marsella@gmail.com>
Marcello Marzoli
marcello.marzoli@vigilfuoco.it
SUITE DEDICATA ALLA GESTIONE E PUBBLICAZIONE
DI PROGETTI QGIS SU SERVIZI WEBGIS
- Pubblicazione autonoma di progetti QGIS per la condivisione
delle proprie realizzazioni
- Pubblicazione di servizi OGC WMS e WFS
- Gestione degli accessi (anche con integrazione LDAP)
- Creazione di gestionali cartografici web configurabili
direttamente da QGIS
- Creazione flussi di lavoro configurabili direttamente da QGIS
- Strumenti di editing per la raccolta condivisa di dati geografici
- Client dedicati all'utilizzo su tablet per il lavoro su campo
CORSI SU PRINCIPALI SOFTWARE GEOGRAFICI OPEN SOURCE
www.gis3w.it - info@gis3w.it - Phone +39 349 1310164
GEOmedia n°5-2018 33
REPORT
"...IN ERRORE PERSEVERARE"
di Attilio Selvini
L’allora Presidente della Società
Italiana di Fotogrammetria e
Topografia (1995-1998) ritorna su
un tema a lui molto caro: le riforme
sulla professione di Geometra, il
proliferarsi delle Laure Triennali
per i Geometri e la vergognosa
eliminazione della Commissione
Geodetica della Repubblica Italiana,
ritenuta “Ente inutile”.
Ho scomodato Sant’
Agostino, perché questo
titolo mi sembra il più
adatto per illustrare quanto sto
per scrivere. Sant’Agostino d’Ippona
nei suoi Sermones afferma:
“Humanum fuit errare, diabolicum
est per animositatem in
errore manere” (cadere nell’errore
è stato proprio dell’uomo, ma
è diabolico insistere nell’errore
per superbia). Ma già secoli prima,
Cicerone (Filippiche) aveva
ammonito: “Cuiusvis hominis est
errare: nullius nisi insipientis, in
errore perseverare” (è cosa comune
l'errare; è solo dell'ignorante
perseverare nell’errore). Mi si
perdonino queste dotte citazioni:
gli è che l’Italia di oggi persevera
negli errori d’ogni genere, avendo
dimenticato la saggezza degli
Antichi Padri. E veniamo al “dunque”,
anche se dell’argomento
mi sono già occupato non poche
volte: si vedano i riferimenti bibliografici.
Da più parti nascono “lauree”
triennali per geometri, tra la
gioia di Collegi Provinciali, il
sussiego di qualche Magnifico
Rettore, l’esultanza e la soddisfazione
di non pochi dirigenti
scolastici, tutti in vario modo
compartecipi della vicenda. Ma
come e con quali programmi
nascono queste cosiddette “lauree”?
Mi piacerebbe sapere cosa
ne pensa in proposito la “FIG”,
Fédération Internationale des
Géomètres o anche International
Federation of Surveyors ed infine
Internationale Vereinigung der
Vermessungsingenieure,, così come
appare nelle tre lingue ufficiali
questa prestigiosa Associazione
mondiale (che tali erano sino al
1998: oggi vale solo il “globish”,
per chi non lo sapesse, termine
creato da Jean-Paul Nerrière proprio
in quell’anno!). Infatti i
programmi perseverano nella
famigerata e solo italiana “polivalenza”
del geometra più meno
laureato, ignorando del tutto
l’ambito di lavoro degli altri colleghi
europei. Decisive sono a tal
proposito le indicazioni in inglese
ed in tedesco sopra riportate, non
solo, ma anche la consistenza numerica
dei “Geometri” francesi,
inglesi e tedeschi, dell’ordine di
alcune migliaia per ognuno di tali
Paesi, nei confronti dei centomila
iscritti ai Collegi Provinciali in
Italia, sintomo sicuro di sostanziale
differenza professionale, rivolta
in prevalenza non alla “geometria”
bensì alle costruzioni di vario genere,
sino alla gestione condominiale
ed alla compravendita degli
immobili, cose più da ragionieri
che da geometri.
L’annuncio eclatante, quasi da
marcia trionfale verdiana, è quello
del 30 ottobre 2017: “Una convenzione
tra il Collegio Provinciale
dei Geometri e Geometri Laureati
di Reggio Emilia, l’ITS per
Geometri “Angelo Secchi” e l’Università
di San Marino, consente
agli studenti di Reggio Emilia la
partecipazione al progetto didattico
per il corso di laurea triennale
in “Costruzioni e gestione del
territorio”, pensato per i geometri
e promosso in collaborazione
con UNIMORE”. Afferma il
Magnifico Rettore di UNIMORE
(l’Università di Modena e Reggio
Emilia) che “Per la prima volta
nella sua storia il Geometra entra
nel mondo accademico dalla porta
principale, con profilo ed esami
calibrati per questa figura professionale
ed un percorso di studi che
ne incrementano le conoscenze e le
capacità. Ciò avrà, immediate e
positive ricadute sia nella propria
attività lavorativa, sia nel campo
della ricerca. Il corso di laurea per
la sua unicità costituisce una grande
occasione di svolta, per gettare le
basi della professione di domani”.
Mi stupisce che il Magnifico dimentichi
come i laureati triennali
non possano accedere ai corsi per
ricercatori e nemmeno possano
svolgere le mansioni di addetti
alle esercitazioni: a quello scopo
sono stati istituiti i “dottorati di
ricerca”, gli unici che dovrebbero
dare diritto al titolo universale di
“dottore”, tant’è che molti di loro
si fregiano, per distinguersi, dell’americano
“PhD”.
Peccato poi che il programma
per i nuovi geometri, sia fondato
su “ … Topografia, Tecnologia
e materiali delle Costruzioni,
Pianificazione Territoriale e
Urbanistica, Progettazione
Architettonica e Strutturale, Estimo
e Valutazioni Immobiliari, a cui
34 GEOmedia n°5-2018
REPORT
viene abbinata la multidisciplinarità
di altre materie, che spaziano
dal Diritto all’Economia includendo
Chimica, Inglese, Calcolo,
Informatica e altro ancora. Il titolo
rilasciato è Dottore in Costruzioni
e Gestione del Territorio valevole
in Italia e nell’Unione Europea
…..” Commento: una miscela
assurda fra discipline tipiche di
ingegneria civile e, architettura,
prese dai vecchi diplomi universitari,
con la menzogna del titolo di
Dottore solo italico e per nulla di
nulla riconosciuto nella Unione
Europea, nella quale non valgono
nemmeno i nostri dottorati quinquennali,
così come ho scritto e
ripetuto in vari articoli. Leggiamo
con disappunto che il Presidente
del Collegio Provinciale dei
Geometri e Geometri Laureati
di Reggio Emilia Francesco
Spallanzani, soddisfatto per aver
messo a punto l’importante sinergia,
ha detto: “Il nostro obiettivo è
un’alta formazione per una figura
tecnica, da sempre al passo con i
tempi. Un ruolo incline alla multidisciplinarietà,
che risponde al
generalizzato processo innovativo
messo in atto dalla digitalizzazione
nel mondo delle costruzioni
e dell’ambiente, con importanti
riflessi nell’economia delle nostre
realtà”. E dalli con la solo italiana
“multidisciplinarietà”: ma dove la
si trova, in ambito FIG? Mi faccia
il piacere!
Dal centro al nord: leggiamo
poi: “Gioca d’anticipo il Collegio
provinciale dei geometri di Sondrio,
che con la collaborazione dell’istituto
d’istruzione superiore De Simoni-
Quadrio e l’università degli studi
della Repubblica di San Marino ha
messo in cantiere a partire dall’anno
accademico 2018-2019 un corso
di laurea professionalizzante in
Costruzioni e gestione del territorio,
titolo indispensabile dal 2020 - lo
prevede la normativa europea –
(ma chi lo ha mai detto? La normativa
prevede i corsi triennali,
non il loro contenuto!) per chi
intende svolgere la professione di geometra
e iscriversi all’albo professionale”.
Per attirare nuovi geometri,
si apprende poi che “ Non sono
previsti test di ingresso per accedere
al corso di laurea, il cui costo annuale
è di 2.000 euro suddiviso in
tre rate - la prima di 800 euro, le
altre due di 600 -; c’è la possibilità
di iscriversi part-time con riduzione
delle tasse e prolungamento
della durata del corso per chi sta
lavorando. A presentare ieri il corso
triennale sono intervenuti nella sede
del Collegio di piazzale Bertacchi il
presidente Giorgio Lanzini, il segretario
Marco Tognolatti, il tesoriere
Giuseppe Bertussi e il consigliere
Michele Tempra, insieme ad Angela
Fico e Anselmo Fontana, rispettivamente
docenti dell’indirizzo
Costruzione ambiente e territorio
(Cat – ex-geometri) del De Simoni-
Quadrio e del Saraceno-Romegialli
di Morbegno”.
E vediamo ora la struttura di
questi corsi, dal punto di vista dei
programmi. Ecco quanto ne dice
la proposta di decreto.
Didattica - Il Corso di laurea in
Costruzioni e gestione del territorio
rappresenta un percorso volto a
formare professionisti in grado di
operare in tre principali aree:
edilizia, urbanistica e ambiente -
dove il Geometra Laureato si
caratterizza per la molteplicità
di competenze acquisite, da
mettere in campo in prestazioni
quali la progettazione, direzione
e contabilità dei lavori, oltre che
i collaudi e il coordinamento
della sicurezza in tutte le fasi interessate.
Ciò si estende inoltre a
servizi come l’amministrazione
immobiliare e la certificazione
energetica.
estimo e attività peritale - dove il
Geometra Laureato può mettere
in pratica quanto appreso durante
il percorso formativo per consulenze
che vanno dalla valutazione
del valore di mercato degli
immobili, all’assistenza tecniconormativa,
indispensabile sia per
i privati cittadini in vertenze di
tipo giudiziale e stragiudiziale,
sia per le imprese aggiudicatarie
di contratti di appalto pubblico o
privato.
geomatica e attività catastale -
dove il Geometra Laureato
applica le competenze acquisite
eseguendo attività come il rilievo
di fabbricati e la restituzione
grafica di planimetrie, oltre al
tracciamento di opere infrastrutturali
quali, per esempio, tracciati
stradali, idraulici e ferroviari.
Non è chi non veda lo squilibrio
esistente fra le attività nel settore
costruttivo e quello topografico:
ma dov’è finito il “geometra”?
dove sta la misura della Terra?
Nel solo “rilievo dei fabbricati” e
nella “restituzione grafica di planimetrie”,
cosa da disegnatori oggi
peraltro fatta da AutoCad? Non
è divenuto piuttosto un “perito
edile” oppure se si vuole seguire la
definizione attuale, un “ingegnere
edile junior”?
“Ma che bella bischerata!”, avrebbe
detto da buon toscano Luigi
Solaini, mio venerato Maestro, se
non fosse scomparso prima della
nascita di queste fregnacce, Che
tali siano, ne è convinto un giornale
serio, come “Il Foglio”, che
scrive quanto segue, in un gustoso
articolo dal titolo:
“La laurea per geometri vale
quanto lo stuzzicadenti di
Tognazzi”
a firma di Antonio Gurrado in
data 14 febbraio 2018; eccone
l’intero testo.
Dall’Università di San Marino la
risposta perfetta a tutti quegli italiani
che bramano il pezzo di carta.
Ma che non vogliono studiare. La
città di Lodi vanta di essere stata la
prima a istituire la laurea triennale
per geometri. A seguito di un accordo
con l’Università di San Marino
si può infatti frequentare un corso
di studi che, conseguiti centottanta
crediti formativi e superati venti
GEOmedia n°5-2018 35
REPORT
esami, consente di presentare una
tesi e candidarsi al titolo di dottore
in Costruzione, Ambiente e
Territorio – certificando così di
avere le stesse competenze dei diplomati
nell’Istituto tecnico a indirizzo
Costruzione, Ambiente e Territorio.
Cioè, il diploma da geometri. I più
“agé” ricorderanno quando Ugo
Tognazzi interpretava un artigiano
intento a levigare un tronco per
ottenerne un unico e solo stuzzicadenti
fatto a mano, pregiatissimo in
quanto del tutto indistinguibile da
uno stuzzicadenti industriale. Sono
i frutti delle smanie per il pezzo di
carta, che a parità di competenze
fanno sembrare più affidabile un
laureato rispetto a un diplomato,
tendenza inarrestabile in una nazione
in cui tutti vogliono essere
dottori e pochi vogliono studiare.
Ma è colpa anche dell’immancabile
direttiva in tal senso, che per fare
i geometri renderà obbligatoria la
laurea a partire dal 2020, prolungando
così la permanenza coatta
sui banchi di persone che magari
vorrebbero lavorare. È proprio come
lo stuzzicadenti di Tognazzi: incrementare
la fatica per ottenere lo
stesso risultato di prima, però dicendo
che vale di più. Senza nemmeno
considerare il dilemma inestricabile
di fronte a cui ci pone questa storia:
o non valeva niente il diploma, o
non varrà niente la laurea.”..
Siamo ancora in tempo. Lo stravolgimento
della professione di
geometra, fenomeno solo e unicamente
italiano, conta settant’anni
di vita esatti: è infatti dal 1948
che il numero dei diplomati cresce
paurosamente, attratto dalla
ricostruzione edilizia del Paese
uscito sonoramente sconfitto dalla
seconda guerra mondiale. Da
Carlo V in poi il geometra si era
solo e sempre occupato di misurare
la Terra: si vedano i prodigiosi
servizi forniti dai geometri per il
Catasto di Carlo VI o Teresiano
che dir si voglia.
Il nuovo governo dice di voler
tagliare tutte le cose inutili sin qui
fatte e di sanare quelle malfatte.
Suggeriamo due provvedimenti:
Rivedere la proposta di legge sulla
‘Laurea del Geometra’ che il 23
marzo 2018, è stata presentata,
dalla Senatrice Simona Flavia
Malpezzi, e che attende di essere
assegnata alla commissione competente.
Che se ne chieda il parere
alla FIG e magari anche all’onorevole
Antonio Tajani, presidente
del Parlamento Europeo. Togliere
il vergognoso titolo di “dottore”
ai laureati triennali. Fa specie
vedere, negli ospedali, graziose
fanciulle col cartellino dottorale
anche se medici non sono, ma
semplicemente (pur brave) infermiere.
Rivedere poi la vergognosa
eliminazione della Commissione
Geodetica della Repubblica
Italiana, ritenuta “Ente inutile”,
chiedendo anche qui il parere
della Comunità Europea. Non è
tanto, non costa nulla, ma incomincerebbe
a cancellare alcune
delle vergogne italiche.
BIBLIOGRAFIA
G. Bezoari, A. Selvini. Il diploma universitario per geometri:
l'Italia si allinea all'Europa. Documenti, Roma, n.22/91.
A. Selvini. Geometra: una professione antica svolta con nuovi
strumenti ed una nuova formazione, Il Seprio, Varese, n. 2/2003
A.Selvini. Qualche riflessione sulla formazione del geometra. Il
Seprio, Varese, n. 2/2007.
A.Selvini. Geometri o periti edili? Il Seprio, Varese, n. 4/2009.
A.Selvini. Quando i geometri erano geometri. Il Seprio, Varese.
N. 2/2014.
A.Selvini. Quale futuro per il geometra italiano? Il Seprio, Varesae,
n. 2/2016
C.Monti, A. Selvini. Riflessioni su di un programma ministeriale
, GEOmedia, Roma, n. 3/2013.
A.Selvini. Quo usque tandem, GEOmedia, Roma, n. 4/2015
PAROLE CHIAVE
Topografia; professione geometra; riforma
ABSTRACT
The ex-President of the Italian Society of Photogrammetry and
Topography (1995-1998) returns to a subject really dear to
him: the reforms on the profession of Surveyor, the proliferation
of the Bachelors Degrees for Surveyors and the shameful
elimination of the Geodesic Commission of the Italian Republic
, deemed "useless institution".
AUTORE
Attilio Selvini
attilio.selvini.polimi@gmail.com
Presidente della Società Italiana di Fotogrammetria
e Topografia, 1995-1998
L’eccellenza dei dati geografici
Toponomastica e numerazione civica
A beneficio degli ambiti di utilizzo più maturi ed esigenti, per la gestione e per la pianificazione geografica e quotidiana
delle reti e delle utenze, della grande e media distribuzione, della raccolta RSU, dei sistemi navigazionali e del car-sharing,
per l’attività politica e per quella amministrativa. www.studiosit.it • info@studiosit.it
36 GEOmedia n°5-2018
REPORT
Soluzioni e Tecnologie
Geospaziali per
la Trasformazione
Digitale
www.esriitalia.it
GEOmedia n°5-2018 37
REPORT
Elaborazione di Piattaforma GIS sul
fattore di Rischio alluvionale nel
comprensorio del Comune di Sora (Fr)
di Fabio Cuzzocrea, Stefano Lucidi
Fig. 1 - Esempio di allerta rischio idrogeologico della Regione Lazio
Esperienza congiunta
tra il comando dei Vigili
del Fuoco di Frosinone e
l’Università degli
Studi di Cassino
Il supporto della cartografia digitale
è oramai molto diffuso nella gestione
delle informazioni ed il Corpo
Nazionale dei Vigili del Fuoco, ormai
da diversi anni, studia le possibili
applicazioni di questa tecnologia alle
attività di soccorso tecnico urgente.
Questi strumenti informatici sono di
notevole utilità nelle valutazioni del
management in fase di allerta, allarme
ed emergenza, favorendo la previsione
e la valutazione degli scenari di danno
da remoto. I sistemi consentono
la lettura dei dati direttamente
dalla cartografia digitale, dalla
quale possono essere dedotte delle
informazioni "nascoste", oltre a quelle
già riportate in simboli nelle schermate
iniziali. Inoltre, i sistemi consentono
un facile confronto tra le informazioni
riportate su diverse cartografie,
leggibili direttamente insieme su
uno stesso elaborato cartografico.
Nell’articolo è illustrata l’esperienza
del Comando VVF di Frosinone
nello sviluppo di una piattaforma
cartografica, nella quale sono stati
simulati i diversi scenari di danno
derivanti da un'ipotetica alluvione nel
Comune di Sora.
L’
Italia è un paese frequentemente
soggetto
ad alluvioni, che provocano
spesso vittime e danni ingenti.
Gran parte del territorio
nazionale è a rischio idrogelogico
e tra le cause principali
dell’aumento del rischio c’è
l’antropizzazione e quindi la
diffusa impermeabilizzazione
del territorio.
E’ possibile ridurre il danno
causato da questi eventi attuando
misure di tipo infrastrutturale,
con interventi sia
sul patrimonio sia sulle nuove
strutture ed adottando dei
sistemi di gestione delle emergenze
integrati per il coordinamento
delle attività svolte dai
diversi Enti che, a vario titolo
concorrono nel sistema nazionale
di Protezione Civile quali
i Vigili del Fuoco, i Comuni,
le Autorità di Bacino, ecc.
E’ del tutto evidente l’importanza
nel predisporre un sistema
di allertamento ed allarme
all’insorgere degli eventi calamitosi
ed i piani di gestione
delle emergenze di tipo condiviso.
In quest’ottica nel D.L. n.
59 del 15.05.2012, convertito
nella Legge n. 100 del
12.07.2012, è stata prevista la
redazione da parte degli Enti
locali di piani di previsione
e prevenzione dei rischi sulla
base delle linee guida fornite
dalla Dipartimento Nazionale
della Protezione Civile.
Ogni comune è, quindi, tenuto
a stilare un Piano di Emergenza
Comunale (P.E.C) in
cui vengono riportati i fattori
di rischio, le zone più esposte,
l’organizzazione operativa, le
funzioni di responsabilità e le
altre informazioni che possono
risultare utili nelle azioni di
Protezione Civile.
D’altra parte si è anche proceduto
alla stesura di piani di
previsione, con il coinvolgimento
e la formazione degli
Enti preposti quali sono, nel
caso dei dissesti idrogeologici,
i Distretti Idrografici.
In tale direzione si è mosso
anche il Comando Provinciale
dei Vigili del Fuoco di Frosinone
che ha recentemente
elaborato una piattaforma GIS
finalizzata alla simulazione
di un evento alluvionale nel
territorio del Comune di Sora,
caratterizzato da un elevato
fattore di rischio idraulico per
la presenza del fiume Liri che
attraversa un’ampia area nella
quale si registra presenza di
38 GEOmedia n°5-2018
REPORT
popolazione e di insediamenti
produttivi.
Il lavoro è stato svolto congiuntamente
tra il personale
Vigile del Fuoco del Comando
di Frosinone abilitato alle tecniche
TAS (Topografia Applicata
al Soccorso) ed il Dott.
Andrea Moscone, studente
della facoltà di Ingegneria
dell’Università degli Studi di
Cassino, che ha elaborato la
tesi di laurea nell’ambito di un
tirocinio effettuato presso lo
stesso Comando.
L’attività di tirocinio, svolta
da diversi studenti della facoltà
di Ingegneria, si sviluppa
nell’ambito di una convenzione
stipulata, ormai di alcuni
anni, tra il Comando Vigili
del Fuoco di Frosinone e l’Università
degli Studi di Cassino.
Scopo del lavoro è stato quello
di organizzare, filtrare e sintetizzare
su un’unica piattaforma
le informazioni contenute nei
piani di emergenza esistenti,
per migliorare l’efficacia degli
interventi di soccorso tecnico
urgente.
E’ stata svolta, dapprima,
un’analisi della statistica degli
interventi di soccorso caratteristici
di un evento calamitoso
di tipo alluvionale, necessaria
per individuare i parametri da
monitorare in fase di allerta,
allarme ed emergenza.
Queste informazioni sono
molto utili per le figure deputate
al coordinamento del
soccorso (management dell’emergenza)
nelle fasi di pianificazione
e di gestione degli
interventi, soprattutto al fine
di ottimizzare i tempi di intervento.
E’ stata creata una piattaforma
GIS interattiva e dinamica,
specifica per la simulazione
dell’alluvione nel Comune di
Sora, avente lo scopo di semplificare
il lavoro di ricerca dei
dati utili alla pianificazione di
un intervento da parte dei Vigili
del Fuoco.
Fig. 2 - Aree a rischio alluvione del Comune di Sora
Software utilizzato
e metodologia
Per la realizzazione della piattaforma
GIS è stato utilizzato
il software ArcGis, in particolare
ArcMap, della società
ESRI.
Con l’uso di questa applicazione
sono stati possibili:
4l’archiviazione di geodati
sono stati caricati database
spaziali contenenti dataset
che rappresentano le
Fig. 3 - Maschera di interfaccia della piattaforma GIS
informazioni relative agli
elementi areali, lineari o
puntuali. Si è anche avuta la
necessità di creare una serie
di database ex novo con relativi
dataset
4la geovisualizzazione
attraverso i database costruiti
si è generata una prima
serie di cartografie tematiche
complesse, organizzate
in Layers, permettendo
quindi la visualizzazione
contemporanea di più sha-
GEOmedia n°5-2018 39
REPORT
Fig. 4 Layers del sistema GIS
pefiles rendendo possibile
l’editing e l’analisi dell’informazione
geografica
4il geoprocessing
dai layer caricati/costruiti e
in seguito visualizzati è stato
possibile ricavare nuovi layers,
e quindi nuovi datasets
contenenti dati “elaborati”
attraverso gli strumenti di
geoprocessing
Attraverso la piattaforma GIS
sono state create tre cartografie
tematiche relative agli altrettanti
scenari di danno previsti
dal Piano di Gestione delle
Alluvioni.
Questi scenari di rischio
presentano tre diversi casi di
inondazione a gravità crescente
ed in particolare:
4scenario A - si riferisce ad
eventi abbastanza frequenti
e ad un’area di inondazione
limitata
Fig. 5 - Esempio di modellazione
3D delle aree di danno
4scenario B - si riferisce ad
eventi rari e ad un’area di
inondazione mediamente
estesa
4scenario C - si riferisce ad
eventi straordinari e ad
un’area di inondazione massima
Con la piattaforma GIS si è
automatizzata la procedura di
scelta della cartografia di riferimento.
In particolare, inserendo nel
sistema i dati relativi all’altezza
di pioggia misurata nel bacino
idrografico di riferimento con
l’ausilio dei pluviometri, la
variazione della misura della
portata del fiume Liri nei
diversi punti di misurazione
resterà associata ad un solo
scenario di danno.
Dalla lettura delle cartografie
digitali sarà possibile desumere
le seguenti informazioni:
4la stima della popolazione
coinvolta
4il numero di edifici civili
coinvolti
4la presenza di eventuali edifici
strategici o sensibili
4l’area e il perimetro dell’area
inondata
Produzione della mappa
e valutazioni
Il territorio analizzato è quello
del Comune di Sora, appartenente
al Distretto Idrografico
dell’Appennino Meridionale
zona del Bacino del Liri, appartenente
alla XV comunità
montana Valle del Liri.
L’area presa in esame, che si
estende per 72.12 km 2 ed
ospita circa 26.247 abitanti,
è frequentemente soggetta ad
alluvioni ed è stata oggetto di
attenti studi idraulici da parte
dell’Autorità di Bacino.
Il tratto da Sora ad Isola del
fiume Liri rappresenta sicuramente
una delle zone a
maggior rischio idraulico del
bacino.
I fattori ed i dati presi alla base
del sistema GIS sono stati:
4i limiti delle aree di rischio
e fasce inondabili, desunte
dalla Mappa del Rischio nel
Piano di Gestione delle Alluvioni
4gli edifici e zone strategiche,
desunti dalla P.E.C. del comune
di Sora.
4gli edifici, le infrastrutture
di connessione e l’andamento
del fiume, desunti dalla
CTRN del comune di Sora
4la stima della popolazione
residente per zone comunali
calcolata dai dati ISTAT
Per quanto riguarda le fasce
inondabili è stato necessario
creare dei nuovi shapefiles con
gli attributi; sono state poi
caricate e georeferenziate le
mappe del rischio e, attraverso
lo strumento Draw, sono state
ricavate le aree di esondazione
del fiume.
40 GEOmedia n°5-2018
REPORT
I dati di input inseriti sono stati processati
in ArcMap. I dati sulla popolazione, desunti
dalla letteratura ISTAT e CTRN, sono stati
incrociati con gli shapefiles delle fasce di inondazione
per ottenere i dati relativi agli edifici
ed alla popolazione ricadente all’interno delle
zone di alluvione individuate.
Le cartografie ottenute con questa operazione
sono state caricate su dei layer distinti, sui
quali sono riportati i dati caratteristici dello
scenario di riferimento e le informazioni relative
al numero di abitanti ed edifici coinvolti.
Per ottenere altre informazioni utili all’attività
di pianificazione e di soccorso, ai suddetti dati
sono associati quelli relativi alla cartografia
viaria per individuare la viabilità interrotta.
Tutte le informazioni riportate sulla piattaforma
sono caricate su dei layer che riportano
informazioni omogenee (ad esempio layer
“edifici”, layer “popolazione”, ecc.).
I layer potranno essere letti singolarmente o
sovrapposti ad altri per acquisire, in quest’ultimo
caso, informazioni simultanee.
Sono state, inoltre, mantenute, sempre su layers
distinti, tutte le informazioni riportate sul
Piano di Emergenza Comunale del Comune
di Sora. La piattaforma GIS realizzata per il
rischio idraulico del Comune di Sora è certamente
uno strumento molto utile nella pianificazione
e nella gestione delle emergenze di
tipo alluvionale. E’ auspicabile detti strumenti
siano realizzati e condivisi tra tutti i Comuni
del territorio nazionale, estendendo i temi
della piattaforma GIS ad altri fattori di rischio
(sismico, incendi, ecc.) di interesse per chi
opera nel sistema di Protezione Civile.
PAROLE CHIAVE
Rischio; GIS; emergenza; pianificazione; gestione; rischio idraulico;
alluvione
ABSTRACT
The support of digital cartography is now very widespread in the management
of information and the National Fire Brigade, now for several years, studies the
possible applications of this technology to emergency technical rescue activities.
These IT tools are very useful in management assessments during the alert, alarm
and emergency phase, favoring the prediction and assessment of remote damage
scenarios.
The systems allow the reading of data directly from digital cartography, from
which "hidden" information can be deduced, in addition to those already reported
in symbols in the initial screens. Moreover, the systems allow an easy comparison
between the information on different maps, which can be read directly
together on the same map.
The article illustrates the experience of the Frosinone VVF Command in the development
of a cartographic platform, in which the different damage scenarios
resulting from a hypothetical flood in the Municipality of Sora were simulated
AUTORE
Ing. Fabio Cuzzocrea
fabio.cuzzocrea@vigilfuoco.it
Comandante Provinciale Vigili del Fuoco di Frosinone
Ing. Stefano Lucidi
stefano.lucidi@vigilfuoco.it
Funzionario Ruolo Direttivo presso il Comando Provinciale
Vigili del Fuoco di Frosinone
C’è vita nel nostro mondo.
Realizzazione di infrastrutture
dati territoriali (SDI) conformi a INSPIRE
Formazione specialistica su tecnologie
GIS Open Source
INSPIRE Helpdesk
We support all INSPIRE implementers
Epsilon Italia S.r.l.
Via Pasquali, 79
87040 Mendicino (CS)
Tel. e Fax (+39) 0984 631949
info@epsilon-italia.it
www.epsilon-italia.it
www.inspire-helpdesk.eu
GEOmedia n°5-2018 41
REPORT
Aspetti di sicurezza nell'utilizzo dei
sistemi di navigazione satellitare
di Mauro Leonardi
Fig. 1 - Esempi di spoofer disponibili in commercio
(Di Fonzo 2014).
I sistemi di navigazione satellitare
sono sempre più utilizzati nel settore
della geomatica (dal rilevamento, alla
georeferenziazione, ai sistemi per la guida
dei droni). Questa penetrazione nel mercato,
però, non sempre ha tenuto conto dei relativi
aspetti di sicurezza e delle conseguenti
minacce per l’incolumità dell’uomo.
Negli ultimi anni si è assistito
ad una sempre
maggiore penetrazione
delle tecnologie satellitari (ed in
particolare di navigazione) in
tutti i campi della Geomatica.
Questa penetrazione, iniziata già
molti anni fa, ha avuto una forte
accelerazione grazie alla sempre
maggiore disponibilità sul mercato
di tecnologie a basso costo ed alte
prestazioni. Oggi, l’uso dei sistemi
di navigazione satellitare avviene
sia per via diretta (ad esempio nel
rilevamento topografico) sia per via
indiretta (per la georeferenziazione
di altri strumenti di misura come i
Laser Scanner, o come strumento
di navigazione per i velivoli autonomi).
In questo lavoro non ci si concentrerà
sulle nuove opportunità
aperte dai sistemi satellitari, o sulle
loro prestazioni di misura, ma su
un aspetto che spesso è trascurato:
la gestione della sicurezza durante
il loro utilizzo.
E’ importante chiarire cosa si
intenderà per sicurezza. Si parla
di sicurezza ogni qualvolta ci si
riferisce alla salvaguardia della vita
umana. Sicurezza, però, vuol dire
anche capacità di proteggere qualcosa
o qualcuno. Nel primo caso
si usa il termine inglese safety, nel
secondo si usa il termine security.
Questa distinzione diviene molto
chiara se si risale all’origine delle
due parole: safe viene dal latino
Latino “salvum”, dalla stessa radice
di “salus” che significa ‘salute’;
secure, viene dal latino securum,
‘tranquillo, senza preoccupazioni’.
Comunemente si pensa alla security
come un mezzo per raggiungere
la safety: il sistema di sicurezza
(security) costituisce una barriera
a protezione dell’incolumità
personale (safety). Nelle attuali
applicazioni tecnologiche questa
visione è riduttiva in quanto: (a)
non necessariamente un sistema di
sicurezza è a protezione della salute
dell’uomo (si pensi ad esempio alla
cyber-security, alla protezione dei
dati sensibili ecc.); (b) la security
non è condizione necessaria (ne
sufficiente) a garantire l’incolumità
dell’uomo (si pensi, ad esempio
agli incidenti, ed ai malfunzionamenti).
Nelle seguito, dopo un breve
introduzione sull’evoluzione dei
sistemi di navigazione satellitare
(chiamati genericamente Global
Navigation Satellite System -
GNSS) e sulle tendenze di utilizzo
future, saranno analizzati i relativi
rischi di sicurezza ed alcune possibili
contromisure.
Evoluzione dei sistemi GNSS
Il primo sistema di navigazione
satellitare operativo fu il sistema
Transit, era utilizzato dalla Marina
Statunitense per avere informazioni
precise sulla posizione dei suoi
sottomarini e dei missili balistici.
Il Transit ha fornito un servizio di
navigazione continuo fin dal 1964
e, successivamente, è stato reso disponibile
anche per uso civile.
Durante la guerra fredda, furono
sviluppati i due sistemi più noti: il
GPS (Stati Uniti) ed il GLONASS
(Unione Sovietica). I due sistemi,
con differenti soluzioni tecniche,
sfruttano lo stesso principio di
funzionamento per fornire la posizione:
il ricevitore misura la propria
distanza da almeno 4 satelliti
(contemporaneamente visibili),
ricavando poi la propria posizione
come il punto di intersezione di
sfere aventi come centro i satelliti e
come raggio la distanza misurata.
Questo principio è, di fatto, diventato
lo standard di riferimento
per la navigazione satellitare e,
dato l’abbandono per lungo tempo
del sistema GLONASS, il GPS è
stato l’unico sistema utilizzato in
occidente.
Recentemente, la situazione è
molto cambiata: oltre alla piena
operatività (ritrovata nel 2012) del
sistema GLONASS, nuovi sistemi
di navigazione satellitare sono
diventati operativi ed altri sono
pianificati per il futuro. Si possono
qui menzionare l’europeo Galileo,
dichiarato in “Initial Operational
Capability a dicembre 2016, ed il
cinese Beidou, che con il lancio del
12 Febbraio 2018 ha raggiunto un
totale di 22 satelliti in orbita sui 35
previsti. A questi sistemi di navigazione
globale si affiancano i sistemi
regionali (dove per regioni si intendono
scale nazionali o continentali)
di posizionamento autonomo
(come il NAVIC indiano) o di supporto
(per il miglioramento delle
prestazioni dei sistemi esistenti,
42 GEOmedia n°5-2018
REPORT
Fig. 2 - Occupazione spettrale del segnale trasmesso da un
jammer in grado di disturbare contemporaneamente le bande
L2, L4 e L5 del GPS.
come il WAAS americano o l’E-
GNOS europeo) e, infine, sistemi
locali o terrestri (ad.es. il GBAS, le
reti DGPS, le reti RTK ecc.) per i
più disparati utilizzi (dall’atterraggio
di precisione, al monitoraggio
dei movimento tettonici, al rilevamento
topografico).
Data questa forte evoluzione, le
attuali prestazioni di accuratezza
sulla misura di posizione variano
dai pochi metro (utilizzando i soli
sistemi di navigazione satellitare)
fino ai centimetri (o sotto) con
l’aiuto dei sistemi di supporto (stazioni
differenziali, stazioni RTK,
reti RTK ecc.) e lunghi tempi di
osservazione. Essendo i sistemi
GNSS interoperabili, l’utilizzo
contemporaneo di più costellazioni
(ricevitori multi-costellazione)
ha consentito, infine, anche un
aumento della continuità e della
disponibilità dei servizi (Galati
2009).
Anche il lato utente (cioè il ricevitore
da esso usato) ha subito un
evoluzione con la produzione di
ricevitori GNSS sempre più performanti
ed a basso costo. La grande
diffusioni di terminali mobili
multimediali (smartphone) con
ricevitori GNSS integrati, ha, inoltre,
aperto la strada all’uso di questi
device anche nelle applicazioni
professionali in cui le performance
di accuratezza richieste sono elevate.
Ulteriore spinta in questa
direzione sarà data dalla possibilità
di accedere direttamente ai dati di
misura GNSS negli smartphone di
ultima generazione (da Android N
in poi).
La diffusione pervasiva di questi
terminali cambia completamente
l’approccio nell’uso dei sistemi
GNSS per applicazioni professionali.
Il paradigma di utilizzo, che
prima era basato sull’utilizzo di
tecnologie ad-hoc ed ottimizzate
per la specifica funzione da svolgere,
sarà sempre più basato su
soluzioni con hardware distribuito
(sempre più apparati comunicanti
tra loro) e funzioni concentrate
(sempre maggiore sovrapposizione
delle funzioni di elaborazione, comunicazione
e navigazione).
Questa redistribuzione delle “competenze”
produce molti vantaggi
(abbattimento dei costi, prestazione
di misura elevate, dati sempre
disponibili, maggiore semplicità
di utilizzo ecc.) ma non bisogna
dimenticare che ogni volta che si
introducono nuove tecnologie o
nuovi servizi se ne devono considerare
anche i limiti.
In particolare, oggi, per la stragrande
maggioranza delle applicazioni
commerciali, i ricevitori GNSS
non forniscono nessuna garanzia
di servizio agli utenti e, per varie
ragioni, le loro prestazioni di accuratezza
(seppur normalmente
molto elevate rispetto al passato) si
possono degradare molto e molto
rapidamente (ad esempio per condizioni
di propagazione del segnale
anomale o per malfunzionamenti
nei satelliti). Inoltre, come ogni
sistema basato sulle telecomunicazioni
wireless, il servizio di localizzazione
può essere negate o degradato
intenzionalmente utilizzando
degli appositi apparati di disturbo:
solitamente si parla di Jamming
come l’atto di disturbare volutamente
le comunicazioni radio
trasmettendo sulla stessa frequenza
del segnale che si vuole disturbare,
o di Spoofing quando si intende
la trasmissione di falsi segnali,
del tutto simili a quelli nominali,
contenenti informazioni fuorvianti
per ingannare il ricevitore d’utente
(ad esempio facendogli credere di
trovarsi in posto diverso da quello
in cui realmente si trova).
A questi limiti, va aggiunta un
considerazione generale: è sempre
più frequente, nei sistemi complessi,
l’uso di metodi automatici o autonomi
di decisione (comunemente
noti come intelligenza artificiale).
Questi metodi introducono un
ulteriore strato di mediazione tra
le misure GNSS e l’uomo, trasformandolo,
di fatto, in una componente
(a volte marginale) dell’intero
sistema. L’utilizzatore finale, di
conseguenza, non ha ne il pieno
controllo, ne la piena conoscenza
di quanto sta avvenendo.
Sicurezza nelle applicazioni
geomatiche
I suddetti limiti influiscono direttamente
sulla sicurezza (safety e security),
infatti: (a) essendo lo scopo
principale dei sistemi di navigazione
il governo dei mezzi mobili
(dalle automobili, alle persone, dagli
aerei ai droni), se mal governati
per malfunzionamento del sistema
di localizzazione, essi possono arrecare
danno all’uomo (incidenti)
o ai sui beni (perdite economiche);
(b) attraverso l’utilizzo dei GNSS
si generano dati come, ad esempio,
cartografie o rilievi topografici che,
se errati possono essere dannosi;
(c) può essere di interesse, per un
soggetto terzo, provocare malfunzionamenti
o impedire il corretto
(o sicuro) svolgimento delle attività
in cui è previsto l’uso di apparati
GNSS; (d) non è nulla la probabilità
di trovarsi in condizioni avverse
(ad esempio per presenza di
interferenze o malfunzionamenti)
che degradano le prestazioni del
sistemi in uso; (e) non è nulla la
probabilità di essere in presenza
di una degradazione intenzionale
delle prestazioni non direttamente
rivolta al nostro ricevitore ma ad
altri nelle vicinanze.
Molti dei casi esposti sono già accaduti
in passato e se ne riportano
qui alcuni esempi significativi.
Molto diffuso (seppur illegale) è
l’utilizzo di apparati di disturbo
Fig. 3 - Esempio di disturbo attraverso spoofer. La traccia blue
rappresenta la sequenza di posizioni (errate) calcolate da un ricevitore
(in posizione fissa) in presenza di spoofer che invia falsi
GEOmedia n°5-2018 43
segnali di navigazione (Jones 2017).
REPORT
per inibire il funzionamento del
sistema di navigazione installato
a bordo del proprio veicolo (normalmente
per disturbare il sistema
di controllo della flotta aziendale
o per disturbare il sistema GNSS
installato ai fini assicurativi).
Qualche anno fa si è verificato il
primo provvedimento sanzionatorio
a riguardo: un uomo del New
Jersey è stato scoperto ad utilizzare
un jammer sul proprio mezzo per
impedirne la localizzazione da
parte della sua azienda. Passando
regolarmente nelle vicinanze
dell’aeroporto di Newark ha disturbato
i test per l’installazione di
un sistema di navigazione nell’aeroporto
stesso e, una volta scoperto,
è stato licenziato e multato per
circa 32.000 dollari dalla Federal
Communications Commission.
Cambiando ambito di applicazione,
nel 2013, un team di ricercatori
statunitensi ha dimostrato che
era possibile mandar fuori rotta
uno yacht (del valore di 80 milioni
di dollari) attraverso semplici dispositivi
di spoofing (Jones 2017).
La questione diventa importante
quando queste pratiche diventano
diffuse: nel luglio 2016 è salito
alla ribalta delle cronache il gioco
per smartphone Pokémon Go. Il
gioco utilizza il GNSS del dispositivo
mobile per individuare,
catturare, combattere e addestrare
i Pokémon, creature virtuali, (posizionate
nel mondo reale) che appaiono
sullo schermo del giocatore
solo quando esso si trova nelle loro
vicinanze. La difficoltà di trovarsi
in luoghi specifici ha fatto nascere
nei giocatori la voglia di trovare
una soluzione più facile: ingannare
il gioco facendogli credere di trovarsi
nel posto giusto al momento
giusto. Molti utenti hanno, quindi,
installato nel proprio device
applicazioni in grado di sostituire i
dati di localizzazione con dati falsi
(auto-spoofing). Pokemon-Go ha
cosi contribuito a far conoscere
al grande (e giovane) pubblico lo
spoofing dei sistemi GNSS.
Ultimo evento significativo: tra
il 22 e il 24 giugno 2017, alcune
navi nel Mar Nero hanno riportato
anomalie nel calcolo della loro
posizione, risultando posizionate
all’interno di un aeroporto a chilometri
di distanza. E’ abbastanza
probabile che i segnali GPS di
quella zona siano stati falsificati da
un sistema di difesa anti-drone.
Molti droni commerciali hanno,
infatti, regole di geofencing che ne
impediscono il volo su aeroporti e
altre aree ristrette: facendo credere
al drone di trovarsi sopra un aeroporto
lo si costringe ad eseguire
l’immediato atterraggio o il ritorno
al punto di lancio (Jones 2017).
Quanto esposto è possibile poiché,
come menzionato precedentemente,
la stragrande maggioranza dei
ricevitori GNSS commerciali nel
mondo si basa esclusivamente sui
segnali non crittografati ed aperti
a tutti. In più, la diffusione delle
Software Defined Radio (SDR -
Ricetrasmettitori programmabili a
basso costo) ha aperto la strada allo
“spoofing per tutti”. Equipaggiate
con software di simulazione GPS
(open source!) le SDR posso trasformarsi
in ottimi spoofer.
Considerando quanto esposto è
chiaro che la sicurezza dovrebbe
essere attentamente considerata
anche nelle applicazioni di
Geomatica, per fare alcuni esempi:
4in caso di uso di droni per ogni
tipo di rilevamento: il mancato
controllo del drone a causa di un
errore di posizione elevato o una
negazione del servizio può comportare
un danno per l’uomo;
l’uso di disturbatori può consentirne
la cattura, l’abbattimento o
il furto;
4errori di misura (diretti o indiretti)
possono vanificare campagne
di misura anche lunghe e
costose;
4utenti o fruitori non collaborativi
possono cercare di impedire
i rilievi attraverso la negazione
dei servizio di localizzazione (ad
esempio nei casi di censimenti,
monitoraggio di abusi edilizi
etc.);
Fortunatamente molte tecniche di
difesa sono già note e l’argomento
è continuo oggetto di ricerca da
anni in tutto il mondo.
Normalmente possiamo utilizzare
almeno tre contromisure per mitigare
i rischi di sicurezza legati all’uso
di un sistema di navigazione
satellitare: l’integrità, la protezione e
la consapevolezza.
Integrità
L’integrità è la capacità di fornire
opportuni allarmi agli utenti
quando il sistema di navigazione
non sta funzionando in modo
corretto o comunque non sta rispettando
le specifiche richieste.
E’, quindi, la capacità di rilevare
degradazioni nella accuratezza
oltre una determinata soglia e di
segnalarlo entro un tempo definito.
In questo modo l’utente, consapevole
che il sistema è degradato
nelle sue prestazioni, può smettere
di utilizzarlo.
Possono essere utilizzate varie tecniche
per fornire questo servizio;
tutte quante sfruttano la ridondanza
delle informazioni (provenienti
dal sistema stesso o da sistemi di
localizzazione terzi) per scovare il
malfunzionamento.
Generalmente si distinguono le
seguenti categorie di algoritmi di
integrità:
4AIM (Autonomous Integrity
Monitoring) in cui l’utente confronta
più sistemi di navigazione
a suo disposizione per rilevare
un anomalia nei dati di posizione;
4RAIM (Receiver Autonomous
Integrity Monitoring) in cui
l’utente sfruttando la sovrabbondanza
di satelliti di navigazione
in visibilità riesce a rilevare la
presenza di misure anomale;
4Monitoring: i segnali provenienti
dai satelliti del sistema di navigazione
vengono monitorati da
un rete di ricevitori a terra che
verificano la loro “congruità” e
se necessario lanciano un allarme.
Per diffondere l’allarme può
essere utilizzato un data-link di
tipo terrestre o di tipo satellitare.
Esistono vari esempi di servizi di
integrità già operativi (solitamente
44 GEOmedia n°5-2018
REPORT
per applicazioni aeronautiche)
come quelli forniti dai sistemi
WAAS ed EGNOS precedentemente
citati. Essi monitorano i
segnali GNSS attraverso una rete
di sensori a terra e diffondono su
scala continentale informazioni di
integrità utilizzando i satelliti geostazionari
(EGNOS, ad esempio,
è in grado di fornire un allarme
entro 6 secondi se si verifica una
degradazione dell’accuratezza superiore
ai 40-50 metri).
Con sistemi di tipo locale si ottengono
prestazioni migliori sia
per quanto riguarda il tempo di
allarme che il livello di protezione
(soglia di accuratezza oltre la
quale esso scatta). Sempre nel
settore aeronautico, sono stati
introdotti e si stanno sviluppando
i sistemi GBAS (Ground Based
Augmentation System) pensati per
essere installati presso gli aeroporti
e consentire alcuni tipi di atterraggi
strumentali (tipicamente con
tempi di allarme inferiori al secondo
e livelli di protezione sotto ai
10 metri).
Infine le tecniche RAIM e AIM
sono già ampiamente utilizzate per
la navigazione aerea in rotta senza
l’ausilio di infrastrutture terrestri
(Galati 2009).
Molte altre tecniche sono allo studio,
ad es. per sfruttare la presenza
di multi-costellazioni (Gargiulo
2010)(Viola 2012), e tutte, così
come sono o con alcune modifiche,
potrebbero essere introdotte
anche nelle applicazioni di geomatica.
Protezione
Seppur la funzione di l’integrità
consente di rilevare un malfunzionamento,
da sola non è sufficiente.
La presenza di un disturbo intenzionale,
ad esempio, può, a volte,
essere difficile da rivelare e comunque
inibirebbe localmente l’uso
del sistema. Lo Spoofing, inoltre,
generando segnali del tutto analoghi
a quelli dei satelliti, potrebbe
essere completamente trasparente
ai sistemi di integrità.
Il ricevitore di navigazione satellitare
deve essere quindi protetto da
questi attacchi. Questo problema
è noto fin dall’origine dei sistemi
di navigazione satellitare ed infatti
tutti i sistemi oggi operativi, oltre
ai segnali per uso civile (e liberamente
fruibile), trasmettono anche
segnali ad accesso controllato, tipicamente
ad uso militare, che grazie
all’impiego di tecniche di crittografiche
e di autenticazione sono
robusti rispetto ai disturbi. Caso
particolare è il sistema Galileo che
prevede queste peculiarità anche
per gli utenti civili (con il futuro
servizio denominato Safety of Life)
(Galati 2009): sarà pertanto possibile
proteggersi selezionando accuratamente
il servizio di navigazione
più adatto alle esigenze.
Anche nel caso non sia possibile
utilizzare i segnali e i servizi appositamente
concepiti per essere
immuni ai disturbi, sono comunque
disponibili delle tecniche di
mitigazione. Sono note, e oggetto
di ricerca, tecniche in grado di
rivelare la presenza di un segnali
interferenti e mitigarne gli effetti
attraverso introduzione di algoritmi
avanzati di Signal Processing
direttamente nel ricevitore d’utente
o sfruttando antenne adattative
(Lo presti 2006)(Di Fonzo 2014).
Consapevolezza
Può sembrar banale, ma il primo
passo per gestire un rischio è sempre
la consapevolezza della sua
esistenza e delle sue potenzialità.
Introdurre la cultura della sicurezza
nell’uso di apparati di navigazione
satellitare anche in settori
applicativi in cui non si ci si occupa
direttamente del trasporto delle
persone è un passo fondamentale.
Fortunatamente la cultura della
sicurezza è già ben presente in vasti
settori della geomatica (si pensi alle
norme di sicurezza nei cantieri);
essa dovrebbe essere estesa anche ai
nuovi strumenti basati sui GNSS.
Conoscere i limiti dei propri strumenti
(seppur considerati solo apparati
di misura) consente già una
mitigazione del rischio.
Fondamentale è, quindi, incrementare
le competenze di navigazione
satellitare degli operatori del
settore attraverso una formazione
permanente. Sarà necessario, infine,
sviluppare nuovi modelli e
piani di sicurezza che tengano presente
le specificità di questi sistemi
tecnologici.
Conclusioni
In conclusione, seppur oggi la
cultura e la gestione della sicurezza
dei sistemi di navigazione satellitare
non è al primo posto nei
pensieri del professionista, lo potrà
diventerà ben presto, così come già
dimostrato in altri settori delle telecomunicazioni
(si pensi ad esempio
alla cyber security nelle reti
di telecomunicazioni). Bisognerà,
allora, farsi trovare pronti avendo
ben presente i limiti dei sistemi
GNSS, conoscendo le possibilità
messe a disposizione dagli odierni
(e futuri) sistemi di navigazione e,
quando necessario, sviluppando
nuove tecniche di integrità e protezione.
ABSTRACT
G. Galati, M. Leonardi (2009) SISTEMI DI RILEVAMENTO E
NAVIGAZIONE, TexMat Libreria Universitaria
M. Jones (2017) Spoofing in the Black Sea: What really happened?
gpsworld.com, http://gpsworld.com/spoofing-in-the-black-seawhat-really-happened/
G. Gargiulo, M. Leonardi,M. Zanzi, G. Varacalli (2010) Integrity
and protection level computation for vehicular applications Proceedings
of 16th Ka and broadband communications navigation
and earth observation conference, Pages:2968 – 2977
S. Viola, M. Mascolo, P. Madonna, L. Sfarzo, M. Leonardi (2012)
Design and Implementation of a Single-Frequency L1 Multiconstellation
GPS/EGNOS/GLONASS SDR Receiver with NIORAIM
FDE Integrity, Proceedings of the 25th International Technical
Meeting of The Satellite Division of the Institute of Navigation
(ION GNSS 2012)
L. Lo Presti, B. Motella, M. Leonardi (2006) A Technique of Interference
Monitoring in GNSS Applications, Based on ACF and
Prony Methods, Proceedings of the 19th International Technical
Meeting of the Satellite Division of The Institute of Navigation
(ION GNSS 2006)
A. Di Fonzo, M. Leonardi; G. Galati, P. Madonna, L. Sfarzo (2014)
Software-Defined-Radio techniques against jammers for in car
GNSS navigation, IEEE International Workshop on Metrology for
Aerospace 2014
PAROLE CHIAVE
GNSS; sicurezza; geomatica
ABSTRACT
Satellite navigation systems are more and more used in geomatics.
This penetration has not always taken into account
the relative safety and security aspects and the consequent
threats to the humans. This work focuses on these aspects
that are often overlooked in geomatics. After a brief introduction
on the evolution of satellite navigation systems and
on future trends, the related safety and security risks are analyzed
and possible countermeasures (Integrity, Awareness,
and Protection) are discussed.
AUTORE
Mauro Leonardi
mauro.leonardi@uniroma2.it
Dipartimento di Ingegneria Elettronica
Università di Roma
GEOmedia
Tor Vergata.
n°5-2018 45
AGENDA
16 - 19 Gennaio 2019
TUSE The Unmanned System
Expo
Rotterdam (The Netherlands)
www.geoforall.it/ku4r6
16-17 Gennaio 2019
Museum Connections
Paris (France)
www.museumconnections.com
20 - 22 Febbraio 2019
FOSS4G-IT 2019
Padova (Italia)
www.geoforall.it/kur8a
2 - 4 Aprile 2019
Geospatial World Forum
Amsterdam (The Netherlands)
www.geoforall.it/kuqk8
4 - 5 Aprile 2019
Dronitaly
Milano (Italia)
www.dronitaly.it
10-11 Aprile 2019
Conferenza Esri Italia
Roma (Italia)
www.geoforall.it/k8c
3 - 5 Maggio 2019
GISTAM 2019
Heraklion (Grecia)
www.geoforall.it/kuf9x
21 - 22 Maggio 2019
GEO Business 2019
Londra (UK)
www.geoforall.it/kuf93
22-24 Febbraio 2019
Tourisma
Firenze
www.tourisma.it
1-5 Settembre 2019
27th international CIPA
symposium
Avila (Spagna)
http://www.cipa2019.org
6 - 8 Febbraio 2019
11th EARSeL SIG IS
Workshop
Brno (Czech Republic)
www.geoforall.it/k8cqr
Dal 1986 Teorema
lavora a fianco dei professionisti
per fornire la tecnologia topografica
più avanzata,
la migliore formazione tecnica
ed una accurata assistenza
post-vendita.
LEICA TS13
STAZIONE TOTALE ROBOTICA
UN NUOVO STANDARD
NELLA MISURAZIONE
TOPOGRAFICA.
per maggiori
informazioni
La tecnologia di puntamento automatico del target (ATR) e le funzionalità opzionali di
aggancio e di SpeedSearch, permettono di trovare ed agganciare rapidamente i prismi,
anche senza l’intervento manuale, fornendo misurazioni precise dei
target ed un flusso di lavoro più rapido, anche con una sola persona.
Con il rivoluzionario software Leica Captivate, la stazione totale Leica
TS13 trasforma i dati complessi in realistici e pratici modelli 3D,
gestendo tutti i campi di applicazione con un semplice tocco.
Contattaci, scoprirai molto di più!
Via A. Romilli, 20/8 - 20139 Milano • Tel. 02 5398739
E-mail: teorema@geomatica.it
www.geomatica.it • www.disto.it • www.termocamere.com
Prova S900 o S900A con la
Soluzione Android
S900 | SERIES
THE ITALIAN GNSS RECEIVER
Dove siamo Chiamaci Contaaaci
Seguici sui Social
Via Cimabue, 39
20851, Lissone (MB)
Tel. +39 039 2783008 / +39 039 2785575
Fax +39 039 2789576
www.stonex.it
info@stonex.it - italia@stonex.it
SOLUZIONI DI GEOPOSIZIONAMENTO
topconpositioning.com/gls-2000
PRESENTA
LASER SCANNER 3D
IMAGING
LASER SCANNER
FORMA E FUNZIONE
MAGNET
TECNOLOGIA DI SCANSIONE 3D, VELOCE E PRECISA
Il GLS-2000 offre una modalità rapida, semplice ed efficace per catturare nuvole di punti 3D ad alta velocità,
senza sacrificare l’accuratezza richiesta dai professionisti più esigenti.
© 2017 Topcon Positioning Group