GEOmedia_5_2018

mediageo

La prima rivista italiana di geomatica.

Rivista bimestrale - anno XXII - Numero 5/2018 - Sped. in abb. postale 70% - Filiale di Roma

TERRITORIO CARTOGRAFIA

GIS

CATASTO

3D

INFORMAZIONE GEOGRAFICA

FOTOGRAMMETRIA

URBANISTICA

GNSS

BIM

RILIEVO TOPOGRAFIA

CAD

REMOTE SENSING SPAZIO

EDILIZIA

WEBGIS

UAV

SMART CITY

AMBIENTE

NETWORKS

LiDAR

BENI CULTURALI

LBS

Sett/Ott 2018 anno XXII N°5

La prima rivista italiana di geomatica e geografia intelligente

Tecnologie Geospaziali per la

lotta agli Incendi Boschivi

ANALISI SATELLITARE

DELL’INCENDIO DEL

VESUVIO LUGLIO 2017

SUPPORTO ALLE DECISIONI

PER LA SICUREZZA A SCALA

TERRITORIALE

QUESTIONI SULLA

SICUREZZA DEI

SISTEMI GNSS


X-PAD Ultimate

Tutto in un unico software

X-PAD Ultimate è un software modulare, facile da

usare per lavori topografici e del cantiere, come rilievi,

tracciamenti, catasto, controlli BIM, strade, mappe,

batimetria e GIS.

Il software è disponibile sulla piattaforma Android e

porta le migliori tecnologie direttamente in campo

nella tua mano: una completa visualizzazione 3D ed

un sistema CAD per visualizzare e modificare i disegni,

integrazione dei tuoi dati con tutte le tipologie di

mappe, supporti per la realtà aumentata e molto altro.

XPad Ultimate ti assicura la produttività e ti permette di

avere una perfetta integrazione con tutti gli strumenti.

Disponibile in due versioni, una dedicata a chi lavora nel

campo della topografia ed una dedicata alle imprese di

costruzioni, offrendo ad entrambi delle caratteristiche

dedicate.

geomax-positioning.it

©2018 Hexagon AB and/or its subsidiaries

and affiliates. All rights reserved.

Per trovare un distributore nella vostra zona, visitate il nostro sito web: geomax-positioning.it


Quintilioni di dati nel mondo del geospatial

L'industria mondiale del geospatial continua a crescere e non ci sono segni al momento di una

probabile recessione. Contemporaneamente cresce la quantità di dati che produciamo ogni giorno,

raggiungendo numeri sbalorditivi.

Ci sono 2,5 quintilioni di byte di dati creati ogni giorno, ma questo numero è destinato a crescere

con l'Internet of Things (IoT). Bernard Marr su Forbes, poco tempo fa diceva che solo negli ultimi

due anni è stato generato il 90% dei dati nel mondo. E i quintilioni nel gergo di Forbes dovrebbero

corrispondere a 10 elevato alla 30a potenza e non alla 18a potenza, come invece si usa in Italia

definendo un quintilione uguale a miliardo di miliardi. Un numero talmente grande che si stenta

anche a definire in modo univoco.

Oltre 3,7 miliardi di esseri umani utilizzano Internet con un tasso di crescita annuo del 7,5%. In

tutto il mondo ci sono 5 miliardi di ricerche al giorno. In media, Google elabora più di 40.000

ricerche ogni secondo (3,5 miliardi di ricerche al giorno). Mentre il 77% delle ricerche sono

condotte su Google, sarebbe trascurato non ricordare che anche altri motori di ricerca stanno

contribuendo alla nostra generazione quotidiana di dati.

Per non parlare dei social, tra i quali non possiamo non notare l’impressionante crescita di

Instagram di proprietà ora del grande social network Facebook (2 miliardi di utenti attivi) che ha

superato i 600 milioni di utenti attivi, definiti Instagrammers, 400 milioni di persone che ogni

giorno condividono su Instagram 95 milioni di foto e video.

L'Internet of Things con i suoi dispositivi "intelligenti" connessi, sta esplodendo passando da 2

miliardi di dispositivi nel 2006 a 200 miliardi previsti entro il 2020.

Tutto il flusso dei dati è relazionato al “dove”, in un modo approssimato o preciso in funzione della

situazione governata dal geospatial. Un mondo i cui attori hanno business evoluti, come abbiamo

visto nell'ultima fiera INTERGEO che ha raggruppato oltre 20.000 partecipanti provenienti da

oltre 100 paesi del mondo, o come ha dimostrato recentemente a Las Vegas la Trimble Dimensions

2018 User Conference, che con un evento di tre giorni ha riunito oltre 4.400 partecipanti. Oltre

18.000 persone hanno partecipato alla recente Esri User Conference negli USA con il motto diffuso

“Science of Where”.

La richiesta di mappe dettagliate, aggiornate e tridimensionali di città, strade e grandi strutture è in

costante crescita. Questa domanda è anche alimentata dalla continua diminuzione esponenziale del

costo della raccolta di nuvole di punti raccolte da sistemi di mappatura mobile, solitamente montati

su un'automobile, un furgone o altro veicolo che può viaggiare alla normale velocità del traffico

su strade e autostrade. Inoltre la continua miniaturizzazione di sensori ed elettronica connessa sta

portando alla costruzione di scanner laser che sono abbastanza leggeri da essere montati su sistemi

aerei senza equipaggio, ma anche su zaini o aste tenute in mano per catturare stanze, corridoi e

molti altri spazi interni o esterni.

Oggi il rilievo, con l'acquisizione di nuvole di punti, non è più un dominio esclusivo degli

specialisti della geomatica. La chiave di questa evoluzione è nei sensori affidabili e facili da usare,

accompagnati da software sempre più intelligenti. Di conseguenza il ruolo dello specialista

geomatico si sta spostando da operatore a consulente e sviluppatore di software.

Lo spettro delle conoscenze riguarda la comprensione del nocciolo dei dati geospaziali, la loro

fusione con altri dati e le esigenze di archiviazione delle grandi moli di dati.

Una corretta analisi di questi dati, può servire certamente a direzionare flussi commerciali,

rispondere ad esigenze della popolazione, indirizzare la necessaria pianificazione del territorio, oltre

che a rispondere alla primaria esigenza di analisi per la prevenzione e la difesa della popolazione

dagli eventi catastrofici.

Buona lettura,

Renzo Carlucci


In questo

numero...

FOCUS

REPORT

LE RUBRICHE

Tecnologie

geospaziali per

l’ottimizzazione della

DISTRIBUZIONE di

risorse (squadre a terra

e Dos) per la lotta agli

incendi boschivi nella

rete delle sedi del

Corpo Nazionale dei

Vigili del Fuoco

di Michele Fasolo

6

46 AGENDA

Nello sfondo vediamo Città

del Messico ripresa dalla

missione Sentinel-1 del

programma europeo Copernicus.

Questa capitale

intensamente popolata e di

grandi dimensioni si può riconoscere

nella parte in alto a

destra dell’immagine. Ospita

quasi 9 milioni di abitanti,

con l’area metropolitana circostante

- chiamata Greater

Mexico City - in cui si registra

una popolazione di oltre 21

milioni di individui. Questa

circostanza la rende la città di

lingua ispanica più grande al

mondo. (Credits ESA)

16

Studio

comparativo tra

lo stato dei luoghi

prima e dopo

l’incendio del

Vesuvio tramite

analisi satellitare

di Massimiliano Moraca,

Antonio Pepe

In copertina, la mappa di

valutazione dei danni "damage

grade assesment" nell'area del

Vesuvio derivata da immagini

satellitare GeoEye Pre-event

image: GeoEye © Digital Globe,

Inc. (2016) (26/04/2016 at 10:01,

GSD 0.5 m, 21.8° off-nadir angle)

fornita in COPERNICUS by the

European Union and ESA.

Post-event image: WorldView-2

© Digital Globe, Inc. (2017)

(16/07/2017 at 09:49, GSD 0.5

m, 26.6° off-nadir angle) fornita in

COPERNICUS by the European

Union and ESA.

30

Sicurezza a scala

territoriale: il ruolo

degli strumenti

di supporto alle

decisioni

di Stefano Marsella,

Marcello Marzoli

geomediaonline.it

GEOmedia, bimestrale, è la prima rivista italiana di geomatica.

Da 20 anni pubblica argomenti collegati alle tecnologie dei

processi di acquisizione, analisi e interpretazione dei dati,

in particolare strumentali, relativi alla superficie terrestre.

In questo settore GEOmedia affronta temi culturali e tecnologici

per l’operatività degli addetti ai settori dei sistemi informativi

geografici e del catasto, della fotogrammetria e cartografia,

della geodesia e topografia, del telerilevamento aereo e

spaziale, con un approccio tecnico-scientifico e divulgativo.


INSERZIONISTI

34 "...IN ERRORE

PERSEVERARE"

di Attilio Selvini

aerRobotix 26

Epsilon 41

Esri Italia 37

Geogrà 29

3DTarget 27

Geomax 2

GIS3W 33

Gter 24

Planetek Italia 15

Elaborazione di

Piattaforma GIS

sul fattore di

Rischio alluvionale

nel comprensorio

del Comune di

Sora (Fr)

di Fabio Cuzzocrea,

38

Stonex 47

Studio SIT 36

Teorema 46

Topcon 48

Stefano Lucidi

42

Aspetti di sicurezza

nell'utilizzo dei

sistemi di navigazione

satellitare

di Mauro Leonardi

28

L'aerofototeca

nazionale racconta…

la telefotografia,

prima della Grande

Guerra

di Elizabeth J. Shepherd

ERRATA CORRIGE

Nel numero precedente GEOmedia 4 2018 a pag. 5 nel sommario invece

di "Giovanni Nicolai” si legga “Francesca Pompilio” come autore nella

rubrica l'aerofototeca nazionale racconta...

una pubblicazione

Science & Technology Communication

Direttore

RENZO CARLUCCI, direttore@rivistageomedia.it

Comitato editoriale

Vyron Antoniou, Fabrizio Bernardini, Mario Caporale,

Luigi Colombo, Mattia Crespi, Luigi Di Prinzio, Michele

Dussi, Michele Fasolo, Marco Lisi, Flavio Lupia, Luigi

Mundula, Beniamino Murgante, Aldo Riggio, Mauro

Salvemini, Domenico Santarsiero, Attilio Selvini,

Donato Tufillaro

Direttore Responsabile

FULVIO BERNARDINI, fbernardini@rivistageomedia.it

Redazione

VALERIO CARLUCCI, GIANLUCA PITITTO,

redazione@rivistageomedia.it

Diffusione e Amministrazione

TATIANA IASILLO, diffusione@rivistageomedia.it

Comunicazione e marketing

ALFONSO QUAGLIONE, marketing@rivistageomedia.it

Progetto grafico e impaginazione

DANIELE CARLUCCI, dcarlucci@rivistageomedia.it

MediaGEO soc. coop.

Via Palestro, 95 00185 Roma

Tel. 06.64871209 - Fax. 06.62209510

info@rivistageomedia.it

ISSN 1128-8132

Reg. Trib. di Roma N° 243/2003 del 14.05.03

Stampa: SPADAMEDIA srl

VIA DEL LAVORO 31, 00043 CIAMPINO (ROMA)

Editore: mediaGEO soc. coop.

Condizioni di abbonamento

La quota annuale di abbonamento alla rivista Science è di € & 45,00. Technology Communication

Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di

ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa.

L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita

revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza

dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo.

La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti.

Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta

dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere

richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo.

Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la

riproduzione anche parziale del contenuto di questo numero della Rivista in

qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i

sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore.

Rivista fondata da Domenico Santarsiero.

Numero chiuso in redazione il 5 Dicembre 2018.


FOCUS

FOCUS

Tecnologie geospaziali per

l’ottimizzazione della

distribuzione

distribuione di risorse (squadre

a terra e Dos) per la lotta agli

incendi boschivi nella rete

delle sedi del Corpo

Nazionale dei Vigili del Fuoco

di Michele Fasolo

Fig. 1 - Territorio del comune di Patti (ME) percorso dal

fuoco nell’incendio del 30.06.2017 (rielaborazione in falsi

colori immagine Sentinel 2A del 03.08.2017 con combinazione

di bande nell’infrarosso. Aree percorse dal fuoco in

verde scuro).

Negli ultimi decenni la

letteratura sui sistemi di

soccorso ha registrato

un grandissimo numero

di contributi che hanno

utilizzato, pur declinandola

secondo prospettive

differenti, la Teoria delle code

per approntare procedure e

modelli utili a comprenderne

il comportamento, misurare

e ottimizzare le prestazioni

in termini di efficienza del

servizio reso nel territorio da

queste particolari strutture

sistemiche così importanti

sotto il profilo sociale. Si

tratta di strutture molto

complesse a causa dei fattori

prevedibili e imprevedibili di

variabilità che vi intervengono

sia a livello di numero di

richieste che di tempo

Il problema fondamentale

che si pone nell’analisi e

nella modellazione teorica è

proprio il loro essere caratterizzate

dall’irrompere casuale nel

loro sistema di quegli eventi che

determinano la loro attivazione,

con la possibilità di formazione

di una coda (o fila) in attesa,

quando il numero di eventi diviene

troppo elevato o troppo

concentrato nell’unità di tempo

in rapporto alle risorse operative

disponibili per lo svolgimento

del servizio richiesto. L’obiettivo

dello studio di questi sistemi è

dunque finalizzato all’analisi dei

regimi di servizio per dimensionare

correttamente le risorse al

fine di far fronte alle richieste

nella misura più efficace possibile,

nel rispetto dei vincoli

complessivi (quali p.e. il numero

complessivo di risorse impiegabili

o il livello minimo accettabile

della qualità di risposta che il

sistema deve poter garantire) .

Sorge dunque la necessità di

calcolare su base probabilistica

una distribuzione ottima delle

risorse tra i vari nodi della rete in

modo che queste non risultino

carenti laddove sarebbero previsionalmente

più necessarie e,

al contrario, poi effettivamente

sottoutilizzate laddove alla luce

delle probabili esigenze si presentino

sovrabbondanti. Una distribuzione

ottima basata in ogni

caso su criteri oggettivi, razionali

e scientifici. e supportata da consolidati

modelli matematici.

necessario a soddisfarle.

Figg. 2,3 - Patti (ME) incendio boschivo del 30.06.2017.

6 6 GEOmedia n°5-2018 n°4-2018


FOCUS

Una possibile soluzione è

quella di costruire un modello

matematico (analitico) di ottimizzazione,

di tipo stocastico,

attraverso variabili e relazioni

logico–matematiche che siano

corrispondenti alle relazioni del

modo reale, in grado di descrivere

in modo semplificato ma

soddisfacente il funzionamento

e i fenomeni che lo influenzano

e supportare le eventuali decisioni

a riguardo.

La teoria delle code con l’applicazione

del tipo di modello di

file d’attesa (c.d. a code) risponde

con risultati convincenti a

tali esigenze. Consente infatti di

misurare le prestazioni in termini

di efficienza del servizio reso

nel territorio di competenza da

ciascun nodo della rete.

Tra i metodi possibili si propone

qui e si valuta un procedimento

dedicato di ottimizzazione fondato

sulla “Teoria delle Code”,

formulato come problema di

Programmazione Lineare, .denominato

dal suo autore Fabrizio

Di Liberto, “Metodo delle

Code”.

Il metodo è stato applicato nel

contesto della lotta attiva agli

incendi boschivi per affrontare

il problema della dotazione

operativa ottimale delle sedi del

Corpo nazionale dei vigili del

fuoco (CNVVF) esistenti sul

territorio italiano, in termini di

squadre antincendio boschivo

(AIB) e di direttori delle operazioni

di spegnimento (DOS), in

base alle necessità di copertura

operativa conseguenti alla analisi

di rischio di incendio nel

territorio e delle capacità di servizio

delle sedi, entrambe elaborate

utilizzando le statistiche del

fenomeno negli ultimi anni.

zionalmente è stato utilizzato

dall’uomo per sfruttare l’ambiente

naturale modificandolo a

proprio vantaggio.

Anche il territorio italiano è

afflitto ogni anno da incendi

devastanti che interessano decine

di migliaia di ettari di zone

boscate e in generale vegetate,

costituendo una tra le più impegnative

criticità ambientali con

cui devono confrontarsi i cittadini

e le istituzioni.

Un’emergenza che va affrontata

su più piani, da quello sociale

ed economico, a quello della

repressione criminale per i tantissimi

eventi dolosi e le attività

delle ecomafie, con il concorso

sinergico di più attori istituzionali

con il rafforzamento delle

attività di programmazione e di

prevenzione.

Quadro normativo e nuove

competenze del CNVVF

In Italia la normativa in materia

di incendi boschivi è risultata

per molti anni insufficiente e

inadeguata alla gravità del fenomeno

sino all’approvazione

della legge 21 novembre 2000,

n. 353 (Legge-quadro sugli

incendi boschivi), che ha apportato

importantissimi elementi

di innovazione e di contrasto

all’aberrante circolo vizioso

degli interessi economici che

sorgono intorno al fuoco tra cui

quelli, affatto secondari, sintetizzati

dall’ossimoro “bruciare

per spegnere”. Tra gli aspetti

più rilevanti stabiliti dalla legge

quadro c’è il completo riordino

delle competenze Stato-Regioni

Fig. 4 - Superficie ha bruciata per anno; periodo 2010-2016

( Fonte dati Corpo Forestale dello Stato le Regioni italiane a

statuto ordinario).

Fig. 5 - Numero incendi boschivi per quota sul s.l.m ogni

100 km2 (Fonte dati Corpo Forestale dello Stato le Regioni

italiane a statuto ordinario).

Fig. 6 - Numero incendi boschivi per Regione; periodo

2010-2016 (Fonte dati Corpo Forestale dello Stato le Regioni

italiane a statuto ordinario).

Gli incendi boschivi in Italia

L’incendio boschivo è un fenomeno

globale, sempre presente,

comune a molti Paesi europei e

in particolare a quelli del bacino

del Mediterraneo dove tradicon

trasferimento a queste ultime

di tutte le competenze in

materia di previsione, prevenzione

e lotta attiva contro gli

incendi boschivi, lasciando allo

Stato il concorso in particolare

allo spegnimento degli incendi

con il supporto della flotta aerea

antincendio di Stato. Ciascuna

Tab. 1 - Distribuzione mensile numero incendi boschivi a livello regionale; periodo 2010-2016.

GEOmedia n°5-2018 n°4-2018 7


FOCUS

Regione affronta il contrasto

agli incendi boschivi secondo

un’organizzazione peculiare e

sulla base di norme regionali

che prevedono anche la possibilità

di stipulare specifiche

convenzioni con enti pubblici

ma anche privati come le associazioni

di volontariato AIB

Rispetto a questo impianto

normativo che individua nelle

Regioni i soggetti responsabili

dello spegnimento a terra, lasciando

allo Stato il concorso

con la flotta aerea di Stato, la

revisione normativa apportata

dal decreto legislativo 19 agosto

2016 n. 177 con l’assorbimento

del Corpo Forestale dello Stato

nell’Arma dei carabinieri, e il

contestuale trasferimento al

Corpo Nazionale dei Vigili del

fuoco (CNVVF) delle competenze

CFS in tema di lotta

attiva agli incendi boschivi

ha comportato il mutamento

dell’interlocutore statale, oggi

unicamente il CNVVF, per

la estinzione degli incendi, la

direzione delle operazioni di

spegnimento, il coordinamento

Fig. 7 - Suddivisione del territorio italiano mediante

il metodo dei poligoni di Thiessen, imperniati sulla

posizione delle 459 sedi territoriali VVF

delle forze regionali di volontariato,

la collaborazione all’interno

di ciascuna Sala operativa

unificata permanente (SOUP).

Il concorso del CNVVF al

dispositivo di antincendio boschivo

delle Regioni e degli Enti

parco viene regolato attraverso

accordi di programma che fanno

riferimento alle principali

norme in materia di antincendio

boschivo.

Unitamente al d.lgs.177/2016

la revisione del d.lgs 139/2006

ha reso necessario per il

CNVVF la predisposizione di

un dispositivo coordinato di

risposta in materia AIB con una

revisione e un rafforzamento

degli assetti organizzativi e funzionali

con una distribuzione

mirata del personale..

L’attuale dislocazione sul

territorio delle strutture del

CNVVF è infatti studiata per

il soccorso tecnico urgente alle

popolazioni, con una conseguente

minore prossimità alle

aree boschive che, solitamente,

sono contraddistinte da un basso

grado di urbanizzazione.

In conclusione il problema è

quello di individuare, al fine di

rafforzare le azioni di prevenzione

e di spegnimento un nuovo

assetto ottimale del dispositivo

di lotta attiva AIB rafforzandolo

in particolare nelle Regioni e

nelle Province a maggior rischio

in modo da consentire, con

interventi più rapidi a elevata

capacità operativa in territori

impervi e con poche vie di penetrazione,

l’estinzione degli

incendi nelle fasi iniziali, contenendo

al minimo i danni.

Di estrema importanza risulta

in particolare il calcolo delle

risorse aggiuntive da mettere

in campo ovvero la stima delle

esigenze da quantificare con le

Regioni competenti e da definire

negli Accordi Convenzionali

da stipulare.

Questo calcolo è stato impostato

in questo studio a partire

dalle statistiche degli incendi

verificatisi nel periodo 2010-

2016 nei singoli ambiti di

competenza territoriale delle

sedi VVF in particolare a partire

dagli indici di rischio e dalla

capacità relativa del sistema di

servizio delle sedi.

Il modello e la sua

applicazione

Secondo la procedura adottata

in questo studio, applicando il

Metodo delle Code, la rete dei

presidi di soccorso territoriali è

modellizzata come un network

di sistemi di servizio cui giungono

in istanti aleatori richieste

di intervento. La Teoria delle

Code è in grado di descrivere

processi stocastici (cd. “senza

memoria” o “markoviani”) di

questo tipo di sistema di servizio

a mezzo di equazioni differenziali

ordinarie.

Per approntare il modello si

sono innanzitutto definiti i territori

di competenza di ciascuna

sede territoriale di soccorso

tecnico urgente VVF (100

Comandi + 358 distaccamenti

permanenti + 1 distaccamento

misto). Per farlo si è suddiviso

(utilizzando la piattaforma

ArcGis 10.5) il territorio italiano

(dominio B=boundary)

mediante il metodo dei poligoni

di Thiessen, imperniati sulla

posizione delle sedi territoriali

VVF {m J

}, in k entità di discretizzazione

{b k

} (nodi).

Un altro possibile metodo di

discretizzazione delle aree di

competenza delle singole sedi di

servizio, qui non utilizzato per

ragioni di speditezza è quello di

individuarle come porzioni di

territorio accessibili dalla posizione

di ciascuna sede stimate

in funzione della rete stradale a

parità di tempo rispetto a quella

da ciascuna altra sede circostante

e senza sovrapposizioni (superfici

isocrone).

8 GEOmedia

GEOmedia

n°4-2018

n°5-2018


FOCUS

Si è comunque riscontrato che

ciscun poligono della discretizzazione

secondo il metodo di

Thiessen corrisponde a un’area

di accessibilità isocrona media

di 28-30 minuti.

A ciascuna sede territoriale del

CNVVF {m J

} è stata quindi

assegnata una quantità {U J

} di

unità di soccorso (partenze o

squadre) (due per i comandi e

le sedi classificate SD5, una per

tutte le altre) pronte all’impiego

in caso di necessità conseguenti

a incendi boschivi localizzati

nell’intorno definito dal poligono

corrispondente a ciascuna

sede {R J

} (raggio operativo).

Per la ricerca si sono utilizzati i

dati relativi ai 28.806 incendi

censiti dal Corpo Forestale dello

Stato nel territorio delle 15 Regioni

a statuto ordinario negli

anni dal 2010 al 2016 (archivio

AIB-FN Foglio Notizie AntIncendi

Boschivi). L’archivio AIB-

FN è stato realizzato per vari

decenni raccogliendo i dati che,

il personale Forestale intervenuto

sull’incendio e responsabile

delle operazioni di spegnimento

compilava dettagliatamente.

Si tratta di una fonte di dati

ricchissima di voci e quindi rilevante

con informazioni omogenee

e facilmente trattabili per

l’elaborazione statistica.

I dati sono stati riportati al

contesto dell’attuale dispositivo

di soccorso VVF a seguito

delle nuove funzioni assegnate

dal d.lgs.177/2016 e dalla revisione

del d.lgs 139/2006. Per

ciascuno dei 459 nodi-poligoni

del dominio di discretizzazione

i dati sono stati quindi geolocalizzati

su piattaforma Gis,

previa loro normalizzazione

ed eliminazione di quelli non

trattabili perché affetti da varie

incongruenze,

Si sono quindi analizzate al fine

di calcolare le diverse variabili

aleatorie del processo le occorrenze

degli incendi boschivi che

Fig. 8 - Particolare della discretizzazione di una porzione del territorio dell’Italia centrale attraverso il

metodo dei poligoni di Thiessen imperniati sulla posizione delle sedi operative VVF (triangoli rossi) (in

rosso gli ambiti dei Comandi e in azzurro i limiti regionali)

si sono presentati mediamente

nel periodo considerato 2010-

2016 all’interno di ciascuna

area di competenza (poligono)

di ciascuna sede. Il carico

medio di incendi per ciascuna

sede corrisponde al carico di

lavoro cui la sede è chiamata a

farsi carico. Sempre avvalendosi

della predetta banca dati, sono

stati quindi definiti: il corrispondente

tempio medio di

risposta {T run }, per ogni coppia

J

{b k

;m

j

}, i tempi medi necessari

{T dst } alle unità di soccorso

jk

per raggiungere nel periodo di

riferimento (mese) le località

dell’incendio da ciascuna sede

m j

e quelli di ritorno dalle località

alla sede di servizio maggiorati

rispetto ai precedenti

del 50%, dato il mancato uso

della sirena in questi tragitti,

entrambi questi ultimi due stimati

in base alle caratteristiche

di velocità ed autonomia dei

mezzi di soccorso impiegati e

delle caratteristiche di ciascun

arco del grafo stradale utilizzato

per la modellizzazione della rete

stradale; il tempo medio necessario,

alle unità di soccorso per

espletare un intervento localizzato

nel nodo k-mo nel periodo

di riferimento, {T emg }, nonchè

J

il tempo medio necessario alle

unità di soccorso rientrate in

base per ridisporsi in prontezza

operativa {T chk }. Dalla somma

J

di questi quattro tempi si è ricavato

il valore del tempo medio

totale di servizio m Tser

.

Per la stima dei tempi necessari

ai tragitti di andata e di ritorno

delle unità di soccorso tra ciascuna

sede operativa e le località

di incendio boschivo e viceversa

Fig. 9 - Incendi boschivi in Italia 2010-2016 (Fonte dati

Corpo Forestale dello Stato)

GEOmedia n°5-2018 n°4-2018 9


FOCUS

Fig. 10 - Procedura di stima del tempo medio dei tragitti tra la sede operativa VVF e ciascuna località

ricadente nel poligono di competenza in cui si è verificato nel periodo 2010-2016 un incendio boschivo.

si è utilizzato il tool Network

Analyst di Arcgis 10.5. applicato

al grafo stradale della rete

viaria nazionale, con riferimento

ai nodi di collocazione dei

presidi operativi del CNVVF.

In particolare è stata utilizzata

la funzione Closest facility per

stimare i tempi medi dei tragitto

tra la sede di servizio (facility)

e ciascuno degli incendi boschivi

(incidents) verificatisi nel

periodo 2010-2016 e ricadenti

nell’ambito di competenza.

Si è resa necessaria a tale riguardo

per lo studio una modellizzazione

della rete stradale

tramite il grafo OpenStreetMap

(OSM).

Con questi due strumenti si è

effettuata la modellizzazione

che ha adottato criteri di compromesso

tra la precisione dei

risultati e la minimizzazione

dei costi, in termini di impiego

di requisiti informativi, risorse

hardware, tempo uomo e tempo

macchina, necessari alla sua

implementazione e pertanto si

è ritenuto di non spingere verso

un livello di dettaglio elevato la

schematizzazione che pure non

ha escluso alcun tipo degli archi

della rete presente nella base di

dati di OSM optando però per

una valutazione prestazionale

semplificata del deflusso imperniata

sul tempo di percorrenza

determinato dai due soli attributi

concorrenti, lunghezza e

velocità e rinunciando a forme

funzionali delle funzioni di

costo più sofisticate. Ogni arco

della rete è stato quindi tipizzato

in base alla classifica tecnico

funzionale, ovvero in funzione

del livello amministrativo e delle

caratteristiche funzionali (velocità)

con aggiornamento della

relativa matrice. A ogni arco

sono stati associati una serie di

attributi tra cui il tempo di percorrenza

(minutes). Per fare ciò

le tabelle di attributi degli shape

Fig. 11 - Particolare tabella attributi modificata della rete stradale OSM in funzione della velocità e dei

tempi di percorrenza attribuiti a ogni singolo arco.

files del grafo stradale sono state

importate in un database di Microsoft

Access e attraverso una

macro si è associata la velocità

massima consentita dal Codice

della strada a ciascun corrispondente

arco. Contestualmente

si è suddivisa la lunghezza di

ciascun arco per la velocità in

minuti (tre cifre decimali). Successivamente

le tabelle modificate

sono state esportate in dbf

e associate agli shape file. A partire

dalla feature class lineare in

formato shape che costituisce la

rete è stato definito e costruito

in ArcCatalog di ArcGis il network

dataset e quindi attraverso

la voce del menù di Network

Analyst “Closest Facility” si

sono calcolati individuandone

i relativi percorsi (feature class

lineare Route) la distanza e il

tempo tra la sede VVF (facility)

e ciascun incendio (incident)

ricadente nel poligono di competenza.

Gli incendi boschivi nel territorio

sono stati caratterizzati

come eventi aleatori, assumendo

che:

1. si distribuiscano aleatoriamente

nel giorno medio

secondo una legge di Poisson

di parametro λ h

pari alla

densità media oraria locale

di accadimento;

2. a ciascun incendio boschivo

corrisponda una

richiesta di primo soccorso

che giunge al sistema con

un ritardo aleatorio, comunque

trascurabile ai fini

dello studio;

3. La durata T ser

delle missioni

di soccorso sia aleatoria e

distribuita secondo una

legge esponenziale di parametro

μ, inversamente

proporzionale al tempo

medio di durata m Tser

delle

missioni stesse.

Nell’ambito di queste ipotesi

in ciascuno dei nodi {b k

} risulta

10 GEOmedia n°4-2018 n°5-2018


FOCUS

pertanto definito una successione

temporale di eventi flusso

{F λ } che può essere schematizzato

con buona approssimazio-

J

ne come un flusso aleatorio elementare

definito dalla legge di

Poisson con un certo intervallo

temporale di riferimento {λ} J

.

ovvero indicando con P k

(m,λ)

la probabilità che si verifichino

nel nodo k m richieste di intervento

per incendio boschivo

con media l (ponendo λ=l) si ha

(1)

Quindi tramite la suddetta formula

di Poisson (1) ponendo

m=0, è stato possibile calcolare

la probabilità che nel nodo

k-mo NON AVVENGA AL-

CUN EVENTO:

e da questa, passando all’evento

contrario, è stato possibile calcolare

la probabilità che nel nodo

k-mo si verifichi ALMENO

UN EVENTO:

Quest’ultima relazione) esprime,

al variare di λ, la propensione

statistica al verificarsi di eventiemergenze

in un ambito territoriale

(nodo) soggetto in media

ad un numero λ di eventi/periodo.

Il valore P k

(λ) rappresenta

dunque un “indice di pericolosità”

per ogni nodo b k

del dominio

di discretizzazione.

L’indice di pericolosità è stato

stimato in base alle serie storiche

locali degli eventi ed è

stato assunto per quantificare

il carico di lavoro potenziale

delle sedi territoriali di soccorso

VVF nel raggio operativo (area)

di competenza (corrispondente

al rispettivo poligono di Thiessen).

Il valore dell’indice di

pericolo può essere poi pesato

e corretto a seconda delle esigenze

di modellizzazione al fine

di ottenere il corrispondente

“indice di rischio territoriale”

come prodotto della pericolosità

per il danno atteso (R=P*D).

Nel presente studio l’indice di

rischio è stato calcolato in particolare

moltiplicando la pericolosità

(percentuale di incendi

verificatesi in area di competenza

di ciascuna sede di servizio

VVF sul totale nazionale) per

il danno (superfici complessive

percorse dal fuoco dal fuoco in

km 2 ). Per la classificazione delle

sedi in base all’indice di rischio

si è utilizzato il metodo Quantile.

Misura statistico-probabilistica

di efficienza globale della

rete CNVVF in relazione ai

carichi di servizio valutati su

scala locale. Risultati.

La risposta in termini operativi

che la rete deve fornire al carico

di lavoro potenziale, derivante

dall’indice di rischio territoriale,

tramite le risorse U J

distribuite

nelle varie sedi VVF m J ,

ovvero

il livello di servizio, funzione

del numero di richieste che

giungono (carico di servizio),

del tempo medio di espletamento

del servizio richiesto (tempo

di servizio) e del numero di

unità di servizio (canali) che

agiscono nel sistema, può essere

limitata da alcuni vincoli dati

di varia natura ma determinano

sempre la difficoltà se non l’impossibilità

di corrispondere con

la voluta efficienza ed efficacia

alla domanda di prestazione richiesta.

Il rapporto tra le richieste

che giungono e quelle che

il sistema riesce a servire in un

certo lasso temporale definisce

la capacità relativa di ciascuna

sede.

A tale riguardo ciascuna sede

della rete nazionale del CNVVF

è stata considerata alla stregua

di un sistema di servizio ad n

canali e a richieste rifiutate.

Calcolata la media temporale di

incendi boschivi nella zona di

competenza operativa di ciascuna

sede VVF (flussi di richieste)

e il numero di squadre o partenze

in essa operative (canali),

si può calcolarne il regime limite

di servizio corrispondente.

A partire quindi dai parametri

statistici del processo di soccorso

ricavati dalle statistiche CFS

2010-2016 (flusso di richieste,

canali, tempo di servizio) si

è utilizzata a questo punto la

formula di Erlang per calcolare

il regime limite di saturazione

del sistema di servizio ideale

corrispondente. Nella formula

compare, oltre al numero n di

canali attivi, la densità ridotta a

di richieste, ottenuta moltiplicando

la densità oraria λ h

per il

tempo medio di servizio m Tser.

Si

sono in questo modo calcolati i

valori della capacità relativa Q rel

di ciascuna delle sedi per diversi

valori di λ e per un numero n

variabile di canali attivi, in generale

diversi da sede a sede.

I dati sono stati calcolati con riferimento

ai mesi in cui nei vari

anni si sono verificati gli incendi

in modo da poter calibrare

l’ottimizzazione secondo archi

temporali specifici e ristretti.

I dati di fonte CFS (AIB-fn) per

le regioni a statuto ordinario

sono stati inseriti i una tabella

ovvero i un foglio elettronico

in cui è stata convertita la

formulazione del problema di

ottimizzazione. Il foglio elettronico

è stata utilizzato per

misurare le prestazioni del sistema

di servizio delle reti delle

GEOmedia n°5-2018 n°4-2018 11


FOCUS

Fig. 12 - Indice di rischio R = pericolosità (% incendi

per Comando VVF su totale nazionale) per danno

(aree percorse dal fuoco in km2) (metodo di classificazione

Quantile).

Fig. 13 - Indice di rischio R = pericolosità (% incendi

per Sede VVF su totale nazionale) per danno (aree

percorse dal fuoco in km2) (metodo di classificazione

Quantile).

Fig. 14 - Capacità relativa del sistema di servizio

delle Sedi VVF (metodo di classificazione Quantile).

sedi operative territoriali VVF

e per ottimizzare la distribuzione

delle risorse. Le prime tre

colonne (A,B,C) contengono

i dati rispettivamente relativi a

Regione, Provincia, Comando

VVF competente di ciascuna

Sede operativa territoriale VVF

(colonna D) con indicata la Categoria

funzionale (colonna E).

Assunto il parametro l della legge

di Poisson pari alla media di

incendi boschivi registrata in un

dato arco temporale nel territorio

di competenza individuato

per ciascuna sede (poligono) nel

periodo 2010-2016, le colonne

da F a Q riportano il numero

assoluto di incendi boschivi

nei singoli mesi dell’anno, la

colonna R il totale incendi nel

periodo 2010-2016, la colonna

S la superficie totale percorsa

dal fuoco in ettari nel periodo

2010-2016, le colonne da T ad

AE le medie mensili nei singoli

mesi dell’anno e nelle colonne

AF e AG rispettivamente la media

eventi totale mensili per il

periodo 2010-16 (λ) e la media

eventi oraria per lo stesso periodo

2010-16 (λ). In questo modo

è stato possibile calcolare un

“coefficiente di pericolosità” per

singole scale spazio-temporali

(mese, ora) che esprime quantitativamente

la propensione al

verificarsi di eventi di incendio

boschivo che insiste su un dato

territorio in un certo periodo

dell’anno . La colonna AH

contiene per ciascuna sede la

Fig. 15 - Capacità relativa del sistema di servizio delle Sedi VVF (metodo di classificazione Quantile).

Funzione P(La) (λ) probabilità

eventi (1-Exp(-La)). E possibile

identificare tale coefficiente in

maniera diretta anche come

“indice di rischio” con il danno

della perdita del bene “bosco”. I

risultati ottenuti rappresentano

una misura del carico medio

di incendi ovvero il carico di

lavoro (commisurato al rischio

territoriale) cui ciascuna sede

VVF è chiamata a corrispondere

con le proprie risorse (partenze)

sempre occorre sottolinearlo

in base ai dati statistici

del fenomeno incendi boschivi

e della loro durata provenienti

dal disciolto Corpo Forestale

dello Stato e ai dati dei tempi di

raggiungimento delle località di

incendio dalle sedi VVF stimati

grazie al modello di rete stradale.

Seguono le colonne da AI

ad AO utilizzate per definire il

tempo medio di servizio m Tser

..

Innanzitutto nella colonna AI il

tempio medio di risposta {T run J }

tra la segnalazione dell’incendio

e l’uscita dalla sede operativa

della squadra d’intervento.

Essendo il lavoro riferito alle

sedi VVF non si sono in questo

caso usati i dati di provenienza

12 GEOmedia n°4-2018

12 GEOmedia n°5-2018


FOCUS

CFS è si è usato sulla base delle

statistiche VVF il tempo medio

di 5 minuti per tutte le sedi. La

colonna AJ contiene il tempo di

arrivo medio stimato (sulla base

del modello di rete stradale approntato

per la network analysis

descritto in precedenza) in minuti

della squadra d’intervento,

la colonna AK il tempo medio

in minuti necessario alla squadra

intervenuta per espletare un

intervento {T emg }, la colonna

AL il tempo di rientro in

J

sede medio stimato (sulla base

del modello di rete stradale approntato

per la network analysis

descritto in precedenza e convenzionalmente

aumentato del

50% per il mancato uso della

sirena sulla base delle statistiche

d’intervento VVF) in minuti

della squadra , la colonna AM

il tempo medio necessario alla

squadra rientrata in sede per

ridisporsi in prontezza operativa

{T chk }, Seguono le colonne

J

AN tempo medio di servizio in

minuti (somma delle precedenti

colonne da AI ad AM), AO

tempo medio di servizio in ora

e centesimi di ora. La colonna

AP contiene i valori della densità

eventi ridotta (λ) del flusso

in ora e cent. di ora definita

come il prodotto della densità λ h

per il tempo di servizio m Tser

,. I

valori di λ che descrivono i flussi

di richieste per ciascuna sede

possono essere trattati separatamente

per periodi di riferimento.

A partire dalla formula di Erlang

sono stati quindi calcolati

nelle colonne da AQ ad AU i

valori della capacità relativa Q rel

di ciascuna delle sedi per diversi

valori di λ e per un numero di

canali attivi (partenze/squadre

AIB), le variabili di decisione

comprese nel range fissato da 1

a 5 e assegnate alle colonne AZ-

BD.

L’ottimizzazione della rete delle

sedi può a questo punto essere

effettuata utilizzando come pesi

Tab. 2 - Sedi ad aree a rischio elevato, estremo e con bassa

capacità relativa di risposta.

i fattori di capacità con l’obiettivo

da massimizzare (funzione

obiettivo) identificato con la

somma delle capacità relative

delle basi (cella obiettivo nella

colonna BQ) e tra i vincoli

quello del numero complessivo

di risorse da ottimizzare (numero

di squadre già disponibili

nelle sedi operative incrementato

da quelle previste in aggiunta

in base agli accordi convenzionali)

(colonna BE).

Due mappe sintetizzano questi

dati. La prima è relativa all’indice

di rischio per ambito di

competenza delle sedi VVF

(Indice di rischio R = pericolosità

(% incendi per sede VVF

su totale nazionale per danno

ovvero aree percorse dal fuoco

in km 2 ) (metodo di classificazione

in cinque classi Quantile)

mentre la seconda è relativa alla

capacità relativa del sistema di

servizio delle sedi VVF (metodo

di classificazione in cinque classi

Quantile: estremo, elevato,

medio, basso e trascurabile).

Convertita la formulazione del

problema di ottimizzazione

in un foglio elettronico sono

diversi i sistemi di calcolo automatici

che possono fornire

una soluzione ottima della distribuzione

di risorse aggiuntive

da concordare con le Regioni,

tale da massimizzare la somme

delle capacità relative delle sedi

della rete. Tra i più elementari

linguaggi di modellizzazione si

è scelto quello di ottimizzazione

con il risolutore inserito nel

programma di foglio elettronico

Microsoft Excel.

E’ anche possibile basare empiricamente

e visivamente la distribuzione

ottimale delle risorse

a partire dall’ordinamento delle

capacità relative del sistema di

servizio dal valore più piccolo

al più grande per singoli ambiti

nel foglio elettronico utilizzato

oppure massimizzare l’efficienza

complessiva del sistema individuandola

e fissandola a priori in

una soglia minima di capacità

relativa per tutte le sedi.

Tab. 3 – Sedi ad aree a rischio estremo

con bassa capacità relativa di risposta

GEOmedia n°5-2018 n°4-2018 13


FOCUS

Conclusioni

Nel caso del nostro studio

l’applicazione del “metodo

delle code”, procedimento dedicato

di ottimizzazione nella

prospettiva della Teoria delle

Code, non solamente è riuscita

nonostante alcuni restrizioni a

modellizzare la realtà del fenomeno

incendi boschivi e del suo

contrasto attraverso la rete delle

sedi di servizio del CNVVF in

modo attendibile ma ha fornito

con i suoi risultati indicazioni

che confrontate con i dati della

stagione AIB 2017 sono risultate

del tutto soddisfacenti per lo

scopo prefisso.

Avrebbero permesso infatti

di calibrare in maniera più

adeguata la stima delle risorse

da richiedere in convenzione

da parte delle varie Regioni al

CNVVF e la loro distribuzione,

nel territorio e nei vari periodi

della campagna AIB. Il dispositivo

operativo prefigurato attraverso

l’applicazione del metodo

delle code non risulta una ipotesi

irrealistica rispetto al livello

fissato nella stagione AIB 2017

attraverso le convenzioni

A differenza di Candide-

Pangloss siamo coscienti che la

soluzione di ottimizzazione trovata

possa non essere la migliore

di quelle possibili.

In ogni caso l’aderenza alla realtà

del modello previsionale è

correlata strettamente alla quantità

e qualità delle informazioni

disponibili.

L’impatto dell’uso del Gis è

stato rilevante in quanto ha

permesso l’utilizzo pieno della

dimensione spaziale dei dati per

perseguire l’obiettivo dell’ottimizzazione

.

Va soggiunto che presso molte

Direzioni Regionali VVF allo

scopo di monitorare in tempo

reale il fenomeno degli incendi

boschivi e delle sue dinamiche

sul territorio sono stati predisposti

sistemi informative su

piattaforma dedicate Gis AS-

SET AIB che hanno riproposto

la positiva esperienza maturata

nel sisma del centro Italia 2016

consentendo di ottimizzare

l’allocazione e uso delle risorse

disponibili con continue rimodulazioni

e ottimizzazioni dei

tempi di risposta del dispositivo

e delle modalità di intervento

delle squadre sul territorio.

Ovvero la tecnologia sta consentendo

di affiancare alla fase

di pianificazione previsionale

ex ante una fase di gestione in

continua revisione e miglioramento.

Le indicazioni di metodo per

valutare il dimensionamento

delle risorse possono sicuramente

essere riproposte e nell’ambito

di studi volti a migliorare

l’efficienza dell’intera rete di

soccorso tecnico urgente.

NOTE

1 Lo studio riprende l’impostazione teorica e il metodo (“Metodo delle

code”) approntato e utilizzato da Fabrizio Di Liberto per l’ottimizzazione

della dislocazione stagionale ottimale sul territorio nazionale

della flotta aerea Antincendi Boschivi dello Stato: F. Di Liberto, “Lo

schieramento strategico ottimale per le flotte aeree antincendi boschivi”

in Silvae, anno I n. 1 (gennaio-aprile 2005), pp. 164-195.

BIBLIOGRAFIA

Adacher, L. http://ad acher.dia.uniroma3.it/automazione1/TeoriaCode.pdf.

Biagini, F. & M. Campanino (2006), Elementi di probabilità e statistica.

Springer.

Cesti, G. (1999), Antincendio boschivo, Musumeci Editore, 1999.

Conti Guglia, F. (2004) Manuale Antincendio Boschivo, sito internet:

www.ambientediritto.it.

Di Liberto, F. (gennaio-aprile 2005) “Lo schieramento strategico ottimale

per le flotte aeree antincendi boschivi” in Silvae, anno I n. 1,

pp. 164-195.

Kleinrock, L. (1992) Sistemi a coda : introduzione alla teoria delle

code, Milano, 1992.

Ventsel, E.S. (1983) Teoria delle probabilita, Edizioni Mir.

Fonti Dati statistici:

• Sistema Informativo della Montagna (SIM-FEI / AIBfn), (fonte:

CFS)

• Dati statistici Parchi Nazionali – Sito istituzionale DPN, (fonte:

MATTM)

• EFFIS – European Forest Fires Information System, (fonte: EFFIS-

UE)

Nelle mappe le aree in bianco segnalano la mancanza di dati.

ABSTRACT

In recent decades the literature on rescue systems has recorded a very

large number of contributions that have used, while declining according

to different perspectives, the Queue Theory to prepare procedures

and models to understand their behavior, measure and optimize performance

in terms of efficiency of the service rendered in the territory

by these particular systemic structures so important from a social point

of view.

These are very complex structures because of the predictable and

unpredictable factors of variability that intervene both in terms of the

number of requests and the time necessary to satisfy them.

PAROLE CHIAVE

Incendi; tecnologie geospaziali; distribuzione risorse; ottimizzazione

AUTORE

Michele Fasolo

michelefasolo@gmail.com

14 GEOmedia n°5-2018

14 GEOmedia n°4-2018


FOCUS

GEOmedia n°5-2018 15


REPORT

Studio comparativo tra lo stato dei

luoghi prima e dopo l’incendio del

Vesuvio tramite analisi satellitare

di Massimiliano Moraca, Antonio Pepe

Un incendio di vaste proporzioni ha

interessato il Vesuvio ed il Monte Somma

a metà Luglio 2017, distruggendo vaste

aree di vegetazione sia all’interno che

all’esterno del Parco Nazionale del

Vesuvio: in questo elaborato è stato

effettuato uno studio comparativo tra

lo stato dei luoghi prima dell’incendio

e dopo l’incendio, mediante immagini

satellitari multispettrali relative ai rilievi

Landsat 8 del 5 maggio e del 24 luglio.

Fig. 1 - RGB relativo allo stato dei luoghi al 24 luglio 2017.

A

metà luglio 2017 un

incendio di vaste proporzioni

ha interessato

il Vesuvio ed il Monte Somma

distruggendo vaste aree di vegetazione

all’interno del Parco

Nazionale del Vesuvio. Lo scopo

di questo studio è ottenere una

valutazione degli indici NDVI,

indice utile a valutare lo stato

fisiologico delle foreste e NBR,

uno degli indici più utilizzati

per mappare la severità di aree

incendiate, in modo da stimare

l’estensione dei danni provocati

dall’incendio.

Per questo studio sono state

usate immagini satellitari

multispettrali relative ai rilievi

Landsat 8 del 5 maggio e del 24

luglio 2017. Si è scelta la piattaforma

Landsat 8 piuttosto che

la Sentinel 2 nonostante i rilievi

della seconda abbiano una risoluzione

migliore della prima.

Questa scelta è stata fatta per tre

ordini di motivi:

4nei mesi subito precedenti

i giorni degli incendi, per i

Sentinel 2, non erano disponibili

dati liberamente scaricabili

che non avessero copertura

nuvolosa sul Vesuvio o sul

Somma;

4si è appositamente scelto di

non effettuare operazioni di

mascheramento della copertura

nuvolosa per non alterare

i risultati relativi a NDVI e

NBR;

4non si è voluto andare a

ritroso nel tempo per non

intercettare i danni provocati

dagli incendi estivi degli anni

precedenti il 2017.

Abbiamo voluto fare, quindi,

una fotografia del pre-post

incendio usando dati quanto

più vicini e confrontabili tra

loro. Le immagini sono state

processate usando il metodo

DOS, per rimuovere i disturbi

dovuti all’atmosfera terrestre, e

successivamente si è proceduto

ad una loro ulteriore elaborazione,

con il Pan-sharpening,

mirata a ridurre la risoluzione

delle immagini satellitari portandola

così da 30m/px a 15m/

px. Il processo elaborativo è

stato condotto usando esclusivamente

il software open source

QGIS, nella versione 2.18, ed il

Semi-Automatic Classification

Plug-in.

Remote Sensing

L’essere umano riesce ad identi-

16 GEOmedia n°5-2018


REPORT

ficare ed interpretare il territorio

grazie al processo di elaborazione

della luce effettuato dall’occhio.

L’occhio umano è assimilabile

al sensore che, montato su

un satellite o su un aeromobile,

analizza la luce solare e ne restituisce

un input interpretato dal

cervello.

La luce, cioè la radiazione visibile,

è una piccola parte della

radiazione elettromagnetica

ed insieme ad altre tipologie

di radiazioni forma lo spettro

elettromagnetico. Parliamo di

radiazione poichè facciamo riferimento

a quel processo fisico

per cui l’energia è trasportata da

un corpo ad un altro attraverso

il vuoto, quindi non per contatto

tra i corpi.

Con lo spettro elettromagnetico

andiamo a rappresentare su un

asse le lunghezze d’onda dei vari

tipi di radiazioni.

Lo spettro del visibile è solo

una piccolissima parte dello

spettro elettromagnetico

che va dai raggi Y, con lunghezza

d’onda nell’ordine

dell’Å(ångström), alle onde

radio, con lunghezza d’onda superiore

ai 100km. Per il remote

sensing le regioni significative

vanno dall’ultravioletto(UV) al

microonde(MW).

La radiazione elettromagnetica

risulta quindi fondamentale per

questo tipo di studi, essa risulta

essere trasportata dai fotoni,

secondo la teoria quantistica, e

l’energia trasmessa attraverso di

essi è detta energia radiante, Q.

A noi interessa una grandezza

ben specifica derivante dall’energia

radiante e cioè il flusso

di energia radiante, , che è la

quantità di energia trasportata

in un certo tempo:

passa attraverso una certa area.

Se esso fuoriesce da una fonte

energetica abbiamo l’exitanza,

M, misurata in:

Se invece un corpo ne è colpito

abbiamo l’irradianza, E,

anch’essa espressa in:

Una ulteriore grandezza radiometrica

fondamentale per il

remote sensing, anche perchè

risulta essere quella effettivamente

misurata dal sensore, è

la radianza, L, e cioè il flusso

radiante attraverso un’area ed

un certo angolo di osservazione.

Tale grandezza è espressa in in

cui sr è lo steradiante 1 :

in cui q è l’angolo di osservazione

e w è la normale alla superficie

osservata.

Tutto i corpi che sono ad una

temperatura superiore allo

zero assoluto emettono energia

elettromagnetica, in particolare

ogni tipologia di materiale

emette una propria firma

spettrale(Dainelli, 2011).

DOS e Pan-sharpening

Nell’utilizzo dei dati da rilievo

satellitare è importante andare

a rimuovere gli effetti deteriorativi

della qualità dell’immagine

che l’atmosfera terrestre

imprime su di esse. L’atmosfera

Fig. 2 - Lo spettro elettromagnetico. Da “L’osservazione

della Terra – Telerilevamento.”

Fig. 3 - Firme spettrali di alcuni materiali.

terrestre infatti attiva effetti

di dispersione, assorbimento

e riflessione della radiazione

elettromagnetica. Tali effetti

vanno rimossi per una corretta

analisi dei dati. In questo

studio è stata usato il metodo

DOS - Dark Object Subtraction

- ideato da Pat S. Chavez jr nel

1996 (Pat S.Chaver, 1996) ed

i cui algoritmi sono riportati

nel plugin di QGIS “Semi-

Automatic Classification Plugin”

(Congedo, 2016).

Il metodo DOS rimuove i pixel

neri dalle immagini rendendola

più nitida poichè parte dal

presupposto che alcuni pixel

riproducono aree che sono in

completa ombra e la radiazione

al satellite è dovuta all’effetto

di dispersione atmosferica; ciò

è combinato con il fatto che

pochissimi target al suolo sono

Tale flusso è espresso in Watt.

E’ di rilievo considerare anche

il flusso di energia radiante che

Fig. 4 - Comparazione delle bande multispettrali delle missioni Landsat.

GEOmedia n°5-2018 17


REPORT

di un nero intenso, è ipotizzata

quindi una riflettanza 2 dell’1%.

In gergo tecnico si dice che

con la rimozione dei disturbi si

“portano le immagini al di sotto

dell’atmosfera terrestre”. Per i

dati rilevati da aeromobile non

è necessario utilizzare nessuna

tecnica di rimozione degli effetti

di disturbo dell’atmosfera

terrestre.

Per migliorare la qualità

dell’output del nostro studio

è stata usata la tecnica del

Pan-Sharpening per ridurre

la risoluzione delle immagini

Landsat 8. Il Pan-Sharpening

o Panchromatic Sharpening è

una tecnica che sfrutta la banda

pancromatica combinandola

con le bande multispettrali

andando così a ridurre la risoluzione

spaziale delle bande

multispettrali. Anche per i processi

relativi al Pan-Sharpening

è stato usato il Semi-Automatic

Classification Plug-in.

Landsat 8

Il programma Landsat fornisce

immagini satellitari della superficie

terrestre da 45 anni; è

ampia e varia la comunità degli

utilizzatori dei dati Landsat

si va dai settori del business a

quelli della scienza e ricerca, il

governo del territorio e la sicurezza

nazionale.

Il programma Landsat prevede

l’acquisizione continua ed in

bande multispettrali di immagini

dell’intero globo terrestre,

producendo il più vasto archivio

di rilievi satellitari accessibile

per lo più gratuitamente da

chiunque.

Fig. 6 - Comparazione tra bande Landsat 7 e 8 (Landsat 8 Data

Users Handbook).

Il programma Landsat è gestito

dall’USGS - United States

Geological Survey - e dalla

NASA - National Aeronautics

and Space Administration - e

vede il lancio del primo satellite,

il Landsat 1, nel 1972; l’ultimo,

il Landsat 8, è stato messo

in orbita nel 2013.

Il Landsat 1 aveva una risoluzione

al suolo di 80m/px e 4

bande multispettrali; Landsat

2 e 3, lanciati rispettivamente

nel 1975 e nel 1978, avevano

una configurazione simile al

Landsat 1. Landsat 4, lanciato

nel 1984 aveva una risoluzione

di 30m/px e 7 bande multispettrali;

Landsat 5 era una copia

del 4 e fu lanciato nello stesso

anno. Landsat 6 andò perso

subito dopo il lancio nel 1993

perchè non riuscì a marcare

l’orbita. Landsat 7, lanciato nel

1999, aveva 8 bande multispettrali

a 30m/px di cui una pancromatica

a 15m/px.

Landsat 8 effettua un passaggio

sullo stesso punto della superficie

terrestre ogni 16 giorni, è

posto su un’orbita quasi polare,

elio-sincrona, circolare, ad una

quota di 705 km e rileva immagini

multispettrali a 11 bande.

Landsat 8 monta due importanti

sensori passivi 3 : OLI

- Operational Land Imager - e

TIRS - Thermal Infrared Sensor.

L’OLI ha un telescopio a quattro

specchi ed elabora immagini

a 12bit rispetto agli 8bit dei

sensori TM & ETM+.

Raccoglie immagini in 9 bande

multispettrali di cui 8 con risoluzione

pari a 30m/px ed una,

la banda pancromatica, a risoluzione

di 15m/px.

In particolare la banda pancromatica

è una risoluzione

minore rispetto alle altre

per accentuare il contrasto

tra aree vegetate ed aree senza

copertura vegetale.

La comparazione tra le

bande del Landsat 7 e del

Fig. 5 - Sensoristica a bordo del Landsat 8 (Landsat

8 Data Users Handbook).

Landsat 8 mettono in evidenza

le differenze tra le due piattaforme

presenti non solo per la

differente lunghezza d’onda

della sensoristica ma anche per

la presenza di ulteriori bande;

nello specifico la banda 1, la 9

e le bande 10 ed 11 relative al

TIRS.

La banda 1 è stata introdotta

per l’osservazione degli oceani,

la banda 9 è utile invece per

l’osservazione delle coperture

nuvolose anche sottili.

Le bande 10 ed 11, relative al

sensore TIRS, sono usate per

monitorare la temperatura della

superficie terrestre. TIRS utilizza

fotorivelatori a infrarossi

quantici QWIP - Quantum

Well Infrared Photodetectors - per

misurare l’energia termica a

infrarossi a onde lunghe (TIR) ​

emessa dalla superficie terrestre.

I QWIP di TIRS sono sensibili

a due bande di lunghezza d’onda

dell’infrarosso termico, consentendo

la separazione della

temperatura della superficie terrestre

da quella dell’atmosfera.

Dati usati e metodologia

Lo studio è stato condotto secondo

le seguenti fasi:

18 GEOmedia n°5-2018


REPORT

1. Individuazione del periodo

di interesse;

a. Raccolta dei tiles

Landsat 8;

b. Scrematura degli

stessi finalizzata

all’individuazione di

due dataset riferiti ad

altrettanti giorni utili

ai nostri scopi;

2. Pre-processamento dei

dataset;

a. Rimozione dei disturbi

dell’atmosfera

tramite DOS;

b. Aumento della risoluzione

del dataset tramite

Pan-Sharpening;

3. Post-processamento dei

dataset;

a. Calcolo di NDVI,

NBR;

b. Campionamento

della temperatura al

suolo;

c. Intersezione tra NBR

e Corine Land Cover.

I dati per il nostro studio sono

stati prelevati dal sito web

EarthExplorer dell’USGS effettuando

una prima scrematura

dei tile prima del download.

Successivamente con l’utilizzo

congiunto di QGIS e del Semiautomatic

Classification Plugin

è stato applicato il metodo

DOS sia al tile del 5 maggio

2017 sia a quello del 24 luglio

2017, metodo applicato ad

ognuna delle 11 bande dei singoli

tile.

L’output di questo primo processo

è stato rielaborato con il

Pan-Sharpening per ottenere

un output finale ad una risoluzione

di 15m/px, dimezzando

la risoluzione rispetto ai 30m/

px iniziali. Per questo processo

è stata combinata la banda 8,

la banda pancromatica, con le

bande da 2 a 7, cioè le bande

multispettrali.

Nell’immagine che segue è

indicato il flusso di lavoro per

Fig .7 - Flusso di lavoro sui dati Landsat 8.

entrambe le operazioni appena

indicate.

Il nuovo set di bande è stato riutilizzato

per la determinazione

degli indici NDVI - Normalized

DIfference Vegetation Index - e

NBR - Normalized Burn Ratio

-, indici che verranno approfonditi

nel paragrafo successivo.

Una delle prime analisi effettuate

è stata quella relativa alla

comparazione della temperatura

al suolo pre e post incendio

sfruttando la banda 10 TIRS.

Abbiamo rilevato 5 punti di

campionamento a cui abbiamo

associato il dato termico pre e

post incendio tramite join spaziale.

L’indice NBR ci ha consentito

di individuare, tramite differenza

pre-post incendio, l’area del

Parco Nazionale del Vesuvio in

cui si sono avuti i maggiori danni;

successivamente abbiamo

riclassificato e vettorializzato il

raster di differenza ottenuto in

Fig. 8 - Bande su cui si è condotto lo studio.

modo da avere una copertura

di tipo poligonale e vettoriale

dell’area di nostro interesse.

Tale dato è stato interpolato

con il vettore poligonale della

CLC 2012 - Corine Land

Cover -, prelevato dal sito web

Copernicus, tramite operazioni

di geoprocessing in modo da

ottenere una correlazione tra

il tipo di danno ed il tipo di

copertura del suolo. Dal vettore

poligonale così ottenuto sono

state estratte le estensioni delle

singole tipologie di suolo danneggiate.

Analisi dei risultati

Normalized Difference

Vegetation Index

Le piante sono caratterizzate da

un particolare firma spettrale.

Il loro comportamento nei

confronti della luce è influenzato

dalla attività dei pigmenti

(clorofilla, carotenoidi, antociani).

La clorofilla infatti ha un

GEOmedia n°5-2018 19


REPORT

Fig.10 - Firma spettrale dei vegetali tra i 400 e 950 nm.

picco di assorbimento nelle

lunghezze d’onda del rosso visibile,

mentre la struttura cellulare

delle foglie tende a riflettere

l’infrarosso. L’attività fotosintetica

influenza quindi la quantità

di luce assorbita e trasmessa

che viene rilevata dal satellite.

Utilizzando questo principio

è possibile monitorare lo stato

di salute del bosco ed eventuali

problemi (stress idrico, patologie,

incendi) che abbassano la

quantità di fotosintesi (Weier &

Herring, 2000).

Per quantificare la capacità

fotosintetica delle foreste viene

utilizzato l’Indice di Area

Fogliare (LAI, Leaf Area Index),

un indice che misura la quantità

di superficie fogliare fotosinteticamente

attiva per unità

di superficie di suolo (Bolstad,

1990). Il LAI può essere misurato

in capo tramite appositi

sensori ottici. Calcolare il LAI

in campo però risulta dispendioso

se non impossibile per

grandi superfici. Una valida

alternativa è l’utilizzo di indici

satellitari che consentono un

monitoraggio duraturo nel

tempo e anche per quelle aree

di difficile accessibilità. Per valutare

lo stato fisiologico delle

foreste vesuviane è stato utilizzato

l’indice di vegetazione normalizzato

(NDVI - Normalized

DIfference Vegetation Index),

uno degli indicatori più usati

per monitorare l’evolversi della

vegetazione nel tempo e soprattutto

un indice che in diversi

ambienti può quantificare in

modo ottimale l’area fogliare

fotosinteticamente attiva e

mostra una forte correlazione

con il LAI (Quan Wang 2005)

(Carlson 1997). Molti indici

inoltre, essendo sviluppati

nel centro-nord Europa e in

America settentrionale sono

calibrati per funzionare nel macro-clima

temperato, risultando

problematici in ambiente mediterraneo.

L’NDVI è uno dei

pochi indici ad avere una correlazione

lineare con i dati rilevati

empiricamente in campo su

superfici incendiate in ambiente

mediterraneo (Veraverbeke

et al. 2011). L’indice è calcolato

come rapporto tra differenza

e somma delle bande con lunghezza

d’onda nel vicino infrarosso

(r nir

) e rosso (r red

):

Fig. 9 - Assorbimento e riflessione della luce da parte dei

pigmenti vegetali.

Questo indice infatti, per i

motivi fisiologici già descritti,

ci indica innanzitutto la

presenza o meno di chiome.

Considerando infatti che le

foglie assorbono il rosso e riflettono

l’infrarosso (Fig. 10)

se vi è più radiazione riflessa

nel vicino infrarosso rispetto a

quella nelle lunghezze d’onda

del rosso, allora è probabile che

in quel pixel la vegetazione sia

maggiormente densa e fotosinteticamente

attiva. Essendo

legato anche alla capacità di

fotosintesi, le variazioni del

rapporto tra le due bande sono

spesso utilizzate per una quantificazione

di danno o stress che

rifletta lo stato di salute della

copertura arborea. I valori di

NDVI sono compresi tra -1

e 1, tende ad assumere valori

tanto più positivi quanto più è

presente una vegetazione fitta,

con grossa presenza di clorofilla.

Le foreste che si attestano ad

un valore medio che oscilla tra

0.7 a 0.9 a seconda del tipo di

vegetazione. Valore che scende

a 0.2/0.3 nel caso di formazioni

ad habitus erbaceo e scende

ulteriormente per le superfici

prive di vegetazione.

Il valore del NDVI non è costante

tutto l’anno ed è strettamente

legato alla fenologia

della specie. Si pensi ad esempio

alle specie a foglia caduca, che

in inverno non hanno attività

fotosintetica, in tal caso il bosco

avrà un valore di NDVI bassissimo

nel periodo invernale

(dovuto per lo più al suolo visibile)

con un rapido incremento

in primavera. Successivamente

l’indice tende a “saturarsi”, non

rilevando cambiamenti sostanziali

durante il periodo estivo.

Dopo il rapido incremento

primaverile i valori di NDVI

raggiungono quindi un plateau

e rimangono stabili fino ad un

decremento autunnale. Nel

monitorare quindi la variazione

di NDVI di un singolo evento

bisogna scegliere un intervallo

di date non troppo distanti tra

loro e che ricadano all’interno

della fase estiva, con valori di

NDVI stabili, affinchè la fenologia

non influenzi i risultati e

si possa isolare solamente l’effetto

dell’evento dannoso, nel

nostro caso un incendio.

20 GEOmedia n°5-2018


REPORT

Le immagini multispettrali del

satellite Landsat 8 sono state

quindi processate per il calcolo

del NDVI, utilizzando nel

nostro caso le bande 4 e 5 del

satellite Landsat 8. Sono stati

scelti due voli, uno antecedente

l’incendio uno posteriore. La

scelta è ricaduta sui voli del

05/05/2017 e 24/07/2017. I

voli sono stati scelti anche in

base all’assenza di nuvolosità. La

differenza del valore di NDVI

è in grado di restituirci una valutazione

sia quantitativa della

superficie danneggiata, sia qualitativa,

in base alle superficie

delle chiome rimaste fotosinteticamente

attive. Superfici maggiormente

danneggiate avranno

infatti un calo più drastico del

valore di NDVI. Al variare delle

condizioni della chioma e della

presenza di clorofilla varierà il

rapporto tra la riflessioni del

rosso e dell’infrarosso, restituendoci

quindi una variazione del

valore di NDVI. Questo indice

è stato scelto per monitorare

lo stato delle foreste vesuviane

per via del suo valore di sintesi

delle condizioni del bosco.

Delimitare la superficie bruciata

(che vedremo più avanti) infatti

non è sufficiente, l’NDVI

ci restituisce un riassunto del

danno ecologico e fisiologico

subito dalle foreste, restituendoci

quindi un’immagine del

vero danno ambientale causato

dall’incendio.

Tramite una semplice differenza

algebrica dei due voli otteniamo

la variazione di NDVI (ΔNDVI)

prima e dopo l’incendio. È

possibile notare come buona

parte delle foreste vesuviane

abbia perso almeno 0.2 punti di

NDVI, risultando quindi gravemente

danneggiata. L’intera

stazione Vesuviana ha subito un

calo dell’NDVI medio di tutta

la superficie forestale di 0.28

punti. Sul versante meridionale

nei comuni di Torre del Greco,

Fig. 11 - Differenza di NDVI tra il 5 maggio ed il 24 luglio.

Trecase e Boscotrecase, si registrano

ampie superfici con

una perdita di circa 0.6 punti,

valori estremamente elevati che

confermano una totale distruzione

delle chiome arboree. La

differenza di NDVI ha valori

significativi anche in tutta l’area

arbustiva della parte alta del

vesuvio, circondante il cratere.

Valori leggermente negativi visibili

sporadicamente caratterizzano

quelle aree che hanno visto

un aumento, seppur leggerissimo,

del valore di NDVI nella

finestra temporale considerata.

Questo rinverdimento delle

chiome non danneggiate è del

tutto naturale dato l’inoltrarsi

della stagione vegetativa; ciò è

avvenuto soprattutto sul versante

Nord, quello del monte

Somma dove l’incendio è stato

di gran lunga meno impattante.

Il Somma infatti ha visto

infatti una diminuzione media

dell’NDVI molto minore (una

diminuzione di 0.09). Il monte

Somma infatti, considerata la

sua esposizione settentrionale

presenta generalmente una

condizione di maggiore umidità.

La vegetazione inoltre è

completamente differente per i

due versanti: l’umidità e la lontananza

dalle distruttive colate

laviche hanno consentito uno

evoluzione della vegetazione

verso stadi più maturi. caratterizzati

da specie come pioppo,

ontano, acero, castagno. A differenza

delle pinete dei versanti

meridionali, gli habitat formati

da queste specie (boschi di latifoglie

decidue) presentano una

minore incendiabilità e una resistenza

al propagarsi del fuoco.

Per i suoli agrari o nudi (privi

quindi di vegetazione) invece

il risultato è da considerarsi un

dato non significativo poiché

dovuto a diverse cause come

cambio di coltura del suolo

agricolo, lavorazioni stagionali

o differenti condizioni di umidità

del suolo.

Normalized Burn Ratio

L’NDVI è però incompleto per

definire il danno e le superfici

causate da un incendio in ambiente

mediterraneo (Pereira

1999). Il NBR (Normalized

Burn Ratio) è uno degli indici

GEOmedia n°5-2018 21


REPORT

Fig.12 - Firma spettrale dei vegetali (verde) e delle aree incendiate (rosso).

più utilizzati per mappare la

severità di aree incendiate in

diversi ambienti, incluso il macroclima

mediterraneo (Boer

2008). L’NBR nacque inizialmente

come strumento per

delimitare le aree incendiate, fin

quando diversi studi (Key and

Benson 2006) non utilizzarono

il ΔNBR come indice per la severità

dell’incendio. Ad oggi è

largamente applicato insieme a

dati di origine satellitare e per

la sua affidabilità è utilizzato

all’interno di FireMon, un sistema

per il monitoraggio degli

incendi utilizzato negli USA.

Come l’NDVI anche questo

indice si basa su alcune caratteristiche

della firma spettrale

dei vegetali. Come già detto

una vegetazione in normale

stato di salute e produttività

mostrerà un picco di riflettanza

nel campo del cosiddetto vicino

infrarosso (NIR), valore invece

debole all’interno dell’infrarosso

ad onde corte (SWIR, Short-

Wave InfraRed) (Fig. 12).

A seguito di un incendio e

quindi di una perdita del materiale

fotosintetizzante, la

riflettanza nel NIR sarà calata

drasticamente. Nelle aree incendiate

inoltre potremo notare

un netto aumento di riflettanza

nello SWIR. Il rapporto tra i

valori di riflettanza nel NIR

e nello SWIR ci può quindi

aiutare nel delimitare le aree

che hanno subito un cambiamento

di copertura del suolo a

causa di un incendio. In maniera

molto simile a come già visto

per l’NDVI l’indice si basa sul

rapporto tra la differenza e la

somma delle due bande considerate:

Per quanto riguarda le bande

da utilizzare nel presente lavoro

sono state utilizzate le bande 7

e 5. Il Landsat 8 possiede ben

due bande nello SWIR (6 e 7)

con lunghezze d’onda differenti.

Le lunghezze d’onda utilizzate

per lo sviluppo nell’NBR

sono quelle tra i 2080 e 2350

nanometri, corrispondenti

per il Landsat 8 alla banda 7

(Fig.6).

Il ΔNBR non è altro che la

variazione del valore di NBR

di una determinata superficie,

prima e dopo l’incendio.

Dopo aver calcolato il ΔNBR

è necessaria una catalogazione

dei suoi valori per poterne interpretare

i risultati. Una delle

classificazioni più utilizzate per

ΔNBR

0.27 < Danni lievi o nulli

tra 0.27 e 0.44

tra 0.44 e 0.66

l’analisi del ΔNBR è quella usata

dalla USDA (United States

Department of Agriculture), i

cui valori soglia sono di seguito

riportati nella tabella a fondo

pagina.

La classificazione originale prevede

ulteriori differenziazioni.

Alcune di esse utilizzabili in

altri contesti come la delimitazione

di aree incendiate ricolonizzate

dalla vegetazione (valori

negativi di ΔNBR). La classe

“danni lievi o nulli” prevede

inoltre un ulteriore divisione

in “danni lievi” e “non danneggiato”.

Per capire il perchè

dell’accorpamento effettuato

all’interno di questo studio bisogna

innanzitutto considerare

le differenze climatiche e vegetazionali

tra l’ambiente mediterraneo

e quello nord-americano.

Questa classificazione dei valori

NBR è infatti calibrata per funzionare

principalmente nel macroclima

temperato delle foreste

nordamericane. Le foreste mediterranee

hanno valori diversi

di riflettanza, dovuti in parte

alla struttura stessa della macchia

mediterranea ed in parte

alle strutture fogliari completamente

diverse tra le latifoglie

decidue americane e la macchia

sempreverde mediterranea.

Questo influenza ovviamente

tutti gli indici vegetazionali:

l’NDVI di un ginestreto (comune

sul Vesuvio) può risultare

inferiore anche di diversi decimi

di punto rispetto ad una foresta

temperata (Telesca 2005). In

ambiente mediterraneo quindi

la classe più bassa, quella dei

danni di lieve entità risulterebbe

essere per buona parte formata

Intensità del danno

Danni moderatamente bassi

Danni moderatamente alti

> 0.66 Danni severamente elevati

22 GEOmedia n°5-2018


REPORT

Fig. 13 - Entità dei danni all’interno del parco nazionale del vesuvio calcolati

tramite il ΔNBR.

Fig. 14 - Estratto di Corine Land Cover 2012.

Fig. 15 - Distribuzione delle tipologie di danno

estratte dal NBR.

da falsi positivi ed ogni metodo

di selezione potrebbe risultare

privo di oggettività e standardizzazione,

vista l’assenza di

studi precedenti. Inoltre la scelta

è anche di natura pratica: il

presente lavoro vuole individuare

le aree interessanti per futuri

studi o interventi gestionali. Le

aree debolmente danneggiate

potrebbero ritornare alle condizioni

precedenti l’incendio

in poco tempo grazie alla loro

resilienza. Riteniamo quindi

ben più interessante limitare le

aree sicuramente danneggiate,

eseguende una lieve approssimazione

per difetto piuttosto

che per eccesso.

Classificazione dei suolo interessati

dall’incendio

Con l’ausilio della Corine Land

Cover 4 aggiornata al 2012 e tecniche

di geoprocessing, è stata

effettuata una comparazione

con la perimetrazione delle aree

incendiate al fine di stimare l’estensione

del danno e le specie

vegetali interessate dallo stesso.

Dalla comparazione sono state

escluse le aree urbane riportate

nella CLC.

Dall’analisi si è evidenziato che

le tipologie di suolo ad aver

subito il danno maggiore sono

le aree a vegetazione boschiva

ed arbustiva in evoluzione, seguite

poi dai boschi di conifere.

La presenza di danni anche in

aree a rocce nude, falesie, rupi,

affioramenti è dovuta alla distruzione

di quel minimo di vegetazione,

per lo più arbustiva,

che interessava le zone.

Tipo di suolo

Queste aree sono per lo più localizzate

sul cono del Vesuvio e

sulle recenti colate laviche.

Nel grafico è stata comparata

l’estensione delle tipologie di

suolo pre incendio e post incendio.

Nella tabella a fondo pagina è

riportata la stima delle estensioni,

in ettari, delle tipologie di

danno in funzione del tipo di

suolo.

Nella tabella a pagina seuente

invece riportata la variazione

dell’estensione delle tipologie di

suolo pre e post incendio, oltre

che il computo totale dei danni,

in ettari.

Sommando le estensioni pre e

post incendio delle aree boschive,

e cioè:

4Aree a vegetazione boschiva

ed arbustiva in evoluzione

4Boschi di conifere

Estensione pre

incendio

Estensione post

incendio

Estensione danni

Aree a vegetazione boschiva ed arbustiva in

evoluzione

1.024,43 507,70 516,73

Aree con vegetazione rada 90,02 56,10 33,91

Aree prevalentemente occupate da colture agrarie

con presenze di spazi naturali importanti

1.284,80 1.256,13 28,67

Boschi di conifere 698,81 249,94 448,88

Boschi di latifoglie 1.605,49 1.360,67 244,82

Boschi misti conifere e latifoglie 820,18 626,89 193,29

Frutteti e frutti minori 766,04 738,81 27,23

Rocce nude, falesie, rupi, affioramenti 255,62 205,31 50,31

Sistemi colturali e particellari complessi 1.158,11 1.055,09 103,02

Totale 7.703,51 6.056,65 1.646,86

GEOmedia n°5-2018 23


TELERILEVAMENTO

REPORT

Tipo di suolo

4Boschi di latifoglie

4Boschi misti conifere e la

tifoglie

risulta che prima degli eventi di

luglio, la macroarea bosco, aveva

una estensione di 4.148,92

Ha, ridotta a 2.745,21 Ha a

seguito dell’incendio. Si sono

persi quindi 1.403,72 Ha di

boschi.

Danni severamente

elevati

Danni

moderatamente alti

Danni

moderatamente

bassi

Aree a vegetazione boschiva ed arbustiva in

evoluzione

57,97 180,14 278,62

Aree con vegetazione rada 0,14 6,68 27,10

Aree prevalentemente occupate da colture agrarie

con presenze di spazi naturali importanti

1,45 5,92 21,29

Boschi di conifere 191,24 95,29 162,35

Boschi di latifoglie 15,40 75,16 154,26

Boschi misti conifere e latifoglie 37,37 47,29 108,63

Frutteti e frutti minori 0,33 7,27 19,63

Rocce nude, falesie, rupi, affioramenti 1,05 16,95 32,31

Sistemi colturali e particellari complessi 7,13 29,63 66,26

Totale 312,08 464,33 870,45

Temperatura

I rilievi 1 e 2 fanno riferimento

ad un’area boschiva totalmente

danneggiata, il 3 fa riferimento

ad un’area boschiva debolmente

danneggiata, mentre il 4 è in

un’area boschiva non interessata

dagli incendi ed il 5 è in area

urbana. Come si nota dal grafico

la aree boschive pre incendio

avevano una temperatura abbastanza

normalizzata, con 4°C

di scarto; mentre la differenza

di temperatura era molto più

accentuata tra area boschiva ed

urbana. Dopo l’incendio nelle

aree boschive danneggiate si è

avuto un netto aumento della

temperatura che risulta essere

anche più elevata di quella del

punto censito in area urbana.

Il confronto dei dati termici risulta

essere una forzatura poiché

andrebbe fatto un confronto

simile mantenendo costanti le

variabili al contorno con l’unica

eccezione del dato relativo al

suolo. Nonostante ciò abbiamo

voluto effettuare lo stesso

il confronto poiché si è voluto

evidenziare l’effetto di mitigazione

micro e mesoclimatica di

un’area boschiva.

Conclusioni

L’obiettivo del presente studio è

stato quello di comparare lo stato

delle foreste vesuviane prima

e dopo l’impatto del terribile

incendio verificatosi nel luglio

2017. La caratterizzazione ha

previsto l’utilizzo di più indici

satellitari applicati allo studio

della vegetazione.

L’NDVI, un indice basilare

nello studio dell’ecologia forestale,

che ci ha consentito di

capire quanto sia stata alterata

la funzione ecologica del bosco.

L’NDVI è infatti legato all’attività

fisiologica degli esemplari

arborei ed un suo drastico calo

vuol dire calo nella produttività

legnosa, calo nella capacità di

stoccare anidride carbonica,

calo nella capacità di regimazione

delle acque e di termoregolazione.

Tale capacità del bosco è stata

inoltre confermata dalla misura

dell’aumento di Temperatura

nelle aree private dalla vegetazione,

rispetto a quelle che

avevano subito lievi danni e

in cui la vegetazione non era

scomparsa.

L’utilizzo dell’NBR, un indice

che ci ha consentito di delimitare

le aree incendiate e catalogarle

per entità del danno. Ciò ci

ha consentito di poter superare

MONITORAGGIO 3D

GIS E WEBGIS

www.gter.it

info@gter.it

24 GEOmedia n°5-2018

GNSS

FORMAZIONE

RICERCA E INNOVAZIONE


REPORT

Fig. 16 - Confronto tra aree interessate dagli incendi e tipologie di suolo incendiate.

Fig. 17 - Estensione delle tipologie di suoli pre e post incendi.

temporalmente il report di

Copernicus, che perimetrava le

aree fino al 16 luglio, quando

l’incendio era ancora in corso.

il 24 luglio, ad incendio terminato,

erano 1.878 gli ettari di

bosco andati persi.

L’incrocio con i dati di copertura

del suolo del progetto Corine

Land Cover ci ha consentito di

poter analizzare quali tipologie

vegetazionali fossero risultate

maggiormente danneggiate dal

fuoco: i boschi di conifere e le

aree arbustive (di macchia o

in evoluzione). In ciò è riscontrabile

una colpa antropica da

ricercare a monte: Nei decenni

passati infatti l’abbandono

selvicolturale del patrimonio

boschivo ha gettato le basi per

questo annus horribilis a cui

abbiamo assistito. Pinete di

origine antropica come quelle

vesuviane infatti richiederebbero

un periodico diradamento

nel numero di esemplari, che

per motivi economici non viene

più effettuato. Si assiste così ad

un accumulo di necromassa, un

potenziale combustibile, soprattutto

nel caso

di una conifera

resinosa

come il Pino.

I rami secchi

e gli alberi

caduti inoltre

costituiscono

una via di

collegamento

tra il suolo

e lo strato

delle chiome,

trasformando

gli incendi di superficie in più

dannosi incendi di chioma.

Non a caso infatti la gran parte

dell’incendio ha riguardato i boschi

di conifere. Il 75% di essi

è andato distrutto. Le pinete

inoltre vigevano in un pessimo

stato fitosanitario. Erano rese

più vulnerabili da un fortissimo

attacco di Cocciniglia tartaruga

(Toumeyella parvicornis ), insetto

alloctono ed invasivo che dal

2015 è sbarcato in Campania.

Nello stesso anno era stata riportata

la diffusa presenza di un

fungo patogeno, Diplodia africana

(Cristinzio, 2015). Tutto

Fig. 18 - Confronto tra rilievi pre e post incendio.

ciò ha reso ancor più precaria

la condizione degli esemplari di

Pinus pinea locali. Seguendo la

classificazione di Corine Land

Cover, un’altra categoria fortemente

colpita è quella della “vegetazione

boschiva ed arbustiva

in evoluzione” ed anche in questo

possiamo scorgere gli effetti

della passata azione dell’uomo.

In questa categoria infatti rientrato

le estesissime distese

di Ginestra Etnea (Genista

aetnensis) un arbusto che non

appartiene alla flora vesuviana,

ma fu piantato dall’uomo per

stabilizzare i versanti e prevedibilmente,

come molte specie

aliene, ha preso il sopravvento,

trasformando molte aree che

una volta erano suolo nudo in

una fitta vegetazione arbustiva,

secca e sensibile al fuoco.

Un’altra causa scatenante è stata

certamente la natura del territorio:

la velocità di propagazione

di incendi di chioma è correlata

alla pendenza del territorio,

Fig. 19 - Rilievi Landsat 8 della temperatura al suolo; pre incendio (a sinistra), post incendio (a destra).

GEOmedia n°5-2018 25


REPORT

che nel caso delle pendici vesuviane

è elevata. La velocità

ha consentito all’incendio di

espandersi lungo un fronte

tanto ampio quanto difficile

da contrastare, facendo danni

anche nei giorni successivi

all’inizio degli interventi.

Preponderante è stata la limitata

disponibilità di mezzi

da parte delle autorità: gli incendi,

sia per la loro natura di

incendi di chioma, sia per le la

loro localizzazione, erano spesso

contrastabili solo tramite

mezzi aerei, di cui purtroppo

disponiamo in maniera limitatissima,

anche perché impegnati

negli stessi giorni già in

altri incendi.

In conclusione lo studio vuole

essere uno strumento di supporto

per ulteriori approfondimenti

e lavori riguardanti

il Vesuvio ed uno strumento

logistico fondamentale per la

progettazione di interventi di

recupero, aiutandone la localizzazione

puntuale grazie alle

analisi effettuate.

BIBLIOGRAFIA

Boer, M. (2008) Mapping burned areas and burn severity patterns in SW Australian eucalypt forest using

remotely-sensed changes in leaf area index.

Bolstad, P.V. & Gower S.T. (1990) Estimation of leaf area index in fourteen southern Wisconsin forest stands

using a portable radiometer. Tree Physiology.

Carlson, T. N. & D. A. Ripley (1997) On the relation between NDVI, fractional vegetation cover, and leaf

area index.

Congedo, L. ” (2016) Semi-Automatic Classification Plugin User Manual.

Cristinzio G. & Bosso L. (2015) Serious damage by Diplodia africana on Pinus pinea in the Vesuvius national

park (Campania region, southern italy).

Dainelli, N. (2011) L’osservazione della Terra – Telerilevamento.

Pat S. Chaver, (1996) junior - Image-Based Atmospheric Corrections - Revisited and Improved.

Pereira, J., (1999) “A comparative evaluation of NOAA-AVHRR vegetation indexes for burned surface detection

and mapping”, in IEEE Transactions on Geoscience and Remote Sensing, vol. 37, pp. 217–226.

Wang, Q., Adiku, S., Tenhunen J., Granier A. (2005) On the relationship of NDVI with leaf area index in

a deciduous forest site.

Telesca, L. & R. Lasaponara (2006) “Quantifying intra-annual persistent behavior” in Spot-Vegetation NDVI

data for Mediterranean ecosystems of southern Italy

Sander V., Lhermitte S. , Verstraeten W. W., Goossens R. (2011) Evaluation of pre/post-fire differenced

spectral indices for assessing burn severity in a Mediterranean environment with Landsat ThematicMapper.

Weier J., Herring D. (2000) Measuring Vegetation (NDVI & EVI).

NOTE

1 Lo steradiante è l’unità di misura del sistema internazione per l’angolo solido, ossia il corrispondente tridimensionale

del radiante.

2 La riflettanza, rapporto tra intensità del flusso radiante riflesso e intensità del flusso radiante incidente su un

corpo. E’ la capacità di un materiale o di una superficie di riflettere parte della luce incidente su di esso.

3 I sensori passivi sfruttano, per le loro analisi, la sola energia elettromagnetica proveniente dal corpo indagato

mentre quelli attivi, oltre a sfruttare l’energia elettromagnetica proveniente dal corpo indagato, producono

essi stessi energia utile ai fini del rilievo. I radiometri sono esempi di sensori passivi mentre i sensori radar ed

i LiDAR sono esempi di sensori attivi.

4 Il progetto Corine Land Cover (CLC) è nato a livello europeo specificamente per il rilevamento e il monitoraggio

delle caratteristiche di copertura e uso del territorio, con particolare attenzione alle esigenze di tutela

ambientale. Fonte: http://www.isprambiente.gov.it

PAROLE CHIAVE

Landsat8; change detection; Vesuvio; wildfire; NDVI; NBR; temperatura

ABSTRACT

At the half of july 2017 a big wildfire destroy a large area of Vesuvio and Mount Somma in the Vesuvio National

Park. In this work we have used Landsat8 multispectrals set of images to study the area before and after fire. We

have used tiles of 05-05-2017 and 24-07-2017. On the set of the images we have applied the DOS for pass from

TOA (Top Of the Atmosphere) to BOA (Bottom Of the Atmosphere). After this correction we have applied

the Pansharpening with the aim of improving images resolution from 30m/px to 15m/px. Therefore we have

estimate NDVI (Normalized Difference Vegetation Index), NBR (Normalized Burn Ratio) and temperature of

the ground before and after the fire.

AUTORE

Massimiliano Moraca

info@massimilianomoraca.it

Antonio Pepe

antonio.pepe.d@gmail.com

Droni Idrografici polivalenti

• Rilievi batimetrici automatizzati

• Acquisizione dati e immagini

• Mappatura parametri ambientali

• Ispezione fondali

Dighe, laghi, cave in falda, bacini, fiumi e

canali fino a 15 4 m/s. Km/h. Insensibili ai bassi ai bassi

fondali e alla presenza di alghe e detriti

Vendita - Noleggio - Servizi chiavi in mano,

anche con strumentazione cliente

26 GEOmedia n°5-2018


REPORT

GEOmedia n°5-2018 27


AEROFOTOTECA

MERCATO

L'AEROFOTOTECA

NAZIONALE RACCONTA…

la telefotografia, prima

della Grande Guerra

di Elizabeth J. Shepherd

«Nel campo della fotografia esisteva

prima della guerra una sezione

fotografica dell’Esercito,

ben nota soprattutto per le opere

di Tardivo in telefotografia e

telefotografia aerea. Queste trovarono

immediata applicazione

in guerra; e fosse dal cielo, dalla

terra o dal mare, gli esploratori

fotografi, utilizzando il buon apparato

progettato e costruito dalla

Sezione [Fotografica del Genio],

hanno dato un contribuito reale

alla conoscenza delle posizioni

nemiche. La telefotografia è stata

molto usata, soprattutto nelle regioni

alpine, e, quando la censura

lo ha consentito, i risultati sono

stati in parte pubblicati, come per

esempio i panorami della guerra

preparati sotto la direzione del

Comando Supremo dell’Esercito».

Il brano, tratto da un interessante

articolo di Giorgio Abetti,

The scientific mobilization in

Italy for the war, pubblicato sulla

rivista “Science” del 22 agosto

1919, ci fornisce il primo inquadramento

di un piccolo ma importante

nucleo di telefotografie

di grande formato conservate in

Aerofototeca Nazionale.

Le stampe ad albumina, montate

su cartone, recano il timbro

della Sezione Fotografica del 3°

Genio: si tratta di un «Panorama

fotografico verso Francia preso da

M. Valaisan” e di tre vedute romane

(la cupola di San Pietro, la

Colonna Antonina, Ponte Molle)

scattate tra 1898 e 1899 da Monte

Fig. 2 - Sezione Fotografica del 3° Reggimento Genio, La cupola di San Pietro, 1896. AFN, ICCD.

Mario, dove la Sezione aveva la

propria sede a Villa Mellini.

Dietro la realizzazione di queste

immagini, così particolari,

c’è l’attività di sperimentazione

nel settore della fotografia

“da campo” per scopi militari

di Giovanni Gargiolli, direttore

del Gabinetto Fotografico

Nazionale, e di Cesare Tardivo

della Sezione Fotografica della

Brigata Specialisti del Genio.

Tra il 1895 e la I Guerra

Mondiale la Brigata Specialisti

rappresentò un’eccellenza internazionale

in materia di aeronautica

e di fotografia, e non solo

in campo militare. Nel 1896 fu

creata, in seno alla Brigata, la

Sezione Fotografica che nel 1897

eseguì, al comando di Maurizio

Mario Moris (1860-1944) e con

il tenente Cesare Tardivo (1870-

1953), il primo rilievo aerofotografico

per mezzo di una macchina

fotografica sospesa ad un pallone

frenato, documentando un

tratto del corso del Tevere. Negli

anni seguenti la Sezione godrà di

fama internazionale per una serie

di rilievi topofotografici dal pallone:

di un tratto di 50 km del

Tevere (lavoro commissionato

dal Genio Civile) e, in collaborazione

con il Ministero della

Pubblica Istruzione, di tre celebri

aree archeologiche italiane:

il Foro Romano (varie riprese

tra 1898 e 1911, con la collaborazione

di Giacomo Boni), Pompei

(1910, con Vittorio Spinazzola) e

Ostia (1911, con Dante Vaglieri).

Tra 1906 e 1911 gli Specialisti

documentarono per il Magistrato

delle Acque anche Venezia e la

sua laguna.

Con un’accorta operazione di autopromozione,

i risultati di queste

riprese verranno presentati ai

congressi geografici, fotografici

e di fotogrammetria nazionali

ed internazionali, contribuendo

a creare all’Esercito italiano una

reputazione all’avanguardia per

progettualità e risorse.

Nei primi tempi di sperimentazione

l’aeronautica e la fotografia

furono soprattutto in mano

ai tecnici. Tra questi va indubbiamente

annoverato Giovanni

Gargiolli (1838-1913), il celebre

fondatore del Gabinetto

Fotografico Nazionale (oggi uno

degli archivi ICCD), la cui formazione

scientifica, matematica

e ingegneristica, unita alla

passione per la fotografia, ne

stimolò l’attenzione agli aspetti

progettuali dell’ottica fotografica.

La sua attività in questo campo,

inizialmente limitata alla ristretta

cerchia degli addetti ai lavori e

degli appassionati, arrivò alla notorietà

presso il grande pubblico

nel 1896, quando un articolo di

Ernesto Mancini sulla popolare

28 GEOmedia n°5-2018

Fig. 1 - Sezione Fotografica del 3° Reggimento Genio,

L’apparecchio telefotografico in azione sul Monte Mario,

1896. AFN, ICCD.


MERCATO

rivista “L’Illustrazione Italiana”

dei Fratelli Treves descrisse la

progettazione e la realizzazione

di un teleobiettivo, impiegato per

scattare foto a grande distanza da

una postazione su Monte Mario,

sede della Sezione Fotografica del

Genio. Tardivo nel 1911 ricorderà:

“fra i miei compagni di lavoro

rammento con piacere: gli ingegneri

Gargiolli, Letter e Sullam,

che nel primo periodo contribuirono

agli studi di telefotografia».

Gargiolli nel 1896 e Tardivo nel

1897 costruirono e misero in

azione un teleobiettivo ciascuno.

Con l’apparecchio Gargiolli, lungo

3 metri (fig. 1), “si vedeva così

bene Frascati da distinguere le

persone che passeggiavano sulla

piazza del paese ad una distanza

di 25 chilometri. […] i lettori

possono rilevare, confrontando

l’immagine della cupola di San

Pietro qui riprodotta, non a forte

ingrandimento, con quella piccola

data dall’obiettivo, eseguita

ad una distanza di 2250 metri,

quanto siano splendidi i risultati

ottenuti; anche i particolari

dell’agro romano che si vede

svolgersi lontanamente dietro alla

cupola, sono di una nitidezza meravigliosa»

(fig. 2).

Nel 1897 il teleobiettivo Steinheil

applicato sull’apparecchio telefotografico

“Tardivo” da 100 ingrandimenti

aveva una lunghezza

di soli metri 1,25 e una portata

di 25-30 chilometri. Di esso il

generale de la Penne lodava “una

telefotografia della Colonna

Antonina, eseguita con 250 ingrandimenti

dalla distanza di 3

km e che si presenta nelle stesse

condizioni di grandezza come se

fosse stata fatta alla distanza di 15

m con una macchina fotografica

ordinaria» (fig. 3).

Ma qual’era la differenza tra gli

apparecchi? Quello studiato da

Tardivo “non era più, come quelli

precedenti, un accoppiamento

sperimentale di elementi positivi

con altri negativi, ma costituiva

un sistema ottico a sé, in cui le varie

parti erano studiate in modo

che le une concorressero alla correzione

delle altre”. La maneggevolezza,

e poi la guerra, dichiareranno

il successo del teleobiettivo

“Tardivo”, che conoscerà successive

versioni perfezionate; il prototipo

è ancora oggi conservato

nel Museo Storico dell’Arma del

Genio di Roma, mentre di quello

“Gargiolli” sembrano oggi essersi

perse del tutto le tracce.

Fig. 3 - Sezione Fotografica del 3° Reggimento Genio, Roma,

Colonna Antonina da Monte Mario, 1899. AFN, ICCD.

Per approfondimenti e per la bibliografia

citata: E.J. Shepherd, Giovanni Gargiolli

e la telefotografia, in C. Marsicola (a c.),

Il viaggio in Italia di Giovanni Gargiolli,

Roma, 2014, 201-211.

PAROLE CHIAVE

Aerofototeca Nazionale; ICCD; telefotografia;

teleobiettivo; Gargiolli Tardivo

AUTORE

Elizabeth Jane Shepherd

elizabethjane.shepherd@beniculturali.it

Via Indipendenza, 106

46028 Sermide - Mantova - Italy

Phone +39.0386.62628

info@geogra.it

www.geogra.it

GEOmedia n°1-2018 29


REPORT

Sicurezza a scala territoriale: il ruolo

degli strumenti di supporto alle decisioni

di Stefano Marsella, Marcello Marzoli

Le problematiche da superare per

affrontare situazioni di emergenza

in caso di calamità naturali possono

essere molteplici e, soprattutto in

questi ultimi anni, richiedono specifiche

competenze in diversi ambiti. In

particolar modo si rendono sempre più

necessarie conoscenze approfondite di

tutte quelle piattaforme che possono

Fig. 1 - Lo standard NFPA 1616 individua un numero molto elevato di rischi da considerare per la

redazione dei piani di emergenza e di esodo di massa. In figura sono mostrati alcuni di quelli più

significativi, estrapolati dall'elenco del Cap. 5.

essere di supporto alle decisioni da

intraprendere in situazioni di rischio:

i cosiddetti DSS. Vediamo quali sono i

Nella notte tra il 17 ed il

18 giugno 2017 in Portogallo

erano attivi 156

incendi, causati da una intensa

ondata di calore iniziata alcuni

giorni prima. L’incendio che interessava

la zona montuosa nel

comune di Pedrogao Grande subì

nella notte un’intensificazione

rapida, che portò conseguenze

drammatiche: 66 persone decedute,

di cui 47 nella strada su una

strada rurale, intrappolati nelle

vetture o nel tentativo di fuggire a

piedi 1 . 2

Non sono ancora noti i motivi per

cui le vittime si sono trovate dove

non dovevano (mancata informazione

sulle vie di fuga? informazioni

sbagliate sulla percorribilità

di quel tratto? omissione nel bloccare

una strada divenuta pericolosa?).

Queste ed altre ipotesi sono

ancora oggetto di un’inchiesta, ma

la considerazione che interessa in

questa sede riguarda il fatto che,

negli ultimi decenni, è aumentato

il numero di calamità - di origine

naturale o antropica - nelle quali

sono morte persone che, con una

migliore organizzazione del sistema

di allarme e gestione dell’emergenza,

si sarebbero salvati,

come le 950 persone (di cui 540

studenti) coinvolti il 2 settembre

2014 nella frana Shanshucao in

Cina. In quel caso,

al primo movimento

del terreno, la rete di

monitoraggio e allarme

rapido permise di

analizzare la situazione

e dare l’allarme,

consentendo l’evacuazione

in 5 minuti

dall’edificio scolastico

[Bolin et Al.].

Realizzare sistemi

più efficaci dei piani

tradizionali e aumentare

le probabilità di

limiti degli attuali piani di emergenza a

scala territoriale, come possono essere

migliorati e il ruolo degli strumenti di

supporto alle decisioni.

sopravvivenza delle persone alle

calamità è quindi possibile. Fatta

eccezione per gli eventi improvvisi

(terremoti, esplosioni), gli strumenti

tecnologici disponibili permettono

di sfruttare l’intervallo di

tempo che intercorre tra l’inizio

dell’evento e quello in cui i suoi

effetti raggiungono le vittime potenziali

per avvertirle del pericolo

e far raggiungere loro un luogo

sicuro. A questo scopo la ricerca

ha già ampiamente dimostrato la

fattibilità di sistemi che integrano

i dati provenienti da sensori di

qualsiasi tipo, informazioni su

persone e infrastrutture e risultati

di simulazioni di eventi ed esodo,

per raggiungere il principale scopo

dei piani di emergenza: mettere in

sicurezza la popolazione attraverso

un allarme tempestivo ed una

informazione corretta su cosa fare

e su come raggiungere i luoghi

sicuri.

30 GEOmedia n°5-2018


REPORT

I limiti delle attuali pianificazioni

dell'emergenza a scala

territoriale

Quando si verifica una calamità,

le autorità che gestiscono i soccorsi

devono rispondere a domande

del tipo “un dato luogo è sicuro

rispetto alla minaccia (ad esempio,

un’onda di tsunami in arrivo)?”,

oppure “c’è il tempo per allontanare

le persone o è meglio che rimangano

nelle loro case (ad esempio,

in caso di incendi boschivi o

di nubi tossiche)?”.

La risposta che i cittadini si attendono,

in ogni caso, non può

essere preconfezionata: di volta

in volta saranno necessari dati ed

informazioni specifiche. Per quanto

si voglia spingere nel dettaglio

la pianificazione dell’emergenza,

non si potrà mai ipotizzare in

modo sufficientemente accurato

il numero delle persone coinvolte

e dove si trovano, come evolverà

la minaccia in relazione alle

condizioni meteo, come anche la

maggior parte dei dati rilevanti

per la valutazione degli effetti sulle

persone.

Molti piani di emergenza a scala

territoriale sembrano realizzati in

analogia a quelli che si predispongono

per gli edifici, nonostante

la radicale differenza che esiste tra

gli scenari: nel secondo caso, sono

note le informazioni su cosa fare

in caso di un evento (l’incendio)

ben noto, in un contesto già progettato

per l’esodo, con una posizione

più o meno nota delle persone,

una evoluzione dell’incendio

più o meno prevedibile e sistemi

di rilevazione ed allarme incendio

di cui i destinatari conoscono il

significato.

Poco di tutto questo può essere

previsto a scala territoriale. Le variabili

fondamentali per pianificare

con accuratezza sono troppe per

risolvere a priori il problema di gestire

le fasi di esodo. Le infrastrutture,

inoltre, raramente sono state

progettate in funzione dei rischi e

quasi mai in funzione dell’esodo,

con numeri di persone

coinvolte e rischi

da prevedere molto

più elevati.

Una pianificazione

tradizionale, che definisce

a priori cosa fare

durante l’emergenza

e prevede quali informazioni

dare alle

persone coinvolte,

dovrebbe considerare

un numero di scenari

pari ai rischi (fig. 1)

moltiplicati per il numero

di aree che possono

essere interessate

e per il numero di differenti

condizioni (notte, giorno, estate,

inverno, condizioni meteo ecc.),

che influiscono sulla distribuzione

delle persone e la disponibilità

di soccorritori. I relativi piani di

evacuazione per quanto accurati,

non potrebbero mai essere realistici

quanto quelli valutati sulla

situazione esistente nello scenario

dell’emergenza.

Come possono essere migliorati

i piani di emergenza?

I piani predisposti per gestire le

emergenze a livello territoriale di

solito sono concepiti per procedere

in modo organizzato al dispiegamento

delle risorse di soccorso

e di protezione civile. In questo

senso, quindi, rispondono a domande

del tipo: dove si collocano

i campi base? quali enti vanno

convocati? chi deve coordinare a

livello locale? dove si stabiliscono

i centri di comando e controllo? e

così via.

In sostanza, la pianificazione è mirata

a fornire il migliore soccorso

attraverso la soluzione preventiva

dei problemi che gli organi di

soccorso affrontano al momento

dell’evento. Questo approccio, che

scaturisce dalle esperienze di gestione

delle calamità, è indispensabile

per la gestione dei soccorsi.

L’aspetto speculare che il piano

di emergenza può ora compren-

dere è quello delle azioni che i

cittadini devono fare (o non fare)

per la loro sicurezza, soprattutto

nell’immediatezza della situazione.

In questo senso, l’uso di piattaforme

tecnologiche chiamate

DSS (dall’inglese Decision Support

System, cioè sistemi di aiuto alle

decisioni) può servire a indirizzare

nell’immediato le informazioni di

sicurezza alle persone esposte ai

rischi.

Nel paragrafo che segue si descrivono

in sintesi alcuni aspetti dei

DSS usati in ambito di sicurezza

territoriale. Va evidenziato che un

sistema di supporto alle decisioni,

per quanto accurato, è utile solo

se la politica di gestione dell’emergenza

prevede che:

- le autorità preposte alla gestione

dell’emergenza integrino nei

piani di emergenza gli elementi

di valutazione della situazione

in tempo reale (evoluzione di

un incendio, propagazione di

una nube tossica, allagamento

ecc.) che i DSS forniscono;

- i cittadini siano adeguatamente

informati sulle maggiori capacità

di gestione che la piattaforma

consente e sui canali e le

modalità di comunicazione in

emergenza.

Esistono già documenti che delineano

una strategia coerente

in cui integrare la pianificazione

dell’emergenza tradizionale con

GEOmedia n°5-2018 31


REPORT

l’uso di sistemi di supporto alle

decisioni, come ad esempio lo

standard NFPA 1616 (Common

Mass Evacuation and Sheltering) 3,

che contempla l’uso delle tecnologie

e chiede la valutazione del

tempo di esodo per la redazione

dei piani di emergenza.

I DSS - Sistemi di supporto alle

decisioni

Un sistema di supporto alle decisioni

è un sistema software “che

permette di aumentare l’efficacia

dell’analisi in quanto fornisce supporto

a tutti coloro che devono

prendere decisioni strategiche di

fronte a problemi che non possono

essere risolti con i modelli della

ricerca operativa. La funzione

principale di un DSS (dall’inglese

decision support system) è quella di

estrarre in poco tempo e in modo

versatile le informazioni utili ai

processi decisionali, provenienti

da una rilevante quantità di dati”.

I DSS sono usati nei settori dei

servizi finanziari, del commercio,

delle telecomunicazioni e della

sanità con lo scopo di facilitare

l’uso dei dati, fornire un ambiente

interattivo, fornire supporto al

processo decisionale e utilizzare in

modo efficace modelli per l’analisi

dei dati.

Solo nel settore dell’emergenza

il loro utilizzo si è fermato alla

ricerca. Progetti in tale senso

che hanno mostrato la fattibilità

di soluzioni tecnologiche

hanno riguardato anche l’Italia,

come LIAISON (Location

Based Services and Emergency

Indoor Location Systems, EC-

IST 2003), REACT (Control

centres and emergency services

interoperability, EC–IST 2005),

SAVE-ME (Disaster mitigation

and evacuation in transportation

hubs, EC-SST 2008), IDIRA

(Interoperability in large-scale

multinational disaster, EC-SEC

2010), AF3 (Advanced Forest Fire

Fighting, EC-FP7-SEC-2013),

TALED (Telecommunication, locAtion

and reaL timE Detection Discussione

of the environment, ESA-ARTES

2017), IN-PREP (An INtegrated

next generation PREParedness

programme for improving

effective inter-organisational

response capacity in complex environments

of disasters and causes

of crises , EC-H2020- SEC-01-

DRS-2016). In particolare, tali

progetti hanno mostrato che i

sistemi di supporto alle decisioni

possono fornire in tempo reale lo

stato degli eventi, e la simulazione

di incendi boschivi, eventi meteorologici,

onde di tsunami, inondazioni,

e forniscono informazioni

utilizzabili, insieme ai dati provenienti

dai sensori, per prendere

decisioni su cosa devono fare le

persone esposte al rischio.

Lo scopo del DSS è quindi includere

nelle procedure di valutazione

i dati in tempo reale e i risultati

delle simulazioni, per migliorare

in modo sostanziale la sicurezza

delle persone e l’efficienza dei

soccorsi. I principali strumenti

utilizzabili sono:

- sensoristica:

- monitoraggio terrestre satellitare;

- videosorveglianza (incendi

boschivi, traffico, infrastrutture

ecc.)

- crowd sensing (posizione

delle persone, eventi sismici,

ecc.)

- sensori specifici (sismici,

idrografici, ecc.)

- simulazione:

- eventi atmosferici

- alluvioni

- incendi boschivi

- onde tsunami

- diffusione di agenti pericolosi

in atmosfera

- comunicazione in emergenza

verso il pubblico:

- televisione, radio

- sms

- reti sociali

- internet

Fino ad ora, valutare in modo oggettivo

e con una approssimazione

sufficiente i tempi necessari per

mettere in salvo le persone in caso

di eventi catastrofici ha costituito

un ostacolo per la comunità internazionale

che opera nel soccorso

e nella protezione civile. Le principali

criticità incontrate possono

essere riassunte nei seguenti punti:

• il costo e la complessità dei

sistemi in grado di tenere sotto

osservazione l’evoluzione

dell’evento (dal momento in

cui insorge per tutta la durata

dell’emergenza, ad esempio,

incendio boschivo, alluvione,

rilascio di effluenti tossici in

atmosfera), che hanno rallentato

la richiesta di progettazione

di sistemi integrati di

supporto alle decisioni;

• la capacità di valutare su una

base oggettiva se il tempo di

esodo è adeguato a mettere in

salvo le persone. Quanto si fa

normalmente nella sicurezza

antincendio (il confronto

tra il tempo disponibile per

l’esodo e quello necessario

per mettersi in salvo) solo ora

inizia ad essere applicabile a

scale più grandi. Il principale

ostacolo è la disponibilità di

applicativi di simulazione l’esodo

a scala territoriale, partendo

da dati aggiornati sulla

posizione delle persone (ad

esempio, le zone centrali delle

città sono molto più affollate

di giorno che di notte, le aree

turistiche vedono il moltiplicarsi

delle presenze nei mesi

estivi, ecc.);

• la difficoltà di usare canali di

informazione che raggiungono

tutta la popolazione.

Il problema è più complesso

dell’uso estemporaneo delle

reti sociali. L’allarme dovrebbe

raggiungere tutti i cittadini,

indipendentemente dagli

strumenti che utilizzano per

32 GEOmedia n°5-2018


REPORT

essere informati

(tema che riguarda

il digital

divide presente

in tutte le società).

Anche in

questo caso, pur

tenendo conto

che informare

in tempo reale il

cento per cento dei cittadini è

un obiettivo non realistico, i

sistemi ed i protocolli in grado

di integrare i diversi mezzi

di comunicazione (media)

cominciano solo ora ad essere

diffusi;

• la mancanza di un protocollo

unificato di scambio dati. I

costi di realizzazione di una

rete di sensori potrebbero essere

notevolmente contenuti

se il DSS potesse utilizzare

dati provenienti da apparati

presenti sul territorio. Il ruolo

del protocollo di scambio

dati è quello di consentire che

sistemi diversi possano colloquiare

senza modifiche per i

sistemi stessi. Purtroppo, l’adesione

a protocolli unificati

(nel settore dell’emergenza il

protocollo più usato è il CAP

- Common Alerting Protocol)

avviene solo su base consensuale.

Conclusione

La gestione dell’emergenza a scala

territoriale può migliorare la sicurezza

dei cittadini nelle grandi

calamità avvalendosi in modo

più sistematico delle tecnologie

esistenti, e il coordinamento di

sistemi e competenze che già esistono,

ma che, per la mancata integrazione,

non riescono ad essere

utili quanto potrebbero. A nostro

parere, vanno affrontati due ordini

di problemi:

- la necessità di sviluppare nuove

professionalità in grado di

progettare e gestire sistemi che

coinvolgono discipline tanto

diverse (la gestione dell’emergenza,

le tecnologie dello

scambio dati, la sensoristica, le

comunicazioni e la valutazione

del rischio);

- la necessità, da parte delle organizzazioni

di protezione civile

e di soccorso, di concordare

l’utilizzo di uno standard di

scambio dati. Questo problema

è fondamentale in quanto

gli applicativi che mettono a

disposizione le informazioni

necessarie per gestire meglio

le emergenze non possono

essere usati in modo efficiente

senza un flusso continuo ed in

tempo reale dei dati tra i sistemi

degli enti coinvolti.

Di conseguenza, senza un protocollo

unico, non è possibile

ipotizzare la realizzazione di

sistemi di gestione dell’emergenza

adeguati alle aspettative

di sicurezza dei cittadini.

BIBLIOGRAFIA

Huang, B., Zheng, W., Yu, Z., & Liu, G. (2015). A successful

case of emergency landslide response - the Sept. 2,

2014, Shanshucao landslide, Three Gorges Reservoir, China.

Geoenvironmental Disasters, 2(1), 18. http://doi.org/10.1186/

s40677-015-0026-5

Decision support system - Wikipedia. (n.d.). Retrieved October

8, 2018, from https://it.wikipedia.org/wiki/Decision_support_system

NOTE DELLA REDAZIONE

1 https://en.wikipedia.org/wiki/June_2017_Portugal_

wildfires

2 https://www.nytimes.com/2017/06/18/world/europe/

portugal-pedrogao-grande-forest-fires.html

3 La National Fire Protection Association è una organizzazione

statunitense che, dalla protezione antincendio,

nel corso degli anni ha ampliato la sfera di interesse ai

settori della sicurezza territoriale

PAROLE CHIAVE

Incendi; rischio; emergenza; territorio; dss; sensoristica;

piattaforme

ABSTRACT

The problems to be overcome to deal with emergency situations

in case of natural disasters can be many and, especially

in recent years, require specific skills in various areas. In particular,

in-depth knowledge of all those platforms that can

support decisions to be taken in risk situations is increasingly

necessary: the so-called DSS (Decision Support Tools). Let's

see which are the limits of current emergency plans on a

territorial scale, how they can be improved and the role of

decision support tools.

AUTORE

Stefano Marsella

stefano.marsella@gmail.com>

Marcello Marzoli

marcello.marzoli@vigilfuoco.it

SUITE DEDICATA ALLA GESTIONE E PUBBLICAZIONE

DI PROGETTI QGIS SU SERVIZI WEBGIS

- Pubblicazione autonoma di progetti QGIS per la condivisione

delle proprie realizzazioni

- Pubblicazione di servizi OGC WMS e WFS

- Gestione degli accessi (anche con integrazione LDAP)

- Creazione di gestionali cartografici web configurabili

direttamente da QGIS

- Creazione flussi di lavoro configurabili direttamente da QGIS

- Strumenti di editing per la raccolta condivisa di dati geografici

- Client dedicati all'utilizzo su tablet per il lavoro su campo

CORSI SU PRINCIPALI SOFTWARE GEOGRAFICI OPEN SOURCE

www.gis3w.it - info@gis3w.it - Phone +39 349 1310164

GEOmedia n°5-2018 33


REPORT

"...IN ERRORE PERSEVERARE"

di Attilio Selvini

L’allora Presidente della Società

Italiana di Fotogrammetria e

Topografia (1995-1998) ritorna su

un tema a lui molto caro: le riforme

sulla professione di Geometra, il

proliferarsi delle Laure Triennali

per i Geometri e la vergognosa

eliminazione della Commissione

Geodetica della Repubblica Italiana,

ritenuta “Ente inutile”.

Ho scomodato Sant’

Agostino, perché questo

titolo mi sembra il più

adatto per illustrare quanto sto

per scrivere. Sant’Agostino d’Ippona

nei suoi Sermones afferma:

“Humanum fuit errare, diabolicum

est per animositatem in

errore manere” (cadere nell’errore

è stato proprio dell’uomo, ma

è diabolico insistere nell’errore

per superbia). Ma già secoli prima,

Cicerone (Filippiche) aveva

ammonito: “Cuiusvis hominis est

errare: nullius nisi insipientis, in

errore perseverare” (è cosa comune

l'errare; è solo dell'ignorante

perseverare nell’errore). Mi si

perdonino queste dotte citazioni:

gli è che l’Italia di oggi persevera

negli errori d’ogni genere, avendo

dimenticato la saggezza degli

Antichi Padri. E veniamo al “dunque”,

anche se dell’argomento

mi sono già occupato non poche

volte: si vedano i riferimenti bibliografici.

Da più parti nascono “lauree”

triennali per geometri, tra la

gioia di Collegi Provinciali, il

sussiego di qualche Magnifico

Rettore, l’esultanza e la soddisfazione

di non pochi dirigenti

scolastici, tutti in vario modo

compartecipi della vicenda. Ma

come e con quali programmi

nascono queste cosiddette “lauree”?

Mi piacerebbe sapere cosa

ne pensa in proposito la “FIG”,

Fédération Internationale des

Géomètres o anche International

Federation of Surveyors ed infine

Internationale Vereinigung der

Vermessungsingenieure,, così come

appare nelle tre lingue ufficiali

questa prestigiosa Associazione

mondiale (che tali erano sino al

1998: oggi vale solo il “globish”,

per chi non lo sapesse, termine

creato da Jean-Paul Nerrière proprio

in quell’anno!). Infatti i

programmi perseverano nella

famigerata e solo italiana “polivalenza”

del geometra più meno

laureato, ignorando del tutto

l’ambito di lavoro degli altri colleghi

europei. Decisive sono a tal

proposito le indicazioni in inglese

ed in tedesco sopra riportate, non

solo, ma anche la consistenza numerica

dei “Geometri” francesi,

inglesi e tedeschi, dell’ordine di

alcune migliaia per ognuno di tali

Paesi, nei confronti dei centomila

iscritti ai Collegi Provinciali in

Italia, sintomo sicuro di sostanziale

differenza professionale, rivolta

in prevalenza non alla “geometria”

bensì alle costruzioni di vario genere,

sino alla gestione condominiale

ed alla compravendita degli

immobili, cose più da ragionieri

che da geometri.

L’annuncio eclatante, quasi da

marcia trionfale verdiana, è quello

del 30 ottobre 2017: “Una convenzione

tra il Collegio Provinciale

dei Geometri e Geometri Laureati

di Reggio Emilia, l’ITS per

Geometri “Angelo Secchi” e l’Università

di San Marino, consente

agli studenti di Reggio Emilia la

partecipazione al progetto didattico

per il corso di laurea triennale

in “Costruzioni e gestione del

territorio”, pensato per i geometri

e promosso in collaborazione

con UNIMORE”. Afferma il

Magnifico Rettore di UNIMORE

(l’Università di Modena e Reggio

Emilia) che “Per la prima volta

nella sua storia il Geometra entra

nel mondo accademico dalla porta

principale, con profilo ed esami

calibrati per questa figura professionale

ed un percorso di studi che

ne incrementano le conoscenze e le

capacità. Ciò avrà, immediate e

positive ricadute sia nella propria

attività lavorativa, sia nel campo

della ricerca. Il corso di laurea per

la sua unicità costituisce una grande

occasione di svolta, per gettare le

basi della professione di domani”.

Mi stupisce che il Magnifico dimentichi

come i laureati triennali

non possano accedere ai corsi per

ricercatori e nemmeno possano

svolgere le mansioni di addetti

alle esercitazioni: a quello scopo

sono stati istituiti i “dottorati di

ricerca”, gli unici che dovrebbero

dare diritto al titolo universale di

“dottore”, tant’è che molti di loro

si fregiano, per distinguersi, dell’americano

“PhD”.

Peccato poi che il programma

per i nuovi geometri, sia fondato

su “ … Topografia, Tecnologia

e materiali delle Costruzioni,

Pianificazione Territoriale e

Urbanistica, Progettazione

Architettonica e Strutturale, Estimo

e Valutazioni Immobiliari, a cui

34 GEOmedia n°5-2018


REPORT

viene abbinata la multidisciplinarità

di altre materie, che spaziano

dal Diritto all’Economia includendo

Chimica, Inglese, Calcolo,

Informatica e altro ancora. Il titolo

rilasciato è Dottore in Costruzioni

e Gestione del Territorio valevole

in Italia e nell’Unione Europea

…..” Commento: una miscela

assurda fra discipline tipiche di

ingegneria civile e, architettura,

prese dai vecchi diplomi universitari,

con la menzogna del titolo di

Dottore solo italico e per nulla di

nulla riconosciuto nella Unione

Europea, nella quale non valgono

nemmeno i nostri dottorati quinquennali,

così come ho scritto e

ripetuto in vari articoli. Leggiamo

con disappunto che il Presidente

del Collegio Provinciale dei

Geometri e Geometri Laureati

di Reggio Emilia Francesco

Spallanzani, soddisfatto per aver

messo a punto l’importante sinergia,

ha detto: “Il nostro obiettivo è

un’alta formazione per una figura

tecnica, da sempre al passo con i

tempi. Un ruolo incline alla multidisciplinarietà,

che risponde al

generalizzato processo innovativo

messo in atto dalla digitalizzazione

nel mondo delle costruzioni

e dell’ambiente, con importanti

riflessi nell’economia delle nostre

realtà”. E dalli con la solo italiana

“multidisciplinarietà”: ma dove la

si trova, in ambito FIG? Mi faccia

il piacere!

Dal centro al nord: leggiamo

poi: “Gioca d’anticipo il Collegio

provinciale dei geometri di Sondrio,

che con la collaborazione dell’istituto

d’istruzione superiore De Simoni-

Quadrio e l’università degli studi

della Repubblica di San Marino ha

messo in cantiere a partire dall’anno

accademico 2018-2019 un corso

di laurea professionalizzante in

Costruzioni e gestione del territorio,

titolo indispensabile dal 2020 - lo

prevede la normativa europea –

(ma chi lo ha mai detto? La normativa

prevede i corsi triennali,

non il loro contenuto!) per chi

intende svolgere la professione di geometra

e iscriversi all’albo professionale”.

Per attirare nuovi geometri,

si apprende poi che “ Non sono

previsti test di ingresso per accedere

al corso di laurea, il cui costo annuale

è di 2.000 euro suddiviso in

tre rate - la prima di 800 euro, le

altre due di 600 -; c’è la possibilità

di iscriversi part-time con riduzione

delle tasse e prolungamento

della durata del corso per chi sta

lavorando. A presentare ieri il corso

triennale sono intervenuti nella sede

del Collegio di piazzale Bertacchi il

presidente Giorgio Lanzini, il segretario

Marco Tognolatti, il tesoriere

Giuseppe Bertussi e il consigliere

Michele Tempra, insieme ad Angela

Fico e Anselmo Fontana, rispettivamente

docenti dell’indirizzo

Costruzione ambiente e territorio

(Cat – ex-geometri) del De Simoni-

Quadrio e del Saraceno-Romegialli

di Morbegno”.

E vediamo ora la struttura di

questi corsi, dal punto di vista dei

programmi. Ecco quanto ne dice

la proposta di decreto.

Didattica - Il Corso di laurea in

Costruzioni e gestione del territorio

rappresenta un percorso volto a

formare professionisti in grado di

operare in tre principali aree:

edilizia, urbanistica e ambiente -

dove il Geometra Laureato si

caratterizza per la molteplicità

di competenze acquisite, da

mettere in campo in prestazioni

quali la progettazione, direzione

e contabilità dei lavori, oltre che

i collaudi e il coordinamento

della sicurezza in tutte le fasi interessate.

Ciò si estende inoltre a

servizi come l’amministrazione

immobiliare e la certificazione

energetica.

estimo e attività peritale - dove il

Geometra Laureato può mettere

in pratica quanto appreso durante

il percorso formativo per consulenze

che vanno dalla valutazione

del valore di mercato degli

immobili, all’assistenza tecniconormativa,

indispensabile sia per

i privati cittadini in vertenze di

tipo giudiziale e stragiudiziale,

sia per le imprese aggiudicatarie

di contratti di appalto pubblico o

privato.

geomatica e attività catastale -

dove il Geometra Laureato

applica le competenze acquisite

eseguendo attività come il rilievo

di fabbricati e la restituzione

grafica di planimetrie, oltre al

tracciamento di opere infrastrutturali

quali, per esempio, tracciati

stradali, idraulici e ferroviari.

Non è chi non veda lo squilibrio

esistente fra le attività nel settore

costruttivo e quello topografico:

ma dov’è finito il “geometra”?

dove sta la misura della Terra?

Nel solo “rilievo dei fabbricati” e

nella “restituzione grafica di planimetrie”,

cosa da disegnatori oggi

peraltro fatta da AutoCad? Non

è divenuto piuttosto un “perito

edile” oppure se si vuole seguire la

definizione attuale, un “ingegnere

edile junior”?

“Ma che bella bischerata!”, avrebbe

detto da buon toscano Luigi

Solaini, mio venerato Maestro, se

non fosse scomparso prima della

nascita di queste fregnacce, Che

tali siano, ne è convinto un giornale

serio, come “Il Foglio”, che

scrive quanto segue, in un gustoso

articolo dal titolo:

“La laurea per geometri vale

quanto lo stuzzicadenti di

Tognazzi”

a firma di Antonio Gurrado in

data 14 febbraio 2018; eccone

l’intero testo.

Dall’Università di San Marino la

risposta perfetta a tutti quegli italiani

che bramano il pezzo di carta.

Ma che non vogliono studiare. La

città di Lodi vanta di essere stata la

prima a istituire la laurea triennale

per geometri. A seguito di un accordo

con l’Università di San Marino

si può infatti frequentare un corso

di studi che, conseguiti centottanta

crediti formativi e superati venti

GEOmedia n°5-2018 35


REPORT

esami, consente di presentare una

tesi e candidarsi al titolo di dottore

in Costruzione, Ambiente e

Territorio – certificando così di

avere le stesse competenze dei diplomati

nell’Istituto tecnico a indirizzo

Costruzione, Ambiente e Territorio.

Cioè, il diploma da geometri. I più

“agé” ricorderanno quando Ugo

Tognazzi interpretava un artigiano

intento a levigare un tronco per

ottenerne un unico e solo stuzzicadenti

fatto a mano, pregiatissimo in

quanto del tutto indistinguibile da

uno stuzzicadenti industriale. Sono

i frutti delle smanie per il pezzo di

carta, che a parità di competenze

fanno sembrare più affidabile un

laureato rispetto a un diplomato,

tendenza inarrestabile in una nazione

in cui tutti vogliono essere

dottori e pochi vogliono studiare.

Ma è colpa anche dell’immancabile

direttiva in tal senso, che per fare

i geometri renderà obbligatoria la

laurea a partire dal 2020, prolungando

così la permanenza coatta

sui banchi di persone che magari

vorrebbero lavorare. È proprio come

lo stuzzicadenti di Tognazzi: incrementare

la fatica per ottenere lo

stesso risultato di prima, però dicendo

che vale di più. Senza nemmeno

considerare il dilemma inestricabile

di fronte a cui ci pone questa storia:

o non valeva niente il diploma, o

non varrà niente la laurea.”..

Siamo ancora in tempo. Lo stravolgimento

della professione di

geometra, fenomeno solo e unicamente

italiano, conta settant’anni

di vita esatti: è infatti dal 1948

che il numero dei diplomati cresce

paurosamente, attratto dalla

ricostruzione edilizia del Paese

uscito sonoramente sconfitto dalla

seconda guerra mondiale. Da

Carlo V in poi il geometra si era

solo e sempre occupato di misurare

la Terra: si vedano i prodigiosi

servizi forniti dai geometri per il

Catasto di Carlo VI o Teresiano

che dir si voglia.

Il nuovo governo dice di voler

tagliare tutte le cose inutili sin qui

fatte e di sanare quelle malfatte.

Suggeriamo due provvedimenti:

Rivedere la proposta di legge sulla

‘Laurea del Geometra’ che il 23

marzo 2018, è stata presentata,

dalla Senatrice Simona Flavia

Malpezzi, e che attende di essere

assegnata alla commissione competente.

Che se ne chieda il parere

alla FIG e magari anche all’onorevole

Antonio Tajani, presidente

del Parlamento Europeo. Togliere

il vergognoso titolo di “dottore”

ai laureati triennali. Fa specie

vedere, negli ospedali, graziose

fanciulle col cartellino dottorale

anche se medici non sono, ma

semplicemente (pur brave) infermiere.

Rivedere poi la vergognosa

eliminazione della Commissione

Geodetica della Repubblica

Italiana, ritenuta “Ente inutile”,

chiedendo anche qui il parere

della Comunità Europea. Non è

tanto, non costa nulla, ma incomincerebbe

a cancellare alcune

delle vergogne italiche.

BIBLIOGRAFIA

G. Bezoari, A. Selvini. Il diploma universitario per geometri:

l'Italia si allinea all'Europa. Documenti, Roma, n.22/91.

A. Selvini. Geometra: una professione antica svolta con nuovi

strumenti ed una nuova formazione, Il Seprio, Varese, n. 2/2003

A.Selvini. Qualche riflessione sulla formazione del geometra. Il

Seprio, Varese, n. 2/2007.

A.Selvini. Geometri o periti edili? Il Seprio, Varese, n. 4/2009.

A.Selvini. Quando i geometri erano geometri. Il Seprio, Varese.

N. 2/2014.

A.Selvini. Quale futuro per il geometra italiano? Il Seprio, Varesae,

n. 2/2016

C.Monti, A. Selvini. Riflessioni su di un programma ministeriale

, GEOmedia, Roma, n. 3/2013.

A.Selvini. Quo usque tandem, GEOmedia, Roma, n. 4/2015

PAROLE CHIAVE

Topografia; professione geometra; riforma

ABSTRACT

The ex-President of the Italian Society of Photogrammetry and

Topography (1995-1998) returns to a subject really dear to

him: the reforms on the profession of Surveyor, the proliferation

of the Bachelors Degrees for Surveyors and the shameful

elimination of the Geodesic Commission of the Italian Republic

, deemed "useless institution".

AUTORE

Attilio Selvini

attilio.selvini.polimi@gmail.com

Presidente della Società Italiana di Fotogrammetria

e Topografia, 1995-1998

L’eccellenza dei dati geografici

Toponomastica e numerazione civica

A beneficio degli ambiti di utilizzo più maturi ed esigenti, per la gestione e per la pianificazione geografica e quotidiana

delle reti e delle utenze, della grande e media distribuzione, della raccolta RSU, dei sistemi navigazionali e del car-sharing,

per l’attività politica e per quella amministrativa. www.studiosit.it • info@studiosit.it

36 GEOmedia n°5-2018


REPORT

Soluzioni e Tecnologie

Geospaziali per

la Trasformazione

Digitale

www.esriitalia.it

GEOmedia n°5-2018 37


REPORT

Elaborazione di Piattaforma GIS sul

fattore di Rischio alluvionale nel

comprensorio del Comune di Sora (Fr)

di Fabio Cuzzocrea, Stefano Lucidi

Fig. 1 - Esempio di allerta rischio idrogeologico della Regione Lazio

Esperienza congiunta

tra il comando dei Vigili

del Fuoco di Frosinone e

l’Università degli

Studi di Cassino

Il supporto della cartografia digitale

è oramai molto diffuso nella gestione

delle informazioni ed il Corpo

Nazionale dei Vigili del Fuoco, ormai

da diversi anni, studia le possibili

applicazioni di questa tecnologia alle

attività di soccorso tecnico urgente.

Questi strumenti informatici sono di

notevole utilità nelle valutazioni del

management in fase di allerta, allarme

ed emergenza, favorendo la previsione

e la valutazione degli scenari di danno

da remoto. I sistemi consentono

la lettura dei dati direttamente

dalla cartografia digitale, dalla

quale possono essere dedotte delle

informazioni "nascoste", oltre a quelle

già riportate in simboli nelle schermate

iniziali. Inoltre, i sistemi consentono

un facile confronto tra le informazioni

riportate su diverse cartografie,

leggibili direttamente insieme su

uno stesso elaborato cartografico.

Nell’articolo è illustrata l’esperienza

del Comando VVF di Frosinone

nello sviluppo di una piattaforma

cartografica, nella quale sono stati

simulati i diversi scenari di danno

derivanti da un'ipotetica alluvione nel

Comune di Sora.

L’

Italia è un paese frequentemente

soggetto

ad alluvioni, che provocano

spesso vittime e danni ingenti.

Gran parte del territorio

nazionale è a rischio idrogelogico

e tra le cause principali

dell’aumento del rischio c’è

l’antropizzazione e quindi la

diffusa impermeabilizzazione

del territorio.

E’ possibile ridurre il danno

causato da questi eventi attuando

misure di tipo infrastrutturale,

con interventi sia

sul patrimonio sia sulle nuove

strutture ed adottando dei

sistemi di gestione delle emergenze

integrati per il coordinamento

delle attività svolte dai

diversi Enti che, a vario titolo

concorrono nel sistema nazionale

di Protezione Civile quali

i Vigili del Fuoco, i Comuni,

le Autorità di Bacino, ecc.

E’ del tutto evidente l’importanza

nel predisporre un sistema

di allertamento ed allarme

all’insorgere degli eventi calamitosi

ed i piani di gestione

delle emergenze di tipo condiviso.

In quest’ottica nel D.L. n.

59 del 15.05.2012, convertito

nella Legge n. 100 del

12.07.2012, è stata prevista la

redazione da parte degli Enti

locali di piani di previsione

e prevenzione dei rischi sulla

base delle linee guida fornite

dalla Dipartimento Nazionale

della Protezione Civile.

Ogni comune è, quindi, tenuto

a stilare un Piano di Emergenza

Comunale (P.E.C) in

cui vengono riportati i fattori

di rischio, le zone più esposte,

l’organizzazione operativa, le

funzioni di responsabilità e le

altre informazioni che possono

risultare utili nelle azioni di

Protezione Civile.

D’altra parte si è anche proceduto

alla stesura di piani di

previsione, con il coinvolgimento

e la formazione degli

Enti preposti quali sono, nel

caso dei dissesti idrogeologici,

i Distretti Idrografici.

In tale direzione si è mosso

anche il Comando Provinciale

dei Vigili del Fuoco di Frosinone

che ha recentemente

elaborato una piattaforma GIS

finalizzata alla simulazione

di un evento alluvionale nel

territorio del Comune di Sora,

caratterizzato da un elevato

fattore di rischio idraulico per

la presenza del fiume Liri che

attraversa un’ampia area nella

quale si registra presenza di

38 GEOmedia n°5-2018


REPORT

popolazione e di insediamenti

produttivi.

Il lavoro è stato svolto congiuntamente

tra il personale

Vigile del Fuoco del Comando

di Frosinone abilitato alle tecniche

TAS (Topografia Applicata

al Soccorso) ed il Dott.

Andrea Moscone, studente

della facoltà di Ingegneria

dell’Università degli Studi di

Cassino, che ha elaborato la

tesi di laurea nell’ambito di un

tirocinio effettuato presso lo

stesso Comando.

L’attività di tirocinio, svolta

da diversi studenti della facoltà

di Ingegneria, si sviluppa

nell’ambito di una convenzione

stipulata, ormai di alcuni

anni, tra il Comando Vigili

del Fuoco di Frosinone e l’Università

degli Studi di Cassino.

Scopo del lavoro è stato quello

di organizzare, filtrare e sintetizzare

su un’unica piattaforma

le informazioni contenute nei

piani di emergenza esistenti,

per migliorare l’efficacia degli

interventi di soccorso tecnico

urgente.

E’ stata svolta, dapprima,

un’analisi della statistica degli

interventi di soccorso caratteristici

di un evento calamitoso

di tipo alluvionale, necessaria

per individuare i parametri da

monitorare in fase di allerta,

allarme ed emergenza.

Queste informazioni sono

molto utili per le figure deputate

al coordinamento del

soccorso (management dell’emergenza)

nelle fasi di pianificazione

e di gestione degli

interventi, soprattutto al fine

di ottimizzare i tempi di intervento.

E’ stata creata una piattaforma

GIS interattiva e dinamica,

specifica per la simulazione

dell’alluvione nel Comune di

Sora, avente lo scopo di semplificare

il lavoro di ricerca dei

dati utili alla pianificazione di

un intervento da parte dei Vigili

del Fuoco.

Fig. 2 - Aree a rischio alluvione del Comune di Sora

Software utilizzato

e metodologia

Per la realizzazione della piattaforma

GIS è stato utilizzato

il software ArcGis, in particolare

ArcMap, della società

ESRI.

Con l’uso di questa applicazione

sono stati possibili:

4l’archiviazione di geodati

sono stati caricati database

spaziali contenenti dataset

che rappresentano le

Fig. 3 - Maschera di interfaccia della piattaforma GIS

informazioni relative agli

elementi areali, lineari o

puntuali. Si è anche avuta la

necessità di creare una serie

di database ex novo con relativi

dataset

4la geovisualizzazione

attraverso i database costruiti

si è generata una prima

serie di cartografie tematiche

complesse, organizzate

in Layers, permettendo

quindi la visualizzazione

contemporanea di più sha-

GEOmedia n°5-2018 39


REPORT

Fig. 4 Layers del sistema GIS

pefiles rendendo possibile

l’editing e l’analisi dell’informazione

geografica

4il geoprocessing

dai layer caricati/costruiti e

in seguito visualizzati è stato

possibile ricavare nuovi layers,

e quindi nuovi datasets

contenenti dati “elaborati”

attraverso gli strumenti di

geoprocessing

Attraverso la piattaforma GIS

sono state create tre cartografie

tematiche relative agli altrettanti

scenari di danno previsti

dal Piano di Gestione delle

Alluvioni.

Questi scenari di rischio

presentano tre diversi casi di

inondazione a gravità crescente

ed in particolare:

4scenario A - si riferisce ad

eventi abbastanza frequenti

e ad un’area di inondazione

limitata

Fig. 5 - Esempio di modellazione

3D delle aree di danno

4scenario B - si riferisce ad

eventi rari e ad un’area di

inondazione mediamente

estesa

4scenario C - si riferisce ad

eventi straordinari e ad

un’area di inondazione massima

Con la piattaforma GIS si è

automatizzata la procedura di

scelta della cartografia di riferimento.

In particolare, inserendo nel

sistema i dati relativi all’altezza

di pioggia misurata nel bacino

idrografico di riferimento con

l’ausilio dei pluviometri, la

variazione della misura della

portata del fiume Liri nei

diversi punti di misurazione

resterà associata ad un solo

scenario di danno.

Dalla lettura delle cartografie

digitali sarà possibile desumere

le seguenti informazioni:

4la stima della popolazione

coinvolta

4il numero di edifici civili

coinvolti

4la presenza di eventuali edifici

strategici o sensibili

4l’area e il perimetro dell’area

inondata

Produzione della mappa

e valutazioni

Il territorio analizzato è quello

del Comune di Sora, appartenente

al Distretto Idrografico

dell’Appennino Meridionale

zona del Bacino del Liri, appartenente

alla XV comunità

montana Valle del Liri.

L’area presa in esame, che si

estende per 72.12 km 2 ed

ospita circa 26.247 abitanti,

è frequentemente soggetta ad

alluvioni ed è stata oggetto di

attenti studi idraulici da parte

dell’Autorità di Bacino.

Il tratto da Sora ad Isola del

fiume Liri rappresenta sicuramente

una delle zone a

maggior rischio idraulico del

bacino.

I fattori ed i dati presi alla base

del sistema GIS sono stati:

4i limiti delle aree di rischio

e fasce inondabili, desunte

dalla Mappa del Rischio nel

Piano di Gestione delle Alluvioni

4gli edifici e zone strategiche,

desunti dalla P.E.C. del comune

di Sora.

4gli edifici, le infrastrutture

di connessione e l’andamento

del fiume, desunti dalla

CTRN del comune di Sora

4la stima della popolazione

residente per zone comunali

calcolata dai dati ISTAT

Per quanto riguarda le fasce

inondabili è stato necessario

creare dei nuovi shapefiles con

gli attributi; sono state poi

caricate e georeferenziate le

mappe del rischio e, attraverso

lo strumento Draw, sono state

ricavate le aree di esondazione

del fiume.

40 GEOmedia n°5-2018


REPORT

I dati di input inseriti sono stati processati

in ArcMap. I dati sulla popolazione, desunti

dalla letteratura ISTAT e CTRN, sono stati

incrociati con gli shapefiles delle fasce di inondazione

per ottenere i dati relativi agli edifici

ed alla popolazione ricadente all’interno delle

zone di alluvione individuate.

Le cartografie ottenute con questa operazione

sono state caricate su dei layer distinti, sui

quali sono riportati i dati caratteristici dello

scenario di riferimento e le informazioni relative

al numero di abitanti ed edifici coinvolti.

Per ottenere altre informazioni utili all’attività

di pianificazione e di soccorso, ai suddetti dati

sono associati quelli relativi alla cartografia

viaria per individuare la viabilità interrotta.

Tutte le informazioni riportate sulla piattaforma

sono caricate su dei layer che riportano

informazioni omogenee (ad esempio layer

“edifici”, layer “popolazione”, ecc.).

I layer potranno essere letti singolarmente o

sovrapposti ad altri per acquisire, in quest’ultimo

caso, informazioni simultanee.

Sono state, inoltre, mantenute, sempre su layers

distinti, tutte le informazioni riportate sul

Piano di Emergenza Comunale del Comune

di Sora. La piattaforma GIS realizzata per il

rischio idraulico del Comune di Sora è certamente

uno strumento molto utile nella pianificazione

e nella gestione delle emergenze di

tipo alluvionale. E’ auspicabile detti strumenti

siano realizzati e condivisi tra tutti i Comuni

del territorio nazionale, estendendo i temi

della piattaforma GIS ad altri fattori di rischio

(sismico, incendi, ecc.) di interesse per chi

opera nel sistema di Protezione Civile.

PAROLE CHIAVE

Rischio; GIS; emergenza; pianificazione; gestione; rischio idraulico;

alluvione

ABSTRACT

The support of digital cartography is now very widespread in the management

of information and the National Fire Brigade, now for several years, studies the

possible applications of this technology to emergency technical rescue activities.

These IT tools are very useful in management assessments during the alert, alarm

and emergency phase, favoring the prediction and assessment of remote damage

scenarios.

The systems allow the reading of data directly from digital cartography, from

which "hidden" information can be deduced, in addition to those already reported

in symbols in the initial screens. Moreover, the systems allow an easy comparison

between the information on different maps, which can be read directly

together on the same map.

The article illustrates the experience of the Frosinone VVF Command in the development

of a cartographic platform, in which the different damage scenarios

resulting from a hypothetical flood in the Municipality of Sora were simulated

AUTORE

Ing. Fabio Cuzzocrea

fabio.cuzzocrea@vigilfuoco.it

Comandante Provinciale Vigili del Fuoco di Frosinone

Ing. Stefano Lucidi

stefano.lucidi@vigilfuoco.it

Funzionario Ruolo Direttivo presso il Comando Provinciale

Vigili del Fuoco di Frosinone

C’è vita nel nostro mondo.

Realizzazione di infrastrutture

dati territoriali (SDI) conformi a INSPIRE

Formazione specialistica su tecnologie

GIS Open Source

INSPIRE Helpdesk

We support all INSPIRE implementers

Epsilon Italia S.r.l.

Via Pasquali, 79

87040 Mendicino (CS)

Tel. e Fax (+39) 0984 631949

info@epsilon-italia.it

www.epsilon-italia.it

www.inspire-helpdesk.eu

GEOmedia n°5-2018 41


REPORT

Aspetti di sicurezza nell'utilizzo dei

sistemi di navigazione satellitare

di Mauro Leonardi

Fig. 1 - Esempi di spoofer disponibili in commercio

(Di Fonzo 2014).

I sistemi di navigazione satellitare

sono sempre più utilizzati nel settore

della geomatica (dal rilevamento, alla

georeferenziazione, ai sistemi per la guida

dei droni). Questa penetrazione nel mercato,

però, non sempre ha tenuto conto dei relativi

aspetti di sicurezza e delle conseguenti

minacce per l’incolumità dell’uomo.

Negli ultimi anni si è assistito

ad una sempre

maggiore penetrazione

delle tecnologie satellitari (ed in

particolare di navigazione) in

tutti i campi della Geomatica.

Questa penetrazione, iniziata già

molti anni fa, ha avuto una forte

accelerazione grazie alla sempre

maggiore disponibilità sul mercato

di tecnologie a basso costo ed alte

prestazioni. Oggi, l’uso dei sistemi

di navigazione satellitare avviene

sia per via diretta (ad esempio nel

rilevamento topografico) sia per via

indiretta (per la georeferenziazione

di altri strumenti di misura come i

Laser Scanner, o come strumento

di navigazione per i velivoli autonomi).

In questo lavoro non ci si concentrerà

sulle nuove opportunità

aperte dai sistemi satellitari, o sulle

loro prestazioni di misura, ma su

un aspetto che spesso è trascurato:

la gestione della sicurezza durante

il loro utilizzo.

E’ importante chiarire cosa si

intenderà per sicurezza. Si parla

di sicurezza ogni qualvolta ci si

riferisce alla salvaguardia della vita

umana. Sicurezza, però, vuol dire

anche capacità di proteggere qualcosa

o qualcuno. Nel primo caso

si usa il termine inglese safety, nel

secondo si usa il termine security.

Questa distinzione diviene molto

chiara se si risale all’origine delle

due parole: safe viene dal latino

Latino “salvum”, dalla stessa radice

di “salus” che significa ‘salute’;

secure, viene dal latino securum,

‘tranquillo, senza preoccupazioni’.

Comunemente si pensa alla security

come un mezzo per raggiungere

la safety: il sistema di sicurezza

(security) costituisce una barriera

a protezione dell’incolumità

personale (safety). Nelle attuali

applicazioni tecnologiche questa

visione è riduttiva in quanto: (a)

non necessariamente un sistema di

sicurezza è a protezione della salute

dell’uomo (si pensi ad esempio alla

cyber-security, alla protezione dei

dati sensibili ecc.); (b) la security

non è condizione necessaria (ne

sufficiente) a garantire l’incolumità

dell’uomo (si pensi, ad esempio

agli incidenti, ed ai malfunzionamenti).

Nelle seguito, dopo un breve

introduzione sull’evoluzione dei

sistemi di navigazione satellitare

(chiamati genericamente Global

Navigation Satellite System -

GNSS) e sulle tendenze di utilizzo

future, saranno analizzati i relativi

rischi di sicurezza ed alcune possibili

contromisure.

Evoluzione dei sistemi GNSS

Il primo sistema di navigazione

satellitare operativo fu il sistema

Transit, era utilizzato dalla Marina

Statunitense per avere informazioni

precise sulla posizione dei suoi

sottomarini e dei missili balistici.

Il Transit ha fornito un servizio di

navigazione continuo fin dal 1964

e, successivamente, è stato reso disponibile

anche per uso civile.

Durante la guerra fredda, furono

sviluppati i due sistemi più noti: il

GPS (Stati Uniti) ed il GLONASS

(Unione Sovietica). I due sistemi,

con differenti soluzioni tecniche,

sfruttano lo stesso principio di

funzionamento per fornire la posizione:

il ricevitore misura la propria

distanza da almeno 4 satelliti

(contemporaneamente visibili),

ricavando poi la propria posizione

come il punto di intersezione di

sfere aventi come centro i satelliti e

come raggio la distanza misurata.

Questo principio è, di fatto, diventato

lo standard di riferimento

per la navigazione satellitare e,

dato l’abbandono per lungo tempo

del sistema GLONASS, il GPS è

stato l’unico sistema utilizzato in

occidente.

Recentemente, la situazione è

molto cambiata: oltre alla piena

operatività (ritrovata nel 2012) del

sistema GLONASS, nuovi sistemi

di navigazione satellitare sono

diventati operativi ed altri sono

pianificati per il futuro. Si possono

qui menzionare l’europeo Galileo,

dichiarato in “Initial Operational

Capability a dicembre 2016, ed il

cinese Beidou, che con il lancio del

12 Febbraio 2018 ha raggiunto un

totale di 22 satelliti in orbita sui 35

previsti. A questi sistemi di navigazione

globale si affiancano i sistemi

regionali (dove per regioni si intendono

scale nazionali o continentali)

di posizionamento autonomo

(come il NAVIC indiano) o di supporto

(per il miglioramento delle

prestazioni dei sistemi esistenti,

42 GEOmedia n°5-2018


REPORT

Fig. 2 - Occupazione spettrale del segnale trasmesso da un

jammer in grado di disturbare contemporaneamente le bande

L2, L4 e L5 del GPS.

come il WAAS americano o l’E-

GNOS europeo) e, infine, sistemi

locali o terrestri (ad.es. il GBAS, le

reti DGPS, le reti RTK ecc.) per i

più disparati utilizzi (dall’atterraggio

di precisione, al monitoraggio

dei movimento tettonici, al rilevamento

topografico).

Data questa forte evoluzione, le

attuali prestazioni di accuratezza

sulla misura di posizione variano

dai pochi metro (utilizzando i soli

sistemi di navigazione satellitare)

fino ai centimetri (o sotto) con

l’aiuto dei sistemi di supporto (stazioni

differenziali, stazioni RTK,

reti RTK ecc.) e lunghi tempi di

osservazione. Essendo i sistemi

GNSS interoperabili, l’utilizzo

contemporaneo di più costellazioni

(ricevitori multi-costellazione)

ha consentito, infine, anche un

aumento della continuità e della

disponibilità dei servizi (Galati

2009).

Anche il lato utente (cioè il ricevitore

da esso usato) ha subito un

evoluzione con la produzione di

ricevitori GNSS sempre più performanti

ed a basso costo. La grande

diffusioni di terminali mobili

multimediali (smartphone) con

ricevitori GNSS integrati, ha, inoltre,

aperto la strada all’uso di questi

device anche nelle applicazioni

professionali in cui le performance

di accuratezza richieste sono elevate.

Ulteriore spinta in questa

direzione sarà data dalla possibilità

di accedere direttamente ai dati di

misura GNSS negli smartphone di

ultima generazione (da Android N

in poi).

La diffusione pervasiva di questi

terminali cambia completamente

l’approccio nell’uso dei sistemi

GNSS per applicazioni professionali.

Il paradigma di utilizzo, che

prima era basato sull’utilizzo di

tecnologie ad-hoc ed ottimizzate

per la specifica funzione da svolgere,

sarà sempre più basato su

soluzioni con hardware distribuito

(sempre più apparati comunicanti

tra loro) e funzioni concentrate

(sempre maggiore sovrapposizione

delle funzioni di elaborazione, comunicazione

e navigazione).

Questa redistribuzione delle “competenze”

produce molti vantaggi

(abbattimento dei costi, prestazione

di misura elevate, dati sempre

disponibili, maggiore semplicità

di utilizzo ecc.) ma non bisogna

dimenticare che ogni volta che si

introducono nuove tecnologie o

nuovi servizi se ne devono considerare

anche i limiti.

In particolare, oggi, per la stragrande

maggioranza delle applicazioni

commerciali, i ricevitori GNSS

non forniscono nessuna garanzia

di servizio agli utenti e, per varie

ragioni, le loro prestazioni di accuratezza

(seppur normalmente

molto elevate rispetto al passato) si

possono degradare molto e molto

rapidamente (ad esempio per condizioni

di propagazione del segnale

anomale o per malfunzionamenti

nei satelliti). Inoltre, come ogni

sistema basato sulle telecomunicazioni

wireless, il servizio di localizzazione

può essere negate o degradato

intenzionalmente utilizzando

degli appositi apparati di disturbo:

solitamente si parla di Jamming

come l’atto di disturbare volutamente

le comunicazioni radio

trasmettendo sulla stessa frequenza

del segnale che si vuole disturbare,

o di Spoofing quando si intende

la trasmissione di falsi segnali,

del tutto simili a quelli nominali,

contenenti informazioni fuorvianti

per ingannare il ricevitore d’utente

(ad esempio facendogli credere di

trovarsi in posto diverso da quello

in cui realmente si trova).

A questi limiti, va aggiunta un

considerazione generale: è sempre

più frequente, nei sistemi complessi,

l’uso di metodi automatici o autonomi

di decisione (comunemente

noti come intelligenza artificiale).

Questi metodi introducono un

ulteriore strato di mediazione tra

le misure GNSS e l’uomo, trasformandolo,

di fatto, in una componente

(a volte marginale) dell’intero

sistema. L’utilizzatore finale, di

conseguenza, non ha ne il pieno

controllo, ne la piena conoscenza

di quanto sta avvenendo.

Sicurezza nelle applicazioni

geomatiche

I suddetti limiti influiscono direttamente

sulla sicurezza (safety e security),

infatti: (a) essendo lo scopo

principale dei sistemi di navigazione

il governo dei mezzi mobili

(dalle automobili, alle persone, dagli

aerei ai droni), se mal governati

per malfunzionamento del sistema

di localizzazione, essi possono arrecare

danno all’uomo (incidenti)

o ai sui beni (perdite economiche);

(b) attraverso l’utilizzo dei GNSS

si generano dati come, ad esempio,

cartografie o rilievi topografici che,

se errati possono essere dannosi;

(c) può essere di interesse, per un

soggetto terzo, provocare malfunzionamenti

o impedire il corretto

(o sicuro) svolgimento delle attività

in cui è previsto l’uso di apparati

GNSS; (d) non è nulla la probabilità

di trovarsi in condizioni avverse

(ad esempio per presenza di

interferenze o malfunzionamenti)

che degradano le prestazioni del

sistemi in uso; (e) non è nulla la

probabilità di essere in presenza

di una degradazione intenzionale

delle prestazioni non direttamente

rivolta al nostro ricevitore ma ad

altri nelle vicinanze.

Molti dei casi esposti sono già accaduti

in passato e se ne riportano

qui alcuni esempi significativi.

Molto diffuso (seppur illegale) è

l’utilizzo di apparati di disturbo

Fig. 3 - Esempio di disturbo attraverso spoofer. La traccia blue

rappresenta la sequenza di posizioni (errate) calcolate da un ricevitore

(in posizione fissa) in presenza di spoofer che invia falsi

GEOmedia n°5-2018 43

segnali di navigazione (Jones 2017).


REPORT

per inibire il funzionamento del

sistema di navigazione installato

a bordo del proprio veicolo (normalmente

per disturbare il sistema

di controllo della flotta aziendale

o per disturbare il sistema GNSS

installato ai fini assicurativi).

Qualche anno fa si è verificato il

primo provvedimento sanzionatorio

a riguardo: un uomo del New

Jersey è stato scoperto ad utilizzare

un jammer sul proprio mezzo per

impedirne la localizzazione da

parte della sua azienda. Passando

regolarmente nelle vicinanze

dell’aeroporto di Newark ha disturbato

i test per l’installazione di

un sistema di navigazione nell’aeroporto

stesso e, una volta scoperto,

è stato licenziato e multato per

circa 32.000 dollari dalla Federal

Communications Commission.

Cambiando ambito di applicazione,

nel 2013, un team di ricercatori

statunitensi ha dimostrato che

era possibile mandar fuori rotta

uno yacht (del valore di 80 milioni

di dollari) attraverso semplici dispositivi

di spoofing (Jones 2017).

La questione diventa importante

quando queste pratiche diventano

diffuse: nel luglio 2016 è salito

alla ribalta delle cronache il gioco

per smartphone Pokémon Go. Il

gioco utilizza il GNSS del dispositivo

mobile per individuare,

catturare, combattere e addestrare

i Pokémon, creature virtuali, (posizionate

nel mondo reale) che appaiono

sullo schermo del giocatore

solo quando esso si trova nelle loro

vicinanze. La difficoltà di trovarsi

in luoghi specifici ha fatto nascere

nei giocatori la voglia di trovare

una soluzione più facile: ingannare

il gioco facendogli credere di trovarsi

nel posto giusto al momento

giusto. Molti utenti hanno, quindi,

installato nel proprio device

applicazioni in grado di sostituire i

dati di localizzazione con dati falsi

(auto-spoofing). Pokemon-Go ha

cosi contribuito a far conoscere

al grande (e giovane) pubblico lo

spoofing dei sistemi GNSS.

Ultimo evento significativo: tra

il 22 e il 24 giugno 2017, alcune

navi nel Mar Nero hanno riportato

anomalie nel calcolo della loro

posizione, risultando posizionate

all’interno di un aeroporto a chilometri

di distanza. E’ abbastanza

probabile che i segnali GPS di

quella zona siano stati falsificati da

un sistema di difesa anti-drone.

Molti droni commerciali hanno,

infatti, regole di geofencing che ne

impediscono il volo su aeroporti e

altre aree ristrette: facendo credere

al drone di trovarsi sopra un aeroporto

lo si costringe ad eseguire

l’immediato atterraggio o il ritorno

al punto di lancio (Jones 2017).

Quanto esposto è possibile poiché,

come menzionato precedentemente,

la stragrande maggioranza dei

ricevitori GNSS commerciali nel

mondo si basa esclusivamente sui

segnali non crittografati ed aperti

a tutti. In più, la diffusione delle

Software Defined Radio (SDR -

Ricetrasmettitori programmabili a

basso costo) ha aperto la strada allo

“spoofing per tutti”. Equipaggiate

con software di simulazione GPS

(open source!) le SDR posso trasformarsi

in ottimi spoofer.

Considerando quanto esposto è

chiaro che la sicurezza dovrebbe

essere attentamente considerata

anche nelle applicazioni di

Geomatica, per fare alcuni esempi:

4in caso di uso di droni per ogni

tipo di rilevamento: il mancato

controllo del drone a causa di un

errore di posizione elevato o una

negazione del servizio può comportare

un danno per l’uomo;

l’uso di disturbatori può consentirne

la cattura, l’abbattimento o

il furto;

4errori di misura (diretti o indiretti)

possono vanificare campagne

di misura anche lunghe e

costose;

4utenti o fruitori non collaborativi

possono cercare di impedire

i rilievi attraverso la negazione

dei servizio di localizzazione (ad

esempio nei casi di censimenti,

monitoraggio di abusi edilizi

etc.);

Fortunatamente molte tecniche di

difesa sono già note e l’argomento

è continuo oggetto di ricerca da

anni in tutto il mondo.

Normalmente possiamo utilizzare

almeno tre contromisure per mitigare

i rischi di sicurezza legati all’uso

di un sistema di navigazione

satellitare: l’integrità, la protezione e

la consapevolezza.

Integrità

L’integrità è la capacità di fornire

opportuni allarmi agli utenti

quando il sistema di navigazione

non sta funzionando in modo

corretto o comunque non sta rispettando

le specifiche richieste.

E’, quindi, la capacità di rilevare

degradazioni nella accuratezza

oltre una determinata soglia e di

segnalarlo entro un tempo definito.

In questo modo l’utente, consapevole

che il sistema è degradato

nelle sue prestazioni, può smettere

di utilizzarlo.

Possono essere utilizzate varie tecniche

per fornire questo servizio;

tutte quante sfruttano la ridondanza

delle informazioni (provenienti

dal sistema stesso o da sistemi di

localizzazione terzi) per scovare il

malfunzionamento.

Generalmente si distinguono le

seguenti categorie di algoritmi di

integrità:

4AIM (Autonomous Integrity

Monitoring) in cui l’utente confronta

più sistemi di navigazione

a suo disposizione per rilevare

un anomalia nei dati di posizione;

4RAIM (Receiver Autonomous

Integrity Monitoring) in cui

l’utente sfruttando la sovrabbondanza

di satelliti di navigazione

in visibilità riesce a rilevare la

presenza di misure anomale;

4Monitoring: i segnali provenienti

dai satelliti del sistema di navigazione

vengono monitorati da

un rete di ricevitori a terra che

verificano la loro “congruità” e

se necessario lanciano un allarme.

Per diffondere l’allarme può

essere utilizzato un data-link di

tipo terrestre o di tipo satellitare.

Esistono vari esempi di servizi di

integrità già operativi (solitamente

44 GEOmedia n°5-2018


REPORT

per applicazioni aeronautiche)

come quelli forniti dai sistemi

WAAS ed EGNOS precedentemente

citati. Essi monitorano i

segnali GNSS attraverso una rete

di sensori a terra e diffondono su

scala continentale informazioni di

integrità utilizzando i satelliti geostazionari

(EGNOS, ad esempio,

è in grado di fornire un allarme

entro 6 secondi se si verifica una

degradazione dell’accuratezza superiore

ai 40-50 metri).

Con sistemi di tipo locale si ottengono

prestazioni migliori sia

per quanto riguarda il tempo di

allarme che il livello di protezione

(soglia di accuratezza oltre la

quale esso scatta). Sempre nel

settore aeronautico, sono stati

introdotti e si stanno sviluppando

i sistemi GBAS (Ground Based

Augmentation System) pensati per

essere installati presso gli aeroporti

e consentire alcuni tipi di atterraggi

strumentali (tipicamente con

tempi di allarme inferiori al secondo

e livelli di protezione sotto ai

10 metri).

Infine le tecniche RAIM e AIM

sono già ampiamente utilizzate per

la navigazione aerea in rotta senza

l’ausilio di infrastrutture terrestri

(Galati 2009).

Molte altre tecniche sono allo studio,

ad es. per sfruttare la presenza

di multi-costellazioni (Gargiulo

2010)(Viola 2012), e tutte, così

come sono o con alcune modifiche,

potrebbero essere introdotte

anche nelle applicazioni di geomatica.

Protezione

Seppur la funzione di l’integrità

consente di rilevare un malfunzionamento,

da sola non è sufficiente.

La presenza di un disturbo intenzionale,

ad esempio, può, a volte,

essere difficile da rivelare e comunque

inibirebbe localmente l’uso

del sistema. Lo Spoofing, inoltre,

generando segnali del tutto analoghi

a quelli dei satelliti, potrebbe

essere completamente trasparente

ai sistemi di integrità.

Il ricevitore di navigazione satellitare

deve essere quindi protetto da

questi attacchi. Questo problema

è noto fin dall’origine dei sistemi

di navigazione satellitare ed infatti

tutti i sistemi oggi operativi, oltre

ai segnali per uso civile (e liberamente

fruibile), trasmettono anche

segnali ad accesso controllato, tipicamente

ad uso militare, che grazie

all’impiego di tecniche di crittografiche

e di autenticazione sono

robusti rispetto ai disturbi. Caso

particolare è il sistema Galileo che

prevede queste peculiarità anche

per gli utenti civili (con il futuro

servizio denominato Safety of Life)

(Galati 2009): sarà pertanto possibile

proteggersi selezionando accuratamente

il servizio di navigazione

più adatto alle esigenze.

Anche nel caso non sia possibile

utilizzare i segnali e i servizi appositamente

concepiti per essere

immuni ai disturbi, sono comunque

disponibili delle tecniche di

mitigazione. Sono note, e oggetto

di ricerca, tecniche in grado di

rivelare la presenza di un segnali

interferenti e mitigarne gli effetti

attraverso introduzione di algoritmi

avanzati di Signal Processing

direttamente nel ricevitore d’utente

o sfruttando antenne adattative

(Lo presti 2006)(Di Fonzo 2014).

Consapevolezza

Può sembrar banale, ma il primo

passo per gestire un rischio è sempre

la consapevolezza della sua

esistenza e delle sue potenzialità.

Introdurre la cultura della sicurezza

nell’uso di apparati di navigazione

satellitare anche in settori

applicativi in cui non si ci si occupa

direttamente del trasporto delle

persone è un passo fondamentale.

Fortunatamente la cultura della

sicurezza è già ben presente in vasti

settori della geomatica (si pensi alle

norme di sicurezza nei cantieri);

essa dovrebbe essere estesa anche ai

nuovi strumenti basati sui GNSS.

Conoscere i limiti dei propri strumenti

(seppur considerati solo apparati

di misura) consente già una

mitigazione del rischio.

Fondamentale è, quindi, incrementare

le competenze di navigazione

satellitare degli operatori del

settore attraverso una formazione

permanente. Sarà necessario, infine,

sviluppare nuovi modelli e

piani di sicurezza che tengano presente

le specificità di questi sistemi

tecnologici.

Conclusioni

In conclusione, seppur oggi la

cultura e la gestione della sicurezza

dei sistemi di navigazione satellitare

non è al primo posto nei

pensieri del professionista, lo potrà

diventerà ben presto, così come già

dimostrato in altri settori delle telecomunicazioni

(si pensi ad esempio

alla cyber security nelle reti

di telecomunicazioni). Bisognerà,

allora, farsi trovare pronti avendo

ben presente i limiti dei sistemi

GNSS, conoscendo le possibilità

messe a disposizione dagli odierni

(e futuri) sistemi di navigazione e,

quando necessario, sviluppando

nuove tecniche di integrità e protezione.

ABSTRACT

G. Galati, M. Leonardi (2009) SISTEMI DI RILEVAMENTO E

NAVIGAZIONE, TexMat Libreria Universitaria

M. Jones (2017) Spoofing in the Black Sea: What really happened?

gpsworld.com, http://gpsworld.com/spoofing-in-the-black-seawhat-really-happened/

G. Gargiulo, M. Leonardi,M. Zanzi, G. Varacalli (2010) Integrity

and protection level computation for vehicular applications Proceedings

of 16th Ka and broadband communications navigation

and earth observation conference, Pages:2968 – 2977

S. Viola, M. Mascolo, P. Madonna, L. Sfarzo, M. Leonardi (2012)

Design and Implementation of a Single-Frequency L1 Multiconstellation

GPS/EGNOS/GLONASS SDR Receiver with NIORAIM

FDE Integrity, Proceedings of the 25th International Technical

Meeting of The Satellite Division of the Institute of Navigation

(ION GNSS 2012)

L. Lo Presti, B. Motella, M. Leonardi (2006) A Technique of Interference

Monitoring in GNSS Applications, Based on ACF and

Prony Methods, Proceedings of the 19th International Technical

Meeting of the Satellite Division of The Institute of Navigation

(ION GNSS 2006)

A. Di Fonzo, M. Leonardi; G. Galati, P. Madonna, L. Sfarzo (2014)

Software-Defined-Radio techniques against jammers for in car

GNSS navigation, IEEE International Workshop on Metrology for

Aerospace 2014

PAROLE CHIAVE

GNSS; sicurezza; geomatica

ABSTRACT

Satellite navigation systems are more and more used in geomatics.

This penetration has not always taken into account

the relative safety and security aspects and the consequent

threats to the humans. This work focuses on these aspects

that are often overlooked in geomatics. After a brief introduction

on the evolution of satellite navigation systems and

on future trends, the related safety and security risks are analyzed

and possible countermeasures (Integrity, Awareness,

and Protection) are discussed.

AUTORE

Mauro Leonardi

mauro.leonardi@uniroma2.it

Dipartimento di Ingegneria Elettronica

Università di Roma

GEOmedia

Tor Vergata.

n°5-2018 45


AGENDA

16 - 19 Gennaio 2019

TUSE The Unmanned System

Expo

Rotterdam (The Netherlands)

www.geoforall.it/ku4r6

16-17 Gennaio 2019

Museum Connections

Paris (France)

www.museumconnections.com

20 - 22 Febbraio 2019

FOSS4G-IT 2019

Padova (Italia)

www.geoforall.it/kur8a

2 - 4 Aprile 2019

Geospatial World Forum

Amsterdam (The Netherlands)

www.geoforall.it/kuqk8

4 - 5 Aprile 2019

Dronitaly

Milano (Italia)

www.dronitaly.it

10-11 Aprile 2019

Conferenza Esri Italia

Roma (Italia)

www.geoforall.it/k8c

3 - 5 Maggio 2019

GISTAM 2019

Heraklion (Grecia)

www.geoforall.it/kuf9x

21 - 22 Maggio 2019

GEO Business 2019

Londra (UK)

www.geoforall.it/kuf93

22-24 Febbraio 2019

Tourisma

Firenze

www.tourisma.it

1-5 Settembre 2019

27th international CIPA

symposium

Avila (Spagna)

http://www.cipa2019.org

6 - 8 Febbraio 2019

11th EARSeL SIG IS

Workshop

Brno (Czech Republic)

www.geoforall.it/k8cqr

Dal 1986 Teorema

lavora a fianco dei professionisti

per fornire la tecnologia topografica

più avanzata,

la migliore formazione tecnica

ed una accurata assistenza

post-vendita.

LEICA TS13

STAZIONE TOTALE ROBOTICA

UN NUOVO STANDARD

NELLA MISURAZIONE

TOPOGRAFICA.

per maggiori

informazioni

La tecnologia di puntamento automatico del target (ATR) e le funzionalità opzionali di

aggancio e di SpeedSearch, permettono di trovare ed agganciare rapidamente i prismi,

anche senza l’intervento manuale, fornendo misurazioni precise dei

target ed un flusso di lavoro più rapido, anche con una sola persona.

Con il rivoluzionario software Leica Captivate, la stazione totale Leica

TS13 trasforma i dati complessi in realistici e pratici modelli 3D,

gestendo tutti i campi di applicazione con un semplice tocco.

Contattaci, scoprirai molto di più!

Via A. Romilli, 20/8 - 20139 Milano • Tel. 02 5398739

E-mail: teorema@geomatica.it

www.geomatica.it • www.disto.it • www.termocamere.com


Prova S900 o S900A con la

Soluzione Android

S900 | SERIES

THE ITALIAN GNSS RECEIVER

Dove siamo Chiamaci Contaaaci

Seguici sui Social

Via Cimabue, 39

20851, Lissone (MB)

Tel. +39 039 2783008 / +39 039 2785575

Fax +39 039 2789576

www.stonex.it

info@stonex.it - italia@stonex.it


SOLUZIONI DI GEOPOSIZIONAMENTO

topconpositioning.com/gls-2000

PRESENTA

LASER SCANNER 3D

IMAGING

LASER SCANNER

FORMA E FUNZIONE

MAGNET

TECNOLOGIA DI SCANSIONE 3D, VELOCE E PRECISA

Il GLS-2000 offre una modalità rapida, semplice ed efficace per catturare nuvole di punti 3D ad alta velocità,

senza sacrificare l’accuratezza richiesta dai professionisti più esigenti.

© 2017 Topcon Positioning Group

More magazines by this user