GEOmedia_6_2021
Rivista Italiana di Geomatica
Rivista Italiana di Geomatica
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Rivista bimestrale - anno XXV - Numero - 6/2021 - Sped. in abb. postale 70% - Filiale di Roma
TERRITORIO CARTOGRAFIA
GIS
CATASTO
3D
INFORMAZIONE GEOGRAFICA
FOTOGRAMMETRIA
URBANISTICA
EDILIZIA
GNSS
BIM
RILIEVO TOPOGRAFIA
CAD
REMOTE SENSING SPAZIO
WEBGIS
UAV
SMART CITY
AMBIENTE
NETWORKS
LiDAR
BENI CULTURALI
LBS
Nov/Dic 2021 anno XXV N°6
Infrastrutture
di Dati Territoriali
MAPPATURA AMIANTO
CON GIS E AI
TECNICHE DI RILIEVO PER
PROCESSI SCAN-TO-BIM
ATTUALITA' DELLA
NAVIGAZIONE ASTRONOMICA
Il futuro delle IDT
Se pensiamo al grande lavoro intrapreso negli ultimi 50 anni per la realizzazione dei
Geodatabase topografici che costituiscono l’ossatura portante delle Infrastrutture dei Dati
Territoriali, non possiamo tralasciare un aggiornamento programmatico. Aggiungendo la
necessità di corredare i Geodatabase delle informazioni territoriali connesse si costruisce
un assioma che dovrebbero costituire il fondamento degli obiettivi delle amministrazioni
responsabili ai vari livelli, dallo Stato al singolo Comune.
Sappiamo bene che dopo una lunga fase di incertezza istituzionale, compensata in parte dalle
azioni condotte nei Gruppi di Lavoro promossi da AGID e attivati nel maggio del 2014, nel
corso del 2018 si avviarono i lavori della Consulta Nazionale per l’Informazione Territoriale ed
Ambientale (CNITA) in attuazione della Direttiva INSPIRE.
Le attività dell’organismo presieduto dal Ministero dell’Ambiente si esplicano attraverso
6 sezioni tecniche. La prima è presieduta dall’ISPRA, che opera per il raccordo tra il
livello nazionale e il livello territoriale per la realizzazione dell’infrastruttura nazionale per
l’informazione territoriale e del monitoraggio ambientale. Segue l’AGID per la raccolta delle
istanze italiane sui metadati da trasmettere in sede europea attraverso il Repertorio Nazionale
dei Dati Territoriali preparando il rapporto annuale INSPIRE. Viene quindi l’IGM che propone
l’attribuzione univoca della responsabilità di produzione e mantenimento dei dati di interesse
generale, predisponendo un sistema di monitoraggio per la verifica dell’aggiornamento dei
dati territoriali esistenti e dei dati territoriali raccolti ex novo in conformità alle disposizioni di
esecuzione europee con raccordo e reportistica per la preparazione dell’annuale report INSPIRE.
Il CISIS segue i servizi di rete per la ricerca e il download dei dati a livello nazionale, curandone
la conformità INSPIRE. Le altre sezioni tecniche di CNIPA, AGID e ISPRA predispongono
la comunicazione che il Ministero dell’ambiente invia alla Commissione europea entro il 15
maggio di ogni anno.
Insomma, tutte le attività delle sezioni tecniche menzionate sembrano essere spinte dalla sola
aderenza europea alla convenzione INSPIRE, che non chiedeva altro che omogeneizzare i dati
per l’interscambio tra le nazioni europee.
Possibile che l’unico motore rimasto oggi in Italia per avere una documentazione dello stato di
fatto aggiornato del territorio sia quello della necessità di non essere multati dalla Commissione
Europea per la mancata adesione alle Direttive?
Le numerose commissioni, consulte e comitati esistenti apportano il loro contributo, ma
quello che sembra assolutamente inesistente è la volontà di attuare programmi globali per la
documentazione dello stato del territorio atto ad una vera pianificazione e controllo. Eppure
tempo fa c’erano regole (e leggi regionali) molto semplici, come quella che obbligava le Regioni
ad eseguire voli aerofotogrammetrici a cadenza biennale per il controllo dell’attività urbanistica.
Guardiamo al futuro e orientiamoci oggi verso una vera attività programmatica
dell’aggiornamento delle IDT che dovrebbero guardare alle nuove tecnologie di rilievo e alle
necessità emergenti del 3D per le città nell’ambito del BIM.
Le ultime regole tecniche sono state emanate più di 15 anni fa ed erano relative agli ambiti
di competenza regionale, oggi abbiamo bisogno di entrare nel dettaglio delle città, degli
agglomerati urbani, per renderli intelligenti conoscendone più informazioni che dati, sì, ma
aggiornando il dato di base.
Buona lettura,
Renzo Carlucci
FOCUS
In questo
numero...
FOCUS
REPORT
INTERVISTA
LE RUBRICHE
Mappatura Amianto
con tecniche GIS e di
Intelligenza Artificiale
di Enrico Bonansea, Luca
Forestello, Ivan Cerato, Manuela
Livorno, Gabriele Nicolò,
Fulvio Raviola, Isabella Tinetti,
Teo Ferrero, Roberto Cassulo,
Marcella Alibrando, Massimiliano
Carrino, Stefano Masera,
Maria Cristina Prola
6
44 MERCATO
46 TERRA E SPAZIO
50 AGENDA
14
Interviste ad alcuni
responsabili di IDT
regionali: presente
e prospettive
a cura di Franco Vico
In copertina gli schemi
topografici realizzati per il
modello parametrico HBIM della
“Real Cantina Borbonica” di
Partinico in provincia di Palermo.
Il rilievo laser scanner è stato
eseguito con uno strumento
Topcon GLS-2000; sfruttando
l'approccio topografico per la
registrazione delle scansioni
disponibile con questo
strumento, il rilievo laser scanner
è stato eseguito in modo tale
che tutti i punti di scansione
fossero collegati per formare una
poligonale topografica interna
all’edificio.
La linea sacra
di San Michele e la
sfericità terrestre
di Fabio Crosilla
24
geomediaonline.it
4 GEOmedia n°6-2021
GEOmedia, bimestrale, è la prima rivista italiana di geomatica.
Da più di 20 anni pubblica argomenti collegati alle tecnologie dei
processi di acquisizione, analisi e interpretazione dei dati,
in particolare strumentali, relativi alla superficie terrestre.
In questo settore GEOmedia affronta temi culturali e tecnologici
per l’operatività degli addetti ai settori dei sistemi informativi
geografici e del catasto, della fotogrammetria e cartografia,
della geodesia e topografia, del telerilevamento aereo e
spaziale, con un approccio tecnico-scientifico e divulgativo.
INSERZIONISTI
Codevintec 29
30
Topografia
Applicata al
Soccorso: la
formazione del
Vigile del Fuoco
di Daniele Mercuri
Datronix 2
Epsilon 45
ESRI 49
Geomax 44
GIS3W 38
Gter 32
ISPRS 33
NAIS 13
Planetek Italia 39
Stonex 51
StrumentiTopografici 52
Topo4qgis-un plugin
per QGIS utile
all'elaborazione di
libretti PreGeo e alla
trattazione di liste di
punti mediante opportuna
rototraslazione
ai minimi quadrati
di Marco Lombardi,
Gianluca Beccaria
34
40
Tecniche di rilievo
integrato per processi
Scan-to-BIM
Teorema 50
ESA - Ghiacciaio Kangerlussuaq
(16 gennaio 2022)
Il ghiacciaio Kangerlussuaq,
uno dei più vasti ghiacciai
di sbocco di marea della
Groenlandia, è mostrato in
questa immagine in falsi colori
acquisita dalla missione
Copernicus Sentinel-1. Kangerlussuaq
si traduce ‘grande
fiordo’ nella lingua groenlandese
ed il suo ghiacciaio
fluisce dentro la parte alta del
Fiordo di Kangerlussuaq, il
secondo fiordo della Groenlandia
orientale in termini di
dimensioni.
Ciascun satellite Sentinel-1
trasporta una strumentazione
radar avanzata, che fornisce
immagini della superficie terrestre
in condizioni di luce sia
diurna che notturna. Il Telerilevamento
consente di monitorare
la calotta di ghiaccio
terrestre e di tenere traccia di
tutti gli stadi di modificazione
- dal rilevamento di crepe
alla rottura di iceberg – come
pure di effettuare la misura
della copertura di ghiaccio e
della deriva degli iceberg.
Crediti:
ESA - Image of the week.
di Mauro Lo Brutto
Traduzione: Gianluca Pititto
una pubblicazione
Science & Technology Communication
GEOmedia, la prima rivista italiana di geomatica.
ISSN 1128-8132
Reg. Trib. di Roma N° 243/2003 del 14.05.03
Direttore
RENZO CARLUCCI, direttore@rivistageomedia.it
Comitato editoriale
Vyron Antoniou, Fabrizio Bernardini, Mario Caporale,
Roberto Capua, Luigi Colombo, Mattia Crespi, Luigi Di
Prinzio, Michele Dussi, Michele Fasolo, Marco Lisi, Flavio
Lupia, Luigi Mundula, Beniamino Murgante, Aldo Riggio,
Mauro Salvemini, Attilio Selvini, Donato Tufillaro
Direttore Responsabile
FULVIO BERNARDINI, fbernardini@rivistageomedia.it
Redazione
VALERIO CARLUCCI, GIANLUCA PITITTO,
redazione@rivistageomedia.it
Diffusione e Amministrazione
TATIANA IASILLO, diffusione@rivistageomedia.it
Progetto grafico e impaginazione
DANIELE CARLUCCI, dcarlucci@rivistageomedia.it
Editore
MediaGEO soc. coop.
Via Palestro, 95 00185 Roma
Tel. 06.64871209 - Fax. 06.62209510
info@rivistageomedia.it
Stampa: System Graphics Srl
Via di Torre Santa Anastasia 61 00134 Roma
Condizioni di abbonamento
La quota annuale di abbonamento alla rivista Science è di € & 45,00. Technology Communication
Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di
ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa.
L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita
revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza
dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo.
La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti.
Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta
dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere
richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo.
Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la
riproduzione anche parziale del contenuto di questo numero della Rivista in
qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i
sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore.
Rivista fondata da Domenico Santarsiero.
Numero chiuso in redazione il 24 gennaio 2021.
FOCUS
MAIA: Mappatura Amianto con
tecniche GIS e di Intelligenza Artificiale
di Enrico Bonansea, Luca Forestello, Ivan Cerato, Manuela Livorno, Gabriele Nicolò, Fulvio Raviola, Isabella Tinetti,
Teo Ferrero, Roberto Cassulo, Marcella Alibrando, Massimiliano Carrino, Stefano Masera, Maria Cristina Prola
Arpa Piemonte ha avviato nel 2019
un’attività sperimentale finalizzata allo
studio e messa a punto di tecniche
di analisi di immagini basate su deep
learning e reti neurali. Nel 2020 il
progetto ha portato alla realizzazione
ed applicazione del modello
denominato MAIA (Mappatura Amianto
Fig. 1 - Nella figura si vedono due coperture in cemento amianto sulle quali è stata segnalata
la presenza di MCA (evidenziata dalla stellina). Il riquadro rosso rappresenta la porzione
di territorio corrispondente ad un quadrato di 10m x 10m attorno al punto riportato nella
segnalazione (Immagini Ortofoto AGEA 2015).
con tecniche GIS e di Intelligenza
Artificiale) sull’intero territorio
regionale.
L’
amianto rappresenta una
problematica ambientale
e sanitaria di particolare
rilievo in diverse aree del territorio
nazionale.
Con l’emanazione della legge n.
257/1992 che vieta l’estrazione,
la produzione e la commercializzazione
dell’amianto ed
il successivo DM 101/2003 è
iniziata un’importante opera di
monitoraggio e tutela ambientale
attraverso l’avvio del processo
di mappatura della presenza di
amianto sul territorio e la bonifica
dei siti più rilevanti.
La Regione Piemonte si è dotata,
dal 2008, di una specifica
legge per affrontare le problematiche
relative all’amianto
(L.R. n. 30/2008 “Norme per la
tutela della salute, il risanamento
dell’ambiente, la bonifica e
lo smaltimento dell’amianto”).
Da tale legge discende il Piano
Regionale Amianto [1] con cui
la Regione ha posto le basi per la
mappatura dell’amianto di origine
antropica su tutto il territorio
regionale.
Arpa Piemonte ha avviato già
a partire dal 2013 la prima fase
del progetto di mappatura delle
coperture contenenti cementoamianto
(in seguito abbreviato
MCA). La procedura, basata
sull’analisi e classificazione automatica
di tipo object oriented
di ortoimmagini, ha riguardato
un’area di indagine (definita
“area prioritaria”) di circa
10.000 kmq e ha portato all’individuazione
di circa 120.000
coperture georeferenziate di edifici
potenzialmente contenenti
cemento amianto.
Nel 2019 è stata avviata un’attività
sperimentale finalizzata allo
studio e messa a punto di nuove
tecniche di analisi di immagine
basate su deep learning con reti
neurali per il riconoscimento e
la classificazione delle coperture
in cemento amianto.
Nel 2020 l’attività di definizione
metodologica è stata affinata e
completata portando alla realizzazione
ed applicazione del
modello denominato MAIA
(Mappatura Amianto con
tecniche GIS e di Intelligenza
Artificiale) sull’intero territorio
regionale al fine di realizzare
la mappatura a scala regionale,
estendendo lo studio a tutti i
territori non inclusi nella prima
area di studio prioritaria (circa
15.000 kmq), e monitorare nel
tempo le trasformazioni delle coperture
in amianto già oggetto di
verifica con sopralluogo all’interno
dell’area prioritaria.
Metodi
Le reti neurali utilizzano algoritmi
ispirati alla struttura e al
funzionamento delle reti neurali
biologiche. Come queste, la rete
neurale artificiale, è quindi un
“sistema complesso” in grado
di acquisire capacità di analisi
attraverso una fase di addestramento
basata su dati di input
iniziali (training set) e quindi di
analizzare, e classificare, tipologie
di oggetti predefiniti senza
la necessità di imporre modelli
6 GEOmedia n°6-2021
FOCUS
Fig. 2 - I riquadri verdi identificano una porzione di territorio senza CMA di 10m x 10m (Immagini Ortofoto AGEA 2015).
unità volumetriche del database
topografico della cartografia tecnica
regionale (BDTRE, edizione
2020) [3].
L’intero progetto è stato sviluppato
e gestito attraverso le sole
risorse di calcolo del Sistema
Informativo Geografico di Arpa
Piemonte. La gestione complessiva
dei processi di elaborazione,
analisi immagini, fotointerpretazione
e gestione dei servizi di
editing dei dati geografici, è stata
realizzata attraverso le componenti
dell’infrastruttura geografica
agenziale basata su piattamatematici
ed equazioni predeterminate.
Nel campo dell’analisi delle
immagini le reti neurali possono
infatti essere efficacemente
addestrate per individuare o
classificare oggetti specifici, ad
esempio, attraverso l’analisi delle
sole caratteristiche geometriche,
cromatiche, tessiturali etc.
Il progetto di Arpa Piemonte si è
posto l’obiettivo di definire una
metodologia di analisi integrata
con strumenti di remote sensing,
GIS ed Intelligenza artificiale
per l’analisi e classificazione
automatica di immagini aeree
disponibili su scala regionale. La
metodologia MAIA ha portato
allo sviluppo di un modello di
rete neurale in grado apprendere,
riconoscere e classificare coperture
con potenziale presenza
di amianto, attraverso l’analisi
multitemporale di più serie di
ortoimmagini.
La procedura si basa su una
fase preliminare che prevede la
preparazione dei dati (raccolta,
elaborazione e strutturazione di
tutti i dati di input necessari),
la progettazione e l’allestimento
dell’infrastruttura, lo sviluppo degli
strumenti e dei modelli di calcolo
con reti neurali e una fase di
applicazione del modello su scala
regionale suddivisa in più stadi:
• Addestramento: fasi di
ricerca dei campioni (training
set), addestramento
della rete neurale, valutazione
e ottimizzazione delle
prestazioni.
• Classificazione: preparazione
dei dati di input e applicazione
della rete neurale
sull’intera area di studio.
• Verifica dei dati: integrazione
ed elaborazione dei
risultati in ambiente GIS,
verifica e correzione tramite
fotointerpretazione
• Analisi dei risultati: analisi
statistica dei dati, valutazione
delle performance
Dati di input e strumenti
Per l’addestramento del modello
su base multitemporale sono
state utilizzate tutte le ortoimmagini
disponibili su scala regionale
nel periodo di riferimento ed
in particolare le riprese del volo
regionale ICE del 2010 [2], le
riprese AGEA 2015, 2018 e le
più recenti immagini disponibili
sul territorio regionale del servizio
Google Maps (date variabili
2018-2020, "Map data ©
2018,2019,2020 Google").
L’obiettivo di tale approccio è
duplice: seguire e monitorare nel
tempo le trasformazioni delle coperture,
ricostruendo così su tutto
il territorio regionale lo stesso
quadro di conoscenza e riferimento
temporale, e minimizzare
i potenziali errori di classificazione
introdotti dalla variabilità delle
singole immagini appartenenti
alla stessa ripresa fotogrammetrica
(ombre, coperture arboree,
problemi di ortorettifica, etc ...).
Il livello di riferimento adottato
per l’individuazione vettoriale
delle impronte degli edifici su
scala regionale è il dataset delle
Fig. 3 – Grafici relativi al monitoraggio risultati nella
fase di addestramento della rete neurale (in alto si vede
l’accuratezza di uno dei modelli utilizzati superiore al
95% e in basso la valutazione degli errori compiuti dal
modello vicino allo 0%).
GEOmedia n°6-2021 7
FOCUS
Fig. 4 - Esempio di evoluzione delle coperture nel tempo e casi di potenziale bonifica intercorsi tra
2010 e 2015.
forma Esri (ArcGISPro, ArcGIS
Enterprise, ArcGIS Online).
Per l’estrazione delle porzioni
di immagini utilizzate in fase di
training e classificazione è stato
utilizzato anche il software Qgis
ed in particolare la funzione del
layout di stampa denominata
Atlante.
La rete neurale è stata invece
implementata con Keras[4],
un framework per Python che
permette di definire e addestrare
vari tipi di modelli di deep learning.
Keras consente di eseguire lo
stesso codice utilizzando diverse
librerie di basso livello
(Tensorflow, Theano, CNTK,
…). Nel presente progetto sperimentale
Arpa ha adottato la
libreria Tensorflow utilizzando il
modello denominato VGG16,
appartenente alla categoria delle
Convolutional Neural Network
[5] specializzate nella classificazione
delle immagini.
Applicazione modello MAIA
a scala regionale
Addestramento
L’addestramento è la fase in cui
la rete neurale impara a svolgere
il compito per cui è stata progettata,
a partire dall’analisi dei
campioni di training set.
Occorre quindi definire e predisporre
i training set attraverso la
selezione di un numero significativo
di campioni di immagini sia
di coperture contenenti amianto,
sia realizzate con altri materiali
(tegole, coppi, lamiere, etc.).
Grazie al lavoro di mappatura e
verifica in campo già realizzato
negli anni precedenti è stato
possibile selezionare dalla banca
dati un numero consistente di
coperture in amianto accertate
ed estrarre da questi i relativi
campioni di immagini a partire
dalle singole serie di ortofoto di
riferimento.
La preparazione dei campioni
di immagini del training set
prevedere l’estrazione di una immagine
quadrata (chips) di 10m
x 10m (Fig. 1) per ciascun punto
centroide rispetto alla copertura
dell’edificio.
Per la preparazione dei training
set relativi a coperture non
contenenti amianto sono stati
identificati campioni rappresentativi
di tetti realizzati con i più
svariati materiali (tetti in tegole,
lamiere, materiali verniciati, rivestimenti
bituminati, pannelli
solari, etc.) e di immagini di
porzioni di terreno libero: prati,
strade, campi coltivati, campi
sportivi, etc… (Fig. 2).
Nel corso del progetto è emersa
inoltre la necessità di fornire ulteriori
campioni di training utili
alla differenziazione di particolari
coperture tipiche di molte aree
collinari e montane realizzate
con materiali litoidi. Tali coperture,
infatti, possono risultare a
livello di ortoimmagini di medio
dettaglio, molto simili alle coperture
in amianto, introducendo
errori nelle fasi di training e
classificazione.
Complessivamente sono stati
creati tre training set (coperture
in MCA, coperture senza MCA,
coperture in materiali litoidi) per
ciascuna serie temporale delle
ortoimmagini di riferimento,
ciascuno contenente oltre 1000
campioni.
In fase di addestramento si vanno
a tarare progressivamente i
diversi parametri in modo da ottimizzare
la risposta della rete.
Tale attività comporta più cicli
di analisi e di valutazione del
livello di accuratezza dei risultati
ottenuti attraverso il confronto
tra immagini di training e immagini
di test.
L’addestramento ottimale di una
rete prevede l’utilizzo di enormi
quantità di dati e ingenti capacità
di elaborazione. Per ridurre
almeno in parte queste necessità
è stata utilizzata la tecnica denominata
fine tuning [6] [7], che
consiste nell’utilizzare i pesi (cioè
i parametri utilizzati dalle reti per
effettuare le elaborazioni) di un
modello già addestrato a riconoscere
diverse tipologie di oggetti
(Fig. 3). Le reti neurali procedono
su livelli di elaborazione in
sequenza: nel modello sono stati
modificati i 4 livelli finali per
adattarli alle esigenze progettuali
e addestrando quest’ultimi a riconoscere
solo due tipologie di
classi principali (tetti con MCA
e tetti senza MCA).
Al fine di ottimizzare la classificazione
di immagini tramite rete
neurale e per evitare il fenomeno
di over fitting (cioè il problema
che si può verificare quando la
rete impara a riconoscere solo
le immagini su cui è stata addestrata
a causa, ad esempio, di
uno scarso numero di campioni
8 GEOmedia n°6-2021
FOCUS
Fig. 5 - Esempio dell’applicazione WebGIS per l’editing multitemporale (dall’alto in basso le 4 schermate con ortofoto 2010-2015-
2018 e 2020 "Map data © 2020 Google")
forniti) sono state adottate due
tecniche: data augmentation
(prevede la modifica delle immagini
durante l’addestramento
con algoritmi specifici al fine di
aumentare in modo considerevole
il numero di immagini a
disposizione) e dropout (consiste
nell’ignorare in modo casuale
alcune fasi del modello durante
l’addestramento).
Classificazione
Terminato l’addestramento è stata
avviata la classificazione automatica
di tutti gli edifici presenti
sul territorio regionale attraverso
due procedure distinte.
La prima, prevede l’applicazione
della metodologia su Resto
Regione, quindi, l’estensione
della mappatura su tutto il territorio
regionale esterno all’area
prioritaria (oltre 15.000 kmq);
ha comportato un complesso
processo computazionale suddiviso
su più catene di calcolo
in grado di elaborare milioni
di immagini riferite ai singoli
edifici (otre 1.300.000 unità)
per ciascun anno di riferimento
temporale.
La seconda, consiste nell’applicazione
sull’Area Prioritaria cioè
l’applicazione del modello per
il monitoraggio delle trasformazioni
relative a tutte le coperture
in amianto già verificate in
campo con sopralluogo da parte
dei Dipartimenti nel periodo
2013-2020, per un totale di oltre
41.000 punti.
Il processo generale di classificazione
ha restituito per ciascun
edificio analizzato e per ciascun
anno di riferimento, un indice
numerico (variabile tra 0 ed 1)
rappresentativo della probabilità
di appartenenza alla classe delle
coperture con presenza amianto.
Terminata la fase di calcolo, i risultati
prodotti dalla rete neurale
sono stati rielaborati in ambiente
GIS e quindi analizzati al fine
di definire valori soglia e range
di attendibilità differenti per
ciascuno anno di riferimento, in
base alle differenti caratteristiche
spaziali, spettrali e tessiturali delle
diverse serie di ortoimmagini
utilizzate.
Definiti i valori soglia, i risultati
sono stati rielaborati associando
ad ogni edificio e per ciascun
anno di riferimento, la classificazione
finale:
• copertura con potenziale
presenza di amianto
• copertura senza amianto.
Dal confronto multitemporale
dei dataset sono inoltre stati
indentificati range di valori e
combinazioni degli stessi utili a
identificare possibili trasformazioni
delle coperture nel tempo.
Ciò ha consentito di introdurre
una nuova classe riferita alle potenziali
bonifiche intercorse nel
periodo di riferimento.
Ad esempio, nel caso di una copertura
positiva nel 2010 (valori
indice alti e quindi classificata
come “copertura con potenziale
presenza di amianto”), ma negativa
nel 2015, 2018 e 2020
(indice basso e quindi classificata
in quegli anni come “copertura
senza amianto”), la metodologia
prevede la segnalazione e riclassificazione
della copertura come
“potenziale bonifica” (Fig. 4).
In questo modo è possibile
ricomporre un quadro cronologico
coerente su scala regionale
GEOmedia n°6-2021 9
FOCUS
in grado di mettere a confronto
i dati della prima fase della mappatura
regionale in area prioritaria
con quelli della nuova mappatura
sul resto della Regione
nel decennio 2010-2020.
Inoltre, si possono identificare
non solo le coperture ad oggi
contenenti cemento-amianto,
ma anche quelle che negli ultimi
dieci anni hanno dato evidenza
di potenziale presenza di MCA e
su cui sono state effettuate operazioni
di bonifica e quindi avere
un quadro complessivo delle
attività di riduzione dell’amianto
in Piemonte.
Infine, la procedura consente
di disporre di dati storici su
presenza di potenziali bonifiche
rilevanti, per volumi coinvolti o
situazioni di particolare vulnerabilità
territoriale, su cui eventualmente
effettuare indagini
circa modalità e tempistiche dei
lavori di bonifica.
Verifica dati e collaudo
A partire dai risultati della fase
di classificazione è stata avviata
l’attività di validazione dei
risultati tramite verifica con
fotointerpretazione. Le attività
di correzione e integrazione sono
state realizzate attraverso editing
geografico sul 100% dei risultati
da modello (circa 86.000 punti).
L’attività ha permesso così di migliorare
e consolidare la classificazione
finale degli edifici ed eliminare
dai risultati un numero
significativo di casi catalogabili
come “falsi positivi”. Tali casi,
Tab. 1
PERCENTUALI
VERITÀ
CAMPIONE
STATISTICO
Verità
Amianto
Verità
bonificati
Verità Falso
Positivo
Previsti
come già evidenziato durante la
fase di messa a punto metodologica,
sono riconducibili in gran
parte a problemi locali di consistenza
e georeferenziazione degli
edifici cartografati in BDTRE o
dall’impossibilità di disporre di
un corretto allineamento degli
stessi rispetto alle varie serie di
ortoimmagini utilizzate dalla
metodologia.
Tenuto conto della dimensione
dei dati su cui effettuare la verifica
e della necessità di accedere
a strumenti a supporto della
fotointerpretazione e dell’editing
multitemporale anche da remoto,
è risultato indispensabile progettare
una piattaforma idonea
basata su servizi ed applicazioni
web oriented fruibili anche da
postazioni di lavoro “leggere”.
È stata pertanto sviluppata una
applicazione web basata su API
JS per ArcGIS che consente l’editing
geografico e alfanumerico
attraverso 4 finestre contemporanee
e sincronizzate, ciascuna
riportante i feature services e le
ortofoto dei relativi anni di riferimento
(Fig. 5).
Per garantire il monitoraggio
dell’avanzamento lavori e definire
modifiche alla pianificazione
effettuata è stata sviluppata
un’apposita dashboard di analisi
in tempo reale, in grado di fornire
lo stato di lavorazione delle attività
di verifica totali per singolo
fotointerprete e i dati inerenti
alla quantità e tipo di correzioni
effettuate sul dataset originario
(Fig. 6).
ESITO MODELLO MAIA
Previsti
Falso
Amianto Bonificati Positivo
95,9 2,6 1,5 100.0
11,8 88,2 0,0 100,0
12,5 0,8 86,7 100,0
Analisi statistica e documentazione
dei risultati
La fase finale della metodologia
prevede la verifica e il collaudo
statistico dei dati al fine di valutare
quantitativamente l’accuratezza
e l’attendibilità dei risultati
ottenuti dalla metodologia.
A tal fine dal dataset inziale dei
risultati dell’Area di indagine
(resto regione) è stato pertanto
estratto un campione statistico
casuale di 384 punti corrispondente
ad un livello di confidenza
del 95% con un intervallo di
confidenza del 5%[8].
Su questo campione è stata
quindi avviata l’attività di collaudo
tramite verifica puntuale
dei risultati attraverso una nuova
fase di fotointerpretazione. Per
ciascun punto è stato quindi registrato
l’esito del collaudo.
Gli esiti sono stati quindi rielaborati
per calcolare le percentuali
di accuratezza su ciascuna
classe (Tab. 1).
L’analisi di tipo statistico fornisce
chiaramente una prima
valutazione dell’accuratezza del
lavoro effettuato nell’applicare
la metodologia in tutte le sue
fasi: la verifica stessa dei risultati
è basta su fotointerpretazione e
quindi anche gli errori riscontrati
sono di fatto interpretati attraverso
la sola lettura del territorio
da immagini telerilevate a media
risoluzione.
Analizzando i risultati inerenti la
classe dei punti con potenziale
presenza di amianto la percentuale
di accuratezza è risultata
del 95,9%.
Nel 2,6% dei casi in cui il modello
ha fornito indicazioni di
potenziale bonifica la verifica ha
indicato presenza di amianto:
tali casi seppur percentualmente
minimi non incidono sul risultato
atteso finale, individuando
comunque coperture su cui si
intende indirizzare l’attività di
verifica con sopralluogo. Solo
l’1.5% dei casi riguarda invece
10 GEOmedia n°6-2021
FOCUS
situazioni in cui in cui il modello
non ha individuato coperture
con amianto rispetto alla realtà
riscontrata con il controllo finale.
Per quanto concerne la classe
delle potenziali bonifiche la
percentuale di accuratezza netta
risulta pari all’88,2%. Tale valore
apparentemente inferiore
ai valori di accuratezza registrati
sulle coperture in amianto, va
però analizzato congiuntamente
alle altre percentuali riportate in
tabella: l’11,8 % dei punti non
classificati come bonifica rientrano
infatti nella classe delle coperture
con amianto, mentre la
percentuale di erronea classificazione
(copertura non in amianto
o falso positivo) è pari allo 0%.
Ciò significa che la totalità dei
casi (100%) indica comunque la
presenza di amianto ad una certa
data, fornendo quindi una corretta
indicazione per lo svolgimento
delle attività di sopralluogo
e verifica in campo da parte
dei Dipartimenti Territoriali.
Risultati
L’applicazione della metodologia
MAIA per l’estensione e il
completamento della mappatura
sulla scala regionale ha permesso
di individuare circa 33.000 nuovi
edifici di cui circa 27.000 con
attuale presenza di MCA.
Attraverso l’analisi multitemporale
la metodologia ha consentito
di identificare inoltre
circa 6200 casi di coperture che
hanno subito nell’arco temporale
considerato (2010-2020), delle
trasformazioni legate a potenziali
processi di bonifica.
Sono state riscontrate molte
situazioni, anche con caratteristiche
dimensionali rilevanti
(coperture industriali di migliaia
di mq), che allo stato attuale
sarebbero difficilmente rilevabili
con le sole attività di verifica in
campo in quanto ormai totalmente
rinnovate e senza traccia
delle situazioni pregresse.
Fig. 6 - Esempio di dashboard per il monitoraggio in tempo reale delle attività di verifica dei risultati.
Ciò consente da una parte di
avere elementi di conoscenza
utili a valutare i procedimenti di
bonifica attuati, dall’altra di ricostruire
e aggiornare nel tempo
un quadro di riferimento dello
stato del territorio e delle sue
evoluzioni.
L’applicazione della metodologia
all’interno dell’area prioritaria
già oggetto della prima mappatura
si è posta invece l’obiettivo
di individuare potenziali cambiamenti
intercorsi sulle coperture
in amianto già verificate da parte
di Arpa negli anni passati.
Tale ipotesi progettuale nasce dal
fatto che tali coperture possono
aver subito, in data successiva al
controllo in campo, trasformazioni
e bonifiche non segnalate o
non ancora verificate.
Attraverso l’applicazione del modello
MAIA su ortofoto di anni
diversi è stato possibile analizzare
e confrontare l’evoluzione nel
tempo degli indici di probabilità
di presenza di amianto sulla
stessa copertura ed individuare
così i casi potenziali di bonifica o
rimozione dell’edificio.
In questo modo sono stati identificati
circa 4.900 casi di nuove
potenziali bonifiche ed è stata
confermata la presenza di MCA
su oltre 36.400 coperture. I successivi
sopralluoghi e controlli
in campo da parte dei tecnici
dell’Agenzia potranno confermare
o meno il processo di bonifica
dell’amianto e aggiornare il
quadro di conoscenza sullo stato
della presenza dell’amianto su
base regionale.
A termine dei lavori, tutti i risultati
sono stati quindi elaborati
ed integrati nel geodatabase del
Sistema Informativo Mappatura
Amianto [9] e messi a disposizione
dei dipartimenti territoriali
per l’avvio delle nuove fasi di
sopralluogo, verifica e analisi.
Conclusioni
L’esperienza maturata in
Piemonte negli anni ha dimostrato
le potenzialità e l’efficacia
del telerilevamento e delle
tecnologie di analisi GIS, quali
strumenti fondamentali per l’analisi
speditiva su vasta scala e in
particolare per i processi di mappatura
a scala regionale, come
richiesto dalla normativa vigente.
Il processo di riconoscimento e
classificazione delle coperture in
cemento amianto, sia in loco e
ancor più da telerilevamento, è
tuttavia fortemente condizionato
dalla complessità e dall’estrema
variabilità delle differenti
tipologie di prodotti e materiali
impiegati in edilizia nel corso dei
decenni. Per tali motivi, anche
GEOmedia n°6-2021 11
FOCUS
durante le attività di sopralluogo
per la verifica in campo delle
coperture è frequente la necessita
di dover ricorrere, oltre all’analisi
visiva e fisico-meccanica, a specifici
campionamenti e successive
analisi chimico-fisiche di laboratorio
per accertare con sicurezza
la presenza dei minerali asbestiformi
nei materiali.
Ciononostante, quanto realizzato
nello sviluppo del modello
MAIA, dimostra come l’utilizzo
integrato del remote sensing e
delle nuove tecnologie di deep
learning possano aprire possibilità
e scenari di analisi assolutamente
sorprendenti.
La capacità delle reti neurali di
apprendere e analizzare in modo
massivo grandi moli di dati, attraverso
la sola lettura di immagini,
consente di attuare processi
di analisi che per dimensioni e
scala non sarebbero altrimenti
attuabili con metodi tradizionali.
Selezionare e discriminare fra
milioni di oggetti permette di
aumentare la capacità predittiva
e di individuare quelle tipologie
di coperture su cui concentrare
le verifiche, guidando in modo
mirato e più efficiente le campagne
di controllo in campo.
Il progetto, realizzato con sole
risorse interne e senza investimenti
aggiuntivi, ha permesso
di completare in tempi molto
ridotti la mappatura sull’intero
territorio regionale e di impostare
un modello per il monitoraggio
periodico dei processi di
bonifica.
In questo senso riteniamo che
il lavoro effettuato e i risultati
raggiunti rappresentino oltre che
un modello innovativo di ricerca
applicata replicabile anche in
altre realtà regionali, uno strumento
fondamentale per l’azione
di Arpa e più in generale per il
perseguimento degli obiettivi
definiti dal Piano Regionale
Amianto.
RIFERIMENTI E SITOGRAFIA
Piano regionale Amianto: https://www.regione.piemonte.it/web/temi/ambiente-territorio/ambiente/amianto-bonifiche-terre-rocce-scavo/amianto
Regione Piemonte: Ripresa Aerea Ice 2009-2011 Ortofoto RGB e NIR: http://www.
geoportale.piemonte.it/geocatalogorp/?sezione=catalogo
http://www.geoportale.piemonte.it/geonetworkrp/srv/ita/metadata.show?uuid=r_
piemon:ec27a3da-2bd8-4f7d-8905-3ac28f488943
Regione Piemonte - BDTRE: https://www.geoportale.piemonte.it/cms/bdtre/bdtre-2
Keras - https://keras.io/
https://www.sciencedirect.com/topics/computer-science/convolutional-neural-networks
https://learnopencv.com/keras-tutorial-fine-tuning-using-pre-trained-models/
https://keras.io/guides/transfer_learning/
https://www.quadernodiepidemiologia.it/epi/campion/dimens.htm
https://webgis.arpa.piemonte.it/amianto_storymap_webapp/
BIBLIOGRAFIA
BONANSEA E., 2018 - “Il Progetto di mappatura dell’amianto in Piemonte” in
ECOSCIENZA, Volume 1 - Anno 2018, edito da Arpa Emilia Romagna, marzo
2018
Radovic, M.; Adarkwa, O.; Wang, Q. “Object Recognition in Aerial Images Using
Convolutional Neural Networks.” J. Imaging 2017, 3, 21. https://doi.org/10.3390/
jimaging3020021
Pirotti, F., Zanchetta, C., Previtali, M., and Della Torre, S.: DETECTION OF
BUILDING ROOFS AND FACADES FROM AERIAL LASER SCANNING
DATA USING DEEP LEARNING, Int. Arch. Photogramm. Remote Sens. Spatial
Inf. Sci., XLII-2/W11, 975–980, https://doi.org/10.5194/isprs-archives-XLII-
2-W11-975-2019, 2019.
Partovi, Tahmineh und Fraundorfer, Friedrich und Azimi, Seyedmajid und Marmanis,
Dimitrios und Reinartz, Peter (2017) Roof Type Selection based on patch-based classsification
using deep learning for high Resolution Satellite Imagery. In: International
Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences -
ISPRS Archives, XLII-1 (W1), Seiten 653-657. Copernicus Publications. ISPRS Hannover
Workshop: HRIGI 17, 06.-09. Juni 2017, Hannover, Germany. doi: 10.5194/
isprs-archives-XLII-1-W1-653-2017.
Francois Chollet - Deep learning with python, Novembre 2017
PAROLE CHIAVE
Intelligenza Artificiale; Sistemi Informativi; Ortofoto; Amianto
ABSTRACT
In 2013 Arpa Piemonte launched a first mapping of buildings potentially containing
asbestos cement that identified over 120.000 roofs in the most densely populated
areas of Regione Piemonte. The map was based on supervised image classification
techniques and traditional photo interpretation.
In 2020 (based on an experimental activity launched in 2019), Arpa Piemonte created
and applied a model called MAIA (Mapping of Asbestos with GIS and Artificial Intelligence
techniques) aimed at extending the mapping started in 2013 to the whole Piemonte
area and including the monitoring of asbestos roofs transformation over time,
already subjected to inspection, located in the areas analyzed in the first mapping.
MAIA has identified over 26.600 new buildings on a regional scale with potential
presence of asbestos and over 6.200 buildings whose roofs have undergone, potential
remediation processes between 2010 and 2020. In the area already subjected to
inspection, the model confirmed the presence of asbestos in over 36.400 roofs and it
has identified over 4.900 cases of new potential remediation.
AUTORE
Enrico Bonansea, Luca Forestello*, Ivan Cerato, Manuela Livorno, Gabriele
Nicolò, Fulvio Raviola, Isabella Tinetti, Teo Ferrero, Roberto Cassulo, Marcella
Alibrando, Massimiliano Carrino, Stefano Masera, Maria Cristina Prola
*Autore corrispondente: l.forestello@arpa.piemonte.it
Arpa Piemonte - Sistema Informativo Ambientale e Geografico, Comunicazione e
Educazione Ambientale
12 GEOmedia n°6-2021
FOCUS
GEOmedia n°6-2021 13
INTERVISTA
Interviste ad alcuni responsabili
di IDT regionali: presente e
prospettive
a cura di Franco Vico
Le infrastrutture di dati geografici di livello
regionale sono un tassello fondamentale nel
sistema complessivo di produzione, catalogazione,
distribuzione dell’informazione geografica. Questo
è certamente vero in Italia, ma anche in altri paesi
europei. Le regioni hanno le capacità finanziarie e
tecniche necessarie, quelle capacità che spesso
mancano ai livelli sotto-ordinati, ad es. ai comuni.
Mentre il livello nazionale è più lontano dal territorio e
ha altri ruoli.
Con questo in mente, abbiamo chiesto ai responsabili
di alcune IDT regionali di parlarci delle loro
esperienze, presentandole nella loro realtà concreta.
In questo numero sono pubblicate le interviste
relative alle Regioni Basilicata, Lazio e Lombardia,
mentre le interviste relative alle Regioni Veneto e
Piemonte sono già state pubblicate nel numero
5/2021 di GEOmedia (https://www.yumpu.com/
it/document/read/66063687/geomedia-5-2021).
Abbiamo anche chiesto ai responsabili delle IDT,
parlandoci delle loro esperienze, di confrontarsi con
i “punti di convergenza” del dibattito internazionali
sul futuro delle Spatial Data Infrastructure, individuati
nell’articolo Oltre le SDI: quali prospettive, pubblicato
sullo stesso numero 5/2021 di GEOmedia. Questo
ha fatto sì che le domande che abbiamo rivolto ai
responsabili delle 5 IDT, siano state più o meno
sempre le stesse. Anche l’ordine delle domande è
più o meno sempre lo stesso. Tutto ciò dovrebbe
rendere più facilmente confrontabili le interviste. E noi
sappiamo che è il confronto che fa capire le cose.
La Infrastruttura
per l’Informazione
Territoriale (IIT) della
Regione Lombardia
Colloquio con Fabio Conzi
e Piera Belotti, Struttura
SIT Integrato di Regione
Lombardia
GEOmedia (G):
Cominciamo con un inquadramento
della vostra
esperienza nel suo contesto.
Regione Lombardia
(RL): La Lombardia
con la l.r. 12/2005 per il
Governo del Territorio è
stata tra le prime a sviluppare
l’embrione (ovvero
il SIT) di quella che poi
sarebbe stata istituita dalla
Direttiva INSPIRE/2007
quale “Infrastruttura
per l’Informazione
Territoriale” (IIT), che
costituisce la base dati per
la progettazione del Piano
Territoriale Regionale,
strumento di attuazione
territoriale della strategia
regionale di sviluppo
sostenibile inserita nel
programma regionale
di sviluppo (PRS). Dal
punto di vista organizzativo
l’IIT si colloca nella
Direzione competente in
materia urbanistico-edilizia,
ed è stata concepita
per sostenere le politiche
regionali di governo e
sviluppo del territorio,
attraverso svariati strumenti/servizi
rivolti ad
una pluralità di utenti,
in particolare ai professionisti
e agli enti locali
che pianificano le scelte
di sviluppo urbanistico a
scala locale. Basti pensare
al fatto che tutti i piani
urbanistici per il governo
14 GEOmedia n°6-2021
INTERVISTA
del territorio e gli studi
di settore vengono
raccolti all’interno
del medesimo Portale
“Multiplan” accessibile
a tutti, dai regolamenti
edilizi comunali ad
altri servizi che interoperano
con sistemi
terzi, tra cui merita
citare il “Cruscotto
delle Emergenze” condiviso
con i soggetti
preposti al soccorso/
sicurezza e protezione
civile. I servizi geografici
realizzati dalla IIT
lombarda supportano
anche applicazioni
verticali in uso presso
altre Direzioni, quali
la D.G. Welfare (applicazioni
geografiche
per il sistema veterinario
e a supporto della
prevenzione), la D.G.
Formazione e Lavoro
(applicativi di supporto
all’offerta formativa
e sistema duale alternanza
scuola lavoro),
la DG Infrastrutture
(sistema della mobilità
e dei trasporti),
la DG Ambiente e
Clima (es. gestione
istanze di VIA), la DG
Agricoltura (applicativi
gestionali di ambito
agro-ambientale).
Tecnologicamente
l’attuale IIT lombarda
si fonda sulla piattaforma
“Regional
Enterprise platform
for Geographic
Information Services”
(REGIS) offrendo servizi
digitali geografici
alla PA, ai professionisti
alle imprese e
ai cittadini, grazie al
supporto della propria
società in house ARIA
Spa.
Per garantire prodotti
e servizi necessari, sia
internamente a Regione
sia agli enti collegati
del territorio, la scelta
è ricaduta molti anni fa
sulla piattaforma ESRI
che assicura un sistema
scalabile, affidabile e
basato su standard di
mercato. Di recente si è
aperto anche al mercato
Open Source, ad es.
predisponendo la distribuzione
del Database
Topografico in formato
gpkg (Geopackage) che
permette di superare le
considerando che il
concetto di utente
unico assume sfumature
differenti in funzione
dello strumento
di misura (in RL ci
si avvale di Google
Analytics per questo
tipo di conteggio).
Non essendo richiesta
profilazione/registrazione
per l’accesso
al Geoportale, non
siamo in grado di
individuare con precisione
le specifiche
tipologie di utente,
tuttavia sappiamo che
‟La maggior parte
dei dati della IIT è
open, ad eccezione di
informazioni che non
sono di proprietà di
Regione.
limitazioni del formato
shapefile, sviluppando
un SW gratuito in via
di sperimentazione,
per predisporre gli elaborati
del PGT.
G: Un mantra del dibattito
internazionale
sulle infrastrutture di
dati territoriali è “user
centric”: che cosa sapete
sugli utilizzatori
della vostra IIT?
RL: Gli utilizzatori
sono circa 17.000
nuovi utenti/mese,
ma è più significativo
l’elevato numero di
accessi/mese, pari a
circa 25.000/mese,
‟
si tratta - principalmente
- di professionisti
e tecnici degli
Enti locali, studenti/
ricercatori, imprese e
grandi player di mercato.
Altrettanto vale
per quanto riguarda
l’utilizzo dei dati: non
si ha un quadro preciso,
ma il feedback
degli utenti che comunicano
attraverso
la casella mail “contattaci”
consente di
conoscerne la provenienza,
con l’ulteriore
vantaggio di migliorare
il Geoportale o
di rilevarne eventuali
malfunzionamenti.
Ad esempio, la de-
cisione di predisporre
“basi cartografiche
semplificate” partendo
dal DBT da utilizzare
per la redazione degli
elaborati della pianificazione
è emersa
proprio dalle proposte
di tecnici/professionisti
che operano in questo
ambito.
G: Anche colleghi di
altre IDT regionali
hanno rilevato questa
contraddizione: la
scelta della massima
apertura, il fatto di
non richiedere registrazione
si porta dietro
un effetto negativo, si
conoscono poco utenti
e utilizzi. Sono state
comunque intraprese
azioni specifiche per
conoscere meglio utenti
e utilizzi?
RL: Stiamo valutando
la riprogettazione del
Geoportale per semplificarne
l’utilizzo, ampliarne
i servizi in base
alle diverse tipologie di
utenza, non rivolgendosi
esclusivamente a
tecnici comunali e professionisti.
Più in specifico
ogni anno viene
svolta una “Customer
Satisfaction Survey”,
con la quale valutiamo
la soddisfazione relativa
a 5 parametri: trasparenza
(la reperibilità
delle informazioni sul
servizio); accessibilità
(la facilità di utilizzo
del servizio); tempestività
(tempi di risposta
del servizio durante
l’utilizzo per la ricerca,
il caricamento e il
download dei dati); efficacia
(corrispondenza
del servizio rispetto alle
GEOmedia n°6-2021 15
INTERVISTA
aspettative); assistenza
(la qualità complessiva
del servizio di assistenza).
Le percentuali
di soddisfazione sono
tutte superiori all’80%;
solo la valutazione della
tempestività è un po’
più bassa.
G: Caratterizziamo i
contenuti della IIT:
quali sono i dataset
presenti e quali i dataset
più utilizzati?
RL: I dataset più scaricati
sono:
4Carta Tecnica
Regionale 1:10.000
- CT10
4Tavola delle
Previsioni di Piano
dei Piani di Governo
del Territorio (a livello
del comune)
4Tavole piani territoriali
coordinamento
provinciali (PTCP)
4Aree Protette
4 Strade, ferrovie e
metropolitane
4Reticolo idrografico
regionale unificato
4Limiti amministrativi
2020-2021
4Vincoli paesaggistici
4Piano paesaggistico
regionale
4Piano di tutela e uso
delle acque (PTUA
2016)
Con accesso dal singolo
metadato:
4Database
Topografico (DBT)
regionale: data di rilievo/aggiornamento
4Direttiva Alluvioni
2007/60/CE -
Revisione 2020
4Direttiva alluvioni
2007/60/CE -
Revisione 2015
4Evoluzione temporale
ortofoto
4Mappe catastali
4Carta Base da DBT
(raster)
4Aree Protette
4Ortofoto AGEA
2018
4Uso e copertura del
suolo 2018 (DUSAF
6.0)
4Reticolo Idrografico
Regionale Unificato
Tutti questi dati trovano
corrispondenza
nei temi INSPIRE: il
Geoportale facilita la
ricerca mettendo a
disposizione la sezione
delle categorie ISO e
INSPIRE all’interno
della quale è possibile
utilizzare specifici filtri.
G: Quali sono i servizi
presenti e servizi più
utilizzati?
RL: Detto che la IIT
di Regione Lombardia
eroga oltre 700 servizi
di mappa configurabili
con tutti gli standard
(es. WMS, WMTS,
WFS), sono presenti
tutti i servizi che ci
si aspetta: servizio di
consultazione del catalogo
dei metadati;
servizio di download
dati vettoriali/raster;
servizi OGC; Galleria
delle mappe; statistiche
del Geoportale, tool
che evidenzia le parole
chiave più usate.
G: Nella costruzione
di una IDT, in particolare
al livello di una
Regione, è normale
scoprire che esistono
dataset che in parte si
sovrappongono, gestiti
da soggetti diversi che
non si parlano... Cosa
state facendo in materia?
RL: La “Struttura SIT
Integrato” partecipa
come rappresentante di
RL agli incontri della
Consulta Nazionale per
l’Informazione Territoriale
ed Ambientale
(CNITA), che, attraverso
diverse sezioni
tecniche, ha ruolo di
governance dell’informazione
geografica
a livello nazionale,
rispondendo in primis
alla direttiva INSPIRE;
si sta attivando un coordinamento
regionale
in merito alla produzione
di informazioni
e dati cartografici tra
tutti i soggetti che li
detengono, partendo
dalla mappatura delle
competenze e delle
materie delegate. Questo
implica il raccordo
con tutte le PA locali e
le società controllate/
partecipate lombarde
che gestiscono dati
geografici utili a tutti e
che ancora non li condividono.
G: Harvesting di dataset
di altri soggetti PA
(Comuni, ASL…)?
RL: Scambiamo informazioni
geografiche
con tutte le PA lombarde
(e non) tramite applicativi
web ma anche
manualmente, ai fini
della messa a disposizione
nel Geoportale
o in aggiornamento di
prodotti quali, ad es., il
Database Topografico.
Il DBT regionale di
primo impianto è nato
credendo in un modello
“bottom up” fondato
sulle capacità delle PA
locali di gestire, attraverso
consorzi, appalti
di produzione con
il co-finanziamento
regionale. La frammentazione
a volte ha funzionato
bene, a volte
meno, il risultato ha
portato alla produzione
parziale del DBT e alla
disomogeneità nei contenuti
e nella qualità,
che si rileva osservando
il DBT attuale. Non a
caso si prevede di adeguarlo
puntando anche
ad un raccordo con il
Catasto per future integrazioni
tra le banche
dati di rispettiva competenza.
Purtroppo, a
causa principalmente
dell’endemica carenza
di competenze (in particolare
in ambito GIS)
nelle PA, RL è dovuta
intervenire per completare
il DBT, e analoga
azione verrà portata
avanti con l’appalto per
il suo aggiornamento,
già programmato.
Concludendo, la scala
regionale è quella migliore
per la produzione/aggiornamento
di
uno strumento come
il DBT, ma è necessario
coinvolgere le PA
locali nella verifica dei
contenuti, e in futuro
nell’aggiornamento
puntuale, partendo
dalla necessaria diffusione
delle competenze
in ambito GIS. Un
passo indietro per
poterne fare uno più
significativo in avanti.
G: Chi finanzia e chi
gestisce la IDT?
16 GEOmedia n°6-2021
INTERVISTA
RL: La copertura dei
contratti di gestione
e manutenzione evolutiva
della IIT è in
buona parte finanziata
con risorse autonome.
Grazie alla partecipazione
a progetti della
UE (Interreg, POR),
si riesce ad intercettare
risorse utili. La carenza
maggiore si riscontra
per le risorse umane
e la formazione, con
particolare riferimento
all’attività di coordinamento
e ai tavoli di
lavoro citati in precedenza.
G: Open data, qual è la
situazione?
RL: La maggior parte
dei dati della IIT è
open, ad eccezione di
informazioni che non
sono di proprietà di
Regione. Di recente
abbiamo modificato la
licenza per i dati aperti
in CC 4.0 internazionale.
G: INSPIRE compliant:
che cosa è stato
fatto? Quanto rilevante
in pratica è valutato
questo aspetto?
RL: Per quanto riguarda
i metadati, si è
lavorato per essere conformi
alle specifiche
INSPIRE almeno per
quanto riguarda i priority
dataset (come indicato
da AgID/RNDT)
in modo da contribuire
all’harvesting annuale.
Siamo consapevoli
di che cosa si debba
realizzare; dobbiamo
investire molte risorse/
attività nella creazione
di servizi in quanto - al
momento - disponiamo
di molti servizi
di consultazione che
aggregano più livelli
informativi (in questo
caso il metadato non
è associato al singolo
dataset ma al servizio).
Successivamente si
dovrà investire nell’aggiornamento
dei dati
coinvolgendo i produttori
dei dati e sull’armonizzazione.
G: Si dice, non dati ma
informazione. Quali
tools di visualizzazione,
analisi, simulazione…
utili per rendere più facile,
ma soprattutto più
efficace l’uso dell’informazione
geografica
della IIT, avete messo
in campo o state progettando?
RL: Dal Geoportale si
accede ai servizi della
rete interregionale di
stazioni permanenti
GNSS (SPIN3 GNSS)
che integra in un unico
centro di gestione le
stazioni di Piemonte,
Lombardia e Valle d’Aosta,
e fornisce all’utenza
pubblica/privata
il posizionamento di
precisione e diffusione
delle coordinate nel
sistema di riferimento
ufficiale.
Abbiamo realizzato dei
tools che consentono
di confrontare tra loro
ortofoto storiche, l’evoluzione
storica dei
limiti amministrativi
(fusioni dei comuni nel
tempo), l’uso agricolo
del suolo.
Abbiamo sviluppato
due applicativi, il
primo, l’ ”Attestato
del Territorio”, consente
di ottenere, su
un punto definito
dall’utente, una serie
di informazioni che
inquadrano il territorio
nei suoi aspetti legati
all’atmosfera (vento,
precipitazioni, fulmini,
inquinanti, classificazione
acustica), al suolo
(quota, pendenza,
numero del mappale
catastale, uso del suolo,
max altezza neve, frane,
aree allagabili, classe
di fattibilità geologica,
interferometria radar,
vincoli), al sottosuolo
(accelerazione sismica,
geologia, radon). Il
secondo applicativo,
"Interroga il Territorio"
(a breve diventerà
“Interroga il Territorio
e il Paesaggio”), analogamente
al precedente,
evidenzia la vincolistica
urbanistica, paesaggistica,
ambientale presente.
Entrambi gli applicativi
producono una
reportistica che aiuta la
consultazione integrata
di informazioni geografiche,
e aiuta nella
corretta progettazione
del territorio.
G: Il concetto del
Geospatial Ecosystem,
inteso come integrazione
di dati provenienti
da crowdsourcing, da
fonti commerciali o
private..., è una prospettiva
praticabile?
RL: Al momento
Regione Lombardia
non ha collaborazioni
attive con soggetti
privati in tal
senso, o iniziative di
crowdsourcing. In realtà
un primo ecosistema
digitale era stato realizzato
in occasione di
EXPO Milano 2015, il
Cruscotto Emergenze,
per gestire sicurezza/
emergenze legate all’evento.
Certamente
c’è l’intenzione di
proseguire il percorso
creando ecosistemi
che integrino le informazioni
geografiche
e non, a disposizione
delle diverse Direzioni
Generali dell’Ente.
Idealmente, in RL si
potrebbero individuare
5 “ecosistemi digitali”:
Ambiente e Clima,
Casa, Mobilità sostenibile
e qualità dell’Aria,
Safe&Security e Tutela
e valorizzazione del
Territorio.
Siamo ben consapevoli
dei benefici ottenibili
lavorando per ecosistemi
digitali: scambio di
patrimonio informativo
tra soggetti/Enti
diversi; incidere sulle
“sinergie” dei sistemi
più maturi e strategici,
agevolando il raccordo
tra le politiche digitali
delle diverse Direzioni
Regionali/Enti e
Società del Sistema
regionale allargato.
Siamo altrettanto consapevoli
delle difficoltà
connesse alla carenza
di competenze e personale
all’interno della
PA, e non solo: oltre a
sensibilizzare i decisori
politici, ai vari livelli
istituzionali, della necessità
di valorizzazione
delle competenze dei
funzionari tecnici e
dei loro responsabili,
occorre incentivare for-
GEOmedia n°6-2021 17
INTERVISTA
me di collaborazione
pubblico/privato che
accrescano le capacità
di gestire la pianificazione
territoriale negli
ambiti locali in cui ciò
avviene, quindi presso i
Comuni e gli Enti che
operano sul territorio.
In Lombardia ci sono
diversi esempi che
hanno attuato queste
politiche realizzando
sinergie virtuose con
ricadute molto positive
sul territorio, sia
per chi lo amministra,
sia per chi lo vive e ci
lavora.
G: Per concludere,
parlando della vostra
IIT, quale è l’aspetto
che vorreste mettere in
evidenza?
LR: Ha per certi versi
a che vedere con le origini
della IIT. Regione
Lombardia, facendo seguito
alla riforma della
propria legislazione in
materia urbanistica, avvenuta
come detto nel
2005, ha scelto di costituire
una banca dati
della pianificazione
comunale/provinciale
attraverso la collaborazione
diretta degli
Enti Locali, ai quali
viene chiesta la fornitura
dei dati secondo
specifiche comuni.
Questo, per citare un
caso di successo, ha
permesso di progettare
il Piano Territoriale
Regionale per la riduzione
del consumo di
suolo con i dati reali
delle previsioni urbanistiche
dei singoli
Comuni (oltre 1500 in
Lombardia). Il processo
vede l’acquisizione
di una media di 400
diversi piani/varianti
di piano urbanistici
all’anno, consentendo
di ottenere una banca
dati con un grado di
aggiornamento adeguato;
recentemente si
è resa automatica l’acquisizione
delle informazioni
sul consumo
di suolo dai Comuni.
Al fine di migliorarne
ulteriormente la precisione
e soprattutto per
aumentare la velocità
con cui avvengono le
forniture, come sopra
detto è in corso un
progetto di prima sperimentazione
volto alla
realizzazione di un software
che permetterà
la redazione dei PGT
già sotto forma di banca
dati geografica, già
rispondente alle specifiche
regionali e quindi
pronto alla pubblicazione
sul BURL. E’
una evidente semplificazione
procedurale,
oltre ad una garanzia
di maggior qualità e
controllo dei dati geografici
di ritorno, che
sono subito rimessi alla
disponibilità di tutti gli
interessati attraverso il
Geoportale.
La Infrastruttura Dati
Territoriali (IDT) della
Regione Lazio
Colloquio con Simone
Patella, Responsabile
della IDT della Regione
Lazio
GEOmedia (G):
Cominciamo con un
inquadramento della
vostra esperienza
Regione Lazio (RL):
Le Infrastrutture Dati
Territoriali sono un
importante strumento
di analisi e condivisione
delle informazioni,
tanto che è in continua
crescita la richiesta di
accesso ad un numero
sempre maggiore di
banche dati, di alta
qualità ed aggiornate.
L’Assessorato alle
Politiche Abitative,
Urbanistica, Ciclo
dei Rifiuti e Impianti
di Trattamento,
Smaltimento e
Recupero, della
Regione Lazio ha da
tempo investito nella
realizzazione di queste
piattaforme, facendo
propria la prospettiva
che vede i dati quale
patrimonio della comunità.
G: Entrando nel merito,
pensiamo sia giusto
cominciare dagli utilizzatori
e dagli utilizzi.
Quanto li conoscete?
RL: La IDT regionale
non richiede registrazione,
se non per personalizzare
l’esperienza
di navigazione o fruire
dei servizi verticali: in
questi casi, l’utente può
autenticarsi con SPID,
CIE o CNS.
La Regione applica by
default un approccio
minimale alla raccolta
dei dati e non ci sono
quindi grandi possibilità
di classificare la
tipologia di utenti; tramite
il servizio Google
Analytics, sappiamo
però che l’utilizzo della
piattaforma si attesta
sui 5.000 utenti unici
al mese.
Tanto premesso, la
IDT si rivolge ad
un’ampia platea di
utilizzatori: i tecnici
della PA, che la utilizzano
come supporto
per le istruttorie delle
pratiche; imprese e
professionisti, che ne
fanno uso per la predisposizione
di progetti
da presentare alle PA;
gli studenti o gli enti
di ricerca e, infine, i
cittadini, che possono
trovare all’interno del
Geoportale una prima
risposta alle proprie
curiosità.
G: Dunque gli utenti
non si registrano. Avete
comunque attivato
canali per ricevere
feedback, commenti...
dagli utenti?
RL: Certamente, l’help
18 GEOmedia n°6-2021
INTERVISTA
desk è il primo di questi
canali. Gli utenti si
rivolgono agli operatori
per avere informazioni
sull’utilizzo della
piattaforma, i dati
pubblicati e i servizi
erogati: dai colloqui
spesso nascono dei
suggerimenti che permettono
di migliorare
le modalità di fruizione
del Geoportale.
Un altro strumento
sono i questionari di
gradimento, che vengono
periodicamente
sottoposti e permettono
di conoscere
meglio l’utenza e di
raccogliere idee o
commenti su come
migliorare la piattaforma.
La Regione organizza
inoltre dei webinar
(7 nel 2021),
per formare gli
utenti sui GIS e sul
migliore utilizzo del
Geoportale; a volte, da
questi incontri scaturiscono
ulteriori collaborazioni
con l’utenza
interessata.
Quello che riscontriamo
è l’esigenza
di poter attingere ad
un maggior numero
di dati cartografici,
nonché alle specifiche
tecniche sulla loro realizzazione
(informazioni
spesso non reperibili
nel solo metadato);
alcune richieste si focalizzano
invece sulla
possibilità di avere
ulteriori servizi sul
Geoportale e strumenti
di analisi ancora più
evoluti.
G: A grandi linee,
quali sono i dataset
presenti e quali i dataset
più utilizzati?
RL: Il Geoportale
pubblica circa 300
strati, per lo più
sotto forma di dati
vettoriali; il 36%
riguarda dati cartografici
di base
o di urbanistica
(es. il Database
Geotopografico
Regionale); il 22%
riguarda l’Ambiente
e la Natura; il 21%
afferisce all’ambito
‟Tutti i dati pubblicati
sul Geoportale,
ad eccezione di quelli
non di proprietà regionale
o aventi un
contenuto sensibile,
sono distribuiti in
Open Data
dell’Agricoltura; il
19% fa riferimento
alla salvaguardia del
Paesaggio; il restante
2% comprende l’archivio
della fototeca
regionale.
Tutti i dataset pubblicati
sono realizzati
dalle strutture
regionali che hanno
competenza sulla
specifica materia;
la IDT regionale,
infatti, pur essendo
il punto unico di
divulgazione, delega
ad ogni struttura
regionale la pubblicazione
e gestione
dei propri contenuti
cartografici.
G: Quali sono i servizi
più utilizzati?
RL: La IDT Regionale
è stata costruita interamente
con software
open source e più del
95% dei dati pubblicati
sono liberamente accessibili
da chiunque;
il restante 5% sono
dati non divulgabili
per via delle licenze
d’uso applicate o per
problematiche afferenti
‟
alla privacy (es. il dato
catastale).
Tutti i dati pubblicati
sono accessibili tramite
i servizi OGC
standard (come richiesto
dalla Direttiva
INSPIRE), quali il
Web Map Service
(WMS), il Web
Feature Service (WFS)
e il Web Coverage
Service (WCS), che
ne permettono l’accesso,
l’interrogazione ed
il download tramite
software di terze parti,
anche in sistemi di coordinate
differenti.
Ad ogni dato sono
associati dei metadati,
costruiti conformemente
alle linee guida
prodotte dall’AGID;
anche i metadati sono
accessibili da remoto
(operazione di harvesting)
utilizzando il
Catalogue Services for
the Web (CSW).
Di questi servizi, sicuramente
il WMS è
quello più richiesto,
seguito dal WFS, dal
CSW ed infine dal
WCS.
Oltre ai servizi OGC
standard, la piattaforma
è anche lo strumento
ideale sul quale
far convergere gli sforzi
di digitalizzazione di
quelle procedure amministrative
di competenza
regionale che
hanno nel dato cartografico
il fondamento
del loro iter; queste
procedure possono
essere erogate online
sotto forma di servizi
verticali della IDT. La
Regione ha avviato una
prima sperimentazione,
realizzando tre diversi
servizi verticali.
Il primo servizio, ad
uso esclusivo regionale,
riguarda l’integrazione
con il sistema di
interscambio del dato
catastale dell’Agenzia
delle Entrate; il servizio
permette di ricevere
gli aggiornamenti
vettoriali e censuari del
catasto, che i funzionari
regionali possono
visualizzare ed interrogare
per verificare i
dati delle loro pratiche.
Un secondo servizio
riguarda gli impianti
geotermici; il terzo
è rivolto alle attività
inerenti alla gestione
GEOmedia n°6-2021 19
INTERVISTA
forestale (tagli, piantumazioni,
ecc.). In
entrambi questi casi,
i servizi permettono
all’utente autenticato
di avviare una procedura
amministrativa
online, di caricare la
documentazione necessaria
e di identificare la
componente geografica
oggetto della richiesta;
questi servizi possono
fornire una prima
risposta operando un
incrocio delle informazioni
inserite con,
ad esempio, i vincoli
urbanistici e ambientali;
altrimenti, la pratica
viene assegnata digitalmente
al funzionario
di riferimento, che
procede con l’istruttoria,
fino all’emanazione
dell’atto finale.
G: Uno dei principi
fondativi delle IDT è
il riuso dei dati, il che
comporta che siano
individuati i dataset
di riferimento, chi li
gestisce e chi ne è responsabile:
cosa fate in
questa direzione?
RL: Il Sistema
Informativo
Territoriale Regionale,
della Direzione
Regionale per le
Politiche Abitative
e la Pianificazione
Territoriale, Paesistica
e Urbanistica, che
gestisce la IDT con il
supporto della Società
in-house LazioCREA
SpA., è da sempre in
stretto contatto con le
altre strutture regionali
al fine di fornire supporto
nella individuazione,
trasformazione
o realizzazione di banche
dati spaziali. Con
Delibera di Giunta
Regionale n. 663/2021
è stato inoltre istituito
un tavolo tecnico per
l’informazione geografica,
nel quale sono
chiamate a partecipare
tutte le strutture regionali
che hanno interesse
nella tematica.
G: Harvesting da dataset
di altre PA subregionali:
che cosa è in
atto e/o in progetto?
RL: Attualmente,
l’harvesting dei dati
cartografici avviene
soltanto dalla piattaforma
regionale, verso il
Repertorio Nazionale
dei Dati Territoriali,
gestito da AGID. Il
passaggio successivo
sarà, senz’altro, anche
quello di avviare una
maggiore integrazione
con le piattaforme
sub-regionali, tramite
harvesting dei dati pubblicati
sui loro sistemi.
G: Open data: qual è la
situazione?
RL: Tutti i dati pubblicati
sul Geoportale,
ad eccezione di quelli
non di proprietà regionale
o aventi un
contenuto sensibile,
sono distribuiti in open
data, sulla base della
legge regionale n. 7 del
2012. La licenza d’uso
applicata è la Creative
Commons By 4.0, che
prevede il solo vincolo
dell’indicazione della
fonte da cui proviene il
dato utilizzato.
G: INSPIRE compliant:
anche in questo
caso, qual è la situazione?
RL: La realizzazione
della piattaforma è
stata sin dall’inizio
vincolata agli standard
richiesti dalla Direttiva
INSPIRE, al fine chiaramente
di esserne
conformi. Attualmente
la IDT regionale risponde
ai requisiti della
Direttiva e, nel corso
dei suoi aggiornamenti,
si provvede a mantenere
il passo anche
con le evoluzioni che
inevitabilmente vengono
apportate a livello
Europeo o Nazionale.
Anche per quanto
riguarda i metadati si
seguono le linee guida
predisposte da AGID,
che a loro volta assicurano
la conformità ad
INSPIRE.
Più difficoltoso è
il processo di adeguamento
alle Data
Specifications relative ai
diversi temi INSPIRE.
Finora, l’attenzione è
stata rivolta alla promozione
dei sistemi
geografici e alla pubblicazione
dei dati,
meno alla conformità
di questi alla Direttiva
INSPIRE.
È questo chiaramente
un tema che dovrà essere
affrontato in futuro,
dalla Commissione
Europea al fine di semplificare
tale aspetto, o
dagli enti pubblici che
dovranno conformare
i loro dati a tali indicazioni.
G: Non dati ma informazione:
quali sono i
tools accessibili attraverso
il Geoportale utili
per rendere più facile e
efficace l’uso dell’informazione
geografica?
RL: Il Geoportale
fornisce ovviamente
tutti gli strumenti di
base per la navigazione
dei livelli informativi
presenti a catalogo,
come zoom, pan, interrogazione
e così via.
È possibile ricercare
una posizione per coordinate,
indirizzi (servizio
di geo-codifica
di OpenStreetMap) o
tramite fogli e particelle
catastali; stampare
o scaricare i contenuti
caricati in mappa;
visualizzare le tabelle
alfanumeriche associate
ai dati vettoriali, con la
possibilità di applicare
dei filtri sia alfanumerici,
che spaziali (buffer,
intersezioni, ecc).
I referenti regionali
possono predisporre
delle mappe costituite
da più livelli informativi,
di modo che l’utente
possa concentrarsi
principalmente sulla
navigazione e l’interrogazione,
e tralasciare
i dettagli sull’impostazione
del progetto.
Con gli ultimi aggiornamenti
della piattaforma,
è stata inoltre
introdotta la possibilità
di editare online gli
strati informativi, così
da permettere anche
ad utenti non esperti il
popolamento e la gestione
del dato spaziale.
G: Ha preso piede il
concetto del Geospatial
Ecosystem, cioè l’integrazione
tra fonti
20 GEOmedia n°6-2021
INTERVISTA
pubbliche, fonti commerciali
o private,
crowdsourcing...: è una
prospettiva praticabile?
RL: La possibilità di
integrare informazione
pubblica e privata è
senz’altro interessante,
ma la pubblica amministrazione
è tenuta a
fornire un dato certificato
e preciso, e non
sempre il dato raccolto
in crowdsourcing è in
grado di rispettare questi
vincoli. Pertanto, si
accede a queste risorse
solo qualora il dato
necessario non sia altrimenti
disponibile (es.
il già citato servizio di
geo-codifica fornito da
OpenStreetMap).
Considerando che il
Geoportale permette
ora di operare editing
online sui livelli vettoriali,
sarà comunque
possibile avviare una
sperimentazione in tal
senso, per poi verificare
la qualità di quanto
raccolto.
‟La politica
utilizzata
dalla Regione
è che ogni
dato validato
è un dato a
disposizione
della comunità,
ed è quindi disponibile
in Open Data
‟
La Regional Spatial
Data Infrastructure
(RSDI) della
Regione Basilicata
Colloquio con Anna
Maria Grippo,
Responsabile della
RSDI della Regione
Basilicata; Vincenzo
Viti, Ingegnere GIS
Senior, e Francesco Di
Trani, Ingegnere GIS
Senior
GEOmedia (G):
Comincerei con un
dettaglio, perché avete
deciso di utilizzare
l’acronimo RSDI, cioè
Regional Spatial Data
Infrastructure, in inglese?
Regione Basilicata
(RB): La strategia di
sviluppo della IDT regionale
è nata intorno
ad un progetto pilota
in collaborazione con
il CNR di Basilicata,
nel 2006. Con la
pubblicazione della
Direttiva INSPIRE
nel 2007, si consolidò
l’idea di implementare
una infrastruttura basata
sulla disponibilità
di informazioni e dati
riguardanti il territorio
condivisi fra tutti i
soggetti operanti ai vari
livelli istituzionali. Lo
scopo era creare una
federazione di tutti i
SIT esistenti, e costituire
una community
di soggetti produttori,
distributori e utilizzatori
dell’informazione
geografica attraverso
una gestione del dato
basata sui principi
dell’interoperabilità e
della multidisciplinarietà.
Pertanto, per distinguere
questa infrastruttura
dal tradizionale
concetto di SIT si scelse
l’acronimo inglese:
RSDI.
G: Ma entriamo nel
merito, cominciando
da a che serve la IDT:
chi sono i suoi utilizzatori
e gli utilizzi più
importanti?
RB: Ci sono due
modalità di accesso
all’Infrastruttura dei
Dati Territoriali della
Regione Basilicata
(rsdi.regione.basilicata.
it). Gran parte dei dati
e delle applicazioni è
ad accesso libero, con
licenza IODL 2.0. Ci
sono dei dati riservati
al personale della PA
lucana: l’accesso è regolato
mediante l’uso
dello SPID e ciascun
utente può utilizzare
solo le applicazioni e i
dati per cui è autorizzato.
Ogni mese, in media,
su tutta la infrastruttura,
si contano circa
150.000 visualizzazioni,
quindi 5000 al
giorno, effettuate da
circa 1500 utenti al
giorno, fra accesso libero
e riservato.
Gli utenti autorizzati
ad accedere alla sezione
riservata sono circa
1000, e sono utenti
afferenti principalmente
alle PA operanti
sul territorio lucano,
ma anche Guardia di
Finanza, Carabinieri,
Università degli Studi
della Basilicata. A
questa comunità si aggiungono
anche liberi
professionisti, aziende,
e, più in generale, privati
cittadini che, per
esigenze lavorative o
personali, utilizzano
applicazioni e dati
pubblici.
G: Mentre sapete chi
sono gli utilizzatori
della PA e sapete (o
vi immaginate) quali
utilizzi fanno dei dati e
dei servizi, cosa sapete
degli utilizzatori non
registrati?
RB: Diamo molta importanza
alla creazione
di un rapporto diretto
e bidirezionale con gli
utilizzatori della IDT.
Perciò, da oltre 6 anni
stiamo impegnando
risorse nella gestione di
strumenti comunicativi
quali newsletter e
social.
Questo ha permesso di
GEOmedia n°6-2021 21
INTERVISTA
costruire un forte legame
con la comunità,
che attivamente partecipa
al mantenimento
della piattaforma (ad
es. segnalando malfunzionamenti)
ed anche
al miglioramento dei
servizi offerti. Ne è un
esempio il servizio di
download dei progetti
QGIS, suddivisi per
comuni, della Carta
Tecnica Regionale
vettoriale, nato su proposta
della comunità.
Questi project files
servono a chi vuole
avere tutto quanto è
necessario per ulteriori
eleborazioni in locale
con QGIS.
G. Caratterizziamo la
IDT regionale: quali
dataset sono presenti e
quali sono i dataset più
utilizzati?
RB: Per quanto riguarda
i dataset (disponibili
in parte anche per il
download), il punto di
partenza è il Catalogo
Regionale dei Geodati.
In questo Catalogo
sono presenti attualmente
284 schede di
metadati, riguardanti
i dataset e i servizi disponibili,
secondo le
linee guida indicate da
AgID.
Questi metadati sono
periodicamente raccolti,
tramite harvesting,
dal Catalogo del
Repertorio Nazionale
dei Dati Territoriali
(RNDT) di AgID.
Il Catalogo regionale è
inserito nel Geoportale
di RSDI-Basilicata,
insieme a varie applicazioni
web che consentono
di visualizzare
i dataset come layers
sovrapposti, realizzando
così una serie di
tematismi specifici.
La RSDI utilizza
poi anche dati provenienti
da altre
fonti (AGEA, IGM,
Portale Cartografico
Nazionale, Agenzia
delle Entrate), non
presenti nel Catalogo,
che consentono di
completare e migliorare
la visualizzazione e la
consultazione dei dati.
Alcuni di questi dati
sono disponibili solo
nella sezione riservata
alla PA.
Tra i dati che la IDT
rende disponibili,
sono importanti i dati
catastali. Un servizio
accessibile liberamente,
piuttosto utilizzato, è
la consultazione delle
Mappe Catastali di
Impianto. La Regione
Basilicata, in seguito ad
un accordo con la ex
Agenzia del Territorio,
ha effettuato la scansione
delle Mappe
Catastali originali di
impianto, e ne consente
il download attraverso
una specifica
applicazione inserita
nel Geoportale. Sono
disponibili per la consultazione
anche i dati
catastali geografici, aggiornati
periodicamente
tramite un sistema
di interscambio con
l’Agenzia delle Entrate,
e rielaborati in modo
da essere sovrapponibili
ad altri layer di base
(Ortofoto, CTR, etc.).
Non hanno carattere
di ufficialità dal punto
di vista legale, ma sono
comunque ritenuti di
grande utilità da parte
degli utenti.
G: E per quanto riguarda
i servizi, quali
sono quelli presenti e
quali sono i più utilizzati?
RB: Le tipologie di servizi
presenti nell’Infrastruttura
RSDI appartengono
a 3 categorie
principali:
4servizio di consultazione
CSW per il
Catalogo dei metadati
4servizi di visualizzazione
WMS utilizzati
nelle applicazioni
WebGis
4servizi di download
WFS, anch’essi
presenti in alcune
applicazioni
Questi servizi sono
tutti conformi alle
normative RNDT e
INSPIRE.
Gli strumenti utilizzati
per realizzarli sono tutti
di tipo opensource
o comunque molto
diffusi (Geonetwork,
Geoserver, Mapserver),
come anche i Database
(PostGis), opportunamente
personalizzati.
I servizi più utilizzati
sono quelli di visualizzazione,
ma un grande
utilizzo ne viene fatto
anche per il download,
utilizzando le applicazioni
che lo consentono,
e per la ricerca
e consultazione dei
metadati.
Gli stessi servizi sono
comunque utilizzabili
tramite software GIS di
tipo desktop (come ad
es. QGIS) per visualizzare
e/o scaricare dati.
G: Focalizziamo l’attenzione
sui flussi
informativi tra la IDT
regionale e gli altri
soggetti pubblici attivi
nella Regione: che cosa
è in atto e/o in progetto?
RB: Possiamo dire che
non esiste un vero e
proprio harvesting da
altri enti o soggetti
pubblici, non essendovi
altri servizi locali da cui
attingere in automatico
dati e informazioni, ma
comunque la RSDI-
Basilicata, attraverso
opportuni accordi,
pubblica dati provenienti
da altri Enti,
come Consorzio di
Bonifica di Basilicata,
Acquedotto Lucano,
Autorità di Bacino,
Sistema Informativo
della Montagna
(Carabinieri Forestali).
G: Open Data, certamente
l’attenzione per
questo tema è qualificante
per una IDT:
quali azioni sono state
fatte, quali azioni sono
previste, quali azioni
sono auspicabili su
questo tema?
RB: La politica utilizzata
dalla Regione è
che ogni dato validato
è un dato a disposizione
della comunità, ed
è quindi disponibile
in Open Data (non i
layer sensibili, l’utilizzo
dei quali è comunque
sempre possibile previa
autorizzazione).
In conseguenza
dell’harvesting automa-
22 GEOmedia n°6-2021
INTERVISTA
tico effettuato periodicamente
dal RNDT,
tutto quanto pubblicato
è anche trasferito nel
Catalogo Open Data
nazionale (dati.gov.it)
ed europeo. In questo
modo viene ampliata
la potenziale platea di
utilizzatori dei dati.
Il nostro impegno sul
tema degli OpenData è
stato riconosciuto già 5
anni fa dall’Associazione
OpenGeoData Italia
che ha assegnato alla
Regione Basilicata il riconoscimento
Regione
OpenGeoData 2016,
per aver seguito un
iter virtuoso di pubblicazione
di dati
geografici opendata,
compresa la pubblicazione
nel 2015 e 2016,
con licenza open,
di tutto il DataBase
GeoTopografico.
G: Conformità a
INSPIRE: che cosa è
stato fatto e/o sarebbe
ancora necessario fare
perché metadati e dataset
lo siano?
RB: Siamo orgogliosi
di essere stata una delle
prime regioni italiane
a rendere compatibile
il Catalogo regionale
dei Metadati con le
specifiche contenute
nelle Linee Guida
del RNDT vers.3.0,
e conseguentemente
anche con gli standard
INSPIRE 2.0.
Anche i servizi sono
conformi alle specifiche
INSPIRE.
La compatibilità dei
dataset, che in generale
hanno provenienze
diverse, non può allo
stato attuale essere assicurata,
non essendovi
regole uniche da seguire
da parte di tutti.
G: Si dice che le IDT
devono fornire “non
dati ma informazione”,
qualcuno dice che
devono fornire “actionable
information”, che
a mio avviso è un passettino
in più rispetto a
informazione. Questo
vuol dire tools di visualizzazione,
analisi,
simulazione… utili per
rendere più facile, ma
soprattutto più efficace
l’uso dell’informazione
geografica delle IDT.
Che cosa state facendo
in questa direzione?
RB: Per facilitare gli
utenti dell’Infrastruttura
nella fruizione dei
dati disponibili, all’interno
del Geoportale
sono presenti varie
applicazioni web, che,
utilizzando i servizi
(WMS/WMTS), permettono
di visualizzare
tematismi ottenuti per
sovrapposizione di più
layers.
Se consentito, tramite
queste applicazioni è
anche possibile scaricare
i dati stessi in forma
vettoriale o raster
(tramite link diretti o
servizi WFS), per utilizzarli
per le proprie
necessità.
I tools più complessi,
al momento, sono riservati
agli utenti che
accedono alla sezione
riservata della RSDI:
chi è autorizzato, può
accedere ad alcuni software
web interamente
progettati e realizzati
dalla Regione Basilicata
per creare progetti
webgis, e per compilare
e pubblicare le schede
dei metadati nel catalogo
regionale.
Stiamo valutando di realizzare
due strumenti
da integrare nella piattaforma
informatica già
esistente:
4una app per l’invio
di segnalazioni georeferenziate
di criticità
del territorio
lucano;
4una piattaforma
geografica per la partecipazione
pubblica
su procedure legate
alla pianificazione di
vasta scala.
G: Un’ultima domanda.
Nel dibattito internazionale
è emerso il
concetto del Geospatial
Ecosystem, cioè non
solo l’integrazione
tra le molteplici fonti
pubbliche (che è da
sempre un principio
base delle IDT) ma
anche di dati risultato
di crowdsourcing o
proveniente da soggetti
privati: avete fatto
qualcosa in questa direzione?
La ritenete una
prospettiva praticabile?
RB: Andrà nella direzione
di integrare
il crowdsourcing nella
IDT l’app per segnalazioni
di cui si è detto
prima.
E’ risultata poi molto
interessante l’esperienza
di pubblicazione
della Carta Regionale
della Attitudine
alla Coltivazione
Corilicola, realizzata
dalla Ferrero Trading
Lux S.A. e trasmessa
alla Regione Basilicata,
al fine di agevolare gli
imprenditori agricoli
nel processo di valutazione
attitudinale
alla coltivazione del
nocciolo delle proprie
aziende agricole.
La carta è consultabile
in ambiente IDT come
applicazione webGIS,
con possibilità di interrogazione
del layer.
PAROLE CHIAVE
IDT; SDI; geoportale;
INSPIRE
ABSTRACT
GEOmedia interviews
the managers of 3 Italian
regional Spatial Data
Infrastructures: Basilicata,
Lazio and Lombardia. The
questions concern main
datasets published by the
SDI, the relationship with
users, the services and
advanced tools provided
(for visualization, analysis
and simulations) the prospects
for integration with
data from non-public
sources and crowdsourced
data.... Two interviews
with the same structure,
relating to regional SDIs of
Piemonte and Veneto, were
published in the previous
issue 5/2021.
AUTORE
Redazione GEOmedia
redazione@rivistageomedia.it
Franco Vico
franco.vico@formerfaculty.
polito.it
GEOmedia n°6-2021 23
REPORT
La linea sacra di S. Michele
e la sfericità terrestre
di Fabio Crosilla
Nel 709, l'Arcangelo apparve a Saint Aubert, esortandolo a costruire una chiesa nella roccia.
I lavori iniziarono subito, ma l'abbazia benedettina non fu completamente costruita
fino all'anno 900. (Foto Ryan R Zhao, CC BY-SA 4.0 via Wikimedia Commons)
Secondo diverse fonti, non del settore
cartografico, la Linea Sacra di San
Michele unisce sette santuari dedicati
all’Arcangelo, dall’Irlanda a Israele, con
una misteriosa e suggestiva linea retta.
L’articolo, dopo aver ricordato la generale
arbitrarietà di tale affermazione in un
contesto cartografico, dimostra in maniera
statisticamente rigorosa che la Linea
Sacra di S. Michele segue effettivamente
una linea retta sulla rappresentazione
di Mercatore, dimostrando così
l’appartenenza dei sette santuari ad
una curva lossodromica sulla superficie
terrestre. Si riportano infine i risultati dello
studio di allineamento della Linea Sacra
con il tramonto del sole nel giorno del
solstizio d’estate.
Ai numerosi fenomeni inspiegabili che si
verificano attorno a noi, l’uomo ha da
sempre cercato una giustificazione che
coinvolgesse il soprannaturale. Uno di questi è la
cosiddetta Linea Sacra di San Michele Arcangelo,
che collega sette santuari ubicati in Europa
Occidentale, nel bacino del Mediterraneo e in
Israele. Il tracciato ha inizio in Irlanda, su un’isola
deserta, con il monastero di Skelling Michael
del VI secolo a cui fa seguito il monastero Saint
Michael’s Mount in Cornovaglia del XVI secolo.
Il terzo monastero è Mont Saint Michel in
Normandia del X secolo, mentre il quarto è la
Sacra di San Michele in val di Susa anch’esso
del X secolo. Seguono poi il santuario di San
Michele Arcangelo sul Gargano, in Puglia del V
secolo, il monastero di San Michele Arcangelo di
Panormitis, nell’isola di Simi in Grecia (V secolo)
ed infine quello del Monte Carmelo, in prossimità
della città di Haifa in Israele del XIX secolo,
fondato su una grotta che fu dimora del profeta
Elia, già citata in documenti egizi del XIV secolo
A.C.
La linea sacra di San Michele è celebre perché i
vari santuari sono collegati fra loro da una linea
retta che, secondo la leggenda, è frutto del colpo
di spada che S. Michele Arcangelo inflisse al
Diavolo per rimandarlo all’inferno. Inoltre è interessante
il fatto che tutti questi santuari furono
costruiti indipendentemente l’uno dall’altro, quasi
tutti ospitando una o più apparizioni dell’Arcangelo.Parlare
di una linea retta su una rappresentazione,
che nella fattispecie è di tipo cartografico,
è improprio, in quanto le caratteristiche geometriche
degli elementi riprodotti dipendono dalla
cartografia utilizzata. Come è ben noto, tutte le
cartografie deformano la realtà (pseudo) sferica
della superficie terrestre. Riprodurre su un piano
gli elementi geometrici di una superficie a doppia
curvatura, come è quella terrestre, richiede necessariamente
l’introduzione di deformazioni che
possono essere di tipo lineare, angolare e areale.
24 GEOmedia n°6-2021
REPORT
Ne segue che la linea sacra di San Michele
Arcangelo può essere rappresentata con una retta
su un tipo di cartografia, ed allo stesso tempo
può corrispondere ad una curva su un’altra rappresentazione
cartografica. Proprio questo fatto
viene appellato da alcuni interlocutori, poco
avvezzi con le rappresentazioni cartografiche, per
denigrare il fenomeno.
Per venire a capo del problema sarebbe pertanto
necessario fare analoghe considerazioni sulla superficie
che non subisce deformazioni, cioè sulla
superficie terrestre.
Per chiarire il problema è stato condotto un semplice
esperimento che ha consentito di giungere
ad un risultato di sicuro interesse.
Si è dapprima preso in considerazione un estratto
della rappresentazione di Mercatore per la
zona interessata dalla Linea Sacra di San Michele
Arcangelo. La rappresentazione di Mercatore
gode della proprietà di essere “conforme”, cioè
di conservare gli angoli misurati sulla superficie
terrestre e sulla rappresentazione. In base a questa
proprietà, sulla rappresentazione di Mercatore le
trasformate dei meridiani e dei paralleli si intersecano
ad angolo retto come sulla superficie terrestre.
Dopo aver riportato sulla rappresentazione
di Mercatore la posizione geografica dei sette santuari
e dopo averli graficamente collegati fra loro,
si evince visivamente che gli stessi si dispongono
secondo una linea retta che collega il punto che
rappresenta il Monastero di Skelling Michael con
quello di Haifa in Israele (vedi Fig.1).
Per fornire un riscontro rigoroso all’affermazione
che i sette santuari si dispongono secondo una
linea retta sulla rappresentazione di Mercatore, è
necessario però eseguire una serie di calcoli basati
sull’impiego di alcuni principi della statistica matematica
applicati ad un problema specificamente
di natura geometrica. La procedura di calcolo
e i risultati ottenuti sono riportati di seguito. I
risultati confermano quanto intuitivamente interpretato
visivamente sulla rappresentazione cartografica
di Mercatore.
MODELLO ANALITICO
Una delle proprietà della rappresentazione di
Mercatore è quella che garantisce che linee rette
sulla rappresentazione corrispondano alle cosiddette
linee “lossodromiche” sulla superficie terrestre.
Si ricorda che una linea lossodromica è la
curva descritta sulla superficie terrestre che interseca
i meridiani con lo stesso angolo definito sulla
rappresentazione di Mercatore dalla trasformata
dei meridiani e dalla retta considerata. Molto
usata nella navigazione marittima, consente ad un
Fig. 1 - La Linea Sacra di S. Michele (Aleteia.org)
natante di navigare da un porto ad un altro mantenendo
sempre lo stesso angolo di rotta.
La proprietà della curva lossodromica, che sulla
superficie terrestre unisce fra loro i sette santuari,
è pertanto quella di conservare lo stesso angolo di
direzione per i vari tratti.
L’esperimento numerico è stato condotto partendo
dalle coordinate geografiche (latitudine
e longitudine) dei sette santuari riportate da
Wikipedia (fonte Open Street Map, ellissoide
WGS84)
1.
2.
3.
4.
5.
Skelling Michael
Saint Michael’s Mount
Mont Saint Michel
Sacra di San Michele val di Susa
San Michele Arcangelo Gargano
6.
San Michele Arcangelo di Panormitis
7.
Monte Carmelo, Haifa
Tab. 1 Coordinate geografiche dei sette santuari, da Wikipedia
(sistema sessagesimale)
51°46’16’’ N 10°32’26’’ W
50°06’58’’ N 05°28’38’’ W
48°38’10’’ N 01°30’40’’ W
45°05’52” N 07°20’36” E
41°42’29” N 15°57’17” E
36°32’54” N 27°50’46” E
32°49’36” N 34°58’13” E
Fig.2 Rappresentazione di Mercatore. Le curve lossodromica (in verde) e
ortodromica (in rosso) (dm.unife.it)
GEOmedia n°6-2021 25
REPORT
1.
2.
Skelling Michael
Utilizzando una routine di calcolo del software
QGIS, sono state calcolate le coordinate cartografiche
nella rappresentazione di Mercatore dei
sette santuari.
Saint Michael’s Mount
3.
Mont Saint Michel
4.
5.
Sacra di San Michele val di Susa
San Michele Arcangelo Gargano
6725257.50 N -1173369.28 W
6433601.56 N -609721.59 W
6181254.95 N -168216.12 W
5606650.53 N 817456.13 W
5088911.03 N 1776071.55 W
6. San Michele Arcangelo di Panormitis 4350889.24 N 3099814.91 W
7.
Monte Carmelo, Haifa
3849157.82 N 3892873.52 W
Tab. 2 Coordinate cartografiche nel sistema di Mercatore dei
sette santuari (in metri)
Non conoscendo il grado di precisione e accuratezza
delle coordinate geografiche riportate su
Wikipedia e neppure il livello di semplificazione
del modello analitico utilizzato per trasformare le
coordinate nella rappresentazione di Mercatore,
è necessario procedere con un processo di calcolo,
il più possibile rigoroso, tale da evidenziare e
quantificare le possibili incertezze geometriche.
Come è ben noto, gli errori con i quali ogni prova
sperimentale deve confrontarsi sono essenzialmente
di tre tipi: accidentali, sistematici e grossolani.
I primi sono di piccola entità e fluttuano casualmente
attorno al valore vero. Gli errori sistematici
sono dovuti ad un errore di modellazione
del fenomeno o a una cattiva calibrazione delle
osservazioni. Gli errori grossolani sono dovuti alla
sbadataggine dell’operatore e la loro presenza è di
regola molto ridotta nel campione.
La classica teoria degli errori prevede di procedere
con il calcolo rigoroso dei parametri incogniti
del problema ipotizzando la presenza esclusiva di
errori accidentali nelle osservazioni, demandando
ad una verifica finale l’eventuale presenza di errori
di altra natura. Tale procedura è stata seguita
per verificare le caratteristiche geometriche della
Sacra Linea di San Michele.
Si è ipotizzata una linea retta congiungente i sette
santuari. L’equazione della retta è:
y-v = mx + q
dove x e y sono le coordinate di Mercatore (W e
N) dei sette punti;
m è il valore della tangente dell’azimut della retta;
q è il valore dell’intercetta per x = 0 (lungo il meridiano
di Greenwich)
v è il residuo incognito della coordinata y dovuto
alla presenza di errori.
Per stimare il valore delle incognite del problema
(m e q), è stato applicato ai residui il principio
statistico dei minimi quadrati (= min).
Il sistema di equazioni della retta risulta, in forma
matriciale:
(1)
che, in forma compatta, si può anche scrivere
AX=Y-V
Applicando la condizione = min si perviene
alla soluzione ai minimi quadrati del vettore X:
(2)
Il vettore contiene la stima ai minimi quadrati
della tangente dell’azimut della retta ( ) e dell’intercetta
( ).
Noto il vettore , è sempre possibile procedere
alla stima ai minimi quadrati delle coordinate di
partenza contenute nel vettore
(3)
al vettore dei residui incogniti
(4)
e allo scarto quadratico medio a posteriori delle
osservazioni (coordinate dei punti)
(5)
dove n è il numero delle equazioni (in questo
caso 7)
r è il numero delle incognite (in questo caso 2).
Un ulteriore parametro per definire la qualità
della stima è la cosiddetta matrice di varianza covarianza
del vettore delle incognite
(6)
da cui è possibile ottenere lo scarto quadratico
medio dei termini incogniti (m e q) come radice
quadrata dei termini diagonali della matrice .
E’ necessario infine verificare il tipo di distribuzione
degli scarti , ottenuti con la formula (4).
Ovvero è necessario verificare se gli scarti
seguono una distribuzione normale a media nulla,
confermando così sia la loro appartenenza alla
26 GEOmedia n°6-2021
REPORT
La teoria statistica afferma che se il valore standardizzato
così ottenuto è minore o uguale in
valore assoluto a |1,96|, allora si può concludere
che il residuo è distribuito normalmente a media
nulla e varianza 1, cioè appartiene alla categoria
degli errori accidentali, con un intervallo di confidenza
del 95%.
RISULTATI
Per verificare le caratteristiche geometriche della
linea che unisce i sette santuari sono stati condotti
alcuni esperimenti numerici che hanno fornito
i risultati riportati di seguito. Per semplificare le
operazioni di calcolo, tenuto anche conto della
probabile scarsa accuratezza delle coordinate geografiche
(latitudine e longitudine) dei sette punti,
dedotte da Wikipedia, i valori numerici delle
coordinate di Mercatore dei punti sono stati approssimati
al chilometro. Per tale ragione la precisione
finale dei risultati deve considerarsi limitata
al chilometro.
Applicando il modello analitico della retta, sono
stati calcolati la matrice dei coefficienti e il vettore
dei termini noti riportati nella formula (1). Dopo
aver applicato il principio dei minimi quadrati,
sono stati stimati con la formula (2) i parametri
incogniti della retta, [il valore della tangente dell’azimut
della retta (m) e l’intercetta (q)].
Mediante le formule (3), (4), (5) e (6), sono stati
poi calcolati ed estratti i termini diagonali della
matrice di varianza - covarianza delle incognite. La
radice quadrata di tali valori fornisce gli scarti quadratici
medi da associare al valore della tangente
dell’azimut della retta e al valore dell’intercetta.
Passando dal valore della tangente all’angolo di
direzione, si ottiene:
119°,4955 +/- 0°,2546
(in gradi sessadecimali)
mentre l’intercetta vale
6079 +/- 9 (in chilometri).
Per confermare la significatività di questi risultati,
dalle coordinate di Mercatore dei punti sono stati
calcolati manualmente, per ogni singolo tratto
della spezzata, i corrispondenti angoli di direzione.
Questi risultano essere (in gradi sessadecimali):
Az (1-2) = 117°,3590
Az (2-3) = 119°,7505
Az (3-4) = 120°,2403
Az (4-5) = 118°,3731
Az (5-6) = 119°,1408
Az (6-7) = 122°,3196
La media degli angoli di direzione e l’errore quadratico
medio della serie di valori sono:
Az(m) = 119°,5306 +/- 1°,5566
Si noti la corrispondenza fra la media dei singoli
tratti (119°,5306) e il valore risultante dal calcolo
rigoroso, ottenuto applicando il principio dei minimi
quadrati (119°,4955). Inoltre, moltiplicando
per 1,96 il valore dell’errore quadratico medio,
ed associando tale intervallo alla media Az(m), si
evince che tutti i valori degli angoli di direzione
ricadono entro tale intervallo, confermando il fatto
che tutti i valori si possono considerare affetti
da errori accidentali con un intervallo di confidenza
pari al 95%.
Ritornando al modello di calcolo rigoroso, l’analisi
successiva ha consentito di verificare l’appartenenza
dei residui delle equazioni ad una
distribuzione normale a media 0 e varianza 1. Il
vettore dei residui (in chilometri) calcolato con la
formula (3) risulta:
[-18, 9, 7, -10, 14, 25, -28]’
Si noti immediatamente l’entità dei residui dei
punti 7 e 8, ovvero i monasteri Panormitis sull’isola
di Simi e il Monte Carmelo vicino ad Haifa.
L’entità di tali valori sembrerebbe rigettare a prima
vista il modello di una retta che unisce i sette
santuari.
In realtà, procedendo con il calcolo dei residui
standardizzati, è stato possibile rifiutare tale ipotesi.
Con la formula (7) sono stati calcolati gli
scarti quadratici medi dei residui. Facendo il rapporto
dei residui e dei rispettivi scarti quadratici
medi, si ottengono i seguenti valori:
[-1,07; 0,53; 0,37; -0,53; 0,75; 1,47; -1,90]’
Come si può vedere anche i residui standardizzati
del monastero dell’Isola di Simi e del Monte
Carmelo sono inferiori al valore soglia di |1,96|,
garantendo l’appartenenza dei punti ad un’unica
retta sulla rappresentazione di Mercatore, con un
intervallo di confidenza del 95%.
Un’ulteriore caratteristica che viene attribuita alla
Linea Sacra di san Michele è il fatto che tutti i
sette punti siano allineati lungo la direzione del
tramonto del sole in occasione del solstizio estivo.
Il fatto che i punti si allineino sulla superficie terrestre
secondo una linea lossodromica, sembra ribadire
la veridicità di tale affermazione. In base ai
calcoli rigorosi sopra riportati, tale allineamento
dovrebbe verificarsi con un azimut di 119°,4955
a partire dalla direzione Sud in senso orario. Il
fatto di utilizzare la direzione Sud come origine
dell’azimut del tramonto del sole appartiene alla
cultura astronomica.
Attingendo da uno dei fogli elettronici presenti
su internet, è possibile, note le coordinate geo-
GEOmedia n°6-2021 27
REPORT
grafiche di un punto, il giorno e l’ora, calcolare la
posizione del sole in un dato istante (azimut ed
elevazione). Fissando a zero il valore dell’elevazione,
è possibile calcolare l’azimut al tramonto.
Di seguito sono riportati i valori dell’azimut del
sole al tramonto del 21 giugno 2021 (solstizio
estivo) per i sette punti della Linea Sacra di San
Michele calcolati con il foglio elettronico fornito
da centrometeo.com. (valori espressi in gradi sessadecimali).
Come si può notare, esiste una corrispondenza
sorprendente fra l’azimut della lossodromica
fornito dal calcolo rigoroso (119°,4955) e l’azimut
del tramonto del sole per i monasteri
di Panormitis, sull’isola di Simi, e sul Monte
Carmelo. Tale valore tende a variare sistematicamente
fino a raggiungere una deviazione massima
piuttosto un invito a mantenere nel corso della
nostra vita la medesima direzione, la medesima
condotta, auspicabilmente rivolta al bene, evitando
di sbandare e di perdere la retta via.
Il colpo di spada, la linea ortodromica, rappresenta
una scorciatoia, il percorso di minima lunghezza,
che non consente, in generale, di conservare la
stessa direzione di marcia.
RINGRAZIAMENTI
Si ringraziano i colleghi Alberto Beinat ed
Eleonora Maset per la collaborazione nella fase di
elaborazione dei dati.
Si ringrazia inoltre il prof. Luigi Tomasi dell'Università
di Ferrara per aver acconsentito l'utilizzo
dell'immagine riportata nella figura 2.
1. Skelling Michael 130°,85
2. Saint Michael’s Mount 129°,13
3. Mont Saint Michel 127°,76
4. Sacra di San Michele val di Susa 125°,05
5. San Michele Arcangelo Gargano 122°,69
6. San Michele Arcangelo di Panormitis 120°,04
7. Monte Carmelo, Haifa 118°,66
Tab. 3. Azimut (dal Sud in senso orario) del tramonto del sole il 21
giugno 2021 per i sette santuari della Linea Sacra di San Michele (in
gradi sessadecimali)
di 10° circa in corrispondenza dei monasteri inglese
e irlandese. Si tratta di un valore contenuto,
difficile da cogliere senza una strumentazione
adeguata, ma che, in ogni caso, indica una lieve
deviazione sistematica di allineamento della lossodromica
e della direzione di tramonto del sole
per i punti della Linea Sacra in occasione del solstizio
estivo.
CONCLUSIONI
Ritornando a considerazioni di natura mitologica,
la leggenda, che vorrebbe che la linea fosse
stata generata da un colpo di spada che San
Michele Arcangelo inflisse al Diavolo, è scarsamente
proponibile, in quanto il colpo di spada
avrebbe dato origine ad una curva “ortodromica”
e non lossodromica. La curva ortodromica (fig.
2), è la sezione normale alla superficie terrestre, di
minima lunghezza fra tutte le possibili linee congiungenti
i due estremi. Corrisponde al percorso
seguito dagli aerei per minimizzare il tempo di
percorrenza e risparmiare carburante.
Sembra quindi che il messaggio che metaforicamente
i sette santuari allineati vogliono darci sia
PAROLE CHIAVE
ortodromia, lossodromia, san michele, linea sacra
ABSTRACT
According to several sources, not from the cartographic
world, the Sacred Line of San Michele unites seven
dedicated shrines to the Archangel, from Ireland to Israel,
with a mysterious and suggestive straight line. The article,
after recalling the general arbitrariness of this statement
in a cartographic context, demonstrates in a manner
statistically strict that the Line Sacra di S. Michele actually
follows a straight line on the representation of Mercator,
thus proving the membership of the seven sanctuaries at a
rhumb line on the earth surface.
AUTORE
Fabio Crosilla
fabio.crosilla@uniud.it
Già Professore Ordinario
Dipartimento Politecnico di Ingegneria
e Architettura
Università di Udine
28 GEOmedia n°6-2021
REPORT
Tecnologie
per le Scienze
della Terra e del Mare
Strumenti ad alta tecnologia
anche a noleggio per:
Studio dei fondali e delle coste
Multibeam, SSS, SBP, sismica marina …
Ingegneria civile
Georadar 3D, laser scanner, inclinometri …
Studio del sottosuolo
Georadar, sismica, geoelettrica …
Monitoraggio ambientale
Magnetometri, elettromagnetismo,
sonde oceanografiche …
Monitoraggio sismico
Sismometri, strong motion, reti early warning …
CODEVINTEC
Tecnologie per le Scienze della Terra e del Mare
tel. +39 02 4830.2175 | info@codevintec.it | www.codevintec.it
GEOmedia n°6-2021 29
REPORT
Topografia Applicata al Soccorso:
la formazione del Vigile del Fuoco
di Daniele Mercuri
Il Servizio di Topografia
Applicata al Soccorso (TAS)
supporta l'attività del Corpo
Nazionale dei Vigili del
Fuoco con l'impiego di
un'informazione geografica
avanzata riferita allo
scenario emergenziale ed,
in particolare, agli scenari
che richiedono l'intervento
del Sistema nazionale di
protezione civile.
Da sempre chi si occupa
di emergenza guarda
all’innovazione tecnologica
come un settore fondamentale
per il miglioramento
degli interventi, cercando di
introdurre tali innovazioni nel
tessuto organizzativo del soccorso
tecnico urgente.
E’ il caso del sistema satellitare
globale di navigazione,
(global navigation satellite
system, acronimo GNSS) un
sistema di geo-radio-localizzazione
e navigazione, in
grado di fornire un servizio di
posizionamento geo-spaziale
a copertura globale, e del sistema
informativo geografico,
(Geographic information
system, acronimo GIS) un sistema
informativo computerizzato
in grado di associare dati
alla loro posizione geografica
sulla superficie terrestre, analizzarli,
elaborarli, condividerli
e restituirli in elaborati grafici
o presentazioni.
Queste nuove tecnologie sono
utilizzate a supporto delle
esigenze interventistiche del
Corpo Nazionale dei Vigili
del Fuoco. Infatti dall’esperienza
maturata durante le
grandi emergenze: l’ultimo
sisma dell’Italia Centrale, l’emergenza
della nave “Costa
Concordia” e la tragedia di
“Rigopiano”, sono solo alcuni
degli esempi da poter annoverare,
in occasione dei quali si
è evidenziato come l’impiego
di tali tecnologie siano state di
grande utilità per la gestione
delle risorse umane e squadre
specialistiche, per la gestione
dei mezzi tecnici e per il raggiungimento
diretto dei luoghi
di intervento riducendo sensibilmente
i tempi di intervento,
consentendo inoltre la velocizzazione
e l’ottimizzazione
dei rapporti con altre amministrazioni
ed enti, accrescendo
la sicurezza degli operatori del
soccorso, generando in definitiva
una risposta più efficiente
nell’ambito del soccorso tecnico
urgente.
Come si interveniva prima
dell’avvento di tali tecnologie?
Cosa fare però se l’intervento
era al di fuori dell’area urbana?
Si consultava una carta topografica
o escursionistica e da
questa si risaliva alle informa-
30 GEOmedia n°6-2021
REPORT
zioni necessarie per raggiungere
il luogo dell’intervento. Queste
carte risultavano talvolta di difficile
interpretazione, oltre che
complicate da reperire e gestire.
Il linguaggio comune di tutti
questi sistemi fin ora visti,
compresi quelli più tradizionali
come le carte topografiche, è
quello delle Coordinate, utilizzate
nella determinazione in
modo univoco della posizione
di un punto sulla superfice terreste.
La conoscenza cartografia, le
coordinate in primis, l’utilizzo
della tecnologia GNSS, in
particolare il sistema GPS e
l’impiego di supporti informatici
per la gestione dei dati,
sono gli elementi alla base
dell’attuale modo di operare
ed hanno consentito l’introduzione
nell’ambito del Corpo
Nazionale dei Vigili del Fuoco
della Topografia Applicata al
Soccorso acronimo T.A.S., il
cui obbiettivo formativo è quello
di fornire ai Vigili del Fuoco
un impiego professionale di
tali strumenti nell’ambito della
pianificazione e della gestione
degli interventi di soccorso.
Il corso T.A.S. prevede due
Lezione T.A.S., un momento della formazione in aula
livelli di apprendimento ed il
primo livello è quello rivolto al
personale allievo dei vigili del
fuoco.
È incentrato sulla conoscenza
del concetto di coordinate che
permette poi di affrontare l’utilizzo
delle carte topografiche
e successivamente quello del
sistema GPS. Un corso teorico-
pratico strutturato sulla realtà
interventistica e mirato a far
comprendere al discente l’importanza
di queste conoscenze
per il soccorso tecnico e per la
sicurezza dell’operatore stesso.
Si analizzano, in aula e successivamente
in ambiente, le
procedure operative standard
per intervento di soccorso
Topografia applicata al soccorso, redazione di carte tematiche
GEOmedia n°6-2021 31
TELERILEVAMENTO
REPORT
Obiettivi del Corso per
Allievi Vigili del Fuoco:
Interpretare ed utilizzare
correttamente una carta
topografica; utilizzare
correttamente gli strumenti
di carteggio GPS,
bussola, altimetro; muoversi
in ambienti impervi
o sconosciuti in e con
sicurezza; applicare il sistema
ICS negli scenari
operativi; saper utilizzare
i programmi informatici
cartografici GIS; sapere
il quadro legislativo riferito
al soccorso tecnico
urgente.
come ad esempio la ricerca a
persona dispersa, mettendo in
campo quelle conoscenze che
permettono ad ogni operatore
di entrare in un bosco, svolgere
in team la propria attività in
un determinata zona assegnata
e di rientrare all’unità di comando
avanzato, certificando
il lavoro svolto. Un modo di
operare che rende l’operatore
consapevole della sua posizione
attimo dopo attimo e che al
tempo stesso consente di lasciare
traccia dell’attività svolta
riferita ad una base cartografica
di riferimento per mezzo di coordinate.
Perché tutto funzioni
bene è necessario parlare la
stessa lingua ovvero quella delle
coordinate geografiche, questo
rende il T.A.S. una delle materie
base per il Corpo Nazionale
dei Vigili del Fuoco a supporto
dell’attività delle discipline interne
quali l’attività di soccorso
con tecniche di derivazione
Speleo Alpino Fluviale e Unità
Cinofile per “ricerca persona
dispersa”, Emergenze Post
Sisma per la realizzazione di
mappe tematiche fondamentali
per la pianificazione e la verifica
dell’attività svolta.
PAROLE CHIAVE
T.A.S.; Topografia applicata; soccorso;
protezione civile; vigili
del fuoco
ABSTRACT
The Italian T.A.S. (Applied
Topography to Rescue Service)
supports the activities of the
National Fire Brigade with the
use of advanced geographical
information referring to the
emergency scenario and, in
particular, to the scenarios that
require the intervention of the
National System of civil protection.
The training focuses on
the knowledge of the concept of
coordinates which then allows to
deal with the use of topographic
maps and subsequently that of
the GNSS system. A theoreticalpractical
course structured on
interventional reality and aimed
at making the learner understand
the importance of this
knowledge for technical rescue
and for the safety of the operator
himself.
AUTORE
Daniele Mercuri, ingegnere
VICE COMANDANTE DELLE
SCUOLE CENTRALI ANTIN-
CENDI VV.F.
daniele1.mercuri@vigilfuoco.it
MONITORAGGIO 3D
GIS E WEBGIS
www.gter.it info@gter.it
32 GEOmedia n°6-2021
GNSS
FORMAZIONE
RICERCA E INNOVAZIONE
XXIV TH
CONGRESS OF THE INTERNATIONAL SOCIETY
FOR PHOTOGRAMMETRY AND REMOTE SENSING
NICE, FRANCE
6 - 11 JUNE 2022
Don't miss the major meeting of
the Geospatial Community
www.isprs2022-nice .com
PLATINUM GOLD SILVER BRONZE
REPORT
Topo4qgis-un plugin per QGIS utile all'elaborazione
di libretti PreGeo e alla trattazione di liste di punti
mediante opportuna rototraslazione ai minimi quadrati
di Marco Lombardi, Gianluca Beccaria
"sarebbe utile poter elaborare i
libretti PreGeo su di un GIS, così
da poter valutare la bontà del
rilievo eseguito dal Professionista,
proiettandolo su foto aeree o
basi cartografiche, al netto degli
aggiustamenti introdotti in fase
di redazione della proposta di
aggiornamento cartografica":
da questa frase scambiata
nel gennaio 2020 tra l'allora
responsabile del settore PreGeo
dell'Ufficio Provinciale di Roma -
Territorio, il Geometra Giovanni
Camponeschi e l’Architetto
Marco Lombardi, nasce l'idea di
recuperare il plug-in topog4qgis,
pubblicato nel 2013 per QGIS
(versioni 2.xx) con licenza FOSS
dall'Architetto Giuliano Curti e da
Giuseppe Patti.
Fig. 2 - Menu di Elaborazione del rilievo.
Fig. 1 – topog4qgis – rilievo rototraslato.
Ma cos’è topog4qgis? E’
un plug-in topografico
gratuito per QGIS,
utile alla rototraslazione ai minimi
quadrati di rilievi su rete di
capisaldi (PSR o trigonometrici)
o di Punti Fiduciali (PF) così
come introdotti dalla Circolare
n.2/1988, rilevati durante le operazioni
di rilievo sul campo.
Il plug-in supporta il formato
DAT, come definito a partire
dalla già citata Circolare ma accetta
anche il libretto delle misure
contenuto nella modulistica PDF,
generata dal software PreGeo.
topog4qgis può anche trattare
liste di punti in formato CSV
(con schema: nome;x;y;z;note),
eventualmente già elaborate da
altri software topografici.
I capisaldi o punti fiduciali su
cui il rilievo verrà rototraslato,
possono essere desunti dal
file TAF rilasciato dall’Ufficio
Provinciale o attraverso un elenco
di punti in formato .csv fornito
dall’utente, anche in questo
caso sarà un file con schema:
nome;x;y;z;note.
Il rilievo, una volta rototraslato
sarà automaticamente salvato
su layers di tipo puntuale e
potrà essere visualizzato su basi
cartografiche scelte dall'utente,
opportunamente georeferite,
proiettando i layers nel corretto
sistema di riferimento attraverso
i tools presenti in QGIS.
Teoria e tecnica
La trattazione dei libretti avviene
in maniera totalmente automatica
a seconda della tipologia
di rilievo contenuta tra le righe:
un rilievo celerimetrico definito
da riga 1 (stazione) e riga 2
34 GEOmedia n°6-2021
REPORT
(osservazione), un rilievo GNSS
o un rilievo misto contenente
quindi stazioni celerimetriche
e le corrispondenti osservazioni
GNSS del punto di stazione
e di orientamento. La giusta
modalità di elaborazione viene
scelta approcciando all'analisi
del libretto attraverso uno flusso
condizionato a blocchi dove
ogni casistica viene trattata con
un apposito algoritmo.
Gli algoritmi per la trattazione
dei dati celerimetrici sono stati
scritti partendo dallo studio dei
testi sacri delle topografia classica
mentre per la trattazione delle
osservazioni GNSS si è fatto
ampio uso di quanto riportato
nei capitoli relativi alle trasformazioni
geocentriche e topocentriche
per dati WGS84 contenute
nella IOGP Publication
373-7- 2 – Geomatics Guidance
Note number 7, part 2 –
September 2019.
La rototraslazione ai minimi
quadrati del rilievo in formato
PreGeo o della lista di punti sui
capisaldi avviene attraverso l'esecuzione,
in ordine, delle seguenti
quattro operazioni: calcolo dei
4 parametri di rototraslazione
ai minimi quadrati, esecuzione
della matrice di rotazione e esecuzione
della matrice di traslazione;
in particolare l'algoritmo
di calcolo dei 4 parametri restituisce:
1) la traslazione sull'asse
delle ascisse dei punti del rilievo
(locale) rispetto alla cartografia,
2) la traslazione sull'asse delle
ordinate dei punti del rilievo
(locale) rispetto alla cartografia,
3) l'angolo di rotazione tra il
"sistema di coordinate" del rilievo
(locale) e il "sistema di coordinate"
della cartografia e 4) il
fattore di scala tra i due "sistemi
di coordinate".
Il plug-in topog4qgis, a differenza
di PreGeo, non effettua
invece il calcolo degli scarti
quadratici metrici delle singole
Fig. 3 - Avvenuta rototraslazione del rilievo e layers creati.
osservazioni e non tratta i dati
altimetrici combinandoli con
quelli contenuti nella TAF,
quindi le quote restituite dall'elaborazione
sono calcolate a
partire dai dati contenuti nella
baseline GNSS definita con riga
1 o calcolate in maniera assoluta
partendo dalla prima stazione
celerimetrica usando i dati contenuti
nelle osservazioni.
Utilizzo in campo
La prima operazione è quella di
importare il libretto PreGeo (in
formato PDF o DAT) attraverso
l’apposita voce contenuta nel
menu File. La versatilità d’uso
di topog4qgis si apprezza già in
Fig. 4 - Panoramica delle funzionalità presenti nel plugin.
questa fase poichè senza alcun
intervento da parte dell’utente
il libretto, sia esso celerimetrico
o misto celerimetrico-gnss o
solamente gnss, viene elaborato
in maniera completamente automatica
andando a considerare
anche gli eventuali contorni
(riga 7) o allineamenti e squadri
(riga 4 e 5) presenti nel listato.
La seconda operazione è quella
dell’importazione, ai fini della
rototraslazione, delle coordinate
dei PF collimati in campo
e questo avviene andando a
scegliere il file TAF relativo
alla provincia su cui si sta operando
dall’apposita funzione
raggiungibile dal menu "File".
GEOmedia n°6-2021 35
REPORT
Tra le funzioni utili troviamo
anche la possibilità di importare
l’estratto di mappa digitale
fornito dall’Ufficio Provinciale
in formato ascii su file “.emp”
come base o per eventuali verifiche
e considerazioni sulle
geometrie in esso contenute.
Eseguito l'import delle coordinate
dei PF può essere eseguita
la rototraslazione ai minimi
quadrati del rilievo elaborato
attraverso la voce "Rototrasla
su PF/PSR" presente nel menu
"Elaborazione".
A questo punto è utile però fare
un'osservazione: topog4qgis
non è in grado di riconoscere
se stiamo trattando un rilievo
appartenente allo spazio definito
da un sistema cartografico
Cassini-Soldner o Gauss-Boaga
perchè è un “calcolatore” o meglio
“un esecutore di istruzioni”
i cui risultati non sono altro che
punti, individuati con coordinate
cartesiane, appartenenti ad
un sistema locale che possiamo
considerare "indefinito".
Il punto di contatto tra il rilievo
elaborato e rototraslato nel
sistema locale e la cartografia
di destinazione sta nella definizione
del sistema di riferimento
(meglio conosciuto in ambiente
QGIS come “SR”). Definito
Fig. 5 - Menu relativo al trattamento dell'archivio TAF.
il corretto riferimento sarà poi
QGIS, attraverso i suoi tools
interni, ad occuparsi della trasformazione
tra diversi sistemi.
La conoscenza del sistema di riferimento,
soprattutto nel caso
di un Cassini-Soldner, mette in
condizione il Professionista di
dover approfondire il contesto
ove andrà a lavorare attraverso
lo studio delle cartografie d’impianto
e delle monografie dei
trigonometrici (purtroppo non
sempre di facile reperibilità) che
lo porterà ad individuare correttamente
l’origine locale, un
passaggio questo che sottolinea
il legame che esiste, semmai
ci fosse ancora il bisogno di
ricordarlo, tra conoscenza e innovazione
tecnologica il quale
passa, in questo caso, attraverso
la figura del Geometra quale
esperto del luogo in cui andrà
ad operare.
Il plug-in topog4qgis per questa
fase del lavoro contribuisce ad
alimentare il bisogno di un ritorno
ad una conoscenza che in
molti casi si è andata perdendo
a causa di tutti gli automatismi
che oggi ci sono in topografia.
A questo punto, attribuita la
corretta proiezione al nostro
progetto, vedremo su layers opportunamente
separati il rilievo
collimato sui PF o sui PSR, i
PF desunti dalla TAF o i PF/
PSR desunti da file di testo e
l'eventuale estratto di mappa digitale.
Questa visione globale ci
permetterà, anche graficamente,
di apprezzare la bontà dei PF e
delle loro coordinate.
Continuando sulla questione
PF, non dimentichiamoci che
il sistema introdotto a partire
dalla Circolare n.2/88 ha il suo
"zoccolo duro" nel collaudo
del Tipo (di Frazionamento o
Mappale) attraverso le misurate
presenti nell'archivio dell'Agenzia
e NON nelle coordinate
dei PF le quali che vengono
solamente usate nel processo di
rototraslazione. Purtroppo però,
molto spesso le coordinate dei
PF presenti sulla TAF sono affette
da errori e questi, in fase
di elaborazione fanno si che il
rilievo venga proiettato in posizione
distante anche rispetto
a quella corretta sia in PreGeo
che in QGIS.
Il plug-in topog4qgis si rileva
quindi utile anche a controllare
la distorsione cartografica,
infatti se utilizzato durante il
rilievo in campo si avrà anche la
possibilità di valutare la qualità
dei PF collimati e eventualmente
decidere di usarne degli altri
senza dover necessariamente
tornare una seconda volta sul
posto (che magari si trova lontano
centinaia di chilometri
da casa), con lo stesso criterio
si ha la possibilità di scegliere
in itinere punti vertice o punti
direzione da collimare in fase di
rilievo come punti di aggancio
per il successivo adattamento
cartografico durante la stesura
della proposta cartografica che
avverrà in PreGeo.
Il limite di topog4qgis nella
sua attuale versione (0.3.7) è
quello non gestire la rototraslazione
in presenza di PF riferiti
ad origini tra loro diverse ma
si potrà comunque proiettare
36 GEOmedia n°6-2021
REPORT
il rilievo su cartografia georeferita
in WSG84 qualora
nel libretto “.dat” PreGeo sia
presente una baseline gps/gnss
valida. L'informazione sulla
baseline gps/gnss potrà essere
utilizzata ai fini del calcolo richiamando
l'apposita funzione
di proiezione presente del menu
"Elaborazione".
Conclusioni
Al momento topog4qgis viene
utilizzato anche in contesti
diversi e con finalità diverse da
quelle per cui è stato pensato
dagli autori, viene infatti usato,
in via sperimentale, dall’unità
patrimonio edilizio di una società
operante nel settore energetico
per raccogliere in unico
database geografico gli aggiornamenti
cartografici, aventi ad
oggetto l’inserimento in mappa
dei propri fabbricati eseguiti
con procedura PreGeo.
Il plug-in viene anche utilizzato,
sempre in via sperimentale,
da alcuni uffici tecnici comunali
per la verifica dei Tipi di
Frazionamento depositati in via
telematica ai sensi dell’art.30
co.5 del D.P.R. 380/01. Per
questo utilizzo topog4qgis è
riuscito a rispondere alla necessità
di visualizzare la particella
oggetto di frazionamento sulla
base cartografica (prescrittiva e
gestionale) in possesso dell’Amministrazione.
I due utilizzi “alternativi” sopra
descritti denotano la versatilità
del plug-in anche in conseguenza
dei sempre più disponibili
dataset cartografici e lasciano
sperare che nel suo ciclo di
vita,il software, possa beneficiaredi
contributi di diversa
natura.
Ad oggi topog4qgis viene sviluppato
e testato su base completamente
gratuita volontaria, il
suo punto di forza è certamente
la licenza FOSS con cui viene
pubblicato il software e il codice
sorgente, questo ne ha permesso
infatti la rinascita a distanza di
sette anni dall'ultima versione
pubblicata dall'Architetto
Giuliano Curti. Inoltre la gratuità
del plug-in ha dato luogo alla
spontanea costituzione di una
comunità di utilizzatori, composta
in gran parte da Geometri,
i quali comunicano allo sviluppatore
input utili allo studio e
all'implementazione di nuove
funzionalità.
Proprio dai feedback ricevuti
dalla comunità è nata una funzionalità
a partire dalla versione
0.3.6, si tratta di uno strumento
utile per lo studio preliminare
dei Punti Fiduciali oggetto di rilievo
introducendo la possibilità
di importare su QGIS il file TAF
direttamente dal menu File.
Una volta scelto l'archivio provinciale,
in formato TAF, presente
sul nostro PC, una finestra
ci mostrerà l'elenco dei comuni
presenti al suo interno. Scelto il
comune da importare in QGIS
basterà cliccare su "Crea layer
con il Comune selezionato" per
avere un layer di punti dove ogni
PF completo di monografia sarà
individuato graficamente con un
triangolo verde.
Possiamo inoltre indicare a
topog4qgis di creare un layer
contenente solamente i PF privi
di monografia e questi verranno
graficamente individuati
con un triangolo rosso e con
gli "Strumenti di Geometria"
disponibili in QGIS possiamo
a questo collegare i punti con
il metodo di Delaunay così da
avere l'evidenza dei PF c.d. "di
primo perimetro" (definizione
contenuta nella già citata
Circolare n.2/1988) rispetto alla
nostra area oggetto di rilievo.
E qualora fossimo già in possesso
dell'estratto di mappa
digitale (non sempre nella disponibilità
del tecnico prima
del rilievo) possiamo importarlo
per avere l'evidenza dei PF senza
monografia o con coordinate
cartografiche diverse da quelle
presenti nella TAF.
Risulta utile ricordare che
già dalle ultime versioni di
topog4qgis il file relativo all'estratto
di mappa digitale può
essere importato dal menu
Funzioni e gli eventuali PF con
coordinate cartografiche diverse
da quelle presenti in TAF
verranno automaticamente
rappresentati con un triangolo
di colore viola. Questo tipo di
verifica preliminare eviterà il
Fig. 6 - Immagine relativa ad un caso pratico, dove uno dei PF era privo di monografia e con coordinate cartografiche
diverse da quelle contenute nella TAF e quindi l'oggetto del rilievo risultava negativamente influenzato
dal PF errato. Il risultato è stato ottenuto utilizzando la funzionalità per il trattamento dell'archivio TAF
e attraverso gli "Strumenti di Geometria" disponibili in QGIS con cui si sono generati i triangoli fiduciali.
GEOmedia n°6-2021 37
REPORT
problema dello scarto automatico
del libretto delle misure da
parte del sistema informatico in
uso presso l'AdE - Territorio per
"PF di primo perimetro fuori
dal rilievo".
L'augurio che vogliamo fare a
topog4qgis è quello di continuare
ad essere scaricato e utilizzato
(soprattutto dai giovani),
studiato e ulteriormente sviluppato
da appassionati come noi
alla materia topografica, cartografica
e catastale. Appassionati
che come noi sposano l'idea che
la condivisione della conoscenza
e la presenza di applicazioni
gratuite e open source siano
un volano utile per tutti quei
giovani che si avvicinano alla
professione ma che desistono
perché scoraggiati dall'alto costo
dei software e delle attrezzature
topografiche.
RIFERIMENTI
Pagina ufficiale sul repository QGis -> https://plugins.qgis.org/plugins/topog4qgis/
Blog ufficiale - > https://topog4qgis.wordpress.com/
PAROLE CHIAVE
catasto; pregeo; qgis; rototraslazione; Open Source
minimi quadrati
ABSTRACT
topog4qgis is a QGis 3 plugin for the italian cadastre update procedure (PreGeo)
that allowing the user to manage classical surveys and gps or points list (.csv files).
Least mean square method georeferencing the survey in an absolute official geographic
space is allowed by measuring, during surveys, the trigonometrical points
and by using the official map from the cadastre database (.edm files) or by reading
the trigonometricals table (.taf files). Surveying of delimiting lines (e.g. between
particles, or delimiting a building) is correctly interpreted by the plugin.
Please note that this plugin is mainly related to datas provided by the italian
surveying agency (former Agenzia del Territorio is now Agenzia delle Entrate), and
its use is then strictly limited to the italian country but use of points lists (.csv files)
allows to use for other country with the same cadastre cartografy system.
Autore
Marco Lombardi,
marco.lombardi.rm@gmail.com
Architetto
Gianluca Beccaria
geom.beccaria@gmail.com
Geometra
38 GEOmedia n°6-2021
REPORT
Tecniche di rilievo integrato
per processi Scan-to-BIM
di Mauro Lo Brutto
Utilizzo del processo HBIM
(Historic o Heritage - Building
Information Modeling)
applicato a edifici di valore
storico e architettonico,
combinato con l’approccio
Scan-to-BIM attraverso
l’esecuzione di moderne
tecniche di rilievo integrato
3D nel caso di studio della
“Real Cantina Borbonica" di
Partinico (PA).
Fig. 1 - Facciata principale della "Real Cantina Borbonica".
Negli ultimi anni, l'innovazione
tecnologica
per la pianificazione,
la gestione e la conservazione
degli edifici è stata notevolmente
potenziata dall'approccio
BIM (Building Information
Modeling). Come è noto il BIM
è usato per definire un processo
collaborativo per la realizzazione
e la gestione di un edificio o di
una infrastruttura durante il suo
intero ciclo di vita, dalla pianificazione
alla demolizione. Il BIM
è stato originariamente sviluppato
come un processo per il settore
delle nuove costruzioni, ma in
considerazione dei notevoli benefici
per i settori dell'architettura,
dell'ingegneria e delle costruzioni
(Architectural, Engineering and
Construction - AEC) il suo impiego
è stato esteso con successo
anche per gli edifici esistenti,
specialmente per quelli storici.
Quando il processo BIM è applicato
a edifici di valore storico
e architettonico viene in genere
definito con l’acronimo HBIM
(Historic o Heritage - Building
Information Modeling).
Per lo sviluppo di un HBIM è
però necessario far precedere la
fase di modellazione parametrica,
tipica del processo BIM, da un
rilievo 3D per acquisire tutti i
dati geometrici utili alla produzione
del modello tridimensionale
as-built dell'edificio stesso
(Murphy et al., 2017). Questo
approccio è chiamato Scan-to-
BIM e prevede l'utilizzo di moderne
tecniche di rilievo 3D (laser
scanner e/o fotogrammetria)
che permettono la generazione
di nuvole di punti utilizzate per
la successiva fase di modellazione
parametrica (Wang et al, 2019).
L’approccio Scan-to-BIM (cioè
il processo di creazione di un
modello informativo parametrico
dell'edificio da una nuvola di
punti) è una delle maggiori sfide
nello sviluppo dell'HBIM che
può però presentare alcune difficoltà
dovute sia alla fase di rilievo
3D che alla fase di modellazione
parametrica. Le dimensioni e la
complessità architettonica dell'edificio,
così come la situazione
logistica, spesso condizionano
il rilievo 3D; le forme degli elementi
architettonici delle architetture
storiche, più particolari
rispetto a quelle dell’architettura
moderna, e la conseguente
mancanza di appropriati oggetti
parametrici o "famiglie" nella
libreria del software BIM potrebbero
rendere la modellazione
parametrica molto più difficile o
addirittura impossibile.
Per l'acquisizione dei dati 3D,
l'integrazione di diverse tecniche
e l’utilizzo di diverse "strategie"
40 GEOmedia n°6-2021
REPORT
di rilievo sono spesso essenziali
per superare le difficoltà logistiche,
soprattutto quando gli
oggetti da rilevare sono edifici
complessi o si trovano in luoghi
dove è difficile operare (per
esempio all’interno dei centri
storici). In genere, una delle
strategie di rilievo più utilizzate
prevede che l'acquisizione dei
dati 3D dell'interno dell'edificio
possa essere effettuata tramite un
rilievo laser scanner mentre i dati
dell'esterno vengano ricavati con
rilievi laser scanner e/o fotogrammetrici
soprattutto tramite UAS
(Unmanned Aircraft Systems)
(Rocha et al., 2020).
Uno dei problemi più comuni
nell'acquisizione dei dati durante
un processo Scan-to-BIM è
comunque quello di collegare i
rilievi effettuati all'interno con
quelli all'esterno dell'edificio, soprattutto
in tutti quei casi in cui
le aperture o i passaggi tra interno
ed esterno sono molto limitati
(Murtiyoso e Grussenmeyer,
2018). La corretta unione delle
nuvole di punti generate per
l'interno con quelle ottenute
per l'esterno è un passo molto
importante per garantire l’esatta
ricostruzione della geometria
complessiva dell'edificio.
Per verificare approcci basati
sull'integrazione di diverse tecniche
di rilievo (topografia, fotogrammetria
e laser scanning)
che migliorino la fase di acquisizione
dei dati nel processo
Scan-to-BIM è stato sperimentato
un metodo di rilievo basato
esclusivamente su un vincolo
topografico per unire nello stesso
sistema di riferimento tutti i
dati acquisiti (nuvole di punti
laser scanner, nuvole di punti
fotogrammetriche). Questo
metodo è stato applicato per
realizzare il modello parametrico
HBIM della “Real Cantina
Borbonica” di Partinico in provincia
di Palermo.
La "Real Cantina Borbonica"
di Partinico costruita per ordine
del re Ferdinando I di
Borbone tra il 1800 e il 1802
rappresenta un singolare esempio
dell'architettura industriale
avanzata dell'epoca. L’edificio
ha una pianta rettangolare di
circa 1000 m2 (circa 36 metri
in lunghezza per 26 m in larghezza)
ed è composto da un
corpo principale più una parte
secondaria (sul lato sud-est)
che era pre-esistente rispetto al
corpo principale. Il corpo principale
dell’edificio è diviso in
tre navate sostenute da pilastri e
archi. La navata destra e quella
centrale sono aperte (Fig. 1),
mentre la navata sinistra è stata
chiusa con un muro.
L'acquisizione dei dati è stata
pianificata eseguendo un rilievo
topografico finalizzato a misurare
una poligonale topografica
chiusa all’esterno dell'edificio,
un rilievo laser scanning per
acquisire una nuvola di punti
degli ambienti interni e un rilievo
fotogrammetrico da UAS
per ottenere una nuvola di
punti delle parti esterne dell'edificio.
Il risultato del rilievo
doveva essere una nuvola di
punti unica dell’intero edificio
con una risoluzione inferiore
ad 1 centimetro e utilizzabile
per le successive operazioni di
Fig. 3 – Fasi del rilievo laser scanner all’esterno e all’interno dell’edificio.
Fig. 2 - Interno della "Real Cantina Borbonica".
modellazione. L'aspetto più critico
del rilievo era rappresentato
dal collegamento tra l'ambiente
interno e quello esterno. Questo
collegamento poteva essere fatto
solo attraverso i due ingressi nella
facciata principale (Fig. 2).
La poligonale topografica esterna,
GEOmedia n°6-2021 41
REPORT
Fig. 4 - Schema della poligonale topografica esterna (in rosso) e della poligonale
laser scanner (in giallo).
misurata con una stazione totale,
era composta da 12 vertici ed è
stata calcolata in un sistema di riferimento
locale ottenendo scarti
quadratici medi delle coordinate
nell’ordine di qualche millimetro
sia in planimetria che in quota.
La poligonale topografica è stata
utilizzata per definire un sistema
di riferimento comune per tutti
i dati e per misurare i Ground
Control Points (GCPs) e i Check
Points (CPs) per il rilievo fotogrammetrico.
Fig. 5 - Schema di prese per il rilievo fotogrammetrico da UAS.
Il rilievo laser scanner è stato
eseguito con uno strumento
Topcon GLS-2000; sfruttando
l'approccio topografico per la
registrazione delle scansioni disponibile
con questo strumento,
il rilievo laser scanner è stato
eseguito in modo tale che tutti i
punti di scansione fossero collegati
per formare una poligonale
topografica interna all’edificio
(Fig. 3). La poligonale laser scanner
è stata realizzata imponendo
che due punti di scansione
fossero posizionati all'esterno
dell'edificio in corrispondenza
di due vertici della poligonale
topografica (il primo vertice della
poligonale e il punto di orientamento
della poligonale) (Fig. 4).
Le scansioni sono state quindi
registrate automaticamente in
fase di acquisizione. Questo
metodo consente di utilizzare il
laser scanner come strumento
topografico e ha il vantaggio di
permettere il collegamento di
scansioni senza elevate percentuali
di aree comuni. L'approccio
topografico nella registrazione
delle scansioni laser rappresenta
un metodo particolarmente utile
per superare i problemi di allineamento
tra le scansioni all'interno
e all'esterno degli edifici.
Inoltre, consente anche di avere
tutti i dati laser scanner già in
fase di acquisizione nello stesso
sistema di riferimento topografico
utilizzato per le altre tecniche
di misura (rilievo topografico e
fotogrammetrico).
Per completare il rilievo 3D della
"Real Cantina Borbonica", è stato
necessario eseguire le acquisizioni
laser scanner anche del lato
sud-est. Questo è composto da
diverse stanze al piano terra non
accessibili dalla sala principale e
da un portico esterno superiore.
L'acquisizione dei dati di questi
spazi è stata effettuata con un
laser scanner Faro Focus 120 S
applicando la tipica metodologia
di scansione laser (diverse scansioni
con un'alta percentuale di
sovrapposizione per garantire una
corretta registrazione).
L'elaborazione e l'allineamento
delle scansioni acquisite con il
laser scanner GLS-2000 sono
stati eseguiti con il software
MAGNET Collage di Topcon.
Con questo software, è stato possibile
gestire i dati della poligonale
laser scanner correggendo i
piccoli errori di allineamento che
si erano verificati durante l'acquisizione.
Inoltre, è stato anche
possibile eseguire l’allineamento
42 GEOmedia n°6-2021
REPORT
tramite procedure automatiche
delle nuvole di punti non direttamente
collegate alla poligonale
laser scanner.
Il rilievo fotogrammetrico è stato
effettuato utilizzando un UAS
per rilevare tutte le parti esterne
dell'edificio. Per l'acquisizione
delle immagini è stato utilizzato
un multirotore ultraleggero, che
ha permesso di sorvolare le aree
di studio superando le restrizioni
imposte dai regolamenti ENAC.
Sono state utilizzate diverse configurazioni
di presa per rilevare il
tetto e le facciate: un volo nadirale
per il tetto, due voli circolari
con prese oblique per il tetto e le
facciate, e voli con una vista parallela
delle facciate (Fig. 5).
Il rilievo ha permesso di ottenere
una nuvola di punti complessiva
dell'edificio a partire da due
nuvole di punti perfettamente
sovrapponibili; una dell'interno
ottenuta dal rilievo laser scanner
e una dell'esterno ottenuta dal rilievo
UAS (Fig. 6). Le due nuvole
di punti sono state sovrapposte
e unite semplicemente in base
alle loro coordinate. I controlli e
le verifiche eseguite sulla nuvola
di punti complessiva (soprattutto
lungo sezioni orizzontali e verticali)
non ha evidenziato anomalie
o discordanze dal punto di
vista geometrico, confermando la
bontà dell’approccio adoperato.
La nuvola di punti finale è stata
quindi utilizzata per la modellazione
parametrica in ambiente
BIM utilizzando il software Revit
di Autodesk. Ogni elemento
architettonico dell'edificio è
stato ricostruito come elemento
parametrico usando le informazioni
della nuvola di punti. La
modellazione parametrica degli
elementi architettonici non è
risultata così semplice poiché
molti elementi avevano spesso
forme uniche che le tipiche
librerie BIM non includono.
Per questo motivo, sono state
create nuove famiglie per alcuni
elementi architettonici come
porte, finestre e volte. Il prodotto
finale è rappresentato dal modello
parametrico HBIM della
Real Cantina Borbonica (Fig.
7). Questo modello costituisce
la base geometrica per qualsiasi
futuro intervento di manutenzione
e restauro dell’edificio che
può essere progettato e gestito in
ambiente HBIM.
Fig. 6 - Sovrapposizione delle due nuvole di punti relative all’interno
e all’esterno dell’edificio per ottenere la nuvola di punti
complessiva.
BIBLIOGRAFIA
Lo Brutto, M., Iuculano, E., and Lo Giudice, P.:
INTEGRATING TOPOGRAPHIC,
PHOTOGRAMMETRIC AND LASER SCANNING
TECHNIQUES FOR A SCAN-TO-BIM PROCESS,
Int. Arch. Photogramm. Remote Sens. Spatial Inf.
Sci., XLIII-B2-2021, 883–890, https://doi.org/10.5194/
isprs-archives-XLIII-B2-2021-883-2021, 2021
Murphy, M., Corns, A., Cahill, J., Eliashvili, K.,
Chenau, A., Pybus, C., Shaw, R., Devlin, G., Deevy, A.,
and Truong-Hong, L., 2017. Developing historic build-ing
information modelling guidelines and procedures for
architectural heritage in Ireland. Int. Arch. Photogramm.
Remote Sens. Spatial Inf. Sci., XLII-2/W5, 539–546.
Murtiyoso, A., Grussenmeyer, P., 2018. Comparison and
assessment of 3D registration approaches of point clouds in
the case of exterior and interior heritage building recording.
Int. Arch. Photogramm. Remote Sens. Spatial
Inf. Sci., XLII-2, 745–751.
Rocha, G., Mateus, L., Fernández, J., Ferreira, V., 2020. A
Scan-to-BIM Methodology Applied to Heritage
Buildings. Heritage, 3(1), 47-67.
Wang, Q., Guo, J., Kim, M.-K., 2019. An Application
Oriented Scan-to-BIM Framework. Remote Sensing,
11(3), 365, 2-27.
PAROLE CHIAVE
Laser scanner; UAV; Point cloud;
3D modeling; HBIM; Scan-to-BIM
ABSTRACT
The preservation of historic buildings can often be particularly
difficult due to the lack of detailed information
about architectural features, construction details, etc.
However, in recent years considerable technological innovation
in the field of Architecture, Engineering, and
Construction (AEC) has been achieved by the Building
Information Modeling (BIM) process. In this case, it is more
properly referred to as Historic - or Heritage - Building
Information Modeling (HBIM). In the HBIM process, it is
essential to precede the parametric modeling phase of the
building with a detailed 3D survey that al-lows the
acquisition of all geometric information. This
methodology,called Scan-to-BIM, involves the use of 3D
survey techniques to produce point clouds as a geometric
“database” for parametric modeling.
The “Real Cantina Borbonica" (Cellar of Royal House of
Bourbon) in Partinico (Sicily, Italy) was chosen as a case
study. The work has allowed achieving the HBIM of the
"Real Cantina Borbonica" and testing an approach based
exclusively on a topographic constraint to merge in the same
reference system all the survey data (laser scan-ner and
photogrammetric point clouds).
Fig. 7 - Spaccato assonometrico del modello parametrico.
AUTORE
Mauro Lo Brutto,
mauro.lobrutto@unipa.it
Dipartimento di Ingegneria, Università di Palermo
GEOmedia n°6-2021 43
MERCATO
IL VERO ECOSCANDAGLIO MULTIBEAM AD
ALTA FREQUENZA: TELEDYNE RESON -
SEABAT T51-R
1024 Beam con apertura di soli 0,25°x0,5° disponibili
su tutti i 170 gradi di swath? È possibile, grazie al
trasduttore specifico per le alte frequenze installato nei
nuovissimi Reson T-51. Come sono necessari altoparlanti
diversi per basse e alte frequenze per riprodurre la
musica, anche l'acustica subacquea segue le stesse regole.
Reson non si è limitata a far cantare in falsetto un baritono,
ma ha dato una nuova voce al suo già completo T-50
aggiungendo un array specifico per le alte frequenze.
Risultato?
• Risoluzione e definizione a livelli mai visti
• Copertura di 170° disponibile su tutte le frequenze,
anche a 800kHz.
• Dati puliti e definiti pronti all'uso con tempi di elaborazione
ridotti.
• Comandi sonar autonomi gestiti da Intelligenza
Artificiale: tutto più facile.
• Tre anni di garanzia standard per la massima tranquillità.
• Reson e Codevintec ancora una volta leader negli ecoscandagli
multibeam.
Oltre alle rivoluzionarie prestazioni a 800kHz, il SeaBat
T51-R è dotato anche di una gamma flessibile di frequenza
inferiore a 350-430kHz, destinata a quei rilievi
in cui sono richieste prestazioni a più ampio raggio,
offrendo una soluzione veramente flessibile per tutte le
occasioni.
I controlli autonomi del sonar SeaBat T51, un’innovazione
esclusiva di SeaBat, forniscono dati affidabili e un
funzionamento del sonar veramente a mani libere, consentendo
una maggiore efficienza di indagine con un ridotto
carico di lavoro dell’operatore.
Nuovo trasduttore T51 con doppio Array (immagine)
1. Array per basse frequenze
2. Array per alte frequenze
Per ulteriori informazioni:
www.codevintec.it info@codevintec.it
Works when you do
X-PAD Ultimate
Tutto in un unico software
X-PAD Ultimate è un software modulare, facile da usare per lavori
topografici e del cantiere, come rilievi, tracciamenti, catasto,
controlli BIM, strade, mappe, batimetria e GIS.
Il software è disponibile sulla piattaforma Android e porta le
migliori tecnologie direttamente in campo nella tua mano: una
completa visualizzazione 3D ed un sistema CAD per visualizzare e
modificare i disegni, integrazione dei tuoi dati con tutte le tipologie
di mappe, supporti per la realtà aumentata e molto altro.
44 GEOmedia n°2-2021
XPad Ultimate ti assicura la produttività e ti permette di avere una
perfetta integrazione con tutti gli strumenti.
Disponibile in due versioni, una dedicata a chi lavora nel campo
della topografia ed una dedicata alle imprese di costruzioni,
offrendo ad entrambi delle caratteristiche dedicate.
geomax-positioning.it
©2020 Hexagon AB and/or its subsidiaries
and affiliates. All rights reserved.
MERCATO
TPAD: IL FUTURO DEL RILIEVO
TOPOGRAFICO CON GNSS È QUI
“Il rilievo topografico è un’operazione piuttosto facile
per un topografo!” Detto a parole può sembrare un
lavoro piuttosto semplice ma la realtà dei fatti è ben
diversa, e molti professionisti del settore lo possono
confermare! Oltre al tempo da dedicare alle operazioni
comuni, come il montaggio della strumentazione
e il rilievo in sé, ci sono da considerare anche i problemi
che si possono verificare in corso d’opera, la
connessione tentennante dell’antenna alla rete, se si
lavora, ad esempio, con il solo Rover e il corretto funzionamento
degli strumenti.
Avere un buon GPS è sicuramente la base di partenza
per effettuare un rilievo topografico ad-hoc ma il vero
protagonista nei rilievi, oltre al topografo, è l’applicativo
utilizzato per il rilievo/tracciamento dei punti.
Stonex, Emlid, Tersus, Geomax, Kolida; non importa
quale sia la marca del GPS, chi fa la differenza è l’applicazione
da campo che si utilizza.
Avere piena libertà nella gestione delle operazioni permette
al topografo, di avere tutto sotto controllo e al
GPS, di diventare un potente strumento di rilievo.
TPad è un applicativo topografico per Android, capace
di adattarsi ai dispositivi GNSS con protocollo
NMEA, garantendo massima precisione nei rilievi. È
possibile, infatti, gestire strumenti topografici di marche
diverse tramite connessione WiFi e Bluetooth.
Finalmente è possibile dire addio ai vecchi palmari, ai
tablet Windows, ai software obsoleti e complicatissimi!
Con TPad, tutto quello di cui si ha bisogno, lo si
trova direttamente sul proprio cellulare o tablet.
Dotato di tantissime funzionalità, TPad regala forti
emozioni!
Progettato su misura del topografo, ad ogni punto inserito,
è possibile associare codici e descrizioni, fotografie
o addirittura video; in questo modo, si è sicuri
di non dimenticare niente anche se si elabora il rilievo
dopo tanto tempo.
Nel caso in cui il punto da rilevare fosse uno spigolo
di fabbricato o un punto nascosto, utilizzando il comando
“Punto per intersezione”, TPad potrà calcolare
l’esatta posizione del punto grazie alla classica intersezione
in avanti (mediante due ausiliari).
Per scoprire tutte le funzionalità su TPad, visita il sito
Strumenti Topografici a questo link (https://www.
strumentitopografici.it/tpad/).
È possibile provare l’app topografica, scaricandola
gratis da Google Play Store su un cellulare o tablet
Android.
C’è vita nel nostro mondo.
Trasformazione e pubblicazione di dati
territoriali in conformità a INSPIRE
Assistenza su Hight Value Datasets,
APIs, Location Intelligence, Data Spaces
INSPIRE Helpdesk
We support all INSPIRE implementers
Epsilon Italia S.r.l.
Viale della Concordia, 79
87040 Mendicino (CS)
Tel. e Fax (+39) 0984 631949
info@epsilon-italia.it
www.epsilon-italia.it
www.inspire-helpdesk.eu
GEOmedia n°2-2021 45
TERRA E SPAZIO
La navigazione
astronomica è
sempre attuale
di Marco Lisi
La navigazione astronomica è
quella basata sull’osservazione
di corpi celesti (stelle, pianeti,
sole e luna), ovviamente quando
visibili.
Parlare di navigazione
astronomica, in un’epoca
di diffusione capillare delle
più moderne tecnologie, in
particolare quelle basate
sulle costellazioni globali
di satelliti (GPS, GLONASS,
Galileo e Beidou) può sembrare
anacronistico e poco utile.
Prenderemo il discorso molto
alla lontana, raccontando una
storia di guerra molto triste,
ma al contempo estremamente
educativa, quella di un
bombardiere della US Air Force
B24D Liberator, soprannominato
“Lady be good” dal suo
Siamo nell’aprile del
1943 e il “Lady be
good”, partito da una
base vicino a Bengasi in Libia,
era di ritorno da una missione
di bombardamento su Napoli,
con il suo equipaggio di nove
uomini, fra i quali due piloti
ed un navigatore.
Qui è necessaria una prima
precisazione: erano tempi di
guerra, la richiesta di nuovi
aviatori era pressante ed i corsi
di formazione erano stati
ridotti al minimo indispensabile,
per esempio, non sempre
includevano l’utilizzo di strumenti,
quali il sestante, per la
navigazione astronomica.
La navigazione astronomica
con il sestante veniva utilizzata
sui bombardieri di lungo raggio,
quali le famose “fortezze
volanti” (figura 1).
Sui bombardieri di corto e
medio raggio il metodo di
navigazione utilizzato era
esclusivamente quello della
“navigazione stimata” (“dead
reckoning”), basato sulla registrazione
quanto più accurata
possibile della direzione, della
velocità e dell’ora sul libro di
bordo, eseguita dal navigatore.
L’aereo in questione era anche
dotato di un rudimentale sistema
di radionavigazione che,
attraverso un’antenna direzionale,
era in grado di rilevare
la posizione relativamente
equipaggio.
Fig. 1 - La cupola (“astrodome”) sulla fusoliera del Boeing B-17 “Flying Fortress”, utilizzata per le
rilevazioni col sestante.
46 GEOmedia n°6-2021
TERRA E SPAZIO
ad eventuali radiofari (“beacons”).
Nella confusione della missione
e, forse, per l’inesperienza
e l’emozione del navigatore, il
sistema di navigazione stimata
andò a pallino e l’equipaggio
si rese presto conto di essersi
perso sulla via del ritorno: a
parte la certezza di volare verso
sud, non avevano più alcuna
idea della loro latitudine e
della distanza dalla base di
partenza.
Pensarono allora di ricorrere
all’apparato di radionavigazione,
orientandolo verso un
radiofaro situato a Benina, sulla
costa della Libia e vicino a
Bengasi. Il rilevamento sembrò
confermare che stavano procedendo
nella giusta direzione,
anche se la loro base continuava
a non essere visibile ed il
carburante cominciava a scarseggiare.
Lo sfortunato equipaggio non
aveva tenuto conto che l’antenna
direzionale non era in
grado di distinguere il senso di
provenienza dei segnali del radiofaro,
il quale non era in realtà
a sud, ma a nord della loro
posizione: avevano superato da
tempo la costa libica, Bengasi
e la loro base e si erano inconsapevolmente
addentrati nel
deserto.
Aereo ed equipaggio furono
dati per dispersi. Solo nel
1958 un gruppo di geologi
della British Petroleum (BP)
ritrovò i rottami dell’aereo nel
deserto ed i poveri resti dell’equipaggio
(figura 2).
Qualcuno potrebbe sicura-
mente obiettare che oggigiorno
una tragedia del genere non
potrebbe ripetersi, dotati come
siamo di ricevitori GNSS financo
nei nostri smartphone.
Sta però di fatto che nel 2015
l’accademia della marina militare
americana di Annapolis
ha reintrodotto nei suoi corsi
obbligatori quello di “celestial
navigation”, eliminato alla
fine degli anni ’90, sull’onda
dell’entusiasmo
derivante dal successo operativo
del sistema GPS. I vertici
militari statunitensi hanno
giustificato la loro decisione
molto semplicemente: senza
GPS saremmo ciechi, abbiamo
bisogno di un backup. Inoltre,
di fronte ai sempre maggiori
rischi di attacchi agli utenti
GNSS, nella forma di “jamming”
(segnali di disturbo) o
di “spoofing” (segnali contraffatti),
si fa notare che le stelle
non si possono né oscurare né
contraffare (anche se a volte
non sono visibili).
La navigazione astronomica è
Fig. 3 - La statua di Flavio Gioia ad Amalfi e la “rosa dei venti”, da lui probabilmente introdotta
come parte integrante della bussola.
Fig. 2 - I resti
del bombardiere
“lady be
good” ritrovati
nel deserto
libico nel
1958.
GEOmedia n°6-2021 47
TERRA E SPAZIO
Fig. 4 - Il sestante, strumento fondamentale per la
rilevazione del cosiddetto “punto nave”.
stata di fatto la più antica tecnica
di navigazione ed è rimasta
incontrastata per qualche
migliaio di anni.
I primi marinai seguivano la
costa da vicino per evitare
di perdersi in mare aperto.
Quando i primi navigatori
veleggiarono verso l’oceano,
essi scoprirono di poter tracciare
il loro percorso seguendo
le stelle. Le stelle appaiono
differenti da differenti luoghi
della Terra, pertanto osservando
le stelle i marinai traevano
indicazioni sulla direzione
da prendere. L’osservazione
delle stelle è stato per secoli il
metodo principale di navigazione.
Gli antichi Fenici usarono
la Stella Polare per navigare
dall’Egitto a Creta e, secondo
Omero, la dea Atena disse ad
Ulisse di ”tenere la Grande
Orsa (cioè il nord) sulla sua
sinistra” durante il suo viaggio
dall’isola di Calipso (probabilmente
Gibilterra) verso Itaca.
Sfortunatamente le stelle sono
visibili solo di notte (e solo
con il bel tempo).
I più importanti sviluppi nella
ricerca per il metodo ideale
di navigazione furono segnati
dall’invenzione della bussola
magnetica e del sestante. L’ago
di una bussola punta sempre
verso nord (in realtà verso il
nord “magnetico”), fornendo
quindi a qualunque ora del
giorno ed in qualsiasi condizione
atmosferica la direzione
nella quale si sta procedendo.
L’origine della bussola è oscura
ed incerta: alcuni dicono
che essa sia un’invenzione dei
cinesi, altri degli arabi o dei
marinai amalfitani. È tuttavia
Fig. 5 - I predecessori del sestante: in senso antiorario, kamal, astrolabio e quadrante.
abbastanza certo che questo
strumento apparve in Europa
intorno all’anno mille e che
prese la sua forma definitiva
nel 1300, ad opera del (forse)
mitico Flavio Gioia di Amalfi
(“Prima dedit nautis usum
magnetis Amalphis”) (figura
3).
Il sestante usa un sistema di
specchi per misurare l’angolo
esatto delle stelle, della luna e
del sole sopra l’orizzonte (figura
4).
Esso è l’evoluzione di una
serie di predecessori sempre
più elaborati, dei quali il più
famoso e diffuso fu l’astrolabio,
del quale si avvalse,
insieme alla bussola, lo stesso
Cristoforo Colombo durante i
suoi viaggi verso il continente
americano (figura 5).
All’inizio comunque era possibile
determinare con il sestante
solo la latitudine (cioè la
posizione sulla Terra misurata
a nord o a sud dell’Equatore).
I marinai erano ancora
incapaci di calcolare la loro
longitudine (cioè la posizione
sulla Terra a est o ovest di un
meridiano di riferimento).
Il problema della determinazione
della longitudine in
mare aperto appassionò per
oltre due secoli le menti più illuminate
d’Europa e fu risolto
solo nel 1761 da un artigiano
inglese autodidatta di nome
John Harrison, che costruì
uno speciale orologio meccanico
da imbarcare a bordo delle
navi, chiamato cronometro
marino, in grado di perdere
o guadagnare non più di un
secondo al giorno (un’accu-
48 GEOmedia n°6-2021
TERRA E SPAZIO
ratezza incredibile per quel
tempo!). Ma questa è un’altra
storia, anch’essa pienamente
degna di essere raccontata, anche
perché dimostra una volta
di più, qualora fosse necessario,
la stretta correlazione esistente
fra misure di posizione
e misure di tempo.
Bussola, sestante e cronometro
marino rimasero per altri due
secoli gli strumenti fondamentali
per la navigazione, fino a
quando, all’inizio del ventesimo
secolo, l’invenzione della
radio ed i primi esperimenti
di radionavigazione compiuti
dallo stesso Marconi aprirono
la strada ai sistemi di navigazione
terrestri (quali il Loran)
e, più recentemente, ai sistemi
satellitari globali.
Ma l’utilizzo delle osservazioni
astronomiche per determinare
la posizione non è mai stato
completamente abbandonato.
La navigazione dei missili
intercontinentali e
“cruise”, e quella dei
satelliti artificiali,
ad esempio, si basa,
insieme ad altri sistemi
(quali GNSS e
piattaforme inerziali),
sull’uso degli “star trackers”,
strumenti ottici
che utilizzano cortine
di fotocellule o videocamere,
associate a potenti processori
e ad archivi delle stelle visibili,
per riconoscere posizione ed
anche assetto dei veicoli che li
imbarcano (figura 6).
PAROLE CHIAVE
Navigazione astronomica; navigazione
stimata; timing; positioning; GNSS
AUTORE
Dott. ing. Marco Lisi
ingmarcolisi@gmail.com
Independent Consultant
Aerospace & Defense
Fig. 6 - “star
tracker” utilizzato
a bordo
dei satelliti
GEOmedia n°6-2021 49
AGENDA
23-24 Marzo 2022
Geo Connect Asia 2022
Singapore
https://www.
geoconnectasia.com/
27 – 29 Aprile 2022
GISTAM
gistam.scitevents.org/
Online Streaming
6 - 11 Giugno 2022
XXIV ISPRS Congress
Nice (France)
www.geoforall.it/kyx8u
16-18 Giugno 2022
D-SITE Drones -
Systems of Information
on culTural hEritage
Pavia (Italy)
www.geoforall.it/kyw6u
20-25 June 2022,
Nessebar (Bulgaria)
The 8th International
Conference on
Cartography and GIS
www.geoforall.it/kywu9
20-24 giugno 2022
ASITA 2022 Conferenza
Nazionale di Geomatica
e Informazione
Geografica
Genova
www.geoforall.it/kyfh6
22-24 giugno 2022,
Potsdam (Germania)
- 12th EARSeL
Workshop on Imaging
Spectroscopy
www.geoforall.it/kyx46
LEICA BLK2GO
MAPPATURA MOBILE SEMPLIFICATA,
SCANSIONA OGNI TIPO DI AMBIENTE IN MOVIMENTO
EFFETTUANDO MILIONI DI MISURAZIONI.
◗ BLK2GO utilizza una tecnologia avanzatissima che permette
di ottenere le migliori prestazioni di mappatura disponibili
nella categoria dei dispositivi mobili portatili.
◗ Maggiore velocità e sicurezza durante la cattura di immagini e
scansioni, anche nel caso di ampi spazi interni, esterni, interrati,
complessi e su più livelli.
◗ Identifica diverse superfici ed analizza i dati LiDAR per
calcolare la propria posizione in 3D.
◗ Tre fotocamere panoramiche identificano le analogie tra
immagini consecutive per calcolare il movimento dello scanner
attraverso lo spazio 3D.
◗ Leggero: pesa solo 775 grammi.
◗ Portata Lidar fino a 25 metri.
◗ Fotocamera “inquadra & scatta” per catturare dettagli specifici.
◗ Molto altro ancora.
per maggiori
informazioni
Contattaci, scoprirai molto di più!
Via A. Romilli, 20/8 - 20139 Milano • Tel. 02 5398739
E-mail: teorema@geomatica.it
www.geomatica.it • www.disto.it • www.termocamere.com
Sede in Italia
Più di 100 distributori nel mondo
Una linea di prodotti Made in Italy
Dove siamo Chiamaci Contattaci
Seguici sui Social
Viale dell’Industria 53
20037, Paderno Dugnano (MI)
Tel. +39 02 78619201
www.stonex.it
info@stonex.it - italia@stonex.it