08.02.2022 Views

GEOmedia_6_2021

Rivista Italiana di Geomatica

Rivista Italiana di Geomatica

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Rivista bimestrale - anno XXV - Numero - 6/2021 - Sped. in abb. postale 70% - Filiale di Roma

TERRITORIO CARTOGRAFIA

GIS

CATASTO

3D

INFORMAZIONE GEOGRAFICA

FOTOGRAMMETRIA

URBANISTICA

EDILIZIA

GNSS

BIM

RILIEVO TOPOGRAFIA

CAD

REMOTE SENSING SPAZIO

WEBGIS

UAV

SMART CITY

AMBIENTE

NETWORKS

LiDAR

BENI CULTURALI

LBS

Nov/Dic 2021 anno XXV N°6

Infrastrutture

di Dati Territoriali

MAPPATURA AMIANTO

CON GIS E AI

TECNICHE DI RILIEVO PER

PROCESSI SCAN-TO-BIM

ATTUALITA' DELLA

NAVIGAZIONE ASTRONOMICA


Il futuro delle IDT

Se pensiamo al grande lavoro intrapreso negli ultimi 50 anni per la realizzazione dei

Geodatabase topografici che costituiscono l’ossatura portante delle Infrastrutture dei Dati

Territoriali, non possiamo tralasciare un aggiornamento programmatico. Aggiungendo la

necessità di corredare i Geodatabase delle informazioni territoriali connesse si costruisce

un assioma che dovrebbero costituire il fondamento degli obiettivi delle amministrazioni

responsabili ai vari livelli, dallo Stato al singolo Comune.

Sappiamo bene che dopo una lunga fase di incertezza istituzionale, compensata in parte dalle

azioni condotte nei Gruppi di Lavoro promossi da AGID e attivati nel maggio del 2014, nel

corso del 2018 si avviarono i lavori della Consulta Nazionale per l’Informazione Territoriale ed

Ambientale (CNITA) in attuazione della Direttiva INSPIRE.

Le attività dell’organismo presieduto dal Ministero dell’Ambiente si esplicano attraverso

6 sezioni tecniche. La prima è presieduta dall’ISPRA, che opera per il raccordo tra il

livello nazionale e il livello territoriale per la realizzazione dell’infrastruttura nazionale per

l’informazione territoriale e del monitoraggio ambientale. Segue l’AGID per la raccolta delle

istanze italiane sui metadati da trasmettere in sede europea attraverso il Repertorio Nazionale

dei Dati Territoriali preparando il rapporto annuale INSPIRE. Viene quindi l’IGM che propone

l’attribuzione univoca della responsabilità di produzione e mantenimento dei dati di interesse

generale, predisponendo un sistema di monitoraggio per la verifica dell’aggiornamento dei

dati territoriali esistenti e dei dati territoriali raccolti ex novo in conformità alle disposizioni di

esecuzione europee con raccordo e reportistica per la preparazione dell’annuale report INSPIRE.

Il CISIS segue i servizi di rete per la ricerca e il download dei dati a livello nazionale, curandone

la conformità INSPIRE. Le altre sezioni tecniche di CNIPA, AGID e ISPRA predispongono

la comunicazione che il Ministero dell’ambiente invia alla Commissione europea entro il 15

maggio di ogni anno.

Insomma, tutte le attività delle sezioni tecniche menzionate sembrano essere spinte dalla sola

aderenza europea alla convenzione INSPIRE, che non chiedeva altro che omogeneizzare i dati

per l’interscambio tra le nazioni europee.

Possibile che l’unico motore rimasto oggi in Italia per avere una documentazione dello stato di

fatto aggiornato del territorio sia quello della necessità di non essere multati dalla Commissione

Europea per la mancata adesione alle Direttive?

Le numerose commissioni, consulte e comitati esistenti apportano il loro contributo, ma

quello che sembra assolutamente inesistente è la volontà di attuare programmi globali per la

documentazione dello stato del territorio atto ad una vera pianificazione e controllo. Eppure

tempo fa c’erano regole (e leggi regionali) molto semplici, come quella che obbligava le Regioni

ad eseguire voli aerofotogrammetrici a cadenza biennale per il controllo dell’attività urbanistica.

Guardiamo al futuro e orientiamoci oggi verso una vera attività programmatica

dell’aggiornamento delle IDT che dovrebbero guardare alle nuove tecnologie di rilievo e alle

necessità emergenti del 3D per le città nell’ambito del BIM.

Le ultime regole tecniche sono state emanate più di 15 anni fa ed erano relative agli ambiti

di competenza regionale, oggi abbiamo bisogno di entrare nel dettaglio delle città, degli

agglomerati urbani, per renderli intelligenti conoscendone più informazioni che dati, sì, ma

aggiornando il dato di base.

Buona lettura,

Renzo Carlucci


FOCUS

In questo

numero...

FOCUS

REPORT

INTERVISTA

LE RUBRICHE

Mappatura Amianto

con tecniche GIS e di

Intelligenza Artificiale

di Enrico Bonansea, Luca

Forestello, Ivan Cerato, Manuela

Livorno, Gabriele Nicolò,

Fulvio Raviola, Isabella Tinetti,

Teo Ferrero, Roberto Cassulo,

Marcella Alibrando, Massimiliano

Carrino, Stefano Masera,

Maria Cristina Prola

6

44 MERCATO

46 TERRA E SPAZIO

50 AGENDA

14

Interviste ad alcuni

responsabili di IDT

regionali: presente

e prospettive

a cura di Franco Vico

In copertina gli schemi

topografici realizzati per il

modello parametrico HBIM della

“Real Cantina Borbonica” di

Partinico in provincia di Palermo.

Il rilievo laser scanner è stato

eseguito con uno strumento

Topcon GLS-2000; sfruttando

l'approccio topografico per la

registrazione delle scansioni

disponibile con questo

strumento, il rilievo laser scanner

è stato eseguito in modo tale

che tutti i punti di scansione

fossero collegati per formare una

poligonale topografica interna

all’edificio.

La linea sacra

di San Michele e la

sfericità terrestre

di Fabio Crosilla

24

geomediaonline.it

4 GEOmedia n°6-2021

GEOmedia, bimestrale, è la prima rivista italiana di geomatica.

Da più di 20 anni pubblica argomenti collegati alle tecnologie dei

processi di acquisizione, analisi e interpretazione dei dati,

in particolare strumentali, relativi alla superficie terrestre.

In questo settore GEOmedia affronta temi culturali e tecnologici

per l’operatività degli addetti ai settori dei sistemi informativi

geografici e del catasto, della fotogrammetria e cartografia,

della geodesia e topografia, del telerilevamento aereo e

spaziale, con un approccio tecnico-scientifico e divulgativo.


INSERZIONISTI

Codevintec 29

30

Topografia

Applicata al

Soccorso: la

formazione del

Vigile del Fuoco

di Daniele Mercuri

Datronix 2

Epsilon 45

ESRI 49

Geomax 44

GIS3W 38

Gter 32

ISPRS 33

NAIS 13

Planetek Italia 39

Stonex 51

StrumentiTopografici 52

Topo4qgis-un plugin

per QGIS utile

all'elaborazione di

libretti PreGeo e alla

trattazione di liste di

punti mediante opportuna

rototraslazione

ai minimi quadrati

di Marco Lombardi,

Gianluca Beccaria

34

40

Tecniche di rilievo

integrato per processi

Scan-to-BIM

Teorema 50

ESA - Ghiacciaio Kangerlussuaq

(16 gennaio 2022)

Il ghiacciaio Kangerlussuaq,

uno dei più vasti ghiacciai

di sbocco di marea della

Groenlandia, è mostrato in

questa immagine in falsi colori

acquisita dalla missione

Copernicus Sentinel-1. Kangerlussuaq

si traduce ‘grande

fiordo’ nella lingua groenlandese

ed il suo ghiacciaio

fluisce dentro la parte alta del

Fiordo di Kangerlussuaq, il

secondo fiordo della Groenlandia

orientale in termini di

dimensioni.

Ciascun satellite Sentinel-1

trasporta una strumentazione

radar avanzata, che fornisce

immagini della superficie terrestre

in condizioni di luce sia

diurna che notturna. Il Telerilevamento

consente di monitorare

la calotta di ghiaccio

terrestre e di tenere traccia di

tutti gli stadi di modificazione

- dal rilevamento di crepe

alla rottura di iceberg – come

pure di effettuare la misura

della copertura di ghiaccio e

della deriva degli iceberg.

Crediti:

ESA - Image of the week.

di Mauro Lo Brutto

Traduzione: Gianluca Pititto

una pubblicazione

Science & Technology Communication

GEOmedia, la prima rivista italiana di geomatica.

ISSN 1128-8132

Reg. Trib. di Roma N° 243/2003 del 14.05.03

Direttore

RENZO CARLUCCI, direttore@rivistageomedia.it

Comitato editoriale

Vyron Antoniou, Fabrizio Bernardini, Mario Caporale,

Roberto Capua, Luigi Colombo, Mattia Crespi, Luigi Di

Prinzio, Michele Dussi, Michele Fasolo, Marco Lisi, Flavio

Lupia, Luigi Mundula, Beniamino Murgante, Aldo Riggio,

Mauro Salvemini, Attilio Selvini, Donato Tufillaro

Direttore Responsabile

FULVIO BERNARDINI, fbernardini@rivistageomedia.it

Redazione

VALERIO CARLUCCI, GIANLUCA PITITTO,

redazione@rivistageomedia.it

Diffusione e Amministrazione

TATIANA IASILLO, diffusione@rivistageomedia.it

Progetto grafico e impaginazione

DANIELE CARLUCCI, dcarlucci@rivistageomedia.it

Editore

MediaGEO soc. coop.

Via Palestro, 95 00185 Roma

Tel. 06.64871209 - Fax. 06.62209510

info@rivistageomedia.it

Stampa: System Graphics Srl

Via di Torre Santa Anastasia 61 00134 Roma

Condizioni di abbonamento

La quota annuale di abbonamento alla rivista Science è di € & 45,00. Technology Communication

Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di

ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa.

L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita

revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza

dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo.

La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti.

Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta

dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere

richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo.

Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la

riproduzione anche parziale del contenuto di questo numero della Rivista in

qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i

sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore.

Rivista fondata da Domenico Santarsiero.

Numero chiuso in redazione il 24 gennaio 2021.


FOCUS

MAIA: Mappatura Amianto con

tecniche GIS e di Intelligenza Artificiale

di Enrico Bonansea, Luca Forestello, Ivan Cerato, Manuela Livorno, Gabriele Nicolò, Fulvio Raviola, Isabella Tinetti,

Teo Ferrero, Roberto Cassulo, Marcella Alibrando, Massimiliano Carrino, Stefano Masera, Maria Cristina Prola

Arpa Piemonte ha avviato nel 2019

un’attività sperimentale finalizzata allo

studio e messa a punto di tecniche

di analisi di immagini basate su deep

learning e reti neurali. Nel 2020 il

progetto ha portato alla realizzazione

ed applicazione del modello

denominato MAIA (Mappatura Amianto

Fig. 1 - Nella figura si vedono due coperture in cemento amianto sulle quali è stata segnalata

la presenza di MCA (evidenziata dalla stellina). Il riquadro rosso rappresenta la porzione

di territorio corrispondente ad un quadrato di 10m x 10m attorno al punto riportato nella

segnalazione (Immagini Ortofoto AGEA 2015).

con tecniche GIS e di Intelligenza

Artificiale) sull’intero territorio

regionale.

L’

amianto rappresenta una

problematica ambientale

e sanitaria di particolare

rilievo in diverse aree del territorio

nazionale.

Con l’emanazione della legge n.

257/1992 che vieta l’estrazione,

la produzione e la commercializzazione

dell’amianto ed

il successivo DM 101/2003 è

iniziata un’importante opera di

monitoraggio e tutela ambientale

attraverso l’avvio del processo

di mappatura della presenza di

amianto sul territorio e la bonifica

dei siti più rilevanti.

La Regione Piemonte si è dotata,

dal 2008, di una specifica

legge per affrontare le problematiche

relative all’amianto

(L.R. n. 30/2008 “Norme per la

tutela della salute, il risanamento

dell’ambiente, la bonifica e

lo smaltimento dell’amianto”).

Da tale legge discende il Piano

Regionale Amianto [1] con cui

la Regione ha posto le basi per la

mappatura dell’amianto di origine

antropica su tutto il territorio

regionale.

Arpa Piemonte ha avviato già

a partire dal 2013 la prima fase

del progetto di mappatura delle

coperture contenenti cementoamianto

(in seguito abbreviato

MCA). La procedura, basata

sull’analisi e classificazione automatica

di tipo object oriented

di ortoimmagini, ha riguardato

un’area di indagine (definita

“area prioritaria”) di circa

10.000 kmq e ha portato all’individuazione

di circa 120.000

coperture georeferenziate di edifici

potenzialmente contenenti

cemento amianto.

Nel 2019 è stata avviata un’attività

sperimentale finalizzata allo

studio e messa a punto di nuove

tecniche di analisi di immagine

basate su deep learning con reti

neurali per il riconoscimento e

la classificazione delle coperture

in cemento amianto.

Nel 2020 l’attività di definizione

metodologica è stata affinata e

completata portando alla realizzazione

ed applicazione del

modello denominato MAIA

(Mappatura Amianto con

tecniche GIS e di Intelligenza

Artificiale) sull’intero territorio

regionale al fine di realizzare

la mappatura a scala regionale,

estendendo lo studio a tutti i

territori non inclusi nella prima

area di studio prioritaria (circa

15.000 kmq), e monitorare nel

tempo le trasformazioni delle coperture

in amianto già oggetto di

verifica con sopralluogo all’interno

dell’area prioritaria.

Metodi

Le reti neurali utilizzano algoritmi

ispirati alla struttura e al

funzionamento delle reti neurali

biologiche. Come queste, la rete

neurale artificiale, è quindi un

“sistema complesso” in grado

di acquisire capacità di analisi

attraverso una fase di addestramento

basata su dati di input

iniziali (training set) e quindi di

analizzare, e classificare, tipologie

di oggetti predefiniti senza

la necessità di imporre modelli

6 GEOmedia n°6-2021


FOCUS

Fig. 2 - I riquadri verdi identificano una porzione di territorio senza CMA di 10m x 10m (Immagini Ortofoto AGEA 2015).

unità volumetriche del database

topografico della cartografia tecnica

regionale (BDTRE, edizione

2020) [3].

L’intero progetto è stato sviluppato

e gestito attraverso le sole

risorse di calcolo del Sistema

Informativo Geografico di Arpa

Piemonte. La gestione complessiva

dei processi di elaborazione,

analisi immagini, fotointerpretazione

e gestione dei servizi di

editing dei dati geografici, è stata

realizzata attraverso le componenti

dell’infrastruttura geografica

agenziale basata su piattamatematici

ed equazioni predeterminate.

Nel campo dell’analisi delle

immagini le reti neurali possono

infatti essere efficacemente

addestrate per individuare o

classificare oggetti specifici, ad

esempio, attraverso l’analisi delle

sole caratteristiche geometriche,

cromatiche, tessiturali etc.

Il progetto di Arpa Piemonte si è

posto l’obiettivo di definire una

metodologia di analisi integrata

con strumenti di remote sensing,

GIS ed Intelligenza artificiale

per l’analisi e classificazione

automatica di immagini aeree

disponibili su scala regionale. La

metodologia MAIA ha portato

allo sviluppo di un modello di

rete neurale in grado apprendere,

riconoscere e classificare coperture

con potenziale presenza

di amianto, attraverso l’analisi

multitemporale di più serie di

ortoimmagini.

La procedura si basa su una

fase preliminare che prevede la

preparazione dei dati (raccolta,

elaborazione e strutturazione di

tutti i dati di input necessari),

la progettazione e l’allestimento

dell’infrastruttura, lo sviluppo degli

strumenti e dei modelli di calcolo

con reti neurali e una fase di

applicazione del modello su scala

regionale suddivisa in più stadi:

• Addestramento: fasi di

ricerca dei campioni (training

set), addestramento

della rete neurale, valutazione

e ottimizzazione delle

prestazioni.

• Classificazione: preparazione

dei dati di input e applicazione

della rete neurale

sull’intera area di studio.

• Verifica dei dati: integrazione

ed elaborazione dei

risultati in ambiente GIS,

verifica e correzione tramite

fotointerpretazione

• Analisi dei risultati: analisi

statistica dei dati, valutazione

delle performance

Dati di input e strumenti

Per l’addestramento del modello

su base multitemporale sono

state utilizzate tutte le ortoimmagini

disponibili su scala regionale

nel periodo di riferimento ed

in particolare le riprese del volo

regionale ICE del 2010 [2], le

riprese AGEA 2015, 2018 e le

più recenti immagini disponibili

sul territorio regionale del servizio

Google Maps (date variabili

2018-2020, "Map data ©

2018,2019,2020 Google").

L’obiettivo di tale approccio è

duplice: seguire e monitorare nel

tempo le trasformazioni delle coperture,

ricostruendo così su tutto

il territorio regionale lo stesso

quadro di conoscenza e riferimento

temporale, e minimizzare

i potenziali errori di classificazione

introdotti dalla variabilità delle

singole immagini appartenenti

alla stessa ripresa fotogrammetrica

(ombre, coperture arboree,

problemi di ortorettifica, etc ...).

Il livello di riferimento adottato

per l’individuazione vettoriale

delle impronte degli edifici su

scala regionale è il dataset delle

Fig. 3 – Grafici relativi al monitoraggio risultati nella

fase di addestramento della rete neurale (in alto si vede

l’accuratezza di uno dei modelli utilizzati superiore al

95% e in basso la valutazione degli errori compiuti dal

modello vicino allo 0%).

GEOmedia n°6-2021 7


FOCUS

Fig. 4 - Esempio di evoluzione delle coperture nel tempo e casi di potenziale bonifica intercorsi tra

2010 e 2015.

forma Esri (ArcGISPro, ArcGIS

Enterprise, ArcGIS Online).

Per l’estrazione delle porzioni

di immagini utilizzate in fase di

training e classificazione è stato

utilizzato anche il software Qgis

ed in particolare la funzione del

layout di stampa denominata

Atlante.

La rete neurale è stata invece

implementata con Keras[4],

un framework per Python che

permette di definire e addestrare

vari tipi di modelli di deep learning.

Keras consente di eseguire lo

stesso codice utilizzando diverse

librerie di basso livello

(Tensorflow, Theano, CNTK,

…). Nel presente progetto sperimentale

Arpa ha adottato la

libreria Tensorflow utilizzando il

modello denominato VGG16,

appartenente alla categoria delle

Convolutional Neural Network

[5] specializzate nella classificazione

delle immagini.

Applicazione modello MAIA

a scala regionale

Addestramento

L’addestramento è la fase in cui

la rete neurale impara a svolgere

il compito per cui è stata progettata,

a partire dall’analisi dei

campioni di training set.

Occorre quindi definire e predisporre

i training set attraverso la

selezione di un numero significativo

di campioni di immagini sia

di coperture contenenti amianto,

sia realizzate con altri materiali

(tegole, coppi, lamiere, etc.).

Grazie al lavoro di mappatura e

verifica in campo già realizzato

negli anni precedenti è stato

possibile selezionare dalla banca

dati un numero consistente di

coperture in amianto accertate

ed estrarre da questi i relativi

campioni di immagini a partire

dalle singole serie di ortofoto di

riferimento.

La preparazione dei campioni

di immagini del training set

prevedere l’estrazione di una immagine

quadrata (chips) di 10m

x 10m (Fig. 1) per ciascun punto

centroide rispetto alla copertura

dell’edificio.

Per la preparazione dei training

set relativi a coperture non

contenenti amianto sono stati

identificati campioni rappresentativi

di tetti realizzati con i più

svariati materiali (tetti in tegole,

lamiere, materiali verniciati, rivestimenti

bituminati, pannelli

solari, etc.) e di immagini di

porzioni di terreno libero: prati,

strade, campi coltivati, campi

sportivi, etc… (Fig. 2).

Nel corso del progetto è emersa

inoltre la necessità di fornire ulteriori

campioni di training utili

alla differenziazione di particolari

coperture tipiche di molte aree

collinari e montane realizzate

con materiali litoidi. Tali coperture,

infatti, possono risultare a

livello di ortoimmagini di medio

dettaglio, molto simili alle coperture

in amianto, introducendo

errori nelle fasi di training e

classificazione.

Complessivamente sono stati

creati tre training set (coperture

in MCA, coperture senza MCA,

coperture in materiali litoidi) per

ciascuna serie temporale delle

ortoimmagini di riferimento,

ciascuno contenente oltre 1000

campioni.

In fase di addestramento si vanno

a tarare progressivamente i

diversi parametri in modo da ottimizzare

la risposta della rete.

Tale attività comporta più cicli

di analisi e di valutazione del

livello di accuratezza dei risultati

ottenuti attraverso il confronto

tra immagini di training e immagini

di test.

L’addestramento ottimale di una

rete prevede l’utilizzo di enormi

quantità di dati e ingenti capacità

di elaborazione. Per ridurre

almeno in parte queste necessità

è stata utilizzata la tecnica denominata

fine tuning [6] [7], che

consiste nell’utilizzare i pesi (cioè

i parametri utilizzati dalle reti per

effettuare le elaborazioni) di un

modello già addestrato a riconoscere

diverse tipologie di oggetti

(Fig. 3). Le reti neurali procedono

su livelli di elaborazione in

sequenza: nel modello sono stati

modificati i 4 livelli finali per

adattarli alle esigenze progettuali

e addestrando quest’ultimi a riconoscere

solo due tipologie di

classi principali (tetti con MCA

e tetti senza MCA).

Al fine di ottimizzare la classificazione

di immagini tramite rete

neurale e per evitare il fenomeno

di over fitting (cioè il problema

che si può verificare quando la

rete impara a riconoscere solo

le immagini su cui è stata addestrata

a causa, ad esempio, di

uno scarso numero di campioni

8 GEOmedia n°6-2021


FOCUS

Fig. 5 - Esempio dell’applicazione WebGIS per l’editing multitemporale (dall’alto in basso le 4 schermate con ortofoto 2010-2015-

2018 e 2020 "Map data © 2020 Google")

forniti) sono state adottate due

tecniche: data augmentation

(prevede la modifica delle immagini

durante l’addestramento

con algoritmi specifici al fine di

aumentare in modo considerevole

il numero di immagini a

disposizione) e dropout (consiste

nell’ignorare in modo casuale

alcune fasi del modello durante

l’addestramento).

Classificazione

Terminato l’addestramento è stata

avviata la classificazione automatica

di tutti gli edifici presenti

sul territorio regionale attraverso

due procedure distinte.

La prima, prevede l’applicazione

della metodologia su Resto

Regione, quindi, l’estensione

della mappatura su tutto il territorio

regionale esterno all’area

prioritaria (oltre 15.000 kmq);

ha comportato un complesso

processo computazionale suddiviso

su più catene di calcolo

in grado di elaborare milioni

di immagini riferite ai singoli

edifici (otre 1.300.000 unità)

per ciascun anno di riferimento

temporale.

La seconda, consiste nell’applicazione

sull’Area Prioritaria cioè

l’applicazione del modello per

il monitoraggio delle trasformazioni

relative a tutte le coperture

in amianto già verificate in

campo con sopralluogo da parte

dei Dipartimenti nel periodo

2013-2020, per un totale di oltre

41.000 punti.

Il processo generale di classificazione

ha restituito per ciascun

edificio analizzato e per ciascun

anno di riferimento, un indice

numerico (variabile tra 0 ed 1)

rappresentativo della probabilità

di appartenenza alla classe delle

coperture con presenza amianto.

Terminata la fase di calcolo, i risultati

prodotti dalla rete neurale

sono stati rielaborati in ambiente

GIS e quindi analizzati al fine

di definire valori soglia e range

di attendibilità differenti per

ciascuno anno di riferimento, in

base alle differenti caratteristiche

spaziali, spettrali e tessiturali delle

diverse serie di ortoimmagini

utilizzate.

Definiti i valori soglia, i risultati

sono stati rielaborati associando

ad ogni edificio e per ciascun

anno di riferimento, la classificazione

finale:

• copertura con potenziale

presenza di amianto

• copertura senza amianto.

Dal confronto multitemporale

dei dataset sono inoltre stati

indentificati range di valori e

combinazioni degli stessi utili a

identificare possibili trasformazioni

delle coperture nel tempo.

Ciò ha consentito di introdurre

una nuova classe riferita alle potenziali

bonifiche intercorse nel

periodo di riferimento.

Ad esempio, nel caso di una copertura

positiva nel 2010 (valori

indice alti e quindi classificata

come “copertura con potenziale

presenza di amianto”), ma negativa

nel 2015, 2018 e 2020

(indice basso e quindi classificata

in quegli anni come “copertura

senza amianto”), la metodologia

prevede la segnalazione e riclassificazione

della copertura come

“potenziale bonifica” (Fig. 4).

In questo modo è possibile

ricomporre un quadro cronologico

coerente su scala regionale

GEOmedia n°6-2021 9


FOCUS

in grado di mettere a confronto

i dati della prima fase della mappatura

regionale in area prioritaria

con quelli della nuova mappatura

sul resto della Regione

nel decennio 2010-2020.

Inoltre, si possono identificare

non solo le coperture ad oggi

contenenti cemento-amianto,

ma anche quelle che negli ultimi

dieci anni hanno dato evidenza

di potenziale presenza di MCA e

su cui sono state effettuate operazioni

di bonifica e quindi avere

un quadro complessivo delle

attività di riduzione dell’amianto

in Piemonte.

Infine, la procedura consente

di disporre di dati storici su

presenza di potenziali bonifiche

rilevanti, per volumi coinvolti o

situazioni di particolare vulnerabilità

territoriale, su cui eventualmente

effettuare indagini

circa modalità e tempistiche dei

lavori di bonifica.

Verifica dati e collaudo

A partire dai risultati della fase

di classificazione è stata avviata

l’attività di validazione dei

risultati tramite verifica con

fotointerpretazione. Le attività

di correzione e integrazione sono

state realizzate attraverso editing

geografico sul 100% dei risultati

da modello (circa 86.000 punti).

L’attività ha permesso così di migliorare

e consolidare la classificazione

finale degli edifici ed eliminare

dai risultati un numero

significativo di casi catalogabili

come “falsi positivi”. Tali casi,

Tab. 1

PERCENTUALI

VERITÀ

CAMPIONE

STATISTICO

Verità

Amianto

Verità

bonificati

Verità Falso

Positivo

Previsti

come già evidenziato durante la

fase di messa a punto metodologica,

sono riconducibili in gran

parte a problemi locali di consistenza

e georeferenziazione degli

edifici cartografati in BDTRE o

dall’impossibilità di disporre di

un corretto allineamento degli

stessi rispetto alle varie serie di

ortoimmagini utilizzate dalla

metodologia.

Tenuto conto della dimensione

dei dati su cui effettuare la verifica

e della necessità di accedere

a strumenti a supporto della

fotointerpretazione e dell’editing

multitemporale anche da remoto,

è risultato indispensabile progettare

una piattaforma idonea

basata su servizi ed applicazioni

web oriented fruibili anche da

postazioni di lavoro “leggere”.

È stata pertanto sviluppata una

applicazione web basata su API

JS per ArcGIS che consente l’editing

geografico e alfanumerico

attraverso 4 finestre contemporanee

e sincronizzate, ciascuna

riportante i feature services e le

ortofoto dei relativi anni di riferimento

(Fig. 5).

Per garantire il monitoraggio

dell’avanzamento lavori e definire

modifiche alla pianificazione

effettuata è stata sviluppata

un’apposita dashboard di analisi

in tempo reale, in grado di fornire

lo stato di lavorazione delle attività

di verifica totali per singolo

fotointerprete e i dati inerenti

alla quantità e tipo di correzioni

effettuate sul dataset originario

(Fig. 6).

ESITO MODELLO MAIA

Previsti

Falso

Amianto Bonificati Positivo

95,9 2,6 1,5 100.0

11,8 88,2 0,0 100,0

12,5 0,8 86,7 100,0

Analisi statistica e documentazione

dei risultati

La fase finale della metodologia

prevede la verifica e il collaudo

statistico dei dati al fine di valutare

quantitativamente l’accuratezza

e l’attendibilità dei risultati

ottenuti dalla metodologia.

A tal fine dal dataset inziale dei

risultati dell’Area di indagine

(resto regione) è stato pertanto

estratto un campione statistico

casuale di 384 punti corrispondente

ad un livello di confidenza

del 95% con un intervallo di

confidenza del 5%[8].

Su questo campione è stata

quindi avviata l’attività di collaudo

tramite verifica puntuale

dei risultati attraverso una nuova

fase di fotointerpretazione. Per

ciascun punto è stato quindi registrato

l’esito del collaudo.

Gli esiti sono stati quindi rielaborati

per calcolare le percentuali

di accuratezza su ciascuna

classe (Tab. 1).

L’analisi di tipo statistico fornisce

chiaramente una prima

valutazione dell’accuratezza del

lavoro effettuato nell’applicare

la metodologia in tutte le sue

fasi: la verifica stessa dei risultati

è basta su fotointerpretazione e

quindi anche gli errori riscontrati

sono di fatto interpretati attraverso

la sola lettura del territorio

da immagini telerilevate a media

risoluzione.

Analizzando i risultati inerenti la

classe dei punti con potenziale

presenza di amianto la percentuale

di accuratezza è risultata

del 95,9%.

Nel 2,6% dei casi in cui il modello

ha fornito indicazioni di

potenziale bonifica la verifica ha

indicato presenza di amianto:

tali casi seppur percentualmente

minimi non incidono sul risultato

atteso finale, individuando

comunque coperture su cui si

intende indirizzare l’attività di

verifica con sopralluogo. Solo

l’1.5% dei casi riguarda invece

10 GEOmedia n°6-2021


FOCUS

situazioni in cui in cui il modello

non ha individuato coperture

con amianto rispetto alla realtà

riscontrata con il controllo finale.

Per quanto concerne la classe

delle potenziali bonifiche la

percentuale di accuratezza netta

risulta pari all’88,2%. Tale valore

apparentemente inferiore

ai valori di accuratezza registrati

sulle coperture in amianto, va

però analizzato congiuntamente

alle altre percentuali riportate in

tabella: l’11,8 % dei punti non

classificati come bonifica rientrano

infatti nella classe delle coperture

con amianto, mentre la

percentuale di erronea classificazione

(copertura non in amianto

o falso positivo) è pari allo 0%.

Ciò significa che la totalità dei

casi (100%) indica comunque la

presenza di amianto ad una certa

data, fornendo quindi una corretta

indicazione per lo svolgimento

delle attività di sopralluogo

e verifica in campo da parte

dei Dipartimenti Territoriali.

Risultati

L’applicazione della metodologia

MAIA per l’estensione e il

completamento della mappatura

sulla scala regionale ha permesso

di individuare circa 33.000 nuovi

edifici di cui circa 27.000 con

attuale presenza di MCA.

Attraverso l’analisi multitemporale

la metodologia ha consentito

di identificare inoltre

circa 6200 casi di coperture che

hanno subito nell’arco temporale

considerato (2010-2020), delle

trasformazioni legate a potenziali

processi di bonifica.

Sono state riscontrate molte

situazioni, anche con caratteristiche

dimensionali rilevanti

(coperture industriali di migliaia

di mq), che allo stato attuale

sarebbero difficilmente rilevabili

con le sole attività di verifica in

campo in quanto ormai totalmente

rinnovate e senza traccia

delle situazioni pregresse.

Fig. 6 - Esempio di dashboard per il monitoraggio in tempo reale delle attività di verifica dei risultati.

Ciò consente da una parte di

avere elementi di conoscenza

utili a valutare i procedimenti di

bonifica attuati, dall’altra di ricostruire

e aggiornare nel tempo

un quadro di riferimento dello

stato del territorio e delle sue

evoluzioni.

L’applicazione della metodologia

all’interno dell’area prioritaria

già oggetto della prima mappatura

si è posta invece l’obiettivo

di individuare potenziali cambiamenti

intercorsi sulle coperture

in amianto già verificate da parte

di Arpa negli anni passati.

Tale ipotesi progettuale nasce dal

fatto che tali coperture possono

aver subito, in data successiva al

controllo in campo, trasformazioni

e bonifiche non segnalate o

non ancora verificate.

Attraverso l’applicazione del modello

MAIA su ortofoto di anni

diversi è stato possibile analizzare

e confrontare l’evoluzione nel

tempo degli indici di probabilità

di presenza di amianto sulla

stessa copertura ed individuare

così i casi potenziali di bonifica o

rimozione dell’edificio.

In questo modo sono stati identificati

circa 4.900 casi di nuove

potenziali bonifiche ed è stata

confermata la presenza di MCA

su oltre 36.400 coperture. I successivi

sopralluoghi e controlli

in campo da parte dei tecnici

dell’Agenzia potranno confermare

o meno il processo di bonifica

dell’amianto e aggiornare il

quadro di conoscenza sullo stato

della presenza dell’amianto su

base regionale.

A termine dei lavori, tutti i risultati

sono stati quindi elaborati

ed integrati nel geodatabase del

Sistema Informativo Mappatura

Amianto [9] e messi a disposizione

dei dipartimenti territoriali

per l’avvio delle nuove fasi di

sopralluogo, verifica e analisi.

Conclusioni

L’esperienza maturata in

Piemonte negli anni ha dimostrato

le potenzialità e l’efficacia

del telerilevamento e delle

tecnologie di analisi GIS, quali

strumenti fondamentali per l’analisi

speditiva su vasta scala e in

particolare per i processi di mappatura

a scala regionale, come

richiesto dalla normativa vigente.

Il processo di riconoscimento e

classificazione delle coperture in

cemento amianto, sia in loco e

ancor più da telerilevamento, è

tuttavia fortemente condizionato

dalla complessità e dall’estrema

variabilità delle differenti

tipologie di prodotti e materiali

impiegati in edilizia nel corso dei

decenni. Per tali motivi, anche

GEOmedia n°6-2021 11


FOCUS

durante le attività di sopralluogo

per la verifica in campo delle

coperture è frequente la necessita

di dover ricorrere, oltre all’analisi

visiva e fisico-meccanica, a specifici

campionamenti e successive

analisi chimico-fisiche di laboratorio

per accertare con sicurezza

la presenza dei minerali asbestiformi

nei materiali.

Ciononostante, quanto realizzato

nello sviluppo del modello

MAIA, dimostra come l’utilizzo

integrato del remote sensing e

delle nuove tecnologie di deep

learning possano aprire possibilità

e scenari di analisi assolutamente

sorprendenti.

La capacità delle reti neurali di

apprendere e analizzare in modo

massivo grandi moli di dati, attraverso

la sola lettura di immagini,

consente di attuare processi

di analisi che per dimensioni e

scala non sarebbero altrimenti

attuabili con metodi tradizionali.

Selezionare e discriminare fra

milioni di oggetti permette di

aumentare la capacità predittiva

e di individuare quelle tipologie

di coperture su cui concentrare

le verifiche, guidando in modo

mirato e più efficiente le campagne

di controllo in campo.

Il progetto, realizzato con sole

risorse interne e senza investimenti

aggiuntivi, ha permesso

di completare in tempi molto

ridotti la mappatura sull’intero

territorio regionale e di impostare

un modello per il monitoraggio

periodico dei processi di

bonifica.

In questo senso riteniamo che

il lavoro effettuato e i risultati

raggiunti rappresentino oltre che

un modello innovativo di ricerca

applicata replicabile anche in

altre realtà regionali, uno strumento

fondamentale per l’azione

di Arpa e più in generale per il

perseguimento degli obiettivi

definiti dal Piano Regionale

Amianto.

RIFERIMENTI E SITOGRAFIA

Piano regionale Amianto: https://www.regione.piemonte.it/web/temi/ambiente-territorio/ambiente/amianto-bonifiche-terre-rocce-scavo/amianto

Regione Piemonte: Ripresa Aerea Ice 2009-2011 Ortofoto RGB e NIR: http://www.

geoportale.piemonte.it/geocatalogorp/?sezione=catalogo

http://www.geoportale.piemonte.it/geonetworkrp/srv/ita/metadata.show?uuid=r_

piemon:ec27a3da-2bd8-4f7d-8905-3ac28f488943

Regione Piemonte - BDTRE: https://www.geoportale.piemonte.it/cms/bdtre/bdtre-2

Keras - https://keras.io/

https://www.sciencedirect.com/topics/computer-science/convolutional-neural-networks

https://learnopencv.com/keras-tutorial-fine-tuning-using-pre-trained-models/

https://keras.io/guides/transfer_learning/

https://www.quadernodiepidemiologia.it/epi/campion/dimens.htm

https://webgis.arpa.piemonte.it/amianto_storymap_webapp/

BIBLIOGRAFIA

BONANSEA E., 2018 - “Il Progetto di mappatura dell’amianto in Piemonte” in

ECOSCIENZA, Volume 1 - Anno 2018, edito da Arpa Emilia Romagna, marzo

2018

Radovic, M.; Adarkwa, O.; Wang, Q. “Object Recognition in Aerial Images Using

Convolutional Neural Networks.” J. Imaging 2017, 3, 21. https://doi.org/10.3390/

jimaging3020021

Pirotti, F., Zanchetta, C., Previtali, M., and Della Torre, S.: DETECTION OF

BUILDING ROOFS AND FACADES FROM AERIAL LASER SCANNING

DATA USING DEEP LEARNING, Int. Arch. Photogramm. Remote Sens. Spatial

Inf. Sci., XLII-2/W11, 975–980, https://doi.org/10.5194/isprs-archives-XLII-

2-W11-975-2019, 2019.

Partovi, Tahmineh und Fraundorfer, Friedrich und Azimi, Seyedmajid und Marmanis,

Dimitrios und Reinartz, Peter (2017) Roof Type Selection based on patch-based classsification

using deep learning for high Resolution Satellite Imagery. In: International

Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences -

ISPRS Archives, XLII-1 (W1), Seiten 653-657. Copernicus Publications. ISPRS Hannover

Workshop: HRIGI 17, 06.-09. Juni 2017, Hannover, Germany. doi: 10.5194/

isprs-archives-XLII-1-W1-653-2017.

Francois Chollet - Deep learning with python, Novembre 2017

PAROLE CHIAVE

Intelligenza Artificiale; Sistemi Informativi; Ortofoto; Amianto

ABSTRACT

In 2013 Arpa Piemonte launched a first mapping of buildings potentially containing

asbestos cement that identified over 120.000 roofs in the most densely populated

areas of Regione Piemonte. The map was based on supervised image classification

techniques and traditional photo interpretation.

In 2020 (based on an experimental activity launched in 2019), Arpa Piemonte created

and applied a model called MAIA (Mapping of Asbestos with GIS and Artificial Intelligence

techniques) aimed at extending the mapping started in 2013 to the whole Piemonte

area and including the monitoring of asbestos roofs transformation over time,

already subjected to inspection, located in the areas analyzed in the first mapping.

MAIA has identified over 26.600 new buildings on a regional scale with potential

presence of asbestos and over 6.200 buildings whose roofs have undergone, potential

remediation processes between 2010 and 2020. In the area already subjected to

inspection, the model confirmed the presence of asbestos in over 36.400 roofs and it

has identified over 4.900 cases of new potential remediation.

AUTORE

Enrico Bonansea, Luca Forestello*, Ivan Cerato, Manuela Livorno, Gabriele

Nicolò, Fulvio Raviola, Isabella Tinetti, Teo Ferrero, Roberto Cassulo, Marcella

Alibrando, Massimiliano Carrino, Stefano Masera, Maria Cristina Prola

*Autore corrispondente: l.forestello@arpa.piemonte.it

Arpa Piemonte - Sistema Informativo Ambientale e Geografico, Comunicazione e

Educazione Ambientale

12 GEOmedia n°6-2021


FOCUS

GEOmedia n°6-2021 13


INTERVISTA

Interviste ad alcuni responsabili

di IDT regionali: presente e

prospettive

a cura di Franco Vico

Le infrastrutture di dati geografici di livello

regionale sono un tassello fondamentale nel

sistema complessivo di produzione, catalogazione,

distribuzione dell’informazione geografica. Questo

è certamente vero in Italia, ma anche in altri paesi

europei. Le regioni hanno le capacità finanziarie e

tecniche necessarie, quelle capacità che spesso

mancano ai livelli sotto-ordinati, ad es. ai comuni.

Mentre il livello nazionale è più lontano dal territorio e

ha altri ruoli.

Con questo in mente, abbiamo chiesto ai responsabili

di alcune IDT regionali di parlarci delle loro

esperienze, presentandole nella loro realtà concreta.

In questo numero sono pubblicate le interviste

relative alle Regioni Basilicata, Lazio e Lombardia,

mentre le interviste relative alle Regioni Veneto e

Piemonte sono già state pubblicate nel numero

5/2021 di GEOmedia (https://www.yumpu.com/

it/document/read/66063687/geomedia-5-2021).

Abbiamo anche chiesto ai responsabili delle IDT,

parlandoci delle loro esperienze, di confrontarsi con

i “punti di convergenza” del dibattito internazionali

sul futuro delle Spatial Data Infrastructure, individuati

nell’articolo Oltre le SDI: quali prospettive, pubblicato

sullo stesso numero 5/2021 di GEOmedia. Questo

ha fatto sì che le domande che abbiamo rivolto ai

responsabili delle 5 IDT, siano state più o meno

sempre le stesse. Anche l’ordine delle domande è

più o meno sempre lo stesso. Tutto ciò dovrebbe

rendere più facilmente confrontabili le interviste. E noi

sappiamo che è il confronto che fa capire le cose.

La Infrastruttura

per l’Informazione

Territoriale (IIT) della

Regione Lombardia

Colloquio con Fabio Conzi

e Piera Belotti, Struttura

SIT Integrato di Regione

Lombardia

GEOmedia (G):

Cominciamo con un inquadramento

della vostra

esperienza nel suo contesto.

Regione Lombardia

(RL): La Lombardia

con la l.r. 12/2005 per il

Governo del Territorio è

stata tra le prime a sviluppare

l’embrione (ovvero

il SIT) di quella che poi

sarebbe stata istituita dalla

Direttiva INSPIRE/2007

quale “Infrastruttura

per l’Informazione

Territoriale” (IIT), che

costituisce la base dati per

la progettazione del Piano

Territoriale Regionale,

strumento di attuazione

territoriale della strategia

regionale di sviluppo

sostenibile inserita nel

programma regionale

di sviluppo (PRS). Dal

punto di vista organizzativo

l’IIT si colloca nella

Direzione competente in

materia urbanistico-edilizia,

ed è stata concepita

per sostenere le politiche

regionali di governo e

sviluppo del territorio,

attraverso svariati strumenti/servizi

rivolti ad

una pluralità di utenti,

in particolare ai professionisti

e agli enti locali

che pianificano le scelte

di sviluppo urbanistico a

scala locale. Basti pensare

al fatto che tutti i piani

urbanistici per il governo

14 GEOmedia n°6-2021


INTERVISTA

del territorio e gli studi

di settore vengono

raccolti all’interno

del medesimo Portale

“Multiplan” accessibile

a tutti, dai regolamenti

edilizi comunali ad

altri servizi che interoperano

con sistemi

terzi, tra cui merita

citare il “Cruscotto

delle Emergenze” condiviso

con i soggetti

preposti al soccorso/

sicurezza e protezione

civile. I servizi geografici

realizzati dalla IIT

lombarda supportano

anche applicazioni

verticali in uso presso

altre Direzioni, quali

la D.G. Welfare (applicazioni

geografiche

per il sistema veterinario

e a supporto della

prevenzione), la D.G.

Formazione e Lavoro

(applicativi di supporto

all’offerta formativa

e sistema duale alternanza

scuola lavoro),

la DG Infrastrutture

(sistema della mobilità

e dei trasporti),

la DG Ambiente e

Clima (es. gestione

istanze di VIA), la DG

Agricoltura (applicativi

gestionali di ambito

agro-ambientale).

Tecnologicamente

l’attuale IIT lombarda

si fonda sulla piattaforma

“Regional

Enterprise platform

for Geographic

Information Services”

(REGIS) offrendo servizi

digitali geografici

alla PA, ai professionisti

alle imprese e

ai cittadini, grazie al

supporto della propria

società in house ARIA

Spa.

Per garantire prodotti

e servizi necessari, sia

internamente a Regione

sia agli enti collegati

del territorio, la scelta

è ricaduta molti anni fa

sulla piattaforma ESRI

che assicura un sistema

scalabile, affidabile e

basato su standard di

mercato. Di recente si è

aperto anche al mercato

Open Source, ad es.

predisponendo la distribuzione

del Database

Topografico in formato

gpkg (Geopackage) che

permette di superare le

considerando che il

concetto di utente

unico assume sfumature

differenti in funzione

dello strumento

di misura (in RL ci

si avvale di Google

Analytics per questo

tipo di conteggio).

Non essendo richiesta

profilazione/registrazione

per l’accesso

al Geoportale, non

siamo in grado di

individuare con precisione

le specifiche

tipologie di utente,

tuttavia sappiamo che

‟La maggior parte

dei dati della IIT è

open, ad eccezione di

informazioni che non

sono di proprietà di

Regione.

limitazioni del formato

shapefile, sviluppando

un SW gratuito in via

di sperimentazione,

per predisporre gli elaborati

del PGT.

G: Un mantra del dibattito

internazionale

sulle infrastrutture di

dati territoriali è “user

centric”: che cosa sapete

sugli utilizzatori

della vostra IIT?

RL: Gli utilizzatori

sono circa 17.000

nuovi utenti/mese,

ma è più significativo

l’elevato numero di

accessi/mese, pari a

circa 25.000/mese,


si tratta - principalmente

- di professionisti

e tecnici degli

Enti locali, studenti/

ricercatori, imprese e

grandi player di mercato.

Altrettanto vale

per quanto riguarda

l’utilizzo dei dati: non

si ha un quadro preciso,

ma il feedback

degli utenti che comunicano

attraverso

la casella mail “contattaci”

consente di

conoscerne la provenienza,

con l’ulteriore

vantaggio di migliorare

il Geoportale o

di rilevarne eventuali

malfunzionamenti.

Ad esempio, la de-

cisione di predisporre

“basi cartografiche

semplificate” partendo

dal DBT da utilizzare

per la redazione degli

elaborati della pianificazione

è emersa

proprio dalle proposte

di tecnici/professionisti

che operano in questo

ambito.

G: Anche colleghi di

altre IDT regionali

hanno rilevato questa

contraddizione: la

scelta della massima

apertura, il fatto di

non richiedere registrazione

si porta dietro

un effetto negativo, si

conoscono poco utenti

e utilizzi. Sono state

comunque intraprese

azioni specifiche per

conoscere meglio utenti

e utilizzi?

RL: Stiamo valutando

la riprogettazione del

Geoportale per semplificarne

l’utilizzo, ampliarne

i servizi in base

alle diverse tipologie di

utenza, non rivolgendosi

esclusivamente a

tecnici comunali e professionisti.

Più in specifico

ogni anno viene

svolta una “Customer

Satisfaction Survey”,

con la quale valutiamo

la soddisfazione relativa

a 5 parametri: trasparenza

(la reperibilità

delle informazioni sul

servizio); accessibilità

(la facilità di utilizzo

del servizio); tempestività

(tempi di risposta

del servizio durante

l’utilizzo per la ricerca,

il caricamento e il

download dei dati); efficacia

(corrispondenza

del servizio rispetto alle

GEOmedia n°6-2021 15


INTERVISTA

aspettative); assistenza

(la qualità complessiva

del servizio di assistenza).

Le percentuali

di soddisfazione sono

tutte superiori all’80%;

solo la valutazione della

tempestività è un po’

più bassa.

G: Caratterizziamo i

contenuti della IIT:

quali sono i dataset

presenti e quali i dataset

più utilizzati?

RL: I dataset più scaricati

sono:

4Carta Tecnica

Regionale 1:10.000

- CT10

4Tavola delle

Previsioni di Piano

dei Piani di Governo

del Territorio (a livello

del comune)

4Tavole piani territoriali

coordinamento

provinciali (PTCP)

4Aree Protette

4 Strade, ferrovie e

metropolitane

4Reticolo idrografico

regionale unificato

4Limiti amministrativi

2020-2021

4Vincoli paesaggistici

4Piano paesaggistico

regionale

4Piano di tutela e uso

delle acque (PTUA

2016)

Con accesso dal singolo

metadato:

4Database

Topografico (DBT)

regionale: data di rilievo/aggiornamento

4Direttiva Alluvioni

2007/60/CE -

Revisione 2020

4Direttiva alluvioni

2007/60/CE -

Revisione 2015

4Evoluzione temporale

ortofoto

4Mappe catastali

4Carta Base da DBT

(raster)

4Aree Protette

4Ortofoto AGEA

2018

4Uso e copertura del

suolo 2018 (DUSAF

6.0)

4Reticolo Idrografico

Regionale Unificato

Tutti questi dati trovano

corrispondenza

nei temi INSPIRE: il

Geoportale facilita la

ricerca mettendo a

disposizione la sezione

delle categorie ISO e

INSPIRE all’interno

della quale è possibile

utilizzare specifici filtri.

G: Quali sono i servizi

presenti e servizi più

utilizzati?

RL: Detto che la IIT

di Regione Lombardia

eroga oltre 700 servizi

di mappa configurabili

con tutti gli standard

(es. WMS, WMTS,

WFS), sono presenti

tutti i servizi che ci

si aspetta: servizio di

consultazione del catalogo

dei metadati;

servizio di download

dati vettoriali/raster;

servizi OGC; Galleria

delle mappe; statistiche

del Geoportale, tool

che evidenzia le parole

chiave più usate.

G: Nella costruzione

di una IDT, in particolare

al livello di una

Regione, è normale

scoprire che esistono

dataset che in parte si

sovrappongono, gestiti

da soggetti diversi che

non si parlano... Cosa

state facendo in materia?

RL: La “Struttura SIT

Integrato” partecipa

come rappresentante di

RL agli incontri della

Consulta Nazionale per

l’Informazione Territoriale

ed Ambientale

(CNITA), che, attraverso

diverse sezioni

tecniche, ha ruolo di

governance dell’informazione

geografica

a livello nazionale,

rispondendo in primis

alla direttiva INSPIRE;

si sta attivando un coordinamento

regionale

in merito alla produzione

di informazioni

e dati cartografici tra

tutti i soggetti che li

detengono, partendo

dalla mappatura delle

competenze e delle

materie delegate. Questo

implica il raccordo

con tutte le PA locali e

le società controllate/

partecipate lombarde

che gestiscono dati

geografici utili a tutti e

che ancora non li condividono.

G: Harvesting di dataset

di altri soggetti PA

(Comuni, ASL…)?

RL: Scambiamo informazioni

geografiche

con tutte le PA lombarde

(e non) tramite applicativi

web ma anche

manualmente, ai fini

della messa a disposizione

nel Geoportale

o in aggiornamento di

prodotti quali, ad es., il

Database Topografico.

Il DBT regionale di

primo impianto è nato

credendo in un modello

“bottom up” fondato

sulle capacità delle PA

locali di gestire, attraverso

consorzi, appalti

di produzione con

il co-finanziamento

regionale. La frammentazione

a volte ha funzionato

bene, a volte

meno, il risultato ha

portato alla produzione

parziale del DBT e alla

disomogeneità nei contenuti

e nella qualità,

che si rileva osservando

il DBT attuale. Non a

caso si prevede di adeguarlo

puntando anche

ad un raccordo con il

Catasto per future integrazioni

tra le banche

dati di rispettiva competenza.

Purtroppo, a

causa principalmente

dell’endemica carenza

di competenze (in particolare

in ambito GIS)

nelle PA, RL è dovuta

intervenire per completare

il DBT, e analoga

azione verrà portata

avanti con l’appalto per

il suo aggiornamento,

già programmato.

Concludendo, la scala

regionale è quella migliore

per la produzione/aggiornamento

di

uno strumento come

il DBT, ma è necessario

coinvolgere le PA

locali nella verifica dei

contenuti, e in futuro

nell’aggiornamento

puntuale, partendo

dalla necessaria diffusione

delle competenze

in ambito GIS. Un

passo indietro per

poterne fare uno più

significativo in avanti.

G: Chi finanzia e chi

gestisce la IDT?

16 GEOmedia n°6-2021


INTERVISTA

RL: La copertura dei

contratti di gestione

e manutenzione evolutiva

della IIT è in

buona parte finanziata

con risorse autonome.

Grazie alla partecipazione

a progetti della

UE (Interreg, POR),

si riesce ad intercettare

risorse utili. La carenza

maggiore si riscontra

per le risorse umane

e la formazione, con

particolare riferimento

all’attività di coordinamento

e ai tavoli di

lavoro citati in precedenza.

G: Open data, qual è la

situazione?

RL: La maggior parte

dei dati della IIT è

open, ad eccezione di

informazioni che non

sono di proprietà di

Regione. Di recente

abbiamo modificato la

licenza per i dati aperti

in CC 4.0 internazionale.

G: INSPIRE compliant:

che cosa è stato

fatto? Quanto rilevante

in pratica è valutato

questo aspetto?

RL: Per quanto riguarda

i metadati, si è

lavorato per essere conformi

alle specifiche

INSPIRE almeno per

quanto riguarda i priority

dataset (come indicato

da AgID/RNDT)

in modo da contribuire

all’harvesting annuale.

Siamo consapevoli

di che cosa si debba

realizzare; dobbiamo

investire molte risorse/

attività nella creazione

di servizi in quanto - al

momento - disponiamo

di molti servizi

di consultazione che

aggregano più livelli

informativi (in questo

caso il metadato non

è associato al singolo

dataset ma al servizio).

Successivamente si

dovrà investire nell’aggiornamento

dei dati

coinvolgendo i produttori

dei dati e sull’armonizzazione.

G: Si dice, non dati ma

informazione. Quali

tools di visualizzazione,

analisi, simulazione…

utili per rendere più facile,

ma soprattutto più

efficace l’uso dell’informazione

geografica

della IIT, avete messo

in campo o state progettando?

RL: Dal Geoportale si

accede ai servizi della

rete interregionale di

stazioni permanenti

GNSS (SPIN3 GNSS)

che integra in un unico

centro di gestione le

stazioni di Piemonte,

Lombardia e Valle d’Aosta,

e fornisce all’utenza

pubblica/privata

il posizionamento di

precisione e diffusione

delle coordinate nel

sistema di riferimento

ufficiale.

Abbiamo realizzato dei

tools che consentono

di confrontare tra loro

ortofoto storiche, l’evoluzione

storica dei

limiti amministrativi

(fusioni dei comuni nel

tempo), l’uso agricolo

del suolo.

Abbiamo sviluppato

due applicativi, il

primo, l’ ”Attestato

del Territorio”, consente

di ottenere, su

un punto definito

dall’utente, una serie

di informazioni che

inquadrano il territorio

nei suoi aspetti legati

all’atmosfera (vento,

precipitazioni, fulmini,

inquinanti, classificazione

acustica), al suolo

(quota, pendenza,

numero del mappale

catastale, uso del suolo,

max altezza neve, frane,

aree allagabili, classe

di fattibilità geologica,

interferometria radar,

vincoli), al sottosuolo

(accelerazione sismica,

geologia, radon). Il

secondo applicativo,

"Interroga il Territorio"

(a breve diventerà

“Interroga il Territorio

e il Paesaggio”), analogamente

al precedente,

evidenzia la vincolistica

urbanistica, paesaggistica,

ambientale presente.

Entrambi gli applicativi

producono una

reportistica che aiuta la

consultazione integrata

di informazioni geografiche,

e aiuta nella

corretta progettazione

del territorio.

G: Il concetto del

Geospatial Ecosystem,

inteso come integrazione

di dati provenienti

da crowdsourcing, da

fonti commerciali o

private..., è una prospettiva

praticabile?

RL: Al momento

Regione Lombardia

non ha collaborazioni

attive con soggetti

privati in tal

senso, o iniziative di

crowdsourcing. In realtà

un primo ecosistema

digitale era stato realizzato

in occasione di

EXPO Milano 2015, il

Cruscotto Emergenze,

per gestire sicurezza/

emergenze legate all’evento.

Certamente

c’è l’intenzione di

proseguire il percorso

creando ecosistemi

che integrino le informazioni

geografiche

e non, a disposizione

delle diverse Direzioni

Generali dell’Ente.

Idealmente, in RL si

potrebbero individuare

5 “ecosistemi digitali”:

Ambiente e Clima,

Casa, Mobilità sostenibile

e qualità dell’Aria,

Safe&Security e Tutela

e valorizzazione del

Territorio.

Siamo ben consapevoli

dei benefici ottenibili

lavorando per ecosistemi

digitali: scambio di

patrimonio informativo

tra soggetti/Enti

diversi; incidere sulle

“sinergie” dei sistemi

più maturi e strategici,

agevolando il raccordo

tra le politiche digitali

delle diverse Direzioni

Regionali/Enti e

Società del Sistema

regionale allargato.

Siamo altrettanto consapevoli

delle difficoltà

connesse alla carenza

di competenze e personale

all’interno della

PA, e non solo: oltre a

sensibilizzare i decisori

politici, ai vari livelli

istituzionali, della necessità

di valorizzazione

delle competenze dei

funzionari tecnici e

dei loro responsabili,

occorre incentivare for-

GEOmedia n°6-2021 17


INTERVISTA

me di collaborazione

pubblico/privato che

accrescano le capacità

di gestire la pianificazione

territoriale negli

ambiti locali in cui ciò

avviene, quindi presso i

Comuni e gli Enti che

operano sul territorio.

In Lombardia ci sono

diversi esempi che

hanno attuato queste

politiche realizzando

sinergie virtuose con

ricadute molto positive

sul territorio, sia

per chi lo amministra,

sia per chi lo vive e ci

lavora.

G: Per concludere,

parlando della vostra

IIT, quale è l’aspetto

che vorreste mettere in

evidenza?

LR: Ha per certi versi

a che vedere con le origini

della IIT. Regione

Lombardia, facendo seguito

alla riforma della

propria legislazione in

materia urbanistica, avvenuta

come detto nel

2005, ha scelto di costituire

una banca dati

della pianificazione

comunale/provinciale

attraverso la collaborazione

diretta degli

Enti Locali, ai quali

viene chiesta la fornitura

dei dati secondo

specifiche comuni.

Questo, per citare un

caso di successo, ha

permesso di progettare

il Piano Territoriale

Regionale per la riduzione

del consumo di

suolo con i dati reali

delle previsioni urbanistiche

dei singoli

Comuni (oltre 1500 in

Lombardia). Il processo

vede l’acquisizione

di una media di 400

diversi piani/varianti

di piano urbanistici

all’anno, consentendo

di ottenere una banca

dati con un grado di

aggiornamento adeguato;

recentemente si

è resa automatica l’acquisizione

delle informazioni

sul consumo

di suolo dai Comuni.

Al fine di migliorarne

ulteriormente la precisione

e soprattutto per

aumentare la velocità

con cui avvengono le

forniture, come sopra

detto è in corso un

progetto di prima sperimentazione

volto alla

realizzazione di un software

che permetterà

la redazione dei PGT

già sotto forma di banca

dati geografica, già

rispondente alle specifiche

regionali e quindi

pronto alla pubblicazione

sul BURL. E’

una evidente semplificazione

procedurale,

oltre ad una garanzia

di maggior qualità e

controllo dei dati geografici

di ritorno, che

sono subito rimessi alla

disponibilità di tutti gli

interessati attraverso il

Geoportale.

La Infrastruttura Dati

Territoriali (IDT) della

Regione Lazio

Colloquio con Simone

Patella, Responsabile

della IDT della Regione

Lazio

GEOmedia (G):

Cominciamo con un

inquadramento della

vostra esperienza

Regione Lazio (RL):

Le Infrastrutture Dati

Territoriali sono un

importante strumento

di analisi e condivisione

delle informazioni,

tanto che è in continua

crescita la richiesta di

accesso ad un numero

sempre maggiore di

banche dati, di alta

qualità ed aggiornate.

L’Assessorato alle

Politiche Abitative,

Urbanistica, Ciclo

dei Rifiuti e Impianti

di Trattamento,

Smaltimento e

Recupero, della

Regione Lazio ha da

tempo investito nella

realizzazione di queste

piattaforme, facendo

propria la prospettiva

che vede i dati quale

patrimonio della comunità.

G: Entrando nel merito,

pensiamo sia giusto

cominciare dagli utilizzatori

e dagli utilizzi.

Quanto li conoscete?

RL: La IDT regionale

non richiede registrazione,

se non per personalizzare

l’esperienza

di navigazione o fruire

dei servizi verticali: in

questi casi, l’utente può

autenticarsi con SPID,

CIE o CNS.

La Regione applica by

default un approccio

minimale alla raccolta

dei dati e non ci sono

quindi grandi possibilità

di classificare la

tipologia di utenti; tramite

il servizio Google

Analytics, sappiamo

però che l’utilizzo della

piattaforma si attesta

sui 5.000 utenti unici

al mese.

Tanto premesso, la

IDT si rivolge ad

un’ampia platea di

utilizzatori: i tecnici

della PA, che la utilizzano

come supporto

per le istruttorie delle

pratiche; imprese e

professionisti, che ne

fanno uso per la predisposizione

di progetti

da presentare alle PA;

gli studenti o gli enti

di ricerca e, infine, i

cittadini, che possono

trovare all’interno del

Geoportale una prima

risposta alle proprie

curiosità.

G: Dunque gli utenti

non si registrano. Avete

comunque attivato

canali per ricevere

feedback, commenti...

dagli utenti?

RL: Certamente, l’help

18 GEOmedia n°6-2021


INTERVISTA

desk è il primo di questi

canali. Gli utenti si

rivolgono agli operatori

per avere informazioni

sull’utilizzo della

piattaforma, i dati

pubblicati e i servizi

erogati: dai colloqui

spesso nascono dei

suggerimenti che permettono

di migliorare

le modalità di fruizione

del Geoportale.

Un altro strumento

sono i questionari di

gradimento, che vengono

periodicamente

sottoposti e permettono

di conoscere

meglio l’utenza e di

raccogliere idee o

commenti su come

migliorare la piattaforma.

La Regione organizza

inoltre dei webinar

(7 nel 2021),

per formare gli

utenti sui GIS e sul

migliore utilizzo del

Geoportale; a volte, da

questi incontri scaturiscono

ulteriori collaborazioni

con l’utenza

interessata.

Quello che riscontriamo

è l’esigenza

di poter attingere ad

un maggior numero

di dati cartografici,

nonché alle specifiche

tecniche sulla loro realizzazione

(informazioni

spesso non reperibili

nel solo metadato);

alcune richieste si focalizzano

invece sulla

possibilità di avere

ulteriori servizi sul

Geoportale e strumenti

di analisi ancora più

evoluti.

G: A grandi linee,

quali sono i dataset

presenti e quali i dataset

più utilizzati?

RL: Il Geoportale

pubblica circa 300

strati, per lo più

sotto forma di dati

vettoriali; il 36%

riguarda dati cartografici

di base

o di urbanistica

(es. il Database

Geotopografico

Regionale); il 22%

riguarda l’Ambiente

e la Natura; il 21%

afferisce all’ambito

‟Tutti i dati pubblicati

sul Geoportale,

ad eccezione di quelli

non di proprietà regionale

o aventi un

contenuto sensibile,

sono distribuiti in

Open Data

dell’Agricoltura; il

19% fa riferimento

alla salvaguardia del

Paesaggio; il restante

2% comprende l’archivio

della fototeca

regionale.

Tutti i dataset pubblicati

sono realizzati

dalle strutture

regionali che hanno

competenza sulla

specifica materia;

la IDT regionale,

infatti, pur essendo

il punto unico di

divulgazione, delega

ad ogni struttura

regionale la pubblicazione

e gestione

dei propri contenuti

cartografici.

G: Quali sono i servizi

più utilizzati?

RL: La IDT Regionale

è stata costruita interamente

con software

open source e più del

95% dei dati pubblicati

sono liberamente accessibili

da chiunque;

il restante 5% sono

dati non divulgabili

per via delle licenze

d’uso applicate o per

problematiche afferenti


alla privacy (es. il dato

catastale).

Tutti i dati pubblicati

sono accessibili tramite

i servizi OGC

standard (come richiesto

dalla Direttiva

INSPIRE), quali il

Web Map Service

(WMS), il Web

Feature Service (WFS)

e il Web Coverage

Service (WCS), che

ne permettono l’accesso,

l’interrogazione ed

il download tramite

software di terze parti,

anche in sistemi di coordinate

differenti.

Ad ogni dato sono

associati dei metadati,

costruiti conformemente

alle linee guida

prodotte dall’AGID;

anche i metadati sono

accessibili da remoto

(operazione di harvesting)

utilizzando il

Catalogue Services for

the Web (CSW).

Di questi servizi, sicuramente

il WMS è

quello più richiesto,

seguito dal WFS, dal

CSW ed infine dal

WCS.

Oltre ai servizi OGC

standard, la piattaforma

è anche lo strumento

ideale sul quale

far convergere gli sforzi

di digitalizzazione di

quelle procedure amministrative

di competenza

regionale che

hanno nel dato cartografico

il fondamento

del loro iter; queste

procedure possono

essere erogate online

sotto forma di servizi

verticali della IDT. La

Regione ha avviato una

prima sperimentazione,

realizzando tre diversi

servizi verticali.

Il primo servizio, ad

uso esclusivo regionale,

riguarda l’integrazione

con il sistema di

interscambio del dato

catastale dell’Agenzia

delle Entrate; il servizio

permette di ricevere

gli aggiornamenti

vettoriali e censuari del

catasto, che i funzionari

regionali possono

visualizzare ed interrogare

per verificare i

dati delle loro pratiche.

Un secondo servizio

riguarda gli impianti

geotermici; il terzo

è rivolto alle attività

inerenti alla gestione

GEOmedia n°6-2021 19


INTERVISTA

forestale (tagli, piantumazioni,

ecc.). In

entrambi questi casi,

i servizi permettono

all’utente autenticato

di avviare una procedura

amministrativa

online, di caricare la

documentazione necessaria

e di identificare la

componente geografica

oggetto della richiesta;

questi servizi possono

fornire una prima

risposta operando un

incrocio delle informazioni

inserite con,

ad esempio, i vincoli

urbanistici e ambientali;

altrimenti, la pratica

viene assegnata digitalmente

al funzionario

di riferimento, che

procede con l’istruttoria,

fino all’emanazione

dell’atto finale.

G: Uno dei principi

fondativi delle IDT è

il riuso dei dati, il che

comporta che siano

individuati i dataset

di riferimento, chi li

gestisce e chi ne è responsabile:

cosa fate in

questa direzione?

RL: Il Sistema

Informativo

Territoriale Regionale,

della Direzione

Regionale per le

Politiche Abitative

e la Pianificazione

Territoriale, Paesistica

e Urbanistica, che

gestisce la IDT con il

supporto della Società

in-house LazioCREA

SpA., è da sempre in

stretto contatto con le

altre strutture regionali

al fine di fornire supporto

nella individuazione,

trasformazione

o realizzazione di banche

dati spaziali. Con

Delibera di Giunta

Regionale n. 663/2021

è stato inoltre istituito

un tavolo tecnico per

l’informazione geografica,

nel quale sono

chiamate a partecipare

tutte le strutture regionali

che hanno interesse

nella tematica.

G: Harvesting da dataset

di altre PA subregionali:

che cosa è in

atto e/o in progetto?

RL: Attualmente,

l’harvesting dei dati

cartografici avviene

soltanto dalla piattaforma

regionale, verso il

Repertorio Nazionale

dei Dati Territoriali,

gestito da AGID. Il

passaggio successivo

sarà, senz’altro, anche

quello di avviare una

maggiore integrazione

con le piattaforme

sub-regionali, tramite

harvesting dei dati pubblicati

sui loro sistemi.

G: Open data: qual è la

situazione?

RL: Tutti i dati pubblicati

sul Geoportale,

ad eccezione di quelli

non di proprietà regionale

o aventi un

contenuto sensibile,

sono distribuiti in open

data, sulla base della

legge regionale n. 7 del

2012. La licenza d’uso

applicata è la Creative

Commons By 4.0, che

prevede il solo vincolo

dell’indicazione della

fonte da cui proviene il

dato utilizzato.

G: INSPIRE compliant:

anche in questo

caso, qual è la situazione?

RL: La realizzazione

della piattaforma è

stata sin dall’inizio

vincolata agli standard

richiesti dalla Direttiva

INSPIRE, al fine chiaramente

di esserne

conformi. Attualmente

la IDT regionale risponde

ai requisiti della

Direttiva e, nel corso

dei suoi aggiornamenti,

si provvede a mantenere

il passo anche

con le evoluzioni che

inevitabilmente vengono

apportate a livello

Europeo o Nazionale.

Anche per quanto

riguarda i metadati si

seguono le linee guida

predisposte da AGID,

che a loro volta assicurano

la conformità ad

INSPIRE.

Più difficoltoso è

il processo di adeguamento

alle Data

Specifications relative ai

diversi temi INSPIRE.

Finora, l’attenzione è

stata rivolta alla promozione

dei sistemi

geografici e alla pubblicazione

dei dati,

meno alla conformità

di questi alla Direttiva

INSPIRE.

È questo chiaramente

un tema che dovrà essere

affrontato in futuro,

dalla Commissione

Europea al fine di semplificare

tale aspetto, o

dagli enti pubblici che

dovranno conformare

i loro dati a tali indicazioni.

G: Non dati ma informazione:

quali sono i

tools accessibili attraverso

il Geoportale utili

per rendere più facile e

efficace l’uso dell’informazione

geografica?

RL: Il Geoportale

fornisce ovviamente

tutti gli strumenti di

base per la navigazione

dei livelli informativi

presenti a catalogo,

come zoom, pan, interrogazione

e così via.

È possibile ricercare

una posizione per coordinate,

indirizzi (servizio

di geo-codifica

di OpenStreetMap) o

tramite fogli e particelle

catastali; stampare

o scaricare i contenuti

caricati in mappa;

visualizzare le tabelle

alfanumeriche associate

ai dati vettoriali, con la

possibilità di applicare

dei filtri sia alfanumerici,

che spaziali (buffer,

intersezioni, ecc).

I referenti regionali

possono predisporre

delle mappe costituite

da più livelli informativi,

di modo che l’utente

possa concentrarsi

principalmente sulla

navigazione e l’interrogazione,

e tralasciare

i dettagli sull’impostazione

del progetto.

Con gli ultimi aggiornamenti

della piattaforma,

è stata inoltre

introdotta la possibilità

di editare online gli

strati informativi, così

da permettere anche

ad utenti non esperti il

popolamento e la gestione

del dato spaziale.

G: Ha preso piede il

concetto del Geospatial

Ecosystem, cioè l’integrazione

tra fonti

20 GEOmedia n°6-2021


INTERVISTA

pubbliche, fonti commerciali

o private,

crowdsourcing...: è una

prospettiva praticabile?

RL: La possibilità di

integrare informazione

pubblica e privata è

senz’altro interessante,

ma la pubblica amministrazione

è tenuta a

fornire un dato certificato

e preciso, e non

sempre il dato raccolto

in crowdsourcing è in

grado di rispettare questi

vincoli. Pertanto, si

accede a queste risorse

solo qualora il dato

necessario non sia altrimenti

disponibile (es.

il già citato servizio di

geo-codifica fornito da

OpenStreetMap).

Considerando che il

Geoportale permette

ora di operare editing

online sui livelli vettoriali,

sarà comunque

possibile avviare una

sperimentazione in tal

senso, per poi verificare

la qualità di quanto

raccolto.

‟La politica

utilizzata

dalla Regione

è che ogni

dato validato

è un dato a

disposizione

della comunità,

ed è quindi disponibile

in Open Data


La Regional Spatial

Data Infrastructure

(RSDI) della

Regione Basilicata

Colloquio con Anna

Maria Grippo,

Responsabile della

RSDI della Regione

Basilicata; Vincenzo

Viti, Ingegnere GIS

Senior, e Francesco Di

Trani, Ingegnere GIS

Senior

GEOmedia (G):

Comincerei con un

dettaglio, perché avete

deciso di utilizzare

l’acronimo RSDI, cioè

Regional Spatial Data

Infrastructure, in inglese?

Regione Basilicata

(RB): La strategia di

sviluppo della IDT regionale

è nata intorno

ad un progetto pilota

in collaborazione con

il CNR di Basilicata,

nel 2006. Con la

pubblicazione della

Direttiva INSPIRE

nel 2007, si consolidò

l’idea di implementare

una infrastruttura basata

sulla disponibilità

di informazioni e dati

riguardanti il territorio

condivisi fra tutti i

soggetti operanti ai vari

livelli istituzionali. Lo

scopo era creare una

federazione di tutti i

SIT esistenti, e costituire

una community

di soggetti produttori,

distributori e utilizzatori

dell’informazione

geografica attraverso

una gestione del dato

basata sui principi

dell’interoperabilità e

della multidisciplinarietà.

Pertanto, per distinguere

questa infrastruttura

dal tradizionale

concetto di SIT si scelse

l’acronimo inglese:

RSDI.

G: Ma entriamo nel

merito, cominciando

da a che serve la IDT:

chi sono i suoi utilizzatori

e gli utilizzi più

importanti?

RB: Ci sono due

modalità di accesso

all’Infrastruttura dei

Dati Territoriali della

Regione Basilicata

(rsdi.regione.basilicata.

it). Gran parte dei dati

e delle applicazioni è

ad accesso libero, con

licenza IODL 2.0. Ci

sono dei dati riservati

al personale della PA

lucana: l’accesso è regolato

mediante l’uso

dello SPID e ciascun

utente può utilizzare

solo le applicazioni e i

dati per cui è autorizzato.

Ogni mese, in media,

su tutta la infrastruttura,

si contano circa

150.000 visualizzazioni,

quindi 5000 al

giorno, effettuate da

circa 1500 utenti al

giorno, fra accesso libero

e riservato.

Gli utenti autorizzati

ad accedere alla sezione

riservata sono circa

1000, e sono utenti

afferenti principalmente

alle PA operanti

sul territorio lucano,

ma anche Guardia di

Finanza, Carabinieri,

Università degli Studi

della Basilicata. A

questa comunità si aggiungono

anche liberi

professionisti, aziende,

e, più in generale, privati

cittadini che, per

esigenze lavorative o

personali, utilizzano

applicazioni e dati

pubblici.

G: Mentre sapete chi

sono gli utilizzatori

della PA e sapete (o

vi immaginate) quali

utilizzi fanno dei dati e

dei servizi, cosa sapete

degli utilizzatori non

registrati?

RB: Diamo molta importanza

alla creazione

di un rapporto diretto

e bidirezionale con gli

utilizzatori della IDT.

Perciò, da oltre 6 anni

stiamo impegnando

risorse nella gestione di

strumenti comunicativi

quali newsletter e

social.

Questo ha permesso di

GEOmedia n°6-2021 21


INTERVISTA

costruire un forte legame

con la comunità,

che attivamente partecipa

al mantenimento

della piattaforma (ad

es. segnalando malfunzionamenti)

ed anche

al miglioramento dei

servizi offerti. Ne è un

esempio il servizio di

download dei progetti

QGIS, suddivisi per

comuni, della Carta

Tecnica Regionale

vettoriale, nato su proposta

della comunità.

Questi project files

servono a chi vuole

avere tutto quanto è

necessario per ulteriori

eleborazioni in locale

con QGIS.

G. Caratterizziamo la

IDT regionale: quali

dataset sono presenti e

quali sono i dataset più

utilizzati?

RB: Per quanto riguarda

i dataset (disponibili

in parte anche per il

download), il punto di

partenza è il Catalogo

Regionale dei Geodati.

In questo Catalogo

sono presenti attualmente

284 schede di

metadati, riguardanti

i dataset e i servizi disponibili,

secondo le

linee guida indicate da

AgID.

Questi metadati sono

periodicamente raccolti,

tramite harvesting,

dal Catalogo del

Repertorio Nazionale

dei Dati Territoriali

(RNDT) di AgID.

Il Catalogo regionale è

inserito nel Geoportale

di RSDI-Basilicata,

insieme a varie applicazioni

web che consentono

di visualizzare

i dataset come layers

sovrapposti, realizzando

così una serie di

tematismi specifici.

La RSDI utilizza

poi anche dati provenienti

da altre

fonti (AGEA, IGM,

Portale Cartografico

Nazionale, Agenzia

delle Entrate), non

presenti nel Catalogo,

che consentono di

completare e migliorare

la visualizzazione e la

consultazione dei dati.

Alcuni di questi dati

sono disponibili solo

nella sezione riservata

alla PA.

Tra i dati che la IDT

rende disponibili,

sono importanti i dati

catastali. Un servizio

accessibile liberamente,

piuttosto utilizzato, è

la consultazione delle

Mappe Catastali di

Impianto. La Regione

Basilicata, in seguito ad

un accordo con la ex

Agenzia del Territorio,

ha effettuato la scansione

delle Mappe

Catastali originali di

impianto, e ne consente

il download attraverso

una specifica

applicazione inserita

nel Geoportale. Sono

disponibili per la consultazione

anche i dati

catastali geografici, aggiornati

periodicamente

tramite un sistema

di interscambio con

l’Agenzia delle Entrate,

e rielaborati in modo

da essere sovrapponibili

ad altri layer di base

(Ortofoto, CTR, etc.).

Non hanno carattere

di ufficialità dal punto

di vista legale, ma sono

comunque ritenuti di

grande utilità da parte

degli utenti.

G: E per quanto riguarda

i servizi, quali

sono quelli presenti e

quali sono i più utilizzati?

RB: Le tipologie di servizi

presenti nell’Infrastruttura

RSDI appartengono

a 3 categorie

principali:

4servizio di consultazione

CSW per il

Catalogo dei metadati

4servizi di visualizzazione

WMS utilizzati

nelle applicazioni

WebGis

4servizi di download

WFS, anch’essi

presenti in alcune

applicazioni

Questi servizi sono

tutti conformi alle

normative RNDT e

INSPIRE.

Gli strumenti utilizzati

per realizzarli sono tutti

di tipo opensource

o comunque molto

diffusi (Geonetwork,

Geoserver, Mapserver),

come anche i Database

(PostGis), opportunamente

personalizzati.

I servizi più utilizzati

sono quelli di visualizzazione,

ma un grande

utilizzo ne viene fatto

anche per il download,

utilizzando le applicazioni

che lo consentono,

e per la ricerca

e consultazione dei

metadati.

Gli stessi servizi sono

comunque utilizzabili

tramite software GIS di

tipo desktop (come ad

es. QGIS) per visualizzare

e/o scaricare dati.

G: Focalizziamo l’attenzione

sui flussi

informativi tra la IDT

regionale e gli altri

soggetti pubblici attivi

nella Regione: che cosa

è in atto e/o in progetto?

RB: Possiamo dire che

non esiste un vero e

proprio harvesting da

altri enti o soggetti

pubblici, non essendovi

altri servizi locali da cui

attingere in automatico

dati e informazioni, ma

comunque la RSDI-

Basilicata, attraverso

opportuni accordi,

pubblica dati provenienti

da altri Enti,

come Consorzio di

Bonifica di Basilicata,

Acquedotto Lucano,

Autorità di Bacino,

Sistema Informativo

della Montagna

(Carabinieri Forestali).

G: Open Data, certamente

l’attenzione per

questo tema è qualificante

per una IDT:

quali azioni sono state

fatte, quali azioni sono

previste, quali azioni

sono auspicabili su

questo tema?

RB: La politica utilizzata

dalla Regione è

che ogni dato validato

è un dato a disposizione

della comunità, ed

è quindi disponibile

in Open Data (non i

layer sensibili, l’utilizzo

dei quali è comunque

sempre possibile previa

autorizzazione).

In conseguenza

dell’harvesting automa-

22 GEOmedia n°6-2021


INTERVISTA

tico effettuato periodicamente

dal RNDT,

tutto quanto pubblicato

è anche trasferito nel

Catalogo Open Data

nazionale (dati.gov.it)

ed europeo. In questo

modo viene ampliata

la potenziale platea di

utilizzatori dei dati.

Il nostro impegno sul

tema degli OpenData è

stato riconosciuto già 5

anni fa dall’Associazione

OpenGeoData Italia

che ha assegnato alla

Regione Basilicata il riconoscimento

Regione

OpenGeoData 2016,

per aver seguito un

iter virtuoso di pubblicazione

di dati

geografici opendata,

compresa la pubblicazione

nel 2015 e 2016,

con licenza open,

di tutto il DataBase

GeoTopografico.

G: Conformità a

INSPIRE: che cosa è

stato fatto e/o sarebbe

ancora necessario fare

perché metadati e dataset

lo siano?

RB: Siamo orgogliosi

di essere stata una delle

prime regioni italiane

a rendere compatibile

il Catalogo regionale

dei Metadati con le

specifiche contenute

nelle Linee Guida

del RNDT vers.3.0,

e conseguentemente

anche con gli standard

INSPIRE 2.0.

Anche i servizi sono

conformi alle specifiche

INSPIRE.

La compatibilità dei

dataset, che in generale

hanno provenienze

diverse, non può allo

stato attuale essere assicurata,

non essendovi

regole uniche da seguire

da parte di tutti.

G: Si dice che le IDT

devono fornire “non

dati ma informazione”,

qualcuno dice che

devono fornire “actionable

information”, che

a mio avviso è un passettino

in più rispetto a

informazione. Questo

vuol dire tools di visualizzazione,

analisi,

simulazione… utili per

rendere più facile, ma

soprattutto più efficace

l’uso dell’informazione

geografica delle IDT.

Che cosa state facendo

in questa direzione?

RB: Per facilitare gli

utenti dell’Infrastruttura

nella fruizione dei

dati disponibili, all’interno

del Geoportale

sono presenti varie

applicazioni web, che,

utilizzando i servizi

(WMS/WMTS), permettono

di visualizzare

tematismi ottenuti per

sovrapposizione di più

layers.

Se consentito, tramite

queste applicazioni è

anche possibile scaricare

i dati stessi in forma

vettoriale o raster

(tramite link diretti o

servizi WFS), per utilizzarli

per le proprie

necessità.

I tools più complessi,

al momento, sono riservati

agli utenti che

accedono alla sezione

riservata della RSDI:

chi è autorizzato, può

accedere ad alcuni software

web interamente

progettati e realizzati

dalla Regione Basilicata

per creare progetti

webgis, e per compilare

e pubblicare le schede

dei metadati nel catalogo

regionale.

Stiamo valutando di realizzare

due strumenti

da integrare nella piattaforma

informatica già

esistente:

4una app per l’invio

di segnalazioni georeferenziate

di criticità

del territorio

lucano;

4una piattaforma

geografica per la partecipazione

pubblica

su procedure legate

alla pianificazione di

vasta scala.

G: Un’ultima domanda.

Nel dibattito internazionale

è emerso il

concetto del Geospatial

Ecosystem, cioè non

solo l’integrazione

tra le molteplici fonti

pubbliche (che è da

sempre un principio

base delle IDT) ma

anche di dati risultato

di crowdsourcing o

proveniente da soggetti

privati: avete fatto

qualcosa in questa direzione?

La ritenete una

prospettiva praticabile?

RB: Andrà nella direzione

di integrare

il crowdsourcing nella

IDT l’app per segnalazioni

di cui si è detto

prima.

E’ risultata poi molto

interessante l’esperienza

di pubblicazione

della Carta Regionale

della Attitudine

alla Coltivazione

Corilicola, realizzata

dalla Ferrero Trading

Lux S.A. e trasmessa

alla Regione Basilicata,

al fine di agevolare gli

imprenditori agricoli

nel processo di valutazione

attitudinale

alla coltivazione del

nocciolo delle proprie

aziende agricole.

La carta è consultabile

in ambiente IDT come

applicazione webGIS,

con possibilità di interrogazione

del layer.

PAROLE CHIAVE

IDT; SDI; geoportale;

INSPIRE

ABSTRACT

GEOmedia interviews

the managers of 3 Italian

regional Spatial Data

Infrastructures: Basilicata,

Lazio and Lombardia. The

questions concern main

datasets published by the

SDI, the relationship with

users, the services and

advanced tools provided

(for visualization, analysis

and simulations) the prospects

for integration with

data from non-public

sources and crowdsourced

data.... Two interviews

with the same structure,

relating to regional SDIs of

Piemonte and Veneto, were

published in the previous

issue 5/2021.

AUTORE

Redazione GEOmedia

redazione@rivistageomedia.it

Franco Vico

franco.vico@formerfaculty.

polito.it

GEOmedia n°6-2021 23


REPORT

La linea sacra di S. Michele

e la sfericità terrestre

di Fabio Crosilla

Nel 709, l'Arcangelo apparve a Saint Aubert, esortandolo a costruire una chiesa nella roccia.

I lavori iniziarono subito, ma l'abbazia benedettina non fu completamente costruita

fino all'anno 900. (Foto Ryan R Zhao, CC BY-SA 4.0 via Wikimedia Commons)

Secondo diverse fonti, non del settore

cartografico, la Linea Sacra di San

Michele unisce sette santuari dedicati

all’Arcangelo, dall’Irlanda a Israele, con

una misteriosa e suggestiva linea retta.

L’articolo, dopo aver ricordato la generale

arbitrarietà di tale affermazione in un

contesto cartografico, dimostra in maniera

statisticamente rigorosa che la Linea

Sacra di S. Michele segue effettivamente

una linea retta sulla rappresentazione

di Mercatore, dimostrando così

l’appartenenza dei sette santuari ad

una curva lossodromica sulla superficie

terrestre. Si riportano infine i risultati dello

studio di allineamento della Linea Sacra

con il tramonto del sole nel giorno del

solstizio d’estate.

Ai numerosi fenomeni inspiegabili che si

verificano attorno a noi, l’uomo ha da

sempre cercato una giustificazione che

coinvolgesse il soprannaturale. Uno di questi è la

cosiddetta Linea Sacra di San Michele Arcangelo,

che collega sette santuari ubicati in Europa

Occidentale, nel bacino del Mediterraneo e in

Israele. Il tracciato ha inizio in Irlanda, su un’isola

deserta, con il monastero di Skelling Michael

del VI secolo a cui fa seguito il monastero Saint

Michael’s Mount in Cornovaglia del XVI secolo.

Il terzo monastero è Mont Saint Michel in

Normandia del X secolo, mentre il quarto è la

Sacra di San Michele in val di Susa anch’esso

del X secolo. Seguono poi il santuario di San

Michele Arcangelo sul Gargano, in Puglia del V

secolo, il monastero di San Michele Arcangelo di

Panormitis, nell’isola di Simi in Grecia (V secolo)

ed infine quello del Monte Carmelo, in prossimità

della città di Haifa in Israele del XIX secolo,

fondato su una grotta che fu dimora del profeta

Elia, già citata in documenti egizi del XIV secolo

A.C.

La linea sacra di San Michele è celebre perché i

vari santuari sono collegati fra loro da una linea

retta che, secondo la leggenda, è frutto del colpo

di spada che S. Michele Arcangelo inflisse al

Diavolo per rimandarlo all’inferno. Inoltre è interessante

il fatto che tutti questi santuari furono

costruiti indipendentemente l’uno dall’altro, quasi

tutti ospitando una o più apparizioni dell’Arcangelo.Parlare

di una linea retta su una rappresentazione,

che nella fattispecie è di tipo cartografico,

è improprio, in quanto le caratteristiche geometriche

degli elementi riprodotti dipendono dalla

cartografia utilizzata. Come è ben noto, tutte le

cartografie deformano la realtà (pseudo) sferica

della superficie terrestre. Riprodurre su un piano

gli elementi geometrici di una superficie a doppia

curvatura, come è quella terrestre, richiede necessariamente

l’introduzione di deformazioni che

possono essere di tipo lineare, angolare e areale.

24 GEOmedia n°6-2021


REPORT

Ne segue che la linea sacra di San Michele

Arcangelo può essere rappresentata con una retta

su un tipo di cartografia, ed allo stesso tempo

può corrispondere ad una curva su un’altra rappresentazione

cartografica. Proprio questo fatto

viene appellato da alcuni interlocutori, poco

avvezzi con le rappresentazioni cartografiche, per

denigrare il fenomeno.

Per venire a capo del problema sarebbe pertanto

necessario fare analoghe considerazioni sulla superficie

che non subisce deformazioni, cioè sulla

superficie terrestre.

Per chiarire il problema è stato condotto un semplice

esperimento che ha consentito di giungere

ad un risultato di sicuro interesse.

Si è dapprima preso in considerazione un estratto

della rappresentazione di Mercatore per la

zona interessata dalla Linea Sacra di San Michele

Arcangelo. La rappresentazione di Mercatore

gode della proprietà di essere “conforme”, cioè

di conservare gli angoli misurati sulla superficie

terrestre e sulla rappresentazione. In base a questa

proprietà, sulla rappresentazione di Mercatore le

trasformate dei meridiani e dei paralleli si intersecano

ad angolo retto come sulla superficie terrestre.

Dopo aver riportato sulla rappresentazione

di Mercatore la posizione geografica dei sette santuari

e dopo averli graficamente collegati fra loro,

si evince visivamente che gli stessi si dispongono

secondo una linea retta che collega il punto che

rappresenta il Monastero di Skelling Michael con

quello di Haifa in Israele (vedi Fig.1).

Per fornire un riscontro rigoroso all’affermazione

che i sette santuari si dispongono secondo una

linea retta sulla rappresentazione di Mercatore, è

necessario però eseguire una serie di calcoli basati

sull’impiego di alcuni principi della statistica matematica

applicati ad un problema specificamente

di natura geometrica. La procedura di calcolo

e i risultati ottenuti sono riportati di seguito. I

risultati confermano quanto intuitivamente interpretato

visivamente sulla rappresentazione cartografica

di Mercatore.

MODELLO ANALITICO

Una delle proprietà della rappresentazione di

Mercatore è quella che garantisce che linee rette

sulla rappresentazione corrispondano alle cosiddette

linee “lossodromiche” sulla superficie terrestre.

Si ricorda che una linea lossodromica è la

curva descritta sulla superficie terrestre che interseca

i meridiani con lo stesso angolo definito sulla

rappresentazione di Mercatore dalla trasformata

dei meridiani e dalla retta considerata. Molto

usata nella navigazione marittima, consente ad un

Fig. 1 - La Linea Sacra di S. Michele (Aleteia.org)

natante di navigare da un porto ad un altro mantenendo

sempre lo stesso angolo di rotta.

La proprietà della curva lossodromica, che sulla

superficie terrestre unisce fra loro i sette santuari,

è pertanto quella di conservare lo stesso angolo di

direzione per i vari tratti.

L’esperimento numerico è stato condotto partendo

dalle coordinate geografiche (latitudine

e longitudine) dei sette santuari riportate da

Wikipedia (fonte Open Street Map, ellissoide

WGS84)

1.

2.

3.

4.

5.

Skelling Michael

Saint Michael’s Mount

Mont Saint Michel

Sacra di San Michele val di Susa

San Michele Arcangelo Gargano

6.

San Michele Arcangelo di Panormitis

7.

Monte Carmelo, Haifa

Tab. 1 Coordinate geografiche dei sette santuari, da Wikipedia

(sistema sessagesimale)

51°46’16’’ N 10°32’26’’ W

50°06’58’’ N 05°28’38’’ W

48°38’10’’ N 01°30’40’’ W

45°05’52” N 07°20’36” E

41°42’29” N 15°57’17” E

36°32’54” N 27°50’46” E

32°49’36” N 34°58’13” E

Fig.2 Rappresentazione di Mercatore. Le curve lossodromica (in verde) e

ortodromica (in rosso) (dm.unife.it)

GEOmedia n°6-2021 25


REPORT

1.

2.

Skelling Michael

Utilizzando una routine di calcolo del software

QGIS, sono state calcolate le coordinate cartografiche

nella rappresentazione di Mercatore dei

sette santuari.

Saint Michael’s Mount

3.

Mont Saint Michel

4.

5.

Sacra di San Michele val di Susa

San Michele Arcangelo Gargano

6725257.50 N -1173369.28 W

6433601.56 N -609721.59 W

6181254.95 N -168216.12 W

5606650.53 N 817456.13 W

5088911.03 N 1776071.55 W

6. San Michele Arcangelo di Panormitis 4350889.24 N 3099814.91 W

7.

Monte Carmelo, Haifa

3849157.82 N 3892873.52 W

Tab. 2 Coordinate cartografiche nel sistema di Mercatore dei

sette santuari (in metri)

Non conoscendo il grado di precisione e accuratezza

delle coordinate geografiche riportate su

Wikipedia e neppure il livello di semplificazione

del modello analitico utilizzato per trasformare le

coordinate nella rappresentazione di Mercatore,

è necessario procedere con un processo di calcolo,

il più possibile rigoroso, tale da evidenziare e

quantificare le possibili incertezze geometriche.

Come è ben noto, gli errori con i quali ogni prova

sperimentale deve confrontarsi sono essenzialmente

di tre tipi: accidentali, sistematici e grossolani.

I primi sono di piccola entità e fluttuano casualmente

attorno al valore vero. Gli errori sistematici

sono dovuti ad un errore di modellazione

del fenomeno o a una cattiva calibrazione delle

osservazioni. Gli errori grossolani sono dovuti alla

sbadataggine dell’operatore e la loro presenza è di

regola molto ridotta nel campione.

La classica teoria degli errori prevede di procedere

con il calcolo rigoroso dei parametri incogniti

del problema ipotizzando la presenza esclusiva di

errori accidentali nelle osservazioni, demandando

ad una verifica finale l’eventuale presenza di errori

di altra natura. Tale procedura è stata seguita

per verificare le caratteristiche geometriche della

Sacra Linea di San Michele.

Si è ipotizzata una linea retta congiungente i sette

santuari. L’equazione della retta è:

y-v = mx + q

dove x e y sono le coordinate di Mercatore (W e

N) dei sette punti;

m è il valore della tangente dell’azimut della retta;

q è il valore dell’intercetta per x = 0 (lungo il meridiano

di Greenwich)

v è il residuo incognito della coordinata y dovuto

alla presenza di errori.

Per stimare il valore delle incognite del problema

(m e q), è stato applicato ai residui il principio

statistico dei minimi quadrati (= min).

Il sistema di equazioni della retta risulta, in forma

matriciale:

(1)

che, in forma compatta, si può anche scrivere

AX=Y-V

Applicando la condizione = min si perviene

alla soluzione ai minimi quadrati del vettore X:

(2)

Il vettore contiene la stima ai minimi quadrati

della tangente dell’azimut della retta ( ) e dell’intercetta

( ).

Noto il vettore , è sempre possibile procedere

alla stima ai minimi quadrati delle coordinate di

partenza contenute nel vettore

(3)

al vettore dei residui incogniti

(4)

e allo scarto quadratico medio a posteriori delle

osservazioni (coordinate dei punti)

(5)

dove n è il numero delle equazioni (in questo

caso 7)

r è il numero delle incognite (in questo caso 2).

Un ulteriore parametro per definire la qualità

della stima è la cosiddetta matrice di varianza covarianza

del vettore delle incognite

(6)

da cui è possibile ottenere lo scarto quadratico

medio dei termini incogniti (m e q) come radice

quadrata dei termini diagonali della matrice .

E’ necessario infine verificare il tipo di distribuzione

degli scarti , ottenuti con la formula (4).

Ovvero è necessario verificare se gli scarti

seguono una distribuzione normale a media nulla,

confermando così sia la loro appartenenza alla

26 GEOmedia n°6-2021


REPORT

La teoria statistica afferma che se il valore standardizzato

così ottenuto è minore o uguale in

valore assoluto a |1,96|, allora si può concludere

che il residuo è distribuito normalmente a media

nulla e varianza 1, cioè appartiene alla categoria

degli errori accidentali, con un intervallo di confidenza

del 95%.

RISULTATI

Per verificare le caratteristiche geometriche della

linea che unisce i sette santuari sono stati condotti

alcuni esperimenti numerici che hanno fornito

i risultati riportati di seguito. Per semplificare le

operazioni di calcolo, tenuto anche conto della

probabile scarsa accuratezza delle coordinate geografiche

(latitudine e longitudine) dei sette punti,

dedotte da Wikipedia, i valori numerici delle

coordinate di Mercatore dei punti sono stati approssimati

al chilometro. Per tale ragione la precisione

finale dei risultati deve considerarsi limitata

al chilometro.

Applicando il modello analitico della retta, sono

stati calcolati la matrice dei coefficienti e il vettore

dei termini noti riportati nella formula (1). Dopo

aver applicato il principio dei minimi quadrati,

sono stati stimati con la formula (2) i parametri

incogniti della retta, [il valore della tangente dell’azimut

della retta (m) e l’intercetta (q)].

Mediante le formule (3), (4), (5) e (6), sono stati

poi calcolati ed estratti i termini diagonali della

matrice di varianza - covarianza delle incognite. La

radice quadrata di tali valori fornisce gli scarti quadratici

medi da associare al valore della tangente

dell’azimut della retta e al valore dell’intercetta.

Passando dal valore della tangente all’angolo di

direzione, si ottiene:

119°,4955 +/- 0°,2546

(in gradi sessadecimali)

mentre l’intercetta vale

6079 +/- 9 (in chilometri).

Per confermare la significatività di questi risultati,

dalle coordinate di Mercatore dei punti sono stati

calcolati manualmente, per ogni singolo tratto

della spezzata, i corrispondenti angoli di direzione.

Questi risultano essere (in gradi sessadecimali):

Az (1-2) = 117°,3590

Az (2-3) = 119°,7505

Az (3-4) = 120°,2403

Az (4-5) = 118°,3731

Az (5-6) = 119°,1408

Az (6-7) = 122°,3196

La media degli angoli di direzione e l’errore quadratico

medio della serie di valori sono:

Az(m) = 119°,5306 +/- 1°,5566

Si noti la corrispondenza fra la media dei singoli

tratti (119°,5306) e il valore risultante dal calcolo

rigoroso, ottenuto applicando il principio dei minimi

quadrati (119°,4955). Inoltre, moltiplicando

per 1,96 il valore dell’errore quadratico medio,

ed associando tale intervallo alla media Az(m), si

evince che tutti i valori degli angoli di direzione

ricadono entro tale intervallo, confermando il fatto

che tutti i valori si possono considerare affetti

da errori accidentali con un intervallo di confidenza

pari al 95%.

Ritornando al modello di calcolo rigoroso, l’analisi

successiva ha consentito di verificare l’appartenenza

dei residui delle equazioni ad una

distribuzione normale a media 0 e varianza 1. Il

vettore dei residui (in chilometri) calcolato con la

formula (3) risulta:

[-18, 9, 7, -10, 14, 25, -28]’

Si noti immediatamente l’entità dei residui dei

punti 7 e 8, ovvero i monasteri Panormitis sull’isola

di Simi e il Monte Carmelo vicino ad Haifa.

L’entità di tali valori sembrerebbe rigettare a prima

vista il modello di una retta che unisce i sette

santuari.

In realtà, procedendo con il calcolo dei residui

standardizzati, è stato possibile rifiutare tale ipotesi.

Con la formula (7) sono stati calcolati gli

scarti quadratici medi dei residui. Facendo il rapporto

dei residui e dei rispettivi scarti quadratici

medi, si ottengono i seguenti valori:

[-1,07; 0,53; 0,37; -0,53; 0,75; 1,47; -1,90]’

Come si può vedere anche i residui standardizzati

del monastero dell’Isola di Simi e del Monte

Carmelo sono inferiori al valore soglia di |1,96|,

garantendo l’appartenenza dei punti ad un’unica

retta sulla rappresentazione di Mercatore, con un

intervallo di confidenza del 95%.

Un’ulteriore caratteristica che viene attribuita alla

Linea Sacra di san Michele è il fatto che tutti i

sette punti siano allineati lungo la direzione del

tramonto del sole in occasione del solstizio estivo.

Il fatto che i punti si allineino sulla superficie terrestre

secondo una linea lossodromica, sembra ribadire

la veridicità di tale affermazione. In base ai

calcoli rigorosi sopra riportati, tale allineamento

dovrebbe verificarsi con un azimut di 119°,4955

a partire dalla direzione Sud in senso orario. Il

fatto di utilizzare la direzione Sud come origine

dell’azimut del tramonto del sole appartiene alla

cultura astronomica.

Attingendo da uno dei fogli elettronici presenti

su internet, è possibile, note le coordinate geo-

GEOmedia n°6-2021 27


REPORT

grafiche di un punto, il giorno e l’ora, calcolare la

posizione del sole in un dato istante (azimut ed

elevazione). Fissando a zero il valore dell’elevazione,

è possibile calcolare l’azimut al tramonto.

Di seguito sono riportati i valori dell’azimut del

sole al tramonto del 21 giugno 2021 (solstizio

estivo) per i sette punti della Linea Sacra di San

Michele calcolati con il foglio elettronico fornito

da centrometeo.com. (valori espressi in gradi sessadecimali).

Come si può notare, esiste una corrispondenza

sorprendente fra l’azimut della lossodromica

fornito dal calcolo rigoroso (119°,4955) e l’azimut

del tramonto del sole per i monasteri

di Panormitis, sull’isola di Simi, e sul Monte

Carmelo. Tale valore tende a variare sistematicamente

fino a raggiungere una deviazione massima

piuttosto un invito a mantenere nel corso della

nostra vita la medesima direzione, la medesima

condotta, auspicabilmente rivolta al bene, evitando

di sbandare e di perdere la retta via.

Il colpo di spada, la linea ortodromica, rappresenta

una scorciatoia, il percorso di minima lunghezza,

che non consente, in generale, di conservare la

stessa direzione di marcia.

RINGRAZIAMENTI

Si ringraziano i colleghi Alberto Beinat ed

Eleonora Maset per la collaborazione nella fase di

elaborazione dei dati.

Si ringrazia inoltre il prof. Luigi Tomasi dell'Università

di Ferrara per aver acconsentito l'utilizzo

dell'immagine riportata nella figura 2.

1. Skelling Michael 130°,85

2. Saint Michael’s Mount 129°,13

3. Mont Saint Michel 127°,76

4. Sacra di San Michele val di Susa 125°,05

5. San Michele Arcangelo Gargano 122°,69

6. San Michele Arcangelo di Panormitis 120°,04

7. Monte Carmelo, Haifa 118°,66

Tab. 3. Azimut (dal Sud in senso orario) del tramonto del sole il 21

giugno 2021 per i sette santuari della Linea Sacra di San Michele (in

gradi sessadecimali)

di 10° circa in corrispondenza dei monasteri inglese

e irlandese. Si tratta di un valore contenuto,

difficile da cogliere senza una strumentazione

adeguata, ma che, in ogni caso, indica una lieve

deviazione sistematica di allineamento della lossodromica

e della direzione di tramonto del sole

per i punti della Linea Sacra in occasione del solstizio

estivo.

CONCLUSIONI

Ritornando a considerazioni di natura mitologica,

la leggenda, che vorrebbe che la linea fosse

stata generata da un colpo di spada che San

Michele Arcangelo inflisse al Diavolo, è scarsamente

proponibile, in quanto il colpo di spada

avrebbe dato origine ad una curva “ortodromica”

e non lossodromica. La curva ortodromica (fig.

2), è la sezione normale alla superficie terrestre, di

minima lunghezza fra tutte le possibili linee congiungenti

i due estremi. Corrisponde al percorso

seguito dagli aerei per minimizzare il tempo di

percorrenza e risparmiare carburante.

Sembra quindi che il messaggio che metaforicamente

i sette santuari allineati vogliono darci sia

PAROLE CHIAVE

ortodromia, lossodromia, san michele, linea sacra

ABSTRACT

According to several sources, not from the cartographic

world, the Sacred Line of San Michele unites seven

dedicated shrines to the Archangel, from Ireland to Israel,

with a mysterious and suggestive straight line. The article,

after recalling the general arbitrariness of this statement

in a cartographic context, demonstrates in a manner

statistically strict that the Line Sacra di S. Michele actually

follows a straight line on the representation of Mercator,

thus proving the membership of the seven sanctuaries at a

rhumb line on the earth surface.

AUTORE

Fabio Crosilla

fabio.crosilla@uniud.it

Già Professore Ordinario

Dipartimento Politecnico di Ingegneria

e Architettura

Università di Udine

28 GEOmedia n°6-2021


REPORT

Tecnologie

per le Scienze

della Terra e del Mare

Strumenti ad alta tecnologia

anche a noleggio per:

Studio dei fondali e delle coste

Multibeam, SSS, SBP, sismica marina …

Ingegneria civile

Georadar 3D, laser scanner, inclinometri …

Studio del sottosuolo

Georadar, sismica, geoelettrica …

Monitoraggio ambientale

Magnetometri, elettromagnetismo,

sonde oceanografiche …

Monitoraggio sismico

Sismometri, strong motion, reti early warning …

CODEVINTEC

Tecnologie per le Scienze della Terra e del Mare

tel. +39 02 4830.2175 | info@codevintec.it | www.codevintec.it

GEOmedia n°6-2021 29


REPORT

Topografia Applicata al Soccorso:

la formazione del Vigile del Fuoco

di Daniele Mercuri

Il Servizio di Topografia

Applicata al Soccorso (TAS)

supporta l'attività del Corpo

Nazionale dei Vigili del

Fuoco con l'impiego di

un'informazione geografica

avanzata riferita allo

scenario emergenziale ed,

in particolare, agli scenari

che richiedono l'intervento

del Sistema nazionale di

protezione civile.

Da sempre chi si occupa

di emergenza guarda

all’innovazione tecnologica

come un settore fondamentale

per il miglioramento

degli interventi, cercando di

introdurre tali innovazioni nel

tessuto organizzativo del soccorso

tecnico urgente.

E’ il caso del sistema satellitare

globale di navigazione,

(global navigation satellite

system, acronimo GNSS) un

sistema di geo-radio-localizzazione

e navigazione, in

grado di fornire un servizio di

posizionamento geo-spaziale

a copertura globale, e del sistema

informativo geografico,

(Geographic information

system, acronimo GIS) un sistema

informativo computerizzato

in grado di associare dati

alla loro posizione geografica

sulla superficie terrestre, analizzarli,

elaborarli, condividerli

e restituirli in elaborati grafici

o presentazioni.

Queste nuove tecnologie sono

utilizzate a supporto delle

esigenze interventistiche del

Corpo Nazionale dei Vigili

del Fuoco. Infatti dall’esperienza

maturata durante le

grandi emergenze: l’ultimo

sisma dell’Italia Centrale, l’emergenza

della nave “Costa

Concordia” e la tragedia di

“Rigopiano”, sono solo alcuni

degli esempi da poter annoverare,

in occasione dei quali si

è evidenziato come l’impiego

di tali tecnologie siano state di

grande utilità per la gestione

delle risorse umane e squadre

specialistiche, per la gestione

dei mezzi tecnici e per il raggiungimento

diretto dei luoghi

di intervento riducendo sensibilmente

i tempi di intervento,

consentendo inoltre la velocizzazione

e l’ottimizzazione

dei rapporti con altre amministrazioni

ed enti, accrescendo

la sicurezza degli operatori del

soccorso, generando in definitiva

una risposta più efficiente

nell’ambito del soccorso tecnico

urgente.

Come si interveniva prima

dell’avvento di tali tecnologie?

Cosa fare però se l’intervento

era al di fuori dell’area urbana?

Si consultava una carta topografica

o escursionistica e da

questa si risaliva alle informa-

30 GEOmedia n°6-2021


REPORT

zioni necessarie per raggiungere

il luogo dell’intervento. Queste

carte risultavano talvolta di difficile

interpretazione, oltre che

complicate da reperire e gestire.

Il linguaggio comune di tutti

questi sistemi fin ora visti,

compresi quelli più tradizionali

come le carte topografiche, è

quello delle Coordinate, utilizzate

nella determinazione in

modo univoco della posizione

di un punto sulla superfice terreste.

La conoscenza cartografia, le

coordinate in primis, l’utilizzo

della tecnologia GNSS, in

particolare il sistema GPS e

l’impiego di supporti informatici

per la gestione dei dati,

sono gli elementi alla base

dell’attuale modo di operare

ed hanno consentito l’introduzione

nell’ambito del Corpo

Nazionale dei Vigili del Fuoco

della Topografia Applicata al

Soccorso acronimo T.A.S., il

cui obbiettivo formativo è quello

di fornire ai Vigili del Fuoco

un impiego professionale di

tali strumenti nell’ambito della

pianificazione e della gestione

degli interventi di soccorso.

Il corso T.A.S. prevede due

Lezione T.A.S., un momento della formazione in aula

livelli di apprendimento ed il

primo livello è quello rivolto al

personale allievo dei vigili del

fuoco.

È incentrato sulla conoscenza

del concetto di coordinate che

permette poi di affrontare l’utilizzo

delle carte topografiche

e successivamente quello del

sistema GPS. Un corso teorico-

pratico strutturato sulla realtà

interventistica e mirato a far

comprendere al discente l’importanza

di queste conoscenze

per il soccorso tecnico e per la

sicurezza dell’operatore stesso.

Si analizzano, in aula e successivamente

in ambiente, le

procedure operative standard

per intervento di soccorso

Topografia applicata al soccorso, redazione di carte tematiche

GEOmedia n°6-2021 31


TELERILEVAMENTO

REPORT

Obiettivi del Corso per

Allievi Vigili del Fuoco:

Interpretare ed utilizzare

correttamente una carta

topografica; utilizzare

correttamente gli strumenti

di carteggio GPS,

bussola, altimetro; muoversi

in ambienti impervi

o sconosciuti in e con

sicurezza; applicare il sistema

ICS negli scenari

operativi; saper utilizzare

i programmi informatici

cartografici GIS; sapere

il quadro legislativo riferito

al soccorso tecnico

urgente.

come ad esempio la ricerca a

persona dispersa, mettendo in

campo quelle conoscenze che

permettono ad ogni operatore

di entrare in un bosco, svolgere

in team la propria attività in

un determinata zona assegnata

e di rientrare all’unità di comando

avanzato, certificando

il lavoro svolto. Un modo di

operare che rende l’operatore

consapevole della sua posizione

attimo dopo attimo e che al

tempo stesso consente di lasciare

traccia dell’attività svolta

riferita ad una base cartografica

di riferimento per mezzo di coordinate.

Perché tutto funzioni

bene è necessario parlare la

stessa lingua ovvero quella delle

coordinate geografiche, questo

rende il T.A.S. una delle materie

base per il Corpo Nazionale

dei Vigili del Fuoco a supporto

dell’attività delle discipline interne

quali l’attività di soccorso

con tecniche di derivazione

Speleo Alpino Fluviale e Unità

Cinofile per “ricerca persona

dispersa”, Emergenze Post

Sisma per la realizzazione di

mappe tematiche fondamentali

per la pianificazione e la verifica

dell’attività svolta.

PAROLE CHIAVE

T.A.S.; Topografia applicata; soccorso;

protezione civile; vigili

del fuoco

ABSTRACT

The Italian T.A.S. (Applied

Topography to Rescue Service)

supports the activities of the

National Fire Brigade with the

use of advanced geographical

information referring to the

emergency scenario and, in

particular, to the scenarios that

require the intervention of the

National System of civil protection.

The training focuses on

the knowledge of the concept of

coordinates which then allows to

deal with the use of topographic

maps and subsequently that of

the GNSS system. A theoreticalpractical

course structured on

interventional reality and aimed

at making the learner understand

the importance of this

knowledge for technical rescue

and for the safety of the operator

himself.

AUTORE

Daniele Mercuri, ingegnere

VICE COMANDANTE DELLE

SCUOLE CENTRALI ANTIN-

CENDI VV.F.

daniele1.mercuri@vigilfuoco.it

MONITORAGGIO 3D

GIS E WEBGIS

www.gter.it info@gter.it

32 GEOmedia n°6-2021

GNSS

FORMAZIONE

RICERCA E INNOVAZIONE


XXIV TH

CONGRESS OF THE INTERNATIONAL SOCIETY

FOR PHOTOGRAMMETRY AND REMOTE SENSING

NICE, FRANCE

6 - 11 JUNE 2022

Don't miss the major meeting of

the Geospatial Community

www.isprs2022-nice .com

PLATINUM GOLD SILVER BRONZE


REPORT

Topo4qgis-un plugin per QGIS utile all'elaborazione

di libretti PreGeo e alla trattazione di liste di punti

mediante opportuna rototraslazione ai minimi quadrati

di Marco Lombardi, Gianluca Beccaria

"sarebbe utile poter elaborare i

libretti PreGeo su di un GIS, così

da poter valutare la bontà del

rilievo eseguito dal Professionista,

proiettandolo su foto aeree o

basi cartografiche, al netto degli

aggiustamenti introdotti in fase

di redazione della proposta di

aggiornamento cartografica":

da questa frase scambiata

nel gennaio 2020 tra l'allora

responsabile del settore PreGeo

dell'Ufficio Provinciale di Roma -

Territorio, il Geometra Giovanni

Camponeschi e l’Architetto

Marco Lombardi, nasce l'idea di

recuperare il plug-in topog4qgis,

pubblicato nel 2013 per QGIS

(versioni 2.xx) con licenza FOSS

dall'Architetto Giuliano Curti e da

Giuseppe Patti.

Fig. 2 - Menu di Elaborazione del rilievo.

Fig. 1 – topog4qgis – rilievo rototraslato.

Ma cos’è topog4qgis? E’

un plug-in topografico

gratuito per QGIS,

utile alla rototraslazione ai minimi

quadrati di rilievi su rete di

capisaldi (PSR o trigonometrici)

o di Punti Fiduciali (PF) così

come introdotti dalla Circolare

n.2/1988, rilevati durante le operazioni

di rilievo sul campo.

Il plug-in supporta il formato

DAT, come definito a partire

dalla già citata Circolare ma accetta

anche il libretto delle misure

contenuto nella modulistica PDF,

generata dal software PreGeo.

topog4qgis può anche trattare

liste di punti in formato CSV

(con schema: nome;x;y;z;note),

eventualmente già elaborate da

altri software topografici.

I capisaldi o punti fiduciali su

cui il rilievo verrà rototraslato,

possono essere desunti dal

file TAF rilasciato dall’Ufficio

Provinciale o attraverso un elenco

di punti in formato .csv fornito

dall’utente, anche in questo

caso sarà un file con schema:

nome;x;y;z;note.

Il rilievo, una volta rototraslato

sarà automaticamente salvato

su layers di tipo puntuale e

potrà essere visualizzato su basi

cartografiche scelte dall'utente,

opportunamente georeferite,

proiettando i layers nel corretto

sistema di riferimento attraverso

i tools presenti in QGIS.

Teoria e tecnica

La trattazione dei libretti avviene

in maniera totalmente automatica

a seconda della tipologia

di rilievo contenuta tra le righe:

un rilievo celerimetrico definito

da riga 1 (stazione) e riga 2

34 GEOmedia n°6-2021


REPORT

(osservazione), un rilievo GNSS

o un rilievo misto contenente

quindi stazioni celerimetriche

e le corrispondenti osservazioni

GNSS del punto di stazione

e di orientamento. La giusta

modalità di elaborazione viene

scelta approcciando all'analisi

del libretto attraverso uno flusso

condizionato a blocchi dove

ogni casistica viene trattata con

un apposito algoritmo.

Gli algoritmi per la trattazione

dei dati celerimetrici sono stati

scritti partendo dallo studio dei

testi sacri delle topografia classica

mentre per la trattazione delle

osservazioni GNSS si è fatto

ampio uso di quanto riportato

nei capitoli relativi alle trasformazioni

geocentriche e topocentriche

per dati WGS84 contenute

nella IOGP Publication

373-7- 2 – Geomatics Guidance

Note number 7, part 2 –

September 2019.

La rototraslazione ai minimi

quadrati del rilievo in formato

PreGeo o della lista di punti sui

capisaldi avviene attraverso l'esecuzione,

in ordine, delle seguenti

quattro operazioni: calcolo dei

4 parametri di rototraslazione

ai minimi quadrati, esecuzione

della matrice di rotazione e esecuzione

della matrice di traslazione;

in particolare l'algoritmo

di calcolo dei 4 parametri restituisce:

1) la traslazione sull'asse

delle ascisse dei punti del rilievo

(locale) rispetto alla cartografia,

2) la traslazione sull'asse delle

ordinate dei punti del rilievo

(locale) rispetto alla cartografia,

3) l'angolo di rotazione tra il

"sistema di coordinate" del rilievo

(locale) e il "sistema di coordinate"

della cartografia e 4) il

fattore di scala tra i due "sistemi

di coordinate".

Il plug-in topog4qgis, a differenza

di PreGeo, non effettua

invece il calcolo degli scarti

quadratici metrici delle singole

Fig. 3 - Avvenuta rototraslazione del rilievo e layers creati.

osservazioni e non tratta i dati

altimetrici combinandoli con

quelli contenuti nella TAF,

quindi le quote restituite dall'elaborazione

sono calcolate a

partire dai dati contenuti nella

baseline GNSS definita con riga

1 o calcolate in maniera assoluta

partendo dalla prima stazione

celerimetrica usando i dati contenuti

nelle osservazioni.

Utilizzo in campo

La prima operazione è quella di

importare il libretto PreGeo (in

formato PDF o DAT) attraverso

l’apposita voce contenuta nel

menu File. La versatilità d’uso

di topog4qgis si apprezza già in

Fig. 4 - Panoramica delle funzionalità presenti nel plugin.

questa fase poichè senza alcun

intervento da parte dell’utente

il libretto, sia esso celerimetrico

o misto celerimetrico-gnss o

solamente gnss, viene elaborato

in maniera completamente automatica

andando a considerare

anche gli eventuali contorni

(riga 7) o allineamenti e squadri

(riga 4 e 5) presenti nel listato.

La seconda operazione è quella

dell’importazione, ai fini della

rototraslazione, delle coordinate

dei PF collimati in campo

e questo avviene andando a

scegliere il file TAF relativo

alla provincia su cui si sta operando

dall’apposita funzione

raggiungibile dal menu "File".

GEOmedia n°6-2021 35


REPORT

Tra le funzioni utili troviamo

anche la possibilità di importare

l’estratto di mappa digitale

fornito dall’Ufficio Provinciale

in formato ascii su file “.emp”

come base o per eventuali verifiche

e considerazioni sulle

geometrie in esso contenute.

Eseguito l'import delle coordinate

dei PF può essere eseguita

la rototraslazione ai minimi

quadrati del rilievo elaborato

attraverso la voce "Rototrasla

su PF/PSR" presente nel menu

"Elaborazione".

A questo punto è utile però fare

un'osservazione: topog4qgis

non è in grado di riconoscere

se stiamo trattando un rilievo

appartenente allo spazio definito

da un sistema cartografico

Cassini-Soldner o Gauss-Boaga

perchè è un “calcolatore” o meglio

“un esecutore di istruzioni”

i cui risultati non sono altro che

punti, individuati con coordinate

cartesiane, appartenenti ad

un sistema locale che possiamo

considerare "indefinito".

Il punto di contatto tra il rilievo

elaborato e rototraslato nel

sistema locale e la cartografia

di destinazione sta nella definizione

del sistema di riferimento

(meglio conosciuto in ambiente

QGIS come “SR”). Definito

Fig. 5 - Menu relativo al trattamento dell'archivio TAF.

il corretto riferimento sarà poi

QGIS, attraverso i suoi tools

interni, ad occuparsi della trasformazione

tra diversi sistemi.

La conoscenza del sistema di riferimento,

soprattutto nel caso

di un Cassini-Soldner, mette in

condizione il Professionista di

dover approfondire il contesto

ove andrà a lavorare attraverso

lo studio delle cartografie d’impianto

e delle monografie dei

trigonometrici (purtroppo non

sempre di facile reperibilità) che

lo porterà ad individuare correttamente

l’origine locale, un

passaggio questo che sottolinea

il legame che esiste, semmai

ci fosse ancora il bisogno di

ricordarlo, tra conoscenza e innovazione

tecnologica il quale

passa, in questo caso, attraverso

la figura del Geometra quale

esperto del luogo in cui andrà

ad operare.

Il plug-in topog4qgis per questa

fase del lavoro contribuisce ad

alimentare il bisogno di un ritorno

ad una conoscenza che in

molti casi si è andata perdendo

a causa di tutti gli automatismi

che oggi ci sono in topografia.

A questo punto, attribuita la

corretta proiezione al nostro

progetto, vedremo su layers opportunamente

separati il rilievo

collimato sui PF o sui PSR, i

PF desunti dalla TAF o i PF/

PSR desunti da file di testo e

l'eventuale estratto di mappa digitale.

Questa visione globale ci

permetterà, anche graficamente,

di apprezzare la bontà dei PF e

delle loro coordinate.

Continuando sulla questione

PF, non dimentichiamoci che

il sistema introdotto a partire

dalla Circolare n.2/88 ha il suo

"zoccolo duro" nel collaudo

del Tipo (di Frazionamento o

Mappale) attraverso le misurate

presenti nell'archivio dell'Agenzia

e NON nelle coordinate

dei PF le quali che vengono

solamente usate nel processo di

rototraslazione. Purtroppo però,

molto spesso le coordinate dei

PF presenti sulla TAF sono affette

da errori e questi, in fase

di elaborazione fanno si che il

rilievo venga proiettato in posizione

distante anche rispetto

a quella corretta sia in PreGeo

che in QGIS.

Il plug-in topog4qgis si rileva

quindi utile anche a controllare

la distorsione cartografica,

infatti se utilizzato durante il

rilievo in campo si avrà anche la

possibilità di valutare la qualità

dei PF collimati e eventualmente

decidere di usarne degli altri

senza dover necessariamente

tornare una seconda volta sul

posto (che magari si trova lontano

centinaia di chilometri

da casa), con lo stesso criterio

si ha la possibilità di scegliere

in itinere punti vertice o punti

direzione da collimare in fase di

rilievo come punti di aggancio

per il successivo adattamento

cartografico durante la stesura

della proposta cartografica che

avverrà in PreGeo.

Il limite di topog4qgis nella

sua attuale versione (0.3.7) è

quello non gestire la rototraslazione

in presenza di PF riferiti

ad origini tra loro diverse ma

si potrà comunque proiettare

36 GEOmedia n°6-2021


REPORT

il rilievo su cartografia georeferita

in WSG84 qualora

nel libretto “.dat” PreGeo sia

presente una baseline gps/gnss

valida. L'informazione sulla

baseline gps/gnss potrà essere

utilizzata ai fini del calcolo richiamando

l'apposita funzione

di proiezione presente del menu

"Elaborazione".

Conclusioni

Al momento topog4qgis viene

utilizzato anche in contesti

diversi e con finalità diverse da

quelle per cui è stato pensato

dagli autori, viene infatti usato,

in via sperimentale, dall’unità

patrimonio edilizio di una società

operante nel settore energetico

per raccogliere in unico

database geografico gli aggiornamenti

cartografici, aventi ad

oggetto l’inserimento in mappa

dei propri fabbricati eseguiti

con procedura PreGeo.

Il plug-in viene anche utilizzato,

sempre in via sperimentale,

da alcuni uffici tecnici comunali

per la verifica dei Tipi di

Frazionamento depositati in via

telematica ai sensi dell’art.30

co.5 del D.P.R. 380/01. Per

questo utilizzo topog4qgis è

riuscito a rispondere alla necessità

di visualizzare la particella

oggetto di frazionamento sulla

base cartografica (prescrittiva e

gestionale) in possesso dell’Amministrazione.

I due utilizzi “alternativi” sopra

descritti denotano la versatilità

del plug-in anche in conseguenza

dei sempre più disponibili

dataset cartografici e lasciano

sperare che nel suo ciclo di

vita,il software, possa beneficiaredi

contributi di diversa

natura.

Ad oggi topog4qgis viene sviluppato

e testato su base completamente

gratuita volontaria, il

suo punto di forza è certamente

la licenza FOSS con cui viene

pubblicato il software e il codice

sorgente, questo ne ha permesso

infatti la rinascita a distanza di

sette anni dall'ultima versione

pubblicata dall'Architetto

Giuliano Curti. Inoltre la gratuità

del plug-in ha dato luogo alla

spontanea costituzione di una

comunità di utilizzatori, composta

in gran parte da Geometri,

i quali comunicano allo sviluppatore

input utili allo studio e

all'implementazione di nuove

funzionalità.

Proprio dai feedback ricevuti

dalla comunità è nata una funzionalità

a partire dalla versione

0.3.6, si tratta di uno strumento

utile per lo studio preliminare

dei Punti Fiduciali oggetto di rilievo

introducendo la possibilità

di importare su QGIS il file TAF

direttamente dal menu File.

Una volta scelto l'archivio provinciale,

in formato TAF, presente

sul nostro PC, una finestra

ci mostrerà l'elenco dei comuni

presenti al suo interno. Scelto il

comune da importare in QGIS

basterà cliccare su "Crea layer

con il Comune selezionato" per

avere un layer di punti dove ogni

PF completo di monografia sarà

individuato graficamente con un

triangolo verde.

Possiamo inoltre indicare a

topog4qgis di creare un layer

contenente solamente i PF privi

di monografia e questi verranno

graficamente individuati

con un triangolo rosso e con

gli "Strumenti di Geometria"

disponibili in QGIS possiamo

a questo collegare i punti con

il metodo di Delaunay così da

avere l'evidenza dei PF c.d. "di

primo perimetro" (definizione

contenuta nella già citata

Circolare n.2/1988) rispetto alla

nostra area oggetto di rilievo.

E qualora fossimo già in possesso

dell'estratto di mappa

digitale (non sempre nella disponibilità

del tecnico prima

del rilievo) possiamo importarlo

per avere l'evidenza dei PF senza

monografia o con coordinate

cartografiche diverse da quelle

presenti nella TAF.

Risulta utile ricordare che

già dalle ultime versioni di

topog4qgis il file relativo all'estratto

di mappa digitale può

essere importato dal menu

Funzioni e gli eventuali PF con

coordinate cartografiche diverse

da quelle presenti in TAF

verranno automaticamente

rappresentati con un triangolo

di colore viola. Questo tipo di

verifica preliminare eviterà il

Fig. 6 - Immagine relativa ad un caso pratico, dove uno dei PF era privo di monografia e con coordinate cartografiche

diverse da quelle contenute nella TAF e quindi l'oggetto del rilievo risultava negativamente influenzato

dal PF errato. Il risultato è stato ottenuto utilizzando la funzionalità per il trattamento dell'archivio TAF

e attraverso gli "Strumenti di Geometria" disponibili in QGIS con cui si sono generati i triangoli fiduciali.

GEOmedia n°6-2021 37


REPORT

problema dello scarto automatico

del libretto delle misure da

parte del sistema informatico in

uso presso l'AdE - Territorio per

"PF di primo perimetro fuori

dal rilievo".

L'augurio che vogliamo fare a

topog4qgis è quello di continuare

ad essere scaricato e utilizzato

(soprattutto dai giovani),

studiato e ulteriormente sviluppato

da appassionati come noi

alla materia topografica, cartografica

e catastale. Appassionati

che come noi sposano l'idea che

la condivisione della conoscenza

e la presenza di applicazioni

gratuite e open source siano

un volano utile per tutti quei

giovani che si avvicinano alla

professione ma che desistono

perché scoraggiati dall'alto costo

dei software e delle attrezzature

topografiche.

RIFERIMENTI

Pagina ufficiale sul repository QGis -> https://plugins.qgis.org/plugins/topog4qgis/

Blog ufficiale - > https://topog4qgis.wordpress.com/

PAROLE CHIAVE

catasto; pregeo; qgis; rototraslazione; Open Source

minimi quadrati

ABSTRACT

topog4qgis is a QGis 3 plugin for the italian cadastre update procedure (PreGeo)

that allowing the user to manage classical surveys and gps or points list (.csv files).

Least mean square method georeferencing the survey in an absolute official geographic

space is allowed by measuring, during surveys, the trigonometrical points

and by using the official map from the cadastre database (.edm files) or by reading

the trigonometricals table (.taf files). Surveying of delimiting lines (e.g. between

particles, or delimiting a building) is correctly interpreted by the plugin.

Please note that this plugin is mainly related to datas provided by the italian

surveying agency (former Agenzia del Territorio is now Agenzia delle Entrate), and

its use is then strictly limited to the italian country but use of points lists (.csv files)

allows to use for other country with the same cadastre cartografy system.

Autore

Marco Lombardi,

marco.lombardi.rm@gmail.com

Architetto

Gianluca Beccaria

geom.beccaria@gmail.com

Geometra

38 GEOmedia n°6-2021


REPORT

Tecniche di rilievo integrato

per processi Scan-to-BIM

di Mauro Lo Brutto

Utilizzo del processo HBIM

(Historic o Heritage - Building

Information Modeling)

applicato a edifici di valore

storico e architettonico,

combinato con l’approccio

Scan-to-BIM attraverso

l’esecuzione di moderne

tecniche di rilievo integrato

3D nel caso di studio della

“Real Cantina Borbonica" di

Partinico (PA).

Fig. 1 - Facciata principale della "Real Cantina Borbonica".

Negli ultimi anni, l'innovazione

tecnologica

per la pianificazione,

la gestione e la conservazione

degli edifici è stata notevolmente

potenziata dall'approccio

BIM (Building Information

Modeling). Come è noto il BIM

è usato per definire un processo

collaborativo per la realizzazione

e la gestione di un edificio o di

una infrastruttura durante il suo

intero ciclo di vita, dalla pianificazione

alla demolizione. Il BIM

è stato originariamente sviluppato

come un processo per il settore

delle nuove costruzioni, ma in

considerazione dei notevoli benefici

per i settori dell'architettura,

dell'ingegneria e delle costruzioni

(Architectural, Engineering and

Construction - AEC) il suo impiego

è stato esteso con successo

anche per gli edifici esistenti,

specialmente per quelli storici.

Quando il processo BIM è applicato

a edifici di valore storico

e architettonico viene in genere

definito con l’acronimo HBIM

(Historic o Heritage - Building

Information Modeling).

Per lo sviluppo di un HBIM è

però necessario far precedere la

fase di modellazione parametrica,

tipica del processo BIM, da un

rilievo 3D per acquisire tutti i

dati geometrici utili alla produzione

del modello tridimensionale

as-built dell'edificio stesso

(Murphy et al., 2017). Questo

approccio è chiamato Scan-to-

BIM e prevede l'utilizzo di moderne

tecniche di rilievo 3D (laser

scanner e/o fotogrammetria)

che permettono la generazione

di nuvole di punti utilizzate per

la successiva fase di modellazione

parametrica (Wang et al, 2019).

L’approccio Scan-to-BIM (cioè

il processo di creazione di un

modello informativo parametrico

dell'edificio da una nuvola di

punti) è una delle maggiori sfide

nello sviluppo dell'HBIM che

può però presentare alcune difficoltà

dovute sia alla fase di rilievo

3D che alla fase di modellazione

parametrica. Le dimensioni e la

complessità architettonica dell'edificio,

così come la situazione

logistica, spesso condizionano

il rilievo 3D; le forme degli elementi

architettonici delle architetture

storiche, più particolari

rispetto a quelle dell’architettura

moderna, e la conseguente

mancanza di appropriati oggetti

parametrici o "famiglie" nella

libreria del software BIM potrebbero

rendere la modellazione

parametrica molto più difficile o

addirittura impossibile.

Per l'acquisizione dei dati 3D,

l'integrazione di diverse tecniche

e l’utilizzo di diverse "strategie"

40 GEOmedia n°6-2021


REPORT

di rilievo sono spesso essenziali

per superare le difficoltà logistiche,

soprattutto quando gli

oggetti da rilevare sono edifici

complessi o si trovano in luoghi

dove è difficile operare (per

esempio all’interno dei centri

storici). In genere, una delle

strategie di rilievo più utilizzate

prevede che l'acquisizione dei

dati 3D dell'interno dell'edificio

possa essere effettuata tramite un

rilievo laser scanner mentre i dati

dell'esterno vengano ricavati con

rilievi laser scanner e/o fotogrammetrici

soprattutto tramite UAS

(Unmanned Aircraft Systems)

(Rocha et al., 2020).

Uno dei problemi più comuni

nell'acquisizione dei dati durante

un processo Scan-to-BIM è

comunque quello di collegare i

rilievi effettuati all'interno con

quelli all'esterno dell'edificio, soprattutto

in tutti quei casi in cui

le aperture o i passaggi tra interno

ed esterno sono molto limitati

(Murtiyoso e Grussenmeyer,

2018). La corretta unione delle

nuvole di punti generate per

l'interno con quelle ottenute

per l'esterno è un passo molto

importante per garantire l’esatta

ricostruzione della geometria

complessiva dell'edificio.

Per verificare approcci basati

sull'integrazione di diverse tecniche

di rilievo (topografia, fotogrammetria

e laser scanning)

che migliorino la fase di acquisizione

dei dati nel processo

Scan-to-BIM è stato sperimentato

un metodo di rilievo basato

esclusivamente su un vincolo

topografico per unire nello stesso

sistema di riferimento tutti i

dati acquisiti (nuvole di punti

laser scanner, nuvole di punti

fotogrammetriche). Questo

metodo è stato applicato per

realizzare il modello parametrico

HBIM della “Real Cantina

Borbonica” di Partinico in provincia

di Palermo.

La "Real Cantina Borbonica"

di Partinico costruita per ordine

del re Ferdinando I di

Borbone tra il 1800 e il 1802

rappresenta un singolare esempio

dell'architettura industriale

avanzata dell'epoca. L’edificio

ha una pianta rettangolare di

circa 1000 m2 (circa 36 metri

in lunghezza per 26 m in larghezza)

ed è composto da un

corpo principale più una parte

secondaria (sul lato sud-est)

che era pre-esistente rispetto al

corpo principale. Il corpo principale

dell’edificio è diviso in

tre navate sostenute da pilastri e

archi. La navata destra e quella

centrale sono aperte (Fig. 1),

mentre la navata sinistra è stata

chiusa con un muro.

L'acquisizione dei dati è stata

pianificata eseguendo un rilievo

topografico finalizzato a misurare

una poligonale topografica

chiusa all’esterno dell'edificio,

un rilievo laser scanning per

acquisire una nuvola di punti

degli ambienti interni e un rilievo

fotogrammetrico da UAS

per ottenere una nuvola di

punti delle parti esterne dell'edificio.

Il risultato del rilievo

doveva essere una nuvola di

punti unica dell’intero edificio

con una risoluzione inferiore

ad 1 centimetro e utilizzabile

per le successive operazioni di

Fig. 3 – Fasi del rilievo laser scanner all’esterno e all’interno dell’edificio.

Fig. 2 - Interno della "Real Cantina Borbonica".

modellazione. L'aspetto più critico

del rilievo era rappresentato

dal collegamento tra l'ambiente

interno e quello esterno. Questo

collegamento poteva essere fatto

solo attraverso i due ingressi nella

facciata principale (Fig. 2).

La poligonale topografica esterna,

GEOmedia n°6-2021 41


REPORT

Fig. 4 - Schema della poligonale topografica esterna (in rosso) e della poligonale

laser scanner (in giallo).

misurata con una stazione totale,

era composta da 12 vertici ed è

stata calcolata in un sistema di riferimento

locale ottenendo scarti

quadratici medi delle coordinate

nell’ordine di qualche millimetro

sia in planimetria che in quota.

La poligonale topografica è stata

utilizzata per definire un sistema

di riferimento comune per tutti

i dati e per misurare i Ground

Control Points (GCPs) e i Check

Points (CPs) per il rilievo fotogrammetrico.

Fig. 5 - Schema di prese per il rilievo fotogrammetrico da UAS.

Il rilievo laser scanner è stato

eseguito con uno strumento

Topcon GLS-2000; sfruttando

l'approccio topografico per la

registrazione delle scansioni disponibile

con questo strumento,

il rilievo laser scanner è stato

eseguito in modo tale che tutti i

punti di scansione fossero collegati

per formare una poligonale

topografica interna all’edificio

(Fig. 3). La poligonale laser scanner

è stata realizzata imponendo

che due punti di scansione

fossero posizionati all'esterno

dell'edificio in corrispondenza

di due vertici della poligonale

topografica (il primo vertice della

poligonale e il punto di orientamento

della poligonale) (Fig. 4).

Le scansioni sono state quindi

registrate automaticamente in

fase di acquisizione. Questo

metodo consente di utilizzare il

laser scanner come strumento

topografico e ha il vantaggio di

permettere il collegamento di

scansioni senza elevate percentuali

di aree comuni. L'approccio

topografico nella registrazione

delle scansioni laser rappresenta

un metodo particolarmente utile

per superare i problemi di allineamento

tra le scansioni all'interno

e all'esterno degli edifici.

Inoltre, consente anche di avere

tutti i dati laser scanner già in

fase di acquisizione nello stesso

sistema di riferimento topografico

utilizzato per le altre tecniche

di misura (rilievo topografico e

fotogrammetrico).

Per completare il rilievo 3D della

"Real Cantina Borbonica", è stato

necessario eseguire le acquisizioni

laser scanner anche del lato

sud-est. Questo è composto da

diverse stanze al piano terra non

accessibili dalla sala principale e

da un portico esterno superiore.

L'acquisizione dei dati di questi

spazi è stata effettuata con un

laser scanner Faro Focus 120 S

applicando la tipica metodologia

di scansione laser (diverse scansioni

con un'alta percentuale di

sovrapposizione per garantire una

corretta registrazione).

L'elaborazione e l'allineamento

delle scansioni acquisite con il

laser scanner GLS-2000 sono

stati eseguiti con il software

MAGNET Collage di Topcon.

Con questo software, è stato possibile

gestire i dati della poligonale

laser scanner correggendo i

piccoli errori di allineamento che

si erano verificati durante l'acquisizione.

Inoltre, è stato anche

possibile eseguire l’allineamento

42 GEOmedia n°6-2021


REPORT

tramite procedure automatiche

delle nuvole di punti non direttamente

collegate alla poligonale

laser scanner.

Il rilievo fotogrammetrico è stato

effettuato utilizzando un UAS

per rilevare tutte le parti esterne

dell'edificio. Per l'acquisizione

delle immagini è stato utilizzato

un multirotore ultraleggero, che

ha permesso di sorvolare le aree

di studio superando le restrizioni

imposte dai regolamenti ENAC.

Sono state utilizzate diverse configurazioni

di presa per rilevare il

tetto e le facciate: un volo nadirale

per il tetto, due voli circolari

con prese oblique per il tetto e le

facciate, e voli con una vista parallela

delle facciate (Fig. 5).

Il rilievo ha permesso di ottenere

una nuvola di punti complessiva

dell'edificio a partire da due

nuvole di punti perfettamente

sovrapponibili; una dell'interno

ottenuta dal rilievo laser scanner

e una dell'esterno ottenuta dal rilievo

UAS (Fig. 6). Le due nuvole

di punti sono state sovrapposte

e unite semplicemente in base

alle loro coordinate. I controlli e

le verifiche eseguite sulla nuvola

di punti complessiva (soprattutto

lungo sezioni orizzontali e verticali)

non ha evidenziato anomalie

o discordanze dal punto di

vista geometrico, confermando la

bontà dell’approccio adoperato.

La nuvola di punti finale è stata

quindi utilizzata per la modellazione

parametrica in ambiente

BIM utilizzando il software Revit

di Autodesk. Ogni elemento

architettonico dell'edificio è

stato ricostruito come elemento

parametrico usando le informazioni

della nuvola di punti. La

modellazione parametrica degli

elementi architettonici non è

risultata così semplice poiché

molti elementi avevano spesso

forme uniche che le tipiche

librerie BIM non includono.

Per questo motivo, sono state

create nuove famiglie per alcuni

elementi architettonici come

porte, finestre e volte. Il prodotto

finale è rappresentato dal modello

parametrico HBIM della

Real Cantina Borbonica (Fig.

7). Questo modello costituisce

la base geometrica per qualsiasi

futuro intervento di manutenzione

e restauro dell’edificio che

può essere progettato e gestito in

ambiente HBIM.

Fig. 6 - Sovrapposizione delle due nuvole di punti relative all’interno

e all’esterno dell’edificio per ottenere la nuvola di punti

complessiva.

BIBLIOGRAFIA

Lo Brutto, M., Iuculano, E., and Lo Giudice, P.:

INTEGRATING TOPOGRAPHIC,

PHOTOGRAMMETRIC AND LASER SCANNING

TECHNIQUES FOR A SCAN-TO-BIM PROCESS,

Int. Arch. Photogramm. Remote Sens. Spatial Inf.

Sci., XLIII-B2-2021, 883–890, https://doi.org/10.5194/

isprs-archives-XLIII-B2-2021-883-2021, 2021

Murphy, M., Corns, A., Cahill, J., Eliashvili, K.,

Chenau, A., Pybus, C., Shaw, R., Devlin, G., Deevy, A.,

and Truong-Hong, L., 2017. Developing historic build-ing

information modelling guidelines and procedures for

architectural heritage in Ireland. Int. Arch. Photogramm.

Remote Sens. Spatial Inf. Sci., XLII-2/W5, 539–546.

Murtiyoso, A., Grussenmeyer, P., 2018. Comparison and

assessment of 3D registration approaches of point clouds in

the case of exterior and interior heritage building recording.

Int. Arch. Photogramm. Remote Sens. Spatial

Inf. Sci., XLII-2, 745–751.

Rocha, G., Mateus, L., Fernández, J., Ferreira, V., 2020. A

Scan-to-BIM Methodology Applied to Heritage

Buildings. Heritage, 3(1), 47-67.

Wang, Q., Guo, J., Kim, M.-K., 2019. An Application

Oriented Scan-to-BIM Framework. Remote Sensing,

11(3), 365, 2-27.

PAROLE CHIAVE

Laser scanner; UAV; Point cloud;

3D modeling; HBIM; Scan-to-BIM

ABSTRACT

The preservation of historic buildings can often be particularly

difficult due to the lack of detailed information

about architectural features, construction details, etc.

However, in recent years considerable technological innovation

in the field of Architecture, Engineering, and

Construction (AEC) has been achieved by the Building

Information Modeling (BIM) process. In this case, it is more

properly referred to as Historic - or Heritage - Building

Information Modeling (HBIM). In the HBIM process, it is

essential to precede the parametric modeling phase of the

building with a detailed 3D survey that al-lows the

acquisition of all geometric information. This

methodology,called Scan-to-BIM, involves the use of 3D

survey techniques to produce point clouds as a geometric

“database” for parametric modeling.

The “Real Cantina Borbonica" (Cellar of Royal House of

Bourbon) in Partinico (Sicily, Italy) was chosen as a case

study. The work has allowed achieving the HBIM of the

"Real Cantina Borbonica" and testing an approach based

exclusively on a topographic constraint to merge in the same

reference system all the survey data (laser scan-ner and

photogrammetric point clouds).

Fig. 7 - Spaccato assonometrico del modello parametrico.

AUTORE

Mauro Lo Brutto,

mauro.lobrutto@unipa.it

Dipartimento di Ingegneria, Università di Palermo

GEOmedia n°6-2021 43


MERCATO

IL VERO ECOSCANDAGLIO MULTIBEAM AD

ALTA FREQUENZA: TELEDYNE RESON -

SEABAT T51-R

1024 Beam con apertura di soli 0,25°x0,5° disponibili

su tutti i 170 gradi di swath? È possibile, grazie al

trasduttore specifico per le alte frequenze installato nei

nuovissimi Reson T-51. Come sono necessari altoparlanti

diversi per basse e alte frequenze per riprodurre la

musica, anche l'acustica subacquea segue le stesse regole.

Reson non si è limitata a far cantare in falsetto un baritono,

ma ha dato una nuova voce al suo già completo T-50

aggiungendo un array specifico per le alte frequenze.

Risultato?

• Risoluzione e definizione a livelli mai visti

• Copertura di 170° disponibile su tutte le frequenze,

anche a 800kHz.

• Dati puliti e definiti pronti all'uso con tempi di elaborazione

ridotti.

• Comandi sonar autonomi gestiti da Intelligenza

Artificiale: tutto più facile.

• Tre anni di garanzia standard per la massima tranquillità.

• Reson e Codevintec ancora una volta leader negli ecoscandagli

multibeam.

Oltre alle rivoluzionarie prestazioni a 800kHz, il SeaBat

T51-R è dotato anche di una gamma flessibile di frequenza

inferiore a 350-430kHz, destinata a quei rilievi

in cui sono richieste prestazioni a più ampio raggio,

offrendo una soluzione veramente flessibile per tutte le

occasioni.

I controlli autonomi del sonar SeaBat T51, un’innovazione

esclusiva di SeaBat, forniscono dati affidabili e un

funzionamento del sonar veramente a mani libere, consentendo

una maggiore efficienza di indagine con un ridotto

carico di lavoro dell’operatore.

Nuovo trasduttore T51 con doppio Array (immagine)

1. Array per basse frequenze

2. Array per alte frequenze

Per ulteriori informazioni:

www.codevintec.it info@codevintec.it

Works when you do

X-PAD Ultimate

Tutto in un unico software

X-PAD Ultimate è un software modulare, facile da usare per lavori

topografici e del cantiere, come rilievi, tracciamenti, catasto,

controlli BIM, strade, mappe, batimetria e GIS.

Il software è disponibile sulla piattaforma Android e porta le

migliori tecnologie direttamente in campo nella tua mano: una

completa visualizzazione 3D ed un sistema CAD per visualizzare e

modificare i disegni, integrazione dei tuoi dati con tutte le tipologie

di mappe, supporti per la realtà aumentata e molto altro.

44 GEOmedia n°2-2021

XPad Ultimate ti assicura la produttività e ti permette di avere una

perfetta integrazione con tutti gli strumenti.

Disponibile in due versioni, una dedicata a chi lavora nel campo

della topografia ed una dedicata alle imprese di costruzioni,

offrendo ad entrambi delle caratteristiche dedicate.

geomax-positioning.it

©2020 Hexagon AB and/or its subsidiaries

and affiliates. All rights reserved.


MERCATO

TPAD: IL FUTURO DEL RILIEVO

TOPOGRAFICO CON GNSS È QUI

“Il rilievo topografico è un’operazione piuttosto facile

per un topografo!” Detto a parole può sembrare un

lavoro piuttosto semplice ma la realtà dei fatti è ben

diversa, e molti professionisti del settore lo possono

confermare! Oltre al tempo da dedicare alle operazioni

comuni, come il montaggio della strumentazione

e il rilievo in sé, ci sono da considerare anche i problemi

che si possono verificare in corso d’opera, la

connessione tentennante dell’antenna alla rete, se si

lavora, ad esempio, con il solo Rover e il corretto funzionamento

degli strumenti.

Avere un buon GPS è sicuramente la base di partenza

per effettuare un rilievo topografico ad-hoc ma il vero

protagonista nei rilievi, oltre al topografo, è l’applicativo

utilizzato per il rilievo/tracciamento dei punti.

Stonex, Emlid, Tersus, Geomax, Kolida; non importa

quale sia la marca del GPS, chi fa la differenza è l’applicazione

da campo che si utilizza.

Avere piena libertà nella gestione delle operazioni permette

al topografo, di avere tutto sotto controllo e al

GPS, di diventare un potente strumento di rilievo.

TPad è un applicativo topografico per Android, capace

di adattarsi ai dispositivi GNSS con protocollo

NMEA, garantendo massima precisione nei rilievi. È

possibile, infatti, gestire strumenti topografici di marche

diverse tramite connessione WiFi e Bluetooth.

Finalmente è possibile dire addio ai vecchi palmari, ai

tablet Windows, ai software obsoleti e complicatissimi!

Con TPad, tutto quello di cui si ha bisogno, lo si

trova direttamente sul proprio cellulare o tablet.

Dotato di tantissime funzionalità, TPad regala forti

emozioni!

Progettato su misura del topografo, ad ogni punto inserito,

è possibile associare codici e descrizioni, fotografie

o addirittura video; in questo modo, si è sicuri

di non dimenticare niente anche se si elabora il rilievo

dopo tanto tempo.

Nel caso in cui il punto da rilevare fosse uno spigolo

di fabbricato o un punto nascosto, utilizzando il comando

“Punto per intersezione”, TPad potrà calcolare

l’esatta posizione del punto grazie alla classica intersezione

in avanti (mediante due ausiliari).

Per scoprire tutte le funzionalità su TPad, visita il sito

Strumenti Topografici a questo link (https://www.

strumentitopografici.it/tpad/).

È possibile provare l’app topografica, scaricandola

gratis da Google Play Store su un cellulare o tablet

Android.

C’è vita nel nostro mondo.

Trasformazione e pubblicazione di dati

territoriali in conformità a INSPIRE

Assistenza su Hight Value Datasets,

APIs, Location Intelligence, Data Spaces

INSPIRE Helpdesk

We support all INSPIRE implementers

Epsilon Italia S.r.l.

Viale della Concordia, 79

87040 Mendicino (CS)

Tel. e Fax (+39) 0984 631949

info@epsilon-italia.it

www.epsilon-italia.it

www.inspire-helpdesk.eu

GEOmedia n°2-2021 45


TERRA E SPAZIO

La navigazione

astronomica è

sempre attuale

di Marco Lisi

La navigazione astronomica è

quella basata sull’osservazione

di corpi celesti (stelle, pianeti,

sole e luna), ovviamente quando

visibili.

Parlare di navigazione

astronomica, in un’epoca

di diffusione capillare delle

più moderne tecnologie, in

particolare quelle basate

sulle costellazioni globali

di satelliti (GPS, GLONASS,

Galileo e Beidou) può sembrare

anacronistico e poco utile.

Prenderemo il discorso molto

alla lontana, raccontando una

storia di guerra molto triste,

ma al contempo estremamente

educativa, quella di un

bombardiere della US Air Force

B24D Liberator, soprannominato

“Lady be good” dal suo

Siamo nell’aprile del

1943 e il “Lady be

good”, partito da una

base vicino a Bengasi in Libia,

era di ritorno da una missione

di bombardamento su Napoli,

con il suo equipaggio di nove

uomini, fra i quali due piloti

ed un navigatore.

Qui è necessaria una prima

precisazione: erano tempi di

guerra, la richiesta di nuovi

aviatori era pressante ed i corsi

di formazione erano stati

ridotti al minimo indispensabile,

per esempio, non sempre

includevano l’utilizzo di strumenti,

quali il sestante, per la

navigazione astronomica.

La navigazione astronomica

con il sestante veniva utilizzata

sui bombardieri di lungo raggio,

quali le famose “fortezze

volanti” (figura 1).

Sui bombardieri di corto e

medio raggio il metodo di

navigazione utilizzato era

esclusivamente quello della

“navigazione stimata” (“dead

reckoning”), basato sulla registrazione

quanto più accurata

possibile della direzione, della

velocità e dell’ora sul libro di

bordo, eseguita dal navigatore.

L’aereo in questione era anche

dotato di un rudimentale sistema

di radionavigazione che,

attraverso un’antenna direzionale,

era in grado di rilevare

la posizione relativamente

equipaggio.

Fig. 1 - La cupola (“astrodome”) sulla fusoliera del Boeing B-17 “Flying Fortress”, utilizzata per le

rilevazioni col sestante.

46 GEOmedia n°6-2021


TERRA E SPAZIO

ad eventuali radiofari (“beacons”).

Nella confusione della missione

e, forse, per l’inesperienza

e l’emozione del navigatore, il

sistema di navigazione stimata

andò a pallino e l’equipaggio

si rese presto conto di essersi

perso sulla via del ritorno: a

parte la certezza di volare verso

sud, non avevano più alcuna

idea della loro latitudine e

della distanza dalla base di

partenza.

Pensarono allora di ricorrere

all’apparato di radionavigazione,

orientandolo verso un

radiofaro situato a Benina, sulla

costa della Libia e vicino a

Bengasi. Il rilevamento sembrò

confermare che stavano procedendo

nella giusta direzione,

anche se la loro base continuava

a non essere visibile ed il

carburante cominciava a scarseggiare.

Lo sfortunato equipaggio non

aveva tenuto conto che l’antenna

direzionale non era in

grado di distinguere il senso di

provenienza dei segnali del radiofaro,

il quale non era in realtà

a sud, ma a nord della loro

posizione: avevano superato da

tempo la costa libica, Bengasi

e la loro base e si erano inconsapevolmente

addentrati nel

deserto.

Aereo ed equipaggio furono

dati per dispersi. Solo nel

1958 un gruppo di geologi

della British Petroleum (BP)

ritrovò i rottami dell’aereo nel

deserto ed i poveri resti dell’equipaggio

(figura 2).

Qualcuno potrebbe sicura-

mente obiettare che oggigiorno

una tragedia del genere non

potrebbe ripetersi, dotati come

siamo di ricevitori GNSS financo

nei nostri smartphone.

Sta però di fatto che nel 2015

l’accademia della marina militare

americana di Annapolis

ha reintrodotto nei suoi corsi

obbligatori quello di “celestial

navigation”, eliminato alla

fine degli anni ’90, sull’onda

dell’entusiasmo

derivante dal successo operativo

del sistema GPS. I vertici

militari statunitensi hanno

giustificato la loro decisione

molto semplicemente: senza

GPS saremmo ciechi, abbiamo

bisogno di un backup. Inoltre,

di fronte ai sempre maggiori

rischi di attacchi agli utenti

GNSS, nella forma di “jamming”

(segnali di disturbo) o

di “spoofing” (segnali contraffatti),

si fa notare che le stelle

non si possono né oscurare né

contraffare (anche se a volte

non sono visibili).

La navigazione astronomica è

Fig. 3 - La statua di Flavio Gioia ad Amalfi e la “rosa dei venti”, da lui probabilmente introdotta

come parte integrante della bussola.

Fig. 2 - I resti

del bombardiere

“lady be

good” ritrovati

nel deserto

libico nel

1958.

GEOmedia n°6-2021 47


TERRA E SPAZIO

Fig. 4 - Il sestante, strumento fondamentale per la

rilevazione del cosiddetto “punto nave”.

stata di fatto la più antica tecnica

di navigazione ed è rimasta

incontrastata per qualche

migliaio di anni.

I primi marinai seguivano la

costa da vicino per evitare

di perdersi in mare aperto.

Quando i primi navigatori

veleggiarono verso l’oceano,

essi scoprirono di poter tracciare

il loro percorso seguendo

le stelle. Le stelle appaiono

differenti da differenti luoghi

della Terra, pertanto osservando

le stelle i marinai traevano

indicazioni sulla direzione

da prendere. L’osservazione

delle stelle è stato per secoli il

metodo principale di navigazione.

Gli antichi Fenici usarono

la Stella Polare per navigare

dall’Egitto a Creta e, secondo

Omero, la dea Atena disse ad

Ulisse di ”tenere la Grande

Orsa (cioè il nord) sulla sua

sinistra” durante il suo viaggio

dall’isola di Calipso (probabilmente

Gibilterra) verso Itaca.

Sfortunatamente le stelle sono

visibili solo di notte (e solo

con il bel tempo).

I più importanti sviluppi nella

ricerca per il metodo ideale

di navigazione furono segnati

dall’invenzione della bussola

magnetica e del sestante. L’ago

di una bussola punta sempre

verso nord (in realtà verso il

nord “magnetico”), fornendo

quindi a qualunque ora del

giorno ed in qualsiasi condizione

atmosferica la direzione

nella quale si sta procedendo.

L’origine della bussola è oscura

ed incerta: alcuni dicono

che essa sia un’invenzione dei

cinesi, altri degli arabi o dei

marinai amalfitani. È tuttavia

Fig. 5 - I predecessori del sestante: in senso antiorario, kamal, astrolabio e quadrante.

abbastanza certo che questo

strumento apparve in Europa

intorno all’anno mille e che

prese la sua forma definitiva

nel 1300, ad opera del (forse)

mitico Flavio Gioia di Amalfi

(“Prima dedit nautis usum

magnetis Amalphis”) (figura

3).

Il sestante usa un sistema di

specchi per misurare l’angolo

esatto delle stelle, della luna e

del sole sopra l’orizzonte (figura

4).

Esso è l’evoluzione di una

serie di predecessori sempre

più elaborati, dei quali il più

famoso e diffuso fu l’astrolabio,

del quale si avvalse,

insieme alla bussola, lo stesso

Cristoforo Colombo durante i

suoi viaggi verso il continente

americano (figura 5).

All’inizio comunque era possibile

determinare con il sestante

solo la latitudine (cioè la

posizione sulla Terra misurata

a nord o a sud dell’Equatore).

I marinai erano ancora

incapaci di calcolare la loro

longitudine (cioè la posizione

sulla Terra a est o ovest di un

meridiano di riferimento).

Il problema della determinazione

della longitudine in

mare aperto appassionò per

oltre due secoli le menti più illuminate

d’Europa e fu risolto

solo nel 1761 da un artigiano

inglese autodidatta di nome

John Harrison, che costruì

uno speciale orologio meccanico

da imbarcare a bordo delle

navi, chiamato cronometro

marino, in grado di perdere

o guadagnare non più di un

secondo al giorno (un’accu-

48 GEOmedia n°6-2021


TERRA E SPAZIO

ratezza incredibile per quel

tempo!). Ma questa è un’altra

storia, anch’essa pienamente

degna di essere raccontata, anche

perché dimostra una volta

di più, qualora fosse necessario,

la stretta correlazione esistente

fra misure di posizione

e misure di tempo.

Bussola, sestante e cronometro

marino rimasero per altri due

secoli gli strumenti fondamentali

per la navigazione, fino a

quando, all’inizio del ventesimo

secolo, l’invenzione della

radio ed i primi esperimenti

di radionavigazione compiuti

dallo stesso Marconi aprirono

la strada ai sistemi di navigazione

terrestri (quali il Loran)

e, più recentemente, ai sistemi

satellitari globali.

Ma l’utilizzo delle osservazioni

astronomiche per determinare

la posizione non è mai stato

completamente abbandonato.

La navigazione dei missili

intercontinentali e

“cruise”, e quella dei

satelliti artificiali,

ad esempio, si basa,

insieme ad altri sistemi

(quali GNSS e

piattaforme inerziali),

sull’uso degli “star trackers”,

strumenti ottici

che utilizzano cortine

di fotocellule o videocamere,

associate a potenti processori

e ad archivi delle stelle visibili,

per riconoscere posizione ed

anche assetto dei veicoli che li

imbarcano (figura 6).

PAROLE CHIAVE

Navigazione astronomica; navigazione

stimata; timing; positioning; GNSS

AUTORE

Dott. ing. Marco Lisi

ingmarcolisi@gmail.com

Independent Consultant

Aerospace & Defense

Fig. 6 - “star

tracker” utilizzato

a bordo

dei satelliti

GEOmedia n°6-2021 49


AGENDA

23-24 Marzo 2022

Geo Connect Asia 2022

Singapore

https://www.

geoconnectasia.com/

27 – 29 Aprile 2022

GISTAM

gistam.scitevents.org/

Online Streaming

6 - 11 Giugno 2022

XXIV ISPRS Congress

Nice (France)

www.geoforall.it/kyx8u

16-18 Giugno 2022

D-SITE Drones -

Systems of Information

on culTural hEritage

Pavia (Italy)

www.geoforall.it/kyw6u

20-25 June 2022,

Nessebar (Bulgaria)

The 8th International

Conference on

Cartography and GIS

www.geoforall.it/kywu9

20-24 giugno 2022

ASITA 2022 Conferenza

Nazionale di Geomatica

e Informazione

Geografica

Genova

www.geoforall.it/kyfh6

22-24 giugno 2022,

Potsdam (Germania)

- 12th EARSeL

Workshop on Imaging

Spectroscopy

www.geoforall.it/kyx46

LEICA BLK2GO

MAPPATURA MOBILE SEMPLIFICATA,

SCANSIONA OGNI TIPO DI AMBIENTE IN MOVIMENTO

EFFETTUANDO MILIONI DI MISURAZIONI.

◗ BLK2GO utilizza una tecnologia avanzatissima che permette

di ottenere le migliori prestazioni di mappatura disponibili

nella categoria dei dispositivi mobili portatili.

◗ Maggiore velocità e sicurezza durante la cattura di immagini e

scansioni, anche nel caso di ampi spazi interni, esterni, interrati,

complessi e su più livelli.

◗ Identifica diverse superfici ed analizza i dati LiDAR per

calcolare la propria posizione in 3D.

◗ Tre fotocamere panoramiche identificano le analogie tra

immagini consecutive per calcolare il movimento dello scanner

attraverso lo spazio 3D.

◗ Leggero: pesa solo 775 grammi.

◗ Portata Lidar fino a 25 metri.

◗ Fotocamera “inquadra & scatta” per catturare dettagli specifici.

◗ Molto altro ancora.

per maggiori

informazioni

Contattaci, scoprirai molto di più!

Via A. Romilli, 20/8 - 20139 Milano • Tel. 02 5398739

E-mail: teorema@geomatica.it

www.geomatica.it • www.disto.it • www.termocamere.com


Sede in Italia

Più di 100 distributori nel mondo

Una linea di prodotti Made in Italy

Dove siamo Chiamaci Contattaci

Seguici sui Social

Viale dell’Industria 53

20037, Paderno Dugnano (MI)

Tel. +39 02 78619201

www.stonex.it

info@stonex.it - italia@stonex.it

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!