GEOmedia_5_2021
La prima rivista italiana di geomatica
La prima rivista italiana di geomatica
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Rivista bimestrale - anno XXV - Numero - 5/2021 - Sped. in abb. postale 70% - Filiale di Roma
TERRITORIO CARTOGRAFIA
GIS
CATASTO
3D
INFORMAZIONE GEOGRAFICA
FOTOGRAMMETRIA
URBANISTICA
EDILIZIA
GNSS
BIM
RILIEVO TOPOGRAFIA
CAD
REMOTE SENSING SPAZIO
WEBGIS
UAV
SMART CITY
AMBIENTE
NETWORKS
LiDAR
BENI CULTURALI
LBS
Set/Ott 2021 anno XXV N°5
Urban
Digital
twin
OLTRE LE SDI:
QUALI PROSPETTIVE
LA SITUAZIONE DELLE
IDT REGIONALI:
PIEMONTE E VENETO
SENSORE SENTERA
6X A BORDO DI UN
PHANTOM 4
Da IDT e INSPIRE alle
DIGITAL TWIN
Quanto la copia digitale dei nostri ecosistemi, in particolare città e territorio, è in grado di
essere utilizzata per produrre previsioni di comportamento in grado di farci conoscere cosa
succederà domani?
È quello che esplorano gli autori del focus L’Urban Digital Twin, l’Incertezza
e l’Osservazione della Terra: il Programma europeo Copernicus, portandoci a considerare
quali siano i termini di incertezza dei risultati previsionali, derivati da modelli in cui i
dati di base utilizzati sono fortemente approssimati. La misura dell’incertezza del dato
di base è uno dei pilastri costituenti la scienza della misura che da sempre accompagna il
rilievo sul campo dei dati geometrici della realtà che ci circonda, ma questa viene spesso
sottovalutata specialmente nell’analisi di grandi moli di dati come quelli rilevati dai
satelliti Copernicus, che, ci ricordano i nostri autori, non sono stati lanciati solamente
per un semplice programma osservativo di monitoraggio satellitare. Le loro priorità
sono le informazioni, anche previsionali, che possono essere rilanciate da piattaforme di
simulazione di fenomeni osservabili.
E quanto affidabili sono oggi le Infrastrutture di Dati Territoriali (IDT), anche
omogeneizzate ed armonizzate nell’ambito del processo avviato dalla direttiva europea
INSPIRE basata sulla interoperabilità delle infrastrutture di dati spaziali creati dagli stati
membri, entrata in vigore nel 2007 e recepita in Italia con il D.Lgs. 32/2010?
È questo l’oggetto dell’indagine avviata con il contributo di Franco Vico Oltre le SDI:
quali prospettive, il quale constata che a 14 anni dall’entrata in vigore di INSPIRE non c’è
un paese dell’Unione Europea che abbia dato piena implementazione in accordo con la
roadmap inizialmente stabilita. Il concetto di SDI (Spatial Data Infrastructure), tradotto
in Italia in IDT, introdotto all’inizio degli anni ’90, oggi subisce, a livello globale, un
dibattito sul suo futuro. L’autore ci illustra le varie posizioni ed è interessante notare che,
nonostante il quadro variato, emergono alcuni punti di convergenza tra le varie posizioni.
Seguendo questo tema vi presentiamo le prime indagini, di una serie che speriamo
possa essere esaustiva a livello nazionale, che inizia con questo numero di GEOmedia
e proseguirà con i successivi, finalizzata a conoscere quale sia la situazione delle varie
strutture regionali dedite alla realizzazione e manutenzione delle IDT, attraverso delle
interviste ai diretti responsabili.
Alcune Regioni ci hanno dato questa disponibilità e vi riportiamo qui le risultanze di
questi incontri eseguiti conducendo interviste ai funzionari che hanno in carico le gestioni
delle SDI, quali Gian
Bartolomeo Siletto, funzionario referente della IDT della Regione Piemonte e Umberto
Trivelloni, Responsabile della IDT della Regione del Veneto.
Un particolare ringraziamento va a Franco Vico che ha realizzato in collaborazione con la
nostra Redazione queste prime interviste.
Buona lettura,
Renzo Carlucci
FOCUS
in qUesto
nUmero...
FocUs
rePort
intervista
l’URBAN DIGITAL
TWIN, l’incertezza e
l’osservazione Della
terra: il Programma
eUroPeo coPernicUs
DI ANDREA TARAMELLI, BERNARDO
DE BERNARDINIS, MARIA VITTORIA
CASTELLANI E SERGIO FARRUGGIA
6
LE RUBRICHE
42 MERCATO
46 AGENDA
18
interviste aD alcUni
resPonsabili Di iDt
regionali: Presente
e ProsPettive
A CURA DI FRANCO VICO
oltre le sDi:
qUali ProsPettive
DI FRANCO VICO
14
In copertina una
immagine che
iconicamente rappresenta
il rapporto tra Urban
Digital Twin e la realtà
urbana. Fonte: ARUP
Report 2019 http://
www.arup.com/
digitaltwinreport
geomediaonline.it
4 GEOmedia n°5-2021
GEOmedia, bimestrale, è la prima rivista italiana di geomatica.
Da più di 20 anni pubblica argomenti collegati alle tecnologie dei
processi di acquisizione, analisi e interpretazione dei dati,
in particolare strumentali, relativi alla superficie terrestre.
In questo settore GEOmedia affronta temi culturali e tecnologici
per l’operatività degli addetti ai settori dei sistemi informativi
geografici e del catasto, della fotogrammetria e cartografia,
della geodesia e topografia, del telerilevamento aereo e
spaziale, con un approccio tecnico-scientifico e divulgativo.
INSERZIONISTI
26
rilievo Digitale
Di aree Urbane
DI MARCO SANTONI,
FLAVIA BORGIOLI
Catalyst 25
Codevintec 37
Datronix 48
Epsilon 43
ESRI 41
Geomax 45
GIS3W 12
Gter 24
Planetek Italia 13
Stonex 47
integrazione Di Un
sensore sentera 6X
30
Teorema 46
a borDo Di Un Drone
Phantom 4. Una
sPerimentazione in
camPo archeologico
DI LAURA EBANISTA,
ALESSANDRO MARIA JAIA,
ANDREA POMPILI
38
sistemi Di
Posizionamento,
navigazione e
sincronizzazione
alternativi ai gnss
DI MARCO LISI
Nello sfondo Cancún, Messico
(14 novembre 2021)
- Cancún, che è situata nel
Quintana Roo sulla costa
nord orientale della penisola
messicana dello Yucatán, è
mostrata in questa immagine
catturata dalla missione Copernicus
Sentinel-2.
La posizione di Cancún sul
Mar dei Caraibi, il suo clima
tropicale ed il suo allineamento
di spiagge hanno fatto della
città e della Riviera Maya (a
sud di Cancún) una delle più
importanti mete turistiche del
Messico. In questa immagine,
acquisita il 16 aprile 2021,
la città nascosta dalle nubi è
visibile nell’angolo in basso
a destra. L’Aeroporto Internazionale
di Cancún, il secondo
aeroporto più trafficato del
Messico, è posizionato 20km
circa a sud della città.
La zona di villeggiatura di
Cancún, visibile appena al
largo della costa, appare
di una forma che ricorda il
numero sette ed è lunga circa
22km. L’isola è separata
dalla città dalla laguna di
Nichupté, ma ad ogni suo
estremo è collegata attraverso
una strada sopraelevata. Gran
parte dell’industria turistica
è concentrata nell’isola di
Cancún con le sue spiagge
che si affacciano sui Caraibi.
(Fonte: ESA - Image of the
week: "Cancún, Mexico".
Traduzione: Gianluca Pititto)
una pubblicazione
Science & Technology Communication
GEOmedia, la prima rivista italiana di geomatica.
ISSN 1128-8132
Reg. Trib. di Roma N° 243/2003 del 14.05.03
Direttore
RENZO CARLUCCI, direttore@rivistageomedia.it
Comitato editoriale
Vyron Antoniou, Fabrizio Bernardini, Mario Caporale,
Roberto Capua, Luigi Colombo, Mattia Crespi, Luigi Di
Prinzio, Michele Dussi, Michele Fasolo, Marco Lisi, Flavio
Lupia, Luigi Mundula, Beniamino Murgante, Aldo Riggio,
Mauro Salvemini, Attilio Selvini, Donato Tufillaro
Direttore Responsabile
FULVIO BERNARDINI, fbernardini@rivistageomedia.it
Redazione
VALERIO CARLUCCI, GIANLUCA PITITTO,
redazione@rivistageomedia.it
Diffusione e Amministrazione
TATIANA IASILLO, diffusione@rivistageomedia.it
Progetto grafico e impaginazione
DANIELE CARLUCCI, dcarlucci@rivistageomedia.it
Editore
MediaGEO soc. coop.
Via Palestro, 95 00185 Roma
Tel. 06.64871209 - Fax. 06.62209510
info@rivistageomedia.it
Stampa: System Graphics Srl
Via di Torre Santa Anastasia 61 00134 Roma
Condizioni di abbonamento
La quota annuale di abbonamento alla rivista Science è di € & 45,00. Technology Communication
Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di
ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa.
L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita
revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza
dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo.
La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti.
Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta
dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere
richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo.
Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la
riproduzione anche parziale del contenuto di questo numero della Rivista in
qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i
sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore.
Rivista fondata da Domenico Santarsiero.
Numero chiuso in redazione il 20 novembre 2021.
FOCUS
L’“Urban Digital Twin”, l’Incertezza
e l’Osservazione della Terra:
il Programma europeo Copernicus
di Andrea Taramelli, Bernardo De Bernardinis, Maria Vittoria Castellani e Sergio Farruggia
Con l'avvento
dell'informatica, attraverso
tecnologie e modellazioni
digitali, sentiamo parlare
sempre più di “Digital
Twin” del reale. Tuttavia,
spesso ci dimentichiamo
della necessità di una
solida base di dati ed
informazioni quale quella
offerta da Copernicus
e dell'incertezza che
accompagna tale
Figura 1 - Rappresentazione funzionale del programma Copernicus
approccio
Prima dell’avvento dell’informatica
- e quindi
delle tecnologie binarie
nel mondo scientifico, tecnico
e produttivo - lo strumento
per “comprendere” il reale corrispondeva,
assieme alla sperimentazione,
ai modelli e alle
simulazioni analogiche, fondate
sulla dottrina della misura:
pochi numeri, un pallottoliere
o un regolo calcolatore e grandi
intuizioni.
Con l’avvento del bit e quindi
del byte, l’ambiente e la simulazione
digitale sono diventati
largamente predominanti ed
in moltissimi casi gli unici
possibili, ma al tempo stesso
eccessivamente ingombranti:
sia rispetto ai numeri - ora tanti
-, alla possibilità e potenza
di calcolo sempre maggiori per
produrli, usarli, gestirli e trasformarli
in informazioni; sia
riguardo alle piattaforme per
la rappresentazione, sintetica e
simbolica o anche quasi reale
dei dati e delle informazioni
prodotti.
Digital Twin: “gemello digitale”
della città e del territorio
Nei fatti, l’idea concettuale
di un “sistema gemello” ebbe
origine e conobbe un ampio
sviluppo nell’ambito dei programmi
spaziali degli anni ’60,
sperimentandone la validità in
occasione dell’incidente occorso
alla navicella spaziale Apollo
13 (1970). Il salvataggio degli
astronauti poté avvenire anche
grazie alla disponibilità a terra
di un sistema gemello, riproduzione
identica in tutto e per
tutto, della navicella nello spazio,
attraverso il quale i tecnici
della NASA eseguirono test di
possibili soluzioni, prima di
prendere le decisioni risolutive.
Le soluzioni adottate per realizzare
tali sistemi gemelli sono
progredite di pari passo con
lo sviluppo tecnologico. Alla
fine del secolo scorso e, ancora,
nei primi anni del nuovo
millennio, il concetto è stato
prevalentemente assimilato a
quello di “modello (software)
di simulazione” di un sistema
fisico, messo a punto per studiarne
il comportamento in
fase di progetto.
Il termine “Digital Twin” ha
iniziato ad essere utilizzato
6 GEOmedia n°5-2021
FOCUS
Il modo enfatico con cui parliamo
di “Digital Twin”, trasciall’inizio
decennio appena
conclusosi, per indicare una copia
virtuale di un prodotto
fisico integrata nel sistema di
gestione del ciclo di vita del
prodotto stesso. La comparsa
dell’approccio sistemico
“Industria 4.0” ha favorito lo
sviluppo e la diffusione di tale
tecnica implementativa, stimolando
l’evoluzione del concetto:
l’uso di questo termine è così
diventato familiare con l’affermarsi
di quel paradigma.
La caratteristica saliente del
gemello digitale è la sua sincronizzazione
con l’entità fisica
simulata e la sua capacità di
reagire -continuativamente- ai
mutamenti delle condizioni
operative del gemello fisico,
fornendo prontamente, ad
esempio, indicazioni per la sua
corretta gestione.
Oggi, ambiziosamente e in
modo anche troppo roboante,
quest’approccio lo chiamiamo
“Digital Twin”, tendendo a
sottintendere o a suggerire “of
the real world” quando lo estendiamo
per descrivere, analizzare
e gestire, se non governare, sistemi
“umani” complessi, come
quelli attribuibili alle nostre
città attuali e non solo.
Infatti, negli ultimi anni dello
scorso decennio, sono stati
avviati i primi progetti pilota
di Digital Twin applicati alle
aree urbane. Per le potenzialità
che questo ambito applicativo
esprime e stante lo sviluppo
delle tecnologie utilizzate
(Internet of Things, Artificial
Intelligence, …), il numero
di città dotate di una propria
copia virtuale è destinato sicuramente
a crescere nei prossimi
anni. Il fenomeno sta interessando
sia metropoli, sia città e
-in generale- territori di diversa
estensione.
Tuttavia, occorre cautela nel
proporlo perché, in particolare
quando si fa riferimento ad
Figura 2 - Rappresentazione a diverse scale dell'inquinamento atmosferico
“Internet of things”, ci si limita
ancora a pensare solo ad una
parte del mondo reale, cioè
quella relativa a manufatti,
macchinari, infrastrutture e
sistemi abitativi, produttivi, logistici
e di monitoraggio, controllo
e sorveglianza, ecc., cioè
appunto a “things”. In questo
caso, la realizzazione ed uso di
un “Digital Twin”, più o meno
completo e complesso, ci appare
non solo realizzabile, ma anche
affidabile e gestibile, mentre
è necessario essere coscienti
che la simulazione “of the real
world” è ben più complessa.
Digital Twin: più tecnologia
impone maggiore consapevolezza,
quindi cultura
La recente introduzione delle
tecniche e metodologie legate
all’uso dell’Intelligenza
Artificiale (IA) nell’ambito
della realizzazione ed uso di
“Digital Twin”, ad esempio nella
medicina e chirurgia assistita,
ed i recenti incidenti occorsi
ai Boeing 737, quali esempi di
competizione uomo-macchina
mal gestita, se da una parte ci
incitano giustamente ad andare
avanti, dall’altra ci segnalano
che molte sono ancora le problematiche
irrisolte e gli aspetti
oscuri e i terreni sconosciuti
offerti alla nostra attenzione da
questo approccio.
L’orientamento “Digital Twin”
non può essere ridotto ad una
applicazione di tecnologie, ma
è soprattutto una metodologia
che si avvale di tecnologie delle
telecomunicazioni e informatiche
e per la sua applicazione
alla simulazione del mondo
reale alcuni elementi nontecnologici
sono essenziali,
debbono essere tenuti presenti,
concorrere tra loro e non devono
essere elusi.
Infatti, dato un fenomeno/
processo/evento da “simulare”,
olisticamente o settorialmente,
tali elementi, possono essere
sinteticamente riportati:
alla conoscenza, o quantomeno
ad una ragionevole
ipotesi teorica degli aspetti
fisici, chimici, biologici,
sociali, economici e quanti
altri, ove presenti e significativi,
e delle relazioni tra
essi esistenti;
al monitoraggio delle grandezze
ritenute significative
per descrivere il fenomeno,
il suo manifestarsi e svilupparsi;
alla conservazione e la disponibilità
dei risultati di
tale monitoraggio e delle conoscenze
sviluppate e verificate
al succedersi e ripetersi
nel tempo di tale fenomeno.
GEOmedia n°5-2021 7
FOCUS
nati altresì dall’entusiasmo per
uno sviluppo infrastrutturale
e tecnologico assolutamente
necessario, in particolare nel
nostro Paese, dove il divario digitale
e quello anche sociale ed
economico tra le aree interne
e rurali e quelle urbane, è più
che significativo, diciamo pure
inaccettabile, ci fa dimenticare
l’infinita complessità e gli infiniti
gradi di libertà con cui
il mondo è reale e come tale si
manifesta.
Siamo assertivi. Se non annunciamo
“domani pioverà”
comunque affermiamo che
“domani è prevista pioggia”,
ma certamente non diremo
che “domani è prevista un’alta
probabilità che piova”. Siamo
troppo sicuri della nostra “simulazione
del mondo reale”,
mentre “l’incertezza” accompagna
e permea il nostro essere
parte di questo mondo e ci
impone delle “scelte” ad ogni
istante.
Vale la pena ricordare che lo
stesso bit se rappresenta l’unità
elementare di informazione, è
anche la misura della probabilità
tanto di successo che di
insuccesso come nel caso del
lancio di una moneta, pari a
0.5, quando la quantità di “incertezza”
è massima.
Quindi il nostro “Digital
Twin”, pur nella certezza dei
suoi bit, è intrinsecamente permeato
da una incertezza, animata
da ciò che non conosciamo,
né rileviamo, che è e deve
essere oggetto di un nostro
impegno, se non nel misurarla
esattamente, almeno nel percepirla
e possibilmente stimarla.
Il ruolo del Programma
Copernicus
Il Programma europeo di
Osservazione della Terra
Copernicus, attraverso le sue
infrastrutture e servizi rappresenta
una tra le più estese
ed avanzate fonti di dati e
informazioni per realizzazioni
di “Digital Twin” di alcune
parti del mondo reale, relative
all’ambiente terrestre e marino,
ai territori che vi sono immersi,
vi partecipano e che ne fanno
uso. Il Programma stesso vanta
applicazioni avanzate della
metodologia “Digital Twin” a
diverse scale temporali e spaziali,
cioè da quella del tempo
reale a quella dei cambiamenti
climatici, da quelle globale
ed europea a quelle urbana
del giardino pubblico e rurale
dell’appezzamento coltivato.
Infatti, Copernicus non è un
Programma semplicemente
osservativo di monitoraggio
satellitare, ma la sua priorità
Figura 3 - Andamento temporale del NO2 per la città di Milano: gennaio – aprile 2020
sono le informazioni, anche
previsionali, prodotte da servizi
che usano le osservazioni per
alimentare piattaforme simulative,
“Digital Twin”, di fenomeni/processi/eventi
osservati
e/o da osservare.
Il Programma, infatti presenta
ben tre Componenti strettamente
connesse tra loro: le
prime due relative ai servizi
dedicati ai dati rispettivamente
osservativi spaziali e quelli in
situ; la terza, relativa ai servizi
applicativi che producono le
informazioni per le finalità
operative dell’utente finale, sia
esso una istituzione pubblica o
una impresa privata (Figura 1).
Esso rappresenta non solo
una grande sfida per l’Earth
Observation (EO),
per la Geoinformation &
Geomatic (GI) e per le
Information&Comunication
Technology (ICT) e le High
Computing Facilities (HCF)
attraverso, rispettivamente,
la gestione dei Big Data e del
relativo Number Crunching,
ma anche una grande sfida culturale.
Nel fare questo Copernicus è
il primo Programma al mondo
per impegno finanziario,
organizzativo ed operativo nel
monitoraggio ambientale e
dei territori ed è il terzo quale
fornitore di dati ed informazioni,
con un volume di circa
300.000.000 Mbyte giornalieri,
cioè di oltre 30 PBytes al
trimestre, e con oltre 400.000
utenti registrati e fruitori dei
numerosi servizi, offerti liberamente
e gratuitamente a tutti
gli abitanti europei. Infatti, al
di là dei dati satellitari ottenuti
dalle costellazioni di satelliti
del sistema detto Sentinels ed
anche adeguatamente processati
per essere direttamente utilizzabili
in un ambiente GIS,
Copernicus rende disponibili
attraverso i sui sei Core Service,
8 GEOmedia n°5-2021
FOCUS
cioè l’Emergency management,
il Land, il Marine Environment,
l’Atmosphere, il Climate Change
ed il Security, oltre 800 prodotti
di elevatissimo contenuto
informativo, ufficialmente verificati
e validati con cui è possibile
costruire altri ” Digital
Twin” di scenari complessi.
A titolo di esempio, utilizzando
il Copernicus Atmosphere
Monitoring Service (CAMS)
e la piattaforma di interesse
nazionale che da questo si alimenta[1],
si può seguire giornalmente
l’andamento degli
elementi inquinanti, come il
NO2, e dei particolati, come
il PM10, da una scala sinottica
paneuropea ad una scala urbana
(Figura 2.).
Quindi, procedendo così come
fatto da ECMWF [2], responsabile
della implementazione
e della gestione del CAMS, è
possibile ricostruire ed analizzare
gli effetti del “lockdown”
conseguente al Covid-19 relativamente
alla città di Milano,
tra il 3 gennaio ed il 19 Aprile
2020 (Figura 3).
Tale ricostruzione non si basa
solo sui dati osservati ma anche
su modelli simulativi di “downscaling”
sino alla scala urbana.
È quindi il miglior “Digital
Twin” che possiamo ottenere,
già utile a capire e forse a fare
delle scelte, ma certamente
affetto da quella incompletezza
conoscitiva e rappresentativa
ricordata prima e quindi ancora
insoddisfacente nella sua
rappresentazione del mondo
reale.
Figura 4 - Confronto valori misurati e simulati del livello delle acque, in condizione
di marea normale
genza Artificiale (IA), ci consente
di migliorare la rappresentazione
della realtà.
I dati nei domini spettrale,
temporale e spaziale offrono
possibilità uniche all’IA. Molte
analisi e interpretazioni delle
informazioni sono ancora
eseguite operativamente da
analisti di immagini. Tuttavia,
alcune tecniche per automatizzare
il processo di analisi
stanno avanzando grazie all’inclusione
dell’IA nella progettazione
della maggior parte delle
applicazioni di Digital Twin.
Vengono, infatti, proposte
tecniche ormai classiche di apprendimento
automatico, dalle
reti neurali alle regole Fuzzy
ed agli algoritmi di Support
Vector Machine, nonché nuovi
approcci di Deep Learning per
affrontare i problemi di modellistica
più impegnativi. Ciò
consente anche l’inclusione
continua di input diversi e lo
sfruttamento della capacità di
affinamento per approssimazioni
successive, necessari per
raggiungere lo sviluppo del
Digital Twin. I risultati di questa
attività sono quindi elaborati
ed integrati nello sviluppo
Digital Twin Earth attraverso
l’uso di approcci qualitativi o
semiquantitativi che esplorano
valori e modelli separati, come
IA e saggezza:
convergenza cognitiva
Tuttavia, il riconoscimento
dell’incertezza ci può offrire un
punto di vista diverso, ben rappresentato
dalla “teoria degli
insiemi fuzzy” o “logica fuzzy”
che, correttamente accoppiata
alle metodologie dell’Intellila
mappatura cognitiva fuzzy
ottenibile attraverso la mappatura
delle misure (Bozzeda,
F., 2013) [3], la mappatura
cognitiva (Eden, Colin., 2004)
[4] e la mappatura concettuale
(Baja, S., Chapman, D.
M., & Dragovich, D., 2002)
[5]. Sviluppo di un approccio
congiunto fuzzy-Bayesiano
per l’analisi e la modellizzazione
degli ecosistemi: applicazione
ad ecosistemi marini
costieri.- http://amsdottorato.
unibo.it/5225/#), la mappatura
cognitiva (Eden, Colin.
“Analyzing cognitive maps to
help structure issues or problems.”
European Journal of
Operational Research 159.3
(2004): 673-686.) e la mappatura
concettuale (Baja,
S., Chapman, D. M., &
Dragovich, D. (2002). A conceptual
model for defining and
assessing land management
units using a fuzzy modeling
approach in GIS environment.
Environmental management,
29(5), 647-661.). L’approccio
adottato consiste in una sequenza
di fasi, in cui singoli
elementi o prodotti separati
dell’intero modello della gestione
sostenibile degli eventi
estremi in fascia costiera,
vengono sviluppati in modo
relativamente indipendente
GEOmedia n°5-2021 9
FOCUS
e con tempi diversi, per consentire
un’ampia integrazione
(Taramelli et al., 2017). I risultati
possono:
estendere set di dati e variabili
coinvolte nella modellazione
dei processi descritti
nei casi applicativi,
mappare i parametri in base
al tipo di parametro e alle
regioni geografiche in cui
viene applicato.
Un esempio particolarmente
significativo è quello relativo
alla simulazione degli eventi
mareali estremi che interessano
Venezia, per i quali, altresì,
sono disponibili consistenti
serie storiche di misure mareografiche
delle variazioni medie
del livello del mare in più siti
lagunari e non.
Bellafiore e Umgiesser
(Venezia, CNR, 2012) hanno
stabilito che gli eventi di acqua
alta nella laguna di Venezia
dipendono da diversi fattori,
-anche locali- e l’applicazione
dell’approccio precedentemente
e sommariamente illustrato
sopra ci permette di farne
emergere le possibili conseguenze.
Le simulazioni fatte si basano
su 10 anni di dati (dal 2000 al
2010) e tengono conto delle
Figura 5 - Confronto valori misurati e simulati di dislivello delle acque, in condizione
di marea estrema
maree effettive, delle maree
astronomiche, delle altezze
delle onde, della direzione e
della velocità del vento, nonché
della pressione atmosferica,
simulate attraverso misure ogni
10 minuti. Esse utilizzano un
semplice modello di Fuzzy-
Bayes [6] (Taramelli et al.,
2017), in cui la struttura del
modello fisico è nascosta nei
dati che vengono utilizzati per
la stima.
Una prima simulazione a cui si
riferisce la figura 4, è relativa
ad una marea normale e nulla
emerge di particolarmente
anomalo, se non una buona
qualità della simulazione stessa.
Invece, in una seconda simulazione,
relativa ad un evento
estremo in cui il livello dell’acqua
alta raggiunge 1,6 metri al
di sopra dell’altezza di marea
media, così come calcolata
rispetto all’insieme di tutti i
dati utilizzati con un approccio
fuzzy-bayesiano, viene identificata
una potenziale biforcazione
dell’andamento di marea
a cui seguirebbe un regime
di marea più alta e quindi un
ritorno a regimi di marea più
bassa, non evidenziabile attraverso
altri approcci simulativi
(Figura 5.).
Tuttavia, ancora più complesso,
e quindi ancor più
affetto da incertezza, resta
l’utilizzo di quanto prodotto
da Copernicus, per alimentare
piattaforma simulative “Digital
Twin” in grado di costruire ed
integrare, anche in combinazione
tra loro, scenari multipli,
destinati ad esempio a valutare
il quadro complessivo dei costi
e benefici conseguenti a diverse
sorgenti di rischio ed alle possibili
azioni di contrasto per
contenerne e/o mitigarne gli
effetti.
Ciò diventa ancor più arduo se
ci riferiamo ad ambienti urbani
in cui le dinamiche sociali
e della vita quotidiana sono
“regolate” tanto da una ordinarietà,
quanto da grandi eventi,
anche eccezionali o considerabili
tali, non solo di origine
naturale, come potrebbero
essere un grande concerto, una
partita di calcio o un evento
fieristico di rilevanza.
Per le finalità della Protezione
Civile Nazionale, il Centro
Internazionale in Monitoraggio
Ambientale (Fondazione
CIMA) ha concorso allo
sviluppo della piattaforma
RASOR [7], alimentata con
dati e informazioni rese disponibili
tanto dal Copernicus
Emergency Management
Service (CEMS), gestita dal
Joint Research Centre (JRC)
europeo, quanto dagli altri Core
Services e destinata a costruire
scenari di rischio, attesi o in
essere, assieme ai conseguenti
scenari di danno. La piattaforma
si applica ad eventi estremi
complessi, senza o con interventi
di mitigazione, tenendo
altresì conto degli scenari di
cambiamento climatico, ma
è utilizzabile in tempo reale e
può integrare altre informazioni
di diversa natura e origine,
come quelle prodotte dagli abitanti
attraverso i media.
Un buon esempio, seppur
10 GEOmedia n°5-2021
FOCUS
limitato ad un evento di sola
origine naturale è l’applicazione
di RASOR ad un caso
idrometeorologico estremo che
ha colpito la città di Genova,
alluvionandola con significativi
danni a persone e beni, e la
simulazione degli effetti della
realizzazione di possibile mitigazione
conseguenti alla realizzazione
del canale scolmatore
del Torrente Bisagno, intervento
infrastrutturale ad oggi non
ancora realizzato (Figura 6).
Anche in questo caso, ove si
vogliano tenere in conto e simulare
i comportamenti umani
e sociali, un approccio cognitivo
e Fuzzy potrebbe essere
utilizzato, non solo utilizzando
dati ed informazioni statistiche
disponibili, ma anche quelli
ottenibili attraverso metodi
di rilevamento e analisi della
messaggistica social, oppure attraverso
indagini di campo mirate,
come nel caso dell’analisi
della percezione e dell’accettabilità
dell’implementazione
delle “Green Infrastructure”,
definite dall’UE nel 2013, da
parte della Comunità agricola
nazionale.
Copernicus ed i “Digital
Twin” in un futuro europeo
molto prossimo
Copernicus, altresì, si dimostra
un sistema, non solo abilitante,
ma essenziale per lo sviluppo
di una iniziativa chiave a livello
europeo come “Destination
Earth” che lega tra loro quelle
promosse nell’ambito: (i) del
“Green Deal”, volto al raggiungimento
della neutralità
climatica entro il 2050, (ii)
dell’“European Strategy for
Data“, mirata alla creazione
all’interno dell’UE di una libera
ed accessibile circolazione
di dati ed informazioni, e (iii)
del “Shaping Europe’s digital
future”, destinato tanto a garantire
la transizione digitale in
Figura 6 - Descrizione sinottica della piattaforma RASOR applicata ad un evento idrometeorologico estremo
Europa, quanto a diventare un
modello di riferimento mondiale
per l’economia digitale.
Infatti “Destination Earth”
mira a sviluppare un modello
digitale della Terra, cioè un
Digital Twin, di alta e tale
qualità da essere in grado di
monitorare e simulare eventi
naturali ed attività umane,
nonché di sviluppare e validare
scenari utili:
al raggiungimento degli
obiettivi del Green Deal;
alla protezione delle vite degli
abitanti e dell’economia
dell’UE;
a promuovere, sostenere
e realizzare le politiche
dell’UE;
a consolidare e rinforzare le
capacità e la competitività
tecnologica ed industriale
dell’UE in materia di
“advanced computing, simulation,
modelling, predictive
data analytics ad artificial
intelligence”.
Per il raggiungimento di tali
obiettivi quattro sono i pilastri
a cui l’iniziativa europea
si affida, così come mostrato
nella figura seguente, e non
può non essere ravvisato come
Copernicus, non solo ne faccia
parte integrante, ma ne sia
stato un prodomo nella sua
architettura istituzionale, funzionale
ed operativa, nonché
nello sviluppo di ciascuna delle
sue componenti e delle azioni
poste in essere.
Conclusioni e raccomandazioni
finali
In conclusione, l’approccio
“Digital Twin” è tra noi da
tempo, ma forse non ne eravamo
coscienti e oggi ci rende
disponibili informazioni ancora
impensabili in un non
lontanissimo passato, consegnandoci,
tuttavia, anche la
responsabilità della gestione
dell’incertezza che le accompagna.
La sua utilità, ma anche i
suoi limiti, sono emersi dalla
necessità e/o dalla volontà di
simulare, fronteggiare e gestire
scenari, significativamente più
incerti e sfumati, di quelli pro-
GEOmedia n°5-2021 11
FOCUS
NOTE
[1] La piattaforma è stata sviluppata nell’ambito di un Accordo
ASI-ISPRA con il concorso di alcune Agenzie del Sistema Nazionale
per la Protezione dell’Ambiente (SNPA)
[2] European Centre for Medium range Weather Forecast (EC-
MWF).
[3] Bozzeda, F. (2013). Sviluppo di un approccio congiunto
fuzzy-Bayesiano per l’analisi e la modellizzazione degli ecosistemi:
applicazione ad ecosistemi marini costieri.- http://amsdottorato.
unibo.it/5225/#
[4] Eden, Colin. “Analyzing cognitive maps to help structure
issues or problems.” European Journal of Operational Research
159.3 (2004): 673-686.
[5] Baja, S., Chapman, D. M., & Dragovich, D. (2002). A conceptual
model for defining and assessing land management units
using a fuzzy modeling approach in GIS environment. Environmental
management, 29(5), 647-661.
[6] Taramelli, A., Valentini, E., Cornacchia, L., & Bozzeda, F.
(2017). A hybrid power law approach for spatial and temporal
pattern analysis of salt marsh evolution. Journal of Coastal Research,
(77), 62-72.
[7] La piattaforma RASOR (Rapid Analysis and Spatialization
Of Risk) è stata sviluppata dalla Fondazione CIMA, le, assieme
ad altri soggetti nazionali ed europei, nell'ambito del Programma
europeo FP7 Copernicus (www.rasor-project.eu)
Figura 7 - Descrizione schematica dell’iniziativa europea “Destination Earth”
posti dal “mondo delle cose”
e di farlo anche a livello di
dettaglio e particolare, pur
conservandone la complessità
e generalità della rappresentazione.
Infine, la disponibilità di un
“gemello digitale” del reale
ci lascia con alcune questioni
non secondarie a partire da
quella di come comunicare
all’utente finale, assieme alle
indubbie positività offerte
dal suo impiego, anche l’esistenza
dell’incertezza che
ineludibilmente lo accompagna
ed affligge, e, in particolare,
di come farlo verso la
Pubblica Amministrazione,
convincendola ad introdurre
l’uso di tale metodologia nei
propri processi tanto amministrativi
quanto decisionali,
nonchè ad avvalersi di nuovi
profili professionali non solo
tecnologici, ma anche gestionali,
e ad accettare di essere
informata, formata ed addestrata
a tal fine.
Tutto ciò richiede un grande
dispiegamento oltre che di
competenze, conoscitive,
gestionali, di risorse tecnologiche,
infrastrutturali,
ma anche, se non soprattutto,
umane e finanziarie
così come il Programma
Copernicus continua a dimostrarci
a livello non solo
europeo.
PAROLE CHIAVE
Digital twin; copernicus; monitoraggio; servizi;
incertezza
ABSTRACT
The "digital twins" applied to cities and territories -as well as to
their inhabitants- are already a reality and also at our disposal
for the future. Therefore, being creators and/or beneficiaries of
these artifacts, we all must learn to live with them. In fact, the
increasing complexity of our living conditions and of the knowledge
and technologies needed and used to deal with it, requires
us to consider uncertainty unavoidable. We have to be aware of
it and relate to it responsibly, particularly when we make use of
the impressive amount of information that Earth Observation
programs, such as Copernicus, produce and make available to us.
AUTORE
Andrea Taramelli
andrea.taramelli@isprambiente.it
Delegato Nazionale al Committee e allo User Forum
europei di Copernicus
Bernardo De Bernardinis
bdb.posta@gmail.com
Maria Vittoria Castellani
maria.castellani@isprambiente.it
Coordinamento Nazionale della Copernicus Academy
Sergio Farruggia
sergio.farruggia@statigeneralinnovazione.it
Stati Generali dell'Innovazione
12 GEOmedia n°5-2021
FOCUS
GEOmedia n°5-2021 13
REPORT
Oltre le SDI: quali prospettive
di Franco Vico
Il concetto di SDI è stato
introdotto all’inizio degli anni ‘90:
oggi è in corso, a livello globale,
un dibattito sul suo futuro. Le
ipotesi sono varie, e sono stati
proposti anche nomi diversi. Non
ostante il quadro frastagliato che
emerge, in parte contraddittorio,
in parte semplicemente vago,
sono individuabili alcuni punti di
Fig. 1 – La Geospatial infrastructure secondo Dangermont (fonte: https://www.youtube.com/watc
h?v=MvyOQoiHAqU&list=PLaPDDLTCmy4YwK56yHaEdtRgNUoPBiZTz&index=3&t=0s
convergenza tra le varie posizioni.
Il concetto di Spatial Data
Infrastructure è stato
definito per la prima volta
in una sede istituzionale nel
1994 negli USA, più di un
quarto di secolo fa. Oggi appare
un po’ appannato.
EUROGI: Beyond spatial
data infrastructures
Nel maggio 2020 EUROGI
ha promosso una iniziativa
intitolata “Beyond spatial data
infrastructures” mettendo
insieme 16 persone di spicco
nel mondo dell’informazione
geospaziale a livello globale, a
cui ha chiesto una pagina di
riflessioni sulle prospettive.
Questa prima fase si è chiusa
con un webinar. Nel maggio
2021 EUROGI ha organizzato
un secondo webinar sullo stesso
tema.
Le opinioni presentate in
queste sedi sono state piuttosto
varie, salvo che su un punto: è
necessario cambiare, innovare…
Intervenendo al webinar
EUROGI del 2020, il
presidente di OGC, Bart de
Lathouwer, ha notato che OGC
non ha mai pubblicato un
documento con SDI nel titolo,
anche se ha messo a punto i
building blocks delle SDI. Ora
però OGC “is actively seeking
... to further shape the future of
SDIs in its Concept Development
Study Modernizing SDI”.
Tra gli esperti invitati c’era Ed
Parson, che spesso si assume il
compito, a nome di Google,
di “evangelise geospatial data”.
Parson afferma che le SDI
sono morte, anzi non sono
mai realmente nate. Una
provocazione certo, che però ha
un fondamento di verità.
La suggestione di Parson è
“to take a more conventional
web based approcch”. Il suo
riferimento è un documento
intitolato Spatial Data on the
web Best Practices., prodotto da
un gruppo di lavoro congiunto
OGC-W3C, rilasciato nel
2017, che forse è restato un po’
ignorato. L’idea è appunto il
superamento delle SDI verso
qualcosa di meno strutturato: i
dati spaziali sono immersi nel
web, loosly coupled...
Altri partecipanti alle iniziative
EUROGI 2020 e 2021 hanno
espresso più o meno la stessa
opinione (nessun altro però ha
fatto esplicito riferimento al
documento OGC-W3C 2017).
La domanda è: questo
approccio può essere efficiente
ed efficace per la ricerca e
concreto riuso dei dati spaziali?
E c’è la questione della
interoperabilità, in particolare
per l’interoperabilità semantica:
a meno di modelli dati
dichiarati, almeno compatibili
se non standardizzati, un
effettivo riutilizzo dei dati mi
sembra impossibile.
Tornando al Documento
OGC-W3C: “The key problems
... are discoverability, accessibility
and interoperability. Our
overarching goal is to enable
spatial data to be integrated
within the wider Web of data;
providing standard patterns and
solutions that help solve these
14 GEOmedia n°5-2021
REPORT
problems” (OGC-W3C 2017,
p. 1). Il documento OGC-
W3C è certamente interessante:
è scritto in modo piuttosto
diverso rispetto ai documenti
INSPIRE (per inciso, non viene
mai citato INSPIRE); tocca
anche aspetti molto pratici (ad
es. differenti rappresentazioni
dello stesso oggetto…). L’enfasi
è sul web; ma ovviamente,
senza web, le SDI non possono
esistere. Questo documento
non è stato aggiornato dopo
il 2017, ma c’è, tuttora attivo,
un Interest Group. È difficile
però valutare quanto questa
iniziativa congiunta di OGC e
W3C (due soggetti certo non
irrilevanti nel mondo del web e
dell'informazione geospaziale)
abbia avuto influenze pratiche:
io non ho trovato riscontri,
commenti...
Geospatial infrastructure,
Geospatial Knowledge
Infrastructure
L’idea che sta emergendo con
più forza è una evoluzione del
concetto di SDI verso quello
di una infrastruttura che non
sia solo fatta di dati. Nel luglio
2020 nella plenaria di apertura
della User Conferenze ESRI,
Dangermond ha tratteggiato
la sua vision, nella quale
ha un ruolo importante la
Geospatial Infrastructure. La
Fig. 1 rappresenta questa vision.
L’eliminazione del termine data
corrisponde all’idea di andare
oltre la SDI data-centric. L’idea
è che, nell’infrastruttura, le
“GIS capabilities are becoming
embedded” e che ci saranno
le app che devono fornire
un “frictionless access” alla
conoscenza geospaziale.
Questi concetti espressi
da Dangermon sono stati
proposti anche da altri, in
contesti diversi e magari con
termini diversi. Non va nella
stessa direzione anche, ad es.,
Fig. 2 - Il rapporto tra urban digital twin e realtà urbana, rappresentato iconicamente da ARUP
(fonte: ARUP 2019, p. 20)
l’idea delle DIAS (Data and
Information Access Services)
proposta dal progetto europeo
Copernicus?
Nella stessa direzione è andata,
nel febbraio di quest’anno,
il Geospatial Knowledge
Infrastructure Summit,
una conferenza virtuale
veramente globale (https://
geospatialmedia.net). I punti
chiave sono stati: non raw
data ma “knowledge services
on demand“, la creazione
di un geospatial ecosystem
focalizzato sui servizi e sulla
domanda degli utenti, basato
su open data, open tools per
l’analisi e la visualizzazione,
e sul partenariato pubblicoprivato.
La Fig. 3 rappresenta
la piramide Dati-Informazione-
Conoscenza della Geospatial
Knowledge Infrastructure.
Geospatial Infrastrucure e
Digital Twin
Nel suo intervento di pochi
minuti, in apertura della
Conferenza ESRI Italia 2021,
Dangermon cita 6 volte il
termine “digital twin”. L’idea del
DT, nella sostanza, non è nuova
e si può far risalire alle missioni
spaziali americane degli anni
‘60-’70. In particolare, nel
caso dell’Apollo 13 nel 970,
la disponibilità di un modello
digitale della navicella fu
decisivo per salvare i tre uomini
di equipaggio, dopo una
esplosione a bordo, simulando
le diverse manovre da fare
e inviando all’equipaggio le
indicazioni necessarie.
L’uso, per la prima volta,
del termine “digital twin” è
attribuito a Michael Grieves,
nel 2003: nella diffusione
del concetto ha certamente
avuto un ruolo un nome
così suggestivo. Negli anni
più recenti, generalizzando
la pratica che si era andata
diffondendo nel mondo
industriale, il concetto DT è
stato anche applicato a temi
che hanno una dimensione
spaziale. Un esempio pratico
molto chiaro riguarda le
infrastruttura a rete, in cui il
DT integra informazioni di
GEOmedia n°5-2021 15
REPORT
Fig. 3 - La piramide Dati-Informazione-Conoscenza della Geospatial Knowledge Infrastructure
(fonte: Geospatial World media+communication, United Nation Statistic Division 2021, p. 10).
fonti molto diverse, relative alle
localizzazione della reti, alle
caratteristiche degli impianti...,
con informazioni provenienti
da sensori, con tools per la
simulazione dei flussi e degli
effetti di eventi imprevisti,
per la gestione della azioni
di manutenzione e la loro
previsione, per la visualizzazione
e la comunicazione…
Le parole chiave sono
quindi: integrazione di dati,
modellazione, simulazione,
comunicazione. Ampliando
gli ambiti di applicazione, con
riferimento alla dimensioni
complessive di territori, si parla
di urban digital twin (UDT),
ma anche di National DT e di
Earth DT.
Nell’implementazione del
concetto di UDT, il punto
è ancora usare e integrare
efficacemente le informazioni
esistenti, cioè alla base ci sono
i pilastri delle SDI: riuso dei
dati, interoperabilità (e quindi
standard).
Ciò, oggi, è ampiamente
riconosciuto. Il titolo della
recente conferenza Geospatial
Worls Forun 2021 (ad
Amsterdam, a ottobre) è
Geospatial Infrastrucure &
Digital Twin.
Ed è stato pubblicato su
GW weekly del 19 Aprile
2021, un editoriale intitolato
“Geospatial Infrastructure. A
Prerequisite for Efficient Digital
Twins”: esattamente quello che
sostengo.
In alcuni esempi di UDT
che ho visto, c’è una forte
enfasi sulla forma fisica della
città, con la creazione di
visualizzazioni 3D dello spazio
urbano, più o meno realistiche,
navigabili… Ciò avvicina
UDT al Building Information
Modeling (BIM). La Fig. 2
rappresenta in modo iconico
il rapporto tra realtà urbana e
UDT. Il risultato è certamente
d’effetto, ma è chiaro che una
città è di più degli edifici e
degli spazi urbani: una città è
la somma e l’interazione delle
persone che in essa risiedono,
lavorano, passano (per i più
svariati motivi), delle attività
economiche che si svolgono,
del come le persone e le merci
si muovono… Se si considera
tutto questo il nesso UDT SDI
diventa determinante: la SDI
è il core del UDT, e il UDT
fa crescere l’importanza della
infrastruttura di dati.
E INSPIRE?
Come detto, nel documento
OGC-W3C il termine
INSPIRE non è citato. Ma
INSPIRE, in cui l’Europa e gli
Stati Membri hanno investito
tante risorse, dal 2007 ad
oggi, non è stata richiamata
in nessuno dei vari eventi/
documenti citati sopra.
Ma qual è lo stato di INSPIRE?
Non ho trovato alcuna analisi
recente di soggetti terzi che
dia un quadro. L’ultimo report
ufficiale di monitoraggio,
annuale, previsto dalla stessa
Direttiva INSPIRE, è quello
relativo al 2019 (Minghini
2020). La sua caratteristica (il
suo limite) è che è finalizzato
a verificare se e quanto la
macchina INSPIRE funziona
come era stato previsto, e non
se e quanto i suoi output sono
usati e rispondono ai fabbisogni
di informazione geospaziale. Il
rapporto evidenzia che i risultati
sono assolutamente eterogenei
tra i diversi stati (“eterogenei”
è un eufemismo: i numeri che,
ad es. per quanto riguarda il
numero dei dataset presenti, nel
2019, variano da 42 a 42066!),
e ammette che “after 13 years
from the entry into force of the
Directive, there is no single
country which has yet achieved
full implementation according to
the roadmap” (Minghini 2020,
p.1).
A questo punto, all’interno
dello stesso INSPIRE
Maintenance and
Implementation Group
(MIG, a cui partecipano
anche rappresentanti degli
stati membri), è opinione
condivisa che sia necessario
rivedere parecchie cose:
“The current architecture of
INSPIRE is outdated…[Sono
emerse] new data sources and
new technologies... INSPIRE
is often seen as a monolithic
infrastructure with few links to
16 GEOmedia n°5-2021
REPORT
other existing infrastructures
(INSPIRE MIG 2021 a ). La
proposta è di focalizzarsi sui
temi/dataset che possono
portare tangibili benefici alla
definizione delle politiche
prioritarie europee, anzi,
di più, di focalizzarsi su
quei temi/datasets che sono
connessi all’e-Reporting, cioè
in qualche modo sono richiesti
per rispondere a adempimenti
previsti da regolamento o
direttive (INSPIRE MIG
2021b).
Punti di convergenza
Dai documenti, webinar,
conferenze... richiamati qui
sopra, tutti piuttosto recenti,
riguardanti più il futuro che
il presente delle SDI, emerge
un quadro frastagliato, in
parte contraddittorio, in parte
semplicemente vago. Non ci
sono riferimenti ad analisi
sull’effettivo utilizzo delle SDI,
sulla accessibilità e usabilità
dei dati… (questo perché a
mio avviso mancano: è un
limite serio).
In questi contributi c’è una
forte focalizzazione sulla
dimensione tecnologica,
come quasi sempre avviene,
una focalizzazione eccessiva
se consideriamo che nei
processi di implementazione
ed evoluzione delle SDI
(e di quello che verrà) la
dimensione politica, e quella
culturale (formazione e cultura
delle persone) hanno avuto,
e avranno ancora, un ruolo
critico.
Conclusivamente, non ostante
la varietà degli approcci
possono essere individuati
alcuni punti di generale
convergenza.
- I fondamentali delle SDI,
che stanno nell’acronimo,
diventato di uso generale,
FAIR (che sta per Findable,
Accessible, Interoperable,
Reusable), sono tuttora
rilevanti. L’informazione
geospaziale è più importante
che mai, ed è ovunque. E i
fondamentali delle SDI.
- Se tradizionalmente nelle
SDI i provider di dati sono
soggetti pubblici, bisogna
prendere atto che i produttori
di geoinformazione si
sono moltiplicati: non può
essere ignorato il ruolo
dell’informazione geografica
commerciale, prodotta da
soggetti come Google, ma
anche il ruolo ad es. di Open
Street Map, della volunteered
geographic information e
del crowdsourcing, e della
geospatial information
generata dai BigData.
Questa constatazione viene
accettata praticamente da
tutti (INSPIRE incluso), e
porta ad introdurre il termine
geospatial ecosystem (o analoghe
formulazioni) in cui settore
pubblico e i molteplici
soggetti privati interagiscono
sinergicamente.
- Mettere al centro gli
utilizzatori: il geospatial
ecosystem è al servizio di
utilizzatori non immaginari,
con la cui domanda di
informazione geospaziale è
indispensabile interagire.
- Usabilità: non dati ma
informazione, o forse meglio
conoscenza, ovvero “actionable
information” (espressione
molto pragmatica usata da
Nadine Alameh, CEO di
OGC, nel webinar EUROGI
del 25 maggio 2021). Quindi,
accessibilità, interoperabilità,
strumenti.
- Politiche chiare volte a
facilitare l’uso di dati e
strumenti, quindi Open Data
o, più in generale, riferimento
a sistemi di licenze consolidati
(ad es. Creative Commons).
BIBLIOGRAFIA
ARUP (2019), Digital twin. Toward a
meaninful framework, https://www.arup.
com/perspectives/publications/research/
section/digital-twin-towards-a-meaningful-framework
(Retrived: 03-06-2021)
Geospatial World media+communication,
United Nation Statistic Division (2021),
The power of where. Geospatial
knowlegde infrastructure white paper,
https://geospatialmedia.net/pdf/GKI-
White-Paper.pdf (Retrived: 03/06/2021)
INSPIRE MIG (2021a), Action 1.1
Towards a digital ecosystem for the
environment and sustainability, https://
webgate.ec.europa.eu/fpfis/wikis/display/
InspireMIG/Action+1.1+Towards+a+digit
al+ecosystem+for+the+environment+and+
sustainability (Retrieved: 31-05-2021)
INSPIRE MIG (2021b), Action 2.1
Need-driven data prioritisation, https://
webgate.ec.europa.eu/fpfis/wikis/
display/InspireMIG/Action+2.1+Needdriven+data+prioritisation
(Retrieved:
31-05-2021)
Kotsev A. et al. (2020), From Spatial
Data Infrastructures to Data Spaces. A
Technological Perspective on the Evolution
of European SDIs, ISPRS Int. J.
Geo-Inf. 2020, 9, 176, https://www.mdpi.
com/2220-9964/9/3/176 (Retrieved:
31-05-2021)
Minghini M. et. al (2020), Establishing a
new baseline for monitoring the status of
EU Spatial Data Infrastructure, https://
publications.jrc.ec.europa.eu/repository/
handle/JRC122351
OGC-W3C (2017), Spatial Data on the
web Best Practices, https://www.w3.org/
TR/sdw-bp/ (Retrieved: 31-05-2021)
PAROLE CHIAVE
SDI; Geospatial Infrastrucure, Geospatial
Ecosystem, INSPIRE, Urban
Digital Twin
ABSTRACT
The SDI concept was introduced in the
early 90s: today is underway, globally, a
debate on its future.
AUTORE
Franco Vico
Già docente di Analisi GIS per la
pianificazione spaziale al Politecnico
di Torino
e-mail franco.vico@formerfaculty.
polito.it
GEOmedia n°5-2021 17
INTERVISTA
Interviste ad alcuni responsabili
di IDT regionali: presente e
prospettive
a cura di Franco Vico
Le infrastrutture di dati geografici
di livello regionale sono un tassello
fondamentale nel sistema complessivo di
produzione, catalogazione, distribuzione
dell’informazione geografica. Questo lo
pensiamo noi, ma non solo. Questo è
certamente vero in Italia, ma anche, ad
es., in Germania e in altri paesi europei.
Le regioni hanno le capacità finanziarie e
tecniche necessarie, quelle capacità che
spesso mancano ai livelli sotto-ordinati, ad
es. ai comuni. Mentre il livello nazionale è
più lontano dal territorio e ha altri ruoli.
Con questo in mente, abbiamo chiesto
ai responsabili di alcune IDT regionali
di parlarci delle loro esperienze,
presentandole nella loro realtà concreta,
ma confrontandosi anche con i “punti di
convergenza” del dibattito internazionale
sul futuro delle Spatial Data Infrastructure,
individuati nell’articolo che precede.
In questo numero sono pubblicate le
interviste relative alle Regioni Veneto e
Piemonte, nel prossimo saranno presentate
quelle relative ad un paio di altre regioni.
La IDT della Regione
Piemonte: intervista a
Gian Bartolomeo Siletto.
A cura della Redazione
GEOmedia intervista Gian
Bartolomeo Siletto, funzionario
referente della IDT
della Regione Piemonte, che
di formazione è un geologo.
GEOmedia (G):
Cominciamo inquadrando
un po’ l’argomento.
Gian Bartolomeo Siletto
(GS): Vorrei fare alcune
premesse, la prima riguarda
la denominazione.
Noi usiamo il termine
Infrastruttura Geografica
Regionale, così definita
dalla l.r. 21/2017.
L’interfaccia principale con
gli utenti è il Geoportale,
che possiamo dire è la
facciata della IDT, facciata
che ovviamente non sta in
piedi se dietro non c’è un
edificio, fatto di metadati,
dati e servizi. Una seconda
premessa: il Geoportale
è in fase di “ristrutturazione”,
ma ovviamente
questa è una situazione
che si ripresenta ciclicamente.
Fra pochi mesi
avrà una nuova interfaccia
(speriamo più friendly) e
soprattutto un nuovo motore
(GeoNetwork3 più il
nuovo Plugin RNDT).Una
terza premessa è il ruolo
di partner tecnologico e
“compagno di avventure”
del CSI-Piemonte, che gestisce
insieme e per conto
di Regione l’intera piattaforma
geografica.
Vorrei cominciare evidenziando
alcune iniziative
che ritengo punti di forza
della IDT. La prima è la
pubblicazione con un aggiornamento
trimestrale
del DB geotopografico
regionale (BDTRE:
Base Dati Territoriale
di Riferimento degli
Enti), conforme al DM
10/11/2011, che è, come
ovvio, uno dei dataset fondamentali
della IDT. Poi,
la mosaicatura catastale:
qualche anno fa abbiamo
provveduto alla scanneriz-
18 GEOmedia n°5-2021
INTERVISTA
zazione degli originali
d’impianto catastale,
con un progetto in collaborazione
con l’allora
Agenzia del Territorio, i
Collegi dei Geometri e
il Politecnico di Torino,
che ha provveduto alla
determinazione dei
punti in doppie coordinate
e quindi alla
georeferenziazione sia
nel sistema di riferimento
catastale (Cassini-
Soldner) che geografico.
Questo bagaglio di
dati ci ha consentito
in tempi più recenti di
procedere con la mosaicatura
dei dati catastali
aggiornati (ottenuti
tramite il sistema di
interscambio Sigmater)
che ora sono disponibili
sul territorio regionale.
Ovviamente questa mosaicatura
non ha più le
caratteristiche del prodotto
originariamente
distribuito dall’Agenzia,
ma costituisce una fonte
informativa di indubbia
utilità. Il migliore
riposizionamento delle
informazioni catastali e
la successiva mosaicatura
ovviano in parte al
problema di coerenza
tra il catasto e tutte le
fonti geografiche ormai
disponibili.
G: Sul rapporto con gli
utilizzatori della IDT,
quanto li conoscete; e
quanto conoscete gli
utilizzi che vengono fatti
dei dati?
GS: La IDT espone sia
servizi ad accesso autenticato
sia servizi ad
accesso libero. Per ovvi
motivi per questi ultimi,
in particolare per
il Geoportale, non sono
disponibili informazioni
di dettaglio sugli utenti e
sull’utilizzo che essi fanno
dei vari servizi, se non in
forma aggregata (numero
totale di accessi, numero
di chiamate ai geoservizi,
ecc.). In particolare si registrano
circa 5000 visitatori
al mese al Geoportale
e circa 1 milione (generanti
circa 475 GB di traffico
rete) di chiamate al
giorno ai servizi WMS.
Per quanto riguarda
invece gli strumenti ad
accesso autenticato, il
G: Sempre sul rapporto
con gli utilizzatori,
quali azioni avete in
piedi per interagire
con loro e conoscere
meglio gli utilizzi che
fanno dei dati della
IDT?
GS: Conoscere utenti
e utilizzi è sicuramente
un punto di
miglioramento atteso
importante per l’intera
Infrastruttura al fine
di indirizzare la strategia
di aggiornamento
dei dati in relazione
il mantenimento e la
gestione di una IDT
richiede un importante
impegno economico
ma anche di persone
dedicate
principale strumento
è il Plugin Atlante di
QGIS, sviluppato dal
CSI Piemonte, utilizzato
dagli utenti della
PA (oltre la Regione,
Città Metropolitana di
Torino, Città di Torino,
ARPA Piemonte, IPLA
(Istituto regionale per
le Piante da Legno e
l’Ambiente) e altri, per
accedere direttamente ai
dati geografici vettoriali
ufficiali dell’Infrastruttura.
Complessivamente
sono abilitati al servizio
oltre 400 utenti. Per
questi utenti non vengono
raccolte ulteriori
informazioni sull’utilizzo
dei dati.
all’utilizzo degli utenti
stessi. Le azioni per
rendere concrete queste
aspettative risiedono
nel miglioramento
dei tools di controllo e
monitoraggio informatico:
non si prevedono
invece azioni volte a
restringere il perimetro
dei servizi ad accesso
libero.
Per interagire e ricevere
feedback dagli
utilizzatori abbiamo
attivato diversi canali.
C’è un indirizzo mail
dedicato al quale gli
utenti possono indirizzare
le richieste di
chiarimenti e approfondimenti
necessari.
C’è uno strumento per
la segnalazioni di errori
cartografici sul visualizzatore
del Geoportale:
attraverso questo canale
arrivano segnalazioni
più puntuali delle problematiche
specifiche
riscontrate in particolare
sulla BDTRE.
Abbiamo elaborato, con
l’aiuto di uno stagista
di CdL in Ingegneria
Civile del Politecnico di
Torino, un questionario
per misurare la soddisfazione
degli utilizzatori,
per ora sottoposto solo a
un piccolo campione.
G: Introduciamo qualche
aspetto quantitativo,
quanti dataset sono
presenti e quali sono i
più utilizzati (più scaricati)?
GS: Attraverso il catalogo
del Geoportale sono
consultabili circa 1630
metadati (750 di titolarità
di Regione, 240 del
Comune Torino, 209
di Città Metropolitana
di Torino, 150 di
ARPA Piemonte, 280
di altri enti (province
o comuni), sia riferiti
a dataset sia a servizi.
Complessivamente
i dataset scaricabili
sono 595. I servizi
raggiungibili 578,
realizzati secondo gli
standard OGC. Molti
dei metadati presenti
nel Catalogo della
Infrastruttura Regionale
(al momento 937)
sono poi conferiti al
Repertorio Nazionale
dei Dati Territoriali
(RNDT) di AgID,
mediante harvesting periodico.
GEOmedia n°5-2021 19
INTERVISTA
G: Quindi possiamo
dire che la IDT è della
regione Piemonte, con
la r minuscola, e non
solo della Regione, con
le R maiuscola.
GV: Sì, l’intenzione è
proprio quella di costruire
un insieme di dataset
e servizi condivisi, che
poi sono utilizzati da
tutti i soggetti che si
interfacciano con la
PA piemontese. Come
detto i cataloghi di
metadati di Regione,
di Città di Torino, di
ARPA Piemonte e della
Città Metropolitana di
Torino (assieme ad alcune
province e comuni)
sono federati tra di loro
attraverso il protocollo
CSW e a sua volta il
catalogo del Geoportale
è in harvesting sia con
RNDT sia con il portale
Open Data regionale
che conferisce a sua volta
i metadati al Portale
Open data Nazionale.
G: Tra i servizi quali
sono quelli più utilizzati?
GS: Sicuramente la
BDTRe costituisce il
“pacchetto” più ricercato
ed utilizzato. Da sempre
mettiamo a disposizione
la BDTRe in molti
formati (raster allestiti a
diverse scale, vettoriali
in varie forme e servizi
di consultazione WMS
e scarico WFS). Da
sempre assicuriamo la
disponibilità non solo
dell’ultima versione, ma
direttamente anche delle
versioni degli anni precedenti.
Altre informazioni particolarmente
richieste
sono quelle relative al
patrimonio aerofotografico
regionale (ortofoto
e fotogrammi). Infatti
il Settore SITA, assieme
al Settore Geologico di
Regione Piemonte, dispone
e distribuisce i fotogrammi
di quasi 550
voli aerei a partire dagli
anni ‘50 che riguardano
l’intero territorio regionale,
oltre ad altri voli
su aree molto localizzate.
Attualmente il patrimonio
consiste in quasi
230.000 immagini tra
ortofoto e fotogrammi.
G: Veniamo a finanziamento
e gestione della
IDT: i finanziamenti
sono proporzionati
agli obiettivi? Qual è
la struttura di gestione
della IDT?
GS: Le risorse finanziarie
che vanno nella
IDT sono importanti,
una fetta significativa
va all’aggiornamento
della cartografia, un’altra
quota all’aggiornamento
degli strumenti,
oltre che nella gestione
del Geoportale. Non
dimentichiamoci che
il mantenimento e la
gestione di una IDT
richiede un importante
impegno economico
ma anche di persone
dedicate. La gestione
della IDT avviene tramite
il Tavolo Tecnico
di Coordinamento in
cui i rappresentanti delle
istituzioni che concorrono
all’Infrastruttura
Geografica condividono
e orientano gli sviluppi
dell’infrastruttura.
G: Open data: tutti
i dati e i servizi del
Geoportale sono open?
GS: Sì, tutti i dati e i
servizi del Geoportale
sono distribuiti in formato
aperto con licenza
CC-BY 2.5, in graduale
passaggio verso l’ultima
versione 4.0, in accordo
con la Legge Regionale
24/2011 sugli Open
Data. Con questa legge
l'Amministrazione regionale
si vincola ad assicurare
la disponibilità,
la gestione, l'accesso, la
trasmissione, la conservazione
e la fruibilità dei
dati in modalità digitale.
G: Conformità a
INSPIRE: com’è la situazione?
GS: Per quanto riguarda
i metadati, direi che siamo
conformi al 100%,
dal momento che il
profilo di metadatazione
INSPIRE è contenuto
entro il profilo nazionale
RNDT e quindi la conformità
a RNDT implica
automaticamente
la conformità al profilo
INSPIRE. Ci sono alcuni
aspetti da perfezionare
a causa della recente
evoluzione delle regole
tecniche nazionali, ma
sicuramente in vista
dell’annuale monitoraggio
INSPIRE previsto
per la metà di dicembre
2021, saremo pronti e
conformi.
Anche per quanto riguarda
i servizi esposti
(WMS e WFS) la conformità
ad INSPIRE è
garantita, dal momento
che sono adottate le
regole di produzione di
OGC.
Per quanto riguarda
invece la conformità
dei dataset alle specifiche
dei dati, solo pochi
sono conformi alle Data
Specification INSPIRE
(ad es. Aree Protette).
Occorre però tener
conto che per quanto
riguarda i dati di base,
la BDTRE è conforme
alle specifiche nazionali,
e quindi il problema
della conformità di
questo tipo di informazione
è sicuramente una
questione che riguarda
teoricamente tutta la
produzione nazionale
ed è proprio in una sede
nazionale che dovrebbe
essere affrontato il problema.
G: Tools di analisi, visualizzazione…utili
per
rendere più facile ed
efficiente l’uso dell’informazione
geografica
della IDT, qual è la situazione?
GS: Beh, il Geoportale
fa tutto quello che ci
si aspetta da un geoportale:
servizi di
ricerca (dei metadati),
visualizzazione (attraverso
servizi) e scarico
(del dataset). Ecco
dunque il Catalogo, il
Visualizzatore e i servizi
di scarico diretto o attraverso
servizio WFS.
Nel Geoportale ci sono
anche altri servizi utili,
come uno strumento
di geocoding massivo
basato sullo stradario
regionale e il servizio di
accesso alla rete interregionale
di stazioni permanenti
GNSS (SPIN3
GNSS) che integra le
stazioni di Piemonte,
20 GEOmedia n°5-2021
INTERVISTA
Lombardia e Valle d’Aosta
e fornisce un servizio
di posizionamento di
precisione, e contribuisce
quindi alla diffusione
delle coordinate nel
sistema di riferimento
ufficiale.
Recentemente è stato
attivato anche un utilissimo
strumento di
consultazione di tutto il
patrimonio di immagini
satellitari del Progetto
Copernicus della
Commissione Europea,
con la possibilità di
consultare alcuni indici,
come NDVI, NBR,
EVI, derivati dalle immagini
multispettrali
Sentinel-2 a partire dal
2017.
G: Nel dibattito internazionale
è spesso
richiamato il concetto
di Geospatial
Ecosystem, cioè l’idea
dell’integrazione non
solo tra le diverse fonti
pubbliche ma anche
con fonti private (gestionali
o commerciali),
con dati provenienti da
crowdsourcing…: è una
prospettiva praticabile?
GS: Il concetto ci è
ben chiaro. Al momento
abbiamo definito
alcuni accordi (con il
Collegio dei Geometri,
il Corpo Nazionale
del Soccorso Alpino
e Speleologico…) e
abbiamo in animo di
definirne altri. Secondo
noi il processo di confronto
con il mondo
del VGI è sicuramente
da intraprendere,
ma occorre avere ben
presente il ruolo della
informazione geografica
prodotta dalla Pubblica
Amministrazione, sulla
base della quale vengono
istruiti procedimenti
amministrativi che hanno
impatto sulla vita dei
cittadini, e che quindi
deve in qualche modo
essere “certificata”. E’
fondamentale inoltre
porre una grande un’attenzione
sugli obblighi
giuridici che hanno l’utilizzo
e l’integrazione di
fonti informative diverse
(leggi licenze). Adelante,
con juicio!
PAROLE CHIAVE
SDI; inspire; geospatial; IDT; geoportale
ABSTRACT
GEOmedia interviews Gian Bartolomeo
Siletto, geologist, official
representative for the Spatial Data
Infrastructure (IDT) of Pidemont
Region.
AUTORE
Redazione GEOmedia
redazione@rivistageomedia.it
Franco Vico
franco.vico@formerfaculty.polito.it
La IDT-RV 2.0 della
Regione del Veneto
A cura della Redazione
e Franco Vico
Colloquio con Umberto
Trivelloni, Responsabile
della IDT della Regione del
Veneto, Delio Brentan, P.M. per
la parte informatica della IDT,
e Andrea Semenzato Analista
GIS Engineering Ingegneria
Informatica S.p.A.
GEOmedia (G): Per cominciare,
vi presentate come IDT-RV
2.0, che cosa significa?
Regione Veneto (RV): Il significato
di IDT-RV 2.0 è semplicemente
Infrastruttura Dati
Territoriali Regione Veneto, e
2.0 perché ci sembra un passo
in avanti significativo rispetto
a quella rilasciata nel 2011.
Questa versione della SDI regionale
ha logiche innovative
di condivisione del dato (ad es.
editing on line), ma anche una
veste più accattivante con un
massiccio ricorso ai geoportali
tematici.
G: “Mettere al centro gli utilizzatori”
è uno dei punti di
convergenza del dibattito internazionale
sul futuro delle SDI;
che cosa sapete sugli utilizzatori
e sugli utilizzi della IDT?
RV: La nostra politica è per
l’accesso libero, senza necessità
di autenticazione, e tutti i dati
contenuti all’interno del Geoportale
regionale sono in licenza
CC-BY o IODL 2.0.
Gli utenti del portale IDT2, e
che ne utilizzano sia i dati che
i servizi, non vengono censiti;
perciò, non ci è possibile fare
un’analisi precisa sulla tipologia
degli utilizzatori. Però, in base
alle richieste e ai feedback che
arrivano, è possibile suddividere
gli utenti in alcuni gruppi: in
particolare ci sono gli utenti
professionali, tra cui geometri,
architetti ed ingegneri che
realizzano Piani Comunali di
Assetto del Territorio; e studenti
e ricercatori universitari, che
GEOmedia n°5-2021 21
INTERVISTA
utilizzano i dati per attività di
ricerca e formazione.
Tra i fruitori dei dati geografici
ci sono anche grandi multinazionali
come Google, Apple...
che scaricano i dati per realizzare
i loro prodotti, ma anche
molti privati cittadini specialmente
per i dati della aerofototeca
regionale.
G: Avere difficoltà a capire chi
sono gli utenti è una conseguenza
(non voluta) della politica di
apertura. Avete comunque intraprese
azioni per conoscere di
più i vostri utenti?
RV: I feedbak degli utenti vengono
registrati, sia quelli telefonici
che quelli che arrivano via
la email dedicata.
Inoltre, vengono
effettuati più volte
all’anno dei questionari
di gradimento
per raccogliere le
opinioni degli utenti
sui vari servizi.
G: Veniamo ai dati:
dataset presenti, e
dataset più utilizzati.
RV: I dataset presenti nel Geoportale
sono suddivisi in due
macrocategorie.
Dati Geotopografici
(CTRN, DB Geotopografico,
DTM, Dati Lidar,
Fotogrammi Aerei, Punti
geodetici e Capisaldi di livellazione,
ecc);
Dati Ambientali e Territoriali
che a loro volta sono
suddivise per tematiche e
matrici ambientali (aria, acqua,
suolo, vincoli, ecc…).
In particolare, il Geoportale
mette a disposizione per il
download circa 10.000 file tra
elementi e sezioni della Carta
Tecnica Regionale (CTR), in
diversi formati; oltre 1.100
dati relativi ai Modelli Digitali
del Terreno (DTM); circa
8.500 elementi relativi a
Punti geodetici e Capisaldi di
livellazione; e dispone di una
banca dati dell’Aerofototeca
contenente circa 85.000
fotogrammi aerei.
Inoltre, per i dati ambientali e
territoriali, sono disponibili per
il download oltre 800 layer in
formato shapefile.
L’80% dei dati più scaricati fa
riferimento alla CTR, utilizzata
dai professionisti soprattutto
per attività legate alla pianificazione
territoriale. Il restante
20% dei dati più scaricati sono
principalmente dati ambientali
e territoriali e i modelli digitali
del terreno.
Per dare qualche dettaglio,
negli ultimi 12 mesi
ci sono state oltre 140.000
richieste di download per dati
CTR, oltre 25.000 richieste per
i DTM, e circa 18.000 richieste
per i dati ambientali e territoriali.
Tra i dati ambientali e territoriali
più scaricati vi sono i quadri
di unione delle sezioni e degli
elementi della CTR, e i limiti
amministrativi regionali, dei comuni
e delle province, assieme
alle banche dati relative alla carta
di copertura ed uso del suolo.
Inoltre, i dati sono consultabili
come mappe tematiche
WebGIS, create ad hoc per
rispondere alle esigenze degli
le attività delle SDI
regionali avrebbero
grande beneficio da una più
efficace ed incisiva
azione di coordinamento
da parte dei competenti
organismi nazionali
utenti, che permettono di costruire
insiemi di dati, coerenti
tra loro, per una consultazione
orientata verso specifiche tematiche
(le più varie).
Ad esempio, tra i WebGIS più
utilizzati, vi sono: l’Aerofototeca,
che permette di consultare
i fotogrammi aerei disponibili
negli archivi regionali (recenti
e storici); un WebGIS dedicato
alle immagini satellitari, che
raccoglie immagini ad alta e
altissima risoluzione, prodotti
di elaborazioni in cloud e servizi
acquisiti dalla Regione del
Veneto (come il Sentinel-Hub);
altri visualizzatori tematici,
quali un WebGIS dedicato alle
ciclovie e ai percorsi ciclabili
della Regione, e un WebGIS
dedicato alla consultazione del
Piano Territoriale Regionale di
Coordinamento (PTRC).
G: Potete aggiungere
qualche dettaglio sui
servizi presenti?
RV: I servivi seguono
le normative INSPIRE,
adottando gli standard
OGC. Il portale mette a
disposizione:
Servizi di consultazione
dei metadati di dati
geografici dal catalogo (standard
CSW);
Servizi di visualizzazione
dei dati geografici sul web
(WMS/WMTS, WFS);
Servizi di download dei dati
geografici (WFS).
Inoltre, l’infrastruttura dispone
di una componente software
(Geoserver) in grado di operare
analisi geospaziali complesse.
Tali funzionalità, come le precedenti,
vengono messe a disposizione
tramite servizi standard
API, come il WPS.
22 GEOmedia n°5-2021
INTERVISTA
Il servizio più utilizzato è quello
di visualizzazione, che permette
di consultare l’intero catalogo
della Regione all’interno di
mappe e WebGIS dedicati, attraverso
funzionalità avanzate di
ricerca ed interrogazione, senza
prevedere il download effettivo
dei dati.
G: Harvesting da dataset di altri
soggetti pubblici: che cosa è in
atto e/o in progetto?
RV: Attualmente è in fase di attivazione
l’harvesting con il Geoportale
di ARPA Veneto e con
quello di alcuni Comuni pilota.
L’IDT regionale è comunque
predisposta ad effettuare harvesting
con tutti i portali geografici
delle pubbliche amministrazioni
che mettono a disposizione
servizi OGC-compliant.
G: Sono stati attivati “tavoli”
regionali per la governance o,
ad es., per l’individuazione dei
datasets di riferimento?
RV: Non sono attivi tavoli formali
di coordinamento, ma vi è
un ampio coordinamento con
altre strutture della Regione
agevolato dal fatto che sono
chiari i ruoli di responsabilità
su IDT: per i contenuti la
competenza è della Direzione
Pianificazione Territoriale, per i
processi manutentivi ed evolutivi
è invece della Direzione ICT
e Agenda Digitale.
Con i soggetti esterni, locali e
nazionali o comunitari e con
i soggetti privati esiste invece
un variegato sistema di accordi
formalizzati per la produzione,
l’elaborazione e la distribuzione
di prodotti geografici.
G: E per quanto riguarda il finanziamento?
RV: L’IDT regionale è finanziata
con fondi regionali dalla Direzione
ICT e Agenda Digitale
e dalla Direzione Pianificazione
Territoriale. Tutte le verticalizzazioni
di applicativi, che al
loro interno utilizzano dati geografici,
sono gestite dai Servizi
messi a disposizione dalla IDT
regionale, e le strutture coinvolte
mettono a disposizione parte
delle risorse economiche, anche
per le azioni evolutive funzionali
e migliorative dell’infrastruttura
dati.
G: Open data: l’avete già detto,
tutti i dati della IDT sono con
licenza open. Potete aggiungere
qualche dettaglio?
RV: La Regione del Veneto dispone
di un portale interamente
dedicato agli Open Data (dati.
veneto.it). Come previsto dalla
normativa nazionale RNDT e
europea INSPIRE, i dati geografici
(aperti e non aperti)
vengono caricati e documentati
unicamente all’interno dell’infrastruttura
dati dedicata, la
IDT appunto. A tal proposito,
il portale Open Data è in fase
di aggiornamento dal punto di
vista tecnologico, per consentire
un harvesting automatico delle
(sole) informazioni di metadatazione
dei dati geografici (aperti)
dal portale IDT al portale
Open Data, esattamente come
avviene a livello nazionale, tra il
Repertorio Nazionale dei Dati
Territoriali (RNDT) e il portale
nazionale dei dati aperti (dati.
gov.it). In questo modo, tutti i
dati geografici aperti verranno
resi disponibili per la consultazione
all’interno sia dell’IDT
che del portale Open Data,
mantenendone sempre allineati
i contenuti informativi. Qualora
il dato sia poi di interesse per
il download e la distribuzione,
gli utenti potranno visualizzarlo
e scaricarlo dalla IDT.
G: Quanto siete INSPIRE compliant?
RV: Per quanto riguarda i metadati
è in corso di aggiornamento
il Geoportale regionale, in
particolare, per quanto riguarda
il profilo di metadatazione, per
adeguarsi allo standard INSPI-
RE 2.0 e alle relative Linee Guida
RNDT per la compilazione
dei metadati (v3.0) Per questo
adeguamento, l’infrastruttura
regionale ha anche acquisito in
riuso la componente software
per il catalogo metadati distribuita
da AgID (Geoportal
Server).
Il repertorio nazionale RNDT è
inoltre collegato al catalogo dei
metadati regionale attraverso
un sistema di harvesting basato
sullo standard CSW.
Invece, per quanto riguarda
la struttura dei dati, i dataset
completamente compliant con le
specifiche INSPIRE sono davvero
pochi; d’altro canto non
si rilevano particolari esigenze
in merito, tanto da indurci a
ritenere che il rapporto costi/
benefici per l’adeguamento dei
dati sarebbe fortemente penalizzante.
G: “Non dati ma informazioni”,
quali strumenti offre la IDT per
rendere più diretto l’uso, non
dei dati, ma dell’informazione
geografica?
RV: Ci sono numerosi strumenti
e funzionalità, distribuite
nelle varie sezioni del portale.
Le principali sono:
Funzioni base di consultazione
dei dati geografici: attivazione
layer, sfondi e mappe
di inquadramento, legende,
tabella attributi, aggiunta da
catalogo, metadati, visibilità
layer (gruppi, trasparenze,
…), riproiezione on-the-fly;
Funzioni avanzate di interrogazione
e analisi dei dati geografici:
interrogazioni WMS/
WFS, Geocoding OSM (se-
GEOmedia n°5-2021 23
TELERILEVAMENTO
INTERVISTA
arch e reverse), filtro sui dati,
misure di aree/lunghezze, routing
e stradario OSRM (Open
Source Routing Machine);
Funzioni avanzate di download:
strumento di download
dati statici (CTR, GDBT,
punti geodetici), download
personalizzato (per area),
download per contesto territoriale
(per comune, per provincia,
eccetera);
Altre funzioni: doppia mappa,
editing online, gestione
allegati;
Aerofototeca e strumenti per
la ricerca dei voli e della loro
copertura territoriale.
G: Integrazione tra fonti pubbliche
con quelle private e con
il crowdsourcing: vi sembra una
prospettiva praticabile?
RV: L’utilizzo congiunto di
fonti pubbliche e private è un
obiettivo della massima importanza
per le policy di gestione
della SDI regionale; però si deve
evidenziare come tale percorso
presenti notevoli complessità di
attuazione, specialmente per la
difficoltà di creare un canale di
reciproco supporto con i grandi
players privati, che si giovano
ampiamente degli open data
senza essere mai stati chiamati,
da norme o iniziative a livello
nazionale, ad aprire alla possibiltà
di condivisione di dati e
servizi da essi prodotti.
G: In conclusione, volete
aggiungere qualcosa?
RV: Sì, è molto chiaro che le
attività delle SDI regionali
avrebbero grande beneficio
da una più efficace ed incisiva
azione di coordinamento da
parte dei competenti organismi
nazionali: Geoportale nazionale,
Consulta Nazionale per
l’Informazione Territoriale e
Ambientale etc.
PAROLE CHIAVE
IDT; webGIS; geoportale; SDI;
ABSTRACT
Conversation with Umberto Trivelloni,
Head of the IDT of the Veneto
Region, Delio Brentan, P.M. for
the IT part of the IDT, and Andrea
Semenzato Analyst GIS Engineering
Ingegneria Informatica S.p.A
AUTORE
Redazione GEOmedia
redazione@rivistageomedia.it
Franco Vico
franco.vico@formerfaculty.polito.it
MONITORAGGIO 3D
GIS E WEBGIS
www.gter.it info@gter.it
24 GEOmedia n°5-2021
GNSS
FORMAZIONE
RICERCA E INNOVAZIONE
EARTH DATA, SIMPLIFIED.
Annual
Yields
Growth
2015 2016 2017 2018 2019 2020
Income
Powerful solutions for turning Earth
Observation imagery into reliable
information for everyone, everywhere.
Learn more, visit CATALYST.earth
CATALYST.earth
A PCI Geomatics brand
REPORT
Rilievo digitale
di aree urbane
di Marco Santoni, Flavia Borgioli
Da alcuni anni si sente parlare di smart cities, aree urbane
che grazie all’utilizzo delle tecnologie digitali riescono ad
ottimizzare e migliorare le infrastrutture ed i servizi ai cittadini
rendendoli più efficienti.
Con il rapido sviluppo di tecnologie come IoT, Intelligenza
Artificiale, Big Data, Cloud Computing, 5G, il concetto di smart
city si sta rapidamente evolvendo verso quello di un gemello
digitale (digital twin) in grado di supportare la modifica, la
costruzione e l’evoluzione della città. Tuttavia lo sviluppo del
gemello digitale necessita un fondamento informatico idoneo
alla simulazione ed a tal proposito il rilievo geometrico dello
spazio fisico diventa una parte fondante dell’intero processo. Il
laserscanner mobile da veicolo è in questo senso la tecnologia
che meglio si adatta a questa tipologia di applicazioni.
I sistemi laserscanner mobili attuali permettono il rilievo
attraverso sensori fotografici sferici e lidar da milioni di punti al
secondo, pertanto sono tra i mezzi più idonei per la mappatura
massiva della città in quanto da terra riescono ad acquisire
informazioni geospaziali ad una scala idonea alla maggior
parte delle necessità della applicazioni urbane a velocità
tipiche del traffico urbano, come è stato possibile evidenziare
dalla sperimentazione svolta da GRS per il Comune di Roma.
Fig. 1 – Sistema Laserscanner Mobile Riegl
VMQ-1HA montato su veicolo.
GRS è una società di ingegneria,
geodesia e tecnologie
di indagini non
distruttive con sede a Roma, che
impiega tecnologia laserscanner
fin dagli albori di questa tecnologia.
Caso studio: Roma. Quartieri
Testaccio, Trastevere ed EUR
Nel caso studio preso in esame,
il rilievo è stato svolto per
mezzo del sistema laserscanner
mobile altamente performante
e di ultima generazione Riegl
VMQ-1HA, corredato da una
fotocamera Ladybug 5+ per la
generazione di foto panoramiche
e la colorazione della nuvola di
punti. Il sistema si compone di
diverse parti:
Fig. 2 - Localizzazione di una parte dell'area oggetto di rilievo (quartiere Testaccio, Roma) con
pointcloud e traiettoria evidenziati.
il sensore laserscanner Riegl
VUX-1HA,
26 GEOmedia n°5-2021
REPORT
La piattaforma inerziale
Applanix AP20 corredata da
una doppia antenna GNSS/
GPS Trimble,
L’odometro per il calcolo dei
giri dei pneumatici,
Una control unit per il coordinamento
di tutti i sensori,
Un sistema informatico per
l’impostazione delle caratteristiche
di acquisizione e per la
memorizzazione dei dati.
La densità di punti acquisita ha
permesso di ottenere informazioni
geometriche dell’ambiente urbano
complete e il raggio d’azione
del sensore laser ha permesso
di acquisire la sommità degli
edifici e delle costruzioni più alte
adiacenti le strade.
Il processo di rilievo è stato svolto
presso 3 quartieri caratteristici
della città di Roma, ovvero alcune
strade principali di Testaccio,
di Trastevere e dell’EUR ed ha
generato una nuvola di punti
con un’estensione di circa
30.000mq con uno sviluppo su
strada di circa 1,4Km, per un
tempo di rilievo pari a circa tre
ore.
Il rilievo: acquisizione
e restituzione
Nella prima fase di rilievo, a seguito
dell’accensione del veicolo,
è necessario svolgere la taratura
del sistema inerziale muovendo
la macchina stessa in modo da
generare forti accelerazioni longitudinali
e trasversali. In tal modo
via software è possibile osservare
in diretta la diminuzione dello
scarto quadratico medio di imbardata,
beccheggio e rollio della
piattaforma. A seguito dell’ottenimento
di valori ritenuti idonei,
si può quindi procedere alla fase
di rilievo vera e propria, avviando
il software RiACQUIRE della
Riegl, il quale permette l’impostazione
della distanza a cui si
presuppone misurare gli oggetti
e la densità di punti necessaria
per tale distanza e la frequenza
spaziale di acquisizione delle
foto sferiche. Nel caso preso in
esame i punti più lontani erano
rappresentati dalla sommità degli
edifici, quindi meno di 50m,
però andavano ricostruiti con attenzione
pertanto con un elevato
numero di punti su mq. Sebbene
vi fosse presenza di veicoli e traffico
lungo l’intera tratta, è stato
possibile ottenere dati geometrici
del costruito per tutte le strade
che sono state rilevate. Durante
lo svolgimento del rilievo è possibile
ottenere una preview del
dato acquisito, in modo da avere
un’idea dei margini dell’area di
rilievo.
Il passo successivo all’acquisizione
è stata l’elaborazione dei dati
acquisiti per mezzo della correzione
della traiettoria attraverso il
software Applanix POSPac MMS
e l’impiego del software Riegl
RiPROCESS e RiPRECISION
al fine di ottenere una nuvola
di punti priva di rumore e con
grande accuratezza. In particolare
i dati acquisiti dalla piattaforma
inerziale vengono correlati
ad i dati vergini Rinex GPS di
un ricevitore GPS statico nei
pressi dell’area di rilievo che ha
acquisito per l’intera durata della
campagna. Successivamente si
è passati alla generazione della
nuvola di punti per mezzo del
software Riegl ed all’incremento
della precisione della nuvola stessa
per mezzo dei loro algoritmi.
Al termine delle elaborazioni la
nuvola di punti elaborata aveva
un’accuratezza del dato nell’ordine
dei 2,5 cm ed una densità
a terra, nei pressi del veicolo,
superiore a 5.000 punti su mq.
Attraverso una nuvola tanto
densa è stato possibile ricostruire
la segnaletica, ottenendo anche
informazioni sulla sua qualità,
nonché individuare tutti gli arredi
urbani, pali della luce, muri
ed anche le caditoie ed i tombini
non coperti dai veicoli. In questo
senso uno dei limiti di questa
tecnologia per la ricerca dei sottoservizi
è nel fatto che molto
spesso i veicoli sostano sopra
tombini e caditoie, rendendoli di
fatto non identificabili. Nel caso
di una mappatura completa di
una città sarebbe necessario coordinarsi
con il Comune al fine
di lasciare per il solo tempo del
passaggio del veicolo liberi i viali,
in modo da poter usufruire di
un dato completo. Un’ulteriore
possibilità potrebbe essere l’integrazione
del dato per mezzo del
personale a terra, che si dovrebbe
occupare del solo rilievo dei pozzetti.
Fig. 3 – Orbit 3DM, la pointcloud con stile di visualizzazione in base alla riflettanza.
GEOmedia n°5-2021 27
REPORT
Fig. 4 - Orbit 3DM, individuazione automatica dell'oggetto lampione, con gli attributi relativi
sulla colonna a destra.
Scheda Aziendale GRS
Il nostro obiettivo è l'eccellenza nel campo
del rilievo, della valutazione e del controllo
su ogni tipo di infrastruttura. Ci concentriamo
sempre sull'innovazione. Lavoriamo con
la massima trasparenza e veridicità verso i
nostri clienti, attraverso l'utilizzo della strumentazione
e dei software più avanzati.
GRS è una società italiana con sede a Roma,
fondata nel 1972 da Giorgio Santoni che ha
costruito la sua straordinaria esperienza di
lavoro come geometra, direttore di cantiere
e di opere civili. Progettista presso lo studio
McGaughy, Marshall, McMillian e Lucas
Office tra il 1956 e il 1970, ha collaborato
alla realizzazione delle principali opere civili
quali edifici, centrali elettriche, strade, autostrade,
aeroporti in Europa, Medio Oriente,
Africa Settentrionale e Africa Centrale.
GRS è una realtà in costante crescita e
sviluppo; il principale core business è attualmente
l'Ingegneria del controllo, sviluppato
attraverso l'implementazione di tecnologie
avanzate come il Laser Scanner 3D, lo sviluppo
di sistemi GIS, l'analisi geometrica e
meccanica della pavimentazione stradale ed
aeroportuale, la mappatura dei sottoservizi,
la valutazione dei livelli di illuminazione e
l'indagine della retroriflessione della segnaletica.
La nostra vasta esperienza supporta
il lavoro dei progettisti, dei direttori lavori
e dei gestori di infrastrutture al fine di ottimizzare
il processo decisionale e lo sviluppo
delle soluzioni più efficienti.
Grazie alla ricostruzione delle
traiettorie ed alle foto generate
dalla camera sferica è possibile
localizzare la posizione dove
sono state scattate le foto e successivamente
creare dei puntatori
kmz, in formato aperto, da
visualizzare in qualsiasi software
GIS e anche Google Earth. In
questo modo si rende possibile
una navigazione delle zone acquisite
con delle foto aggiornate,
ad altissima risoluzione e con
una data di rilievo certa.
Applicazione e censimento
dei dati acquisiti, un aiuto dal
software Bentley Orbit3DM
Feature Extraction
I dati acquisiti dai sistemi laser
permettono di avere un’immagine
d’insieme molto completa
dello stato dei luoghi, tuttavia è
solo grazie alla sintesi delle forme
geometriche degli elementi
presenti che è possibile generare
gli oggetti e associarvi attributi
così da poter svolgere analisi in
modo da rendere le città veramente
smart.
In quest’ottica, grazie alla smisurata
quantità di punti acquisiti
dai sistemi laser, è possibile
generare manualmente tutti gli
elementi urbani presenti, anche
se tale processo richiedere
grandi quantità di tempo e/o
molti operatori. Per tale motivo
è stato impiegato il software della
Bentley Systems Orbit 3DM
Feature Extraction che attraverso
complessi algoritmi di intelligenza
artificiale da noi addestrati ha
permesso di riconoscere in modo
automatico e semi-automatico i
vari elementi che compongono
l’arredo urbano quali pali della
luce, cigli dei marciapiedi, alberi,
aiuole ed anche segnaletica
orizzontale e verticale, in modo
da generare un catasto completo
dello stato dei luoghi in modo
semiautomatico.
Questo database specifico per
ogni categoria di oggetto bi o
tridimensionale può essere arricchito
grazie alla possibilità di
specificare a priori le caratteristiche
da censire per ogni oggetto:
ognuno sarà pertanto corredato
dal patrimonio di metadati
associati; inoltre, sulla planimetria
comparirà un simbolo,
modificabile per forma e colore,
per ogni oggetto registrato ed
aggiunto al database. Inoltre per
specifiche categorie di oggetti il
software è in grado di riconoscere
automaticamente le sue
caratteristiche peculiari, come
l’altezza delle chiome degli alberi
o dei pali della luce, ed inserirle
in modo automatico all’interno
del database associato.
Tale catasto permette non solo
la rapida individuazione degli
oggetti che compongono l’arredo
urbano cittadino e tutto ciò
che concerne la loro gestione
e manutenzione da parte degli
uffici tecnici preposti, ma anche
e soprattutto consente all’utente
finale, ogni cittadino, di poter
interagire con essi e quindi con
l’ambiente circostante in modo
semplice e intuitivo, nell’ottica
futura di una città che sia davvero
smart e accessibile a tutti.
L’analisi dei dati ha inoltre permesso
di ottenere informazioni
visive e geometriche relative a
28 GEOmedia n°5-2021
REPORT
tutti gli edifici presenti nelle
immediate vicinanze della
pavimentazione stradale. Una
delle possibili applicazioni di
tale elaborazione è la ricostruzione
di prospetti degli edifici,
con riconoscimento dei numeri
civici dei palazzi e della
presenza di eventuali passi
carrabili.
Il rilievo laser ed il successivo
accatastamento di quanto è
fisicamente presente si pone
come pilastro fondante per
qualsiasi sviluppo di digitaltwin
ed in ultima analisi di
smart city. L’integrazione delle
diverse tecnologie di nuova
generazione potrà aiutare gli
uffici preposti nello svolgere
le scelte migliori sia in termini
di sicurezza per la città, sia in
termini di gestione del traffico
e di ogni tipo di emergenza.
Inoltre l’impiego di un’unica
piattaforma informatica da
parte di tutti i vari corpi che
lavorano nella città insieme
ne permetterà sia un coordinamento
che un’integrazione
migliore.
Fig. 5 e 6 –Orbit 3DM, individuazione automatica della segnaletica a terra e dei marciapiedi.
PAROLE CHIAVE
Rilievo; laserscanner mobile; mobile mapping;
smart-cities; pointcloud; Orbit3DM; Riegl
ABSTRACT
For some years we have been hearing about
“Smart Cities”, and this concept is rapidly
evolving towards that of a digital twin that can
support the modification, construction and
evolution of the city. In order to develope this
model we need a computer support suitable for
simulation: the “mobile vehicle laserscanner” is
today the technology that best suits this type of
application, since it allows the survey through
spherical photographic sensors and lidar of millions
of points per second, resulting among the
most suitable means for the massive mapping of
the city. With this technology it is possible to
acquire geospatial information from the ground
at a scale suitable for most of the needs of urban
applications at speeds typical of urban traffic, as
has been highlighted by the survey carried out
by GRS for the Municipality of Rome.
GRS is an engineering, geodesy and nondestructive
investigation technology company
based in Rome, which has been employing
laserscanner technology since the dawn of this
technology.
In the case study examined, the survey was carried
out by means of the high-performance and
latest-generation Riegl VMQ-1HA mobile laserscanner
system, equipped with a Ladybug 5+
camera for the generation of panoramic photos
and the coloring of the point cloud.
The survey was carried out in 3 characteristic
districts of the city of Rome, namely some main
streets of Testaccio, Trastevere and EUR and generated
a cloud of points with an extension of
about 30,000 square meters with a road development
of about 1.4 km, for a significant time
of about three hours.
Once the acquisition is completed, carried out
at a speed similar to that of vehicular traffic, the
individual clouds acquired by the instrument
are processed on a PC, using the instrument's
return software, such as Riegl RiPROCESS.
In the following we experimented with different
ways of returning the cloud, for example
through the Orbit 3DM Feature Extraction
software, which thanks to its ability to automatically
and semi-automatically classification, it
recognize the objects of which the point cloud
is composed. For this reason it was possible to
create a specific database for each category of
two- or three-dimensional object.
The laser survey and the subsequent stacking
of what is physically present is the founding
pillar for any development of digital-twin and
ultimately of smart city. The integration of the
different new generation technologies will help
the offices in charge in carrying out the best
choices both in terms of safety for the city, and
in terms of traffic management and any type of
emergency.
AUTORE
Ing. Marco Santoni
marco.santoni@grsgroup.eu
Arch. Flavia Borgioli
f.borgioli@grsgroup.eu
GRS
GEOmedia n°5-2021 29
REPORT
Integrazione di un sensore Sentera
6X a bordo di un drone Phantom 4.
Una sperimentazione in campo archeologico
di Laura Ebanista, Alessandro Maria Jaia, Andrea Pompili
Nell’ambito del programma
di ricerca di eccellenza Be for
Erc Sapienza (https://www.
uniroma1.it/it/pagina/fellowsprogramma-sapiexcellence)
è
stata avviata a partire dal 2020
la sperimentazione dell’uso
di una camera multispettrale
trasportata da un drone con
finalità di diagnostica in ambito
archeologico.
Fig. 1 – Sensore Sentera 6X integrato a bordo di drone Phantom4 in volo (foto archivio Aviocam).
L’
attività di ricerca si
inserisce nel vasto
panorama scientifico
del telerilevamento
di prossimità che in questo
momento storico vede l’affermarsi
dell’utilizzo dei droni in
molteplici campi della ricerca.
L’acquisizione di immagini,
opportunamente rilevate per
fini fotogrammetrici in termini
di programmazione di volo con
idonei overlap e sidelap, permette
l’elaborazione di ortofotopiani
georiferiti, di DTM e DEM.
Alla classica diagnostica pancromatica,
ormai ampiamente
utilizzata in campo archeologico,
si è affiancata nell’ultimo
decennio la sperimentazione
di altre tipologie di sensori trasportati
da drone. La letteratura
scientifica mostra una diffusa
sperimentazione per quello
che riguarda le immagini multibanda
acquisite da satellite,
mentre le applicazioni da bassa
quota sono ancora sporadiche
e contraddistinte da risultati
non sempre soddisfacenti, ma
soprattutto non dirimenti dal
punto di vista metodologico (i
risultati preliminari di questa
ricerca sono in corso di edizione
in Ebanista 2021). Obiettivo
della ricerca è stato quello di
testare la risposta archeologica
nelle diverse condizioni della
crescita vegetazionale in relazione
alle variazioni climatiche
e stagionali, nonché a quelle
antropiche (lavori agricoli). Per
tale finalità la sperimentazione
presentata in questa sede ha
avuto come obiettivo quello
di ottenere un sistema di agile
utilizzo, contraddistinto da una
rapida acquisizione dei dati sul
campo e una spedita attività di
elaborazione, finalizzata, nello
specifico, all’estrazione degli
indici di vegetazione (principalmente
l’NDVI), compatibili, a
livello di genesi delle tracce, con
le tracce da vegetazione (crop
marks), ben note nella fotointerpretazione
classica in campo
archeologico (Piccarreta &
Ceraudo 2000, 107-111).
In una fase iniziale della ricerca,
sulla base dei prodotti disponibili
sul mercato e considerate le
finalità delle attività da svolgere,
è stato scelto un sensore Sentera
6X, delle cui specifiche tecniche
si vedrà in seguito. Anziché
30 GEOmedia n°5-2021
REPORT
collegare la camera, tramite
l’apposita gimbal prevista dal
produttore, a uno dei droni
compatibili (DJI Matrice100,
Matrice200, Matrice300 o
Inspire1) ed avendo a disposizione
un drone DJI Phantom
4, in ottime condizioni meccaniche
ad eccezione di un
danno alla gimbal, è stata testata
l’installazione del sensore
a bordo di questa macchina
(fig. 1).
Il lavoro di integrazione presentato
in questa sede si profila
come una vera e propria
sperimentazione, sia da un
punto di vista meccanico sia
di gestione software dei dati,
dalla programmazione, all’acquisizione,
fino all’elaborazione
finale e all’estrazione degli
indici di vegetazione. Il drone
utilizzato ha chiaramente
caratteristiche ben diverse da
quelle degli APR (Aeromobili
a Pilotaggio Remoto) previsti
dal produttore, in termini di
peso e di payload, nonché di
performance in fase applicativa.
Attrezzatura: drone e
sensore, caratteristiche e
progetto di integrazione
Come già anticipato, la scelta
di utilizzare un Phantom
4 (benché non consigliato
espressamente da Sentera
per via della presenza della
gimbal standard) è stata determinata
dalla presenza di
un drone da poter reimpiegare.
Le dimensioni e l’affidabilità
di questa macchina
hanno seguito le considerazioni
precedenti.
Il drone è stato privato
delle componenti non più
utili (gimbal, collegamenti
e scheda di controllo) per
far spazio alla struttura di
connessione meccanica ed
elettrica pensata per la 6X
Fig. 2 – Sistema drone-sensore nella sua custodia originaria (foto archivio Aviocam).
Fig. 3 – Assemblaggio, particolare del polimero (foto archivio Aviocam).
di Sentera. Per limitare il peso
e la complessità del sistema, si
è scelto di rendere il payload
parte integrante del drone; in
questa configurazione, dunque,
non risulta essere removibile
sul campo e sostituibile
dall’utente. Tuttavia, rimanendo
nell’ingombro pressoché
originale, solo una piccola
modifica è stata necessaria per
trasportare il sistema dronesensore
nella valigia originale da
trasporto (fig. 2).
Consapevoli dell’assenza di
gimbal per mantenere l’assetto
della camera nadirale rispetto
al piano orizzontale del drone e
altrettanto consci della presenza
della IMU interna a correzione
di tali inclinazioni, si è scelto
di concentrare l’attenzione sul
sistema di attenuazione delle
vibrazioni. Essendo gli scatti
GEOmedia n°5-2021 31
REPORT
pensa che il valore sia registrato
o all’inizio del volo, o eseguendo
una media dei valori riscontrati.
I valori di indice non sono
stati alterati né presentano variazioni
durante i test nell’intero
anno solare.
Fig. 4 – Sentera 6X integrato, schema tecnico (rendering Andrea Pompili).
realizzati in movimento, benché
l’esposizione automatica della
camera prediliga tempi brevi, i
fotogrammi avrebbero potuto
subire l’effetto blur a causa dei
micromovimenti indotti dalle
vibrazioni. Molto del lavoro si è
concentrato nella ricerca di una
soluzione in grado di assorbire
tale energia. E’ stato dunque selezionato
un polimero in grado
di smorzare fino al 90% dello
spettro vibratorio del drone
(fig. 3); questa soluzione, mista
all’uso di un supporto elastico,
ha eliminato i difetti causati
dalle vibrazioni nei fotogrammi.
Nella sua totalità, l’installazione
del sensore è rimasta molto
contenuta (figg. 1 e 4).
Per quanto concerne l’autonomia
di volo, i test hanno
dimostrato di poter ottenere
20 - 22 minuti di autonomia
totale al netto di tempi morti
per la calibrazione del sensore e
del drone. La Sentera 6X è collegata
direttamente alla batteria
primaria; non sono previste
alimentazioni separate e l’assorbimento
si attesta su valori bassi
(
REPORT
Shooting angle: parallel to
main path
Capture mode: capture at
equal distance interval
Speed: 5.0 m/s
Height: 50 mt
Per il corretto funzionamento
della ground station la SD card
deve essere inserita nel drone,
sebbene non necessaria per
l’immagazzinamento di alcun
dato. Considerando che il volo
viene eseguito dal drone sulla
base delle impostazioni inserite
nel piano predisposto in DJI
GS PRO, deve essere settato parallelamente
il sensore Sentera
6X per quello che concerne
l’acquisizione delle immagini.
In fase di progettazione del
rilievo, andranno selezionati i
parametri di scatto attraverso le
funzioni di configurazione.
Sarà necessario impostare la
medesima sovrapposizione scelta
nel piano di volo di DJI GS
PRO (overlap 85% nel caso specifico)
e stabilire a che quota e a
che distanza dal punto di decollo
il sensore inizierà ad acquisire
le immagini. In tal modo la coordinazione
drone-sensore sarà
ottimale e sarà solo necessario,
in fase di preelaborazione, eliminare
i primi e gli ultimi scatti,
corrispondenti al percorso
che il drone farà per raggiungere
il punto di inizio della prima
strisciata e per poi ritornare alla
base a volo concluso.
Si potrà inoltre scegliere se
generare immagini TIFF integrate
oppure separate nelle
cinque bande (secondo questo
ordine: blue, green, red, red Edge
e NIR). Si è proceduto con le
immagini integrate in quanto
necessarie in questo formato per
le successive elaborazioni con
il software Agisoft Metashape,
prescelto per questa specifica
ricerca. Se in un secondo momento
dovesse essere necessario
separare le immagini sarà
Fig. 5 – Configurazione piano di volo con app DJI GSPro.
possibile farlo tramite un apposito
programma di Sentera.
A questo punto, è possibile
eseguire il volo, preferibilmente
in un orario centrale della giornata,
con il sole alla massima
elevazione così da minimizzare
le ombre e massimizzare la luce
e non creare difformità nelle
strisciate a seconda del verso in
cui il drone viaggia per eseguire
le strisciate. È inoltre auspicabile
un cielo limpido o completamente
coperto, evitando
le condizioni miste sole/nuvola
che determinerebbero condizioni
variabili nella quantità di
luce acquisita dal sensore.
Una volta eseguito il volo, sarà
necessario acquisire l’immagine
del pannello di riflettanza.
Si tratta di una calibrazione
radiometrica necessaria per
eliminare possibili influenze
esterne, generalmente associabili
all’illuminazione o agli effetti
atmosferici. Se in una giornata
si dovessero eseguire più voli in
condizioni di luce differenti è
consigliabile acquisire molteplici
immagini del pannello in
relazione ai diversi voli eseguiti.
Tramite la procedura di scatto
andrà acquisita una immagine
del pannello (prestando attenzione
a evitare la formazione di
ombre).
La camera Sentera 6X ha una
memoria inverna NVME da
512Gb, accessibile collegamento
al PC. I file risultano salvati
solo nella cartella “data”, infatti,
sebbene sia prevista una scheda
SD, i dati non vengono immagazzinati
al suo interno, come
comunicato dall’assistenza web
della casa produttrice. Le immagini
sono divise in cartelle,
con data e ora UTC, generate
ogni volta che si accende e si
spegne la camera, indipendentemente
dall’effettiva acquisizione
di immagini.
Il software utilizzato per la specifica
ricerca presentata in questa
sede è Agisoft Metashape.
Non ci si addentrerà in questa
sede nelle specifiche tecniche
del suo utilizzo per le quali si
rimanda al manuale.
Attività sul campo: modalità
di acquisizione ed elaborazione
dei dati. Primi risultati.
La ricerca ha previsto l’esecuzione
di voli, l’elaborazione e
l’estrazione degli indici di vegetazione
possibili sulla base delle
bande restituite dal sensore al
fine di comprendere se la loro
GEOmedia n°5-2021 33
REPORT
Fig. 6 – Veio, cartografia numerica su modello tridimensionale (Guaitoli 2016, 179).
applicazione, già ampiamente
sviluppata in ambito agrotecnico,
possa restituire buoni
risultati per quello che riguarda
la diagnostica archeologica.
In questo contesto verranno
forniti alcuni dei risultati di
metodo desumibili dalla ricerca
pur senza addentrarsi però nella
tematica in senso più ampio (si
veda Ebanista 2021).
Per confronto con le tracce
ampiamente sperimentate
nell’ambito dell’aerofotogrammetria
classica, l’indice
NDVI (Normalized Difference
Vegetation Index ) trova stringenti
analogie con i crop marks
(tracce da vegetazione). Si tratta
della variazione cromatica
legata alla vigoria del manto
erboso, determinata dalla presenza
di strutture sepolte che
ne inibiscono parzialmente la
crescita rigogliosa (Piccarreta &
Ceraudo 2000, 107-111).
La letteratura scientifica relativa
alla sperimentazione dell’uso
di immagini multibanda per
la diagnostica archeologica,
ancora non molto estesa seppure
presente sia in ambito
nazionale che estero, non è però
ancora dirimente per quello
che riguarda la questione metodologica
(si vedano tra una
bibliografia più estesa: Agapiou,
Hadjimitsis & Alexakis 2012;
Agapiou A., Hadjimitsis D.G.,
Georgopoulos A. & Sarris A.
2012; Fiorini L. & Materazzi
F. 2017; Materazzi F. & Pacifici
M. 2020; Nebiker S., Annen
A., Scherrerb M. & Oeschc
D. 2008; Uribe P., Angás J.,
Pérez-Cabello F., De La Riva J.,
Bea M., Serreta A., Magallón
A., Sáenz A. & Martín-Bueno
M. 2015). Le sperimentazioni,
che si basano su acquisizioni
sporadiche e casuali da un
punto di vista fenologico, non
permettono di comprendere i
meccanismi di genesi e visibilità
delle tracce.
Obiettivo della ricerca è stato
quello di testare, tramite voli
reiterati nel medesimo contesto,
le variazioni fenologiche delle
specie vegetali in relazione alla
stagionalità, agli eventi metereologici
nonché a quelli antropici
legati soprattutto alle attività
agricole. L’area urbana di Veio
(Roma) è stata prescelta per i
test considerate le numerosissime
tracce note dalla fotografia
aerea classica e la sistematica
analisi territoriale di cui è stata
oggetto nel corso degli ultimi
60 anni, poi confluita nella
cartografia numerica realizzata
dal Laboratorio di Topografia
dell’Università del Salento (fig.
6). Le attività di ricognizione
capillare, a partire dal fondamentale
lavoro di Ward Perkins
1961 (Ward Perkins J.B. 1961),
poi riprese dagli anni ’80 dello
scorso secolo, gli scavi sistematici
e le prospezioni geofisiche
forniscono dati fondamentali
per comprendere le modalità
di formazione delle tracce individuate
in relazione agli elementi
archeologici già noti (per
una storia degli studi si veda
Guaitoli 2016).
Per le finalità descritte si è dunque
proceduto con regolari acquisizioni
mensili (o bimensili)
34 GEOmedia n°5-2021
REPORT
tramite i medesimi piani di volo
in due aree del centro urbano di
Veio, in località Campetti (fig.
6,1) e Macchiagrande (fig. 6,2),
tagliate da un importante asse
stradale che attraversa la città
dalla porta NO alla porta S, deviando
verso S per Portonaccio,
già scavato a partire dal 2002
con l’obiettivo sia di chiarire la
topografia di un punto nodale
della città sia proprio di verificare
l’affidabilità delle chiarissime
tracce rilevate nel corso
delle restituzioni realizzate dal
Laboratorio di Fotogrammetria
dell’Università del Salento (Jaia
& Cella 2015; D’Alessio 2015).
Le aree prese in esame si presentano
coperte in maniera
uniforme da manto di erba
medica, ad eccezione di arbusti
e rovi in corrispondenza dei
dislivelli e delle cisterne. Per
l’analisi dei dati metereologici,
è stato considerato l’indice delle
precipitazioni giornaliere, della
temperatura e dell’umidità media
giornaliera a 2 m dal suolo,
tenendo in considerazione sia il
giorno di esecuzione del volo,
sia gli 8 giorni precedenti (fonte
dati http://dati.lazio.it/catalog/
dataset/serie-storica-agrometeo).
Prima di eseguire ogni volo
sono stati messi a terra 12-15
markers georiferiti tramite sistema
GNNS in modalità Rtk
necessari per la correzione delle
coordinate già acquisite nel sensore
GPS del sensore Sentera in
fase di elaborazione con Agisoft
Metashape.
Circa 600 fotogrammi multibanda
per ogni volo, eseguito di
norma tra le 11 del mattino e le
14 per sfruttare il sole alla massima
altezza, sono stati elaborati
e calibrati sulla base dell’immagine
acquisita del pannello di
riflettenza e dei dati forniti dal
produttore e corretti per mezzo
del sun sensor, infine è stato
estratto l’indice NDVI.
La sperimentazione ha dimostrato
in maniera evidente come
la presenza di acque meteoriche
nel suolo, non completamente
assorbite nei giorni immediatamente
successivi alle precipitazioni,
alteri la percezione delle
tracce che appaiono enfatizzate
ma nel contempo ‘disturbate’
a causa del valore del NIR abbassato
significativamente dalla
presenza dell’acqua. In fig. 7
il medesimo volo eseguito a
settembre 2021 con temperature
quasi estive e in assenza
di precipitazioni (valori medi
negli 8 giorni precedenti il volo:
precipitazioni = 2,07; temperatura
media a 2 m dal suolo =
25,25; umidità a 2 m dal suolo
= 60,71) e il mese successivo
dopo una settimana di piogge
intense (valori medi negli 8
giorni precedenti il volo: precipitazioni
= 7,18; temperatura
media a 2 m dal suolo = 13,5;
umidità a 2 m dal suolo =
81,85). Di conseguenza, un terreno
asciutto con manto erboso
disomogeneo è da preferirsi a
una copertura vegetazionale più
compatta, ma con terreno intriso
di acqua.
Altro aspetto da valutare è la
tempistica necessaria alla pianta
per crescere a sufficienza, soprattutto
a livello radicale, per
determinare la formazione della
traccia. Difatti, dopo due mesi
dall’aratura e dalla semina il
manto erboso che all’apparenza
sembrerebbe compatto, denso
e uniforme non restituisce le
medesime tracce, visibili appena
20 giorni prima dell’aratura.
La profondità delle strutture, la
tipologia di copertura vegetale
e la profondità di crescita delle
radici influisce sulle tempistiche
necessarie a ottenere la migliore
risposta possibile.
Infine, altro aspetto rilevante è
stata la comparazione del dato
multibanda con quello pancromatico,
motivo per il quale tutti
i voli sono stati realizzati nelle
medesime condizioni anche in
RGB. Pur non addentrandosi
in questa sede nei risultati più
strettamente archeologici, la
sperimentazione ha dimostrato
in maniera evidente come
nell’NDVI le tracce risultino
molto più chiare e marcate.
L’indice infatti è molto sensibile
anche a concentrazioni di
clorofilla piuttosto basse, non
Fig. 7 - Veio, estrazione dell’indice NDVI nei voli di settembre e ottobre 2020, indicati in bianco gli assi stradali
visibili in traccia (tratteggio) e una serie di tracce chiare e scure riferibili ad ambienti. L’immagine fotografica
dello scavo è tratta da Jaia & Cella 2015, 17.
GEOmedia n°5-2021 35
REPORT
apprezzabili nel campo del visibile.
Non a caso questo indice
è ampiamente sperimentato in
campo agrotecnico il suo uso
per predire la resa del raccolto
nella fasi iniziali della crescita
vegetazionale.
La sperimentazione prosegue
tuttora con test in diversi siti
etrusco laziali e si sta avvalendo
dei primi risultati metodologici
acquisiti in circa 12 mesi di test
reiterati per quello che riguarda
le tempistiche di acquisizione
dei dati rispetto alla stagionalità,
agli eventi metereologici e
antropici.
Venendo all’analisi dei risultati
da un punto di vista tecnico in
relazione all’integrazione oggetto
di questo contributo, il sistema
drone-sensore si è rivelato
molto efficiente. Si tratta infatti
di una strumentazione leggera
e di agile utilizzo, considerando
che è ancora possibile trasportare
il drone nella sua custodia
originale, non essendo aumentato
in maniera significativo il
suo ingombro (fig. 2). Questo
fattore non è assolutamente
secondario laddove il SAPR
venga utilizzato in contesti di
ricognizione che necessitano il
trasporto della strumentazione
a mano, talvolta in condizioni
non agevoli.
La non significativa riduzione
di autonomia della batteria,
da imputare marginalmente
all’incremento di peso (210
gr), risente del fatto che l’alimentazione
del sensore attinge
alla medesima batteria del
drone. Laddove dunque non
sia necessario tenere acceso il
drone a lungo prima del decollo
(richiesta di calibrazione IMU
dello strumento, ad esempio),
la durata della batteria si attesta
sui 22 minuti, consentendo
l’esecuzione di voli abbastanza
estesi. Va inoltre valutato che
il peso dei TIFF multibanda è
piuttosto elevato (22,5 megabyte
ciascuno), dunque è da preferirsi
un volo che non superi
i 600 fotogrammi per favorire
una elaborazione agile, se pure,
ovviamente eseguita su un PC
idoneo alla finalità in quanto a
caratteristiche tecniche.
Come già accennato, avendo
testato il sistema nell’arco di
un intero anno solare in differenti
condizioni climatiche,
è stato appurato che il drone
non subisce particolare innalzamento
della temperatura in
fase di volo, nonostante il lieve
incremento di peso. Il surriscaldamento
in caso di temperature
oltre i 40° che determina
la necessità di ‘raffreddare’ la
macchina all’ombra in maniera
intermittente nell’ambito di
molteplici voli eseguiti a breve
distanza è il medesimo che il
drone presentava anche prima
dell’installazione del sensore a
bordo. Nell’arco di una medesima
giornata sono stati eseguiti
fino a 6 voli consecutivi senza
riscontrare problematiche.
Infine, considerando l’integrazione
da un punto di vista
software, la temuta mancata
‘sincronia’ tra piano di volo del
drone e piano di scatto del sensore
è stata superata in maniera
molto agile settando, come già
detto, le due macchine separatamente.
Il sensore Sentera ha
tra l’altro un’ottima efficienza di
scatto in relazione alla posizione
individuata dal GPS integrato.
L’unica accortezza rimane quella
di dover eliminare, prima di avviare
l’elaborazione, i fotogrammi
acquisiti nel percorso che il
drone compie dal decollo all’inizio
della prima strisciata e poi
dall’ultima fino all’atterraggio.
BIBLIOGRAFIA
Agapiou A., Hadjimitsis D.G. & Alexakis
D.D. (2012). Evaluation of Broadband
and Narrowband Vegetation Indices for
the Identification of Archaeological Crop
Marks. Remote Sensing 4, 3892-3919.
Agapiou A., Hadjimitsis D.G.,
Georgopoulos A. & Sarris A. (2012).
Towards an Archaeological Index:
Identification of the Spectral Regions
of Stress Vegetation due to Buried
Archaeological Remains. Progress in
Cultural Heritage Preservation. 4 th
International Conference, EuroMed 2012
(Limassol 29 ottobre - 3 novembre 2012),
129-138.
D’Alessio M.T. (2015). Il paesaggio
urbano tra l’età del ferro e la tarda età
imperiale. Cascino R., Fusco U. & Smith
C.J. (eds.). Novità nella ricerca archeologica
a Veio, 27-33.
Ebanista L. (2021) Remote sensing: l’uso
dei sensori multispettrali per la diagnostica
archeologica. InFieri 2, c.d.s.
Fiorini L. & Materazzi F. (2017). Un
Iseion a Gravisca? Fotogrammetria, telerilevamento
multispettrale da APR e dati
archeologici per una possibile identificazione.
PAROLE CHIAVE
Topografia antica; rilievo; drone; uav;
camera multispettrale; archeologia;
processamento dati
ABSTRACT
This paper deals with a research carried out
since 2020 by Sapienza - University of Rome
that test the analysis of the data acquired by
a multispectral camera transported by a UAV
and their reading and interpretation in the
context of the archaeological diagnostics.
As part of the activities, the integration of a
Sentera 6X sensor on board a DJI Phantom
4 drone was tested, both from a mechanical
and software data management point of view,
from the programming, to the acquisition,
up to the final processing and extraction of
vegetation indices.
The SAPR is highly performing as well as
very agile use in the specific contexts of research
and has returned satisfactory results in
the data extraction and processing phase.
AUTORE
Laura Ebanista
laura.ebanista@uniroma1.it
Ricercatore in Topografia Antica –
Sapienza Università di Roma
Piazzale Aldo Moro 5, 00185 Roma
Alessandro Maria Jaia
alessandro.jaia@uniroma1.it
Professore associato in Topografia
Antica – Sapienza Università di Roma
Piazzale Aldo Moro 5, 00185 Roma
Andrea Pompili
info@aviocam.it
Responsabile R & D - Aviocam
Via Minerbio 58A, 00127 Roma
36 GEOmedia n°5-2021
REPORT
Tecnologie
per le Scienze
della Terra e del Mare
Immagine: MTS Engineering
Vendita, Noleggio, Training, Assistenza
anche a noleggio per:
Studio dei fondali e delle coste
Multibeam, SSS, SBP, droni idrografici …
Studio del sottosuolo
Georadar, sismica, geoelettrica, inclinometri …
Monitoraggio sismico
Sismometri, strong motion, reti early warning …
Posizionamento di precisione
e navigazione
GNSS, piattaforme inerziali, USBL …
3D imaging
Rilievi terrestri, sotterranei, costieri, subacquei
anche integrati, anche in dinamico …
Monitoraggio ambientale
Magnetometri, sonde oceanografiche …
CODEVINTEC
Tecnologie per le Scienze della Terra e del Mare
tel. +39 02 4830.2175 | info@codevintec.it | www.codevintec.it
GEOmedia n°5-2021 37
TERRA E SPAZIO
Sistemi di
posizionamento,
navigazione e
sincronizzazione
alternativi ai GNSS
di Marco Lisi
Nonostante il pervasivo
e fondamentale ruolo dei
sistemi globali di navigazione
via satellite (“Global
Navigation Satellite Systems,
GNSSs”) in praticamente
tutte le infrastrutture
economiche ed industriali
della nostra società, cresce
la preoccupazione per
la troppa dipendenza da
sistemi altamente affidabili,
ma al contempo anche
intrinsecamente vulnerabili.
Stiamo parlando delle quattro
costellazioni GNSS attualmente
operative: GPS, Glonass,
Galileo e Beidou.
Tutti questi sistemi hanno
architetture simili: satelliti in
orbita intorno alla Terra, che
trasmettono segnali opportunamente
codificati e criptati;
segmenti terrestri molto complessi,
che includono numerose
stazioni, linee di comunicazione
sicure e centri di processamento
e controllo.
La dipendenza di tutte le infrastrutture
critiche della società
dai sistemi GNSS, in particolare,
per il mondo occidentale,
GPS e Galileo, e la consapevolezza
delle catastrofiche conseguenze
in caso di loro, anche
temporanea, indisponibilità,
crea la sensazione che essi possano
essere una sorta di bomba ad
orologeria, pronta a scoppiarci
fra le mani.
Ma non è necessario che sia
così. Le vulnerabilità di questi
sistemi sono essenzialmente di
tre tipi: “jamming”, “spoofing”
ed attacchi cibernetici.
Per “jamming” s’intendono le
interferenze, intenzionali e non,
che possano sovrastare i segnali
GNSS ed impedirne una ricezione
corretta. In senso lato,
si possono ascrivere a questa
tipologia anche le perturbazioni
della propagazione ionosferica
causate da tempeste solari.
I segnali GNSS sono particolarmente
vulnerabili al “jamming”
in quanto sono estremamente
deboli, sia perché trasmessi da
satelliti che viaggiano a circa
ventimila chilometri di altezza,
sia per limitazioni di tipo regolatorio.
Il “jamming”, sia in campo
militare che in quello civile, è il
mezzo più semplice, economico
ed allo stesso tempo più malau-
Fig. 1 - “jammer” commerciali, spesso acquistabili in rete.
Fig. 2 - Il sistema terrestre di navigazione eLORAN.
38 GEOmedia n°5-2021
TERRA E SPAZIO
missili lanciati da terra, satelliti
“killer” ed armi elettromagnetiche
o laser.
Sebbene la disponibilità per gli
utenti di quattro costellazioni
indipendenti crei una ridondanza
intrinseca nell’infrastruttura
PNT (“Positioning, Navigation
& Timing”) globale, ed i vari
governi responsabili applichino
misure di sicurezza molto
stringenti, ci si pone tuttavia la
domanda: è possibile integrare i
sistemi GNSS con sistemi terreguratamente
efficace per impedire
l’utilizzo dei sistemi GNSS
in aree geografiche circoscritte
(da pochi chilometri quadrati
ad intere regioni) (fig. 1).
Lo “spoofing” è una forma più
sofisticata (e sicuramente intenzionale
e malevola) di attentato
alla funzionalità dei sistemi
GNSS. Grazie agli sviluppi delle
tecnologie digitali, è oggi possibile,
ad un malintenzionato
tecnicamente preparato, con un
investimento economico ormai
molto limitato, trasmettere
verso obiettivi mirati, ovvero
in una certa regione, segnali
GNSS falsificati, che riescono,
ad esempio, a deviare un aereo
o una nave dalla loro rotta, portandoli
fuori strada.
La contromisura adottata nelle
applicazioni militari e governative
è quella di criptare i codici
dei segnali GNSS, rendendone
impossibile la falsificazione.
In ambito civile, vale la pena
di sottolineare l’iniziativa della
Commissione Europea che ha
introdotto nel sistema Galileo
un’autenticazione del segnale civile,
la cosiddetta “Open Service
Authentication” (OS-NMA).
La terza area di vulnerabilità,
quella dovuta ad attacchi cibernetici,
deriva dalla tecnologia
stessa del segmento terrestre
dei sistemi GNSS, tipicamente
basata su programmi software
molto complessi, centri di processamento
e calcolo e linee di
comunicazione dati. La possibilità
di attacchi “cyber”, interni
ed esterni, è, come in tutte le
grandi architetture informatiche
di questo tipo, molto elevata.
A conclusione di questa breve
analisi delle aree di vulnerabilità,
si dovrebbe anche aggiungere
una possibilità che sembra farsi
sempre più concreta: quella di
veri e propri atti di guerra spaziale,
miranti a distruggere i satelliti
GNSS in orbita attraverso
Fig. 3 - Il principio della navigazione iperbolica, basato sulla trilaterazione.
stri, anche locali, e rendere l’intera
infrastruttura più affidabile
e resiliente?
Il sistema eLORAN, un’
alternativa terrestre ai GNSS
Il sistema eLORAN (fig.2) è la
versione moderna ed aggiornata,
con l’utilizzo delle moderne
tecnologie digitali, del vecchio
sistema di navigazione LORAN
(“LOng RAnge Navigation”),
sviluppato dagli Stati Uniti e
dal Regno Unito durante la
Fig. 4 - La rete eLORAN operante nella Corea del Sud, per controbattere il “jamming” dai
paesi confinanti.
GEOmedia n°5-2021 39
TERRA E SPAZIO
Fig. 5 - Sistema terrestre di navigazione basato su “signals of opportunity”.
Seconda Guerra Mondiale, rimasto
operativo, soprattutto per
la navigazione marittima, per
oltre sessanta anni.
Il sistema è basato sul principio
della cosiddetta navigazione
iperbolica: l’utente riceve i segnali
da una serie di stazioni di
terra sincronizzate al tempo coordinato
universale (UTC), delle
quali è nota la posizione, e ne
deriva i tempi di arrivo (“Time
of Arrival”, ToA). Con un minimo
di tre stazioni ricevute,
l’utente è in grado di calcolare
la propria posizione orizzontale
(fig.3).
Pur essendo un sistema regionale
ed adatto soprattutto alla
navigazione terrestre e marittima,
il sistema eLORAN ha una
serie di caratteristiche positive,
che lo rendono un candidato
ideale per integrare e rendere
più resilienti i sistemi GNSS.
In particolare, i suoi segnali
possono essere da 3 a 5 milioni
di volte (cioè fino a 30 dB)
più forti dei segnali GNSS, e
Fig. 6 - Orologi atomici miniaturizzati.
quindi molto più resistenti al
“jamming”. Inoltre, l’utilizzo di
frequenze molto basse, intorno
ai 100 KHz (VLF), permette la
navigazione all’interno di edifici
ed in aree urbane densamente
popolate.
L’accuratezza di posizionamento
ottenibile con eLORAN (+/-
8 metri) non raggiunge quella
dei sistemi GNSS, ma con l’ausilio
di tecniche di correzione
si riescono ad ottenere risultati
molto migliori, utilizzabili nella
maggior parte delle applicazioni.
Attualmente la tecnologia eLO-
RAN è operativa nella Corea
del Sud (fig. 4) ed è oggetto di
una serie di progetti di sviluppo
negli Stati Uniti, nel Regno
Unito nell’Unione Europea
(EUSPA ed Agenzia Spaziale
Europea).
Sistemi di posizionamento e
navigazione basati sui “Signals
of Opportunity” (SoP)
I “Signals of Opportunity”
(è difficile trovare una traduzione
“decente” di questa
espressione in italiano) sono
tutti i segnali, analogici e digitali,
tipicamente trasmessi da
centinaia di stazioni terrestri
commerciali a supporto di reti
di telecomunicazione di vario
tipo. Appartengono a questa
definizione i segnali radio e
televisivi trasmessi da torri di
“broadcasting”, le trasmissioni
delle stazioni dei network cellulari
4G e 5G, ed i segnali dei
“Wireless Local Area Networks”
(WLAN), come quelli Wi-Fi
(fig. 5). È importante sottolineare
che tutti questi segnali non
sono ottimizzati per la navigazione,
come è invece il caso dei
segnali GNSS.
Il principio dei sistemi di posizionamento
basati sui SoP è
simile a quello prima descritto
per il sistema LORAN: si basa
sull’utilizzo di stazioni terrestri
la cui posizione è ben nota e se
ne utilizzano i segnali per effettuare
la localizzazione dell’utente
con varie tecniche: tempo di
arrivo (“Time of Arrival”, ToA),
angolo di arrivo (“Angle of
Arrival”, AoA), intensità del segnale
ricevuto (“Received Signal
Strength”, RSS).
Un requisito importante per
l’utilizzo di queste stazioni
commerciali è che esse siano
sincronizzate. D’altra parte le
tecnologie digitali tipicamente
adottate (DAB, HDTV, 4G e
5G, Wi-Fi, etc.) richiedono tutte
un livello di sincronizzazione
alquanto spinto.
Le soluzioni basate su
“hotspots” Wi-Fi pubblici
sembrano molto promettenti e
vengono attualmente perseguite
dalle più importanti aziende
informatiche mondiali, quali
Google, Microsoft ed IBM.
Le grandi sfide del futuro sono
la già citata navigazione “indoor”,
i droni aerei (UAVs) e le
automobili a guida autonoma.
Per queste ultime, in particola-
40 GEOmedia n°5-2021
TERRA E SPAZIO
re, un’appropriata ridondanza
dei sistemi di posizionamento
e navigazione è necessaria per
raggiungere gli elevati livelli di
sicurezza (“safety”) richiesti.
Integrazione e fusione alla
base della futura infrastruttura
PNT globale
I sistemi GNSS, GPS e Galileo
in primis, rimarranno negli
anni a venire le colonne portanti
dell’infrastruttura globale
di PNT. Seppur soggetti a volte
alle influenze della geopolitica
globale, è auspicabile una sempre
maggiore cooperazione fra
le quattro grandi costellazioni,
con l’obiettivo di rendere i loro
servizi, almeno quelli civili e pacifici,
sempre più affidabili dal
punto di vista degli utenti.
Tuttavia le sempre più sofisticate
applicazioni e la sempre
maggiore dipendenza da essi
delle varie altre infrastrutture
critiche, dai trasporti alle telecomunicazioni,
dai sistemi finanziari
alle reti di distribuzione
(energia elettrica, petrolio, gas),
richiedono un’infrastruttura
PNT globale più affidabile, ridondata
e resiliente.
La soluzione che si va nei fatti
affermando è quella di una
sempre maggiore integrazione
di piattaforme differenti
e complementari: i sistemi
satellitari globali, i sistemi terrestri
(eLORAN, “Signals of
Opportunity”) e, non ultimi,
i componenti miniaturizzati
che realizzano sensori, orologi
atomici e piattaforme inerziali,
tutti prossimamente integrabili
perfino nei nostri smartphone
(fig. 6).
Un esempio per tutti: negli ultimi
mesi le più avanzate aziende
di ricevitori integrati GNSS
hanno sviluppato versioni, particolarmente
orientate al mercato
“automotive”, che integrano
in uno stesso modulo miniaturizzato,
oltre ad un ricevitore
GNSS multicostellazione, un
processore dei dati da tutti i
sensori dell’automobile (tachimetro,
giroscopio, piattaforma
inerziale) e da eventuali altri
sensori 3D anti-collisione, quali
ad esempio il LIDAR (radar ottico
laser). Si realizza in questo
modo un’integrazione costruttiva
fra navigazione basata su
GNSS e navigazione “stimata”
(“Dead Reckoning”), con risultati
più accurati (nell’ordine dei
decimetri), affidabili e robusti.
PAROLE CHIAVE
Gnss; posizionamento; e-LORAN; SoP
AUTORE
Dott. ing. Marco Lisi
ingmarcolisi@gmail.com
Independent Consultant
Aerospace & Defense
GEOmedia n°5-2021 41
MERCATO
LA PRIMA IMMAGINE DI LANDSAT 9
I primi dati di Landsat 9, della costa australiana di
Kimberley nell'Australia occidentale, mostrano le capacità
dei due strumenti del satellite. Questa immagine,
dall'Operational Land Imager 2, o OLI-2, è stata acquisita
il 31 ottobre 2021. Sebbene sia simile nel design al
suo predecessore Landsat 8, i miglioramenti a Landsat 9
gli consentono di rilevare differenze più sottili, specialmente
su tonalità più scure aree come l'acqua o le fitte
foreste di mangrovie lungo la costa.
Landsat 9, una missione congiunta della NASA e
dell'U.S. Geological Survey, è stata lanciata il 27 settembre
2021 e ora ha raccolto le sue prime immagini della
Terra.
Queste immagini, tutte acquisite il 31 ottobre 2021,
forniscono un'anteprima di come la missione aiuterà le
persone a gestire le risorse naturali vitali e a monitorare
gli impatti dei cambiamenti climatici, aggiungendosi
all'impareggiabile record di dati di Landsat che abbraccia
quasi 50 anni di osservazione della Terra dallo spazio.
Nelle immagini disponibili nel sito di Landsat 9 (https://
svs.gsfc.nasa.gov/13987) sono mostrati ecosistemi costieri
in Australia; l'intersezione di città e coste nella
Florida Panhandle; ghiacciai in Alta Montagna in Asia e
campi agricoli che circondano il lago Erie.
Landsat 9 trasporta due strumenti che catturano le immagini:
Operational Land Imager 2, o OLI-2, che rileva
nove diverse lunghezze d'onda della luce visibile,
del vicino infrarosso e dell'infrarosso a onde corte; e il
sensore termico a infrarossi 2, o TIRS-2, che rileva due
lunghezze d'onda della radiazione termica per misurare
lievi variazioni di temperatura. Questi strumenti forniranno
agli utenti di Landsat 9 informazioni essenziali
sulla salute delle colture, sull'uso dell'irrigazione, sulla
qualità dell'acqua, sulla gravità degli incendi, sulla deforestazione,
sul ritiro dei ghiacciai, sull'espansione
urbana e altro ancora. OLI-2 è stato costruito da Ball
Aerospace e TIRS-2 è stato costruito dal Goddard Space
Flight Center della NASA. Northrop Grumman ha costruito
la navicella spaziale Landsat 9, l'ha integrata con
gli strumenti e ha testato l'osservatorio.
Il team Landsat 9 della NASA è nel bel mezzo di un
periodo di controllo di 100 giorni, che prevede il test
dei diversi sistemi e sottosistemi del satellite e la calibrazione
degli strumenti in preparazione alla consegna della
missione all'USGS a gennaio. L'USGS opererà Landsat
9 insieme a Landsat 8 e insieme i due satelliti raccoglieranno
circa 1.500 immagini della superficie terrestre
ogni giorno, coprendo il globo ogni otto giorni. I dati di
Landsat 9 saranno disponibili al pubblico, gratuitamente,
dal sito Web di USGS, non appena il satellite inizierà
le normali operazioni.
I dati di entrambi gli strumenti sono mostrati nelle due
coppie in questa immagine.
La parte in alto a sinistra mostra la neve e i ghiacciai
nelle montagne dell'Himalaya, che conducono al piatto
altopiano tibetano a nord. La parte in alto a destra mostra
la stessa area nei dati termici dello strumento TIRS-
2. Il colore blu-bianco indica temperature superficiali
relativamente più fredde, mentre il rosso arancio indica
temperature superficiali più calde. L'angolo inferiore
sinistro mostra i rettangoli marroni e verdi dei campi
agricoli nell'Ontario meridionale, racchiusi tra il Lago
Erie e il Lago St. Clair. I rettangoli bianchi e grigi nella
parte inferiore dell'immagine sono serre di produzione,
che si presentano come macchie bluastre (relativamente
più fredde) nell'immagine TIRS-2 a destra.
Alcuni link rapidi per il download delle prime immagini:
https://svs.gsfc.nasa.gov/vis/a010000/a013900/a013987/L9_
Navajo_hyperwall_rgb_labels.jpg
https://svs.gsfc.nasa.gov/vis/a010000/a013900/a013987/L9_
Himalaya_hyperwall_rgb_labels.jpg
https://svs.gsfc.nasa.gov/vis/a010000/a013900/a013987/L9_
Florida_20211031_p019r039.jpg
https://svs.gsfc.nasa.gov/vis/a010000/a013900/a013987/L9_
Australia_20211031_p109r070.jpg
Fonte: NASA's Goddard Space Flight Center, using data
from the U.S. Geological Survey
42 GEOmedia n°5-2021
MERCATO
C’è vita nel nostro mondo.
STONEX XH120 SLAM – NUOVO
LASER SCANNER CON TECNOLOGIA
SLAM
Airbus XH120 è un Laser Scanner portatile veloce
ed efficiente, incentrato sulla più recente tecnologia
STONEX SLAM.
Questo potente scanner permette di catturare in
modo facile e veloce modelli 3D di interni ed
esterni.
Scansione rapida
Non più molteplici scansioni, basta muoversi in
campo per raccogliere in pochi minuti l’intera nuvola
di punti 3D.
Carico di lavoro ridotto
Non è più necessario effettuare il noioso processo
di allineamento da nuvola a nuvola, scarica i dati
completi subito dopo l’acquisizione.
Tecnologia Stonex Slam
XH120 è dotato dei migliori sensori di elaborazione
in tempo reale: maggiore portata, più velocità,
più risoluzione, miglior campo di misura,
più affidabilità.
Flessibilità
Associa i dati raccolti in interno ed esterno, anche
negli ambienti più difficili.
In tempo reale
Potrai vedere l’avanzamento in tempo reale della
tua scansione e governare lo scanner XH120 con
un tablet o uno smartphone.
https://www.stonex.it/it/
info@stonex.it
www.epsilon-italia.it
www.inspire-helpdesk.eu
GEOmedia n°5-2021 43
MERCATO
QUANDO IL TELERILE-
VAMENTO INCONTRA
L'INTELLIGENZA ARTI-
FICIALE E IL GIS
Da un interessante articolo su
GeoConnexion vi riportiamo
come Rob Morrison descrive
in che modo coloro che hanno
già investito molto nella raccolta
di immagini e dati telerilevati
possono sfruttare la potenza del
GIS e del Machine Learning per
rilevare tendenze e modelli altrimenti
nascosti. La convergenza
di intelligenza artificiale, telerilevamento
e localizzazione presenta
enormi opportunità ai professionisti
GIS e insieme possono
essere utilizzate per consentire
un processo decisionale efficace
e tempestivo. Gli output derivati
ottenuti combinando questi tre
campi possono fornire informazioni
preziose, consentendo di
discernere modelli dove nulla era
precedentemente ovvio, consentendo
a coloro che possono interpretare
questi dati di sfruttare
questo potenziale. È "La scienza
del dove" in azione.
L'uso del telerilevamento è importante
perché contiene masse
di informazioni preziose se si
sa come estrarle. Questo tipo
di immagini viene catturato su
sensori montati su aerei, droni
senza pilota o satelliti. Immagini
di questo tipo sono sempre più
utilizzate in molte aree come
l'industria commerciale, la ricerca
scientifica, la gestione delle
emergenze e delle risorse, la sicurezza
e la ricognizione.
Questo, insieme alla disponibilità
quasi onnipresente di droni
e al basso punto di ingresso che
forniscono per ottenere fotografie
aeree di alta qualità, ha portato
a molte potenziali applicazioni
e usi che tradizionalmente potrebbero
essere stati impossibili
da ottenere per organizzazioni o
agenzie con budget ridotti.
Immagini+Machine Learning=
prodotti ricchi di informazioni
Facciamo un passo indietro e
pensiamo alle immagini. Nella
loro forma grezza le immagini
sono solo dati grezzi non strutturati.
File binari con righe e
colonne di pixel con numeri assegnati
che significano qualcosa
per qualcuno secondo una scala.
Le immagini contengono dati:
l'apprendimento automatico ci
consente di estrarre informazioni
da quei dati. Combinando la
potenza del GIS e dell'apprendimento
automatico, possiamo
trasformare questi dati non strutturati
in prodotti di informazioni
geospaziali da cui derivare
risultati e informazioni fruibili.
Applicazioni come l'agricoltura
di precisione, il rilevamento delle
modifiche, il rilevamento degli
obiettivi e la gestione delle risorse
sono solo quattro applicazioni
che possono trarre vantaggio dal
consumo di questi prodotti derivati.
Adottare un approccio geografico
al Machine Learning
Un'altra applicazione di questo
tipo è il rilevamento delle
impronte degli edifici. Alla fine
dell'anno scorso Rob e il suo
collega Jonathan Sloan hanno
tenuto un webinar su "Taking
a Geographic Approach to
Machine Learning". In quel webinar
sono state utilizzate tecniche
di machine learning e ortofotografia
per cercare di rilevare
le impronte degli edifici.
Il processo che abbiamo utilizzato
è stato ottenuto utilizzando
ArcGIS Pro 2.4.2 e le installazioni
out-of-the-box dei notebook
Anaconda e Jupyter che ne derivano.
L’approccio in sette
semoplici passi
1 - Selezionare un immagine di
allenamento
L'obiettivo era di determinare
l'efficacia di un approccio automatizzato
rispetto a un output
noto. L'immagine utilizzata era
una piccola area campione di
un'ortofotografia a 3 bande con
risoluzione di 16 cm che copriva
una piccola area a Bangor,
nell'Irlanda del Nord, acquisita
nel 2016.
2 - Identificare i dati di allenamento
Per l'area di input sono stati
anche ottenuti i poligoni per
le impronte di edifici esistenti
dal Catasto (Land and Property
Services). Questo è stato il set di
dati di base usato per il training
e per il confronto con l'output di
machine learning.
3 – Creare un dataset etichette
Il primo passo nel flusso di lavoro
di classificazione delle immagini
è stata la creazione di
campioni di addestramento. I
campioni di formazione "insegnano"
al modello di deep
learning quali possono essere le
dimensioni, la forma e la firma
spettrale dell'impronta di un
edificio. Più campioni vengono
forniti al modello, più accurato
sarà il risultato. Abbiamo usato i
poligoni LPS Building Footprint
per addestrare il nostro modello
e da questo abbiamo creato un
semplice set di dati di etichette
senza segno a 8 bit o un'immagine
raster classificata.
4 – Formazione del modello
Questo è il set di dati da utilizzare
per addestrare il modello,
utilizzandolo come input del raster
classificato per lo strumento
di geoprocessing. Insieme alla
ortofotografia come raster di input,
si possono impostare alcuni
parametri di base e quindi esportare
l'immagine chip che può
essere utilizzata per addestrare il
modello di deep learning.
L'output del training è un file
.emd che è un file Esri Model
Definition. Questo file è il ponte
tra il GIS e il framework di deep
learning.
5 - Inferenza
Avendo un set di dati di addestramento
e creato il modello,
si può eseguire quel modello su
un diverso set di ortofotografia,
nell'esempio ai link in calce sono
state usate immagini a 16 cm a
3 bande di Belfast catturate nel
2018. Si lancia quindi il comando
Classifica i pixel utilizzando
Strumento di geoprocessing di
Deep Learning che utilizza il raster
di Belfast e la definizione del
modello di deep learning creata
in precedenza come input.
L'output di questo processo è un
altro raster classificato, quello in
cui il modello di deep learning
ha identificato cluster di pixel
che rappresentano le impronte
dell'edificio.
6 - Creare poligoni di costruzione
Utilizzando questo raster classificato,
possiamo quindi eseguire
lo strumento di geoprocessing
"Raster to Polygon" per convertire
gli edifici raster in poligoni.
7. Regolarizzare i poligoni di output
Questo crea poligoni con molti
vertici e di forma irregolare,
quindi a questo punto potremmo
volerli ripulire un po' eseguendo
lo strumento di geoprocessing
"Regularize Building
Footprints" che rimuoverà quei
vertici in eccesso e squadrerà i
bordi dell'edificio. L'output di
questo strumento sono le impronte
verdi come mostrato nelle
immagini citate in calce.
In sintesi un processo di questo
genere che potrebbe far rabbrividire
i cartografi più avanzati, di
certo è agli inizi delle sue possibilità
e ci dimostra come un
qualcosa che era solo una remota
possibilità già da tempo auspicata,
stia andando verso una plausibile
realtà.
Riferimenti
1.https://bit.ly/3jX0WEk
2.https://bit.ly/3CU8dxe
3.https://bit.ly/3m2JQrn
4.https://bit.ly/2VUpXaT
44 GEOmedia n°5-2021
MERCATO
DATRONIX D20, IL NUO-
VO ROVER GNSS RTK
CON TECNOLOGIA IMU
Con l’introduzione di D20
GNSS RTK IMU Datronix
mette a disposizione un ricevitore
satellitare dotato della
più recente tecnologia oggi disponibile
a costi estremamente
vantaggiosi ed accessibili a tutti.
Rilievi topografici di precisione,
catastali, picchettamenti
in cantiere e per opere civili saranno
effettuati con impressionanti
risparmi di tempo e con
strabilianti precisioni!
D20 è un vero concentrato di
tecnologia in un dispositivo di
minime dimensioni (12 x 12 cm
di lato e 8.5 cm di altezza) e peso
(circa 725 g inclusa batteria).
Un ricevitore GNSS che offre
la compensazione automatica
dell'inclinazione con un sensore
IMU esente da calibrazione.
La compensazione avviene entro
45° di inclinazione della
palina dando la possibilità di
misurare punti inaccessibili
o pericolosi da raggiungere,
lasciando al topografo la necessaria
concentrazione sul rilievo
e riducendo il tempo per
le misurazioni dei punti ed il
picchettamento anche oltre il
30% (ovvero elimina completamente
i tempi di ‘messa in
bolla’).
Un sistema GNSS RTK con un
avanzatissimo ricevitore multifrequenza
a 624 canali, batteria
integrata per 15 ore di lavoro,
radio UHF per l’utilizzo dove
non è presente una rete GPS
ricevendo le correzioni differenziale
da un secondo GNSS
utilizzato come Base (per esempio
un Datronix D1).
Il potente cuore multifrequenza
di D20 garantisce il
tracciamento ottimale di tutti
segnali GNSS disponibili –
GPS Navstar, Glonass, Beidou,
Galileo, SBAS, QZSS….- anche
in ambienti difficili, consentendo
di effettuare rilievi
GNSS in qualunque condizione
in quanto è sempre garantito
il tracciamento di un
numero eccezionalmente alto
di satelliti.
DATRONIX D20 GNSS
viene pilotato dal software
ANDROID Landstar 7, sviluppato
da CHC Navigation
per ottimizzare le prestazioni
dei propri ricevitori, che viene
utilizzato su differenti controller
quali il palmare HCE 320
ed il tablet 8” DT8.
Dato che il software da campagna
è la componente direttamente
a contatto con il topografo
e deve risultare semplice,
completo ed user friendly, è
possibile togliersi ogni possibile
dubbio richiedendo una
licenza di Landstar 7 completa
e limitata nel tempo scrivendo
a info@datronix.it
Sottolineiamo che il sistema
viene fornito con il software
Windows 10 Datronix ONE,
prodotto in collaborazione con
Leonardo Software House, che
consente di scaricare, ricaricare,
esportare, importare e gestire
i dati del rilievo sia dal punto
di vista grafico sia analitico
con la creazione automatica di
libretti di campagna incluso
quello per PREGEO.
GNSS Surveying, il tuo modo
di lavorare.
Distribuito da DATRONIX
Srls – Lissone (MB)
www.datronix.it –
info@datronix.it
Works when you do
X-PAD Ultimate
Tutto in un unico software
X-PAD Ultimate è un software modulare, facile da usare per lavori
controlli BIM, strade, mappe, batimetria e GIS.
Il software è disponibile sulla piattaforma Android e porta le
migliori tecnologie direttamente in campo nella tua mano: una
completa visualizzazione 3D ed un sistema CAD per visualizzare e
di mappe, supporti per la realtà aumentata e molto altro.
XPad Ultimate ti assicura la produttività e ti permette di avere una
perfetta integrazione con tutti gli strumenti.
Disponibile in due versioni, una dedicata a chi lavora nel campo
offrendo ad entrambi delle caratteristiche dedicate.
geomax-positioning.it
GEOmedia n°5-2021 45
©2020 Hexagon AB and/or its subsidiaries
AGENDA
14-18 Dicembre 2021
ICC- International
Cartographic
Conference
Firenze
www.geoforall.it/kyk8k
18 – 20 Gennaio 2022
Commercial UAV Expo
Europe
Amsterdam
(Netherlands)
www.geoforall.it/kyx8u
23-24 Marzo 2022
Geo Connect Asia 2022
Singapore
https://www.
geoconnectasia.com/
27 – 29 Aprile 2022
GISTAM
gistam.scitevents.org/
Online Streaming
6 - 11 Giugno 2022
XXIV ISPRS Congress
Nice (France)
www.geoforall.it/kyx8u
16-18 Giugno 2022
D-SITE Drones -
Systems of Information
on culTural hEritage
Pavia (Italy)
www.geoforall.it/kyw6u
20-25 June 2022,
Nessebar (Bulgaria)
The 8th International
Conference on
Cartography and GIS
www.geoforall.it/kywu9
22-24 giugno 2022,
Potsdam (Germania)
- 12th EARSeL
Workshop on Imaging
Spectroscopy
www.geoforall.it/kyx46
2022
Data da confermare
Dal 1986 Teorema lavora
a fianco dei professionisti fornendo
la tecnologia topografica più avanzata,
la migliore formazione tecnica,
ed una accurata assistenza post-vendita,
per rendere più affidabile e produttivo
il vostro lavoro.
LEICA BLK360
CATTURA IL MONDO CHE CI CIRCONDA CON
IMMAGINI PANORAMICHE A COLORI SOVRAPPOSTE
AD ACCURATE NUVOLE DI PUNTI.
Facilissimo da usare con la pressione di un solo tasto.
Registra le scansioni e visualizza i dati sul campo
in pochi istanti.
Lo scanner più piccolo e leggero della sua categoria:
165 mm di altezza x 100 mm di diametro.
Nuvole di punti ad alta precisione: 360.000 punti/sec.
con risoluzione personalizzabile.
Rilevazione di immagini termiche con sensore FLIR ® ,
in contemporanea con la scansione delle immagini.
per maggiori informazioni
Contattaci, scoprirai molto di più!
Via A. Romilli, 20/8 - 20139 Milano • Tel. 02 5398739
E-mail: teorema@geomatica.it
www.geomatica.it • www.disto.it • www.termocamere.com
Sede in Italia
Più di 100 distributori nel mondo
Una linea di prodotti Made in Italy
Dove siamo Chiamaci Contaaci
Seguici sui Social
Viale dell’Industria 53
20037, Paderno Dugnano (MI)
Tel. +39 02 78619201
www.stonex.it
info@stonex.it - italia@stonex.it