15.12.2021 Views

GEOmedia_5_2021

La prima rivista italiana di geomatica

La prima rivista italiana di geomatica

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Rivista bimestrale - anno XXV - Numero - 5/2021 - Sped. in abb. postale 70% - Filiale di Roma

TERRITORIO CARTOGRAFIA

GIS

CATASTO

3D

INFORMAZIONE GEOGRAFICA

FOTOGRAMMETRIA

URBANISTICA

EDILIZIA

GNSS

BIM

RILIEVO TOPOGRAFIA

CAD

REMOTE SENSING SPAZIO

WEBGIS

UAV

SMART CITY

AMBIENTE

NETWORKS

LiDAR

BENI CULTURALI

LBS

Set/Ott 2021 anno XXV N°5

Urban

Digital

twin

OLTRE LE SDI:

QUALI PROSPETTIVE

LA SITUAZIONE DELLE

IDT REGIONALI:

PIEMONTE E VENETO

SENSORE SENTERA

6X A BORDO DI UN

PHANTOM 4


Da IDT e INSPIRE alle

DIGITAL TWIN

Quanto la copia digitale dei nostri ecosistemi, in particolare città e territorio, è in grado di

essere utilizzata per produrre previsioni di comportamento in grado di farci conoscere cosa

succederà domani?

È quello che esplorano gli autori del focus L’Urban Digital Twin, l’Incertezza

e l’Osservazione della Terra: il Programma europeo Copernicus, portandoci a considerare

quali siano i termini di incertezza dei risultati previsionali, derivati da modelli in cui i

dati di base utilizzati sono fortemente approssimati. La misura dell’incertezza del dato

di base è uno dei pilastri costituenti la scienza della misura che da sempre accompagna il

rilievo sul campo dei dati geometrici della realtà che ci circonda, ma questa viene spesso

sottovalutata specialmente nell’analisi di grandi moli di dati come quelli rilevati dai

satelliti Copernicus, che, ci ricordano i nostri autori, non sono stati lanciati solamente

per un semplice programma osservativo di monitoraggio satellitare. Le loro priorità

sono le informazioni, anche previsionali, che possono essere rilanciate da piattaforme di

simulazione di fenomeni osservabili.

E quanto affidabili sono oggi le Infrastrutture di Dati Territoriali (IDT), anche

omogeneizzate ed armonizzate nell’ambito del processo avviato dalla direttiva europea

INSPIRE basata sulla interoperabilità delle infrastrutture di dati spaziali creati dagli stati

membri, entrata in vigore nel 2007 e recepita in Italia con il D.Lgs. 32/2010?

È questo l’oggetto dell’indagine avviata con il contributo di Franco Vico Oltre le SDI:

quali prospettive, il quale constata che a 14 anni dall’entrata in vigore di INSPIRE non c’è

un paese dell’Unione Europea che abbia dato piena implementazione in accordo con la

roadmap inizialmente stabilita. Il concetto di SDI (Spatial Data Infrastructure), tradotto

in Italia in IDT, introdotto all’inizio degli anni ’90, oggi subisce, a livello globale, un

dibattito sul suo futuro. L’autore ci illustra le varie posizioni ed è interessante notare che,

nonostante il quadro variato, emergono alcuni punti di convergenza tra le varie posizioni.

Seguendo questo tema vi presentiamo le prime indagini, di una serie che speriamo

possa essere esaustiva a livello nazionale, che inizia con questo numero di GEOmedia

e proseguirà con i successivi, finalizzata a conoscere quale sia la situazione delle varie

strutture regionali dedite alla realizzazione e manutenzione delle IDT, attraverso delle

interviste ai diretti responsabili.

Alcune Regioni ci hanno dato questa disponibilità e vi riportiamo qui le risultanze di

questi incontri eseguiti conducendo interviste ai funzionari che hanno in carico le gestioni

delle SDI, quali Gian

Bartolomeo Siletto, funzionario referente della IDT della Regione Piemonte e Umberto

Trivelloni, Responsabile della IDT della Regione del Veneto.

Un particolare ringraziamento va a Franco Vico che ha realizzato in collaborazione con la

nostra Redazione queste prime interviste.

Buona lettura,

Renzo Carlucci


FOCUS

in qUesto

nUmero...

FocUs

rePort

intervista

l’URBAN DIGITAL

TWIN, l’incertezza e

l’osservazione Della

terra: il Programma

eUroPeo coPernicUs

DI ANDREA TARAMELLI, BERNARDO

DE BERNARDINIS, MARIA VITTORIA

CASTELLANI E SERGIO FARRUGGIA

6

LE RUBRICHE

42 MERCATO

46 AGENDA

18

interviste aD alcUni

resPonsabili Di iDt

regionali: Presente

e ProsPettive

A CURA DI FRANCO VICO

oltre le sDi:

qUali ProsPettive

DI FRANCO VICO

14

In copertina una

immagine che

iconicamente rappresenta

il rapporto tra Urban

Digital Twin e la realtà

urbana. Fonte: ARUP

Report 2019 http://

www.arup.com/

digitaltwinreport

geomediaonline.it

4 GEOmedia n°5-2021

GEOmedia, bimestrale, è la prima rivista italiana di geomatica.

Da più di 20 anni pubblica argomenti collegati alle tecnologie dei

processi di acquisizione, analisi e interpretazione dei dati,

in particolare strumentali, relativi alla superficie terrestre.

In questo settore GEOmedia affronta temi culturali e tecnologici

per l’operatività degli addetti ai settori dei sistemi informativi

geografici e del catasto, della fotogrammetria e cartografia,

della geodesia e topografia, del telerilevamento aereo e

spaziale, con un approccio tecnico-scientifico e divulgativo.


INSERZIONISTI

26

rilievo Digitale

Di aree Urbane

DI MARCO SANTONI,

FLAVIA BORGIOLI

Catalyst 25

Codevintec 37

Datronix 48

Epsilon 43

ESRI 41

Geomax 45

GIS3W 12

Gter 24

Planetek Italia 13

Stonex 47

integrazione Di Un

sensore sentera 6X

30


Teorema 46

a borDo Di Un Drone

Phantom 4. Una

sPerimentazione in

camPo archeologico

DI LAURA EBANISTA,

ALESSANDRO MARIA JAIA,

ANDREA POMPILI

38

sistemi Di

Posizionamento,

navigazione e

sincronizzazione

alternativi ai gnss

DI MARCO LISI

Nello sfondo Cancún, Messico

(14 novembre 2021)

- Cancún, che è situata nel

Quintana Roo sulla costa

nord orientale della penisola

messicana dello Yucatán, è

mostrata in questa immagine

catturata dalla missione Copernicus

Sentinel-2.

La posizione di Cancún sul

Mar dei Caraibi, il suo clima

tropicale ed il suo allineamento

di spiagge hanno fatto della

città e della Riviera Maya (a

sud di Cancún) una delle più

importanti mete turistiche del

Messico. In questa immagine,

acquisita il 16 aprile 2021,

la città nascosta dalle nubi è

visibile nell’angolo in basso

a destra. L’Aeroporto Internazionale

di Cancún, il secondo

aeroporto più trafficato del

Messico, è posizionato 20km

circa a sud della città.

La zona di villeggiatura di

Cancún, visibile appena al

largo della costa, appare

di una forma che ricorda il

numero sette ed è lunga circa

22km. L’isola è separata

dalla città dalla laguna di

Nichupté, ma ad ogni suo

estremo è collegata attraverso

una strada sopraelevata. Gran

parte dell’industria turistica

è concentrata nell’isola di

Cancún con le sue spiagge

che si affacciano sui Caraibi.

(Fonte: ESA - Image of the

week: "Cancún, Mexico".

Traduzione: Gianluca Pititto)

una pubblicazione

Science & Technology Communication

GEOmedia, la prima rivista italiana di geomatica.

ISSN 1128-8132

Reg. Trib. di Roma N° 243/2003 del 14.05.03

Direttore

RENZO CARLUCCI, direttore@rivistageomedia.it

Comitato editoriale

Vyron Antoniou, Fabrizio Bernardini, Mario Caporale,

Roberto Capua, Luigi Colombo, Mattia Crespi, Luigi Di

Prinzio, Michele Dussi, Michele Fasolo, Marco Lisi, Flavio

Lupia, Luigi Mundula, Beniamino Murgante, Aldo Riggio,

Mauro Salvemini, Attilio Selvini, Donato Tufillaro

Direttore Responsabile

FULVIO BERNARDINI, fbernardini@rivistageomedia.it

Redazione

VALERIO CARLUCCI, GIANLUCA PITITTO,

redazione@rivistageomedia.it

Diffusione e Amministrazione

TATIANA IASILLO, diffusione@rivistageomedia.it

Progetto grafico e impaginazione

DANIELE CARLUCCI, dcarlucci@rivistageomedia.it

Editore

MediaGEO soc. coop.

Via Palestro, 95 00185 Roma

Tel. 06.64871209 - Fax. 06.62209510

info@rivistageomedia.it

Stampa: System Graphics Srl

Via di Torre Santa Anastasia 61 00134 Roma

Condizioni di abbonamento

La quota annuale di abbonamento alla rivista Science è di € & 45,00. Technology Communication

Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di

ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa.

L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita

revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza

dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo.

La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti.

Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta

dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere

richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo.

Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la

riproduzione anche parziale del contenuto di questo numero della Rivista in

qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i

sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore.

Rivista fondata da Domenico Santarsiero.

Numero chiuso in redazione il 20 novembre 2021.


FOCUS

L’“Urban Digital Twin”, l’Incertezza

e l’Osservazione della Terra:

il Programma europeo Copernicus

di Andrea Taramelli, Bernardo De Bernardinis, Maria Vittoria Castellani e Sergio Farruggia

Con l'avvento

dell'informatica, attraverso

tecnologie e modellazioni

digitali, sentiamo parlare

sempre più di “Digital

Twin” del reale. Tuttavia,

spesso ci dimentichiamo

della necessità di una

solida base di dati ed

informazioni quale quella

offerta da Copernicus

e dell'incertezza che

accompagna tale

Figura 1 - Rappresentazione funzionale del programma Copernicus

approccio

Prima dell’avvento dell’informatica

- e quindi

delle tecnologie binarie

nel mondo scientifico, tecnico

e produttivo - lo strumento

per “comprendere” il reale corrispondeva,

assieme alla sperimentazione,

ai modelli e alle

simulazioni analogiche, fondate

sulla dottrina della misura:

pochi numeri, un pallottoliere

o un regolo calcolatore e grandi

intuizioni.

Con l’avvento del bit e quindi

del byte, l’ambiente e la simulazione

digitale sono diventati

largamente predominanti ed

in moltissimi casi gli unici

possibili, ma al tempo stesso

eccessivamente ingombranti:

sia rispetto ai numeri - ora tanti

-, alla possibilità e potenza

di calcolo sempre maggiori per

produrli, usarli, gestirli e trasformarli

in informazioni; sia

riguardo alle piattaforme per

la rappresentazione, sintetica e

simbolica o anche quasi reale

dei dati e delle informazioni

prodotti.

Digital Twin: “gemello digitale”

della città e del territorio

Nei fatti, l’idea concettuale

di un “sistema gemello” ebbe

origine e conobbe un ampio

sviluppo nell’ambito dei programmi

spaziali degli anni ’60,

sperimentandone la validità in

occasione dell’incidente occorso

alla navicella spaziale Apollo

13 (1970). Il salvataggio degli

astronauti poté avvenire anche

grazie alla disponibilità a terra

di un sistema gemello, riproduzione

identica in tutto e per

tutto, della navicella nello spazio,

attraverso il quale i tecnici

della NASA eseguirono test di

possibili soluzioni, prima di

prendere le decisioni risolutive.

Le soluzioni adottate per realizzare

tali sistemi gemelli sono

progredite di pari passo con

lo sviluppo tecnologico. Alla

fine del secolo scorso e, ancora,

nei primi anni del nuovo

millennio, il concetto è stato

prevalentemente assimilato a

quello di “modello (software)

di simulazione” di un sistema

fisico, messo a punto per studiarne

il comportamento in

fase di progetto.

Il termine “Digital Twin” ha

iniziato ad essere utilizzato

6 GEOmedia n°5-2021


FOCUS

Il modo enfatico con cui parliamo

di “Digital Twin”, trasciall’inizio

decennio appena

conclusosi, per indicare una copia

virtuale di un prodotto

fisico integrata nel sistema di

gestione del ciclo di vita del

prodotto stesso. La comparsa

dell’approccio sistemico

“Industria 4.0” ha favorito lo

sviluppo e la diffusione di tale

tecnica implementativa, stimolando

l’evoluzione del concetto:

l’uso di questo termine è così

diventato familiare con l’affermarsi

di quel paradigma.

La caratteristica saliente del

gemello digitale è la sua sincronizzazione

con l’entità fisica

simulata e la sua capacità di

reagire -continuativamente- ai

mutamenti delle condizioni

operative del gemello fisico,

fornendo prontamente, ad

esempio, indicazioni per la sua

corretta gestione.

Oggi, ambiziosamente e in

modo anche troppo roboante,

quest’approccio lo chiamiamo

“Digital Twin”, tendendo a

sottintendere o a suggerire “of

the real world” quando lo estendiamo

per descrivere, analizzare

e gestire, se non governare, sistemi

“umani” complessi, come

quelli attribuibili alle nostre

città attuali e non solo.

Infatti, negli ultimi anni dello

scorso decennio, sono stati

avviati i primi progetti pilota

di Digital Twin applicati alle

aree urbane. Per le potenzialità

che questo ambito applicativo

esprime e stante lo sviluppo

delle tecnologie utilizzate

(Internet of Things, Artificial

Intelligence, …), il numero

di città dotate di una propria

copia virtuale è destinato sicuramente

a crescere nei prossimi

anni. Il fenomeno sta interessando

sia metropoli, sia città e

-in generale- territori di diversa

estensione.

Tuttavia, occorre cautela nel

proporlo perché, in particolare

quando si fa riferimento ad

Figura 2 - Rappresentazione a diverse scale dell'inquinamento atmosferico

“Internet of things”, ci si limita

ancora a pensare solo ad una

parte del mondo reale, cioè

quella relativa a manufatti,

macchinari, infrastrutture e

sistemi abitativi, produttivi, logistici

e di monitoraggio, controllo

e sorveglianza, ecc., cioè

appunto a “things”. In questo

caso, la realizzazione ed uso di

un “Digital Twin”, più o meno

completo e complesso, ci appare

non solo realizzabile, ma anche

affidabile e gestibile, mentre

è necessario essere coscienti

che la simulazione “of the real

world” è ben più complessa.

Digital Twin: più tecnologia

impone maggiore consapevolezza,

quindi cultura

La recente introduzione delle

tecniche e metodologie legate

all’uso dell’Intelligenza

Artificiale (IA) nell’ambito

della realizzazione ed uso di

“Digital Twin”, ad esempio nella

medicina e chirurgia assistita,

ed i recenti incidenti occorsi

ai Boeing 737, quali esempi di

competizione uomo-macchina

mal gestita, se da una parte ci

incitano giustamente ad andare

avanti, dall’altra ci segnalano

che molte sono ancora le problematiche

irrisolte e gli aspetti

oscuri e i terreni sconosciuti

offerti alla nostra attenzione da

questo approccio.

L’orientamento “Digital Twin”

non può essere ridotto ad una

applicazione di tecnologie, ma

è soprattutto una metodologia

che si avvale di tecnologie delle

telecomunicazioni e informatiche

e per la sua applicazione

alla simulazione del mondo

reale alcuni elementi nontecnologici

sono essenziali,

debbono essere tenuti presenti,

concorrere tra loro e non devono

essere elusi.

Infatti, dato un fenomeno/

processo/evento da “simulare”,

olisticamente o settorialmente,

tali elementi, possono essere

sinteticamente riportati:

alla conoscenza, o quantomeno

ad una ragionevole

ipotesi teorica degli aspetti

fisici, chimici, biologici,

sociali, economici e quanti

altri, ove presenti e significativi,

e delle relazioni tra

essi esistenti;

al monitoraggio delle grandezze

ritenute significative

per descrivere il fenomeno,

il suo manifestarsi e svilupparsi;

alla conservazione e la disponibilità

dei risultati di

tale monitoraggio e delle conoscenze

sviluppate e verificate

al succedersi e ripetersi

nel tempo di tale fenomeno.

GEOmedia n°5-2021 7


FOCUS

nati altresì dall’entusiasmo per

uno sviluppo infrastrutturale

e tecnologico assolutamente

necessario, in particolare nel

nostro Paese, dove il divario digitale

e quello anche sociale ed

economico tra le aree interne

e rurali e quelle urbane, è più

che significativo, diciamo pure

inaccettabile, ci fa dimenticare

l’infinita complessità e gli infiniti

gradi di libertà con cui

il mondo è reale e come tale si

manifesta.

Siamo assertivi. Se non annunciamo

“domani pioverà”

comunque affermiamo che

“domani è prevista pioggia”,

ma certamente non diremo

che “domani è prevista un’alta

probabilità che piova”. Siamo

troppo sicuri della nostra “simulazione

del mondo reale”,

mentre “l’incertezza” accompagna

e permea il nostro essere

parte di questo mondo e ci

impone delle “scelte” ad ogni

istante.

Vale la pena ricordare che lo

stesso bit se rappresenta l’unità

elementare di informazione, è

anche la misura della probabilità

tanto di successo che di

insuccesso come nel caso del

lancio di una moneta, pari a

0.5, quando la quantità di “incertezza”

è massima.

Quindi il nostro “Digital

Twin”, pur nella certezza dei

suoi bit, è intrinsecamente permeato

da una incertezza, animata

da ciò che non conosciamo,

né rileviamo, che è e deve

essere oggetto di un nostro

impegno, se non nel misurarla

esattamente, almeno nel percepirla

e possibilmente stimarla.

Il ruolo del Programma

Copernicus

Il Programma europeo di

Osservazione della Terra

Copernicus, attraverso le sue

infrastrutture e servizi rappresenta

una tra le più estese

ed avanzate fonti di dati e

informazioni per realizzazioni

di “Digital Twin” di alcune

parti del mondo reale, relative

all’ambiente terrestre e marino,

ai territori che vi sono immersi,

vi partecipano e che ne fanno

uso. Il Programma stesso vanta

applicazioni avanzate della

metodologia “Digital Twin” a

diverse scale temporali e spaziali,

cioè da quella del tempo

reale a quella dei cambiamenti

climatici, da quelle globale

ed europea a quelle urbana

del giardino pubblico e rurale

dell’appezzamento coltivato.

Infatti, Copernicus non è un

Programma semplicemente

osservativo di monitoraggio

satellitare, ma la sua priorità

Figura 3 - Andamento temporale del NO2 per la città di Milano: gennaio – aprile 2020

sono le informazioni, anche

previsionali, prodotte da servizi

che usano le osservazioni per

alimentare piattaforme simulative,

“Digital Twin”, di fenomeni/processi/eventi

osservati

e/o da osservare.

Il Programma, infatti presenta

ben tre Componenti strettamente

connesse tra loro: le

prime due relative ai servizi

dedicati ai dati rispettivamente

osservativi spaziali e quelli in

situ; la terza, relativa ai servizi

applicativi che producono le

informazioni per le finalità

operative dell’utente finale, sia

esso una istituzione pubblica o

una impresa privata (Figura 1).

Esso rappresenta non solo

una grande sfida per l’Earth

Observation (EO),

per la Geoinformation &

Geomatic (GI) e per le

Information&Comunication

Technology (ICT) e le High

Computing Facilities (HCF)

attraverso, rispettivamente,

la gestione dei Big Data e del

relativo Number Crunching,

ma anche una grande sfida culturale.

Nel fare questo Copernicus è

il primo Programma al mondo

per impegno finanziario,

organizzativo ed operativo nel

monitoraggio ambientale e

dei territori ed è il terzo quale

fornitore di dati ed informazioni,

con un volume di circa

300.000.000 Mbyte giornalieri,

cioè di oltre 30 PBytes al

trimestre, e con oltre 400.000

utenti registrati e fruitori dei

numerosi servizi, offerti liberamente

e gratuitamente a tutti

gli abitanti europei. Infatti, al

di là dei dati satellitari ottenuti

dalle costellazioni di satelliti

del sistema detto Sentinels ed

anche adeguatamente processati

per essere direttamente utilizzabili

in un ambiente GIS,

Copernicus rende disponibili

attraverso i sui sei Core Service,

8 GEOmedia n°5-2021


FOCUS

cioè l’Emergency management,

il Land, il Marine Environment,

l’Atmosphere, il Climate Change

ed il Security, oltre 800 prodotti

di elevatissimo contenuto

informativo, ufficialmente verificati

e validati con cui è possibile

costruire altri ” Digital

Twin” di scenari complessi.

A titolo di esempio, utilizzando

il Copernicus Atmosphere

Monitoring Service (CAMS)

e la piattaforma di interesse

nazionale che da questo si alimenta[1],

si può seguire giornalmente

l’andamento degli

elementi inquinanti, come il

NO2, e dei particolati, come

il PM10, da una scala sinottica

paneuropea ad una scala urbana

(Figura 2.).

Quindi, procedendo così come

fatto da ECMWF [2], responsabile

della implementazione

e della gestione del CAMS, è

possibile ricostruire ed analizzare

gli effetti del “lockdown”

conseguente al Covid-19 relativamente

alla città di Milano,

tra il 3 gennaio ed il 19 Aprile

2020 (Figura 3).

Tale ricostruzione non si basa

solo sui dati osservati ma anche

su modelli simulativi di “downscaling”

sino alla scala urbana.

È quindi il miglior “Digital

Twin” che possiamo ottenere,

già utile a capire e forse a fare

delle scelte, ma certamente

affetto da quella incompletezza

conoscitiva e rappresentativa

ricordata prima e quindi ancora

insoddisfacente nella sua

rappresentazione del mondo

reale.

Figura 4 - Confronto valori misurati e simulati del livello delle acque, in condizione

di marea normale

genza Artificiale (IA), ci consente

di migliorare la rappresentazione

della realtà.

I dati nei domini spettrale,

temporale e spaziale offrono

possibilità uniche all’IA. Molte

analisi e interpretazioni delle

informazioni sono ancora

eseguite operativamente da

analisti di immagini. Tuttavia,

alcune tecniche per automatizzare

il processo di analisi

stanno avanzando grazie all’inclusione

dell’IA nella progettazione

della maggior parte delle

applicazioni di Digital Twin.

Vengono, infatti, proposte

tecniche ormai classiche di apprendimento

automatico, dalle

reti neurali alle regole Fuzzy

ed agli algoritmi di Support

Vector Machine, nonché nuovi

approcci di Deep Learning per

affrontare i problemi di modellistica

più impegnativi. Ciò

consente anche l’inclusione

continua di input diversi e lo

sfruttamento della capacità di

affinamento per approssimazioni

successive, necessari per

raggiungere lo sviluppo del

Digital Twin. I risultati di questa

attività sono quindi elaborati

ed integrati nello sviluppo

Digital Twin Earth attraverso

l’uso di approcci qualitativi o

semiquantitativi che esplorano

valori e modelli separati, come

IA e saggezza:

convergenza cognitiva

Tuttavia, il riconoscimento

dell’incertezza ci può offrire un

punto di vista diverso, ben rappresentato

dalla “teoria degli

insiemi fuzzy” o “logica fuzzy”

che, correttamente accoppiata

alle metodologie dell’Intellila

mappatura cognitiva fuzzy

ottenibile attraverso la mappatura

delle misure (Bozzeda,

F., 2013) [3], la mappatura

cognitiva (Eden, Colin., 2004)

[4] e la mappatura concettuale

(Baja, S., Chapman, D.

M., & Dragovich, D., 2002)

[5]. Sviluppo di un approccio

congiunto fuzzy-Bayesiano

per l’analisi e la modellizzazione

degli ecosistemi: applicazione

ad ecosistemi marini

costieri.- http://amsdottorato.

unibo.it/5225/#), la mappatura

cognitiva (Eden, Colin.

“Analyzing cognitive maps to

help structure issues or problems.”

European Journal of

Operational Research 159.3

(2004): 673-686.) e la mappatura

concettuale (Baja,

S., Chapman, D. M., &

Dragovich, D. (2002). A conceptual

model for defining and

assessing land management

units using a fuzzy modeling

approach in GIS environment.

Environmental management,

29(5), 647-661.). L’approccio

adottato consiste in una sequenza

di fasi, in cui singoli

elementi o prodotti separati

dell’intero modello della gestione

sostenibile degli eventi

estremi in fascia costiera,

vengono sviluppati in modo

relativamente indipendente

GEOmedia n°5-2021 9


FOCUS

e con tempi diversi, per consentire

un’ampia integrazione

(Taramelli et al., 2017). I risultati

possono:

estendere set di dati e variabili

coinvolte nella modellazione

dei processi descritti

nei casi applicativi,

mappare i parametri in base

al tipo di parametro e alle

regioni geografiche in cui

viene applicato.

Un esempio particolarmente

significativo è quello relativo

alla simulazione degli eventi

mareali estremi che interessano

Venezia, per i quali, altresì,

sono disponibili consistenti

serie storiche di misure mareografiche

delle variazioni medie

del livello del mare in più siti

lagunari e non.

Bellafiore e Umgiesser

(Venezia, CNR, 2012) hanno

stabilito che gli eventi di acqua

alta nella laguna di Venezia

dipendono da diversi fattori,

-anche locali- e l’applicazione

dell’approccio precedentemente

e sommariamente illustrato

sopra ci permette di farne

emergere le possibili conseguenze.

Le simulazioni fatte si basano

su 10 anni di dati (dal 2000 al

2010) e tengono conto delle

Figura 5 - Confronto valori misurati e simulati di dislivello delle acque, in condizione

di marea estrema

maree effettive, delle maree

astronomiche, delle altezze

delle onde, della direzione e

della velocità del vento, nonché

della pressione atmosferica,

simulate attraverso misure ogni

10 minuti. Esse utilizzano un

semplice modello di Fuzzy-

Bayes [6] (Taramelli et al.,

2017), in cui la struttura del

modello fisico è nascosta nei

dati che vengono utilizzati per

la stima.

Una prima simulazione a cui si

riferisce la figura 4, è relativa

ad una marea normale e nulla

emerge di particolarmente

anomalo, se non una buona

qualità della simulazione stessa.

Invece, in una seconda simulazione,

relativa ad un evento

estremo in cui il livello dell’acqua

alta raggiunge 1,6 metri al

di sopra dell’altezza di marea

media, così come calcolata

rispetto all’insieme di tutti i

dati utilizzati con un approccio

fuzzy-bayesiano, viene identificata

una potenziale biforcazione

dell’andamento di marea

a cui seguirebbe un regime

di marea più alta e quindi un

ritorno a regimi di marea più

bassa, non evidenziabile attraverso

altri approcci simulativi

(Figura 5.).

Tuttavia, ancora più complesso,

e quindi ancor più

affetto da incertezza, resta

l’utilizzo di quanto prodotto

da Copernicus, per alimentare

piattaforma simulative “Digital

Twin” in grado di costruire ed

integrare, anche in combinazione

tra loro, scenari multipli,

destinati ad esempio a valutare

il quadro complessivo dei costi

e benefici conseguenti a diverse

sorgenti di rischio ed alle possibili

azioni di contrasto per

contenerne e/o mitigarne gli

effetti.

Ciò diventa ancor più arduo se

ci riferiamo ad ambienti urbani

in cui le dinamiche sociali

e della vita quotidiana sono

“regolate” tanto da una ordinarietà,

quanto da grandi eventi,

anche eccezionali o considerabili

tali, non solo di origine

naturale, come potrebbero

essere un grande concerto, una

partita di calcio o un evento

fieristico di rilevanza.

Per le finalità della Protezione

Civile Nazionale, il Centro

Internazionale in Monitoraggio

Ambientale (Fondazione

CIMA) ha concorso allo

sviluppo della piattaforma

RASOR [7], alimentata con

dati e informazioni rese disponibili

tanto dal Copernicus

Emergency Management

Service (CEMS), gestita dal

Joint Research Centre (JRC)

europeo, quanto dagli altri Core

Services e destinata a costruire

scenari di rischio, attesi o in

essere, assieme ai conseguenti

scenari di danno. La piattaforma

si applica ad eventi estremi

complessi, senza o con interventi

di mitigazione, tenendo

altresì conto degli scenari di

cambiamento climatico, ma

è utilizzabile in tempo reale e

può integrare altre informazioni

di diversa natura e origine,

come quelle prodotte dagli abitanti

attraverso i media.

Un buon esempio, seppur

10 GEOmedia n°5-2021


FOCUS

limitato ad un evento di sola

origine naturale è l’applicazione

di RASOR ad un caso

idrometeorologico estremo che

ha colpito la città di Genova,

alluvionandola con significativi

danni a persone e beni, e la

simulazione degli effetti della

realizzazione di possibile mitigazione

conseguenti alla realizzazione

del canale scolmatore

del Torrente Bisagno, intervento

infrastrutturale ad oggi non

ancora realizzato (Figura 6).

Anche in questo caso, ove si

vogliano tenere in conto e simulare

i comportamenti umani

e sociali, un approccio cognitivo

e Fuzzy potrebbe essere

utilizzato, non solo utilizzando

dati ed informazioni statistiche

disponibili, ma anche quelli

ottenibili attraverso metodi

di rilevamento e analisi della

messaggistica social, oppure attraverso

indagini di campo mirate,

come nel caso dell’analisi

della percezione e dell’accettabilità

dell’implementazione

delle “Green Infrastructure”,

definite dall’UE nel 2013, da

parte della Comunità agricola

nazionale.

Copernicus ed i “Digital

Twin” in un futuro europeo

molto prossimo

Copernicus, altresì, si dimostra

un sistema, non solo abilitante,

ma essenziale per lo sviluppo

di una iniziativa chiave a livello

europeo come “Destination

Earth” che lega tra loro quelle

promosse nell’ambito: (i) del

“Green Deal”, volto al raggiungimento

della neutralità

climatica entro il 2050, (ii)

dell’“European Strategy for

Data“, mirata alla creazione

all’interno dell’UE di una libera

ed accessibile circolazione

di dati ed informazioni, e (iii)

del “Shaping Europe’s digital

future”, destinato tanto a garantire

la transizione digitale in

Figura 6 - Descrizione sinottica della piattaforma RASOR applicata ad un evento idrometeorologico estremo

Europa, quanto a diventare un

modello di riferimento mondiale

per l’economia digitale.

Infatti “Destination Earth”

mira a sviluppare un modello

digitale della Terra, cioè un

Digital Twin, di alta e tale

qualità da essere in grado di

monitorare e simulare eventi

naturali ed attività umane,

nonché di sviluppare e validare

scenari utili:

al raggiungimento degli

obiettivi del Green Deal;

alla protezione delle vite degli

abitanti e dell’economia

dell’UE;

a promuovere, sostenere

e realizzare le politiche

dell’UE;

a consolidare e rinforzare le

capacità e la competitività

tecnologica ed industriale

dell’UE in materia di

“advanced computing, simulation,

modelling, predictive

data analytics ad artificial

intelligence”.

Per il raggiungimento di tali

obiettivi quattro sono i pilastri

a cui l’iniziativa europea

si affida, così come mostrato

nella figura seguente, e non

può non essere ravvisato come

Copernicus, non solo ne faccia

parte integrante, ma ne sia

stato un prodomo nella sua

architettura istituzionale, funzionale

ed operativa, nonché

nello sviluppo di ciascuna delle

sue componenti e delle azioni

poste in essere.

Conclusioni e raccomandazioni

finali

In conclusione, l’approccio

“Digital Twin” è tra noi da

tempo, ma forse non ne eravamo

coscienti e oggi ci rende

disponibili informazioni ancora

impensabili in un non

lontanissimo passato, consegnandoci,

tuttavia, anche la

responsabilità della gestione

dell’incertezza che le accompagna.

La sua utilità, ma anche i

suoi limiti, sono emersi dalla

necessità e/o dalla volontà di

simulare, fronteggiare e gestire

scenari, significativamente più

incerti e sfumati, di quelli pro-

GEOmedia n°5-2021 11


FOCUS

NOTE

[1] La piattaforma è stata sviluppata nell’ambito di un Accordo

ASI-ISPRA con il concorso di alcune Agenzie del Sistema Nazionale

per la Protezione dell’Ambiente (SNPA)

[2] European Centre for Medium range Weather Forecast (EC-

MWF).

[3] Bozzeda, F. (2013). Sviluppo di un approccio congiunto

fuzzy-Bayesiano per l’analisi e la modellizzazione degli ecosistemi:

applicazione ad ecosistemi marini costieri.- http://amsdottorato.

unibo.it/5225/#

[4] Eden, Colin. “Analyzing cognitive maps to help structure

issues or problems.” European Journal of Operational Research

159.3 (2004): 673-686.

[5] Baja, S., Chapman, D. M., & Dragovich, D. (2002). A conceptual

model for defining and assessing land management units

using a fuzzy modeling approach in GIS environment. Environmental

management, 29(5), 647-661.

[6] Taramelli, A., Valentini, E., Cornacchia, L., & Bozzeda, F.

(2017). A hybrid power law approach for spatial and temporal

pattern analysis of salt marsh evolution. Journal of Coastal Research,

(77), 62-72.

[7] La piattaforma RASOR (Rapid Analysis and Spatialization

Of Risk) è stata sviluppata dalla Fondazione CIMA, le, assieme

ad altri soggetti nazionali ed europei, nell'ambito del Programma

europeo FP7 Copernicus (www.rasor-project.eu)

Figura 7 - Descrizione schematica dell’iniziativa europea “Destination Earth”

posti dal “mondo delle cose”

e di farlo anche a livello di

dettaglio e particolare, pur

conservandone la complessità

e generalità della rappresentazione.

Infine, la disponibilità di un

“gemello digitale” del reale

ci lascia con alcune questioni

non secondarie a partire da

quella di come comunicare

all’utente finale, assieme alle

indubbie positività offerte

dal suo impiego, anche l’esistenza

dell’incertezza che

ineludibilmente lo accompagna

ed affligge, e, in particolare,

di come farlo verso la

Pubblica Amministrazione,

convincendola ad introdurre

l’uso di tale metodologia nei

propri processi tanto amministrativi

quanto decisionali,

nonchè ad avvalersi di nuovi

profili professionali non solo

tecnologici, ma anche gestionali,

e ad accettare di essere

informata, formata ed addestrata

a tal fine.

Tutto ciò richiede un grande

dispiegamento oltre che di

competenze, conoscitive,

gestionali, di risorse tecnologiche,

infrastrutturali,

ma anche, se non soprattutto,

umane e finanziarie

così come il Programma

Copernicus continua a dimostrarci

a livello non solo

europeo.

PAROLE CHIAVE

Digital twin; copernicus; monitoraggio; servizi;

incertezza

ABSTRACT

The "digital twins" applied to cities and territories -as well as to

their inhabitants- are already a reality and also at our disposal

for the future. Therefore, being creators and/or beneficiaries of

these artifacts, we all must learn to live with them. In fact, the

increasing complexity of our living conditions and of the knowledge

and technologies needed and used to deal with it, requires

us to consider uncertainty unavoidable. We have to be aware of

it and relate to it responsibly, particularly when we make use of

the impressive amount of information that Earth Observation

programs, such as Copernicus, produce and make available to us.

AUTORE

Andrea Taramelli

andrea.taramelli@isprambiente.it

Delegato Nazionale al Committee e allo User Forum

europei di Copernicus

Bernardo De Bernardinis

bdb.posta@gmail.com

Maria Vittoria Castellani

maria.castellani@isprambiente.it

Coordinamento Nazionale della Copernicus Academy

Sergio Farruggia

sergio.farruggia@statigeneralinnovazione.it

Stati Generali dell'Innovazione

12 GEOmedia n°5-2021


FOCUS

GEOmedia n°5-2021 13


REPORT

Oltre le SDI: quali prospettive

di Franco Vico

Il concetto di SDI è stato

introdotto all’inizio degli anni ‘90:

oggi è in corso, a livello globale,

un dibattito sul suo futuro. Le

ipotesi sono varie, e sono stati

proposti anche nomi diversi. Non

ostante il quadro frastagliato che

emerge, in parte contraddittorio,

in parte semplicemente vago,

sono individuabili alcuni punti di

Fig. 1 – La Geospatial infrastructure secondo Dangermont (fonte: https://www.youtube.com/watc

h?v=MvyOQoiHAqU&list=PLaPDDLTCmy4YwK56yHaEdtRgNUoPBiZTz&index=3&t=0s

convergenza tra le varie posizioni.

Il concetto di Spatial Data

Infrastructure è stato

definito per la prima volta

in una sede istituzionale nel

1994 negli USA, più di un

quarto di secolo fa. Oggi appare

un po’ appannato.

EUROGI: Beyond spatial

data infrastructures

Nel maggio 2020 EUROGI

ha promosso una iniziativa

intitolata “Beyond spatial data

infrastructures” mettendo

insieme 16 persone di spicco

nel mondo dell’informazione

geospaziale a livello globale, a

cui ha chiesto una pagina di

riflessioni sulle prospettive.

Questa prima fase si è chiusa

con un webinar. Nel maggio

2021 EUROGI ha organizzato

un secondo webinar sullo stesso

tema.

Le opinioni presentate in

queste sedi sono state piuttosto

varie, salvo che su un punto: è

necessario cambiare, innovare…

Intervenendo al webinar

EUROGI del 2020, il

presidente di OGC, Bart de

Lathouwer, ha notato che OGC

non ha mai pubblicato un

documento con SDI nel titolo,

anche se ha messo a punto i

building blocks delle SDI. Ora

però OGC “is actively seeking

... to further shape the future of

SDIs in its Concept Development

Study Modernizing SDI”.

Tra gli esperti invitati c’era Ed

Parson, che spesso si assume il

compito, a nome di Google,

di “evangelise geospatial data”.

Parson afferma che le SDI

sono morte, anzi non sono

mai realmente nate. Una

provocazione certo, che però ha

un fondamento di verità.

La suggestione di Parson è

“to take a more conventional

web based approcch”. Il suo

riferimento è un documento

intitolato Spatial Data on the

web Best Practices., prodotto da

un gruppo di lavoro congiunto

OGC-W3C, rilasciato nel

2017, che forse è restato un po’

ignorato. L’idea è appunto il

superamento delle SDI verso

qualcosa di meno strutturato: i

dati spaziali sono immersi nel

web, loosly coupled...

Altri partecipanti alle iniziative

EUROGI 2020 e 2021 hanno

espresso più o meno la stessa

opinione (nessun altro però ha

fatto esplicito riferimento al

documento OGC-W3C 2017).

La domanda è: questo

approccio può essere efficiente

ed efficace per la ricerca e

concreto riuso dei dati spaziali?

E c’è la questione della

interoperabilità, in particolare

per l’interoperabilità semantica:

a meno di modelli dati

dichiarati, almeno compatibili

se non standardizzati, un

effettivo riutilizzo dei dati mi

sembra impossibile.

Tornando al Documento

OGC-W3C: “The key problems

... are discoverability, accessibility

and interoperability. Our

overarching goal is to enable

spatial data to be integrated

within the wider Web of data;

providing standard patterns and

solutions that help solve these

14 GEOmedia n°5-2021


REPORT

problems” (OGC-W3C 2017,

p. 1). Il documento OGC-

W3C è certamente interessante:

è scritto in modo piuttosto

diverso rispetto ai documenti

INSPIRE (per inciso, non viene

mai citato INSPIRE); tocca

anche aspetti molto pratici (ad

es. differenti rappresentazioni

dello stesso oggetto…). L’enfasi

è sul web; ma ovviamente,

senza web, le SDI non possono

esistere. Questo documento

non è stato aggiornato dopo

il 2017, ma c’è, tuttora attivo,

un Interest Group. È difficile

però valutare quanto questa

iniziativa congiunta di OGC e

W3C (due soggetti certo non

irrilevanti nel mondo del web e

dell'informazione geospaziale)

abbia avuto influenze pratiche:

io non ho trovato riscontri,

commenti...

Geospatial infrastructure,

Geospatial Knowledge

Infrastructure

L’idea che sta emergendo con

più forza è una evoluzione del

concetto di SDI verso quello

di una infrastruttura che non

sia solo fatta di dati. Nel luglio

2020 nella plenaria di apertura

della User Conferenze ESRI,

Dangermond ha tratteggiato

la sua vision, nella quale

ha un ruolo importante la

Geospatial Infrastructure. La

Fig. 1 rappresenta questa vision.

L’eliminazione del termine data

corrisponde all’idea di andare

oltre la SDI data-centric. L’idea

è che, nell’infrastruttura, le

“GIS capabilities are becoming

embedded” e che ci saranno

le app che devono fornire

un “frictionless access” alla

conoscenza geospaziale.

Questi concetti espressi

da Dangermon sono stati

proposti anche da altri, in

contesti diversi e magari con

termini diversi. Non va nella

stessa direzione anche, ad es.,

Fig. 2 - Il rapporto tra urban digital twin e realtà urbana, rappresentato iconicamente da ARUP

(fonte: ARUP 2019, p. 20)

l’idea delle DIAS (Data and

Information Access Services)

proposta dal progetto europeo

Copernicus?

Nella stessa direzione è andata,

nel febbraio di quest’anno,

il Geospatial Knowledge

Infrastructure Summit,

una conferenza virtuale

veramente globale (https://

geospatialmedia.net). I punti

chiave sono stati: non raw

data ma “knowledge services

on demand“, la creazione

di un geospatial ecosystem

focalizzato sui servizi e sulla

domanda degli utenti, basato

su open data, open tools per

l’analisi e la visualizzazione,

e sul partenariato pubblicoprivato.

La Fig. 3 rappresenta

la piramide Dati-Informazione-

Conoscenza della Geospatial

Knowledge Infrastructure.

Geospatial Infrastrucure e

Digital Twin

Nel suo intervento di pochi

minuti, in apertura della

Conferenza ESRI Italia 2021,

Dangermon cita 6 volte il

termine “digital twin”. L’idea del

DT, nella sostanza, non è nuova

e si può far risalire alle missioni

spaziali americane degli anni

‘60-’70. In particolare, nel

caso dell’Apollo 13 nel 970,

la disponibilità di un modello

digitale della navicella fu

decisivo per salvare i tre uomini

di equipaggio, dopo una

esplosione a bordo, simulando

le diverse manovre da fare

e inviando all’equipaggio le

indicazioni necessarie.

L’uso, per la prima volta,

del termine “digital twin” è

attribuito a Michael Grieves,

nel 2003: nella diffusione

del concetto ha certamente

avuto un ruolo un nome

così suggestivo. Negli anni

più recenti, generalizzando

la pratica che si era andata

diffondendo nel mondo

industriale, il concetto DT è

stato anche applicato a temi

che hanno una dimensione

spaziale. Un esempio pratico

molto chiaro riguarda le

infrastruttura a rete, in cui il

DT integra informazioni di

GEOmedia n°5-2021 15


REPORT

Fig. 3 - La piramide Dati-Informazione-Conoscenza della Geospatial Knowledge Infrastructure

(fonte: Geospatial World media+communication, United Nation Statistic Division 2021, p. 10).

fonti molto diverse, relative alle

localizzazione della reti, alle

caratteristiche degli impianti...,

con informazioni provenienti

da sensori, con tools per la

simulazione dei flussi e degli

effetti di eventi imprevisti,

per la gestione della azioni

di manutenzione e la loro

previsione, per la visualizzazione

e la comunicazione…

Le parole chiave sono

quindi: integrazione di dati,

modellazione, simulazione,

comunicazione. Ampliando

gli ambiti di applicazione, con

riferimento alla dimensioni

complessive di territori, si parla

di urban digital twin (UDT),

ma anche di National DT e di

Earth DT.

Nell’implementazione del

concetto di UDT, il punto

è ancora usare e integrare

efficacemente le informazioni

esistenti, cioè alla base ci sono

i pilastri delle SDI: riuso dei

dati, interoperabilità (e quindi

standard).

Ciò, oggi, è ampiamente

riconosciuto. Il titolo della

recente conferenza Geospatial

Worls Forun 2021 (ad

Amsterdam, a ottobre) è

Geospatial Infrastrucure &

Digital Twin.

Ed è stato pubblicato su

GW weekly del 19 Aprile

2021, un editoriale intitolato

“Geospatial Infrastructure. A

Prerequisite for Efficient Digital

Twins”: esattamente quello che

sostengo.

In alcuni esempi di UDT

che ho visto, c’è una forte

enfasi sulla forma fisica della

città, con la creazione di

visualizzazioni 3D dello spazio

urbano, più o meno realistiche,

navigabili… Ciò avvicina

UDT al Building Information

Modeling (BIM). La Fig. 2

rappresenta in modo iconico

il rapporto tra realtà urbana e

UDT. Il risultato è certamente

d’effetto, ma è chiaro che una

città è di più degli edifici e

degli spazi urbani: una città è

la somma e l’interazione delle

persone che in essa risiedono,

lavorano, passano (per i più

svariati motivi), delle attività

economiche che si svolgono,

del come le persone e le merci

si muovono… Se si considera

tutto questo il nesso UDT SDI

diventa determinante: la SDI

è il core del UDT, e il UDT

fa crescere l’importanza della

infrastruttura di dati.

E INSPIRE?

Come detto, nel documento

OGC-W3C il termine

INSPIRE non è citato. Ma

INSPIRE, in cui l’Europa e gli

Stati Membri hanno investito

tante risorse, dal 2007 ad

oggi, non è stata richiamata

in nessuno dei vari eventi/

documenti citati sopra.

Ma qual è lo stato di INSPIRE?

Non ho trovato alcuna analisi

recente di soggetti terzi che

dia un quadro. L’ultimo report

ufficiale di monitoraggio,

annuale, previsto dalla stessa

Direttiva INSPIRE, è quello

relativo al 2019 (Minghini

2020). La sua caratteristica (il

suo limite) è che è finalizzato

a verificare se e quanto la

macchina INSPIRE funziona

come era stato previsto, e non

se e quanto i suoi output sono

usati e rispondono ai fabbisogni

di informazione geospaziale. Il

rapporto evidenzia che i risultati

sono assolutamente eterogenei

tra i diversi stati (“eterogenei”

è un eufemismo: i numeri che,

ad es. per quanto riguarda il

numero dei dataset presenti, nel

2019, variano da 42 a 42066!),

e ammette che “after 13 years

from the entry into force of the

Directive, there is no single

country which has yet achieved

full implementation according to

the roadmap” (Minghini 2020,

p.1).

A questo punto, all’interno

dello stesso INSPIRE

Maintenance and

Implementation Group

(MIG, a cui partecipano

anche rappresentanti degli

stati membri), è opinione

condivisa che sia necessario

rivedere parecchie cose:

“The current architecture of

INSPIRE is outdated…[Sono

emerse] new data sources and

new technologies... INSPIRE

is often seen as a monolithic

infrastructure with few links to

16 GEOmedia n°5-2021


REPORT

other existing infrastructures

(INSPIRE MIG 2021 a ). La

proposta è di focalizzarsi sui

temi/dataset che possono

portare tangibili benefici alla

definizione delle politiche

prioritarie europee, anzi,

di più, di focalizzarsi su

quei temi/datasets che sono

connessi all’e-Reporting, cioè

in qualche modo sono richiesti

per rispondere a adempimenti

previsti da regolamento o

direttive (INSPIRE MIG

2021b).

Punti di convergenza

Dai documenti, webinar,

conferenze... richiamati qui

sopra, tutti piuttosto recenti,

riguardanti più il futuro che

il presente delle SDI, emerge

un quadro frastagliato, in

parte contraddittorio, in parte

semplicemente vago. Non ci

sono riferimenti ad analisi

sull’effettivo utilizzo delle SDI,

sulla accessibilità e usabilità

dei dati… (questo perché a

mio avviso mancano: è un

limite serio).

In questi contributi c’è una

forte focalizzazione sulla

dimensione tecnologica,

come quasi sempre avviene,

una focalizzazione eccessiva

se consideriamo che nei

processi di implementazione

ed evoluzione delle SDI

(e di quello che verrà) la

dimensione politica, e quella

culturale (formazione e cultura

delle persone) hanno avuto,

e avranno ancora, un ruolo

critico.

Conclusivamente, non ostante

la varietà degli approcci

possono essere individuati

alcuni punti di generale

convergenza.

- I fondamentali delle SDI,

che stanno nell’acronimo,

diventato di uso generale,

FAIR (che sta per Findable,

Accessible, Interoperable,

Reusable), sono tuttora

rilevanti. L’informazione

geospaziale è più importante

che mai, ed è ovunque. E i

fondamentali delle SDI.

- Se tradizionalmente nelle

SDI i provider di dati sono

soggetti pubblici, bisogna

prendere atto che i produttori

di geoinformazione si

sono moltiplicati: non può

essere ignorato il ruolo

dell’informazione geografica

commerciale, prodotta da

soggetti come Google, ma

anche il ruolo ad es. di Open

Street Map, della volunteered

geographic information e

del crowdsourcing, e della

geospatial information

generata dai BigData.

Questa constatazione viene

accettata praticamente da

tutti (INSPIRE incluso), e

porta ad introdurre il termine

geospatial ecosystem (o analoghe

formulazioni) in cui settore

pubblico e i molteplici

soggetti privati interagiscono

sinergicamente.

- Mettere al centro gli

utilizzatori: il geospatial

ecosystem è al servizio di

utilizzatori non immaginari,

con la cui domanda di

informazione geospaziale è

indispensabile interagire.

- Usabilità: non dati ma

informazione, o forse meglio

conoscenza, ovvero “actionable

information” (espressione

molto pragmatica usata da

Nadine Alameh, CEO di

OGC, nel webinar EUROGI

del 25 maggio 2021). Quindi,

accessibilità, interoperabilità,

strumenti.

- Politiche chiare volte a

facilitare l’uso di dati e

strumenti, quindi Open Data

o, più in generale, riferimento

a sistemi di licenze consolidati

(ad es. Creative Commons).

BIBLIOGRAFIA

ARUP (2019), Digital twin. Toward a

meaninful framework, https://www.arup.

com/perspectives/publications/research/

section/digital-twin-towards-a-meaningful-framework

(Retrived: 03-06-2021)

Geospatial World media+communication,

United Nation Statistic Division (2021),

The power of where. Geospatial

knowlegde infrastructure white paper,

https://geospatialmedia.net/pdf/GKI-

White-Paper.pdf (Retrived: 03/06/2021)

INSPIRE MIG (2021a), Action 1.1

Towards a digital ecosystem for the

environment and sustainability, https://

webgate.ec.europa.eu/fpfis/wikis/display/

InspireMIG/Action+1.1+Towards+a+digit

al+ecosystem+for+the+environment+and+

sustainability (Retrieved: 31-05-2021)

INSPIRE MIG (2021b), Action 2.1

Need-driven data prioritisation, https://

webgate.ec.europa.eu/fpfis/wikis/

display/InspireMIG/Action+2.1+Needdriven+data+prioritisation

(Retrieved:

31-05-2021)

Kotsev A. et al. (2020), From Spatial

Data Infrastructures to Data Spaces. A

Technological Perspective on the Evolution

of European SDIs, ISPRS Int. J.

Geo-Inf. 2020, 9, 176, https://www.mdpi.

com/2220-9964/9/3/176 (Retrieved:

31-05-2021)

Minghini M. et. al (2020), Establishing a

new baseline for monitoring the status of

EU Spatial Data Infrastructure, https://

publications.jrc.ec.europa.eu/repository/

handle/JRC122351

OGC-W3C (2017), Spatial Data on the

web Best Practices, https://www.w3.org/

TR/sdw-bp/ (Retrieved: 31-05-2021)

PAROLE CHIAVE

SDI; Geospatial Infrastrucure, Geospatial

Ecosystem, INSPIRE, Urban

Digital Twin

ABSTRACT

The SDI concept was introduced in the

early 90s: today is underway, globally, a

debate on its future.

AUTORE

Franco Vico

Già docente di Analisi GIS per la

pianificazione spaziale al Politecnico

di Torino

e-mail franco.vico@formerfaculty.

polito.it

GEOmedia n°5-2021 17


INTERVISTA

Interviste ad alcuni responsabili

di IDT regionali: presente e

prospettive

a cura di Franco Vico

Le infrastrutture di dati geografici

di livello regionale sono un tassello

fondamentale nel sistema complessivo di

produzione, catalogazione, distribuzione

dell’informazione geografica. Questo lo

pensiamo noi, ma non solo. Questo è

certamente vero in Italia, ma anche, ad

es., in Germania e in altri paesi europei.

Le regioni hanno le capacità finanziarie e

tecniche necessarie, quelle capacità che

spesso mancano ai livelli sotto-ordinati, ad

es. ai comuni. Mentre il livello nazionale è

più lontano dal territorio e ha altri ruoli.

Con questo in mente, abbiamo chiesto

ai responsabili di alcune IDT regionali

di parlarci delle loro esperienze,

presentandole nella loro realtà concreta,

ma confrontandosi anche con i “punti di

convergenza” del dibattito internazionale

sul futuro delle Spatial Data Infrastructure,

individuati nell’articolo che precede.

In questo numero sono pubblicate le

interviste relative alle Regioni Veneto e

Piemonte, nel prossimo saranno presentate

quelle relative ad un paio di altre regioni.

La IDT della Regione

Piemonte: intervista a

Gian Bartolomeo Siletto.

A cura della Redazione

GEOmedia intervista Gian

Bartolomeo Siletto, funzionario

referente della IDT

della Regione Piemonte, che

di formazione è un geologo.

GEOmedia (G):

Cominciamo inquadrando

un po’ l’argomento.

Gian Bartolomeo Siletto

(GS): Vorrei fare alcune

premesse, la prima riguarda

la denominazione.

Noi usiamo il termine

Infrastruttura Geografica

Regionale, così definita

dalla l.r. 21/2017.

L’interfaccia principale con

gli utenti è il Geoportale,

che possiamo dire è la

facciata della IDT, facciata

che ovviamente non sta in

piedi se dietro non c’è un

edificio, fatto di metadati,

dati e servizi. Una seconda

premessa: il Geoportale

è in fase di “ristrutturazione”,

ma ovviamente

questa è una situazione

che si ripresenta ciclicamente.

Fra pochi mesi

avrà una nuova interfaccia

(speriamo più friendly) e

soprattutto un nuovo motore

(GeoNetwork3 più il

nuovo Plugin RNDT).Una

terza premessa è il ruolo

di partner tecnologico e

“compagno di avventure”

del CSI-Piemonte, che gestisce

insieme e per conto

di Regione l’intera piattaforma

geografica.

Vorrei cominciare evidenziando

alcune iniziative

che ritengo punti di forza

della IDT. La prima è la

pubblicazione con un aggiornamento

trimestrale

del DB geotopografico

regionale (BDTRE:

Base Dati Territoriale

di Riferimento degli

Enti), conforme al DM

10/11/2011, che è, come

ovvio, uno dei dataset fondamentali

della IDT. Poi,

la mosaicatura catastale:

qualche anno fa abbiamo

provveduto alla scanneriz-

18 GEOmedia n°5-2021


INTERVISTA

zazione degli originali

d’impianto catastale,

con un progetto in collaborazione

con l’allora

Agenzia del Territorio, i

Collegi dei Geometri e

il Politecnico di Torino,

che ha provveduto alla

determinazione dei

punti in doppie coordinate

e quindi alla

georeferenziazione sia

nel sistema di riferimento

catastale (Cassini-

Soldner) che geografico.

Questo bagaglio di

dati ci ha consentito

in tempi più recenti di

procedere con la mosaicatura

dei dati catastali

aggiornati (ottenuti

tramite il sistema di

interscambio Sigmater)

che ora sono disponibili

sul territorio regionale.

Ovviamente questa mosaicatura

non ha più le

caratteristiche del prodotto

originariamente

distribuito dall’Agenzia,

ma costituisce una fonte

informativa di indubbia

utilità. Il migliore

riposizionamento delle

informazioni catastali e

la successiva mosaicatura

ovviano in parte al

problema di coerenza

tra il catasto e tutte le

fonti geografiche ormai

disponibili.

G: Sul rapporto con gli

utilizzatori della IDT,

quanto li conoscete; e

quanto conoscete gli

utilizzi che vengono fatti

dei dati?

GS: La IDT espone sia

servizi ad accesso autenticato

sia servizi ad

accesso libero. Per ovvi

motivi per questi ultimi,

in particolare per

il Geoportale, non sono

disponibili informazioni

di dettaglio sugli utenti e

sull’utilizzo che essi fanno

dei vari servizi, se non in

forma aggregata (numero

totale di accessi, numero

di chiamate ai geoservizi,

ecc.). In particolare si registrano

circa 5000 visitatori

al mese al Geoportale

e circa 1 milione (generanti

circa 475 GB di traffico

rete) di chiamate al

giorno ai servizi WMS.

Per quanto riguarda

invece gli strumenti ad

accesso autenticato, il

G: Sempre sul rapporto

con gli utilizzatori,

quali azioni avete in

piedi per interagire

con loro e conoscere

meglio gli utilizzi che

fanno dei dati della

IDT?

GS: Conoscere utenti

e utilizzi è sicuramente

un punto di

miglioramento atteso

importante per l’intera

Infrastruttura al fine

di indirizzare la strategia

di aggiornamento

dei dati in relazione

il mantenimento e la

gestione di una IDT

richiede un importante

impegno economico

ma anche di persone

dedicate

principale strumento

è il Plugin Atlante di

QGIS, sviluppato dal

CSI Piemonte, utilizzato

dagli utenti della

PA (oltre la Regione,

Città Metropolitana di

Torino, Città di Torino,

ARPA Piemonte, IPLA

(Istituto regionale per

le Piante da Legno e

l’Ambiente) e altri, per

accedere direttamente ai

dati geografici vettoriali

ufficiali dell’Infrastruttura.

Complessivamente

sono abilitati al servizio

oltre 400 utenti. Per

questi utenti non vengono

raccolte ulteriori

informazioni sull’utilizzo

dei dati.


all’utilizzo degli utenti

stessi. Le azioni per

rendere concrete queste

aspettative risiedono

nel miglioramento

dei tools di controllo e

monitoraggio informatico:

non si prevedono

invece azioni volte a

restringere il perimetro

dei servizi ad accesso

libero.

Per interagire e ricevere

feedback dagli

utilizzatori abbiamo

attivato diversi canali.

C’è un indirizzo mail

dedicato al quale gli

utenti possono indirizzare

le richieste di

chiarimenti e approfondimenti

necessari.

C’è uno strumento per

la segnalazioni di errori

cartografici sul visualizzatore

del Geoportale:

attraverso questo canale

arrivano segnalazioni

più puntuali delle problematiche

specifiche

riscontrate in particolare

sulla BDTRE.

Abbiamo elaborato, con

l’aiuto di uno stagista

di CdL in Ingegneria

Civile del Politecnico di

Torino, un questionario

per misurare la soddisfazione

degli utilizzatori,

per ora sottoposto solo a

un piccolo campione.

G: Introduciamo qualche

aspetto quantitativo,

quanti dataset sono

presenti e quali sono i

più utilizzati (più scaricati)?

GS: Attraverso il catalogo

del Geoportale sono

consultabili circa 1630

metadati (750 di titolarità

di Regione, 240 del

Comune Torino, 209

di Città Metropolitana

di Torino, 150 di

ARPA Piemonte, 280

di altri enti (province

o comuni), sia riferiti

a dataset sia a servizi.

Complessivamente

i dataset scaricabili

sono 595. I servizi

raggiungibili 578,

realizzati secondo gli

standard OGC. Molti

dei metadati presenti

nel Catalogo della

Infrastruttura Regionale

(al momento 937)

sono poi conferiti al

Repertorio Nazionale

dei Dati Territoriali

(RNDT) di AgID,

mediante harvesting periodico.

GEOmedia n°5-2021 19


INTERVISTA

G: Quindi possiamo

dire che la IDT è della

regione Piemonte, con

la r minuscola, e non

solo della Regione, con

le R maiuscola.

GV: Sì, l’intenzione è

proprio quella di costruire

un insieme di dataset

e servizi condivisi, che

poi sono utilizzati da

tutti i soggetti che si

interfacciano con la

PA piemontese. Come

detto i cataloghi di

metadati di Regione,

di Città di Torino, di

ARPA Piemonte e della

Città Metropolitana di

Torino (assieme ad alcune

province e comuni)

sono federati tra di loro

attraverso il protocollo

CSW e a sua volta il

catalogo del Geoportale

è in harvesting sia con

RNDT sia con il portale

Open Data regionale

che conferisce a sua volta

i metadati al Portale

Open data Nazionale.

G: Tra i servizi quali

sono quelli più utilizzati?

GS: Sicuramente la

BDTRe costituisce il

“pacchetto” più ricercato

ed utilizzato. Da sempre

mettiamo a disposizione

la BDTRe in molti

formati (raster allestiti a

diverse scale, vettoriali

in varie forme e servizi

di consultazione WMS

e scarico WFS). Da

sempre assicuriamo la

disponibilità non solo

dell’ultima versione, ma

direttamente anche delle

versioni degli anni precedenti.

Altre informazioni particolarmente

richieste

sono quelle relative al

patrimonio aerofotografico

regionale (ortofoto

e fotogrammi). Infatti

il Settore SITA, assieme

al Settore Geologico di

Regione Piemonte, dispone

e distribuisce i fotogrammi

di quasi 550

voli aerei a partire dagli

anni ‘50 che riguardano

l’intero territorio regionale,

oltre ad altri voli

su aree molto localizzate.

Attualmente il patrimonio

consiste in quasi

230.000 immagini tra

ortofoto e fotogrammi.

G: Veniamo a finanziamento

e gestione della

IDT: i finanziamenti

sono proporzionati

agli obiettivi? Qual è

la struttura di gestione

della IDT?

GS: Le risorse finanziarie

che vanno nella

IDT sono importanti,

una fetta significativa

va all’aggiornamento

della cartografia, un’altra

quota all’aggiornamento

degli strumenti,

oltre che nella gestione

del Geoportale. Non

dimentichiamoci che

il mantenimento e la

gestione di una IDT

richiede un importante

impegno economico

ma anche di persone

dedicate. La gestione

della IDT avviene tramite

il Tavolo Tecnico

di Coordinamento in

cui i rappresentanti delle

istituzioni che concorrono

all’Infrastruttura

Geografica condividono

e orientano gli sviluppi

dell’infrastruttura.

G: Open data: tutti

i dati e i servizi del

Geoportale sono open?

GS: Sì, tutti i dati e i

servizi del Geoportale

sono distribuiti in formato

aperto con licenza

CC-BY 2.5, in graduale

passaggio verso l’ultima

versione 4.0, in accordo

con la Legge Regionale

24/2011 sugli Open

Data. Con questa legge

l'Amministrazione regionale

si vincola ad assicurare

la disponibilità,

la gestione, l'accesso, la

trasmissione, la conservazione

e la fruibilità dei

dati in modalità digitale.

G: Conformità a

INSPIRE: com’è la situazione?

GS: Per quanto riguarda

i metadati, direi che siamo

conformi al 100%,

dal momento che il

profilo di metadatazione

INSPIRE è contenuto

entro il profilo nazionale

RNDT e quindi la conformità

a RNDT implica

automaticamente

la conformità al profilo

INSPIRE. Ci sono alcuni

aspetti da perfezionare

a causa della recente

evoluzione delle regole

tecniche nazionali, ma

sicuramente in vista

dell’annuale monitoraggio

INSPIRE previsto

per la metà di dicembre

2021, saremo pronti e

conformi.

Anche per quanto riguarda

i servizi esposti

(WMS e WFS) la conformità

ad INSPIRE è

garantita, dal momento

che sono adottate le

regole di produzione di

OGC.

Per quanto riguarda

invece la conformità

dei dataset alle specifiche

dei dati, solo pochi

sono conformi alle Data

Specification INSPIRE

(ad es. Aree Protette).

Occorre però tener

conto che per quanto

riguarda i dati di base,

la BDTRE è conforme

alle specifiche nazionali,

e quindi il problema

della conformità di

questo tipo di informazione

è sicuramente una

questione che riguarda

teoricamente tutta la

produzione nazionale

ed è proprio in una sede

nazionale che dovrebbe

essere affrontato il problema.

G: Tools di analisi, visualizzazione…utili

per

rendere più facile ed

efficiente l’uso dell’informazione

geografica

della IDT, qual è la situazione?

GS: Beh, il Geoportale

fa tutto quello che ci

si aspetta da un geoportale:

servizi di

ricerca (dei metadati),

visualizzazione (attraverso

servizi) e scarico

(del dataset). Ecco

dunque il Catalogo, il

Visualizzatore e i servizi

di scarico diretto o attraverso

servizio WFS.

Nel Geoportale ci sono

anche altri servizi utili,

come uno strumento

di geocoding massivo

basato sullo stradario

regionale e il servizio di

accesso alla rete interregionale

di stazioni permanenti

GNSS (SPIN3

GNSS) che integra le

stazioni di Piemonte,

20 GEOmedia n°5-2021


INTERVISTA

Lombardia e Valle d’Aosta

e fornisce un servizio

di posizionamento di

precisione, e contribuisce

quindi alla diffusione

delle coordinate nel

sistema di riferimento

ufficiale.

Recentemente è stato

attivato anche un utilissimo

strumento di

consultazione di tutto il

patrimonio di immagini

satellitari del Progetto

Copernicus della

Commissione Europea,

con la possibilità di

consultare alcuni indici,

come NDVI, NBR,

EVI, derivati dalle immagini

multispettrali

Sentinel-2 a partire dal

2017.

G: Nel dibattito internazionale

è spesso

richiamato il concetto

di Geospatial

Ecosystem, cioè l’idea

dell’integrazione non

solo tra le diverse fonti

pubbliche ma anche

con fonti private (gestionali

o commerciali),

con dati provenienti da

crowdsourcing…: è una

prospettiva praticabile?

GS: Il concetto ci è

ben chiaro. Al momento

abbiamo definito

alcuni accordi (con il

Collegio dei Geometri,

il Corpo Nazionale

del Soccorso Alpino

e Speleologico…) e

abbiamo in animo di

definirne altri. Secondo

noi il processo di confronto

con il mondo

del VGI è sicuramente

da intraprendere,

ma occorre avere ben

presente il ruolo della

informazione geografica

prodotta dalla Pubblica

Amministrazione, sulla

base della quale vengono

istruiti procedimenti

amministrativi che hanno

impatto sulla vita dei

cittadini, e che quindi

deve in qualche modo

essere “certificata”. E’

fondamentale inoltre

porre una grande un’attenzione

sugli obblighi

giuridici che hanno l’utilizzo

e l’integrazione di

fonti informative diverse

(leggi licenze). Adelante,

con juicio!

PAROLE CHIAVE

SDI; inspire; geospatial; IDT; geoportale

ABSTRACT

GEOmedia interviews Gian Bartolomeo

Siletto, geologist, official

representative for the Spatial Data

Infrastructure (IDT) of Pidemont

Region.

AUTORE

Redazione GEOmedia

redazione@rivistageomedia.it

Franco Vico

franco.vico@formerfaculty.polito.it

La IDT-RV 2.0 della

Regione del Veneto

A cura della Redazione

e Franco Vico

Colloquio con Umberto

Trivelloni, Responsabile

della IDT della Regione del

Veneto, Delio Brentan, P.M. per

la parte informatica della IDT,

e Andrea Semenzato Analista

GIS Engineering Ingegneria

Informatica S.p.A.

GEOmedia (G): Per cominciare,

vi presentate come IDT-RV

2.0, che cosa significa?

Regione Veneto (RV): Il significato

di IDT-RV 2.0 è semplicemente

Infrastruttura Dati

Territoriali Regione Veneto, e

2.0 perché ci sembra un passo

in avanti significativo rispetto

a quella rilasciata nel 2011.

Questa versione della SDI regionale

ha logiche innovative

di condivisione del dato (ad es.

editing on line), ma anche una

veste più accattivante con un

massiccio ricorso ai geoportali

tematici.

G: “Mettere al centro gli utilizzatori”

è uno dei punti di

convergenza del dibattito internazionale

sul futuro delle SDI;

che cosa sapete sugli utilizzatori

e sugli utilizzi della IDT?

RV: La nostra politica è per

l’accesso libero, senza necessità

di autenticazione, e tutti i dati

contenuti all’interno del Geoportale

regionale sono in licenza

CC-BY o IODL 2.0.

Gli utenti del portale IDT2, e

che ne utilizzano sia i dati che

i servizi, non vengono censiti;

perciò, non ci è possibile fare

un’analisi precisa sulla tipologia

degli utilizzatori. Però, in base

alle richieste e ai feedback che

arrivano, è possibile suddividere

gli utenti in alcuni gruppi: in

particolare ci sono gli utenti

professionali, tra cui geometri,

architetti ed ingegneri che

realizzano Piani Comunali di

Assetto del Territorio; e studenti

e ricercatori universitari, che

GEOmedia n°5-2021 21


INTERVISTA

utilizzano i dati per attività di

ricerca e formazione.

Tra i fruitori dei dati geografici

ci sono anche grandi multinazionali

come Google, Apple...

che scaricano i dati per realizzare

i loro prodotti, ma anche

molti privati cittadini specialmente

per i dati della aerofototeca

regionale.

G: Avere difficoltà a capire chi

sono gli utenti è una conseguenza

(non voluta) della politica di

apertura. Avete comunque intraprese

azioni per conoscere di

più i vostri utenti?

RV: I feedbak degli utenti vengono

registrati, sia quelli telefonici

che quelli che arrivano via

la email dedicata.

Inoltre, vengono

effettuati più volte

all’anno dei questionari

di gradimento

per raccogliere le

opinioni degli utenti

sui vari servizi.

G: Veniamo ai dati:

dataset presenti, e

dataset più utilizzati.

RV: I dataset presenti nel Geoportale

sono suddivisi in due

macrocategorie.

Dati Geotopografici

(CTRN, DB Geotopografico,

DTM, Dati Lidar,

Fotogrammi Aerei, Punti

geodetici e Capisaldi di livellazione,

ecc);

Dati Ambientali e Territoriali

che a loro volta sono

suddivise per tematiche e

matrici ambientali (aria, acqua,

suolo, vincoli, ecc…).

In particolare, il Geoportale

mette a disposizione per il

download circa 10.000 file tra

elementi e sezioni della Carta

Tecnica Regionale (CTR), in

diversi formati; oltre 1.100

dati relativi ai Modelli Digitali

del Terreno (DTM); circa

8.500 elementi relativi a

Punti geodetici e Capisaldi di

livellazione; e dispone di una

banca dati dell’Aerofototeca

contenente circa 85.000

fotogrammi aerei.

Inoltre, per i dati ambientali e

territoriali, sono disponibili per

il download oltre 800 layer in

formato shapefile.

L’80% dei dati più scaricati fa

riferimento alla CTR, utilizzata

dai professionisti soprattutto

per attività legate alla pianificazione

territoriale. Il restante

20% dei dati più scaricati sono

principalmente dati ambientali

e territoriali e i modelli digitali

del terreno.

Per dare qualche dettaglio,

negli ultimi 12 mesi

ci sono state oltre 140.000

richieste di download per dati

CTR, oltre 25.000 richieste per

i DTM, e circa 18.000 richieste

per i dati ambientali e territoriali.

Tra i dati ambientali e territoriali

più scaricati vi sono i quadri

di unione delle sezioni e degli

elementi della CTR, e i limiti

amministrativi regionali, dei comuni

e delle province, assieme

alle banche dati relative alla carta

di copertura ed uso del suolo.

Inoltre, i dati sono consultabili

come mappe tematiche

WebGIS, create ad hoc per

rispondere alle esigenze degli


le attività delle SDI

regionali avrebbero

grande beneficio da una più

efficace ed incisiva

azione di coordinamento

da parte dei competenti

organismi nazionali

utenti, che permettono di costruire

insiemi di dati, coerenti

tra loro, per una consultazione

orientata verso specifiche tematiche

(le più varie).

Ad esempio, tra i WebGIS più

utilizzati, vi sono: l’Aerofototeca,

che permette di consultare

i fotogrammi aerei disponibili

negli archivi regionali (recenti

e storici); un WebGIS dedicato

alle immagini satellitari, che

raccoglie immagini ad alta e

altissima risoluzione, prodotti

di elaborazioni in cloud e servizi

acquisiti dalla Regione del

Veneto (come il Sentinel-Hub);

altri visualizzatori tematici,

quali un WebGIS dedicato alle

ciclovie e ai percorsi ciclabili

della Regione, e un WebGIS

dedicato alla consultazione del

Piano Territoriale Regionale di

Coordinamento (PTRC).

G: Potete aggiungere

qualche dettaglio sui

servizi presenti?

RV: I servivi seguono

le normative INSPIRE,

adottando gli standard

OGC. Il portale mette a

disposizione:

Servizi di consultazione

dei metadati di dati

geografici dal catalogo (standard

CSW);

Servizi di visualizzazione

dei dati geografici sul web

(WMS/WMTS, WFS);

Servizi di download dei dati

geografici (WFS).

Inoltre, l’infrastruttura dispone

di una componente software

(Geoserver) in grado di operare

analisi geospaziali complesse.

Tali funzionalità, come le precedenti,

vengono messe a disposizione

tramite servizi standard

API, come il WPS.

22 GEOmedia n°5-2021


INTERVISTA

Il servizio più utilizzato è quello

di visualizzazione, che permette

di consultare l’intero catalogo

della Regione all’interno di

mappe e WebGIS dedicati, attraverso

funzionalità avanzate di

ricerca ed interrogazione, senza

prevedere il download effettivo

dei dati.

G: Harvesting da dataset di altri

soggetti pubblici: che cosa è in

atto e/o in progetto?

RV: Attualmente è in fase di attivazione

l’harvesting con il Geoportale

di ARPA Veneto e con

quello di alcuni Comuni pilota.

L’IDT regionale è comunque

predisposta ad effettuare harvesting

con tutti i portali geografici

delle pubbliche amministrazioni

che mettono a disposizione

servizi OGC-compliant.

G: Sono stati attivati “tavoli”

regionali per la governance o,

ad es., per l’individuazione dei

datasets di riferimento?

RV: Non sono attivi tavoli formali

di coordinamento, ma vi è

un ampio coordinamento con

altre strutture della Regione

agevolato dal fatto che sono

chiari i ruoli di responsabilità

su IDT: per i contenuti la

competenza è della Direzione

Pianificazione Territoriale, per i

processi manutentivi ed evolutivi

è invece della Direzione ICT

e Agenda Digitale.

Con i soggetti esterni, locali e

nazionali o comunitari e con

i soggetti privati esiste invece

un variegato sistema di accordi

formalizzati per la produzione,

l’elaborazione e la distribuzione

di prodotti geografici.

G: E per quanto riguarda il finanziamento?

RV: L’IDT regionale è finanziata

con fondi regionali dalla Direzione

ICT e Agenda Digitale

e dalla Direzione Pianificazione

Territoriale. Tutte le verticalizzazioni

di applicativi, che al

loro interno utilizzano dati geografici,

sono gestite dai Servizi

messi a disposizione dalla IDT

regionale, e le strutture coinvolte

mettono a disposizione parte

delle risorse economiche, anche

per le azioni evolutive funzionali

e migliorative dell’infrastruttura

dati.

G: Open data: l’avete già detto,

tutti i dati della IDT sono con

licenza open. Potete aggiungere

qualche dettaglio?

RV: La Regione del Veneto dispone

di un portale interamente

dedicato agli Open Data (dati.

veneto.it). Come previsto dalla

normativa nazionale RNDT e

europea INSPIRE, i dati geografici

(aperti e non aperti)

vengono caricati e documentati

unicamente all’interno dell’infrastruttura

dati dedicata, la

IDT appunto. A tal proposito,

il portale Open Data è in fase

di aggiornamento dal punto di

vista tecnologico, per consentire

un harvesting automatico delle

(sole) informazioni di metadatazione

dei dati geografici (aperti)

dal portale IDT al portale

Open Data, esattamente come

avviene a livello nazionale, tra il

Repertorio Nazionale dei Dati

Territoriali (RNDT) e il portale

nazionale dei dati aperti (dati.

gov.it). In questo modo, tutti i

dati geografici aperti verranno

resi disponibili per la consultazione

all’interno sia dell’IDT

che del portale Open Data,

mantenendone sempre allineati

i contenuti informativi. Qualora

il dato sia poi di interesse per

il download e la distribuzione,

gli utenti potranno visualizzarlo

e scaricarlo dalla IDT.

G: Quanto siete INSPIRE compliant?

RV: Per quanto riguarda i metadati

è in corso di aggiornamento

il Geoportale regionale, in

particolare, per quanto riguarda

il profilo di metadatazione, per

adeguarsi allo standard INSPI-

RE 2.0 e alle relative Linee Guida

RNDT per la compilazione

dei metadati (v3.0) Per questo

adeguamento, l’infrastruttura

regionale ha anche acquisito in

riuso la componente software

per il catalogo metadati distribuita

da AgID (Geoportal

Server).

Il repertorio nazionale RNDT è

inoltre collegato al catalogo dei

metadati regionale attraverso

un sistema di harvesting basato

sullo standard CSW.

Invece, per quanto riguarda

la struttura dei dati, i dataset

completamente compliant con le

specifiche INSPIRE sono davvero

pochi; d’altro canto non

si rilevano particolari esigenze

in merito, tanto da indurci a

ritenere che il rapporto costi/

benefici per l’adeguamento dei

dati sarebbe fortemente penalizzante.

G: “Non dati ma informazioni”,

quali strumenti offre la IDT per

rendere più diretto l’uso, non

dei dati, ma dell’informazione

geografica?

RV: Ci sono numerosi strumenti

e funzionalità, distribuite

nelle varie sezioni del portale.

Le principali sono:

Funzioni base di consultazione

dei dati geografici: attivazione

layer, sfondi e mappe

di inquadramento, legende,

tabella attributi, aggiunta da

catalogo, metadati, visibilità

layer (gruppi, trasparenze,

…), riproiezione on-the-fly;

Funzioni avanzate di interrogazione

e analisi dei dati geografici:

interrogazioni WMS/

WFS, Geocoding OSM (se-

GEOmedia n°5-2021 23


TELERILEVAMENTO

INTERVISTA

arch e reverse), filtro sui dati,

misure di aree/lunghezze, routing

e stradario OSRM (Open

Source Routing Machine);

Funzioni avanzate di download:

strumento di download

dati statici (CTR, GDBT,

punti geodetici), download

personalizzato (per area),

download per contesto territoriale

(per comune, per provincia,

eccetera);

Altre funzioni: doppia mappa,

editing online, gestione

allegati;

Aerofototeca e strumenti per

la ricerca dei voli e della loro

copertura territoriale.

G: Integrazione tra fonti pubbliche

con quelle private e con

il crowdsourcing: vi sembra una

prospettiva praticabile?

RV: L’utilizzo congiunto di

fonti pubbliche e private è un

obiettivo della massima importanza

per le policy di gestione

della SDI regionale; però si deve

evidenziare come tale percorso

presenti notevoli complessità di

attuazione, specialmente per la

difficoltà di creare un canale di

reciproco supporto con i grandi

players privati, che si giovano

ampiamente degli open data

senza essere mai stati chiamati,

da norme o iniziative a livello

nazionale, ad aprire alla possibiltà

di condivisione di dati e

servizi da essi prodotti.

G: In conclusione, volete

aggiungere qualcosa?

RV: Sì, è molto chiaro che le

attività delle SDI regionali

avrebbero grande beneficio

da una più efficace ed incisiva

azione di coordinamento da

parte dei competenti organismi

nazionali: Geoportale nazionale,

Consulta Nazionale per

l’Informazione Territoriale e

Ambientale etc.

PAROLE CHIAVE

IDT; webGIS; geoportale; SDI;

ABSTRACT

Conversation with Umberto Trivelloni,

Head of the IDT of the Veneto

Region, Delio Brentan, P.M. for

the IT part of the IDT, and Andrea

Semenzato Analyst GIS Engineering

Ingegneria Informatica S.p.A

AUTORE

Redazione GEOmedia

redazione@rivistageomedia.it

Franco Vico

franco.vico@formerfaculty.polito.it

MONITORAGGIO 3D

GIS E WEBGIS

www.gter.it info@gter.it

24 GEOmedia n°5-2021

GNSS

FORMAZIONE

RICERCA E INNOVAZIONE


EARTH DATA, SIMPLIFIED.

Annual

Yields

Growth

2015 2016 2017 2018 2019 2020

Income

Powerful solutions for turning Earth

Observation imagery into reliable

information for everyone, everywhere.

Learn more, visit CATALYST.earth

CATALYST.earth

A PCI Geomatics brand


REPORT

Rilievo digitale

di aree urbane

di Marco Santoni, Flavia Borgioli

Da alcuni anni si sente parlare di smart cities, aree urbane

che grazie all’utilizzo delle tecnologie digitali riescono ad

ottimizzare e migliorare le infrastrutture ed i servizi ai cittadini

rendendoli più efficienti.

Con il rapido sviluppo di tecnologie come IoT, Intelligenza

Artificiale, Big Data, Cloud Computing, 5G, il concetto di smart

city si sta rapidamente evolvendo verso quello di un gemello

digitale (digital twin) in grado di supportare la modifica, la

costruzione e l’evoluzione della città. Tuttavia lo sviluppo del

gemello digitale necessita un fondamento informatico idoneo

alla simulazione ed a tal proposito il rilievo geometrico dello

spazio fisico diventa una parte fondante dell’intero processo. Il

laserscanner mobile da veicolo è in questo senso la tecnologia

che meglio si adatta a questa tipologia di applicazioni.

I sistemi laserscanner mobili attuali permettono il rilievo

attraverso sensori fotografici sferici e lidar da milioni di punti al

secondo, pertanto sono tra i mezzi più idonei per la mappatura

massiva della città in quanto da terra riescono ad acquisire

informazioni geospaziali ad una scala idonea alla maggior

parte delle necessità della applicazioni urbane a velocità

tipiche del traffico urbano, come è stato possibile evidenziare

dalla sperimentazione svolta da GRS per il Comune di Roma.

Fig. 1 – Sistema Laserscanner Mobile Riegl

VMQ-1HA montato su veicolo.

GRS è una società di ingegneria,

geodesia e tecnologie

di indagini non

distruttive con sede a Roma, che

impiega tecnologia laserscanner

fin dagli albori di questa tecnologia.

Caso studio: Roma. Quartieri

Testaccio, Trastevere ed EUR

Nel caso studio preso in esame,

il rilievo è stato svolto per

mezzo del sistema laserscanner

mobile altamente performante

e di ultima generazione Riegl

VMQ-1HA, corredato da una

fotocamera Ladybug 5+ per la

generazione di foto panoramiche

e la colorazione della nuvola di

punti. Il sistema si compone di

diverse parti:

Fig. 2 - Localizzazione di una parte dell'area oggetto di rilievo (quartiere Testaccio, Roma) con

pointcloud e traiettoria evidenziati.

il sensore laserscanner Riegl

VUX-1HA,

26 GEOmedia n°5-2021


REPORT

La piattaforma inerziale

Applanix AP20 corredata da

una doppia antenna GNSS/

GPS Trimble,

L’odometro per il calcolo dei

giri dei pneumatici,

Una control unit per il coordinamento

di tutti i sensori,

Un sistema informatico per

l’impostazione delle caratteristiche

di acquisizione e per la

memorizzazione dei dati.

La densità di punti acquisita ha

permesso di ottenere informazioni

geometriche dell’ambiente urbano

complete e il raggio d’azione

del sensore laser ha permesso

di acquisire la sommità degli

edifici e delle costruzioni più alte

adiacenti le strade.

Il processo di rilievo è stato svolto

presso 3 quartieri caratteristici

della città di Roma, ovvero alcune

strade principali di Testaccio,

di Trastevere e dell’EUR ed ha

generato una nuvola di punti

con un’estensione di circa

30.000mq con uno sviluppo su

strada di circa 1,4Km, per un

tempo di rilievo pari a circa tre

ore.

Il rilievo: acquisizione

e restituzione

Nella prima fase di rilievo, a seguito

dell’accensione del veicolo,

è necessario svolgere la taratura

del sistema inerziale muovendo

la macchina stessa in modo da

generare forti accelerazioni longitudinali

e trasversali. In tal modo

via software è possibile osservare

in diretta la diminuzione dello

scarto quadratico medio di imbardata,

beccheggio e rollio della

piattaforma. A seguito dell’ottenimento

di valori ritenuti idonei,

si può quindi procedere alla fase

di rilievo vera e propria, avviando

il software RiACQUIRE della

Riegl, il quale permette l’impostazione

della distanza a cui si

presuppone misurare gli oggetti

e la densità di punti necessaria

per tale distanza e la frequenza

spaziale di acquisizione delle

foto sferiche. Nel caso preso in

esame i punti più lontani erano

rappresentati dalla sommità degli

edifici, quindi meno di 50m,

però andavano ricostruiti con attenzione

pertanto con un elevato

numero di punti su mq. Sebbene

vi fosse presenza di veicoli e traffico

lungo l’intera tratta, è stato

possibile ottenere dati geometrici

del costruito per tutte le strade

che sono state rilevate. Durante

lo svolgimento del rilievo è possibile

ottenere una preview del

dato acquisito, in modo da avere

un’idea dei margini dell’area di

rilievo.

Il passo successivo all’acquisizione

è stata l’elaborazione dei dati

acquisiti per mezzo della correzione

della traiettoria attraverso il

software Applanix POSPac MMS

e l’impiego del software Riegl

RiPROCESS e RiPRECISION

al fine di ottenere una nuvola

di punti priva di rumore e con

grande accuratezza. In particolare

i dati acquisiti dalla piattaforma

inerziale vengono correlati

ad i dati vergini Rinex GPS di

un ricevitore GPS statico nei

pressi dell’area di rilievo che ha

acquisito per l’intera durata della

campagna. Successivamente si

è passati alla generazione della

nuvola di punti per mezzo del

software Riegl ed all’incremento

della precisione della nuvola stessa

per mezzo dei loro algoritmi.

Al termine delle elaborazioni la

nuvola di punti elaborata aveva

un’accuratezza del dato nell’ordine

dei 2,5 cm ed una densità

a terra, nei pressi del veicolo,

superiore a 5.000 punti su mq.

Attraverso una nuvola tanto

densa è stato possibile ricostruire

la segnaletica, ottenendo anche

informazioni sulla sua qualità,

nonché individuare tutti gli arredi

urbani, pali della luce, muri

ed anche le caditoie ed i tombini

non coperti dai veicoli. In questo

senso uno dei limiti di questa

tecnologia per la ricerca dei sottoservizi

è nel fatto che molto

spesso i veicoli sostano sopra

tombini e caditoie, rendendoli di

fatto non identificabili. Nel caso

di una mappatura completa di

una città sarebbe necessario coordinarsi

con il Comune al fine

di lasciare per il solo tempo del

passaggio del veicolo liberi i viali,

in modo da poter usufruire di

un dato completo. Un’ulteriore

possibilità potrebbe essere l’integrazione

del dato per mezzo del

personale a terra, che si dovrebbe

occupare del solo rilievo dei pozzetti.

Fig. 3 – Orbit 3DM, la pointcloud con stile di visualizzazione in base alla riflettanza.

GEOmedia n°5-2021 27


REPORT

Fig. 4 - Orbit 3DM, individuazione automatica dell'oggetto lampione, con gli attributi relativi

sulla colonna a destra.

Scheda Aziendale GRS

Il nostro obiettivo è l'eccellenza nel campo

del rilievo, della valutazione e del controllo

su ogni tipo di infrastruttura. Ci concentriamo

sempre sull'innovazione. Lavoriamo con

la massima trasparenza e veridicità verso i

nostri clienti, attraverso l'utilizzo della strumentazione

e dei software più avanzati.

GRS è una società italiana con sede a Roma,

fondata nel 1972 da Giorgio Santoni che ha

costruito la sua straordinaria esperienza di

lavoro come geometra, direttore di cantiere

e di opere civili. Progettista presso lo studio

McGaughy, Marshall, McMillian e Lucas

Office tra il 1956 e il 1970, ha collaborato

alla realizzazione delle principali opere civili

quali edifici, centrali elettriche, strade, autostrade,

aeroporti in Europa, Medio Oriente,

Africa Settentrionale e Africa Centrale.

GRS è una realtà in costante crescita e

sviluppo; il principale core business è attualmente

l'Ingegneria del controllo, sviluppato

attraverso l'implementazione di tecnologie

avanzate come il Laser Scanner 3D, lo sviluppo

di sistemi GIS, l'analisi geometrica e

meccanica della pavimentazione stradale ed

aeroportuale, la mappatura dei sottoservizi,

la valutazione dei livelli di illuminazione e

l'indagine della retroriflessione della segnaletica.

La nostra vasta esperienza supporta

il lavoro dei progettisti, dei direttori lavori

e dei gestori di infrastrutture al fine di ottimizzare

il processo decisionale e lo sviluppo

delle soluzioni più efficienti.

Grazie alla ricostruzione delle

traiettorie ed alle foto generate

dalla camera sferica è possibile

localizzare la posizione dove

sono state scattate le foto e successivamente

creare dei puntatori

kmz, in formato aperto, da

visualizzare in qualsiasi software

GIS e anche Google Earth. In

questo modo si rende possibile

una navigazione delle zone acquisite

con delle foto aggiornate,

ad altissima risoluzione e con

una data di rilievo certa.

Applicazione e censimento

dei dati acquisiti, un aiuto dal

software Bentley Orbit3DM

Feature Extraction

I dati acquisiti dai sistemi laser

permettono di avere un’immagine

d’insieme molto completa

dello stato dei luoghi, tuttavia è

solo grazie alla sintesi delle forme

geometriche degli elementi

presenti che è possibile generare

gli oggetti e associarvi attributi

così da poter svolgere analisi in

modo da rendere le città veramente

smart.

In quest’ottica, grazie alla smisurata

quantità di punti acquisiti

dai sistemi laser, è possibile

generare manualmente tutti gli

elementi urbani presenti, anche

se tale processo richiedere

grandi quantità di tempo e/o

molti operatori. Per tale motivo

è stato impiegato il software della

Bentley Systems Orbit 3DM

Feature Extraction che attraverso

complessi algoritmi di intelligenza

artificiale da noi addestrati ha

permesso di riconoscere in modo

automatico e semi-automatico i

vari elementi che compongono

l’arredo urbano quali pali della

luce, cigli dei marciapiedi, alberi,

aiuole ed anche segnaletica

orizzontale e verticale, in modo

da generare un catasto completo

dello stato dei luoghi in modo

semiautomatico.

Questo database specifico per

ogni categoria di oggetto bi o

tridimensionale può essere arricchito

grazie alla possibilità di

specificare a priori le caratteristiche

da censire per ogni oggetto:

ognuno sarà pertanto corredato

dal patrimonio di metadati

associati; inoltre, sulla planimetria

comparirà un simbolo,

modificabile per forma e colore,

per ogni oggetto registrato ed

aggiunto al database. Inoltre per

specifiche categorie di oggetti il

software è in grado di riconoscere

automaticamente le sue

caratteristiche peculiari, come

l’altezza delle chiome degli alberi

o dei pali della luce, ed inserirle

in modo automatico all’interno

del database associato.

Tale catasto permette non solo

la rapida individuazione degli

oggetti che compongono l’arredo

urbano cittadino e tutto ciò

che concerne la loro gestione

e manutenzione da parte degli

uffici tecnici preposti, ma anche

e soprattutto consente all’utente

finale, ogni cittadino, di poter

interagire con essi e quindi con

l’ambiente circostante in modo

semplice e intuitivo, nell’ottica

futura di una città che sia davvero

smart e accessibile a tutti.

L’analisi dei dati ha inoltre permesso

di ottenere informazioni

visive e geometriche relative a

28 GEOmedia n°5-2021


REPORT

tutti gli edifici presenti nelle

immediate vicinanze della

pavimentazione stradale. Una

delle possibili applicazioni di

tale elaborazione è la ricostruzione

di prospetti degli edifici,

con riconoscimento dei numeri

civici dei palazzi e della

presenza di eventuali passi

carrabili.

Il rilievo laser ed il successivo

accatastamento di quanto è

fisicamente presente si pone

come pilastro fondante per

qualsiasi sviluppo di digitaltwin

ed in ultima analisi di

smart city. L’integrazione delle

diverse tecnologie di nuova

generazione potrà aiutare gli

uffici preposti nello svolgere

le scelte migliori sia in termini

di sicurezza per la città, sia in

termini di gestione del traffico

e di ogni tipo di emergenza.

Inoltre l’impiego di un’unica

piattaforma informatica da

parte di tutti i vari corpi che

lavorano nella città insieme

ne permetterà sia un coordinamento

che un’integrazione

migliore.

Fig. 5 e 6 –Orbit 3DM, individuazione automatica della segnaletica a terra e dei marciapiedi.

PAROLE CHIAVE

Rilievo; laserscanner mobile; mobile mapping;

smart-cities; pointcloud; Orbit3DM; Riegl

ABSTRACT

For some years we have been hearing about

“Smart Cities”, and this concept is rapidly

evolving towards that of a digital twin that can

support the modification, construction and

evolution of the city. In order to develope this

model we need a computer support suitable for

simulation: the “mobile vehicle laserscanner” is

today the technology that best suits this type of

application, since it allows the survey through

spherical photographic sensors and lidar of millions

of points per second, resulting among the

most suitable means for the massive mapping of

the city. With this technology it is possible to

acquire geospatial information from the ground

at a scale suitable for most of the needs of urban

applications at speeds typical of urban traffic, as

has been highlighted by the survey carried out

by GRS for the Municipality of Rome.

GRS is an engineering, geodesy and nondestructive

investigation technology company

based in Rome, which has been employing

laserscanner technology since the dawn of this

technology.

In the case study examined, the survey was carried

out by means of the high-performance and

latest-generation Riegl VMQ-1HA mobile laserscanner

system, equipped with a Ladybug 5+

camera for the generation of panoramic photos

and the coloring of the point cloud.

The survey was carried out in 3 characteristic

districts of the city of Rome, namely some main

streets of Testaccio, Trastevere and EUR and generated

a cloud of points with an extension of

about 30,000 square meters with a road development

of about 1.4 km, for a significant time

of about three hours.

Once the acquisition is completed, carried out

at a speed similar to that of vehicular traffic, the

individual clouds acquired by the instrument

are processed on a PC, using the instrument's

return software, such as Riegl RiPROCESS.

In the following we experimented with different

ways of returning the cloud, for example

through the Orbit 3DM Feature Extraction

software, which thanks to its ability to automatically

and semi-automatically classification, it

recognize the objects of which the point cloud

is composed. For this reason it was possible to

create a specific database for each category of

two- or three-dimensional object.

The laser survey and the subsequent stacking

of what is physically present is the founding

pillar for any development of digital-twin and

ultimately of smart city. The integration of the

different new generation technologies will help

the offices in charge in carrying out the best

choices both in terms of safety for the city, and

in terms of traffic management and any type of

emergency.

AUTORE

Ing. Marco Santoni

marco.santoni@grsgroup.eu

Arch. Flavia Borgioli

f.borgioli@grsgroup.eu

GRS

GEOmedia n°5-2021 29


REPORT

Integrazione di un sensore Sentera

6X a bordo di un drone Phantom 4.

Una sperimentazione in campo archeologico

di Laura Ebanista, Alessandro Maria Jaia, Andrea Pompili

Nell’ambito del programma

di ricerca di eccellenza Be for

Erc Sapienza (https://www.

uniroma1.it/it/pagina/fellowsprogramma-sapiexcellence)

è

stata avviata a partire dal 2020

la sperimentazione dell’uso

di una camera multispettrale

trasportata da un drone con

finalità di diagnostica in ambito

archeologico.

Fig. 1 – Sensore Sentera 6X integrato a bordo di drone Phantom4 in volo (foto archivio Aviocam).

L’

attività di ricerca si

inserisce nel vasto

panorama scientifico

del telerilevamento

di prossimità che in questo

momento storico vede l’affermarsi

dell’utilizzo dei droni in

molteplici campi della ricerca.

L’acquisizione di immagini,

opportunamente rilevate per

fini fotogrammetrici in termini

di programmazione di volo con

idonei overlap e sidelap, permette

l’elaborazione di ortofotopiani

georiferiti, di DTM e DEM.

Alla classica diagnostica pancromatica,

ormai ampiamente

utilizzata in campo archeologico,

si è affiancata nell’ultimo

decennio la sperimentazione

di altre tipologie di sensori trasportati

da drone. La letteratura

scientifica mostra una diffusa

sperimentazione per quello

che riguarda le immagini multibanda

acquisite da satellite,

mentre le applicazioni da bassa

quota sono ancora sporadiche

e contraddistinte da risultati

non sempre soddisfacenti, ma

soprattutto non dirimenti dal

punto di vista metodologico (i

risultati preliminari di questa

ricerca sono in corso di edizione

in Ebanista 2021). Obiettivo

della ricerca è stato quello di

testare la risposta archeologica

nelle diverse condizioni della

crescita vegetazionale in relazione

alle variazioni climatiche

e stagionali, nonché a quelle

antropiche (lavori agricoli). Per

tale finalità la sperimentazione

presentata in questa sede ha

avuto come obiettivo quello

di ottenere un sistema di agile

utilizzo, contraddistinto da una

rapida acquisizione dei dati sul

campo e una spedita attività di

elaborazione, finalizzata, nello

specifico, all’estrazione degli

indici di vegetazione (principalmente

l’NDVI), compatibili, a

livello di genesi delle tracce, con

le tracce da vegetazione (crop

marks), ben note nella fotointerpretazione

classica in campo

archeologico (Piccarreta &

Ceraudo 2000, 107-111).

In una fase iniziale della ricerca,

sulla base dei prodotti disponibili

sul mercato e considerate le

finalità delle attività da svolgere,

è stato scelto un sensore Sentera

6X, delle cui specifiche tecniche

si vedrà in seguito. Anziché

30 GEOmedia n°5-2021


REPORT

collegare la camera, tramite

l’apposita gimbal prevista dal

produttore, a uno dei droni

compatibili (DJI Matrice100,

Matrice200, Matrice300 o

Inspire1) ed avendo a disposizione

un drone DJI Phantom

4, in ottime condizioni meccaniche

ad eccezione di un

danno alla gimbal, è stata testata

l’installazione del sensore

a bordo di questa macchina

(fig. 1).

Il lavoro di integrazione presentato

in questa sede si profila

come una vera e propria

sperimentazione, sia da un

punto di vista meccanico sia

di gestione software dei dati,

dalla programmazione, all’acquisizione,

fino all’elaborazione

finale e all’estrazione degli

indici di vegetazione. Il drone

utilizzato ha chiaramente

caratteristiche ben diverse da

quelle degli APR (Aeromobili

a Pilotaggio Remoto) previsti

dal produttore, in termini di

peso e di payload, nonché di

performance in fase applicativa.

Attrezzatura: drone e

sensore, caratteristiche e

progetto di integrazione

Come già anticipato, la scelta

di utilizzare un Phantom

4 (benché non consigliato

espressamente da Sentera

per via della presenza della

gimbal standard) è stata determinata

dalla presenza di

un drone da poter reimpiegare.

Le dimensioni e l’affidabilità

di questa macchina

hanno seguito le considerazioni

precedenti.

Il drone è stato privato

delle componenti non più

utili (gimbal, collegamenti

e scheda di controllo) per

far spazio alla struttura di

connessione meccanica ed

elettrica pensata per la 6X

Fig. 2 – Sistema drone-sensore nella sua custodia originaria (foto archivio Aviocam).

Fig. 3 – Assemblaggio, particolare del polimero (foto archivio Aviocam).

di Sentera. Per limitare il peso

e la complessità del sistema, si

è scelto di rendere il payload

parte integrante del drone; in

questa configurazione, dunque,

non risulta essere removibile

sul campo e sostituibile

dall’utente. Tuttavia, rimanendo

nell’ingombro pressoché

originale, solo una piccola

modifica è stata necessaria per

trasportare il sistema dronesensore

nella valigia originale da

trasporto (fig. 2).

Consapevoli dell’assenza di

gimbal per mantenere l’assetto

della camera nadirale rispetto

al piano orizzontale del drone e

altrettanto consci della presenza

della IMU interna a correzione

di tali inclinazioni, si è scelto

di concentrare l’attenzione sul

sistema di attenuazione delle

vibrazioni. Essendo gli scatti

GEOmedia n°5-2021 31


REPORT

pensa che il valore sia registrato

o all’inizio del volo, o eseguendo

una media dei valori riscontrati.

I valori di indice non sono

stati alterati né presentano variazioni

durante i test nell’intero

anno solare.

Fig. 4 – Sentera 6X integrato, schema tecnico (rendering Andrea Pompili).

realizzati in movimento, benché

l’esposizione automatica della

camera prediliga tempi brevi, i

fotogrammi avrebbero potuto

subire l’effetto blur a causa dei

micromovimenti indotti dalle

vibrazioni. Molto del lavoro si è

concentrato nella ricerca di una

soluzione in grado di assorbire

tale energia. E’ stato dunque selezionato

un polimero in grado

di smorzare fino al 90% dello

spettro vibratorio del drone

(fig. 3); questa soluzione, mista

all’uso di un supporto elastico,

ha eliminato i difetti causati

dalle vibrazioni nei fotogrammi.

Nella sua totalità, l’installazione

del sensore è rimasta molto

contenuta (figg. 1 e 4).

Per quanto concerne l’autonomia

di volo, i test hanno

dimostrato di poter ottenere

20 - 22 minuti di autonomia

totale al netto di tempi morti

per la calibrazione del sensore e

del drone. La Sentera 6X è collegata

direttamente alla batteria

primaria; non sono previste

alimentazioni separate e l’assorbimento

si attesta su valori bassi

(


REPORT

Shooting angle: parallel to

main path

Capture mode: capture at

equal distance interval

Speed: 5.0 m/s

Height: 50 mt

Per il corretto funzionamento

della ground station la SD card

deve essere inserita nel drone,

sebbene non necessaria per

l’immagazzinamento di alcun

dato. Considerando che il volo

viene eseguito dal drone sulla

base delle impostazioni inserite

nel piano predisposto in DJI

GS PRO, deve essere settato parallelamente

il sensore Sentera

6X per quello che concerne

l’acquisizione delle immagini.

In fase di progettazione del

rilievo, andranno selezionati i

parametri di scatto attraverso le

funzioni di configurazione.

Sarà necessario impostare la

medesima sovrapposizione scelta

nel piano di volo di DJI GS

PRO (overlap 85% nel caso specifico)

e stabilire a che quota e a

che distanza dal punto di decollo

il sensore inizierà ad acquisire

le immagini. In tal modo la coordinazione

drone-sensore sarà

ottimale e sarà solo necessario,

in fase di preelaborazione, eliminare

i primi e gli ultimi scatti,

corrispondenti al percorso

che il drone farà per raggiungere

il punto di inizio della prima

strisciata e per poi ritornare alla

base a volo concluso.

Si potrà inoltre scegliere se

generare immagini TIFF integrate

oppure separate nelle

cinque bande (secondo questo

ordine: blue, green, red, red Edge

e NIR). Si è proceduto con le

immagini integrate in quanto

necessarie in questo formato per

le successive elaborazioni con

il software Agisoft Metashape,

prescelto per questa specifica

ricerca. Se in un secondo momento

dovesse essere necessario

separare le immagini sarà

Fig. 5 – Configurazione piano di volo con app DJI GSPro.

possibile farlo tramite un apposito

programma di Sentera.

A questo punto, è possibile

eseguire il volo, preferibilmente

in un orario centrale della giornata,

con il sole alla massima

elevazione così da minimizzare

le ombre e massimizzare la luce

e non creare difformità nelle

strisciate a seconda del verso in

cui il drone viaggia per eseguire

le strisciate. È inoltre auspicabile

un cielo limpido o completamente

coperto, evitando

le condizioni miste sole/nuvola

che determinerebbero condizioni

variabili nella quantità di

luce acquisita dal sensore.

Una volta eseguito il volo, sarà

necessario acquisire l’immagine

del pannello di riflettanza.

Si tratta di una calibrazione

radiometrica necessaria per

eliminare possibili influenze

esterne, generalmente associabili

all’illuminazione o agli effetti

atmosferici. Se in una giornata

si dovessero eseguire più voli in

condizioni di luce differenti è

consigliabile acquisire molteplici

immagini del pannello in

relazione ai diversi voli eseguiti.

Tramite la procedura di scatto

andrà acquisita una immagine

del pannello (prestando attenzione

a evitare la formazione di

ombre).

La camera Sentera 6X ha una

memoria inverna NVME da

512Gb, accessibile collegamento

al PC. I file risultano salvati

solo nella cartella “data”, infatti,

sebbene sia prevista una scheda

SD, i dati non vengono immagazzinati

al suo interno, come

comunicato dall’assistenza web

della casa produttrice. Le immagini

sono divise in cartelle,

con data e ora UTC, generate

ogni volta che si accende e si

spegne la camera, indipendentemente

dall’effettiva acquisizione

di immagini.

Il software utilizzato per la specifica

ricerca presentata in questa

sede è Agisoft Metashape.

Non ci si addentrerà in questa

sede nelle specifiche tecniche

del suo utilizzo per le quali si

rimanda al manuale.

Attività sul campo: modalità

di acquisizione ed elaborazione

dei dati. Primi risultati.

La ricerca ha previsto l’esecuzione

di voli, l’elaborazione e

l’estrazione degli indici di vegetazione

possibili sulla base delle

bande restituite dal sensore al

fine di comprendere se la loro

GEOmedia n°5-2021 33


REPORT

Fig. 6 – Veio, cartografia numerica su modello tridimensionale (Guaitoli 2016, 179).

applicazione, già ampiamente

sviluppata in ambito agrotecnico,

possa restituire buoni

risultati per quello che riguarda

la diagnostica archeologica.

In questo contesto verranno

forniti alcuni dei risultati di

metodo desumibili dalla ricerca

pur senza addentrarsi però nella

tematica in senso più ampio (si

veda Ebanista 2021).

Per confronto con le tracce

ampiamente sperimentate

nell’ambito dell’aerofotogrammetria

classica, l’indice

NDVI (Normalized Difference

Vegetation Index ) trova stringenti

analogie con i crop marks

(tracce da vegetazione). Si tratta

della variazione cromatica

legata alla vigoria del manto

erboso, determinata dalla presenza

di strutture sepolte che

ne inibiscono parzialmente la

crescita rigogliosa (Piccarreta &

Ceraudo 2000, 107-111).

La letteratura scientifica relativa

alla sperimentazione dell’uso

di immagini multibanda per

la diagnostica archeologica,

ancora non molto estesa seppure

presente sia in ambito

nazionale che estero, non è però

ancora dirimente per quello

che riguarda la questione metodologica

(si vedano tra una

bibliografia più estesa: Agapiou,

Hadjimitsis & Alexakis 2012;

Agapiou A., Hadjimitsis D.G.,

Georgopoulos A. & Sarris A.

2012; Fiorini L. & Materazzi

F. 2017; Materazzi F. & Pacifici

M. 2020; Nebiker S., Annen

A., Scherrerb M. & Oeschc

D. 2008; Uribe P., Angás J.,

Pérez-Cabello F., De La Riva J.,

Bea M., Serreta A., Magallón

A., Sáenz A. & Martín-Bueno

M. 2015). Le sperimentazioni,

che si basano su acquisizioni

sporadiche e casuali da un

punto di vista fenologico, non

permettono di comprendere i

meccanismi di genesi e visibilità

delle tracce.

Obiettivo della ricerca è stato

quello di testare, tramite voli

reiterati nel medesimo contesto,

le variazioni fenologiche delle

specie vegetali in relazione alla

stagionalità, agli eventi metereologici

nonché a quelli antropici

legati soprattutto alle attività

agricole. L’area urbana di Veio

(Roma) è stata prescelta per i

test considerate le numerosissime

tracce note dalla fotografia

aerea classica e la sistematica

analisi territoriale di cui è stata

oggetto nel corso degli ultimi

60 anni, poi confluita nella

cartografia numerica realizzata

dal Laboratorio di Topografia

dell’Università del Salento (fig.

6). Le attività di ricognizione

capillare, a partire dal fondamentale

lavoro di Ward Perkins

1961 (Ward Perkins J.B. 1961),

poi riprese dagli anni ’80 dello

scorso secolo, gli scavi sistematici

e le prospezioni geofisiche

forniscono dati fondamentali

per comprendere le modalità

di formazione delle tracce individuate

in relazione agli elementi

archeologici già noti (per

una storia degli studi si veda

Guaitoli 2016).

Per le finalità descritte si è dunque

proceduto con regolari acquisizioni

mensili (o bimensili)

34 GEOmedia n°5-2021


REPORT

tramite i medesimi piani di volo

in due aree del centro urbano di

Veio, in località Campetti (fig.

6,1) e Macchiagrande (fig. 6,2),

tagliate da un importante asse

stradale che attraversa la città

dalla porta NO alla porta S, deviando

verso S per Portonaccio,

già scavato a partire dal 2002

con l’obiettivo sia di chiarire la

topografia di un punto nodale

della città sia proprio di verificare

l’affidabilità delle chiarissime

tracce rilevate nel corso

delle restituzioni realizzate dal

Laboratorio di Fotogrammetria

dell’Università del Salento (Jaia

& Cella 2015; D’Alessio 2015).

Le aree prese in esame si presentano

coperte in maniera

uniforme da manto di erba

medica, ad eccezione di arbusti

e rovi in corrispondenza dei

dislivelli e delle cisterne. Per

l’analisi dei dati metereologici,

è stato considerato l’indice delle

precipitazioni giornaliere, della

temperatura e dell’umidità media

giornaliera a 2 m dal suolo,

tenendo in considerazione sia il

giorno di esecuzione del volo,

sia gli 8 giorni precedenti (fonte

dati http://dati.lazio.it/catalog/

dataset/serie-storica-agrometeo).

Prima di eseguire ogni volo

sono stati messi a terra 12-15

markers georiferiti tramite sistema

GNNS in modalità Rtk

necessari per la correzione delle

coordinate già acquisite nel sensore

GPS del sensore Sentera in

fase di elaborazione con Agisoft

Metashape.

Circa 600 fotogrammi multibanda

per ogni volo, eseguito di

norma tra le 11 del mattino e le

14 per sfruttare il sole alla massima

altezza, sono stati elaborati

e calibrati sulla base dell’immagine

acquisita del pannello di

riflettenza e dei dati forniti dal

produttore e corretti per mezzo

del sun sensor, infine è stato

estratto l’indice NDVI.

La sperimentazione ha dimostrato

in maniera evidente come

la presenza di acque meteoriche

nel suolo, non completamente

assorbite nei giorni immediatamente

successivi alle precipitazioni,

alteri la percezione delle

tracce che appaiono enfatizzate

ma nel contempo ‘disturbate’

a causa del valore del NIR abbassato

significativamente dalla

presenza dell’acqua. In fig. 7

il medesimo volo eseguito a

settembre 2021 con temperature

quasi estive e in assenza

di precipitazioni (valori medi

negli 8 giorni precedenti il volo:

precipitazioni = 2,07; temperatura

media a 2 m dal suolo =

25,25; umidità a 2 m dal suolo

= 60,71) e il mese successivo

dopo una settimana di piogge

intense (valori medi negli 8

giorni precedenti il volo: precipitazioni

= 7,18; temperatura

media a 2 m dal suolo = 13,5;

umidità a 2 m dal suolo =

81,85). Di conseguenza, un terreno

asciutto con manto erboso

disomogeneo è da preferirsi a

una copertura vegetazionale più

compatta, ma con terreno intriso

di acqua.

Altro aspetto da valutare è la

tempistica necessaria alla pianta

per crescere a sufficienza, soprattutto

a livello radicale, per

determinare la formazione della

traccia. Difatti, dopo due mesi

dall’aratura e dalla semina il

manto erboso che all’apparenza

sembrerebbe compatto, denso

e uniforme non restituisce le

medesime tracce, visibili appena

20 giorni prima dell’aratura.

La profondità delle strutture, la

tipologia di copertura vegetale

e la profondità di crescita delle

radici influisce sulle tempistiche

necessarie a ottenere la migliore

risposta possibile.

Infine, altro aspetto rilevante è

stata la comparazione del dato

multibanda con quello pancromatico,

motivo per il quale tutti

i voli sono stati realizzati nelle

medesime condizioni anche in

RGB. Pur non addentrandosi

in questa sede nei risultati più

strettamente archeologici, la

sperimentazione ha dimostrato

in maniera evidente come

nell’NDVI le tracce risultino

molto più chiare e marcate.

L’indice infatti è molto sensibile

anche a concentrazioni di

clorofilla piuttosto basse, non

Fig. 7 - Veio, estrazione dell’indice NDVI nei voli di settembre e ottobre 2020, indicati in bianco gli assi stradali

visibili in traccia (tratteggio) e una serie di tracce chiare e scure riferibili ad ambienti. L’immagine fotografica

dello scavo è tratta da Jaia & Cella 2015, 17.

GEOmedia n°5-2021 35


REPORT

apprezzabili nel campo del visibile.

Non a caso questo indice

è ampiamente sperimentato in

campo agrotecnico il suo uso

per predire la resa del raccolto

nella fasi iniziali della crescita

vegetazionale.

La sperimentazione prosegue

tuttora con test in diversi siti

etrusco laziali e si sta avvalendo

dei primi risultati metodologici

acquisiti in circa 12 mesi di test

reiterati per quello che riguarda

le tempistiche di acquisizione

dei dati rispetto alla stagionalità,

agli eventi metereologici e

antropici.

Venendo all’analisi dei risultati

da un punto di vista tecnico in

relazione all’integrazione oggetto

di questo contributo, il sistema

drone-sensore si è rivelato

molto efficiente. Si tratta infatti

di una strumentazione leggera

e di agile utilizzo, considerando

che è ancora possibile trasportare

il drone nella sua custodia

originale, non essendo aumentato

in maniera significativo il

suo ingombro (fig. 2). Questo

fattore non è assolutamente

secondario laddove il SAPR

venga utilizzato in contesti di

ricognizione che necessitano il

trasporto della strumentazione

a mano, talvolta in condizioni

non agevoli.

La non significativa riduzione

di autonomia della batteria,

da imputare marginalmente

all’incremento di peso (210

gr), risente del fatto che l’alimentazione

del sensore attinge

alla medesima batteria del

drone. Laddove dunque non

sia necessario tenere acceso il

drone a lungo prima del decollo

(richiesta di calibrazione IMU

dello strumento, ad esempio),

la durata della batteria si attesta

sui 22 minuti, consentendo

l’esecuzione di voli abbastanza

estesi. Va inoltre valutato che

il peso dei TIFF multibanda è

piuttosto elevato (22,5 megabyte

ciascuno), dunque è da preferirsi

un volo che non superi

i 600 fotogrammi per favorire

una elaborazione agile, se pure,

ovviamente eseguita su un PC

idoneo alla finalità in quanto a

caratteristiche tecniche.

Come già accennato, avendo

testato il sistema nell’arco di

un intero anno solare in differenti

condizioni climatiche,

è stato appurato che il drone

non subisce particolare innalzamento

della temperatura in

fase di volo, nonostante il lieve

incremento di peso. Il surriscaldamento

in caso di temperature

oltre i 40° che determina

la necessità di ‘raffreddare’ la

macchina all’ombra in maniera

intermittente nell’ambito di

molteplici voli eseguiti a breve

distanza è il medesimo che il

drone presentava anche prima

dell’installazione del sensore a

bordo. Nell’arco di una medesima

giornata sono stati eseguiti

fino a 6 voli consecutivi senza

riscontrare problematiche.

Infine, considerando l’integrazione

da un punto di vista

software, la temuta mancata

‘sincronia’ tra piano di volo del

drone e piano di scatto del sensore

è stata superata in maniera

molto agile settando, come già

detto, le due macchine separatamente.

Il sensore Sentera ha

tra l’altro un’ottima efficienza di

scatto in relazione alla posizione

individuata dal GPS integrato.

L’unica accortezza rimane quella

di dover eliminare, prima di avviare

l’elaborazione, i fotogrammi

acquisiti nel percorso che il

drone compie dal decollo all’inizio

della prima strisciata e poi

dall’ultima fino all’atterraggio.

BIBLIOGRAFIA

Agapiou A., Hadjimitsis D.G. & Alexakis

D.D. (2012). Evaluation of Broadband

and Narrowband Vegetation Indices for

the Identification of Archaeological Crop

Marks. Remote Sensing 4, 3892-3919.

Agapiou A., Hadjimitsis D.G.,

Georgopoulos A. & Sarris A. (2012).

Towards an Archaeological Index:

Identification of the Spectral Regions

of Stress Vegetation due to Buried

Archaeological Remains. Progress in

Cultural Heritage Preservation. 4 th

International Conference, EuroMed 2012

(Limassol 29 ottobre - 3 novembre 2012),

129-138.

D’Alessio M.T. (2015). Il paesaggio

urbano tra l’età del ferro e la tarda età

imperiale. Cascino R., Fusco U. & Smith

C.J. (eds.). Novità nella ricerca archeologica

a Veio, 27-33.

Ebanista L. (2021) Remote sensing: l’uso

dei sensori multispettrali per la diagnostica

archeologica. InFieri 2, c.d.s.

Fiorini L. & Materazzi F. (2017). Un

Iseion a Gravisca? Fotogrammetria, telerilevamento

multispettrale da APR e dati

archeologici per una possibile identificazione.

PAROLE CHIAVE

Topografia antica; rilievo; drone; uav;

camera multispettrale; archeologia;

processamento dati

ABSTRACT

This paper deals with a research carried out

since 2020 by Sapienza - University of Rome

that test the analysis of the data acquired by

a multispectral camera transported by a UAV

and their reading and interpretation in the

context of the archaeological diagnostics.

As part of the activities, the integration of a

Sentera 6X sensor on board a DJI Phantom

4 drone was tested, both from a mechanical

and software data management point of view,

from the programming, to the acquisition,

up to the final processing and extraction of

vegetation indices.

The SAPR is highly performing as well as

very agile use in the specific contexts of research

and has returned satisfactory results in

the data extraction and processing phase.

AUTORE

Laura Ebanista

laura.ebanista@uniroma1.it

Ricercatore in Topografia Antica –

Sapienza Università di Roma

Piazzale Aldo Moro 5, 00185 Roma

Alessandro Maria Jaia

alessandro.jaia@uniroma1.it

Professore associato in Topografia

Antica – Sapienza Università di Roma

Piazzale Aldo Moro 5, 00185 Roma

Andrea Pompili

info@aviocam.it

Responsabile R & D - Aviocam

Via Minerbio 58A, 00127 Roma

36 GEOmedia n°5-2021


REPORT

Tecnologie

per le Scienze

della Terra e del Mare

Immagine: MTS Engineering

Vendita, Noleggio, Training, Assistenza

anche a noleggio per:

Studio dei fondali e delle coste

Multibeam, SSS, SBP, droni idrografici …

Studio del sottosuolo

Georadar, sismica, geoelettrica, inclinometri …

Monitoraggio sismico

Sismometri, strong motion, reti early warning …

Posizionamento di precisione

e navigazione

GNSS, piattaforme inerziali, USBL …

3D imaging

Rilievi terrestri, sotterranei, costieri, subacquei

anche integrati, anche in dinamico …

Monitoraggio ambientale

Magnetometri, sonde oceanografiche …

CODEVINTEC

Tecnologie per le Scienze della Terra e del Mare

tel. +39 02 4830.2175 | info@codevintec.it | www.codevintec.it

GEOmedia n°5-2021 37


TERRA E SPAZIO

Sistemi di

posizionamento,

navigazione e

sincronizzazione

alternativi ai GNSS

di Marco Lisi

Nonostante il pervasivo

e fondamentale ruolo dei

sistemi globali di navigazione

via satellite (“Global

Navigation Satellite Systems,

GNSSs”) in praticamente

tutte le infrastrutture

economiche ed industriali

della nostra società, cresce

la preoccupazione per

la troppa dipendenza da

sistemi altamente affidabili,

ma al contempo anche

intrinsecamente vulnerabili.

Stiamo parlando delle quattro

costellazioni GNSS attualmente

operative: GPS, Glonass,

Galileo e Beidou.

Tutti questi sistemi hanno

architetture simili: satelliti in

orbita intorno alla Terra, che

trasmettono segnali opportunamente

codificati e criptati;

segmenti terrestri molto complessi,

che includono numerose

stazioni, linee di comunicazione

sicure e centri di processamento

e controllo.

La dipendenza di tutte le infrastrutture

critiche della società

dai sistemi GNSS, in particolare,

per il mondo occidentale,

GPS e Galileo, e la consapevolezza

delle catastrofiche conseguenze

in caso di loro, anche

temporanea, indisponibilità,

crea la sensazione che essi possano

essere una sorta di bomba ad

orologeria, pronta a scoppiarci

fra le mani.

Ma non è necessario che sia

così. Le vulnerabilità di questi

sistemi sono essenzialmente di

tre tipi: “jamming”, “spoofing”

ed attacchi cibernetici.

Per “jamming” s’intendono le

interferenze, intenzionali e non,

che possano sovrastare i segnali

GNSS ed impedirne una ricezione

corretta. In senso lato,

si possono ascrivere a questa

tipologia anche le perturbazioni

della propagazione ionosferica

causate da tempeste solari.

I segnali GNSS sono particolarmente

vulnerabili al “jamming”

in quanto sono estremamente

deboli, sia perché trasmessi da

satelliti che viaggiano a circa

ventimila chilometri di altezza,

sia per limitazioni di tipo regolatorio.

Il “jamming”, sia in campo

militare che in quello civile, è il

mezzo più semplice, economico

ed allo stesso tempo più malau-

Fig. 1 - “jammer” commerciali, spesso acquistabili in rete.

Fig. 2 - Il sistema terrestre di navigazione eLORAN.

38 GEOmedia n°5-2021


TERRA E SPAZIO

missili lanciati da terra, satelliti

“killer” ed armi elettromagnetiche

o laser.

Sebbene la disponibilità per gli

utenti di quattro costellazioni

indipendenti crei una ridondanza

intrinseca nell’infrastruttura

PNT (“Positioning, Navigation

& Timing”) globale, ed i vari

governi responsabili applichino

misure di sicurezza molto

stringenti, ci si pone tuttavia la

domanda: è possibile integrare i

sistemi GNSS con sistemi terreguratamente

efficace per impedire

l’utilizzo dei sistemi GNSS

in aree geografiche circoscritte

(da pochi chilometri quadrati

ad intere regioni) (fig. 1).

Lo “spoofing” è una forma più

sofisticata (e sicuramente intenzionale

e malevola) di attentato

alla funzionalità dei sistemi

GNSS. Grazie agli sviluppi delle

tecnologie digitali, è oggi possibile,

ad un malintenzionato

tecnicamente preparato, con un

investimento economico ormai

molto limitato, trasmettere

verso obiettivi mirati, ovvero

in una certa regione, segnali

GNSS falsificati, che riescono,

ad esempio, a deviare un aereo

o una nave dalla loro rotta, portandoli

fuori strada.

La contromisura adottata nelle

applicazioni militari e governative

è quella di criptare i codici

dei segnali GNSS, rendendone

impossibile la falsificazione.

In ambito civile, vale la pena

di sottolineare l’iniziativa della

Commissione Europea che ha

introdotto nel sistema Galileo

un’autenticazione del segnale civile,

la cosiddetta “Open Service

Authentication” (OS-NMA).

La terza area di vulnerabilità,

quella dovuta ad attacchi cibernetici,

deriva dalla tecnologia

stessa del segmento terrestre

dei sistemi GNSS, tipicamente

basata su programmi software

molto complessi, centri di processamento

e calcolo e linee di

comunicazione dati. La possibilità

di attacchi “cyber”, interni

ed esterni, è, come in tutte le

grandi architetture informatiche

di questo tipo, molto elevata.

A conclusione di questa breve

analisi delle aree di vulnerabilità,

si dovrebbe anche aggiungere

una possibilità che sembra farsi

sempre più concreta: quella di

veri e propri atti di guerra spaziale,

miranti a distruggere i satelliti

GNSS in orbita attraverso

Fig. 3 - Il principio della navigazione iperbolica, basato sulla trilaterazione.

stri, anche locali, e rendere l’intera

infrastruttura più affidabile

e resiliente?

Il sistema eLORAN, un’

alternativa terrestre ai GNSS

Il sistema eLORAN (fig.2) è la

versione moderna ed aggiornata,

con l’utilizzo delle moderne

tecnologie digitali, del vecchio

sistema di navigazione LORAN

(“LOng RAnge Navigation”),

sviluppato dagli Stati Uniti e

dal Regno Unito durante la

Fig. 4 - La rete eLORAN operante nella Corea del Sud, per controbattere il “jamming” dai

paesi confinanti.

GEOmedia n°5-2021 39


TERRA E SPAZIO

Fig. 5 - Sistema terrestre di navigazione basato su “signals of opportunity”.

Seconda Guerra Mondiale, rimasto

operativo, soprattutto per

la navigazione marittima, per

oltre sessanta anni.

Il sistema è basato sul principio

della cosiddetta navigazione

iperbolica: l’utente riceve i segnali

da una serie di stazioni di

terra sincronizzate al tempo coordinato

universale (UTC), delle

quali è nota la posizione, e ne

deriva i tempi di arrivo (“Time

of Arrival”, ToA). Con un minimo

di tre stazioni ricevute,

l’utente è in grado di calcolare

la propria posizione orizzontale

(fig.3).

Pur essendo un sistema regionale

ed adatto soprattutto alla

navigazione terrestre e marittima,

il sistema eLORAN ha una

serie di caratteristiche positive,

che lo rendono un candidato

ideale per integrare e rendere

più resilienti i sistemi GNSS.

In particolare, i suoi segnali

possono essere da 3 a 5 milioni

di volte (cioè fino a 30 dB)

più forti dei segnali GNSS, e

Fig. 6 - Orologi atomici miniaturizzati.

quindi molto più resistenti al

“jamming”. Inoltre, l’utilizzo di

frequenze molto basse, intorno

ai 100 KHz (VLF), permette la

navigazione all’interno di edifici

ed in aree urbane densamente

popolate.

L’accuratezza di posizionamento

ottenibile con eLORAN (+/-

8 metri) non raggiunge quella

dei sistemi GNSS, ma con l’ausilio

di tecniche di correzione

si riescono ad ottenere risultati

molto migliori, utilizzabili nella

maggior parte delle applicazioni.

Attualmente la tecnologia eLO-

RAN è operativa nella Corea

del Sud (fig. 4) ed è oggetto di

una serie di progetti di sviluppo

negli Stati Uniti, nel Regno

Unito nell’Unione Europea

(EUSPA ed Agenzia Spaziale

Europea).

Sistemi di posizionamento e

navigazione basati sui “Signals

of Opportunity” (SoP)

I “Signals of Opportunity”

(è difficile trovare una traduzione

“decente” di questa

espressione in italiano) sono

tutti i segnali, analogici e digitali,

tipicamente trasmessi da

centinaia di stazioni terrestri

commerciali a supporto di reti

di telecomunicazione di vario

tipo. Appartengono a questa

definizione i segnali radio e

televisivi trasmessi da torri di

“broadcasting”, le trasmissioni

delle stazioni dei network cellulari

4G e 5G, ed i segnali dei

“Wireless Local Area Networks”

(WLAN), come quelli Wi-Fi

(fig. 5). È importante sottolineare

che tutti questi segnali non

sono ottimizzati per la navigazione,

come è invece il caso dei

segnali GNSS.

Il principio dei sistemi di posizionamento

basati sui SoP è

simile a quello prima descritto

per il sistema LORAN: si basa

sull’utilizzo di stazioni terrestri

la cui posizione è ben nota e se

ne utilizzano i segnali per effettuare

la localizzazione dell’utente

con varie tecniche: tempo di

arrivo (“Time of Arrival”, ToA),

angolo di arrivo (“Angle of

Arrival”, AoA), intensità del segnale

ricevuto (“Received Signal

Strength”, RSS).

Un requisito importante per

l’utilizzo di queste stazioni

commerciali è che esse siano

sincronizzate. D’altra parte le

tecnologie digitali tipicamente

adottate (DAB, HDTV, 4G e

5G, Wi-Fi, etc.) richiedono tutte

un livello di sincronizzazione

alquanto spinto.

Le soluzioni basate su

“hotspots” Wi-Fi pubblici

sembrano molto promettenti e

vengono attualmente perseguite

dalle più importanti aziende

informatiche mondiali, quali

Google, Microsoft ed IBM.

Le grandi sfide del futuro sono

la già citata navigazione “indoor”,

i droni aerei (UAVs) e le

automobili a guida autonoma.

Per queste ultime, in particola-

40 GEOmedia n°5-2021


TERRA E SPAZIO

re, un’appropriata ridondanza

dei sistemi di posizionamento

e navigazione è necessaria per

raggiungere gli elevati livelli di

sicurezza (“safety”) richiesti.

Integrazione e fusione alla

base della futura infrastruttura

PNT globale

I sistemi GNSS, GPS e Galileo

in primis, rimarranno negli

anni a venire le colonne portanti

dell’infrastruttura globale

di PNT. Seppur soggetti a volte

alle influenze della geopolitica

globale, è auspicabile una sempre

maggiore cooperazione fra

le quattro grandi costellazioni,

con l’obiettivo di rendere i loro

servizi, almeno quelli civili e pacifici,

sempre più affidabili dal

punto di vista degli utenti.

Tuttavia le sempre più sofisticate

applicazioni e la sempre

maggiore dipendenza da essi

delle varie altre infrastrutture

critiche, dai trasporti alle telecomunicazioni,

dai sistemi finanziari

alle reti di distribuzione

(energia elettrica, petrolio, gas),

richiedono un’infrastruttura

PNT globale più affidabile, ridondata

e resiliente.

La soluzione che si va nei fatti

affermando è quella di una

sempre maggiore integrazione

di piattaforme differenti

e complementari: i sistemi

satellitari globali, i sistemi terrestri

(eLORAN, “Signals of

Opportunity”) e, non ultimi,

i componenti miniaturizzati

che realizzano sensori, orologi

atomici e piattaforme inerziali,

tutti prossimamente integrabili

perfino nei nostri smartphone

(fig. 6).

Un esempio per tutti: negli ultimi

mesi le più avanzate aziende

di ricevitori integrati GNSS

hanno sviluppato versioni, particolarmente

orientate al mercato

“automotive”, che integrano

in uno stesso modulo miniaturizzato,

oltre ad un ricevitore

GNSS multicostellazione, un

processore dei dati da tutti i

sensori dell’automobile (tachimetro,

giroscopio, piattaforma

inerziale) e da eventuali altri

sensori 3D anti-collisione, quali

ad esempio il LIDAR (radar ottico

laser). Si realizza in questo

modo un’integrazione costruttiva

fra navigazione basata su

GNSS e navigazione “stimata”

(“Dead Reckoning”), con risultati

più accurati (nell’ordine dei

decimetri), affidabili e robusti.

PAROLE CHIAVE

Gnss; posizionamento; e-LORAN; SoP

AUTORE

Dott. ing. Marco Lisi

ingmarcolisi@gmail.com

Independent Consultant

Aerospace & Defense

GEOmedia n°5-2021 41


MERCATO

LA PRIMA IMMAGINE DI LANDSAT 9

I primi dati di Landsat 9, della costa australiana di

Kimberley nell'Australia occidentale, mostrano le capacità

dei due strumenti del satellite. Questa immagine,

dall'Operational Land Imager 2, o OLI-2, è stata acquisita

il 31 ottobre 2021. Sebbene sia simile nel design al

suo predecessore Landsat 8, i miglioramenti a Landsat 9

gli consentono di rilevare differenze più sottili, specialmente

su tonalità più scure aree come l'acqua o le fitte

foreste di mangrovie lungo la costa.

Landsat 9, una missione congiunta della NASA e

dell'U.S. Geological Survey, è stata lanciata il 27 settembre

2021 e ora ha raccolto le sue prime immagini della

Terra.

Queste immagini, tutte acquisite il 31 ottobre 2021,

forniscono un'anteprima di come la missione aiuterà le

persone a gestire le risorse naturali vitali e a monitorare

gli impatti dei cambiamenti climatici, aggiungendosi

all'impareggiabile record di dati di Landsat che abbraccia

quasi 50 anni di osservazione della Terra dallo spazio.

Nelle immagini disponibili nel sito di Landsat 9 (https://

svs.gsfc.nasa.gov/13987) sono mostrati ecosistemi costieri

in Australia; l'intersezione di città e coste nella

Florida Panhandle; ghiacciai in Alta Montagna in Asia e

campi agricoli che circondano il lago Erie.

Landsat 9 trasporta due strumenti che catturano le immagini:

Operational Land Imager 2, o OLI-2, che rileva

nove diverse lunghezze d'onda della luce visibile,

del vicino infrarosso e dell'infrarosso a onde corte; e il

sensore termico a infrarossi 2, o TIRS-2, che rileva due

lunghezze d'onda della radiazione termica per misurare

lievi variazioni di temperatura. Questi strumenti forniranno

agli utenti di Landsat 9 informazioni essenziali

sulla salute delle colture, sull'uso dell'irrigazione, sulla

qualità dell'acqua, sulla gravità degli incendi, sulla deforestazione,

sul ritiro dei ghiacciai, sull'espansione

urbana e altro ancora. OLI-2 è stato costruito da Ball

Aerospace e TIRS-2 è stato costruito dal Goddard Space

Flight Center della NASA. Northrop Grumman ha costruito

la navicella spaziale Landsat 9, l'ha integrata con

gli strumenti e ha testato l'osservatorio.

Il team Landsat 9 della NASA è nel bel mezzo di un

periodo di controllo di 100 giorni, che prevede il test

dei diversi sistemi e sottosistemi del satellite e la calibrazione

degli strumenti in preparazione alla consegna della

missione all'USGS a gennaio. L'USGS opererà Landsat

9 insieme a Landsat 8 e insieme i due satelliti raccoglieranno

circa 1.500 immagini della superficie terrestre

ogni giorno, coprendo il globo ogni otto giorni. I dati di

Landsat 9 saranno disponibili al pubblico, gratuitamente,

dal sito Web di USGS, non appena il satellite inizierà

le normali operazioni.

I dati di entrambi gli strumenti sono mostrati nelle due

coppie in questa immagine.

La parte in alto a sinistra mostra la neve e i ghiacciai

nelle montagne dell'Himalaya, che conducono al piatto

altopiano tibetano a nord. La parte in alto a destra mostra

la stessa area nei dati termici dello strumento TIRS-

2. Il colore blu-bianco indica temperature superficiali

relativamente più fredde, mentre il rosso arancio indica

temperature superficiali più calde. L'angolo inferiore

sinistro mostra i rettangoli marroni e verdi dei campi

agricoli nell'Ontario meridionale, racchiusi tra il Lago

Erie e il Lago St. Clair. I rettangoli bianchi e grigi nella

parte inferiore dell'immagine sono serre di produzione,

che si presentano come macchie bluastre (relativamente

più fredde) nell'immagine TIRS-2 a destra.

Alcuni link rapidi per il download delle prime immagini:

https://svs.gsfc.nasa.gov/vis/a010000/a013900/a013987/L9_

Navajo_hyperwall_rgb_labels.jpg

https://svs.gsfc.nasa.gov/vis/a010000/a013900/a013987/L9_

Himalaya_hyperwall_rgb_labels.jpg

https://svs.gsfc.nasa.gov/vis/a010000/a013900/a013987/L9_

Florida_20211031_p019r039.jpg

https://svs.gsfc.nasa.gov/vis/a010000/a013900/a013987/L9_

Australia_20211031_p109r070.jpg

Fonte: NASA's Goddard Space Flight Center, using data

from the U.S. Geological Survey

42 GEOmedia n°5-2021


MERCATO

C’è vita nel nostro mondo.

STONEX XH120 SLAM – NUOVO

LASER SCANNER CON TECNOLOGIA

SLAM

Airbus XH120 è un Laser Scanner portatile veloce

ed efficiente, incentrato sulla più recente tecnologia

STONEX SLAM.

Questo potente scanner permette di catturare in

modo facile e veloce modelli 3D di interni ed

esterni.

Scansione rapida

Non più molteplici scansioni, basta muoversi in

campo per raccogliere in pochi minuti l’intera nuvola

di punti 3D.

Carico di lavoro ridotto

Non è più necessario effettuare il noioso processo

di allineamento da nuvola a nuvola, scarica i dati

completi subito dopo l’acquisizione.

Tecnologia Stonex Slam

XH120 è dotato dei migliori sensori di elaborazione

in tempo reale: maggiore portata, più velocità,

più risoluzione, miglior campo di misura,

più affidabilità.





Flessibilità

Associa i dati raccolti in interno ed esterno, anche

negli ambienti più difficili.

In tempo reale

Potrai vedere l’avanzamento in tempo reale della

tua scansione e governare lo scanner XH120 con

un tablet o uno smartphone.

https://www.stonex.it/it/

info@stonex.it








www.epsilon-italia.it

www.inspire-helpdesk.eu

GEOmedia n°5-2021 43


MERCATO

QUANDO IL TELERILE-

VAMENTO INCONTRA

L'INTELLIGENZA ARTI-

FICIALE E IL GIS

Da un interessante articolo su

GeoConnexion vi riportiamo

come Rob Morrison descrive

in che modo coloro che hanno

già investito molto nella raccolta

di immagini e dati telerilevati

possono sfruttare la potenza del

GIS e del Machine Learning per

rilevare tendenze e modelli altrimenti

nascosti. La convergenza

di intelligenza artificiale, telerilevamento

e localizzazione presenta

enormi opportunità ai professionisti

GIS e insieme possono

essere utilizzate per consentire

un processo decisionale efficace

e tempestivo. Gli output derivati

ottenuti combinando questi tre

campi possono fornire informazioni

preziose, consentendo di

discernere modelli dove nulla era

precedentemente ovvio, consentendo

a coloro che possono interpretare

questi dati di sfruttare

questo potenziale. È "La scienza

del dove" in azione.

L'uso del telerilevamento è importante

perché contiene masse

di informazioni preziose se si

sa come estrarle. Questo tipo

di immagini viene catturato su

sensori montati su aerei, droni

senza pilota o satelliti. Immagini

di questo tipo sono sempre più

utilizzate in molte aree come

l'industria commerciale, la ricerca

scientifica, la gestione delle

emergenze e delle risorse, la sicurezza

e la ricognizione.

Questo, insieme alla disponibilità

quasi onnipresente di droni

e al basso punto di ingresso che

forniscono per ottenere fotografie

aeree di alta qualità, ha portato

a molte potenziali applicazioni

e usi che tradizionalmente potrebbero

essere stati impossibili

da ottenere per organizzazioni o

agenzie con budget ridotti.

Immagini+Machine Learning=

prodotti ricchi di informazioni

Facciamo un passo indietro e

pensiamo alle immagini. Nella

loro forma grezza le immagini

sono solo dati grezzi non strutturati.

File binari con righe e

colonne di pixel con numeri assegnati

che significano qualcosa

per qualcuno secondo una scala.

Le immagini contengono dati:

l'apprendimento automatico ci

consente di estrarre informazioni

da quei dati. Combinando la

potenza del GIS e dell'apprendimento

automatico, possiamo

trasformare questi dati non strutturati

in prodotti di informazioni

geospaziali da cui derivare

risultati e informazioni fruibili.

Applicazioni come l'agricoltura

di precisione, il rilevamento delle

modifiche, il rilevamento degli

obiettivi e la gestione delle risorse

sono solo quattro applicazioni

che possono trarre vantaggio dal

consumo di questi prodotti derivati.

Adottare un approccio geografico

al Machine Learning

Un'altra applicazione di questo

tipo è il rilevamento delle

impronte degli edifici. Alla fine

dell'anno scorso Rob e il suo

collega Jonathan Sloan hanno

tenuto un webinar su "Taking

a Geographic Approach to

Machine Learning". In quel webinar

sono state utilizzate tecniche

di machine learning e ortofotografia

per cercare di rilevare

le impronte degli edifici.

Il processo che abbiamo utilizzato

è stato ottenuto utilizzando

ArcGIS Pro 2.4.2 e le installazioni

out-of-the-box dei notebook

Anaconda e Jupyter che ne derivano.

L’approccio in sette

semoplici passi

1 - Selezionare un immagine di

allenamento

L'obiettivo era di determinare

l'efficacia di un approccio automatizzato

rispetto a un output

noto. L'immagine utilizzata era

una piccola area campione di

un'ortofotografia a 3 bande con

risoluzione di 16 cm che copriva

una piccola area a Bangor,

nell'Irlanda del Nord, acquisita

nel 2016.

2 - Identificare i dati di allenamento

Per l'area di input sono stati

anche ottenuti i poligoni per

le impronte di edifici esistenti

dal Catasto (Land and Property

Services). Questo è stato il set di

dati di base usato per il training

e per il confronto con l'output di

machine learning.

3 – Creare un dataset etichette

Il primo passo nel flusso di lavoro

di classificazione delle immagini

è stata la creazione di

campioni di addestramento. I

campioni di formazione "insegnano"

al modello di deep

learning quali possono essere le

dimensioni, la forma e la firma

spettrale dell'impronta di un

edificio. Più campioni vengono

forniti al modello, più accurato

sarà il risultato. Abbiamo usato i

poligoni LPS Building Footprint

per addestrare il nostro modello

e da questo abbiamo creato un

semplice set di dati di etichette

senza segno a 8 bit o un'immagine

raster classificata.

4 – Formazione del modello

Questo è il set di dati da utilizzare

per addestrare il modello,

utilizzandolo come input del raster

classificato per lo strumento

di geoprocessing. Insieme alla

ortofotografia come raster di input,

si possono impostare alcuni

parametri di base e quindi esportare

l'immagine chip che può

essere utilizzata per addestrare il

modello di deep learning.

L'output del training è un file

.emd che è un file Esri Model

Definition. Questo file è il ponte

tra il GIS e il framework di deep

learning.

5 - Inferenza

Avendo un set di dati di addestramento

e creato il modello,

si può eseguire quel modello su

un diverso set di ortofotografia,

nell'esempio ai link in calce sono

state usate immagini a 16 cm a

3 bande di Belfast catturate nel

2018. Si lancia quindi il comando

Classifica i pixel utilizzando

Strumento di geoprocessing di

Deep Learning che utilizza il raster

di Belfast e la definizione del

modello di deep learning creata

in precedenza come input.

L'output di questo processo è un

altro raster classificato, quello in

cui il modello di deep learning

ha identificato cluster di pixel

che rappresentano le impronte

dell'edificio.

6 - Creare poligoni di costruzione

Utilizzando questo raster classificato,

possiamo quindi eseguire

lo strumento di geoprocessing

"Raster to Polygon" per convertire

gli edifici raster in poligoni.

7. Regolarizzare i poligoni di output

Questo crea poligoni con molti

vertici e di forma irregolare,

quindi a questo punto potremmo

volerli ripulire un po' eseguendo

lo strumento di geoprocessing

"Regularize Building

Footprints" che rimuoverà quei

vertici in eccesso e squadrerà i

bordi dell'edificio. L'output di

questo strumento sono le impronte

verdi come mostrato nelle

immagini citate in calce.

In sintesi un processo di questo

genere che potrebbe far rabbrividire

i cartografi più avanzati, di

certo è agli inizi delle sue possibilità

e ci dimostra come un

qualcosa che era solo una remota

possibilità già da tempo auspicata,

stia andando verso una plausibile

realtà.

Riferimenti

1.https://bit.ly/3jX0WEk

2.https://bit.ly/3CU8dxe

3.https://bit.ly/3m2JQrn

4.https://bit.ly/2VUpXaT

44 GEOmedia n°5-2021


MERCATO

DATRONIX D20, IL NUO-

VO ROVER GNSS RTK

CON TECNOLOGIA IMU

Con l’introduzione di D20

GNSS RTK IMU Datronix

mette a disposizione un ricevitore

satellitare dotato della

più recente tecnologia oggi disponibile

a costi estremamente

vantaggiosi ed accessibili a tutti.

Rilievi topografici di precisione,

catastali, picchettamenti

in cantiere e per opere civili saranno

effettuati con impressionanti

risparmi di tempo e con

strabilianti precisioni!

D20 è un vero concentrato di

tecnologia in un dispositivo di

minime dimensioni (12 x 12 cm

di lato e 8.5 cm di altezza) e peso

(circa 725 g inclusa batteria).

Un ricevitore GNSS che offre

la compensazione automatica

dell'inclinazione con un sensore

IMU esente da calibrazione.

La compensazione avviene entro

45° di inclinazione della

palina dando la possibilità di

misurare punti inaccessibili

o pericolosi da raggiungere,

lasciando al topografo la necessaria

concentrazione sul rilievo

e riducendo il tempo per

le misurazioni dei punti ed il

picchettamento anche oltre il

30% (ovvero elimina completamente

i tempi di ‘messa in

bolla’).

Un sistema GNSS RTK con un

avanzatissimo ricevitore multifrequenza

a 624 canali, batteria

integrata per 15 ore di lavoro,

radio UHF per l’utilizzo dove

non è presente una rete GPS

ricevendo le correzioni differenziale

da un secondo GNSS

utilizzato come Base (per esempio

un Datronix D1).

Il potente cuore multifrequenza

di D20 garantisce il

tracciamento ottimale di tutti

segnali GNSS disponibili –

GPS Navstar, Glonass, Beidou,

Galileo, SBAS, QZSS….- anche

in ambienti difficili, consentendo

di effettuare rilievi

GNSS in qualunque condizione

in quanto è sempre garantito

il tracciamento di un

numero eccezionalmente alto

di satelliti.

DATRONIX D20 GNSS

viene pilotato dal software

ANDROID Landstar 7, sviluppato

da CHC Navigation

per ottimizzare le prestazioni

dei propri ricevitori, che viene

utilizzato su differenti controller

quali il palmare HCE 320

ed il tablet 8” DT8.

Dato che il software da campagna

è la componente direttamente

a contatto con il topografo

e deve risultare semplice,

completo ed user friendly, è

possibile togliersi ogni possibile

dubbio richiedendo una

licenza di Landstar 7 completa

e limitata nel tempo scrivendo

a info@datronix.it

Sottolineiamo che il sistema

viene fornito con il software

Windows 10 Datronix ONE,

prodotto in collaborazione con

Leonardo Software House, che

consente di scaricare, ricaricare,

esportare, importare e gestire

i dati del rilievo sia dal punto

di vista grafico sia analitico

con la creazione automatica di

libretti di campagna incluso

quello per PREGEO.

GNSS Surveying, il tuo modo

di lavorare.

Distribuito da DATRONIX

Srls – Lissone (MB)

www.datronix.it –

info@datronix.it

Works when you do

X-PAD Ultimate

Tutto in un unico software

X-PAD Ultimate è un software modulare, facile da usare per lavori


controlli BIM, strade, mappe, batimetria e GIS.

Il software è disponibile sulla piattaforma Android e porta le

migliori tecnologie direttamente in campo nella tua mano: una

completa visualizzazione 3D ed un sistema CAD per visualizzare e


di mappe, supporti per la realtà aumentata e molto altro.

XPad Ultimate ti assicura la produttività e ti permette di avere una

perfetta integrazione con tutti gli strumenti.

Disponibile in due versioni, una dedicata a chi lavora nel campo


offrendo ad entrambi delle caratteristiche dedicate.

geomax-positioning.it

GEOmedia n°5-2021 45

©2020 Hexagon AB and/or its subsidiaries


AGENDA

14-18 Dicembre 2021

ICC- International

Cartographic

Conference

Firenze

www.geoforall.it/kyk8k

18 – 20 Gennaio 2022

Commercial UAV Expo

Europe

Amsterdam

(Netherlands)

www.geoforall.it/kyx8u

23-24 Marzo 2022

Geo Connect Asia 2022

Singapore

https://www.

geoconnectasia.com/

27 – 29 Aprile 2022

GISTAM

gistam.scitevents.org/

Online Streaming

6 - 11 Giugno 2022

XXIV ISPRS Congress

Nice (France)

www.geoforall.it/kyx8u

16-18 Giugno 2022

D-SITE Drones -

Systems of Information

on culTural hEritage

Pavia (Italy)

www.geoforall.it/kyw6u

20-25 June 2022,

Nessebar (Bulgaria)

The 8th International

Conference on

Cartography and GIS

www.geoforall.it/kywu9

22-24 giugno 2022,

Potsdam (Germania)

- 12th EARSeL

Workshop on Imaging

Spectroscopy

www.geoforall.it/kyx46

2022

Data da confermare

Dal 1986 Teorema lavora

a fianco dei professionisti fornendo

la tecnologia topografica più avanzata,

la migliore formazione tecnica,

ed una accurata assistenza post-vendita,

per rendere più affidabile e produttivo

il vostro lavoro.

LEICA BLK360

CATTURA IL MONDO CHE CI CIRCONDA CON

IMMAGINI PANORAMICHE A COLORI SOVRAPPOSTE

AD ACCURATE NUVOLE DI PUNTI.

Facilissimo da usare con la pressione di un solo tasto.

Registra le scansioni e visualizza i dati sul campo

in pochi istanti.

Lo scanner più piccolo e leggero della sua categoria:

165 mm di altezza x 100 mm di diametro.

Nuvole di punti ad alta precisione: 360.000 punti/sec.

con risoluzione personalizzabile.

Rilevazione di immagini termiche con sensore FLIR ® ,

in contemporanea con la scansione delle immagini.

per maggiori informazioni

Contattaci, scoprirai molto di più!

Via A. Romilli, 20/8 - 20139 Milano • Tel. 02 5398739

E-mail: teorema@geomatica.it

www.geomatica.it • www.disto.it • www.termocamere.com


Sede in Italia

Più di 100 distributori nel mondo

Una linea di prodotti Made in Italy

Dove siamo Chiamaci Contaaci

Seguici sui Social

Viale dell’Industria 53

20037, Paderno Dugnano (MI)

Tel. +39 02 78619201

www.stonex.it

info@stonex.it - italia@stonex.it

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!