GEOmedia_1_2016

mediageo

La prima rivista italiana di geomatica

Rivista bimestrale - anno XX - Numero 1/2016 - Sped. in abb. postale 70% - Filiale di Roma

TERRITORIO CARTOGRAFIA

GIS

CATASTO

3D

INFORMAZIONE GEOGRAFICA

FOTOGRAMMETRIA

URBANISTICA

GNSS

BIM

RILIEVO TOPOGRAFIA

CAD

REMOTE SENSING SPAZIO

EDILIZIA

WEBGIS

UAV

SMART CITY

AMBIENTE

NETWORKS

BENI CULTURALI

LBS

LiDAR

Gen/Feb 2016 anno XX N°1

La prima rivista italiana di geomatica e geografia intelligente

EGNOS e GALILEO

per salvare vite

umane sulle strade

europee con e-Call

Scansione Laser Terrestre

e Sensori GNSS-RTK

Measuring quality,

understanding the value

Lotta a due tra

Google e Apple


Sotto

controllo

Codevintec Italiana

via Labus 13 - Milano

tel. +39 02 4830.2175

info@codevintec.it

www.codevintec.it

Strumenti per lo studio

del sottosuolo e dei fondali marini.

Sai cosa c’è sotto?

> Studio del sottosuolo

georadar, sismica, geoelettrica,

logger da foro.

> Rappresentazione

dei fondali e delle coste

Multibeam, SideScanSonar,

SubBottom Profiler.

Photo: Sophie Hay

> Vulcanologia

e Monitoraggio sismico

sismometri, gravimetri,

inclinometri.

> Monitoraggio ambientale

e Ingegneria civile

georadar, sismografi, laser

scanner, magnetometri.

> Qualificato laboratorio di

Assistenza Tecnica.

> Sistemi disponibili a noleggio.

> Noleggio a lungo termine.

CODEVINTEC

Tecnologie per le Scienze della Terra


Rilievo 3D, siamo pronti?

Per identificare le tendenze attuali nel settore del rilievo 3D, una ricerca di mercato organizzata

congiuntamente da BNP Media e dalla rivista POB ha portato interessanti risultati. L’intervista,

rivolta principalmente ai lettori della rivista americana POB (Point Of Beginning), ha ricevuto

risposta da professionisti che nella maggioranza dei casi - oltre l’80 per cento di tutti i partecipanti –

hanno il ruolo di approvare o raccomandare alle loro aziende l'acquisto di attrezzature. Considerata

la velocità attuale di adozione delle nuove tecnologie, molti geometri professionisti sentono il rischio

professionale di rimanere indietro se non si muovono più che velocemente. Al contempo però, sempre

i geometri segnalano una forte preferenza per gli strumenti tradizionali. Più del 90 per cento utilizza

stazioni totali. L’indagine ha mostrato un lieve calo rispetto allo scorso anno, ma non una variazione

statisticamente significativa. Un gap leggermente più grande è emerso per i sistemi GPS / GNSS il

cui uso aumenta di anno in anno.

Il 28% dei geometri utilizza strumenti specifici per il 3D, con un lieve aumento rispetto al 2015.

Il software di modellazione continua a guidare la lista dei tools utilizzati, passando dal 58 per cento

nel 2015 al 66 per cento nel 2016. Un aumento più forte si è verificato invece sui laser scanner

terrestri, quasi raddoppiando dal 19 per cento nel 2015 al 37 per cento nel 2016 (dati relativi al

primo trimestre). Una preoccupante anomalia appare nei sistemi LiDAR aerei, che scendono dal 48

al 23 per cento. Sicuramente l’avvento dei droni sta portando grandi problemi per le compagnie che

gestiscono aerei per rilevamento.

Gli intervistati inoltre segnalano che sia i college che le università (stiamo parlando degli Stati Uniti !)

non sono adeguati alla formazione della prossima generazione di geometri che dovrà essere in grado

di applicare la tecnologia 3D in modo corretto.

Uso degli strumenti 3D (da Point of Beginnings e BNP Media)

66% Software di modellazione 3D

54% Nuvole di punti

37% Laser scanner terrestri phase-based

31% Camere fotogrammetriche

31% Laser scanner terrestri time-of-flight

23% Lidar aereo

20% Lidar mobile terrestre

La domanda di servizi 3D è in rapida crescita, secondo quanto riporta la metà degli intervistati.

Una delle interessanti visioni di questa indagine è la percezione di ciò che sta guidando tale domanda.

Il rapporto qualità / prezzo è il parametro principale che guida, ma questo viene sempre più segnalato

come un fattore meno importante.

L’aumento notevole che si registra è nell’uso del 3D nei mercati di largo consumo

(film e videogiochi, per esempio) con un fattore del mercato di consumo che è passato da 3 per cento

nel 2015 al 17 per cento nel 2016.

Il settore della topografia e cartografia ha abbandonato da tempo la vecchia separazione tra planimetria

e altimetria che era dovuta alla semplificazione necessaria per le strumentazioni disponibili.

Oggi tutti i rilievi nascono 3D e forse non abbiamo ancora messo a punto sistemi di gestione e

valutazione che siano diversi dalle classiche proiezioni ortogonali con sezioni, prospetti e piante,

ormai retaggio della citata separazione plano-altimetrica che riusciva, anche bene comunque, a

rappresentare il mondo tridimensionale tramite proiezioni sui piani assonometrici fondamentali.

Buona lettura,

Renzo Carlucci


In questo

numero...

FOCUS

REPORTS

Guest

Geomatica per

l’informazione climatica

locale e per i Servizi

Climatici

Un caso di studio per

l’area mediterranea

di Emanuela Caiaffa, Luigi

La Porta e Maurizio Pollino

6

LE RUBRICHE

24 ASSOCIAZIONI

46 MERCATO

50 AGENDA

12

Salvare

vite umane

sulle strade

europee

eCall con

EGNOS e

Galileo

di Marco Lisi

In copertina un'immagine della casa

"Spirent Solutions for the Automotive

Industry". Fra i Servizi wireless, il cui

fondamento è la connettività, rientra

anche e sopratutto il sistema eCall. Ogni

automobile ne sarà predisposta a partire

dall'aprile 2018. L'iniziativa paneuropea

è stata progettata per accelerare i tempi di

risposta circa la gestione delle emergenze

stradali. Questi dispositivi favoriranno la

riduzione dei decessi sulle strade europee.

(Credits: Spirent)

Scansione laser

terrestre e

sensori GNSS-RTK

per la creazione

di modelli spaziali

urbani

di Luigi Colombo

16

geomediaonline.it

GEOmedia, bimestrale, è la prima rivista italiana di geomatica.

Da 20 anni pubblica argomenti collegati alle tecnologie dei

processi di acquisizione, analisi e interpretazione dei dati,

in particolare strumentali, relativi alla superficie terrestre.

In questo settore GEOmedia affronta temi culturali e tecnologici

per l’operatività degli addetti ai settori dei sistemi informativi

geografici e del catasto, della fotogrammetria e cartografia,

della geodesia e topografia, del telerilevamento aereo e

spaziale, con un approccio tecnico-scientifico e divulgativo.


INSERZIONISTI

Aerrobotix 15

26 Monitoraggio innovativo

per la gestione

dell’inquinamento

ambientale provocato da

rilasci abusivi di rifiuti

l’esperienza del

progetto DroMEP

di Carmine Massarelli, Maria Rita

Muolo, Vito Felice Uricchio e

Nicola Dongiovanni

Esri Italia 25

Flytop 22

Geogrà 45

Geomax 43

Hexagon S&I 11

Italdron 48

Me.S.A. 31

Planetek 23

Progesoft 46

Sinergis 51

Codevintec 2

Epsilon 37

Geografia

intelligente

e user experience

Lotta a due tra

Google e Apple

nel mondo delle

informazioni

geospaziali per tutti

di Domenico Santarsiero

32

Sistemi Territoriali 50

TECHNOLOGYforALL 47

Teorema 41

Topcon 49

Trimble 52

38 Volunteered

geographic

information

measuring quality,

understanding the

value

by Vyron Antoniu

una pubblicazione

Science & Technology Communication

Direttore

RENZO CARLUCCI, direttore@rivistageomedia.it

Comitato editoriale

Vyron Antoniou, Fabrizio Bernardini, Mario Caporale, Luigi

Colombo, Mattia Crespi, Luigi Di Prinzio, Michele Dussi,

Michele Fasolo, Flavio Lupia, Beniamino Murgante, Aldo

Riggio, Mauro Salvemini, Domenico Santarsiero, Attilio

Selvini, Donato Tufillaro

Direttore Responsabile

FULVIO BERNARDINI, fbernardini@rivistageomedia.it

Redazione

VALERIO CARLUCCI, GIANLUCA PITITTO,

redazione@rivistageomedia.it

Diffusione e Amministrazione

TATIANA IASILLO, diffusione@rivistageomedia.it

Comunicazione e marketing

ALFONSO QUAGLIONE, marketing@rivistageomedia.it

Progetto grafico e impaginazione

DANIELE CARLUCCI, dcarlucci@rivistageomedia.it

MediaGEO soc. coop.

Via Palestro, 95 00185 Roma

Tel. 06.62279612 - Fax. 06.62209510

info@rivistageomedia.it

ISSN 1128-8132

Reg. Trib. di Roma N° 243/2003 del 14.05.03

Stampa: SPADAMEDIA srl

VIA DEL LAVORO 31, 00043 CIAMPINO (ROMA)

Editore: mediaGEO soc. coop.

Condizioni di abbonamento

La quota annuale di abbonamento alla rivista

Science

è di €

&

45,00.

Technology Communication

Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di

ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa.

L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita

revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza

dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo.

La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti.

Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta

dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere

richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo.

Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la

riproduzione anche parziale del contenuto di questo numero della Rivista in

qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i

sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore.

Rivista fondata da Domenico Santarsiero.

Numero chiuso in redazione il 20 marzo 2016.


FOCUS

Geomatica per l’informazione climatica

locale e per i Servizi Climatici

Un caso di studio per l’area mediterranea

di Emanuela Caiaffa,

Luigi La Porta e Maurizio Pollino

La diffusione dei dati relativi ai Cambiamenti

Climatici deve prevedere una comunicazione,

chiara, accessibile e percepibile da tutti: i Servizi

Climatici si pongono come «interpretatori» dei

dati climatici scientifici, da comunicare agli

utenti finali per incontrare le loro necessità.

Fig. 1 - Collocazione dei Servizi Climatici tra dati e osservazioni

scientifiche, modelli previsionali e utenti finali.

Il presente lavoro descrive un

metodo per superare i problemi

legati alla scienza dei

cambiamenti climatici al fine di

rendere quest’ultimi, e tutte le

loro implicazioni, accessibili agli

utenti finali: stakeholders, decisori

politici, cittadini. Un moderno

approccio scientifico, deve

prevedere una comunicazione

sulle condizioni climatiche, con

particolare riguardo al tema dei

cambiamenti climatici, chiara,

accessibile e percettiva per tutti,

soprattutto allo scopo di far sorgere

il giusto interesse per questi

temi. I risultati provenienti dallo

studio dei cambiamenti climatici,

oltre ad essere recepiti dai

responsabili politici, che devono

prendere decisioni che portino

ad azioni concrete per mitigarne

i possibili effetti negativi futuri,

devono anche essere riconosciuti

dai comuni cittadini che dovranno

accettare eventuali restrizioni

potenzialmente condizionanti le

loro abitudini di vita (per esempio

dei propri consumi energetici).

Di conseguenza, appare necessario

rigenerare il mondo dei policy

makers in modo da renderlo più

aperto e partecipe agli strumenti

di comunicazione interattiva di

rete.

Caso di studio e obiettivi

Viene descritto un caso di studio

volto alla definizione di uno strumento

in grado di rispondere ai

seguenti requisiti:

• sviluppare una metodologia in

grado di fornire informazioni

sul clima, a livello regionale, e

anche a scala locale, adeguate,

inerenti alla realtà e funzionali

per le esigenze dei diversi segmenti

della società [1, 2];

• sviluppare uno strumento di

tipo bottom-up, al fine di coinvolgere

le parti interessate e i

responsabili politici sin dalle

prime fasi del processo di ricerca,

con l’obiettivo di avere una

buona visione delle loro specifiche

esigenze a scala regionale e

locale [3];

• sviluppare un’applicazione

WebGIS, basata su casi di

studio relativi a diversi settori

della società, come il turismo,

l’energia, i rischi naturali (ad

esempio, gli incendi) per l’area

del Mediterraneo.

Servizi Climatici: che cosa sono?

I Servizi Climatici (SC) riguardano

la produzione della conoscenza

del clima e la sua comunicazione

allo scopo, tra gli altri, di assicurare

che la migliore disponibile

scienza del clima riesca ad arrivare

come notizia utile per tutti.

I SC forniscono informazioni

realistiche sul clima e funzionali

alle esigenze di diversi fruitori

che vanno dai semplici cittadini,

agli stakeholders, ai responsabili

politici, ai settori industriali ed

agricoli, nonché quelli relativi a

turismo, servizi, salute pubblica,

ecc. Inoltre i SC ci informano

del clima futuro per valutare e, se

necessario, per contrastare le cause

prime dei CC, studiare eventuali

manovre di adattamento e nuove

6 GEOmedia n°1-2016


FOCUS

strategie di investimento.

Sostanzialmente tra gli scopi dei

Servizi Climatici ci sono i seguenti

obiettivi:

• compilare informazioni sul clima,

redatte e trasmesse per soddisfare

le esigenze degli utenti;

• fornire informazioni del clima

in modo da supportare il processo

decisionale sia da parte di

individui che di organizzazioni;

• avere a disposizione un meccanismo

di accesso alle informazioni

efficace e che risponda

alle esigenze degli utenti;

• colmare l’ultimo miglio di distanza

tra la grande quantità di

dati climatici e le esigenze degli

utenti finali.

Servizi Climatici: comunicazione e

visualizzazione

Tra i ben noti problemi legati alla

ricerca scientifica climatologica,

si deve tenere conto del problema

della comunicazione dei dati/

risultati e della loro condivisione e

visualizzazione.

L’obiettivo dei Servizi Climatici

è quello di fornire informazioni

climatiche su misura, consultabili

e personalizzabili, al fine di

fornire gli strumenti decisionali

per gli utenti finali, per ridurre

la vulnerabilità delle loro attività

e ottimizzare gli investimenti in

vista della variabilità del clima e

del suo cambiamento. La ricerca

climatologica si basa su climi

passati, presenti e futuri e produce

previsioni su scale temporali

mensili, stagionali o decennali,

facendo anche uso di proiezioni

climatiche a seconda dei diversi

scenari di emissione di gas a effetto

serra. Queste previsioni sono

percepite dai responsabili politici,

dai cittadini, ecc., con un certo

grado di incertezza che diventa

cruciale quando i soggetti interessati

devono formulare misure

di mitigazione che devono essere

comprese e adottate. Un insieme

di caratteristiche distinguono i

dati sui cambiamenti climatici e

si possono riassumere come: l’incertezza,

la tipologia, il modo di

come studiarli, le azioni con cui

mitigarli, ecc. e, infine, ma non di

minore importanza, la maniera di

come comunicarli [4, 5].

Il presente lavoro, utilizzando dati

provenienti da modelli climatologici,

dimostra come la Geomatica

risulta adatta a caratterizzare territorialmente

i fenomeni climatici

coinvolti (figura 1) e quanto si sia

rivelato utile creare un’applicazione

geografica basata sul Web

(WebGIS) per comunicare i dati e

condividere i risultati.

Materiali e metodi

I modelli climatici rappresentano

una buona parte dei processi

fisici di una regione e sono utili

per spiegare le variazioni di temperatura

e precipitazioni, i cambiamenti

di radiazione solare e la

velocità del vento. L’area mediterranea

è particolarmente interessata

dai cambiamenti climatici e ci si

aspetta per il futuro un aumento

di temperatura con estati più secche.

È possibile immaginare come

questo aspetto rivesta la massima

importanza sia per un’area densamente

popolata sia per gli effetti

sulle innumerevoli attività umane

(turismo, agricoltura, piscicoltura,

traffici navali, ecc.) che in essa, e

su di essa insistono.

Ma il vero problema cruciale è

quello di realizzare finalmente

una correlazione reale ed efficace

tra scienziati e pubbliche amministrazioni,

includendo anche

organismi e istituzioni coinvolte

nella preparazione di piani di

prevenzione e nella classificazione

dei potenziali impatti dei cambiamenti

climatici.

Dati iniziali

Il modello regionale accoppiato

PROTHEUS, è composto da

un modello atmosferico regionale

RegCM3 e dal modello

oceanografico MITgcm, unito

dall’accoppiatore OASIS3 [6].

L’orizzonte temporale, di interesse

per lo studio, è il periodo 2010-

2050, al fine di comprendere i

contributi sia di variabilità interdecennale,

sia del cambiamento

climatico. Tra i risultati prodotti

dai modelli climatologici/matematici

le grandezze caratterizzanti

il presente studio sono: Climate

Index (TCI), Wind Power (WP)

e Fire Weather Index (FWI), che

provengono da simulazioni condotte

con i modelli climatologici

MED44i_ERAINT e Protheus.

I risultati delle simulazioni modellistiche

effettuate per l’area

mediterranea sono memorizzati

come file in formato NetCDF

(Network Common Data Form).

Metodologie GIS e WebGIS

Attraverso opportune elaborazioni,

i file NetCDF sono stati

trasformati in un formato GIS

compatibile e opportunamente

strutturati in un progetto GIS.

In questo modo è stato possibile

sfruttare i vantaggi di elaborare

dati georiferiti, aggiungendo un

nuovo significato dal punto di

vista degli Indici Climatici, dato

dalla possibilità di combinare

queste informazioni con altri tipi

Fig. 2 - Architettura

logica del WebGIS

CLIMRUN

GEOmedia n°1-2016 7


FOCUS

di dati caratterizzanti l’area dal

punto di vista socio-economico.

DataBase geospaziali e mappe

vengono conservati e gestiti in un

appropriato repository: possono

essere visualizzati e interrogati

per mezzo di un desktop GIS o

via web (tramite un’applicazione

WebGIS).

Il WebGIS CLIMRUN

Lo scopo principale del WebGIS

CLIMRUN, dovendo comunicare

risultati climatici, è di rendere

territorialmente compatibili e facili

da gestire, gli output dei modelli

climatici, che forniscono dati sugli

scenari attuali e futuri riguardanti

alcuni temi di interesse come:

Tourism Climatic Index ( TCI)

[7, 8, 9] , Wind Power (WP) [10]

e Fire Weather Index (FWI) [11,

12].

Il WebGIS CLIMRUN, utilizza

software open source, il cui uso è

regolato solo dalla licenza GNU

General Public License. In particolare,

come Web server e Web

application, gli ambienti software

utilizzati sono: GeoServer (http://

geoserver.org) e Geo-Platform

(https://github.com/geosdi/geoplatform)

sviluppato da geoSDI

(www.geosdi.org).

Applicazione WebGIS

L’applicazione WebGIS in oggetto

è accessibile all’indirizzo:

Fig. 3 - Esempio che mostra i cambiamenti del TCI.

http://www.climrun.eu/webgisclimrun/index.html

Dalle simulazioni condotte con

modelli climatologici regionali

come PROTHEUS (che ha un

orizzonte temporale al 2050) e

MED44i_ERAINT sono stati

ricavati i seguenti indici: Tourism

Climate Index (TCI), Wind

Power (WPI), Fire Weather Index

(FWI).

Tourism Climate Index (TCI)

Il TCI è un metodo per quantificare

e classificare un “clima

favorevole”, basato sulla nozione

di “human comfort”, tipicamente

per interessi turistici, con lo scopo

di determinare se e come le risorse

turistiche in Europa possano cambiare

per ragioni legate ai cambiamenti

Climatici [9].

Il TCI è stato sviluppato da

Mieczkowski [13] e consiste di

cinque sub-indici ognuno rappresentato

da una o due variabili

climatiche pesate in accordo con

la loro relativa importanza.

La formula di Mieczkowski è:

TCI = 2˖ [(4C dt

+ C dl

+ 2R+ 2S +W)] = 100 (1)

in cui Cdt è il daytime comfort,

Cdl è il daily comfort, R è la precipitazione,

S è il sunshine e W è

il vento.

Il daytime comfort index Cdt usa

le variabili: temperatura massima

giornaliera e umidità relativa minima

giornaliera ed ha un peso,

nel calcolo del TCI, del 40%. Il

daily comfort index usa le variabili:

temperatura media giornaliera e

umidità relativa ed ha un peso del

10%. Il termine R è la precipitazione

totale con peso del 20%,

mentre S (sunshine) indica le ore

totali di luce del sole con peso del

20%. Infine, W è la velocità media

del vento con peso del 10% [14].

Per ottenere i cambiamenti che

subirà il TCI nell’intervallo futuro

2021-2050 (rispetto a quello

dell’intervallo passato 1961-

1990), si opera, mediante un

approccio GIS-based, una sottrazione

dei files ottenuti dalle elaborazioni

e simulazioni dei modelli.

Nella figura 3, che mostra la differenza

tra le elaborazioni dello scenario

del passato (1961-1990) e lo

scenario previsto (2021-2050), si

può vedere dove e in che misura si

attendono cambiamenti del TCI,

tenendo presente che “rosso” (class

decrease) indica un peggioramento,

che investe proprio l’area del

bacino del Mediterraneo.

Wind Power Index (WPI). I campi

di vento possono essere considerati

come variabile climatica

d’interesse sia per la produzione di

energia da rinnovabili [10], sia per

la previsione del rischio naturale

da incendi boschivi [15]. Oltre le

previsioni now-casting e stagionali,

per quanto riguarda il settore

energetico, sarebbe necessario

disporre di una modellazione

del vento in un arco temporale

più lungo in modo da avere una

buona valutazione locale utile alla

stima dei rischi che potrebbero

influenzare il rendimento degli

investimenti nel tempo.

L’esempio mostrato in figura 8

mostra l’andamento degli scenari,

ottenuti analizzando i set di dati

eolici su tutta l’area europea e

mediterranea. La domanda a cui

rispondere è: quali cambiamenti

ci aspettiamo in termini di energia

eolica?

8 GEOmedia n°1-2016


FOCUS

Essa diminuirà o aumenterà nei

prossimi quarant’anni? Mappando

gli scenari WP per i due intervalli

di tempo, e WP_1961_1990,

WP_2021_2050, e determinando

la loro differenza, è stato possibile

calcolare e poi visualizzare, le aree

in cui la WP diminuisce e le aree

in cui aumenta.

Il tematismo del Wind Power,

riportato in figura 4, mostra il

risultato della differenza tra i due

scenari: quello relativo al periodo

2021 2050 e quello relativo al

periodo 1961 1990. La rappresentazione

cromatica mostra l’entità

e la posizione sulla mappa dell’aumento

o del decremento della

Wind Power in termini di GWh/

year. E’ possibile chiaramente

individuare alcune zone, dell’Europa

centrale e di alcune aree

Mediterranee (che appaiono in un

colore più vicino al rosso) in cui

la differenza è in positivo: questo

indica un aspettato aumento della

Wind Power di circa 3 GWh/year.

Fire Weather Index (FWI). E’ facile

intuire quanto importante ed

attuale sia il tema della occorrenza

degli incendi boschivi e della loro

intensità e vastità nonché delle

loro implicazioni con i cambiamenti

climatici. Risultati sulla

tendenza del clima mediterraneo,

sottolineano sempre più estati di

siccità, in alcuni casi anche più

lunghe rispetto alla durata della

normale stagione [15].

Il nome di questo indice, letteralmente

Fuoco Meteo, ci indica

che il FWI dipende fortemente

da parametri meteorologici (come

temperatura, pioggia, vento, etc.).

Per investigare sulle relazioni tra

il rischio incendi e le condizioni

meteorologiche uno dei più

accreditati metodi è il Canadian

Fire Weather Index FWI (http://

cwfis.cfs.nrcan.gc.ca/background/

summary/fwi): un indice basato

sulla meteorologia, sviluppato

in Canada e usato in tutto il

mondo, incluse l’Europa e l’area

Mediterranea.

Fig. 4 - Differenza tra i due scenari: 2021 2050-1961 1990 per il WPI.

Il FWI è un utile strumento per

stimare il pericolo del fuoco, in

un modo generalizzato, basato su

specifiche osservazioni meteorologiche

come: valori medi giornalieri

della temperatura massima

dell’aria, umidità relativa, velocità

del vento, cumulata delle precipitazioni

sulle 24 ore. Tutto questo

per calcolare i valori giornalieri di

FWI.

Per interpretare il trend del FWI

mostrato nella figura 5, è ragionevole

pensare che questo indice

dipende fortemente dai parametri

meteorologici come pioggia, temperatura,

ecc. Le aree con una visibile

differenza nei valori del FWI

sono quelle più affette da siccità,

aumento nel tempo della temperatura

dell’aria, scarsità delle precipitazioni.

Il risultato dello studio

sta nell’individuare dove avviene

il salto da una classe all’altra da

parte dei valori dell’indice stesso.

Il salto della classe può essere in

positivo o in negativo e indica

territorialmente dove ci si aspetta

un cambiamento per il futuro,

nell’intervallo di tempo 2021-

2050. Una applicazione del FWI

nel campo della pianificazione

territoriale e della protezione civile

potrebbe permettere un più efficace

modo di prevenire gli incendi,

una buona protezione delle foreste

in qualsiasi periodo e, in particolar

modo, nei periodi estivi e di

particolare siccità. Tuttavia, è importante

sottolineare che il FWI

Fig. 5 - Differenza tra i due scenari: 2021-2050 (giugno, luglio, agosto) - 1961-1990 (giugno, luglio, agosto).

GEOmedia n°1-2016 9


FOCUS

è calcolato prendendo in considerazione

solo parametri meteorologici

per l’area Mediterranea, non

considerando importanti parametri

come il land cover, le categorie

di vegetazione e l’altitudine. Le

zona con una maggiore differenza

FWI (colore rosso sulla mappa di

figura 6) sono quelle più colpite

dalla siccità, aumento nel tempo

della temperatura dell’aria, la scarsità

piogge, etc.

Conclusioni

Allo scopo di accorciare le distanze

che separano i cittadini

dai politici, ed entrambe le categorie

dal mondo accademico, sta

sempre più avendo successo un

nuovo modo di approcciare le

informazioni tecnico-scientifiche.

Il cambiamento dell’approccio dei

responsabili politici ai problemi

scientifici, fa emergere la necessità

di sviluppare strumenti per aiutare

a fare politica scientifica e tecnologica,

e per condurre ricerca integrata

volta ad individuare gli strumenti

più favorevoli alla costruzione di

una società europea basata sulla

conoscenza.

Il WebGIS CLIMRUN ha

rivelato la sua efficacia nella

pubblicazione e condivisione dei

risultati provenienti da modelli

matematici climatici con la possibilità

di essere coerentemente

legati al territorio. L’utilità del lavoro

è stato quella di vedere dove

insistono le differenze tra i diversi

scenari e quindi dove sono aspettate

variazioni e/o cambiamenti di

temperatura, della disponibilità di

energia eolica, ecc., che possono

influenzare, ad esempio, le attività

umane come il turismo, la produzione

di energia da eolico, ecc.

Infine, l’utilizzo di software opensource,

è stato un fattore chiave in

grado di semplificare la strada per

la diffusione e la condivisione dei

risultati ottenuti nell’ambito delle

attività di ricerca.

BIBLIOGRAFIA

[1] Spruijt P., Knol A. B., Vasileiadou E.,

Devilee J., Lebret E., Petersen A. C.: Roles of

scientists as policy advisers on complex issues:

a literature review. Environmental Science

& Policy. Volume 40, June 2014, pp. 16–25

(2014)

[2] Hamilton, L.: Education, politics, and

opinions about climate change: evidence for

interaction effects. Clim. Change (2010)

http://dx.doi.org/10.1007/s10584-010-

9957-8 (2010)

[3] Caiaffa, E.: Geographic Information

Science in Planning and in Forecasting. Institute

for Prospective Technological Studies

(eds.) in cooperation with the European

S&T Observatory Network. The IPTS Report,

vol. 76, pp.36--41, European Commission

JRC, Seville, (2003)

[4] Godess C.: Climate Services. Climatic

Research Unit University of East Anglia UK

c.goodess@uea.ac.uk, First CLIM-RUN workshop

on climate services (2012)

[5] Doubuais, G.: Using ENSEMBLES to

communicate uncertainty CLIMRUN School

on climate services. ICTP, Trieste, (2012)

[6] Artale V., Calmanti S., Carillo A., Dell’Aquila

A., Herrmann M.,, Pisacane G., Ruti

P.M., Sannino G., Struglia M.V., Giorgi F.,

Bi X., Pal J. S., Rauscher S. The Protheus

Group: An atmosphere–ocean regional

climate model for the Mediterranean area:

assessment of a present climate simulation”

Clim. Dyn 35:721-740 (2009)

[7] Perch-Nielsen S. L., Amelung B., Knutti

R.: Future climate resources for tourism in

Europe based on the daily Tourism Climatic

Index. Climatic Change 103:363–381 DOI

10.1007/s10584-009-9772-2(2010)

[8] Amelung B., Viner D.: Mediterranean

tourism exploring the future with the

Tourism Climatic Index. J Sustain Tour

14:349–366 (2006)

[9] Hamilton J. M., Maddison D., RSJ T.:

Climate change and international tourism:

a simulation study. Glob. Environ. Change

15:253–266 (2005)

[10] Caiaffa E., Pollino M., Marucci

A.: A GIS Based Methodology in Renewable

Energy Sources Sustainability. International

Journal of Agricultural and Environmental

Information Systems, Vol. 5, No. 3, July-

September (2014)

[11] Amraoui M., Liberato M.L.R., Calado

T.J., DaCamara C.C., Coelho L.P., Trigo

R.M., Gouveia C.M.: Fire activity over Mediterranean

Europe based on information

from Meteosat-8. Forest Ecology and Management

294, 62–75 (2013)

[12] Brotons L., Aquilué N., de Cáceres M.,

Fortin M. j., Fall A. : How fire history, fire

suppression practices and climate change

affect wildfire regimes in Mediterranean

landscapes. Wildfire Regime Change in

Mediterranean Landscapes PLOS ONE 8,

e62392 (2013)

[13] Mieczkowski Z.: The Tourism Climatic

Index: a method of evaluating world climate

for tourism. The Canadian Geographer / Le

Géographe canadien, Volume 29, Issue 3,

pages 220–233, September (1985)

[14] Tourism Climatic Index (TCI) C. Giannakopoulos

Institute of Environmental Research

& Sustainable Development National

Observatory of Athens, Greece, September,

2012

[15] Cane D., Ciccarelli N., Gottero F., Francesetti

A., Pelfini F., Pelosini R.: Fire Weather

Index application in north-western Italy.

Advances in Science and Research, Copernicus

Publications, 2, pp.77-80 (2008)

ABSTRACT

The present paper describes a methodology

developed for overcoming problems linked to

the climate changes science in order to make

it effectively accessible to end users: stakeholders,

policy makers, citizens. In today’s scientific

approach, communication on climatic information

and on climatic changes condition,

has to be clear, accessible and perceptive to

everyone, to definitely arise the right interest

on such problem. Results coming from climatic

changes Research and Development projects,

in addition to being accepted by policymakers,

that have to take future decisions and practical

actions to mitigate their possible negative

effects, must also be recognized and believed

by ordinary citizens that have to understand

and accept restrictions, for example in energy

consumptions, potentially affecting their habit

of life. Accordingly, it will be necessary to regenerate

policy-making world so as to make it

more direct and potentially open to networking

interactive communication tools.

PAROLE CHIAVE

Geomatica; Servizi Climatici; GIS; WebGIS

AUTORE

Emanuela Caiaffa

emanuela.caiaffa@enea.it

Luigi La Porta , Maurizio Pollino

ENEA National Agency for New Technologies,

Energy and Sustainable Economic

Development, UTMEA Energy and Environmental

Modelling Technical Unit,

C.R. Casaccia, Via Anguillarese, 301 – 00123

Rome, Italy

10 GEOmedia n°1-2016


FOCUS

GEOmedia n°1-2016 11


FOCUS

Salvare vite umane

sulle strade europee

eCall con EGNOS e Galileo

Fig. 1- Da Aprile 2015, il logo

eCall sta diventando popolare

in Europa (Fonte: Commissione

Europea).

di Marco Lisi

Il 28 aprile 2015 il Parlamento

Europeo ha votato a favore della

“Regulation” (cioè la legge europea)

eCall, che impone a tutti i nuovi

modelli di autovetture e furgoni

leggeri che verranno certificati per il

mercato europeo di essere dotati di

un nuovo sistema automatico per le

emergenze, chiamato per l’appunto

eCall, a partire da aprile 2018.

Fig 2 - le quattro fasi d’intervento del sistema eCall. (Fonte: Commissione Europea).

e

Call sarà un servizio

completamente gratuito,

che fornirà aiuto alle

vittime di incidente stradale il

più rapidamente possibile. In

caso di un grave incidente, l’apparecchiatura

eCall a bordo del

veicolo compone automaticamente

il numero unico di emergenza

europeo 112 e comunica

ai servizi di emergenza la posizione

esatta del veicolo ( e qui

entra in gioco la rete mondiale

dei GNSS, incluso Galileo), il

momento del sinistro e la direzione

di marcia (dato molto

importante sulle autostrade e in

galleria), anche se il conducente

è incosciente o incapace di fare

una chiamata telefonica.

Una richiesta di emergenza

eCall può tuttavia anche essere

attivata manualmente, per

esempio dal testimone di un

grave incidente, premendo un

pulsante di emergenza sul cruscotto

dell’autoveicolo.

Il concetto alla base di eCall

fu originariamente presentato

nel 1999 dai servizi tecnici

della Commissione Europea

all'inizio del progetto Galileo.

Il concetto è stato sviluppato

in una serie di atti legislativi

necessari per rendere possibile

il servizio finale: l'adeguamento

dei centri di risposta di emergenza

pubblica in tutta Europa

(ad esempio, per visualizzare

la posizione dell'incidente su

mappe digitali), la facilitazione

del trasferimento dei dati tra il

veicolo e il centro di emergenza

e, infine, l'inserimento su veicoli

di un dispositivo eCall in

grado di calcolare la posizione

e comunicare con il centro di

emergenza. Quest’ultimo ed

importante atto legislativo si

realizza per mezzo di un nuovo

regolamento di omologazione:

per essere venduti in Europa un

nuovo modello di auto o furgone

leggero deve essere dotato di

un dispositivo eCall, compresa

la funzione GNSS, che ha superato

il relativo collaudo in

laboratori autorizzati.

La Commissione europea ha

proposto per la prima volta il

regolamento sull'omologazione

eCall nel giugno 2013, stimando

che, una volta che il sistema

sarà a regime, potrebbe salvare

centinaia di vite ogni anno e

aiutare le persone ferite ad ottenere

un recupero più rapido. [1]

Il progetto eCall è stato sostenuto

dall’associazione dei costruttori

europei di automobili

(ACEA) e da ERTICO – ITS

(Intelligent Transport System)

Europe, organizzazione che

promuove la ricerca e definisce

standard di settore.

eCall sarà un importante infrastruttura

di servizio europeo,

derivante dalla sinergia di

tecnologie di comunicazione

avanzate con quelle offerte dall’

infrastruttura di posizionamento,

navigazione e sincronizzazione

europea, basata sui sistemi

EGNOS e Galileo.

12 GEOmedia n°1-2016


FOCUS

Che cosa è eCall

e come funziona

eCall è un sistema basato sul

numero unico europeo di

emergenza 112 e comprende le

apparecchiature a bordo dei veicoli

(“In-Vehicle System”, IVS)

e l’infrastruttura per ricevere e

gestire la richiesta di soccorso,

che si attiva in modo automatico

tramite sensori di bordo (ad

esempio, quelli degli airbag) o

manualmente.

Il sistema scambia, per mezzo di

reti pubbliche wireless per comunicazioni

mobili, un

set minimo di dati (“Minimum

Set of Data", MSD, contenente

informazioni critiche circa

l’incidente) e stabilisce un canale

audio (sempre basato sul

numero 112) fra gli occupanti

del veicolo ed un eCall "Public

Safety Answering Point" (PSAP),

che è un luogo fisico dove le

chiamate di emergenza vengono

ricevute sotto la responsabilità di

un'autorità pubblica o di un'organizzazione

privata riconosciuta

dallo specifico Stato membro

dell'Unione Europea.

La connessione cellulare può anche

essere attivata manualmente.

In ogni caso, il collegamento

112 voce è identificato come

una chiamata di emergenza da

parte del gestore di rete mobile

(Mobile Network Operator,

MNO), che instrada la chiamata

al centro di interventi di emergenza

o PSAP più appropriato. A

quel punto l'operatore PSAP riceverà

sia la chiamata vocale che

il cosiddetto “insieme minimo di

dati” (MSD), una parola digitale

con una dimensione massima di

140 byte che comprende l'esatta

posizione geografica del veicolo,

la direzione di marcia, la modalità

(automatica o manuale), il numero

di telaio ed altre informazioni

utili ad attivare le squadre

di pronto intervento necessarie

a soccorrere le vittime di incidenti.

L'operatore PSAP è anche

in grado di ascoltare ciò che sta

accadendo all'interno del veicolo

e di parlare con gli occupanti. In

questo modo, i servizi di emergenza

più efficaci possono essere

rapidamente spediti alla scena

dell'incidente: ambulanza, vigili

del fuoco, polizia, ecc.

L'architettura del

sistema eCall

La figura 3 mostra l’architettura

complessiva del sistema eCall.

Un elemento chiave per il successo

di eCall è l'automazione

della notifica dell'incidente stradale,

ovunque in Europa, con gli

stessi standard tecnici e la stessa

qualità del servizio, utilizzando

“Public Land Mobile Networks”

(PLMN) (ad esempio GSM e

UMTS).

Gli standard che descrivono

la trasmissione dei dati eCall

sono stati sviluppati dal Mobile

Standards Group Technical

Committee dello European

Telecommunications Standards

Institute (ETSI), insieme al

3GPP (Third Generation

Partnership Project), di cui

l'ETSI è membro fondatore.

Il 3GPP ha specificato i requisiti

di telecomunicazione del

servizio eCall, i protocolli di

trasmissione dei dati e gli aspetti

della rete di segnalazione. Il

modem utilizzato per trasferire

il MSD dal veicolo al PSAP

è stato anche specificato dal

3GPP.

L’ETSI MSG ha inoltre fornito

una guida generale ed ha

sviluppato specifiche di prova

standardizzate per consentire ai

produttori di apparecchiature

eCall di garantire l'interoperabilità

dei loro prodotti.

Il lavoro è anche in corso per

sviluppare le specifiche ed assicurare

che esse possano essere

implementate su reti LTE / 4G

(ed in futuro 5G).

Le apparecchiature di bordo

(“In-Vehicle Equipment”)

Gli apparati di bordo del sistema

eCall (Figura 4) devono essere in

grado di iniziare, gestire e finalizzare

la procedura di trasmissione

del messaggio di soccorso (attivata

in modo automatico tramite

i sensori a bordo dei veicoli

sensori ovvero manualmente).

Tale messaggio contiene un set

minimo di dati, tra i quali informazioni

sulla posizione derivanti

dal ricevitore di segnali GNSS.

Attraverso le reti pubbliche wireless

per comunicazioni mobili

si deve ottenere un collegamento

Fig. 3 - L’architettura

complessiva del sistema

eCall.

Fig. 4 - Architettura dell’apparato di bordo eCall.

GEOmedia n°1-2016 13


FOCUS

Fig. 5 - Il sistema ERA-GLONASS, realizzato nella

Federazione Russa e compatibilecon il sistema europeo

eCall (Fonte: Glonass Union).

dati/voce quasi istantaneo con il

PSAP più prossimo all’area del

sinistro.

I dati di posizione trasmessi si

riferiscono all’ultima posizione

nota del veicolo determinata

dal ricevitore GNSS di bordo

al momento dell’attivazione del

messaggio. Nel caso in cui le informazioni

disponibili non siano

adeguate a fornire una determinazione

affidabile della posizione,

il dato di posizione conterrà

la migliore stima basata sull’ultima

posizione ottenuta in presenza

di un’adeguata fonte di dati

disponibili, ovvero su un calcolo

basato su altre informazioni

disponibili (“dead-reckoning” o

navigazione stimata).

ECall e GNSS: sfruttando le

sinergie tra le infrastrutture

europee

La disponibilità di informazioni

sulla posizione degli autoveicoli

accurate ed affidabili è un elemento

essenziale per il funzionamento

efficace del sistema eCall.

Per questo motivo il regolamento

eCall prevede l’utilizzo di tutte

le costellazioni di satelliti per la

navigazione esistenti, richiedendo

in particolare la compatibilità

del sistema almeno con i servizi

forniti dai sistemi europei

Galileo ed EGNOS (“European

Geostationary Navigation

Overlay System”). L'obiettivo è

di beneficiare di tutti i segnali

GNSS disponibili per garantire

la migliore disponibilità del segnale

in ogni regione e in ogni

condizione.

Una speciale attenzione è stata

dedicata nella stesura del regolamento

eCall alle molte preoccupazioni

derivanti dal trattamento

dei dati personali relativi agli

individui. La Commissione

Europea ha adottato tutte le

misure necessarie per salvaguardare

la privacy degli occupanti

dei veicoli, previa consultazione

con le autorità nazionali di protezione

dei dati ( i cosiddetti

“Garanti della privacy”) e l'Ufficio

Europeo per la Protezione

dei Dati (“European Data

Protection Supervisor office”).

Il timore principale è che, attraverso

le apparecchiature eCall

installate nei propri veicoli, i

cittadini europei possano essere

continuamente controllati (ad

esempio, nel loro comportamento

di guida) e che, in ultima analisi,

la loro “privacy” possa essere

violata.

Per rispondere a questa preoccupazione,

la specifica dell’apparato

eCall di bordo (“In-Vehicle

System”, IVS) prevede che esso

rimanga inattivo in trasmissione

fino al malaugurato verificarsi

di un grave incidente. Inoltre,

qualsiasi trattamento di dati personali

attraverso il sistema eCall

rispetterà la legislazione in materia

di dati personali e la tutela

dei consumatori.

Lo “stato dell’arte” dei

sistemi di emergenza in

Europa e nel mondo

Sistemi proprietari simili ad

eCall e che si basano su SMS e

reti cellulari sono già oggi forniti

da alcuni produttori di automobili.

Il problema principale è

stato finora la standardizzazione

dei protocolli di comunicazione

e delle apparecchiature a bordo

dei veicoli, per non parlare

della complicazione in termini

di certificazione e di problemi

di responsabilità derivanti dalla

mancanza di una soluzione unica

su scala europea.

In pratica, ad oggi nell’Unione

Europea solo circa l'1% dei

veicoli sono attualmente dotati

di sistemi di emergenza privati;

inoltre, questi sistemi proprietari

non offrono interoperabilità e

continuità di servizio su tutto il

territorio della UE.

Nella Federazione Russa, un

sistema denominato ERA-

GLONASS (Figura 5) è stato

ufficialmente approvato nel gennaio

2015, dopo una risoluzione

del governo della Federazione

russa del 26 Dicembre 2014.

Il sistema è simile a quello europeo

eCall e si basa sulla compatibilità

sia con il sistema globale

di navigazione russo GLONASS

sia con il sistema americano

GPS. Le soluzioni tecnologiche

sviluppate per il sistema ERA-

GLONASS sono compatibili

con eCall e possono essere integrate

nel sistema europeo di

chiamata di emergenza 112.

In Nord America, servizi proprietari

simili ad eCall sono

forniti da alcuni importanti

produttori di auto (ad esempio

il sistema OnStar della General

Motors).

ECall: benefici attesi

ed opportunità future

Il primo e più importante motivo

che ha spinto l'Unione Europea

verso l'adozione del sistema eCall

di chiamata di emergenza in ogni

nuovo autoveicolo sulle strade

d’Europa è la prevista riduzione

dei decessi per incidenti: si stima

che eCall, quando pienamente

operativo, possa salvare ogni

anno almeno 2500 vite umane,

riducendo inoltre la gravità delle

lesioni non mortali e la sofferenza

umana ad esse associata.

Le chiamate di emergenza effettuate

da veicoli o telefoni cellulari

che utilizzano tecnologie wireless

possono già oggi aiutare a ridurre

in modo significativo morti e

feriti in incidenti stradali, ma i

conducenti spesso hanno la consapevolezza

imprecisa della loro

14 GEOmedia n°1-2016


FOCUS

posizione, soprattutto se su strade

interurbane o all'estero. Nei casi

più gravi, inoltre, le vittime potrebbero

non essere in grado di

chiamare perché seriamente ferite

o intrappolate nel veicolo.

Ma, anche lasciando da parte i

benefici umanitari per i cittadini

europei, eCall è supportata da un

“business case” molto convincente:

solo nel 2009, ci sono stati in

Europa 1,15 milioni di incidenti

stradali, con circa 35.000 vittime

e 1,5 milioni di feriti: una vera e

propria carneficina! Tutto ciò rappresenta

un costo annuo di circa

160 miliardi di euro per i paesi

europei.

In termini freddamente finanziari,

eCall, offrendo una tempo di

risposta alle emergenze fino al 50

per cento volte più veloce e riducendo

così i morti per incidente

d'auto ed il numero di persone

gravemente ferite, può far risparmiare

ai contribuenti europei

molti miliardi di euro ogni anno

(fino a 20 miliardi di euro, secondo

alcuni studi).

Ulteriori benefici si possono poi

aspettare dalla riduzione degli ingorghi

di traffico causati da incidenti,

con conseguente riduzione

degli sprechi di carburante e delle

emissioni di CO2.

Con l’avvento della tecnologia

eCall, in particolare con la disponibilità

di ogni futuro veicolo

europeo di apparecchiature di

comunicazione e posizionamento

wireless avanzate, si apre una vasta

gamma di possibili applicazioni

e servizi, ad esempio, i cosiddetti

“Location Based Services” (LBS).

Infatti, l'adozione della piattaforma

eCall avvicinerà sicuramente

i due mondi dell’”automotive” e

delle telecomunicazioni.

Case automobilistiche e fornitori

potranno anche offrire una serie

di nuovi servizi a valore aggiunto,

letteralmente rivoluzionando il

loro tradizionale approccio alla

manutenzione e alla logistica.

Con eCall sarà inoltre più facile

implementare le applicazioni già

esistenti, come l'assicurazione

auto telematica "pay-as-youdrive",

i pedaggi stradali elettronici

ed il tracciamento dei veicoli

(“fleet management”). Infine,

è previsto anche un mercato

retrofit. Quando eCall inizierà

ad apparire nei veicoli di nuova

produzione, molti utenti decideranno

di aggiornare il loro veicolo

con prodotti “after-market”.

Uno sguardo al futuro

L'implementazione di sistemi

eCall in tutto il mondo renderà

necessario stabilire requisiti

uniformi per tali sistemi, con la

definizione di un regolamento

relativo ai sistemi di chiamata

d'emergenza in caso di infortuni

a livello delle Nazioni Unite.

Questa iniziativa può favorire

l'interoperabilità tra i sistemi e

facilitare lo sviluppo di soluzioni

armonizzate ai sensi dell’accordo

del 1958 della Commissione

Economica delle Nazioni Unite

per l'Europa (UNECE).

In generale, eCall rappresenta un

ottimo esempio dell’utilizzo di

tecnologie avanzate, in particolare

quelle relative allo spazio ed alla

navigazione, al diretto servizio

dei cittadini. Costituisce inoltre

un atto di presa di responsabilità,

con autentico “spirito di servizio”,

da parte dell’Unione Europea

nell’ambito della gestione delle

infrastrutture critiche della nostra

società.

RIFERIMENTI BIBLIOGRAFICI

[1] The Impact Assessment performed by the European Commission

in 2011 reports the figures on cost and benefits: http://

ec.europa.eu/newsroom/dae/document.cfm?doc_id=2252

[2] “Road safety in the European Union. Trends, statistics and

main challenges”. European Commission, March 2015: http://

ec.europa.eu/transport/road_safety/pdf/vademecum_2015.pdf

PAROLE CHIAVE

eCall; Galileo; GNSS; Regulation; EGNOS

ABSTRACT

The article describes a new life-saving system envisaged for

cars in the near future: eCall. This system was approved by the

European Parliament in April 2015 and obliges all new models

of cars and light vans, that will be certified for the European

market, to integrate eCall automatic In-Vehicle Equipment

for emergencies, starting from April 2018.

AUTORE

Dr. ing. Marco Lisi

marco.lisi@ieee.org

European Space Agency (ESA)

• Rilievi batimetrici automatizzati

• Fotogrammetria delle sponde

• Acquisizione dati e immagini

• Mappatura parametri ambientali

• Attività di ricerca

Vendita – Noleggio - Servizi chiavi in mano, anche con strumentazione cliente

GEOmedia n°1-2016 15


REPORTS

SCANSIONE LASER TERRESTRE E

SENSORI GNSS-RTK PER LA CREAZIONE

DI MODELLI SPAZIALI URBANI

di Luigi Colombo

L’articolo sviluppa i temi della

ricostruzione metrica dell’ambiente

urbano e del costruito, attraverso

uno studio effettuato sulla cittadina

termale di San Pellegrino Terme (BG),

ben nota anche per i suoi rilevanti

caratteri Liberty. Vengono descritti sia

la fase di rilevamento con laser scanner

terrestre e geo-referenziazione diretta,

tramite sensori satellitari GNSS-RTK

e la rete NetGeo, sia la costruzione di

un modello 3D multi-scala con texture

fotografiche dell’abitato.

Fig. 1 - Scansione geo-referenziata di punti oggetto.

L’

innovazione tecnologica

nel settore del

rilevamento terrestre

ha portato in anni recenti alla

diffusione di sistemi automatizzati,

comprendenti più sensori

integrati e multi-funzione e l’immagine

fotografica; questi sistemi

possono eseguire sul campo

una serie di operazioni metriche

che vanno dalla georeferenziazione

diretta di oggetti in un

riferimento assegnato, all’acquisizione

rapida delle loro geometrie

spaziali (esterne, interne e

di copertura) e di informazioni

tematiche (colori, materiali,

degrado) attraverso il supporto

di tecnologie 3D, di tipo laser o

fotogrammetriche di prossimità.

I sistemi misurano da terra, sono

trasportati su veicoli stradali o

piccoli aeromobili a pilotaggio

remoto di ultima generazione.

Una fase di acquisizione del dato

così evoluta consente di semplificare

significativamente il processo

di rilievo, incrementando da

un lato la produttività generale e

dall’altro la completezza dei sottoprodotti

metrici di interesse,

vettoriali e raster (prospetti, viste

assonometriche e ortografiche,

sezioni orizzontali e verticali,

carte tematiche dei materiali e

del degrado), estraibili dal modello

3D.

L’articolo affronta il tema del

rilievo multi-scala del territorio

urbano attraverso un’applicazione

sul centro storico dell’abitato

di San Pellegrino Terme; vengono

utilizzate tecniche avanzate

di laser-scanning, di notevole

impegno per l’estensione e per il

grado di dettaglio richiesti, con

lo sguardo attento alle qualità

dei manufatti architettonici e

alla loro storia. Il tutto viene poi

analizzato tramite la creazione di

percorsi immersivi e navigabili

di lettura e indagine nel modello

virtuale ricostruito.

Ne emerge il forte sviluppo ini-

Fig. 2 - Bracket

di ancoraggio del

ricevitore satellitare

sopra lo scanner.

16 GEOmedia n°1-2016


REPORTS

ziale di questo insediamento,

pensato per lo svago e il benessere,

seguito da un progressivo decadimento

che solo nuove idee e

un rinnovato amore per il luogo

potranno arrestare.

Standard per la costruzione

di modelli urbani

La costruzione e la gestione di

modelli virtuali 3D dell’ambiente

urbano (city modelling)

sono oggi regolamentate

dall’Open Geospatial

Consortium (OGC) attraverso

lo standard CityGML.

Questi modelli, in genere

multi-scala, trovano applicazioni

territoriali che spaziano,

per esempio, dalla simulazione

del paesaggio alla pianificazione

urbana, dalla gestione di eventi

calamitosi alla verifica della sicurezza

territoriale.

La modellazione presuppone la

discretizzazione di specifiche entità

geometriche selezionate sulla

base di un predefinito livello di

dettaglio (LoD), scelto fra cinque

caratterizzati da una ricchezza

di documentazione crescente

in relazione sia della geometria

degli oggetti sia dei loro contenuti

tematici.

Il modello può comprendere

rappresentazioni multiple di

ciascun oggetto, con attribuzione

di texture per aumentarne il

realismo.

I livelli introdotti variano dalla

semplice rappresentazione 2,5D,

corrispondente al LoD0, fino

alla modellazione 3D, arricchita

anche dagli interni del livello di

dettaglio LoD4. In particolare,

i caratteri distintivi risultano i

seguenti, ben noti:

• LoD0 (si tratta di un modello

2.5D, in cui è presente una

descrizione planimetrica più

l’annotazione delle quote);

• LoD1 (fa riferimento a un

modello solido senza coperture);

Fig. 3 - Organizzazione del rilevamento multi-scala sull’abitato di S. Pellegrino.

• LoD2 (corrisponde a un

modello solido con coperture

e texture);

• LoD3 (si tratta di un modello

architettonico con particolari

costruttivi);

• LoD4 (riguarda un modello

che comprende gli interni e

la navigabilità virtuale).

Sulla base del livello di dettaglio

selezionato, viene stabilita una

metodologia di rilievo, le tecnologie

di supporto e i dati da acquisire,

anche in riferimento alle

finalità di impiego del modello

spaziale.

Rilevamento per

scansione laser terrestre

e per immagini

L’acquisizione con queste tecnologie

fornisce una sequenza

di nuvole dense di punti oggetto

referenziabili in un sistema di riferimento

assegnato.

Tale operazione può essere effettuata

nel caso della scansione laser

sia in modalità indiretta, tramite

punti di controllo (GCP) presegnalizzati

sull’oggetto o coincidenti

con particolari naturali, sia

diretta, utilizzando un sistema di

posizionamento e orientamento

satellitare (GNSS), associato al

sensore di rilevamento laser.

Il sistema di posizionamento satellitare

utilizza dati di correzione

(misure di codice o fase) per la

localizzazione differenziale del

sensore di rilevamento: precisione

XYZ di tipo centimetrico

(s.q.m. al 95%), sia in modalità

interattiva RTK sia in post-processamento

PPK.

Le correzioni di posizione vengono

trasmesse via Internet da una

delle reti di stazioni permanenti

attive sul territorio: per esempio,

in questa applicazione, dalla rete

italiana NetGeo di Topcon.

Risulta pertanto in gran parte superato

l’impiego di punti di controllo

o di particolari naturali comuni

per l’aggregazione spaziale

delle nuvole di punti, nonché per

la loro geo-referenziazione in un

sistema di riferimento univoco.

Il procedimento diretto, cioè

senza utilizzo di particolari per

la connessione, è particolarmente

conveniente in applicazioni

territoriali con aree estese (che

richiedono parecchie scansioni)

quando sia necessario un livello

di dettaglio corrispondente o

inferiore al LoD2 (in analogia

con le scale al 200 o inferiori) e

precisioni di qualche centimetro

nella posizione dei punti oggetto

sul modello.

GEOmedia n°1-2016 17


REPORTS

Fig. 5 - Sequenze operative del processo di rilevamento.

È evidente che laddove la ricezione

del segnale satellitare non

risulti garantita si dovrà procedere

in modalità indiretta o mista.

In ogni caso, è utile collocare sul

modello alcuni punti di controllo

(CP = Check Points), misurando

topograficamente la loro

posizione, così da permettere la

valutazione dell’accuratezza spaziale

(RMS al 95%) raggiunta

nella ricostruzione.

La figura 1 mostra lo schema

operativo adottato per l’acquisizione

geo-referenziata (diretta)

dei punti oggetto: sono utilizzati

un sensore laser (Faro) e due

ricevitori satellitari (Topcon),

montati con un apposito raccordo

rispettivamente sopra lo

scanner (fig. 2) e su un punto di

orientamento (insieme ad una

mira); entrambi i ricevitori, che

operano in modalità staticorapida,

sono connessi telematicamente

ad una rete di correzioni

satellitari (NetGeo) per il loro

posizionamento RTK nel sistema

di riferimento nazionale

(ETRF 2000).

Questo accorgimento operativo,

ripetuto due volte con diverse

costellazioni satellitari, consente

altresì la costruzione di una

pseudo-rete satellitare che fa da

inquadramento geodetico spaziale

al set di scansioni registrate,

con accuratezze poco più che

centimetriche.

La figura 3 mostra l’organizzazione

dei livelli di dettaglio progettati

per l’intervento multiscala

sull’abitato di S. Pellegrino

Terme.

Le scansioni effettuate durante

la campagna di rilevamento

sono state complessivamente

200, con la risoluzione spaziale

media riportata in figura 4. La

consistenza informatica è risultata

di circa 26 GB (Fig. 5).

L’applicazione sull’abitato di S.

Pellegrino Terme è stata progettata

con l’obiettivo di documentare

il territorio e di costruire

percorsi di lettura metrica e

analisi dei caratteri del Liberty e

dell’Art Nouveau presenti negli

edifici dell’abitato.

San Pellegrino Terme è un centro

turistico, un tempo assai alla

moda nel mondo della borghesia

imprenditoriale milanese, situato

lungo la Valle del Brembo

a nord della città di Bergamo.

Famoso da sempre per le sue

acque curative, spicca nel panorama

territoriale locale per

il fascino indiscusso delle sue

architetture e l’eleganza dell’ambiente

urbano.

Tra i gioielli artistici presenti

Fig. 4 - Risoluzione spaziale media delle scansioni.

emerge il Casinò Municipale

(con le due torri) che richiama

quello di Montecarlo, realizzato

tra il 1904 e il 1906 e riportato

recentemente agli antichi splendori,

e l’imponente Grand Hotel

del 1904 che fronteggia, con il

suo prospetto ricco di decori, la

riva sinistra del fiume Brembo.

Si tratta, in questo caso, di un

edificio cupolato di sette piani,

lungo 128 metri e con 250

stanze arredate sfarzosamente,

che è collegato al Casinò e alle

Terme, posti sulla sponda destra

del fiume, dal bel ponte Principe

Umberto I.

Oltre a queste costruzioni, sono

opere pregevoli anche il palazzo

del municipio, la funicolare che

sale alla fonte, gli edifici delle

terme, alcune ville e alberghi, la

stazione della vecchia ferrovia,

tutte edificate agli inizi del secolo

scorso durante gli anni della

Belle Époque.

Gli elementi costruttivi presentano

forti richiami allo stile floreale

(noto anche come Liberty),

che si sviluppò in Europa, come

superamento delle regole neoclassiche

ed espressione dell’Art

Nouveau, dalla fine dell’Ottocento

allo scoppio della Prima

Guerra Mondiale; lo stile va

famoso per i suoi decori: gli

18 GEOmedia n°1-2016


REPORTS

stucchi su porte e finestre, i fregi,

le volute e le spirali, le vetrate

dipinte e le rifiniture in ferro

battuto.

Al fine di poter registrare anche

questi caratteri tipologici del

costruito, l’intervento di rilievo

è stato eseguito, come indicato,

su più livelli di dettaglio, che

spaziano dallo zero al quattro

e corrispondono alle scale

1:1000-1:200, 1:100 e 1:50. Si

è utilizzato un laser scanner Faro

Focus X330, con foto-camera

RGB incorporata, caratterizzato

da una lunga portata (circa 350

metri) e dunque particolarmente

efficace per il rilievo di esterni e

di spazi territoriali. Con questa

tecnologia diviene possibile altresì

una riduzione significativa

delle stazioni necessarie per l’acquisizione

delle informazioni,

potendo spaziare agevolmente

fra dettagli costruttivi distribuiti

trasversalmente alla stretta valle

del Brembo.

Percorsi virtuali nel Liberty

L’abitato di San Pellegrino Terme

si sviluppa prevalentemente lungo

il fiume Brembo, secondo un

asse geometrico che va all’incirca

da Sud a Nord (Fig. 6).

Tuttavia, causa l’avvento della

Belle Époque e il rapido sviluppo

dell’insediamento a cavallo

tra Ottocento e Novecento, i

dettami urbani originari verranno

presto superati dalle stravaganze

del Liberty.

Infatti, nel periodo d’oro di

San Pellegrino Terme, il mezzo

più efficace e d’avanguardia per

raggiungere la cittadina termale

era rappresentato dalla linea

ferroviaria. Questo assunto, stravolgendo

la tipica prospettiva

valliva, comportò l’ideale traslazione

verso est dell’asse urbano,

considerando la Stazione FVB

come porta d’accesso privilegiata

del turismo borghese alla “Ville

d’Eau”.

Il viaggiatore tipo, sceso dalle

Fig. 6 - Vista 3D del modello di punti, con il Brembo e il Grand Hotel.

carrozze del treno all’ombra della

pensilina lignea e superate le

porte della stazione, si trovava di

fronte una sorta di “frontiera” tra

il mondo reale di provenienza e

quello dorato di San Pellegrino

Terme (fig. 7).

In Piazza Granelli (la piazza della

Stazione), lo sguardo del viaggiatore

veniva attratto dalla mole

gigantesca del Grand Hotel,

contenitore di lussi e ozio, di nobiltà

e alta borghesia.

A questo punto, il visitatore attento

poteva riconoscere il filo

conduttore del percorso Liberty:

una serie di piloni decorativi

in cemento, ideati dall’arch.

Cavallazzi e ornati con volute

ed elementi curvilinei in ferro

battuto raffiguranti lo stemma

comunale, regolava il flusso dei

Fig. 7 - La stazione della ferrovia Val Brembana.

GEOmedia n°1-2016 19


REPORTS

Fig. 8 - Esempi di elementi e decori Liberty degli edifici di S. Pellegrino Terme.

Fig. 9 - Sezione trasversale al corso del fiume Brembo (restituzione vettoriale e ortofoto).

turisti e contrassegnava la passeggiata

verso i luoghi più belli della

cittadina termale (fig. 8)

Due coppie di pilastri, poste agli

ingressi del Grand Hotel, preannunciano

(ancora oggi) l’inizio

di questo percorso che segue

uno sviluppo Est-Ovest lungo il

Ponte Umberto I, con due altri

ordini di pilastri posti all’inizio

e alla fine della struttura (fig. 9).

Il viaggiatore è così irrimediabilmente

guidato verso Ovest, con

lo sguardo rivolto alle svettanti

torri del Casinò.

La facciata rettilinea dello

Stabilimento termale (fig. 10)

accompagna il visitatore con

colonne, lesene, volute e capitelli

verso il rigoglioso parco secolare

dell’Hotel Terme, che si adagia

perfettamente al pendio dietro

un’altra coppia di piloni del

Cavallazzi.

Continuando il percorso naturale,

si arriva infine al cospetto

dell’esempio più sfarzoso del

Liberty locale, il Grand Kursaal,

cioè il Casinò (fig. 11).

Ma non tutti i visitatori possono

concedersi al gioco d’azzardo;

decisamente più salutare risulta

dunque un soggiorno in altura

negli agresti panorami della

Vetta, condotti dalla Funicolare

San Pellegrino - Kulm, che risale

il fianco della montagna ed è

ora in fase di ristrutturazione

(fig.12).

Più sotto, si apre il lungo

Brembo, che presenta gli alberghi,

i bar e i ristoranti del

passeggio turistico che contraddistingue

questa riva del fiume,

opposta a quella del Grand

Hotel. Il viaggiatore, ormai rapito

da queste atmosfere, si può

immergere nel relax della città,

nel suo sfarzo, nella spensieratezza

dei tanti ambienti che San

Pellegrino Terme offriva e offre

ancora oggi.

Fig. 10 - L’edificio delle Terme (restituzione vettoriale e ortofoto).

20 GEOmedia n°1-2016


REPORTS

Fig. 11 - Il Casinò descritto dalle nuvole di punti.

Fig. 12 - La funicolare.

Il percorso virtuale

La creazione di un percorso

virtuale di analisi lungo l’asse

Liberty di San Pellegrino Terme

è stata realizzata attraverso una

campagna di misure effettuata

con laser scanner 3D panoramico:

questo ha condotto alla

costruzione di un modello generale

di punti, colorato e georeferenziato,

in grado di fornire

una documentazione misurabile

e consultabile per molteplici usi.

Il percorso nel Liberty si sviluppa

fra viewpoint (cioè punti di

interesse), scelti come stazioni per

scansioni laser in grado di fornire

una lettura immersiva della

città e delle sue architetture.

L’applicazione proposta sfrutta

le potenzialità del software Faro

Scene, grazie anche all’utilizzo

del plug-in VideoPro adatto alla

gestione di navigazioni interattive

3D che intersecano tutti o

alcuni viewpoint del modello, a

seconda delle impostazioni selezionate

dall’utente. La modalità

di visualizzazione dinamica sul

terreno è integrabile con viste

virtuali dall’alto, generate dal

modello di punti per cogliere

l’effettiva tridimensionalità

dell’urbanizzazione.

In corrispondenza dei punti

d’interesse, sono possibili anche

forme di consultazione statica

delle elaborazioni geometriche e

tematiche inerenti ai singoli oggetti

architettonici.

I limiti dell’applicazione sono

attualmente ritrovabili nella

cospicua mole di dati che il

processore deve elaborare per

il caricamento delle scansioni

del modello. Infatti, se si vuole

realizzare un percorso virtuale

all’interno del modello è necessario

disporre dei dati di tutte le

200 scansioni effettuate, il che

porta irrimediabilmente ad un

surplus di memoria RAM non

sempre sostenibile agevolmente

da un PC.

Misurabilità con Scene

WebShare Cloud

Molto significativa risulta anche

l’applicazione WebShare, utilizzabile

su un server anche privato,

che offre funzionalità interessanti

sia perché abilita la presentazione

dell’intero repertorio delle stazioni

inerenti alla scansione laser

(con le scansioni in vista panoramica

geo-referenziata) sia perché

permette operazioni di misura

lineare, areale e volumetrica (sulle

immagini sferiche corrispondenti)

nonché eventuali collegamenti

ipertestuali (fig. 13).

WebShare permette una più

flessibile lettura e gestione del

territorio rilevato e delle sue antropizzazioni.

Fig.13 - Vista di Scene WebShare con

l’immagine sferica scelta e il set di

quelle disponibili.

GEOmedia n°1-2016 21


REPORTS

Considerazioni finali

L’esperienza sviluppata ha messo

in luce le grandi potenzialità che

la scansione laser terrestre può

offrire per la documentazione e

l’analisi multi-scala del territorio

urbano, soprattutto quando il

sensore sappia garantire portate

elevate, come il nuovo scanner

Focus X330. Tutto questo, anche

a seguito dell’evoluzione

raggiunta nella fase di acquisizione,

contraddistinta sempre

più da automazione e rapidità,

semplicità d’uso e crescente affidabilità.

Il processo di scansione si avvale

in modo massivo del contributo

del software che occupa un

ruolo centrale sia ai fini del collegamento

delle nuvole di punti

sia per la realizzazione di elaborati

tecnici misurabili (rastervettoriali).

La texturizzazione

fotografica e materica è attualmente

meglio integrata con la

geometria acquisita, grazie alla

registrazione diretta di nuvole

di punti colorati da parte degli

scanner più recenti e a una più

efficace classificazione dell’energia

di ritorno a scopi tematici.

Le criticità maggiori riguardano

invece l’utilizzo professionale

del dato 3D e l’estrazione da

esso di elaborati grafici bidimensionali

di tipo vettoriale,

per i quali l’intervento manuale

in affiancamento ai software di

modellazione CAD, generici

o più dedicati all’applicazione,

rappresenta un aspetto essenziale

per la qualità del prodotto

finale. La mole ridondante dei

dati memorizzati rende poi pesanti

le operazioni da effettuare

sul modello, cosa questa che

neppure i processori di ultima

generazione hanno saputo

risolvere concretamente. Si

deve, infine, sottolineare come,

soprattutto in aree fortemente

antropizzate, la geo-referenziazione

diretta acquisti un ruolo

significativo: il fatto di poter

utilizzare sensori satellitari RTK

per il collegamento (diretto e

automatico) delle nuvole, rappresenta

un valore aggiunto del

processo di rilevamento territoriale

(seppure più oneroso) ed

appare sicuramente consigliabile

dove possibile.

Ringraziamenti

Si ringraziano Lorenzo Filippini

e Riccardo Begnis, che su questa

esperienza hanno sviluppato

brillantemente la loro tesi di

laurea magistrale in Ingegneria

Edile, e l’Ing. Giorgio Ubbiali

di DMStrumenti per il supporto

tecnologico durante la campagna

di misure.

BIBLIOGRAFIA

P.J. Besl, N.D. McKay, A method for registration of 3-D

shapes. IEEE Transactions on Pattern Analysis and

Machine Intelligence 14(2), 239–256 (1992)

C. Brenner, C. Dold, N. Ripperda, Coarse orientation

of terrestrial laser scans in urban environments. ISPRS

Journal of Photogrammetry and Remote Sensing 63(1),

4–18 (2008)

C. Strecha, P. Fua, L.Van Gool, A generative model

for true orthorectification, in ISPRS International

CongressSymposiun, Bejing, 2008

M. Doneus, M. Pfennigbauer, N. Studnicka, A. Ullrich,

Terrestrial waveform laser scanning for documentation of

cultural heritage, in XXIIth CIPA Symposium, Kyoto

Japan, 2009

G.V. Vosselman, H. G. Maas, Airborne and terrestrial

laser scanning. Whittles Publishing, Caithness, Scotland,

2010

J. Chow, D.D. Litchi, W.F. Teskey, Accuracy assessment

of the Faro Phocus 3D and Leica HDS 6100 panoramictype

terrestrial laser scanners through point-based and

plane-based user self-calibration, in FIG Working Week,

Rome, 1-15 (2012)

J. Yang, H. Li, Y. Jia, Go-ICP: solving 3D registration

efficiently and globally optimally, in IEEE International

Conference on Computer Vision, 1457–1464 (2013)

L.Colombo, B. Marana, Terrestrial laser scanning for

urban survey: a test-case over the Dalmine company-town,

Territorio Italia 2, 57-69 (2014)

L.Colombo, B. Marana, Terrestrial multi-sensor survey:

field experiences and remarks, Geomedia – Intergeo

Special Issue 3, 20-23 (2014)

L.Colombo, B. Marana, Terrestrial multi-sensor survey,

GeoInformatics 18(3), 18-21 (2015)

PAROLE CHIAVE

Gnss-Rtk; netgeo; laser scanner; rilievo urbano

ABSTRACT

The paper develops the topics for the metric documentation

of urban environments and buildings through an experimental

test regarding the thermal city of S. Pellegrino Terme, famous

for its Art Noveau characters. The performed process of

terrestrial laser survey, with a direct GNSS-RTK geo-referencing

via a Reference Station Network, and the correspondent

construction of a multi-scale photo-textured model of the site

are described in detail.

AUTORE

Luigi Colombo, luigi.colombo@unibg.it

Università di Bergamo - DISA - Geomatica

Dalmine (BG)

22 GEOmedia n°1-2016


REPORTS

GEOmedia n°1-2016 23


ASSOCIAZIONI

MERCATO

GEOWEB e mediaGEO

insieme per promuovere

la Geomatica

GEOWEB e mediaGEO hanno

stipulato un accordo di collaborazione

per promuovere l’informazione

legata al settore della Geomatica

e del patrimonio culturale.

GEOWEB S.p.A. impegnata nello

sviluppo e diffusione di servizi

basati sull’Information Technology

rivolti ai professionisti, e

mediaGEO - editrice delle riviste

GEOmedia ed Archeomatica

nonché dei relativi portali web

- in virtù del citato accordo, promuoveranno

iniziative indirizzate

a diffondere la Geomatica. Tra le

prime iniziative messe in cantiere

segnaliamo il patrocinio per

il prossimo Forum TECHNO-

LOGY for ALL che si svolgerà

a Roma dal 4 al 6 ottobre 2016

(www.technologyforall.it).

GEOWEB è fra i primi partner

che hanno concesso il patrocinio

al Forum. La collaborazione avviata

riguarda anche l’accesso alle

riviste edite da mediaGEO, che

permetterà ai clienti PREMIUM

di GEOWEB di avere un abbonamento

annuale gratuito alla versione

digitale di GEOmedia e Archeomatica

e inoltre la possibilità

di acquistare a prezzi scontati l’abbonamento

annuale delle versioni

cartacee. GEOWEB è nata per lo

sviluppo e la diffusione di servizi

basati sull’Information Technology

rivolti ai professionisti.

La società nasce da un’iniziativa

del Consiglio Nazionale Geometri

e Geometri Laureati e di Sogei

S.p.A. per rendere disponibili un

insieme di servizi mirati a semplificare

l’attività professionale degli

iscritti alla categoria, a migliorare

il rapporto con la Pubblica

Amministrazione e a costituire

nuove opportunità di lavoro.

Maggiori informazioni sui servizi

offerti da GEOWEB sono disponibili

al link

http://www.geoweb.it/servizi/

(Fonte: rivistageomedia.it)

61° CONVEGNO

NAZIONALE SIFET Lecce

MUST - 8-9-10 Giugno 2016

Il convegno SIFET è stato organizzato

in sessioni tematiche.

Ogni sessione sarà composta da

due relazioni invitate di ampio

respiro inerenti lo stato dell’arte

del tema trattato e gli aspetti più

avanzati di ricerca, seguite da alcuni

interventi applicativi specifici

per ogni sessione selezionati tra le

proposte inviate dai partecipanti

(call for abstract). Ove possibile

si darà spazio ad almeno un intervento

sugli aspetti formativi,

e uno degli aspetti professionali

che caratterizzano la nostra associazione.

Le sessioni tematiche

previste quest’anno sono le seguenti:

Nuvole di punti e stampa

3D; Fotogrammetria da drone;

Monitoraggio. Accanto alle sessioni

tematiche, quest’anno si

propongono anche due sessioni

speciali: una sessione “ditte” organizzata

in modo pratico-applicativo

mediante un’operazione di

rilevamento sul campo in un’area

prossima alla sede del convegno.

Le ditte intervenute potranno

affrontare il rilevamento del

tema proposto con le tecniche

di cui dispongono interagendo

direttamente con i partecipanti

al fine di mostrare l’efficacia

delle soluzioni proposte; una

sessione “benchmark” (chairman

Francesco Mancini) di strumenti

software per la fotogrammetria

basata su immagini acquisite da

SAPR. Allo scopo, è stato predisposto

dal Comitato Scientifico

un dataset completo che contiene

immagini acquisite da drone con

GoPro e camera compatta.

La partecipazione a queste attività

è aperta a tutti i soci e alle ditte che

sostengono l’associazione SIFET e

prevede una registrazione gratuita

all’iniziativa con comunicazione

del software e delle modalità che

si intendono seguire (vedi la pagina

relativa sul sito www.sifet.org).

Modulo iscrizione convegno

(Fonte: SIFET)

XX Conferenza Nazionale ASITA - 8-10 Novembre 2016, Cagliari

La Federazione Italiana delle Associazioni Scientifiche per le Informazioni Territoriali ed Ambientali ha concesso il patrocinio per il TECHNOLOGY for ALL 2016

La Conferenza Nazionale ASITA, giunta quest’anno alla 20ma edizione, ha l’obbiettivo di svolgere un ruolo di connessione tra mondo scientifico,

istituzioni, prassi e pratiche territoriali. La Conferenza ASITA è un momento di incontro tra ricercatori, operatori, docenti, professionisti, utilizzatori

pubblici e privati, enti e imprese operanti nei diversi settori del rilevamento, gestione e rappresentazione dei dati territoriali e ambientali. L’obiettivo

scientifico è di favorire il confronto e l’approfondimento su temi specifici promuovendo una visione multidisciplinare e integrata del settore della

Geomatica. Dalla prima edizione, con crescente successo, la manifestazione è divenuta il più importante evento tecnico-scientifico del settore e attrae

costantemente un ampio pubblico di cultori e di specialisti.

Per qualsiasi informazione contattare i seguenti riferimenti:

E-mail: conferenza@asita.it Tel. +39 329 9860457

(Fonte: Asita)

Il Collegio dei Geometri

e dei Geometri Laureati

di Roma ha concesso

il patrocinio e i crediti

formativi al TECHNOLOGY for ALL 2016

Il Collegio Provinciale dei Geometri e Geometri Laureati di

Roma ha concesso il patrocinio all’evento TECHNOLOGY for

ALL 2016 che si terrà a Roma il 4, 5 e 6 ottobre 2016. Sono

molte le tecnologie che interesseranno la categoria e saranno oggetto

della manifestazione che, ricordiamo, prevede una giornata

di dimostrazioni sul campo, interamente condotta dai produttori

e fornitori di strumenti e servizi.

La partecipazione all’evento, per gli iscritti al Collegio dei

Geometri e Geometri Laureati di Roma, darà diritto al riconoscimento

di n. 1 credito formativo professionale ogni due ore fino ad

un massimo di n. 3 CFP. Per la certificazione delle presenze sarà

necessario registrare i propri dati sui moduli che verranno predisposti

e resi disponibili in entrata e in uscita della manifestazione.

L’organizzazione del TECHNOLOGY for ALL 2016 curerà la

trasmissione dei nominativi dei partecipanti al Collegio.

CARTOGRAFIA, PROMOZIONE DEL

TERRITORIO, SMART CITIES

San Benedetto del Tronto, 11 – 13 maggio 2016

Il convegno annuale dell’Associazione Italiana di Cartografia

si terrà l’11-13 maggio a San Benedetto del Tronto.

Il tema, particolarmente innovativo, sicuramente saprà

suscitare l’interesse dei soci, degli appassionati, degli addetti ai lavori. La cartografia,

infatti, viene (anche) proposta come mezzo di promozione del territorio e come strumento

su cui basare la nuova filosofia delle città incentrate su percorsi sostenibili,

laddove sulla qualità della vita, oltre alla razionalizzazione del traffico e dei trasporti

pubblici locali, incidono anche l’informazione, la condivisione, la gestione delle reti,

i flussi di materia e di idee che sostanziano la compagine urbana. Le città intelligenti,

in cui ogni oggetto ed ogni soggetto rispondono a logiche definite sulla base di precisi

parametri guidati da un ordine virtuale, possono infatti trovare nella cartografia il riferimento

fondamentale per governare questi nuovi processi, tanto innovativi quanto

strutturalmente complessi.

Maggiori informazioni sulla pagina dell’associazione relativa al convegno AIC

Per informazioni logistiche sul convegno e sui luoghi di interesse, modalità di iscrizione

e partecipazione, gli aggiornamenti: www.aic-cartografia.it alla voce “Convegno

annuale dell’Associazione Italiana di Cartografia”

technologyforall.it

(Fonte: rivistageomedia.it)

(Fonte: AIC)

24 GEOmedia n°1-2016


MERCATO

GEOmedia n°1-2016 25


REPORTS

Monitoraggio innovativo per la gestione dell'inquinamento

ambientale provocato da rilasci abusivi di rifiuti

l’esperienza del progetto DroMEP

di Carmine Massarelli, Maria Rita Muolo, Vito Felice Uricchio e Nicola Dongiovanni

La ricerca condotta nell’ambito del progetto Drones for

Monitoring and Environmental Protection (DroMEP) ha

previsto la definizione di una metodologia smart e la

sperimentazione prototipale di tecnologie e protocolli

operativi necessari ad individuare e monitorare, sia dal

punto di vista qualitativo che quantitativo, le discariche

abusive e gli abbandoni incontrollati di rifiuti, evidenziando

l’eventuale presenza di rifiuti speciali pericolosi,

focalizzando l’attenzione sull’amianto in matrice friabile.

Fig. 1 – Il rischio ambientale.

L’

abbandono illegale

di rifiuti pericolosi

costituisce una seria

minaccia per la salute umana

e gli ecosistemi in generale al

punto che anche la legislazione

europea ha introdotto politiche

e misure per promuovere la legalità

in questo campo. In particolare,

la direttiva quadro sui

rifiuti, o la direttiva 2008/98/

CE del Parlamento Europeo e

del Consiglio, del 19 novembre

2008, fornisce un quadro generale

dei criteri di gestione dei rifiuti

e stabilisce le definizioni di

base per la gestione degli stessi

nell'ambito dell'UE.

L’applicazione di tali normative

si basa anche su un costante

controllo del territorio, infatti,

al fine di sostenere gli sforzi per

un monitoraggio più efficace,

anche dal punto di vista economico

è necessario lo sviluppo

finalizzato all’applicazione sistematica

di nuove tecnologie.

Un monitoraggio “sostenibile” è

particolarmente importante per

le aree critiche, come gli ecosistemi

agricoli, le aree protette,

le zone costiere e le zone rurali,

dove il degrado degli habitat

e della biodiversità perso può

essere molto veloce (Tang, Shao,

2015) e dove le distanze e le dif-

Fig. 2 – Le tre aree di studio.

Fig. 3 – Mappa della perimetrazione dell’area test

Gravina di Leucaspide.

26 GEOmedia n°1-2016


REPORTS

Fig. 4 – Particolare della Gravina di Leucaspide.

ficoltà di accesso sono notevoli.

Gli Aeromobili a Pilotaggio

Remoto (APR) detti anche

Unmanned aerial vehicle (UAV)

hanno subito un forte sviluppo

negli ultimi dieci anni principalmente

grazie agli usi militari,

mentre solo da pochi anni

iniziano a trovare applicazione

per fini scientifici quali raccolta

dati e telerilevamento di prossimità.

Il vantaggio principale

consiste nell’effettuare indagini

a bassa quota che restituiscono

un’informazione più precisa

e dettagliata rispetto a sensori

aviotrasportati o satellitari.

DroMEP è l’acronimo del progetto

Drones for Monitoring and

Environmental Protection che si

propone di contribuire in modo

significativo alla realizzazione di

un sistema di monitoraggio intelligente,

sostenibile, integrato

ed inclusivo per quanto riguarda

la gestione delle problematiche

ambientali legate alla presenza

di rifiuti illecitamente abbandonati

soprattutto se contenenti

amianto in matrice friabile. Il

progetto si pone anche in continuità

con diverse iniziative regionali

già messe in atto in ambito

regionale (Campobasso et

al. 2014; V.F. Uricchio, 2013).

L’aspetto fortemente innovativo

di questo progetto è legato all’uso

di droni e altre tecnologie

smart in zone impervie e difficilmente

accessibili dal personale

preposto al controllo del territorio.

Inoltre, è stata realizzata

un’app che ha reso possibile

segnalare la presenza di nuovi

abbandoni da parte dei cittadini

e di poter meglio individuare le

zone maggiormente soggette a

tali illeciti. Tutti i dati acquisiti,

sono validati e processati prima

di essere caricati in un geodatabase

realizzato con strumenti

open source; le informazioni

sono, inoltre, accessibili tramite

un portale web GIS-oriented

in funzione di una profilazione

utente.

Le diverse tecnologie sono

state testate in alcune aree, di

difficile accesso e molto estese,

individuate della Regione Puglia

dove sono molto frequenti i fenomeni

di abbandono di rifiuti

(Figura 1).

Per queste aree i droni sembrano

essere i più indicati perchè in

grado di effettuare un monitoraggio

con sensori iperspettrali e

termici per verificare la presenza

di amianto e in grado di coprire

grandi aree in breve tempo

(Bassani et al., 2007; Fiumi et

al., 2014). Il test della verità a

terra è stato eseguito con un

Fieldspec.

Materiali e metodi -

Area di studio

L’area di studio è costituita

dalla Gravina di Leucaspide

(Comune di Statte), l’Oasi naturale

della Salina Grande di

Taranto e diversi siti nell’agroecosistema

del Comune di

Capurso (Figura 2).

Gravina di Leucaspide

La Gravina di Leucaspide, monumentale

esempio di fenomeno

carsico, nasce dalla fusione

di altre gravine più piccole,

Amastuola e Triglie; ricca di

grotte, di pareti di roccia tenera

Fig. 5 – Mappa della perimetrazione dell’area test Oasi

Salina Grande di Taranto.

facile da scavare, di vegetazione

e di sorgenti (Valenza e

Triglio), è particolarmente ricca

di testimonianze archeologiche

con la presenza di dolmen, un

villaggio di età greca e numerosi

villaggi rupestri di origine

medievale (Greco, 1998). La

lunghezza complessiva dell’area

individuata è di circa 8 km

(Figura 3 e Figura 4).

Oasi Salina Grande di Taranto

L’Oasi Salina Grande di Taranto

(Figura 5), dichiarata riserva

naturale regionale ai sensi della

legge regionale n. 11/2006 è

caratterizzata da un ambiente

salino ricco di Salicornia ssp.

(pianta erbacea nota per le sue

proprietà medicinali), che da

luogo ai noti salicornieti, habitat

litoranei influenzati dagli

spruzzi di acqua marina tra i

più grandi e più importanti

del Mediterraneo e sud Italia

al punto da essere destinatari

di varie forme di protezione

perché rappresentano ambienti

ricchi di biodiversità e fungono

da riparo e sito di nidificazione,

nonostante la presenza di

una forte antropizzazione delle

aree limitrofe, di diverse specie

protette di uccelli. L’area totale

della salina è di circa 8,6 km 2

per una lunghezza massima di

circa 6 km.

GEOmedia n°1-2016 27


REPORTS

Figura 6 – Esacoptero utilizzato nelle aree test.

I sensori e i droni

Per il raggiungimento degli

obiettivi di progetto, è stata

inizialmente effettuata una ricognizione

dei diversi tipi di droni

esistenti e delle loro caratteristiche

essenziali, come l’autonomia

di volo e payload di carico,

sicurezza della missione, e dei

sensori esistenti installabili.

Le indagini sono state eseguite

da due diversi tipi di droni:

un quadricoptero totalmente

automatizzato e leggero e un

esacoptero con la struttura in

fibra di nylon, carbonio e vetro.

Per le operazioni di rilevamento

nei siti interessati dalla presenza

di qualsiasi tipo di rifiuti e per il

riconoscimento di manufatti in

cemento amianto sono stati utilizzati

una camera ottica RGB,

un sensore termico ed un sensore

iperspettrale aviotrasportato

(Figura 6).

L’uso preliminare di una camera

ottica RGB, ha permesso di

avere una visione sinottica dello

stato dell’ambiente per riconoscere

ed individuare cumuli di

rifiuti non visibili e per verificare

la presenza di essi in caso di

segnalazione precedentemente

effettuata con app. La successiva

attività di caratterizzazione dei

cumuli di rifiuti è stata effettuata

mediante i droni precedentemente

citati, equipaggiati con

camera NIR e camera termica; i

voli sono stati eseguiti in giorni

diversi, tutti effettuati ad una altezza

tra i 30m e i 50m con una

risoluzione di circa 1,5-2,0 cm.

Il successivo impiego del sensore

iperspettrale CASI-1500 della

iTRES Research Ltd., installato

a bordo di velivolo da telerilevamento,

ha consentito l'indagine

della tipologia di materiali, mediante

l'analisi della riflessione

della radiazione solare nell'ambito

di diverse bande strette dello

spettro elettromagnetico (in

totale 48). L'output di una tale

acquisizione è costituito da curve

di risposta, dette "firme spettrali".

La caratterizzazione dei

diversi materiali avviene proprio

attraverso l'analisi di tali firme.

Per l’individuazione della firma

dell’amianto (per la cosiddetta

verità a terra) è stato utilizzato

uno spettroradiometro Fieldspec

4 Hi-Res NG (Figura 7).

La videocar

Si tratta di un sistema progettato

per effettuare in movimento

il rilievo con un elevato livello

di accuratezza. La posizione

accurata del veicolo è ottenuta,

momento per momento durante

la marcia, utilizzando tre

tecnologie ridondanti: un ricevitore

GNSS a doppia frequenza

stabilisce una posizione geospaziale,

un sistema inerziale a 6

assi, Inertial Measurement Unit

(IMU) fornisce l’assetto del

veicolo, e un collegamento a 2

odometri posizionati sulle ruote

del veicolo consente di ottenere

informazioni odometriche.

La sinergia di queste tre tecnologie

fornisce una posizione 3D

del veicolo estremamente precisa

anche in luoghi in cui i segnali

dei satelliti possono essere

bloccati da ostacoli quali edifici,

ponti o file di alberi.

Il sistema IP-S2 utilizzato comprende

n.3 laser scanner LiDAR

Fig. 7 – Acquisizione della firma spettrale dell’amianto per la verità a terra.

28 GEOmedia n°1-2016


REPORTS

Fig. 8 – Sistema di acquisizione con videocar.

ad alta risoluzione che coprono

il percorso del veicolo a livello

del suolo e “spazzolano” le aree

adiacenti fino ad una distanza

di 30 metri.

E’ inoltre stata montata una

multifotocamera/telecamera

Ladybug-3 ad alta risoluzione,

a 6 ottiche ciascuna delle quali

ha risoluzione 1600x1200, che

fornisce 6 immagini singole oppure

1 immagine sferica a 360

gradi ad una velocità di 15 fotogrammi

al secondo (Figura 8).

Implementazione della

geo-bancadati e condivisione

dei dati territoriali

Le informazioni acquisite in

seguito a validazione ed elaborazione

diventano uno strato

informativo all’interno dell’infrastruttura

di dati territoriali,

pubblicata su web, creata e

messa a disposizione dell’Autorità

e dei cittadini e associazioni

ambientali. Facendo riferimento

alla “gestione dei dati”

(Figura 9), la piattaforma che

ospita i dati è stata implementata

con Geonode e con l’utilizzo

di software esclusivamente open

source, in grado di memorizzare

i dati geospaziali (PostGIS),

pubblicarli (GeoServer), in

standard OGC, come WMS,

WFS, WCS, costruire metadati

(GeoNetwork), cercare,

esplorare e costruire mappe

(GeoExplorer) il tutto integrato

(Django) in una geoCM

(Bootstrap).

Attraverso Geonode è possibile

gestire gli utenti che possono

caricare, ricercare e utilizzare i

propri dati, con vari livelli di

privacy; ad oggi rappresenta

uno strumento molto efficace

ed estremamente versatile e personalizzabile

(con un minimo

di conoscenza di python) per la

creazione di comunità geospaziali

consapevoli.

Risultati e discussione

I risultati sperimentali indicano

che si è sulla buona strada per

la realizzazione di un sistema

di monitoraggio efficace di

variabili ambientali basato

sull’integrazione di varie tecnologie

smart, efficienti ed a basso

costo.

Fig. 9 – DroMEP data management.

Lo stesso monitoraggio in termini

di dati acquisiti e di aree

esplorate avrebbe richiesto notevoli

risorse se realizzato con

approcci tradizionali.

L’identificazione della firma

spettrale dei materiali contenenti

amianto ed in particolar

modo quelli contenenti amianto

in matrice friabile non è stata

del tutto semplice. Di seguito

si riportano le prime elaborazioni

dei valori acquisiti con il

FieldSpec (Figura 10).

La creazione di un archivio di

firme spettrali consente l’esecuzione

di procedure di classificazione

di immagini acquisite

anche da drone. Sono state

analizzate e confrontate diverse

bande spettrali archivio di firme

spettrali fino ad individuare

caratteristiche particolari in

termini di lunghezze d'onda e

riflettanza. Applicando la classificazione

con le firme spettrali

ricavate è stato possibile individuare

all’interno del territorio

analizzato alcune aree critiche

in cui la presenza di materiale

pericoloso è altamente probabile

(le frecce verdi in Figura 11

indicano aree dove l’amianto è

stato effettivamente rinvenuto).

GEOmedia n°1-2016 29


REPORTS

Tuttavia a causa delle condizioni

meteo delle giornate di

volo (molta umidità e copertura

nuvolosa variabile) "Tuttavia a

causa delle condizioni

meteo delle giornate di

volo (molta umidità e copertura

nuvolosa variabile) sono ancora

in corso idonee elaborazioni

atte ad eseguire un mapping

conforme delle firme sul territorio

indagato."

Fig. 10 – Firma spettrale di vari materiali contenenti amianto e dell’asfalto.

Conclusioni e

prospettive future

L’utilizzo di smart tecnology e la

condivisione delle informazioni

tra i vari soggetti coinvolti

rappresenta un valore aggiunto

verso il raggiungimento di una

comunità consapevole e crescita

sostenibile.

La partecipazione dei cittadini e

delle associazioni di volontariato

risulta essere uno strumento

efficace ed una forza motrice

alle attività di controllo e monitoraggio

del territorio.

La possibilità di personalizzare

in base alle proprie esigenze ed

integrare più smart technology

produce ovviamente risultati

Fig. 11 – Individuazione di manufatti contenenti amianto.

eccezionali. Di contro c'è il

fatto che al giorno d'oggi le

elaborazioni risultano alquanto

complicate e necessitano, pertanto,

di personale altamente

qualificato.

Per quel che concerne questo

aspetto, anche se ci sono metodi

standard per la pre-elaborazione

delle immagini, non ci

sono classificatori di immagine

che possono essere applicati in

modo sistematico. Così, rimane

compito impegnativo e oggetto

di ricerche future, l’individuazione

ed applicazione di classificatori

più potenti ed efficaci

con ampio spettro d’applicazione.

Inoltre le attività future

riguarderanno lo sviluppo

e l’implementazione

anche di algoritmi

di localizzazione

e mapping cooperativi

in cui dati multi-sensoriali

acquisiti dalle

piattaforme robotiche

mobili, anche integrati

con dati satellitari e

aerei ove disponibili,

saranno elaborati al

fine di produrre rappresentazioni

multimodali

e multi-scala

degli ambienti esplorati;

in particolare,

partendo dallo stato

dell’arte delle tecniche

di Simultaneous

Localization And

Mapping (SLAM) e

Structure from Motion

(SfM), la ricerca deve essere

orientata allo sviluppo di nuove

metodologie finalizzate al miglioramento

dell’accuratezza sia

della localizzazione dei veicoli

che delle mappe da essi prodotte.

In particolare, si intendono

investigare le problematiche legate

all’integrazione ed alla coregistrazione

di dati eterogenei

prodotti da diversi sensori, in

tempi diversi o da diversi punti

di vista mediante l’impiego

di algoritmi basati su features

naturali come SIFT, SURF,

FPFH, etc. in combinazione

con tecniche di registrazione

quali ICP, RANSAC, etc.

Le attuali applicazioni con i

droni sono ancora in fase sperimentale,

ma ci si aspetta una

rapida evoluzione tecnologica:

per ottenere risultati sempre più

certi è importante condurre uno

studio sistematico e continuo

sull’evolversi delle tecnologie

e sensori di telerilevamento in

condizioni molto eterogenee.

Ringraziamenti

Questo progetto è stato cofinanziato

dal Living Lab-ICT

Apulia Innovation, un progetto

della Regione Puglia per sperimentare

un nuovo approccio

alla ricerca in cui i ricercatori,

aziende e gruppi organizzati

di cittadini, scambiano idee e

conoscenze, pianificano insieme

un’esperienza innovativa soluzioni

tecnologiche.

30 GEOmedia n°1-2016


REPORTS

ZEB 1 | SURVEY IN MOTION

IL CONTRIBUTO È STATO PRESENTATO

ALLA CONFERENZA NAZIONALE ASITA.

BIBLIOGRAFIA

Greco A.V. (1998). “Il territorio di Statte. Dagli insediamenti rupestri

alle masserie”, in Umanesimo della Pietra – Riflessioni, pp. 3-39.

Bassani C., Cavalli R.M., Cavalcante F., Cuomo V., Palombo A., Pascucci

S., Pignatti S. (2007) “Deterioration status of asbestos-cement

roofing sheets assessed by analyzing hyperspectral data”. Remote Sensing

of Environment, 109 (3), pp. 361-378

Fiumi L., Congedo L., Meoni C. (2014) “Developing expeditious

methodology for mapping asbestos-cement roof coverings over the

territory of Lazio Region” Applied Geomatics, 6 (1), pp. 37-48.

Tang L., Shao G. (2015). “Drone remote sensing for forestry research

and practices”. Journal of Forestry Research, 7 p. Article in Press.

Campobasso G., Massarelli C., Lopez N., Palmisano V.N., Uricchio

V.F. (2014). “Il contrasto ai traffici illeciti quale forma di prevenzione

della contaminazione dei territori”. Siti Contaminati. Esperienze negli

interventi di risanamento. ISBN: 88-7850-014-3; Edizione CSISA

Uricchio V.F., Massarelli C., Lopez N., Campobasso G. (2013).

“Banche dati di nuova generazione per la gestione del ciclo

dell’amianto in Puglia” Atti 17a Conferenza Nazionale ASITA pagg.

1255-1264, ISBN 978-88-903132-8-8, 5–7.

Arriva in Italia il primo laser scanner

handheld per il mobile mapping.

Basato su tecnologia SLAM,

rappresenta la soluzione ideale

per il rilievo 3D rapido e accurato

di realtà complesse.

Forestale, underground mining,

immobiliare:

rivoluziona il tuo modo di

lavorare!

Presentazione ufficiale del prodotto

a settembre 2015.

Seguirà un programma di roadshow

in Italia nei mesi successivi.

Per maggiorni informazioni scrivere a

info@mesasrl.it.

PAROLE CHIAVE

APR; monitoraggio; inquinamento ambientale; tecnologie

ABSTRACT

DroMEP project (Drones for Monitoring and Environmental Protection)

provides the definition of a smart methodology testing prototype

technologies and operational protocols necessary for identifying

and monitoring, both in terms of quality and quantity, the illegal

dumping and uncontrolled abandonment of waste, highlighting the

presence of hazardous waste, especially friable asbestos.

This objective was pursued through the development, integration

and deployment of innovative technologies for data acquisition:

surveys with UAV equipped with multispectral sensors, infrared and

thermal camera, surveys with equipped Videocar, aerial photogrammetric,

hyperspectral and thermal sensors, and spectroradiometric

acquisitions, acquisitions in the field by the citizens via smartphone

app, were carried out.

The project also included the creation of a computerized and interoperable

platform for managing and sharing integrated different spatial

data.

The experience has allowed, therefore, the development of a methodology

of systematic monitoring and repeatable useful for assessing the

environmental quality of territories and the possible presence of risks

for citizens. The information acquired, after processing, they are an

excellent tool for administrators and decision makers for the evaluation

of environmental actions to be implemented for a sustainable

programming.

AUTORE

Carmine Massarelli

carmine.massarelli@ba.irsa.cnr.it

Vito Felice Uricchio

vito.uricchio@ba.irsa.cnr.it

Water Research Institute, National Research Council

Via De Blasio n. 5 - 70132, Bari.

Maria Rita Muolo

mr.muolo@sit-puglia.it

Il tuo partner ideale per il rilievo 3D

ME.S.A. srl (Metrology & Survey

Application) già partner esclusivo in

Italia della Faro Technologies e della

GeoSLAM UK, rinforza la gamma di

tecnologie d'avanguardia presenti a

livello mondiale nel campo

dell'architettura del survey e della

metrologia. ME.S.A. srl si propone sul

mercato nazionale con uno sguardo

all'Europa come supporto

d'eccellenza a tutte quelle aziende

che, resistenti agli anni della crisi,

fanno dell'innovazione il loro cavallo

di battaglia per rendersi altamente

competitive.

Nicola Dongiovanni

n.dongiovanni@sit-puglia.it

Servizi di Informazione Territoriale S.r.l.

P.zza Papa Giovanni Paolo II, 8/1, 70015 Noci (BA).

ME.S.A. s.r.l. a Socio Unico

P.IVA 11315870011- Cap. Soc. € 500.000,00

Strada Antica di None 2 - 10092 BEINASCO (TO)

Tel +39 011 3971937 Fax +39 011 3972614

info@mesasrl.it www.mesasrl.it

GEOmedia n°1-2016 31


REPORTS

Geografia intelligente

e user experience

Lotta a due tra Google e Apple nel mondo

delle informazioni geospaziali per tutti

di Domenico Santarsiero

Il mondo della geografia intelligente,

ovvero le diverse applicazioni che

negli ultimi dieci anni hanno portato

la geografia digitale e il mondo delle

informazioni geospaziali verso il

mercato consumer, è rappresentato

da tre dei competitors del settore

informatico e della nuova era

Fig.1 - L'interfaccia di Apple e Google partono tutte e due dal globo terrestre.

dell`ICT: Google, Microsoft e

Apple. Quest'ultima ha rilasciato

il sistema MAPPE da non più di

quattro anni (2012) 1 , dapprima

sulla sola piattaforma iOS (iPad

e iPhone) e in seguito sul suo OS

desktop, Mavericks. È proprio da

allora che Mappe, fornito di default,

rappresenta la vera rivoluzione

nel campo del Geospatial 3D per

il mercato consumer, un mercato

potenzialmente infinito, composto

dai miliardi di utenti che usano

32 GEOmedia n°1-2016

smartphone, tablet o PC.

La guerra delle mappe continua

ancora oggi, anche se il mondo della

geomatica sembra non accorgersene.

Con questa nota cercheremo di fare

il punto sui sistemi, le soluzioni, la

storia recente.

NOTA

1) A questo url il documento

di riferimento per

capire cosa contiene il

DB Geospaziale mondiale

Mappe di Apple. http://

gspe21.ls.apple.com/html/

attribution-12.html.

La storia e le tecnologie

L’evoluzione, o rivoluzione

internet, è cominciata un po’

prima del cosìddetto web 2.0,

e comprende una lunga serie

di innovazioni difficilmente

esplorabili in questo articolo.

Per comprendere la storia delle

mappe nell’era di internet

bisognerebbe partire dalle

diverse parole chiave sulle geotecnologie

o, meglio ancora,

gettando uno sguardo alla storia

recente della neo-geography

(https://en.wikipedia.org/wiki/

Neogeography).

Tra le visioni del futuro tecnologico

non bisogna inoltre

tralasciare quelle di personaggi

come Larry Page e Sergey Brin,

fondatori di Google, che da un

lato hanno contribuito a creare

una rivoluzione nell’approccio

facile e di massa al mondo della

geografia intelligente e dall’altro

hanno traghettato le scienze geomatiche

verso applicazioni

consumer oriented.

Per molti dei professionisti

della geomatica,

Google Earth è diventato

una sorta di “acceleratore geomatico”,

così come fu definito

in uno degli editoriali dell’epoca

(2005) sulle stesse pagine di

questa rivista.

Google Earth (GE) nasce infatti

con lo scopo di mettere a punto

uno strumento innovativo

per la ricerca di informazioni

nel web, ma assume in breve

un altissimo valore-simbolo

della modernità di internet.

Ogni giorno milioni di utenti

lo usano per navigare il globo

terrestre in lungo e largo senza

mai stancarsi e, cosa ancora

più incredibile, senza muoversi

dalla propria scrivania. Il tutto

tramite una vera e propria

sensazione di “navigazione”,

dovuta in massima parte ad una

interfaccia innovativa e molto

indovinata; navigazione che può

essere fruita in 3D laddove le

informazioni sono disponibili.

Il modello globale implementato

era in sostanza basato

sul DTM mondiale rilevato

durante la missione SRTM


REPORTS

dello Shuttle (2000), mentre

le informazioni geospaziali

erano un mix di immagini aeree,

satellitari e di cartografie

digitali comprate dai diversi

player globali e locali, poi messe

insieme attraverso processi di

georeferenziazione che, certamente,

non potevano essere

scientificamente rigorosi data la

provenienza spesso incerta dei

dati e data l’impossibilità reale

di fare un lavoro tecnicamente

corretto. Ma il risultato fu più

che eccezionale, e nel giro di

6/12 mesi tutti gli operatori

di piattaforme GIS, anche

tra quelle più blasonate come

ESRI, Intergraph, Bentley e

Autodesk, presi alla sprovvista,

si dovettero adeguare a questo

nuovo modo di accedere ai dati

geografici (non citiamo qui uno

dei primi sistemi che univa le

potenzialità della navigazione

virtuale del dato geografico, e

della interfaccia globale. Questo

sistema anticipava tutte le soluzioni

oggi disponibili sul mercato.

Si chiamava Virtual GIS

ed era una soluzione targata

ERDAS).

Nasce così un nuovo modo di

presentare le informazioni territoriali,

globali e geografiche. Si

parte dalla sfera della terra e si

arriva alle proprie informazioni

con un semplice tocco del mouse.

Si modifica il livello di zoom

e ci si addentra sempre più in

dettaglio nelle informazioni cartografiche

tradizionali o 3D.

Per gli utenti di internet è una

vera e propria manna dal cielo:

dalla visione generale, o meglio

globale, visto che si parla del

globo terrestre, fino alla navigazione

pseudo 3D di street view,

la così detta “user experience”

(esperienza dell’utente, emozione,

e come egli vive l’interfaccia,

e quindi i dati), rappresenta una

novità assoluta e rivoluzionaria

nel rapporto con la geografia e

quindi con il mondo reale delle

immagini geospaziali.

Gli attori e i dati

Nell’era di internet, pian piano,

le informazioni geografiche, topografiche,

geospaziali e dei geospatial

imaging data set, diventano

la pelle del web avanzato

dove cercare informazioni utili,

pianificare il proprio viaggio

oppure navigare in un mondo

lontano, riprodotto con incredibile

fedeltà, pur rimanendo

seduti sul proprio divano.

Territori, nazioni e vita quotidiana,

luoghi che normalmente

percorriamo nelle nostre più comuni

giornate, nell’arco di 5 o

6 anni sono divenute accessibili

on-line: basta seguire l’omino

in basso a destra e portarlo sulla

mappa al solo costo di un click

di mouse, e il nostro luogo è lì,

visibile a 360 gradi, navigabile,

fruibile e immediato. Anche se

in questo contesto le tecnologie

geomatiche hanno un ruolo

assai marginale, lasciando la scena

alle innovazioni apportate

nell’analisi delle immagini, si

tratta comunque di un enorme

passo in avanti che ha di fatto

definito un nuovo paradigma

(un cambio di paradigma fondamentale,

e forse oseremmo

OSM - STORIA BREVE E RIFERIMENTI

Questo libro raccoglie diverse interviste alle persone

che collaboravano o erano parte del team che

ha fatto partire il progetto OSM. Il suo scopo è

quello di fornire un variegato punto di vista sull’arco

del progetto che va all’incirca dal 2004 al 2014.

Dato che intervistare tutti sarebbe stato impossibile

si è cercato di raccogliere la testimonianza delle

persone più presenti e importanti per il progetto.

Quello che troverete nel testo, sono frammenti

storici, aneddoti e punti di vista su un progetto

audace: La mappa del mondo realizzata attraverso

il solo contributo di volontari che hanno fornito

gratuitamente il loro lavoro e i loro dati. Qualcosa

che poteva sembrare incomprensibile un po di

anni fa."

Il libro è invece stato pensato come un volume “as

it is”, ovvero senza tante revisioni e con interviste

dirette ai protagonisti di questa rivoluzione nelle

mappe, e senza mettere in particolare evidenza

persone o episodi, cosi come il genio creativo di

Steve.

Ogni sezione comprende, oltre all’intervista, una

breve biografia dell’interlocutore ed una citazione

sulla mappa preferita. Il testo ha spesso passaggi

ironici, ma il lavoro è stato tedioso e lungo. Il volume

è stato realizzato ricorrendo al crowdfounding

di Kickstarter, e ha raccolto poco meno di 10 mila

dollari in poco tempo. Tutte le interviste sono state

condotte da Steve Coast, mentre il progetto è stato

gestito da Ben Wroe e curato da Barbara Poore.

dire globale, lo si ha nel 2012,

con la disponibilità di Android

4.2 (Jelly Bean), che introduce

a livello consumer il sistema

Photo Sphere. Un approccio

alla realtà completamento

imaging. Riportando indietro

le lancette ai primi sistemi di

Apple per fare foto sferiche, ma

mai decollati).

È poi vero che, l’interfaccia

utilizzata, è del tutto geografica

“”, anche

se in linea di massima si parte

dalla mappa per arrivare ad uno

GEOmedia n°1-2016 33


REPORTS

stadio di “navigazione nelle informazioni”,

in questo specifico

caso le immagini, non essendoci

ancora un adeguato frame geometrico

3D della realtà.

La battaglia è chiaramente tra i

big della “soft economy”, ovvero

della nuova era digitale, e quindi

tra i soliti noti come Google,

Microsoft e Apple, una vera e

proprio triade con ruoli e visioni

completamente diverse, insite

nel DNA delle aziende stesse.

Di fatto Google la fa da padrone,

essendo l’unica azienda che

è riuscita ad imporre la sua visione

delle informazioni geospaziali

, utilizzate nel più ampio

processo della digitalizzazione

del mondo conosciuto.

A differenza di Microsoft e

WWW.MYGEO.IT/MAPPE-PER-2

Apple, che rimangono aziende

caratterizzate dai prodotti

hardware, Google ha saputo

valorizzare appieno il suo DNA

di azienda completamente “web

oriented”, promuovendo la vera

innovazione nel settore che le è

più congeniale.

E infatti, nonostante un DNA

al 100% IT, prima Microsoft e

poi Apple, hanno dovuto piegarsi

alla potenza comunicativa

e commerciale delle informazioni

geografiche e geospaziali.

Microsoft già in tempi non

sospetti, ovvero nel 2008, cominciò

ad investire nel settore

della fotogrammetria, e sulla

scia di GE cominciò a valorizzare

il suo asset di informazioni

geospaziali, divenute ormai

corpo integrante del suo motore

di ricerca BING. Aprì addirittura

la divisione Microsoft

Photogrammetry, attraverso

l’acquisizione di Vexcel che

produce una delle camere fotogrammetriche

tra le più diffuse

e, ovviamente, software adeguati

alla gestione dei dati.

Oggi l’offerta di Microsoft è

orientata al mondo enterprise attraverso

la soluzione Bing Maps

Platform, innestata sul corporate

web di microsoft all’url http://

www.microsoft.com/maps/.

Apple è forse quella che è arrivata

per ultima sul mercato

delle geoinformazioni diffuse

anche se da sempre è quella che

ha prestato più attenzione verso

il mercato consumer in termini

di mobile applications & positioning.

Da ultima ha quindi cercato

di acquisire il meglio delle

tecnologie e dei dati disponibili,

ed in parte ci è riuscita. I dati

geospaziali sono infatti gli stessi

di BING, avendo realizzato una

transazione globale.

La storia breve delle aziende

● Google - la storia di google la

possiamo semplicemente leggere

su wikipedia, cosi come

quella della nascita della serie

Earth e Map, le applicazioni

geografiche o geospatial di

google. Tutto ha inizio con

l’acquisizione della Keyhole nel

2004, che stava lavorando alla

8 agosto 2015, caldo torrido a Roma. Il caso ha

voluto che nel giro di un’oretta abbia incrociato

due segni premonitori che mi hanno convinto a

confermare il titolo di questo articolo.

Per primo ho incontrato il sistema MMS targato

APPLE: un furgone nero con targa tedesca,

attrezzato con sistemi a 360° ai 4 angoli (laser

scanner, probabilmente dei velodyne a giudicare

dalle dimensioni ridotte) e camere fotografiche.

E dopo venti minuti, nella stessa zona, si materializza

improvvisamente davanti a me la Google

Car, dotata del sistema di ripresa impiegato per

street view.

34 La mia GEOmedia conclusione n°1-2016 è stata una sola: ho fatto

BING, è giunta l’ora di chiudere il mio articolo.


REPORTS

implementazione di XML nel

mondo delle informazioni geografiche

sul web. Siamo insomma

alla nascita dello standard

KML, che deriva proprio da

Keyhole Markup Language, lo

standard Google per le mappe

e non solo. Google mette a

disposizione un esteso set di

servizi, accesso ai dati e tools

geografici per terze parti.


● Apple map - il mondo delle

mappe per Apple inizia con il

2007, come documentato nelle

note, ma inizia subito con servizi

e modalità avanzate come

il 3D. Generato non già come

frame GML che fu usato da

Google all’epoca di SketchUp

prima versione, bensì puntando

subito al 3D di nuova generazione,

quello generato “on

the fly”, che vediamo nel box a

destra. Ma Apple fa di più, e

entra nel mondo della navigazione

indoor, che è il prodromo

del mapping globale che si

estende alle mappe 3D del

futuro, vicinissimo al mondo

dei 3D City Models. Compare

quindi nell’era della neogeografia,

il primo standard iBeacon 2 ,

rilasciato a partire da iOS7.




NOTA

2) La tecnologia iBeacon è stata

brevettata da Apple, anche se fa

parte del trend tecnologico legato

al mondo della localizzazione di

prossimità, che deriva in parte dal

mondo dell’RFID, e quindi di ciò

che chiamiamo comunemente anche

indoor positioning. Su questa scia

diverse sono le aziende che operano

già nel settore, sia implementando

la tecnologia BLE che altre basate

comunque su tecniche wireless.

● Microsoft - entra nel

settore della fotogrammetria e

delle informazioni geospaziali

con l’acquisizione di Vexel, che

poi si mimetizza tra le mille

company dell’area Microsoft,

la cui parte hardware migra

in Ultracam, leader insieme a

pochi altri, nel mercato delle

camere fotogrammetriche aeree

di fascia high end. Nasce

cosi l’interesse per il progetto

Virtual_Earth, da cui deriva il

progetto master BING Map 3 , e

sue successive evoluzioni. Bing

si arricchisce poi del database

principale realizzato con i dati

Pictometry 4 rilevati da Blom

ASA, una delle aziende più importanti

nel campo del rilievo

di immagini aeree finalizzate a

popolare i DB Geospaziali di

Microsoft e non solo. In Italia

Blom ha partecipato alle avventure

di una delle nostre più

importanti aziende del settore,

come la CGR di Parma. Infine

’acquisizione di Nokia, ha

portato a Microsoft l’eridità di

Navtech, confluita poi in Here.


● Open Street Map (OSM) - è il

fenomeno più importante nel

campo della cartografia globale

della mobilità, ma anche delle

tecnologie collaborative. Open

Street Map nasce da un’idea di

un geniale inglese, Steve Coast,

che nel 2004 viveva tra l’inghilterra

e San Francisco. Il progetto

OSM è uno dei primi progetti

che mette insieme il concetto di

crowd e di mapping, dando vita

al più grande progetto cartografico

su scala mondiale, di un

nuovo approccio che anticipa il

paradigma del mondo crowd,

open e di geografia digitale di

nuova generazione. Questa

bellissima esperienza è raccontata

nel volume da poco date

alle stampe, e finanziato anche

lui attraverso crowdfunding di

Kikstarter, a cui chi scrive ha

contribuito come sostenitore.

3D MESH OTF - MATEMATICA E POTENZA

DI CALCOLO PER I BIG DELLE MAPPE

“ADVANCED”

Il rendering OTF di apple e google.

Il processo di renderizzazione delle immagini

oblique impiegate sui sistemi Google Map e Maps

di Apple, rappresenta l’ultima sfida che si sta tenendo

tra i due player più importanti. Di fatto i

due sistemi funzionano in maniera un po’ diversa,

e i risultati finali lo dimostrano. Sulla piattaforma

Apple è tutto un po più fluido, soprattutto se si

parla dell’hardware di Cupertino (mac, ipad e

iphone). La piattaforma map o earth di Google

ha una velocità di rendering simile a quella di

Apple, ma a volte sembra meno precisa e il risultato

finale è spesso più brutto. Complessivamente

però, il mondo del 3D di Google non ha ancora

trovato nessun competitor alla sua altezza, soprattutto

nell’ambito del 3D vero dei frame geometrici,

che anticipano tutto il mondo che verrà delle

3D City, di cui un bello esempio è il consorzio

allargato per i 3D City Models che trovate a questo

URL: http://www.cybercity3d.com.

Diverse visualizzazioni di mappe di apple.

GEOmedia n°1-2016 35

Notare la griglia di riferimento e la fase iniziale

del rendering.


REPORTS

La info di Mappe v 2.0 di Apple.

I prodotti fotogrammetrici

Ultracam di Microsoft Photogrammetry.

● Tom Tom - la storia di TomTom

inizia con le prime applicazioni

GPS based + Mapping, e viene

promosso all’inizio da Tele

Atlas (la prima recensione del

prodotto in Italia, è degli anni

‘90). Agli albori non è altro

che un navigatore che integra

GPS e dati GIS, con algoritmi

di calcolo dei percorsi e poche

altre cose. La storia è poi cambiata

radicalmente e Tom Tom,

una volta quotata in borsa,

ha avuto la forza di acquisire

le sue stesse ceneri, ovvero le

informazioni geografiche di

Tele Altlas, a cui in parte deve

la sua nascita. Tom Tom figura

oggi tra i più grandi fornitori

di mappe al mondo. Sia per i

portali web, sia per molteplici

navigatori da auto o portatili.


● Gli altri - L’evoluzione delle

informazioni geografiche verso

il mondo digitale, come è

ovvio, non inizia con i grandi

player del momento, ma con

una miriade di altre aziende

ancora operative, o acquisite

ed inglobate nell›ambito di

altri progetti. Tele Altlas, ormai

parte di TomTom, che fu la

prima azienda a promuove le

mappe al servizio della mobilità.

Navtech, confluita poi in

Nokia nel 2011, è stata un’altra

delle aziende leader, ma non

possiamo non citarne altre

come Michelen (www.michelen.fr),

o il tentativo italiano di

DeAgostini, anche se di fatto

mai pienamente decollato, e

che 20 anni dopo è finalmente

migrata, come spin-off, nella

produzione di mappe per lo

spazio e non solo (www.geo-

4map.it).

Al contrario di Here (www.

here.com), azienda della galassia

Nokia, che aveva l’ambizioso

programma di digitalizzare il

mondo tramite il laser scanner,

ma che poi nel 2015 è stata

venduta ad un corsorzio di produttori

di auto, in vista delle

tecnologie alla base delle macchine

elettriche, automatiche

e always connect, ma sempre

attenta alle mappe, alla localizzazione

e al sensing.

Diverse sono le aziende che

non cito, come la galassia USA

dove tra le prime troviamo

MapQuest, che compie 20

anni proprio nel 2016, e altre

ancora che operano negli USA

da diversi decenni.

● Alla stessa maniera merita

una citazione il più antico

motore di ricerca, Yahoo, che

ha attivo da molti anni il suo

yahoo maps. Per una panoramica

completa dei servizi

WMS (Web Map Service), o

anche per un inventario delle

risorse on-line, non rimane

che puntare il mouse su alcune

risorse wikipedia come:

https://en.wikipedia.org/wiki/

Web_Map_Service e https://

en.wikipedia.org/wiki/List_of_

online_map_services.

Conclusioni

Questo breve articolo ha preso

forma circa 2 anni fa, ma solo

ora esce compiuto e pronto

per le stampe. Nel frattempo le

innovazioni intervenute sono

tante, sia per le grandi società,

come hanno dimostrato le

svolte 3D di Google Map e del

Maps di Apple , sia per le innumerevoli

innovazioni che hanno

coinvolto il mondo della geografia

diffusa, che nel prossimo

futuro sarà sempre più presente

nella quotidianeità, arrivando

a permeare tutti gli strati della

nostra società.

NOTE

3) http://en.m.wikipedia.org/wiki/

Bing_Maps_Platform.

4) Pictometry è una tecnica e un

prodotto della EagleView, che consiste

nel rilievo e impiego di immagini obligue

nella realizzazione di foto aeree, e da esse

vengono generate oggi i modelli 3D on

the fly sui sistemi maps di Apple, e in

mille altri progetti e sistemi. L’approccio

pictometry alla fotogrammetria, ha rappresentato

una vera svolta epocale per il

mondo delle informazioni geospaziali.

36 GEOmedia n°1-2016


REPORTS

BIBLIOGRAFIA

- The KML Handbook. A cura di Josie Wernecke. Addison-Wesley

2009. ISBN-13: 978-0-321-52559-8.

- annate GEOmedia 1997-2015 www.geomediaonline.it

- Introduction to Neogeography. Andrew J.Turner. O’Reilly

Media 2006. ISBN: 978-0-597-52995-6

- Info e altro (Copyright © 2012-2015 Apple Inc. ) sul prodotto

e sui contenuti di MAP http://gspe21.ls.apple.com/html/attribution-12.html.

I disclaimer o le citation sono all’incirca 135

righe, comprendendo in questo tutto o quasi, a cominciare da

TomTom, passando per Digital Globe, e finendo con i vari DOT

americani (department of Transportation).

- Su wikipedia un ottimo punto di partenza per la storia della Bing

Maps Platform di Microsoft. http://en.m.wikipedia.org/wiki/

Bing_Maps_Platform

- un po di storia http://en.wikipedia.org/wiki/Google_Earth. Qui

le informazioni per seguire i vari gruppi di lavoro sul mondo

della geografia di nuova generazione. Google Earth compresa.

- una ottima risorsa per sviluppatori web e entusiasti neo-geografi.

A cura di Konstantin Delchev. http://www.slideshare.net/kdelchev/maps-29138951?related=2.

- ecco gli strumenti di Google Earth Outreach. Ben 10 applicazioni

per scoprire come gli strumenti Google per la creazione

di mappe possono aiutarti a cambiare il mondo. Earth, Earth

Engine, My Maps, Tour Builder, Open Data Kit, Google Fusion

Tables, Google Map Maker, Google Maps API, Google Street View,

Spreadsheet Mapper.

- http://www.google.com/earth/outreach/tools/index.html

- Primo portale italiano a promuovere le tecnologie Beacon Based

in termini di device e non solo. http://www.beaconitaly.it

- http://www.viamichelin.com, uno dei primi portali geografici di

supporto al mercato consumer e della mobilità.

- Anche se del 2012, questo è un ottimo post per capire come la

geografia di google cambierà il futuro. http://www.theatlantic.

com/technology/archive/2012/09/how-google-builds-its-mapsand-what-it-means-for-the-future-of-everything/261913/

- 4 agosto 98 - sul numero 21 di The Search Engine Report viene

recensito per la prima volta il motore di ricerca Google, che puntava

al dominio di terzo livello dell’università di Stanford http://

google.stanford.edu/.

- questa la time line ufficiale di google http://www.google.com/

about/company/history/

- MapQuest è un’azienda USA del settore cartografico tra le più

vecchie. Acquisita nel 2000 da American Online, ha stretto poi

nel 2007 una partnership importante con General Motors.

PAROLE CHIAVE

Geografia intelligente, Google, Apple, Neogeografia,

TomTom, Street View.

ABSTRACT

The world of intelligent geography, namely the different applications in

the past decade have brought digital geography and the world of geospatial

information to the consumer market, is represented by three of the

competitors in the computer industry and the new era dell`ICT: Google,

Microsoft and Apple. The latter has released the MAPS system within

the last four years (2012), first

only on the iOS platform (iPhone and iPad) and later on its desktop OS,

Mavericks. It is from then that MAPS, provided by default, represents

the real revolution in the field of 3D Geospatial for the consumer market,

a potentially infinite market, composed of billions of people who use

smartphone, tablet or PC.

The war of the maps still continues, even though the world of geomatics

seems not to notice.

AUTORE

D.Santarsiero

dsgeo57@gmail.com

www.mygeo.it

www.geo4fun.com

GEOmedia n°1-2016 37


GUEST

VOLUNTEERED GEOGRAPHIC INFORMATION

MEASURING QUALITY, UNDERSTANDING THE VALUE

by Vyron Antoniou

The article explores the world

of Volunteered Geographic

Information from birth until today,

observing the actors, the sources

and the problems inherent the data

quality according to ISO standards.

The author underline the potential

Fig. 1 – Adding data to OSM after mapping Brighton Pier. (Source: https://

en.wikipedia.org/ Author: Alexander Kachkaev).

of this social phenomenon in

constant evolution and the impact

this could have, in the very near

future, in the various fields of

geospatial information.

The birth of VGI

In 2007, Mike Goodchild coined

the term Volunteered Geographic

Information (VGI). He was

describing “the widespread engagement

of large numbers of private

citizens, often with little in the way

of formal qualifications, in the

creation of geographic information”

(Goodchild, 2007: p.217). Many

mark the birth of VGI with the

birth of OpenStreetMap (OSM

– www.openstreetmap.org) in

2004. While OSM has played a

key role in the development of the

phenomenon, the fact is that the

crowdsourced and collaborative

creation of spatial content was not

something new.

The creation of VGI was sparked

by a mixture of a different factors

and it is difficult to understand

the quality aspect of VGI without

first examining the factors that

lead to the appearance of this

phenomenon. It is interesting to

realise who these factors are, not

only because some of them are

new to the Geomatics domain

and thus the professionals of

Geographic Information (GI)

need to extend their horizons so

to study and understand them,

but also because these factors are

still the driving force behind the

evolution of VGI. Thus, we need

to have a clear view of their importance

and role if we want to

understand how VGI is evolving

and what the quality caveats that

come with it are.

One of them is the mentality of

collaboration in order to achieve

a goal. VGI mimicked, in a

sense, the mechanisms of Open

Source Software where a team of,

otherwise unrelated, programmers

joined forces to create a free and

open piece of software. In the case

of OSM for example, the equivalent

was to create an open and

free map of the world. This collaboration

was further facilitated

by: i) the proliferation of accurate

and low cost GPS-enabled devices

which turned technology savvy

people into “neo-geographers”

(Turner 2006) and citizen-sensors

(Goodchild 2007), and ii) novel

programming techniques

which transformed Web into a

bi-directional medium regarding

content creation. Moreover,

the turn to spatial applications,

which were freely accessible to the

public, by the technology giants

(e.g. Google, Microsoft, Yahoo!)

drew the attention around spatial

data and applications. On the

other hand, however, the National

Mapping Agencies (NMAs) were,

in effect, keeping Spatial Data

Infrastructures (SDI) out of the

reach of the general public with

high pricing and complicated

licensing terms. The intertwining

of all these factors contributed

to the appearance and the development

of the VGI phenomenon.

What has not been clearly

stated as a contributing factor, but

38 GEOmedia n°1-2016


GUEST

yet exists and affects VGI, is the

social component. VGI, before

and above all, is a social phenomenon

and this factor will be further

analysed when we turn the discussion

to VGI quality.

Types and Sources of VGI

Today VGI is omnipresent. It

comes from various sources and

it can be found in many flavours

including toponyms, GPS tracks,

geo-tagged photos, synchronous

micro-blogging, social networking

applications, blogs, sensor measurements,

complete topographic

maps, etc. Topographic VGI can

come as a result of field work or

bulk data import of authoritative

datasets that are now freely available.

It is obvious that all these

sources cannot just fall under one

category. There are many aspects

that can be examined here, but of

particular interest when we examine

the sources and types of VGI

is the focus, the origin, the motivation

and the scope of the VGI

contributors; in a sense if they are

generating VGI in an implicit or

explicit manner and in what context.

Implicit contribution takes

place via websites or applications

where their main focus is on activities

not related to the geospatial

domain. This does not preclude

the presence of a geospatial aspect

as one of the many interesting

features that such applications

could have but spatial information

is neither one of the core features

nor the main motivation of their

contributors. Often, contributors

are not aware of the fact that

their digital presence leaves also

a spatial footprint. On the other

hand, spatially explicit sources,

urge their users to use geography

and location as a motivational and

organisational factor. The narrative

behind these sources asks contributors

to interact directly with

spatial features and consciously focus

their attention into capturing

spatial elements.

Both the source and the type of

VGI play a role in the quality and

value of VGI. However, before

turning to this, we briefly review

the basics of spatial data quality.

Spatial Data Quality

In general, according to ISO

9000 (ISO 2005), quality is the

“degree to which a set of inherent

characteristics fulfils requirements”.

Characteristics (or quality elements)

are defined as distinguishing

features of a product that

can be either inherent or assigned,

and can be either qualitative or

quantitative. Requirement is defined

as a need or an expectation

that is stated, obligatory or generally

implied. Thus, understanding

and measuring quality boils

down to defining the elements of

a product and how these elements

serve the usages expected; in one

word: fitness-for-purpose. While

this might seem as oversimplification,

it is not. Most of the times

it is very difficult to analyse and

measure correctly these inherent

characteristics, and the same applies

in unequivocally defining the

requirements to be met. Spatial

data is no different and the same

rules, and problems, apply when

it comes to understanding and

measuring spatial data quality;

either quality pertains to authoritative

data or VGI.

The discussion about quality becomes

even more intriguing when

product specifications are included

in the equation.

Fig.2 - The scope of ISO 19157 international standard.

This is because a product might

adhere to the existing specifications

but fails to fulfil requirements.

In quality terms, this

product has high internal quality

(i.e. is produced according to specifications),

but it has poor external

quality (i.e. it does not fulfil

its purpose). Again, this is the case

also with spatial data. In other

words, the fact that a VGI dataset

(implicitly or explicitly created) is

created according to some initial

specifications does not necessarily

mean that it can be used to cover

all or any requirements stated by

potential end-users.

Spatial data quality has long been

an interesting topic for academics

and GI professionals alike. There

are obvious reasons for that. GI is

the basic ingredient for all mapping

and geo-spatial products and

applications. If this ingredient is

of poor quality, it just dooms any

other effort. This explains the special

interest shown by NMAs and

corporations for the standardization

of the terms and procedures

used in spatial data quality evaluation.

A prime example towards

this end is the specifications issued

by the International Standards

Organization (ISO) and the

Technical Committee 211 (ISO/

TC211) responsible for the geographic

data. In 2013, a new

international standard was issued,

ISO 19157 (ISO, 2013), which

provides a holistic approach for

spatial data quality (see fig. 2).

GEOmedia n°1-2016 39


GUEST

Spatial Data Quality

Elements

When it comes to the evaluation

of spatial data quality, a basic

component is the characteristics

or elements that compose this

quality. These elements are factors

that can be measured and

the conformance of a dataset can

be documented and reported

to any interesting party. Thus,

spatial data quality elements

provide a tangible façade of a

dataset’s quality, irrespectively of

whether it is an authoritative or

VGI one. First the understanding

and then the assessment of these

elements is fundamental when it

comes to measuring GI quality.

A brief description is provided

(ISO, 2013): i) Completeness,

refers to the presence or absence

of features, their attributes and

relationships compared to the

product’s specification; ii) Logical

consistency, refers the degree of

adherence to logical rules of

data structure, attribution and

relationships as described in product’s

specifications; iii) Positional

accuracy, refers to the accuracy of

the position of features within

a spatial reference system; iv)

Thematic accuracy, refers to the

accuracy of quantitative attributes

and the correctness of nonquantitative

attributes and of

the classifications of features and

their relationships; v) Temporal

quality, refers to the quality of the

temporal attributes and temporal

relationships of features; vi)

Fig. 3 – Motion X GPS and OSM. (Source: https://

en.wikipedia.org/ Author: Harry Wood).

Usability, refers to how a given

dataset can meet specific user

requirements that cannot be described

using the quality elements

described above.

All the spatial quality elements

(with the exception of Usability)

can be further analysed into

quality sub-elements so to better

assess and measure the quality of

a dataset.

Why this is not enough for VGI

The framework suggested by

ISO, and now followed by many

authoritative sources of GI, has

been rigorously developed by

the Geomatics community, and

is serving very well the efforts to

provide a tangible description of

GI quality. However, these guidelines

have been developed in a totally

different context compared

to what we face today. Quality

evaluation guidelines have been

created for authoritative datasets.

Authoritative datasets come from

an ecosystem composed of trained

personnel that follow tested

protocols and procedures, rigor

product specifications, certified

equipment and software, organizational

structures and processes

that work towards a high quality

result, multiple quality control

levels, and of course the absence

of social, spatial or other biases

as most of the authoritative data

come from NMAs. For this kind

of data, ISO standards (or similar

quality evaluation procedures)

will continue to be the basic reference

point. What is not clear,

however, is how to handle VGI

data. First, the evaluation process

cannot easily be implemented.

Evaluating VGI against a reference

dataset (i.e. authoritative data)

is not always possible, due to limited

data availability, contradictory

licensing restrictions or high

procurement costs of the authoritative

data. Moreover, internal or

external quality cannot be easily

assessed as the wiki-based nature

of VGI data results in the absence

of data specifications (Antoniou,

2011). Then it is the nature of

VGI which paints a completely

different picture from the one

described earlier. In this front, the

first element to consider is biases,

both social and spatial ones:

knowledge of language, users’

available time, their technical

capability, origin or cultural differences

are all factors that introduce

subtle or important biases in

VGI datasets. Then is the digital

divide that should make us very

careful about the coverage and representativeness

of the data that is

being collected. A third element

is the GI itself: lack of metadata,

heterogeneity, patch work and

fragmented contributions should

be expected when using VGI.

This includes also high volatility

as frequent changes made by contributors

in important attributes

can deteriorate the overall quality

and the usability of VGI datasets.

New methods for quality

measures in VGI

In this context, researchers need

to explore ways to determine

VGI quality using existing methods

and, in parallel, find new

ways that will suit better the nature

of VGI. The former group

of efforts includes efforts that

adapt the existing measures of

spatial quality elements, discussed

above, to VGI datasets. The

latter refers mainly to research

aiming to reveal intrinsic to VGI

quality indicators, sometimes

new to Geomatics domain, so

to facilitate the understanding

of such data. Here, we turn our

focus to the novel evaluation

efforts that use intrinsic VGI

quality indicators. These indicators

can be grouped in four different

groups: i) data indicators,

ii) demographic indicators, iii)

socio-economic indicators and

iv) indicators about contributors

(Antoniou and Skopeliti 2015).

40 GEOmedia n°1-2016


GUEST

TEOREMA srl MILANO:

SOLUZIONI INNOVATIVE

PER LA TOPOGRAFIA E

LA TERMOGRAFIA “IR”

Dal 1986 Teorema srl lavora a fianco del professionista

fornendo la tecnologia più avanzata,

la migliore formazione tecnica ed una accurata assistenza post-vendita

per rendere affidabile e produttivo il vostro lavoro.

Leica HDS P30 / P40

Leica Nova MS60

Leica Serie Captivate

Leica CS35 Rugged Tablet

Ricevitore GNSS GS14

Leica 3D Disto

Leica Disto S910

Termocamera Flir T420

www.geomatica.it • www.disto.it • www.termocamere.com

Via A. Romilli, 20/8 20139 Milano • Tel. 02 5398739 • teorema@geomatica.it

GEOmedia n°1-2016 41


GUEST

Data Indicators. The direct quality

evaluation can be problematic

for VGI. This is because usually

there are no detailed specifications

or the evaluation against

authoritative data might not be

possible, not least because there

is no access to reference data.

Hence, the focus is on indicators

that could reveal VGI quality

by solely examining VGI data.

Such indicators include features’

length and point density in a

square-based grids or feature-level

attributes such as the number

of versions, the stability against

changes and the corrections and

rollbacks of features, the provenance

of contributed features

Demographic Indicators.

As VGI is user generated content,

it is expected that a correlation

between data quality and

demographic data might exist.

Empirical studies revealed the

correlation between the demographics

of an area and the completeness

and positional accuracy

of the data. Also, it has been

shown that the low population

density areas (i.e. rural areas) negatively

affect the completeness

of VGI data. On the contrary,

population density positively

correlates with the number of

contributions, thus affecting data

completeness or positional accuracy

(see for example Zielstra and

Zipf, 2010; Haklay et al, 2010).

Fig. 4 – OpenStreetMap GPS trace density. (Source:

https://en.wikipedia.org/ Author: Eric Fischer).

Socio-economic Indicators.

Closely related to the demographics

is the existing socioeconomic

factors. The grassroots

engineering and the bottom-up

process of VGI turned the research

focus in socio-economic

factors and indeed, it has been

shown that social deprivation

and the underlying socioeconomic

reality of an area considerably

affects completeness

and positional accuracy (Haklay

et al, 2010; Antoniou, 2011).

Similarly, other factors such as

high income and low population

age result into a higher number

of contributions, a positive factor

of VGI quality (Girres and

Touya 2010).

Contributors’ Indicators.

This group of indicators focuses

on revealing the contributor’s

motivation drivers as this can

give a better insight into user

generated data. To this end,

quality indicators can include

the history and the profiling of

contributors or the experience,

recognition and local knowledge

of the individual (Van Exel et al.,

2010). Moreover, the number of

contributors on certain areas or

features has been examined and

it has been positively correlated

with data completeness and

positional accuracy (Keßler and

Groot, 2013).

VGI is a new development for

the Geomatics domain. As such,

some of the existing tools used

so far for the quality evaluation

of GI can be applicable here as

well. However, is evident that

the very nature of VGI imposes

a broader thinking of how to

be more inclusive so to better

analyse the quality of VGI dataset.

As there are still ongoing efforts

to build a solid framework that

will efficiently assess VGI quality,

there is active research around

novel quality indicators.

Understanding VGI value

When we solely focus on measuring

the quality of VGI data,

we run the risk of missing the

bigger picture that this phenomenon

paints: the true value of

VGI. Before VGI, spatial data

was a privilege in the hands of

governments or few corporations.

Datasets where stored in silos

and the vision of functional and

public-serving SDIs was strangling

to stay alive. What VGI

did was to introduce geography

to the general public, increase

awareness of its value and consequently

the demand for up-todate

spatial products; in a sense

VGI managed to spatially enable

our societies. Moreover, VGI

sparked the creation of a virtuous

circle around the linkage between

society and spatial information.

The technological advances facilitated

spatial data collection and

online diffusion, and this made

people familiar with spatial content,

cartographic products and

location based services. This in

turn, created the need for more,

freely available, spatial content

of high quality and thus VGI

sources were better placed to

cover this need resulting to more

crowdsourced spatial content to

become available on the Web.

This positive spiral was also

fuelled by the intrinsic characteristics

of VGI data. First, is the

fact that now we can record how

people value and understand

space. Now, for the first time,

the user’s perception of space is

tangible through the volunteered

recording of spatial features or

phenomena they consider important

to have on a map. Moreover,

as daily life is local by its nature,

VGI supports the recording of

issues that range from health to

entertainment, to education, or

other local-scale activities. Closely

related to this is the fact that VGI

encapsulates the local knowledge

that contributors have. Following

42 GEOmedia n°1-2016


GUEST

GEOMAX

works when you do

Anche nelle condizioni atmosferiche più avverse,

GeoMax fornisce le migliori soluzioni

prezzo-prestazioni, works when you do.

info@geomax-positioning.it - www.geomax-positioning.it

GEOmedia n°1-2016 43


GUEST

Tobler’s law which states that

“everything is related to everything

else but near things are more related

than distant things” (Tobler, 1970:

234) it is not strange that contributions

in VGI tend to be more

accurate in places the contributor

knows best. Another issue is the

extended field of scope. While

VGI become mostly known

from a handful of champion

projects such as OpenStreetMap,

Wikimapia and Geonames,

examples include also data gathering

for air pollution, urban

noise, traffic and congestion

maps, cycle maps, gpx-trail maps

or soil mapping. Most of these

topics were usually under the

radar of the NMAs as their focus

was on few well defined mapping

products. This leads to the fact

that now we can open our horizons

to new geospatial products

and applications. Examples can

be found in the field of urban

sensing and smart cities. Today,

with ubiquitous sensor networks

our living environments are being

transformed into smart cities

where the flow of VGI in terms

of volume and currency opens

the opportunity to monitor and

understand, in an unprecedented

way, what exactly takes place

in every corner of the urban fabric.

Apart from new products,

VGI can also play an important

role in correcting, enriching,

and updating existing datasets.

Furthermore, VGI shortens the

time horizons of geographic data

update as in most cases the time

gap between data capture and

data consumption is minimal.

Finally, most of the times, all these

come with no cost and without

sophisticated and restrictive licensing

agreements.

What is next?

The evolution and possibilities

of VGI in the Geospatial domain

have attracted the interest

of academics and professionals

alike with a growing number of

governments and corporations

leveraging this kind of GI information.

However, it is clear that

while, at this point, VGI cannot

replace proprietary and authoritative

data, it can play a crucial

role in correcting, enriching and

updating existing datasets or provide

the basic information layer

for new products.

VGI has been a growing phenomenon

for over a decade now.

Notwithstanding the acceptance

that it has received so far, the

most important factor that hinders

a more widespread diffusion

is the lack of a stable and standardized

way to evaluate data quality.

Existing and well-established

methods and processes for spatial

data quality evaluation, while

still valid, are not always applicable

to VGI datasets. This drives

researchers and academics into

the study of new methods so to

eloquently answer the pressing

question about “how good is

VGI data?”. The nature and the

creation mechanisms of VGI led

to the analysis of a number of factors.

However, research is still far

from providing concrete answers

and methods regarding the evaluation

of VGI quality. Here, we

just scratched the surface of the

ongoing research on VGI quality

evaluation.

Now, if we had to provide a

prediction for the future, which

is always a challenging task, it

would be that the times ahead

will get extremely interesting in

this field. This optimistic view is

based on the trends which more

or less serve as the driving forces

of VGI: technology and society.

In the technological front, the

evolution in Information and

communications technology

(ICT) will not leave VGI unaffected:

bandwidth will keep

increasing, the cost of hardware

will keep dropping and the number

of people online will keep

growing and thus the pool of

contributors will become larger

and better equipped. This alone

is great news for the future of

VGI. However, the most crucial

role is expected by the spatial data

capturing devices that will proliferate

or be introduced in the

future. On the one hand is the

ubiquity of sensors that passively

collect spatial data, mostly in

urban context. The transformation

of our living environment

into smart cities inevitably passes

through a better understanding

and a more detailed recording of

space and human activity. This

development is based on the

consideration that location and

spatial information are common

goods and promotes their availability

in order to stimulate innovation

(Roche et al. 2012). Then,

is the individually controlled

devices. The spread of drones, for

which we are still exploring their

abilities to contribute in systematic

data gathering, is expected

to bring VGI in a whole new

level. Moreover, the evolution of

the wearable technology, while

still in its early days, is expected

to contribute to the evolution

of VGI. The omnipresence of

wearable sensors is expected to

multiply the availability of spatial

data on the Web. Similar impact

is expected by the development

of indoor positioning and mapping

systems (e.g. Google’s Tango

project) which will extend VGI

into new fields. So, in short, GI

capturing devices, on top of what

it is today available, will cover

also the area of aerial surveying,

of everyday activities and of indoor

mapping, and this is just a

sneak preview of the near future.

In the societal front, the future

could be even more exciting.

Crowdsourcing, volunteerism,

citizen science and social enterprises

are just some of the early

formations which the increased

online connectivity has brought.

44 GEOmedia n°1-2016


GUEST

It is really amazing how online

communities address real world

problems and even more impressive

how this grassroots collaboration

overcomes societal barriers

and enables citizens to participate

in the management and improvement

of quality of life. The social

transformation shaped by online

communities will prove equally

important factor in the evolution

of VGI as the technological

advances.

How this ecosystem affects the

understanding of VGI quality?

We need to understand that this

area is highly interdisciplinary in

that intertwines the advances of

many domains. VGI is the grafting

of the underlying social, economic

and technological situation

with the geospatial domain.

It is incarnated with the tangible

recording of citizen’s perception

for space and phenomena they

consider important to have on a

map. However, despite the work

and empirical research available

on the subject of VGI quality, a

solid framework for assessing the

quality of crowdsourced spatial

data is far from being established

for all the reasons explained here.

This should be the next goal for

VGI on our way towards Digital

Earth.

REFERENCES

Antoniou, V. (2011). User generated spatial content: an analysis of the phenomenon and its challenges for mapping

agencies. Ph.D. Thesis, University College London.

Antoniou, V. and Skopeliti, A. (2015). Measures and Indicators of Vgi Quality: An Overview. ISPRS Ann.

Photogramm. Remote Sens. Spatial Inf. Sci., II-3/W5, pp.345-351.

Girres, J. and Touya, G. (2010). Quality Assessment of the French OpenStreetMap Dataset. Transactions

in GIS, 14(4), pp.435-459.

Goodchild, M. (2007). Citizens as sensors: the world of volunteered geography. GeoJournal, 69(4),

pp.211-221.

Haklay, M., Basiouka, S., Antoniou, V. and Ather, A. (2010). How Many Volunteers Does it Take to

Map an Area Well? The Validity of Linus’ Law to Volunteered Geographic Information. The Cartographic

Journal, 47(4), pp.315-322.

International Organisation for Standardisation 2005. ISO 9000: Quality management systems - Fundamentals

and Vocabulary, Geneva: ISO.

International Organisation for Standardisation, 2013. ISO19157:2013 Geographic information - Data quality,

Geneva: ISO.

Keßler, C., de Groot, R. T. A., 2013. Trust as a proxy measure for the quality of Volunteered Geographic

Information in the case of OpenStreetMap. In: Geographic information science at the heart of Europe,

Springer International Publishing, pp. 21-37.

Roche S, Nabian N, Kloeckl K and Ratti C (2012). Are ‘smart cities’ smart enough? In: Rajabifard A

and Coleman D (eds) Spatially Enabling Government, Industry and Citizens: Research Development and

Perspectives.

Tobler, W. (1970). A Computer Movie Simulating Urban Growth in the Detroit Region. Economic

Geography, 46, p.234.

Turner, A. (2006). Introduction to Neogeography. Sebastopol, Calif.: O’Reilly.

Van Exel, M., Dias, E., Fruijtier, S., 2010. The impact of crowdsourcing on spatial data quality indicators.

In: Proceedings of GiScience 2010, Zurich, Switzerland.

Zielstra, D., Zipf, A., 2010. A comparative study of proprietary geodata and volunteered geographic

information for Germany. In: Proceedings of the Thirteenth AGILE International Conference on Geographic

Information Science, Guimarães, Portugal.

PAROLE CHIAVE

VGI; datasets, GI; spatial data quality

ABSTRACT

Oggi la Volunteer Geographic Information (VGI) è onnipresente. Proviene da varie fonti e può essere trovata in molti

aspetti tra cui toponimi, tracce GPS, foto geo-tag, applicazioni di social networking, blog, misurazioni dei sensori,

mappe topografiche ecc. Può essere il frutto di un lavoro sul campo o di bulk data importati da un dataset autorevole,

disponibile gratuitamente. E' ovvio che tutte queste fonti non possono solo cadere in un'unica categoria. Ci sono

molti aspetti che possono essere esaminati qui, ma di particolare interesse, quando si esaminano le fonti e le tipologie

di VGI, sono l'origine, la motivazione e lo scopo di chi contribuisce alla VGI.

AUTORE

Vyron Antoniou

v.antoniou@ucl.ac.uk

Hellenic Military Academy, Greece

GEOmedia n°1-2016 45


MERCATO

EXPO Ferroviaria: soluzioni Trimble

dedicate al mondo rail

Torna l'EXPO Ferroviaria, la vetrina italiana per

le tecnologie, i prodotti ed i sistemi ferroviari.

Il 5-7 Aprile 2016, presso il Lingotto di Torino,

Trimble sarà presente allo Stand 921, per presentare

tutte le soluzioni dedicate al mondo Rail tra

cui Trimble GEDO CE.

Trimble GEDO CE, riprendendo la filosofia

Trimble della modularità e dell'integrazione dei processi di trattamento

del dato, rappresenta la soluzione completa per il rilievo del binario

ferroviario, tramviario e metropolitano su base relativa e/o assoluta; il

rilievo della frecciatura digitale; verifiche di transitabilità.

Trimble da oltre 35 anni crea soluzioni tecnologicamente avanzate per

l'acquisizione e il trattamento dei dati spaziali 3D, anche per l'ambito

ferroviario.

Trimble ha scelto Spektra Srl come distributore unico per il territorio

italiano, delle sue soluzioni dedicate ai professionisti che operano nel

mondo Rail.

Spektra si propone al mercato come Partner e Technology Solution

Provider, offrendo ai propri Clienti soluzioni innovative e di qualità per

il rilievo del binario ed i servizi a valore aggiunto ad esse correlati:

4 tecnologia ad elevata affidabilità

4 intuitività e modularità dei sistemi

4 know how ed expertise

Per ulteriori informazioni visitare www.trimble-italia.it o scrivere a

info@trimble-italia.it

(Fonte: Spektra)

Nuovo ricevitore

GNSS Zenith35,

con funzionalità

Tilt & Go per i punti

più difficili

GeoMax presenta un

nuovo modello della

serie Zenith35 GNSS.

Incorporando le funzionalità

uniche Tilt & Go, lo

Zenith35 TAG consente

di misurare punti inaccessibili

e memorizzare i

valori di inclinazione di

ogni misura a scopo di

documentazione e controllo

di qualità.

Punti inaccessibili come un palo verticale, angoli, muri, pali della

luce o canali sotto i veicoli parcheggiati possono semplicemente

essere misurati con la funzionalità Tilt & Go. A differenza dai

sistemi che incorporano metodi basati su bussola magnetica, la

funzionalità Tilt & Go può essere utilizzata in prossimità di oggetti

metallici come pali della luce o direttamente sotto le linee

elettriche.

Per aggiungere il massimo comfort e flessibilità ed evitare il

passaggio tra il sistema di livella analogico e il display, Zenith35

viene fornito con una livella elettronica visualizzata direttamente

nel software da campo, migliorando notevolmente la precisione di

centramento.

(Fonte: GEOMAX)

46 GEOmedia n°1-2016


MERCATO

GEOmedia n°1-2016 47


MERCATO

TITAN4HSE

IL FUTURO DEL RILIEVO 3D MAPPING

48 GEOmedia n°1-2016

+39 0544 771407 WWW.ITALDRON.COM info@italdron.com


MERCATO

Your guarantee to growth

Espandi la tua attività con una maggiore redditività.

Topcon può aiutarti a raggiungere i tuoi obiettivi,

e sarà lì con te ogni passo.

Experience how ...

www.topconpositioning.it

TOKYO · SAN FRANCISCO · MOSCA · ROTTERDAM · BRISBANE

GEOmedia n°1-2016 49


AGENDA

12 Aprile 2016

Il Contributo dei Servizi

Satellitari ai trasporti e alla

navigazione

Roma

www.geoforall.it/kaw4y

13-15 aprile 2016

X° GIS-Forum

Mosca (Russia)

www.geoforall.it/k3cw6

20-21 aprile

Conferenza Utenti Esri Italia

Roma

www.geoforall.it/kaxhk

26-27 Aprile 2016

GISTAM 2016

Roma

www.geoforall.it/k3hd4

3-5 maggio 2016

Big Data 2016

Alicante (Spagna)

www.geoforall.it/k3c6p

11 maggio 2016

Il ruolo dell’informazione

geografica nel contesto

dell’agenda digitale

Roma

www.geoforall.it/kaw4c

11 - 13 maggio 2016

Convegno AIC 2016

San Benedetto del Tronto

www.geoforall.it/kax4r

24-25 Maggio 2016

Geo Business 2016

London (UK)

www.geoforall.it/k3y39

24 - 26 Maggio 2016

FORUM PA 2016

Roma

www.geoforall.it/kaxhp

30 maggio 3 Giugno 2016

European Space Solution

L’Aia

www.geoforall.it/kawf9

8-10 giugno 2016

Convegno SIFET

Lecce

www.geoforall.it/kax4h

20-24 Giugno 2016

36th EARSeL Symposium

Bonn (Germany)

www.geoforall.it/kawfw

22-24 Giugno

VIII CONVEGNO AIT

Associazione Italiana di

telerilevamento

Palermo

www.geoforall.it/kax4q

12-19 Luglio 2016

23rd ISPRS Congress

Praga (Czech Republic)

www.geoforall.it/k3fcd

24-26 agosto 2016

FOSS4G 2016

Bonn (Germania)

www.geoforall.it/kaxry

14-16 settembre 2016

GEOBIA 2016

Enschede (The Netherlands)

www.geoforall.it/ka9ur

4-6 ottobre 2016

TECHNOLOGYforALL

Roma

http://www.technologyforall.it

11-13 ottobre INTERGEO

2016

Hamburg (Germania)

www.geoforall.it/kaxhh


FIBER MANAGER ®

TUTTA LA TUA RETE A PORTATA DI MANO

GESTISCI L’INFRASTRUTTURA CON UN SOLO GEODATABASE INTEGRATO

Con FiberManager® puoi gestire le reti di telecomunicazione con un unico geodatabase che consente la

visione globale ed integrata dell’intera infrastruttura di rete. In questo modo hai a disposizione uno strumento

di business intelligence geografica centralizzato, da cui puoi estrarre tutti i report, gli schemi e i documenti

necessari a progettare, costruire, sviluppare e gestire la tua rete nel modo più efficace possibile.

FiberManager® mette a fattor comune la piattaforma GIS leader nel mondo con il modello dati e le funzionalità

smart implementate da una community network di aziende di telecomunicazioni operanti in vari paesi nel

mondo.

FiberManager® è una verticalizzazione della suite ArcFM® di Schneider Electric, di cui Sinergis è rivenditore

esclusivo in Italia.

www.sinergis.it


TRAnSfoRming The wAy The woRld woRkS

Il vostro prossImo lavoro?

trasformIamolo InsIeme In un successo

Trimble è leader mondiale nella produzione di soluzioni

tecnologicamente avanzate per l’acquisizione e il

trattamento di dati spaziali 3D.

In qualsiasi scenario vi troviate a operare esiste

una soluzione Trimble pensata espressamente per

voi; vi garantiamo un’esperienza di utilizzo unica,

dall’acquisizione, all’elaborazione fino alla restituzione del

dato, in un unico ambiente operativo.

Per essere ancora più vicina ai professionisti italiani, Trimble

ha acquisito Spektra, azienda storica nel mondo degli

strumenti di misura, per farne il suo distributore unico, per

quanto concerne i settori dell’ingegneria, del monitoraggio

ambientale e strutturale e del rilievo in ambito ferroviaro.

È nata così una realtà nuova, fatta di persone appassionate

e competenti, pronte ad affiancarvi, e di servizi pensati su

misura per le vostre esigenze.

Trimble Service: lasciate che siano i nostri tecnici

specializzati a prendersi cura della vostra strumentazione in

caso di manutenzione ordinaria e straordinaria.

Trimble Remote Assistance: avete bisogno di supporto?

Interveniamo da remoto o direttamente in cantiere con la

nostra squadra di tecnici specialisti.

Trimble Rent: potrete avere tutto la tecnologia di Trimble,

solo quando vi serve. Anche per un giorno.

È ora di cominciare a lavorare insieme.

Spektra Srl, a Trimble Company

039.625051 | info@trimble-italia.it | www.trimble-italia.it

More magazines by this user
Similar magazines