Rivista bimestrale - anno XIX - Numero 5/2015 - Sped. in abb. postale 70% - Filiale di Roma
TERRITORIO CARTOGRAFIA
GIS
CATASTO
INFORMAZIONE GEOGRAFICA
FOTOGRAMMETRIA
URBANISTICA
3D
GNSS
BIM
RILIEVO TOPOGRAFIA
CAD
REMOTE SENSING SPAZIO
EDILIZIA
WEBGIS
UAV
SMART CITY
AMBIENTE
NETWORKS
BENI CULTURALI
LBS
LiDAR
Set/Ott 2015 anno XIX N°5
La prima rivista italiana di geomatica e geografia intelligente
GALILEO una
costellazione
di orologi
ultra stabili
nel cielo
GEOmedia
a INTERGEO
2015
Edificato residenziale
e pericolosità sismica
Passare al BIM
2 a Conferenza Utenti
Leica Laser Scanner
Lavoriamo
con chi lavora.
Con chi usa la propria esperienza con intelligenza,
con chi è orgoglioso della propria professionalità.
Per gentile concessione Centro di GeoTecnologie Siena
Installazione sismometri sull’Etna
Rilievo con streamer digitale
Strumenti ad alta tecnologia
per le Scienze della Terra e del Mare
> Studio del sottosuolo
georadar, sismica, geoelettrica,
logger da foro.
> Rappresentazione
dei fondali e delle coste
Multibeam, SideScanSonar,
SubBottom Profiler.
> Monitoraggio ambientale
e Ingegneria civile
georadar, sismografi, laser
scanner, magnetometri.
> Vulcanologia
e Monitoraggio sismico
sismometri, gravimetri,
inclinometri.
> Qualificato laboratorio
di Assistenza Tecnica.
> Sistemi disponibili a noleggio.
> Noleggio a lungo termine.
CODEVINTEC
Tecnologie per le Scienze della Terra
Via Labus 13 - Milano
tel. +39 02 4830.2175
info@codevintec.it
www.codevintec.it
Geospatial 4.0, il GNSS Galileo e Einstein
Geospatial 4.0 è il termine usato quest’anno per identificare gli sviluppi del nostro settore.
Un momento di profonda trasformazione che ci induce a stare molto attenti per non perdere
il treno dell’innovazione che ci sta passando davanti. La geomatica, pur essendo relativamente
giovane, sta soffrendo di una forte obsolescenza proprio nel momento in cui è entrata a
far parte della nostra vita quotidiana. In Italia specialmente si soffre per la poca importanza
che le Istituzioni, non sensibilizzate ovviamente, dedicano al corretto sviluppo e promozione
della ricerca. Gran parte della produzione della ricerca geomatica è stata ormai assimilata nel
nostro quotidiano e non ci rendiamo neanche conto di quanto la usiamo per le nostre normali
operazioni quotidiane come quelle che vanno dall’uso di un navigatore per arrivare ad
una destinazione prestabilita, oppure quelle che ci portano alla ricerca del nostro immobile
ideale attraverso un sistema informativo geografico. Eppure ci sono cose, come ad esempio
le transazioni bancarie e la misura precisa del tempo, che si poggiano sulla ricerca geomatica,
senza neanche accorgersene.
Purtroppo c’è carenza nella mancanza di divulgazione e cooperazione nella ricerca stessa, con
gruppi di settori diversi che utilizzano la geomatica e cercano di ridefinirne i termini solo per
mancata conoscenza della attività svolte dagli altri esperti del settore che, spesso preda di autoreferenzialismo
dovuto alla selezione del sistema della ricerca universitaria, non divulgano
più il loro operato.
In effetti i ricercatori si chiedono perché andare a divulgare i risultati della ricerca ad un
Convegno che non da i crediti per l’avanzamento della carriera? Chi ha stabilito che un
ricercatore vale più di un altro solo perché citato da altri in un sistema talmente chiuso che
non consente neanche l’accesso libero alla lettura?
La rivoluzione apportata da Google Map è una testimonianza incredibile se pensiamo oggi
che mentre si ricercava l’assurda precisione avvalorata dai confronti ineludibili di scarti quadratici
medi di ambiziosi risultati geodetici e topografici, un sistema geografico che non
garantisce alcuna precisione ha conquistato il mondo intero.
Dobbiamo ora, anche in considerazione di ciò, prepararci alla nuova rivoluzione, in considerazione
che la rete intelligente di sensori, dati e servizi sta ridefinendo gli sviluppi tecnologici
e strategici del settore. Nell’ambito del Geospatial 4.0 annunciato nello scorso Intergeo, si è
parlato dell’ormai prossima sostituzione delle tradizionali cartografie analogiche con metodi
cutting edge di trasmissione delle informazioni con la crescente integrazione di realtà aumentata.
La mappa del futuro potrebbe non essere più disponibile su carta, ma in digitale 3D o
4D su dispositivi mobili.
Nell’anniversario della scoperta della Teoria della Relatività, per i nessi ovvi collegati alla
misurazione del tempo, viene spontaneo pensare che i sistemi di posizionamento Global
Navigation Satellite System che hanno rivoluzionato la geomatica come il GPS, GLONASS,
Galileo e Beidou, costituiscono insieme una infrastruttura interoperabile e coordinata che
sta supportando in un modo vitale i più importanti aspetti industriali ed economici della nostra
società. La misura del tempo è ancora una volta uno degli aspetti strategici ed essenziali
dei servizi offerti dai GNSS, elementi di vitale importanza per tutte le infrastrutture critiche
della nostra società.
Buona lettura,
Renzo Carlucci
In questo
numero...
FOCUS
REPORTS
La Teoria della
Relatività ed il
sistema di navigazione
satellitare europeo
Galileo
di Marco Lisi
6
LE RUBRICHE
26 IMMAGINE ESA
36 SCHEDA PRODOTTO
38 MERCATO
Evoluzione
dell'edificato
residenziale in
rapporto alla
pericolosità sismica
di Juri Corradi, Gianluigi
Salvucci e Valerio Vitale
10
46 OPPORTUNITIES
48 RECENSIONE
50 AGENDA
In copertina il nucleo di lavoro di
Galileo, il sistema di navigazione
satellitare indipendente in Europa,
già posizionato ed attivo.
La completa costellazione Galileo
sarà composta da 30 satelliti lungo
tre piani orbitali in orbita terrestre
media (tra cui due di riserva per
ogni orbita). Il risultato sarà la più
grande flotta europea di satelliti.
18
INTERGEO 2015
l'evoluzione/
rivoluzione del
settore geospaziale
di Fulvio Bernardini
(Credits: ESA)
www.rivistageomedia.it
GEOmedia, bimestrale, è la prima rivista italiana di geomatica.
Da quasi 20 anni pubblica argomenti collegati alle tecnologie dei
processi di acquisizione, analisi e interpretazione dei dati,
in particolare strumentali, relativi alla superficie terrestre.
In questo settore GEOmedia affronta temi culturali e tecnologici
per l’operatività degli addetti ai settori dei sistemi informativi
geografici e del catasto, della fotogrammetria e cartografia,
della geodesia e topografia, del telerilevamento aereo e
spaziale, con un approccio tecnico-scientifico e divulgativo.
A proposito
24
de "La buona
Scuola"
di Carlo Monti
e Attilio Selvini
28
PASSARE AL BIM
10 regole per
avere successo
di Marco Parisi
INSERZIONISTI
Aerrobotix 16
Codevintec 2
Epsilon 38
Esri Italia 17
Flytop 42
Geogrà 46
Geomax 52
Gistam 39
Hexagon S&I 37
Menci 49
Me.s.a 41
Planetek 45
Progesoft 40
Sinergis 51
Sistemi Territoriali 44
Teorema 50
Topcon 47
Trimble 43
32
Il Caso di Veio
Nuove scoperte
archeologiche
con APR
di Zaira Baglione
Innovazione
e tecnologie
avanzate alla 2a
Conferenza
degli utenti Laser
Scanner Leica
Geosystems
a cura della redazionee
34
una pubblicazione
Science & Technology Communication
Direttore
RENZO CARLUCCI, direttore@rivistageomedia.it
Comitato editoriale
Fabrizio Bernardini, Luigi Colombo, Mattia Crespi,
Luigi Di Prinzio, Michele Dussi, Michele Fasolo, Flavio
Lupia, Beniamino Murgante, Aldo Riggio, Mauro Salvemini,
Domenico Santarsiero, Attilio Selvini, Donato Tufillaro
Direttore Responsabile
FULVIO BERNARDINI, fbernardini@rivistageomedia.it
Redazione
VALERIO CARLUCCI, GIANLUCA PITITTO,
redazione@rivistageomedia.it
Diffusione e Amministrazione
TATIANA IASILLO, diffusione@rivistageomedia.it
Comunicazione e marketing
ALFONSO QUAGLIONE, marketing@rivistageomedia.it
Progetto grafico e impaginazione
DANIELE CARLUCCI, dcarlucci@rivistageomedia.it
MediaGEO soc. coop.
Via Palestro, 95 00185 Roma
Tel. 06.62279612 - Fax. 06.62209510
info@rivistageomedia.it
ISSN 1128-8132
Reg. Trib. di Roma N° 243/2003 del 14.05.03
Stampa: SPADAMEDIA srl
VIA DEL LAVORO 31, 00043 CIAMPINO (ROMA)
Editore: mediaGEO soc. coop.
Condizioni di abbonamento
La quota annuale di abbonamento alla rivista
Science
è di €
&
45,00.
Technology Communication
Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di
ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa.
L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita
revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza
dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo.
La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti.
Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta
dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere
richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo.
Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la
riproduzione anche parziale del contenuto di questo numero della Rivista in
qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i
sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore.
Rivista fondata da Domenico Santarsiero.
Numero chiuso in redazione il 30 Novembre 2015.
FOCUS
La Teoria della Relatività ed
il sistema di navigazione
satellitare europeo Galileo
di Marco Lisi
Ricorrono in questo anno 2015 i
centodieci anni dalla pubblicazione
della teoria della Relatività Ristretta
ed i cento anni da quella della teoria
della Relatività Generale di Einstein.
Fig. 1 - Albert Einstein e la sua
famosa formula di equivalenza
tra massa ed energia.
Un famoso mensile di
informatica e tecnologia
ha giustamente titolato:
“Cento anni di relatività generale
(e non sentirli)”.
Sì perché sebbene, almeno di
nome, le due teorie siano note a
tutti (insieme ad alcune formule,
come E=mc 2 ), assai poco digeriti
sono i loro contenuti e poco percepiti
i loro effetti nella nostra
vita di tutti i giorni.
D’altra parte, abbiamo appena
finito di digerire, dopo quasi
quattrocento anni, la prima
grande rivoluzione scientifica,
quella di Copernico, Keplero,
Galileo e Newton e quindi a
soli cento anni dalla Teoria della
Relatività siamo ancora all’antipasto.
Eppure quelle di Einstein non
sono astratte teorie, degne
dell’attenzione di pochi scienziati
ed addetti ai lavori. Come vedremo,
le loro ricadute nella vita
pratica sono magari poco note,
ma molto tangibili.
Un minimo di storia
e di teoria
La teoria della relatività ristretta,
anche detta “speciale”, fu pubblicata
da Einstein nel 1905 proprio
per conciliare il principio di relatività
galileiano con le equazioni
delle onde elettromagnetiche, o di
Maxwell, che ci sono particolarmente
care essendo la base delle
trasmissioni radio. Nel concepire
la relatività ristretta, Einstein
immaginò un esperimento puramente
concettuale, nel quale egli
viaggiava nello spazio cavalcando
un raggio di luce. Le conseguenze
della teoria sono semplici, ma alquanto
sconvolgenti:
1. la velocità della luce nel
vuoto ha lo stesso valore in
tutti i sistemi di riferimento
inerziali, indipendentemente
dalla velocità dell’osservatore
o dalla velocità della sorgente
di luce (in parole semplici, la
velocità della luce è una costante
ed è invalicabile);
2. massa ed energia possono
trasformarsi l’una nell’altra,
secondo la famosa legge E =
mc 2, che trovò la sua conferma
nella realizzazione della
prima pila atomica da parte
di Fermi (e, purtroppo, nella
realizzazione della bomba
atomica e della bomba H).
L’equivalenza massa-energia
ci ha anche permesso di capire
le reazioni che alimentano
il nostro Sole e tutte le stelle;
3. il nostro universo è uno spazio
a quattro dimensioni, la
quarta essendo il tempo, il
quale dipende dal sistema di
riferimento ed in particolare
rallenta all’aumentare della
velocità.
Molto noto, anche per alcune
recenti interpretazioni cinematografiche
(il film di fantascienza
“Interstellar”), è il cosiddetto
“paradosso dei gemelli” (fig. 2).
Di due gemelli, uno parte a bordo
di un astronave che viaggia a
6 GEOmedia n°5-2015
FOCUS
Fig. 2 - Il paradosso dei
gemelli.
velocità prossime a quella della
luce e rimane per molto tempo
nello spazio, l’altro rimane sulla
Terra. Al ritorno del primo dal
suo viaggio spaziale, ritroverà il
gemello molto invecchiato perché
il tempo, a bordo dell’astronave,
è trascorso più lentamente
che a Terra.
Anche per la relatività generale,
pubblicata dieci anni dopo, nel
1915, Einstein immaginò un
esperimento ideale: cadere dal
tetto di un alto edificio.
Le conseguenze della teoria sono
innumerevoli e necessiterebbero
di una matematica complicatissima
per essere dimostrate. Si possono
tuttavia riassumere in un
concetto abbastanza semplice: la
gravità (quella che ci tiene con
i piedi per terra e che fa ruotare
i pianeti intorno al Sole) non è
altro che una deformazione dello
“spazio-tempo” causata dalla
massa (o dall’energia, visto che le
due sono equivalenti).
Per spiegare il meccanismo, i fisici
si aiutano spesso con la metafora
del foglio di gomma (fig. 3).
Lo spazio-tempo si può immaginare,
per l’appunto, come una
superficie morbida che viene
curvata dalle masse che vi sono
appoggiate. La forza di gravità
che avvertiamo, per esempio,
sulla superficie della Terra è il risultato
della curvatura del foglio
di gomma quadridimensionale
causata dalla massa della Terra
stessa. Un’analoga deformazione,
causata questa volta dal Sole,
spiega la forza esercitata da questo
sui pianeti e la rotazione di
essi intorno al Sole.
Prove sperimentali delle
due teorie della relatività
Negli ultimi cento e passa anni,
gli scienziati di tutto il mondo
si sono affannati per dimostrare
con i loro esperimenti le due
teorie della relatività di Einstein,
con le loro implicazioni e conseguenze.
Pochi tuttavia forse
sanno che una delle più complete
dimostrazioni delle due teorie
deriva proprio da quei sistemi satellitari
globali per la navigazione
(“Global Navigation Satellite
Systems”, GNSS), quali l’americano
GPS o l’europeo Galileo,
che vengono ormai utilizzati in
tutte le nostre autovetture, ma
anche nella gran parte dei nostri
telefoni cellulari (“smartphone”).
Fig. 3 - La gravità è una
deformazione dello spazio-tempo
dovuta alla massa.
Volendo essere sintetici e radicali,
potremmo affermare che, senza
la conoscenza delle due teorie
della relatività (speciale e generale)
di Einstein, i navigatori satellitari
non potrebbero funzionare.
Cerchiamo di capire perché.
Ricordiamo innanzi tutto che
il principio di funzionamento
dei GNSS consiste nella misura
molto accurata (accurata nell’ordine
dei nanosecondi, cioè dei
miliardesimi di secondo) del
ritardo temporale fra la trasmissione
di un segnale radio da un
satellite e la sua ricezione da parte
del ricevitore dell’utente. Da
questa misura si ricava la distanza
fra il satellite stesso (di cui posizione
ed orbita sono ben note)
e l’utente. Essendo la velocità
delle onde radio nel vuoto pari a
300˙000 chilometri al secondo,
un errore pari ad un nanosecondo
corrisponde a 0,3 metri (30
centimetri) nella determinazione
della distanza (e quindi della
posizione).
Questo è il motivo per il quale
si utilizzano a bordo dei satelliti
per la navigazione orologi atomici
estremamente stabili. A bordo
dei satelliti Galileo, ad esempio,
si sta facendo volare il “Passive
Hydrogen Maser” (PHM), che,
con una stabilità di frequenza
equivalente ad uno scarto di 1
secondo ogni 3 milioni di anni,
è il più stabile orologio mai realizzato
per applicazioni spaziali
(fig. 4).
Gli effetti relativistici sul funzionamento
delle costellazioni di
satelliti per la navigazione sono
molteplici, anche se non tutti
della stessa entità.
Ci limiteremo ad analizzarne
due, derivanti rispettivamente
dalla teoria ristretta e da quella
generale:
GEOmedia n°5-2015 7
FOCUS
4Relatività Ristretta: i satelliti
si muovono rispetto al ricevitore,
e il loro orologio va più
piano;
4Relatività Generale: i campi
gravitazionali cambiano sia
la velocità degli orologi, sia
la propagazione dei segnali
radio.
I satelliti GNSS ruotano intorno
alla Terra su orbite circolari ad
un’altezza di circa 20000 chilometri.
A questa quota, la loro
velocità di rotazione rispetto al
suolo è di circa 3,8 km/s.
Dalle trasformate di Lorentz
(quelle che discendono dalla teoria
della relatività ristretta) si ricava
la contrazione del tempo che
l’orologio a bordo subisce rispetto
ad un orologio a terra, pari a 7,1
microsecondi al giorno.
Questo significa che dopo un
giorno l’errore in termini di
determinazione della distanza
diventa pari a 2,2 chilometri
(7,1 microsecondi per la velocità
della luce).
Ricordiamoci che l’obiettivo di
sistemi come GPS o Galileo è
quello di fornire un’accuratezza
sulla posizione di pochi metri.
L’effetto della teoria della relatività
generale è ancora più
drammatico. In questo caso
l’effetto dipende dall’intensità
dell’attrazione gravitazionale ed è
di segno opposto.
La forza di gravità modifica lo
spazio-tempo rallentando gli
orologi. Quindi gli orologi in
volo a 20˙000 chilometri di
altezza, sperimentando un’attrazione
gravitazionale più bassa,
marciano più velocemente di
quelli a terra.
La deviazione è pari a 47,5 microsecondi
al giorno, pari a circa
14 chilometri di errore sulla distanza,
che vengono solo in parte
compensati dai 7,1 microsecondi
precedentemente considerati.
In conclusione, la combinazione
di questi due effetti relativistici
implica che gli orologi (i sofisticati
e costosi orologi atomici) a
bordo dei satelliti GPS marciano
più velocemente di orologi identici
a terra di circa 38 microsecondi
(45-7=38)!
Poca cosa, potreste pensare, ma
l’altissima precisione richiesta dal
sistema è basata su un’accuratezza
nell’ordine dei nanosecondi,
e 38 microsecondi sono ben
38˙000 nanosecondi.
Per essere ancora più espliciti se
gli effetti delle teorie di Einstein,
apparentemente astruse e poco
utili in pratica, non fossero tenuti
in conto, ci ritroveremmo a
guidare le nostre auto al centro
di Roma o Milano con un’incertezza
sulla nostra posizione
di qualche decina di chilometri.
Non molto utile, davvero!
L’importanza dei
riferimenti di tempo
nella nostra società
La determinazione e la misurazione
accurata del tempo sono
alla base della nostra civiltà tecnologica.
I maggiori progressi
in questo campo si sono avuti
nel secolo scorso, con l’invenzione
dell’oscillatore a cristallo
di quarzo nel 1920 e dei primi
orologi atomici negli anni ’40.
Oggigiorno la misura del tempo
è di gran lunga la più accurata
fra le misure delle altre grandezze
fisiche fondamentali. La stessa
unità di misura delle lunghezze,
una volta basata sul mitico metro
campione di Platino-Iridio
conservato a Parigi, è stata
internazionalmente ridefinita
nel 1983 come “la lunghezza di
percorso coperta dalla luce nel
vuoto durante un intervallo di
tempo pari ad 1/299792458 di
secondo”.
Il secondo (simbolo s) è l’unità
di misura ufficiale del tempo nel
Sistema Internazionale di Unità
(SI). Il suo nome deriva semplicemente
dall’essere la seconda divisione
dell’ora, mentre il minuto
ne è la prima. Il secondo era
originariamente definito come
la 86400-esima parte del giorno
solare medio, cioè della media
sulla base di un anno del giorno
solare, inteso come intervallo
di tempo che intercorre tra due
successivi passaggi del Sole sullo
stesso meridiano.
Nel 1884 fu ufficialmente stabilito
come standard di tempo a livello
internazionale il Greenwich
Mean Time (GMT), definito
come il tempo solare medio al
meridiano che passa per l’Osservatorio
Reale di Greenwich
(Inghilterra).
Nel 1967 è stata proposta una
nuova definizione del secondo,
basato sul moto di precessione
dell’isotopo 133 del cesio. Il
secondo è ora definito come
l’intervallo di tempo pari a
9192631770 cicli della vibrazione
dell’atomo di cesio 133.
Questa definizione permette agli
scienziati ovunque nel mondo di
ricostruire la durata del secondo
con uguale precisione e su di essa
è basato il concetto di Tempo
Atomico Internazionale o TAI.
Fig. 4 - Il
“Passive
Hydrogen
Maser” della
Selex Galileo
(Finmeccanica).
8 GEOmedia n°5-2015
FOCUS
Il tempo UTC (“Universal
Coordinated Time”), definito
dallo storico Bureau
International des Poids et
Mesures (BIPM) di Sevres
(Parigi), è dal 1972 la base legale
della misura del tempo a livello
mondiale, sostituendo in modo
definitivo il vecchio GMT. Esso
viene derivato dal TAI, dal quale
differisce solamente per un numero
intero di secondi (al momento
36). Il TAI è a sua volta
calcolato dal BIPM a partire dai
dati di più di 200 orologi atomici
situati negli istituti di metrologia
di più di 30 paesi (uno
di essi, in Italia, è il prestigioso
Istituto Elettrotecnico Nazionale
Galileo Ferraris di Torino).
Un riferimento del tempo UTC
estremamente accurato è oggigiorno
fornito su scala mondiale
dai sistemi di navigazione satellitare
(GNSS), come il GPS
(Global Positioning System)
e, presto, il sistema europeo
Galileo. Entrambi sono sistemi
di satelliti orbitanti intorno alla
Terra, ciascuno recante a bordo
degli orologi atomici tra loro sincronizzati.
E’ possibile ricavare dal segnale
GPS, attraverso una serie di correzioni
basate su dati forniti dal
segnale stesso, il tempo UTC,
secondo la stima effettuata dallo
United States Naval Observatory
(USNO). L’accuratezza ottenibile,
anche con ricevitori commerciali
molto economici (alcuni
ricevitori GPS sono ormai venduti
per meno di venti euro), è
di circa un microsecondo.
Il sistema GPS viene anche usato
per comparare i vari orologi atomici
che, come già detto, costituiscono
il sistema mondiale di
riferimento del tempo. I laboratori
campione che si trovano nella
stessa area geografica misurano
la differenza temporale esistente
fra se stessi ed un singolo satellite
GPS nel medesimo istante.
Tenendo conto dei ritardi del
segnale dovuti alla propagazione
nello spazio, queste misure possono
essere usate per calcolare la
differenza temporale fra i laboratori
con un’accuratezza di circa
+/- 3 nanosecondi.
Ma perché è tanto importante
avere un’accurata ed univoca definizione
del tempo?
Non è una questione solo per
scienziati ed addetti ai lavori. Un
riferimento di tempo universalmente
riconosciuto e molto
accurato è di fatto alla base della
maggior parte delle infrastrutture
della nostra società.
Tutte le reti cellulari e wireless,
ad esempio, sono basate
su un’accurata sincronizzazione
dei loro network ottenuta
ricevendo segnali GNSS. Lo
stesso è vero per le reti di distribuzione
dell’energia elettrica.
Sorprendentemente, anche le
transazioni finanziarie e bancarie
e tutti i mercati azionari dipendono
da un accurato riferimento
di tempo, data l’estrema volatilità
di azioni e valute, i cui prezzi
variano ormai nel giro di pochi
microsecondi.
Un orologio atomico nel
nostro smartphone: un
sogno irraggiungibile?
Sarebbe bello, penserà qualcuno,
avere nel nostro smartphone un
orologio atomico che ci fornisca
un preciso riferimento di tempo
e frequenza.
Come precedentemente descritto,
tutto questo è già abbastanza
facilmente ottenibile attraverso
la ricezione dei segnali GNSS.
Ma c’è di più. Sono da poco
tempo disponibili in commercio
oscillatori atomici miniaturizzati,
delle dimensioni di un circuito
integrato.
Il circuito in figura 5 è grande
quanto un francobollo ed è
alimentato a 5 volt, fornendo
un’onda quadra di riferimento a
10 MHz basata su un oscillatore
atomico al rubidio.
Fig. 5 – Oscillatore atomico miniaturizzato.
La deviazione complessiva (parzialmente
compensabile) nell’arco
di una giornata è di alcuni
microsecondi, ma su intervalli
di tempo brevi l’accuratezza è di
pochi nanosecondi.
Il prezzo del dispositivo è al
momento ancora un po’ alto
(intorno ai duemila euro), ma è
prevedibile che nel breve termine
dispositivi simili, anche in forma
di chip, si diffonderanno a prezzi
tanto bassi da essere integrati in
tutti i nostri telefoni cellulari
Le possibili applicazioni pratiche
di questi orologi atomici miniaturizzati
sono in parte immaginabili
e molto interessanti, ma
molte altre dipenderanno anche
dalla nostra creatività ed immaginazione.
ABSTRACT
The Article concerns the theories of the
Special Relativity and of the General Relativity
developed by Albert Einstein in the last
century and how they influence our society.
The relations of these theories with global
satellite navigation systems and, more generally,
with all applications based on exact
time references are explained.
PAROLE CHIAVE
Gnss; sistema di navigazione galileo;
GPS; Teoria della relatività
AUTORE
Dott. Ing. Marco Lisi
European Space Agency
marco.lisi@esa.int
GEOmedia n°5-2015 9
FOCUS
Evoluzione dell'edificato residenziale
in rapporto alla pericolosità sismica
di Juri Corradi,
Gianluigi Salvucci
e Valerio Vitale
Un'analisi storica, da fonti
censuarie, quantitativa e
Fig. 1 - Distribuzione del tasso di variazione
dell'edificato italiano rispetto alle classi di
pericolosità sismica - elaborazione su dati
Istat e Ingv.
qualitativa dello sviluppo
urbano in relazione alle
caratteristiche sismiche
del territorio italiano.
Il rischio sismico e il ruolo
delle indagini statistiche
In un lavoro precedente (Corradi,
Salvucci, Vitale; 2014a) è
stata analizzata la vulnerabilità
dell’edificato urbano, desumibile
dalle variabili (epoca di
costruzione, tipologia strutturale,
numero di piani fuori
terra e stato di conservazione
di ciascun fabbricato) ricavati
dall’indagine Istat sulla Rilevazione
dei Numeri Civici (Rnc),
associando tali informazioni
alla pericolosità sismica di base
del suolo, desunte dai dati
dell’Ingv. Lo studio ha permesso
l’individuazione di edifici a
maggior criticità, ossia quelli del
raggruppamento più vulnerabile
(rappresentato dal fabbricato
in muratura costruito nell’immediato
dopoguerra), situati
nelle aree con un’accelerazione
sismica di base del terreno (Pga)
superiore al 25% dell’accelerazione
gravitazionale.
Ulteriori approfondimenti
(Corradi, Salvucci, Vitale;
2014b), possibili grazie alla diffusione
dei primi dati censuari
della Popolazione del 2011, ci
hanno consentito anche una valutazione
sull’esposizione della
popolazione all’evento sismico
qualora questo si manifestasse,
tenendo conto della distribuzione
della componente dipendente
(bambini 0-14 e anziani over
64) nelle aree di maggior vulnerabilità
e ad elevata pericolosità.
Al momento della stesura
del presente lavoro non sono
ancora disponibili i dati sul
censimento degli edifici al
2011; tuttavia, sfruttando le
informazioni provenienti dal
Censimento degli edifici del
2001, è possibile individuare gli
stessi indicatori di vulnerabilità
della Rnc con lo svantaggio che
10 GEOmedia n°5-2015
FOCUS
Epoca di
Muratura
Calcestruzzo Calcestruzzo
costruzione
portante
armato a piano armato a piano
Altro
Totale
terra chiuso terra aperto
Prima del 1919 18,05% 0,00% 0,00% 1,10% 19,15%
Dal 1919 al 1945 10,55% 0,71% 0,04% 1,04% 12,33%
Dal 1946 al 1961 10,39% 2,46% 0,11% 1,83% 14,78%
Dal 1962 al 1971 9,41% 5,03% 0,24% 2,85% 17,53%
Dal 1972 al 1981 7,34% 6,67% 0,36% 3,30% 17,67%
Dal 1982 al 1991 3,73% 5,24% 0,29% 2,23% 11,50%
Dopo il 1991 2,04% 3,34% 0,18% 1,50% 7,05%
Totale 61,50% 23,45% 1,21% 13,85% 100,00%
Tab. 1 - Distribuzione bivariata degli edifici al 2001 tra epoca di costruzione e materiale della struttura portante - Elaborazione su dati Istat 2001.
Numero
piani
Prima del
1919
Dal 1919 al
1945
Dal 1946 al
1961
Dal 1962 al
1971
Dal 1972 al
1981
Dal 1982 al
1991
Dopo il
1991
Totale
1 3,01% 2,75% 3,62% 4,03% 4,48% 3,09% 1,60% 22,57%
2 10,73% 6,83% 7,69% 9,15% 9,13% 5,79% 3,63% 52,95%
3 4,41% 2,11% 2,20% 2,63% 2,74% 1,86% 1,32% 17,28%
4 0,75% 0,39% 0,63% 0,82% 0,79% 0,47% 0,32% 4,18%
5 0,17% 0,13% 0,29% 0,37% 0,26% 0,15% 0,10% 1,46%
6 0,06% 0,07% 0,16% 0,23% 0,13% 0,07% 0,04% 0,77%
7 0,02% 0,03% 0,08% 0,14% 0,07% 0,03% 0,02% 0,39%
8 0,00% 0,01% 0,05% 0,08% 0,03% 0,02% 0,01% 0,21%
9 0,00% 0,00% 0,03% 0,04% 0,02% 0,01% 0,00% 0,10%
10 0,00% 0,00% 0,01% 0,02% 0,01% 0,00% 0,00% 0,05%
11 0,00% 0,00% 0,00% 0,01% 0,00% 0,00% 0,00% 0,02%
Oltre 0,00% 0,00% 0,00% 0,00% 0,00% 0,00% 0,00% 0,01%
Tab. 2 - Distribuzione bivariata degli edifici al 2001 tra epoca di costruzione e numero dei piani - Elaborazione su dati Istat 2001.
non possono essere georeferiti
al singolo edificio, ma possono
essere sintetizzati per l’intera
sezione di censimento.
Ciò consente comunque una
valutazione nazionale sulle caratteristiche
degli edifici e sulla
loro evoluzione temporale, che
aiuta a comprendere l’entità del
miglioramento nel tempo della
vulnerabilità dell’edificato; inoltre
si rende possibile, all’interno
di sezioni censuarie a maggiore
pericolosità sismica, un’analisi
sulle dinamiche edificatorie tra
una classe e l’altra di epoca di
costruzione, interessante per
comprendere come sia variata
nel tempo la percezione del rischio
sismico nel territorio italiano
e quale è stata la reazione
in termini di quantità e qualità
insediativa.
L’edificato italiano: caratteristiche
e vulnerabilità
Passando in rassegna i dati rilevati
dal precedente censimento
del 2001 emerge un quadro
critico, costituito da un edificato
piuttosto vetusto, costruito
prevalentemente a cavallo degli
anni ’60 e ’70; tuttavia, come
avremo modo di affrontare in
seguito, quello dell’epoca di
costruzione non sarebbe l’unico
aspetto da considerare ai fini
della valutazione della vulnerabilità
dell’edificio.
Alcune considerazioni devono
essere inevitabilmente effettuate
circa lo stile edificatorio, evoluto
nel tempo, grazie al miglioramento
delle tecniche costruttive
(come ad esempio la simmetria
ed ortogonalità in pianta o la
messa in posa contemporanea
degli elementi strutturali oppure,
più recentemente, l’isolamento
sismico tra le fondazioni
e la parte superiore dell’edificio),
alle innovazioni sui materiali
utilizzati per la costruzione
(si pensi al calcestruzzo precompresso
oppure ai laterizi rettificati)
e alle normative succedutesi
dalla legge 2 febbraio 1974 n.
64 in poi; è normale infatti che
il progresso tecnologico, con il
relativo abbattimento di tempi
e costi di edificazione, incida
sulla scelta di una modalità
realizzativa (cemento armato)
rispetto all’altra (muratura),
sebbene quest’ultima continui
ad essere predominante. Incrociando
i dati relativi all’epoca
di costruzione con la tipologia
strutturale (Tabella 1) si ottiene
immediatamente una prima
sintesi dell’edificato italiano: il
dato relativo al 2001, evidenzia
Fig. 2 – Immagini di alcuni sistemi MMS commerciali.
GEOmedia n°5-2015 11
FOCUS
una predominanza di edifici
costruiti in muratura portante
piuttosto datati, dal momento
che l’epoca di costruzione mediana
dell’edificato si attesta
intorno al 1963. In un’analisi
retrospettiva, nell’ipotesi che
gli edifici demoliti e ricostruiti
siano infinitesimali rispetto a
quelli esistenti nel 2001, dei
5.193.903 edifici costruiti prima
del 1961 ben l’84% è stato
costruito in muratura portante.
Lo stato di conservazione
dell’edificato è sostanzialmente
buono, giacché oltre il 70% dei
fabbricati manifesta tale modalità
od ottima. La situazione
è particolarmente critica per i
manufatti più antichi, considerato
che delle 2.150.259 unità
costruite prima del 1919, ben
il 15% ha manifestato al 2001
una condizione ottima e il 47%
buona, trattandosi evidentemente
di edifici architettonicamente
pregiati, che vanno a
comporre i centri storici delle
nostre città e che, dato il loro
valore commerciale, si prestano
ad una frequente manutenzione.
Per questo motivo, lo stato
di conservazione rilevato dai
censimenti non garantisce di
per sé una garanzia di invulnerabilità,
né di adeguatezza delle
strutture alla normativa vigente.
Fig. 3 - Abruzzo, particolare della Figura 1. Distribuzione del tasso di variazione dell'edificato
italiano rispetto alle classi di pericolosità sismica - elaborazione su dati Istat e Ingv.
Evoluzione dell’edificato
urbano rispetto alle zone
di pericolosità sismica
I dati censuari a livello di
sezione, come mostrato nel
precedente paragrafo, consentono
di comprendere alcune
caratteristiche essenziali dell’edificato
residenziale; in particolare
l’epoca di costruzione, se
si trascura l’esiguità di edifici
demoliti e ricostruiti, fornisce
una dimensione dell’espansione
urbana nel tempo, la cui sostenibilità
rispetto ai fenomeni
naturali, quali gli eventi sismici,
può essere valutata attraverso il
confronto con altre fonti informative
(dati sulla pericolosità
sismica di base del terreno,
elaborati dall’Ingv). A partire
dall’esame dei microdati, è stato
individuato, per ogni sezione, il
tasso di incremento dell’edificato
rispetto a quello esistente nel
1919, rappresentato in Figura
1, limitandoci a visualizzare i
soli valori superiori a quattro
volte quelli iniziali. Dall’esame
comparato emerge in maniera
abbastanza netta un proliferare
di fabbricati sul versante adriatico
molto più intenso di quanto
avvenga nel resto del paese, soprattutto
per l’Emilia Romagna
e l’Abruzzo.
Utilizzando i numeri indici a
base fissa 1919 per individuare
Epoca di Ottimo stato di Buono stato di Mediocre stato di Pessimo stato di
costruzione conservazione conservazione conservazione conservazione
Totale
Prima del 1919 2,86% 8,98% 6,20% 1,11% 19,15%
Dal 1919 al 1945 1,60% 6,06% 4,10% 0,56% 12,33%
Dal 1946 al 1961 2,34% 8,19% 3,93% 0,34% 14,78%
Dal 1962 al 1971 3,75% 10,59% 3,03% 0,16% 17,53%
Dal 1972 al 1981 5,18% 10,38% 2,01% 0,09% 17,67%
Dal 1982 al 1991 4,83% 5,82% 0,80% 0,04% 11,50%
Dopo il 1991 5,05% 1,78% 0,21% 0,01% 7,05%
Totale 25,61% 51,81% 20,29% 2,30% 100,00%
Tab. 3 - Distribuzione bivariata degli edifici al 2001 tra epoca di costruzione e numero dei piani - Elaborazione su dati Istat 2001.
Epoca di
Classi di pericolosità sismica
Numero indice
costruzione
1 2 3 4
nazionale
1919 1 1 1 1 1
1945 2,05 2,28 2,49 2,66 2,39
1961 2,82 3,16 3,38 3,59 3,27
1971 3,54 4,18 4,5 4,69 4,32
1981 4,35 5,39 5,86 5,95 5,57
1991 5,22 6,64 7,22 7,01 6,82
2001 5,99 7,45 8,05 7,62 7,62
Tab. 4 - Comparazione del numero indice dell'edificato per classe di pericolosità sismica - Elaborazione su dati Istat 2001 e Ingv
12 GEOmedia n°5-2015
FOCUS
le dinamiche edificatorie nel
territorio italiano, si evidenzia
come, a fronte di un incremento
superiore a sette volte rispetto
alla base iniziale, esso si sia
concentrato nelle zone a bassa
pericolosità sismica. Sebbene
questo dato appaia confortante,
non nasconde una realtà in cui,
nella classe di pericolosità più
elevata (classe 1), nel 2001 si
sia arrivati ad un edificato pari
a sei volte quello iniziale, dato
inferiore a quello nazionale,
comunque notevole e degno di
attenzione. Si è lungi dal ritenere
che si possano dislocare intere
popolazioni in zone più sicure
del paese, tuttavia occorre riflettere
sull’adeguatezza delle scelte
costruttive effettuate in passato,
compensabili nel presente e nel
futuro prossimo, solo con una
diminuzione della vulnerabilità
dei fabbricati, aumentando la
sicurezza della popolazione residente.
La distribuzione
dell’indicatore di
vulnerabilità nel 2001
Con le dovute modifiche relative
al numero delle modalità
delle epoche di costruzione,
rappresentate da sette classi nel
2001 contro le nove del 2011,
si è proceduto a calcolare l’indice
sintetico di vulnerabilità
sismica degli edifici, adottando
il microdato per singola unità
rilevata durante il Censimento
del 2001 e rappresentandolo
cartograficamente a livello di
sezione censuaria. Nella fattispecie,
per sintetizzare a livello
nazionale l’indicatore di vulnerabilità
sismica dell’edificato
è stata utilizzata la mediana
Fig. 4 - Distribuzione della mediana dell’indice
di vulnerabilità sismica per sezione di censimento
- Elaborazione su dati Istat 2001.
dei valori calcolati per i singoli
fabbricati; essa risulta, infatti,
più robusta della media, trascurando
l’effetto dei valori estremi
della distribuzione. Inoltre la
scelta dell’indicatore di sintesi
deve comunque tener conto
della funzione associativa con la
quale viene sintetizzato il carattere
a livello locale che, nel caso
in ispecie, non ha alcun senso,
se effettuato attraverso la somma,
perché esso non è trasferibile.
Come noto in questi casi si
preferisce utilizzare la mediana.
Al momento non si è in grado
di stabilire, sulla base dell’indicatore
proposto, le classi di
vulnerabilità che individuino
eventuali situazioni a rischio;
pertanto si è preferito rappresentarlo
in classi di quantili,
all’interno delle quali si ripartiscono
le sezioni di censimento
del 2001. Questa classificazione
risente naturalmente della distribuzione
dell’indicatore, e
Fig. 5 - Comune de L'Aquila, sovrapposizione della sezioni ricadenti in zona di interdizione
con la mediana per sezione dell'indicatore di vulnerabilità - Elaborazione su dati Istat - Comune
de L'Aquila.
GEOmedia n°5-2015 13
FOCUS
non potrà essere utilizzata come
limite teorico per le distribuzioni
successive. Se si guarda
contemporaneamente la diffusione
delle sezioni con maggiore
vulnerabilità rispetto alla
classificazione della pericolosità
sismica, si può verificare che le
aree a pericolosità più elevata
(Italia meridionale) rilevano
la mediana dell’indicatore per
sezione, nella parte bassa della
distribuzione ovvero hanno edifici
“più sicuri”. Si tratta di un
fenomeno positivo in quanto
avere una bassa vulnerabilità
nelle aree più pericolose è sintomo
di una particolare cautela
nel costruire e nel manutenere
gli edifici residenziali.
Pur considerando l’impossibilità
pratica di realizzare compiutamente
una tavola di mortalità
degli edifici attraverso la quale
poter verificare quali siano
effettivamente le cause di danneggiamento
degli stessi in relazione
agli eventi sismici, a causa
della mancanza di informazioni
puntuali in merito, si propone
Fig. 6 - Comune de l’Aquila, densità degli edifici storici in zona di interdizione - Elaborazione
su dati Istat 2001.
Fig. 7 - Comune di Camposanto, distribuzione della mediana dell'indicatore di vulnerabilità
per sezione - Elaborazione su dati Istat 2001.
una verifica empirica sovrapponendo
le aree danneggiate del
comune de L’Aquila, successive
al terremoto del 2009, con le
risultanze dell’indicatore di vulnerabilità.
Utilizzando la perimetrazione
della zona di interdizione del
Comune, denominata “zona
rossa” (Ordinanze del Comune
de L’Aquila n.6 del 09/04/2009
e n.73 del 29/04/2009 e ss.mm.
ii.), sono state considerate tutte
le sezioni la cui superficie ricade
in tale tracciato per almeno il
70% dell’area totale.
La zona delimitata dal retinato
blu in Figura 5 evidenzia valori
dell’indicatore di vulnerabilità
abbastanza elevati. Ricadono
nella classe più bassa solo 2 sezioni
delle 178 coinvolte, mentre
un valore “critico” dell’indice
superiore a 0.7 individua
le aree che possono destare una
particolare attenzione.
Come si evince dalla Figura 6,
la concentrazione di edifici storici
ha contribuito ad innalzare
notevolmente la vulnerabilità
delle aree che qualche anno più
tardi sono state seriamente danneggiate.
Altra conferma viene dagli
eventi sismici che hanno
colpito di recente l’Emilia
Romagna: nel comune di
Camposanto, ad esempio,
i danni maggiori si sono
rilevati nelle aree storiche
del paese.
Per comprendere meglio
il fenomeno si osservi
la distribuzione percentuale
degli edifici storici
nel comune, notando
come ci sia un’evidente
correlazione tra i risultati
dell’indicatore e l’epoca di
costruzione.
Ciò non significa che l’età del
fabbricato sia la dimensione
prevalente dell’indicatore e che
si possano trascurare le altre
caratteristiche.
14 GEOmedia n°5-2015
FOCUS
Il fatto che negli anni ci sia stata
un’evoluzione tecnica, dei materiali
e legislativa, contribuisce a
diminuire ulteriormente la vulnerabilità
rispetto alla minore
azione dell’usura temporale.
Popolazione e rischio nei
comuni italiani
Lo studio vuole stimolare la
consapevolezza di una situazione
particolarmente gravosa
per il paese. Considerare la
diffusione della popolazione
in questo contesto può agevolare
le strategie urbanistiche.
Difficilmente si può pensare
di stabilire a priori delle soglie
di indicatori che possano in
qualche modo garantire l’efficacia
degli interventi. Da questa
riflessione deriva l’esigenza di
un indicatore di vulnerabilità
dell’edificato da confrontare con
le caratteristiche demografiche
della popolazione residente. In
queste situazioni i risultati possono
essere aleatori a seconda di
come cambi sia la costruzione
dell’indicatore, sia la risoluzione
dei dati geografici considerati.
Ai fini conoscitivi della consapevolezza
del rischio, la miglior
risoluzione geografica sarebbe
quella comunale, in quanto
proprio il Comune è l’ente territoriale
che materialmente può
intervenire con provvedimenti
di gestione delle emergenze.
Sono stati, quindi, analizzati
i comuni in base alle superfici
ricadenti nelle classi di pericolosità
sismica, considerando “pericolosi”
quelli che hanno una
superficie superiore al 70% con
valori di Pga maggiori del 15%
dell’accelerazione gravitazionale.
Successivamente è stata valutata
la distribuzione dell’indicatore
di vulnerabilità dell’edificato, ricalcolato
sui microdati del censimento
edifici del 2001. Infine
è stata calcolata la popolazione
residente nelle sezioni con un
edificato particolarmente vulne-
Fig. 8 - Comune di Camposanto, distribuzione percentuale degli edifici storici (epoca di
costruzione ante 1919) - Elaborazione su dati Istat 2001.
Popolazione
residente
Popolazione in sezioni
ad alta vulnerabilità
dell’edificato
Procom
Comune
(A)
(B).
(B/A)x100
63049 Napoli 1.003.495 755.780 75.31%
82053 Palermo 685.704 427.089 62.28%
37006 Bologna 370.684 305.536 82.42%
87015 Catania 312.887 199.344 63.71%
23091 Verona 252.590 159.245 63.04%
83048 Messina 251.852 129.550 51.44%
36023 Modena 175.236 113.417 64.72%
39014 Ravenna 134.602 77.409 57.51%
54039 Perugia 149.060 71.883 48.22%
80063 Reggio di Calabria 180.246 66.917 37.13%
99014 Rimini 128.629 66.465 51.67%
35033 Reggio nell’Emilia 141.743 64.770 45.70%
40012 Forli’ 108.139 63.616 58.83%
47014 Pistoia 84.254 59.529 70.65%
55032 Terni 105.006 58.940 56.13%
63084 Torre del Greco 90.570 58.353 64.43%
40007 Cesena 90.916 55.993 61.59%
63059 Portici 60.203 53.412 88.72%
51002 Arezzo 91.553 48.555 53.03%
78045 Cosenza 72.771 48.333 66.42%
89017 Siracusa 123.599 47.554 38.47%
30129 Udine 94.949 47.189 49.70%
42002 Ancona 100.279 45.742 45.61%
41044 Pesaro 90.859 43.237 47.59%
79023 Catanzaro 95.251 38.760 40.69%
62008 Benevento 61.756 38.199 61.85%
63067 San Giorgio a Cremano 50.730 37.483 73.89%
63002 Afragola 62.303 35.809 57.48%
37032 Imola 64.055 35.136 54.85%
63023 Casoria 81.888 32.976 40.27%
39010 Faenza 53.597 32.368 60.39%
66049 L’Aquila 68.198 31.197 45.74%
8055 San Remo 50.266 29.996 59.67%
63064 Ercolano 56.738 29.733 52.40%
72005 Andria 95.636 29.431 30.77%
67041 Teramo 51.023 28.330 55.52%
101010 Crotone 60.003 28.239 47.06%
71051 San Severo 55.861 27.542 49.30%
44007 Ascoli Piceno 51.258 25.999 50.72%
54051 Spoleto 37.752 25.882 68.56%
69022 Chieti 52.256 25.772 49.32%
54018 Foligno 51.030 25.510 49.99%
39012 Lugo 31.603 25.400 80.37%
76063 Potenza 68.321 25.050 36.67%
79160 Lamezia Terme 70.501 24.327 34.51%
31007 Gorizia 35.667 24.139 67.68%
63001 Acerra 45.686 23.496 51.43%
36040 Sassuolo 39.785 23.061 57.96%
38004 Cento 29.266 22.881 78.18%
88006 Modica 52.639 22.276 42.32%
44066 San Benedetto del Tronto 45.041 22.229 49.35%
93033 Pordenone 49.085 21.984 44.79%
26092 Vittorio Veneto 29.170 21.906 75.10%
63041 Marano di Napoli 57.448 21.710 37.79%
89002 Avola 31.288 21.585 68.99%
57059 Rieti 43.767 21.104 48.22%
58111 Velletri 48.220 20.927 43.40%
42021 Jesi 39.224 20.782 52.98%
64008 Avellino 52.698 20.760 39.39%
70006 Campobasso 50.659 20.628 40.72%
63060 Pozzuoli 78.347 20.608 26.30%
43023 Macerata 40.872 20.513 50.19%
Tab. 5 - Comuni a maggior densità di rischio sismico - Elaborazione su dati Istat 2001.
%
GEOmedia n°5-2015 15
FOCUS
rabile, individuate dalla mediana
della distribuzione dell’indice di
vulnerabilità, con valori superiori
alla soglia di 0,7 su una scala
0-1. Nella Tabella 5 sono elencati
i comuni con almeno 20.000
residenti in zone a pericolosità e
vulnerabilità appena individuate,
che rappresentano territori ad
alto rischio sismico, nei quali
porre particolare attenzione in
un’ottica di uno sviluppo sostenibile
urbano.
La tabella non deve assolutamente
portare ad una visione
apocalittica del territorio. Il
lavoro proposto vuole esser un
momento di incontro tra diverse
discipline, al fine di favorire
l’utilizzo di dati censuari sempre
più particolareggiati ed in grado
di descrivere al meglio le realtà
territoriali. È auspicabile che
questi vengano sempre più utilizzati
e condivisi al fine di aumentare
il livello di sorveglianza
e protezione.
Ringraziamenti
Si ringrazia il Dott. Andrea
Mancini per i preziosi suggerimenti
che hanno portato allo
sviluppo del presente lavoro
allargando la metodologia precedentemente
proposta all’intero
territorio nazionale.
Si ringrazia il Dott. Francesco Di
Pede per la messa a disposizione
dei dati e l’attenta lettura critica
del contributo.
BIBLIOGRAFIA
Abbatini Damiano, Francesco Di Pede, and
Edoardo Patruno. 2009. Rilevazione Numeri
Civici. Manuale per Le Rilevazioni Sul
Campo.
https://rnc.Istat.it/DOCUMENTI/Manuale_per_le_operazioni_sul_campo.pdf.
Bernardini A. 2000. La Vulnerabilita Degli
Edifici : Valutazione a Scala Nazionale Della
Vulnerabilita Sismica Degli Edifici Ordinari.
Rome: CNR-Gruppo Nazionale per la Difesa
dai Terremoti.
Brunini Claudia, and Francesca Paradisi.
2009. “Costruzione Di Un Indice Sintatico
Della Dotazione Infrastrutturale Delle
Province Italiane.” In Indicatori E Modelli
Statistici per La Valutazione Degli Squilibri
Territoriali, edited by F. Angeli, 343–373.
Milano.
Camero Pompeo. 2004. Manuale Tecnico-
Giuridico Di Protezione Civile E Di Difesa
Civile : Con Supporti Operativi per La Pianificazione
Comunale Di Emergenza E La
Pianificazione Strategica. Santarcangelo di
Romagna (RN): Maggioli.
Corradi Juri, Gianluigi Salvucci, and Valerio
Vitale. 2013. “Applicazioni Dei Dati Censuari
Della Rnc Nella Vulnerabilità Dell’edificato
per Lo Studio Della Resilienza Urbana.”
In III Giornata Di Studio in Geografia Economica
“Oltre La Globalizzazione” - Resilienza/
Resilience. Memorie Geografiche, n.12/2014.
Società di Studi Geografici. Firenze.
Corradi Juri, Gianluigi Salvucci, and Valerio
Vitale. 2014a. “Valutazione Puntuale della
Vulnerabilità Sismica dell’edificato urbano.”
Atti della 15° Conferenza italiana utenti
Esri, 9-10 Aprile 2014 - In GEOmedia, n.2.
MediaGEO soc. coop.
Corradi Juri, Gianluigi Salvucci, and Valerio
Vitale. 2014b. “Popolazione e vulnerabilità
sismica.” In Giornate della ricerca in Istat, 10-
11 novembre 2014. Roma: in press.
Dolce M., and A. Martinelli. 2005. Inventario
E Vulnerabilità Degli Edifici Pubblici E
Strategici dell’Italia Centro-Meridionale - Vol.
II - Analisi Di Vulnerabilità E Rischio Sismico.
L’Aquila: Ingv/GNDT.
Grünthal G. 1998. CONSEIL DE L ’
EUROPE Cahiers Du Centre Européen de
Géodynamique et de Séismologie European
Macroseismic Scale 1998. Edited by Council
of Europe. Vol. 15. Luxembourg.
Meletti C., and V. Montaldo. 2007. “Stime
Di Pericolosità Sismica per Diverse Probabilità
Di Superamento in 50 Anni: Valori Di
Ag. Progetto DPC-Ingv S1, Deliverable D2.”
Milano. http://esse1.mi.ingv.it/d2.html.
Pedeferri Pietro. 2000. La Durabilità Del
Calcestruzzo Armato. Milano: McGraw-Hill
Libri Italia.
Terzi Silvia, and Luca Moroni. 2005. “Graduatorie
Della Qualità Della Vita E Loro
Sensibilità Al Pre-Trattamento Delle Variabili
Che La Definiscono: Alcune Critiche Al
Dossier de Il Sole 24 Ore.” Quaderni Di
Statistica 6: 105–127.
Leti Giuseppe. 1983. Statistica descrittiva. Il
Mulino.
ABSTRACT
Census data at the enumeration area level can
help us to understand some essential aspects
about residential building, in particular, in a
Country where the portion of buildings demolished
and rebuilt is almost nothing, the variable
time of construction provides the dimension of
the urban sprawl. This information was compared
with national seismic hazard map, developed
by National Institute of Geophysics and Volcanology
(INGV), to assess the evolution of the residential
building compared to natural phenomena
such as seismic events.
The comparison between various types of information
was carry out using GIS software, in particular
"overlay" functions allows us to assign to
each enumeration area the level of seismic hazard.
Moreover, the use of microdata at the enumeration
area level, it allows the calculation of the
vulnerability indicators, grouped by time of construction
and by population density, in seismic
hazard classes at the municipal level.
NOTE
Contributo presentato in occasione della 15a
Conferenza Italiana Utenti Esri (9 e 10 Aprile
2015).
PAROLE CHIAVE
vulnerabilità; edificio; censimento
AUTORE
Juri Corradi
jucorradi@Istat.it
Valerio Vitale
vitale@Istat.it
Gianluigi Salvucci
salvucci@Istat.it
• Rilievi batimetrici automatizzati
• Fotogrammetria delle sponde
• Acquisizione dati e immagini
• Mappatura parametri ambientali
• Attività di ricerca
Vendita – Noleggio - Servizi chiavi in mano, anche con strumentazione cliente
16 GEOmedia n°5-2015
FOCUS
GEOmedia n°5-2015 17
REPORTS
INTERGEO 2015
l'evoluzione/rivoluzione
del settore geospaziale
a cura di Fulvio Bernardini
Intergeo si conferma ancora una
volta evento di riferimento per il
settore geospaziale. L’edizione 2015
ha portato all’attenzione degli oltre
16.000 visitatori nuove soluzioni,
campi applicativi ed un tema che
affascina: quello del Geospatial 4.0.
Non è bastato il tempo
poco clemente di
Stoccarda per scoraggiare
le migliaia di visitatori
che anche quest'anno hanno
affollato Intergeo, il più importante
evento a livello globale
dedicato ai settori della geodesia,
della geoinformazione e
della gestione del territorio. I
numeri – comunica l’organizzazione
(impeccabile) – parlano
di un incremento nel numero
degli espositori del 15% e di
un totale di 16.500 presenze.
Distribuite all’interno dei 3
padiglioni della funzionale fiera
di Stoccarda, le 545 aziende
provenienti da 30 paesi hanno
presentato soluzioni dedicate a
diversi settori applicativi: cartografia,
GIS, strumenti topografici,
droni (APR), BIM, smart
city, software per la gestione
delle informazioni geografiche,
geomarketing, gestione degli
asset, ambiente, ecc. L’interesse
del pubblico si è concentrato
soprattutto nei confronti delle
soluzioni e delle strumentazioni
per la topografia e, a seguire,
verso il GIS la gestione dei dati
e i servizi correlati. Circa un
terzo delle presenze era in qualche
modo legato alle istituzioni,
mentre la parte restante era
composta da ingegneri, professionisti
del settore, studenti e
ovviamente curiosi.
L'APR ad ala fissa di
Trimble UX5, dotato oggi
di fotocamera da 36 Mpx.
Sopra, la strumentazione
Leica Geosystems all'opera.
Geospatial 4.0, evoluzione
o rivoluzione?
Che l’edizione 2015 di Intergeo
sarebbe stata da ricordare lo si
era già capito dalle anticipazioni:
il settore geospaziale è
in costante crescita, sopratutto
per quanto riguarda le persone
coinvolte nella produzione,
gestione e sfruttamento delle
18 GEOmedia n°5-2015
Lo stand Topcon Positioning.
REPORTS
Uno dei dispositivi mobile proposto
dalla italiana Stonex.
informazioni geografiche. Per
questo, forse, nella sessione plenaria
si è voluto dare risalto al
presente e al futuro del settore
ma anche al suo passato o, meglio,
alla tradizione.
Tradizione incarnata da
Georg Gartner, presidente
dell’Associazione Cartografica
Internazionale ed esperto-visionario
per quanto riguarda le
mappe, con il quale si è tornati
alle basi: si è discusso cioè del
ruolo delle mappe nelle nostra
società. Basti pensare a come
esse vengano ormai impiegate
nell’era dei dispositivi smart
e del webmapping. Le mappe
sono tra gli strumenti più efficienti
per veicolare informazioni
e l’evoluzione in mappe
responsive, ovvero tagliate sulle
esigenze degli utenti, è la chiave
del loro futuro sfruttamento nel
contesto del Geospatial 4.0.
Ma cosa s’intende per
‘Geospatial 4.0’, un termine che
a più di qualcuno è suonato del
tutto nuovo? Ha fatto chiarezza
in questo senso Karl-Friedrich
Thöne, presidente della società
organizzatrice di Intergeo:
con il Geospatial 4.0 siamo
agli albori di una nuova era
digitale e al quarto stadio della
rivoluzione nel settore della
geoinformazione. Il primo cambiamento
epocale avvenne tra
gli anni Sessanta e Ottanta, con
la creazione delle prime carte
tematiche digitali, i prodromi
del GIS. Il secondo avvenne in
corrispondenza della diffusione
dei primi personal computer
tra gli anni Ottanta e Novanta:
i sistemi informativi geografici
diventano uno strumento di
decisione e gestione in mano
agli esperti. Il terzo stadio della
rivoluzione è datato 2005, anno
in cui nasce Google Earth: le
informazioni geografiche, il loro
accesso, lo sfruttamento e la
condivisione entrano a far parte
della vita degli utenti di internet
e strumenti che prima erano alla
portata dei soli esperti, sono ora
alla base di molte interazioni
online.
Il quarto stadio di questa rivoluzione
è oggi: la diffusione
di dispositivi tecnologici in
GEOmedia n°5-2015 19
REPORTS
Un momento della conferenza
stampa ufficiale dell'evento.
grado di fornire informazioni
di tipo spaziale è capillare. La
rete di sensori, dati e servizi
pone l’utente finale al centro
di tutto, in tutti i settori,
compreso quello geospaziale.
L’integrazione di tecnologie e
dati diversi permette oggi la
creazione di soluzioni orientate
alle esigenze specifiche degli
utenti. Si tratta di un’evoluzione,
certo, ma è vero che siamo
anche all’apice di una rivoluzione.
Rimanendo nel contesto
dello sfruttamento delle informazioni
spaziali, molti saranno
i settori ad approfittare di questa
dinamica, basti pensare alle
smart city, alla gestione delle
risorse energetiche, al monitoraggio
ambientale in 3D, al
settore edile e alla digitalizzazione
dei relativi processi, alla
gestione consapevole dell’agricoltura
o – argomento oggi in
voga – allo sviluppo di veicoli
autonomi.
Se è vero che ogni evento ha
bisogno di un tema chiave
al fine di strutturare l’offerta
espositiva e le relative conferenze,
è altrettanto vero che il momento
che stiamo vivendo è topico
ed insistere su un concetto
come quello di Geospatial 4.0
non è puro esercizio retorico.
Come anche Chris Cappelli di
Esri ha sottolineato (sempre
nel contesto della plenaria),
dalla raccolta e l’analisi dei
dati, ci stiamo muovendo verso
un sistema in cui i processi di
condivisione durante la fase di
creazione delle geinformazioni
porteranno alla nascita di
soluzioni dinamiche, utili per
risolvere problemi sempre più
complessi. In poche parole, il
futuro.
La parte espositiva
Disposte all’interno dei 3
enormi padiglioni della fiera di
Stoccarda, le 545 aziende
espositrici hanno portato all’attenzione
del pubblico prodotti,
soluzioni e servizi in linea con le
esigenze di un mercato sempre
più esigente in termini di precisione,
velocità di esecuzione e
performance. Leit motiv della
parte espositiva – come ormai
accade da molti anni – era l’integrazione:
le tecnologie di base
vengono fatte lavorare assieme
per risolvere problemi sempre
più specifici e complessi. Oltre
ai grandi nomi del settore geospaziale,
si è notata la presenza
di una pletora di aziende minori
dedite alla fornitura di servizi.
Sempre più importante la presenza
cinese, sebbene relegata –
a parte alcune aziende maggiori
– ai margini dell’area.
Le aziende italiane, non molto
numerose, hanno portato in
dote soluzioni già affermate ma
comunque forti dell’etichetta
‘made in Italy’. In grandissimo
spolvero l’offerta dedicata agli
APR (Aeromobili a Pilotaggio
Remoto): tanti i velivoli esposti,
anche se molto simili in
termini di performance. I settori
applicativi di riferimento
per i produttori e i fornitori di
servizi con APR erano l’aerofotogrammetria,
l’agricoltura di
precisione e la documentazione
dei Beni Culturali ma i velivoli,
a parità di classe, difficilmente
hanno introdotto novità tecniche
degne di nota. Gli APR più
tecnicamente performanti e di
classe superiore, in ogni caso,
non sono sembrati possano
avere attualmente mercato data
la chiusura dei regolamenti vigente
in molti paesi. L’indotto
generato dal settore degli APR è
comunque notevole ed il comparto
che è sembrato più vivace
è sembrato quello dei sensori e
dei relativi hardware/software
necessari affinché i sensori vengano
integrati a bordo di APR
sempre più piccoli, affidabili e
maneggevoli.
Di seguito, un breve elenco delle
aziende che più si sono fatte
notare durante l’edizione 2015
di Intergeo, con un occhio di
riguardo a quelle di casa nostra.
3D-One
Le soluzioni per APR della
olandese 3D-One colpiscono
per le performance e le dimensioni
ridotte. Allo stand è stato
possibile scoprire soluzioni in
grado di combinare colori RGB
con immagini ad infrarosso.
Interessante la soluzione che integra
sensori iperspettrali multipli
con GNSS e IMU esterni
e informazioni d’irraggiamento
per la posizione, l’orientamento,
la normalizzazione e le informazioni
sul momento di acquisizione
dei dati.
Applanix
Introdotte due nuove soluzioni
al portfolio POS LV (Position
and Orientation for Land vehicles).
Con esse Applanix punta
ad offrire risposte per un ampio
20 GEOmedia n°5-2015
REPORTS
ventaglio di applicazioni territoriali
come ad esempio la mappatura
dinamica di grandi flotte
di veicoli, la guida automatica
di veicoli e l’impiego di robot
sul campo. POS LV 125 viene
usato per il posizionamento,
nelle applicazioni robotiche e
come sistema di mobile mapping
entry level. Si basa sul
modulo GNSS Trimble BD982
e sull’unità inerziale recentemente
sviluppata da Applanix e
Trimble, l’AIMU-M5. POS LV
125 è pienamente compatibile
con il software POSPac MMS.
POS LVX è invece un modulo
piccolo e leggero che si integra
con molti tipi di sensori compresi
quelli ottici, infrarossi e lidar
fornendo dati di posizionamento
IARTK (Inertially-Aided
Real-Time Kinematic). Può
essere facilmente incorporato in
veicoli dalle ridotte dimensioni
o su piattaforme autonome.
Ascending Technologies
Si tratta di un’azienda tedesca
leader nella produzione
di APR per uso professionale.
Il suo AscTec Falcon 8 è un
APR multi-rotore dalla foggia
particolare e dal peso di 2,3 kg
pensato per operare nel contesto
delle ispezioni industriali e per
applicazioni di documentazione
e rilievo del territorio. L’azienda
ha sfruttato la vetrina offerta da
Intergeo 2015 per presentare
una versione del Falcon 8 potenziata
con tecnologia RealSense
per l’elusione automatica delle
collisioni. Falcon 8 è stato scelto
da uno dei più importanti player
internazionali del settore geospaziale
come complemento multirotore
alla sua offerta di APR per
l’aerofotogrammetria.
Bentley Systems
Bentley si riaffaccia ad Intergeo
dopo 8 anni di assenza con
l’intento di avvicinarsi maggiormente
ai sui utenti che,
per l’80%, sono internazionali.
Con la sua presenza Bentley ha
confermato il ruolo di player
chiave nel settore della modellazione
3D e, forte della recente
acquisizione della Acute3D,
ha presentato il software
ContextCapture, che permette
di ottenere sofisticati modelli
tridimensionali partendo da
semplici fotografie. Sarà quindi
possibile creare, in maniera facile
e veloce, contesti reali 3D
da sfruttare durante le fasi di
progettazione, costruzione e decision
making di un progetto.
e-GEOS
Stand condiviso con i partner
all’interno del quale sono state
presentate le attività nel settore
geospaziale di e-GEOS - la produzione
di dati ottici e radar ad
alta risoluzione da satellite. È
stato anche possibile indagare il
portfolio di servizi e applicazioni
basato sulla costellazione di
satelliti COSMO-SkyMed, grazie
ai quali e-GEOS è in grado
di fornire, anche in tempo reale,
dati utili per il monitoraggio
ambientale, il supporto durante
calamità naturali, prodotti per
la difesa, l’intelligence e la sorveglianza
marittima, oltre che
dati per la produzione di cartografia
tematica.
Faro
Sono state presentate le ultime
novità relative ai prodotti per
la documentazione 3D. È stato
possibile approfondire sul posto
i benefici derivanti dell’integrazione
tra le soluzioni Faro ed
i software della Kubit, ultima
acquisizione dell’azienda.
Foif
Tra le aziende cinesi presenti ad
Intergeo, Foif ha sicuramente
giocato un ruolo di primo piano.
Allo stand è stato possibile
ammirare il nuovo ricevitore
RTK A50, compatto, leggero
e dotato di nuove funzionalità
quali la connettività wi-fi,
USB on-the-go ed un sensore
di inclinazione. Inoltre, è stata
presentata la stazione totale
RTS160: leggera e facile da
trasportare, facilita il lavoro sul
campo. È equipaggiata con un
display a 6 linee in modo da visualizzare
più informazioni. La
RTS010, invece, offre una distanza
di 1500 metri senza prisma,
angoli di misura di 1 pollice
e precisione di 1mm+1ppm.
Geomax
Forte del rapporto tra qualità
e prezzo che la contraddistingue,
GeoMax ha sfruttato il
suo stand a Intergeo per dare
visibilità alla gamma di prodotti
dedicati alla topografia, all’edilizia,
al GIS e al machine control,
ovvero: la stazione totale robotica
Zoom90, il micro robot
per il rilievo 3D degli interni
Zoom3D, l’antenna GNSS
GEOmedia n°5-2015 21
REPORTS
Zenith35 e PicPoint, una fotocamera
calibrata abbinabile per
il rilievo di punti inaccessibili o
di facciate.
Gexcel
In vetrina l’intero portfolio di
prodotti per il trattamento dei
dati provenienti da laser scanner.
JRC 3D Reconstructor è il
software Gexcel per la gestione
delle nuvole di punti e delle immagini.
La nuova versione 3.2
presenta la funzione LineUp
Pro (grazie alla quale è possibile
eseguire la registrazione
automatica di progetti di ampie
dimensioni e minimizzare gli
errori globali di registrazione),
importare formati (IFC), creare
modelli mesh e gestire e aggiungere
livelli di colore. JRC
3D Reconstructor è in grado
di combinare dati acquisiti da
sensori a terra, in movimento o
montati su APR.
Leica Geosystems
Lo stand Leica ha permesso ai
visitatori di vedere e toccare
con mano i prodotti chiave
dell’azienda svizzera. Tra le novità
è stato possibile vedere in
azione le ultimissime soluzioni
per l’acquisizione 3D appartenenti
alla famiglia ScanStation
e il software con interfaccia
touch Leica Captivate, in grado
di creare rendering tridimensionali
altamente realistici. E
ancora: la Nova MultiStation
MS60, il field controller
CS20, il tablet Leica CS35 e il
DISTO S910.
Mavinci
E’ un’azienda tedesca attiva
nella produzione di APR per
il mapping e la topografia.
L’esperienza nei settori hardware
e software permette a
Mavinci di soddisfare un’ampia
gamma di esigenze diverse.
L’APR ad ala fissa Sirius è facile
da usare, specialmente in aree
ampie che richiedono attenzione
per via degli ostacoli. L’APR
opera anche in condizioni meteo
sfavorevoli.
Menci Software
In linea con la tendenza generale
della fiera e con il core
business aziendale, Menci ha
sfruttato la vetrina di Intergeo
per proporre la propria gamma
di prodotti dedicata alla post
elaborazione delle informazioni
acquisite da APR. APS è
una suite per il mapping 3D
da APR in grado di produrre
mappe 3D e 2D, modelli
nuvola di punti, modelli del
terreno (DTM) e della superficie
(DSM), curve di
livello, ortomosaici
idonei al rilievo cartografico,
topografico,
l’agricoltura di
precisione, il GIS e
la stereoscopia. Oggi
la suite si arricchisce
del supporto RTK
e della possibilità di
gestire sensori multipli.
StereoCAD è
invece un software
pensato per rendere
agile la fruizione
stereoscopica delle
immagini da APR.
La nuova versione
permette l’ispezione delle sole
immagini stereoscopiche, la
possibilità di aggiungere note,
importare informazioni termiche
su RGB e un ambiente
CAD ancora più versatile.
Microsoft UltraCam
La business unit UltraCam di
Microsoft nasce nel 2006 dopo
l’acquisizione dell’azienda di
Redmond della Vexcel Imaging.
Ad Intergo è stato possibile scoprire
le novità relativa ai sistemi
UltraCam così come la nuova
versione del software UltraMap.
Oltre alla gamma di prodotti
UltraCam – composta dalle
camere Osprey (una camera
digitale aerotrasportata nadirale/obliqua),
Eagle, Falcon e
Hawk – è stato possibile vedere
all’opera il sistema di gestione
del volo e di georeferenziazione
diretta UltraNav ed il software
UltraMap, che da oggi viene rilasciato
anche su abbonamento.
Riegl
Presentato a Intergeo l’intero
portfolio di prodotti compresi
gli ultimissimi sensori lidar:
la serie di sensori ad alto rendimento
VUX-1 per il laser
scanning cinematico, il nuovo
sistema ultra-compatto VP-1
– che integra il sensore VUX-
1LR, fotocamera e IMU/GNSS
per il rilevamento in volo –, ed
il sistema laser scanner mobile
VMQ-450 dotato di singola
testa, per eseguire mappature in
movimento con budget ridotti.
Sierrasoft
Allo stand è stato possibile
visionare il software per la progettazione
stradale Roads in cui
sono stati migliorati l’ambiente di
lavoro, il CAD, il tracciamento
degli assi, l’inserimento di profili
e sezioni e la progettazione di intersezioni.
Sarà possibile dividere
il progetto in più finestre, più
pagine, più monitor.
22 GEOmedia n°5-2015
REPORTS
Tutti i dati e le viste sono sincronizzati
in tempo reale, lo
spazio in memoria occupato
dal progetto viene ottimizzato
ed è possibile progettare entro
il contesto normativo di riferimento.
Siteco
L’azienda italiana ha sviluppato
un sistema di mobile mapping
scalabile e ad alto rendimento
in grado di integrare in maniera
intercambiabile scanner Faro,
Z+F e Riegl. Quest’anno è
stato introdotto il nuovo Road-
Scanner “Compact”, leggero e
di piccolo ingombro. Il modello
base è disponibile con una
MEMS-based IMU e può essere
aggiornato con giroscopi meccanici
o in fibra ottica per maggiori
prestazioni. Equipaggiato
con uno o due sensori laser, è
la soluzione ideale per i rilievi
ferroviari e dei tunnel.
South
Presentati ad Intergeo il nuovissimo
ricevitore GNSS della
serie Galaxy e l’Aeromobile
a Pilotaggio Remoto AS120;
oltre agli aggiornamenti alla
stazione totale NTS-360R6
e le nuove funzionalità delle
stazioni totali NTS-380R10 e
NTS-391R10 che oggi permettono
misurazioni a 1000 metri
senza prisma.
Stonex
La società brianzola ha mostrato
a Intergeo le sue ultime
novità in campo topografico,
del 3D scanning e del GIS
attraverso un ampio stand
suddiviso per settori. La principale
novità è consistita nella
presentazione della sezione
dedicata ai Progetti Speciali
composta da STX-DRILL
(un sistema di guida GPS
per le opera di jet grouting),
STX-Agri Map (sistema GPS
portatile per la misura ed il
rilievo di punti, aree e perimetri
di appezzamenti agricoli di
qualsiasi forma e dimensione),
STX-SUITE (sistema per la
progettazione di impianti
fotovoltaici a terra e la guida
della macchina piantapalo sulla
posizione progettuale).
Topcon
Grande stand per Topcon,
che ha annunciato alcune
importanti novità relative al
suo portfolio strumenti: sono
state infatti introdotte le nuove
versioni del laser scanner GLS
2000, la ‘S’, la ‘M’ e la ‘L’ che,
rispettivamente, sono ottimizzate
per operare su brevi, medie
e lunghe distanze. Grazie alla
tecnologia Precise Scan questi
modelli di scanner emettono segnali
tre volte più veloci rispetto
ai precedenti sistemi GLS.
In bella mostra anche l’APR ad
ala fissa Sirius Pro e il nuovo
Falcon 8 nelle versioni geoEX-
PERT per il mapping e rilievi
su piccole porzioni di terreno
e inspectionPRO per lavori di
monitoraggio e ispezione.
Trimble
Forte di uno stand gigantesco,
che ha attratto moltissime di
persone, ha presentato il suo intero
portfolio di soluzioni per la
topografia, il mapping, il GIS,
la fotogrammetria e il telerilevamento.
Grande risalto per il
lancio dell’APR multi-rotore
ZX5 dotato di fotocamera a
16Mp e per l’upgrade dell’APR
ad ala fissa UX5, ora equipaggiato
con una fotocamera a
36Mp – per una risoluzione a
terra senza precedenti – e ricevitore
GNSS Trimble. Ha trovato
poi spazio la nuova gamma
di stazioni totali e il ricevitore
GNSS R2, compatto e dal
peso di solo 1kg. Il ricevitore
supporta le costellazioni GPS,
GLONASS, Galileo, BeiDou,
QZSS oltre che i sistemi SBAS.
Il nuovo APR multi-rotore
ella Trimble, lo ZX5.
L’R2 è progettato per il lavoro
GIS sul campo e le attività di
rilievo topografico.
Verso Amburgo 2016
Nel 2016 Intergeo muoverà a
nord, ad Amburgo per la precisione.
Il 90% delle aziende
che hanno esposto all’edizione
2015 ha già confermato la sua
presenza per il 2016 e ciò basta
a dare un’idea delle dimensioni
dell’evento. Il tema per il
prossimo anno è già stato individuato:
tutto girerà attorno ai
concetti di smart city e al BIM,
ovvero all’integrazione tra tecnologie
e fonti di dati spaziali
diverse, con l’obiettivo di trovare
soluzioni ai piccoli grandi
problemi con i quali hanno a
che fare i professionisti e i normali
utenti nella vita di tutti i
giorni. In parole povere, si parlerà
ancora di Geospatial 4.0.
PAROLE CHIAVE
Intergeo; Geomatica; Geospatial 4.0;
APR;
ABSTRACT
Intergeo proves once again to be the most
important geospatial event globallyimportant
event of the geospatial industry. 2015
edition has been held in Stuttgart from the
15th to the 17th of september 2015. With
more than 16.000 attendees and 545 exhibitors
Intergeo's edition will be remembered
for the introduction of the concept
of Geospatial 4.0.
AUTORE
Fulvio Bernardini
fbernardini@rivistageomedia.it
GEOmedia n°5-2015 23
REPORTS
A PROPOSITO DE “LA BUONA SCUOLA”
di Carlo Monti e
Attilio Selvini
Alcune “sbadataggini” grammaticali e
terminologiche circa la “Seconda prova
scritta o scritto-grafica” elaborata dal
MIUR per candidarsi alla professione
di topografo. Cosa ne penserà la
Federazione Internazionale dei Geometri?
Fig. 1 - Estratto dal tema d’esame.
Con il titolo ”Al peggio
non c’è mai fine”, il
secondo dei presenti
autori criticava, sul numero
4/2014 de “Il Seprio”, rivista del
Collegio dei Geometri di Varese,
i temi ministeriali per l’esame
di stato di quell’anno. Non si
può che ricordare e sottolineare
quello stesso titolo, recensendo
il secondo tema della sessione
2015. Non resta che confermare
quanto allora scritto, alla luce
del documento qui unito, che
riguarda la “Seconda prova scritta
o scritto-grafica” di questo anno,
come si vede nell’allegato del
MIUR, posto in fondo a questo
articolo.
Mentre il primo tema, quello
di progettazione, era a nostro
avviso pienamente calibrato sui
programmi (e sulle possibilità
operative) dei geometri, leggendo
il secondo non credevamo
ai nostri occhi. A parte le manchevolezze,
anche grammaticali,
era il tema stesso che sembrava
scritto da un insegnante di seconda
od al più di terza media:
altro che lavoro per candidati
alla onorevole professione di
topografo!
Incominciamo dalle prime
mende: non si forniscono coordinate
purchessia, senza indicare
il sistema di misura corrispondente.
Quelle scritte nel foglio
ministeriale, erano da intendersi
certamente in metri, ma perché
non mettere, accanto ai numeri,
le “marche” corrispondenti? E,
signori del MIUR, un segmento
che divide una qualunque
superficie, in buon italiano si
chiama “dividente”, come si trova
per esempio sul Vocabolario
dell’Accademia della Crusca, 3°
edizione 1961, vol. 1 pag. 345.
Il gerundio dividenda (ripetuto
due volte!) riguarda invece in
genere una massa ereditaria, in
questo caso semmai la superficie
da ripartire! In uno qualunque
dei molti testi di topografia per
geometri, si parla correttamente
di “dividenti” soddisfacenti a
particolari condizioni (parallele
a …, perpendicolari a …. passanti
per … eccetera). Ci si trova
male, pensando che in un atto
ufficiale non si usino i termini
corretti, utilizzando invece approssimazioni
che sanno tanto di
derivazioni dialettali. E veniamo
alla sostanza topografica. Il tema
chiede ai candidati quanto riportato
in fig.1, estrapolato dall’allegato
foglio ministeriale.
Con non poco stupore, viste
le coordinate (in qualunque
sistema di misura, ma come già
detto presumibilmente in metri)
si nota che non di un generico
quadrilatero si tratta, bensì di
un rettangolo; la elementare figura
sottostante (fig.2), ricavata
semplicemente con AutoCad,
non fidandoci (perché, ripetiamo,
non ci sembrava di credere
ai nostri occhi!) del disegno a
matita e con righello, ne dà la
conferma.
E allora è chiaro che le lunghezze
dei lati, per sola sottrazione,
e senza calcoli trigonometrici,
sono le seguenti:
AB = CD = 50 m
BC = AD = 40 m
Per cui l’area (sola moltiplicazione,
quarta classe elementare) vale
(50 x 40) = 2000 m 2.
Fig. 2 - Il rettangolo
con la dividente.
24 GEOmedia n°5-2015
REPORTS
Come si vede, sono bastate le
classiche quattro operazioni
aritmetiche per risolvere il problema:
cosa per l’appunto da
licenza di scuola primaria, e con
l’impiego di tempo pari a non
più di cinque minuti. Possiamo
aggiungere che non ci piace per
nulla quel verbo ministeriale
“determinare”? Noi avremmo
scritto “calcolare”, perché tale è
l’operazione richiesta. Il verbo
“determinare” ha molti e diversi
significati, come si apprende dai
vocabolari: quello di “calcolare” è
solo secondario.
Comunque, da indagini discrete
sembra che ci siano stati non
pochi sprovveduti che si sono
calcolata l’area del rettangolo per
coordinate, utilizzando la ben
nota formula di Gauss, che ricordiamo
è la seguente:
E quindi:
2S = 6(13-53) + 56(53-13) +
56(53-13) + 6(13-53 ) = 4000 .
Quindi, S = 2000 m 2 come già
sopra calcolato in modo semplice,
corretto ed elementare.
Come si vede, sarebbe come
dire che per andare da Milano
a Piacenza non si è presa l’autostrada
del Sole alla barriera di
Melegnano, preferendo il circuito
Milano – Verona - Modena
- Parma. Anche questo può succedere!
Secondo i dati ulteriori del tema
(si veda il testo completo in allegato),
a una abitazione di 450
m 3 corrisponde una superficie di
562,50 m 2 (450 : 0.8).
La risposta al secondo quesito è
quindi, vista la disposizione del
rettangolo e per semplice equazione
di primo grado, roba da
terza media:
(40 · x ) = 562,50; ne deriva: x =
562,5/40 = 14,06 m
Per cui, “illico et immediate”, le
coordinate dei vertici della dividente
risultano essere le seguenti,
pur sempre per sottrazione:
E (41,94 ; 53) m
F (41,94 ; 13) m
“Sic et simpliciter”, alla faccia
delle otto ore messe a disposizione
dei candidati, e dell’impiego
delle “calcolatrici non programmabili”
che il predetto MIUR
si ostina a prescrivere in epoca
digitale. Sono bastate, ripetiamo,
le quattro operazioni aritmetiche
per risolvere il problema posto a
dei candidati, che bene o male
hanno studiato trigonometria e
algebra.
Ma a questo punto ci si imbatte
in un altro guaio, e grosso: come
farà l’acquirente della parte staccata
dal lotto rettangolare, a costruire
una abitazione di 450 m 3 ?
Tale parte è larga 14,06 metri:
ricordando che le norme vigenti
dei PGT (Piani di Governo del
Territorio) prescrivono dovunque
una distanza dai confini di
5 metri, resterebbero costruibili
4,06 metri in larghezza dell’ipotetico
fabbricato: nemmeno adatti
ad un “corpo semplice”, tolti gli
spessori dei muri! E’ mai possibile
che l’estensore del tema non ci
abbia pensato?
Facciamo grazia del terzo quesito,
di tipo estimativo, che si risolve
in non più di dieci minuti,
pur sempre con l’impiego delle
quattro operazioni sopraddette.
A questo punto ci sorge il classico
dubbio amletico: l’estensore
del tema è stato forse tradito dalla
fretta e dalla sbadataggine, per
non aver controllato la forma del
vantato “quadrilatero”? Oppure
l’impiegato che ha battuto il
testo al computer gli ha giocato
un brutto scherzo? Sarebbe bastato
che una ordinata, quella di
C o di B fosse stata diversa, e il
rettangolo si sarebbe trasformato
in un trapezio; e allora il calcolo
della posizione della dividente
avrebbe richiesto quanto meno
qualche modico sforzo in più
da parte dei candidati. Resta il
fatto, a nostro parere gravissimo,
di un tema d’Esame di Stato che
non solo avrà stupito commissari
e candidati (nessuno di noi
due era quest’anno presidente di
commissione e quindi non ne
siamo testimoni); ma che letto
al di fuori dei confini italiani
(cosa sicuramente avvenuta
nell’ambito della Federazione
Internazionale Geometri (FIG)
non getta certamente buona luce
sulla serietà di questi esami.
PAROLE CHIAVE
esame di stato; dividente; quadrilatero
ABSTRACT
The article relates some grammatical errors and terminology
that were found in the second written test prepared by the
Ministry of Education to perform the profession of surveyors.
The opinion that the International Federation of Surveyors
will make on the reliability and competence of the Ministry of
Education and, not only on those who composed the theme
but also on those who have graduated, surely innocent, but
without having faced a written test worth to be called such, it
may not be the best.
AUTORE
Attilio Selvini
Attilio.selvini@polimi.it
Carlo Monti
Carlo.monti@polimi.it
Già professori di ruolo, gruppo ICAR06
nel Politecnico di Milano
GEOmedia n°5-2015 25
Il Cratere Manicouagan
Un’immagine a falsi colori acquisita dal satellite
Sentinel-1A il 21 Marzo scorso e che mostra il
Cratere Manicouagan. Questo cratere si trova in Quebec
(Canada) ed è stato originato dall’impatto di un asteroide avvenuto
circa 214 milioni di anni fa: è noto per essere uno dei più antichi
e più grandi crateri da impatto esistenti sul nostro pianeta. Gli scienziati
ritengono che al processo di erosione che ha caratterizzato la storia del cratere
abbiano sensibilmente contribuito i ghiacciai. La sua struttura concentrica è
dovuta all’effetto delle onde d’urto generate al momento dell’impatto. Il suo aspetto
ricorda gli anelli che si formano quando un sassolino viene gettato in uno specchio
d’acqua. Essendo così grande e riconoscibile, il cratere può essere facilmente individuato
dallo spazio. La sua struttura ad anelli multipli ha complessivamente un diametro di
circa 100 km, mentre l’anello più interno – quello maggiormente prominente – misura
un diametro di 70 km. Il lago Manicouagan, a forma di anello, si estende per oltre 550
km dalla sorgente del suo più lungo fiume immissario. L’immagine è stata acquisita da
Sentinel-1A illuminando lo scenario con impulsi radar in polarizzazione sia verticale
che orizzontale, motivo per il quale l’immagine è composita a colori artificiali. Colori
diversi mettono in evidenza diversità nella copertura del suolo. Le differenti tonalità
di uno stesso colore indicano differenze nelle caratteristiche del terreno. Per cui,
mentre le tonalità blu indicano superfici di ghiaccio o di acqua, le tonalità giallo
ed arancione denotano l’invecchiamento di vegetazioni di tipi differenti,
mescolate con presenze di ghiaccio ed acqua. Il satellite Sentinel-1A è stato
immesso in orbita il 3 Aprile 2014 su un’orbita polare. Si tratta di una
missione orientata all’acquisizione di immagini radar per servizi
sul territorio e sugli oceani ed è in grado di operare in ogni
condizione meteorologica, sia di notte che di giorno.
(Credits: ESA, traduzione G. Pititto)
REPORTS
PASSARE AL BIM
10 regole per avere successo
di Marco Parisi
Tanti hanno comprato
software BIM. Molti non hanno
ancora iniziato ad usarlo
mentre alcuni hanno provato
ma si sono arenati. Vediamo
dunque 10 regole da seguire
per far sì che il passaggio dal
CAD al BIM di un ufficio di
progettazione possa avvenire
con successo.
BIM è un processo, una
metodologia, non un software.
Per questo motivo
non basta comprare qualche
licenza, fare un corso di formazione
e “smanettare” un po’ per
passare al BIM.
Nonostante ciò tante aziende
hanno negli ultimi tempi acquistato
licenze di programmi
BIM (spesso sull’onda di offerte
speciali) e sono in procinto di
cimentarsi con questa nuova
tecnologia. Altre hanno anche
fatto corsi di formazione ma
non riescono a “decollare”.
Qualche tempo fa ho fatto una
chiacchierata con un architetto,
responsabile della progettazione
di una società di ingegneria,
in cui mi ha raccontato delle
loro difficoltà ad introdurre
l’uso del BIM dopo aver fatto il
loro bravo corso. Questo articolo
nasce da quell’incontro.
Di tutte le attività legate alla
vita di un edificio, abbracciate
dalla metodologia BIM, ci soffermiamo
oggi su quelle legate
alla progettazione ben sapendo
che ciò non esaurisce quello
che bisogna sapere del BIM e i
vantaggi che da esso ne possono
derivare.
Andare avanti per step
L’uso del BIM migliora ogni
disciplina in cui viene adottato
ciò nonostante anche se lo
inseriamo in una sola attività
potremo avere dei vantaggi.
Questo ci permette di introdurlo
nel nostro lavoro per gradi.
Normalmente conviene iniziare
dalla progettazione architettonica
per poi passare a quella
strutturale, impiantistica, e così
28 GEOmedia n°5-2015
REPORTS
via fino, volendo, ad abbracciare
l’intero ciclo di vita dell’edificio,
dalla ideazione fino alla demolizione
e allo smaltimento.
Scegliere i settori più utili
all’azienda
Data la vastità del mondo BIM
c’è il rischio di perdersi. Gli
addetti ai lavori giustamente
ragionano già sulle attività di
domani, sulle frontiere dell’applicazione
del metodo, ma
chi deve iniziare è bene che si
concentri il più possibile su un
solo argomento. In linea con il
punto precedente, sceglieremo
di utilizzare il BIM nei settori in
cui siamo più attivi, dagli studi
di fattibilità ai progetti esecutivi,
dai rendering ai computi
metrici, dal project management
alla Direzione Lavori, dal
facility management alle manutenzioni.
Scegliere la squadra
e motivarla
Un punto molto delicato
per partire con il piede giusto
è la scelta della squadra.
Tipicamente, in un ufficio con
diversi progettisti che seguono
più lavori contemporaneamente,
si forma una piccola squadra
che si dedica alle nuove metodologie.
È importante scegliere
persone inclini alla
sperimentazione,
curiose delle novità,
non scettiche
ne spaventate
dall’uso dell’informatica.
Inoltre
queste persone
vanno motivate
spiegando l’importanza
della loro
sperimentazione
per il successivo
travaso al resto
dell’ufficio. Per
questo non guasta
una buona capacità
didattica.
I nuovi workflow
Entrando nel vivo dell’attività
è indispensabile capire che il
BIM richiede di modificare i
workflow abituali dell’azienda.
Non possiamo più applicare lo
schema classico del progettista
architettonico che passa il lavoro
finito agli strutturisti e agli
impiantisti i quali poi passano il
lavoro finito ai computisti. Nel
BIM le attività avvengono, per
così dire, in contemporanea e
lo scambio di informazioni, che
per la maggior parte passa attraverso
il modello progettuale,
segue nuove logiche che vanno
assimilate e accettate. Il risultato
sarà quello di avere il progetto
completo e coerente in tempi
molto più rapidi.
Coordinatore
Per poter disciplinare quanto
detto al punto precedente è
necessario stabilire un coordinatore
il cui compito è quello di
favorire lo scambio di informazioni
fra i vari progettisti stabilendo
di volta in volta regole di
precedenza fra le varie discipline.
Questo a maggior ragione
se una parte della progettazione
viene svolta al di fuori dell’azienda
magari da studi non
organizzati con metodologia
BIM. In questo caso direi che
è indispensabile una figura che
capisca le necessità interne del
proprio metodo e dialoghi con i
consulenti esterni per farsi dare
dei prodotti utilizzabili all’interno
del proprio ciclo progettuale.
Regole per le modifiche
Nello sviluppo di un progetto
BIM, vuoi per approfondimenti
progettuali, vuoi per nuove
richieste del cliente, sorgerà la
necessità di apportare modifiche
a parti del progetto già sviluppate
da diversi progettisti e che
quindi coinvolgeranno diverse
discipline. Questo è un momento
cruciale per il processo
BIM. Non si può più modificare
liberamente il proprio progetto
perché si rischia di renderlo
incoerente con quello degli altri.
È indispensabile che il coordinatore
definisca regole chiare
per le modifiche e organizzi
riunioni apposite per trovare
soluzioni condivise. In genere
è compito del coordinatore vigilare
sull’integrità del modello
comune; ovvero sincerarsi che
ciascun progettista segua le regole
stabilite per il progetto.
GEOmedia n°5-2015 29
REPORTS
Dataset
Una questione che per logica
viene solo ora ma che cronologicamente
viene per prima è quella
relativa al “Dataset”. Ovvero
quell’insieme di impostazioni
del software che servono a “personalizzarlo”
e impostarlo su
misura per il proprio lavoro.
Di solito uno studio di progettazione
ha degli standard grafici
consolidati e un proprio “stile”
di redazione di un progetto.
Quando si inizia ad utilizzare
un software BIM si chiede
come prima cosa che si riesca
a produrre i disegni secondo il
proprio “stile”.
Questa è una cosa semplice che
si può realizzare con qualunque
programma BIM, bisogna però
avere la pazienza di fare lo sforzo
iniziale di impostare il proprio
dataset secondo le proprie
esigenze.
Psicologicamente tutti i membri
dell’ufficio non guarderanno
con simpatia al nuovo metodo
se i risultati avranno un aspetto
diverso da quello abituale.
Hardware adeguato
Un paragrafo apposito va speso
per l’hardware. I programmi
attuali “girano” su computer
standard ma per lavorare tutto il
giorno vale la pena di spendere
qualche euro in più per avere
un PC performante che non rallenti
il lavoro. Per prima cosa è
utile avere abbondante RAM; 8
o meglio, 16 GB. Il BIM utilizza
modelli tridimensionali che
diventano rapidamente molto
grandi per cui avere molta RAM
è utile per riuscire a gestirli.
Io personalmente trovo poi
molto comodo utilizzare due
schermi. Più area visibile si ha
a disposizione più informazioni
si riescono a gestire. Per ultima,
ma non meno importante, è
un’infrastruttura di rete adeguata.
Già in un ufficio con più di
3-4 progettisti è indispensabile
un server di rete su cui tenere i
progetti, i dataset, le librerie.
Per strutture appena un po’ più
grandi può convenire anche
l’utilizzo di un software di gestione
documentale che diventa
quasi indispensabile se vogliamo
distribuire geograficamente il
nostro BIM, ovvero se vogliamo
che sullo stesso progetto possano
lavorare uffici dislocati al di
fuori della nostra rete LAN.
Elementi parametrici
Nell’ambito del discorso sulla
personalizzazione un capitolo a
parte spetta agli elementi da catalogo,
parametrici e non.
Negli attuali programmi di progettazione
sono presenti delle
tecnologie che permettono di
realizzare elementi geometrici
dalle caratteristiche modificabili
al momento dell’utilizzo.
Con questi strumenti vengono
normalmente realizzate le porte
e le finestre ma ci si può fare
qualunque cosa: scale, ringhiere,
scale mobili, arredi, elementi
impiantistici.
Tutti questi elementi, parametrici
o dalle dimensioni fisse che
siano, vengono archiviati in cataloghi
da cui attinge il progettista
per inserirli nel modello.
Vari di questi cataloghi vengono
forniti con il software e molti
altri si trovano su internet ma
durante il lavoro capita spesso
che si abbia bisogno di un elemento
nuovo, magari simile ad
uno già esistente, ma non proprio
uguale.
Per questo c’è bisogno di una
persona che si specializzi nella
realizzazione di questi elementi
di catalogo personalizzati. In alternativa
ci si può accordare con
un consulente esterno che, su
chiamata, possa farlo per noi.
Preferire software integrati
Un ultimo suggerimento che
voglio dare riguarda l’interoperabilità
dei dati. Alla base della
metodologia BIM c’è
proprio la capacità di
rendere disponibili i
dati di ciascuna disciplina
alle altre tramite
modelli geometrici
connessi con database
alfanumerici. Questa
interoperabilità può
avvenire tramite
formati pubblici di
interscambio di dati
e procedure condivise
all’interno del gruppo
di progetto ma può
avvenire anche in
tutto o in parte attraverso
l’utilizzo di sof-
30 GEOmedia n°5-2015
REPORTS
tware integrati che
utilizzano lo stesso
formato per gestire
diverse discipline.
Questa seconda
possibilità, in base
alla mia esperienza,
facilita il lavoro
e contribuisce
all’affermarsi della
metodologia BIM.
Considerando però
che ogni software
house si è specializzata
più su un
aspetto che su un
altro, vale la pena
analizzare con attenzione
le proprie
esigenze prima di
scegliere su quale
programma basarsi.
Questi suggerimenti
non esauriscono
certamente le cose che
conviene sapere per avviare un
processo BIM ma credo che
possano servire ad evitare la
maggior parte degli errori che
comunemente si fanno all’inizio
del cammino. Sono consigli pratici,
forse per qualcuno possono
sembrare scontati, ma si basano
sull’esperienza che ho fatto in
quasi dodici anni di attività
BIM all’interno di una grande
azienda del settore immobiliare
che si occupa di edifici pubblici
non convenzionali.
Ho parlato in questo articolo
solo di un piccolo aspetto legato
al mondo BIM, ma credo che
in questo momento in Italia sia
un argomento molto attuale
proprio perché, come ho scritto
all’inizio, sono in molti ad aver
acquistato ultimamente licenze
BIM o in procinto di farlo.
Ci saranno altre occasioni per
poter approfondire altri temi
altrettanto importanti per il miglior
utilizzo della metodologia.
Per concludere vorrei raccontarvi
un aneddoto che mi da lo
spunto per un’ultima riflessione.
Tempo fa ho incontrato un
amico ingegnere, socio di una
società di ingegneria che lavora
sia in Italia che all’estero, e gli
ho chiesto: ”Voi utilizzate il
BIM nei vostri progetti?”. E lui
mi ha risposto: “Se i clienti ce
lo chiedono lo facciamo, ma
non possono pensare che gli
diamo un progetto BIM allo
stesso prezzo di un progetto
normale. Se vogliono qualcosa
di più devono pagare di più.”.
Questo fa capire che non c’è
stato l’approccio giusto. Il BIM
non può venire “dopo” un progetto
normale, dev’essere fatto
“invece” di un progetto normale.
Il processo BIM si attua non
perché ce lo chiede il cliente,
ne per avere una certificazione
in più, un bollino da attaccare
sui disegni. Il processo BIM si
utilizza perché conviene. Perché
ci fa risparmiare tempo e ci fa
produrre lavori di miglior qualità.
Se non raggiungiamo questa
convenienza vuol dire che nel
nostro processo BIM c’è qualcosa
da rivedere.
PAROLE CHIAVE
BIM; Avviamento BIM; Progettazione
integrata; Tips and tricks
ABSTRACT
Many companies are beginning to use
BIM software or have already started but
have stalled.
We see 10 rules to follow to ensure that the
transition from CAD to BIM of a project
department can be successful.
Of all the activities related to the life of a
building, embraced by BIM methodology,
we focus today on those related to the
design.
Proceed by steps, to dedicate a small team,
well-chosen and motivated, understand
right away the new workflow, are some of
the tips of the article.
These tips do not cover all the things you
need to know to start a BIM process but
I believe they can help to avoid the most
common mistakes that you make at the
beginning of the journey.
We use the BIM process because it gives us
benefits. Because it saves time and makes
us produce work of the highest quality. If
we do not reach this convenience means
that in our process BIM's about to change.
AUTORE
Ing. Marco Parisi
Bim.marcoparisi@gmail.com
GEOmedia n°5-2015 31
REPORTS
Il Caso di Veio
Nuove scoperte archeologiche con APR
di Zaira Baglione
Giuseppe Ceraudo dell’Università del Salento e Gabriele
Santiccioli di FlyTop riferiscono l’esito della missione nel Parco
di Veio a riprova dell’affidabilità della tecnologia UAV per la
documentazione dei siti archeologici.
Negli ultimi anni è cresciuta
significativamente
l’applicazione delle
tecnologie APR (Aeromobili a
Pilotaggio Remoto) nel settore
dei beni culturali. Le declinazioni
del connubio droni e
archeologia sono molteplici, in
continua espansione e riguardano
non soltanto il monitoraggio
e la documentazione ma anche
l’attività di scoperta. Proprio di
quest’ultimo aspetto ci riporta
un’importante testimonianza
il Prof. Giuseppe Ceraudo,
docente di Topografia antica
presso l’Università del Salento,
che ha svolto in collaborazione
con FlyTop una ricognizione
archeologica nella zona del Parco
di Veio. A pochi chilometri
da Roma, in un’area compresa
tra i comuni di Formello e Isola
Farnese, mediante l’utilizzo
dell’APR ad ala fissa
FlyGeo24Mpx, è stato
possibile individuare
l’esistenza di antichi
insediamenti etruschi
e romani, in particolare
resti di strutture di
edifici e strade.
“Questa scoperta nasce da un
progetto di ricerca che l’Università
del Salento conduce da
oltre dieci anni – dichiara Ceraudo
– e la base di partenza è
stato proprio uno studio di un
gruppo di archeologi del laboratorio
di Topografia antica e Fotogrammetria
del Dipartimento
dei Beni Culturali. La missione
si è svolta la scorsa primavera e
ha permesso di confermare la
probabile presenza di un impianto
urbano di epoca etrusca
e romana. Abbiamo esaminato
un territorio di circa quaranta
ettari, un’ampia
superficie che è stata
sorvolata con un drone
FlyTop equipaggiato
con una fotocamera digitale
Sony Alpha 6000
a 24Mpx con obiettivo
a focale fissa. L’operazione
ha interessato
la località Archi di
Pontecchio ed è stata
effettuata nel rispetto
delle specifiche Enac. Il
volo ci ha consentito di
ottenere immagini di
altissima qualità: quasi duecento
foto con una risoluzione di
1,7 cm per pixel, georefenziate
e complete di 3 parametri di
traslazione e altrettanti di rotazione.
Attraverso i fotogrammi
acquisiti c’è stata la convalida
di quelle che finora erano solo
delle ipotesi; osservando dall’alto
la crescita differenziata della
vegetazione, infatti, abbiamo
riconosciuto distintamente parti
dell’antica città etrusca di Veio”.
Per spiegare come viene garantita
l’eccellente precisione dei dati
aerofotogrammetrici interviene
il Geom. Gabriele Santiccioli,
Presidente di FlyTop: “La nostra
azienda è da sempre impegnata
nel coniugare innovazione e integrazione,
per questo abbiamo
utilizzato tutti gli strumenti che
il topografo possiede, giungendo
in poche ore alla produzione
di cartografie di elevata qualità
tecnica”.
Il rilievo aerofotogrammetrico
di prossimità con l’uso degli
APR rappresenta un panorama
interessante dell’indagine archeologica,
nonché un concreto e
32 GEOmedia n°5-2015
REPORTS
accessibile sistema per l’approfondimento
di ricerche preliminari.
“Il caso di Veio – prosegue
il Professore – è la dimostrazione
delle straordinarie potenzialità
delle tecnologie APR che, a
mio avviso, non possono essere
limitate alla realizzazione di
foto e video degli scavi in corso
d’opera, ma vanno quanto più
sfruttate per sorvolare aree di
interesse archeologico e riconoscere
l’eventuale presenza di
strutture sepolte. Dalle immagini
digitali elaborate abbiamo
ricavato una nuvola di punti,
un modello 3D, il DTM e il
DSM che ci hanno consentito
di conoscere meglio la morfologia
del terreno. In seguito,
con successivi accertamenti e
attività di scavo, sarà possibile
stabilire con maggiore esattezza
l’epoca di riferimento e altre
informazioni di maggior dettaglio.
Considerati gli scenari futuribili,
non escludo che a breve
prenda piede anche nel settore
archeologico l’applicazione di
sensori termici e multispettrali.
Per il momento lo sviluppo
della sensoristica ha riguardato
prevalentemente il comparto
dell’agricoltura, ma è chiaro che
si apre sempre più lo spazio per
utilizzi diversi”.
Il brillante risultato di Veio dimostra
come il telerilevamento
di prossimità attraverso SAPR
sia vantaggioso in termini di
tempi e costi, soprattutto per
le ispezioni di zone particolarmente
vaste o non facilmente
raggiungibili e per ottimizzare
l’avvio mirato di scavi archeologici.
PAROLE CHIAVE
Archeologia aerea; APR; modelli 3D;
Veio; aerofotogrammetria; topografia;
cartografia
ABSTRACT
Etruscan settlements outside Rome identified
by the use of fixed wing UAV FlyGeo24Mpx.
Prof. Giuseppe Ceraudo from University
of Salento and Gabriele Santiccioli of Fly-
Top explain the results of the mission in
the Veio Park as proof of the reliability of
the UAV technology at the service of the
archeology.
AUTORE
Zaira Baglione
zaira@flytop.it
GEOmedia n°5-2015 33
REPORTS
Innovazione e tecnologie avanzate alla 2 a Conferenza
degli utenti Laser Scanner Leica Geosystems
a cura della redazione
Anche quest’anno la 2° User Conference HDS di Leica Geosystems, tenutasi
il 19 Novembre a Roma presso lo Sheraton Golf al Parco dei Medici, ha
alimentato l’interesse dei professionisti e degli emergenti del settore
divulgando e mettendo in mostra le nuove tecnologie e strumentazioni.
Fig. 1 - Apertura della 2 a Conferenza degli utenti Laser
Scanner Leica Geosystems.
Come abbiamo già introdotto
negli highlights
della conferenza (consultabili
sul nostro sito web
www.geoforall.it/k3yrk) l’evento
organizzato dalla Leica Geosystems
Italia, ha incrementato la
volontà del singolo professionista
a lavorare in team utilizzando
nuovi software. É stata
anche molto utile per foraggiare
l’interesse dei giovani, dandogli
la possibilità di rendersi conto
che, il settore, non soltanto è
ancora in via di sviluppo, ma
restituisce tanto alla scienza e
quanto all’uomo grazie anche
alle molteplici ricadute tecnologiche
che si diffondono su tutta
la conoscenza umana.
Fig. 2 - Le categorie delle nuove soluzioni.
Sergio Padovani insieme a Simone
Oppici hanno moderato
l’evento, quest’ultimo ha mostrato
una presentazione introduttiva
che ha posto subito in
rilievo le soluzioni innovative
della conferenza: Terrestrial
Laser Scanning, Multistation,
Mobile Mapping e il Braccio
Portatile.
Le soluzioni innovative
Fra le soluzioni di maggior rilievo
utilizzate dai professionisti del
settore spiccano quelle inerenti
i lavori di rilievo circa il Nodo
ferroviario di Torino, il Cyclone
9.1, i Data-fusion dell’azienda
Prisma in ambito costiero/
portuale e l’applicazione scan to
BIM per la creazione del modello
3D della Chiesa degli Eremitani
di Padova.
Il Nodo Ferroviario di Torino,
collegamento della linea Torino-
Ceres con la rete RFI (passante
Ferroviario) lungo la direttrice di
corso Grosseto, concerne la variante
della linea ferroviaria proveniente
dalle valli di Lanzo che
consentirà il collegamento diretto
con la rete RFI e la metropolitana.
Sostanzialmente il rilievo
ha assistito le fasi di costruzione
di una nuova stazione interrata,
la demolizione del cavalcavia esistente,
la costruzione di un nuovo
sottopasso e di una rotatoria
tra le più grandi d’Europa.
Fig. 3 - Modello virtuale del collegamento della
linea Torino-Ceres.
Questo rilievo topografico
finalizzato alla progettazione
esecutiva è stato commissionato
alla S.T.A. ed è stato eseguito
tramite un laser scanner per
quanto riguarda il rilievo del
cavalcavia, delle aree circostanti
e di due porzioni di galleria ferroviaria;
4 squadre con stazione
totale e uno Strumento Leica
P20 sono scese in campo per la
misurazione della restante parte
e di tutti i chiusini.
L’intervento di Valentina Albano
(architetto di Leica) ha sottolineato
le nuove potenzialità
del Cyclone 9.1, richiamando
l’attenzione su 4 punti chiave:
Serie ScanStation P16/P30/
P40, CloudWorx per Navisworks,
JetStream e Truview Global.
Il JetStream è una piattaforma
software che fornisce un formato
dati più leggero, con una
tecnologia derivata dal Gaming
34 GEOmedia n°5-2015
REPORTS
Fig. 4 - Schema della presentazione di Valentina Albano.
per le nuvole di punti, denominata
Fly through. Permette
di processare le nuvole di punti
in CloudWorx ad una velocità
tre volte superiore e facilita la
gestione di Dataset complessi
accrescendo la produttività degli
utenti CloudWorx. I vantaggi –
più che evidenti – vanno dal risparmio
di tempo, al risparmio
di spazio fino ad arrivare alle
prestazioni di visualizzazione.
Il Truview Global, un software
disponibile per tutti i tipi di
browser, primo visualizzatore
di rilievi 3D basato su web
browser, introdotto 10 anni fa,
è oggi compatibile con tutti
i tipi di dispositivi e browser;
ed oltre ad avere una completa
compatibilità con tutti i
Truview creati in modo tradizionale
non richiede installazione
di plug-in (Link video:
https://www.youtube.com/
watch?v=zEja9_DsV9U)
L’azienda Prisma ha presentato
un forte contributo al mondo
della geomatica nel corso della
conferenza divulgando una relazione
sul Data-Fusion in ambiente
costiero e portuale.
Per quanto riguarda l’ambiente
Fig. 5 - Slide dimostrativa della fase a mare e delle
soluzioni adottate nella fase a terra. Alcuni numeri
sul rilievo: 6 comuni coinvolti, 33 Km di spiaggia
rilevati, impiegata una squadra composta da 20
rilevatori e l’estensione dell’area rilevata a mare è
stata di circa 50 Km 2
costiero (Grande Progetto
di Salerno), il
processo d’integrazione
dei dati è stato svolto
con differenti sensori.
Le operazioni possono
riassumersi in una
prima fase di rilievi sul
campo (Topografia,
Batimetria, Laser Scanner
Prelievo Campioni, Rilievi SSS,
Rilievi MB, Rilievi SBP, Rilievi
Magnetometrici, Mappatura
delle Biocenosi), una seconda
fase di elaborazione dei dati, ed
una terza di realizzazione del
GIS con i dati acquisiti.
Invece per l’ambiente portuale
è stato effettuato il rilievo
della Gru semi-sommersa del
IV sporgente ILVA nel Porto
di Taranto (incidente dell’11
dicembre 2014). La migliore
soluzione possibile prevedeva
l’integrazione di 3 tipologie
di rilievo: Multi-Beam, Laser
Scanner e Fotogrammetrico.
Il dato finale è stato composto
attraverso la fusione metrica
dei 3 rilievi in data-fusion. Nel
data-fusion rappresentativo assume
un forte valore l’impiego
del Truview. Due sono i punti
di forza: semplicità di realizzazione
e possibilità per il cliente
di usufruire di uno strumento
intuitivo e valido. Lo strumento
è risultato un ottimo software
d’integrazione su SR. La versatilità
d’importazione consente
di ottenere una gran quantità di
formati.
L’ultimo intervento ha trovato
l’applicazione Scan to
BIM come protagonista del
rilievo e del modello 3D della
Chiesa degli Eremitani di
Padova. Il lavoro è stato suddiviso
in 5 fasi principali che
hanno portato allo sviluppo
del modello 3D, l’ispezione
generale e la realizzazione
della documentazione fotografica,
il rilevamento fotogrammetrico,
il rilevamento
elettro-ottico e il rilevamento di
completamento per gli elementi
di dettaglio (al fine di una loro
visualizzazione su device). L’elaborazione
finale dei modelli laser
scanner e fotogrammetrici è
stata conclusa con l’archiviazione
di tutti i dati preposti (Link
video: https://www.youtube.com/
watch?v=cLH5wK8YCo4).
Fig. 6 - Riproduzione dell’ambiente portuale di
Taranto in dissesto.
Le soluzioni innovative presentate
quest’anno alla 2° User Conference
HDS di Leica Geosystems, sono state
molteplici e di varia natura. Nel prossimo
numero di GEOmedia si continuerà
l’esposizione relativa alla seconda
parte della Conferenza dedicata
alla soluzioni di ultima generazione.
PAROLE CHIAVE
laser scanner; rilievo; conferenza
utenti leica geosystem; nuvole di
punti
ABSTRACT
This year the 2nd Leica Geosystems HDS
User Conference, held on November 19
in Rome at the Sheraton Golf, located at
the Parco dei Medici, has fueled the interest
of professionals and emerging industry
by disseminating and showcasing the new
techniques and new instruments.
AUTORE
Redazione GEOmedia
GEOmedia n°5-2015 35
SCHEDA MERCATO TECNICA
Le Soluzioni ME.S.A
ME.S.A. S.R.L.
Strada Antica di None, 2
10092 Beinasco (TO)
Tel. +39 011 3971937
Fax +39 011 3972614
e-mail: info@mesasrl.it
www.mesa-laserscanner3d.com
ME.S.A. leader nella
vendita di strumenti
di misura e rilievo
tridimensionale per il
territorio, l’architettura,
i Beni Culturali, la geologia,
offre una gamma
di prodotti per la scansione
3D, oltre a Bracci
di misura e Laser Trackers
per acquisizioni ad
altissima precisione. L’azienda
è partner esclusivo
in Italia di operatori
primari del settore come
FARO, TRIMBLE, GE-
OSLAM, GEXCEL.
ME.S.A. supporta il
professionista e l’azienda
con disponibilità, competenza,
flessibilità e formazione,
punti di forza
che la distinguono dal
resto del mercato della
distribuzione.
La distribuzione dello
strumento portatile Freestyle3D
della FARO
persegue il concetto per
cui in ogni strumento
si trova il prezioso aiuto
per svolgere in modo
veloce e preciso l’attività
di MISURAZIONE. Il
Freestyle3D infatti è uno
scanner manuale ad alta
precisione e di eccellente
qualità, che documenta
in modo rapido e affidabile
ambienti, strutture e
oggetti tridimensionali
creando nuvole di punti
ad alta definizione. Grazie
alla sua imbattibile
precisione può essere
utilizzato ogniqualvolta
sia richiesta una misurazione
rapida di installazioni
da diverse prospettive.
Il suo utilizzo estremamente
flessibile consente
l’acquisizione di
informazioni metriche
in diversi settori, dall’edilizia
alla produzione
industriale, dall’interior
design al settore forense.
Il corpo leggero in fibra
di carbonio e il peso inferiore
al chilogrammo
lo rendono infatti estremamente
maneggevole
e mobile. Lo strumento
è caratterizzato da notevoli
vantaggi quali il
rapporto qualità/prezzo,
la determinazione di dati
3D digitali in tempo reale,
la possibilità di lavorare
in modo flessibile
senza target artificiali,
la perfetta integrazione
con i dati del laser scanner
terrestre Focus3D,
un software di scansione
intuitivo utilizzabile
tramite tablet e l’alimentazione
esterna non necessaria.
Tutte queste caratteristiche
permettono
di ottimizzare la produttività
grazie alla rapida
fase di acquisizione dei
dati e il loro trattamento
all’interno software
Scene. Facile da usare, il
Freestyle3D è un laser di
Classe 1 con un raggio di
misurazione incluso tra i
0,5-3m, una risoluzione
laterale di 0,2-1mm e in
profondità di 0,2mm a
una distanza di 0,5m e
una precisione dei punti
3D inferiore a 1,5mm.
Dotato di fotocamera
RGB, permette di ottenere
scansioni texturizzate.
FateVi incuriosire dalle
potenzialità del Freestyle3D
e degli strumenti
distribuiti da ME.S.A.
Richiedete una DEMO
GRATUITA inviando
la richiesta con i Vostri
dati al seguente indirizzo
mail: info@mesasrl.it
36 GEOmedia n°5-2015
MERCATO
GEOmedia n°5-2015 37
MERCATO
Laser Scanner Leica HDS,
attenzione ai dettagli e facilità d'uso
Per i progetti di rilievo c'è bisogno di strumenti
di scansione precisi. Sia che occorra una
rappresentazione dettagliata di una facciata costruita,
una planimetria in 2D o dati 3D per
l’integrazione nella modellazione BIM (Building
Information Modeling), ricostruire una
scena del crimine, acquisire la geometria 3D di
strade, gallerie e ponti.
Teorema srl Milano, distributore per Lombardia
e Piacenza degli Strumenti Topografici
Leica presenta le ultime novità dei Laser Scanner HDS, la scelta giusta
quando i dettagli sono importanti:
• Leica ScanStation P16 - Scansioni laser precise con un solo tasto
• Leica ScanStation P30 P40 - La tua Soluzione Laser Scanner completa
Leica ScanStation P16. L'elevata qualità, le prestazioni e la massima robustezza,
rendono Leica ScanStation P16 lo strumento ideale nel mondo
della scansione laser 3D. Il suo interessante rapporto prezzo-prestazioni e
l'interfaccia semplice, garantiscono una soluzione interessante per tutte le
applicazioni con una portata fino a 40 metri.
Leica ScanStation P16 dispone di un’interfaccia touchscreen pratica ed
intuitiva. Il pulsante di scansione «one-touch» e il software in modalità
procedura guidata garantiscono un flusso di lavoro semplice ed un controllo
rapido dei dati sul campo. Combinato al comando a distanza WLAN, il
sistema Leica ScanStation P16 può essere utilizzato da qualsiasi dispositivo
palmare.
Leica ScanStation P30 è uno scanner ad alta versatilità adatto per una vasta
gamma di tipiche soluzioni di scansione. Con il suo mix ottimale di velocità,
autonomia e precisione ed una robustezza senza pari, è la soluzione
all-in-one per una ampia gamma completa di applicazioni.
Leica ScanStation P40 offre massima versatilità, ottima portata, elevata velocità
di scansione ed eccellente qualità dei dati quando e dove necessario.
E' la soluzione perfetta per qualsiasi attività di scansione laser 3D.
Per maggiori informazioni potete contattare Teorema ai seguenti riferimenti:
Teorema srl Via Romilli 20/8 20139 MILANO Tel 02/5398739
www.geomatica.it
(Fonte:Teorema)
T-50P: nuovo multibeam portatile
ad altissima risoluzione da Reson
“Mai visto dati così” commentano i tecnici. Il nuovo SeaBat T50-P ha
nel nome la P di portatile e nel cuore la tecnologia dei più precisi e performanti
Multibeam Reson, come l’icona 7125.
• Altissima risoluzione
• 512 beam da 0.5°x1°
• 165° di area investigata
• oltre 500 m di range
• frequenza selezionabile on-the-fly da
190 a 420 kHz
• possibilità di distribuire a piacimento
i beam
• possibilità di mantenerne costante
la spaziatura dei beam al variare della
profondità
• visualizzazione della colonna d’acqua
• modulazione FM Chirp per dati incredibilmente puliti…
• e molto altro…
Il tutto in un processore portatile con tutte le connessioni pronte e i cavi
ridotti al minimo per essere rapidamente installato e operativo.
Tutto questo in uno strumento “mai visto prima”, ad un prezzo lancio
fino a fine novembre.
Sul canale YouTube di Codevintec il video di presentazione
https://youtu.be/btxYWmHM_Z0
Codevintec è rappresentante in esclusiva di Teledyne Reson per l’Italia.
(Fonte: Codevintec)
38 GEOmedia n°5-2015
MERCATO
GEOmedia n°5-2015 39
MERCATO
ENVI 5.3 passa al 3D
Il software ENVI è noto per i
suoi potenti strumenti di analisi
delle immagini geospaziali.
Tuttavia la nuova versione
aggiunge ora funzionalità significative
di analisi e visualizzazione
delle nuvole di punti
LiDAR, precedentemente
disponibili solo nel pacchetto
software ENVI LiDAR.
ENVI, nuovo e migliorato, offre
agli utenti una singola interfaccia software per lavorare con
dati iperspettrali, multispettrali, pancromatici e LiDAR.
"Il software ENVI base offre ora funzionalità significative
subito disponibili per la visualizzazione delle nuvole di punti
3D, la generazione di prodotti di terreni derivati (p. es. DEM)
e l'analisi LiDAR, come l'analisi di visibilità", afferma Adam
O'Connor, Product Manager ENVI e IDL presso Harris. "In
caso di richiesta di nuvole di punti o prodotti derivati in un'area
in cui la raccolta LiDAR risulta impraticabile o troppo costosa,
l'ENVI Photogrammetry Module è in grado di generare
nuvole di punti 3D sintetiche partendo da immagini ottiche
stereo, in modo da sfruttare gli archivi di immagini esistenti",
aggiunge O'Connor.
L'8 ottobre si è svolto a Roma l'evento "ENVI e SARscape
User Group 2015" promosso da EXELIS (Visual Information
Solutions), azienda produttrice di strumenti e sistemi software
con elevati standard di qualità, che permettono di visualizzare,
analizzare e condividere qualsiasi tipo di dati e immagini sia
nell'ambito di applicazioni civili, sia in ambito di sicurezza e
difesa.
Si tratta del primo evento "user group" promosso dall'azienda
dopo l'acquisizione dell'85% di Exelis da parte di Harris Corporation,
azienda americana leader nell'offerta di soluzione
tecnologiche avanzate, con un organico di oltre 23 mila dipendenti,
di cui 9000 tra ingegnerie ricercatori e clienti in oltre
125 paesi nel mondo.
Come sappiamo oggi i dati telerilevati vengono utilizzati per
prendere decisioni strategiche, fare scoperte e comprendere più
a fondo il mondo che ci circonda. Diversi tipi di dati acquisiti
da piattaforme aeree e satellitari, ottici oppure di altra natura
(come LiDAR e SAR), sono disponibili e utilizzati in maniera
crescente. Utilizzati da soli o integrati insieme per una visione
più completa di una zona geografica, i dati telerilevati consentono
ai professionisti di tutti i settori di prendere decisioni in
maniera più consapevole. Fiore all'occhiello di EXELIS sono
i prodotti ENVI, che consentono di estrarre facilmente le informazioni
dalle immagini geospaziali. Tra i prodotti ENVI
di particolare importanza è certamente ENVI SARscape,
che consente di leggere facilmente e di processare dati SAR,
in modo da poter trasformare un dato difficile da interpretare
in informazioni contestuali significative. Il dato SAR è un
tipo di dato sofisticato che può essere utilizzato per analizzare
una zona di interesse durante il giorno o di notte, indipendentemente
dalle condizioni atmosferiche. E' utile ricordare
che l'impiego dei sensori SAR negli ultimi anni è diventato
sempre più pervasivo, in quanto in grado di offrire ad un vasto
40 GEOmedia n°5-2015
MERCATO
ZEB 1 | SURVEY IN MOTION
ventaglio di professionisti un valido approvvio misurabile
ed analitico nella acquisizione di informazioni su un'area
geografica di interesse.
L'evento svoltosi a Roma è stato dedicato alle innovazioni
introdotte nell'ultima evoluzione dei prodotti ENVI (5.3),
nell'ambito dei quali ha fatto il suo ingresso anche l'impiego
del concetto di applicazione basata su cloud (ENVI
Service Engine). ENVI e SARscape User Group è stata
così una occasione preziosa - come tutte le precedenti edizioni-
per la presentazione di alcune esperienze sul campo
utilmente condotte da utilizzatori di dati satellitari e dei
prodotti EXELIS.
Il primo contributo è stato portato da Livio Rossi di e-
GEOS, società Telespazio/ASI leader nell'offerta di prodotti
e servizi nell'ambito della Earth Observation. Rossi ha
parlato diffusamente dell'uso degli strumenti ENVI nella
gestione delle attività legate al programma europeo Copernicus,
con particolare riferimento al ruolo di Copernicus
come supporto alle emergenze nazionali ed internazionali.
Si tratta del "Copernicus Emergency Management Service-
Rapid Mapping", il servizio operativo che fornisce mappe
a richiesta in caso si disastri ad ogni Protezione Civile di
stati membri dell'EU, oppure ad istituzioni internazionali
autorizzate. E' stata analizzata tutta la catena di eventi che
determina il coinvolgimento delle risorse di Copernicus in
un evento di emergenza, come il rilevamento ed il monitoraggio
di una massiccia perdita di petrolio in mare, incendi,
emergenze sanitarie, alluvioni,emergenze umanitarie, etc.
All'interno di questo processo assume ruolo ovviamente
fondamentale la scelta dei dati da acquisire (di tipo radar
oppure ottico, estensione territoriale dell'area di interesse,
risoluzione, etc.), che vengono stabiliti in parte su base di
automatismi, in parte per l'intervento di decisori umani attivi
H24.
E' interessante sapere che il primo mapping utile per l'intervento
viene realizzato entro 3 ore dall'arrivo dei primi
dati dai sensori e cotestualmente viene realizzata (entro 6
ore dall'allarme) anche una mappa "pre"-evento (per gli opportuni
utili confronti) con i dati esistenti in archivio. Per la
produzione delle mappe vengono impiegati oltre ai dati dei
sensori anche tutti i dati "open" disponibili ed ultimamente
anche i cosiddetti "social data" (da fonti come Twitter o
Flicker). I satelliti delle serie Sentinel-1 e Sentinel-2 sono
particolarmente impiegati su questo servizio.
Ad oggi si sono avute 130 attivazioni e circa 500 mappe
prodotte per circa 40 paesi a livello internazionale.
A margine, un dato inaspettato e sorprendente: parlando di
emergenze, la maggior parte del mondo della cooperazione
internazionale (ed italiana) pare non utilizzi o utilizzi scarsamente
la geoinformazione. Dunque è probabile che l'uso di
questi strumenti abbia grandi opportunità di diffusione in
tale ambito nel prossimo futuro.
Il secondo contributo è stato dedicato alla presentazione di
un sistema, basato su dati SAR, per la mappatura di aree
allagate: intervento a cura di Luca Pulvirenti del CIMA Reserch
Foundation di Savona (Centro di Competenza della
Protezione Civile per il Rischio Idrogeologico). Ancora un
esempio di "rapid mapping" focalizzato su una particolare
situazione emergenziale di tipo ambientale, in cui il telerilevamento
di tipo radar assume un ruolo privilegiato, grazie
alla sua sostanziale indipendenza dalla illuminazione sola-
Arriva in Italia il primo laser scanner
handheld per il mobile mapping.
Basato su tecnologia SLAM,
rappresenta la soluzione ideale
per il rilievo 3D rapido e accurato
di realtà complesse.
Forestale, underground mining,
immobiliare:
rivoluziona il tuo modo di
lavorare!
Presentazione ufficiale del prodotto
a settembre 2015.
Seguirà un programma di roadshow
in Italia nei mesi successivi.
Per maggiorni informazioni scrivere a
info@mesasrl.it.
Il tuo partner ideale per il rilievo 3D
ME.S.A. srl (Metrology & Survey
Application) già partner esclusivo in
Italia della Faro Technologies e della
GeoSLAM UK, rinforza la gamma di
tecnologie d'avanguardia presenti a
livello mondiale nel campo
dell'architettura del survey e della
metrologia. ME.S.A. srl si propone sul
mercato nazionale con uno sguardo
all'Europa come supporto
d'eccellenza a tutte quelle aziende
che, resistenti agli anni della crisi,
fanno dell'innovazione il loro cavallo
di battaglia per rendersi altamente
competitive.
ME.S.A. s.r.l. a Socio Unico
P.IVA 11315870011- Cap. Soc. € 500.000,00
Strada Antica di None 2 - 10092 BEINASCO (TO)
Tel +39 011 3971937 Fax +39 011 3972614
info@mesasrl.it www.mesasrl.it
GEOmedia n°5-2015 41
MERCATO
re e dalle condizioni meteo. In questo caso i prodotti ENVI
sono stati presentati soprattutto nella accezione di "ambiente
di sviluppo" per applicazioni specifiche. E' stata illustrata la realizzazione
in ambiente ENVI-IDL ed ENVI-SARscape di un
modulo software per la generazione di mappe ad alta risoluzione
(provviste di indice di affidabilità) di aree allagate estratte da
immagini SAR provenienti da Cosmo-SkyMed. Lo strumento
realizzato è stato mostrato all'opera nel caso reale dell' alluvione
di fiume Secchia (Emilia Romagna) del 21 Gennaio 2014.
Dopo il tradizionale coffe-break ha avuto luogo la terza sessione
a cura di Alessio Cantone di Sarmap (azienda svizzera
che si occupa della realizzazione di prodotti software avanzati
per il telerilevamento). L'intervento è stato dedicato ad una
presentazione di dettaglio della nuova release di SARScape: la
5.2 rilasciata da poco. Inoltre sono stati presentati alcuni risultati
basati su dati Sentinel-1 e PALSAR-2. Particolare enfasi
è stata posta sui nuovi sensori supportati da SARScape 5.2,
tra cui: Sentinel-1,Kompsat-5,RiSAT-1, ALOS-2 e COSMO-
SkyMed (II Gen.). Molto interessante l'aggiunta nella versione
5.2 di tutti i processamenti di fase, nonchè la possibilità di
effettuare il download automatico all'interno di SARScape dei
dati Sentinel di una particolare area.
Peristono però, a quanto pare, alcuni vecchi problemi di calibrazione
radiometrica dei dati Sentinel e si riscontrano anche
rilevanti effetti atmosferici. Altro aspetto sviluppato nell'intervento
è stato il tema dell'aggiornamento degli algoritmi: molti
componenti sono stati aggiornati, in particolare completamente
rinnovati gli algoritmi di coregistrazione ed interferometria
per poter sviluppare nuovi sensori, con miglioramento di robustezza,
precisione e velocità. Le conclusioni dell'intervento
sono state dedicate ad una carrellata sui temi della ricerca e
dello sviluppo che Sarmap ha in laboratorio sull'elaborazione
delle immagini satellitari.
Il successivo intervento ha aperto una finestra sul mondo militare,
con l'intervento di Sergio De Ceglie, Ufficiale della Marina
Militare ed esperto di optoelettronica del CISAM (Centro
Interforze Studi Applicazioni Militari), dedicato alla elaborazione
di immagini iperspettrali in ambito militare. In questo
caso non si è parlato immagini satellitari, ma telerilevate da
mezzi aerei (sensori SIMGA e SPHYDER).
Gli obiettivi di queste applicazioni sono state: la classificazione
delle aree e la loro sorveglianza, la scoperta di potenziali
minacce e la individuazione di bersagli (algoritmi di Anomaly
Detection, Change Detection e Spectral Matching).
L'impiego di ENVI e del linguaggio IDL di sviluppo in questo
contesto è risultato utile per la relativa facilità nella gestione
delle immagini di grandi dimensioni, nella estrazione di informazioni
di interesse, nella georeferenziazione e coregistrazione
e nella individuazione dei bersagli tramite la loro firma spettrale.
Quest'ultima circostanza non va considerata un'esigenza
strettamente legata ad un teatro bellico: nella individuazione di
un bersaglio ricade anche la necessità di individuare un uomo
in mare (naufrago), tema di grande attualità di questi tempi in
relazione ai processi di migrazione di esseri umani via mare nel
Mar Mediterraneo. E' in atto in questo senso una sperimentazione
che per l'acquisizione delle immagini grezze fa uso di
elicotteri. Dall'esperienza militare scaturisce un suggerimento
per gli sviluppi futuri di ENVI: una integrazione di dati provenienti
da sensori eterogenei in tecnologia e piattaforma.
Penultimo intervento prima della chiusura della interessante
giornata di lavori: quello di Magdalena Stefanova Vassileva di
Ithaca (altro industrial provider del "Copernicus Emergency
Management Service-Rapid Mapping"), con un intervento
dedicato alla gestione delle aree alluvionate in immagini SAR,
nel quale sono stati ripercorsi sostanzialmente i temi del primo
intervento di Livio Rossi di e-GEOS. Infine, a conclusione
l'ultimo affascinante intervento di Chris Stewart (ESA Esrin,
Frascati) dedicato alla elaborazione di dati SAR con ENVI e
SARScape per la Ricerca Archeologica. Stewart ha raccontato
la propria esperienza di una settimana di training presso Sarmap,
in Svizzera, dedicato a studi di prospezione archeologica
utilizzando dati di COSMO SkyMed, ALOS e Radarsat-2 per
il rilevamento di strutture (sepolte o meno) in zone desertiche
e segni di vegetazione archeologica. I test sono stati condotti
su un'area del nord del Sinai (in Egitto),sul Porto di Traiano e
su Torre Angela (in Italia). Le nuove funzionalità di SARScape
hanno consentito di effettuare interessanti test su Analisi di
Artefatti ed analisi di Serie Temporali, con risultati incoraggianti
e di sicuro interesse per approfondimenti futuri.
(Fonte: Redazionale)
42 GEOmedia n°5-2015
MERCATO
MassiMa Flessibilità e PerForMance.
in un’unica stazione totale.
Immagina di avere bisogno di un’unica stazione totale per effettuare
ogni tipo di raccolta dati e che possa gestire immagini, scansioni e
rilievi tradizionali. Una stazione totale capace di creare modelli 3D,
documentazioni visuali, nuvole di punti e molto altro ancora.
Lo strumento a cui stai pensando e’ la stazione totale Trimble ® S7.
Trimble S7 ha le più avanzate caratteristiche e tecnologie Trimble,
con la flessibilità e la performance di cui hai bisogno, per ogni
tuo progetto.
Trimble S7
Total Station
Scansioni ricche di particolari con
Trimble SureScan
Posizione in tempo reale della
tua strumentazione, con Trimble
Locate2Protect
Arricchisci di immagini il tuo lavoro,
utilizzando la tecnologia Trimble
VISION
Misura più lontano e più veloce con
Trimble DR Plus EDM
La documentazione geo-spaziale
comprensiva di tutto quello che serve –
con Trimble Business Center
Vai sul sito Trimble.com/geospatialTS
© 2015, Trimble Navigation Limited. Tutti i diritti riservati. Trimble e il logo Globe e Triangle sono marchi commerciali di Trimble Navigation Limited,
registrati negli Stati Uniti e in altri paesi. SureScan e VISION sono marchi di Trimble Navigation Limited. Tutti gli altri sono marchi dei rispettivi
proprietari. GEO-068A-ITA (05/15)
GEOmedia n°5-2015 43
MERCATO
Mobile mapping:
presentato il nuovo
MLS-16 mobile
laser scanner 3D
economico, compatto
e leggero
Microgeo ha annunciato
il sistema mobile laser
scanner 3D più economico,
contenuto e leggero
sul mercato. L’esprienza maturata nel settore “mobile
mapping” tramite un network tra aziende del settore,
ha permesso la progettazione e realizzazione del sistema
MLS-16.
Il sistema MLS-16 nasce dalla capacità di Microgeo di poter
realizzare un sistema di rilievo dinamico 3D adatto ad
ogni cliente, potendo installare diversi tipi di hardware,
che consentono una massima personalizzazione.
MLS-16 sposa perfettamente le richieste di un ampio
pubblico, che necessita di raggiungere elevati livelli di produttività
nel mondo del rilievo 3D, mantenendo un ottimo
rapporto qualità prezzo. Progetto, svolto interamente
in Italia, nell’ingegnerizzazione Hardware e nello sviluppo
della parte software, per la massima ottimizzazione del
funzionamento del sistema in fase di acquisizione ed in
elaborazione dati.
SOFTWARE:
3Dcapture: Software dedicato al controllo del corretto funzionamento
dei componenti hardware interni e alla parametrizzazione
dei valori di acquisizione. E’ possibile osservare
la navigazione del tragitto di scansione in tempo reale.
3Dpos: Software per la correlazione tra dati laser scanner,
dati di traiettoria / GPS e dati fotografici.
3Dimage: Software per l’analisi delle immagini acquisite
con possibilità di misura diretta.
CARATTERISTICHE TECNICHE:
Velocita’ di acquisizione: 300.000 pti/sec
Campo di vista: 360°
Multi-Eco: Si
Fotocamera: 30 Megapixel formato sferico
Odometro: Si
Sistema di navigazione INS/GNSS: Novatel; Applanix; ecc.
(scelta personalizzabile da parte del cliente)
PC on board: Si
Sistema di controllo: PC Tablet
Dimensioni: 65x55x45 cm
Peso: inferiore a 8kg
Per maggiori informazioni contattate:
Info@microgeo.it 0558954766
(Fonte: Microgeo)
44 GEOmedia n°5-2015
MERCATO OPPORTUNITIES IN EUROPE
13 Progetti Galileo
finanziati in ambito
Horizon 2020 di cui 4
a leadership italiana
Horizon
L'Agenzia europea GNSS
(GSA) ha annunciato i
risultati della valutazione
della seconda call 2020
per applicazioni di Galileo,
con 13 progetti finanziati,
che riceveranno una
sovvenzione cumulativa di
euro 24.894.169. Quattro
di questi sono a leadership
italiana. La seconda call
in oggetto ha ricevuto 91
proposte. Dopo le valutazioni
che hanno avuto
luogo tra il 27 maggio e il
11 giugno scorso, il finanziamento
è andato a quelle
13 proposte che meglio
hanno mostrato un focus
significativo sull’impatto
verso i mercati globali con
una forte innovazione e
l'inserimento di nuove conoscenze.
Delle 91 proposte, 45 nel
tema European GNSS
applications, 31 nel tema
Small and Medium Enterprise
(SME) Based European
GNSS applications e
15 sotto il tema releasing
the potential of European
GNSS applications through
international cooperation.
Il finanziamento per
i 13 progetti scelti con
successo sarà assegnato a
95 diversi partecipanti.
Sotto il primo tema di
applicazioni di E-GNSS,
il finanziamento è stato
assegnato a otto progetti,
che coprono i trasporti,
geodetici, servizi basati
sulla localizzazione (LBS),
agricoltura, servizi di
emergenza e altre applicazioni
professionali. Il contributo
totale raccomandato
dalla UE per questo
argomento è stato pari a
20.357.180.
Per il secondo tema di
applicazioni di e-GNSS
based per Piccole e Medie
Imprese (PMI), tre progetti
sono stati approvati
per il finanziamento, che
coprono applicazioni nei
mercati di nicchia e modelli
di business, mercato
di massa per prodotti
LBS, test di mercato, ecc.
Il contributo totale per
questo argomento è di
euro 2.918.619.
Nell'ambito del terzo e
ultimo argomento di liberare
il potenziale delle
applicazioni E-GNSS
attraverso la cooperazione
internazionale, a due
progetti sono stati assegnati
i finanziamenti, che
riguardano lo sviluppo di
applicazioni internazionali
innovative che porterà
i servizi E-GNSS alla ribalta
della consapevolezza
globale. Il finanziamento
totale raccomandato per
questo argomento è stato
di euro 2.693.639.
Oltre a questi progetti in
lista principale per il finanziamento,
ci sono altri 14
progetti in lista di riserva.
Il contributo finanziamento
totale raccomandato
dell'UE per questi progetti
di riserva viene a euro
30.740.370.
(Fonte GSA)
46 GEOmedia n°5-2015
MERCATO
Pinpoint Accuracy
Dal rilievo al progetto, al layout e l’ispezione,
l’innovativa tecnologia ottica e GNSS Topcon è sulla produttività –
accurata ed efficiente allo stesso tempo.
experience how ...
www.topconpositioning.it
Tokyo · SaN FraNciSco · MoSca · roTTerDaM · BriSBaNe
GEOmedia n°5-2015 47
MERCATO RECENSIONE
GIS Open Source per
geologia e ambiente
Analisi e gestione dei
dati territoriali con QGIS
AUTORE DEL LIBRO:
VALERIO NOTI
EDITORE:
DARIO FLACCOVIO EDITORE
PAGINE: 352
PREZZO: 38€
ISBN: 9788857903392
Fra i professionisti del territorio,
i geologi sono sicuramente
quelli che hanno
maggiore necessità nell'uso di
strumenti GIS e di dati geografici.
Non è un uso di sola
rappresentazione perché, più
di altri, i geologi analizzano il
territorio attraverso modelli e
elaborazioni sofisticate.
Pensate a ciò che succede in
Italia, ormai con periodicità
definita, in fatto di dissesto
idrogeologico. Proprio questo
ci consente di capire l'importanza
del lavoro dei geologi
in fatto di analisi e programmazione
di interventi per prevenire
i disastri derivanti dai
fenomeni naturali e dalla disattenzione
umana.
Quindi direi che Valerio Noti
con il suo libro "GIS Open
Source per geologia e ambiente",
pubblicato da Dario
Flaccovio Editore, ha centrato
l'obiettivo. La necessità di avere
un testo guida che consentisse
di imparare ad usare un
desktopGIS, non solo nelle sue
funzioni di base ma in tutte
le estensioni che consentono
elaborazioni utili all'analisi del
territorio, del suolo e del sottosuolo.
L'occhio agli aspetti utili
e necessari ai geologi è evidente
in molti dei capitoli del libro,
che in 350 pagine offre vari
livelli di studio ed approfondimento.
Il primo capitolo aiuta il lettore
nella comprensione dei
concetti fondamentali dei sistemi
informativi geografici,
di fresca memoria per chi si è
laureato nell'ultimo decennio.
Una piacevole lettura che introduce
con chiarezza anche
aspetti legati all'uso in Italia
dei GIS, come ad esempio: i sistemi
nazionali di coordinate, i
codici EPSG, la conversione di
coordinate usando il Geoportale
Nazionale, i metadati ed il
Repertorio Nazionale dei Dati
Territoriali.
Quasi 150 pagine sono poi dedicate
all'uso del noto software
open source QGIS, disponibile
gratuitamente per Windows,
Linux e Mac. Questo
desktopGIS, precedentemente
denominato Quantum GIS,
nasce da GRASS, uno dei
software GIS storici, nato nel
1982 in ambito militare americano.
A parte gli argomenti da
manuale pratico del software,
si evidenzia un capitolo dedicato
all'uso delle Carte Tecniche
Regionali e dei servizi web
di interoperabilità a standard
OGC.
Seguono quasi 150 pagine dedicate
al geoprocessing. Qui
troviamo un'ampia descrizione
pratica delle tantissime funzionalità
di analisi spaziale dei
plugin GRASS richiamabili da
QGIS. E' questo il vero pane
per il geologo (e non solo!) da
masticare e digerire. La trattazione
passa dalle tecniche
di geoprocessing vettoriale a
quelle raster, evidenziando le
potenzialità delle due tecniche
e le possibili integrazioni.
E per chi analizza il suolo non
poteva mancare un capitolo
dedicato ai modelli digitali di
elevazione nelle loro varie forme
e formati, ed alle funzioni
che consentono di derivarne
informazioni utili per l'analisi
del territorio (analisi di visibilità,
calcolo volumetrico,
estrazione di profili, pendenze,
esposizione dei versanti, ecc.).
Con mia piacevole sorpresa
troviamo anche un capitolo
dedicato al Geoprocessing che
introduce a questo ostico ma
molto utile approccio di studio,
fondamentale per le analisi
spaziali nel campo delle Scienze
della Terra, che fanno uso di
parametri ambientali rilevati in
campo.
Il testo si conclude con tre
esempi concreti di applicazioni
dedicate a temi geologici:
studio della morfologia dei
bacini idrografici, zonizzazione
della suscettività da frana,
individuazione di aree potenzialmente
interessate ai fenomeni
di esondazione dei corsi
d'acqua. In questi tre esempi
troviamo spiegati, con dovizia
di particolari, gli usi concreti
di dati geografici di vario tipo e
natura e di funzioni specifiche
di elaborazione ed analisi.
Quindi, in sostanza, un libro
completo, manuale ideale per
il geologo, ma anche per altre
tipologie di professionisti del
territorio come ingegneri ambientali,
pianificatori, urbanisti,
agronomi, ecc. L'autore
esalta giustamente l'uso avanzato
del GIS, attraverso l'applicazione
concreta delle funzioni
di analisi spaziale. Un testo da
non perdere, ma soprattutto da
consumare. Disponibile anche
in e-book.
A cura di Giovanni Biallo
48 GEOmedia n°5-2015
y
Meno di 1 Kg di peso
Copertura radio fino a 3 km di raggio
45 minuti di autonomia di volo
Resistenza al vento fino a 45 km/h (12 m/s)
Il più facile
Il più sicuro
Il più leggero
Il più diffuso al mondo
APS
La miglior soluzione
integrata per la
produzione di dati
cartografici da drone
APS è in grado di processare immagini
acquisite tramite qualunque drone
APS è disponibile anche in versione Trial, completa di tutte le funzioni.
Richiedila oggi su www.menci.com
Scopri di persona le nostre soluzioni: partecipa ai Demo Day gratuiti!
Menci Software
0575 382051 - 52100 Arezzo
www.menci.com @mencisoftware Contattaci via QR !
AGENDA
3 Dicembre 2015
Convegno Open data
cartografici
Milano
www.geoforall.it/k3y68
3-4 Dicembre 2015
Copernicus Marine Service
User & Training
La Spezia
www.geoforall.it/k3y8r
10-11 Dicembre 2015
GeoBIM Europe 2015
Amsterdam
www.geoforall.it/k3yap
2-4 Febbraio 2016
Scatterometer Science
Conference 2016
Noordwijk
www.geoforall.it/k3y63
10-12 Febbraio 2016
Amsterdam
GIM International Summit
www.geoforall.it/k38cy
15-17 Marzo 2016
Santa Cruz de Tenerife (Spain) -
2016 Conference on Big Data
from Space
www.geoforall.it/k3ypx
28 Aprile 2016
Castel Gandolfo (RM)
FORUM
TECHNOLOGYforALL
Field Workshop
Web: www.technologyforall.it
17-18 Maggio 2016
Rome
FORUM
TECHNOLOGYforALL
Conference
Web: www.technologyforall.it
20-24 Giugno 2016
36th EARSeL Symposium
Bonn
www.geoforall.it/k3ypr
12-19 Luglio 2016
23rd ISPRS Congress
Praga
www.geoforall.it/k3fcd
27-28 Gennaio 2016
SkyTech Event 2016
London
www.geoforall.it/k3y3a
26-27 Aprile 2016
GISTAM 2016
Roma
www.geoforall.it/k3hd4
3-5 Maggio 2016
Big Data 2016
Alicante
www.geoforall.it/k3y6r
2-4 Febbraio 2016
TUSExpo 2016
The Hague
www.geoforall.it/k3y3x
24-25 Maggio 2016
Geo Business 2016
London
www.geoforall.it/k3y39
leica multistation ms60,
la nuova dimensione
nella tecnologia di misura
Dal 1986 Teorema srl
lavora a fianco del professionista fornendo
la tecnologia più avanzata, la migliore consulenza
e un’accurata assistenza post-vendita
per rendere affidabile e produttivo il vostro lavoro.
Leica MuLtiStation MS60, Be caPtiVate
❚❚Processore Dual Core ARM Cortex da 1 GHz
❚❚Reflector Less “PinPoint” fino a 2000 metri
❚❚Sistema operativo Windows ® EC7
❚❚Dimensioni Spot Laser 8mm x 20mm a 50 metri
❚❚Doppio Display da 5” WVGA a colori Touch Screen ❚❚Tecnologia di misura brevettata Wave Form Digitizing (WFD)
❚❚IP65/MIL-STD-810G
❚❚Fotocamera grandangolare campo di vista di 19.4°,
❚❚Temperatura operativa da -20°C a +50°C
sensore da 5 MPixel CMOS
❚❚Motorizzazione basata su tecnologia Piezo
❚❚Fotocamera coassiale campo di vista 1.5°
(velocità 200gon/sec.)
❚❚Messa a fuoco automatica - 30 ingrandimenti (Autofocus)
❚❚Precisione angolare Hz e V 1” (0.3mgon)
❚❚Live Stream a 20Hz
❚❚Nuova tecnologia di ricerca automatica del Target “ATR Plus” ❚❚Immagini collegate ai dati misurati
❚❚Tecnologia brevettata MERGETEC
❚❚Visualizzazione e gestione del rilievo in 3D a bordo
❚❚Scansione Laser con precisione angolare di 1” fino a (scansioni e misure puntuali TPS/GNSS)
1000 metri
❚❚Gestione applicativi specifici (monitoraggio ambientale e
❚❚Velocità di scansione di 1000pti/sec. fino a 300 metri As Built, ambito ferroviario, costruzione di gallerie ecc.)
Leica Multistation MS60 - La nuova dimensione nella tecnologia di misura
www.disto.it • www.geomatica.it • www.termocamere.com
Via A. Romilli, 20/8 20139 Milano • Tel. 02 5398739 • teorema@geomatica.it
FIBER MANAGER ®
TUTTA LA TUA RETE A PORTATA DI MANO
GESTISCI L’INFRASTRUTTURA CON UN SOLO GEODATABASE INTEGRATO
Con FiberManager® puoi gestire le reti di telecomunicazione con un unico geodatabase che consente la
visione globale ed integrata dell’intera infrastruttura di rete. In questo modo hai a disposizione uno strumento
di business intelligence geografica centralizzato, da cui puoi estrarre tutti i report, gli schemi e i documenti
necessari a progettare, costruire, sviluppare e gestire la tua rete nel modo più efficace possibile.
FiberManager® mette a fattor comune la piattaforma GIS leader nel mondo con il modello dati e le funzionalità
smart implementate da una community network di aziende di telecomunicazioni operanti in vari paesi nel
mondo.
FiberManager® è una verticalizzazione della suite ArcFM® di Schneider Electric, di cui Sinergis è rivenditore
esclusivo in Italia.
www.sinergis.it
GEOMAX
works when you do
Anche nelle condizioni atmosferiche più avverse,
GeoMax fornisce le migliori soluzioni
prezzo-prestazioni, works when you do.
info@geomax-positioning.it - www.geomax-positioning.it