Geomedia_2_2006
Transform your PDFs into Flipbooks and boost your revenue!
Leverage SEO-optimized Flipbooks, powerful backlinks, and multimedia content to professionally showcase your products and significantly increase your reach.
✔ Un test di confronto fra carte
catastali e cartografia tecnica
✔ Il nuovo ortofotopiano di Venzia
✔ Un report dalla 9 a Conferenza
Italiana Utenti ESRI
✔ Intervista a Marcello Gaeta
✔ Tutorial sulla post
elaborazione GPS -6 a parte
✔ Navigare con precisione
nello spazio
Copyright © 2005 ESRI Italia S.p.A. Tutti i diritti sono riservati. Tutti i nomi e marchi di ESRI, sono nomi e marchi registrati da ESRI Inc.
FOCUS
6
18
Un test di confronto fra carte catastali e cartografia tecnica
DI GIORGIO BEZOARI, ATTILIO SELVINI
Catasto, GPS, Archivio misure e sistemi di riferimento
DI DOMENICO SANTARSIERO
MERCATO
Direttore
RENZO CARLUCCI
direttore@rivistageomedia.it
Comitato editoriale
FABRIZIO BERNARDINI, VIRGILIO CIMA,
LUIGI COLOMBO, MATTIA CRESPI,
MAURIZIO FAVA, SANDRO GIZZI,
LUCIANO SURACE, DONATO TUFILLARO
Direttore Responsabile
DOMENICO SANTARSIERO
sandom@geo4all.it
Hanno collaborato a questo numero:
PAOLO BARBIERI
FABRIZIO BERNARDINI
FULVIO BERNARDINI
VALENTINA BINI
GIORGIO BEZOARI
MARIO FONDELLI
ISABEL GRAMESÒN
VITTORIO GRASSI
LUIGI PROIETTI
MASSIMO RUMOR
DOMENICO SANTARSIERO
ATTILIO SELVINI
LAURA SEBASTIANELLI
Marketing e distribuzione
A&C2000 S.r.l.
Div. Geo4All
Via C.B. Piazza 24
00161 Roma
Tel. 06.44291362
Fax 06.44244965/06.97252602
E-mail: info@geo4all.it
Redazione e amministrazione
Via C.B. Piazza 24
00161 Roma
Tel. 06.44291362
Fax 06.44244965/06.97252602
Web: www.geo4all.it/geomedia
E-mail: geomedia@geo4all.it
Progetto grafico e impaginazione
DANIELE CARLUCCI
Condizioni di abbonamento
La quota annuale di abbonamento alla rivista per il 2006
è di € 45,00.
Il prezzo di ciascun fascicolo compreso nell'abbonamento
è di € 9,00. Il prezzo di ciascun fascicolo arretrato
è di € 12,00 . I prezzi indicati si intendono Iva inclusa.
L’abbonamento decorre dal 1° gennaio per n° 5 fascioli con
diritto di ricevimento dei fascicoli arretrati ed avrà validità per
il solo anno di sottoscrizione. L’editore comunque, al fine di
garantire la continuità del servizio, in mancanza di esplicita
revoca, da comunicarsi in forma scritta entro
il trimestre seguente alla scadenza dell’abbonamento, si
riserva di inviare il periodico anche per il periodo successivo.
La disdetta non è comunque valida se l’abbonato non è in
regola con i pagamenti. Il rifiuto o la restituzione dei fascicoli
della Rivista non costituiscono disdetta dell’abbonamento a
nessun effetto. I fascicoli non pervenuti possono essere
richiesti dall'abbonato non oltre 20 giorni dopo la ricezione
del numero successivo.
Editore
Domenico Santarsiero
Registrato al tribunale di Roma con il N° 243/2003
del 14.05.03 (già iscritto al Tribunale di Rimini N° 18/97
del 31.10.97)
12 Istituito l’Elenco Nazionale dei Restauratori - E’ on line la carta geografica unica della
Provincia di Ferrara - Villa Celimontana tra storia e geografia - Galileo GPS News -
La certificazione professionale del GIS - A Roma il Forum PA 2006 - Intergraph scelta
dall’ARGS cinese
22
28
32
34
37
36
45
REPORTS
Il nuovo ortofotopiano del Comune di Venezia nell’Infrastruttura dei dati
Territoriali di Base (ITB) DI P. BARBIERI, M. FONDELLI, L. PROIETTI, M. RUMOR
Il SIT del Comune di Rogliano DI V. GAGLIARDI, G. MARTIRANO, L. CITINO, P. MASTROIANNI
9 a Conferenza Italiani Utenti ESRI A CURA DELLA REDAZIONE
Un modello di catasto esportabile a 360° DI INSIEL SPA
GNSS, lo stato dell’arte in Italia A CURA DELLA REDAZIONE
INTERVISTA
42 Intervista a Marcello Gaeta topografo e tecnico di topografia
A CURA DELLA REDAZIONE
TUTORIAL
Tutorial GPS 6 a Parte - I programmi Pinnacle e Tools Office Software di
Topcon DI VITTORIO GRASSI
AZIENDE E PRODOTTI
Autodesk rivoluziona il mondo del GIS e della progettazione - Il portafoglio completo per
la gestione delle informazioni geospaziali e delle infrastrutture - Venus Express raggiunge
Venere - Precisione alla velocità della luce - Terza versione di Windows Live Local -
Gestire le reti tecnologiche con Net Mapper di Globo - Metacarta rilascia GTS Analyst -
Mappe degli incendi on line
TERRA E SPAZIO
50 Navigare con precisione nell’infinito (o quasi) DI FABRIZIO BERNARDINI
RUBRICHE
4 EDITORIALE
60 RECENSIONE
61 AGENDA
61 INDICE DEGLI INSERZIONISTI
ISSN 1386-2502
Stampa
IGER • Istituto Grafico Editoriale Romano - V.C.T.
Odescalchi, 67/a - 00147 Roma
Tel. 06/510774/1 - Fax 06/5107744
Gli articoli firmati impegnano solo la responsabilità
dell’autore. È vietata la riproduzione anche parziale del contenuto
di questo numero della Rivista in qualsiasi forma e
con qualsiasi procedimento elettronico o meccanico,
ivi inclusi i sistemi di archiviazione e prelievo dati,
senza il consenso scritto dell’editore.
Il Comune di Venezia, nell’ambito delle attività per lo sviluppo
del proprio Sistema Informativo Territoriale, ha messo a
punto e avviato la realizzazione di uno specifico progetto
per la costruzione di un’infrastruttura di dati territoriali di
base (ITB).
E
DITORIALE
Il buco nero dei GIS
non protegge l’ambiente
Il buco nero del GIS è la sua base cartografica.
E’ ormai diffuso un uso indiscriminato dei GIS che richiama la nostra attenzione per
lanciare un appello a tutti gli operatori del settore volto ad evitare l’affidamento tout
court ad un software del delicato problema delle proiezioni cartografiche e dei loro
riferimenti.
Siamo di fronte sempre di più ad un uso indiscriminato dei “projection tools” e della
“coordinate transformation” che portano a gravi errori di sovrapposizione nella
stratigrafia cartografica all’interno dei GIS.
La sola tentazione che resti è affermare come ufficiale unicamente la Cartografia
stampata, per di più considerata tale solo se provvidenzialmente dotata del timbro
dell’Amministrazione di provenienza o dell’Ente proprietario.
E’ opinione comune e riposta speranza che gli Uffici Tecnici dei Comuni procedano
sempre a stampare le certificazioni di destinazione urbanistica su carta, perché il
giorno in cui dovessero rilasciarli all’interno dei sistemi Gis verrebbe a mancare forse
del tutto la garanzia protocollare del tracciato informatizzato, favorendovi l’introduzione di quegli
errori che procedono prevalentemente a danno della salvaguardia del territorio nell’utilizzazione e
nel riassetto indiscriminato della sua configurazione. Sarebbe a dire l’evidenza delle delimitazioni
di aree archeologiche e d’interesse storico e paesistico, come le bellezze panoramiche, i parchi
naturali protetti, le zone di rara stratificazione geologica e vulcaniche, etc. etc.
Potranno compiersi o meglio perpetuarsi con sempre maggiore facilità gli scempi ambientali in
barba alla legge Galasso e al suo delicato sistema di protezione morfogenetica territoriale, meno
rigida ma anche meno praticabile con le modificazioni introdotte dal codice Urbani, la cui
attuazione proroga e stempera l’efficacia dello strumento di delega in materia di concessioni edilizie soggette a
parere del MIBAC, fittiziamente assimilate alle formule del condono e del silenzio-assenso nelle aree protette e
nelle zone limitrofe e di rispetto dove i vigenti vincoli archeologici e ambientali o territoriali sono più
insormontabili, piuttosto che arginare finendo invece per favorire gli abusi come la costruzione del Centro
Leonardo a Roma. La distanza di 300 metri da un corso d’acqua è inopinabile, eppure chissà se architetture
massificate come quella del Centro sul Tevere, sorto nella zona protetta dello splendido porto di Traiano, del
Tevere con il suo ecosistema e con il sistema aeroportuale dell’aeroporto di Fiumicino, siano state autorizzate
sulla base di certificazioni ‘adottate’ da ottimi sistemi GIS.
Sistemi in cui spesso si sovrappongono cartografie realizzate con criteri incerti nella disinformazione generale
degli operatori in merito alla loro proiezione e al loro ‘datum’.
Basti pensare alle migliaia di cause avviate in seguito agli adeguamenti per l’ampliamento delle nostre
Autostrade, che sulla base di errate certificazioni portano ad espropri di porzioni di terreno “ritenute” confinanti
all’area autostradale con elenchi particellari spesso completamente sbagliati.
Il problema è evidente e nel nostro paese spesso ignorato, poichè si continua a pensare al GIS come ad un
sistema informatico, realizzato da informatici, cioé a dire con assoluta non curanza degli aspetti geodetici,
cartografici e topografici.
Il tema di questo numero affronta il problema catastale visto da autori con una chiara competenza nel settore
geodetico, che analizzano un confronto tra carte catastali e cartografia tecnica. Trova particolare rilievo inoltre
l’ultima realizzazione cartografica del Comune di Venezia con il nuovo Ortofotopiano all’interno della
“infrastruttura dei dati di base territoriali”. Una realizzazione che si ricollega alla prima realizzata nel 1910
una cui immagine è visibile all’interno dell’intervista ad un operatore dell’Ex Istituto di Topografia e Geodesia di
Roma.
Buona lettura
Renzo Carlucci
Lettere alla Redazione di Geomedia possono essere spedite a: Redazione GEOmedia, via mail all’indirizzo
redazione@geo4all.it, oppure via web all’indirizzo www.geo4all.it/geoportal
4
GEOmedia 2 2006
Trasporti
Telecomunicazioni
Acqua
Energia
Territorio
Ambiente
Tante soluzioni, un’unica visione
Http://www.Intergraph.it
F
OCUS
Uno dei problemi più gravi che
affligge l’Italia (peraltro madre di
cartografi, topografi e geodeti) è
la dubbia qualità delle mappe
catastali che purtoppo ad oggi
versano in uno stato ancora
lontano dal poter essere
classificata come cartografia di
base, sconfinando invece in una
sorta di cartografia tematica che
affronta appunto il tema della
proprietà e dei tributi connessi.
Il problema è sentito da
decenni e già nel 1945 il CNR
aveva proposto l’intera
riorganizzazione del servizio
geografico dello stato
proponendo che gli sforzi dei
vari enti cartografici (IGM,
Catasto, Aeronautica, Marina e
Geologico) venissero uniti sotto
un’unica egida per la
realizzazione della Cartografia
dello Stato.
Purtroppo abbiamo visto che
questo non è successo e i
problemi sono oggi venuti tutti
al pettine così come vengono
evidenziati nel presente articolo.
Generalità
Col Decreto Legislativo 112/1998 (detto
Bassanini) vennero conferite ai Comuni
le funzioni di conservazione,
utilizzazione ed aggiornamento degli
atti catastali. Si fa partire da tale
provvedimento il processo di
decentramento del Catasto, processo
ulteriormente specificato dal D.M.
28/1998 e dal successivo Regolamento
dello stesso anno, emanato con D.P.R.
che regola la revisione generale delle
zone censuarie, delle tariffe d’estimo,
delle unità immobiliari e delle
commissioni censuarie. Il D.P.C.M. del
19/12/2000 fissava poi la data del 26
febbraio 2004 come termine massimo
per ultimare le operazioni di
decentramento, stabilendo con altro
decreto della presidenza del consiglio
dei ministri del 21/3/2001 le risorse
finanziarie ed il contingente necessari
per attuare il processo. Tale termine è
stato del tutto inosservato da gran
parte dei più di ottomila comuni
italiani, per cui si è resa necessaria
una proroga di due anni, che a
giudizio degli scriventi sarà parimenti
inosservata, per un cumulo di ragioni
fra le quali la resistenza del personale
degli ex-UTE a trasferirsi nelle nuove
sedi comunali, unita a pari resistenza
dei piccoli e medi comuni, del tutto
impreparati ad assumersi un siffatto
Un test di confronto
fra carte catastali e
cartografia tecnica
onere, nonché la difficoltà di realizzare
il collegamento informatico fra i
comuni ed il sistema catastale centrale.
Solo fra i pochi, il grande Comune di
Milano ha posto in atto il
decentramento, con la formazione del
polo catastale sito in Via Catone 24 e
costituito, così come prevedono i
decreti sopra citati, da un front office
con funzioni di interfaccia per l’utente
ed attività di sportello per la
consultazione, la certificazione e
l’acquisizione di documenti e pratiche,
da un back office con il compito della
gestione degli atti e l’aggiornamento
della banca sia informatica che
cartacea ed infine da un archivio
conservante il solo materiale cartaceo.
Inoltre la città ha nel frattempo
provveduto alla redazione di una carta
numerica in scala 1:1000 (della cui
commissione di collaudo hanno fatto
parte i due presenti autori)
utilizzandola anche come supporto per
l’aggiornamento degli allegati alla
mappa in pari scala, ed innanzi tutto
per la verifica dei molti Punti Fiduciali
(PF) in essa presenti: molti di questi
sono risultati affetti da vistosi errori
oppure sono posti in posizioni che li
rendono inutilizzabili. Ciò per
trascuratezza evidente di parecchi
redattori dei tipi di frazionamento da
un lato, per una scelta frettolosa e
letteralmente inopinata (ovvero non
pensata) di non meno funzionari
dell’Agenzia del Territorio locale
dall’altro lato.
Le ragioni del decentramento, a
tutt’oggi realizzato da ben pochi
Comuni oltre a Milano, sono da
ricercarsi all’interno di diversi fattori
quali le migliori informazioni catastali
qualitative e quantitative da fornire
all’utente, allineamento degli archivi
catastali con la realtà territoriale
(quindi con le carte tecniche
comunali), completamento della
revisione degli estimi, con il
conseguente recupero dell’evasione
di Giorgio Bezoari, Attilio Selvini
fiscale, l’incremento delle entrate
statali e comunali (ICI), il
miglioramento dei servizi erogati, la
maggior efficienza nelle scelte dello
sviluppo del territorio.
Le ambizioni sottese da questo cumulo
di provvedimenti, sono state sinora in
gran parte disattese e purtroppo lo
saranno con buona probabilità almeno
nel futuro prossimo.
L’ostacolo principale ai primi due
presupposti sopra indicati sono
soprattutto le condizioni del più
importante documento catastale, ovvero
il complesso degli oltre trecentomila
fogli di mappa. Nonostante gli sforzi
dell’Agenzia del Territorio (ed ancor
prima, del Dipartimento del Territorio,
successore di scarsa durata della
vecchia ed autorevole Direzione
Generale del Catasto e dei SS.TT.EE.) i
trecentomila fogli sono in condizioni
deplorevoli. La non ancora ultimata
digitalizzazione ed il loro
aggiornamento con le varie edizioni
del PREGEO (siamo all’ottava versione)
e per il catasto dei fabbricati col
DOCFA, uniti all’arretrato, al mancato
completamento della trasformazione da
proiezione di Cassini-Soldner a
gaussiana e ad altri non minori fattori,
hanno in realtà contribuito a fare della
cartografia catastale un qualcosa di
assai diverso dalla rappresentazione
Figura 1
6
GEOmedia 2 2006
F OCUS
Figura 2
attuale (sia pure solo bidimensionale)
del territorio. Di ciò dà conto anche il
sito ufficiale della nota “Intesa fra
stato, regioni ed enti locali”: se ne
vedano le note relative al catasto, dalle
quali dissentiamo solo allorché vi si
dice che la spesa per il rifacimento
dell’intera cartografia catastale non è
sopportabile; a questo proposito si
veda più oltre in questo stesso articolo.
Si deve poi aggiungere che la pretesa
di aggiornare la attuale cartografia del
catasto, partendo dal particolare per
arrivare al generale, ci sembra quanto
meno discutibile. Ciò significa
capovolgere una procedura in atto sin
dal Settecento, da quando cioè il
governo austriaco si accorse della
assurdità di ricavare una carta
generale della Lombardia nella scala di
un pollice per 1200 tese (1:86400)
assemblando i 23781 fogli dell’ottimo
catasto di Carlo VI, rilevati
isolatamente e quindi non inseriti in
una adatta rete (per usare il termine
oggi corrente, non georeferenziati).
Saggiamente il governo imperiale e
regio incaricò allora gli astronomi di
Brera Reggio, Oriani e De Cesaris, di
realizzare la triangolazione del
territorio interessato, dimensionandola
sulla Base di Somma appositamente
misurata. Milioni di tipi di
frazionamento approvati dal tempo
della nota circolare 2/88 sino ai nostri
giorni, attendono infatti ancora di
essere trasformati da coordinate più o
meno locali a coordinate gaussiane del
sistema italiano. Lo saranno mai? E
con riferimento a quale rete di
dettaglio, essendo disponibile oggi solo
la (ottima) rete primaria IGM95, coi
suoi 1236 punti distanti in media 20
km? Un interessante documento a tale
riguardo è quello di (Di Filippo et alii,
2005): vi si apprende che la Direzione
Centrale del Catasto sta sperimentando
qua e là, per trovare la via
giusta:“…per un nuovo futuro della
cartografia catastale”. Ci auguriamo
che tale futuro sia raggiungibile in
tempi accettabili, anche se siamo
piuttosto scettici al riguardo. La
proposta che indicheremo alla fine, ci
sembra la più ragionevole e sensata
che oggi si possa sottoporre al mondo
scientifico, in assenza di una
Commissione Geodetica (l’Italia ha il
triste primato di esserne priva dalla
metà degli anni Settanta, unica in
Europa!). Anche se ben sappiamo come
tale proposta travalichi la pur buona
volontà della predetta Direzione
Centrale, dipendendo totalmente la sua
eventuale realizzazione dalla volontà
del legislatore, oggi come non mai “in
tutt’altre faccende affaccendato”.
Cogliendo l’occasione di una tesi di
laurea in architettura (Albani & Fonte,
2004)) gli autori, che ne hanno curato
la relazione, dopo averne suggerito il
contenuto, hanno messo a confronto
un foglio della mappa catastale, così
come viene oggi fornito, su richiesta,
ad un qualunque professionista
abilitato, con un foglio in pari scala
della carta tecnica comunale,
recentemente realizzata e collaudata.
Naturalmente il foglio fornito
dall’Agenzia del Territorio, ufficio di
Varese, è in forma cartacea, per cui è
stato necessario trasformarlo in
formato digitale .TIFF, per il
tramite dello scanner HP Designjet
420 scegliendo la risoluzione di 400
dpi, corrispondente ad una griglia con
passo di 0,0635 mm. Allo scopo di
averne una edizione in forma
vettoriale, indispensabile per il
confronto con la carta tecnica digitale
del comune interessato, si è sottoposto
il foglio di mappa così ottenuto in
forma raster, a trattamento con
software RasterDesign di Autodesk, poi
salvato in formato .CAL e quindi
vettorializzato con AutoCAD 2004. Si
sorvola qui sulle non poche difficoltà
incontrate nelle varie parti
dell’operazione, a cominciare dai vari
difetti grafici del foglio, contenente
variazioni e correzioni riportate a
matita dai tecnici catastali, per finire
col fatto che AutoCAD converte
automaticamente le immagini in
elementi da soli 72 dpi: la fig. 1 ne
dà una dimostrazione.
Va ora specificato che il test
in oggetto riguarda il territorio di un
Comune ben noto, Somma Lombardo
(guarda il caso, quello stesso della
base settecentesca degli astronomi di
Brera), sul quale si trova per più
della metà l’aeroporto
intercontinentale di Malpensa:
un territorio quindi non
indifferente dal punto di
vista urbanistico anche per via
delle profonde trasformazioni
della viabilità aeroportuale che
lo hanno interessato nell’ultimo
decennio, così come per
effetto dell’antropizzazione
della brughiera (Selvini et alii, 1993).
La carta tecnica comunale di Somma,
realizzata alla fine del ventesimo
secolo e collaudata dai presenti autori,
è di tipo digitale e forma la base del
SIT locale; come vedremo più oltre, il
rapido mutamento del territorio ha
già, per il vero in minima parte, reso
necessario un primo aggiornamento.
Il foglio di questa carta è stato messo
a disposizione dall’amministrazione
comunale in formato DWG; di fatto
sono stati impiegati quattro fogli della
carta tecnica, allo scopo di avere la
porzione e le dimensioni confrontabili
con quelle del foglio di mappa,
essendo (comprensibilmente) il taglio di
questa carta diverso da quello della
carta catastale. L’operazione di
collegamento delle necessarie parti dei
quattro fogli non è stata difficile, dato
il formato digitale e non
semplicemente cartaceo del
documento: la fig. 2 è ripresa dal
quadro d’unione dalla carta tecnica del
Comune e la porzione in verde mostra
la posizione del foglio catastale usato
per il confronto quantitativo e
qualitativo.
Il confronto
La cartografia catastale della provincia
di Varese, cui appartiene il Comune di
Somma Lombardo, è già in proiezione
di Gauss-Boaga; ciononostante vi è una
non trascurabile differenza di posizione
ed orientamento (la georeferenziazione
cui si è più sopra accennato) rispetto
alla carta tecnica comunale. In altri
termini le molte manipolazioni subite
dalla carta catastale (che è in realtà
copia delle copie del vecchio e già
rammentato catasto austriaco della
Lombardia) non permettono
analiticamente la sovrapposizione con
una moderna carta tecnica alla stessa
scala, senza pesante adattamento. Ciò
corrisponde, come è noto, ad una
rototraslazione a vari parametri, con
variazione di scala anche sui due assi:
dell’argomento riferito specificamente
alle carte catastali si sono occupati
molti autori (S. Dequal et alii, 1999;
GEOmedia 2 2006 7
F OCUS
R. Radicioni, A. Stoppini, 1999). Tutto ciò
non è così immediato come sembrerebbe,
dovendosi utilizzare punti omologhi delle
due carte dei quali siano note le coordinate
(piane) nei relativi sistemi. Nel caso in
esame, si è impiegato il software GCARTO,
con trasformazione affine a sei parametri.
Ciò ha richiesto la formazione di due
sistemi identici sulle due carte, la scelta dei
punti omologhi (numerosi, così da assicurare
la dovuta ridondanza) e la misura delle
relative coordinate. Il riconoscimento dei
punti omologhi sulle due carte ha richiesto
molta cura; si è presa visione anche della
mappa catastale di impianto, verificando con
sopralluoghi l’odierna esistenza di manufatti
certamente presenti all’epoca del rilevamento
originario della carta, come per esempio la
chiesa di S. Rocco e la parte vecchia del
cimitero del capoluogo. In totale sono state
utilizzate 46 coppie di punti: la fig. 3
mostra con due esempi la cura con cui le
coppie sono state individuate. La fig. 4
infine è il diagramma a blocchi del processo
di trasformazione affine.
In definitiva si sono avuti i seguenti
prodotti:
• la carta catastale rototraslata e variata di
scala sui due assi,
• il file in formato .txt con gli scarti sui
punti omologhi.
Figura 3
Figura 5
Figura 4
8
GEOmedia 2 2006
Figura 6
F OCUS
Figura 7 Figura 8
Figura 9
Figura 10
Figura 11
Purtroppo gli scarti quadratici medi
della carta catastale, rispetto a quella
tecnica ritenuta priva di errore (le
tolleranze di quest’ultima come da
capitolato e collaudo sono assai basse!)
sono risultati di 2,31 m e di 1,65 m
rispettivamente lungo X e lungo Y. Il
grafico di fig.5
rappresenta in blu gli
scarti in X, in rosso
quelli in Y; si vedano i
forti valori di taluni
scarti, del tutto
incompatibili con un
possibile uso civile e
non puramente fiscale
della carta catastale.
La fig. 6 indica gli
scarti sovrapposti: in
un caso il vettore
supera i 10 metri! In
fase di trasformazione,
i punti con gli scarti
maggiori (punti 8, 9,
13, 15, 16, 25, 38)
non sono stati impiegati nel calcolo.
L’analisi qualitativa dei risultati del
confronto è decisamente sconfortante:
la verifica compiuta sul territorio ha
evidenziato che la geometria e la
topologia vere sono quelle della carta
comunale; le molte omissioni di edifici
e di strade nella mappa sono dovute
al mancato accatastamento ed alla
redazione a tavolino dei troppi tipi di
frazionamento che vanno
dall’immediato secondo dopoguerra
sino agli anni Novanta. Va purtroppo
sottolineato che il Comune di Somma
Lombardo (del resto così come altri
Comuni) non ha mai redatto i tipi di
frazionamento per le opere pubbliche,
dalle strade all’ampliamento del
cimitero maggiore del capoluogo, sino
alla costruzione del nuovo campo
sportivo e della piscina comunale, così
come si vedrà dalle prossime
immagini. In modo specifico, mancano
in mappa i seguenti elementi:
edifici importanti datati da almeno due
decenni o più, come la menzionata
piscina di via Palestro, i complessi
residenziali lungo via Goito e corso
della Repubblica, nuovi impianti
industriali in via del Rile e via Goito
ed in questa via addirittura la caserma
dei Carabinieri, il raddoppio del
GEOmedia 2 2006 9
F OCUS
Figura 12 Figura 13 Figura 14
cimitero del capoluogo, il campo
sportivo. Le figure 7, 8 ed 9 indicano
per l’appunto alcuni di questi edifici,
dalle dimensioni non certo trascurabili.
Circa le strade, mancano via Carlo
Alberto Dalla Chiesa, via San Fermo,
la rotonda della chiesa di San Rocco,
l’altra rotonda fra via del Rile e corso
della Repubblica.
Le figure 10 e 11 mostrano, col noto
grafico a torta, gli edifici mancanti
sulla mappa il primo, quelli non
presenti sulla carta tecnica che risale a
soli sei anni fa il secondo: il che
dimostra la necessità che una carta
fungente da database topografico per
un sistema informativo, venga
aggiornata in modo pressoché
continuo,
se non
si vuole che perda rapidamente la sua
efficacia.
Si veda adesso la fig. 12; si tratta
delle due immagini della stessa mappa,
prima e dopo la trasformazione affine
a sei parametri: non è difficile notare
sia la rotazione che la traslazione, che
intercorrono fra la posizione della
mappa originaria e quella della stessa
carta georeferenziata nel sistema GB-
Roma 40. La figura 13 riguarda invece
il best fitting fra carta catastale e
carta tecnica; non sono poche le
differenze di posizione fra strade ed
edifici esistenti su entrambi i
documenti.
Le figure 14 e 15 sono altamente
significative: sottolineano a due ed a
tre dimensioni la preoccupante
mancanza di aggiornamento della
mappa catastale; di quella mappa che
dovrebbe servire anche a scopi civili,
oltre a quelli fiscali, in altri termini a
dirimere contestazioni su confini
incerti, ad accertare le distanze dai
confini degli edifici, a valutare se vi
siano o meno abusi di tipo urbanistico
ed edilizio. Del resto il legislatore già
oltre mezzo secolo fa, in un periodo
temporale nel quale pur si praticavano
ancora le commendevoli lustrazioni,
aveva stabilito (art. 950 del Codice
Civile) che nell’accertamento dei
confini si dovesse, in ordine, tenere
conto degli atti notarili e dei loro
eventuali allegati, dei segni del
possesso, e solo in mancanza di questi,
di quanto riportato sulla mappa. Di
sicuro però non aveva tenuto conto del
drammatico stato di arretramento di
questo documento dello Stato, di uno
Stato che è rapido nell’imposizione di
sempre nuovi balzelli sulla proprietà
ma che poco si cura della geometria
del territorio. E pensare che già il
decreto reale di Carlo VI del 1718, sui
suggerimenti di Giacomo Marinoni,
matematico di Corte, aveva per la
prima volta nella storia fatto giustizia
delle inique imposte dettate sulla base
dei catasti descrittivi od onciari e non
invece rigorosamente geometrico –
particellari!
Conclusioni
In conclusione si potrebbe
correttamente affermare che trattandosi
di uno solo dei trecentomila fogli di
mappa, tale campione potrebbe
sembrare assai poco significativo; esso
in realtà trova sostegno in molte altre
indagini condotte dagli autori su
mappe del varesotto e del milanese
(Poggi & Tenconi, 2004), quindi di
territori altamente antropizzati ma non
solo: si tratta di territori nei quali il
catasto ha operato e sta operando
anche pesantemente per rabberciare la
sua cartografia. Il sostegno nei
confronti di questo campione è peraltro
rinforzato da molte altre considerazioni
dovute ad altri tecnici e reperibili in
molteplici pubblicazioni.
La conclusione non può che essere
quella già contenuta in altri lavori dei
presenti autori (Selvini, 2003): con un
atto di coraggio, si rifaccia tutta la
cartografia catastale, così come altri
stati europei hanno fatto e stanno
facendo; le moderne tecniche di
rilevamento, in unione all’utilizzo delle
molte carte comunali di recente
realizzazione, permetterebbero di
completare questa opera gigantesca in
meno di un decennio, a costi
sicuramente sopportabili da parte del
bilancio dello Stato. Si avrebbe così
finalmente una cartografia catastale
aggiornamento in grado di assicurare
allo Stato delle entrate perequate e
certe (così come voleva la Legge
Messedaglia del 1886). La Carta che,
ancora una volta finalmente, servirebbe
da base per dare al catasto italiano
quella valenza probatoria che in quasi
un secolo e mezzo è stata molte volte
annunciata ma non mai realizzata. Si
darebbe poi la giusta quantità di
ossigeno alle non poche aziende
italiane del rilevamento e della
10
GEOmedia 2 2006
F OCUS
Figura 15
geomatica, oggi costrette per un
cumulo di ragioni a ribassi
improbabili su altrettanti improbabili
bandi e capitolati ripartiti fra una
miriade di eEnti Locali. La loro
capacità produttiva è già da oggi
sicuramente in grado di realizzare
l’opera. Vogliamo fornire qualche dato
quantitativo? Le aziende italiane di
fotogrammetria e cartografia sono
pressappoco una sessantina; di queste
due terzi sono aderenti ad ANIAF e
UNIGEO, associazioni di categoria di
tipo anche sindacale, ed hanno sui
relativi siti Internet dati di
strumentazione e di produzione
probanti. Una delle aziende libere è da
sola un colosso e dalla fine del secolo
ventesimo riprende periodicamente
l’intero territorio italiano a scala
adatta per ricavarne ortofoto al
diecimila ed a colori (per esempio,
l’ortofotocarta della Lombardia è su
Internet). Ipotizzando il rilevamento
fotogrammetrico al 2000 di 25 milioni
di ettari della penisola (la parte
restante è costituita da creste montane
e comunque da zone non antropizzate)
il costo globale dell’operazione
cartografica, reti comprese, può oggi
essere quantificata in un miliardo di
Euro, ovvero in 40 Euro all’ettaro:
valore che ci sembra sicuramente
remunerativo soprattutto se
confrontato con certi appalti registrati
nell’ultimo quinquennio. Senza contare
che potrebbero essere utilizzate molte
delle cartografie comunali di recente
formazione, naturalmente dopo attento
esame e dopo la loro traduzione in
carta catastale. Le operazioni di tipo
fiscale, quali la definizione delle
particelle, la classificazione, il
classamento e l’attribuzione dei redditi
sarebbero semplificate dall’esame sia
delle molte ortofotocarte in atto, sia
dalla stessa fotointerpretazione dei
fotogrammi a colori (Bezoari et alii,
1988). Ciò rappresenta indubbiamente
un forte onere aggiuntivo al costo
sopra indicato del puro rilevamento
cartografico con restituzione numerica;
ma sicuramente ne varrebbe la pena.
Una parte di queste operazioni che
costituiscono la formazione di un vero
e proprio DB sia a fini fiscali che a
fini giuridici, attestanti la proprietà e
non il semplice possesso dei fondi sia
rustici che urbani, potrebbe essere
messa a carico dei Comuni che ne
trarrebbero vantaggio ai fini delle
imposte locali. Altra parte potrebbe
essere addossata ai proprietari, che
sarebbero così assicurati, una volta per
tutte, sulla entità geometrica e fiscale
dei propri beni; qualcosa del genere
venne proposto, nella seconda metà
dell’Ottocento, da Ignazio Porro che
suggerì infatti di rilevare a fini sia
giuridici che fiscali tutta l’Italia di
allora. Egli propose di ripartire la
spesa fra lo Stato ed i proprietari:
anzi lo Stato avrebbe dovuto
concorrere col solo 10% del totale,
mentre il 90% sarebbe dovuto restare
a carico dei proprietari ai quali
sarebbero state consegnate le
coordinate cartografiche dei punti di
confine dei loro fondi! (Monti, Selvini,
2003).
Rifacendo oggi geometria e aspetto
giuridico del sistema informativo
catastale, anche il continuo
contenzioso sul ripristino delle linee di
confine, purtroppo specifico dell’Italia,
verrebbe così ridotto a dimensioni
minime, come del resto è negli altri
paesi dell’UE. La realizzazione di una
tale opera farebbe inoltre giustizia
delle molte variazioni reali intervenute
negli ultimi trent’anni, a causa delle
quali si vedono vigneti tramutati in
incolti, seminativi divenuti aree
fabbricabili e via di questo passo; il
tutto, come già visto, non censito per
decenni. Crediamo che con le adatte
cautele l’intero lavoro potrebbe essere
completato in meno di dieci anni: con
facilmente immaginabile beneficio sia
della perequazione delle imposte, sia
del respiro dato alle aziende di
rilevamento nonché al loro indotto e
quindi all’economia generale dello
Stato.
Bibliografia
Albani, A., Fonte, M. “Esperimento di
confronto tra cartografia
fotogrammetrica e cartografia
catastale...”
Tesi di laurea in architettura, Milano
2005.
Bezoari, G., et alii “Un esperimento di
aggiornamento delle qualità di coltura
del catasto Terreni a mezzo della
fotogrammetria aerea”.
Rivista del Catasto e dei SS.TT.EE., n.1,
1988.
Dequal, S. et alii “Comparison of
National Guideline for Technical and
Cadastral Mapping in Europe”.
OEEPE, Off. Pubbl. n.36, 1999.
Di Filippo, S., et alii “Le attività di
frontiera per un nuovo futuro della
cartografia catastale”.
Rivista dell’agenzia del Territorio, n. 2/
2005.
Di Filippo, S., et alii “L’evoluzione del
nuovo sistema cartografico del Catasto”.
Atti ASITA, Verona, 2003.
Poggi, M., Tenconi, D. “La cartografia
numerica: il caso di Milano con
riferimento alla conservazione del
Catasto affidata ai comuni”.
Tesi di laurea in architettura, Milano
2004.
Radicioni, R., Stoppini, A. “Utilizzo di
metodologie geodetiche per il
coordinamento della Cartografia
catastale con le carte tecniche
regionali”.
Boll. SIFET, n.4,1999.
Selvini, A. “La conservazione del
catasto ed i comuni”.
Boll. SIFET, n.3/2003.
Selvini,A. et alii “L’antropizzazione della
brughiera della Malpensa dal secondo
dopoguerra ad oggi”.
Rivista del Dipartimento del Territorio,
n.3/1993.
Monti, C., Selvini, A. “Ignazio Porro, il
precursore dei modelli digitali del
terreno”.
Rivista dell’agenzia del Territorio,
n.1/2003).
Autori
GIORGIO BEZOARI*
ATTILIO SELVINI**
*Politecnico di Milano,
tel.02/23996515, Fax 02/23996550,
E-mail giorgio.bezoari@polimi.it
**Politecnico di Milano,
tel.02/23996532, Fax 02/23996550,
E-mail attilio.selvini@polimi.it
GEOmedia 2 2006 11
M
ERCATO
Istituito l’Elenco Nazionale dei Restauratori
Si prospettano grandi cambiamenti nel mondo dei restauratori italiani
che, a partire dalla fine di quest’anno, vedranno riconosciuta la loro
professione attraverso la formazione di un loro elenco gestito e controllato
direttamente dal Ministero per i Beni e le Attività Culturali. Fino ad oggi,
l’accesso alla professione di restauratore in Italia era aperta a chiunque,
sia che ci si fosse formati in centri specializzati o che si provenisse invece
da corsi regionali o che si fosse stati iniziati a tale attività in qualità di
apprendisti. Coloro che quindi intenderanno esercitare questa professione
in futuro si troveranno dinnanzi un ostacolo che permetterà l’iscrizione all’elenco solo a quelli che avranno una formazione
specifica, ben definita da appositi decreti predisposti dal Ministero della Pubblica Amministrazione in concerto con il
Ministero per i Beni e le Attività Culturali. Anche l’insegnamento della materia subirà dei radicali cambiamenti dal momento
che potrà essere impartito solo nelle scuole di alta formazione e studio, in centri anche interregionali e in strutture pubbliche
o private esclusivamente accreditate dallo Stato. “I restauratori italiani - ha ricordato l’ On. Buttiglione - hanno finalmente
visto riconosciuti i loro diritti con l’equiparazione del diploma conseguito in scuole statali al diploma di laurea. Con la nascita
dell’elenco dei restauratori si aprono nuove opportunità strategiche per il mercato di questo settore che ci vede all’avanguardia
nel mondo”.
www.beniculturali.it
(Fonte: Redazionale)
E’ on line la carta geografica unica della Provincia di Ferrara
La realizzazione della carta geografica unica della Provincia di Ferrara
costituisce un esperimento unico nel suo genere nato con l’intento di
coordinare maggiormente i diversi enti che hanno il compito della gestione
del territorio in cui sono insediati, attraverso l’uso della cartografia su supporto
elettronico.
Lo strumento, nasce per mettere in condivisione tutte le informazioni relative
alle cartografie di base del territorio; la sua attivazione permetterà inoltre
una maggiore efficacia nella lotta all’evasione fiscale. Tra le tante informazioni
che sarà possibile reperire sulla carta geografica unica vi saranno
mappe, fogli catastali, immagini satellitari, reti idriche e del gas, reti fognarie,
stradali e ferroviarie. Inoltre saranno presenti le numerazioni civiche dei
fabbricati, banche dati ambientali, carte territoriali regionali, la rete geodetica
nazionale e ortoimmagini a colori. Il progetto per la CGU della
Provincia di Ferrara (disponibile nella sezione Ambiente e Territorio del portale
della Provincia di Ferrara). Avviato 7 anni fa, il progetto per la realizzazione
della carta ha visto coinvolti 26 Comuni della Provincia e 17 tra enti,
consorzi, e aziende di servizi pubblici e private. Enti e amministrazioni utilizzeranno
lo strumento per condividere più e meglio, nonché con maggiore
velocità e semplicità, i dati generati, al fine di gestire le proprie pratiche e
procedure, ma anche per effettuare scelte ed interventi di politica territoriale.
Configurata come un vero e proprio Sistema Informativo Territoriale, la
soluzione permetterà un ragionamento sul governo del territorio, sia a livello
di servizi che di fiscalità locale, anche per quanto concerne gli aspetti di
recupero dell’evasione.
La collaborazione tra Regione Emilia Romagna, Provincia di Ferrara e Consorzi di Bonifica nella provincia di Ferrara, ha
permesso l’accordo tra diversi Enti, locali e nazionali, operanti nel territorio della Provincia di Ferrara, trovando una identica
linea di intervento nel contesto della condivisione dei dati.
Con la realizzazione di questa iniziativa, la Provincia di Ferrara si pone come il primo Ente che realizza l’aggiornamento
della banca dati catastale (alfanumerica e cartografica) a livello provinciale, coinvolgendo tutti i Comuni del proprio territorio,
esprimendo appieno la volontà di essere il promotore dell’iniziativa e convinto assertore della necessità della condivisione/gestione,
fra gli Enti territoriali, di queste archivi.
www.provincia.fe.it
(Fonte: Redazionale)
12
GEOmedia 2 2006
Villa Celimontana tra storia e geografia
M ERCATO
IIl 2 ed il 3 giugno si è svolta a Villa Celimontana, a Roma, una mostra dedicata
a “Libri Geografici Rari, Diari di Viaggio, e Atlanti Pubblicati a
Roma”, organizzata dalla Biblioteca della Società Geografica Italiana nell’ambito
delle manifestazioni del World Book Capital promosse
dall’UNESCO. L’incantevole sede di Palazzetto Mattei e della sua biblioteca
hanno ospitato alcune teche contenenti volumi dati alle stampe tra il XVI ed
il XX secolo; nella prima sala si sono potuti così ammirare volumi quali quello
di Leandro di Santa Cecilia (1757) dedicato ai viaggi che, secoli fa, hanno
spinto i padri pellegrini nelle lontane terre d’oriente riportando in Europa
incredibili testimonianze sia a livello di costume e cultura che a livello zoologico
o come quello di Pietro della Valle che, nel XVI secolo, intraprese un pellegrinaggio
in Terra Santa che ben presto si trasformò in un viaggio sentimentale-scientifico
portandolo fino ad arrivare in India. Interessanti l’
“Itinerario Italiano, o sia Descrizione dei Viaggi per le Strade più Frequentate
alle Principali città d’Italia”, (1818) una sorta di navigatore dotato di cartine
aggiornate nato per aiutare i primi turisti borghesi con informazioni sui
mezzi di trasporto, i luoghi di sosta e gli alberghi presenti in varie città italiane.
Più specificatamente tecnico, invece, il volume di Francesco Carrara
“La caduta del velino nella Nera” del 1779, esemplificativo del crescente interesse
per la dinamica dei corsi d’acqua che diede luogo ad una vera e propria
letteratura tecnica, già a partire dagli ultimi secoli del Medioevo. Presente
“La Cosmographia Universale” di Sebastian Münster (1575) forse la più celebre
enciclopedia geografica del Rinascimento grazie all’abbondanza di illustrazioni
di ogni tipo sulle città ed i paesaggi, i tipi umani, le particolarità
botaniche e zoologiche delle varie parti del mondo allora conosciuto. La
seconda sala, invece, era dedicata ai migliori editori di carte geografiche ed
erano esposte interessantissime carte dell’Andalusia (1696), della Penisola
Indiana, del Lazio (1696 anch’essa) ed un affascinante “Atlante dell’Antichità
Classica” di Cristophe Keller datato 1774. Una iniziativa interessante che
meriterebbe di essere riproposta per avvicinare gli appassionati alle origini
avventurose della scienza cartografica ma non solo. Ha chiuso la mostra, il 3
giugno, un concerto della Banda Musicale dell’Esercito Italiano, piacevolmente
seguito da una folta platea.
www.societageografica.it
(Fonte: Redazionale)
GEOmedia 2 2006 13
M ERCATO
Galileo G
Galileo GPS News
2004 2006 2008
2011
VALIDAZIONE LANCIO SATELLITI OPERATIVITA’
Mesi all’operatività
di Galileo
Una costellazione di 30 satelliti
Una volta che il sistema Galileo sarà pienamente operativo, sopra le
nostre teste orbiteranno, a 23.222 km di altezza e quindi ad una
Medium Earth Orbit (MRO), la bellezza di 30 nuovi satelliti. Dieci di essi
occuperanno rispettivamente i tre piani orbitali inclinati ad un angolo di
56° rispetto all’equatore. I satelliti saranno dispiegati lungo ciascun
piano e ci vorranno 14 ore affinché compiano una intera orbita terrestre.
Il decimo satellite fungerà da riserva nel caso qualcuno dei satelliti per
le operazioni dovesse fallire.
Con 30 satelliti in orbita la probabilità che tutti (più del 90%) siano
coperti in qualsiasi punto del pianeta da almeno 4 di essi è praticamente
assicurata e l’inclinazione delle orbite è stata scelta appunto per
garantire una efficace copertura a latitudini polari, cosa a cui non
sopperisce il sistema americano GPS. Nella maggior parte dei punti, poi,
la copertura sarà assicurata dall’appoggio di 6-8 satelliti, garantendo
così una localizzazione veramente accurata; cosicché anche nelle città
che si sono sviluppate maggiormente in altezza, la probabilità di
ottenere un buon segnale di localizzazione saranno alte, specialmente poi
se Galileo riuscirà ad appoggiarsi in maniera interoperativa al sistema
GPS.
Ma come è possibile creare una tale costellazione di satelliti ed essere
sicuri che ognuno di essi sia nel punto giusto al momento giusto?
Questa delicata operazione avverrà durante diverse fasi.
La prima fase, quella che abbiamo vissuto in questi ultimi mesi e sulla
quale abbiamo tenuto aggiornati i lettori di GEOmedia, ha visto il lancio
di un satellite sperimentale a bordo di un vettore Soyuz: quel Giove A
di cui tanto abbiamo parlato. I satelliti Galileo sono equipaggiati con
magneto-torquers (barre elettromagnetiche di torsione) e ruote d’inerzia,
proprio per aiutarli a mantenere un corretto assetto lungo l’orbita ma
non possiedono motori che permettano loro di assestarsi all’interno di
essa autonomamente. Ecco perché risulta fondamentale al momento del
lancio, posizionare il satellite nella corretta posizione. Giove A è stato
posizionato nel primo piano orbitale e sta fungendo da tester per gli
equipaggiamento di bordo ed il funzionamento delle stazioni di terra; la
trasmissione dei segnali, avvenuta con successo, permette anche di
bloccare le frequenze Galileo all’interno della International
Telecommunications Union. Questa prima fase durerà circa due anni e
mezzo in cui gli orologi atomici verranno caratterizzati ed in cui il
generatore di segnali sarà acceso allo scopo di fornire segnali
sperimentali con diverse caratteristiche di modulazione. Durante questo
periodo di testing, gli strumenti scientifici a bordo misureranno diversi
aspetti dell’ambiente spaziale attorno al piano orbitale ed in particolare
il livello di radizioni, che è più alto rispetto a quello delle orbite
geostazionarie o Low Earth.
Nella seconda fase, l’ESA lancerà i primi 4 satelliti operativi tramite due
vettori diversi. Questa avanguardia verrà utilizzata allo scopo di validare
l’intero sistema Galileo, grazie anche all’utilizzo di simulatori appositi.
Saranno poi lanciati altri due satelliti.
Una volta che il sistema Galileo sarà validato, la fase successiva e finale
sarà quella di completare l’intera costellazione di satelliti, in modo da
fornire un servizio completo agli utenti.
Immagine cortesia di ESA
La prima conferenza Cina-Galileo
Si è appena
conclusa, il 2
giugno, la
prima China-
Europe Galileo
Cooperation
Conference;
svoltasi a Pechino, la conferenza si è
focalizzata principalmente sulla fase di
validazione orbitale del sistema Galileo e
sull’opportunità di condividere tecnologie
ed informazioni tra i differenti partners
nel campo della navigazione satellitare.
Erano presenti all’evento rappresentanze
della Commissione Europea, dell’ESA e
della Galileo Joint Undertaking e delegati
dal Ministero Cinese per la Scienza e la
Tecnologia e dal Centro Nazionale di
Telerilevamento cinese (NRSCC),
l’organizzazione responsabile per
l’implementazione del programma
Galileo in Cina.
La cooperazione con la Cina punta alla
condivisione dei risultati scientifici e di
ricerca ed incoraggia l’informazione, la
progettualità comune ed i contatti
industriali. Mette in mostra, allo stesso
tempo, la vera natura di Galileo, una
iniziativa civile della Commissione
Europea e dell’ESA per un sistema che
offrirà un servizio di posizionamento
sicuro e preciso.
14
GEOmedia 2 2006
PS News
Galileo GPS News
M ERCATO
Il ricevitore Novatel ha tracciato il primo satellite Galileo
NovAtel Inc. ha annunciato che con successo ha rintracciato e acquisito il primo segnale
L1 BOC (trasmesso dal satellite di prova Galileo GIOVE-A) risultando
con ciò la prima azienda fuori Europa ad acquisire il segnale usando il primo
ricevitore commerciale. Il ricevitore usato è il EuroPak-L1L5E5a configurabile,
con 16 canali, in grado di ricevere sia i segnali GPS che Galileo, sviluppato
in Canada da NovAtel nel quadro di un programma canadese di sviluppo
di tecnologia spaziale. Il ricevitore EuroPak-L1L5E5a può essere configurato
per rintracciare non solo il segnale di base di GPS L1, ma segnali anche di
GPS L5 e di L5 SBAS (Space Based Augmentation System - quale il WAAS degli
Stati Uniti). Può anche essere configurato per rintracciare sia i segnali di GPS che del
Galileo L1 e di E5a. NovAtel inoltre recentemente ha reso disponibile il GPS-704X
antenna passiva a larga banda, che permette la ricezione dei segnali non solo dal GPS e da
Galileo, ma anche dai satelliti russi di GLONASS. L’Agenzia Spaziale Europea ha chiesto a NovAtel di limitare la
vendita dei ricevitori Galileo sviluppati in canada ai solo clienti autorizzati ESA per un breve termine, fino a che sia
conclusa la campagna di test di GIOVE-A.
Il ricevitore EuroPak-L1L5E5a ora è disponibile, configurato per ricezione del segnale L1 e L5 soltanto di
GPS. Non appena l’autorizzazione ESA sarà ricevuta, NovAtel fornirà gli aggiornamenti liberi per permettere
che questi ricevitori siano aggiornate nel campo con possibilità del Galileo.
M ERCATO
La certificazione professionale del GIS
Presentata dall’AICA (Associazione Italiana per l’Informatica ed il Calcolo Automatico) durante
la scorsa edizione della Conferenza Italiana degli Utenti ESRI, la European Computer Driving
Licence-GIS, la Patente Europea per il GIS, è un sistema di certificazioni nate allo scopo di garantire
la verifica sulle conoscenze professionali relative ai fondamenti dell’informatica utilizzata nel
GIS e dei suoi componenti. La necessità di una patente ECDL-GIS nasce dalla crescente richiesta di personale con specifiche
competenze in GIS e dalla possibilità di integrare in percorsi formativi di vario tipo le conoscenze di base di tali sistemi. Tale
patente avrà un riconoscimento a livello nazionale ed europeo all’interno della ECDL Foundation e sarà composta da tre livelli
di apprendimento: base, avanzato e professionale. L’ECDL-GIS si rivolge in particolare a coloro i quali desiderano dimostrare
di possedere le conoscenze base sui GIS e sulla loro utilizzazione tramite un software specifico ed a coloro i quali desiderano
avere evidenza che chi usa il GIS possiede competenze certificate. In Italia, ECDL ha ormai un’ampia diffusione ed è
riconosciuto dalle Istituzioni, a livello sia centrale che regionale, e nella Pubblica Amministrazione. Attualmente esistono circa
3.000 sedi d’esame accreditate da AICA (Test Center ECDL), distribuite su tutto il territorio nazionale, presso le quali vengono
effettuati ogni mese oltre 100.000 esami, mediante un sistema di test automatizzato.
www.aicanet.it
(Fonte: Redazionale)
A Roma il Forum PA 2006
Si è svolta alla Fiera di Roma, dall’8 al 12 maggio, l’edizione 2006 del
Forum della Pubblica Amministrazione con tema “‘La rete delle pubbliche
amministrazioni per la competitivita’ e la garanzia dei diritti”. La manifestazione
rappresenta il punto d’incontro tra Pubbliche Amministrazioni, imprese
e cittadini, in cui si cerca di favorire un miglior rapporto tra i tre attori,
promuovendo una PA effettivamente orientata ai risultati. Il Forum è stato
diviso in nove aree tematiche, ciascuna dedicata ad uno degli aspetti che formano
la rete di cooperazione della Pubblica Amministrazione. Le condizioni
di equità ed efficienza necessarie per lo svolgimento dei lavori di una vitale
PA sono strettamente legate ad una effettiva cooperazione interistituzionale
che permette alle pubbliche amministrazioni di creare una rete di servizi, aperta ed efficiente, promuovendo la presenza delle
amministrazioni in rete e favorendo la competitività del Sistema Paese; L’importanza di avere una rete condivisa di comunicazione,
di investire sulle risorse umane, nonché l’attenzione nei confronti di un’assistenza sanitaria equa e di un ecosistema
migliore, sono tutte problematiche che, all’interno del Forum PA 2006 hanno trovato ampio risalto.
L’edizione 2006 ha visto la presenza di 52.000 visitatori, 80.000 visitatori virtuali, 178 convegni e seminari, e più di 400 espositori.
www.forumpa.it
(Fonte: Redazionale)
Intergraph scelta dall’ARGS cinese
Intergraph è stata selezionata dall’ARGS (Aero Geophysical Survey
and Remote Sensing Center for Land and Resources), una delle principali
organizzazioni cinesi che si occupa di immagini aeree, come fornitrice
nell’acquisto di 4 fotocamere RMK TOP allo scopo di venire
incontro alla grande richiesta di immagini di un paese, come la Cina,
le cui infrastrutture stanno crescendo in maniera spaventosa. Con questa
decisione, l’ARGS porta il numero delle RMK TOP a sei. L’Aero Geophysical Survey and Remote Sensing Center utilizzerà
le quattro nuove fotocamere per acquisire immagini catastali da utilizzare all’interno di applicazioni dedicate alla gestione delle
informazioni legate al territorio, una funzione essenziale quando si ha a che fare con una crisi di sovrappopolazione come quella
che sta affrontando il gigante orientale.
www.intergraph.com
(Fonte: Redazionale)
16
GEOmedia 2 2006
w w w . a b a c o g r o u p . c o m
G I S
Made in Italy
distribuito in tutto il mondo
tecnologie e servizi superiori per enti ed aziende
DbCAD 2D/3D, DbMAP 2D/3D
base tecnologica semplice ed economica per sofisticate applicazioni CAD/GIS
e per avanzati Sistemi Informativi Territoriali su web 2D e 3D integrati.
Progetto SITI, Progetto ASSIOMA
soluzioni per la gestione centralizzata su web di tutti gli aspetti applicativi
legati al territorio e al patrimonio immobiliare: catasto terreni, catasto urbano,
strade, acque, patrimonio, ecc.
Mantova - c.so Umberto I, 43 - tel. 0376 222181
Roma - via Nepi, 15 - tel. 06 3338501
Padova - via G. B. Ricci, 6 - tel 049 8764722
info@abacogroup.com
© Copyright 1990-2006 ABACO srl. Abaco, Abacogroup, DbCAD, DbGIS, DbMAP, Progetto SITI e Progetto ASSIOMA sono marchi
registrati Abaco srl Mantova, Italia. Oracle è un marchio registrato di Oracle Corporation Redwood City, California, Stati Uniti.
Tutti gli altri nomi presenti su questo depliant sono marchi registrati o protetti e appartengono ai rispettivi proprietari.
F
OCUS
Catasto, GPS,
Archivio misure e
sistemi di riferimento
L’evoluzione delle tecnologie al di
fuori della Pubblica
Amministrazione corre ad un
ritmo inverosimile, se ad esempio si
considera che c’è chi ha già
pensato e realizzato una guida
georeferenziata dei prodotti DOP
(Denominazione d’Origine Protetta)
pronta all’uso su uno qualsiasi tra la
pletora di navigatori nati come
funghi negli ultimi due anni. Non è
invece disponibile alla stessa
maniera la mappa catastale
dell’intero territorio. Questo per
motivi diversi e comprensibili, che gli
addetti ai lavori ben conoscono.
Il tema del Focus di questo numero
di GEOmedia è specificamente
legato al mondo delle informazioni
catastali. Questo breve articolo
vuole prendere in esame le ultime
novità nell’ambito delle attività
tecniche legate alla ricomposizione
del sistema catastale, ed in
particolare all’unificazione dei sistemi
di riferimento.
Nel Convegno sulla situazione
italiana del GPS, tenutosi a Roma il
20 marzo 2006 nell’Aula Magna
dell’Università La Sapienza, Carlo
Cannafoglia (Catasto) e Antonio Bottaro
(SOGEI) hanno annunciato la
costituzione di una rete nazionale GPS
basata su tecnologia VRS, il cui scopo
è quello di servire gli uffici territoriali
del Catasto nell’ambito di attività di
verifiche sul campo degli atti di
aggiornamento cartografico e di
eventuali misure necessarie alla
ricomposizione cartografica.
Le metodologie da adottare sono
state già in parte messe a punto, ed
anticipate in una relazione presentata
all’ ASITA di Catania a firma Ferrante,
Di Filippo, Gnesivo (Agenzia del
Territorio) e Tufillaro (SOGEI). Un
esteso articolo, unitamente ad ulteriori
aggiornamenti, sarà pubblicato sul
prossimo numero della rivista
dell’Agenzia del Territorio.
Il GPS
L’uso del GPS in ambito catastale
inizia con una sperimentazione
presentata sul Bollettino SIFET nel
lontano ’92, dove si anticipava
l’immensa utilità di progettare e poi
realizzare misure GPS lungo le
diagonali o lungo i lati di una singola
mappa catastale, al fine di rendere
consistente la rete di misure
geotopografiche che si forma in maniera
spontanea dalla raccolta, disponibile
negli archivi degli uffici, delle migliaia
di misure tra punti fiduciali fornite dai
professionisti, attraverso la procedura
Pregeo nell’ambito della predisposizione
degli atti di aggiornamento.
L’esperienza, condotta dal gruppo di
specialisti della SOGEI che si occupava
del Catasto Geometrico, portò già allora
a concludere che la migliore soluzione
per il consolidamento della rete
spontanea (propedeutica alla
ricomposizione della mappa catastale), si
poteva realizzare con investimenti molto
ridotti, a condizione di utilizzare le
cosiddette misurate oggi disponibili sul
sito web dell’Agenzia del Territorio, e la
misura di una serie ridotta di baseline
GPS che potevano fungere da reference
frame di ordine zero. Tutto ciò, insieme
alle competenze specifiche del gruppo di
lavoro, ovvero alla già consolidata
capacità di trattamento e compensazione
delle centinaia di migliaia di dati
geometrici e geotopografici presenti
nell’archivio del Catasto, poteva
permettere il calcolo della posizione e
della precisione delle coordinate dei
Punti Fiduciali, anticipando di oltre un
decennio ciò che a breve verrà realizzato
direttamente negli uffici periferici
dell’Agenzia del Territorio con il
supporto di procedure informatico con
elevati livelli di automazione, resi
possibili, tra l’altro, dalla disponibilità
ormai effettiva delle mappe catastali in
forma digitale ed in forma numerica.
di Domenico Santarsiero
L’archivio delle misure e
l’evoluzione del sistema
Se quanto descritto nel precedente
paragrafo era virtualmente possibile già
circa 14 anni fa, è anche vero che
all’epoca le potenze di calcolo, le
competenze, e le dotazioni strumentali
degli uffici periferici non erano
sufficienti a gestire l’intera operazione.
Solo con l’avvento del sistema WEGIS
gli uffici periferici dispongono
realmente di un sistema di gestione
cartografico di tipo numerico, e con
esso dell’intero patrimonio delle mappe
catastali in formato digitale (raster) e
numerico (vettoriale).
Leggiamo dalla relazione presentata
ad ASITA 2005 che “gli atti di
aggiornamento catastale realizzati dai
professionisti dal 1989 ad oggi
ammontano a circa 6.600.000,
coinvolgendo circa 1.700.000 Punti
Fiduciali con un totale di misure dirette
di 17.400.000 circa”. Una tale mole di
dati non è certo semplice da impiegare,
anche se suddivisa per aree omogenee
e attraverso procedure informatiche
organizzate in fasi diverse e contenenti
funzioni di data snooping capaci di
eliminare le misure grossolanamente
errate ed anche quelle non poche
dissimulate, prodotte da alcuni
professionisti esperti nel realizzare le
misure sulla carta piuttosto che sul
campo.
In ogni caso dal punto di vista
geometrico la possibilità di impiegare
una parte di tali misure all’interno di
un processo di determinazione della
posizione dei Punti Fiduciali non è
irrealistica, soprattutto se si guarda alle
cosiddette mutue distanze, ossia le
distanze misurate indirettamente dai
professionisti nell‘ambito di ciascun
rilievo di aggiornamento. Tali elementi
rappresentano quindi un valido
patrimonio informativo da impiegare
efficacemente nel processo di
18
GEOmedia 2 2006
F OCUS
Figura 1 - Il sito internet dell'Area di Geodesia e
Geomatica dell'Università La Sapienza di Roma.
Un ottimo sito per farsi un'idea delle reti permanenti
GPS e del nuovo sistema di coordinate IGb00
(http://w3.uniroma1.it/geodgeom/).
consolidamento delle coordinate dei
Punti Fiduciali. Com‘è noto l’ archivio
delle Mutue Distanze (recentemente
arricchito con le informazioni relative
ai Mutui Dislivelli) ha caratteristiche
dinamiche, poichè viene aggiornato
quotidianamente da nuove misure tra
Punti Fiduciali eseguite dai
professionisti nell‘ambito delle loro
attività di rilievo connesse alla
produzione degli atti di
aggiornamento, e dai tecnici
dell‘Agenzia del Territorio, in occasione
dei controlli sul terreno e delle
procedure di collaudo.
Figura 2 - Il sito internazionale di riferimento del serviziuo
IGS, considerato il grande network di stazioni
permanenti GPS mondiale. Dall'esperienza dell'IGS
nasce l'idea delle coordinate IGb00
(http://igscb.jpl.nasa.gov/network/netindex.html).
Sulla scorta di tali considerazioni è
nata l’idea di una sperimentazione
finalizzata alla derivazione delle
coordinate stabili dei vertici di una
maglia di Punti Fiduciali eseguita su
una porzione limitata del territorio,
esperienza il cui resoconto è la
relazione presentata ad ASITA dai
referenti dell’Agenzia del Territorio e
di SOGEI.
Esaurita la fase sperimentale, la
metodologia e le procedure di calcolo,
saranno rese disponibili presso i
sistemi informatici degli Uffici
provinciali dell‘Agenzia del Territorio,
cosicché il personale tecnico degli
Uffici, in piena autonomia, potrà
procedere, con le accortezze di seguito
illustrate, al consolidamento delle
coordinate dei Punti Fiduciali.
Le metodologie operative e la
procedura di calcolo
Si descrivono di seguito, il percorso
metodologico e la procedura di calcolo
presentati a Catania nel novembre
2005.
✓ Sulla base di un elenco di comuni
viene estratto dalla TAF un grafico
contenente tutti i Punti Fiduciali e
tutti i collegamenti realizzati con le
relative occorrenze.
✓ Su tale grafico vengono perimetrate
interattivamente le aree caratterizzate
da collegamenti continui e consistenti.
✓ Per ciascuna area, sulla base della
perimetrazione precedente, vengono
selezionate automaticamente le
informazioni relative ai Punti Fiduciali
(nome, coordinate, attendibilità) e le
informazioni relative ai collegamenti
tra i Punti Fiduciali (distanza, sqm,
occorrenze) appartenenti all’area stessa
ed al poligono che la identifica.
✓Per ciascuna area viene eseguito un
calcolo di compensazione intrinseco, a
minimi vincoli; la procedura di calcolo
individua e conseguentemente elimina
automaticamente le misure che non
superano alcuni test statistici e,
quando si verifica, i punti della rete
che in seguito alla eliminazione delle
misure risultino non più determinabili
(ad esempio quelli con un solo
collegamento). Il calcolo si conclude
quando il semiasse maggiore delle
ellissi di errore non supera per nessun
punto della rete un prefissato valore.
✓ Individuazione dei Punti Fiduciali, tra
quelli compensati intrinsecamente,
appartenenti alla rete geodetica
dell‘IGM e del Catasto e di quelli
caratterizzati dal codice di attendibilità
inferiore a 10.
✓Analisi strategica di tali punti rispetto
alla rete dei collegamenti realizzati e
selezione delle aree dove risulta
opportuna l‘istituzione di un vincolo.
✓ Sulla base delle coordinate compensate
intrinsecamente e delle corrispondenti
coordinate estratte dalle schede
monografiche per i punti della rete
geodetica o prelevate scrupolosamente
sul supporto originale di impianto con
metodi grafici per quelli con codice di
attendibilità 10, si esegue il calcolo di
rototraslazione conforme per la ricerca
dei punti congruenti in relazione alle
precisioni attese.
✓Si ripete il calcolo di compensazione
delle misure vincolando la rete ai soli
punti della rete geodetica; qualora
nell‘area ricadano pochi punti di
coordinate analitiche note o gli stessi
risultino strategicamente non
omogeneamente distribuiti, si prendono
in considerazione anche i Punti
Fiduciali caratterizzati da codice di
attendibilità pari a 10; è appena il
caso di evidenziare che i calcoli di
compensazione vincolati sono sempre
preceduti da calcoli di rototraslazione
conforme al fine di selezionare i punti
che danno più garanzia di coerenza ed
affidabilità, cioè che realizzano una
F OCUS
buona sovrapponibilità tra le posizioni
cartografiche e quelle calcolate.
✓ Le coordinate ottenute attraverso
l‘ultimo calcolo di compensazione
vincolato, contraddistinte da un
opportuno codice di attendibilità, che
ne caratterizza la metodologia di
calcolo, andranno a sostituire quelle
presenti nell‘archivio TAF. Con le
stesse modalità attualmente in uso, tali
dati compensati saranno quindi resi
disponibili sul sito dell‘Agenzia del
Territorio.
I sistemi di riferimento
Una delle problematiche importanti
che investono oggi tutto il mondo
delle informazioni geografiche,
geotopografiche e cartografiche, e
quindi anche le problematiche legate
alle informazioni catastali, è
rappresentata dai sistemi di riferimento.
Su questo fronte le posizioni
ideologiche sono diverse tra gli attori
del settore. Un confronto sul tema è
avvenuto proprio nell’ultimo convegno
sullo stato dell’arte delle reti GPS in
Italia già citato
(http://w3.uniroma1.it/geodgeom). E’
noto tra gli operatori che il cambio
del sistema di riferimento è un evento
eccezionale e di grande impatto un po’
in tutte le direzioni, che deve essere
giustificato da motivazioni di ordine
pratico ed operativo non più rinviabili.
In ambito catastale si hanno due
situazioni ben distinte tra la
cartografia e gli atti di aggiornamento;
la cartografia del territorio nazionale
come è noto è rappresentata per la
gran parte nella proiezione Cassini-
Soldner. Le mappe catastali sono
riferite a circa 800 sistemi di
riferimento (nel gergo Origini Cassini-
Soldner) e di questi sistemi circa
trenta sono di grande estenzione. Solo
alcune zone del territorio sono
rappresentate nel sistema cartografico
nazionale Gauss-Boaga, mentre per
alcune porzioni di territorio è
impiegata la rappresentazione di
Flamsteed. Una piccola porzione del
territorio nazionale non ha una
rappresentazione cartografica
propriamente detta e ciascuna mappa
relativa a tale porzione è dotata di un
sistema di assi cartesiani.
Per il futuro si intravede la
possibilità di unificare il sistema di
rappresentazione della mappa catastale
e trasformarlo nella proiezione
nazionale Gauss-Boaga, anche se
dovranno essere superate alcune
difficoltà legate al fatto che nella
trasformazione tra un sistema e l’altro
cambia notevolmente la forma,
l’orientamento e la superficie
cartografica delle particelle. Non a
caso all’epoca dell’istituzione del
catasto particellare fu scelta la
proiezione Cassini-Soldner applicata ad
una serie di sistemi di assi (Origini):
infatti la rappresentazione è
equivalente (conserva le superfici) e la
limitazione della lunghezza dell’asse
Est consente di contenere la
deformazione lineare ed angolare entro
limiti inferiori alla precisione
conseguibile con gli ordinari strumenti
di misura (dell’epoca). Pertanto le
grandezze angolari e lineari misurate
sul campo e ridotte alla quota della
superficie di riferimento possono essere
introdotte direttamente nella mappa
catastale Cassini-Soldner, senza operare
calcoli di riduzione ed a condizione di
trasportare gli azimut sommando
angoli ad azimut dedotti dalle
coordinate cartografiche.
Semplificando, oggi la convergenza
delle tecnologie 3G (GPS, Glonass,
Galileo), con quelle geospatial
sembrerebbe permette di svincolare il
concetto di rappresentazione dal
classico concetto di cartografia. Un
modello geospaziale è di per sè una
cartografia navigabile, così come lo
sono un file CAD o un file GIS, a
parte le risoluzioni, il livello di
dettaglio ed il livello metrico delle
informazioni. Il problema cartografico
dal punto di vista della
rappresentazione nasce quando si
decide di effettuare una stampa di tali
dati. Il tipo di proiezione è in linea di
massima legato alla scala di stampa
delle informazioni, al suo scopo e ad
altri fattori collaterali. Pertanto un
dato sistema di riferimento e
rappresentazione non può essere
considerato migliore o peggiore di un
altro, ma semplicemente più o meno
adeguato alla finalità per la quale è
stato scelto.
Ma a monte delle rappresentazioni
cartografiche la discussione coinvolge
lo stesso Datum Geodetico.
Negli ultimi tempi si sta assistendo
alla proposta di impiego delle
coordinate cosiddette IGb00 per le reti
di Reference Station GPS presenti in
diverse regioni italiane. Su tale sistema
si è sviluppata una grande polemica
tra il mondo accademico e quello degli
operatori del settore. Per questi ultimi
tale approccio non è giustificato dal
punto di vista operativo e sostanziale.
Infatti le variazioni delle coordinate
assolute di una reference station per
effetto della compensazione globale
basata sull’IGS
(http://igscb.jpl.nasa.gov/network/netin
dex.html), possono essere stimate in
alcuni centimetri l’anno. Tali variazioni
non hanno effetti pratici rilevanti per
la maggior parte dei rilievi topografici,
ma, al contrario impongono un
processo di gestione dei parametri di
trasformazione molto oneroso,
soprattutto per gli operatori e per i
lavori più comuni.
Conclusioni
Il mondo delle informazioni
geospaziali è molto complesso,
soprattutto se collegato alle
transazioni sui beni immobili e ai
catasti in generale. Alle semplificazioni
tecniche non sempre corrispondono
semplificazioni procedurali, normative
e pratiche. Cercando di fare un
paragone potremmo citare un poco
conosciuto, ma bellissimo film inglese,
dove un pastore protestante in un
sermone dichiara ai fedeli che:“la
cartografia è la biancheria intima di
una nazione”.
Se questo è vero cerchiamo di usare
slip, tanga o boxer secondo le
caratteristiche e le… occasioni più
opportune….
Autori
Figura 3 - Nelle due immagini sono sintetizzate la rete delle stazioni GPS permanenti
dellíAgenzia del Territorio nel Lazio, sia un grafico della rete dei collegamenti tra Punti
Fiduciali adottate per la sperimentazione citata.
DOMENICO SANTARSIERO
sandom@geo4all.it
20
GEOmedia 2 2006
R EPORTS
Il nuovo ortofotopiano del
Comune di Venezia
nell’Infrastruttura
dei dati Territoriali
di Base (ITB)
di Paolo Barbieri,
Mario Fondelli,
Luigi Proietti
e Massimo Rumor
22
GEOmedia 2 2006
R EPORTS
E’ noto come
l’informazione
territoriale
(geografica o
georiferita), in quanto
componente specifica del
sistema informativo degli Enti
Locali, in primis il Comune,
abbia valenza strategica sia perché
indispensabile per tutte le attività
che direttamente afferiscono alla
pianificazione e gestione del territorio, sia
perché in grado di conferire valore aggiunto
a tutte le attività amministrative gestionali e
di comunicazione al cittadino. In questo
contesto si pone l’esigenza di condividere tra
i diversi utenti interni ed esterni all’Ente un
set di dati a supporto della rappresentazione
e consultazione di tutte le informazioni
riferibili al territorio. Se fino a qualche
tempo fa questa funzione veniva svolta dalla
cosiddetta cartografia di base, oggi essa
viene affidata ad una più articolata
infrastruttura di dati spaziali.
Il Comune di Venezia, nell’ambito
delle attività per lo sviluppo del proprio
Sistema Informativo Territoriale, ha messo a
punto e avviato a realizzazione uno specifico
progetto per la costruzione di un’Infrastruttura di dati
Territoriali di Base (ITB). Il progetto, che ha visto il
coinvolgimento dei vari Uffici
comunali interessati, della
Regione del Veneto e
dell’Agenzia del Territorio, si è
sviluppato a partire dal 2002 con gli
studi di fattibilità, cui è seguita nel
2003 la fase della progettazione esecutiva
e quindi, a partire dal 2004, dell’attuazione.
Attualmente le componenti dell’infrastruttura
sono state realizzate e si sta procedendo alla
definizione di una piattaforma tecnologica per la
gestione e l’utilizzo della ITB, basata su di un Geo-
DBMS e meccanismi di interoperabilità, con l’obiettivo
di interfacciare le diverse applicazioni gestionali presenti
in Comune. Nel presente articolo si intende presentare il modello
concettuale di riferimento ed evidenziare, in particolare, il ruolo
in esso svolto dalle immagini ortofotografiche.
GEOmedia 2 2006 23
R EPORTS
Il modello concettuale di
riferimento e le componenti dell’ITB
Il primo problema che si è inteso
affrontare è dunque quello di definire
i contenuti dell’informazione geografica
di base (nella terminologia
internazionale corrente denominata
anche Reference Data) e derivarne il
modello concettuale di riferimento per
il progetto. Questo approccio muove
pertanto dalla distinzione tra
informazione denominata di base, in
quanto necessaria per tutti i tipi di
applicazione, e informazione tematica,
utilizzata in specifici ambiti
applicativi. Una delle motivazioni forti
di questa scelta è che, concentrandosi
sull’informazione di base, le istituzioni
deputate alla sua formazione e
gestione possono migliorarne la
qualità, in particolare il livello di
aggiornamento. Inoltre la disponibilità
di un tale insieme di dati di base,
standardizzato, creato e mantenuto
senza duplicazioni, favorirebbe in
generale l’impiego di informazione
geografica e permetterebbe economie
sicuramente significative. Premesso che
comunque una definizione
dell’informazione di base non può
essere data una volta per tutte, ma va
tenuta aperta a modifiche ed
integrazioni successive in una visione
dinamica ed evolutiva, si ritenuto di
adottare il Reference Data elaborato
nel 2001 all’interno del progetto
europeo ETeMII - European Territorial
Management Information Infrastructure
(http://www.ec-gis.org/etemii ), che
comprende:
✓ elementi geodetici (vertice di rete,
caposaldi, ecc.)
L’Infrastruttura di dati Territoriali di base (ITB)
del Comune di Venezia
✓ unità amministrative (confini)
✓ unità di proprietà (particelle ed
edifici)
✓ indirizzi (via-numeri civici)
✓ alcuni elementi selezionati della
topografia (quali elevazione, reti di
trasporto, idrografia)
✓ immagini ortofotografiche del
territorio.
Questo approccio ha implicazioni
significative sui contenuti informativi.
In primo luogo vi è il tendenziale
superamento (denso di implicazioni)
della distinzione tra cartografia tecnica
e catastale; inoltre molti elementi che
nelle cartografie tradizionali hanno lo
scopo di rendere leggibile la carta non
sono più necessari in presenza
dell’ortofotopiano; infine l’indirizzo
(via-numero civico) svolge un ruolo
fondamentale per garantire la
localizzazione di un varietà di
informazioni tematiche anche non
dotate di componente spaziale.
La contestualizzazione del Reference
Data EtemII al caso veneziano ha portato
alla seguente configurazione
dell’infrastruttura di dati territoriale di
base (ITB) del Comune di Venezia (vedi
schema a in basso):
Le componenti dell’ITB sono
pertanto:
✓ il geodatabase cartografico
(cartografia di base strutturata per
oggetti territoriali),
✓ le chiavi territoriali normalizzate per
l’aggancio a database esterni
(indirizzo via-numero-civico e
riferimenti catastali sezione-fogliomappale-subalterno);
✓ l’ortofotopiano digitale;
✓ la mappa vettoriale
delle particelle
catastali.
La realizzazione di
ciascuna delle
componenti ha dato
luogo a specifici
sottoprogetti condotti in
parallelo ai fini di:
✓
riorganizzare la
cartografia tecnica
numerica di base
esistente in database
cartografico comunale
(GeoDBC), secondo le
specifiche Intesa GIS
opportunamente
adattate al modello
concettuale prescelto (partner
tecnologico: Politecnica srl di
Padova), derivandone anche una
versione idonea alla rappresentazione
a livello regionale (GeoDBR) in
collaborazione con la Regione
Veneto;
✓ acquisire un ortofotopiano digitale a
scala nominale 1:2000 dell’intero
territorio comunale (partner
tecnologico: R.T.I. Geodetical snc di
Viterbo + Rossi srl di Brescia)
definire i flussi di dati e
delleprocedure organizzative per
l’aggiornamento sistematico del
GeoDBC, con il concorso dei diversi
uffici comunali interessati;
✓ informatizzare lo strato informativo
relativo alle particelle dei terreni, da
integrare successivamente nel
GeoDBC, in collaborazione con
l’Agenzia del Territorio (partner
tecnologico: AGS srl di Pesaro);
riallineare in modo mirato e
selettivo il GeoDBC / GeoDBR
sull’ortofotopiano (partner
tecnologico: Impresa Rossi Luigi srl,
attività in corso);
✓ normalizzare gli indirizzi contenuti
nei diversi archivi gestionali
comunali e in quello catastale
(partner tecnologico: Venis spa);
implementare le componenti dell’ITB
su Geo-DBMS, attivandone
l’aggiornamento e la connessione
con le diverse applicazioni gestionali
presenti in Comune (partner
tecnologico: Venis spa e altri da
definire).
Ruolo e caratteristiche
dell’ortofotopiano
Come si è visto sopra,
l’infrastruttura dei dati territoriali di
base costituisce le fondamenta su cui
si costruiscono gli altri insiemi di dati
geografici, il telaio per il collegamento
e l’integrazione di altra informazione
georiferita e fornisce anche
l’informazione di contesto per aiutare
la visualizzazione e quindi la lettura e
la comprensione del territorio. Questa
funzione di rappresentazione del
contesto è svolta precipuamente
dall’ortofotopiano e, nel nostro caso,
tale funzione è enfatizzata dal fatto
che il database cartografico è stato
limitato ad un set di entità territoriali
selezionate in quanto di base: si pensi,
a titolo esemplificativo, che, rispetto
alle 121 classi previste dalle specifiche
per i DB topografici dell’Intesa GIS, il
GeoDBC del Comune di Venezia ne
24
GEOmedia 2 2006
R EPORTS
Figura 1 - Geodatabase cartografico (Mestre)
Figura 2 - Ortofoto (Mestre)
Figura 3 - Geodatabase + ortofoto (Mestre)
Figura 4 - Catasto + ortofoto (Mestre)
Figura 5 - Geodatabase cartografico (Venezia)
Figura 6 - Ortofoto (Venezia)
Figura 7 - Geodatabase + ortofoto (Venezia)
Figura 8 - Catasto + ortofoto (Venezia)
GEOmedia 2 2006 25
R EPORTS
utilizza 59 e il GeoDBR della Regione
Veneto 68. Un’altra essenziale funzione
assegnata all’ortofotopiano, e alla
relativa ripresa aerea, è quella di
aggiornamento periodico del database
cartografico, in aggiunta
all’aggiornamento continuo (event
driven) previsto per l’edificato e la
viabilità. Questo spiega il motivo per
cui, essendo necessaria una scala
nominale 1:2000 (tenuto conto che tale
è l’accuratezza della cartografia
vettoriale comunale del territorio
urbanizzato, ad eccezione dei centri
storici di Venezia, Mestre e isole in
scala 1:500), si è fatto ricorso alla
ripresa aerea, anzichè a quella da
satellite, che allo stato attuale ancora
non consente le necessarie accuratezze.
I lavori per la realizzazione di un
ortofotopiano digitale alla scala
nominale 1:2000 dell’intero territorio
del Comune di Venezia sono stati
affidati, a seguito di gara, allo R.T.I.
costituito dalle ditte Geodetical snc di
Viterbo (capogruppo) e Rossi srl di
Brescia. Allo scopo di meglio
inquadrare il caso veneziano, è
opportuno richiamare da un lato la
specificità e varietà dei luoghi (la città
storica, l’ambiente lagunare, il polo
industriale di Marghera, la
conurbazione mestrina), dell’altro la
loro dimensione complessiva. La
superficie interessata era infatti di
ettari 41.316 così composti: Venezia
Centro Storico 800 ettari; Mestre e
Terraferma 13.028 ettari; Isole
dell’Estuario 2.186 ettari; Laguna
(acque) 25.302 ettari.
La copertura aerofotogrammetria per
la formazione dell’ortofotopiano è stata
realizzata nel Luglio 2004 ed il suo
inquadramento geometrico è stato
assicurato da un raffittimento della
rete GPS locale con errore di
situazione dell’ordine di ± 0,28 m ed
approssimazione altimetrica pari a ±
0,31 m. La dimensione del pixel al
suolo nell’elaborato digitale a colori
prodotto alla scala 1:2.000 risulta di
10 cm. Attraverso nuove opportune
campionature dell’immagine digitale a
colori sono state poi realizzate anche
delle sue versioni a scala più piccola
aventi dimensione del pixel al suolo
rispettivamente dell’ordine di 50 cm
ed 1 m.
Le figure dalla numero 1 alla 8
mostrano per Venezia e per Mestre
delle viste dell’ortofoto e del database
cartografico a scala 1:2.000, presi
singolarmente e in sovrapposizione.
Meritevole di segnalazione appare
l’accurato trattamento radiometrico
delle immagini digitali originali che
ha consentito di realizzare, nel
mosaico delle varie specchiature
d’acqua lagunare, aventi ciascuna una
propria risposta spettrale, il miglior
equilibrio cromatico dell’elaborato
ortofotografico a colori finale,
suscettibile di fornire peraltro anche
una più agevole lettura dei relativi
fondali.
Le ortofotomappe sono realizzate
secondo il taglio della cartografia
regionale in scala 1:2000 e rese
disponibili nei formati TIFF ed ECW
e, in questo formato, sono state
mosaicate nel continuo . E’ stato
Figura 9 - Laser Scanning con rappresentazione di colore dei punti ricavata da ortofoto
Figura 10 - Vista prospettica di Laser Scanning colorato con ortofoto
Figura 11 - Laser Scanning: vista di profilo sulla laguna
26
GEOmedia 2 2006
quindi sviluppato, in collaborazione
con Planetek Italia srl, un apposito
sito web per la consultazione
dell’ortofoto contestualmente al
database cartografico e ad altri
tematismi. Il sito (consultabile
all’indirizzo
www.comune.venezia.it/territorio/ortofoto.asp),
sfruttando la piattaforma Cart@net ,
consente di integrare le funzionalità
del prodotto Image Web Server per la
gestione di immagini di grandi
dimensioni e di connettersi a diversi
web services (come ArcIMS di ESRI,
GeoMedia di Intergraph, Mapserver
open source) per la consultazioni di
mappe vettoriali.
Semina di punti quotati e
ripresa laser scanner
Dalla ripresa aerea è stata
contestualmente restituita una semina
di punti quotati (al colmo, alla gronda
e alla base di ciascun corpo di
fabbrica) con un’approssimazione
dell’ordine di ± 31 cm circa, da
utilizzare in fase di
aggiornamento dell’edificato al
fine di attribuire l’altezza a
ciascuna unità volumetrica .
L’individuazione delle altezze
delle singole unità volumetriche
è stata realizzata utilizzando i
modelli stereoscopici orientati e
acquisendo un elemento lineare
costituito da tre punti (due nel
caso di coperture piane) rilevati
al colmo alla gronda e sul
terreno. Una successiva
elaborazione ha prodotto un
file testo dove sono riportate le
informazioni numeriche di ognuna
delle circa 150.000 entità
volumetriche.
Inoltre è stata realizzata per circa
800 ettari di territorio una ripresa
laser scanner, comprendente i centri
storici di Mestre e Venezia e le isole
di Murano e Burano. Il rilievo è stato
realizzato utilizzando il sistema
Topeye, apparecchiatura progettata e
realizzata dalla Saab Survey System, è
basato su scanner laser, GPS,
piattaforma inerziale e fotocamera
digitale a colori ad alta risoluzione.
Lo scanner laser, che può inviare a
terra fino a 7.000 impulsi al secondo,
ha rilevato con una risoluzione di
circa 4 punti per mq. la quota del
terreno e degli oggetti presenti sullo
stesso.
Il sistema GPS ha permesso di
associare le coordinate
planoaltimetriche a ciascun punto
rilevato dallo scanner laser. La
piattaforma inerziale ha consentito di
correggere tutti gli errori di assetto
dell’elicottero sia in fase di
rilevamento che in fase di
postprocessing dei dati. Si presentano
alcune immagini relative a tale ripresa
nelle figure 9, 10, 11 e 12.
La disponibilità di questi dati
consentirà di sperimentare l’utilizzo di
sistemi informativi geografici
tridimensionali, al fine di consentire
una migliore valutazione e
comunicazione da parte della Pubblica
Amministrazione locale delle
trasformazioni in atto sul territorio e
dell’impatto urbano dei piani e
progetti in programma.
R EPORTS
Autori
DOTT. PAOLO BARBIERI
Comune di Venezia
mail: paolo.barbieri@comune.venezia.it
PROF. MARIO FONDELLI
Università IUAV di Venezia
mail: m.fondelli@3fconsulting.it
LUIGI PROIETTI
Geodetical snc
mail: luigi.proietti@fastwebnet.it
PROF. MASSIMO RUMOR
Università IUAV di Venezia
mail: rumor@dei.unipd.it
Originale Laser Scanning con rapprentazione in classi di quota colore
GEOmedia 2 2006 27
R EPORTS
Il SIT del comune
di Rogliano
di V. Gagliardi, G. Martirano, L. Citino, P. Mastroianni
In una regione afflitta da molte
problematiche legate alla
gestione del territorio, il
Comune di Rogliano in
provincia di Cosenza (Calabria)
ha intrapreso una strada di
innovazione e di efficienza,
dotandosi di un S.I.T.
attualmente dedicato alla
gestione urbanistica ma
destinato in futuro ad
interessare molti altri aspetti
legati al territorio.
L’esperienza realizzata ha
dimostrato ancora una volta la
semplicità di utilizzazione di tale
tipo di strumenti anche da
parte di utilizzatori poco esperti,
evidenziando inoltre la
facilitazione di processi di
programmazione e pianificazione
territoriale, resa possibile
dall’aver fatto dialogare livelli
informativi diversi (cartografia
numerica catastale,
aerofotogrammetria, Piano di
Fabbricazione) in un unico
ambiente.
Ambiente GIS
Il S.I.T. è stato realizzato utilizzando
la tecnologia Intergraph ed in
particolare la versione 5.1 del software
GIS GeoMedia della cui licenza il
Comune di Rogliano era dotato. La
potenzialità dell’ambiente Intergraph
ha inoltre offerto la possibilità di
un’ampia personalizzazione mediante
lo sviluppo di diversi Custom
Commands generati per agevolare la
fruizione e l’elaborazione dei dati e
delle informazioni (rilascio del
Certificato di Destinazione Urbanistica,
Gestione Cantieri, e così via).
La cartografia
La realizzazione del Sistema
Informativo Territoriale e
l’automazione di alcune procedure,
quali ad esempio il rilascio del
Certificato di Destinazione Urbanistica,
si sono basati sui numerosi dati messi
a disposizione dell’Amministrazione
Comunale.
In particolare, la cartografia messa
a disposizione è consistita in:
✓
✓
✓
38 fogli catastali (Terreni e
Fabbricati, per un totale di circa
8.000 particelle e 2.000 fabbricati) in
formato vettoriale (dxf / dwg). I fogli
di mappa, acquisiti presso l’Agenzia
del Territorio, risultano inquadrati
nel sistema di riferimento Cassini-
Soldner storicamente adottato dal
catasto italiano;
Rilievi aerofotogrammetrici in formato
raster (8 tavole alla scala
1:2000 e 10 tavole alla scala 1:5000)
risalenti al 1988, inquadrati nel
sistema di riferimento Gauss-
Boaga/Roma40;
3 ortofoto risalenti ad un volo del
2000/2001 fornite dalla Regione
Calabria ed inquadrate nel sistema di
riferimento Gauss-Boaga/Roma 40.
Alla cartografia sopra elencata si
devono aggiungere le tavole relative
allo strumento urbanistico vigente (il
Piano Di Fabbricazione) a suo tempo
redatto utilizzando il rilievo
aerofotogrammetrico in scala 1:2000
del 1988. Partendo da una situazione
quasi ideale per quanto riguarda
l’omogeneità delle scale di
rappresentazione della cartografia sia
di base che tematica, in quanto
cartografia catastale, rilievo
aerofotogrammetrico e tavole del P.D.F.
erano disponibili alla stessa scala, è
stata affrontata la problematica
relativa alla conversione dei dati
catastali nel sistema di riferimento
individuato per la realizzazione del
S.I.T.. Infatti, in accordo con l’Ufficio
Tecnico del Comune, si è deciso di
utilizzare i rilievi aerofotogrammetrici
e le ortofoto quale base per la
realizzazione del S.I.T.. Se, da un lato,
la base catastale permette di
identificare con validità legale ogni
lotto di terreno ed ogni fabbricato,
dall’altro lato i fogli catastali si sono
dimostrati non aggiornati. Il rilievo
aerofotogrammetrico (integrato con le
ortofoto) fornisce invece una visione
relativamente aggiornata del territorio
pur non riuscendo ad identificare
rigorosamente le aree non edificate. Di
conseguenza, si è preferito assumere il
rilievo aerofotogrammetrico come
cartografia di riferimento ed adattare
su di essa la cartografia catastale.
Naturalmente, poiché le differenze tra
cartografia catastale e rilievi
aerofotogrammetrici è dovuta alla
diversità delle proiezioni utilizzate per
rappresentare il territorio, si è
provveduto alla georeferenziazione dei
fogli catastali nel sistema di
riferimento Gauss-Boaga/Roma40. Tale
conversione è stata realizzata
sfruttando gli strumenti di conversione
tra sistemi di riferimento offerti
dall’ambiente Geomedia. Infatti, pur
non supportando il sistema di origini
(circa 800) adottate dal catasto
italiano al fine di limitare le
deformazioni di ogni singolo foglio a
valori accettabili, Geomedia prevede in
ogni caso la possibilità di utilizzare la
proiezione di Cassini-Soldner e di
definire sistemi di riferimento
personalizzati. A tal fine, note le
coordinate dell’origine di grande
estensione (Monte Brutto) per il
sistema catastale di interesse per la
maggior parte dei Comuni della
Regione Calabria, è risultato possibile
importare ognuno dei 38 fogli catastali
affidando agli strumenti di conversione
suddetti i processi di trasformazione
necessari. Il risultato della
sovrapposizione dei fogli catastali sul
rilievo aerofotogrammetrico e sulle
ortofoto è risultata, nei limiti delle
differenze tra i due sistemi di
riferimento, del tutto accettabile.
28
GEOmedia 2 2006
In fase di ultimazione dei lavori la
cartografia del S.I.T. è stata inoltre
arricchita dal rilievo
aerofotogrammetrico in formato
vettoriale (8 tavole alla scala 1:2000, 8
tavole alla scala 1:5000, 2 tavole alla
scala 1:10000) basato su un volo
2000/2001 e contenente aggiornamenti
alla data di Dicembre 2005.
R EPORTS
La Banca Dati
Completata la fase di
geoereferenziazione dei fogli catastali
in Gauss-Boaga/Roma 40 si è
provveduto all’importazione degli strati
informativi utili a fornire al Comune
di Rogliano tutti gli strumenti per una
completa gestione e pianificazione del
territorio e cioè:
✓
Figura 1 - Catastale / OrtoFoto
Figura 2 - Catastale / Rilievo Aerofotogrammeterico (Scala 1:2000)
Piano di Fabbricazione (4 tavole in
formato raster)
Le finalità del S.I.T. hanno reso
necessaria la successiva
vettorializzazione di ognuna delle
tavole del Piano Di Fabbricazione, del
Piano di Recupero del Centro Storico
e della Carta della Stabilità, al fine di
consentire sia la generazione di
tematismi in base a diversi criteri che
l’intersezione spaziale con il vettoriale
catastale.
E’ stata realizzata utilizzando un
Data Base Access 2000. Nel corso
della fase iniziale della realizzazione
del S.I.T. sono stati convertiti anche i
dati degli archivi (catasto terreni e
fabbricati) gestiti dall’applicazione
CAT_2000, acquistata dall’Agenzia del
Territorio e quotidianamente utilizzata
dall’Ufficio Tecnico per la gestione di
pratiche che implicano la consultazione
dei dati catastali di tipo alfanumerico.
Gli elementi alfanumerici ottenuti
dalla conversione sono stati poi
importati e quindi resi disponibili,
all’interno del S.I.T., consentendo
l’accesso immediato a tutte le
informazioni alfanumeriche associate
all’elemento geografico
(particella/fabbricato). Un Data Base
Access 2000 è stato utilizzato anche
per la gestione automatizzata delle
Pratiche Edilizie (Certificati di
Destinazione Urbanistica, Lavori
Pubblici) ed anche in questo caso il
popolamento dei relativi archivi è
realizzato in ambiente S.I.T. attraverso
l’utilizzo di maschere appositamente
create e gestite da opportuni Custom
Commands.
Sviluppo dell’ambiente
Geomedia
L’ambiente di lavoro offerto dalla
famiglia di prodotti Intergraph
propone una interfaccia general
purpose sufficiente a soddisfare le
✓
✓
✓
✓
✓
Piano di Recupero del Centro Storico
(1 tavola in formato raster)
Piano di Assetto Idrogeologico (in
formato vettoriale)
Contratto di Quartiere (1 tavola in
formato raster)
Piani Particolareggiati (3 tavole in
formato raster)
Carta della Stabilità (1 tavola in formato
raster)
Figura 3 -
Catastale /
Piano di
Fabbricazione
GEOmedia 2 2006 29
R EPORTS
esigenze di molti utenti. Nel caso in
cui si presenti la necessità di costruire
flussi di lavoro automatizzati o di
mettere in evidenza funzionalità non
rese interamente disponibili
dall’interfaccia originale, è possibile
realizzare delle personalizzazioni e
rendere disponibile all’utente delle
interfacce più user friendly. Il software
Geomedia, come d’altronde tutti i
prodotti della famiglia Geomedia,
permette lo sviluppo di applicazioni
attraverso l’utilizzo dell’ambiente OLE
Automation in ambiente Custom
Command e cioè modificando
l’interfaccia dell’ambiente GeoMedia
aggiungendo ad esempio menu per la
creazione di flussi di lavoro specifici.
Nella realizzazione del S.I.T. per il
Comune di Rogliano, al fine di
rendere disponibili una serie di custom
commands che hanno reso possibile
l’automatizzazione di procedure per la
consultazione/gestione dei dati, è stato
utilizzato l’ambiente di sviluppo
Microsoft Visual Studio 6.0,
importando le relative DLL attraverso
il tool GMC (Geomedia Command
Installer).
In particolare, sono state
implementate le seguenti funzionalità:
l’intersezione spaziale (calcolando in
automatico l’area di ogni intersezione)
della banca dati vettoriale catastale
con le diverse feature classes create
per rappresentare i diversi tipi di
vincoli (piano di fabbricazione, piano
di recupero del centro storico, ecc.). Il
risultato ottenuto, visualizzabile in
ambiente Geomedia attraverso una
MapWindow ed una DataWindow (Fig.
6), è contestualmente riportato nel
modello di Certificato di Destinazione
Urbanistico (in formato Word)
abitualmente utilizzato dall’Ufficio
Tecnico (Fig. 7). Il documento
rilasciato, individuato da una serie di
attributi (Num. Protocollo, Data di
Rilascio, e così via) risulta anche
inserito nel DataBase utilizzato per
l’archivio, consultabile sia per chiavi
di ricerca che per mezzo di testo
libero inserito dall’operatore. E’ inoltre
garantita la completa ed agevole
verifica dei risultati prodotti
dall’automazione realizzata.
Conclusioni e sviluppi futuri
Dalla volontà da parte
dell’Amministrazione Comunale di
Rogliano di soddisfare la richiesta da
parte dei cittadini di un miglioramento
delle procedure amministrative in
termini di efficienza e qualità, è
maturata l’esigenza di realizzare
un’applicazione GIS. E’ da sottolineare
come il risultato sia stato raggiunto
solo grazie al mix di tecnologie
avanzate per la gestione del territorio
e di lungimiranza politica da parte
degli Amministratori del ramo,
condizione indispensabile per uno
✓
✓
✓
✓
✓
✓
✓
Interrogazione Banca Dati per
Particella/Fabbricato/Foglio
Gestione / Consultazione di tutti gli
attributi alfanumerici, forniti
dall’Agenzia del Territorio, per
Particella/Fabbricato (Fig. 4)
Gestione Cantieri
Consultazione archivio Cantieri
Consultazione Normativa Tecnica
Consultazione archivio Certificati di
Destinazione Urbanistica
Rilascio Certificato di Destinazione
Urbanistica (Fig. 5)
Figura 4 - Attributi Particella
In particolare, l’implementazione di
un custom command per il rilascio del
Certificato di Destinazione Urbanistica
ha consentito di ridurre notevolmente
i tempi necessari per la sua
compilazione, con conseguente
snellimento del carico di lavoro del
personale dell’Ufficio Tecnico, al quale
è infatti richiesta la compilazione di
una form, i cui parametri di input
sono stati definiti in base alle usuali
prassi di lavoro (Fig. 5). L’applicazione
realizzata provvede ad effettuare
Figura 5 - Form per il rilascio del Certificato di Destinazione Urbanistica
30
GEOmedia 2 2006
Figura 6 - Intersezioni calcolate per il rilascio del Certificato di Destinazione Urbanistica
sviluppo reale dei territori.
La soluzione adottata ha
soddisfatto pienamente le esigenze
dell’Ente che ha adesso a disposizione
un sistema informativo territoriale
capace di integrare tutti gli strumenti
necessari per svolgere le funzioni di
gestione, controllo e pianificazione del
territorio di propria competenza. In
quest’ottica diverse sono le possibili
estensioni che l’Ente sta
programmando: collegamento con
l’anagrafe e gestione tributi (ICI, ecc.),
realizzazione di un’applicazione
WebGIS grazie alla quale rendere
fruibili a tecnici e/o a semplici
cittadini i dati e le informazioni
contenute nel S.I.T., gestione reti
tecnologiche, manutenzione
infrastrutture e servizi di pubblica
utilità ed altro ancora.
R EPORTS
Autori
VITTORIO GAGLIARDI,
GIACOMO MARTIRANO (MiCE)
Via Pasquali 79 – 87040 Mendicino (CS)
Tel.: 0984.631949, Fax: 0984.631767
E-mail: v.gagliardi@mice.it,
g.martirano@mice.it
Figura 7 - Generazione del Certificato di Destinazione Urbanistica
LEONARDO CITINO (Comune di Rogliano –
Assessore all’Urbanistica)
PINO MASTROIANNI (Comune di Rogliano –
Ufficio Tecnico)
Via Municipio, 1 – 87054 Rogliano (CS)
Tel.: 0984-961001, Fax: 0984.961178
E-mail: utc.rogliano@libero.it
GEOmedia 2 2006 31
R EPORTS
9 a Conferenza
Italiana Utenti ESRI
La Conferenza Italiana
degli Utenti ESRI svoltasi
a Roma il 5-6 aprile si è rivelata
ancora un volta l’appuntamento più
interessante per chi come noi si occupa di
geomatica e dei suoi infiniti scenari di
applicazione. La varietà e la qualità degli interventi
ha permesso di sancire ancora una volta il successo
dell’iniziativa che è ormai giunta alla nona edizione
e lo sperimentato scenario in cui la Conferenza si è
svolta, l’Auditorium del Massimo, ha permesso poi
agli organizzatori di presentare un evento ben
studiato sia sul piano organizzativo e della gestione
degli interventi che su quello logistico e di
supporto ai presenti.
Il tema della nona Conferenza ESRI,
Geospatial Knowledge, ha inteso riaffermare
ed enfatizzare le esperienze della ESRI
Community nel processo evolutivo di
conoscenza del territorio grazie al GIS che,
come afferma Bruno Ratti presidente di
ESRI Italia:”…è strumento di intelligenza
capace di creare integrazione cognitiva tra
tutti i saperi necessari a misurare,
rappresentare, modellizzare i processi attivi
nel nostro spazio…”. La tecnologia GIS ha
ancora una volta riaffermato la sua
centralità nei processi decisionali, gestionali
ed organizzativi, inserendosi in dinamiche
via via sempre più specifiche, ampliando e
favorendo la diffusione di una più
consapevole e responsabile conoscenza
territoriale; allo stesso tempo, però:”La
pluralità di competenze necessarie per
affrontare le problematiche di intelligenza
territoriale determina la necessità di disporre
di strumenti di conoscenza diversificati”,
come afferma proprio Ratti.
Le sessioni tematiche, che hanno avuto
ovviamente come filo conduttore il GIS,
hanno spaziato attorno a vari argomenti che
comprendevano: Servizi al Cittadino e
Portali; Rischi Naturali, GIS e GPS; Ricerca
e Modelli per l’Urbanistica; Gestione
Emergenza e Protezione Civile; Geostatistica
e Marketing Territoriale; Ambiente e
Territorio; SIT e Governo Locale; Trasporti,
Mobilità e Infrastrutture; GIS e Turismo;
Valutazione, Impatto e Sostenibilità
Ambientale; Utilities: GIS e Asset
Management; Beni Culturali: Tutela e
Valorizzazione. E’ stato proposto durante la
Conferenza uno spazio dedicato ai Progetti
Internazionali: Sostenibilità, Sviluppo ed
Emergenza. Hanno affiancato le sessioni
workshops tematici dedicati a: Utilities: il
SIT nel Rapporto tra Autorità e Gestori; La
Patente Europea per il GIS: il Progetto
ECDL-GIS; Tecnologie Satellitari per il
Posizionamento di Precisione; Facility e
Property Management. Presente alla
Conferenza anche uno spazio dedicato alla
tecnologia affrontata sotto l’aspetto della
novità e della formazione con workshops
tecnologici e di approfondimento
esemplificati grazie a dei videocorsi.
La sessione plenaria, che ha piacevolmente
32
GEOmedia 2 2006
ospitato una gremitissima platea, ha
introdotto i partecipanti alle tematiche della
Conferenza tramite le parole di Bruno Ratti
ed ha gettato uno sguardo sugli scenari
della tecnologia ESRI ArcGIS, lasciando poi
spazio all’esperienza dell’Istituto Geografico
Militare ed all’impegno profuso per la buona
riuscita dei XX Giochi Olimpici Invernali di
Torino. I due anni di lavoro speso dall’IGM
per Torino 2006 hanno fornito un prodotto
finale specifico per la sicurezza del tutto
omogeneizzato, sia a livello dei sistemi
informativi dei vari produttori GIS che a
livello dei dati in possesso dei vari Enti
Territoriali.
Tra i workshops tematici da segnalare quello
dedicato alla patente europea per il GIS
(ECDL-GIS) presentato dall’AICA
(Associazione italiana per l’Informatica ed il
Calcolo Automatico) che ha illustrato la
presenza di una certificazione a livello
europeo in grado di rispondere alla sempre
maggior richiesta da parte del mercato del
lavoro di professionalità sempre più
specifiche.
Notevoli anche i risultati, nell’ambito delle
sessioni dedicate alla tutela dei beni
culturali, del progetto Archeomar. Il progetto
ha costituito uno strumento di conoscenza,
tutela e prevenzione del patrimonio culturale
sommerso nei fondali marini meridionali. Il
complesso lavoro è passato attraverso diverse
fasi comprendenti il censimento degli
archivi, la costituzione del GIS, la
rilevazione ed investigazione dei siti, l’analisi
e l’aggiornamento della base dati e la
divulgazione dei dati stessi. Sul prossimo
numero di GEOmedia un interessante
approfondimento sul progetto in questione.
Nell’area espositori, erano presenti alcune
delle più importanti e rappresentative
aziende legate al mondo del GIS e dell’ICT
e tutti i principali partners ESRI.
La due giorni dedicata al GIS è stata
inframmezzata dal tradizionale
appuntamento per socializzare: quest’anno
protagonista sul palco del Massimo è stata
Francesca Reggiani.
Nel box a fianco i premi assegnati alla 9°
Conferenza Italiana degli Utenti ESRI.
A cura della Redazione
Premi Sessioni 2006
• Comune di Roma
Il Nuovo Portale Cartografico online del Comune di Roma
• Presidenza del Consiglio dei Ministri – Dipartimento della
Protezione Civile
L’Area Rischio Sismico - Centro Funzionale del
Dipartimento della Protezione Civile
• Sviluppo Italia
ALADINO. Simply a Genius
• Corpo Forestale dello Stato
Inventario Nazionale delle Foreste e dei Serbatoi Forestali
di Carbonio
• Poste Italiane
Il Sistema Informativo Territoriale per il Network degli
Uffici Postali
• Acquedotto Pugliese
Il SIT a Supporto della Supervisione e il Monitoraggio
dell’Acquedotto Pugliese
• NORDCOM S.p.A.
Localizzazione Flotta Ferrovie Nord Milano per il
Trasporto Pubblico Locale
• ANAS S.p.A.
Il Sistema Informatico del Catasto delle Strade di Anas
S.p.A.
• Comando Truppe Alpine
Il Sistema Informativo Meteonivologico e Territoriale del
Servizio Meteomont
• ARPA Lombardia
Indici per il Monitoraggio Paesistico di una Nuova
Infrastruttura Autostradale
• PROVINCIA DI MASSA CARRARA
Progetto GIS-Turismo Massa-Carrara
• United Nations – World Food Programme
GIS e Crisi Umanitarie
• FAO – Food and Agricoltural Organization of the United
Nations
Povertá e Denutrizione in Relazione alla Densitá di
Popolazione e alla Produzione Agricola: un Approccio
Geografico
• Joint Research Centre - European Commission
Il Sistema della CE MARS per la Previsione dei Raccolti e
le Esigenze GIS
• Università di Roma Tre
Posizionamento di Alta Precisione Finalizzato all’
Estrazione di DEM
• Università Mediterranea di Reggio Calabria
Stima dei Costi di Conservazione, Estimo Operativo,
Recenti Sperimentazioni
• Università “La Sapienza” di Roma
Microtopografia e Contestualizzazione di Manufatti Litici
Preistorici in ArcGIS
Premi Poster Session
• CNR IRSA
Procedura per l’Integrazione di Reti di Monitoraggio con
la Vulnerabilità.
• Politecnico di Bari
Sistema Informativo per i Beni Archeologici del Territorio
Comunale di Andria
• Università di Milano Bicocca
I GIS Come Strumenti di Valutazione, Valorizzazione e
Protezione dei Ghiacciai
Un piccolo “bozzo” per la tecnologia,
un balzo gigantesco per i topografi.
Sistema Trimble ® R8 GNSS
Aggiornato. Avanzato. Perfezionato.
E ancora in grado di entrare in
quella piccola cupola bianca e
lucida. Progettato per massimizzare
la flessibilità e minimizzare i tempi
di inizializzazione, il sistema
Trimble R8 GNSS vi consente di
essere sempre all‘avanguardia per
quanto riguarda le innovazioni dei
segnali, per un‘accuratezza e una
produttività sul campo superiori.
Combinando un design di sistema
testato e collaudato con una
tecnologia avanzata del ricevitore,
il Trimble R8 GNSS è un passo
avanti significativo per il settore
dei rilievi. In altre parole, siamo
riusciti a migliorare ciò che era già
il massimo.
Supporto GNSS
La tecnologia Trimble R-Track vi
permette di utilizzare sia i segnali
dell’evoluzione della tecnologia
GPS L2C e L5, che i segnali
GLONASS L1/L2. Più tracciamento
satellitare significa una maggiore
produttività sia oggi che in futuro.
Struttura collaudata
del sistema
È un prodotto Trimble, quindi avrete
sempre una tecnologia collaudata,
leggerezza, comunicazioni flessibili
e una struttura robusta. Fornisce un
funzionamento facile e senza cavi,
sia come base che come rover.
Collegatevi
Create una soluzione Trimble I.S.
rover completa aggiungendo un
prisma alla palina del vostro rover.
E, come tutti gli altri prodotti
Trimble, il sistema R8 GNSS si
inserisce immediatamente nel
Connected Survey Site Trimble.
Per scoprire quanto siamo arrivati
lontano e quanto lontano potete
andare anche voi, visitate il sito
www.trimble.com/gnss
©2006, Trimble Navigation Limited. Tutti i diritti riservati.
SUR-085-D
R
EPORTS
Un sistema GIS o un sistema
catastale si compone di
molteplici fattori come tecnologie,
dati, progetti, sistemi e risorse
umane. Nello stesso modo i
sistemi complessi funzionano se
tutto l’insieme funziona, ma le
tecnologie e il fattore umano
sono alla base della riuscita di
ogni progetto. In questo articolo
viene presentato il sistema
sviluppato da Insiel Spa.
Il nuovo sistema sviluppato da
Insiel su piattaforma Intergraph
Geomedia Web Map per la
gestione integrata dei dati
amministrativi, cartografici e
catastali negli Enti Locali è
basato sui concetti di
interoperabilità web e di
cooperazione applicativa.
Un modello di
catasto
esportabile
a 360°
Insiel Spa
Automatizzare le funzioni di
consultazione dei dati catastali
per rendere più agevole la
loro esecuzione, collegarle a quelle del
Libro Fondiario nelle zone della
Regione Friuli Venezia Giulia soggette
al sistema tavolare e integrare le
informazioni catastali nei sistemi
informativi comunali per la gestione
del territorio e il controllo della
fiscalità. Sono queste alcune delle
caratteristiche del progetto di
completamento del CIM (Catasto
Immobiliare Montano) che Insiel spa
(INformatica per il Sistema degli Enti
Locali) con sede principale a Trieste,
su incarico della Regione Friuli
Venezia Giulia, ha realizzato e sta
sperimentando e che vedrà coinvolti
34 direzioni regionali, 219 Comuni, 4
Camere di Commercio industria e
artigianato, 5 Ater e 3 aziende di
promozione turistica oltre alle
amministrazioni provinciali e agli enti
funzionali regionali.
“L’esperienza del CIM – indica
Stefano De Capitani amministratore
delegato di Insiel Spa – punta ad
essere completata con nuovi strumenti
di aggiornamento e sarà estesa a tutto
il territorio regionale per dare vita ad
un sistema catastale regionale integrato
che consenta ai Comuni di utilizzare i
dati censuari e catastali
contestualmente ai propri dati:
anagrafe, tributi, piano regolatore”.
Il sistema per ora viene, infatti,
offerto solo alle Comunità montane e
viene alimentato da un flusso costante
di dati forniti dall’Agenzia del
Territorio ed è concepito in modo tale
da recepire a sua volta informazioni e
segnalazioni da parte dei Comuni per
arrivare ad ottenere una base di dati
corretta, aggiornata e coerente. L’iter
progettuale si articola a partire dal
2004 quando la Regione Friuli Venezia
Giulia stipula, con Insiel, una
convenzione che prevede la
realizzazione di alcune applicazioni
web per la visualizzazione e
l’integrazione dei dati catastali,
regionali e comunali, e l’avvio di
un’attività di sperimentazione presso
alcuni comuni della montagna.
Alle Comunità Montane viene
riservato un ruolo importante di
aggregazione, erogazione di servizi,
consulenza e informazioni, che si
concretizza con l’istituzione, presso
ciascuna, di un polo, concepito come
centro di competenza.
E per dare sostanza al progetto, nel
maggio 2005 viene firmato, invece, un
protocollo d’intesa tra l’Agenzia del
Territorio e la Regione Friuli Venezia
Giulia, più precisamente con la
direzione centrale pianificazione
territoriale, energia, mobilità e
Localizzazione di una posizione censuaria catastale sulla cartografia
infrastrutture di trasporto, servizio
sistema informativo territoriale e
cartografia. Questo prevede che, per
tutta la durata del protocollo,
l’Agenzia del Territorio fornisca i dati
catastali e censuari relativi a tutto il
territorio regionale, ogni tre mesi.
“La soluzione predisposta da Insiel –
prosegue De Capitani – prevede,
quindi, la realizzazione di un insieme
di applicazioni web intranet rivolte ai
funzionari degli enti locali e presenta
notevoli vantaggi: dall’aggiornamento
puntuale dei dati all’integrazione del
sistema catastale con tutte le altre
informazioni comunali, tributarie,
anagrafiche e simili” .
Il sistema è inoltre in grado di
visualizzare e integrare le informazioni
delle carte catastali, della carta tecnica
regionale numerica, dell’ortofotocarta e
di altri strati informativi territoriali,
quali ad esempio i piani regolatori
generali comunali. Per dare massima
34
GEOmedia 2 2006
Sovrapposizione della cartografia catastale sulla CTRN (Carta Tecnica Regionale Numerica)
Evidenza di una particella catastale
Localizzazione di una posizione ICI sulla cartografia
Integrazione di anagrafe e ICI con localizzazione sulla cartografia
garanzia di qualità dei lavori sui dati
cartografici catastali, Insiel ha
stipulato una convenzione con
Cartesio, centro di eccellenza in
materia, dell’università degli studi di
Udine e nel futuro prevede di
stipulare ulteriori convenzioni con altri
atenei regionali.
“Va aggiunto, poi, che per affrontare
al meglio il particolare contesto
regionale del Friuli Venezia Giulia –
chiarisce De Capitani - in cui sono
presenti, in diverse aree del territorio,
il catasto italiano e il catasto austriaco
o Tavolare, affiancato dal servizio del
Libro Fondiario, ( questione ereditata
dalla situazione storica degli ultimi
due secoli) il Protocollo d’Intesa
prevede l’istituzione di commissioni di
coordinamento e gruppi di lavoro, sotto
la regia della Regione e dell’Agenzia
del Territorio”.
Ad un lavoro articolato, complesso e
consistente sui dati, corrisponde,
sempre da parte di Insiel, lo studio, la
progettazione e la realizzazione di
applicazioni software per la gestione
dei flussi dei dati, il caricamento nei
database, la visualizzazione descrittiva
e geometrica, l’integrazione con i
database e le applicazioni tipicamente
comunali; il tutto in ambiente web,
secondo protocolli standard e in
un’ottica, la più moderna ed attuale,
di interoperabilità.
Le prime installazioni avverranno
tra pochi giorni presso il primo polo
di sperimentazione, ed a seguire sugli
altri poli presso le comunità montane.
Per comprendere nel concreto che cosa
offre il sistema, basti sapere che un
funzionario comunale potrà cercare
l’anagrafica di un cittadino, tracciarne
la situazione catastale e ICI, e
visualizzare sulla cartografia la
residenza e le proprietà. Viceversa,
partendo dalla cartografia, sarà
possibile selezionare un numero civico
ed ottenerne l’elenco dei residenti,
quindi proseguire con la ricerca delle
informazioni a questi associate presso
i vari database.
Naturalmente sarà possibile
realizzare interrogazioni, statistiche e
tematismi sui dati, rappresentandoli
anche sulla cartografia. Visualizzare ed
interrogare il piano regolatore generale
anche in Internet, realizzare un
certificato di destinazione urbanistica
ed altro ancora.
Un sistema made in Friuli Venezia
Giulia, grazie all’esperienza maturata
da Insiel in trent’anni di attività e al
personale altamente qualificato di cui
R EPORTS
GEOmedia 2 2006 35
R EPORTS
dispone. “Un modello Friuli – conclude
De Capitani – che può essere esportato
in altre regioni e che Insiel è in grado
di realizzazione in modo innovativo e
concreto, a vantaggio del territorio”.
Insiel, che ha visto l’acquisizione da
parte della Regione Friuli Venezia
Giulia del 52% della proprietà di
Insiel da Telecom Italia lo scorso
maggio, ha rinnovato anche la prima
linea aziendale e intende migliorare la
propria offerta verso la pubblica
amministrazione elevando il livello
qualitativo dei servizi in essere, oltre a
proporne altri innovativi. L’esperienza
del catasto immobiliare rientra fra
questi ultimi.
36
Consultazione del PRG (Piano Regolatore Generale) e redazione del CDU (Certificato di
Destinazione Urbanistica)
Localizzazione di un rifugio sulla cartografia e accesso al relativo sito web
La pagina iniziale del Visualizzatore Regionale
GEOmedia 2 2006
Scheda Aziendale
INSIEL - Informatica per il Sistema degli Enti locali
S.p.A. - nata nel 1974 con l’obiettivo di realizzare il
sistema informativo elettronico della Regione Friuli
Venezia Giulia, da oltre 30 anni studia, progetta e
realizza soluzioni informatiche per le Amministrazioni
Locali e la Sanità, collocandosi oggi come una delle
più importanti aziende del settore.
Tutte le attività di Insiel – siano esse specificamente
orientate all’informatizzazione delle funzioni tecnicogestionali
delle Pubbliche Amministrazioni Locali e
della Sanità pubblica oppure riguardino la fornitura di
servizi professionali, l’elaborazione dati, l’integrazione
sistemi o l’outsourcing - sono realizzate con l’obiettivo
strategico di ottenere l’efficienza nella gestione dei
processi ed il miglioramento della qualità dei servizi
resi al cittadino.
La produzione di software in tutte le sue accezioni e
la forte scalabilità – da singole installazioni on site
all’outsourcing completo - rendono l’offerta di Insiel
molto completa, innovativa e tecnologicamente
avanzata. Il patrimonio di competenze sviluppate in
oltre 30 anni di attività ha inoltre permesso
all’azienda di continuare ad operare per il
rafforzamento della posizione di leadership acquisita,
offrendo allo stesso tempo un’importante garanzia di
continuità.
La struttura societaria di Insiel vede oggi la Regione
Autonoma Friuli Venezia Giulia come azionista di
maggioranza con una quota pari al 98,5% (il
rimanente 1,5% resta nelle mani dell’Azienda per i
Servizi Sanitari n°4 “Medio Friuli”).
Il cambio di proprietà - avvenuto il 3 maggio 2005 in
seguito all’acquisizione da parte della Regione Friuli
Venezia Giulia del 52% della proprietà di Insiel da
Telecom Italia – ha portato con sé anche un
rinnovamento della prima linea aziendale che vede
Dino Cozzi in qualità di Presidente e Stefano De
Capitani come Amministratore Delegato.
Insiel ha sede principale a Trieste e uffici dislocati
sull’intero territorio nazionale – a Milano, Venezia,
Firenze, Roma, Napoli, Udine, Gorizia e Pordenone.-;
vanta oggi più di 1.500 Utenti – tra Regioni, Comuni,
Province, Consorzi, Aziende Sanitarie ed Ospedaliere,
etc. - che si avvalgono delle sue prestazioni
professionali e dei suoi prodotti.
Ma Insiel non è solo questo: il costante sforzo
innovativo dei processi e dei prodotti e l’elaborazione
di soluzioni che rispondano agli specifici bisogni dei
clienti sono punti fermi della sua politica. A questo
fine, Insiel investe una quota rilevante del proprio
valore aggiunto in attività di ricerca e sviluppo
attraverso i Laboratori nella sede centrale di Trieste,
nell’Area di Ricerca di Padriciano, nel Laboratorio di
Grafica e Settore Sanità di Udine e nel Laboratorio
Progetti Speciali di Gorizia.
Insiel, infine, è un’azienda con numerose partnership
industriali e commerciali attive con i principali
operatori dell’ICT a livello nazionale e internazionale,
con Università e Centri di Ricerca, oltre che con le
altre strutture di informatica pubblica.
GNSS, lo stato dell’arte in Italia
R EPORTS
EPORTS
Lo scorso 20 marzo si è tenuta presso l’Aula Magna dell’Università degli Studi
di Roma “La Sapienza”, una giornata di incontro dal titolo “Reti di stazioni
permanenti GNSS e servizi di posizionamento per l’ e-government” organizzata
dall’Area di Geodesia e Geomatica diretta dal prof. M.Crespi.
L’apertura dei lavori è stata curata dal Prof. Enrico Rolle (Direttore del DITS)
che ha poi lasciato la parola, in qualità di chairman, al prof. Mattia Crespi che
ha presentato gli interventi della prima parte del convegno.
Tra i diversi chairmen che si sono alternati citiamo il prof. Ambrogio Manzino
del Politecnico di Torino, il prof. Fernando Sansò del Politecnico di Milano
nonché Past President della International Association of Geodesy ed il Dott.
Ludovico Biagi del Politecnico di Milano.
Gli interventi, di estremo rilievo sia per i contenuti che per il ruolo dei relatori
e delle istituzioni rappresentate, in ordine cronologico sono stati i seguenti:
• Le strategie dell’istituto Geografico Militare nel settore Geodetico -
Maggiore Generale Renato De Filippis (Comandante dell’Istituto
Geografico Militare)
• Agenzia del Territorio: iniziative, attività e sviluppi nelle reti permanenti
per l’e-gov - Ing. Carlo Cannafoglia (Direttore della Direzione Centrale
Cartografia, Catasto e Pubblicità Immobiliare)
• Rete di stazioni permanenti per la sperimentazione di servizi di e-government
- Ing. Antonio Bottaio (So.Ge.I. SpA)
• I servizi di posizionamento basati su reti di stazioni permanenti GNSS -
Fernando Sansò.
• Le reti permanenti GNSS ed il nuovo sistema di riferimento nazionale - Ing.
Renzo Maseroli (Istituto Geografico Militare)
• Il servizio di posizionamento della regione Lombardia - Dott. Roberto Laffi
(Regione Lombardia)
• Linee guida per la realizzazione di reti di stazioni permanenti di servizio -
Dott. Ludovico Biagi
• GPSLOMBARDIA: la prima rete di posizionamento a livello regionale - Ing.
Marco Scuratti (IREALP)
• Stato e prospettive della Rete Permanente per il tempo reale in Piemonte -
Prof. Ambrogio Manzino
• RESNAP-GPS: la rete GNSS sperimentale dell’Università degli Studi di
Roma “La Sapienza” - Prof. Mattia Crespi
• Le reti GNSS Leica nel Mondo - Ing. Sergio Padovani (Leica Geosystems)
A conclusione della giornata si è dato inizio alla tavola rotonda sullo stato dei
servizi di posizionamento GNSS in Italia che vedeva coinvolti nell’ordine del
Prof. Luciano Surace (Istituto Idrografico della Marina), il Gen. Renato De
Filippis, il Prof. Mattia Crespi, l’Ing. Carlo Cannafoglia e il Dott. Ludovico
Biagi.
La discussione è risultata abbastanza animata a testimonianza che gli intervenuti,
sia relatori che uditori, non avevano esaurito le energie e soprattutto
erano profondamente coinvolti nell’argomento trattato. Grande assente il
Geom. Piero Panunzi, Presidente del Consiglio Nazionale dei Geometri, che
purtroppo per cause non precisate non ha onorato la platea della sua prevista
presenza, privandola così di un punto di vista autorevole sulla categoria che, a
ragione, si può definire l’utilizzatore primo di servizi di posizionamento satellitare.
Durante la tavola rotonda e durante il convegno in generale due le questioni
su cui sono nati scambi di opinione significativi. Uno riguarda l’adozione o
meno delle coordinate cosi dette IGb00 adottate nella maggior parte delle reti
sperimentali in ambito universitario, anche se forti sono i dubbi sull’adozione
o meno delle medesime in ambito civile e professionale, l’altro aspetto emerso
riguarda un appello che per inciso è partito dal prof. Surace e condiviso da
Sansò e dalla platea tutta, sulla necessità di istituire una authority indipendente
sui sistemi di riferimento geodetici e geo-cartografici, tema ripreso dal collega
Carlucci nell’editoriale dello scorso numero della nostra rivista.
Per chi volesse entrare nei dettagli degli interventi, basta scaricare i file pdf
dei medesimi all’indirizzo: http://w3.uniroma1.it/geodgeom/corsi-convegnieducazione/2006-03-20_RetiGNSS/2006-03-20_RetiGNSS.htm
A Cura della Redazione
GEOmedia 2 2006 37
I NTERVISTA
Da Istituto di Topografia e
Geodesia ad Area di Geodesia
e Geomatica all’Università
“La Sapienza” di Roma
Intervista a Marcello Gaeta topografo e tecnico di topografia
L’Istituto di Topografia e Geodesia
dell’Università la Sapienza di Roma
ha visto passare un’epoca in cui
numerosi innovazioni tecnologiche si
sono succedute. Ma l’effetto più
importante per le sue variazioni si è
avuto dalle varie Riforme
Universitarie che purtroppo nell’arco
di più di un secolo hanno portato
alla chiusura di un Istituto di tale
valore relegandolo oggi ad un Area
del Dipartimento di Idraulica,
Trasporti e Strade.
Da punto di riferimento dell’intera
topografia italiana all’epoca di
Boaga, si è passati attraverso la
perdita dell’istituzione e di una
scuola di tale valore in un periodo
che potremmo definire di cieco
oscurantismo. Oggi, gli sforzi in atto
da parte del nuovo corpo docente
stanno finalmente dando i risultati
attesi riportando la nuova “Area di
Geodesia e Geomatica” ad essere
di nuovo un punto di riferimento
per la misura della Terra ed oltre.
GEOmedia ha voluto intervistare
Marcello Gaeta, un tecnico di tale
Istituto, per comprendere come in
tale arco di tempo sia passata tale
evoluzione.
GEOmedia - L’ ex Istituto di
Topografia e Geodesia di Roma ha
rappresentato un punto di
riferimento italiano per la
topografia, la geodesia e, negli
ultimi tempi, per l’intero mondo
geomatico. Quali sono state le
cause e le modalità di questo
passaggio?
Marcello Gaeta - L’Istituto è stato
per molti anni sede o luogo di
riunione di importanti organizzazioni e
comitati scientifici nazionali ed
internazionali i cui membri
rappresentavano la massima
espressione della ricerca nel campo
della Topografia e della Geodesia,
quali ad esempio in Italia i Proff.
Cassinis, Boaga, Ballarin, Bartorelli,
Solaini, Morelli ecc.
Quando nel 1874 l’Istituto prese vita
si chiamava Gabinetto di Geometria
Pratica. Dopo pochi anni assunse,
modernizzandolo, il nome di Gabinetto
di Geodesia. Pur mantenendo nel
tempo la stessa sede, la denominazione
di quest’area scientifica è stata prima
sostituita con quella di Istituto di
Topografia e Geodesia ed è poi passata
nel 2005, a seguito delle profonde
mutazioni apportate dalle nuove
tecnologie, alla denominazione di Area
di Geodesia e Geomatica.
Il cambiamento di denominazione è
anche conseguenza del passaggio
evolutivo avvenuto tra quanti si sono
dedicati allo studio della misura del
grado e quanti, in virtù del graduale e
naturale avvento delle nuove tecnologie
(TPS/GPS, GIS e immagini satellitari),
hanno modificato e arricchito il
tradizionale approccio al rilievo,
mutando la vecchia scuola topografica
nella nuova scuola geomatica.
GEOmedia - Lei è entrato in
servizio negli anni ‘60. Ci saprebbe
dire quali erano le persone di
riferimento all’epoca prima del suo
ingresso? Sappiamo, ad esempio,
che suo padre era qui prima di lei.
Può raccontarci brevemente quale è
stato il loro ruolo e cosa hanno
rappresentato per l’Istituto?
M. G. - Credo che il primo Direttore
dell’Istituto sia stato il prof. Giovanni
Reina, ma io ho più notizie del prof.
Boaga e del suo predecessore il prof.
Cicconetti.
Di sicuro Boaga, grande matematico,
è stata una delle personalità più
importanti che ha diretto l’Istituto e
che, oltre all’aspetto legato alle
esperienze cartografiche nelle quali ha
portato avanti gli studi relativi al
perfezionamento dei riferimenti delle
coordinate nazionali, è riuscito ad
imporsi come un vero e proprio
accentratore di varie competenze
durante tutto il periodo della sua
direzione. A partire dagli anni ’50
Pallone aerostatico utilizzato per la prima ripresa aerea
di Venezia dall'IGM nel 1912
infatti, sono stati diversi gli enti, le
istituzioni o i personaggi del settore
che si sono riferite a lui per consulenze
sulle più svariante tematiche trovandolo
sempre interessato alle argomentazioni
che gli venivano sottoposte.
Si, mio padre, che mi piace ricordare
anche come un collega, era qui prima
di me ed è grazie a lui ed ai suoi
insegnamenti (che mi venivano
impartiti già da qualche anno prima)
che sono stato introdotto ufficialmente
in questo mondo nel 1964.
Già prima di questa data, comunque,
saltuariamente mi veniva assegnata una
squadra di studenti da istruire nella
pratica dell’uso degli opportuni
strumenti per l’esecuzione di rilievi
topografici. La mia opera veniva
richiesta quando il numero degli
istruttori era inadeguato al numero
degli studenti.
Il ruolo di istruttore veniva ricoperto,
oltre che dagli assistenti collaboratori
ufficiali del titolare della cattedra,
anche da assistenti volontari, molti dei
quali insegnavano negli istituti tecnici o
addirittura qualcuno ne era Preside. ll
prof. Enrico Vitelli, filosofo, uomo di
grande cultura e preparazione tecnica,
in particolare, era un funzionario del
Catasto.
Il clima prima di allora risentiva
parecchio dell’influenza del potere che i
docenti esercitavano nella conduzione
sia accademica che economica degli
Istituti.
38
GEOmedia 2 2006
Tacheometro 6 pollici acquisito il 18/10/1879
L’applicazione rigorosa dei
regolamenti ha di sicuro penalizzato il
riconoscimento del lavoro di mio padre
che, al di sopra delle sue competenze,
istruiva gli studenti all’uso degli
strumenti; una mansione che mio
padre svolgeva molto spesso e con
conoscenza, coscienza e passione senza
per questo nulla pretendere.
Fondamentale per la mia formazione
al di là del mero uso degli strumenti,
è stata la fortunata opportunità di
avere collaborato con i professori
Ubaldo Giannoni ed Errico Ferrara i
quali mettevano a disposizione mia e
di chi fosse interessato il loro sapere.
Essi infatti quasi sempre durante la
progettazione di ogni lavoro mi
rendevano partecipe, prendevano in
considerazione le mie osservazioni e
accettavano un’eventuale anche se raro
mio suggerimento…
Dopo il ’61, anno della la morte
del prof. Boaga, per molto tempo la
conduzione è stata affidata a docenti
che dirigevano già altri Istituti per cui
non c’è stata una sostituzione vera e
propria con un docente addetto ai
lavori. Tutto ciò ha portato ad un
indebolimento dell’Istituto e ad una
decadenza.
L’avvento del Prof. Valentino
Tomelleri (anche lui grande
matematico), a causa della brevità
della sua permanenza, non è bastato a
colmare le lacune che gli anni avevano
creato, per cui dopo il suo
trasferimento all’Università di Padova,
il nostro Istituto restava di nuovo
orfano e costringeva la Facoltà a
nominare docenti di altre discipline
che, purtroppo, non potevano
assicurare la stabilità di cui l’Istituto
aveva bisogno.
Dopo questo lungo periodo di
incertezze all’inizio degli anni ’80 il
ruolo di Direttore dell’Istituto (per
poco tempo a causa dell’avvento dei
Dipartimenti) è stato ricoperto dal
prof. Giuseppe Birardi, alto ufficiale
dell’IGM prima e docente all’Università
di Ancona poi, il quale ha avuto il
difficile compito di recuperare i resti e
riconsegnare alla nostra materia il
ruolo che gli spettava nell’ambito
dell’Università. Questo è stato possibile
grazie alla sua partecipazione
costruttiva ai vari Organi Accademici
che gli consentivano di riallacciare
contatti costruttivi con i suoi colleghi.
La Topografia finalmente ricominciava
a vedere riconosciuta la sua
importanza.
Dopo il pensionamento del prof.
Giuseppe Birardi alla guida dell’ormai
Area di Topografia e Geodesia è
succeduto il prof. Maurizio Barbarella,
anch’egli proveniente dall’Università di
Ancona, il quale con la sua attività
continuava a mantenere viva la figura
della Topografia nell’ambito
dell’Ateneo. Anche il prof. Barbarella
non ha avuto una lunga permanenza
all’Università di Roma; infatti dopo
pochi anni si è trasferito all’Università
di Bologna.
GEOmedia - L’Istituto ha
realizzato, durante questi anni,
numerose opere importanti
all’interno del campo della
topografia di precisione. Ci risulta
anche che siano state fatte delle
campagne di rilevamento a livello
nazionale. Cosa può dirc?
M. G. - Purtroppo la nostra materia
spesso viene applicata per monitorare
tutti quei fenomeni di carattere
particolare (smottamenti, frane, effetti
post-terremoto ecc.) che con il loro
progredire potrebbero scatenare
situazioni di grande pericolo. L’utilità
di tali monitoraggi consiste nel
permettere agli addetti ai lavori di
valutare, prevenire e gestire le
calamità che potrebbero generarsi.
Per questo motivo ad intervenire siamo
sempre pronti, come lo fummo
all’inizio degli anni ’70 nell’eseguire,
dopo il terremoto che coinvolse
pesantemente la città di Tuscania, i
rilevamenti in superficie e quelli delle
cavità sotterranee, utili a consentire al
Genio Civile di procedere per il
recupero della stessa città.
Ancora siamo stati pronti nel
monitorare, quando il movimento
tellurico era ancora in atto, gli effetti
del terremoto sulla frana di Caposele.
Ma vi sono anche applicazioni che non
implicano per forza questo tipo di
urgenza. Ricordo che mio padre mi
raccontava del suo contributo per la
realizzazione del rilievo dai sotterranei
della Basilica di San Pietro progettato
ed eseguito dal prof. Cicconetti.
Ricordo la livellazione per
l’acquedotto del Peschiera, ad esempio,
che il Prof. Aquilina ha effettuato con
la collaborazione di mio padre. Ancora
ricordo la livellazione sulla sommità
dei muraglioni del Tevere da me
effettuata negli anni ’60 unitamente a
mio padre ed il mio compianto amico
e collega Mario Evandri, che, ripetuta
nel tempo, doveva verificarne la
stabilità.
Questa livellazione, credo l’ultima,
non ha riguardato tutto il percorso ma
buona parte di essi.
Il progetto per il rilievo del
Colosseo promosso dal prof. Giuseppe
Birardi fu importante sotto molti punti
di vista. Ad esso hanno infatti
partecipato tecnici provenienti da
molte discipline scientifiche, compresa
la botanica.
I NTERVISTA
Stereocomparatore Zeiss acquisito il 29/12/1923
GEOmedia 2 2006 39
I NTERVISTA
Il prof. Birardi è stato il promotore,
insieme a istituzioni svizzere ed
austriache, di una campagna
fotoastronomica attorno al lago
Maggiore per la determinazione
dell’azimut astronomico per lo studio
della massa di Ivrea. Lo stesso Birardi
ha successivamente promosso una
campagna fotoastronomica anche su
tutta la parte a sud della Sicilia da
Mazara del Vallo a Siracusa. Ancora
Birardi ha partecipato alla
realizzazione della Geotraversa.
Molto importante fu il monitoraggio
del territorio che comprende le
sorgenti del fiume Sele, dove nasce il
ramo forse principale dell’Acquedotto
Pugliese. Il lavoro, il cui scopo era
quello di tenerne sotto controllo il
movimento franoso che lo interessa,
cominciò intorno agli anni ‘40 ed è
ancora oggetto di attenzione.
Personalmente ho avuto il privilegio di
vivere il graduale cambiamento
nell’esecuzione del lavoro stesso,
cambiamento dovuto all’utilizzo di
nuove tecnologie sempre più
sofisticate. Basti pensare a come,
inizialmente, il solo problema della
comunicazione coi collaboratori fosse
di fondamentale importanza per la
veloce e buona riuscita di un lavoro.
Per il monitoraggio si erano
realizzati, nella zona in frana, dei
pozzi profondi anche una decina di
metri e larghi un paio. Sulla sommità
era stata realizzata una corona di
cemento levigato e nella parte centrale
del fondo si era materializzato un
pilastrino che serviva per vedere il
comportamento della frana in
profondità rispetto alla superficie.
Una rete di pilastrini veniva istituita
Strumento a passaggio Salmoiraghi acquisito il
12/07/1914
su postazioni esterne alla frana, che i
geologi ritenevano stabili. Dei segnali
da traguardare, se non già esistenti,
venivano realizzati sul versante della
valle opposto ad ogni singolo
pilastrino. La posizione dei segnali era
studiata in modo che la linea
congiungente con il pilastrino passasse
per la corona del pozzo.
Su questo impianto si effettuavano
le operazioni di monitoraggio che
consistevano nel riportare sulle corone
dei pozzi le linee rappresentate dalla
congiungente pilastrino-segnale
(entrambi fissi).
Per questo il teodolite veniva
posizionato, con centramento forzato,
su un pilastrino e venivano collimati i
segnali fissi posti dall’altra parte della
valle, quindi si abbassava la visuale
del cannocchiale e si riportava,
datandola, la traccia sulla corona del
pozzo. Ovviamente questo lavoro
veniva effettuato da più direzioni in
modo da poter poi ottenere la
risultante del movimento franoso.
La ripetizione delle operazioni
effettuate in tempi successivi
determinava, in caso di movimento, la
nuova posizione delle tracce sulla
corona dei pozzi. Il confronto con le
tracce precedenti forniva l’informazione
sul movimento in superficie mentre
con l’ausilio di un filo a piombo si
arrivava alla determinazione del
movimento in profondità. All’inizio i
movimenti in certe zone del paese
erano talmente consistenti da
cancellare alcuni pozzi. Gli ultimi
rilevamenti come già accennato, sono
stati invece effettuati con l’impiego
del GPS.
Inutile dire come l’intera procedura
si sia svolta in maniera più veloce,
semplice ed assolutamente meno
vincolante. Insomma, è evidente il mio
compiacimento per avere vissuto e
fruito di questi cambi di tecnologie.
La radio trasmittente portatile, il
distanziometro, il GPS sono tutti
elementi che appartengono senza
dubbio all’evoluzione tecnologica
necessaria a questo mestiere. Si è
forse perso qualcosa a livello di
inventiva, è vero, ma d’altra parte gli
avanzamenti di cui si è goduto sono
stati veramente utili e necessari.
GEOmedia - Nello stesso Istituto
sono state realizzate opere famose
anche prima della sua venuta,
parlo dei primi del ‘900. Ad
esempio il lavoro per l’ortofotopiano
di Venezia, ad esempio. Cos’altro fu
fatto? Ha delle testimonianze
dell’epoca?
M. G. - Le foto scattate dalla
mongolfiera a Venezia intorno al 1910
probabilmente non sono state
realizzate dall’Istituto di Topografia
ma forse dall’IGM. Mi rallegro,
comunque che la nostra Area possieda
un così importante documento. Oggi
grazie all’ausilio delle foto aeree e
satellitari l’ortofotopiano è assai più
dettagliato ma rimane ancora
interessante, per un occhio esperto,
confrontare la qualità delle immagini
di quasi un secolo fa con quelle
attuali, per notarne le differenze.
GEOmedia - Abbiamo stimato che
in questo Istituto siano passati tra
gli anni ‘60 ed il 2000, contandone
100 all’anno, circa 5000 studenti:
quanti di loro sono poi
effettivamente finiti a fare il
mestiere del topografo?
M. G. - Più o meno direi che tra
gli studenti che avevano la topografia
nel piano di studi e quelli che hanno
invece discusso una tesi inerente a
questa materia, soltanto di recente,
alcuni di loro hanno poi trovato
un’occupazione legata in qualche modo
alla topografia.
Attualmente, poi, anche se non con
ricercatori veri e propri ma con
Orologio a pendolo con secondo
siderale acquisito 31/10/1881
40
GEOmedia 2 2006
Non Evoluzione. Rivoluzione
Presentazione di Trimble S6.
Il tempo di un topografo è subissato da
più richieste ed esigenze che mai. Così
quando ci avete chiesto migliori prestazioni,
maggiore precisione ed estrema
versatilità, vi abbiamo ascoltato. Trimble
S6 rappresenta una rivoluzione nella tecnologia
del rilievo topografico.
Trimble S6 include gli ultimi progressi
tecnologici, portandovi funzionalità
potenziate e ancora più dinamiche.
SENZA CAVI
La batteria interna e la radio integrata
rendono completamente privi di cavi
sia lo strumento sia il rover robotico. La
batteria intelligente consente sei ore di
autonomia nel modo Robotico.
MAGDRIVE
Silenziosi servomotori elettromagnetici
ad azionamento diretto offrono velocità
e precisione ineguagliate.
MULTITRACK
Coniuga l‘inseguimento dei prismi passivi
con l‘identificazione delle mire attive,
per flessibilità e prestazioni eccezionali.
SUREPOINT
La correzione automatica del puntamento
consente di avere le misurazioni più
precise, anche in condizioni difficili.
Provate adesso il nuovo Trimble S6.
www.trimble.com/revolution
ASSOGEO S.r.l.
Via Brodolini, 10/F
20049 Concorezzo (MI)
Tel. 039-628011
www.assogeo.com
©2004, Trimble Navigation Limited. Tutti i diritti riservati.
Trimble è un marchio di Trimble Navigation Limited, registrato nell’Ufficio marchi e brevetti degli Stati Uniti. SUR-076
www.trimble.it
I NTERVISTA
borsisti e collaboratori esterni, si porta
avanti la ricerca all’interno dell’Area,
cosicché le esperienze di lavoro anche
fatte sul campo possano far parte del
bagaglio di conoscenze di chi ha
frequentato questo luogo. Le attività
quindi sono sempre in fermento ed
anche in questo momento, nel quale
siamo impegnati nel monitoraggio di
alcuni vulcani, il lavoro non manca.
E il lavoro non mancherà di certo,
fintanto che di fronte ad un nuovo
strumento o un nuovo mezzo si
cercherà di ottimizzarlo; bisogna
cercare di chiedersi sempre cosa si
può riuscire a fare con esso. Io
guardo gli effetti: in base ad essi
cerco sempre di spingere lo strumento
fino alla resa ottimale. Solo avendo
continuamente curiosità questa materia
potrà evolversi ancora.
GEOmedia - Come venivano
svolte le esercitazioni prima della
riforma universitaria degli anni
‘80?
M. G. - La riforma degli anni ‘80
prevedeva la costituzione di
dipartimenti formati dal
raggruppamento di più Istituti,
pertanto l’organizzazione delle
esercitazioni non aveva comportato
variazioni. Infatti, didatticamente ciò
che si faceva come Istituto si è
continuato a fare come Area di
Topografia. Le variazioni significative,
invece, si sono avute diversi anni
prima, cioè quando non è stata più
riconosciuta la figura dell’assistente
volontario. Ciò ha comportato una
drastica riduzione degli istruttori
sottraendo così molto tempo utile che
sarebbe stato necessario per un più
completo svolgimento delle
esercitazioni.
Infatti gli studenti in origine, cioè
quando vi erano ancora gli assistenti
volontari, venivano istruiti all’uso
corretto ed appropriato degli strumenti
con i quali eseguivano poligonali e
rilievi completi di piccole aree, per lo
più vicine alla Facoltà, partendo anche
dalla georeferenzazione del punto di
partenza della poligonale con il
metodo della intersezione multipla
inversa. I dati venivano poi da loro
processati e cartografati. In pratica
venivano condotti alla costruzione
della carta topografica.
Dalle esercitazioni che gli studenti
agli inizi del ‘900, avevano effettuato
ne è scaturito un lavoro, a mio avviso
molto pregiato, rilevando in modo
Fotomosaico di Venezia eseguito dall'IGM nel 1912
molto dettagliato l’area dei Fori
Imperiali compresi tutti i reperti
archeologici visibili. Questo lavoro è
stato pubblicato dall’IGM nel 1911
con il nome di MEDIA PARS URBIS.
Oggi le esercitazioni, naturalmente,
tendono a far conoscere e praticare gli
strumenti e le apparecchiature di
nuova generazione come ad esempio le
total stations, i GPS, i livelli digitali
elettronici (i quali interpretano un
codice a barre impresso sull’acciaio
invar delle stadie). In laboratorio gli
studenti vengono istruiti al
processamento dei dati o
all’interpretazione e il trattamento di
immagini satellitari o riprese aeree per
la costruzione di carte topografiche.
Ritengo che per poter avere una
conoscenza profonda nel campo di cui
ci occupiamo sia utile conoscere il
funzionamento dei vecchi strumenti e
le tecniche di rilievo di qualche tempo
fa. Conoscere il concetto di angolo,
per esempio, e di come esso si ricava,
al di là della tecnologia digitale che
facilita tutto il lavoro, è utilissimo.
Saper tracciare l’angolo col goniometro
potrà sembrare banale e obsoleto,
certo, ma è comunque una delle
conoscenze che sarebbe bene avere
acquisito.
Queste elementari conoscenze, a mio
avviso, aumentano la sensibilità di chi
opera e di chi progetta.
GEOmedia - Ha ricordo di un
aneddoto, di una situazione
particolare, della quale è stato
testimone in questi anni?
M. G. - Di aneddoti ce ne sono
stati tantissimi ma quelli che
preferisco ricordare sono quelli
accaduti a livello umano, quelli legati
alle persone con le quali ho diviso e
condiviso, nel bene e nel male, per
molti anni situazioni talvolta divertenti
e talvolta preoccupanti.
Poiché la Topografia si pratica
prevalentemente fuori sede ed in tutte
le stagioni, è facile intuire come per
questo si possano creare situazioni
particolari. Situazioni di diversa
natura erano legate al luogo scena
delle operazioni. Ad esempio si
passava dall’incanto di panorami
bellissimi (operazioni topografiche che
si svolgevano in montagna oppure al
mare) alla necessità di dover lavorare
in cavità sotterranee (gallerie, cunicoli,
fungaie, scantinati ecc.) ma in
entrambi i casi le possibilità che si
potessero creare situazioni di pericolo
erano sempre presenti.
Le situazioni legate alle stagioni,
invece spesso creavano stati di disagio,
come ad esempio, lavorare in inverno
quando fa molto freddo non è certo
piacevole, come non è piacevole
lavorare d'estate quando il sole non
da tregua. A proposito del freddo
ricordo di quella volta in cui mi
trovavo in un campo agricolo sulle
colline prospicienti il mare Adriatico
nei pressi di Porto San Giorgio (la
finalità del nostro lavoro era quella di
posizionare in mare mediante
l’intersezione di due azimut una
piattaforma sonda per la ricerca
petrolifera). Avevo messo in stazione il
mio teodolite, trovando difficoltà ad
infiggere nel suolo i puntali delle
gambe del treppiede a causa del gelo,
e mi ero messo in attesa dell’arrivo
della piattaforma. Durante il giorno
con l’aumentare della temperatura il
terreno man mano perdeva la sua
durezza costringendomi, per motivi di
stabilità, ad affondare sempre più il
treppiede nel suolo. Poiché tra l’attesa
e il posizionamento della piattaforma
42
GEOmedia 2 2006
era passato molto tempo, si era fatta
sera e la temperatura si era
notevolmente abbassata per cui il
terreno si era di nuovo gelato
imprigionando il treppiede. Tanto forte
era la stretta del gelo che nel
recuperare il treppiede uno dei puntali
si è strappato ed è rimasto sotterrato
nel campo. Si pensi alla sofferenza di
chi come noi doveva rimanere
comunque sul posto senza la
possibilità di andare a cercare rifugio
dal freddo. Per fortuna tutto ciò
accadeva nelle Marche dove ho avuto
modo di sperimentare la squisita
ospitalità dei marchigiani: quel giorno
alle 6:30 del mattino mentre ero in
attesa della piattaforma e che la
nebbia si diradasse, venni notato dal
contadino che aveva casa li vicino, il
quale impietosito dalla mia condizione
mi ha invitato in casa e gentilmente
mi ha offerto una ricca colazione a
base di pane, salame e vino. Posso
garantire che malgrado l’orario, il
tepore della casa e gli alimenti offerti
avevano un valore notevole. Ricordo il
grande caldo sentito durante un rilievo
a Brindisi dove il mio collega Mario
Evandri che aveva occupato una
stazione alla fine di un molo fu colto
da insolazione. Mi ricordo ancora di
quando dovevamo georeferenziare un
natante che munito di ecoscandaglio
rilevava delle linee batimetriche nella
zona dell’Adriatico compresa tra
Termoli e Chieti. Ebbene il mio
compito era quello di occupare
stazioni già definite lungo quel tratto
di costa per dirigere il natante
sull’allineamento che si creava a
seguito di impostazione azimutale. Il
tratto da percorrere era molto lungo,
le stazioni erano relativamente poco
distanti tra di loro. Dopo poche
stazioni lasciavo alle mie spalle gli
ultimi bagnanti e da solo, sull’arenile,
con una scarsa provvista di acqua,
carico della strumentazione procedevo
con fatica nell’esecuzione della mia
funzione. Il tempo passava, il sole
saliva picchiando e la temperatura
aumentava, la sete cresceva e io
soffrivo. Ancora non so, a distanza di
anni, definire la sensazione che ho
provato di fronte alla vista della
trasparenza, della pulizia, della
freschezza dell’acqua del mareperché
la sua vista sembrava una
provocazione, infatti nelle mie
condizioni non potevo berla e per
ragioni di tempo non potevo
rinfrescarmi. Però un avvenimento mi
ha senza dubbio colpito: mentre mi
dirigevo verso l’ennesima stazione ho
visto nel mare come una chiazza di
olio, ma il continuo e rapido cambio
di forma e direzione mi faceva
escludere che tale chiazza fosse olio. A
togliermi questo dubbio è stato lo
spuntare improvviso dall’acqua di
grossi pesci che saltando si andavano
ad immergere nel mezzo della chiazza.
Certamente si trattava di un branco di
sardine che sono servite anche come
pasto di probabili tonnetti. Ritengo di
avere assistito ad uno spettacolo della
natura che non è dato a vedere
facilmente.
GEOmedia - Il topografo oggi,
quali scenari intravede per la
professione e qual è, secondo lei, la
situazione attuale?
M. G. - Conosco pochi topografi.
Alcuni di essi sono molto attenti e
ben organizzati che vanno avanti
aggiornandosi e trovando di
conseguenza una propria collocazione,
altri sono forse meno attenti e pur
provandoci, non trovano davanti a loro
un futuro così brillante in questo
campo. La nostra è una materia che
purtroppo in passato è quasi sempre
stata presentata in maniera ostica, il
che ha portato a far ignorare la
potenzialità di informazioni utili per
tanti settori tecnici e scientifici.
Informazioni che spaziano dalla
costruzione delle carte al controllo del
territorio, non trascurando le
informazioni utili per la conservazione
dei monumenti (fotogrammetria) e
ancora i monitoraggi che si effettuano
su edifici con segni di dissesto
(livellazioni geometriche di alta
precisione), monitoraggi che
consentono di prevedere situazioni di
pericolo e quindi di provvedere in
anticipo alla soluzione adatta per la
sicurezza.
Il topografo, comunque, rimane una
figura indispensabile che difficilmente
sparirà. Sia che ci
si trovi in un
cantiere oppure
che si abbia a che
fare con fenomeni
naturali, come è
successo a noi per
il terremoto di
Tuscania dove ci
siamo ritrovati a
monitorare il
sottosuolo, noi
saremo sempre là
a continuare a
fare, magari
silenziosamente, il
nostro lavoro.
I NTERVISTA
A cura della
Redazione
Teodolite Gigas con camera per fotografare i cerchi
Tachigrafometro Fennel Cassel acquisito il 30/06/1888
GEOmedia 2 2006 43
T UTORIAL
5 a Parte
Sia questo articolo che
quelli che seguiranno, sui
più diffusi programmi di
elaborazione dei dati GPS
circolanti in Italia, non vogliono
essere né sono un manuale
d’uso. Lo scopo di questi articoli
è quello di mettere in risalto le
funzionalità del programma
recensito sulla base di quanto
esposto nell’articolo, dello steso
autore, dal titolo “L’elaborazione
dei dati GPS” pubblicato sul n°
2 2005 di Geomedia e quindi è
visto solo sotto l’aspetto della
elaborazione dei dati GPS e della
loro compensazione.
Tutorial GPS
I programmi Pinnacle e
Tools Office Software
di Topcon
di Vittorio Grassi
Caratteristiche generali
del programma PINNACLE TM
Caratteristiche generali del programma TOOLS TM
Il software Pinnacle TM della TOPCON è un programma
completo per il trattamento dei dati sia GPS che GLONASS e
gira su piattaforma Windows 95/98/2000/XP o NT. E’ stato
progettato per supportare tutte le fasi del rilievo GPS sia
ricevitori a singola che a doppia frequenza e permette di
pianificare, elaborare, analizzare e trattare tutti gli aspetti delle
misure effettuate con il GPS.
Il programma e l’help in linea sono in inglese ed i manuali
d’uso sono sia in inglese che in italiano. Il manuale in italiano
è abbastanza chiaro con termini sufficientemente corretti.
Pinnacle TM è un software di post-elaborazione basato sul
concetto “Pianifica ed Esegui”. E’ possibile progettare
graficamente la rete ed identificare i “canali” per ricevere i
dati. Poi, cliccando sul pulsante “Make”, il software eseguirà
quello che è stato pianificato.
I canali per importare i dati possono essere scelti fra tutti i
media accessibili dal computer, compreso Internet, linee
telefoniche, porte seriali e parallele, e file del computer (disco
rigido, floppy, CD ROM, ecc...).
Come già detto altre volte usare un programma in
automatico non è l’ideale per una buona elaborazione dei dati
per gli inconvenienti già segnalati in altre occasioni. Quindi è
bene non utilizzare il pulsante “Make” né la finestra “Wizard”.
Il modulo Pianificazione, attraverso una serie di utili
informazioni (visibilità dei satelliti, numero dei satelliti,
geometria satellitare, sky plot ecc.), indica in anticipo qual’è il
momento più adatto per effettuare un rilievo. In particolare è
possibile:
• vedere quali satelliti sono visibili nella zona scelta
• sapere quale è il numero totale di satelliti disponibili GPS +
GLONASS
• conoscere l’azimut e l’elevazione dei satelliti in quella zona
• vedere in quale ora la precisione nel rilievo potrebbe diminuire
• inserire graficamente degli ostacoli presenti nella zona e vedere
cosa cambierà nel rilievo
Pinnacle TM fornisce numerosi strumenti per visualizzare i
contenuti dei progetti.
Inoltre, tutte le funzioni e le interfacce utente sono basate su
semplici strumenti grafici e sul trascinamento o sul click del
mouse. Molte funzioni o visualizzazioni possono essere attivate
in finestre “secondarie” ed elaborate simultaneamente.
Pinnacle TM ha potenti generatori di elaborati, che possono
essere facilmente personalizzati. Gli elaborati possono essere nei
formati testo, binario e HTML.
Il motore di Elaborazione supporta oltre al classico rilievo
Statico, Stop and Go, Statico Rapido e Cinematico (con
risoluzione delle ambiguità On the fly).
Può elaborare qualsiasi combinazione di dati a singola e doppia
frequenza sia GPS che GLONASS separatamente o
congiuntamente.
L’elaborazione ai minimi quadrati sia dei dati statici che
cinematici consente tempi di occupazione brevi e rende
l’elaborazione poco sensibile ai salti di ciclo, giacché essi
vengono riparati con buona efficacia.
Il programma sceglie automaticamente i parametri di
elaborazione per ciascuna sessione. Ciò gli permette di gestire
in modo discrezionale occupazioni lunghe e linee di base molto
lunghe (>200 km). Questa opzione è molto discutibile per cui si
raccomanda di decidere volta per volta i parametri da utilizzare
e non lasciare mai la decisione al programma che, per quanto
possa essere “intelligente”, non può (né potrà mai) sostituire la
mente umana.
Funzionalità del programma e commenti
Lanciato il programma in maniera manuale, creata la
directory dove memorizzare il progetto, si crea una nuova rete
ed apparirà una finestra grafica divisa in tre colonne (fig. 1): la
colonna di destra “Raw Data Sessions” serve per contenere i
dati grezzi della sessione; la colonna “Solutions“ conterrà le
soluzioni delle linee di base, mentre la colonna “SubNets” è
dedicata alla rete.Il programma elabora solo i dati provenienti
da strumenti Topcon. Per poter calcolare dati RINEX provenienti
da atri strumenti occorre che ci
siano anche dati di strumenti
Topcon che coprano le stesse
sezioni di misura. Questa
protezione complica non poco la
vita di chi vuole elaborare dati
provenienti da ricevitori diversi
da quelli della casa specialmente
se sono state eseguite diverse
sessioni di misure.
Figura 1
44
GEOmedia 2 2006
Si prosegue quindi importando i dati (fig. 2): in A si nota la
finestra che serve per l’importazione dei dati ed una volta dato
il comando “Apri” appare una nuova finestra B che contiene i
dati da scaricare nella rete ma che ancora non sono stati
importati. Quindi, se necessario, si continua l’importazione ed
una volta terminata questa fase si dà il comando “Start” per lo
scarico dei dati nella rete.
In pochi secondi i dati vengono analizzati e trasferiti. Se
tutto è andato bene in porto apparrà la finestra (fig. 3), in
fondo alla quale, c’è un breve resoconto dell’operazione eseguita
ed, eventualmente, correggere gli errori.
T UTORIAL
Figura 5
Figura 2
Figura 3
Chiudendo la finestra di “Import” si vedrà che nella colonna
“Raw Data Sessions” è comparsa la scheda “Session” aprendo
la quale è possibile avere una serie di informazioni molto utili:
i satelliti osservati, l’analisi dei dati grezzi (fig. 4a), le epoche,
le proprietà del punto e quelle della sessione, l’esportazione dei
dati in formato RINEX ed un rapporto scritto (fig. 4).
Il programma mostra tutte le linee di base possibili e non
solo quelle indipendenti. Questo è un inconveniente, già
lamentato in altri programmi, che può ingannare un utente
poco esperto in quanto lo può portare ad elaborare tutte le
basi mentre il motore di calcolo di Pinnacle non è concepito
per eseguire un calcolo multibase e multisessione. Per cui
l’utente, prima di procedere nei calcoli deve procedere ad
eliminare tutte le basi correlate.
Prima di iniziare il calcolo delle linee di base bisogna
trasportare, con il mouse, i dati grezzi nella colonna “Solution”
ed apparirà la finestra (fig. 6) che permette di scegliere il
motore di calcolo tra Statico, Stop and Go e Cinematico.
Inoltre, selezionando la scheda “Engine“ (fig. 7) è possibile
scegliere i parametri di calcolo da assegnare a “Static Solution”
tramite il pulsante “Properties”.
Figura 4
Figura 4a
Figura 6 (a sinistra), Figura 7 (a destra)
Oltre allo strumento del grafico per i dati grezzi, Pinnacle
offre anche potenti mezzi per la presentazione grafica dei
parametri di navigazione, delle osservabili del ricevitore e le
informazioni connesse per un massimo di quattro particolari
occupazioni alla volta.
Questo strumento grafico, chiamato “Grafico dei dati grezzi”,
consente all’utente di visualizzare non solo ciascuna
osservabile “base” GPS e, o GLONASS, ma anche numerose
loro combinazioni algebriche. L’uso di questo strumento, che
all’inizio può sembrare un po’ complicato, è di una utilità
immensa e se ne raccomanda fortemente l’uso.
Tornando alla fig. 4 è possibile selezionare l’opzione
“Network View”, nella prima colonna di sinistra, per
graficizzare la rete (fig. 5).
Static Engine contiene 5 schede: “Mode”, GPS, GLONASS,
Advanced e Troposphere.
“Mode” ha 3 riquadri. In “Process Mode” è possibile scegliere
il modo di elaborazione che per default è Auto (si consiglia
lasciare così in quanto si dà la possibilità al programma di
scegliere automaticamente la soluzione migliore) oppure
elaborare le linee di base con L1 ed L2 , solo L1, solo L2, solo
codice, Wide Lane (L1-L2), Narrow lane (L1+L2), VLBI che
serve per il calcolo di lunghissime linee di base, L1c per
l’elaborazione “Iono Free” float, L1+L2c per l’elaborazione
“Iono Free” fixed ecc. ecc.; Nel riquadro “Nav. System” si può
decidere se usare solo i satelliti GPS, solo i GLONASS o
entrambi; in “Option” si può modificare l’angolo di elevazione,
il numero massimo delle iterazioni, la convergenza, il fattore
“Contrast” che il programma usa per la risoluzione delle
ambiguità, ecc. ecc.
GEOmedia 2 2006 45
T UTORIAL
Le schede “GPS” e ”GLONASS” permettono una selezione
molto ampia dei segnali provenienti dai rispettivi satelliti e da
utilizzare nei calcoli.
Le schede “Advanced” (fig. 8) e “Troposphere” (fig. 9)
rivestono una grande importanza in quanto consentono
moltissime scelte che un utente esperto può eseguire purchè
conosca l’esatta influenza di ciascun parametro nel calcolo delle
ambiguità.
Figura 8 (a sinistra), Figura 9 (a destra)
Oppure è possibile vedere i risultati vettore per vettore nella
finestra “Vector result” (fig. 12) attivabile dal menu “Vector”
della colonna “Solutions”.
Come si può notare la finestra
ha 6 schede con le quali è
possibile vedere varie
informazioni tra cui, forse la più
importante è quella mostrata in
figura dalla quale si desume, a
destra: il numero delle misure
disponibile e quelle utilizzate nel
calcolo, il numero complessivo
delle ambiguità da risolvere e
quelle risolte, lo s.q.m. dei
residui ed il valore “ratio”; a
sinistra il motore utilizzato
(static), le doppie differenze
fixed, e le combinazione delle
Figura 12
frequenze utilizzate dal
programma.
Inoltre si possono analizzare i residui sulla fase su tutti i
satelliti (fig. 13) o su un satellite per volta.
Eseguite le scelte si passa all’elaborazione delle linee di base
che può essere fatta complessivamente o una per volta che è la
soluzione che si raccomanda in quanto consente di adattare i
parametri di calcolo a ciascuna linea di base.
Terminato il calcolo il programma mostra, nella finestra
“Process” (fig. 10), un completo e dettagliatissimo elenco che
serve per verificare le scelte fatte dal programma, i vettori
calcolati, lo stato delle ambiguità, i satelliti utilizzati, ecc. ecc.
Figura 13
Figura 10
Circa la soluzione delle ambiguità la fig. 11 mostra tre casi
tipici che si possono verificare durante un calcolo:
Il rapporto di calcolo è dettagliatissimo e se ne porta uno
stralcio nella fig. 14 dove è possibile vedere, linea per linea,
l’orario di start, la durata delle osservazioni, il tipo di
soluzione, le osservazioni complessive, lo s.q.m. , lo stato delle
ambiguità, il valore “ratio” e la lunghezza della linea di base.
Figura 11
1) caso ideale: tutte delle ambiguità sono risolte e il valore
ratio arriva al suo massimo (100%);
2) caso generale: alcune delle ambiguità (223) sono risolte ma
il resto (134) è float il valore ratio per le ambiguità risolte
è di 95.09 mentre per quelle float è di 93.82;
3) caso peggiore: tutte le ambiguità sono float ed il valore
ratio è basso: 63.78.
Figura 14
Naturalmente si può anche graficizzare la rete calcolata (fig.
15) dalla colonna “Solutions” con il comando “Network View”.
L’ellissi d’errore mostrate sono quelle di calcolo e non ancora
quelle di compensazione, ma sono utili per individuare
problemi avuti nella elaborazione: ad esempio la linea di base
46
GEOmedia 2 2006
7 – 2 ha un’ellisse molto più grande delle altre e quindi
sicuramente ha avuto dei problemi per cui è il caso di rivedere
il calcolo di tale base.
A questo proposito è bene ricordare che il
“Capitolato per il raffittimento della rete IGM95”
proposto dal Comitato d’Intesa Stato Regioni, approvato
anche dal Comitato scientifico della SIFET, stabilisce che tale
valore non deve superare 10 cm.
Il motore di Compensazione funziona automaticamente con i
parametri assegnati di default, ma offre anche la possibilità di
cambiarli manualmente. Questo lo si fa dalle “Properties” di
“SubNets” (fig. 18)
T UTORIAL
Figura 15
Criteri per l’accettazione della linea di base elaborata
I criteri per l’accettazione sono del tipo classico. Sono previsti
i valori ”RATIO”, le soluzioni FIX e FLOAT e le frequenze
utilizzate per il calcolo per la cui interpretazione si rimanda
all’articolo dal titolo “L’elaborazione dei dati GPS” pubblicato sul
n° 2/2005 di questa stessa rivista. Inoltre è bene tener presente
quanto osservato nella figura 11.
Intervento sui dati
Pinnacle offre tutti i classici mezzi per intervenire sui dati.
E’ possibile variare l’angolo di “cut off”, eliminare totalmente o
parzialmente un satellite, eseguire una finestra sui dati che,
come sempre, può essere eseguita soltanto all’inizio o alla fine
delle osservazioni.
Il modulo di compensazione
Per accedere alla compensazione bisogna trascinare, con il
mouse, i calcoli eseguiti dalla colonna “Solutions” della fig. 4
alla colonna “SubNets”. Prima di eseguire la compensazione si
deve controllare la struttura della rete ed eventuali errori.
Questo è possibile farlo dalla finestra “Network View”
selezionando il comando “Show Analysis Windows” ed apparirà
un’apposita finestra (fig. 16) dove si può scegliere il tipo di test
da eseguire. La raccomandazione è di eseguirli tutti. Prima però
bisogna stabilire i criteri con i quali eseguire i vari test in
quanto quelli di default potrebbero non
soddisfare le esigenze dell’utente. Per
fare questo intervento il programma
mette a disposizione un’idonea finestra
(fig. 17) ben progettata ed articolata in
6 schede per l’uso delle quali si
rimanda al manuale d’uso.
Da notare in modo particolare sono i
valori “e” ed “a” orizzontali e verticali
che servono per la verifica della
mancata chiusura dei poligoni secondo
la formula:
T = SQRT (Nv)*e + a* Lp
Dove T è la tolleranza da testare, Nv
sono il numero dei vettori del
poligono, Lp è la lunghezza
complessiva del poligono.
Figura 18
La finestra ha 5 schede: General, Parameters, Advanced,
Make Dependencies e Data source. Forse la scheda più
importante è “Parameters” riportata nella figura 18, per le altre
si rimanda al manuale d’uso o all’help in linea.
Come si può vedere la scheda ha vari riquadri nei quali è
possibile eseguire numerose scelte. Nel riquadro “Adjustement
Mode” si consiglia vivamente di scegliere la modalità interattiva
che permette all’utente di controllare l’intero processo di
compensazione.
Inoltre è possibile selezionare il tipo di trasformazione, i
livelli di confidenza per il test “VPV”, in quale sistema di
coordinate il programma deve cercare gli errori grossolani
(blunders), se la compensazione deve essere a minimi vincoli
(Inner Constraints) che serve per valutare la precisione
intrinseca della rete fissando un solo punto della rete che può
essere interno o esterno oppure eseguire una compensazione
vincolata a più punti di cui bisogna fornire le coordinate nel
sistema di riferimento scelto precedentemente. E’ bene eseguire
sempre prima quella a minimi vincoli (l’ideale sarebbe senza
nessun vincolo) e poi quella vincolata.
Circa il test “VPV” sia i manuali che l’help in linea non
dicono nulla ma, eseguite opportune ricerche, c’è da dire che è
un test generico globale che verifica come i residui della
compensazione V calcolati secondo la formula V=A*X+L
corrispondano alla accuratezza delle misure stimate dal motore
di elaborazione e alla accuratezza delle coordinate dei punti di
controllo (se ce ne sono) che vengono descritti nella matrice di
peso P.
Se l’accuratezza dei vettori è sovrastimata il test fallisce
perché sarà più alto del valore massimo del test del “Chi
Quadro”.
Il procedimento di compensazione si svolge in due fasi. Nella
prima fase, la compensazione dei vettori rileva gli errori
grossolani e valuta la precisione interna della rete. I probabili
vettori errati possono quindi essere eliminati o è possibile
attribuire ad essi un peso diverso (fig. 19).
Figura 16 (sopra), figura 17 (sotto)
Figura 19
GEOmedia 2 2006 47
T UTORIAL
Questa finestra fornisce le seguenti informazioni:
• i risultati del test VPV
• l’elenco dei vettori non buoni. Il rapporto TAU /TAU crit
dove TAU indica il residuo normalizzato e TAU crit è un
valore che dipende soltanto dai gradi di libertà della rete. I
coefficienti di riduzione del peso consigliati dal programma,
esposti nella colonna Downweight, sono calcolati con la formula
e ABS(TAU)/TAU crit . Se l’utente desidera variare
tali valori è a disposizione il tasto “Downweight”, se invece
decidesse di accettarli comunque c’è il tasto “Accept All”
mentre per rigettarli “Reject”. L’eliminazione di un vettore è
una cosa molto delicata e va fatta con estrema cautela. Il
consiglio è quello di procedere con un vettore per volta iniziando
da quello che ha il rapporto TAU più alto (ma non è
detto che sia sempre così). Eseguita la scelta bisogna ripetere
la compensazione.
Nella seconda fase, la rete GPS deve essere vincolata ad
almeno un punto per la compensazione a minimi vincoli,
oppure a più punti per quella vincolata. I punti possono essere
fissi e/o pesati.
Lanciata la compensazione si apre una finestra (fig. 20) che
mostra nella parte sinistra la rete e nella parte destra
l’andamento della compensazione ricca di utilissime
informazioni.
Figura 24
Figura 22 - Un esempio di istogramma dei residui che non
rispetta la distribuzione gaussiana
Figura 23 - Accuratezza delle linee di base in delta N. Notare
come per alcune linee l’accuratezza è di circa 2 mm mentre
per altre è di circa 11 mm.
Inoltre il programma consente
di visualizzare le statistiche
relative alla rete compensata. Di
default è possibile avere solo un
sommario (fig. 24) ma è possibile
vedere anche la matrice di
varianza covarianza, le ellissi
d’errore sia al 95% che al 99%
ed altro ancora.
Figura 20
E’ anche possibile vedere gli istogrammi dei residui o
graficizzare altri risultati come, ad esempio, l’accuratezza delle
linee di base. Questi grafici sono utilissimi per scoprire, a
colpo d’occhio, eventuali anomalie nella compensazione. A titolo
di esempio si riportano nelle figure che seguono l’istogramma
dei residui e quello dell’accuratezza delle linee di base con i
relativi commenti.
Il rapporto della compensazione è molto completo e ben
organizzato e contiene: in testata un sommario della
compensazione con tutte le informazioni statistiche riguardanti i
gradi di ridondanza della rete, lo s.q.m. per l’unità di peso a
priori e a posteriori, i vettori totali e quelli rigettati, le
statistiche VPV; nel resto del documento seguono le coordinate
compensate e relativi s.q.m. in WGS84 sia in coordinate
geografiche che cartesiane, un grafico della rete con le ellissi
d’errore, le componenti dei vettori elaborati con i relativi s.q.m.
sia nel sistema WGS84 che cartografico locale selezionato al
momento della compensazione nonché distanza, azimut ed
elevazione, una tabella con tutti i punti della rete con un
riassunto di tutti i dati calcolati, informazioni sui residui nei
sistemi WGS84 e locale, istogrammi e grafici riportati nelle
figure precedenti.
Pinnacle TM ha un
Figura 21 - Istogramma dei
residui. Notare che il titolo
centrato in alto avverte se
la distribuzione dei residui
non è normale.
sistema completo per la
trasformazione di coordinate
e quota. Per convertire le
quote ellissoidiche rilevate
col GPS in quote
ortometriche, il software
usa 3 tipi di modelli del
geoide: globale (come
OSU91 ed EGM96),
regionale (ad es., Geoid96
per gli Stati Uniti) ed
anche modelli “definiti
dall’utente”.
48
GEOmedia 2 2006
Questi ultimi possono essere creati ed usati direttamente nel
software. Per questo, le quote geoidiche dei punti di controllo
vengono calcolate come differenze fra quote ellissoidiche ed
ortometriche e poi, dopo avere rifiutato i possibili dati
anomali, le ondulazioni ottenute vengono interpolate per
calcolare le quote ortometriche di tutti i punti rilevati. E’
possibile selezionare questo tipo di soluzione quando i modelli
globali o regionali non forniscono dati geoidici precisi per
l’area del rilievo.
Le trasformazioni di coordinate consentono di calcolare
coordinate per numerose superfici di riferimento locali e
sistemi di rete come UTM (Nord e Sud), Stereografica Polare
Universale (N e S) ed altri sistemi nazionali (Gauss Boaga).
E’ possibile anche creare un nuovo sistema di coordinate. A
tale scopo vengono fornite ampie liste di proiezioni, superfici
di riferimento ed ellissoidi.
Un’altra possibilità è quella di calcolare i parametri di
trasformazione tra due set di coordinate (cioè, WGS-84 e
locali) con i punti comuni, e poi usare questi parametri per
trovare le coordinate locali degli altri punti rilevati col GPS.
Infine vengono calcolate le coordinate compensate nel sistema
di coordinate locali per i nuovi punti. Test statistici
consentono all’utente di valutare la qualità dei dati
trasformati.
Però come già detto altre volte questi moduli, almeno in
Italia, hanno perso molto dell’importanza che avevano alcuni
anni fa. Oggi le trasformazioni si eseguono con Verto 2 ed il
grigliato dell’IGM, oppure, se la trasformazione è in coordinate
Catastali con CartLab2.
Ciò non toglie che un buon modulo di trasformazione non
possa essere utile all’estero.
Altre utilità del programma
Esiste comodi tasti che consentono di attivare: “Coordinate
Calculator” per la trasformazione di coordinate cartesiane in
geografiche e viceversa; “Occupation Planning” per la
programmazione della campagna; “Ephemeris view” per
visualizzare i dati delle effemeridi dei satelliti osservati, ecc.
ecc.
Figura 25
Ma la novità più importante ed
esclusiva di Pinnacle è che è
dotato di un modulo per
confrontare due differenti
elaborazioni compensate della
stessa rete. Si accede a questa
importante funzionalità dalla
colonna “SubNets” della
schermata principale. Esistono 3
tre criteri per confrontare le
coordinate dei punti: il criterio
dell’inversione, quello della
deviazione e quello della
dispersione tutti con un livello di
affidabilità scelto tra due
possibilità: 95% o 99% (fig. 25).
Dispersione. Quando si esegue questo test il programma usa
il test:
Inversione. Questo test analizza gli scalari dx i = X’ i – X” i
(i = 0, 1, 2) dove X’ e X” sono le posizioni stimate del punto
rispettivamente nella prima e nella seconda soluzione. Se il
test fallisce significa che [dx] non si comportano
gaussianamente e cioè non sono a media zero. Quindi significa
che le coordinate stimate potrebbero essere influenzate da
errori sistematici.
Deviazione. Il test si basa sulla seguente assunzione:
V = (dx max – X”) / (s”) 2
Dove dx max = max [dx] ed il max è preso su tutta la rete,
X” è il valore medio empirico, (s”) 2 è la dispersione.
Se il test passa, le differenze di coordinate compensate del
punto analizzato nelle due reti sono accettabili.
Si raccomanda di eseguire tutti e tre i test prima di
prendere la decisione circa la soluzione migliore anche se il
manuale d’uso consiglia diversamente.
Conclusioni
Il programma Pinnacle, anche se un po’ datato, è un
software completo ed abbastanza facile da usare. Funziona
bene nelle mani di un utente alle prime armi ma dà il meglio
di se stesso se guidato da mano esperta. Inoltre il programma
non consente di elaborare anche dati provenienti da
strumentazione tradizionale.
I test statistici sono completi e funzionali ed i rapporti di
calcolo sono molto esaurienti e bene impaginati.
Il programma non effettua la compensazione completamente
libera e non consente di mescolare misure GPS e quelle
provenienti dalla strumentazione tradizionale (stazioni totali e
livelli).
Il manuale in italiano è abbastanza completo ed è tradotto
in maniera comprensibile con termini quasi sempre
tecnicamente corretti. Sarebbe stato molto utile un esempio di
elaborazione con i vari passaggi per una corretta elaborazione
manuale dei dati mentre si dilunga molto su quella
completamente automatica.
Resta l’inconveniente dell’help in linea che è in inglese ed il
fatto che è molto succinto, almeno nella versione testata. Il
manuale in inglese, invece, è completo anche se non si
dilunga molto sul significato e gli effetti dei test statistici e
sul metodo usato per la risoluzione delle ambiguità.
Altro inconveniente è quello segnalato nel paragrafo
“Funzionalità del programma” e cioè che per elaborare dati
RINEX provenienti da strumenti non Topcon occorre inserire
nel project anche dati proprietari che coprano le stesse sessioni
delle misure da elaborare e poi gettare le basi che non
servono. Questo perché il programma non è protetto da una
chiave hardware ma da una software.
Se non si ha questa esigenza Pinnacle è uno dei pochi
programmi in commercio in grado di elaborare le osservazioni
GLONASS e GPS.
T UTORIAL
F = max [s’,s”] / min[s’,s”]
che segue la distribuzione di Fisher. Prima di lanciare il test bisogna
stabilire un appropriato livello di affidabilità. Se il test è superato le
due reti sono considerate consistenti e di uguale affidabilità.
Continua...
GEOmedia 2 2006 49
T UTORIAL
Il programma TOOLS TM Office Software
Caratteristiche generali del programma TOOLS TM
Il programma Topcon Tools accetta misure provenienti sia da
ricevitori con segnali GPS e GLONASS, a singola e a doppia
frequenza con files proprietari o RINEX, sia da strumentazione
tradizionale.
Il programma Topcon Tools e’ composto da tre moduli: postelaborazione
dei dati, RTK e Total Station che possono
coesistere nel senso che le misure ottenute nelle tre modalità
possono essere gestite insieme. Quello inviato dalla Geotop per
la stesura di questa recensione è relativo alla sola post
elaborazione dei dati sia in statico che in cinematico.
Il cofanetto che accompagna il programma (versione 5.11)
contiene un manuale d’uso “Reference Manual” in inglese ed un
piccolo manuale tascabile “Quick Reference Guide” (sempre in
inglese) come guida di riferimento, la chiave di protezione ed il
CD per l’installazione. La traduzione in italiano dei due
manuali è in corso.
L’help in linea, sempre in inglese, è stringato ma ben fatto.
Funzionalità del programma e commenti
Appena lanciato il programma presenta una finestra di
“Startup” (fig. 26) che invita ad aprire un lavoro (job) esistente
o a crearne uno nuovo
stabilendo la directory dove
salvare il nuovo job (fig. 27).
Figura 26
Figura 27
Se si sceglie di creare un nuovo lavoro bisogna configurarlo
con il tasto “Edit Configuration” per selezionare le opzioni
desiderate (fig. 28)
“Quality Control” consente di stabilire: le precisioni per le
osservazioni GPS e quelle sui punti sia in statico che in
cinematico; le tolleranze orizzontali e verticali sia in metri e in
ppm per la mancata chiusura dei poligoni; i test statistici da
eseguire automaticamente.
L’ultima scelta “Process” permette di selezionare, nella scheda
“Adjustment”, il livello di confidenza dell’ellissi d’errore (68%,
95% o 99%) ed i criteri di rigetto per il controllo della qualità
o per il Tau test, mentre in quella “GPS + PostProcess” si può
intervenire soltanto sull’angolo di elevazione, se elaborare solo i
dati GPS o anche quelli tradizionali, se la durata delle
osservazioni debbano rispettare un tempo minimo o no.
Una volta seguite le scelte possono essere memorizzate in
un’apposita lista in modo da poterle richiamare con facilità.
Fatto questo, si apre una bella, moderna e chiarissima
finestra a pieno schermo (fig. 29) divisa in due parti: quella
superiore è grafica mentre quella inferiore è numerica e serve
per mostrare ciò che il programma sta facendo.
Questa finestra dispone di 4 schede (configurabili dall’utente):
“Point”: consente di vedere i punti, le coordinate di
navigazione e tante altre cose che dipendono da come è stata
configurata la scheda;
“GPS Occupation”: mostra il tipo di antenna utilizzato, la
sua altezza, come è stata misurata (verticale o inclinata), il
giorno e l’ora dell’inizio e della fine delle osservazioni, la
durata, le epoche, ecc. ecc.;
“GPS Obs”: elenca le linee di base individuate dal
programma, la durata delle osservazioni, il metodo di rilievo, se
per il calcolo sono state utilizzate le effemeridi broadcast o
quelle precise, lo stato della linea cioè se è stata elaborata o
rifiutata, ecc. ecc.
Il caricamento dei dati,
come si può notare nella
tabella 1, può avvenire in
moltissimi formati tra cui
anche il RINEX.
Una volta inseriti i dati, la
finestra riportata nella fig.
29 illustra graficamente i
files importati (fig. 30)
mentre quella numerica, che
Figura 29
serve come dialogo per
l’utente, mostra le
informazioni appena descritte.
Tab. 1 Figura 30
Figura 28
In “Display” si possono stabilire le cifre decimali da vedere
per le distanze, le coordinate, le quote, gli angoli ecc. il time
zone, il formato degli angoli e delle stringhe di testo.
In “Coordinate System” è possibile selezionare la proiezione,
il datum, il geoide ed il tipo di coordinate.
Con “Units” si definiscono le unità di misura angolari e
lineari e con “Save” dove fare il backup, come farlo e quando
farlo.
Purtroppo anche questo programma fa vedere ed elabora (se
lanciato automaticamente) tutte le linee di base possibili ed
immaginabili senza tener conto di quelle effettivamente
indipendenti con un motore di calcolo che non è concepito per
una elaborazione “multibase”.
Anche il verso di calcolo delle linee di base è arbitrario (fig.
31) è può causare problemi ad un utente alle “prime armi”.
Per fortuna il programma
prevede la possibilità di
eliminare le linee non desiderate
e modificare il verso di calcolo.
50
GEOmedia 2 2006
Figura 31
Prima di passare alla elaborazione delle linee di base bisogna
scegliere i parametri di calcolo ed il punto di coordinate note.
Per la scelta dei parametri bisogna accedere alla scheda
“Process Properties” descritta in precedenza, mentre per fissare
un punto si usa la scheda “Coordinates”.
Quindi si seleziona la linea di base da calcolare facendo
attenzione al verso di calcolo e si lancia la post elaborazione.
Il motore di calcolo è velocissimo ed appena elaborato il
vettore è possibile verificare immediatamente, nella finestra di
dialogo con l’utente (fig. 32), tutte le informazioni più
importanti: la precisione orizzontale e verticale, le dimensioni
del vettore, lo stato delle ambiguità, ecc. ecc.
Se si desidera
un rapporto di
calcolo più
dettagliato lo si
ottiene
facilmente
selezionando
Figura 32
dalla barra dei
comandi della finestra grafica “Report” e quindi “GPS
Observation”. Il rapporto di calcolo è configurabile dall’utente
(fig. 33) selezionando “Report Configuration” dalla tendina che
si apre dopo aver selezionato il comando “Report”.
Figura 33
Come si vede nella fig. 33
il rapporto di calcolo può
essere configurato a
piacimento non solo per
l’elaborazione del vettore ma
anche per la compensazione,
per i punti e per il controllo
di qualità. Inoltre e possibile
scegliere il formato del
rapporto: HTML, Word o
Excel.
Criteri per l’accettazione della linea di base elaborata
Circa la soluzione delle ambiguità il manuale d’uso e l’Help
in linea non ne fanno cenno e la Geotop interpellata in
proposito ha assicurato che gli algoritmi di calcolo sono gli
stessi usati da Pinnacle.
Stessa cosa dicasi sui criteri per l’accettazione della linea di
base elaborata: manca qualsiasi mezzo di giudizio. C’è, però,
da dire che il giovane programma “TOOLS” sarà implementato
e quindi le funzionalità mancanti saranno senz’altro aggiunte.
E’ stata fatta una prova elaborando alcune basi di diversa
lunghezza e diverse difficoltà di calcolo con tutti e due i
programmi ed i risultati sono risultati praticamente identici.
Intervento sui dati
L’intervento sui dati consente di inserire punti, modificare il
nome e le proprietà del punto, i codici e gli attributi sia per
quelli GPS che tradizionali. Per quanto riguarda le osservazioni
è possibile eseguire le finestre, disabilitare satelliti, in altre
parole non manca nulla.
Il modulo di compensazione
Prima di lanciare la compensazione che può essere
completamente libera, a minimi vincoli e vincolata è bene
verificare la mancata chiusura dei poligoni onde evitare che un
errore grossolano possa entrare in compensazione.
Per fare questo bisogna selezionare a video l’anello da
controllare e lanciare il calcolo dalla barra dei comandi
selezionando “Process” e poi “Loop Clausure”: terminato il
calcolo apparirà a video una tabella che indica i vettori
compresi nell’anello, il suo sviluppo complessivo, le tolleranze e
gli errori di chiusura orizzontali e verticali nonché gli errori
relativi.
Il motore della compensazione è molto veloce ed al termine
del calcolo è possibile vedere i risultati sommari sulla finestra
di dialogo con l’utente con le coordinate compensate ed i
relativi scarti quadratici medi.
Se si desidera un rapporto più dettagliato è
possibile ottenerlo dalla barra dei comandi
selezionando “Report” e poi “Adjustment”.
Il rapporto, che è configurabile dall’utente, mostra
tutto ciò che serve per giudicare l’andamento
della compensazione.
Nella finestra grafica, invece, è possibile
osservare la rete compensata con le
ellissi d’errore assolute e relative ed i
Figura 34
vettori d’errore in quota (fig. 34).
Altre utilità del programma
Nel “pacchetto” in esame c’è anche un programma chiamato
“Topcon Link (e relativo manuale d’uso in inglese) che serve:
• per importare i dati provenienti dalle stazioni totali, da quelle
motorizzate, dai controller e dai palmari;
• per vedere ed editare i file grezzi;
• riorganizzare coordinate e file grezzi nei formati riportati nella
tabella 1 ed esportarli;
• calcolare le coordinate provenienti dai diversi file ed esportare i
risultati in vari formati.
Conclusioni
Il programma è semplicissimo da usare ed ha una grafica
moderna ed accattivante. Certamente troverà il suo mercato
specialmente tra coloro che sono al primo impatto con il GPS
o con misure miste GPS più quelle tradizionali.
Come già osservato TOOLS è, al momento carente, nella
scelta dei parametri di calcolo (ionosfera, troposfera, ecc.) della
linee di base, delle informazioni circa la risoluzione delle
ambiguità ed i criteri per l’accettazione delle linee di base
elaborate eseguendo interventi sui dati.
Volendo fare un rapido confronto sulle funzionalità dei due
programmi c’è da osservare che Pinnacle e’ stato il primo
programma di elaborazione dati Javad/Topcon (GPS e
GLONASS) ed e’ ancora attuale: ha un’attivazione software, è
completo con tutte le possibilità di importare i dati, di
analizzarli approfonditamente con grafici personalizzabili, di
elaborarli offrendo la massima flessibilità nel cambiare la
configurazione, di compensarli e infine consente anche una
completa trasformazione di coordinate e calcolo di un geoide
locale. Il programma è rivolto a chi oltre la semplice
elaborazione vuole analizzare compiutamente i dati acquisiti.
Topcon Tools è nato successivamente per soddisfare i
topografi grazie alla sua semplicità d’utilizzo ed alla
possibilità di mescolare le misure GPS e GLONASS con
quelle classiche. E’ dotato di una chiave hardware. Sicuramente
Pinnacle è più completo ma con i continui aggiornamenti la
Topcon sta portando le funzioni di Pinnacle in Topcon Tools,
sia per quanto riguarda i parametri di calcolo che per i report.
Autore
VITTORIO GRASSI
Email: vittorio_grassi@fastwebnet.it
T UTORIAL
GEOmedia 2 2006 51
A
ZIENDE e PRODOTTI
Autodesk rivoluziona il mondo del GIS e della progettazione
La linea dei prodotti targati Autodesk si pone all’avanguardia ormai dal 2004, data in cui ha cominciato a presentare l’uscita
della versione del motore un anno prima rispetto l’anno effettivo di release. Autodesk 2007 rappresenta quindi la novita’ ISD
e Geospatial che presenta le novita’ piu’ apparenti tra le soluzioni GIS e Civil; basato sul rinnovato motore comune alle due applicazioni
piu’ diffuse cioè Civil Design e Autocad Map, le novita’ dello Spatial Data File (SDF) e delle Feature Data Object (FDO),
il cuore di Autodesk 2007 puo’ essere meglio racchiuso in questo elenco di funzionalita’ e tecnologie:
• motore di gestione della grafica completamente rinnovato
• fortissima integrazione dei dati geospaziali che permette una ancor maggiore integrazione tra i dati CAD e GIS
• motore di rendering per i modelli 3D con prestazioni molto piu’ elevate
• possibilita’ di pubblicare verso diverse piattaforme web con la gestendo files xml che possono essere equiparati ai file CSS
per la gestione degli stili in ambito web.
Tra le novità anche la soluzione Map Guide su piattaforma Open Source e licenza GNU, quindi integrabile nell’ambito delle soluzioni
Apache, PHP e Mozilla, che andrà sicuramente oltre le normali aspettative di un utente CAD e GIS. Ma andiamo per ordine
e vediamo una piccola presentazione dei singoli pacchetti:
Autocad 2007 e Autocad LT: la nuova piattaforma AutoCAD 2007 consente la realizzazione di disegni complessi risultando nel
contempo accessibile anche agli utenti meno esperti ed è dotata di un’interfaccia potente e intuitiva per creare e modificare le
forme in modo semplice e veloce. Le caratteristiche di AutoCAD 2007 consentono agli utenti di diversi mercati di gestire in modo
completo il loro progetto durante le fasi progettuali iniziali, fornendo un feedback più veloce e maggiori opportunità di esplorazione
progettuale. Autocad LT rappresenta invece il software per il disegno tecnico 2D più venduto al mondo. Questa versione dà
risalto ai miglioramenti di produttività legati alle quotidiane esigenze di disegno e presenta blocchi dinamici e strumenti di gestione
dei layer integrati. Il prodotto include il formato di file DWF che consente di condividere in modo sicuro i dati e continua a
supportare la compatibilità con il formato di file DWG.
www.autodesk.it/autocad
www.autodesk.it/autocadlt
(Fonte: Autodesk)
Il portafoglio completo per la gestione
delle informazioni geospaziali e delle infrastrutture
Le soluzioni Autodesk per i Sistemi Informativi Territoriali e progettazione delle Infrastrutture, pensate per risolvere significativi
problemi aziendali, aiutano i clienti a ridurre i tempi di commercializzazione e ottenere la massima produttività ed
efficienza nei progetti. Diversamente dagli altri prodotti disponibili oggi sul mercato, queste soluzioni offrono un ambiente aperto
e flessibile che facilita l’utilizzo e la gestione di importanti dati spaziali. Tra le soluzioni per la gestione delle informazioni
spaziali di Autodesk figurano Autodesk Map 3D 2007, Autodesk Raster Design 2007, Autodesk MapGuide Enterprise; mentre per
la progettazione delle Infrastrutture Autodesk presenta Autodesk Civil 3D 2007.
Autodesk Civil 3D e Autodesk Map 3D si basano sulla piattaforma AutoCAD 2007, che consente di creare, gestire e condividere
i dati in modo più efficiente per una produttività migliore.
Autodesk Civil 3D 2007: utilizza un modello di progettazione dinamica comprovato che consente un’interazione dinamica ed
intelligente in tempo reale tra gli oggetti. Se si apporta una modifica ad un componente del progetto, viene immediatamente ed
automaticamente aggiornato l’intero progetto. Tutti i membri del team utilizzano lo stesso modello aggiornato e coerente così
da mantenere la sincronizzazione in tutte le fasi del progetto, compresi il rilevamento, la progettazione, il disegno, la generazione
di rapporti, l’analisi e la visualizzazione.
Autodesk Map 3D 2007: è la piattaforma leader per la creazione e la modifica dei dati spaziali e fornisce una pratica funzione
di cartografia agli ingegneri e ai professionisti geospaziali che hanno bisogno di integrare le informazioni CAD e GIS in modo
aperto e flessibile. Completa le implementazioni GIS esistenti, garantendo l’accesso di lettura e scrittura ad un’ampia varietà di
fonti di dati geospaziali. Autodesk Map 3D consente il caricamento rapido, la modifica e la gestione di grandi quantità di dati
geospaziali e automatizza interi flussi di lavoro, dalla creazione dei dati geospaziali alla pubblicazione sul Web e su Intranet.
Autodesk Raster Design 2007: consente di modificare o vettorizzare i disegni di cui è stata eseguita la scansione senza rieseguire
disegni costosi. La funzionalità
avanzata permette di integrare carte,
fotografie aeree, immagini satellitari e
modelli di elevazione digitali per migliorare
le presentazioni, la progettazione e
i dati progettuali finali.
(fonte: Autodesk)
52
GEOmedia 2 2006
Venus Express raggiunge Venere
Credits: ESA / STARSEM-S. CORVAJA
La sonda Venus-Express,
progettata da Astrium e
integrata dall’Alcatel Alenia Space di
Torino, è stata inserita con una
complessa e rischiosa manovra in
orbita intorno al secondo pianeta
dal Sole, diventando così il primo
veicolo Europeo a raggiungere
Venere. Lanciata il 9 Novembre del
2005, con un vettore Soyuz dal
cosmodromo di Baikonur, Venus-
Express (o VEX) ha compiuto la
traversata del sistema solare interno
senza particolari problemi e
superando tutte le tappe intermedie
di collaudo e di correzione di rotta.
Il momento della verità per la
missione è avvenuto l’11 Aprile,
quando per 50 minuti è stato acceso
il motore principale della sonda per
alterarne il moto affinché il veicolo fosse catturato dal pianeta. Come
spesso accade parte della manovra è avvenuta senza diretto contatto con il
centro di controllo della ESA, (ESOC a Darmstadt), perché la sonda è stata
occultata dal pianeta. La ri-acquisizione del contatto ha confermato ai
controllori del volo che tutto era andato per il meglio, in un deja-vu
dell’emozionante inserimento in orbita marziana della sonda Mars Express,
nel Natale del 2004. Dopo una nuova fase di verifica del veicolo l’orbita
nella quale VEX è stata inserita è stata accuratamente modificata fino a
raggiungere la configurazione finale il 7 Maggio scorso. L’orbita di Venus-
Express è di tipo fortemente ellittico, ed è dettata dalla particolare
configurazione del veicolo. Poiché l’antenna principale parabolica è fissa, è
necessario orientare l’intera sonda per poter comunicare con la Terra, e
questo a discapito degli strumenti scientifici che devono essere puntati
verso il pianeta. L’orbita fortemente ellittica di VEX offre un intervallo di
osservazione del pianeta quando la sonda si trova a passare vicino alla
superificie del pianeta ed una fase di comunicazione quando ci si orienta
verso la Terra per scaricare la memoria di massa dei dati raccolti nel
passaggio. Il ciclo si ripete ad ogni orbita per tutta la durata della
missione. L’orbita, con un’inclinazione quasi polare, è stata studiata per
massimizzare il ritorno scientifico della missione. Venus-Express reca a
bordo diversi strumenti per lo studio dell’atmosfera e dell’ambiente
venusiani (si ricorda che il suolo di Venere è perennemente nascosto dalla
coltre di nubi lo avvolge). Alcuni strumenti sono analoghi, o derivano, da
strumenti in volo su Mars Express ed anche in questa missione il
contributo italiano è stato notevole. Va anche ricordato che Venus Express è
praticamente una copia di Mars Express che a sua volta è una copia della
sonda Rosetta. La condivisione sia del progetto della sonda che
dell’infrastruttura di comando e controllo a Terra ha permesso all’ESA di
esplorare tre diverse realtà del sistema solare con un sostanziale risparmio
economico.
Riferimenti:
http://www.esa.int/SPECIALS/Venus_Express/index.html
(Fonte: Redazionale)
A
ZIENDE e PRODOTTI
GEOmedia 2 2006
53
A
ZIENDE e PRODOTTI
Precisione alla
velocità della luce
La serie R-300X di Pentax incorpora
due laser di precisione selezionabili
dall’utente creati per chi ha
necessità di misurazioni e rilevamenti
di alta precisione qualsiasi sia il lavoro
che si svolge. Ecco perché la stazione
totale Pentax R-300X è un sistema
di misurazione versatile ed efficiente
che porta all’utente anche un notevole
risparmio di denaro. Queste caratteristiche,
unite ad un tempo di misurazione
di 0.4 sec in modalità tracking e
di 1.2 sec in modalità quick contribuiscono
a definire l’eccellente produttività
delle stazioni totali Pentax R-
300X. Tutte le funzioni vengono selezionate
tramite soli 5 tasti, mantenendo
le operazioni intuitive e logiche. La
memoria capace di 20.000 punti di
misurazione (XYZ) permette all’utente
di gestire efficientemente qualsiasi
lavoro di misurazione o di ispezione.
Per ogni singolo file di lavoro potranno
essere registrati 2000 punti di
misurazione, mentre gli stessi files di
lavoro potranno essere 50.
Semplicemente selezionando la modalità
laser desiderata si potranno evitare
gli ostacoli presenti in un luogo:
misurare oggetti distanti oltre 200
metri senza prisma sarà cosa semplicissima.
Il software presente sulla stazione
totale Power TopoLite sarà di
aiuto nella gestione dei lavori di rilevamento
più difficili. L’interfaccia, di
semplice utilizzo, guiderà l’utente
attraverso tutti le fasi del lavoro.
(Fonte: Redazionale)
Terza versione di
Windows Live Local
Microsoft ha rilasciato la terza versione di Windows Live Local (WLL), il suo servizio
on line di ricerca e di mappatura che fornisce mappe, direzioni ed informazioni
su ricerche locali appoggiate su fotografie aeree. Microsoft aveva rilasciato la
prima versione lo scorso luglio e la seconda a dicembre all’interno della aveva introdotto
la possibilità di visualizzare immagini in modalità Bird’s Eye. Nella terza versione
Microsoft comincia ad espandere la copertura di territorio anche fuori dai confini
degli Stati Uniti: anche il Canada e la Gran Bretagna rientreranno d’ora in poi all’interno
di Windows Live Local; WLL fornirà anche le direzioni di collegamento tra città
e città per tutta l’Europa Occidentale. Tramite un accordo, poi, con i servizi di
traffic.com, Microsoft fornirà ai suoi utenti informazioni sul traffico legate a circa tre
dozzine di città sparse per tutti gli Stati Uniti, coprendo in questo modo gran parte
delle aree metropolitane. L’integrazione con i client di Office Outlook e di Live
Messenger (l’erede diretto di MSN Messenger) sarà possibile raccogliere e condividere
i risultati delle ricerche in maniera del tutto nuova ed integrata. Tramite Outlook, ad
esempio, scaricando il Windows Live Local Add-in for Microsoft Outlook, fornisce una
barra di localizzazione al calendario del client di posta permettendo agli utenti di
ricercare e stampare mappe o direzioni per eventuali appuntamenti o incontri, tutto
all’interno di Outlook.
Microsoft, per poter ottenere immagini aeree della Gran Bretagna, ha stipulato un
accordo con Getmapping plc., che ha fornito alla società americana le foto in modalità
Bird’s Eye che copriranno inizialmente più di 600 km quadrati della città di Londra
e che aumenteranno col passare del tempo. La vista a bordo della macchina, che avevamo
presentato sullo scorso numero di GEOmedia, è tuttora disponibile: era stata
rilasciata come una preview sulle potenzialità della tecnologia in modo da ottenere
feedback da parte degli utenti, ma sarà ancora disponibile, nonostante non sia stata
inserita attualmente nella nuova versione di Windows Live Local.
http://local.live.com
Gestire le reti tecnologiche
con Net Mapper di Globo
Uno sviluppo armonioso, un’accurata pianificazione ed una efficiente gestione delle
reti tecnologiche diventa ormai di importanza strategica per il corretto governo
del territorio. Il Sistema Informativo Territoriale Net Mapper, sviluppato da GLOBO
Srl, coerentemente con le normative nazionali e locali, si colloca nell’area delle applicazioni
verticali per il governo delle infrastrutture tecnologiche (gas, acqua, elettricità,
fogna, cablaggio, ecc.). Il modello dei dati di gestione della rete è basato su un grafo
interconnesso costituito da archi (linee costituite da un generico numero di vertici) e
nodi (vertici estremi degli archi). Agli archi possono essere associati sia gli attributi
specifici del supporto (materiale, diametro nominale, diametro esterno, pressione
nominale, lunghezza, rivestimento, ecc.), sia eventuali informazioni gestionali (perdite,
malfunzionamenti o altro). I nodi, che rappresentano i pezzi installati lungo l’infrastruttura,
sono classificati per tipologia (presa, idrante, limitatore dei portata, limitatore
di pressione, saracinesca, valvola di non ritorno, valvola di sicurezza, pezzo speciale,
ecc.) e ad essi possono essere associati una serie di attributi comuni (marca,
modello materiale, diametro nominale, pressione nominale, profondità di posa, ecc.).
Sulla base della tipologia è possibile attribuire ai nodi anche attributi specifici (per una
valvola, ad esempio, lo stato di apertura o chiusura, la motorizzazione, il verso di apertura
o chiusura). A tutti gli elementi della rete è inoltre possibile associare informazioni
quali una tabella di attributi personalizzati specifici del contesto aziendale, un
numero arbitrario di documenti digitali organizzati in cartelle che possono essere aperti
utilizzando l’applicazione software ad essi associata ed interventi manutentivi.
54
GEOmedia 2 2006
www.imteam.it/globo
(Fonte: Globo Srl)
MetaCarta rilascia GTS Analyst
MetaCarta, un provider di soluzioni geomatiche, ha annunciato l’uscita di GTS Analyst,
la sua ultima soluzione dedicata al settore pubblico e Geographic Text Search v3.5. Ma
già si annuncia l’uscita della versione 4.0 entro questa estate. GTS Analyst, come gli altri
prodotti MetaCarta, crea un ponte tra la ricerca testuale ed il GIS. Si tratta di una soluzione
analitica ed operativa basta su mappe che fornisce ricerche automatiche e funzioni di
notifica, ricerca a livello regionale basata su aree geopolitiche, analisi bidimensionali e
visualizzazione dei trends di analisi. Il prodotto identifica automaticamente i riferimenti geografici utilizzando un NLP (Natural
Language Processing) per ogni tipo di contenuto non strutturato all’interno degli archivi dell’utente, come email, pagine web o
flussi di news. GTS Analyst contiene dei Geographic Data Modules (GDM), una sorta di routine utilizzate per identificare e rendere
non-ambigui i riferimenti geografici, assegnando coordinate di latitudine e longitudine e generando ranks. I risultati di una
query sono visualizzati su una mappa con icone che rappresentano i luoghi trovati nel linguaggio testuale naturale dei documenti
ed una lista di risultati. Sia le icone che l’elenco dei testi sono linkati con i documenti da cui provengono.
A
ZIENDE e PRODOTTI
www.metacarta.com
(Fonte: GIS Monitor)
Mappe degli incendi on line
Grazie ai satelliti dell’ESA che negli ultimi dieci anni hanno sistematicamente
identificato gli incendi in corso sulla Terra, è possibile da oggi avere a disposizione
mappe planetarie dei fuochi, disponibili on line in tempo quasi reale
grazie all’ ATSR World Fire Atlas dell’ESA, il primo atlante degli incendi terrestri
basato su una serie pluriennale di osservazioni; fornisce dati dopo 6 ore dalla loro
acquisizione e dota la comunità scientifica di un importante strumento nella letture delle modifiche ambientali legate al divampare
degli incendi. Ogni anno bruciano più di 50 milioni di ettari di foreste e l’impatto sull’inquinamento atmosferico a livello planetario
è significativo, poiché la combustione delle biomasse contribuisce all’aumento globale dei gas responsabili dell’effetto serra, come
l’anidride carbonica. Saper leggere le misure quantitative legate ad un incendio sono importanti per lo studio dei cambiamenti climatici.
El Niño ad esempio, nel 1998, alimentando i fuochi nel Borneo portò all’emissione di ben 2,5 miliardi di tonnellate di carbonio
nell’atmosfera, equivalenti all’emissione totale di carbonio dell’Europa in quell’anno. Oltre alle mappe, vengono fornite anche
informazioni quali l’ora, la data, la longitudine e la latitudine degli incendi. La banca dati copre il periodo compreso tra il 1995 e
oggi, ma le analisi annuali complete iniziano a partire dal 1997. I dati del WFA si basano sui risultati dell’ATSR (Along Track
Scanning Radiometer - Radiometro per scansione lungo linee) a bordo del satellite ERS-2 dell’ESA, lanciato nel 1995, e dell’AATSR
(Advanced Along Track Scanning Radiometer - Radiometro avanzato per scansione lungo linee) a bordo del satellite Envisat dell’ESA,
lanciato nel 2002. Questi due sensori radiometrici sono come misurano le radiazioni termiche nell’infrarosso e rilevano la temperatura
delle terre emerse del pianeta. Gli incendi vengono rilevati meglio durante la notte, quando il suolo circostante è più fresco. Le
temperature che superano i 38,85 ºC vengono classificate come incendi attivi dai radiometri ATSR/AATSR, che sono in grado di rilevare
persino le emissioni di gas combusto di piccola entità ma estremamente calde dei siti industriali.
www.esa.int
(Fonte: ESA)
T
ERRA E SPAZIO
Anche in questo numero di
parla di una sonda
interplanetaria che inizia la
sua avventura scientifica
intorno ad un altro corpo
celeste. I successi conseguiti
dalla scienza astronautica in
questo campo sono continui,
basti ricordare, oltre appunto
a Venus-Express anche Mars
Express, Stardust, Mars
Reconnaissance Orbiter e le
continue meraviglie che ci
offre la missione Cassini (in
orbita intorno a Saturno).
Viene spesso naturale
chiedersi come sia possibile,
soprattutto da grande
distanza, navigare sonde
interplanetarie con le
incredibili precisioni richieste
dalle rispettive missioni. Non
si tratta ovviamente solo di
esperienza ma anche di
tecniche che, come spesso
accade in questo contesto,
sono applicazioni di diverse
soluzioni già note in campo
terrestre ed in particolare ai
lettori di GEOmedia.
Una premessa
Va subito ricordato che la
navigazione interplanetaria è soggetta
a leggi inesorabili ma allo stesso
tempo ben note. I lenti
(apparentemente) spostamenti tra i
pianeti sono governati dalla legge di
attrazione universale alla quale di
aggiungono fenomeni perturbativi che
per quanto di minima entità vengono
doverosamente tenuti in
considerazione. Uno di questi è, ad
esempio, la pressione solare che il
vento solare esercita sulle superfici
esposte di una sonda. Per quanto lieve
essa sia, è costante e a lungo andare
produce una variazione di traiettoria.
Le missioni interplanetarie, inoltre,
Credit: NASA/JPL-Caltech
Navigare con
precisione
nell’infinito
(o quasi)
sono praticamente avulse da manovre
ad alta dinamica: persino le rotazioni
di una sonda vengono gestite nell’arco
di molti minuti, se non per i critici
momenti di inserimento in orbita o di
correzione di una traiettoria; ma anche
in tal caso le manovre sono calcolate
e simulate con grande anticipo e tutte
le possibili evenienze sono
contabilizzate per evitare sorprese.
Le sonde interplanetarie non
possono navigare autonomamente
(almeno per ora) e la loro navigazione
deve essere gestita completamente da
Terra.
Un esempio
Diversamente dalle sonde Europee
Mars Express e Venus Express, la
sonda statunitense Mars
Reconnaissance Orbiter sta lentamente
raggiungendo l’orbita operativa (dopo
un inserimento iniziale intorno a
Marte effettuato con una prolungata
accensione dei motori principali)
mediante una procedura nota come
aerobraking nella
quale l’orbita ellittica
viene gradualmente
modificata con
qualcosa come circa
700 passaggi negli
strati superiori
dell’atmosfera del
pianeta. Questa
tecnica è necessaria
per ridurre in
maniera
considerevole la
di Fabrizio Bernardini
quantità di propellente recata a bordo,
dando così maggiori opportunità di
carico per le strumentazioni
scientifiche. Partendo da un’orbita
fortemente ellittica e nota con grande
precisione, i controllori a terra
programmano per il periastro
dell’orbita un breve passaggio
nell’atmosfera. Il passaggio rallenta
leggermente la sonda e abbassa la
quota del successivo periastro.
Per poter gestire questa manovra
occorre una grandissima precisione:
basta esagerare di poco durante il
passaggio al periastro che la sonda
rischierebbe di essere danneggiata dal
riscaldamento delle parti esposte
all’attrito atmosferico o, peggio, di
precipitare sul pianeta. Per questo
motivo sono essenziali, soprattutto al
termine di un passaggio nell’atmosfera,
accurate misure di posizione della
sonda per poter determinare come
gestire il passaggio successivo.
Le tecniche usuali
Il legame fisico tra la Terra e una
sonda in volo è costituito dalle onde
radio che vengono scambiate tra le
stazioni di terra preposte allo scopo e
gli apparati di comunicazione di
bordo. Tutti i metodi di misura della
posizione e della velocità del veicolo
spaziale sono perciò basati su tecniche
a radiofrequenza. Ricordiamo che tutte
le misure effettuate sono relative alla
Stazione di Terra che le effettua. Nota
la posizione di questa, ed essendo ben
noti il moto di rotazione della Terra
56
GEOmedia 2 2006
intorno al suo asse e quello di
rivoluzione della stessa intorno al
Sole, è possibile riportare la misura
effettuata nel riferimento del sistema
solare.
Innanzitutto è possibile determinare
con buona precisione la velocità
radiale del veicolo rispetto alla
Stazione di Terra per mezzo delle
variazioni di frequenza cui è soggetto
il segnale radio a causa del moto
relativo tra la sonda e la stazione (il
ben noto Effetto Doppler). Si parla di
velocità radiale perché con questo
sistema è possibile determinare la
componente di velocità che giace
lungo la linea congiungente la Ssnda
con la stazione. Non esiste un modo
diretto per determinare la velocità
laterale.
E’ anche possibile misurare la
distanza tra la sonda e la stazione di
terra misurando con quale ritardo
determinati impulsi codificati,
trasmessi da Terra, sono ricevuti di
nuovo a terra dopo che gli apparati di
navigazione di bordo li hanno
rimandati per così dire al mittente.
Poiché i ritardi del sistema sono noti
e calibrati le misure di distanza sono
tipicamente affidabili e limitate solo
dalla risoluzione dei codici impiegati.
Si noti che questa tecnica è alla base
anche della misura della distanza
satellite-ricevitore nei sistemi di
navigazione satellitare (GPS, Glonass,
Galileo).
Con diverse misure di distanza e
velocità radiale è possibile alimentare
un modello matematico che permetta
di risalire alla traiettoria che soddisfa
le diverse misure e, dunque,
determinare posizione e velocità
assolute della sonda. Grazie alle leggi
della gravitazione non sono molte le
soluzioni da analizzare per trovare
quella che soddisfa le misure
effettuate.
Per determinare la posizione della
sonda nel cielo in modo più diretto (e
più preciso) occorrono anche misure di
tipo angolare che, tuttavia, non sono
praticabili a grande distanza dalla
Terra. Le antenne paraboliche
tipicamente usate per le missioni
interplanetarie possono essere puntate
con una precisione del millesimo di
grado, ma questo non è ancora
sufficiente per una determinazione
della posizione. Se si utilizzano due
stazioni è però possibile effettuare due
tipi di misure angolari utilizzando le
tecniche prima descritte.
In un primo caso (detto Precision
Ranging) è possibile spingere al
massimo la misura di distanza (si
potrebbe arrivare anche al metro di
accuratezza) ed eseguire diverse misure
sincronizzate da due diverse stazioni.
In base alla geometria tra le due
stazioni e la sonda, è possibile con
molte misure determinare la posizione
di quest’ultima con tecniche di
trangolazione.
In un secondo caso è possibile
misurare la variazione nello spazio
(cioè in 3 dimensioni) della posizione
della sonda effettuando analoghe
misure sincronizzate dell’effetto
Doppler che apparirà di diversa entità
a due stazioni a grande distanza una
rispetto all’altra.
In entrambi i casi queste misure
richiedono di correggere un gran
numero di possibili sorgenti di errore,
che vanno dalle distorsioni
atmosferiche, alla sincronizzazione dei
tempi, alla stabilità dei generatori di
frequenze. In principio è però
possibile, con un adeguato numero di
misurazioni, ottenere informazioni di
velocità accurate al centesimo di
millimetro per secondo e di posizione
angolare alla decina di nano-radianti
(1 nano-radiante = 10 -9 radianti).
Una nuova tecnica
Le missioni cosiddette deep space
più recenti godono di una nuova
tecnica di misura della posizione
basata su VLBI (Very Long Baseline
Interferometry) o Interferometria su
Base Molto Ampia, già ben nota in
Geodesia ed Astronomia.
Questa tecnica si basa sull’impiego
di due stazioni di terra poste a grande
distanza tra loro (una condizione
facilmente conseguita sia nella rete
DSN della NASA che dalla rete
analoga dell’ESA) che osservano
alternativamente la sonda
oppure un Quasar. I Quasar
(Quasi-stellar Radio Source)
sono oggetti astronomici a
grandissima distanza dalla
Terra la cui emissione è
ricevibile solo con
radiotelescopi e la cui
posizione angolare è nota
con grande precisione.
L’utilizzo dei Quasars
permette di compensare
tutta una serie di errori di
sistema e soprattutto di
sincronizzare la ricezione
dei segnali della Sonda con
elevata precisione.
In pratica, una possibile procedure
d’impiego di questa tecnica, nota come
Delta-DOR (dove DOR sta per
Differential One-way Ranging) prevede
quanto segue. Le stazione osservano
per qualche minuto lo stesso Quasar
(scelto in modo che la sua posizione
angolare sia prossima a quella della
sonda). Poi contemporaneamente, e
senza smettere di registrare i dati, si
spostano per ricevere per qualche
minuto il segnale della sonda. Infine le
due stazioni tornano ad osservare il
Quasar. Dalle misure effettuate sul
Quasar è possibile sincronizzare gli
istanti di ricezione delle due stazioni.
Effettuata la sincronizzazione, e
compensati i moti della Terra, è
possibile allora ricavare dalle
registrazioni delle misure di distanza
dalla sonda che, negli stessi istanti,
risulteranno diverse per le due stazioni.
Si noti che il segnale proveniente dal
Quasar è estremamente debole al
punto tale da essere a malapena
discernibile dal rumore di fondo nei
ricevitori delle stazioni di terra.
Tuttavia la ricezione contemporanea da
due stazioni, e l’utilizzo di tecniche di
correlazione, permette di stabilire con
precisione la differenza temporale nella
ricezione del Quasar tra le due
stazioni.
Il termine delle procedura si ha
quando, ottenute le misure di distanza,
è possibile calcolare, di nuovo
mediante triangolazione, la posizione
angolare della sonda rispetto alle due
stazioni di terra. Uno dei vantaggi
della tecnica Delta-DOR sta nel fatto
che è possibile ottenere una
valutazione di posizione anche in tempi
relativamente brevi (l’intero processo
potrebbe durare anche solo una
ventina di minuti), condizione
indispensabile per la valutazione in
T
ERRA E SPAZIO
GEOmedia 2 2006 57
T
ERRA E SPAZIO
La nuova Stazione di Terra dell'ESA per missioni 'deep space',
situata a Cebreros, in Spagna. La parabola ha un diametro di
35 metri. Una stazione analoga è situata a Nuova Norcia, in
Australia.
Credits: European Space Agency/ESA
Una delle antenne da 70 metri di diametro della Deep Space
Network della NASA. I centri DSN sono situati a Goldstone,
California (in figura), Madrid, Spagna e Canberra, Australia.
La disposizione sul globo terrestre garantisce una copertura
costante delle missioni in atto, indipendentemente dalla
rotazione terrestre.
Credits: NASA/DSN
La chiave di volta per tutte le
missioni interplanetarie è l'infrastruttura
di comunicazioni
realizzata per mantenere il contatto
con Sonde che si trovano
ben oltre i confini del sistema
solare (come le Sonde Voyager e
Pioneer). Quando la potenza
ricevuta a Terra ha valori infinitesimali
occorrono antenne di
enormi dimensioni per raccogliere
una quantità di segnale
sufficiente a poter essere amplificata
da dispositivi avanzati raffreddati
vicino allo zero assoluto
con elio liquido (per ridurre il
rumore di fondo generato localmente).
Tecniche avanzate di
codifica del segnale trasmesso
dalle sonde sono state inoltre
sviluppate e vengono agggiornate
con il passare degli anni per
poter affrontare sfide sempre di
complesse.
La Deep Space Network della
NASA è un luogo di eccellenza
tecnologica al pari dei più grandi
centri di ricerca scientifica del
pianeta e la sua portata non si
limita solo agli apparati per
comunicazioni, ma si estende al
trattamento dei dati e partecipa
attivamente alla gestione delle
diverse missioni per poter coordinare
efficacemente l'utilizzo
degli impianti disponibili. Ad
esempio, se una Sonda si trova
ad affrontare una manovra
importante oppure ha un'unica
opportunità di osservazione di
un determinato oggetto, la DSN
viene utilizzata in maniera da
garantire in ogni istante della
fase critica la disponibilità di
sistemi di comunicazione primari
e ridondati.
Anche l'Agenzia Spaziale
Europea ha una rete per comunicazioni
'deep space' composta
per ora da due stazioni principali
ed una serie di stazioni, con
antenne di dimensioni minori,
utilizzate soprattutto per il "traffico"
più prossimo alla Terra
(come le varie missioni scientifiche
e di telerilevamento in orbita
intorno al nostro pianeta).
Accordi di collaborazione internazionale,
ed una forte standardizzazione
nei segnali e nelle
procedure, permettono all'ESA
di accedere alle risorse della
DSN in caso di necessità o per
garantire la copertura costante
in corrispondenza di eventi particolari.
tempo reale del risultato di una
manovra interplanetaria in prossimità
di un pianeta. Il sistema offre grande
precisione e richiede di conoscere con
altrettanto grande precisione la
posizione nel sistema di riferimento
terrestre delle due Stazioni di Terra
coinvolte nelle misure.
Questa posizione, che poi definisce le
caratteristiche della Linea di Base nella
tecnica VLBI, si ricava anch’essa
mediante una serie di misure
interferometriche effettuate su diversi
Quasar. Queste misure devono essere
ripetute per via delle variazioni nella
posizione dell’asse terrestre (diversi
metri nell’arco di un decennio) e per
via della deriva continentale. E’
riportato che la posizione delle antenne
della rete DSN della NASA è nota con
una precisione di 3 centimetri.
Nota finale
Esiste anche una tecnica di
raffinamento della nozione di posizione
di una sonda basata su misure
effettuate a bordo della stessa. In
particolare si usano spesso le camere
da ripresa (siano esse scientifiche o
dedicate a compiti di navigazione) per
riprendere il campo stellare intorno a
corpi planetari in prossimità della
sonda (per esempio nei giorni
precedenti l’inserimento in orbita).
Tramite diverse di queste immagini è
possibile, a terra, calcolare la
posizione e la velocità della sonda sia
per raffinare i risultati ottenuti con i
metodi sopra descritti, sia anche per
ottenere una verifica indipendente,
ottenuta con latri metodi, della stima
di posizione.
Sebbene questa tecnica si basi su
misure effettuate a bordo siamo
ancora lontani dalla realizzazione di
un sistema di navigazione autonomo
che soddisfi i sempre più stringenti
vincoli di localizzazione imposti dalle
moderne missioni scientifiche.
Riferimenti:
http://www.esrin.esa.it/SPECIALS/Mars_Express/S
EMS5N474OD_0.html
http://www2.jpl.nasa.gov/basics/bsf13-1.html
http://www.electronicstalk.com/news/bae/bae114.ht
ml
http://deepspace.jpl.nasa.gov/dsn/
http://www.esa.int/spacecraftops/
Autore
FABRIZIO BERNARDINI
fb@aec2000.it
58
GEOmedia 2 2006
R
ECENSIONE
Geniali
debolezze
di Isabel Gramesòn
Carl Friedrich Gauss ( 1777 -
1855) ed Alexander von
Humbolt (1769 - 1859),
ormai vegliardi, sono i protagonisti
dell’originale, ironico, a tratti
amaramente esilarante romanzo storico
di Kehlmann.
La narrazione descrive un incontro
tra i due, ormai famosi ma
irrimediabilmente provati dal
decadimento fisico, aprendo poi un
amplissimo flashback sul dipanarsi
delle loro vite e dei loro studi.
Numerose, e assai gustose, sono le
incursioni sulle loro vicende private, e
persino intime; sulle loro debolezze e
manìe. Non mancano, nel racconto,
illustri comparse quali Goethe, Kant,
Weber, Daguerre, nonché personaggi
storici dell’epoca, in un intreccio di
vicende vere e di aneddoti verosimili.
Gauss e Humbolt hanno un unico
tratto in comune: la volontà di
misurare il mondo e l’incapacità di
accettare il regredire delle loro facoltà
mentali, a causa della senescenza.
Gauss, di umilissime origini, è un
pessimista ,spiccatamente stanziale
misantropo. Ha tuttavia orrore della
solitudine, tanto da contrarre due
matrimoni. Si avvicina all’agrimensura
non certo per vocazione ma per cause
di forza maggiore. In età giovanile è
spinto unicamente da motivi economici
ma “quando un cane pastore spuntò
dalla selva, lo scaraventò a terra, gli
diede un morso quasi affettuoso nel
polpaccio e, come un fantasma,
scomparve di nuovo, decretò che era
ora di farla finita con quel lavoro. Non
era fatto per quei pericoli”. Alcuni
anni dopo, però, torna alla medesima
professione, per ragioni diverse, che
Kehlmann illustra con dovizia di
particolari. “Gauss pensava al suo
matrimonio, all’orrore che l’aveva
assalito quando l’aveva vista vestita di
bianco, un sorriso felice a mostrare
quei suoi denti enormi. [...] Il problema
di Gauss non era che non l’amava. Il
problema era che non la sopportava
proprio [...] e gli bastava pensare a lei
per desiderare che fosse morta. Perché
era diventato agrimensore? Per non
stare a casa”.
Humbolt, di nobile casato, è un
esploratore irrequieto, estroverso, per
nulla propenso a distrarsi con relazioni
sentimentali. E’ dell’avviso che “nella
vita si sposa solo chi non ha grandi
progetti”. Prima di partire alla volta
del Nuovo Mondo, dove intende fare
nuove scoperte scientifiche e
geografiche, si procura “...l’arsenale di
strumenti di misurazione più caro che
uomo abbia mai posseduto”. Già in
viaggio per la Spagna, dove si sarebbe
imbarcato, inizia a misurare
sistematicamente tutto ciò che trova
sul suo percorso, passando in più di
una occasione per pazzo agli occhi
delle popolazioni indigene. “Una
collina di cui non si conosce
l’altitudine è una offesa per la ragione
e mi inquieta,” afferma. “Senza
esaminare costantemente la propria
posizione, nessun uomo può progredire”.
Gauss percepisce quasi con
disappunto il succedersi delle varie
epoche storiche, che lo hanno relegato
a vivere “in un mondo di seconda
categoria”. “E’ bizzarro ed ingiusto”, a
parer suo, “il fatto che si nasce in una
determinata epoca e, volenti o nolenti,
vi si resta imprigionati: un esempio
calzante della penosa accidentalità
dell’esistenza. Così uno ha un
vantaggio spropositato rispetto al
passato e diventa lo zimbello del
futuro”. Humbolt ha invece una
interpretazione del progresso ben più
ottimista, tanto da asserire che “La
scienza avrebbe dato inizio ad un’era
di benessere, e chissà se un giorno non
sarebbe stata in grado perfino di
risolvere il problema della morte.”
Il piacevole romanzo scorre via
veloce e traccia, a volo d’uccello,
l’affresco di un periodo di grandi
mutamenti scientifici: Daguerre stava
lavorando ad un apparecchio in grado
di fissare l’attimo; iniziavano i primi
voli con i palloni aerostatici di
Mongolfier; erano stati appena messi a
punto orologi a molla. Senza mai
appesantire il racconto, Kehlmann non
si lascia sfuggire alcun riferimento,
contestualizzando le vicende
nell’ambito politico e sociale dell’epoca,
non limitandosi alla sola Germania,
ma chiamando in causa ben tre
continenti.
E’ un libro di avventure, di scienze
e di coscienze, che si legge tutto d’un
fiato.
Daniel Kehlmann
“La misura del mondo”
Feltrinelli – I Narratori
pp. 254, € 15,00
60
GEOmedia 2 2006
2006
A GENDA
26 Giugno
Trevano - CO
Seminario – 23 giungo termine
di scadenza delle iscrizioni
Nuove metodologie per il
monitoraggio geotecnico
Istituto Scienze della Terra
(IST) - Scuola Professione
della Svizzera Italiana
(SUPSI)
Web:www.ist.supsi.ch/index.php
26-30 Giugno
Terni
Corso sui software geografici
(GIS) liberi (open source)
Corso introduttivo a
GRASS GIS ed al software
GFOSS - Aspetti teorici e
metodologie pratiche
Chiaromondo Società
Cooperativa di Engineering a
r.l.
Web: www.geologi.it/convegni/chiaromondo.pdf
10-18 Luglio
Grosseto
XV International Summer
School in Archaeology –
Geophysics for landscapes
archaeology
Web:
www.lapetlab.it/pagine/XVsu
mmer.html
20-22 Luglio
Zagreb (Croatia)
EYGEC 2006 - 17th
European Young
Geotechnical Engineers’
Conference
ISSMGE - International
Society for Soil Mechanics
and Geotechnical
Engineering
Web: www.issmge.org/addon
7–11 Agosto
San Diego Convention
Center, San Diego, CA
2006 ESRI
International User
Conference
Web:
www.esri.com/events/uc/inde
x.html
12-16 Settembre
Chieti
83a Riunione Estiva della
Società Geologica Italiana
Società Geologica Italiana
Web: www.socgeol.it
8 - 13 ottobre
Monaco, Germania
FIG XXIII Congress and
XXIX General Assembly
Web:
congress.director@fig2006.de
Email: www.fig2006.de
27 giugno - 7 luglio
Fiesole (FI)
4th International
Vespucci Summer
Institute on Geographic
Information Science
Web: www.vespucci.org
Email:
2006summer@vespucci.org
3-6 luglio
Parigi, Francia
ISPRS Commission
Symposium “Paris 2006:
From Sensors to
Imagery”
Email:
isprs2006@colloquium.fr
Web:
www.colloquium.fr/sftp2006
3-4 luglio
Trento
Corso teoricopratico -
Università degli Studi di
Trento/Università degli
Studi di Roma “La
Sapienza”
“Ortofotocarte da
immagini satellitari ad
alta risoluzione:
metodologie, applicazioni
e problemi”
Web:w3.uniroma1.it/geodgeom/
ImmSat2006/immsat2006.html
5-7 luglio
Salisburgo, Austria
AGIT Symposium and
Exhibition
Email: office@agit.at
Web: www.agit.at
L’INFORMAZIONE
PUBBLICA
È UN BENE COMUNE?
Il 4 luglio, a Torino, un
convegno nazionale
analizzerà le possibilità di
valorizzazione e utilizzo
del patrimonio informativo
pubblico per lo sviluppo
della Società della
conoscenza.
A partire dal quadro
normativo di riferimento
(Direttiva europea
2003/98/CE e Decreto
legislativo 36/2006), al
centro del convegno sarà
l’analisi delle possibilità
di valorizzazione e
utilizzo del vasto
insieme di dati raccolto,
prodotto e gestito dal
settore pubblico
nell’esercizio delle proprie
funzioni istituzionali.
Info:
www.csipiemonte.it/datipubblici
Indice Inserzionisti
Abaco pag. 17
Assogeo pag. 41
Codevintec pag. 64
Esri pag. 2
Eurotec pag. 13
Geogrà pag. 55
Geotop pag. 53, 63
Intergraph pag. 5
Menci pag. 19
Mice pag. 31
Microgeo pag. 37
Sinergis pag. 21
Trimble pag. 33
L’Universo pag. 59
Vector pag. 15
GEOmedia 2 2006 61
Abbonamento
per l’edizione
2006 di GEOmedia
5 numeri + 3 speciali.........€ 45
Tipo di organizzazione
• Società di ingegneria
Attività primaria
• Cartografia
• Consulenza
• Rilievi GPS
• Formazione
• Topografia, Geodesia
• Università
• Catasto
• Produttore
• GIS/SIT
• Assoc. categoria
• Ingegneria del territorio
• PAC
• Protezione ambientale
• PAL
• Banche dati territoriali
• Ente parco
• Formazione
• Comunità montana
• Editoria
• Uff. Tecnico
• Consulenza
• Altro ____________________ • Altro___________________
I dati forniti saranno utilizzati in conformità con le vigenti norme sulla privacy (d.lgs 196/03)
CARTOLINA
DI ABBONAMENTO
Ragione Sociale
P.I./C.F.
Cognome
Nome
Indirizzo N°
Cap
Comune
Tel.
Fax
Scelgo di pagare secondo quanto di seguito indicato:
• Bonifico bancario alle seguenti coordinate:
Abi: 03336 Cab: 03200 C/C: 000000002831
Credito Bergamasco S.p.a. - 89 Filiale di Roma
Intestato a: A&C 2000 s.r.l. Div. Geo4all
• Conto corrente postale n. 67876664 intestato a: A&C 2000 S.r.l.
• Bonifico bancario alle seguenti coordinate:
Abi: 7601 Cab: 3200 C/C: 67876664
Banco Posta S.p.a intestato a: A&C 2000 S.r.l.
Da inviare completo delle informazioni + allegata copia di pagamento
Spedire la cartolina in busta chiusa a: Geo4all - Via C.B. Piazza, 24 - 00161 Roma oppure inviarla via Fax ai numeri 06.97252602 - 06.44244965 o via E-mail all’indirizzo info@geo4all.it
GPS · GLONASS · GALILEO
TIME FOR CHANGE !