La prima rivista di geomatica e di geografia intelligente.
Rivista bimestrale - anno XIX - Numero 2/2015 - Sped. in abb. postale 70% - Filiale di Roma
TERRITORIO CARTOGRAFIA
GIS
CATASTO
3D
INFORMAZIONE GEOGRAFICA
FOTOGRAMMETRIA
URBANISTICA
GNSS
BIM
RILIEVO TOPOGRAFIA
CAD
REMOTE SENSING SPAZIO
EDILIZIA
WEBGIS
UAV
SMART CITY
AMBIENTE
NETWORKS
BENI CULTURALI
LBS
LiDAR
Mar/Apr 2015 anno XIX N°2
La prima rivista italiana di geomatica e geografia intelligente
Prevedere il futuro
osservando il presente
Il GIS per censire
il danno del
dopo-terremoto
I dati come
energia rinnovabile
del futuro
Gestione
dell’emergenza
su mobile
SCOPRI LE FUNZIONALITÀ DI G/TECHNOLOGY FIBER OPTIC WORKS!
Combinando tool di progettazione e analisi con soluzioni per la gestione del catasto
infrastrutture, Intergraph® G/Technology Fiber Optic Works semplifica e migliora la
gestione delle reti in fibra ottica.
FOR MORE INFORMATION, VISIT: WWW.INTERGRAPH.COM
© 2015 Intergraph Corporation. All rights reserved. Intergraph is part of Hexagon. Intergraph and the Intergraph logo are registered trademarks of
Intergraph Corporation or its subsidiaries in the United States and in other countries.
Mappare a priori
o a posteriori?
Da un pò di tempo fa notizia
l’applicazione delle tecnologie geomatiche nella
gestione delle emergenze per disastri ambientali. Peccato
che si tratti in maggioranza di interventi a posteriori. Si approntano
mappe per analizzare la distruzione nei post-terremoto come abbiamo visto
per il Nepal proprio in questi giorni, oppure per la gestione di inondazioni come
l’esempio recentissimo del Texas di pochi giorni fa e così via, si potrebbe continuare a citarne
all’infinito. La notizia di una mappa appena realizzata per la gestione di un terremoto fa notizia, più
di quanto ci si possa aspettare.
Molto meno invece la notizia relativa ad un sistema di prevenzione, come una mappa per i piani di fuga
dalle inondazioni o dai maremoti, o dei siti sicuri per un certo tipo di evenienza disastrosa. Anzi, peggio ancora,
si continua ad ignorare qualsiasi mappa del rischio sia sismico che idrogeologico, per il fatto che nessuno si vuol
prendere la responsabilità di avvertire la popolazione e prendere gli opportuni provvedimenti. L’Aquila insegna.
La prevenzione rimane, purtroppo, a carico di alcune amministrazioni che si dotano di sistemi informativi geografici ad
uso interno, quasi mai messi a disposizione dei cittadini. Eppure è risaputo, anche sulla base di recenti esperienze, che un
buon piano di prevenzione mitiga moltissimo gli effetti di qualsiasi disastro naturale.
Se oggi si lodano le tecnologie geomatiche per gestire le emergenze, si dovrebbe anche pensare seriamente ad utilizzarle “prima”
che queste succedano in un sistema organico che dia origine ad una vera politica di prevenzione.
È necessaria una serie ampia di interventi inseriti in un programma nazionale di riforma di tutto il territorio per creare stabilità
nella società, fornire opportunità per i cittadini a partecipare allo sviluppo economico, per promuovere una migliore gestione
ambientale e responsabile per incoraggiare gli investimenti privati sul territorio.
Una tassazione equa, ad esempio della proprietà, è in questo momento una priorità e si può basare solo su elementi caratterizzanti
che devono essere rilevati con tecniche scientificamente validate per essere considerate obiettive. Ma anche le strategie di gestione
sono necessarie in tutto il territorio in settori quali l'agricoltura, la silvicoltura, il turismo, le infrastrutture e la prevenzione dei
dissesti idrogeologici e dei disastri naturali.
Troppo spesso, questi interventi sono eseguiti in isolamento. La mancanza di una gestione congiunta del territorio conduce spesso
a leadership disarticolate e frammentate negli accordi di settore istituzionali producendo anche quadri giuridici e normativi
incoerenti. La mancanza di una vera infrastruttura completa di dati spaziali nazionali è causa del mancato “decision-making” che
dovrebbe essere “evidence-based”.
È necessario un approccio più olistico per realizzare una gestione integrata e sostenibile del territorio della nazione, la cui
organicità vive di interrelazioni e di interdipendenze funzionali, tra le parti che la compongono, atte a dar vita ad un
complesso organico, non riconducibili alla somma meccanicistica delle sue parti.
Dovremo sicuramente ripensare i ruoli e le strutture delle istituzioni per adeguarle alla crescente capacità del cittadino
nella amministrazione e gestione del territorio. Per questo servirà una revisione dei sistemi formativi atti a creare
una nuova generazione di professionisti del territorio che vadano verso una più ampia comprensione della
gestione integrata e sostenibile del territorio stesso.
Le esperienze che riportiamo su GEOmedia confermano tutte l’importanza e la necessità di questa
azione, anzi di approcciare un nuovo percorso.
E questo cammino di cambiamento, che si deve attuare tramite tecnologie atte a fornire
strumenti di decisionalità basati sull’evidenza, ha bisogno di iniziare ora.
Buona lettura,
Renzo Carlucci
In questo
numero...
FOCUS
REPORTS
Piano di
ricostruzione
Post-sisma:
il G.i.s. Per
censirE
il danno
di AntoniA FrAtino
6
LE RUBRICHE
24 MERCATO
26 IMMAGINE ESA
46 SCHEDA TECNICA
47 GI IN EUROPE
48 SMART CITIES
50 AGENDA
14
I dati sono
il petrolio
(…o l’energia
rinnovabile)
del futuro
Di Fabio Disconzi
e Arturo Lorenzoni
Activity-Based
Intelligence
prevedere il futuro
osservando il presente
con gli strumenti
Hexagon Geospatial
In copertina la mappatura dei cambiamenti
a terra tramite immagini satellitari (change
detection) realizzata con immagini TerraSAR-X
nel Porto di Baltimora, Stati Uniti.
Si tratta di una immagine Radar a risoluzione
di 1 metro presa il 12/08/2009 e confrontata il
14/09/2009.
Modalità di acquisizione: SpotLight alta
risoluzione
Modo di polarizzazione: HH
Copyright: DLR e.V. e Airbus DS Geo GmbH
Di Massimo Zotti
20
www.rivistageomedia.it
GEOmedia, bimestrale, è la prima rivista italiana di geomatica.
Da quasi 20 anni pubblica argomenti collegati alle tecnologie dei
processi di acquisizione, analisi e interpretazione dei dati,
in particolare strumentali, relativi alla superficie terrestre.
In questo settore GEOmedia affronta temi culturali e tecnologici
per l’operatività degli addetti ai settori dei sistemi informativi
geografici e del catasto, della fotogrammetria e cartografia,
della geodesia e topografia, del telerilevamento aereo e
spaziale, con un approccio tecnico-scientifico e divulgativo.
Analisi
della
componente 3D
nell'applicazione
di vincoli
urbanistici
di Andrea Maffeis e
Andrea Caldiroli
28
INSERZIONISTI
aerRobotix 44
CGT 40
Codevintec 52
Crisel 36
EPSILON 24
ESRI 41
Flytop 35
Geogrà 12
Geomax 23
Intergraph 2
Planetek 13
32
e
La mappa del
tesoro
per l'auto
autonoma
di Massimiliano Arcieri
Andrea Soncin
ProgeSOFT 25
Sinergis 51
Sistemi Territoriali 39
Teorema 50
Topcon 45
Trimble 49
Gestione di
dati tramite
dispositivi
mobili per la
pianificazione di
emergenza
di Mattia De Amicis,
Stefano Roverato, Fabio
36
Olivotti e Alice Mayer
Remtech
Expo
2015
42
a cura della Redazione
una pubblicazione
Science & Technology Communication
Direttore
RENZO CARLUCCI, direttore@rivistageomedia.it
Comitato editoriale
Fabrizio Bernardini, Luigi Colombo, Mattia Crespi, Luigi
Di Prinzio, Michele Dussi, Michele Fasolo, Beniamino
Murgante, Aldo Riggio, Mauro Salvemini, Domenico
Santarsiero, Attilio Selvini, Donato Tufillaro
Direttore Responsabile
FULVIO BERNARDINI, fbernardini@rivistageomedia.it
Redazione
VALERIO CARLUCCI, GIANLUCA PITITTO,
redazione@rivistageomedia.it
Diffusione e Amministrazione
TATIANA IASILLO, diffusione@rivistageomedia.it
Comunicazione e marketing
ALFONSO QUAGLIONE, marketing@rivistageomedia.it
Progetto grafico e impaginazione
DANIELE CARLUCCI, dcarlucci@rivistageomedia.it
MediaGEO soc. coop.
Via Palestro, 95 00185 Roma
Tel. 06.62279612 - Fax. 06.62209510
info@rivistageomedia.it
ISSN 1128-8132
Reg. Trib. di Roma N° 243/2003 del 14.05.03
Stampa: SPADAMEDIA srl
VIA DEL LAVORO 31, 00043 CIAMPINO (ROMA)
Editore: mediaGEO soc. coop.
Condizioni di abbonamento
La quota annuale di abbonamento alla rivista
Science
è di €
&
45,00.
Technology Communication
Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di
ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa.
L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita
revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza
dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo.
La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti.
Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta
dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere
richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo.
Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la
riproduzione anche parziale del contenuto di questo numero della Rivista in
qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i
sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore.
Rivista fondata da Domenico Santarsiero.
Numero chiuso in redazione il 3 giugno 2015.
FOCUS
Piano di ricostruzione post-sisma:
Il G.I.S. per censire il danno
di Antonia Fratino
Gli scenari possibili del post-terremoto,
debbono essere tratteggiati a priori,
pianificati per tempo, declinando, da un
lato tempi e risorse in gioco, elementi di
pianificazione strategica e dall’altro modi e
azioni, elementi di pianificazione strutturale
ed operativa, tentando di far derivare
dall’esperienza accumulata, strategie e
principi-guida, che non siano da reinventare
a ogni evento, ma che si adattino di volta in
volta, alle peculiarità del territorio colpito.
Fig. 1
Il 26 e 27 Settembre 1997
le regioni Umbria e Marche
e in particolare le province
di Perugia e Macerata, hanno
subito un paio di eventi sismici
di intensità medio-alta. Le due
scosse, si sono verificate alle
02:33 e 11:40 con epicentro
intorno a Colfiorito (Foligno,
Pg). Il bilancio del sisma è
pesante: undici vittime, centoquindici
feriti e oltre ventimila
sfollati nei 48 comuni colpiti.
Una delle aree umbre maggiormente
colpite è il Comune di
Foligno.
A seguito dell’evento il 67% del
patrimonio edilizio è risultato
inagibile totalmente e/o parzialmente
e un ulteriore 12% è
risultato agibile solo dopo aver
adottato provvedimenti per ristabilire
la sicurezza.
La fragilità del tessuto urbano
ha determinato come conseguenza
diretta, un consistente
disagio abitativo; una popolazione
sfollata di oltre 22.000
abitanti.
L’osservazione degli effetti dei
terremoti in Italia ha più volte
evidenziato che il fattore determinante
delle conseguenze prodotte,
in termini di vittime e di
danni, più che alla severità degli
stessi sismi è dato dall’elevata
vulnerabilità di gran parte del
patrimonio edilizio, soprattutto
quello dei centri storici.
I centri storici sono costituiti
per la maggior parte da edifici
in muratura, ma il contesto nel
quale essi si trovano, sia sotto
il profilo storico architettonico
(valore del tessuto urbano,
come patrimonio da conservare),
che strutturale (interazione
tra gli edifici che costituiscono
un aggregato con effetti diversi
durante l’evento sismico), rendono
necessario un approccio
non solo puntuale sul singolo
manufatto, ma complessivo
rispetto all’aggregato.
Da qui nasce la necessità di
affrontare la complessità di un
evento calamitoso, partendo
dalla consapevolezza della multidimensionalità
dei problemi
da affrontare e della complessità
nella prefigurazione di uno
scenario successivo, tenendo
conto che talune scelte adottate
in un processo di ricostruzione,
generano sul territorio e sulla
comunità nuove prospettive e
nuovi assetti, spesso difficilmente
prevedibili.
Scopo dell’indagine
Il tentativo è di non ridurre e
concentrare l’attenzione sull’evento,
bensì su come esso si
esplica nello spazio e nel tempo,
nell’ambito di un determinato
contesto sociale e territoriale,
offrendo una visione corretta
dei processi e delle conseguenze
che le scelte assunte comportano.
L’obiettivo è di indagare il tessuto
edilizio, censire la consistenza
strutturale e la vulnerabilità edilizia
al fine di orientare le azioni
da assumere. L’indagine, inoltre,
tenta di individuare quale sia un
indicatore di mitigazione, attra-
6 GEOmedia n°2-2015
FOCUS
verso il quale è possibile operare
strategie di prevenzione.
A tale scopo si è assunto il
danno come esito dell’evento,
variabile dipendente di altri
fattori, variabili indipendenti,
preesistenti all’evento, quali la
consistenza strutturale e morfologica
degli edifici, l’età del manufatto,
la vulnerabilità edilizia.
Sono state analizzate le relazioni
e le interconnessioni tra i
diversi fattori assunti, al fine di
individuare quali siano gli elementi
di maggiore incidenza sul
danneggiamento.
L’intera metodologia è stata
pensata per essere implementata,
tramite l’utilizzo di sistemi
informativi territoriali. Tali
strumenti permettono, infatti,
di valutare in modo specifico
il sito, integrando modelli ed
indici di diversa fonte, che consentono
di valutare e gestire in
maniera simultanea anche gli
aspetti territoriali.
In tal senso l’uso del G.I.S.
ha prodotto come risultante
un’analisi mirata del tessuto
insediativo, individuando una
possibile strada per ridurre il
rischio sismico, attraverso la
pianificazione degli interventi
più efficaci da promuovere, il
quadro delle azioni da intraprendere.
La comprensione del comportamento
sismico degli edifici in
muratura, osservato sotto l’aspetto
delle loro caratteristiche
tipologiche e costruttive
e della morfologia
urbanistica, rappresenta
un momento fondamentale
nella ricerca
di strumenti e metodologie
di valutazione
del danno prodotto
dal sisma.
La scelta di base è stata
quella di identificare
un contesto territoriale,
appropriato per possibilità
operative di indagine e una
casistica rappresentativa del patrimonio
di edifici in muratura
danneggiati, da assoggettare ad
uno studio approfondito, relativamente
ai caratteri tipologicocostruttivi
e alla lettura ed interpretazione
del danneggiamento.
Valutare lo stato di salute del
territorio è un tema di estrema
importanza per la popolazione,
perché solo attraverso la conoscenza
è possibile un adeguato
contenimento dei rischi, ed esso
rappresenta la migliore forma di
difesa dell’ambiente, degli insediamenti
urbani e delle esigue
disponibilità economiche dello
Stato.
In tal senso è stata catalogata
la tipologia costruttiva di tutti
gli edifici presenti nel centro
storico di Foligno, è stata conseguentemente
prodotta la documentazione
cartografica dell’esito
dell’indagine, consentendo
di valutare anche spazialmente
la distribuzione tipologica degli
edifici, come di seguito riportato
nella Fig.1.
La rappresentazione cartografica
ha determinato la scelta di
limitare lo studio agli edifici in
muratura, dettata dalla netta
preponderanza della presenza di
strutture di questo tipo tra gli
edifici danneggiati.
Le analisi sono successivamente
condotte partendo dall’indagine
di alcune situazioni di base
pregresse, quali ad esempio:
carenze costruttive, microzonazione
sismica, vulnerabilità edilizia,
interventi di riparazione
effettuati in data antecedente al
sisma, da correlare alla distribuzione
e tipologia dei danni.
In una tale ottica il danno
costituisce l’effetto di una serie
di condizioni già presenti
nell’edificio in data antecedente
all’evento.
Riuscire a comprendere quali
caratteristiche determinino i
maggiori danni, consente di
indirizzare gli interventi sugli
edifici in modo efficace e mirato.
Le analisi sono condotte
su un campione di edifici
privati, tutti danneggiati, allo
scopo di evidenziare appunto,
la correlazione tra diversi tipi
di danneggiamento e le carenze
riscontrate.
Lo sviluppo di un approccio integrato
e multidisciplinare, per
quanto ambizioso e complesso,
ha lo scopo di porre le basi metodologiche
per un sistema di
Fig. 2 - Distribuzione spaziale del danno per intensità di classe (elaborazione propria).
GEOmedia n°2-2015 7
FOCUS
supporto alle decisioni in ambito
urbano di un sito-specifico,
applicato ad una estensione territoriale
contenuta,ma concettualmente
estendibile a qualsiasi
tipo di ambiente e di territorio
diffuso.
Si tenta di proporre come possibile
metodo l’integrazione
dell’analisi territoriale, con
altre componenti, tenendo in
considerazione tutti quei fattori
(aspetti di fruizione, uso, caratteri
tipologici, etc.) che possono
contribuire all’aumento o all’attenuazione
della vulnerabilità
del sistema esposto e quindi
all’entità del rischio, favorendo
la definizione di uno scenario
più realistico.
L’indagine si propone di studiare
i potenziali impatti che un
evento potrebbe avere a livello
locale, cercando di offrire strategie
di mitigazioni applicabili nel
campo della protezione civile.
La ricerca si avvale della raccolta
dei dati cartografici, tematici
del territorio, con una doppia
finalità; la conoscenza della configurazione
morfologica, urbana
e antropizzata da una parte e
dall’altra consentire un’analisi
complessiva dei potenziali effetti,
che i cambiamenti operati sul
territorio potrebbero generare,
attraverso la costruzione degli
scenari possibili.
E’ il tentativo di individuare e
sviluppare metodologie integrate,
derivate dalla pluralità
di discipline coinvolte nella
prefigurazione degli scenari da
affrontare a seguito di un evento
calamitoso.
Metodologia
La definizione di una metodologia
integrata per la mitigazione
dei danni da terremoto è
finalizzata alla ricerca di soluzioni
gestionali, frutto dell’integrazione
degli approcci e dei
risultati derivanti da discipline
differenti.
Fig. 3 - Centro storico di Foligno: individuazione dei 5 Programmi Integrati di Recupero
(elaborazione propria).
La multidisciplinarietà è connessa,
anche, all’esigenza di
risolvere le problematiche di
carattere urbano legate alla prevenzione,
coinvolgendo ambiti
non prettamente ambientali e
considerando le rilevanti ricadute
di carattere normativo,
sociale ed economico.
Le discipline coinvolte spaziano
dalla prevenzione, alla sostenibilità
ambientale ed energetica,
all’urbanistica, alla pianificazione
della ricostruzione, fino
all’analisi e distribuzione delle
tipologie edilizie, alla vulnerabilità
edilizia e al danno registrato,
tutto filtrato attraverso la
modellistica georeferenziata,
Si tratta di riconoscere la dimensione
territoriale di eventi/
interventi speciali, intesi come
elementi ordinatori di una pianificazione,
che può aiutare ad
individuare ambiti e soglie di
rischio e a verificare l’attendibilità
degli esiti, fornendo al processo
decisionale, un supporto
tecnico (S. Menoni,2005).
Il processo di recupero è unico
per ogni comunità e richiede
quindi l’obiettivo del “sitespecific”
(Rubin,1985), ma gli
esiti possono essere utili a livello
generale.(Haas,1977).
Il presupposto della ricerca nasce
dalla considerazione avanzata
da Gonzalo Lizarralde, 2000 per
il quale: “dal momento che pericoli
di solito si ripetono nelle
stesse aree, i miglioramenti ottenuti
dopo un disastro diventano
i punti di forza della comunità
per il prossimo evento.”
Il focus: Il Comune
di Foligno
L’idea progettuale nasce dalla
consapevolezza della necessità di
conoscere e preservare l’identità
storica del tessuto edilizio al
fine di procedere consapevolmente
nella definizione delle
strategie di tutela. Infatti in
tutti i centri storici è presente
un interessante “tessuto urbano”
che contribuisce in maniera
significativa alla caratterizzazione
degli insediamenti e disegna
la morfologia del paesaggio, ma
costituisce anche un interessante
campo di indagine per la
lettura della stratificazione dei
rimedi e degli artifici adottati
nel tempo per contrastare precedenti
fenomeni sismici. In
particolare è stato analizzato il
centro storico del Comune di
Foligno. Per quanto riguarda
l’analisi degli edifici in relazione
8 GEOmedia n°2-2015
FOCUS
alla tipologia è stato effettuato,
con un primo censimento
speditivo, un’analisi che ha
consentito da un lato di individuare
alcune caratteristiche
storico-architettoniche significative
e dall’altro di effettuare una
selezione mirata di alcuni edifici
più rappresentativi sia per il
tessuto edilizio, sia in relazione
alla risposta sismica registrata.
Tutti i dati ottenuti sono stati
digitalizzati, resi omogenei per
l’attendibilità del confronto,
parametrando i risultati in funzione
di rapporti percentuali, al
fine di ottenere output attendibili
e confrontabili con altri casi
di studio.
La raccolta delle mappe del
territorio è stata effettuata al
fine dell’inserimento di tutte
le informazioni in un database
geografico relazionale.
Il G.I.S ( Geographic Information
System) è lo strumento di
indagine adottato per l’analisi,
in quanto consente di associare
dati geomorfologici, con i database
e le informazioni territoriali
raccolte e rese disponibili.
La combinazione tra elementi
diversi e database disponibili
per altri diversi scopi, ma sempre
connessi ad un determinato
territorio, consente di estrapolare
informazioni che determinano
nuovi campi di azione e di
indagine mai esplorate.
E’ peraltro evidente, nel contempo,
che raffrontare banche
dati di provenienza diversa e
raccolte con finalità diverse, ha
determinato una difficoltà oggettiva
in quanto si registra una
scarsa capacità da parte degli
enti territoriali di organizzare
i dati in database già orientati
alla costruzione di modelli
previsionali (i database sono
troppo generici e non sono pensati
in partenza per soddisfare
un’esigenza definita di analisi e
predizione del comportamento
del territorio) pertanto si è resa
necessaria una elaborazione
propria di individuazione dell’id
univoco che consentisse la lettura
comparata delle diverse fonti,
relazionato con l’Unità Minima
di Intervento adottata nei Programmi
Integrati di Recupero.
La quantificazione del danno
registrato, così come la valutazione
della vulnerabilità degli
edifici del centro storico, rappresentativi
della realtà locale
costruttiva, è stata ottenuta
attraverso l’elaborazione dei dati
acquisiti tramite le schede e le
tabelle allegate ai cinque comparti,
secondo i quali è stato
Fig. 4 - Centro storico di Foligno: analisi della vulnerabilità per classi di intensità ( elaborazione propria).
suddiviso il centro storico e in
base ai quali sono stati redatti
cinque diversi Piani Integrati di
Recupero (P.I.R.), adottati dal
comune e successivamente approvati
dalla Regione per garantire
il processo di ricostruzione,
avviato a seguito del sisma del
1997.
Si riporta di seguito l’individuazione
dei cinque comparti o
zone (A,B,C,D,E).
Per ogni zona (A.B.C.D, E) il
Piano Integrato di Recupero
(P.I.R.), ha individuato una
serie di Unità Minime di Intervento
(U.M.I.), intese come
quell’edificio o quell’insieme
di edifici che: per caratteristiche
morfologiche, strutturali,
tecnico-costruttive e per i materiali
presenti, possono essere
considerate un organismo strutturalmente
omogeneo. (allegato
A della D.G.R. n.5180/98)
La prima difficoltà riscontrata
nella raccolta dei dati è data
proprio dalla scelta di settorializzare
il centro storico in cinque
diversi comparti.
Tale situazione ha determinato
la necessità di omologare i dati,
sebbene la struttura dei documenti
da allegare ai P.I.R., fosse
garantita dai regolamenti regionali
emanati (Reg. n.15/1998).
A titolo esemplificativo si rileva,
che il centro storico C,
ad esempio, è stato suddiviso
al suo interno in relazione alle
sezioni censuarie, determinando
una duplicazione del numero
assegnato alle U.M.I., distinguibili
solo specificando, oltre al
numero della U.M.I , anche la
zona censuaria di appartenenza.
Non si tratta di un particolare
di poco conto, considerando
che l’identificativo univoco per
relazionare informazioni e database
diversi è proprio il numero
assegnato alla U.M.I.
Tale condizione ha determinato
un aggravio nel procedimento
di elaborazione dei dati.
GEOmedia n°2-2015 9
FOCUS
Un ulteriore elemento di disomogeneità
è dato dal trattamento
degli interventi, diversi
da quelli finanziati attraverso
l’art.3 della L.61/98, relativo
alle U.M.I., censite all’interno
del comparto.
Si tratta dei dati relativi agli
interventi di riparazione di
U.M.I. finanziate con altre fonti,
e pertanto con altre diverse
modalità di rendicontazione
e intervento, o perché facenti
parte del piano straordinario
di edilizia residenziale pubblica
(art.7 L.61/98), o perché opere
pubbliche e chiese gestite
ed inserite attraverso il piano
straordinario redatto per il
Giubileo del 2000 o ancora,
più frequentemente perché
edilizia privata, finanziata attraverso
l’Ord.61/97. Infatti
gli interventi finanziati con
l’ord.n.61/97, sono attuati in
modo diretto, senza l’applicazione
di un piano dedicato,
si tratta di interventi adottati
per abitazioni principali rese
inabitabili per i provvedimenti
emessi con ordinanza di sgombero,
emessa a causa dei danni
prodotti dal sisma. Sono tutti
edifici con danno significativo.
La numerazione della UMI,
per il caso ultimo citato
(ord.61/97) non è peraltro
coincidente con i dati presenti
nel programma SISreg.’97 gestito
dalla regione, programma
di gestione e rendicontazione
di tutta la ricostruzione in Umbria,
in quanto è stato adottato
un numero progressivo identificativo
del numero di edificio, in
relazione alla data di ricezione
dell’istanze di finanziamento,
(data del protocollo), che non
tiene in alcun conto il numero
di UMI assegnato con il PIR.
Anche questo mancato allineamento
dei dati disponibili, con
numerazione differente per la
medesima UMI, solo perché
desunti da database diversi, per
i quali sono stati assunti criteri
diversi di numerazione, ha reso
necessario un ulteriore lavoro
per riallineare i dati e rendere
disponibili gli stessi, al fine di
garantire una lettura univoca e
comparata in ambiente GIS.
L’entità minima di edificato oggetto
di intervento, individuata
all’interno dei piani, si è detto è
la Unità Minima di Intervento
(U.M.I.), composta da uno o
più edifici con caratteristiche
omogenee (tecniche costruttive,
materiali, altezza e tessitura di
solai di interpiano, coperture).
Per ogni U.M.I. si è proceduto:
1. analizzando i dati censiti
presenti all’interno dei Programmi
Integrati di Recupero
adottati o ricorrendo al
reperimento attraverso altri
database, relativi ad altre fonti
di finanziamento;
2. individuando in mappa la
localizzazione della UMI in
relazione al P.I.R. di appartenenza,
costruendo 5 layers,
tanti quanti sono i P.I.R.
adottati nel centro storico;
3. registrando nel database
associato, per ogni UMI di
ogni comparto; il danno,
la vulnerabilità, il livello di
costo, i tempi di realizzazione
dell’intervento di riparazione
adottato.
Per ogni U.M.I. è stata identificata
la classe di vulnerabilità di
appartenenza nel database ed è
poi stata visualizzata in cartografia,
rendendo disponibile una
visione d’insieme della distribuzione
e della diffusione della
gradualità della vulnerabilità.
Analogamente si è proceduto
per l’identificazione anche cartografica
della distribuzione del
danno registrato per ogni UMI,
censito per classi di gravità.
Per ogni U.M.I., attraverso
l’identificazione della vulnerabilità
e del danno subito, è stato
possibile associare il costo parametrico
a mq, funzione delle due
variabili sopra citate.
I dati acquisiti hanno inoltre
consentito, oltre alla rappresentazione
in mappa della variabilità
del danno e della vulnerabilità,
anche la determinazione delle
curve di vulnerabilità, di danno
e dei costi sostenuti.
Lo studio incentrato sull’indagine
delle relazioni tra il
danno registrato e una serie di
variabili caratteristiche dell’edificio,
correlate ai meccanismi di
danneggiamento, ha consentito
di valutare la consistenza del
patrimonio edilizio, di cogliere
i fattori di maggiore influenza
sull’organismo edilizio suggerendo
gli interventi più efficaci ed
adeguati.
Fig. 5 - Centro storico di Foligno: analisi del danno per classi di intensità (elaborazione propria).
10 GEOmedia n°2-2015
FOCUS
Cod
prov
Cod
com
Comune
Num
UMI
Stato
pratica
attuale
Classe
priorità
Stato
Danno
Vuln
Livello
Danno
Concessione
Contributo
Comunicato
in Data
Inizio
Lavori Data
Fine
Lavori
Data
54 54018 FOLIGNO 130 SLD 3 1 1 1 15/10/05 6/21/06 8/7/09
54 54018 FOLIGNO 8 REV 4 0
54 54018 FOLIGNO 9 REV 4 0
54 54018 FOLIGNO 17-21 PAG 2 2 4 3 3/10/11 7/4/11
54 54018 FOLIGNO 42 SLD 3 1 3 2 6/1/06 7/4/06 15/10/11
54 54018 FOLIGNO 46a SLD 1 3 4 4 18/12/01 4/4/02 16/05/05
54 54018 FOLIGNO 48 SLD 1 1 4 3 25/2/03 20/10/04 28/12/09
54 54018 FOLIGNO 51 PAG 1 3 4 4 12/11/03 11/12/04
Tab. 1 - Stralcio della tabella attributi inserita nello shapefile vettoriale
La portata dell’indagine condotta
si inserisce all’interno del
complesso quadro dei contributi
possibili, affinché possa svilupparsi
una politica di resilienza
degli insediamenti urbani.
L’importanza dell’analisi del
comportamento sismico degli
edifici in muratura e l’interpretazione
del loro danneggiamento,
condotto considerando i fattori
e le caratteristiche in relazione ai
possibili meccanismi di danno
e collasso, costituisce certamente
la modalità più corretta per
cercare di interpretare il danno
osservato.
La rappresentazione grafica di
dati, presenti e disponibili solo
sotto forma di database, anche
per quanto attiene agli esiti del
processo di ricostruzione, ma
soprattutto in relazione alla elaborazione
degli stessi per un’indagine
mirata sul fenomeno,
consente, attraverso l’associazione
univoca di dati di diversa provenienza
in un’unica mappa, diverse
letture, che determinano a loro
volta nuovi scenari di indagine.
E’ possibile inoltre visualizzare
una stima, con evoluzione temporale,
tra quanto previsto in
fase di predisposizione dei Programmi
Integrati di Recupero e
quanto realmente attuato e ciò
secondo tre direttrici fondamentali:
1. il tempo di avvio dei cantieri
2. di conclusione dei lavori,
3. di variazione dei costi tra
quanto stimato necessario,
in fase di programmazione e
quanto effettivamente sostenuto
per le spese di riparazione
dei danni subiti.
Si tratta di avere un cronoprogramma
reale e sempre aggiornato
rispetto alle fasi di realizzazione
di un programma di ricostruzione
di evidente utilità.
Il G.I.S. ha consentito inoltre di
ottenere una lettura del tessuto
urbano e delle dinamiche intervenute
in relazione a fattori diversi,
non esaminati nel processo
di ricostruzione, quali ad esempio
la relazione tra danno e/o
vulnerabilità e tipologie edilizie
presenti nel tessuto urbano.
Si riporta di seguito, a titolo
esemplificativo, uno stralcio
della tabella relativa agli attributi
inserita nello shapefile vettoriale
folignoPIR.shp.
Il metodo con cui si è proceduto
all’indagine, ha restituito lo shapefile
vettoriale folignoPIR.shp,
ove la localizzazione geografica
di ogni record è determinata
dalla individuazione univoca della
denominazione delle U.M.I.
per ogni P.I.R. del centro storico
(A,B,C,D,E), e ove nella tabella
attributi per ogni UMI sono state
associate informazioni diverse
e puntuali, proprie della UMI
univocamente individuata.
Conclusioni
La sfida odierna è un serio processo
di riflessione e di documentazione
sulle catastrofi, sulle
conoscenza delle criticità di un
territorio. Occorre consolidare le
strategie intese a promuovere il
riuso del tessuto edilizio, la sicurezza
degli edifici, ridurre la vulnerabilità
edilizia. E’ necessario
introdurre politiche specifiche
per incentivare le Pubbliche Amministrazioni
a formarsi e a investire
in pratiche e metodi che
garantiscano la partecipazione,
anche attraverso la condivisione
delle banche disponibili, che
potrebbero essere finalizzate ad
indagini georeferenziate,
La possibilità di comparare e
misurare approcci innovativi
alle diverse scale ha portato in
luce la necessità di giungere a un
quadro di strumenti valutativi
e conoscitivi in qualche modo
codificato, anche al fine di poter
procedere in modo coerente
all’implementazione delle metodiche
di pianificazione nei processi
di piano.
Il tessuto urbano costituisce,
nell’insieme, un patrimonio culturale
identificativo della società
che vi abita, dato dalla sommatoria
di episodi costruttivi, di valori
storico ambientali, sociali ed economici
che va conservato e di cui
bisogna tenere conto, particolarmente
nelle azioni di prevenzione
legate agli eventi sismici.
GEOmedia n°2-2015 11
FOCUS
I sistemi informativi geografici sono
ormai diventati un valido supporto
per risolvere efficacemente molte
delle innumerevoli problematiche a
livello territoriale-ambientale.
Tali sistemi, se integrati da programmi
aggiuntivi opportunamente realizzati,
si rivelano un supporto indispensabile
nell’affrontare argomenti
ancor più specifici e complessi, come
ad esempio la pianificazione territoriale
in funzione del rischio sismico.
Il G.I.S. si è dimostrato uno strumento
estremamente utile allo scopo,
anche in funzione di un utilizzo in
ambiente internet e/o intranet, in
modo che possa diventare parte dell’operatività
quotidiana delle diverse
amministrazioni preposte all’adozione
e alla gestione dei piani
Definire un modello, una tabella di
marcia non è la risposta definitiva
a tutte le sfide, ma si tratta di un
primo passo per delineare un quadro
d’azione coerente, che abbraccia
diverse aree e settori e ha l’obiettivo
di fornire una prospettiva mitigativa
futura.
Ringraziamenti
Si ringrazia l’Università Politecnica
delle Marche, il Comune di Foligno
e la Regione Umbria, per la
collaborazione offerta e il supporto
fornitomi.
BIBLIOGRAFIA
Alexander, D.E.1,. (2005) The meaning of disaster: a reply to Wolf R. Dombrowsky. In R.W.
Perry and E.L. Quarantelli (eds) What is a Disaster? New Answers to Old Questions. Xlibris
Press, Philadelphia.
Angeletti Paolo, Baciucco Federica, Barluzzi Marco, Battisti Paolo, Macaluso Patrizia, Materazzi
Patrizia, Panella Roberta. Confronto fra danni, vulnerabilità ed interventi di consolidamento.
Il caso dell’Umbria negli ultimi eventi sismici del 1997-1998. Ed.2007.
Calace F. 2009 Ricostruire sì, ma come. Come fare tesoro delle esperienze, “Urbanistica Informazioni”,
n. 226, p. 8.
Friesema, H. Paul; Caporaso, James; Goldstein, Gerald; Lineberry, Robert; and Godschalk
David R, 1999 Natural Hazard Mitigation- Recasting Disaster Policy and Planning; Island
Press, Washington D.C
Haas, J. Eugene, Robert W. Kates, and Martyn J. Bowden, editors. 1977. Reconstruction
Following Disaster. Cambridge, Massachusetts: MIT Press. 331 pages.
Lizarralde Gonzalo ,2000 Reconstruction management and post-disaster low-cost housing; the case
for social reconstruction McGill University Montreal
Menoni Scira,1997. Pianificazione e incertezza. Elementi per la valutazione e la gestione dei
rischi territoriali, ed. Franco Angeli,;
Giovanni Pietro Nimis, 2009 Terre mobili, dal Belice al Friuli dall’Umbria all’Abruzzo. Collana
Saggine.2009 Donzelli Editore
Istituto Italiano di Geofisica e Vulcanologia (INGV), Web site, http://www.ingv.it, accesso 13
gennaio 2013.
Pistocchi A., Luzi L., Napolitano P. 2002 : The use of predective modeling techniques for optimal
exploitation of spatial database: a case of study in landslide, hazard mapping with expert system
–like methods – Enviromental Geology, 41;
ABSTRACT
Possible scenarios of post-earthquake, should be outlined in advance, planned for time, declining, on the one
hand the time and resources involved, elements of strategic planning and to the other side ways and actions,
elements of structural and operational planning, trying to derived from the experience gained, strategies
and guiding principles, which are not to be reinvented in every event, but that fit from time to time, to the
peculiarities of the territory affected. This could help predict the pattern of strategic actions and priorities to
protect against future events.
In this context it has been analyzed the disaster suffered by the city of Foligno, one of the areas most affected
by the earthquake in 1997.
After more than 15 years after the event, thanks to the data available today, is possible to understand with
greater completeness the results in the area. In this perspective, the cataloging of data within a geodatabase,
allowed to contain in one structure, different information, suggesting new and different analyzes. The survey
conducted using the G.I.S. as a tool, it has enabled us to open up new scenarios, preparatory to starting a real
policy of prevention of seismic risk.
PAROLE CHIAVE
GIS; ricostruzione; danno; mitigazione
AUTORE
Antonia Fratino
antonia.fratino@comune.foligno.pg.it
Architetto Comune di Foligno
PhD in Protezione Civile e Ambientale - Università Politecnica delle Marche
12 GEOmedia n°2-2015
FOCUS
GEOmedia n°2-2015 13
REPORTS
I dati sono
il petrolio
(…o l’energia
rinnovabile)
del futuro
Di Fabio Disconzi e Arturo Lorenzoni
La presente ricerca si è focalizzata sulla distribuzione dei dati territoriali in Italia attraverso i
geoportali regionali. La piattaforma sviluppata vorrebbe consentire alle parti interessate di discutere la
determinazione di buone pratiche attraverso un quadro di valutazione web-based migliorabile in modo collaborativo.
Recentemente si sta assistendo
alla nascita di
moltissimi servizi di
archiviazione e condivisione di
dati. Big-data ed open-data, un
tempo parole presenti solamente
nel vocabolario dei professionisti
del settore, stanno conquistando
l’interesse di un’ampia
platea di persone: cittadini,
amministrazioni e aziende.
Numerose sono le iniziative
che mettono a disposizione di
tutti dati riguardanti molteplici
aspetti della vita quotidiana
quali dati demografici, ambientali,
territoriali, della pubblica
amministrazione, sul turismo,
sul commercio e così via. Tra
queste iniziative la più riconosciuta
è dati.gov.it che riveste
inoltre un ruolo centrale e di
coordinamento per il nostro
Paese.
Esistono iniziative focalizzate a
distribuire ed interpretare specifici
tipi di dato. Molto interessante
è ad esempio il SIOPE
(Sistema Informativo sulle
Operazioni degli Enti Pubblici)
che mette a disposizione del
cittadino i prospetti delle entrate
ed uscite monetarie delle
pubbliche amministrazioni
(www.siope.it). Tuttavia avere
a disposizione i dati in formato
“grezzo” spesso non è sufficiente:
la maggioranza dei cittadini
non è in grado di trattarli, filtrarli,
comprenderli ed estrarre
informazioni utili. Accanto alla
cosiddetta “liberazione dei dati”
è necessario che di pari passo si
sviluppino applicazioni in grado
di ricavare informazioni di più
alto livello grazie ad una rappresentazione
più “usabile” dei
dataset. Un esempio di sfruttamento
dei dati grezzi da parte di
applicazioni per generare informazioni
facilmente comprensibili
anche dai cittadini è www.
soldipubblici.com e www.opencivitas.it/cittadini/.
Entrambi
i portali hanno l’obiettivo di
“trattare” e “condizionare” i dati
grezzi per generare report (testi,
tabelle, grafici ed immagini) di
immediata comprensione.
Lungo la stessa direzione vanno
anche i portali di archiviazione
e distribuzione dei dati georiferiti,
ovvero dati che oltre ai
classici attributi alfa-numerici
hanno a loro associato anche
informazioni geometriche,
topologiche e di posizione.
Solitamente vengono distribuiti
attraverso i geoportali. Anche
per questa categoria di dati, vi
è un crescente interesse nel renderne
più immediata la ricerca,
la comprensione ed il download.
Vi sono direttive comunitarie
e nazionali che spingono
la progettazione dei geoportali
verso una direzione comune (direttiva
INSPIRE) caratterizzata
da facilità di navigazione, di ricercabilità
del dato, di usabilità
delle interfacce, etc. direzione
che tuttavia ancora difficilmente
si nota, per lo meno da parte
degli utilizzatori dei dati.
Qual è l’efficacia dei geoportali
nel distribuire i dati geo-riferiti?
Il lavoro presentato nell’arti-
14 GEOmedia n°2-2015
REPORTS
colo, nato in seno al premio
“Energie per la Ricerca” promosso
dalla Fondazione Centro
Studi Enel e dalla Fondazione
CRUI, descrive un approccio
collaborativo adottabile per la
valutazione dei geoportali.
Dai dati all’energia
Per contestualizzare il lavoro
è opportuno descrivere come
e perché il nostro gruppo di
lavoro abbia approcciato la questione
del reperimento dei dati
territoriali geo-riferiti. I dati
geo-riferiti sono un ottimo strumento
per predisporre modelli,
scenari e strumenti di supporto
per la redazione dei piani clima
locali.
I sistemi energetici locali, nazionali
ed internazionali stanno
cambiando: da un approccio
profondamente basato sulle
fonti fossili e su grandi impianti
di produzione si sta virando verso
una produzione energetica in
cui piccoli impianti di generazione,
di piccola taglia e diffusi
nel territorio, alimentati anche a
fonti rinnovabili hanno un ruolo
centrale.
La pianificazione territoriale
quindi richiede un’attenta analisi
delle potenzialità energetiche
legate allo sviluppo delle
rinnovabili. Come è possibile
stimare l’energia potenzialmente
producibile dalle fonti
energetiche rinnovabili? Esse
a differenza delle fonti fossili
sono distribuite nel territorio e
sono strettamente legate alle caratteristiche
fisiche, climatiche
e morfologiche del territorio
stesso (esempio: l’idroelettrico si
può fare dove ci sono corsi d’acqua
e dislivelli, il fotovoltaico
dove ho superficie disponibile e
buon irraggiamento, la biomassa
dove ho economicità nella
raccolta e lavorazione, eolico
dove le caratteristiche del vento
sono migliori, e così via).
Per elaborare una stima del loro
potenziale energetico è necessario
conoscere in maniera molto
approfondita il territorio. Per
poterlo fare mediante l’utilizzo
di software ed elaboratori è
necessario che ci siano, e siano
ricercabili, i dati geo-riferiti
delle caratteristiche fisiche e
geomorfologiche del territorio.
L’articolo indaga, dal punto di
vista degli utilizzatori per analisi
energetico-ambientali, quanto
efficacemente i dati siano
attualmente condivisi in Italia
e propone una piattaforma
collaborativa di valutazione dei
geoportali il cui fine ultimo è
stimolare una loro più efficace
progettazione e usabilità.
Sistema di valutazione
come strumento di interazione
I sistemi di valutazione hanno
la capacità di riassumere in un
giudizio sintetico una prestazione
piuttosto complessa. Si pensi
al voto di laurea che sintetizza
un complesso e articolato percorso
di apprendimento in un
solo numero, alle stelle degli hotel
che in un semplice simbolo
riassumono un’ampia varietà di
caratteristiche delle strutture ricettive,
ai rating finanziari e alle
valutazioni nell’ambito dell’efficienza
energetica.
I sistemi di valutazione nei
quali l’intero meccanismo di
valutazione è pubblico e trasparente
consentono ai “valutati” di
GEOmedia n°2-2015 15
REPORTS
orientare gli sforzi al fine di migliorare
il giudizio. Conoscendo
i parametri che definiscono la
valutazione è possibile indirizzare
gli sforzi di tutti gli attori che
concorrono al processo.
Tenendo questo a mente, è stato
definito un semplice sistema
di valutazione dei geoportali,
attualmente nella sua versione
1.0, nel quale, e tramite il quale,
si vorrebbe creare una piattaforma
di dialogo tra utilizzatori di
dati (la domanda) e amministratori/sviluppatori
dei geoportali
(offerta di dati).
Struttura 1.0
La valutazione si basa su una
scala di 100 punti assegnati tramite
27 indicatori raggruppati
in 6 classi. Ogni classe mira a
valutare un particolare aspetto
del geoportale. La Tabella 1
mostra una sintesi degli aspetti
investigati. Attualmente, versione
v1.0, le classi proposte
riguardano:
- efficacia nella “ricercabilità”:
il mezzo in assoluto più comune
per distribuire i dati è la
rete; il geoportale deve essere
facilmente individuabile tramite
interrogazioni ai più comuni
motori di ricerca, le informazioni
sugli aggiornamenti e
news devono essere distribuite
velocemente;
- organizzazione geoportale: il
geoportale deve presentare una
struttura di navigazione chiara,
i servizi essenziali/basilari devono
essere presentati un modo
efficace;
- organizzazione catalogo dati:
i dati geo-riferiti devono essere
presenti, ricercabili facilmente
e facilmente scaricabili “in locale”
per effettuare agevolmente
le analisi successive;
- disponibilità dati territoriali
e ambientali: questa classe
analizza la presenza di una serie
campione di dataset territoriali/ambientali
e valuta la possibilità
di farne il download su
un pc (download in locale);
- visualizzazione dati via
browser: deve essere presente
uno strumento che permetta a
chiunque di visualizzare il dato
(anche agli utenti sprovvisti di
software GIS);
- altri servizi: questa classe analizza
la presenza di altri servizi
per rendere più utile e completo
il geoportale.
La tabella 1 illustra in dettaglio
la struttura della versione 1.0
del sistema di valutazione.
Collaborativo
La valutazione relativa alla
versione corrente si presta in
modo del tutto interattivo e
immediato a critiche, commenti
e note. Durante la visualizzazione
di una “pagella regionale” è
possibile lasciare un commento,
una segnalazione o una critica
che permette ai “moderatori”
di modificare, eventualmente,
il giudizio. Una panoramica è
disponibile alla pagina: http://
www.fabiodisconzi.com/gislocal/rating/introduzione.html
Particolarmente interessante è
la possibilità di migliorare la valutazione
ed estenderla ad altri
aspetti grazie al contributo di
professionisti, cittadini e amministrazioni
interessate all’argomento.
16 GEOmedia n°2-2015
REPORTS
L’intera struttura del sistema di
valutazione è stata progettata
ponendo particolare attenzione
alla sua scalabilità. E’ possibile
modificare un indicatore
esistente (cambiandone il
punteggio associato ad esempio),
rimuovere quelli non più
interessanti e, soprattutto aggiungerne
di nuovi all’interno
di una classe potendo anche
aggiungere intere nuove classi di
indicatori. Come mostrato nella
figura della pagina precedente,
il processo di miglioramento
del sistema di valutazione ben si
presta ad un intervento collaborativo
ed interattivo. Maggiore
sarà il numero di professionisti
che porteranno la loro esperienza,
migliore sarà l’informazione
portata in seno alla valutazione.
Cosa emerge dalla
classifica versione 1.0
L’idea descritta in questo articolo
non si esaurisce nella valutazione
fine a se stessa. L’obiettivo
principale a cui ambisce la proposta
è di sviluppare una piattaforma
nella quale far comunicare
gli attori dal lato “domanda
di dati” e i professionisti che
devono gestire tale offerta.
# Classe Titolo Punteggio
1.1 1 efficacia ricercabilità SEO Google 10
1.2 e informazione aggiornamenti
SEO Bing 5
1.3 Account twitter 1
1.4 Link da HP sito Regione 8
1.5 Newsletter 4
totale 28
2.1 2 geoportale Pagina di presentazione 5
2.2 Manuali di istruzioni / FAQ 2
2.3 Versione mobile 2
2.4 Contatti 4
2.5 Glossario 1
totale 14
3.1 3 catalogo dati Catalogo dati: organizzazione gerarchica contenuti 3
3.2 Catalogo dati: modulo di ricerca 6
3.3 Registrazione 4
3.4 Informazione veloce aggiornamento dato 1
totale 14
4.1 4 Dati ambientali / territoriali
DTM 6
4.2
Idrografia 2
4.3 Copertura Suolo CORINE 3
4.4 Qualità aria / Emissioni 2
4.5 Rete viaria 3
totale 16
5.1 5 Webgis Webgis (raggiungibile da) 4
5.2 Webgis funzioni base 1
5.3 Webgis ortofoto 1
5.4 Webgis sovrapposizione layer 2
totale 8
6.1 6 altri servizi Multilingua 3
6.2 Servizio stampa 1
6.3 Validazione W3C 6
6.4 Servizio WMS/WFS 10
totale 20
Totale punteggio: 100
Tab. 1 - Sintesi struttura valutazione (V1.0).
GEOmedia n°2-2015 17
REPORTS
Il punto di forza dei sistemi di
valutazione sta nella loro sintesi
e semplicità di comunicazione
di un obiettivo. La valutazione
pubblica e aperta a commenti,
note e integrazione desidera
essere un punto di partenza per
attivare in chi deve fornire i dati
la volontà di rendere più fruibile
il servizio. Viceversa, la capacità
di accogliere nuovi indicatori e
nuove classi, consente di sviluppare
un sistema di valutazione
sempre più completo e in grado
di descrivere da una parte i “desiderata”
degli utilizzatori dei dati
e dall’altra di soddisfarli compatibilmente
con i vincoli tecnici.
La valutazione attuale (marzo
2015) dei 19 portali regionali
italiani + 2 portali provinciali è
stata applicata in un arco temporale
che va da fine novembre
2013 a gennaio 2014; una sintesi
della stessa è disponibile online
alla pagina: http://www.fabiodisconzi.com/gislocal/rating/
sintesi.html e nella Tabella 2.
Emergono alcune considerazioni
generali tra le quali, dal punto di
vista degli autori, le più interessanti
sono:
- disomogeneità sotto svariati
aspetti: è emerso che vi è una
forte disomogeneità non solo
di tipo grafico e di “Graphical
User Interface (GUI)” ma anche
di struttura, disponibilità
ed organizzazione dei dati.
Sarebbe opportuno replicare in
tutti i geoportali, compatibilmente
con i vincoli hardware e
software, le metodologie ritenute
più utili dagli utilizzatori
e le caratteristiche di “User
Experience (UX)” percepite
come migliori (in termini di
utilizzo delle risorse hardware,
software, semplicità di navigazione,
usabilità, etc.);
- ottimo posizionamento sui
motori di ricerca: i geoportali
sono risultati essere ben
posizionati, la maggior parte
dei geoportali appare nella
prima posizione o almeno
nella prima pagina dei risultati.
Solamente Friuli Venezia
Giulia e Toscana non sono
ben posizionati nelle rispettive
pagine dei risultati “Search
Engine Result Page (SERP)”.
La questione è facilmente risolvibile
con delle modifiche
al codice sorgente delle home
page dei rispettivi geoportali;
- link da home page sito regionale:
per 10 geoportali su
21 non è stato trovato alcun
link verso un servizio di condivisione
di dati territoriali (cartografia,
geoportale o servizio
open data) dalla home page
del sito ufficiale della Regione.
L’implementazione di un link
nel sito ufficiale della Regione
è un’operazione immediata
che non richiede particolari
competenze tecniche e che dà
buona visibilità ai servizi di
distribuzione dei dati;
- registrazione obbligatoria: la
direttiva INSPIRE del 2007 e
il decreto di recepimento del
2010 sottolineano chiaramente
l’importanza di diffondere
i dati con il minor numero di
barriere possibile; implementare
un servizio di connessione
ai server in remoto (WMS)
che richieda una registrazione,
o permettere il download
dei dati solamente ad utenti
registrati e che hanno eseguito
l’accesso è un forte ostacolo
alla distribuzione dei dati;
- servizi WMS efficienti: il servizio
di condivisione dei dati
tramite servizio WMS è risultato
essere veloce e con una
buona disponibilità di dati tuttavia
il set di link per attivare
il collegamento al server non
sempre si trova facilmente;
- shapefile poco diffusi: il formato
shapefile è attualmente
il più comodo ed immediato
da utilizzare per elaborazioni
“in locale” almeno dal punto
di vista di chi ha sviluppato
la versione v1.0. Non tutti i
geoportali hanno dimostrato
la possibilità di scaricare i dati
in tale formato. Ancora meno
frequente è risultata essere la
possibilità di scaricarli immediatamente,
senza registrazione,
log-in e senza prenotarne il
download;
- dati ambientali assenti: i dati
sulla qualità dell’aria e delle
emissioni, nonostante siano
fondamentali per comprendere
la situazione ambientale ed
energetica di un territorio, non
sono stati individuati nella
maggioranza dei geoportali;
- versione per dispositivi mobile
(smartphone e tablet)
assenti: nonostante il traffico
della navigazione da dispositivi
“mobile” abbia superato il traffico
da “piattaforme desktop”
la maggior parte dei geoportali
non presenta applicazioni dedicate
o “layout responsive”;
- newsletter poco presenti
e Twitter completamente
assente: l’affermato social network
ideale per micro-aggiornamenti
non è utilizzato da
alcun geoportale; la newsletter,
18 GEOmedia n°2-2015
REPORTS
strumento ideale per aggiornare
gli analisti interessati sulla
disponibilità di nuovi dati e
servizi, è implementata solamente
per 4 geoportali;
- validazione W3C: non tutti
i geoportali sono risultati pienamente
compatibili con gli
standard W3C; 9 geoportali
hanno presentato un elevato
numero di errori (quindi la
loro corretta compatibilità con
i browser più diffusi non è
garantita);
- buona la disponibilità di
webgis: la maggior parte dei
geoportali hanno un servizio
di webgis funzionale, usabile,
che permette di sovrapporre
comodamente una moltitudine
di layer informativi senza
rallentamenti;
- carenti glossario e FAQ: la
maggior parte dei geoportali
non propone una sezione dedicata
alle domande frequenti
e non presenta un glossario dei
termini più utilizzati;
- versione multilingua assente:
la maggior parte dei geoportali
è disponibili esclusivamente in
lingua italiana.
Ringraziamenti
Si ringraziano i finanziatori della
ricerca nata in seno al premio
“Energie per la Ricerca” promosso
dalla Fondazione Centro
Studi Enel e dalla Fondazione
CRUI.
Tab. 2 - Sintesi applicazione
Classe 1 Classe 2 Classe 3 Classe 4 Classe 5 Classe 6
della versione v1.0
Efficacia Organizzazione Organizzazione Dati territoriali e Visualizzazione
ricercabilità geoportale catalogo dati ambientali
dati
Altri servizi
max 28 max 14 max 14 max 16 max 8 max 20
Abruzzo 15 11 13 0 8 16
Basilicata 15 9 13 5 8 10
Bolzano 18 5 13 8 8 19
Calabria 23 9 10 9 8 9
Campania 15 9 11 8 8 10
Emilia Romagna 15 12 9 8 8 14
F V G 8 11 10 8 8 19
Lazio 15 7 7 0 0 6
Liguria 23 8 13 8 8 10
Lombardia 19 7 13 8 8 10
Marche 27 4 9 0 7 9
Molise 19 9 3 6 8 10
Piemonte 23 7 13 10 8 19
Puglia 23 6 7 6 8 10
Sardegna 23 9 7 14 8 17
Sicilia 23 11 13 8 8 16
Toscana 0 11 13 11 8 16
Trento 23 11 9 8 8 10
Umbria 15 11 13 0 8 10
Valle d’Aosta 23 5 9 0 8 7
Veneto 19 6 13 16 6 16
PAROLE CHIAVE
Dati territorial; analisi web; geoportali; open data
ABSTRACT
Public, freely available, searchable and updated datasets might support
citizens, professionals and analysts in understanding several aspect of the
life: from demographics trends of a nation to renewable energy potential
of specific areas. The focus of the research has been to make a portrait on
how territorial data are distributed in Italy by regional geoportals. The
developed platform would like to enable stakeholders to discuss the assessment
and to enhance the evaluation framework in a collaborative and
web-based way.
AUTORE
Arturo Lorenzoni
arturo.lorenzoni@unipd.it
Professore di Economia dell'energia, Università di Padova
Fabio Disconzi
fabio.disconzi@unipd.it
Dipartimento di Ingegneria Industriale dell’Università di
Padova
GEOmedia n°2-2015 19
REPORTS
Activity-Based Intelligence
prevedere il futuro osservando il presente
con gli strumenti Hexagon Geospatial
Di Massimo Zotti
La conoscenza delle attività
umane sulla superficie terrestre,
ottenuta mediante l’analisi di dati
di osservazione della Terra ed altre
informazioni geospaziali, è vitale
per la pianificazione e l'esecuzione
di qualsiasi azione militare, per
finalità di peace keeping o in caso di
emergenze umanitarie.
L’
analisi e il monitoraggio
del territorio attraverso
l’uso di tecniche
di rilevamento fotografico (prima)
e di telerilevamento da satellite
(dopo) è una pratica che
nasce nell’ambito delle attività
di intelligence militare.
In tutti i libri di telerilevamento
si citano i rilievi fatti con fotocamere
installate su uccelli o
palloni per scopi militari come
i primi esempi di osservazione
della Terra dall’alto. L’ambito
militare da sempre rappresenta
il principale mercato del segmento
spaziale, lungo tutta la
catena del valore che va dalla
costruzione di nuovi satelliti
di osservazione della terra fino
allo sviluppo di tecniche di
elaborazione e condivisione di
contenuti informativi geospaziali.
Oggigiorno i nuovi scenari
di sicurezza internazionale
richiedono capacità di analisi
continua di aree vaste dislocate
in zone remote dove non sono
disponibili dati cartografici
aggiornati né tantomeno è possibile
effettuare rilievi diretti
tradizionali.
L’evoluzione
dell’intelligence
geospaziale: informazioni
più precise e
sistemi interoperabili
In questo contesto l’Intelligence
Geospaziale
(wikipedia:GEOINT) assume
un ruolo di primo piano in
tutte le fasi dell’attività di produzione
di informazione dalla
raccolta dei dati, alla loro gestione
e rappresentazione, fino
alla loro condivisione.
Tipicamente il processo di In-
20 GEOmedia n°2-2015
REPORTS
telligence Geospaziale si basa su
fonti informative multi-sorgente
raccogliendo e integrando le
informazioni dalle diverse fonti
disponibili che siano militari
e/o commerciali. Immagini,
dati e mappe acquisiti da piattaforme
satellitari, aeree, veicoli
a pilotaggio remoto (droni)
vanno sapientemente integrati
con cartografie, mappe informazioni
censuarie, dati GPS e/o
altri dati discreti che hanno una
localizzazione sulla terra.
L’intelligence Geospaziale deve
essere fondata, inoltre, su infrastrutture
di dati geospaziali
che abbiano le caratteristiche
di interoperabilità, sicurezza,
distribuzione on-the-fly dei dati
e dei risultati delle elaborazioni
in coerenza con il processo
C4ISR (Comando, Controllo,
Comunicazione, Computer,
Intelligence, Sorveglianza e Ricognizione).
Questo processo, che oggi
sempre più fa i conti con le
problematiche legate ai big data
geospaziali, prevede:
4Fonti multiple di dati distribuite
(nello spazio e nel tempo)
che devono poter essere
integrate al volo via Web;
4L’accessibilità, per comandi
e strateghi militari, a tutti i
dati spaziali ed i servizi disponibili
nell’infrastruttura
C4ISR, in maniera dinamica
e nel rispetto delle procedure
di classificazione e sicurezza
delle informazioni;
4L’integrazione delle informazioni
di carattere generale
disponibili a livello militare
(stato dei luoghi, target, ecc.)
tra i sistemi di comando e
controllo nelle missioni (aerei,
navi, mezzi di terra);
4La disponibilità di strumenti
avanzati di rappresentazione
e visualizzazione grafica che
permettono di realizzare una
tipica mappa operativa basandosi
su dati provenienti
da servizi web multipli e distribuiti;
4La collaborazione, senza soluzione
di continuità, dei produttori
di dati spaziali per le
funzioni C4ISR con gli utenti,
poiché tutti i membri di una
rete distribuita, come quella in
esame, sono nello stesso tempo
utenti e produttori.
Tutte queste fonti informative,
sempre più frequentemente,
rendono disponibili dati quadridimensionali
che possono incrementare
sensibilmente da un
lato la precisione geometrica e
dall’altro la capacità di discriminare
oggetti ed eventi al suolo.
La valorizzazione del contenuto
informativo tridimensionale dei
dati satellitari di osservazione
della terra è l’obiettivo del progetto
3D IMINT (http://www.
planetek.it/3Dimint), recentemente
presentato al convegno
AFCEA “Soluzioni Globali
per la Difesa, Intelligence and
Security” (di cui abbiamo dato
notizia sul nostro sito: www.
geoforall.it/fu86). In questo
progetto si sperimentano innovative
metodologie IMINT
(IMagery INTelligence) basate
sulla fusione di dati ottici e radar
in ambiente tridimensionale
in grado di migliorare significativamente
la geolocalizzazione
ed il riconoscimento preciso degli
obiettivi, e la progettazione
di una infrastruttura di dati geospaziali
in grado di supportare
l’intero processo di intelligence
dall’accesso a fonti informative
distribuite fino alla condivisione
dei risultati adottando standard
OGC.
L’Activity-Based
Intelligence
Negli ultimi anni la sfida da
vincere per le Intelligence dei
vari Stati è quella di riuscire a
combinare dati diversi provenienti
da fonti diverse di rilevamento,
allo scopo di ottenere
una visione più completa ed
efficace di una determinata situazione
o di un determinato
territorio. Questa nuova tendenza
ha portato anche ad un
innovativo modo di concepire le
attività di intelligence.
La “disciplina” che meglio interpreta
tal esigenza è l’Activity-
Based Intelligence (ABI). L’ABI
supera l’osservazione, in maniera
statica, di un determinato
oggetto o area di riferimento,
e prevede un nuovo modo di
praticare intelligence, riuscendo
GEOmedia n°2-2015 21
REPORTS
ad unire informazioni ottenute in
maniera dinamica non solo da piattaforme
per il telerilevamento ma
anche da fonti non convenzionali.
Questo altro non vuol dire che, se
per osservare una situazione prima
ci limitavamo alla secca interpretazione
dei dati giuntici in maniera
ferma rispetto al tempo, ovvero
“istante per istante”, senza riuscire a
comprendere magari l’interazione e
il collegamento tra diverse situazioni
in istanti diversi di tempo, adesso
siamo in grado di interpretare i dati
con una visione più ampia rendendoli
“fluidi” rispetto al tempo,
cioè dando loro un significato di
sequenzialità e continuità. Questo
nuovo approccio consente di fare
stime probabilistiche su ciò che può
accadere nel futuro immediatamente
prossimo anche per cause che
possono apparire completamente distinte
tra loro. La possibilità di fare
ipotesi su eventi futuri è di enorme
rilievo strategico-tattico in quanto
può permettere di ottimizzare i
tempi di ricerca in una determinata
area, ed indirizzare gli interventi per
affrontare eventuali emergenze che
si è in grado quanto meno di ipotizzare:
insomma aiutare gli operatori
in contesti di tipo sia strategico che
tattico ad essere sempre più tempestivi
per risolvere problemi in maniera
efficace.
Gli strumenti tecnologici che supportano
questo balzo in avanti
delle intelligence mondiali fanno
parte dell’offerta tecnologica di
Hexagon Geospatial (www.hexagongeospatial.com)
di cui Planetek
Italia è master dealer per l’Italia e
centro qualificato per il supporto
tecnico e la formazione.
Realizzati in conformità agli standard
internazionali, come quelli
definiti dall’Open Geospatial Consortium
(OCG®), consentono agli utenti di accedere ad una vasta gamma di dati e
processi geospaziali, inclusa la gestione di flussi video con il Motion Video Analyst
Professional.
I prodotti che compongono il Power Portfolio di Hexagon Geospatial, come ERDAS
IMAGINE, suite software completa di elaborazione di dati geospaziali, consentono
la gestione contemporanea di un’ampia gamma di fonti informative per l’intelligence
quali immagini satellitari ottiche e RADAR, foto aeree, dati e flussi video da droni
(UAV), modelli tridimensionali del suolo, nuvole di punti ad altissima densità ecc., per
poi analizzarli e trasformarli in informazione geospaziale accurata.
Il Power Portfolio di Hexagon Geospatial è una suite completa di strumenti software
dedicati alle applicazioni del telerilevamento, della fotogrammetria, dei GIS e della
cartografia, ed è organizzato in tre categorie: Producer, Provider e Platform, per semplificare
l’offerta tecnologica. Maggiori dettagli sul Power Portfolio sono disponibili
all’indirizzo www.geoforall.it/qc4a.
In particolare la Producer Suite aiuta a raccogliere, elaborare, analizzare e comprendere
dati geospaziali grezzi, per produrre informazioni utili grazie agli strumenti desktop
come ERDAS Imagine e GeoMedia. Di particolare rilievo è il Motion Video Analyst
Professional che consente di analizzare in maniera georiferita i flussi video, acquisiti da
camere aviotrasportate da elicotteri o droni, in un ambiente GIS integrato dove oltre
ai video possono essere visualizzati contestualmente altre tipologie di dati geografici.
E’ sufficiente che i frame dello streaming video contengano un metadato di telemetria,
utile a consentirne la corretta georeferenziazione, ed il Motion Video Analyst Professional
offre un ambiente nel quale il flusso video, visualizzato in una finestra dedicata,
è sincronizzato con un ambiente GIS, nel quale le stesse immagini sono visualizzate
georiferite e, quindi, fuse con tutto il contesto cartografico. In questo modo è possibile
fondere le informazioni derivanti dai video acquisiti da droni con altri dati geografici,
quali immagini satellitari o aeree,
dati vettoriali, mappe e modelli digitali
altimetrici in un’unica finestra
di visualizzazione. Questa fusione di
dati georiferiti consente di ricostruire
pienamente il contesto geografico
dell’area ripresa dal video ed avere la
massima consapevolezza situazionale
dello scenario esaminato.
PAROLE CHIAVE
Telerilevamento; monitoraggio; intelligence geospaziale; georeferenziazione
ABSTRACT
The intelligence of human activities on the earth's surface, obtained through the analysis of earth observation
data and other geospatial information, is vital for the planning and execution of any military
action, for peacekeeping or for humanitarian emergencies. The success of these actions largely depends
on the ability to analyze timely data from multiple sources. However, the proliferation of new sources
of intelligence in a Geospatial big data scenario increasingly complicate the analysis of such activities
by human analysts. Modern technologies solve these problems by enabling the Activity Based Intelligence,
a methodology that improves the efficiency and timeliness of intelligence through the analysis
of historical, current and future activity, to identify patterns, trends and relationships hidden in large
data collections from different sources.
AUTORE
Massimo Zotti - zotti@planetek.it
Planetek Italia s.r.l.
www.planetek.it
22 GEOmedia n°2-2015
REPORTS
GEOMAX
works when you do
Anche nelle condizioni atmosferiche più avverse,
GeoMax fornisce le migliori soluzioni
prezzo-prestazioni, works when you do.
info@geomax-positioning.it - www.geomax-positioning.it
GEOmedia n°2-2015 23
MERCATO
Il tablet multi-sensore di Eyesmap
per il rilievo 3D
Microgeo presenta il tablet multisensore di Eyesmap per il
rilievo 3D, un dispositivo portatile completo e facile da usare,
potente generatore automatico di nuvole di punti 3D, dotato di
camere HR, scanner a corto raggio, sensore IMU e GPS.
Campi di applicazione del tablet multisensore:
Architettura, Archeologia, Ingegneria Civile, Geologia, Rilievi,
Piattaforme petrolifere, Arte (restauri), Scene del crimine, Incidenti
automobilistici, Area medica / scansioni su corpi, Manifattura,
Reverse engineering, Game industry, Stampa 3d, Moda,
Biologia, Area forestale.
Funzionalità:
• Possibilità di effettuare rilievi sia in spazi aperti che in spazi chiusi
• Possono essere misurati oggetti piccoli, medi e grandi
• Generazione di nuvole di punti in movimento
• Misurazione di punti distanze e superfici direttamente tramite
lo schermo
• Grande varietà di importazione e esportazione dei file per i sistemi CAD
• Acquisizione e processo di dati 3D in un dispositivo compatto
• Il sistema operativo windows 8.1 con il processore I7 lo rendono
performante come un potente laptop
(Fonte www.microgeo.it)
Rilasciato il supporto
INSPIRE per la Suite
OpenGeo
Con la disponibilità dell'ultimo
aggiornamento OpenGeo Suite
alla versione 4.6, oltre ai miglioramenti
delle prestazioni per il
principale software open source
geospaziale, i clienti europei trovano due novità fondamentali
per pubblicare servizi INSPIRE.
OpenGeo Suite 4.6 aggiunge il supporto per l'estensione Geo-
Server INSPIRE consentendo di realizzare i metadati necessari
per essere distribuiti con i documenti GetCapabilities dei
Web Map Service (WMS) e dei Web Feature Service (WFS).
Questi metadati aggiuntivi garantiscono la conformità con le
viste INSPIRE e le specifiche dei Download Service.
Ulteriori informazioni possono essere trovate nella documentazione
OpenGeo Suite INSPIRE al seguente link:
http://suite.opengeo.org/opengeo-docs/geoserver/extensions/
inspire/index.html
La seconda novità è l'estensione app-schema GeoServer che
consente la mappatura delle informazioni per gli schemi applicativi
predefiniti. Questa estensione viene utilizzata per creare
il Geographic Markup Language (GML) compliant-INSPIRE
in uscita.
Boundless inoltre fornisce il supporto per le estensioni di IN-
SPIRE e app-schema come parte della OpenGeo Suite Enterprise.
Per maggiori informazioni ci si può rivolgere a info@
geobeyond.it
(Fonte OpenGeo)
24 GEOmedia n°2-2015
MERCATO
L’ESA proverà a mappare la superficie del
mare dalla stazione spaziale internazionale
Un nuovo progetto che coinvolge il montaggio di uno strumento
sulla Stazione Spaziale Internazionale e l’uso particolare dei segnali
dai satelliti GNSS per la navigazione, potrebbe fornire misure di
altezza della superficie del mare e informazioni sulle caratteristiche
relative alle correnti oceaniche,
con beneficio della scienza e delle
previsioni oceaniche.
La stazione spaziale orbita attorno
alla Terra 16 volte al giorno a
soli 400 km di distanza, offrendo
anche una piattaforma da cui
misurare alcune variabili legate al
cambiamento climatico. Una call
ESA partita nel 2011 ha invitato
a presentare proposte per effettuare
osservazione della Terra dalla
stazione spaziale e al termine
dell’esame della varie proposte
è stato avviato un ulteriore sviluppo
denominato missione GEROSS-ISS.
Anche se ancora in fase concettuale attraverso studi di fattibilità,
l'obiettivo primario è quello di lanciare l'esperimento verso
la fine del 2019, portando alla stazione spaziale un strumento di
osservazione che nel termine GEROS-ISS include riflettometria
GNSS, radio occultazione e scatterometria.
I satelliti GPS e Galileo inviano un flusso continuo di segnali a
microonde verso la Terra per la navigazione, ma questi segnali
rimbalzano sulla superficie e ritornano nello spazio. L'idea base è
quella di installare una antenna sulla Stazione Spaziale in grado di
catturare i segnali che si riflettono dalla Terra. Conoscendo anche
i dati inviati dai satelliti GNSS si possono effettuare calcoli per
misurare l'altezza della superficie del mare, e per misurare le onde
o "rugosità" che a loro volta
possono essere utilizzate per
calcolare la velocità dei venti di
superficie.
Il potenziale di questa riflettometria
GNSS è di mappare
l'altezza degli oceani su scale
di 10-100 km o più in meno
di quattro giorni. Gli altimetri
satellitari attuali, in confronto,
offrono mappe globali su scale
di circa 80 km, che sono prodotti
da più set di dati ogni 10
giorni.
Il concetto originale in realtà
risale a oltre 20 anni fa e, maturato notevolmente attraverso numerosi
studi e campagne, non è mai stato debitamente testato
dallo spazio. Ora il test sarà possibile, attraverso la Stazione Spaziale
Internazionale per la quale l’ESA ha avviato un particolare
programma di studi generali.
(Fonte ESA)
GEOmedia n°1-2015 25
La Catalogna
nel nord est della Spagna
L’immagine satellitare è una acquisizione radar che mostra parte
della Catalogna nel nord est della Spagna ed include la città di Barcellona
(sulla destra), in cui si trova uno dei più importanti porti d’Europa.
Da un punto di vista geografico questa regione costiera presenta un doppio sistema
di catene montuose inframmezzate da pianure. Mentre alcune aree sono protette,
gran parte di questo territorio ha subito un processo di degradazione, principalmente
a causa dello sviluppo urbano incontrollato, di discariche di attività mineraria e di rifiuti.
Al centro e verso la sinistra nell’immagine possiamo notare riflessioni radar
di tonalità brillante che sono originate dalla città di Lleida. Ad ovest di questa
città passa il confine tra le comunità autonome della Catalogna e dell’Aragona.
L’area di colore blue-verde indica terreni coltivati nel plateau di quest’area,
dove appaiono mature le coltivazioni di grano, orzo, frutta e verdure.
A sud di Lleida è possibile riconoscere parte del fiume Ebro, il secondo fiume più
lungo di tutta la Penisola Iberica. La serpentina che l’acqua di colore scuro forma
lungo il paesaggio è in buona parte dovuta alla presenza di dighe che regolano il
flusso dell’acqua. Il corso del fiume prosegue verso sud ed infine sfocia nel Mediterraneo
in corrispondenza del Delta dell’Ebro (non visibile nell’immagine).
Lungo la parte alta dell’immagine si possono osservare le colline ai piedi
della catena montuosa dei Pirenei, note con il nome di Pre-Pirenei.
L’immagine è stata catturata dal radar del satellite
Sentinel-1A il 29 Gennaio 2015.
Crediti: ESA http://www.esa.int Image of the week:
"Catalan coast"Traduzione a cura
di Gianluca Pititto
REPORTS
Analisi della componente 3D
nell'applicazione di vincoli urbanistici
di Andrea Maffeis e Andrea Caldiroli
Alcuni vincoli urbanistici interessano
principalmente la componente
altimetrica dell’edificato. Grazie a
strumenti di analisi spaziale tipici
dei GIS ed a dati altimetrici accurati,
nel contesto del Comune di Bergamo
è stato possibile sperimentare
metodologie innovative di verifica e di
analisi per quanto riguarda la tutela
del paesaggio e l’individuazione di
Fig. 1 – Planimetria dei coni panoramici.
ostacoli per la navigazione aerea.
Il presente lavoro ha l’obiettivo
di illustrare uno strumento finalizzato
a supportare gli uffici
tecnici durante la fase di prima
applicazione di vincoli di natura
ambientale nonché dei vincoli di
carattere edilizio - urbanistico derivanti
dalla presenza sul territorio
di due grandi polarità di differente
origine e caratteristiche: la presenza
del nucleo storico di Città Alta
che ha determinato l’emissione da
parte della competente sovrintendenza
ai beni culturali di decreti
di vincolo finalizzati alla tutela
visiva dello skyline e la presenza
dell’aeroporto internazionale il
Caravaggio di Orio al Serio il
quale ha comportato una serie di
vincoli definiti ENAC al fine di
evitare potenziali ostacoli fisici alla
navigazione.
Entrambi i vincoli presentano
una componente altimetrica la
cui valutazione risulta complessa,
scarsamente correlata all’andamento
orografico del territorio ma
soprattutto poco tangibile dalla
planimetrie di vincolo classiche
la cui restituzione è di carattere
bi-dimesionale. Il lavoro, grazie
all’utilizzo di dati digitali altimetrici
(DDEM e DDSM) propone
l’applicazione di una metodologia
originale basata sull’utilizzo di tecniche
di spatial analysis tipiche dei
GIS; la finalità è quella di mettere
in luce aspetti potenzialmente
critici nell’applicazione dei vincoli
edilizio-urbanistici.
Il lavoro è pertanto articolato
lungo due argomenti di indagine
aventi nella componente tridimensionale
il punto di tangenza;
il seguente articolo, da un lato
affronta l’analisi visiva a partire
da uno specifico punto di osservazione
(valutazione degli impatti
degli interventi interni ai coni
panoramici), dall’altro determina
le eccedenze altimetriche
degli edifici esistenti rispetto al
limite di edificazione in altezza e
conseguentemente permette di
ricavare la potenzialità residua di
elevazione. I Sistemi Informativi
Territoriali (SIT) sono oggi diventati
strumenti fondamentali per
una corretta gestione del territorio
nell’ambito della pianificazione
urbanistica. Attraverso il loro utilizzo
è infatti possibile analizzare
determinate ricadute derivanti da
vincoli normativi la cui applicazione
comporta limitazioni nella
prassi quotidiana di governo del
territorio che gli enti locali sono
chiamati ad esercitare.
Le peculiarità
orografiche del
territorio comunale
Un aspetto fondamentale sul
quale deve essere focalizzata l’attenzione
per le analisi oggetto del
presente articolo è rappresentato
dalla particolare ed articolata
orografia che caratterizza il territorio
comunale, in quanto i
vincoli oggetto di elaborazione
si articolano essenzialmente sulla
componente altimetrica. La città
di Bergamo sorge ai piedi delle
prealpi orobiche, allo sbocco della
28 GEOmedia n°2-2015
REPORTS
Fig. 2 – Esempio di un profilo
altimetrico - linea di vista.
valle Seriana e della valle Brembana,
nel territorio dell’alta pianura
lombarda; il territorio comunale
è diviso in due zone chiaramente
distinte tra loro: la zona collinare
che comprende Città Alta e la zona
pianeggiante corrispondente alla
città bassa. L’estensione territoriale
limitata presenta una variazione
altimetrica di notevole importanza,
infatti si passa dai 200 m slm della
pianura a circa 350 m slm di Città
Alta, fino agli oltre 600 m slm dei
colli; la peculiarità di questo andamento
altimetrico è determinata
dal fatto che ci si trova all’interno
di un contesto cittadino prevalentemente
urbanizzato. Tale aspetto
rappresenta anche la particolarità
dello skyline cittadino e rappresenta
l’unicità e la riconoscibilità della città
di Bergamo nel contesto regionale,
nazionale ed internazionale.
Vincoli urbanistici e rappresentazione
cartografica:
coni panoramici
Il codice dei beni culturali definisce
il paesaggio quale territorio
espressivo di identità, il cui carattere
deriva dall’azione di fattori
naturali, umani e dalle loro interrelazioni.
Ai fini della tutela visiva
e quindi paesaggistica del nucleo
storico di Città Alta, tra il 1957 ed
il 1965, la competente sovrintendenza
per i beni culturali
ha emesso undici decreti
di vincolo dichiarando il
“notevole interesse pubblico”
della testimonianza
storica della città alta. In
relazione alla normativa
di riferimento qualunque
istanza edilizia ricadente
all’interno di tali ambiti viene
sottoposta a valutazione
paesistica. Nella strumentazione
urbanistica comunale vigente
Fig. 3 – Cono
panoramico,
skyline e campo
di visibilità
(viewshed).
i comunemente detti “coni panoramici”
sono indicati con forma
geometrica nella quale i vertici del
triangolo corrispondono rispettivamente
al punto della visuale da
tutelare e agli estremi dell’orizzonte
visivo.
I decreti di vincolo emessi sotto
forma di descrizione degli aspetti
visivi da tutelare hanno trovato
riscontro con le tecniche di rappresentazione
tipiche del periodo predigitale.
Con il passare del tempo
la logica applicativa di tali vincoli
è andata ad inserirsi in un contesto
di carattere edilizio amministrativo
anziché rispecchiare il pensiero di
valorizzazione e tutela dell’interesse
pubblico (di natura visiva) espresso
dal sovrintendente con decreto.
Nonostante il pensiero del pianificatore
fosse in sintonia con la
natura del vincolo, ovvero secondo
un’accezione intrinsecamente
tridimensionale, la trasposizione
in termini cartografici è risultata
limitativa rispetto alla logica dello
stesso. Questo ha determinato durante
gli anni di applicazione una
contrazione concettuale degli aspetti
caratterizzanti la tutela visiva.
Lungo questa riflessione è nata la
necessità di ricercare un nuovo approccio
metodologico che potesse,
da un lato effettuare analisi di visibilità
a partire da qualunque punto
sul territorio comunale rispetto
alla centralità di città alta, dall’altro
di verificare gli esiti applicativi dei
vincoli visivi emessi oltre 60 anni
orsono.
Vincoli urbanistici e rappresentazione
cartografica: pericoli
e ostacoli alla
navigazione aerea
L’art. 707 del Codice della
Navigazione Area demanda
all’ente competente ENAC (Ente
Nazionale per l’aviazione civile)
l’individuazione delle zone da
sottoporre a vincolo nelle aree
limitrofe agli aeroporti, stabilendo
limitazioni di natura edilizio
- urbanistico affinchè vengano
ridotti ed evitati eventuali ostacoli
e potenziali pericoli per la navigazione
aerea. Il territorio comunale
è interessato nella sua totalità da
tali limitazioni. Nello specifico il
tema analizzato riguarda il limite
all’edificazione in altezza imposto
da ENAC secondo rigide regole
comuni a tutti gli aeroporti
italiani. L’obiettivo, ovviamente
GEOmedia n°2-2015 29
REPORTS
condivisibile, è quello di garantire
il corretto svolgimento dell’attività
aeroportuale. La particolare
orografia del territorio comunale
ha determinato la necessità di
effettuare puntuali verifiche rispetto
allo stato reale dei luoghi e
definire le criticità derivanti da tali
limitazioni altimetriche.
A novembre 2013 ENAC ha
trasmesso al Comune di Bergamo
le planimetrie in cui erano individuate
le zone sottoposte a limitazione
relativamente agli ostacoli
ed ai potenziali pericoli per la
sicurezza della navigazione aerea
dell’aeroporto di Orio al Serio.
Le planimetrie riportano le varie
aree di vincolo: superfici di salita
al decollo, di avvicinamento, di
transizione, superfici orizzontale
interna, conica e orizzontale esterna.
La cartografia individuava,
inoltre, alcuni ambiti la cui quota
altimetrica del terreno costituisce
una eccezione in quanto eccedente
rispetto alla superficie del
vincolo stesso. Per quanto riguarda
il comune di Bergamo si tratta
di quelle aree la cui quota del
piano di campagna risulta essere
maggiore della superficie orizzontale
interna (274.95 m slm),
della superficie orizzontale esterna
(374.95 m slm) oppure di quella
conica (274.95 – 374.95 m slm).
Complessivamente il territorio interessato
era stimato in oltre 440
ettari di cui 25% appartenente al
centro edificato.
Le metodologie di
analisi spaziale
applicate ai due
casi di studio
Nei primi mesi del 2013 il Comune
di Bergamo ha commissionato
un rilievo LIDAR al fine di
ottenere il Modello Digitale del
Terreno e delle Superfici (DTM e
DSM). Il rilievo è stato effettuato
su tutto il territorio comunale
(circa 40 Kmq) con il sensore
aviotrasportato ALTM GEMINI
di Optech e caratterizzato da una
densità media di 2 punti per metro
quadro. Oltre ai dati delle quote
ellissoidiche e ortometriche del
DTM e del DSM sotto forma di
nuvola di punti, sono stati consegnati
anche i dati delle sole quote
ortometriche sotto forma di grigliati
a maglia regolare (passo della
griglia 1 metro). Si può quindi
parlare di DDTM (Dense Digital
Terrain Model) e DDSM (Dense
Digital Surface Model) conformi
al livello 6 delle “Linee guida Ortoimmagini
1:10000 e modelli
altimetrici”. Il DDSM, il DDSM
e la nuvola di punti LIDAR sono
utilizzati correntemente dall’Ufficio
SIT all’interno dei tipici applicativi
GIS desktop di ESRI.
Fig. 4 – Modello digitale delle superfici
di vincolo del Comune di Bergamo
e planimetria ENAC.
Nel caso dei “coni panoramici” si
è trattato di effettuare delle analisi
di visibilità per quelle zone della
città sottoposte ai decreti di vincolo;
per ognuno dei coni panoramici
vincolati è stato individuato
il punto di osservazione e sono
state fatte delle analisi per verificare
la visibilità della porzione di
territorio compresa tra il punto
di osservazione e gli oggetti individuati
dal vincolo quali estremi
della visuale da tutelare.
Sono stati utilizzati due strumenti
del 3D Analyst in grado di fornire
informazioni, che per certi versi
possiamo ritenere complementari.
In primo luogo con lo strumento
“Skyline” abbiamo ottenuto, per
ogni punto di osservazione, la
polilinea che rappresenta la linea
dell’orizzonte visibile, o, detto
altrimenti la linea congiungente
gli oggetti più distanti visibili dal
punto di osservazione. È stato
quindi possibile raffrontare la
rappresentazione planimetrica dei
vincoli con gli skyline generati sul
modello altimetrico e verificare
se i due punti agli estremi del
vincolo tracciato risultano visibili
o meno. Successivamente con lo
strumento “Viewshed” sono state
identificate, per ogni punto di vista,
le porzioni di territorio visibili
e quelle nascoste da altri elementi.
In questo modo è immediato
percepire come di tutta l’area
ricompresa nel cono panoramico
e sottoposta a vincolo, solo una
piccola parte (quella visibile) può
essere considerata da tutelare particolarmente.
Lo stesso approccio analitico può
essere utilizzato sia per analizzare
ulteriori visuali di pregio della
città non ancora vincolate, sia
per fare delle simulazioni al fine
di verificare l’impatto visivo di
nuove costruzioni.
Per quanto riguarda invece
i pericoli e gli ostacoli alla
navigazione aerea, nelle planimetrie
predisposte da ENAC
per l’individuazione delle aree
30 GEOmedia n°1-2015
REPORTS
Fig. 5 – Esempio di profilo altimetrico lungo il DDTM, DDSM e la superficie di vincolo.
foranti sono state utilizzate curve
di livello orografiche ottenute
dal DEM NASA STRM (passo
della griglia 90-95 metri); inoltre
viene dichiarato che “i contorni
delle aree dell’orografia forante la
superficie conica seguono l’andamento
variabile della medesima
con una precisione soggetta ad
un errore dato da una differenza
in elevazione fino a circa 20 m”.
Per questo, per i motivi indicati
nel paragrafo precedente, per le
ricadute urbanistiche a cui sono
sottoposte le aree di vincolo e disponendo
di un recente DDTM/
DDSM, si è ritenuto opportuno
tentare di ridefinire i contorni
delle “aree dell’orografia foranti
le superfici di vincolo” utilizzando
una differente metodologia.
Inoltre si volevano individuare
quelle edificazioni esistenti che già
superano le limitazioni imposte
e conseguentemente delineare le
potenzialità edificatorie, in termini
di elevazione (come per il caso
di ampliamenti o nuove costruzioni)
nelle differenti porzioni del
territorio.
Il primo passo è stato quello di
generare un modello digitale a
griglia regolare delle superfici di
vincolo, a partire dalle planimetrie
proposte da ENAC. Quindi
sono stati creati dei raster per ogni
tipologia di superficie di vincolo
ricadente nel territorio comunale
e successivamente mosaicati. La
risoluzione spaziale e l’estensione
dei raster è stata impostata coincidente
a quella del DDTM e del
DDSM comunali.
Per le superfici orizzontali (esterna
ed interna) è stato sufficiente
attribuire il valore della quota di
vincolo ad ogni cella dei raster.
Per le superfici di salita al decollo
e di transizione, essendo dei piani
inclinati, si è proceduto interpolando,
tramite una regressione
lineare del primo ordine, i valori
iniziali e finali delle quote di
vincolo. Mentre per la superficie
conica, non essendo possibile
calcolare i valori del raster analiticamente,
è stata fatta un’interpolazione
spline utilizzando i
valori di quota della superficie di
vincolo lungo le curve di isolivello
tracciate da ENAC.
Una volta generato il modello digitale
delle superfici di vincolo, è
stato immediato confrontarlo con
il DDTM ottenendo la mappa
delle aree orograficamente foranti
(celle del raster in cui la differenza
tra superficie di vincolo e DDTM
è minore di zero), e osservare
come fosse significativamente
diversa da quella proposta da
ENAC.
In modo del tutto simile, utilizzando
il DDSM, è stato possibile
ottenere anche la mappa dell’edificato
che già oggi supera in altezza
le superfici di vincolo e specularmente
l’indicazione puntuale
della potenzialità edificatoria.
Conclusioni
L’analisi della componente altimetrica
nei vari aspetti del governo
del territorio assume oggi un
ruolo di primaria importanza che
deve essere affrontato con metodologie
adeguate al fine di evitare
semplicistiche approssimazioni.
Gli strumenti GIS e dati altimetrici
adeguati alla scala locale,
hanno permesso ai tecnici del
Comune di Bergamo di effettuare
opportune verifiche rispetto alla
vincolistica esistente evidenziando
cosi le città derivanti da incoerenze
tra lo stato reale dei luoghi
e le limitazioni derivanti dalla
normativa sovraordinata. Infine,
tali elaborazioni hanno permesso
di aprire un confronto con gli enti
competenti al fine di trovare soluzioni
condivise che garantiscano
il giusto equilibrio tra le esigenze
di tutela ed una corretta gestione
del territorio da parte degli enti
locali. Sarebbe auspicabile che tali
valutazioni venissero fatte preventivamente
l’emissione dei vincoli
in modo tale da non incorrere in
spiacevoli situazioni soprattutto
per i tecnici che si trovano a dover
applicare limitazioni talvolta poco
realistiche rispetto al contesto nel
quale si opera.
Ringraziamenti
Gli autori desiderano ringraziare
Gianpaolo Ranica e Sergio Appiani
della Direzione Pianificazione Urbanistica
per il prezioso contributo.
RIFERIMENTI
Decreto legislativo 22-1-2004, n. 42 - Codice dei beni culturali
e del paesaggio.
Decreto legislativo 15-3-2006, n. 151 - Codice della navigazione
aerea.
Comitato per le regole tecniche sui dati territoriali delle
Pubbliche Amministrazioni - “Linee guida Ortoimmagini
1:10000 e modelli altimetrici”
PAROLE CHIAVE
Pianificazione urbanistica; 3D; DTM; vincoli; analisi
visibilità; navigazione aerea
ABSTRACT
Some planning restrictions affecting mainly the altitude component
of the buildings. In the context of Comune di Bergamo,
using GIS spatial analyst tools and accurate elevation
data, were studied innovative methods of analysis in the field
of landscape protection and air navigation obstacles.
AUTORE
Andrea Maffeis
andreamaffeis@comune.bergamo.it
Andrea Caldiroli
acaldiroli@comune.bg.it
Comune di Bergamo
GEOmedia n°2-2015 31
REPORTS
La mappa del tesoro
per l'auto autonoma
di Massimiliano Arcieri e Andrea Soncin
Il sogno di ogni cartografo è da
sempre quello di creare la mappa
perfetta, in grado di rappresentare
fedelmente il territorio attorno a
noi. Ma, come tanti nel settore
affermano, al centro di tale sforzo
c’è una grande contraddizione:
quanto più una mappa si avvicina
alla realtà, tanto meno risulterà
essere utile.
Le Mappe sono delle rappresentazioni
della realtà
con la forzata necessità
di semplificarla; chi le utilizza
non deve necessariamente
conoscere ogni centimetro del
territorio per andare da un generico
punto A ad un altro B.
Se al bisogno di semplificazione
aggiungiamo i limiti di gestione
del cervello umano che non
sarebbe in grado di elaborare
l’enorme quantità di informazioni
ipoteticamente fornita,
diventa abbastanza chiaro come
progettare una mappa tradizionale.
Ma cosa accade se la mappa
non viene più concepita per
degli esseri umani ma per delle
macchine, come ad esempio le
Fig. 2 - Integrazione tra dati LIDAR e rappresentazione cartografica dell’asse stradale.
automobili autonome, in grado
di gestire una enorme quantità
di informazioni? La contraddizione
precedente decade, e
possiamo pensare ad una mappa
molto più vicina alla realtà e che
allo stesso tempo risulti essere
anche molto funzionale.
Mappe per tutte le applicazioni
In HERE, stiamo sviluppando
una varietà di mappe diverse
miscelando una combinazione
di nuove tecnologie con la
nostra esperienza di cartografia
tradizionale acquisita negli anni.
In tutto il mondo, i nostri team
di geografi altamente qualificati
garantiscono la qualità delle nostre
mappe stradali, di trasporto
pubblico e Indoor Venues di
aeroporti, stazioni ferroviarie
e centri commerciali. Il nostro
obiettivo è quello di sviluppare
mappe fruibili da tutti – che
si tratti di semplici utilizzatori
finali (consumers), di aziende
private o pubbliche.
32 GEOmedia n°2-2015
REPORTS
L’auto è solo una parte di un
ecosistema emergente molto più
ampio dei dispositivi collegati
(connected devices) tra i quali
smartphone, indossabili (wearables),
infrastrutture intelligenti
sincronizzate tra loro come semafori
e sistemi di telepedaggio
nelle città (smart city).
In molte regioni, stiamo arricchendo
i contenuti cartografici
dei nostri database con
segnalazioni o modifiche da
parte di esperti o nostri utenti
attraverso un software dedicato,
il Map Creator. Ogni giorno
integriamo migliaia di modifiche
alle nostre mappe grazie ai
contributi di esperti delle nostre
Community, selezionati con
cura e scrupolo nelle Università,
fra professionisti del settore,
nelle amministrazioni. A questi
esperti, si affiancano centinaia
di appassionati che utilizzano
quotidianamente le mappe
HERE.
Queste segnalazioni sono importanti
per garantire un tocco
‘locale’, soprattutto in alcune
aree a spiccato carattere dinamico
per le quali è richiesta
un’attenzione particolare, o, più
in generale, in aree che risultano
essere più difficilmente raggiungibili.
HERE utilizza diffusamente anche
la tecnologia più moderna
del settore della cartografia, il
LIDAR, che raccoglie centinaia
di migliaia di dati al
secondo, tutti georiferiti.
Tentando di semplificarne
il funzionamento, il
sistema è costituito da
un segnale laser sorgente
che rimbalzando
sulle superfici che incontra
crea precise nuvole
di punti, riacquisite
e successivamente
processate e rielaborate
per creare mappe in 3D
ad alta definizione.
Allo stesso tempo, i nostri
veicoli rilevano e acquisiscono
automaticamente
oltre 10.000 tipi di segnali
stradali in 22 paesi,
assieme alla segnaletica
orizzontale; tutte queste
informazioni vengono elaborate
e sovrapposte alla
base cartografica cosicchè
il software possa integrarle
e completarle. Vogliamo evidenziare
una volta di più che
l’input umano è fondamentale
per lo sviluppo e il processo finale
della verifica dei dati.
Mappe per l’auto autonoma
Queste mappe ad alta definizione
– HERE le chiama HD
Map – costituiranno le fondamenta
dell’auto autonoma. Per
arrivare a destinazione in modo
sicuro, un veicolo autonomo
deve conoscere accuratamente
l’intera rete stradale: ogni svolta,
strada a senso unico o svincolo,
ogni pendio, dosso e curva.
Ecco perché le mappe per la
guida autonoma richiedono più
precisione, accuratezza e “penetrazione”
di quelle progettate o
usate per sistemi di navigazione
semplice.
Di conseguenza, rispetto ad una
Fig.3 - L’autovettura HERE True munita di strumentazione
LIDAR durante l’acquisizione dati.
mappa in 2D, la HD Map, oltre
ad una maggiore precisione, fornisce
molte più informazioni,
per esempio su alcuni attributi
come ostacoli su strada o rampe
di uscita.
Le automobili autonome sono
attrezzate con dei sensori di
bordo; tuttavia, questi sensori
riconoscono e “leggono” la strada
che stanno percorrendo per
la prima volta, non avendone
“memoria”. Le informazioni
della strumentazione di bordo,
unite al dettaglio della HD Map
forniscono un set di dati in un
contesto completo e dettagliato.
Uno spartitraffico è stato abbattuto?
Fig. 4 - In una simulazione di HD Map, il veicolo con guida autonoma giunge all’incrocio conoscendo in anticipo
il tipo di svolta che dovrà effettuare, scegliendo la giusta corsia anche in funzione dei possibili ostacoli e
dei veicoli che impegnano l’incrocio. Tramite il cloud, inoltre, saprà se sarà necessario fermarsi al semaforo.
GEOmedia n°2-2015 33
REPORTS
Fig. 5 - Una realtà accuratamente descritta attraverso
una HD Map che presenta dettagli di ogni genere.
È caduto un albero in strada?
La HD Map descrive anche le
specifiche fisiche e legali della
strada; basti pensare che una
macchina a guida autonoma
debba essere in grado di cambiare
corsia per effettuare un
sorpasso o avere la capacità di
riconoscere una corsia temporaneamente
bloccata o chiusa.
Fig. 6 - Altra ricostruzione di una mappa HD in tre dimensioni da
acquisizione LIDAR; anche la segnaletica orizzontale risulta estremamente
precisa.
Per eseguire in modo corretto
ed efficace tali manovre, viene
richiesto al veicolo di conoscere
l’imminente configurazione
delle corsie; se l’auto autonoma
fosse guidata dai soli
sensori, avrebbe una visione
limitata nel leggere
queste informazioni,
anche a causa di fattori
esterni come condizioni
meteo avverse o congestione
del traffico.
Non si tratta solo di
avere una mappa precisa,
è anche necessario che
l’auto possa “vedere dietro
l’angolo”. Per arrivare a destinazione
in tutta sicurezza,
la macchina autonoma deve
anche sapere cosa sta succedendo
più avanti sulla strada, fuori
della portata dei suoi sensori.
Il raggio di azione dei radar e
delle telecamere dell’auto può
estendersi per 30 metri dal
punto in cui si trova, il che
significa che se l’auto sta viaggiando
a 130 km/h avrebbe un
“orizzonte sensibile” di un solo
secondo. Il risultato è che la vettura
sarebbe in grado di rilevare
un evento o un ostacolo sulla
strada solo all’ultimo momento,
traducendosi in una guida poco
confortevole fatta di scossoni,
brusche frenate o accelerazioni.
Per risolvere questo
problema potrebbe
essere utile un
collegamento tra
le auto attraverso
il Location cloud,
che consentirà la
condivisione di
varie informazioni
sulla circolazione,
possibili incidenti
o strade ghiacciate.
HERE ha investito
nello sviluppo delle
tecnologie cloud,
da anni agognate da
automobilisti e case
automobilistiche.
Siamo finalmente pronti al varo
di questa tecnologia, in grado di
elaborare, processare e analizzare
le informazioni trasmesse dai
sensori dei veicoli in circolazione
e di restituire agli stessi tutti i
dati necessari per ricostruire accuratamente
l’ambiente attorno
a ciascun veicolo.
Oggi rilasciamo gli aggiornamenti
delle nostre mappe su
base periodica e forniamo servizi
“dinamici” in tempo reale
all’auto, come informazioni sul
traffico, prezzi dei carburanti o
informazioni sulla disponibilità
di parcheggio; più automobili
saranno connesse (connected
Cars), più automobilisti potranno
beneficiare di questi servizi.
Ma, con la diffusione di automobili
sempre più automatizzate,
la cui domanda prevediamo
sarà sempre crescente, saranno
richieste mappe aggiornate di
ora in ora, di secondo in secondo;
e anche le tecnologie per il
supporto del flusso di informazioni
dovranno essere in grado
di gestire trasferimenti di dati
così importanti per e dal cloud,
a velocità sempre più elevate.
In uno scenario nel quale i
maggiori produttori mondiali
di auto investono nella ricerca
della guida autonoma, l’idea
che entro il prossimo decennio
i pendolari possano al mattino
tranquillamente disinteressarsi
del volante e leggere il giornale
recandosi al lavoro, è molto reale.
Mentre ci muoviamo verso
quel futuro automatizzato, la
capacità di un veicolo di riuscire
a localizzarsi e di “vedere
intorno e dietro agli angoli” in
aggiunta ad una convinta accettazione
di questa tecnologia
per delegare il controllo delle
nostre auto, costituirà un fattore
critico nell’acquisizione di importanti
quote di mercato. E per
quel che accadrà, siamo certi che
avremo assolutamente bisogno
di mappe ad alta definizione.
34 GEOmedia n°2-2015
REPORTS
ABSTRACT
As cartographers, we have long dreamt of creating the perfect map
– one that precisely recreates the territory it seeks to represent. But,
as many in the field will attest, at the heart of that endeavor has lay
a great paradox: the closer to reality a map becomes, the less useful
it tends to be, especially in today´s complex and crowded world.
Maps have historically been abstractions of reality by necessity as
people need not know every inch of the territory to get from A to B.
And besides, there are limits to how much information the human
brain can handle.
But what if map data is not only designed for direct consumption by
people but also to be read by machines capable of comprehending
vast quantities of information? When we build maps that need to be
understood only by software then the paradox falls away: one can
indeed have a map which is close to 1:1 scale and at the same time
useful to a machine such as a self-driving vehicle.
HERE is working on such maps of the future through a combination
of modern technology and traditional mapmaking expertise.
At the forefront of its mapmaking is a global, highly trained team
of geographic analysts, supported by mappers from the community,
which contribute edits to the map via HERE’s Map Creator
program. Beyond that, HERE is also deploying the industry’s most
modern mapmaking technology too in the form of LIDAR data
capture vehicles, which help HERE build very detailed 3D maps. It
is these high definition maps – which HERE calls the HD Map –
that will be the foundation for autonomous driving. It is these maps
that also move us closer to the notion of the ‘perfect map’.
PAROLE CHIAVE
Connected cars; location cloud; HD Maps; autonomous cars
AUTORE
Massimiliano Arcieri
massimiliano.arcieri@here.com
Senior Geographic Analyst
Figg. 7 e 8 - I sensori dell’auto (radar e telecamere) forniscono nozioni basilari sulla configurazione
dell’incrocio; la mappa completa il set di informazioni con i dati sulle specifiche delle strade.
Andrea Soncin
andrea.soncin@here.com
Field Manager Italy
HERE a Nokia Company
GEOmedia n°2-2015 35
REPORTS
Gestione di dati tramite
dispositivi mobili per la
pianificazione di emergenza
di Mattia De Amicis, Stefano Roverato,
Fabio Olivotti e Alice Mayer
Con questo lavoro è stato predisposto un sistema
di raccolta di informazioni direttamente sul campo
che consente di raccogliere in tempo reale dati
geospaziali riguardanti le strutture e le infrastrutture
di Protezione Civile.
Fig. 1 - Schema del funzionamento del sistema di raccolta dati.
Il nostro Paese, a causa delle
particolari caratteristiche
geologiche, geomorfologiche
e climatiche, è estremamente fragile
dal punto di vista dell’accadimento
di fenomeni calamitosi
sia naturali che antropici. Un’accurata
conoscenza dell’incidenza
di questi fenomeni rappresenta
la premessa indispensabile per
ridurre il rischio e minimizzare i
danni che la popolazione e l’ambiente
possono subire. I Piani
Comunali di Protezione Civile
sono uno degli strumenti più
importanti nell’ambito della previsione
e prevenzione, e costituiscono
la base per la pianificazione
di tutti gli interventi e delle
opere necessarie per fronteggiare
le emergenze. Uno degli aspetti
cruciali nella compilazione dei
Piani è la fase di raccolta dei dati
territoriali. Il Manuale Operativo
redatto dal Dipartimento
Nazionale di Protezione Civile
presenta infatti un elenco di
elementi che devono essere obbligatoriamente
censiti, riportandone
accuratamente non solo la
posizione geografica, ma anche
tutta una serie di informazioni
riguardanti le caratteristiche e
le funzionalità utili agli scopi di
Protezione Civile. La raccolta dei
dati territoriali è quindi molto
importante, in quanto costituisce
la fase conoscitiva del territorio,
sulla quale vengono costruiti
i programmi e gli interventi per
una corretta e funzionale pianificazione
dell’emergenza. A fronte
di ciò il presente lavoro ha voluto
proporre una metodologia
che, grazie all'utilizzo dei moderni
strumenti informatici, è in
grado di rendere il lavoro sul
campo più semplice ed efficace,
riducendo così i tempi di compilazioneed
entrata in vigore
dei Piani di Emergenza.
Il Piano di Emergenza
Definito dal Metodo Augustus
come “l’insieme delle procedure
operative di intervento per fronteggiare
una qualsiasi calamità attesa
in un determinato territorio”, il
Piano di Emergenza ha come suo
punto cardine la definizione degli
scenari di evento e l’elaborazione
di una banca dati di supporto alla
gestione delle emergenze. Il primo
passo per poter elaborare gli
scenari è costituito dalla raccolta
e analisi dei dati territoriali e dalla
loro rappresentazione in cartografia
a diverse scale di dettaglio, cosi
da consentire non solo una visione
di insieme del territorio ma anche
uno sguardo particolareggiato
sul possibile impatto di uno o più
eventi calamitosi sugli elementi
vulnerabili. Il Manuale Operativo
contiene un elenco di elementi
che i Comuni devono obbligatoriamente
individuare e cartografare,
e in alcuni casi prevede diverse
36 GEOmedia n°1-2015
REPORTS
tipologie di simboleggiatura (per
esempio l’utilizzo del colore rosso
per le strutture vulnerabili e verde
per quelle strategiche). Inoltre,
il Manuale impone il riconoscimento,
all’interno del territorio
comunale, di tre tipi di aree di
emergenza:
4aree di ammassamento dei
soccorritori
4aree di attesa della popolazione
4aree di accoglienza della popolazione
I rischi che devono essere presi in
considerazione sono i seguenti:
4rischio idrogeologico e
idraulico
4rischio sismico
4rischio vulcanico
4rischio industriale
4rischio incendio boschivo
Per ogni tipologia di rischio devono
essere individuati gli scenari
di evento, ossia le possibili aree di
impatto sugli elementi vulnerabili
con una scala di dettaglio almeno
di 1:10.000. In un Piano di
Emergenza è inoltre opportuno
considerare, per ogni scenario
identificato, la presenza di risorse
umane, materiali e mezzi. Un
Piano deve essere sufficientemente
flessibile per essere utilizzato in
tutte le situazioni di emergenza,
sia previste che impreviste, ed
inoltre deve essere in continuo
aggiornamento per tener conto
dell’evoluzione nell’assetto territoriale.
Per questi motivi, un ruolo
estremamente importante nella
pianificazione di emergenza è ricoperto
dalle carte tematiche, che
permettono una conoscenza del
territorio rapida ed intuitiva. Negli
ultimi anni, a fianco delle tradizionali
mappe cartacee, si è assistito,
anche da un punto di vista
normativo, all’affermazione degli
strumenti di cartografia digitale
(GIS). È bene tuttavia precisare
Tab. 1 - Esempio di come è strutturata la categoria Area a rischio che rappresenta gli scenari
di evento che devono essere caricati.
che attualmente il loro uso non è
obbligatorio, ma a discrezione dei
singoli Comuni.
Le linee guida della
Regione Lombardia
La Regione Lombardia, attraverso
la DGR 16 maggio 2007,
n.8/4732 “Direttiva Regionale
per la pianificazione di emergenza
degli enti locali”, ha adottato una
specifica normativa che disciplina
come redigere i Piani di Emergenza,
consigliando ai Comuni l’utilizzo
di strumenti GIS per la loro
redazione. La Regione ha inoltre
adottato un sistema centralizzato
per la rappresentazione e la raccolta
di tutti i dati riguardanti la
parte cartografica dei Piani con
l’obiettivo di realizzare una banca
dati territoriale regionale per condividere
i dati mappati dai singoli
Comuni. L’Ente ha quindi predisposto
uno standard riguardante
sia i dati geografici sia i relativi
metadati, in maniera da renderli
omogenei e confrontabili su tutto
il territorio regionale. I dati territoriali
da mappare, richiesti in formato
shapefile, sono stati suddivisi
in cinque categorie:
1) Area a rischio
2) Struttura strategica
3) Superficie strategica
4) Punto di accessibilità
5) Infrastruttura viabilistica
Ogni categoria è composta da
diverse tipologie di elementi costituiti
da una parte geometrica e
una attributiva, e identificate da
specifici codici di riconoscimento
(Tabella1). Per quanto riguarda le
geometrie adottate, unicamente
le Aree a rischio sono di tipo poligonale
mentre le restanti sono
di tipo puntuale. Non è stato previsto
l’utilizzo di una geometria
lineare, di conseguenza non vi è
l’obbligo di mappare le reti infrastrutturali
e tecnologiche presenti
sul territorio. Tutti questi dati,
una volta acquisiti, andranno caricati
direttamente sul portale della
Regione (PEWEB).
La struttura di archiviazione dei
dati poligonali relativi alle Aree a
rischio è mostrata in Tabella 1 ed
è simile anche per le altre categorie
di elementi da mappare. La categoria
struttura strategica identifica
gli edifici, mentre con superficie
strategica si intende una superficie
in area aperta che può essere uti-
GEOmedia n°2-2015 37
REPORTS
lizzata come base logistica per i
soccorritori, o che può ospitare un
buon numero di persone. Il punto
di accessibilità individua invece
una struttura dedicata alla movimentazione
di mezzi, materiali e
persone, come stazioni e aeroporti.
In ultimo, con infrastruttura
viabilistica, vengono indicate le
infrastrutture a supporto della viabilità
di interesse, come ad esempio
ponti, viadotti e cavalcavia.
L’architettura del geodatabase
e la pubblicazione
del servizio di mappa
Con il presente lavoro si voluto
proporre uno schema di lavoro
che consenta la raccolta direttamente
sul campo. Mediante comuni
dispositivi mobili è possibile
mappare tutti gli elementi necessari
per la redazione dei Piani di
Emergenza, predisponendoli direttamente
per il loro caricamento
sul portale regionale, così come
richiesto dalla Regione Lombardia.
Lo schema concettuale del
funzionamento dell’intero sistema
è basato sui seguenti punti:
1) un geodatabase installato su
un server organizza la struttura
dei dati secondo le specifiche
richieste, e ne consente la scrittura
e la lettura da remoto;
2) tramite Arcgis Server viene attivato
e reso pubblico un servizio
di Feature Access;
3) il servizio viene richiamato su
Arcgis Online con una mappa
dedicata, che viene condivisa
con tutti gli utenti abilitati;
4) la mappa viene aperta con ESRI
Collector, con il quale è possibile
aggiungere nuovi elementi
vettoriali dai dispositivi mobili.
Fig. 2 - Esempio di interrogazione di dati spaziali tramite Collector. Comune di Iseo.
In questo modo viene instaurata
una connessione in tempo reale
tra l’utente e il geodatabase, che
consente di archiviare velocemente
e facilmente i dati territoriali.
La base di partenza per il funzionamento
dell’intero sistema è
quindi il geodatabase.
Sul server cartografico del Laboratorio
di Geomatica del Dipartimento
di Scienze Ambiente e
Territorio e Scienze della Terra,
è stato creato un geodatabase
di tipo Enterprise installato su
un'istanza di Microsoft SQL Server.
Successivamente sono state
predisposte le 5 feature classes che
rispecchiano i diversi shapefile richiesti
dalla Regione, denominate
allo stesso modo e con la stessa geometria.
Ad ogni feature class sono
stati infine assegnati i campi descrittivi
previsti. Il tipo di campo
da usare è stato scelto in funzione
dei dati che vi verranno inseriti:
“short integer” per i numeri interi,
“float” per numeri interi o decimali
e “text” per le stringhe alfanumeriche
e per i campi di tipo
vero-falso. Ad ogni feature class
sono state assegnate le coordinate
nel sistema di riferimento Gauss-
Boaga, che è quello ancora in uso
per il PEWEB. Per alcuni campi
è stato necessario predisporre un
dominio per restringere la possibilità
di scelta dell’utente in fase
di popolamento, costringendolo
all’interno delle possibilità previste
dallo standard regionale. Questa
scelta verrà visualizzata sotto forma
di menù a tendina, dal quale si
dovrà scegliere la voce corretta per
popolare il campo desiderato.
L’intero geodatabase è stato aperto
in un progetto di Arcmap (.mxd),
per permetterne la condivisione
e la pubblicazione come Servizio
Web su Arcgis Server. Sono
stati personalizzati il layout e
la simbologia dei layer, con le
caratteristiche che verranno poi
visualizzate dall’utente finale attraverso
i dispositivi mobili. In fase
di pubblicazione è stato necessario
attivare il servizio Feature Access,
che consente di leggere, interrogare
e modificare i dati direttamente
sul geodatabase anche da una postazione
remota.
Creazione di una mappa
su Arcgis Online e utilizzo
nel Collector
La mappa online creata sul portale
Arcgis Online riveste un ruolo
molto importante, poichè permette
di mettere in comunicazione
server e Collector, e quindi geodatabase
e dispositivi mobili. Per
inserire il collegamento al servizio
appena creato è stato sufficiente
inserire il relativo URL, preventivamente
individuato e copiato
dal portale del server manager.
Una volta salvata, è poi possibile
condividere la mappa con tutti gli
utenti abilitati, ad esempio con gli
operatori incaricati di compilare il
Piano Comunale di Emergenza.
Ogni punto aggiunto tramite il
Collector viene registrato automaticamente
e in tempo reale all’in-
38 GEOmedia n°2-2015
REPORTS
terno del geodatabase, nella feature
class scelta. Oltre alla creazione
di nuove feature è inoltre possibile
modificare o eliminare quelle
esistenti, così come si farebbe da
Arcgis Desktop. Questo sistema
offre la possibilità di far lavorare
contemporaneamente più utenti
sullo stesso geodatabase: questa
caratteristica è molto importante
soprattutto in quei Comuni soggetti
a problematicità multiple,
perché consente di suddividere il
lavoro e diminuire ulteriormente
i tempi. È importante sottolineare
che l’inserimento dei dati tramite
Collector soddisfa già lo standard
imposto dalla Regione, e perciò
non saranno necessarie in un secondo
tempo ulteriori modifiche
per adeguarli alla normativa.
Registrazione sul
Portale Regionale
Al termine della fase di acquisizione
di tutti i dati territoriali, il
geodatabase risulterà popolato
con tutta una serie di voci inerenti
le strutture e le infrastrutture utili
per la Protezione Civile presenti
sul territorio comunale. Oltre
al Piano testuale, la Regione
Lombardia richiede che vengano
caricati tutti i dati spaziali in
un applicativo online dedicato,
denominato Peweb, in modo da
disporre di una visione di sintesi
e di insieme di tutti i Piani di
Emergenza per tutti i Comuni
della Regione. Su Peweb la componente
geometrica del dato deve
essere caricata in formato shapefile,
mentre per la parte descrittiva
è richiesto un file .xml. Ad ogni
tipologia di dato (Area a rischio,
Punto di accessibilità, Infrastruttura
viabilistica, Struttura strategica, Superficie
strategica) deve quindi corrispondere
un file .xml, che abbia
lo stesso nome e che riporti tutti
gli attributi del dato. Le due parti
verranno poi messe insieme in un
secondo tempo dal sistema, grazie
ad un campo ID comune che le
identifica inequivocabilmente.
Lavorando con un Geodatabase
Enterprise questi passaggi sono
molto facilitati, dal momento che
i dati sono già suddivisi nelle classi
richieste, ed occorre solamente
esportarli in formato shapefile. Per
preparare il file con i metadati ci
si appoggia invece ad un template
fornito dalla Regione, che contiene
lo schema corretto del .xml che
andrà in seguito caricato.
Conclusioni
Questo lavoro ha voluto mostrare
come sia possibile sfruttare le
potenzialità fornite dai moderni
sistemi informativi territoriali per
la raccolta di dati sul campo a
supporto della Protezione Civile.
Tutto questo è reso possibile
dall’utilizzo di strumenti versatili
come i Geodatabase Enterprise,
in grado di archiviare grandi
GEOmedia n°2-2015 39
REPORTS
quantità di informazioni e
di comunicare con utenti
in remoto, unito al recente
sviluppo della piattaforma
Arcgis Online, che consente
agli utenti registrati di
pubblicare e condividere le
proprie mappe. Una volta
predisposta la struttura di
base e creata la mappa è poi
sufficiente condividerla con
l’operatore finale, che non è
obbligato a conoscere fino
in fondo il funzionamento
dell’intero sistema.
3L’utilizzo del Collector è
infatti semplice e intuitivo,
basato su form e menù a
scelta multipla. In questo
modo la fase di raccolta dati
diventa non solo semplice
ma anche veloce, e consentirà
in futuro di snellire il
lavoro di predisposizione
dei Piani di Emergenza, che
sono per loro natura molto
complessi e articolati.
RIFERIMENTI
Dipartimento di Protezione Civile - Ottobre 2007
“Manuale operativo per la predisposizione di un Piano
comunale o intercomunale di Protezione Civile” -.
Dipartimento di Protezione Civile - Presidenza del
Consiglio dei Ministri, 1997 “Metodo Augustus”
DPC Informa, n. 12 1997.
Frigerio, I., Roverato, S., & De Amicis, M. (2013).
A Proposal for a Geospatial Database to Support
Emergency Management. Journal Of Geographic
Information System, 5, 396-403.
Regione Lombardia, 2007 “Direttiva regionale per
la pianificazione dell’emergenza degli enti locali”
(D.G.R.) n. VIII/4732. Bollettino Ufficiale della
Regione Lombardia, Milano.
Regione Lombardia, 2011 “GEODB Prevenzione
e Sicu-rezza, sintesi progettazione esterna e specifiche
funzionali. Architettura informativa. Mosaico Piani
di Emergenza”. Bollettino Ufficiale della Regione
Lombardia, Milano.
PAROLE CHIAVE
Protezione civile; pianificazione di emergenza;
collector; emergenza; geodatabase
ABSTRACT
Among the Civil Protection plan creation the data
collection of buildings and infrastructures is one of
the most important step. The most relevant information
to be collected are not only their position
(geolocalization) but also their Civil Protection
functionalities and peculiarities. Within this context
Lombardy Region set up data collection and data
storing standards through a focused law. In this paper
we describe a new system to collect these kind of
data directly on the field. This system is based on an
ESRI Geodatabase Enterprise installed on a server,
an ArcGIS Online account and the ESRI Collector
App for smartphones. Data collected by operators
on the field are directly sent to the Geodatabase on
server using mobile internet connection; data structure
and format follow Lombardy Region standards
and they are ready to be loaded on the official Civil
Protection Planning platform.
AUTORE
Mattia De Amicis
mattia.deamicis@unimib.it
Stefano Roverato
stefano.roverato@unimib.it
Fabio Olivotti
fabio.olivotti@unimib.it
Alice Mayer
alice.mayer@unimib.it
Università degli Studi di Milano Bicocca,
Dipartimento di Scienze dell’Ambiente e del
Territorio e di Scienze della Terra, Laboratorio
di Geomatica, Piazza della Scienza 1, 20126
Milano, geomatica.ambientale@unimib.it
Geomatic Laboratory - Earth and Environmental
Sciences Department, University
of Milano Bicocca, Piazza della Scienza 1 -
20126 Milano, Italy, geomatica.ambientale@
unimib.it
40 GEOmedia n°2-2015
REPORTS
GEOmedia n°2-2015 41
REPORTS
RemTech Expo 2015
a cura della Redazione
RemTech Expo 2015 (IX
edizione) e le Remediation
Technologies. Dal
23 al 25 Settembre
la manifestazione
sulle bonifiche e la
riqualificazione del
territorio organizzata da
Ferrara Fiere (partner la
Regione Emilia-Romagna,
sponsor Eni Saipem).
Dal 2007, RemTech è il
principale punto di riferimento
tecnico e commerciale
in Italia per la community
delle bonifiche e della riqualificazione
del territorio – società
private, enti pubblici, università e
centri di ricerca, associazioni, professionisti,
mondo dell’industria,
comparto petrolifero e real estate
– che, anno dopo anno, lo elegge
a “vetrina” autorevole, luogo di
condivisione delle esperienze virtuose
e momento di crescita della
conoscenza.
Insieme alle sue Sezioni speciali,
CoastEsonda e Inertia,
RemTech ha tra i propri
punti di forza innanzitutto
un'area espositiva prestigiosa
e altamente specializzata,
dove trovano spazio le soluzioni,
i prodotti e i progetti
più avanzati e sostenibili.
Numerose le imprese tecnologiche
presenti e gli approfondimenti
congressuali
dedicati proprio alle applicazioni
delle tecnologie e alla realizzazione
di test pilota. In Italia, solo
di recente si è iniziato a parlare e
a impiegare le tecnologie ISCO
(In Situ Chemical Oxydation), le
PBR (Permeable Reactive Barrier),
la bioremediation e la phytoremediation,
senza contare che un
altro settore in cui le componenti
“tecnologie innovative” e “sostenibilità”
si fondono armonicamente
è quello dei droni, oggi sempre
più sofisticati e mirati a interventi
nel sottosuolo e sul territorio (monitoraggi,
studi su ampia scala,
etc.). Tutti temi e strumenti che
RemTech ha approfondito per primo,
posizionandosi come evento
innovativo e sostenibile, incubatore
di alta conoscenza, condivisione
e opportunità che valorizza in anteprima
quanto di più eccellente e
avanzato offre il mercato delle bonifiche
e della tutela del territorio.
RemTech prevede una sessione
congressuale di elevato livello
tecnico-scientifico, corsi di formazione
e di alta formazione per operatori,
autorità e decision maker,
dibattiti multidisciplinari a livello
nazionale e internazionale sulle
tecnologie più all’avanguardia e i
casi di studio eccellenti, momenti
dedicati all’approfondimento e
altri allo scambio e all’incontro
fra domanda e offerta, aprendo la
strada ai mercati emergenti e creando
occasioni di business per gli
espositori.
42 GEOmedia n°2-2015
BONIFICHE DEI SITI CONTAMINATI
REPORTS
NORMATIVA
In Italia, si inizia a parlare di bonifiche dei siti contaminati
come di un tema focale con il D.M. 471/99, che ha definito i
limiti di accettabilità per i terreni e le acque sotterranee in funzione
della destinazione d’uso, le procedure e le modalità di
intervento (bonifica, bonifica con misure di sicurezza e messa
in sicurezza permanente).
Nel 2006, con il D.Lgs 152/06, per superare una serie di
criticità tecniche e procedurali che si erano manifestate
nell’applicazione della precedente normativa, viene valorizzato
lo strumento dell’analisi di rischio per la definizione degli
obiettivi di bonifica.
Le autorizzazioni vengono rilasciate dal Ministero
dell’Ambiente nel caso dei SIN. Per gli altri siti, l’ente di
competenza è la Regione o l’ente delegato. L’istruttoria delle
varie fasi del procedimento avviene attraverso Conferenze dei
Servizi, alle quali partecipano tutti i soggetti interessati, in particolare
le istituzioni territoriali.
In questa edizione, in particolare,
si parlerà diffusamente di industria
nella “Conferenza Nazionale
dell'Industria sull'Ambiente
e sulle Bonifiche”, di dissesto
idrogeologico, prevenzione, manutenzione
del territorio e opere
con la “Conferenza Nazionale
sul Rischio Idrogeologico”, di
Direttiva Acque e Alluvioni
con il coordinamento delle
Autorità di Bacino e dei Distretti
Idrografici, di porti, sedimenti
e dragaggi nella “Conferenza
Nazionale dei Porti”, di protezione
delle coste, di opere pubbliche,
strade, recupero dei materiali
da C&D con il “Convegno
sulla Sostenibilità Ambientale
delle Opere” e naturalmente di
tecnologie innovative, casi eccellenti,
agricoltura, amianto e molto
altro ancora. Quest'anno inoltre,
RemTech organizza il primo
“Seminario di Formazione sulla
Comunicazione Ambientale”,
per consentire ai giornalisti ambientali
di apprendere linee guida,
policy e procedure condivise
sulle modalità di comunicazione
di crisi nei casi di emergenza ambientale.
Svariati anche i nuovi servizi
messi a disposizione delle imprese,
per creare momenti di
incontro e confronto tra buyer
e fornitori (Carta dei Servizi).
Non mancherà, poi, la possibilità
di partecipare a incontri faceto-face
con alcuni dei principali
stakeholder coinvolti nella manifestazione
(Anas, Italferr, etc.) e
di essere protagonisti di meeting
bilaterali con key player stranieri
appositamente invitati.
Uno spazio espositivo sarà interamente
dedicato ai progetti
(europei, LIFE, etc.) inerenti le
tematiche di interesse, per potenziare
la visibilità di tutti i soggetti
coinvolti, favorire lo sviluppo di
rapporti intra ed extra progettuali
e creare un luogo di convergenza,
altamente qualificato e specializzato,
dove possano essere
condivise idee e programmi per
il futuro. Quest’area affiancherà
quella delle Università e dei
centri di ricerca (ISMAR, CNR,
OGS, etc.).
Tra le novità 2015, l’istituzione
di diversi premi speciali.
Ai tradizionali “Premi di Laurea
CENSIMENTO
In Europa, i siti potenzialmente contaminati sono 3,5 milioni,
quelli effettivamente da bonificare 500.000 e i costi derivanti
dallo stato di contaminazione oscillano tra i 2,4 e i 17,3
miliardi di euro all’anno.
In Italia, i SIN sono 37, i siti contaminati di competenza
regionale sono 15.000 e il 3% del territorio nazionale è coinvolto
dallo stato di contaminazione. I costi per la bonifica
sono nell’ordine dei 3 miliardi euro (0,2 % del PIL nazionale).
STATO DI CONTAMINAZIONE IN ITALIA
Nei siti industriali italiani contaminati, normalmente risultano
contaminate dal 15 al 30% delle superfici caratterizzate.
La contaminazione si presenta a macchia di leopardo,
ha una profondità molto limitata, si rilevano principalmente
contaminazioni storiche e solo in pochi casi è necessaria una
messa in sicurezza di emergenza.
Per quanto riguarda, invece, lo stato di contaminazione
delle falde nei siti industriali contaminati, la falda sottostante
l’insediamento risulta generalmente contaminata, la contaminazione
riguarda la falda superficiale, solo in qualche caso si
rende necessario l’emungimento (source control) e, ove necessario,
è attivo un sistema di contenimento della falda entro
il sito.
INNOVAZIONE TECNOLOGICA E SOSTENIBILITÀ
DELLE BONIFICHE
Il settore delle bonifiche già dal 2012 punta molto
sull’applicazione delle tecnologie innovative e sostenibili.
Tanti esempi nel mondo – e ancora pochi, purtroppo, in
Italia – dimostrano che l’applicazione di tecnologie innovative
determina costi più bassi dell’intervento e una sua maggiore
sostenibilità economica, ambientale e sociale.
L’espressione “sostenibilità delle bonifiche” si riferisce a quel
processo di gestione e bonifica di un sito contaminato finalizzato
a identificare, attraverso un processo decisionale
condiviso con i portatori di interesse, la migliore soluzione,
ovvero quella che massimizza i benefici della sua esecuzione
dal punto di vista ambientale, economico e sociale.
Magistrale sulle Bonifiche” si
aggiungono, infatti, il “Premio
della Ricerca in ambito costiero”,
il “Premio sulla Sostenibilità
delle Opere”, la prima “Mostra
Fotografica sui Siti Industriali”,
in collaborazione con Unione
Petrolifera, e il “Premio sulla
Prevenzione del Territorio”, con
il coinvolgimento dei Comuni
italiani e la collaborazione di
ANCI.
In tale, ampio e qualificato scenario,
sia nell’esposizione che
nei convegni saranno presenti
le ARPA, le Regioni, ISPRA, il
Ministero dell’Ambiente, le associazioni
e gli ordini professionali.
GEOmedia n°2-2015 43
REPORTS
Tra i driver 2015, oltre al potenziamento
del comparto istituzionale,
degli organi di controllo,
della rappresentanza industriale
– chimica e petrolifera – e delle
più importanti strutture appaltanti,
non meno importante è la
costruzione di partnership con
importanti network internazionali,
per favorire la partecipazione
dei progetti transfrontalieri
ad alto contenuto tecnologico e
dei partner più strategici. Anche
i principali mercati emergenti
sono, infatti, alla ricerca di tecnologie
innovative poco impattanti
ed economicamente vantaggiose
da importare nei Paesi dove
la bonifica è solo recentemente
diventata una priorità. La
RemTech Training School nasce
proprio al duplice scopo di promuovere
le principali innovazioni
tecnologiche italiane e di
diffondere la conoscenza presso
i maggiori buyer del presente e
del prossimo futuro. Accanto ai
mercati cinese e russo, già coinvolti
da RemTech, sono in fase
di definizione percorsi mirati
che interessano l’Est Europa e la
Turchia. Tutti i temi affrontati da
RemTech, CoastEsonda e Inertia
saranno oggetto di internazionalizzazione,
mentre la RemTech
Russia School (II edizione) e la
RemTech China School (I edizione)
si focalizzeranno sulla formazione
di key manager, pubblici
e privati, e daranno alle imprese
espositrici l’opportunità di proporre
a due nascenti mercati internazionali
le migliori soluzioni
tecnologiche, le proprie competenze
e il know-how italiano.
Se l’aggiornamento professionale
continuo sarà garantito dall’assegnazione
di crediti formativi,
ogni sessione congressuale sarà
pubblicata in forma di “Atti
Ufficiali”.
A CoastEsonda Expo, la Sezione
speciale sulla gestione e tutela
della costa e del mare, il dissesto
idrogeologico e la manutenzione
del territorio a rischio,
parteciperanno le imprese più
competitive e le principali autorità
del settore, tra le quali il
Ministero, #Italiasicura (Struttura
di missione contro il dissesto
Idrogeologico e per lo sviluppo
delle infrastrutture idriche), la
Protezione Civile, ISPRA, le
Autorità Portuali, i Distretti
Idrografici e i Consorzi di
Bonifica, le Regioni, i Comuni
e le Associazioni. Il programma
sui temi della valorizzazione delle
coste, opere, monitoraggio, porti,
marine strategy e offshore sarà
arricchito da focus sulla Direttiva
Alluvioni, il dissesto idrogeologico
e il rischio idraulico, e
dalla “Conferenza Nazionale sul
Dissesto Idrogeologico”.
Inertia, con un ampio spazio
espositivo dedicato anche al settore
estrattivo, rappresenta l’appuntamento
italiano più qualificato
sui rifiuti inerti e gli aggregati
naturali, riciclati e artificiali.
In agenda, le demolizioni civili
e industriali, gli impianti per la
selezione e il riciclaggio dei rifiuti
C&D, l'utilizzo degli aggregati
riciclati, la certificazione e marcatura
CE, il movimento terra,
l'attività estrattiva, gli impianti,
la gestione dei materiali da scavo,
le costruzioni, le infrastrutture,
il risanamento e la riqualificazione,
il Life Cycle Assessment.
Tra le novità, il I Premio per la
Sostenibilità Ambientale delle
Grandi Opere (promosso in
collaborazione con Italferr), la
tavola rotonda che coinvolgerà
le principali stazioni appaltanti,
i focus sui temi delle strade (con
la partecipazione di ANAS),
del backfilling e del recupero
ambientale, e della gestione dei
materiali da scavo contenenti
amianto.
PAROLE CHIAVE
Tecnologie; innovazione; sostenibilità,
bonifiche; internazionalizzazione
ABSTRACT
Remtech Expo 2015, September 23/25, the event
on the remediation and redevelopment of the territory
organized by Ferrara Fiere (partner the Region
of Emilia-Romagna, sponsors Eni Saipem) .
AUTORE
Redazione mediaGEO
redazionemediageo@gmail.com
• Rilievi batimetrici automatizzati
• Fotogrammetria delle sponde
• Acquisizione dati e immagini
• Mappatura parametri ambientali
• Attività di ricerca
Vendita – Noleggio - Servizi chiavi in mano, anche con strumentazione cliente
44 GEOmedia n°2-2015
REPORTS
With you all the way
Le innovative soluzioni Geospaziali Topcon
ed un pieno supporto forniscono una precisione senza precedenti
ed incrementi di efficienza in ogni progetto.
experience how ...
www.topconpositioning.it
Tokyo · San FranciSco · MoSca · roTTerdaM · BriSBane
GEOmedia n°2-2015 45
SCHEDA REPORTS TECNICA
SINERGIS
Dedagroup ICT Network
Sede legale e direzione
Loc. Palazzine 120/f 38121 – Trento
Tel. +39. 0461.997.214
Fax +39. 0461.997.330
info@sinergis.it
www.sinergis.it
www.dedagroup.it
PAROLE CHIAVE
ASSET; SIGOV;
governance del territorio; PA;
ICT; multiutility
ASSET e SIGOV, due soluzioni per
associare il riordino territoriale allo
sviluppo e alla governance del territorio
di Sinergis
Dedagroup ICT Network
Una riforma come quella
di Delrio, che ridisegna
profondamente i processi
di governance del
territorio, può rischiare
di essere interpretata
dagli Amministratori
Locali dei Comuni,
delle Province e delle
Regioni, come un mero
adempimento normativo.
Ma come trasformarla
in una concreta
opportunità di crescita?
Dedagroup ICT Network
ha messo a punto,
in collaborazione con
Forum PA, un metodo e
un insieme di soluzioni
con cui accompagnare
gli Enti nel processo di
cambiamento legato alla
riforma Delrio per fare
di tale evoluzione una
risorsa per guidare lo sviluppo
dei territori.
ASSET (Analisi Statistica
Socio Economica Territoriale)
è una piattaforma
web che consente di
analizzare le caratteristiche
socio-economiche
del territorio di appartenenza,
comparandole
con quelle delle aree
geografiche limitrofe,
per svolgere check up,
benchmarking, report,
estrazioni, analisi SWOT
e studi. La piattaforma
include già un modello
di dati predefinito per
aree tematiche chiave,
come la demografia, le
risorse economiche o la
gestione delle entrate, e
guida nell’elaborazione
ed estrazione delle informazioni
necessarie a
fotografare la situazione
del territorio. In questo
modo possono essere
colte dinamiche rilevanti,
come ad esempio
quelle occupazionali,
supportando nell’individuazione
di azioni politiche
efficaci e di area
vasta.
SIGOV è un sistema finalizzato
a supportare i
territori ad attuare una
governance per obiettivi.
In particolare si qualifica
come strumento di
progettazione e gestione
per la programmazione
partecipata e multilivello
particolarmente indicata
per le dinamiche di collaborazione
tipiche degli
organismi multi-ente
come l’Unione. Con SI-
GOV è possibile, per gli
enti sovraordinati, mettere
a disposizione delle
Unioni un vademecum
che comprende piani
di lavoro di base, template
e best practice per
supportare tutte le fasi
di creazione e successiva
gestione delle Unioni.
ASSET e SIGOV accompagnano
le Amministrazioni
nella progettazione
delle Unioni di
Comuni e nella gestione
associata delle funzioni
comunali. Con ASSET e
SIGOV gli amministratori
possono analizzare
le caratteristiche socioeconomiche
e di funzionamento
del proprio
territorio e compararle
con quelle delle aree geografiche
limitrofe, individuando
così gli ambiti
ottimali e le sinergie possibili
per la creazione di
Unioni più efficienti e in
grado di pianificare meglio
le proprie strategie
di sviluppo.
ASSET e SIGOV vanno
ad arricchire l’amplio
portafoglio d’offerta di
Sinergis, l’azienda di Dedagroup
ICT Network
specializzata nella realizzazione
di sistemi informativi
territoriali per la
PA e le multiutility.
Per maggiori informazioni:
http://www.semplicededa.it
46 GEOmedia n°2-2015
GI IN REPORTS EUROPE
L’hackathon è la
porta per il successo
di Mauro Salvemini
mauro.salvemini@uniroma1.it
L’hackathon è la porta per il
successo: questa affermazione
al momento attuale sembra
essere dimostrata da paesi che
stanno usando la tecnologia
informatica per il progresso in
genere e per lo sviluppo economico
in particolare.
Il tutto si muove sull’asse ben
noto che dagli USA verso est
tocca Londra e verso Ovest
coinvolge la Corea e Taiwan.
In USA gli esperti dicono che
nel corrente anno sono previsti
più di 150 hackthon con
migliaia di partecipanti l’uno,
ma forse le stime saranno superate.
Un divertente esempio concreto
di che cosa è un hackathon
è http://mcdonaldshackathon.challengepost.
com, un evento promosso ed
organizzato a Londra dal re
dei fastfood per trovare nuove
applicazioni e rivoluzionare il
digital restaurant experience al
quale stanno puntando. Premi
in danaro, possibilità di farsi
conoscere, gusto della sfida
e porte aperte per il futuro.
Questo quello che pensano
coloro i quali partecipano,
molti dei quali non hanno
ancora o non frequenteranno
mai i corsi universitari.
Negli anni ottanta, sia sulla
coste “della information
technology” est che ovest degli
USA, al tempo di Wang,
Apollo, SUN, ed altri, ricordo
che queste grandi imprese organizzavano,
generalmente il
venerdì pomeriggio, dei party
invitando i professionisti che
da alcuni mesi, lavorando nella
zona, risiedevano in motel
vicini. Ovviamente tali party
erano finalizzati a “rubarsi
vicendevolmente le competenze”
ed erano un ottimo terreno
per i cacciatori di teste.
Nell’hackathon oggi centinaia
ed a volte migliaia di persone
(quasi sempre MOLTO giovani)
lanciano o raccolgono
le sfide della IT per premi,
a volte molto divertenti e
“cool”, per promuoversi presso
imprese o trovare qualche
“ angel” che investa sulla loro
idea.
Gli hackathon vengono anche
promossi ed organizzati dalle
università, soprattutto statunitensi
ed asiatiche, ed
hanno grande successo, ma
c’è il paradosso che implicitamente
dimostra che non è
più necessario seguire i corsi
universitari per ottenere i risultati
attesi dai partecipanti:
vendere l’idea di un app, dimostrare
che si può bucare un
“Captcha”, dimostrare come
si può realizzare il ristorante
digitale, migliorare il servizio
di UBER e così via.
Gli ingredienti di un hackathon
sono: gli organizzatori
con idee chiare di che cosa
ottenere (vedi l’esempio di
McDonald, ma possono essere
temi più ampi sullo sviluppo
di tecnologia o di altri campi
applicativi, o di aggregazione
ed anche accademici), i premi,
le opportunità offerte ai partecipanti
ed ovviamente i partecipanti
ed il luogo dove ospitarli,
ma questo non sembra
essere un problema dato che
la fascia di età giovanissima
fa largo uso di sacchi a pelo e
sistemi di trasporto molto low
cost. Quello che succede dopo
l’avvio dell’hackathon, nel
quale “le relazioni ex cathedra”
sono inesistenti perché
tutto è scritto nella chiamata
alla partecipazione, non è
prevedibile. Può saltare fuori
chi sostiene di essere in grado
di “bucare” un sistema di
sicurezza come avvenuto per
Tinder (http://www.gotinder.com)
ed essere assunto
dalla stessa impresa che ne
ha apprezzato le qualità. Una
vecchia storia questa della violazione
delle sicurezze per gli
hacker, ma alla fine a fin di
bene per loro e per la società.
In tutto questo sembra che i
dati, anche quelli geografici,
siano un elemento, ma non il
nocciolo della questione.
E’ vero che proprio in presenza
dell’avvenimento del
terremoto in Nepal le mappe
sono state considerate un
obiettivo importante da organizzazioni
quali Openstreet
Map e che c’è molta attività
sull’argomento e mentre
l’articolo verrà impaginato
si svolgerà un “maphathon”
https://studio.cul.colum-
bia.edu/ai1ec_event/1772-
2/?instance_id=8054
Sembra però che nel settore
geografico e cartografico si
privilegi il lavoro di gruppo
alfine di produrre cartografia
e provare a mettere insieme
dati piuttosto che a trovare l’
“app killer” che possa fare la
fortuna dello sviluppatore e
dell’investitore.
I dati geografici spontanei
(voluntereed geography) sono
il fine dell’impegno delle persone
coinvolte, mentre non
lo è sviluppo di applicazioni
geografiche; per esse si usano
sempre le funzioni di base
dell’analisi spaziale che, anche
se spesso non teoricamente
conosciuta, è fondata sulla
utilizzazione che da sempre il
genere umano fa delle mappe
e delle informazioni in esse
contenute.
Gli hackathon quanto sono
utili in Italia? Ritengo che
innanzitutto occorrerebbe
fare un po’ di chiarezza, distinguere
tra i vari webinar,
barcamp, hackathon, seminari
on line, workshop hands-on,
ed altro alfine di rendere un
buon servizio agli utenti chiarendo
bene che cosa si propone
loro e che cosa si devono
aspettare.
Sarebbe poi indispensabile che
gli ingredienti, di cui sopra,
venissero ben verificati.
Se ad hackathon viene dato il
senso di “code fest”, un modo
per incontrarsi e scambiare
conoscenze ed avere relazioni
è una cosa, se c’è la presenza
chiara di un investitore allora
la situazione cambia, ed a mio
parere diventa ben più interessante
in senso lato. Vorrebbe
infatti dire che c’è interesse
nel mondo delle imprese e degli
investitori a trovare nuove
soluzioni IT sulle quali investire.
Siamo pronti, preparati a
fare questo in Italia? Qualche
buon esempio c’è ma c’è
anche tanta confusione ed in
diversi hackathon ho sentito
parlare politici, professori e
relatori per un lungo tempo e
poi i risultati quali sono stati?
che premi c’erano? Chi ha vinto?
Che cosa è stato ottenuto?
C’è qualche buon risultato per
i giovani che hanno partecipato?
Nell’hackathon non ci
sono lezioni o esercitazioni
fatte da qualcuno, ci sono solo
temi posti ed i partecipanti
sono chiamati a rispondere al
meglio, se poi si scambiano
informazioni, dritte, pezzi di
software questo fa parte del
“fest”.
Ci si dovrebbe rivolgere agli
investitori in IT italiani al fine
di verificare se sono interessati
ad operazioni di questo genere.
E’ anche vero che molte
delle realtà imprenditoriali IT
hanno la testa ed il portafoglio
in altre parti del mondo e
quindi hanno le mani legate.
Mi piacerebbe sapere a questo
proposito che cosa ne pensa
Confindustria Digitale – ASS-
INFORM ed altre realtà imprenditoriali.
Personalmente ritengo che
ci sia una grande potenzialità
tra i nostri giovani che
posseggono, qualità propria
italiana, grande entusiasmo e
creatività; il problema è come
farla fruttare e chi la riesce a
sostenere e capitalizzare.
A latere di un seminario che
ho tenuto nello splendido
campus dell’Università di
Salerno, un giovane raccontava
come avesse proposto di
studiare un’app per chattare
con i fantasmi. Ho poi verificato
che ci sono molte app
per monitorare e cercare fantasmi
disponibili sul web, ma
nessuna ha la chat. Sono certo
che quel giovane ha tante altre
buone idee.
GEOmedia n°2-2015 47
SMART CITIES
Smart Cities,
Dumb Cities
Esperimenti di intelligenza
urbana ‘dal basso’
di Beniamino Murgante
e Giuseppe Borruso
Nella rubrica 'smart cities,
dumb cities' abbiamo finora
cercato di sottolineare soprattutto
le incongruenze,
alquanto generalizzate, nel
considerare intelligenti le città
soltanto in quanto si dotano
di una serie di gadget tecnologici,
che magari apportano alcuni
miglioramenti nella vita
dei cittadini, tuttavia privilegiandone
soltanto una certa
componente, e dimenticandosi
degli altri (quelli meno
'tecnologici'). O ancora,
considerare intelligenti città
dotate di mega schermi utili a
proiettare pubblicità, ma senza
- banalmente - panchine o
attrezzature più semplici ma
di fatto più funzionali alla vita
urbana reale di tutti i giorni.
Il nostro ragionamento si è
più volte concentrato sull'importanza
degli strumenti
dell'ICT e di quelli hi tech
in genere nell'ottimizzare, in
un'ottica futura imminente,
le nostre città, dato che la crescita
delle realtà urbane è un
fenomeno destinato a connotare
fortemente il XXI secolo,
con tutte le conseguenze di
carattere ambientale, sociale,
economico e culturale che ne
conseguono, soprattutto in
un contesto di risorse (naturali,
energetiche, territoriali)
limitate. La loro importanza è
tuttavia da pensare strutturata
all’interno di effettivi processi
di pianificazione e partecipazione
urbana, ovvero non
pensando agli strumenti hitech
come soluzione ma come
mezzo per ottenerla.
Le nostre città sono state
tuttavia già investite a vari livelli
da onde di ‘smartness of
things’, in cui app, QR-code,
sensori NFC e smart cards,
per non parlare di megasiti
web, hanno acquisito un loro
spazio, spesso più per entusiasmo
del momento che come
risposte a reali necessità. Alcuni
esperimenti sono stati
portati avanti o sono in corso
nelle città dei curatori di questa
rubrica, e nello spirito della
partecipazione ‘dal basso’ ai
processi urbani sono in fase di
strutturazione come prospettive
di lavoro organizzato in
un’ottica smart.
A Trieste un tavolo di lavoro
#younginnovation, avviato
a marzo in occasione di un
convegno sui “territori digitali”
ha prodotto, di fatto, un
processo di partecipazione informale
/ formale tra studenti
e vertici dell’amministrazione
comunale. Il progetto pilota è
nato nell’ambito di un corso
universitario, e ha riguardato
varie fasi. Una fase didattica è
stata concentrata sul concetto
di città e di rete. A questa è
seguito un primo incontro
pubblico, l’evento “#younginnovation”,
in cui dei giovani
“utenti urbani” (studenti residenti
e fuori sede) hanno
ragionato su una sorta di griglia,
in cui, a partire dalle caratteristiche
della città, si sono
osservati gli elementi di sviluppo
economico, gli aspetti
culturali, turistici, dell’innovazione,
evidenziandone le
carenze, le possibili soluzioni
e gli attori del territorio da
coinvolgere. Una terza fase
ha riguardato il confronto diretto
con le componenti della
pubblica amministrazione, in
cui si sono evidenziate alcune
criticità (evidenziate in Figura
1, cerchiate) e le possibili
modalità di affrontarle, sia da
parte della struttura pubblica,
sia da parte degli stessi cittadini
o utenti urbani. La quarta
fase ha riguardato, in un ulteriore
incontro con il Comune,
la presentazione di alcune
proposte, cui fare seguire
un quinto momento, dedicato
alla loro effettiva realizzazione
(quest’ultima fase
è in corso, e al suo termine
commenteremo sicuramente
quanto realizzato).
Nella città di Potenza nel mese
di dicembre 2011 un gruppo
di professionisti dello studio
“WOP Architettura e Paesaggio”
ha proposto un progetto
riguardante un grande parco
situato in un’area completamente
abbandonata situata
nella parte a valle della città,
un tempo sede di un grande
allevamento suini.
Quando un progetto è completato,
in genere, i progettisti
organizzano un dibattito pubblico
o provano a contattare i
giornalisti per comunicare
l’idea alla comunità interessata.
In questo caso i progettisti
hanno contattato un blogger
locale (Antonio Nicastro @
astronik) conosciuto in tutta
la regione per il suo impegno
ne settore ambientale e Giampiero
D’Ecclesiis, un geologo
con una noto per il suo attivismo
su facebook.
In poche settimane il gruppo
di facebook ha raggiunto
3.000 partecipanti (http://
www.facebook.com/groups/
parcobasento/) e i cittadini
hanno cominciato a esprimere
le loro opinioni. Nonostante
il progetto fosse già molto
dettagliato, l’obiettivo principale
dei progettisti è stato
quello di cercare di raccogliere
altre idee direttamente dai
cittadini. Per diversi mesi, ci
sono state molte discussioni
su come migliorare piccoli
dettagli del progetto. Dopo
questo primo periodo, i giornali
hanno descritto il progetto
e molte associazioni e gruppi
di cittadini hanno chiesto
ai progettisti di illustrare il
progetto nelle loro sedi.
Allo stesso tempo è partita
una petizione e tutti i negozi
della città hanno raccolto
le firme per il parco. Ma il
compito cruciale che si era
posto il gruppo di progettisti
era di tentare di convincere
i politici ad accettare l’idea
del parco. Pertanto, i politici,
senza interessi personali nella
zona, hanno immediatamente
dichiarato una posizione chiara
di preferenza per il parco,
mentre i politici che avevano
già fatto promesse ad alcuni
imprenditori hanno cercato
di evidenziare tutti i vincoli
possibili nella realizzazione
del parco.
L’aspetto innovativo della
vicenda è che tutte le discussioni
con i politici sono state
Fig. 1 - Momenti
del tavolo di lavoro
#younginnovation e
degli spunti emersi
durante il lavoro.
https://storify.
com/gborruso/
younginnovationai-territori-digitalispunti-dai
sviluppate direttamente su
Facebook o Twitter. Infatti,
la questione più interessante
non è il fatto che i politici e
i cittadini hanno discusso direttamente
in merito al progetto,
questo può accadere
anche nella piazza della città,
ma il fatto che i social media
possono essere considerati
come una lavagna enorme
nella piazza sulla quale le posizioni
di tutti saranno scritte
in modo indelebile. E questo,
ad esempio, per un politico
ha il peso di una dichiarazione
ufficiale.
Come già abbondantemente
argomentato nei numeri
precedenti della rubrica un
potente strumento di sintesi
è rappresentato dall’analisi
delle discussioni sui social
network. Il gruppo del Parco
del Basento ha registrato ne
periodo gennaio 2012 aprile
2014 circa 851 discussioni
con un elevato numero di
commenti e “mi piace”. In
qualsiasi processo partecipato
tradizionale sarebbe alquanto
difficile raggiungere una livello
confrontabile di scambio di
idee.
Le stesse reti semantiche costruite
a partire dalle discussioni
sviluppate nei social
network sono un elemento
centrale nella visualizzazione
dei concetti chiave.
L’idea è di sintetizzare i
workflow di queste iniziative
in una griglia progettuale
comune, da adottare come
strumento di valutazione del
livello di smartness di una
città (o di un territorio, in
senso più ampio), evidenziando
le necessità di quel particolare
contesto e ponendo le
basi per la loro risoluzione.
Soltanto in quest’ultima fase
il ricorso a soluzioni di tipo
hi-tech viene considerato,
nel quadro del suo effettivo
apporto alla risoluzione delle
istanze urbane.
48 GEOmedia n°2-2015
MERCATO
MassiMa Flessibilità e PerForMance.
in un’unica stazione totale.
Immagina di avere bisogno di un’unica stazione totale per effettuare
ogni tipo di raccolta dati e che possa gestire immagini, scansioni e
rilievi tradizionali. Una stazione totale capace di creare modelli 3D,
documentazioni visuali, nuvole di punti e molto altro ancora.
Lo strumento a cui stai pensando e’ la stazione totale Trimble ® S7.
Trimble S7 ha le più avanzate caratteristiche e tecnologie Trimble,
con la flessibilità e la performance di cui hai bisogno, per ogni
tuo progetto.
Trimble S7
Total Station
Scansioni ricche di particolari con
Trimble SureScan
Posizione in tempo reale della
tua strumentazione, con Trimble
Locate2Protect
Arricchisci di immagini il tuo lavoro,
utilizzando la tecnologia Trimble
VISION
Misura più lontano e più veloce con
Trimble DR Plus EDM
La documentazione geo-spaziale
comprensiva di tutto quello che serve –
con Trimble Business Center
Vai sul sito Trimble.com/geospatialTS
© 2015, Trimble Navigation Limited. Tutti i diritti riservati. Trimble e il logo Globe e Triangle sono marchi commerciali di Trimble Navigation Limited,
registrati negli Stati Uniti e in altri paesi. SureScan e VISION sono marchi di Trimble Navigation Limited. Tutti gli altri sono marchi dei rispettivi
proprietari. GEO-068A-ITA (05/15)
GEOmedia n°1-2015 49
AGENDA
1-4 giugno 2015
HxGN LIVE LAS 2015
Las Vegas (USA)
www.geoforall.it/fryr
4 giugno 2015
Tavola rotonda sull'Italia 3D vista
dalle strade organizzata da AMFM
Roma
www.geoforall.it/kkryd
9-11 Giugno 2015
World Geospatial Developers
Conference
China
www.geoforall.it/hhfa
17 - 19 giugno 2015
GIT Geosciences and Information
Technology
San Leo (RN)
www.geoforall.it/kka9h
22-25 giugno 2015
Tenth International Conference
on "Geographical Analysis, Urban
Modeling, Spatial Statistics" GEOG-
AND-MOD 15
Canada
1-3 luglio 2015
Innorobo 2015
Lione (Francia)
www.geoforall.it/kk6f6
7-10 luglio 2015
GI-Forum 2015
Salzburg (Austria)
www.geoforall.it/fryy
14-17 Luglio 2015
FOSS4G Europe Conference
Como
europe.foss4g.org/2015/
2-5 settembre 2015
The 2nd International Conference on
Augmented and Virtual Reality
Lecce
www.salentoavr.it/
13 - 18 settembre 2015
AQUA 2015
Roma
www.iah2015.org
14-18 september 2015
6th ESA Advanced Training Course
on Land Remote Sensing
Bucarest (Romania)
15-17 settembre 2015
INTERGEO 2015
Stuttgart (Germany)
www.geoforall.it/fryc
28 - 30 settembre 2015
ISPRS Laser Scanning 2015 e
GeoSpatial Week
La Grande Motte (Francia) -
www.geoforall.it/kkwq9
29 settembre - 1 ottobre 2015
XIX Conferenza Nazionale ASITA
Lecco
www.geoforall.it/frca
20-23 October 2015
Earth Observation for Water Cycle
Science 2015
Frascati
www.geoforall.it/kk8x4
27-29 Ottobre 2015
5th International Galileo Science
Colloquium
Braunschweig (Germany)
www.geoforall.it/kk6cc
23 novembre 2015
Third Eurographics Workshop
on Urban Data Modelling and
Visualisation
Delft The Netherlands
www.geoforall.it/kkc39
24-26 giugno 2015
Convegno SIFET
Firenze
www.geoforall.it/kk9kr
SOLUZIONI INNOVATIVE
PER IL mONITORAggIO AmbIENTALE
E RILIEVI dI ALTA PREcISIONE
Dal 1986 Teorema srl
lavora a fianco del professionista fornendo
la tecnologia più avanzata, la migliore consulenza
e un’accurata assistenza post-vendita
per rendere affidabile e produttivo il vostro lavoro.
TS50
Stazione
Totale
www.disto.it • www.geomatica.it • www.termocamere.com
Via A. Romilli, 20/8 20139 Milano • Tel. 02 5398739 • teorema@geomatica.it
Leica Nova TS50 & TM50
❚❚Massima precisione angolare 0.5”
❚❚Precisione Puntamento Automatico 0.5” (ATR)
❚❚Precisione EDM: 0.6 mm + 1 ppm su prisma
sino a 10.000 m
❚❚Laser PinPoint, precisione 2 mm + 2 ppm
❚❚Ricerca automatica dei Prismi (ATR)
TS50: oltre 1000 metri
TM50: oltre 3000 metri
❚❚Fotocamera grandangolare e coassiale
a 30 ingrandimenti per immagini ad alta
risoluzione da 5 Mpixel
❚❚Live Stream a 20Hz
TM50
Stazione
di Monitoraggio
❚❚Report di misura corredato da immagini
❚❚Messa a Fuoco Automatica (Autofocus)
❚❚Connettività wireless LAN, USB,
Bluetooth ® , RS232
❚❚Motori Hz e V Piezo High Dynamic: massima
velocità ed accelerazione
❚❚IP65/MIL
❚❚Software Leica Smartworx
❚❚Memoria interna: 1GB , Scheda SD, USB
❚❚Facilità d’uso e flussi di lavoro semplificati
❚❚Software performanti di elaborazione dati e
monitoraggio periodico e stand-alone
LA GESTIONE
EFFICIENTE
E INTEGRATA
DELLE RETI TECNOLOGICHE
MUUG (Multi Utilities User Group) è la soluzione Sinergis per
la gestione delle reti di distribuzione di servizi - energia,
acqua, gas, illuminazione pubblica, telecomunicazioni - che
aiuta le aziende multi utility a pianificare nel modo più corretto
l’erogazione, sia in termini geografici sia quantitativi, delle
risorse ai propri clienti. Basata sui prodotti leader di mercato
ArcFM di Schneider e ArcGIS di Esri, MUUG è la soluzione
che adegua i sistemi delle multi utility alla normativa e agli
standard operativi in uso in Italia.
www.sinergis.it
In mare parliamo
la stessa lingua.
MaRS è la divisione Codevintec dedicata
al noleggio di strumentazione marina.
MaRS ha gli strumenti in Italia, ha tecnici
ed operatori italiani, fornisce assistenza
tecnica immediata.
In italiano.
MaRS offre noleggi a breve e lungo termine.
Anche con operatore.
Consulenze, installazioni ed elaborazioni.
> Multibeam Beamformer Reson
> Multibeam interferometrici SEA
> Posizionamento e assetto Applanix
POS MV/LV
> Side Scan Sonar Edgetech
> Sub Bottom Profiler Edgetech
> ROV Remotely Operated Vehicles
> ADCP
> USBL
> Strumentazione ausiliaria:
GPS/GNSS RTK, OmniStar e MarineStar,
SVS, SVP, Link radio UHF, Bussole GPS...
MaRS
noleggi & soluzioni
Lungomare P. Toscanelli, 64 tel. +39 02 4830.2175
00122 Lido di Ostia RM mars@codevintec.it
MaRS è una divisione di
CODEVINTEC
Tecnologie per le Scienze della Terra