GEOmedia 2 2015

mediageo

La prima rivista di geomatica e di geografia intelligente.

Rivista bimestrale - anno XIX - Numero 2/2015 - Sped. in abb. postale 70% - Filiale di Roma

TERRITORIO CARTOGRAFIA

GIS

CATASTO

3D

INFORMAZIONE GEOGRAFICA

FOTOGRAMMETRIA

URBANISTICA

GNSS

BIM

RILIEVO TOPOGRAFIA

CAD

REMOTE SENSING SPAZIO

EDILIZIA

WEBGIS

UAV

SMART CITY

AMBIENTE

NETWORKS

BENI CULTURALI

LBS

LiDAR

Mar/Apr 2015 anno XIX N°2

La prima rivista italiana di geomatica e geografia intelligente

Prevedere il futuro

osservando il presente

Il GIS per censire

il danno del

dopo-terremoto

I dati come

energia rinnovabile

del futuro

Gestione

dell’emergenza

su mobile


SCOPRI LE FUNZIONALITÀ DI G/TECHNOLOGY FIBER OPTIC WORKS!

Combinando tool di progettazione e analisi con soluzioni per la gestione del catasto

infrastrutture, Intergraph® G/Technology Fiber Optic Works semplifica e migliora la

gestione delle reti in fibra ottica.

FOR MORE INFORMATION, VISIT: WWW.INTERGRAPH.COM

© 2015 Intergraph Corporation. All rights reserved. Intergraph is part of Hexagon. Intergraph and the Intergraph logo are registered trademarks of

Intergraph Corporation or its subsidiaries in the United States and in other countries.


Mappare a priori

o a posteriori?

Da un pò di tempo fa notizia

l’applicazione delle tecnologie geomatiche nella

gestione delle emergenze per disastri ambientali. Peccato

che si tratti in maggioranza di interventi a posteriori. Si approntano

mappe per analizzare la distruzione nei post-terremoto come abbiamo visto

per il Nepal proprio in questi giorni, oppure per la gestione di inondazioni come

l’esempio recentissimo del Texas di pochi giorni fa e così via, si potrebbe continuare a citarne

all’infinito. La notizia di una mappa appena realizzata per la gestione di un terremoto fa notizia, più

di quanto ci si possa aspettare.

Molto meno invece la notizia relativa ad un sistema di prevenzione, come una mappa per i piani di fuga

dalle inondazioni o dai maremoti, o dei siti sicuri per un certo tipo di evenienza disastrosa. Anzi, peggio ancora,

si continua ad ignorare qualsiasi mappa del rischio sia sismico che idrogeologico, per il fatto che nessuno si vuol

prendere la responsabilità di avvertire la popolazione e prendere gli opportuni provvedimenti. L’Aquila insegna.

La prevenzione rimane, purtroppo, a carico di alcune amministrazioni che si dotano di sistemi informativi geografici ad

uso interno, quasi mai messi a disposizione dei cittadini. Eppure è risaputo, anche sulla base di recenti esperienze, che un

buon piano di prevenzione mitiga moltissimo gli effetti di qualsiasi disastro naturale.

Se oggi si lodano le tecnologie geomatiche per gestire le emergenze, si dovrebbe anche pensare seriamente ad utilizzarle “prima”

che queste succedano in un sistema organico che dia origine ad una vera politica di prevenzione.

È necessaria una serie ampia di interventi inseriti in un programma nazionale di riforma di tutto il territorio per creare stabilità

nella società, fornire opportunità per i cittadini a partecipare allo sviluppo economico, per promuovere una migliore gestione

ambientale e responsabile per incoraggiare gli investimenti privati sul territorio.

Una tassazione equa, ad esempio della proprietà, è in questo momento una priorità e si può basare solo su elementi caratterizzanti

che devono essere rilevati con tecniche scientificamente validate per essere considerate obiettive. Ma anche le strategie di gestione

sono necessarie in tutto il territorio in settori quali l'agricoltura, la silvicoltura, il turismo, le infrastrutture e la prevenzione dei

dissesti idrogeologici e dei disastri naturali.

Troppo spesso, questi interventi sono eseguiti in isolamento. La mancanza di una gestione congiunta del territorio conduce spesso

a leadership disarticolate e frammentate negli accordi di settore istituzionali producendo anche quadri giuridici e normativi

incoerenti. La mancanza di una vera infrastruttura completa di dati spaziali nazionali è causa del mancato “decision-making” che

dovrebbe essere “evidence-based”.

È necessario un approccio più olistico per realizzare una gestione integrata e sostenibile del territorio della nazione, la cui

organicità vive di interrelazioni e di interdipendenze funzionali, tra le parti che la compongono, atte a dar vita ad un

complesso organico, non riconducibili alla somma meccanicistica delle sue parti.

Dovremo sicuramente ripensare i ruoli e le strutture delle istituzioni per adeguarle alla crescente capacità del cittadino

nella amministrazione e gestione del territorio. Per questo servirà una revisione dei sistemi formativi atti a creare

una nuova generazione di professionisti del territorio che vadano verso una più ampia comprensione della

gestione integrata e sostenibile del territorio stesso.

Le esperienze che riportiamo su GEOmedia confermano tutte l’importanza e la necessità di questa

azione, anzi di approcciare un nuovo percorso.

E questo cammino di cambiamento, che si deve attuare tramite tecnologie atte a fornire

strumenti di decisionalità basati sull’evidenza, ha bisogno di iniziare ora.

Buona lettura,

Renzo Carlucci


In questo

numero...

FOCUS

REPORTS

Piano di

ricostruzione

Post-sisma:

il G.i.s. Per

censirE

il danno

di AntoniA FrAtino

6

LE RUBRICHE

24 MERCATO

26 IMMAGINE ESA

46 SCHEDA TECNICA

47 GI IN EUROPE

48 SMART CITIES

50 AGENDA

14

I dati sono

il petrolio

(…o l’energia

rinnovabile)

del futuro

Di Fabio Disconzi

e Arturo Lorenzoni

Activity-Based

Intelligence

prevedere il futuro

osservando il presente

con gli strumenti

Hexagon Geospatial

In copertina la mappatura dei cambiamenti

a terra tramite immagini satellitari (change

detection) realizzata con immagini TerraSAR-X

nel Porto di Baltimora, Stati Uniti.

Si tratta di una immagine Radar a risoluzione

di 1 metro presa il 12/08/2009 e confrontata il

14/09/2009.

Modalità di acquisizione: SpotLight alta

risoluzione

Modo di polarizzazione: HH

Copyright: DLR e.V. e Airbus DS Geo GmbH

Di Massimo Zotti

20

www.rivistageomedia.it

GEOmedia, bimestrale, è la prima rivista italiana di geomatica.

Da quasi 20 anni pubblica argomenti collegati alle tecnologie dei

processi di acquisizione, analisi e interpretazione dei dati,

in particolare strumentali, relativi alla superficie terrestre.

In questo settore GEOmedia affronta temi culturali e tecnologici

per l’operatività degli addetti ai settori dei sistemi informativi

geografici e del catasto, della fotogrammetria e cartografia,

della geodesia e topografia, del telerilevamento aereo e

spaziale, con un approccio tecnico-scientifico e divulgativo.


Analisi

della

componente 3D

nell'applicazione

di vincoli

urbanistici

di Andrea Maffeis e

Andrea Caldiroli

28

INSERZIONISTI

aerRobotix 44

CGT 40

Codevintec 52

Crisel 36

EPSILON 24

ESRI 41

Flytop 35

Geogrà 12

Geomax 23

Intergraph 2

Planetek 13

32

e

La mappa del

tesoro

per l'auto

autonoma

di Massimiliano Arcieri

Andrea Soncin

ProgeSOFT 25

Sinergis 51

Sistemi Territoriali 39

Teorema 50

Topcon 45

Trimble 49

Gestione di

dati tramite

dispositivi

mobili per la

pianificazione di

emergenza

di Mattia De Amicis,

Stefano Roverato, Fabio

36

Olivotti e Alice Mayer

Remtech

Expo

2015

42

a cura della Redazione

una pubblicazione

Science & Technology Communication

Direttore

RENZO CARLUCCI, direttore@rivistageomedia.it

Comitato editoriale

Fabrizio Bernardini, Luigi Colombo, Mattia Crespi, Luigi

Di Prinzio, Michele Dussi, Michele Fasolo, Beniamino

Murgante, Aldo Riggio, Mauro Salvemini, Domenico

Santarsiero, Attilio Selvini, Donato Tufillaro

Direttore Responsabile

FULVIO BERNARDINI, fbernardini@rivistageomedia.it

Redazione

VALERIO CARLUCCI, GIANLUCA PITITTO,

redazione@rivistageomedia.it

Diffusione e Amministrazione

TATIANA IASILLO, diffusione@rivistageomedia.it

Comunicazione e marketing

ALFONSO QUAGLIONE, marketing@rivistageomedia.it

Progetto grafico e impaginazione

DANIELE CARLUCCI, dcarlucci@rivistageomedia.it

MediaGEO soc. coop.

Via Palestro, 95 00185 Roma

Tel. 06.62279612 - Fax. 06.62209510

info@rivistageomedia.it

ISSN 1128-8132

Reg. Trib. di Roma N° 243/2003 del 14.05.03

Stampa: SPADAMEDIA srl

VIA DEL LAVORO 31, 00043 CIAMPINO (ROMA)

Editore: mediaGEO soc. coop.

Condizioni di abbonamento

La quota annuale di abbonamento alla rivista

Science

è di €

&

45,00.

Technology Communication

Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di

ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa.

L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita

revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza

dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo.

La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti.

Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta

dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere

richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo.

Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la

riproduzione anche parziale del contenuto di questo numero della Rivista in

qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i

sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore.

Rivista fondata da Domenico Santarsiero.

Numero chiuso in redazione il 3 giugno 2015.


FOCUS

Piano di ricostruzione post-sisma:

Il G.I.S. per censire il danno

di Antonia Fratino

Gli scenari possibili del post-terremoto,

debbono essere tratteggiati a priori,

pianificati per tempo, declinando, da un

lato tempi e risorse in gioco, elementi di

pianificazione strategica e dall’altro modi e

azioni, elementi di pianificazione strutturale

ed operativa, tentando di far derivare

dall’esperienza accumulata, strategie e

principi-guida, che non siano da reinventare

a ogni evento, ma che si adattino di volta in

volta, alle peculiarità del territorio colpito.

Fig. 1

Il 26 e 27 Settembre 1997

le regioni Umbria e Marche

e in particolare le province

di Perugia e Macerata, hanno

subito un paio di eventi sismici

di intensità medio-alta. Le due

scosse, si sono verificate alle

02:33 e 11:40 con epicentro

intorno a Colfiorito (Foligno,

Pg). Il bilancio del sisma è

pesante: undici vittime, centoquindici

feriti e oltre ventimila

sfollati nei 48 comuni colpiti.

Una delle aree umbre maggiormente

colpite è il Comune di

Foligno.

A seguito dell’evento il 67% del

patrimonio edilizio è risultato

inagibile totalmente e/o parzialmente

e un ulteriore 12% è

risultato agibile solo dopo aver

adottato provvedimenti per ristabilire

la sicurezza.

La fragilità del tessuto urbano

ha determinato come conseguenza

diretta, un consistente

disagio abitativo; una popolazione

sfollata di oltre 22.000

abitanti.

L’osservazione degli effetti dei

terremoti in Italia ha più volte

evidenziato che il fattore determinante

delle conseguenze prodotte,

in termini di vittime e di

danni, più che alla severità degli

stessi sismi è dato dall’elevata

vulnerabilità di gran parte del

patrimonio edilizio, soprattutto

quello dei centri storici.

I centri storici sono costituiti

per la maggior parte da edifici

in muratura, ma il contesto nel

quale essi si trovano, sia sotto

il profilo storico architettonico

(valore del tessuto urbano,

come patrimonio da conservare),

che strutturale (interazione

tra gli edifici che costituiscono

un aggregato con effetti diversi

durante l’evento sismico), rendono

necessario un approccio

non solo puntuale sul singolo

manufatto, ma complessivo

rispetto all’aggregato.

Da qui nasce la necessità di

affrontare la complessità di un

evento calamitoso, partendo

dalla consapevolezza della multidimensionalità

dei problemi

da affrontare e della complessità

nella prefigurazione di uno

scenario successivo, tenendo

conto che talune scelte adottate

in un processo di ricostruzione,

generano sul territorio e sulla

comunità nuove prospettive e

nuovi assetti, spesso difficilmente

prevedibili.

Scopo dell’indagine

Il tentativo è di non ridurre e

concentrare l’attenzione sull’evento,

bensì su come esso si

esplica nello spazio e nel tempo,

nell’ambito di un determinato

contesto sociale e territoriale,

offrendo una visione corretta

dei processi e delle conseguenze

che le scelte assunte comportano.

L’obiettivo è di indagare il tessuto

edilizio, censire la consistenza

strutturale e la vulnerabilità edilizia

al fine di orientare le azioni

da assumere. L’indagine, inoltre,

tenta di individuare quale sia un

indicatore di mitigazione, attra-

6 GEOmedia n°2-2015


FOCUS

verso il quale è possibile operare

strategie di prevenzione.

A tale scopo si è assunto il

danno come esito dell’evento,

variabile dipendente di altri

fattori, variabili indipendenti,

preesistenti all’evento, quali la

consistenza strutturale e morfologica

degli edifici, l’età del manufatto,

la vulnerabilità edilizia.

Sono state analizzate le relazioni

e le interconnessioni tra i

diversi fattori assunti, al fine di

individuare quali siano gli elementi

di maggiore incidenza sul

danneggiamento.

L’intera metodologia è stata

pensata per essere implementata,

tramite l’utilizzo di sistemi

informativi territoriali. Tali

strumenti permettono, infatti,

di valutare in modo specifico

il sito, integrando modelli ed

indici di diversa fonte, che consentono

di valutare e gestire in

maniera simultanea anche gli

aspetti territoriali.

In tal senso l’uso del G.I.S.

ha prodotto come risultante

un’analisi mirata del tessuto

insediativo, individuando una

possibile strada per ridurre il

rischio sismico, attraverso la

pianificazione degli interventi

più efficaci da promuovere, il

quadro delle azioni da intraprendere.

La comprensione del comportamento

sismico degli edifici in

muratura, osservato sotto l’aspetto

delle loro caratteristiche

tipologiche e costruttive

e della morfologia

urbanistica, rappresenta

un momento fondamentale

nella ricerca

di strumenti e metodologie

di valutazione

del danno prodotto

dal sisma.

La scelta di base è stata

quella di identificare

un contesto territoriale,

appropriato per possibilità

operative di indagine e una

casistica rappresentativa del patrimonio

di edifici in muratura

danneggiati, da assoggettare ad

uno studio approfondito, relativamente

ai caratteri tipologicocostruttivi

e alla lettura ed interpretazione

del danneggiamento.

Valutare lo stato di salute del

territorio è un tema di estrema

importanza per la popolazione,

perché solo attraverso la conoscenza

è possibile un adeguato

contenimento dei rischi, ed esso

rappresenta la migliore forma di

difesa dell’ambiente, degli insediamenti

urbani e delle esigue

disponibilità economiche dello

Stato.

In tal senso è stata catalogata

la tipologia costruttiva di tutti

gli edifici presenti nel centro

storico di Foligno, è stata conseguentemente

prodotta la documentazione

cartografica dell’esito

dell’indagine, consentendo

di valutare anche spazialmente

la distribuzione tipologica degli

edifici, come di seguito riportato

nella Fig.1.

La rappresentazione cartografica

ha determinato la scelta di

limitare lo studio agli edifici in

muratura, dettata dalla netta

preponderanza della presenza di

strutture di questo tipo tra gli

edifici danneggiati.

Le analisi sono successivamente

condotte partendo dall’indagine

di alcune situazioni di base

pregresse, quali ad esempio:

carenze costruttive, microzonazione

sismica, vulnerabilità edilizia,

interventi di riparazione

effettuati in data antecedente al

sisma, da correlare alla distribuzione

e tipologia dei danni.

In una tale ottica il danno

costituisce l’effetto di una serie

di condizioni già presenti

nell’edificio in data antecedente

all’evento.

Riuscire a comprendere quali

caratteristiche determinino i

maggiori danni, consente di

indirizzare gli interventi sugli

edifici in modo efficace e mirato.

Le analisi sono condotte

su un campione di edifici

privati, tutti danneggiati, allo

scopo di evidenziare appunto,

la correlazione tra diversi tipi

di danneggiamento e le carenze

riscontrate.

Lo sviluppo di un approccio integrato

e multidisciplinare, per

quanto ambizioso e complesso,

ha lo scopo di porre le basi metodologiche

per un sistema di

Fig. 2 - Distribuzione spaziale del danno per intensità di classe (elaborazione propria).

GEOmedia n°2-2015 7


FOCUS

supporto alle decisioni in ambito

urbano di un sito-specifico,

applicato ad una estensione territoriale

contenuta,ma concettualmente

estendibile a qualsiasi

tipo di ambiente e di territorio

diffuso.

Si tenta di proporre come possibile

metodo l’integrazione

dell’analisi territoriale, con

altre componenti, tenendo in

considerazione tutti quei fattori

(aspetti di fruizione, uso, caratteri

tipologici, etc.) che possono

contribuire all’aumento o all’attenuazione

della vulnerabilità

del sistema esposto e quindi

all’entità del rischio, favorendo

la definizione di uno scenario

più realistico.

L’indagine si propone di studiare

i potenziali impatti che un

evento potrebbe avere a livello

locale, cercando di offrire strategie

di mitigazioni applicabili nel

campo della protezione civile.

La ricerca si avvale della raccolta

dei dati cartografici, tematici

del territorio, con una doppia

finalità; la conoscenza della configurazione

morfologica, urbana

e antropizzata da una parte e

dall’altra consentire un’analisi

complessiva dei potenziali effetti,

che i cambiamenti operati sul

territorio potrebbero generare,

attraverso la costruzione degli

scenari possibili.

E’ il tentativo di individuare e

sviluppare metodologie integrate,

derivate dalla pluralità

di discipline coinvolte nella

prefigurazione degli scenari da

affrontare a seguito di un evento

calamitoso.

Metodologia

La definizione di una metodologia

integrata per la mitigazione

dei danni da terremoto è

finalizzata alla ricerca di soluzioni

gestionali, frutto dell’integrazione

degli approcci e dei

risultati derivanti da discipline

differenti.

Fig. 3 - Centro storico di Foligno: individuazione dei 5 Programmi Integrati di Recupero

(elaborazione propria).

La multidisciplinarietà è connessa,

anche, all’esigenza di

risolvere le problematiche di

carattere urbano legate alla prevenzione,

coinvolgendo ambiti

non prettamente ambientali e

considerando le rilevanti ricadute

di carattere normativo,

sociale ed economico.

Le discipline coinvolte spaziano

dalla prevenzione, alla sostenibilità

ambientale ed energetica,

all’urbanistica, alla pianificazione

della ricostruzione, fino

all’analisi e distribuzione delle

tipologie edilizie, alla vulnerabilità

edilizia e al danno registrato,

tutto filtrato attraverso la

modellistica georeferenziata,

Si tratta di riconoscere la dimensione

territoriale di eventi/

interventi speciali, intesi come

elementi ordinatori di una pianificazione,

che può aiutare ad

individuare ambiti e soglie di

rischio e a verificare l’attendibilità

degli esiti, fornendo al processo

decisionale, un supporto

tecnico (S. Menoni,2005).

Il processo di recupero è unico

per ogni comunità e richiede

quindi l’obiettivo del “sitespecific”

(Rubin,1985), ma gli

esiti possono essere utili a livello

generale.(Haas,1977).

Il presupposto della ricerca nasce

dalla considerazione avanzata

da Gonzalo Lizarralde, 2000 per

il quale: “dal momento che pericoli

di solito si ripetono nelle

stesse aree, i miglioramenti ottenuti

dopo un disastro diventano

i punti di forza della comunità

per il prossimo evento.”

Il focus: Il Comune

di Foligno

L’idea progettuale nasce dalla

consapevolezza della necessità di

conoscere e preservare l’identità

storica del tessuto edilizio al

fine di procedere consapevolmente

nella definizione delle

strategie di tutela. Infatti in

tutti i centri storici è presente

un interessante “tessuto urbano”

che contribuisce in maniera

significativa alla caratterizzazione

degli insediamenti e disegna

la morfologia del paesaggio, ma

costituisce anche un interessante

campo di indagine per la

lettura della stratificazione dei

rimedi e degli artifici adottati

nel tempo per contrastare precedenti

fenomeni sismici. In

particolare è stato analizzato il

centro storico del Comune di

Foligno. Per quanto riguarda

l’analisi degli edifici in relazione

8 GEOmedia n°2-2015


FOCUS

alla tipologia è stato effettuato,

con un primo censimento

speditivo, un’analisi che ha

consentito da un lato di individuare

alcune caratteristiche

storico-architettoniche significative

e dall’altro di effettuare una

selezione mirata di alcuni edifici

più rappresentativi sia per il

tessuto edilizio, sia in relazione

alla risposta sismica registrata.

Tutti i dati ottenuti sono stati

digitalizzati, resi omogenei per

l’attendibilità del confronto,

parametrando i risultati in funzione

di rapporti percentuali, al

fine di ottenere output attendibili

e confrontabili con altri casi

di studio.

La raccolta delle mappe del

territorio è stata effettuata al

fine dell’inserimento di tutte

le informazioni in un database

geografico relazionale.

Il G.I.S ( Geographic Information

System) è lo strumento di

indagine adottato per l’analisi,

in quanto consente di associare

dati geomorfologici, con i database

e le informazioni territoriali

raccolte e rese disponibili.

La combinazione tra elementi

diversi e database disponibili

per altri diversi scopi, ma sempre

connessi ad un determinato

territorio, consente di estrapolare

informazioni che determinano

nuovi campi di azione e di

indagine mai esplorate.

E’ peraltro evidente, nel contempo,

che raffrontare banche

dati di provenienza diversa e

raccolte con finalità diverse, ha

determinato una difficoltà oggettiva

in quanto si registra una

scarsa capacità da parte degli

enti territoriali di organizzare

i dati in database già orientati

alla costruzione di modelli

previsionali (i database sono

troppo generici e non sono pensati

in partenza per soddisfare

un’esigenza definita di analisi e

predizione del comportamento

del territorio) pertanto si è resa

necessaria una elaborazione

propria di individuazione dell’id

univoco che consentisse la lettura

comparata delle diverse fonti,

relazionato con l’Unità Minima

di Intervento adottata nei Programmi

Integrati di Recupero.

La quantificazione del danno

registrato, così come la valutazione

della vulnerabilità degli

edifici del centro storico, rappresentativi

della realtà locale

costruttiva, è stata ottenuta

attraverso l’elaborazione dei dati

acquisiti tramite le schede e le

tabelle allegate ai cinque comparti,

secondo i quali è stato

Fig. 4 - Centro storico di Foligno: analisi della vulnerabilità per classi di intensità ( elaborazione propria).

suddiviso il centro storico e in

base ai quali sono stati redatti

cinque diversi Piani Integrati di

Recupero (P.I.R.), adottati dal

comune e successivamente approvati

dalla Regione per garantire

il processo di ricostruzione,

avviato a seguito del sisma del

1997.

Si riporta di seguito l’individuazione

dei cinque comparti o

zone (A,B,C,D,E).

Per ogni zona (A.B.C.D, E) il

Piano Integrato di Recupero

(P.I.R.), ha individuato una

serie di Unità Minime di Intervento

(U.M.I.), intese come

quell’edificio o quell’insieme

di edifici che: per caratteristiche

morfologiche, strutturali,

tecnico-costruttive e per i materiali

presenti, possono essere

considerate un organismo strutturalmente

omogeneo. (allegato

A della D.G.R. n.5180/98)

La prima difficoltà riscontrata

nella raccolta dei dati è data

proprio dalla scelta di settorializzare

il centro storico in cinque

diversi comparti.

Tale situazione ha determinato

la necessità di omologare i dati,

sebbene la struttura dei documenti

da allegare ai P.I.R., fosse

garantita dai regolamenti regionali

emanati (Reg. n.15/1998).

A titolo esemplificativo si rileva,

che il centro storico C,

ad esempio, è stato suddiviso

al suo interno in relazione alle

sezioni censuarie, determinando

una duplicazione del numero

assegnato alle U.M.I., distinguibili

solo specificando, oltre al

numero della U.M.I , anche la

zona censuaria di appartenenza.

Non si tratta di un particolare

di poco conto, considerando

che l’identificativo univoco per

relazionare informazioni e database

diversi è proprio il numero

assegnato alla U.M.I.

Tale condizione ha determinato

un aggravio nel procedimento

di elaborazione dei dati.

GEOmedia n°2-2015 9


FOCUS

Un ulteriore elemento di disomogeneità

è dato dal trattamento

degli interventi, diversi

da quelli finanziati attraverso

l’art.3 della L.61/98, relativo

alle U.M.I., censite all’interno

del comparto.

Si tratta dei dati relativi agli

interventi di riparazione di

U.M.I. finanziate con altre fonti,

e pertanto con altre diverse

modalità di rendicontazione

e intervento, o perché facenti

parte del piano straordinario

di edilizia residenziale pubblica

(art.7 L.61/98), o perché opere

pubbliche e chiese gestite

ed inserite attraverso il piano

straordinario redatto per il

Giubileo del 2000 o ancora,

più frequentemente perché

edilizia privata, finanziata attraverso

l’Ord.61/97. Infatti

gli interventi finanziati con

l’ord.n.61/97, sono attuati in

modo diretto, senza l’applicazione

di un piano dedicato,

si tratta di interventi adottati

per abitazioni principali rese

inabitabili per i provvedimenti

emessi con ordinanza di sgombero,

emessa a causa dei danni

prodotti dal sisma. Sono tutti

edifici con danno significativo.

La numerazione della UMI,

per il caso ultimo citato

(ord.61/97) non è peraltro

coincidente con i dati presenti

nel programma SISreg.’97 gestito

dalla regione, programma

di gestione e rendicontazione

di tutta la ricostruzione in Umbria,

in quanto è stato adottato

un numero progressivo identificativo

del numero di edificio, in

relazione alla data di ricezione

dell’istanze di finanziamento,

(data del protocollo), che non

tiene in alcun conto il numero

di UMI assegnato con il PIR.

Anche questo mancato allineamento

dei dati disponibili, con

numerazione differente per la

medesima UMI, solo perché

desunti da database diversi, per

i quali sono stati assunti criteri

diversi di numerazione, ha reso

necessario un ulteriore lavoro

per riallineare i dati e rendere

disponibili gli stessi, al fine di

garantire una lettura univoca e

comparata in ambiente GIS.

L’entità minima di edificato oggetto

di intervento, individuata

all’interno dei piani, si è detto è

la Unità Minima di Intervento

(U.M.I.), composta da uno o

più edifici con caratteristiche

omogenee (tecniche costruttive,

materiali, altezza e tessitura di

solai di interpiano, coperture).

Per ogni U.M.I. si è proceduto:

1. analizzando i dati censiti

presenti all’interno dei Programmi

Integrati di Recupero

adottati o ricorrendo al

reperimento attraverso altri

database, relativi ad altre fonti

di finanziamento;

2. individuando in mappa la

localizzazione della UMI in

relazione al P.I.R. di appartenenza,

costruendo 5 layers,

tanti quanti sono i P.I.R.

adottati nel centro storico;

3. registrando nel database

associato, per ogni UMI di

ogni comparto; il danno,

la vulnerabilità, il livello di

costo, i tempi di realizzazione

dell’intervento di riparazione

adottato.

Per ogni U.M.I. è stata identificata

la classe di vulnerabilità di

appartenenza nel database ed è

poi stata visualizzata in cartografia,

rendendo disponibile una

visione d’insieme della distribuzione

e della diffusione della

gradualità della vulnerabilità.

Analogamente si è proceduto

per l’identificazione anche cartografica

della distribuzione del

danno registrato per ogni UMI,

censito per classi di gravità.

Per ogni U.M.I., attraverso

l’identificazione della vulnerabilità

e del danno subito, è stato

possibile associare il costo parametrico

a mq, funzione delle due

variabili sopra citate.

I dati acquisiti hanno inoltre

consentito, oltre alla rappresentazione

in mappa della variabilità

del danno e della vulnerabilità,

anche la determinazione delle

curve di vulnerabilità, di danno

e dei costi sostenuti.

Lo studio incentrato sull’indagine

delle relazioni tra il

danno registrato e una serie di

variabili caratteristiche dell’edificio,

correlate ai meccanismi di

danneggiamento, ha consentito

di valutare la consistenza del

patrimonio edilizio, di cogliere

i fattori di maggiore influenza

sull’organismo edilizio suggerendo

gli interventi più efficaci ed

adeguati.

Fig. 5 - Centro storico di Foligno: analisi del danno per classi di intensità (elaborazione propria).

10 GEOmedia n°2-2015


FOCUS

Cod

prov

Cod

com

Comune

Num

UMI

Stato

pratica

attuale

Classe

priorità

Stato

Danno

Vuln

Livello

Danno

Concessione

Contributo

Comunicato

in Data

Inizio

Lavori Data

Fine

Lavori

Data

54 54018 FOLIGNO 130 SLD 3 1 1 1 15/10/05 6/21/06 8/7/09

54 54018 FOLIGNO 8 REV 4 0

54 54018 FOLIGNO 9 REV 4 0

54 54018 FOLIGNO 17-21 PAG 2 2 4 3 3/10/11 7/4/11

54 54018 FOLIGNO 42 SLD 3 1 3 2 6/1/06 7/4/06 15/10/11

54 54018 FOLIGNO 46a SLD 1 3 4 4 18/12/01 4/4/02 16/05/05

54 54018 FOLIGNO 48 SLD 1 1 4 3 25/2/03 20/10/04 28/12/09

54 54018 FOLIGNO 51 PAG 1 3 4 4 12/11/03 11/12/04

Tab. 1 - Stralcio della tabella attributi inserita nello shapefile vettoriale

La portata dell’indagine condotta

si inserisce all’interno del

complesso quadro dei contributi

possibili, affinché possa svilupparsi

una politica di resilienza

degli insediamenti urbani.

L’importanza dell’analisi del

comportamento sismico degli

edifici in muratura e l’interpretazione

del loro danneggiamento,

condotto considerando i fattori

e le caratteristiche in relazione ai

possibili meccanismi di danno

e collasso, costituisce certamente

la modalità più corretta per

cercare di interpretare il danno

osservato.

La rappresentazione grafica di

dati, presenti e disponibili solo

sotto forma di database, anche

per quanto attiene agli esiti del

processo di ricostruzione, ma

soprattutto in relazione alla elaborazione

degli stessi per un’indagine

mirata sul fenomeno,

consente, attraverso l’associazione

univoca di dati di diversa provenienza

in un’unica mappa, diverse

letture, che determinano a loro

volta nuovi scenari di indagine.

E’ possibile inoltre visualizzare

una stima, con evoluzione temporale,

tra quanto previsto in

fase di predisposizione dei Programmi

Integrati di Recupero e

quanto realmente attuato e ciò

secondo tre direttrici fondamentali:

1. il tempo di avvio dei cantieri

2. di conclusione dei lavori,

3. di variazione dei costi tra

quanto stimato necessario,

in fase di programmazione e

quanto effettivamente sostenuto

per le spese di riparazione

dei danni subiti.

Si tratta di avere un cronoprogramma

reale e sempre aggiornato

rispetto alle fasi di realizzazione

di un programma di ricostruzione

di evidente utilità.

Il G.I.S. ha consentito inoltre di

ottenere una lettura del tessuto

urbano e delle dinamiche intervenute

in relazione a fattori diversi,

non esaminati nel processo

di ricostruzione, quali ad esempio

la relazione tra danno e/o

vulnerabilità e tipologie edilizie

presenti nel tessuto urbano.

Si riporta di seguito, a titolo

esemplificativo, uno stralcio

della tabella relativa agli attributi

inserita nello shapefile vettoriale

folignoPIR.shp.

Il metodo con cui si è proceduto

all’indagine, ha restituito lo shapefile

vettoriale folignoPIR.shp,

ove la localizzazione geografica

di ogni record è determinata

dalla individuazione univoca della

denominazione delle U.M.I.

per ogni P.I.R. del centro storico

(A,B,C,D,E), e ove nella tabella

attributi per ogni UMI sono state

associate informazioni diverse

e puntuali, proprie della UMI

univocamente individuata.

Conclusioni

La sfida odierna è un serio processo

di riflessione e di documentazione

sulle catastrofi, sulle

conoscenza delle criticità di un

territorio. Occorre consolidare le

strategie intese a promuovere il

riuso del tessuto edilizio, la sicurezza

degli edifici, ridurre la vulnerabilità

edilizia. E’ necessario

introdurre politiche specifiche

per incentivare le Pubbliche Amministrazioni

a formarsi e a investire

in pratiche e metodi che

garantiscano la partecipazione,

anche attraverso la condivisione

delle banche disponibili, che

potrebbero essere finalizzate ad

indagini georeferenziate,

La possibilità di comparare e

misurare approcci innovativi

alle diverse scale ha portato in

luce la necessità di giungere a un

quadro di strumenti valutativi

e conoscitivi in qualche modo

codificato, anche al fine di poter

procedere in modo coerente

all’implementazione delle metodiche

di pianificazione nei processi

di piano.

Il tessuto urbano costituisce,

nell’insieme, un patrimonio culturale

identificativo della società

che vi abita, dato dalla sommatoria

di episodi costruttivi, di valori

storico ambientali, sociali ed economici

che va conservato e di cui

bisogna tenere conto, particolarmente

nelle azioni di prevenzione

legate agli eventi sismici.

GEOmedia n°2-2015 11


FOCUS

I sistemi informativi geografici sono

ormai diventati un valido supporto

per risolvere efficacemente molte

delle innumerevoli problematiche a

livello territoriale-ambientale.

Tali sistemi, se integrati da programmi

aggiuntivi opportunamente realizzati,

si rivelano un supporto indispensabile

nell’affrontare argomenti

ancor più specifici e complessi, come

ad esempio la pianificazione territoriale

in funzione del rischio sismico.

Il G.I.S. si è dimostrato uno strumento

estremamente utile allo scopo,

anche in funzione di un utilizzo in

ambiente internet e/o intranet, in

modo che possa diventare parte dell’operatività

quotidiana delle diverse

amministrazioni preposte all’adozione

e alla gestione dei piani

Definire un modello, una tabella di

marcia non è la risposta definitiva

a tutte le sfide, ma si tratta di un

primo passo per delineare un quadro

d’azione coerente, che abbraccia

diverse aree e settori e ha l’obiettivo

di fornire una prospettiva mitigativa

futura.

Ringraziamenti

Si ringrazia l’Università Politecnica

delle Marche, il Comune di Foligno

e la Regione Umbria, per la

collaborazione offerta e il supporto

fornitomi.

BIBLIOGRAFIA

Alexander, D.E.1,. (2005) The meaning of disaster: a reply to Wolf R. Dombrowsky. In R.W.

Perry and E.L. Quarantelli (eds) What is a Disaster? New Answers to Old Questions. Xlibris

Press, Philadelphia.

Angeletti Paolo, Baciucco Federica, Barluzzi Marco, Battisti Paolo, Macaluso Patrizia, Materazzi

Patrizia, Panella Roberta. Confronto fra danni, vulnerabilità ed interventi di consolidamento.

Il caso dell’Umbria negli ultimi eventi sismici del 1997-1998. Ed.2007.

Calace F. 2009 Ricostruire sì, ma come. Come fare tesoro delle esperienze, “Urbanistica Informazioni”,

n. 226, p. 8.

Friesema, H. Paul; Caporaso, James; Goldstein, Gerald; Lineberry, Robert; and Godschalk

David R, 1999 Natural Hazard Mitigation- Recasting Disaster Policy and Planning; Island

Press, Washington D.C

Haas, J. Eugene, Robert W. Kates, and Martyn J. Bowden, editors. 1977. Reconstruction

Following Disaster. Cambridge, Massachusetts: MIT Press. 331 pages.

Lizarralde Gonzalo ,2000 Reconstruction management and post-disaster low-cost housing; the case

for social reconstruction McGill University Montreal

Menoni Scira,1997. Pianificazione e incertezza. Elementi per la valutazione e la gestione dei

rischi territoriali, ed. Franco Angeli,;

Giovanni Pietro Nimis, 2009 Terre mobili, dal Belice al Friuli dall’Umbria all’Abruzzo. Collana

Saggine.2009 Donzelli Editore

Istituto Italiano di Geofisica e Vulcanologia (INGV), Web site, http://www.ingv.it, accesso 13

gennaio 2013.

Pistocchi A., Luzi L., Napolitano P. 2002 : The use of predective modeling techniques for optimal

exploitation of spatial database: a case of study in landslide, hazard mapping with expert system

–like methods – Enviromental Geology, 41;

ABSTRACT

Possible scenarios of post-earthquake, should be outlined in advance, planned for time, declining, on the one

hand the time and resources involved, elements of strategic planning and to the other side ways and actions,

elements of structural and operational planning, trying to derived from the experience gained, strategies

and guiding principles, which are not to be reinvented in every event, but that fit from time to time, to the

peculiarities of the territory affected. This could help predict the pattern of strategic actions and priorities to

protect against future events.

In this context it has been analyzed the disaster suffered by the city of Foligno, one of the areas most affected

by the earthquake in 1997.

After more than 15 years after the event, thanks to the data available today, is possible to understand with

greater completeness the results in the area. In this perspective, the cataloging of data within a geodatabase,

allowed to contain in one structure, different information, suggesting new and different analyzes. The survey

conducted using the G.I.S. as a tool, it has enabled us to open up new scenarios, preparatory to starting a real

policy of prevention of seismic risk.

PAROLE CHIAVE

GIS; ricostruzione; danno; mitigazione

AUTORE

Antonia Fratino

antonia.fratino@comune.foligno.pg.it

Architetto Comune di Foligno

PhD in Protezione Civile e Ambientale - Università Politecnica delle Marche

12 GEOmedia n°2-2015


FOCUS

GEOmedia n°2-2015 13


REPORTS

I dati sono

il petrolio

(…o l’energia

rinnovabile)

del futuro

Di Fabio Disconzi e Arturo Lorenzoni

La presente ricerca si è focalizzata sulla distribuzione dei dati territoriali in Italia attraverso i

geoportali regionali. La piattaforma sviluppata vorrebbe consentire alle parti interessate di discutere la

determinazione di buone pratiche attraverso un quadro di valutazione web-based migliorabile in modo collaborativo.

Recentemente si sta assistendo

alla nascita di

moltissimi servizi di

archiviazione e condivisione di

dati. Big-data ed open-data, un

tempo parole presenti solamente

nel vocabolario dei professionisti

del settore, stanno conquistando

l’interesse di un’ampia

platea di persone: cittadini,

amministrazioni e aziende.

Numerose sono le iniziative

che mettono a disposizione di

tutti dati riguardanti molteplici

aspetti della vita quotidiana

quali dati demografici, ambientali,

territoriali, della pubblica

amministrazione, sul turismo,

sul commercio e così via. Tra

queste iniziative la più riconosciuta

è dati.gov.it che riveste

inoltre un ruolo centrale e di

coordinamento per il nostro

Paese.

Esistono iniziative focalizzate a

distribuire ed interpretare specifici

tipi di dato. Molto interessante

è ad esempio il SIOPE

(Sistema Informativo sulle

Operazioni degli Enti Pubblici)

che mette a disposizione del

cittadino i prospetti delle entrate

ed uscite monetarie delle

pubbliche amministrazioni

(www.siope.it). Tuttavia avere

a disposizione i dati in formato

“grezzo” spesso non è sufficiente:

la maggioranza dei cittadini

non è in grado di trattarli, filtrarli,

comprenderli ed estrarre

informazioni utili. Accanto alla

cosiddetta “liberazione dei dati”

è necessario che di pari passo si

sviluppino applicazioni in grado

di ricavare informazioni di più

alto livello grazie ad una rappresentazione

più “usabile” dei

dataset. Un esempio di sfruttamento

dei dati grezzi da parte di

applicazioni per generare informazioni

facilmente comprensibili

anche dai cittadini è www.

soldipubblici.com e www.opencivitas.it/cittadini/.

Entrambi

i portali hanno l’obiettivo di

“trattare” e “condizionare” i dati

grezzi per generare report (testi,

tabelle, grafici ed immagini) di

immediata comprensione.

Lungo la stessa direzione vanno

anche i portali di archiviazione

e distribuzione dei dati georiferiti,

ovvero dati che oltre ai

classici attributi alfa-numerici

hanno a loro associato anche

informazioni geometriche,

topologiche e di posizione.

Solitamente vengono distribuiti

attraverso i geoportali. Anche

per questa categoria di dati, vi

è un crescente interesse nel renderne

più immediata la ricerca,

la comprensione ed il download.

Vi sono direttive comunitarie

e nazionali che spingono

la progettazione dei geoportali

verso una direzione comune (direttiva

INSPIRE) caratterizzata

da facilità di navigazione, di ricercabilità

del dato, di usabilità

delle interfacce, etc. direzione

che tuttavia ancora difficilmente

si nota, per lo meno da parte

degli utilizzatori dei dati.

Qual è l’efficacia dei geoportali

nel distribuire i dati geo-riferiti?

Il lavoro presentato nell’arti-

14 GEOmedia n°2-2015


REPORTS

colo, nato in seno al premio

“Energie per la Ricerca” promosso

dalla Fondazione Centro

Studi Enel e dalla Fondazione

CRUI, descrive un approccio

collaborativo adottabile per la

valutazione dei geoportali.

Dai dati all’energia

Per contestualizzare il lavoro

è opportuno descrivere come

e perché il nostro gruppo di

lavoro abbia approcciato la questione

del reperimento dei dati

territoriali geo-riferiti. I dati

geo-riferiti sono un ottimo strumento

per predisporre modelli,

scenari e strumenti di supporto

per la redazione dei piani clima

locali.

I sistemi energetici locali, nazionali

ed internazionali stanno

cambiando: da un approccio

profondamente basato sulle

fonti fossili e su grandi impianti

di produzione si sta virando verso

una produzione energetica in

cui piccoli impianti di generazione,

di piccola taglia e diffusi

nel territorio, alimentati anche a

fonti rinnovabili hanno un ruolo

centrale.

La pianificazione territoriale

quindi richiede un’attenta analisi

delle potenzialità energetiche

legate allo sviluppo delle

rinnovabili. Come è possibile

stimare l’energia potenzialmente

producibile dalle fonti

energetiche rinnovabili? Esse

a differenza delle fonti fossili

sono distribuite nel territorio e

sono strettamente legate alle caratteristiche

fisiche, climatiche

e morfologiche del territorio

stesso (esempio: l’idroelettrico si

può fare dove ci sono corsi d’acqua

e dislivelli, il fotovoltaico

dove ho superficie disponibile e

buon irraggiamento, la biomassa

dove ho economicità nella

raccolta e lavorazione, eolico

dove le caratteristiche del vento

sono migliori, e così via).

Per elaborare una stima del loro

potenziale energetico è necessario

conoscere in maniera molto

approfondita il territorio. Per

poterlo fare mediante l’utilizzo

di software ed elaboratori è

necessario che ci siano, e siano

ricercabili, i dati geo-riferiti

delle caratteristiche fisiche e

geomorfologiche del territorio.

L’articolo indaga, dal punto di

vista degli utilizzatori per analisi

energetico-ambientali, quanto

efficacemente i dati siano

attualmente condivisi in Italia

e propone una piattaforma

collaborativa di valutazione dei

geoportali il cui fine ultimo è

stimolare una loro più efficace

progettazione e usabilità.

Sistema di valutazione

come strumento di interazione

I sistemi di valutazione hanno

la capacità di riassumere in un

giudizio sintetico una prestazione

piuttosto complessa. Si pensi

al voto di laurea che sintetizza

un complesso e articolato percorso

di apprendimento in un

solo numero, alle stelle degli hotel

che in un semplice simbolo

riassumono un’ampia varietà di

caratteristiche delle strutture ricettive,

ai rating finanziari e alle

valutazioni nell’ambito dell’efficienza

energetica.

I sistemi di valutazione nei

quali l’intero meccanismo di

valutazione è pubblico e trasparente

consentono ai “valutati” di

GEOmedia n°2-2015 15


REPORTS

orientare gli sforzi al fine di migliorare

il giudizio. Conoscendo

i parametri che definiscono la

valutazione è possibile indirizzare

gli sforzi di tutti gli attori che

concorrono al processo.

Tenendo questo a mente, è stato

definito un semplice sistema

di valutazione dei geoportali,

attualmente nella sua versione

1.0, nel quale, e tramite il quale,

si vorrebbe creare una piattaforma

di dialogo tra utilizzatori di

dati (la domanda) e amministratori/sviluppatori

dei geoportali

(offerta di dati).

Struttura 1.0

La valutazione si basa su una

scala di 100 punti assegnati tramite

27 indicatori raggruppati

in 6 classi. Ogni classe mira a

valutare un particolare aspetto

del geoportale. La Tabella 1

mostra una sintesi degli aspetti

investigati. Attualmente, versione

v1.0, le classi proposte

riguardano:

- efficacia nella “ricercabilità”:

il mezzo in assoluto più comune

per distribuire i dati è la

rete; il geoportale deve essere

facilmente individuabile tramite

interrogazioni ai più comuni

motori di ricerca, le informazioni

sugli aggiornamenti e

news devono essere distribuite

velocemente;

- organizzazione geoportale: il

geoportale deve presentare una

struttura di navigazione chiara,

i servizi essenziali/basilari devono

essere presentati un modo

efficace;

- organizzazione catalogo dati:

i dati geo-riferiti devono essere

presenti, ricercabili facilmente

e facilmente scaricabili “in locale”

per effettuare agevolmente

le analisi successive;

- disponibilità dati territoriali

e ambientali: questa classe

analizza la presenza di una serie

campione di dataset territoriali/ambientali

e valuta la possibilità

di farne il download su

un pc (download in locale);

- visualizzazione dati via

browser: deve essere presente

uno strumento che permetta a

chiunque di visualizzare il dato

(anche agli utenti sprovvisti di

software GIS);

- altri servizi: questa classe analizza

la presenza di altri servizi

per rendere più utile e completo

il geoportale.

La tabella 1 illustra in dettaglio

la struttura della versione 1.0

del sistema di valutazione.

Collaborativo

La valutazione relativa alla

versione corrente si presta in

modo del tutto interattivo e

immediato a critiche, commenti

e note. Durante la visualizzazione

di una “pagella regionale” è

possibile lasciare un commento,

una segnalazione o una critica

che permette ai “moderatori”

di modificare, eventualmente,

il giudizio. Una panoramica è

disponibile alla pagina: http://

www.fabiodisconzi.com/gislocal/rating/introduzione.html

Particolarmente interessante è

la possibilità di migliorare la valutazione

ed estenderla ad altri

aspetti grazie al contributo di

professionisti, cittadini e amministrazioni

interessate all’argomento.

16 GEOmedia n°2-2015


REPORTS

L’intera struttura del sistema di

valutazione è stata progettata

ponendo particolare attenzione

alla sua scalabilità. E’ possibile

modificare un indicatore

esistente (cambiandone il

punteggio associato ad esempio),

rimuovere quelli non più

interessanti e, soprattutto aggiungerne

di nuovi all’interno

di una classe potendo anche

aggiungere intere nuove classi di

indicatori. Come mostrato nella

figura della pagina precedente,

il processo di miglioramento

del sistema di valutazione ben si

presta ad un intervento collaborativo

ed interattivo. Maggiore

sarà il numero di professionisti

che porteranno la loro esperienza,

migliore sarà l’informazione

portata in seno alla valutazione.

Cosa emerge dalla

classifica versione 1.0

L’idea descritta in questo articolo

non si esaurisce nella valutazione

fine a se stessa. L’obiettivo

principale a cui ambisce la proposta

è di sviluppare una piattaforma

nella quale far comunicare

gli attori dal lato “domanda

di dati” e i professionisti che

devono gestire tale offerta.

# Classe Titolo Punteggio

1.1 1 efficacia ricercabilità SEO Google 10

1.2 e informazione aggiornamenti

SEO Bing 5

1.3 Account twitter 1

1.4 Link da HP sito Regione 8

1.5 Newsletter 4

totale 28

2.1 2 geoportale Pagina di presentazione 5

2.2 Manuali di istruzioni / FAQ 2

2.3 Versione mobile 2

2.4 Contatti 4

2.5 Glossario 1

totale 14

3.1 3 catalogo dati Catalogo dati: organizzazione gerarchica contenuti 3

3.2 Catalogo dati: modulo di ricerca 6

3.3 Registrazione 4

3.4 Informazione veloce aggiornamento dato 1

totale 14

4.1 4 Dati ambientali / territoriali

DTM 6

4.2

Idrografia 2

4.3 Copertura Suolo CORINE 3

4.4 Qualità aria / Emissioni 2

4.5 Rete viaria 3

totale 16

5.1 5 Webgis Webgis (raggiungibile da) 4

5.2 Webgis funzioni base 1

5.3 Webgis ortofoto 1

5.4 Webgis sovrapposizione layer 2

totale 8

6.1 6 altri servizi Multilingua 3

6.2 Servizio stampa 1

6.3 Validazione W3C 6

6.4 Servizio WMS/WFS 10

totale 20

Totale punteggio: 100

Tab. 1 - Sintesi struttura valutazione (V1.0).

GEOmedia n°2-2015 17


REPORTS

Il punto di forza dei sistemi di

valutazione sta nella loro sintesi

e semplicità di comunicazione

di un obiettivo. La valutazione

pubblica e aperta a commenti,

note e integrazione desidera

essere un punto di partenza per

attivare in chi deve fornire i dati

la volontà di rendere più fruibile

il servizio. Viceversa, la capacità

di accogliere nuovi indicatori e

nuove classi, consente di sviluppare

un sistema di valutazione

sempre più completo e in grado

di descrivere da una parte i “desiderata”

degli utilizzatori dei dati

e dall’altra di soddisfarli compatibilmente

con i vincoli tecnici.

La valutazione attuale (marzo

2015) dei 19 portali regionali

italiani + 2 portali provinciali è

stata applicata in un arco temporale

che va da fine novembre

2013 a gennaio 2014; una sintesi

della stessa è disponibile online

alla pagina: http://www.fabiodisconzi.com/gislocal/rating/

sintesi.html e nella Tabella 2.

Emergono alcune considerazioni

generali tra le quali, dal punto di

vista degli autori, le più interessanti

sono:

- disomogeneità sotto svariati

aspetti: è emerso che vi è una

forte disomogeneità non solo

di tipo grafico e di “Graphical

User Interface (GUI)” ma anche

di struttura, disponibilità

ed organizzazione dei dati.

Sarebbe opportuno replicare in

tutti i geoportali, compatibilmente

con i vincoli hardware e

software, le metodologie ritenute

più utili dagli utilizzatori

e le caratteristiche di “User

Experience (UX)” percepite

come migliori (in termini di

utilizzo delle risorse hardware,

software, semplicità di navigazione,

usabilità, etc.);

- ottimo posizionamento sui

motori di ricerca: i geoportali

sono risultati essere ben

posizionati, la maggior parte

dei geoportali appare nella

prima posizione o almeno

nella prima pagina dei risultati.

Solamente Friuli Venezia

Giulia e Toscana non sono

ben posizionati nelle rispettive

pagine dei risultati “Search

Engine Result Page (SERP)”.

La questione è facilmente risolvibile

con delle modifiche

al codice sorgente delle home

page dei rispettivi geoportali;

- link da home page sito regionale:

per 10 geoportali su

21 non è stato trovato alcun

link verso un servizio di condivisione

di dati territoriali (cartografia,

geoportale o servizio

open data) dalla home page

del sito ufficiale della Regione.

L’implementazione di un link

nel sito ufficiale della Regione

è un’operazione immediata

che non richiede particolari

competenze tecniche e che dà

buona visibilità ai servizi di

distribuzione dei dati;

- registrazione obbligatoria: la

direttiva INSPIRE del 2007 e

il decreto di recepimento del

2010 sottolineano chiaramente

l’importanza di diffondere

i dati con il minor numero di

barriere possibile; implementare

un servizio di connessione

ai server in remoto (WMS)

che richieda una registrazione,

o permettere il download

dei dati solamente ad utenti

registrati e che hanno eseguito

l’accesso è un forte ostacolo

alla distribuzione dei dati;

- servizi WMS efficienti: il servizio

di condivisione dei dati

tramite servizio WMS è risultato

essere veloce e con una

buona disponibilità di dati tuttavia

il set di link per attivare

il collegamento al server non

sempre si trova facilmente;

- shapefile poco diffusi: il formato

shapefile è attualmente

il più comodo ed immediato

da utilizzare per elaborazioni

“in locale” almeno dal punto

di vista di chi ha sviluppato

la versione v1.0. Non tutti i

geoportali hanno dimostrato

la possibilità di scaricare i dati

in tale formato. Ancora meno

frequente è risultata essere la

possibilità di scaricarli immediatamente,

senza registrazione,

log-in e senza prenotarne il

download;

- dati ambientali assenti: i dati

sulla qualità dell’aria e delle

emissioni, nonostante siano

fondamentali per comprendere

la situazione ambientale ed

energetica di un territorio, non

sono stati individuati nella

maggioranza dei geoportali;

- versione per dispositivi mobile

(smartphone e tablet)

assenti: nonostante il traffico

della navigazione da dispositivi

“mobile” abbia superato il traffico

da “piattaforme desktop”

la maggior parte dei geoportali

non presenta applicazioni dedicate

o “layout responsive”;

- newsletter poco presenti

e Twitter completamente

assente: l’affermato social network

ideale per micro-aggiornamenti

non è utilizzato da

alcun geoportale; la newsletter,

18 GEOmedia n°2-2015


REPORTS

strumento ideale per aggiornare

gli analisti interessati sulla

disponibilità di nuovi dati e

servizi, è implementata solamente

per 4 geoportali;

- validazione W3C: non tutti

i geoportali sono risultati pienamente

compatibili con gli

standard W3C; 9 geoportali

hanno presentato un elevato

numero di errori (quindi la

loro corretta compatibilità con

i browser più diffusi non è

garantita);

- buona la disponibilità di

webgis: la maggior parte dei

geoportali hanno un servizio

di webgis funzionale, usabile,

che permette di sovrapporre

comodamente una moltitudine

di layer informativi senza

rallentamenti;

- carenti glossario e FAQ: la

maggior parte dei geoportali

non propone una sezione dedicata

alle domande frequenti

e non presenta un glossario dei

termini più utilizzati;

- versione multilingua assente:

la maggior parte dei geoportali

è disponibili esclusivamente in

lingua italiana.

Ringraziamenti

Si ringraziano i finanziatori della

ricerca nata in seno al premio

“Energie per la Ricerca” promosso

dalla Fondazione Centro

Studi Enel e dalla Fondazione

CRUI.

Tab. 2 - Sintesi applicazione

Classe 1 Classe 2 Classe 3 Classe 4 Classe 5 Classe 6

della versione v1.0

Efficacia Organizzazione Organizzazione Dati territoriali e Visualizzazione

ricercabilità geoportale catalogo dati ambientali

dati

Altri servizi

max 28 max 14 max 14 max 16 max 8 max 20

Abruzzo 15 11 13 0 8 16

Basilicata 15 9 13 5 8 10

Bolzano 18 5 13 8 8 19

Calabria 23 9 10 9 8 9

Campania 15 9 11 8 8 10

Emilia Romagna 15 12 9 8 8 14

F V G 8 11 10 8 8 19

Lazio 15 7 7 0 0 6

Liguria 23 8 13 8 8 10

Lombardia 19 7 13 8 8 10

Marche 27 4 9 0 7 9

Molise 19 9 3 6 8 10

Piemonte 23 7 13 10 8 19

Puglia 23 6 7 6 8 10

Sardegna 23 9 7 14 8 17

Sicilia 23 11 13 8 8 16

Toscana 0 11 13 11 8 16

Trento 23 11 9 8 8 10

Umbria 15 11 13 0 8 10

Valle d’Aosta 23 5 9 0 8 7

Veneto 19 6 13 16 6 16

PAROLE CHIAVE

Dati territorial; analisi web; geoportali; open data

ABSTRACT

Public, freely available, searchable and updated datasets might support

citizens, professionals and analysts in understanding several aspect of the

life: from demographics trends of a nation to renewable energy potential

of specific areas. The focus of the research has been to make a portrait on

how territorial data are distributed in Italy by regional geoportals. The

developed platform would like to enable stakeholders to discuss the assessment

and to enhance the evaluation framework in a collaborative and

web-based way.

AUTORE

Arturo Lorenzoni

arturo.lorenzoni@unipd.it

Professore di Economia dell'energia, Università di Padova

Fabio Disconzi

fabio.disconzi@unipd.it

Dipartimento di Ingegneria Industriale dell’Università di

Padova

GEOmedia n°2-2015 19


REPORTS

Activity-Based Intelligence

prevedere il futuro osservando il presente

con gli strumenti Hexagon Geospatial

Di Massimo Zotti

La conoscenza delle attività

umane sulla superficie terrestre,

ottenuta mediante l’analisi di dati

di osservazione della Terra ed altre

informazioni geospaziali, è vitale

per la pianificazione e l'esecuzione

di qualsiasi azione militare, per

finalità di peace keeping o in caso di

emergenze umanitarie.

L’

analisi e il monitoraggio

del territorio attraverso

l’uso di tecniche

di rilevamento fotografico (prima)

e di telerilevamento da satellite

(dopo) è una pratica che

nasce nell’ambito delle attività

di intelligence militare.

In tutti i libri di telerilevamento

si citano i rilievi fatti con fotocamere

installate su uccelli o

palloni per scopi militari come

i primi esempi di osservazione

della Terra dall’alto. L’ambito

militare da sempre rappresenta

il principale mercato del segmento

spaziale, lungo tutta la

catena del valore che va dalla

costruzione di nuovi satelliti

di osservazione della terra fino

allo sviluppo di tecniche di

elaborazione e condivisione di

contenuti informativi geospaziali.

Oggigiorno i nuovi scenari

di sicurezza internazionale

richiedono capacità di analisi

continua di aree vaste dislocate

in zone remote dove non sono

disponibili dati cartografici

aggiornati né tantomeno è possibile

effettuare rilievi diretti

tradizionali.

L’evoluzione

dell’intelligence

geospaziale: informazioni

più precise e

sistemi interoperabili

In questo contesto l’Intelligence

Geospaziale

(wikipedia:GEOINT) assume

un ruolo di primo piano in

tutte le fasi dell’attività di produzione

di informazione dalla

raccolta dei dati, alla loro gestione

e rappresentazione, fino

alla loro condivisione.

Tipicamente il processo di In-

20 GEOmedia n°2-2015


REPORTS

telligence Geospaziale si basa su

fonti informative multi-sorgente

raccogliendo e integrando le

informazioni dalle diverse fonti

disponibili che siano militari

e/o commerciali. Immagini,

dati e mappe acquisiti da piattaforme

satellitari, aeree, veicoli

a pilotaggio remoto (droni)

vanno sapientemente integrati

con cartografie, mappe informazioni

censuarie, dati GPS e/o

altri dati discreti che hanno una

localizzazione sulla terra.

L’intelligence Geospaziale deve

essere fondata, inoltre, su infrastrutture

di dati geospaziali

che abbiano le caratteristiche

di interoperabilità, sicurezza,

distribuzione on-the-fly dei dati

e dei risultati delle elaborazioni

in coerenza con il processo

C4ISR (Comando, Controllo,

Comunicazione, Computer,

Intelligence, Sorveglianza e Ricognizione).

Questo processo, che oggi

sempre più fa i conti con le

problematiche legate ai big data

geospaziali, prevede:

4Fonti multiple di dati distribuite

(nello spazio e nel tempo)

che devono poter essere

integrate al volo via Web;

4L’accessibilità, per comandi

e strateghi militari, a tutti i

dati spaziali ed i servizi disponibili

nell’infrastruttura

C4ISR, in maniera dinamica

e nel rispetto delle procedure

di classificazione e sicurezza

delle informazioni;

4L’integrazione delle informazioni

di carattere generale

disponibili a livello militare

(stato dei luoghi, target, ecc.)

tra i sistemi di comando e

controllo nelle missioni (aerei,

navi, mezzi di terra);

4La disponibilità di strumenti

avanzati di rappresentazione

e visualizzazione grafica che

permettono di realizzare una

tipica mappa operativa basandosi

su dati provenienti

da servizi web multipli e distribuiti;

4La collaborazione, senza soluzione

di continuità, dei produttori

di dati spaziali per le

funzioni C4ISR con gli utenti,

poiché tutti i membri di una

rete distribuita, come quella in

esame, sono nello stesso tempo

utenti e produttori.

Tutte queste fonti informative,

sempre più frequentemente,

rendono disponibili dati quadridimensionali

che possono incrementare

sensibilmente da un

lato la precisione geometrica e

dall’altro la capacità di discriminare

oggetti ed eventi al suolo.

La valorizzazione del contenuto

informativo tridimensionale dei

dati satellitari di osservazione

della terra è l’obiettivo del progetto

3D IMINT (http://www.

planetek.it/3Dimint), recentemente

presentato al convegno

AFCEA “Soluzioni Globali

per la Difesa, Intelligence and

Security” (di cui abbiamo dato

notizia sul nostro sito: www.

geoforall.it/fu86). In questo

progetto si sperimentano innovative

metodologie IMINT

(IMagery INTelligence) basate

sulla fusione di dati ottici e radar

in ambiente tridimensionale

in grado di migliorare significativamente

la geolocalizzazione

ed il riconoscimento preciso degli

obiettivi, e la progettazione

di una infrastruttura di dati geospaziali

in grado di supportare

l’intero processo di intelligence

dall’accesso a fonti informative

distribuite fino alla condivisione

dei risultati adottando standard

OGC.

L’Activity-Based

Intelligence

Negli ultimi anni la sfida da

vincere per le Intelligence dei

vari Stati è quella di riuscire a

combinare dati diversi provenienti

da fonti diverse di rilevamento,

allo scopo di ottenere

una visione più completa ed

efficace di una determinata situazione

o di un determinato

territorio. Questa nuova tendenza

ha portato anche ad un

innovativo modo di concepire le

attività di intelligence.

La “disciplina” che meglio interpreta

tal esigenza è l’Activity-

Based Intelligence (ABI). L’ABI

supera l’osservazione, in maniera

statica, di un determinato

oggetto o area di riferimento,

e prevede un nuovo modo di

praticare intelligence, riuscendo

GEOmedia n°2-2015 21


REPORTS

ad unire informazioni ottenute in

maniera dinamica non solo da piattaforme

per il telerilevamento ma

anche da fonti non convenzionali.

Questo altro non vuol dire che, se

per osservare una situazione prima

ci limitavamo alla secca interpretazione

dei dati giuntici in maniera

ferma rispetto al tempo, ovvero

“istante per istante”, senza riuscire a

comprendere magari l’interazione e

il collegamento tra diverse situazioni

in istanti diversi di tempo, adesso

siamo in grado di interpretare i dati

con una visione più ampia rendendoli

“fluidi” rispetto al tempo,

cioè dando loro un significato di

sequenzialità e continuità. Questo

nuovo approccio consente di fare

stime probabilistiche su ciò che può

accadere nel futuro immediatamente

prossimo anche per cause che

possono apparire completamente distinte

tra loro. La possibilità di fare

ipotesi su eventi futuri è di enorme

rilievo strategico-tattico in quanto

può permettere di ottimizzare i

tempi di ricerca in una determinata

area, ed indirizzare gli interventi per

affrontare eventuali emergenze che

si è in grado quanto meno di ipotizzare:

insomma aiutare gli operatori

in contesti di tipo sia strategico che

tattico ad essere sempre più tempestivi

per risolvere problemi in maniera

efficace.

Gli strumenti tecnologici che supportano

questo balzo in avanti

delle intelligence mondiali fanno

parte dell’offerta tecnologica di

Hexagon Geospatial (www.hexagongeospatial.com)

di cui Planetek

Italia è master dealer per l’Italia e

centro qualificato per il supporto

tecnico e la formazione.

Realizzati in conformità agli standard

internazionali, come quelli

definiti dall’Open Geospatial Consortium

(OCG®), consentono agli utenti di accedere ad una vasta gamma di dati e

processi geospaziali, inclusa la gestione di flussi video con il Motion Video Analyst

Professional.

I prodotti che compongono il Power Portfolio di Hexagon Geospatial, come ERDAS

IMAGINE, suite software completa di elaborazione di dati geospaziali, consentono

la gestione contemporanea di un’ampia gamma di fonti informative per l’intelligence

quali immagini satellitari ottiche e RADAR, foto aeree, dati e flussi video da droni

(UAV), modelli tridimensionali del suolo, nuvole di punti ad altissima densità ecc., per

poi analizzarli e trasformarli in informazione geospaziale accurata.

Il Power Portfolio di Hexagon Geospatial è una suite completa di strumenti software

dedicati alle applicazioni del telerilevamento, della fotogrammetria, dei GIS e della

cartografia, ed è organizzato in tre categorie: Producer, Provider e Platform, per semplificare

l’offerta tecnologica. Maggiori dettagli sul Power Portfolio sono disponibili

all’indirizzo www.geoforall.it/qc4a.

In particolare la Producer Suite aiuta a raccogliere, elaborare, analizzare e comprendere

dati geospaziali grezzi, per produrre informazioni utili grazie agli strumenti desktop

come ERDAS Imagine e GeoMedia. Di particolare rilievo è il Motion Video Analyst

Professional che consente di analizzare in maniera georiferita i flussi video, acquisiti da

camere aviotrasportate da elicotteri o droni, in un ambiente GIS integrato dove oltre

ai video possono essere visualizzati contestualmente altre tipologie di dati geografici.

E’ sufficiente che i frame dello streaming video contengano un metadato di telemetria,

utile a consentirne la corretta georeferenziazione, ed il Motion Video Analyst Professional

offre un ambiente nel quale il flusso video, visualizzato in una finestra dedicata,

è sincronizzato con un ambiente GIS, nel quale le stesse immagini sono visualizzate

georiferite e, quindi, fuse con tutto il contesto cartografico. In questo modo è possibile

fondere le informazioni derivanti dai video acquisiti da droni con altri dati geografici,

quali immagini satellitari o aeree,

dati vettoriali, mappe e modelli digitali

altimetrici in un’unica finestra

di visualizzazione. Questa fusione di

dati georiferiti consente di ricostruire

pienamente il contesto geografico

dell’area ripresa dal video ed avere la

massima consapevolezza situazionale

dello scenario esaminato.

PAROLE CHIAVE

Telerilevamento; monitoraggio; intelligence geospaziale; georeferenziazione

ABSTRACT

The intelligence of human activities on the earth's surface, obtained through the analysis of earth observation

data and other geospatial information, is vital for the planning and execution of any military

action, for peacekeeping or for humanitarian emergencies. The success of these actions largely depends

on the ability to analyze timely data from multiple sources. However, the proliferation of new sources

of intelligence in a Geospatial big data scenario increasingly complicate the analysis of such activities

by human analysts. Modern technologies solve these problems by enabling the Activity Based Intelligence,

a methodology that improves the efficiency and timeliness of intelligence through the analysis

of historical, current and future activity, to identify patterns, trends and relationships hidden in large

data collections from different sources.

AUTORE

Massimo Zotti - zotti@planetek.it

Planetek Italia s.r.l.

www.planetek.it

22 GEOmedia n°2-2015


REPORTS

GEOMAX

works when you do

Anche nelle condizioni atmosferiche più avverse,

GeoMax fornisce le migliori soluzioni

prezzo-prestazioni, works when you do.

info@geomax-positioning.it - www.geomax-positioning.it

GEOmedia n°2-2015 23


MERCATO

Il tablet multi-sensore di Eyesmap

per il rilievo 3D

Microgeo presenta il tablet multisensore di Eyesmap per il

rilievo 3D, un dispositivo portatile completo e facile da usare,

potente generatore automatico di nuvole di punti 3D, dotato di

camere HR, scanner a corto raggio, sensore IMU e GPS.

Campi di applicazione del tablet multisensore:

Architettura, Archeologia, Ingegneria Civile, Geologia, Rilievi,

Piattaforme petrolifere, Arte (restauri), Scene del crimine, Incidenti

automobilistici, Area medica / scansioni su corpi, Manifattura,

Reverse engineering, Game industry, Stampa 3d, Moda,

Biologia, Area forestale.

Funzionalità:

• Possibilità di effettuare rilievi sia in spazi aperti che in spazi chiusi

• Possono essere misurati oggetti piccoli, medi e grandi

• Generazione di nuvole di punti in movimento

• Misurazione di punti distanze e superfici direttamente tramite

lo schermo

• Grande varietà di importazione e esportazione dei file per i sistemi CAD

• Acquisizione e processo di dati 3D in un dispositivo compatto

• Il sistema operativo windows 8.1 con il processore I7 lo rendono

performante come un potente laptop

(Fonte www.microgeo.it)

Rilasciato il supporto

INSPIRE per la Suite

OpenGeo

Con la disponibilità dell'ultimo

aggiornamento OpenGeo Suite

alla versione 4.6, oltre ai miglioramenti

delle prestazioni per il

principale software open source

geospaziale, i clienti europei trovano due novità fondamentali

per pubblicare servizi INSPIRE.

OpenGeo Suite 4.6 aggiunge il supporto per l'estensione Geo-

Server INSPIRE consentendo di realizzare i metadati necessari

per essere distribuiti con i documenti GetCapabilities dei

Web Map Service (WMS) e dei Web Feature Service (WFS).

Questi metadati aggiuntivi garantiscono la conformità con le

viste INSPIRE e le specifiche dei Download Service.

Ulteriori informazioni possono essere trovate nella documentazione

OpenGeo Suite INSPIRE al seguente link:

http://suite.opengeo.org/opengeo-docs/geoserver/extensions/

inspire/index.html

La seconda novità è l'estensione app-schema GeoServer che

consente la mappatura delle informazioni per gli schemi applicativi

predefiniti. Questa estensione viene utilizzata per creare

il Geographic Markup Language (GML) compliant-INSPIRE

in uscita.

Boundless inoltre fornisce il supporto per le estensioni di IN-

SPIRE e app-schema come parte della OpenGeo Suite Enterprise.

Per maggiori informazioni ci si può rivolgere a info@

geobeyond.it

(Fonte OpenGeo)

24 GEOmedia n°2-2015


MERCATO

L’ESA proverà a mappare la superficie del

mare dalla stazione spaziale internazionale

Un nuovo progetto che coinvolge il montaggio di uno strumento

sulla Stazione Spaziale Internazionale e l’uso particolare dei segnali

dai satelliti GNSS per la navigazione, potrebbe fornire misure di

altezza della superficie del mare e informazioni sulle caratteristiche

relative alle correnti oceaniche,

con beneficio della scienza e delle

previsioni oceaniche.

La stazione spaziale orbita attorno

alla Terra 16 volte al giorno a

soli 400 km di distanza, offrendo

anche una piattaforma da cui

misurare alcune variabili legate al

cambiamento climatico. Una call

ESA partita nel 2011 ha invitato

a presentare proposte per effettuare

osservazione della Terra dalla

stazione spaziale e al termine

dell’esame della varie proposte

è stato avviato un ulteriore sviluppo

denominato missione GEROSS-ISS.

Anche se ancora in fase concettuale attraverso studi di fattibilità,

l'obiettivo primario è quello di lanciare l'esperimento verso

la fine del 2019, portando alla stazione spaziale un strumento di

osservazione che nel termine GEROS-ISS include riflettometria

GNSS, radio occultazione e scatterometria.

I satelliti GPS e Galileo inviano un flusso continuo di segnali a

microonde verso la Terra per la navigazione, ma questi segnali

rimbalzano sulla superficie e ritornano nello spazio. L'idea base è

quella di installare una antenna sulla Stazione Spaziale in grado di

catturare i segnali che si riflettono dalla Terra. Conoscendo anche

i dati inviati dai satelliti GNSS si possono effettuare calcoli per

misurare l'altezza della superficie del mare, e per misurare le onde

o "rugosità" che a loro volta

possono essere utilizzate per

calcolare la velocità dei venti di

superficie.

Il potenziale di questa riflettometria

GNSS è di mappare

l'altezza degli oceani su scale

di 10-100 km o più in meno

di quattro giorni. Gli altimetri

satellitari attuali, in confronto,

offrono mappe globali su scale

di circa 80 km, che sono prodotti

da più set di dati ogni 10

giorni.

Il concetto originale in realtà

risale a oltre 20 anni fa e, maturato notevolmente attraverso numerosi

studi e campagne, non è mai stato debitamente testato

dallo spazio. Ora il test sarà possibile, attraverso la Stazione Spaziale

Internazionale per la quale l’ESA ha avviato un particolare

programma di studi generali.

(Fonte ESA)

GEOmedia n°1-2015 25


La Catalogna

nel nord est della Spagna

L’immagine satellitare è una acquisizione radar che mostra parte

della Catalogna nel nord est della Spagna ed include la città di Barcellona

(sulla destra), in cui si trova uno dei più importanti porti d’Europa.

Da un punto di vista geografico questa regione costiera presenta un doppio sistema

di catene montuose inframmezzate da pianure. Mentre alcune aree sono protette,

gran parte di questo territorio ha subito un processo di degradazione, principalmente

a causa dello sviluppo urbano incontrollato, di discariche di attività mineraria e di rifiuti.

Al centro e verso la sinistra nell’immagine possiamo notare riflessioni radar

di tonalità brillante che sono originate dalla città di Lleida. Ad ovest di questa

città passa il confine tra le comunità autonome della Catalogna e dell’Aragona.

L’area di colore blue-verde indica terreni coltivati nel plateau di quest’area,

dove appaiono mature le coltivazioni di grano, orzo, frutta e verdure.

A sud di Lleida è possibile riconoscere parte del fiume Ebro, il secondo fiume più

lungo di tutta la Penisola Iberica. La serpentina che l’acqua di colore scuro forma

lungo il paesaggio è in buona parte dovuta alla presenza di dighe che regolano il

flusso dell’acqua. Il corso del fiume prosegue verso sud ed infine sfocia nel Mediterraneo

in corrispondenza del Delta dell’Ebro (non visibile nell’immagine).

Lungo la parte alta dell’immagine si possono osservare le colline ai piedi

della catena montuosa dei Pirenei, note con il nome di Pre-Pirenei.

L’immagine è stata catturata dal radar del satellite

Sentinel-1A il 29 Gennaio 2015.

Crediti: ESA http://www.esa.int Image of the week:

"Catalan coast"Traduzione a cura

di Gianluca Pititto


REPORTS

Analisi della componente 3D

nell'applicazione di vincoli urbanistici

di Andrea Maffeis e Andrea Caldiroli

Alcuni vincoli urbanistici interessano

principalmente la componente

altimetrica dell’edificato. Grazie a

strumenti di analisi spaziale tipici

dei GIS ed a dati altimetrici accurati,

nel contesto del Comune di Bergamo

è stato possibile sperimentare

metodologie innovative di verifica e di

analisi per quanto riguarda la tutela

del paesaggio e l’individuazione di

Fig. 1 – Planimetria dei coni panoramici.

ostacoli per la navigazione aerea.

Il presente lavoro ha l’obiettivo

di illustrare uno strumento finalizzato

a supportare gli uffici

tecnici durante la fase di prima

applicazione di vincoli di natura

ambientale nonché dei vincoli di

carattere edilizio - urbanistico derivanti

dalla presenza sul territorio

di due grandi polarità di differente

origine e caratteristiche: la presenza

del nucleo storico di Città Alta

che ha determinato l’emissione da

parte della competente sovrintendenza

ai beni culturali di decreti

di vincolo finalizzati alla tutela

visiva dello skyline e la presenza

dell’aeroporto internazionale il

Caravaggio di Orio al Serio il

quale ha comportato una serie di

vincoli definiti ENAC al fine di

evitare potenziali ostacoli fisici alla

navigazione.

Entrambi i vincoli presentano

una componente altimetrica la

cui valutazione risulta complessa,

scarsamente correlata all’andamento

orografico del territorio ma

soprattutto poco tangibile dalla

planimetrie di vincolo classiche

la cui restituzione è di carattere

bi-dimesionale. Il lavoro, grazie

all’utilizzo di dati digitali altimetrici

(DDEM e DDSM) propone

l’applicazione di una metodologia

originale basata sull’utilizzo di tecniche

di spatial analysis tipiche dei

GIS; la finalità è quella di mettere

in luce aspetti potenzialmente

critici nell’applicazione dei vincoli

edilizio-urbanistici.

Il lavoro è pertanto articolato

lungo due argomenti di indagine

aventi nella componente tridimensionale

il punto di tangenza;

il seguente articolo, da un lato

affronta l’analisi visiva a partire

da uno specifico punto di osservazione

(valutazione degli impatti

degli interventi interni ai coni

panoramici), dall’altro determina

le eccedenze altimetriche

degli edifici esistenti rispetto al

limite di edificazione in altezza e

conseguentemente permette di

ricavare la potenzialità residua di

elevazione. I Sistemi Informativi

Territoriali (SIT) sono oggi diventati

strumenti fondamentali per

una corretta gestione del territorio

nell’ambito della pianificazione

urbanistica. Attraverso il loro utilizzo

è infatti possibile analizzare

determinate ricadute derivanti da

vincoli normativi la cui applicazione

comporta limitazioni nella

prassi quotidiana di governo del

territorio che gli enti locali sono

chiamati ad esercitare.

Le peculiarità

orografiche del

territorio comunale

Un aspetto fondamentale sul

quale deve essere focalizzata l’attenzione

per le analisi oggetto del

presente articolo è rappresentato

dalla particolare ed articolata

orografia che caratterizza il territorio

comunale, in quanto i

vincoli oggetto di elaborazione

si articolano essenzialmente sulla

componente altimetrica. La città

di Bergamo sorge ai piedi delle

prealpi orobiche, allo sbocco della

28 GEOmedia n°2-2015


REPORTS

Fig. 2 – Esempio di un profilo

altimetrico - linea di vista.

valle Seriana e della valle Brembana,

nel territorio dell’alta pianura

lombarda; il territorio comunale

è diviso in due zone chiaramente

distinte tra loro: la zona collinare

che comprende Città Alta e la zona

pianeggiante corrispondente alla

città bassa. L’estensione territoriale

limitata presenta una variazione

altimetrica di notevole importanza,

infatti si passa dai 200 m slm della

pianura a circa 350 m slm di Città

Alta, fino agli oltre 600 m slm dei

colli; la peculiarità di questo andamento

altimetrico è determinata

dal fatto che ci si trova all’interno

di un contesto cittadino prevalentemente

urbanizzato. Tale aspetto

rappresenta anche la particolarità

dello skyline cittadino e rappresenta

l’unicità e la riconoscibilità della città

di Bergamo nel contesto regionale,

nazionale ed internazionale.

Vincoli urbanistici e rappresentazione

cartografica:

coni panoramici

Il codice dei beni culturali definisce

il paesaggio quale territorio

espressivo di identità, il cui carattere

deriva dall’azione di fattori

naturali, umani e dalle loro interrelazioni.

Ai fini della tutela visiva

e quindi paesaggistica del nucleo

storico di Città Alta, tra il 1957 ed

il 1965, la competente sovrintendenza

per i beni culturali

ha emesso undici decreti

di vincolo dichiarando il

“notevole interesse pubblico”

della testimonianza

storica della città alta. In

relazione alla normativa

di riferimento qualunque

istanza edilizia ricadente

all’interno di tali ambiti viene

sottoposta a valutazione

paesistica. Nella strumentazione

urbanistica comunale vigente

Fig. 3 – Cono

panoramico,

skyline e campo

di visibilità

(viewshed).

i comunemente detti “coni panoramici”

sono indicati con forma

geometrica nella quale i vertici del

triangolo corrispondono rispettivamente

al punto della visuale da

tutelare e agli estremi dell’orizzonte

visivo.

I decreti di vincolo emessi sotto

forma di descrizione degli aspetti

visivi da tutelare hanno trovato

riscontro con le tecniche di rappresentazione

tipiche del periodo predigitale.

Con il passare del tempo

la logica applicativa di tali vincoli

è andata ad inserirsi in un contesto

di carattere edilizio amministrativo

anziché rispecchiare il pensiero di

valorizzazione e tutela dell’interesse

pubblico (di natura visiva) espresso

dal sovrintendente con decreto.

Nonostante il pensiero del pianificatore

fosse in sintonia con la

natura del vincolo, ovvero secondo

un’accezione intrinsecamente

tridimensionale, la trasposizione

in termini cartografici è risultata

limitativa rispetto alla logica dello

stesso. Questo ha determinato durante

gli anni di applicazione una

contrazione concettuale degli aspetti

caratterizzanti la tutela visiva.

Lungo questa riflessione è nata la

necessità di ricercare un nuovo approccio

metodologico che potesse,

da un lato effettuare analisi di visibilità

a partire da qualunque punto

sul territorio comunale rispetto

alla centralità di città alta, dall’altro

di verificare gli esiti applicativi dei

vincoli visivi emessi oltre 60 anni

orsono.

Vincoli urbanistici e rappresentazione

cartografica: pericoli

e ostacoli alla

navigazione aerea

L’art. 707 del Codice della

Navigazione Area demanda

all’ente competente ENAC (Ente

Nazionale per l’aviazione civile)

l’individuazione delle zone da

sottoporre a vincolo nelle aree

limitrofe agli aeroporti, stabilendo

limitazioni di natura edilizio

- urbanistico affinchè vengano

ridotti ed evitati eventuali ostacoli

e potenziali pericoli per la navigazione

aerea. Il territorio comunale

è interessato nella sua totalità da

tali limitazioni. Nello specifico il

tema analizzato riguarda il limite

all’edificazione in altezza imposto

da ENAC secondo rigide regole

comuni a tutti gli aeroporti

italiani. L’obiettivo, ovviamente

GEOmedia n°2-2015 29


REPORTS

condivisibile, è quello di garantire

il corretto svolgimento dell’attività

aeroportuale. La particolare

orografia del territorio comunale

ha determinato la necessità di

effettuare puntuali verifiche rispetto

allo stato reale dei luoghi e

definire le criticità derivanti da tali

limitazioni altimetriche.

A novembre 2013 ENAC ha

trasmesso al Comune di Bergamo

le planimetrie in cui erano individuate

le zone sottoposte a limitazione

relativamente agli ostacoli

ed ai potenziali pericoli per la

sicurezza della navigazione aerea

dell’aeroporto di Orio al Serio.

Le planimetrie riportano le varie

aree di vincolo: superfici di salita

al decollo, di avvicinamento, di

transizione, superfici orizzontale

interna, conica e orizzontale esterna.

La cartografia individuava,

inoltre, alcuni ambiti la cui quota

altimetrica del terreno costituisce

una eccezione in quanto eccedente

rispetto alla superficie del

vincolo stesso. Per quanto riguarda

il comune di Bergamo si tratta

di quelle aree la cui quota del

piano di campagna risulta essere

maggiore della superficie orizzontale

interna (274.95 m slm),

della superficie orizzontale esterna

(374.95 m slm) oppure di quella

conica (274.95 – 374.95 m slm).

Complessivamente il territorio interessato

era stimato in oltre 440

ettari di cui 25% appartenente al

centro edificato.

Le metodologie di

analisi spaziale

applicate ai due

casi di studio

Nei primi mesi del 2013 il Comune

di Bergamo ha commissionato

un rilievo LIDAR al fine di

ottenere il Modello Digitale del

Terreno e delle Superfici (DTM e

DSM). Il rilievo è stato effettuato

su tutto il territorio comunale

(circa 40 Kmq) con il sensore

aviotrasportato ALTM GEMINI

di Optech e caratterizzato da una

densità media di 2 punti per metro

quadro. Oltre ai dati delle quote

ellissoidiche e ortometriche del

DTM e del DSM sotto forma di

nuvola di punti, sono stati consegnati

anche i dati delle sole quote

ortometriche sotto forma di grigliati

a maglia regolare (passo della

griglia 1 metro). Si può quindi

parlare di DDTM (Dense Digital

Terrain Model) e DDSM (Dense

Digital Surface Model) conformi

al livello 6 delle “Linee guida Ortoimmagini

1:10000 e modelli

altimetrici”. Il DDSM, il DDSM

e la nuvola di punti LIDAR sono

utilizzati correntemente dall’Ufficio

SIT all’interno dei tipici applicativi

GIS desktop di ESRI.

Fig. 4 – Modello digitale delle superfici

di vincolo del Comune di Bergamo

e planimetria ENAC.

Nel caso dei “coni panoramici” si

è trattato di effettuare delle analisi

di visibilità per quelle zone della

città sottoposte ai decreti di vincolo;

per ognuno dei coni panoramici

vincolati è stato individuato

il punto di osservazione e sono

state fatte delle analisi per verificare

la visibilità della porzione di

territorio compresa tra il punto

di osservazione e gli oggetti individuati

dal vincolo quali estremi

della visuale da tutelare.

Sono stati utilizzati due strumenti

del 3D Analyst in grado di fornire

informazioni, che per certi versi

possiamo ritenere complementari.

In primo luogo con lo strumento

“Skyline” abbiamo ottenuto, per

ogni punto di osservazione, la

polilinea che rappresenta la linea

dell’orizzonte visibile, o, detto

altrimenti la linea congiungente

gli oggetti più distanti visibili dal

punto di osservazione. È stato

quindi possibile raffrontare la

rappresentazione planimetrica dei

vincoli con gli skyline generati sul

modello altimetrico e verificare

se i due punti agli estremi del

vincolo tracciato risultano visibili

o meno. Successivamente con lo

strumento “Viewshed” sono state

identificate, per ogni punto di vista,

le porzioni di territorio visibili

e quelle nascoste da altri elementi.

In questo modo è immediato

percepire come di tutta l’area

ricompresa nel cono panoramico

e sottoposta a vincolo, solo una

piccola parte (quella visibile) può

essere considerata da tutelare particolarmente.

Lo stesso approccio analitico può

essere utilizzato sia per analizzare

ulteriori visuali di pregio della

città non ancora vincolate, sia

per fare delle simulazioni al fine

di verificare l’impatto visivo di

nuove costruzioni.

Per quanto riguarda invece

i pericoli e gli ostacoli alla

navigazione aerea, nelle planimetrie

predisposte da ENAC

per l’individuazione delle aree

30 GEOmedia n°1-2015


REPORTS

Fig. 5 – Esempio di profilo altimetrico lungo il DDTM, DDSM e la superficie di vincolo.

foranti sono state utilizzate curve

di livello orografiche ottenute

dal DEM NASA STRM (passo

della griglia 90-95 metri); inoltre

viene dichiarato che “i contorni

delle aree dell’orografia forante la

superficie conica seguono l’andamento

variabile della medesima

con una precisione soggetta ad

un errore dato da una differenza

in elevazione fino a circa 20 m”.

Per questo, per i motivi indicati

nel paragrafo precedente, per le

ricadute urbanistiche a cui sono

sottoposte le aree di vincolo e disponendo

di un recente DDTM/

DDSM, si è ritenuto opportuno

tentare di ridefinire i contorni

delle “aree dell’orografia foranti

le superfici di vincolo” utilizzando

una differente metodologia.

Inoltre si volevano individuare

quelle edificazioni esistenti che già

superano le limitazioni imposte

e conseguentemente delineare le

potenzialità edificatorie, in termini

di elevazione (come per il caso

di ampliamenti o nuove costruzioni)

nelle differenti porzioni del

territorio.

Il primo passo è stato quello di

generare un modello digitale a

griglia regolare delle superfici di

vincolo, a partire dalle planimetrie

proposte da ENAC. Quindi

sono stati creati dei raster per ogni

tipologia di superficie di vincolo

ricadente nel territorio comunale

e successivamente mosaicati. La

risoluzione spaziale e l’estensione

dei raster è stata impostata coincidente

a quella del DDTM e del

DDSM comunali.

Per le superfici orizzontali (esterna

ed interna) è stato sufficiente

attribuire il valore della quota di

vincolo ad ogni cella dei raster.

Per le superfici di salita al decollo

e di transizione, essendo dei piani

inclinati, si è proceduto interpolando,

tramite una regressione

lineare del primo ordine, i valori

iniziali e finali delle quote di

vincolo. Mentre per la superficie

conica, non essendo possibile

calcolare i valori del raster analiticamente,

è stata fatta un’interpolazione

spline utilizzando i

valori di quota della superficie di

vincolo lungo le curve di isolivello

tracciate da ENAC.

Una volta generato il modello digitale

delle superfici di vincolo, è

stato immediato confrontarlo con

il DDTM ottenendo la mappa

delle aree orograficamente foranti

(celle del raster in cui la differenza

tra superficie di vincolo e DDTM

è minore di zero), e osservare

come fosse significativamente

diversa da quella proposta da

ENAC.

In modo del tutto simile, utilizzando

il DDSM, è stato possibile

ottenere anche la mappa dell’edificato

che già oggi supera in altezza

le superfici di vincolo e specularmente

l’indicazione puntuale

della potenzialità edificatoria.

Conclusioni

L’analisi della componente altimetrica

nei vari aspetti del governo

del territorio assume oggi un

ruolo di primaria importanza che

deve essere affrontato con metodologie

adeguate al fine di evitare

semplicistiche approssimazioni.

Gli strumenti GIS e dati altimetrici

adeguati alla scala locale,

hanno permesso ai tecnici del

Comune di Bergamo di effettuare

opportune verifiche rispetto alla

vincolistica esistente evidenziando

cosi le città derivanti da incoerenze

tra lo stato reale dei luoghi

e le limitazioni derivanti dalla

normativa sovraordinata. Infine,

tali elaborazioni hanno permesso

di aprire un confronto con gli enti

competenti al fine di trovare soluzioni

condivise che garantiscano

il giusto equilibrio tra le esigenze

di tutela ed una corretta gestione

del territorio da parte degli enti

locali. Sarebbe auspicabile che tali

valutazioni venissero fatte preventivamente

l’emissione dei vincoli

in modo tale da non incorrere in

spiacevoli situazioni soprattutto

per i tecnici che si trovano a dover

applicare limitazioni talvolta poco

realistiche rispetto al contesto nel

quale si opera.

Ringraziamenti

Gli autori desiderano ringraziare

Gianpaolo Ranica e Sergio Appiani

della Direzione Pianificazione Urbanistica

per il prezioso contributo.

RIFERIMENTI

Decreto legislativo 22-1-2004, n. 42 - Codice dei beni culturali

e del paesaggio.

Decreto legislativo 15-3-2006, n. 151 - Codice della navigazione

aerea.

Comitato per le regole tecniche sui dati territoriali delle

Pubbliche Amministrazioni - “Linee guida Ortoimmagini

1:10000 e modelli altimetrici”

PAROLE CHIAVE

Pianificazione urbanistica; 3D; DTM; vincoli; analisi

visibilità; navigazione aerea

ABSTRACT

Some planning restrictions affecting mainly the altitude component

of the buildings. In the context of Comune di Bergamo,

using GIS spatial analyst tools and accurate elevation

data, were studied innovative methods of analysis in the field

of landscape protection and air navigation obstacles.

AUTORE

Andrea Maffeis

andreamaffeis@comune.bergamo.it

Andrea Caldiroli

acaldiroli@comune.bg.it

Comune di Bergamo

GEOmedia n°2-2015 31


REPORTS

La mappa del tesoro

per l'auto autonoma

di Massimiliano Arcieri e Andrea Soncin

Il sogno di ogni cartografo è da

sempre quello di creare la mappa

perfetta, in grado di rappresentare

fedelmente il territorio attorno a

noi. Ma, come tanti nel settore

affermano, al centro di tale sforzo

c’è una grande contraddizione:

quanto più una mappa si avvicina

alla realtà, tanto meno risulterà

essere utile.

Le Mappe sono delle rappresentazioni

della realtà

con la forzata necessità

di semplificarla; chi le utilizza

non deve necessariamente

conoscere ogni centimetro del

territorio per andare da un generico

punto A ad un altro B.

Se al bisogno di semplificazione

aggiungiamo i limiti di gestione

del cervello umano che non

sarebbe in grado di elaborare

l’enorme quantità di informazioni

ipoteticamente fornita,

diventa abbastanza chiaro come

progettare una mappa tradizionale.

Ma cosa accade se la mappa

non viene più concepita per

degli esseri umani ma per delle

macchine, come ad esempio le

Fig. 2 - Integrazione tra dati LIDAR e rappresentazione cartografica dell’asse stradale.

automobili autonome, in grado

di gestire una enorme quantità

di informazioni? La contraddizione

precedente decade, e

possiamo pensare ad una mappa

molto più vicina alla realtà e che

allo stesso tempo risulti essere

anche molto funzionale.

Mappe per tutte le applicazioni

In HERE, stiamo sviluppando

una varietà di mappe diverse

miscelando una combinazione

di nuove tecnologie con la

nostra esperienza di cartografia

tradizionale acquisita negli anni.

In tutto il mondo, i nostri team

di geografi altamente qualificati

garantiscono la qualità delle nostre

mappe stradali, di trasporto

pubblico e Indoor Venues di

aeroporti, stazioni ferroviarie

e centri commerciali. Il nostro

obiettivo è quello di sviluppare

mappe fruibili da tutti – che

si tratti di semplici utilizzatori

finali (consumers), di aziende

private o pubbliche.

32 GEOmedia n°2-2015


REPORTS

L’auto è solo una parte di un

ecosistema emergente molto più

ampio dei dispositivi collegati

(connected devices) tra i quali

smartphone, indossabili (wearables),

infrastrutture intelligenti

sincronizzate tra loro come semafori

e sistemi di telepedaggio

nelle città (smart city).

In molte regioni, stiamo arricchendo

i contenuti cartografici

dei nostri database con

segnalazioni o modifiche da

parte di esperti o nostri utenti

attraverso un software dedicato,

il Map Creator. Ogni giorno

integriamo migliaia di modifiche

alle nostre mappe grazie ai

contributi di esperti delle nostre

Community, selezionati con

cura e scrupolo nelle Università,

fra professionisti del settore,

nelle amministrazioni. A questi

esperti, si affiancano centinaia

di appassionati che utilizzano

quotidianamente le mappe

HERE.

Queste segnalazioni sono importanti

per garantire un tocco

‘locale’, soprattutto in alcune

aree a spiccato carattere dinamico

per le quali è richiesta

un’attenzione particolare, o, più

in generale, in aree che risultano

essere più difficilmente raggiungibili.

HERE utilizza diffusamente anche

la tecnologia più moderna

del settore della cartografia, il

LIDAR, che raccoglie centinaia

di migliaia di dati al

secondo, tutti georiferiti.

Tentando di semplificarne

il funzionamento, il

sistema è costituito da

un segnale laser sorgente

che rimbalzando

sulle superfici che incontra

crea precise nuvole

di punti, riacquisite

e successivamente

processate e rielaborate

per creare mappe in 3D

ad alta definizione.

Allo stesso tempo, i nostri

veicoli rilevano e acquisiscono

automaticamente

oltre 10.000 tipi di segnali

stradali in 22 paesi,

assieme alla segnaletica

orizzontale; tutte queste

informazioni vengono elaborate

e sovrapposte alla

base cartografica cosicchè

il software possa integrarle

e completarle. Vogliamo evidenziare

una volta di più che

l’input umano è fondamentale

per lo sviluppo e il processo finale

della verifica dei dati.

Mappe per l’auto autonoma

Queste mappe ad alta definizione

– HERE le chiama HD

Map – costituiranno le fondamenta

dell’auto autonoma. Per

arrivare a destinazione in modo

sicuro, un veicolo autonomo

deve conoscere accuratamente

l’intera rete stradale: ogni svolta,

strada a senso unico o svincolo,

ogni pendio, dosso e curva.

Ecco perché le mappe per la

guida autonoma richiedono più

precisione, accuratezza e “penetrazione”

di quelle progettate o

usate per sistemi di navigazione

semplice.

Di conseguenza, rispetto ad una

Fig.3 - L’autovettura HERE True munita di strumentazione

LIDAR durante l’acquisizione dati.

mappa in 2D, la HD Map, oltre

ad una maggiore precisione, fornisce

molte più informazioni,

per esempio su alcuni attributi

come ostacoli su strada o rampe

di uscita.

Le automobili autonome sono

attrezzate con dei sensori di

bordo; tuttavia, questi sensori

riconoscono e “leggono” la strada

che stanno percorrendo per

la prima volta, non avendone

“memoria”. Le informazioni

della strumentazione di bordo,

unite al dettaglio della HD Map

forniscono un set di dati in un

contesto completo e dettagliato.

Uno spartitraffico è stato abbattuto?

Fig. 4 - In una simulazione di HD Map, il veicolo con guida autonoma giunge all’incrocio conoscendo in anticipo

il tipo di svolta che dovrà effettuare, scegliendo la giusta corsia anche in funzione dei possibili ostacoli e

dei veicoli che impegnano l’incrocio. Tramite il cloud, inoltre, saprà se sarà necessario fermarsi al semaforo.

GEOmedia n°2-2015 33


REPORTS

Fig. 5 - Una realtà accuratamente descritta attraverso

una HD Map che presenta dettagli di ogni genere.

È caduto un albero in strada?

La HD Map descrive anche le

specifiche fisiche e legali della

strada; basti pensare che una

macchina a guida autonoma

debba essere in grado di cambiare

corsia per effettuare un

sorpasso o avere la capacità di

riconoscere una corsia temporaneamente

bloccata o chiusa.

Fig. 6 - Altra ricostruzione di una mappa HD in tre dimensioni da

acquisizione LIDAR; anche la segnaletica orizzontale risulta estremamente

precisa.

Per eseguire in modo corretto

ed efficace tali manovre, viene

richiesto al veicolo di conoscere

l’imminente configurazione

delle corsie; se l’auto autonoma

fosse guidata dai soli

sensori, avrebbe una visione

limitata nel leggere

queste informazioni,

anche a causa di fattori

esterni come condizioni

meteo avverse o congestione

del traffico.

Non si tratta solo di

avere una mappa precisa,

è anche necessario che

l’auto possa “vedere dietro

l’angolo”. Per arrivare a destinazione

in tutta sicurezza,

la macchina autonoma deve

anche sapere cosa sta succedendo

più avanti sulla strada, fuori

della portata dei suoi sensori.

Il raggio di azione dei radar e

delle telecamere dell’auto può

estendersi per 30 metri dal

punto in cui si trova, il che

significa che se l’auto sta viaggiando

a 130 km/h avrebbe un

“orizzonte sensibile” di un solo

secondo. Il risultato è che la vettura

sarebbe in grado di rilevare

un evento o un ostacolo sulla

strada solo all’ultimo momento,

traducendosi in una guida poco

confortevole fatta di scossoni,

brusche frenate o accelerazioni.

Per risolvere questo

problema potrebbe

essere utile un

collegamento tra

le auto attraverso

il Location cloud,

che consentirà la

condivisione di

varie informazioni

sulla circolazione,

possibili incidenti

o strade ghiacciate.

HERE ha investito

nello sviluppo delle

tecnologie cloud,

da anni agognate da

automobilisti e case

automobilistiche.

Siamo finalmente pronti al varo

di questa tecnologia, in grado di

elaborare, processare e analizzare

le informazioni trasmesse dai

sensori dei veicoli in circolazione

e di restituire agli stessi tutti i

dati necessari per ricostruire accuratamente

l’ambiente attorno

a ciascun veicolo.

Oggi rilasciamo gli aggiornamenti

delle nostre mappe su

base periodica e forniamo servizi

“dinamici” in tempo reale

all’auto, come informazioni sul

traffico, prezzi dei carburanti o

informazioni sulla disponibilità

di parcheggio; più automobili

saranno connesse (connected

Cars), più automobilisti potranno

beneficiare di questi servizi.

Ma, con la diffusione di automobili

sempre più automatizzate,

la cui domanda prevediamo

sarà sempre crescente, saranno

richieste mappe aggiornate di

ora in ora, di secondo in secondo;

e anche le tecnologie per il

supporto del flusso di informazioni

dovranno essere in grado

di gestire trasferimenti di dati

così importanti per e dal cloud,

a velocità sempre più elevate.

In uno scenario nel quale i

maggiori produttori mondiali

di auto investono nella ricerca

della guida autonoma, l’idea

che entro il prossimo decennio

i pendolari possano al mattino

tranquillamente disinteressarsi

del volante e leggere il giornale

recandosi al lavoro, è molto reale.

Mentre ci muoviamo verso

quel futuro automatizzato, la

capacità di un veicolo di riuscire

a localizzarsi e di “vedere

intorno e dietro agli angoli” in

aggiunta ad una convinta accettazione

di questa tecnologia

per delegare il controllo delle

nostre auto, costituirà un fattore

critico nell’acquisizione di importanti

quote di mercato. E per

quel che accadrà, siamo certi che

avremo assolutamente bisogno

di mappe ad alta definizione.

34 GEOmedia n°2-2015


REPORTS

ABSTRACT

As cartographers, we have long dreamt of creating the perfect map

– one that precisely recreates the territory it seeks to represent. But,

as many in the field will attest, at the heart of that endeavor has lay

a great paradox: the closer to reality a map becomes, the less useful

it tends to be, especially in today´s complex and crowded world.

Maps have historically been abstractions of reality by necessity as

people need not know every inch of the territory to get from A to B.

And besides, there are limits to how much information the human

brain can handle.

But what if map data is not only designed for direct consumption by

people but also to be read by machines capable of comprehending

vast quantities of information? When we build maps that need to be

understood only by software then the paradox falls away: one can

indeed have a map which is close to 1:1 scale and at the same time

useful to a machine such as a self-driving vehicle.

HERE is working on such maps of the future through a combination

of modern technology and traditional mapmaking expertise.

At the forefront of its mapmaking is a global, highly trained team

of geographic analysts, supported by mappers from the community,

which contribute edits to the map via HERE’s Map Creator

program. Beyond that, HERE is also deploying the industry’s most

modern mapmaking technology too in the form of LIDAR data

capture vehicles, which help HERE build very detailed 3D maps. It

is these high definition maps – which HERE calls the HD Map –

that will be the foundation for autonomous driving. It is these maps

that also move us closer to the notion of the ‘perfect map’.

PAROLE CHIAVE

Connected cars; location cloud; HD Maps; autonomous cars

AUTORE

Massimiliano Arcieri

massimiliano.arcieri@here.com

Senior Geographic Analyst

Figg. 7 e 8 - I sensori dell’auto (radar e telecamere) forniscono nozioni basilari sulla configurazione

dell’incrocio; la mappa completa il set di informazioni con i dati sulle specifiche delle strade.

Andrea Soncin

andrea.soncin@here.com

Field Manager Italy

HERE a Nokia Company

GEOmedia n°2-2015 35


REPORTS

Gestione di dati tramite

dispositivi mobili per la

pianificazione di emergenza

di Mattia De Amicis, Stefano Roverato,

Fabio Olivotti e Alice Mayer

Con questo lavoro è stato predisposto un sistema

di raccolta di informazioni direttamente sul campo

che consente di raccogliere in tempo reale dati

geospaziali riguardanti le strutture e le infrastrutture

di Protezione Civile.

Fig. 1 - Schema del funzionamento del sistema di raccolta dati.

Il nostro Paese, a causa delle

particolari caratteristiche

geologiche, geomorfologiche

e climatiche, è estremamente fragile

dal punto di vista dell’accadimento

di fenomeni calamitosi

sia naturali che antropici. Un’accurata

conoscenza dell’incidenza

di questi fenomeni rappresenta

la premessa indispensabile per

ridurre il rischio e minimizzare i

danni che la popolazione e l’ambiente

possono subire. I Piani

Comunali di Protezione Civile

sono uno degli strumenti più

importanti nell’ambito della previsione

e prevenzione, e costituiscono

la base per la pianificazione

di tutti gli interventi e delle

opere necessarie per fronteggiare

le emergenze. Uno degli aspetti

cruciali nella compilazione dei

Piani è la fase di raccolta dei dati

territoriali. Il Manuale Operativo

redatto dal Dipartimento

Nazionale di Protezione Civile

presenta infatti un elenco di

elementi che devono essere obbligatoriamente

censiti, riportandone

accuratamente non solo la

posizione geografica, ma anche

tutta una serie di informazioni

riguardanti le caratteristiche e

le funzionalità utili agli scopi di

Protezione Civile. La raccolta dei

dati territoriali è quindi molto

importante, in quanto costituisce

la fase conoscitiva del territorio,

sulla quale vengono costruiti

i programmi e gli interventi per

una corretta e funzionale pianificazione

dell’emergenza. A fronte

di ciò il presente lavoro ha voluto

proporre una metodologia

che, grazie all'utilizzo dei moderni

strumenti informatici, è in

grado di rendere il lavoro sul

campo più semplice ed efficace,

riducendo così i tempi di compilazioneed

entrata in vigore

dei Piani di Emergenza.

Il Piano di Emergenza

Definito dal Metodo Augustus

come “l’insieme delle procedure

operative di intervento per fronteggiare

una qualsiasi calamità attesa

in un determinato territorio”, il

Piano di Emergenza ha come suo

punto cardine la definizione degli

scenari di evento e l’elaborazione

di una banca dati di supporto alla

gestione delle emergenze. Il primo

passo per poter elaborare gli

scenari è costituito dalla raccolta

e analisi dei dati territoriali e dalla

loro rappresentazione in cartografia

a diverse scale di dettaglio, cosi

da consentire non solo una visione

di insieme del territorio ma anche

uno sguardo particolareggiato

sul possibile impatto di uno o più

eventi calamitosi sugli elementi

vulnerabili. Il Manuale Operativo

contiene un elenco di elementi

che i Comuni devono obbligatoriamente

individuare e cartografare,

e in alcuni casi prevede diverse

36 GEOmedia n°1-2015


REPORTS

tipologie di simboleggiatura (per

esempio l’utilizzo del colore rosso

per le strutture vulnerabili e verde

per quelle strategiche). Inoltre,

il Manuale impone il riconoscimento,

all’interno del territorio

comunale, di tre tipi di aree di

emergenza:

4aree di ammassamento dei

soccorritori

4aree di attesa della popolazione

4aree di accoglienza della popolazione

I rischi che devono essere presi in

considerazione sono i seguenti:

4rischio idrogeologico e

idraulico

4rischio sismico

4rischio vulcanico

4rischio industriale

4rischio incendio boschivo

Per ogni tipologia di rischio devono

essere individuati gli scenari

di evento, ossia le possibili aree di

impatto sugli elementi vulnerabili

con una scala di dettaglio almeno

di 1:10.000. In un Piano di

Emergenza è inoltre opportuno

considerare, per ogni scenario

identificato, la presenza di risorse

umane, materiali e mezzi. Un

Piano deve essere sufficientemente

flessibile per essere utilizzato in

tutte le situazioni di emergenza,

sia previste che impreviste, ed

inoltre deve essere in continuo

aggiornamento per tener conto

dell’evoluzione nell’assetto territoriale.

Per questi motivi, un ruolo

estremamente importante nella

pianificazione di emergenza è ricoperto

dalle carte tematiche, che

permettono una conoscenza del

territorio rapida ed intuitiva. Negli

ultimi anni, a fianco delle tradizionali

mappe cartacee, si è assistito,

anche da un punto di vista

normativo, all’affermazione degli

strumenti di cartografia digitale

(GIS). È bene tuttavia precisare

Tab. 1 - Esempio di come è strutturata la categoria Area a rischio che rappresenta gli scenari

di evento che devono essere caricati.

che attualmente il loro uso non è

obbligatorio, ma a discrezione dei

singoli Comuni.

Le linee guida della

Regione Lombardia

La Regione Lombardia, attraverso

la DGR 16 maggio 2007,

n.8/4732 “Direttiva Regionale

per la pianificazione di emergenza

degli enti locali”, ha adottato una

specifica normativa che disciplina

come redigere i Piani di Emergenza,

consigliando ai Comuni l’utilizzo

di strumenti GIS per la loro

redazione. La Regione ha inoltre

adottato un sistema centralizzato

per la rappresentazione e la raccolta

di tutti i dati riguardanti la

parte cartografica dei Piani con

l’obiettivo di realizzare una banca

dati territoriale regionale per condividere

i dati mappati dai singoli

Comuni. L’Ente ha quindi predisposto

uno standard riguardante

sia i dati geografici sia i relativi

metadati, in maniera da renderli

omogenei e confrontabili su tutto

il territorio regionale. I dati territoriali

da mappare, richiesti in formato

shapefile, sono stati suddivisi

in cinque categorie:

1) Area a rischio

2) Struttura strategica

3) Superficie strategica

4) Punto di accessibilità

5) Infrastruttura viabilistica

Ogni categoria è composta da

diverse tipologie di elementi costituiti

da una parte geometrica e

una attributiva, e identificate da

specifici codici di riconoscimento

(Tabella1). Per quanto riguarda le

geometrie adottate, unicamente

le Aree a rischio sono di tipo poligonale

mentre le restanti sono

di tipo puntuale. Non è stato previsto

l’utilizzo di una geometria

lineare, di conseguenza non vi è

l’obbligo di mappare le reti infrastrutturali

e tecnologiche presenti

sul territorio. Tutti questi dati,

una volta acquisiti, andranno caricati

direttamente sul portale della

Regione (PEWEB).

La struttura di archiviazione dei

dati poligonali relativi alle Aree a

rischio è mostrata in Tabella 1 ed

è simile anche per le altre categorie

di elementi da mappare. La categoria

struttura strategica identifica

gli edifici, mentre con superficie

strategica si intende una superficie

in area aperta che può essere uti-

GEOmedia n°2-2015 37


REPORTS

lizzata come base logistica per i

soccorritori, o che può ospitare un

buon numero di persone. Il punto

di accessibilità individua invece

una struttura dedicata alla movimentazione

di mezzi, materiali e

persone, come stazioni e aeroporti.

In ultimo, con infrastruttura

viabilistica, vengono indicate le

infrastrutture a supporto della viabilità

di interesse, come ad esempio

ponti, viadotti e cavalcavia.

L’architettura del geodatabase

e la pubblicazione

del servizio di mappa

Con il presente lavoro si voluto

proporre uno schema di lavoro

che consenta la raccolta direttamente

sul campo. Mediante comuni

dispositivi mobili è possibile

mappare tutti gli elementi necessari

per la redazione dei Piani di

Emergenza, predisponendoli direttamente

per il loro caricamento

sul portale regionale, così come

richiesto dalla Regione Lombardia.

Lo schema concettuale del

funzionamento dell’intero sistema

è basato sui seguenti punti:

1) un geodatabase installato su

un server organizza la struttura

dei dati secondo le specifiche

richieste, e ne consente la scrittura

e la lettura da remoto;

2) tramite Arcgis Server viene attivato

e reso pubblico un servizio

di Feature Access;

3) il servizio viene richiamato su

Arcgis Online con una mappa

dedicata, che viene condivisa

con tutti gli utenti abilitati;

4) la mappa viene aperta con ESRI

Collector, con il quale è possibile

aggiungere nuovi elementi

vettoriali dai dispositivi mobili.

Fig. 2 - Esempio di interrogazione di dati spaziali tramite Collector. Comune di Iseo.

In questo modo viene instaurata

una connessione in tempo reale

tra l’utente e il geodatabase, che

consente di archiviare velocemente

e facilmente i dati territoriali.

La base di partenza per il funzionamento

dell’intero sistema è

quindi il geodatabase.

Sul server cartografico del Laboratorio

di Geomatica del Dipartimento

di Scienze Ambiente e

Territorio e Scienze della Terra,

è stato creato un geodatabase

di tipo Enterprise installato su

un'istanza di Microsoft SQL Server.

Successivamente sono state

predisposte le 5 feature classes che

rispecchiano i diversi shapefile richiesti

dalla Regione, denominate

allo stesso modo e con la stessa geometria.

Ad ogni feature class sono

stati infine assegnati i campi descrittivi

previsti. Il tipo di campo

da usare è stato scelto in funzione

dei dati che vi verranno inseriti:

“short integer” per i numeri interi,

“float” per numeri interi o decimali

e “text” per le stringhe alfanumeriche

e per i campi di tipo

vero-falso. Ad ogni feature class

sono state assegnate le coordinate

nel sistema di riferimento Gauss-

Boaga, che è quello ancora in uso

per il PEWEB. Per alcuni campi

è stato necessario predisporre un

dominio per restringere la possibilità

di scelta dell’utente in fase

di popolamento, costringendolo

all’interno delle possibilità previste

dallo standard regionale. Questa

scelta verrà visualizzata sotto forma

di menù a tendina, dal quale si

dovrà scegliere la voce corretta per

popolare il campo desiderato.

L’intero geodatabase è stato aperto

in un progetto di Arcmap (.mxd),

per permetterne la condivisione

e la pubblicazione come Servizio

Web su Arcgis Server. Sono

stati personalizzati il layout e

la simbologia dei layer, con le

caratteristiche che verranno poi

visualizzate dall’utente finale attraverso

i dispositivi mobili. In fase

di pubblicazione è stato necessario

attivare il servizio Feature Access,

che consente di leggere, interrogare

e modificare i dati direttamente

sul geodatabase anche da una postazione

remota.

Creazione di una mappa

su Arcgis Online e utilizzo

nel Collector

La mappa online creata sul portale

Arcgis Online riveste un ruolo

molto importante, poichè permette

di mettere in comunicazione

server e Collector, e quindi geodatabase

e dispositivi mobili. Per

inserire il collegamento al servizio

appena creato è stato sufficiente

inserire il relativo URL, preventivamente

individuato e copiato

dal portale del server manager.

Una volta salvata, è poi possibile

condividere la mappa con tutti gli

utenti abilitati, ad esempio con gli

operatori incaricati di compilare il

Piano Comunale di Emergenza.

Ogni punto aggiunto tramite il

Collector viene registrato automaticamente

e in tempo reale all’in-

38 GEOmedia n°2-2015


REPORTS

terno del geodatabase, nella feature

class scelta. Oltre alla creazione

di nuove feature è inoltre possibile

modificare o eliminare quelle

esistenti, così come si farebbe da

Arcgis Desktop. Questo sistema

offre la possibilità di far lavorare

contemporaneamente più utenti

sullo stesso geodatabase: questa

caratteristica è molto importante

soprattutto in quei Comuni soggetti

a problematicità multiple,

perché consente di suddividere il

lavoro e diminuire ulteriormente

i tempi. È importante sottolineare

che l’inserimento dei dati tramite

Collector soddisfa già lo standard

imposto dalla Regione, e perciò

non saranno necessarie in un secondo

tempo ulteriori modifiche

per adeguarli alla normativa.

Registrazione sul

Portale Regionale

Al termine della fase di acquisizione

di tutti i dati territoriali, il

geodatabase risulterà popolato

con tutta una serie di voci inerenti

le strutture e le infrastrutture utili

per la Protezione Civile presenti

sul territorio comunale. Oltre

al Piano testuale, la Regione

Lombardia richiede che vengano

caricati tutti i dati spaziali in

un applicativo online dedicato,

denominato Peweb, in modo da

disporre di una visione di sintesi

e di insieme di tutti i Piani di

Emergenza per tutti i Comuni

della Regione. Su Peweb la componente

geometrica del dato deve

essere caricata in formato shapefile,

mentre per la parte descrittiva

è richiesto un file .xml. Ad ogni

tipologia di dato (Area a rischio,

Punto di accessibilità, Infrastruttura

viabilistica, Struttura strategica, Superficie

strategica) deve quindi corrispondere

un file .xml, che abbia

lo stesso nome e che riporti tutti

gli attributi del dato. Le due parti

verranno poi messe insieme in un

secondo tempo dal sistema, grazie

ad un campo ID comune che le

identifica inequivocabilmente.

Lavorando con un Geodatabase

Enterprise questi passaggi sono

molto facilitati, dal momento che

i dati sono già suddivisi nelle classi

richieste, ed occorre solamente

esportarli in formato shapefile. Per

preparare il file con i metadati ci

si appoggia invece ad un template

fornito dalla Regione, che contiene

lo schema corretto del .xml che

andrà in seguito caricato.

Conclusioni

Questo lavoro ha voluto mostrare

come sia possibile sfruttare le

potenzialità fornite dai moderni

sistemi informativi territoriali per

la raccolta di dati sul campo a

supporto della Protezione Civile.

Tutto questo è reso possibile

dall’utilizzo di strumenti versatili

come i Geodatabase Enterprise,

in grado di archiviare grandi

GEOmedia n°2-2015 39


REPORTS

quantità di informazioni e

di comunicare con utenti

in remoto, unito al recente

sviluppo della piattaforma

Arcgis Online, che consente

agli utenti registrati di

pubblicare e condividere le

proprie mappe. Una volta

predisposta la struttura di

base e creata la mappa è poi

sufficiente condividerla con

l’operatore finale, che non è

obbligato a conoscere fino

in fondo il funzionamento

dell’intero sistema.

3L’utilizzo del Collector è

infatti semplice e intuitivo,

basato su form e menù a

scelta multipla. In questo

modo la fase di raccolta dati

diventa non solo semplice

ma anche veloce, e consentirà

in futuro di snellire il

lavoro di predisposizione

dei Piani di Emergenza, che

sono per loro natura molto

complessi e articolati.

RIFERIMENTI

Dipartimento di Protezione Civile - Ottobre 2007

“Manuale operativo per la predisposizione di un Piano

comunale o intercomunale di Protezione Civile” -.

Dipartimento di Protezione Civile - Presidenza del

Consiglio dei Ministri, 1997 “Metodo Augustus”

DPC Informa, n. 12 1997.

Frigerio, I., Roverato, S., & De Amicis, M. (2013).

A Proposal for a Geospatial Database to Support

Emergency Management. Journal Of Geographic

Information System, 5, 396-403.

Regione Lombardia, 2007 “Direttiva regionale per

la pianificazione dell’emergenza degli enti locali”

(D.G.R.) n. VIII/4732. Bollettino Ufficiale della

Regione Lombardia, Milano.

Regione Lombardia, 2011 “GEODB Prevenzione

e Sicu-rezza, sintesi progettazione esterna e specifiche

funzionali. Architettura informativa. Mosaico Piani

di Emergenza”. Bollettino Ufficiale della Regione

Lombardia, Milano.

PAROLE CHIAVE

Protezione civile; pianificazione di emergenza;

collector; emergenza; geodatabase

ABSTRACT

Among the Civil Protection plan creation the data

collection of buildings and infrastructures is one of

the most important step. The most relevant information

to be collected are not only their position

(geolocalization) but also their Civil Protection

functionalities and peculiarities. Within this context

Lombardy Region set up data collection and data

storing standards through a focused law. In this paper

we describe a new system to collect these kind of

data directly on the field. This system is based on an

ESRI Geodatabase Enterprise installed on a server,

an ArcGIS Online account and the ESRI Collector

App for smartphones. Data collected by operators

on the field are directly sent to the Geodatabase on

server using mobile internet connection; data structure

and format follow Lombardy Region standards

and they are ready to be loaded on the official Civil

Protection Planning platform.

AUTORE

Mattia De Amicis

mattia.deamicis@unimib.it

Stefano Roverato

stefano.roverato@unimib.it

Fabio Olivotti

fabio.olivotti@unimib.it

Alice Mayer

alice.mayer@unimib.it

Università degli Studi di Milano Bicocca,

Dipartimento di Scienze dell’Ambiente e del

Territorio e di Scienze della Terra, Laboratorio

di Geomatica, Piazza della Scienza 1, 20126

Milano, geomatica.ambientale@unimib.it

Geomatic Laboratory - Earth and Environmental

Sciences Department, University

of Milano Bicocca, Piazza della Scienza 1 -

20126 Milano, Italy, geomatica.ambientale@

unimib.it

40 GEOmedia n°2-2015


REPORTS

GEOmedia n°2-2015 41


REPORTS

RemTech Expo 2015

a cura della Redazione

RemTech Expo 2015 (IX

edizione) e le Remediation

Technologies. Dal

23 al 25 Settembre

la manifestazione

sulle bonifiche e la

riqualificazione del

territorio organizzata da

Ferrara Fiere (partner la

Regione Emilia-Romagna,

sponsor Eni Saipem).

Dal 2007, RemTech è il

principale punto di riferimento

tecnico e commerciale

in Italia per la community

delle bonifiche e della riqualificazione

del territorio – società

private, enti pubblici, università e

centri di ricerca, associazioni, professionisti,

mondo dell’industria,

comparto petrolifero e real estate

– che, anno dopo anno, lo elegge

a “vetrina” autorevole, luogo di

condivisione delle esperienze virtuose

e momento di crescita della

conoscenza.

Insieme alle sue Sezioni speciali,

CoastEsonda e Inertia,

RemTech ha tra i propri

punti di forza innanzitutto

un'area espositiva prestigiosa

e altamente specializzata,

dove trovano spazio le soluzioni,

i prodotti e i progetti

più avanzati e sostenibili.

Numerose le imprese tecnologiche

presenti e gli approfondimenti

congressuali

dedicati proprio alle applicazioni

delle tecnologie e alla realizzazione

di test pilota. In Italia, solo

di recente si è iniziato a parlare e

a impiegare le tecnologie ISCO

(In Situ Chemical Oxydation), le

PBR (Permeable Reactive Barrier),

la bioremediation e la phytoremediation,

senza contare che un

altro settore in cui le componenti

“tecnologie innovative” e “sostenibilità”

si fondono armonicamente

è quello dei droni, oggi sempre

più sofisticati e mirati a interventi

nel sottosuolo e sul territorio (monitoraggi,

studi su ampia scala,

etc.). Tutti temi e strumenti che

RemTech ha approfondito per primo,

posizionandosi come evento

innovativo e sostenibile, incubatore

di alta conoscenza, condivisione

e opportunità che valorizza in anteprima

quanto di più eccellente e

avanzato offre il mercato delle bonifiche

e della tutela del territorio.

RemTech prevede una sessione

congressuale di elevato livello

tecnico-scientifico, corsi di formazione

e di alta formazione per operatori,

autorità e decision maker,

dibattiti multidisciplinari a livello

nazionale e internazionale sulle

tecnologie più all’avanguardia e i

casi di studio eccellenti, momenti

dedicati all’approfondimento e

altri allo scambio e all’incontro

fra domanda e offerta, aprendo la

strada ai mercati emergenti e creando

occasioni di business per gli

espositori.

42 GEOmedia n°2-2015


BONIFICHE DEI SITI CONTAMINATI

REPORTS

NORMATIVA

In Italia, si inizia a parlare di bonifiche dei siti contaminati

come di un tema focale con il D.M. 471/99, che ha definito i

limiti di accettabilità per i terreni e le acque sotterranee in funzione

della destinazione d’uso, le procedure e le modalità di

intervento (bonifica, bonifica con misure di sicurezza e messa

in sicurezza permanente).

Nel 2006, con il D.Lgs 152/06, per superare una serie di

criticità tecniche e procedurali che si erano manifestate

nell’applicazione della precedente normativa, viene valorizzato

lo strumento dell’analisi di rischio per la definizione degli

obiettivi di bonifica.

Le autorizzazioni vengono rilasciate dal Ministero

dell’Ambiente nel caso dei SIN. Per gli altri siti, l’ente di

competenza è la Regione o l’ente delegato. L’istruttoria delle

varie fasi del procedimento avviene attraverso Conferenze dei

Servizi, alle quali partecipano tutti i soggetti interessati, in particolare

le istituzioni territoriali.

In questa edizione, in particolare,

si parlerà diffusamente di industria

nella “Conferenza Nazionale

dell'Industria sull'Ambiente

e sulle Bonifiche”, di dissesto

idrogeologico, prevenzione, manutenzione

del territorio e opere

con la “Conferenza Nazionale

sul Rischio Idrogeologico”, di

Direttiva Acque e Alluvioni

con il coordinamento delle

Autorità di Bacino e dei Distretti

Idrografici, di porti, sedimenti

e dragaggi nella “Conferenza

Nazionale dei Porti”, di protezione

delle coste, di opere pubbliche,

strade, recupero dei materiali

da C&D con il “Convegno

sulla Sostenibilità Ambientale

delle Opere” e naturalmente di

tecnologie innovative, casi eccellenti,

agricoltura, amianto e molto

altro ancora. Quest'anno inoltre,

RemTech organizza il primo

“Seminario di Formazione sulla

Comunicazione Ambientale”,

per consentire ai giornalisti ambientali

di apprendere linee guida,

policy e procedure condivise

sulle modalità di comunicazione

di crisi nei casi di emergenza ambientale.

Svariati anche i nuovi servizi

messi a disposizione delle imprese,

per creare momenti di

incontro e confronto tra buyer

e fornitori (Carta dei Servizi).

Non mancherà, poi, la possibilità

di partecipare a incontri faceto-face

con alcuni dei principali

stakeholder coinvolti nella manifestazione

(Anas, Italferr, etc.) e

di essere protagonisti di meeting

bilaterali con key player stranieri

appositamente invitati.

Uno spazio espositivo sarà interamente

dedicato ai progetti

(europei, LIFE, etc.) inerenti le

tematiche di interesse, per potenziare

la visibilità di tutti i soggetti

coinvolti, favorire lo sviluppo di

rapporti intra ed extra progettuali

e creare un luogo di convergenza,

altamente qualificato e specializzato,

dove possano essere

condivise idee e programmi per

il futuro. Quest’area affiancherà

quella delle Università e dei

centri di ricerca (ISMAR, CNR,

OGS, etc.).

Tra le novità 2015, l’istituzione

di diversi premi speciali.

Ai tradizionali “Premi di Laurea

CENSIMENTO

In Europa, i siti potenzialmente contaminati sono 3,5 milioni,

quelli effettivamente da bonificare 500.000 e i costi derivanti

dallo stato di contaminazione oscillano tra i 2,4 e i 17,3

miliardi di euro all’anno.

In Italia, i SIN sono 37, i siti contaminati di competenza

regionale sono 15.000 e il 3% del territorio nazionale è coinvolto

dallo stato di contaminazione. I costi per la bonifica

sono nell’ordine dei 3 miliardi euro (0,2 % del PIL nazionale).

STATO DI CONTAMINAZIONE IN ITALIA

Nei siti industriali italiani contaminati, normalmente risultano

contaminate dal 15 al 30% delle superfici caratterizzate.

La contaminazione si presenta a macchia di leopardo,

ha una profondità molto limitata, si rilevano principalmente

contaminazioni storiche e solo in pochi casi è necessaria una

messa in sicurezza di emergenza.

Per quanto riguarda, invece, lo stato di contaminazione

delle falde nei siti industriali contaminati, la falda sottostante

l’insediamento risulta generalmente contaminata, la contaminazione

riguarda la falda superficiale, solo in qualche caso si

rende necessario l’emungimento (source control) e, ove necessario,

è attivo un sistema di contenimento della falda entro

il sito.

INNOVAZIONE TECNOLOGICA E SOSTENIBILITÀ

DELLE BONIFICHE

Il settore delle bonifiche già dal 2012 punta molto

sull’applicazione delle tecnologie innovative e sostenibili.

Tanti esempi nel mondo – e ancora pochi, purtroppo, in

Italia – dimostrano che l’applicazione di tecnologie innovative

determina costi più bassi dell’intervento e una sua maggiore

sostenibilità economica, ambientale e sociale.

L’espressione “sostenibilità delle bonifiche” si riferisce a quel

processo di gestione e bonifica di un sito contaminato finalizzato

a identificare, attraverso un processo decisionale

condiviso con i portatori di interesse, la migliore soluzione,

ovvero quella che massimizza i benefici della sua esecuzione

dal punto di vista ambientale, economico e sociale.

Magistrale sulle Bonifiche” si

aggiungono, infatti, il “Premio

della Ricerca in ambito costiero”,

il “Premio sulla Sostenibilità

delle Opere”, la prima “Mostra

Fotografica sui Siti Industriali”,

in collaborazione con Unione

Petrolifera, e il “Premio sulla

Prevenzione del Territorio”, con

il coinvolgimento dei Comuni

italiani e la collaborazione di

ANCI.

In tale, ampio e qualificato scenario,

sia nell’esposizione che

nei convegni saranno presenti

le ARPA, le Regioni, ISPRA, il

Ministero dell’Ambiente, le associazioni

e gli ordini professionali.

GEOmedia n°2-2015 43


REPORTS

Tra i driver 2015, oltre al potenziamento

del comparto istituzionale,

degli organi di controllo,

della rappresentanza industriale

– chimica e petrolifera – e delle

più importanti strutture appaltanti,

non meno importante è la

costruzione di partnership con

importanti network internazionali,

per favorire la partecipazione

dei progetti transfrontalieri

ad alto contenuto tecnologico e

dei partner più strategici. Anche

i principali mercati emergenti

sono, infatti, alla ricerca di tecnologie

innovative poco impattanti

ed economicamente vantaggiose

da importare nei Paesi dove

la bonifica è solo recentemente

diventata una priorità. La

RemTech Training School nasce

proprio al duplice scopo di promuovere

le principali innovazioni

tecnologiche italiane e di

diffondere la conoscenza presso

i maggiori buyer del presente e

del prossimo futuro. Accanto ai

mercati cinese e russo, già coinvolti

da RemTech, sono in fase

di definizione percorsi mirati

che interessano l’Est Europa e la

Turchia. Tutti i temi affrontati da

RemTech, CoastEsonda e Inertia

saranno oggetto di internazionalizzazione,

mentre la RemTech

Russia School (II edizione) e la

RemTech China School (I edizione)

si focalizzeranno sulla formazione

di key manager, pubblici

e privati, e daranno alle imprese

espositrici l’opportunità di proporre

a due nascenti mercati internazionali

le migliori soluzioni

tecnologiche, le proprie competenze

e il know-how italiano.

Se l’aggiornamento professionale

continuo sarà garantito dall’assegnazione

di crediti formativi,

ogni sessione congressuale sarà

pubblicata in forma di “Atti

Ufficiali”.

A CoastEsonda Expo, la Sezione

speciale sulla gestione e tutela

della costa e del mare, il dissesto

idrogeologico e la manutenzione

del territorio a rischio,

parteciperanno le imprese più

competitive e le principali autorità

del settore, tra le quali il

Ministero, #Italiasicura (Struttura

di missione contro il dissesto

Idrogeologico e per lo sviluppo

delle infrastrutture idriche), la

Protezione Civile, ISPRA, le

Autorità Portuali, i Distretti

Idrografici e i Consorzi di

Bonifica, le Regioni, i Comuni

e le Associazioni. Il programma

sui temi della valorizzazione delle

coste, opere, monitoraggio, porti,

marine strategy e offshore sarà

arricchito da focus sulla Direttiva

Alluvioni, il dissesto idrogeologico

e il rischio idraulico, e

dalla “Conferenza Nazionale sul

Dissesto Idrogeologico”.

Inertia, con un ampio spazio

espositivo dedicato anche al settore

estrattivo, rappresenta l’appuntamento

italiano più qualificato

sui rifiuti inerti e gli aggregati

naturali, riciclati e artificiali.

In agenda, le demolizioni civili

e industriali, gli impianti per la

selezione e il riciclaggio dei rifiuti

C&D, l'utilizzo degli aggregati

riciclati, la certificazione e marcatura

CE, il movimento terra,

l'attività estrattiva, gli impianti,

la gestione dei materiali da scavo,

le costruzioni, le infrastrutture,

il risanamento e la riqualificazione,

il Life Cycle Assessment.

Tra le novità, il I Premio per la

Sostenibilità Ambientale delle

Grandi Opere (promosso in

collaborazione con Italferr), la

tavola rotonda che coinvolgerà

le principali stazioni appaltanti,

i focus sui temi delle strade (con

la partecipazione di ANAS),

del backfilling e del recupero

ambientale, e della gestione dei

materiali da scavo contenenti

amianto.

PAROLE CHIAVE

Tecnologie; innovazione; sostenibilità,

bonifiche; internazionalizzazione

ABSTRACT

Remtech Expo 2015, September 23/25, the event

on the remediation and redevelopment of the territory

organized by Ferrara Fiere (partner the Region

of Emilia-Romagna, sponsors Eni Saipem) .

AUTORE

Redazione mediaGEO

redazionemediageo@gmail.com

• Rilievi batimetrici automatizzati

• Fotogrammetria delle sponde

• Acquisizione dati e immagini

• Mappatura parametri ambientali

• Attività di ricerca

Vendita – Noleggio - Servizi chiavi in mano, anche con strumentazione cliente

44 GEOmedia n°2-2015


REPORTS

With you all the way

Le innovative soluzioni Geospaziali Topcon

ed un pieno supporto forniscono una precisione senza precedenti

ed incrementi di efficienza in ogni progetto.

experience how ...

www.topconpositioning.it

Tokyo · San FranciSco · MoSca · roTTerdaM · BriSBane

GEOmedia n°2-2015 45


SCHEDA REPORTS TECNICA

SINERGIS

Dedagroup ICT Network

Sede legale e direzione

Loc. Palazzine 120/f 38121 – Trento

Tel. +39. 0461.997.214

Fax +39. 0461.997.330

info@sinergis.it

www.sinergis.it

www.dedagroup.it

PAROLE CHIAVE

ASSET; SIGOV;

governance del territorio; PA;

ICT; multiutility

ASSET e SIGOV, due soluzioni per

associare il riordino territoriale allo

sviluppo e alla governance del territorio

di Sinergis

Dedagroup ICT Network

Una riforma come quella

di Delrio, che ridisegna

profondamente i processi

di governance del

territorio, può rischiare

di essere interpretata

dagli Amministratori

Locali dei Comuni,

delle Province e delle

Regioni, come un mero

adempimento normativo.

Ma come trasformarla

in una concreta

opportunità di crescita?

Dedagroup ICT Network

ha messo a punto,

in collaborazione con

Forum PA, un metodo e

un insieme di soluzioni

con cui accompagnare

gli Enti nel processo di

cambiamento legato alla

riforma Delrio per fare

di tale evoluzione una

risorsa per guidare lo sviluppo

dei territori.

ASSET (Analisi Statistica

Socio Economica Territoriale)

è una piattaforma

web che consente di

analizzare le caratteristiche

socio-economiche

del territorio di appartenenza,

comparandole

con quelle delle aree

geografiche limitrofe,

per svolgere check up,

benchmarking, report,

estrazioni, analisi SWOT

e studi. La piattaforma

include già un modello

di dati predefinito per

aree tematiche chiave,

come la demografia, le

risorse economiche o la

gestione delle entrate, e

guida nell’elaborazione

ed estrazione delle informazioni

necessarie a

fotografare la situazione

del territorio. In questo

modo possono essere

colte dinamiche rilevanti,

come ad esempio

quelle occupazionali,

supportando nell’individuazione

di azioni politiche

efficaci e di area

vasta.

SIGOV è un sistema finalizzato

a supportare i

territori ad attuare una

governance per obiettivi.

In particolare si qualifica

come strumento di

progettazione e gestione

per la programmazione

partecipata e multilivello

particolarmente indicata

per le dinamiche di collaborazione

tipiche degli

organismi multi-ente

come l’Unione. Con SI-

GOV è possibile, per gli

enti sovraordinati, mettere

a disposizione delle

Unioni un vademecum

che comprende piani

di lavoro di base, template

e best practice per

supportare tutte le fasi

di creazione e successiva

gestione delle Unioni.

ASSET e SIGOV accompagnano

le Amministrazioni

nella progettazione

delle Unioni di

Comuni e nella gestione

associata delle funzioni

comunali. Con ASSET e

SIGOV gli amministratori

possono analizzare

le caratteristiche socioeconomiche

e di funzionamento

del proprio

territorio e compararle

con quelle delle aree geografiche

limitrofe, individuando

così gli ambiti

ottimali e le sinergie possibili

per la creazione di

Unioni più efficienti e in

grado di pianificare meglio

le proprie strategie

di sviluppo.

ASSET e SIGOV vanno

ad arricchire l’amplio

portafoglio d’offerta di

Sinergis, l’azienda di Dedagroup

ICT Network

specializzata nella realizzazione

di sistemi informativi

territoriali per la

PA e le multiutility.

Per maggiori informazioni:

http://www.semplicededa.it

46 GEOmedia n°2-2015


GI IN REPORTS EUROPE

L’hackathon è la

porta per il successo

di Mauro Salvemini

mauro.salvemini@uniroma1.it

L’hackathon è la porta per il

successo: questa affermazione

al momento attuale sembra

essere dimostrata da paesi che

stanno usando la tecnologia

informatica per il progresso in

genere e per lo sviluppo economico

in particolare.

Il tutto si muove sull’asse ben

noto che dagli USA verso est

tocca Londra e verso Ovest

coinvolge la Corea e Taiwan.

In USA gli esperti dicono che

nel corrente anno sono previsti

più di 150 hackthon con

migliaia di partecipanti l’uno,

ma forse le stime saranno superate.

Un divertente esempio concreto

di che cosa è un hackathon

è http://mcdonaldshackathon.challengepost.

com, un evento promosso ed

organizzato a Londra dal re

dei fastfood per trovare nuove

applicazioni e rivoluzionare il

digital restaurant experience al

quale stanno puntando. Premi

in danaro, possibilità di farsi

conoscere, gusto della sfida

e porte aperte per il futuro.

Questo quello che pensano

coloro i quali partecipano,

molti dei quali non hanno

ancora o non frequenteranno

mai i corsi universitari.

Negli anni ottanta, sia sulla

coste “della information

technology” est che ovest degli

USA, al tempo di Wang,

Apollo, SUN, ed altri, ricordo

che queste grandi imprese organizzavano,

generalmente il

venerdì pomeriggio, dei party

invitando i professionisti che

da alcuni mesi, lavorando nella

zona, risiedevano in motel

vicini. Ovviamente tali party

erano finalizzati a “rubarsi

vicendevolmente le competenze”

ed erano un ottimo terreno

per i cacciatori di teste.

Nell’hackathon oggi centinaia

ed a volte migliaia di persone

(quasi sempre MOLTO giovani)

lanciano o raccolgono

le sfide della IT per premi,

a volte molto divertenti e

“cool”, per promuoversi presso

imprese o trovare qualche

“ angel” che investa sulla loro

idea.

Gli hackathon vengono anche

promossi ed organizzati dalle

università, soprattutto statunitensi

ed asiatiche, ed

hanno grande successo, ma

c’è il paradosso che implicitamente

dimostra che non è

più necessario seguire i corsi

universitari per ottenere i risultati

attesi dai partecipanti:

vendere l’idea di un app, dimostrare

che si può bucare un

“Captcha”, dimostrare come

si può realizzare il ristorante

digitale, migliorare il servizio

di UBER e così via.

Gli ingredienti di un hackathon

sono: gli organizzatori

con idee chiare di che cosa

ottenere (vedi l’esempio di

McDonald, ma possono essere

temi più ampi sullo sviluppo

di tecnologia o di altri campi

applicativi, o di aggregazione

ed anche accademici), i premi,

le opportunità offerte ai partecipanti

ed ovviamente i partecipanti

ed il luogo dove ospitarli,

ma questo non sembra

essere un problema dato che

la fascia di età giovanissima

fa largo uso di sacchi a pelo e

sistemi di trasporto molto low

cost. Quello che succede dopo

l’avvio dell’hackathon, nel

quale “le relazioni ex cathedra”

sono inesistenti perché

tutto è scritto nella chiamata

alla partecipazione, non è

prevedibile. Può saltare fuori

chi sostiene di essere in grado

di “bucare” un sistema di

sicurezza come avvenuto per

Tinder (http://www.gotinder.com)

ed essere assunto

dalla stessa impresa che ne

ha apprezzato le qualità. Una

vecchia storia questa della violazione

delle sicurezze per gli

hacker, ma alla fine a fin di

bene per loro e per la società.

In tutto questo sembra che i

dati, anche quelli geografici,

siano un elemento, ma non il

nocciolo della questione.

E’ vero che proprio in presenza

dell’avvenimento del

terremoto in Nepal le mappe

sono state considerate un

obiettivo importante da organizzazioni

quali Openstreet

Map e che c’è molta attività

sull’argomento e mentre

l’articolo verrà impaginato

si svolgerà un “maphathon”

https://studio.cul.colum-

bia.edu/ai1ec_event/1772-

2/?instance_id=8054

Sembra però che nel settore

geografico e cartografico si

privilegi il lavoro di gruppo

alfine di produrre cartografia

e provare a mettere insieme

dati piuttosto che a trovare l’

“app killer” che possa fare la

fortuna dello sviluppatore e

dell’investitore.

I dati geografici spontanei

(voluntereed geography) sono

il fine dell’impegno delle persone

coinvolte, mentre non

lo è sviluppo di applicazioni

geografiche; per esse si usano

sempre le funzioni di base

dell’analisi spaziale che, anche

se spesso non teoricamente

conosciuta, è fondata sulla

utilizzazione che da sempre il

genere umano fa delle mappe

e delle informazioni in esse

contenute.

Gli hackathon quanto sono

utili in Italia? Ritengo che

innanzitutto occorrerebbe

fare un po’ di chiarezza, distinguere

tra i vari webinar,

barcamp, hackathon, seminari

on line, workshop hands-on,

ed altro alfine di rendere un

buon servizio agli utenti chiarendo

bene che cosa si propone

loro e che cosa si devono

aspettare.

Sarebbe poi indispensabile che

gli ingredienti, di cui sopra,

venissero ben verificati.

Se ad hackathon viene dato il

senso di “code fest”, un modo

per incontrarsi e scambiare

conoscenze ed avere relazioni

è una cosa, se c’è la presenza

chiara di un investitore allora

la situazione cambia, ed a mio

parere diventa ben più interessante

in senso lato. Vorrebbe

infatti dire che c’è interesse

nel mondo delle imprese e degli

investitori a trovare nuove

soluzioni IT sulle quali investire.

Siamo pronti, preparati a

fare questo in Italia? Qualche

buon esempio c’è ma c’è

anche tanta confusione ed in

diversi hackathon ho sentito

parlare politici, professori e

relatori per un lungo tempo e

poi i risultati quali sono stati?

che premi c’erano? Chi ha vinto?

Che cosa è stato ottenuto?

C’è qualche buon risultato per

i giovani che hanno partecipato?

Nell’hackathon non ci

sono lezioni o esercitazioni

fatte da qualcuno, ci sono solo

temi posti ed i partecipanti

sono chiamati a rispondere al

meglio, se poi si scambiano

informazioni, dritte, pezzi di

software questo fa parte del

“fest”.

Ci si dovrebbe rivolgere agli

investitori in IT italiani al fine

di verificare se sono interessati

ad operazioni di questo genere.

E’ anche vero che molte

delle realtà imprenditoriali IT

hanno la testa ed il portafoglio

in altre parti del mondo e

quindi hanno le mani legate.

Mi piacerebbe sapere a questo

proposito che cosa ne pensa

Confindustria Digitale – ASS-

INFORM ed altre realtà imprenditoriali.

Personalmente ritengo che

ci sia una grande potenzialità

tra i nostri giovani che

posseggono, qualità propria

italiana, grande entusiasmo e

creatività; il problema è come

farla fruttare e chi la riesce a

sostenere e capitalizzare.

A latere di un seminario che

ho tenuto nello splendido

campus dell’Università di

Salerno, un giovane raccontava

come avesse proposto di

studiare un’app per chattare

con i fantasmi. Ho poi verificato

che ci sono molte app

per monitorare e cercare fantasmi

disponibili sul web, ma

nessuna ha la chat. Sono certo

che quel giovane ha tante altre

buone idee.

GEOmedia n°2-2015 47


SMART CITIES

Smart Cities,

Dumb Cities

Esperimenti di intelligenza

urbana ‘dal basso’

di Beniamino Murgante

e Giuseppe Borruso

Nella rubrica 'smart cities,

dumb cities' abbiamo finora

cercato di sottolineare soprattutto

le incongruenze,

alquanto generalizzate, nel

considerare intelligenti le città

soltanto in quanto si dotano

di una serie di gadget tecnologici,

che magari apportano alcuni

miglioramenti nella vita

dei cittadini, tuttavia privilegiandone

soltanto una certa

componente, e dimenticandosi

degli altri (quelli meno

'tecnologici'). O ancora,

considerare intelligenti città

dotate di mega schermi utili a

proiettare pubblicità, ma senza

- banalmente - panchine o

attrezzature più semplici ma

di fatto più funzionali alla vita

urbana reale di tutti i giorni.

Il nostro ragionamento si è

più volte concentrato sull'importanza

degli strumenti

dell'ICT e di quelli hi tech

in genere nell'ottimizzare, in

un'ottica futura imminente,

le nostre città, dato che la crescita

delle realtà urbane è un

fenomeno destinato a connotare

fortemente il XXI secolo,

con tutte le conseguenze di

carattere ambientale, sociale,

economico e culturale che ne

conseguono, soprattutto in

un contesto di risorse (naturali,

energetiche, territoriali)

limitate. La loro importanza è

tuttavia da pensare strutturata

all’interno di effettivi processi

di pianificazione e partecipazione

urbana, ovvero non

pensando agli strumenti hitech

come soluzione ma come

mezzo per ottenerla.

Le nostre città sono state

tuttavia già investite a vari livelli

da onde di ‘smartness of

things’, in cui app, QR-code,

sensori NFC e smart cards,

per non parlare di megasiti

web, hanno acquisito un loro

spazio, spesso più per entusiasmo

del momento che come

risposte a reali necessità. Alcuni

esperimenti sono stati

portati avanti o sono in corso

nelle città dei curatori di questa

rubrica, e nello spirito della

partecipazione ‘dal basso’ ai

processi urbani sono in fase di

strutturazione come prospettive

di lavoro organizzato in

un’ottica smart.

A Trieste un tavolo di lavoro

#younginnovation, avviato

a marzo in occasione di un

convegno sui “territori digitali”

ha prodotto, di fatto, un

processo di partecipazione informale

/ formale tra studenti

e vertici dell’amministrazione

comunale. Il progetto pilota è

nato nell’ambito di un corso

universitario, e ha riguardato

varie fasi. Una fase didattica è

stata concentrata sul concetto

di città e di rete. A questa è

seguito un primo incontro

pubblico, l’evento “#younginnovation”,

in cui dei giovani

“utenti urbani” (studenti residenti

e fuori sede) hanno

ragionato su una sorta di griglia,

in cui, a partire dalle caratteristiche

della città, si sono

osservati gli elementi di sviluppo

economico, gli aspetti

culturali, turistici, dell’innovazione,

evidenziandone le

carenze, le possibili soluzioni

e gli attori del territorio da

coinvolgere. Una terza fase

ha riguardato il confronto diretto

con le componenti della

pubblica amministrazione, in

cui si sono evidenziate alcune

criticità (evidenziate in Figura

1, cerchiate) e le possibili

modalità di affrontarle, sia da

parte della struttura pubblica,

sia da parte degli stessi cittadini

o utenti urbani. La quarta

fase ha riguardato, in un ulteriore

incontro con il Comune,

la presentazione di alcune

proposte, cui fare seguire

un quinto momento, dedicato

alla loro effettiva realizzazione

(quest’ultima fase

è in corso, e al suo termine

commenteremo sicuramente

quanto realizzato).

Nella città di Potenza nel mese

di dicembre 2011 un gruppo

di professionisti dello studio

“WOP Architettura e Paesaggio”

ha proposto un progetto

riguardante un grande parco

situato in un’area completamente

abbandonata situata

nella parte a valle della città,

un tempo sede di un grande

allevamento suini.

Quando un progetto è completato,

in genere, i progettisti

organizzano un dibattito pubblico

o provano a contattare i

giornalisti per comunicare

l’idea alla comunità interessata.

In questo caso i progettisti

hanno contattato un blogger

locale (Antonio Nicastro @

astronik) conosciuto in tutta

la regione per il suo impegno

ne settore ambientale e Giampiero

D’Ecclesiis, un geologo

con una noto per il suo attivismo

su facebook.

In poche settimane il gruppo

di facebook ha raggiunto

3.000 partecipanti (http://

www.facebook.com/groups/

parcobasento/) e i cittadini

hanno cominciato a esprimere

le loro opinioni. Nonostante

il progetto fosse già molto

dettagliato, l’obiettivo principale

dei progettisti è stato

quello di cercare di raccogliere

altre idee direttamente dai

cittadini. Per diversi mesi, ci

sono state molte discussioni

su come migliorare piccoli

dettagli del progetto. Dopo

questo primo periodo, i giornali

hanno descritto il progetto

e molte associazioni e gruppi

di cittadini hanno chiesto

ai progettisti di illustrare il

progetto nelle loro sedi.

Allo stesso tempo è partita

una petizione e tutti i negozi

della città hanno raccolto

le firme per il parco. Ma il

compito cruciale che si era

posto il gruppo di progettisti

era di tentare di convincere

i politici ad accettare l’idea

del parco. Pertanto, i politici,

senza interessi personali nella

zona, hanno immediatamente

dichiarato una posizione chiara

di preferenza per il parco,

mentre i politici che avevano

già fatto promesse ad alcuni

imprenditori hanno cercato

di evidenziare tutti i vincoli

possibili nella realizzazione

del parco.

L’aspetto innovativo della

vicenda è che tutte le discussioni

con i politici sono state

Fig. 1 - Momenti

del tavolo di lavoro

#younginnovation e

degli spunti emersi

durante il lavoro.

https://storify.

com/gborruso/

younginnovationai-territori-digitalispunti-dai

sviluppate direttamente su

Facebook o Twitter. Infatti,

la questione più interessante

non è il fatto che i politici e

i cittadini hanno discusso direttamente

in merito al progetto,

questo può accadere

anche nella piazza della città,

ma il fatto che i social media

possono essere considerati

come una lavagna enorme

nella piazza sulla quale le posizioni

di tutti saranno scritte

in modo indelebile. E questo,

ad esempio, per un politico

ha il peso di una dichiarazione

ufficiale.

Come già abbondantemente

argomentato nei numeri

precedenti della rubrica un

potente strumento di sintesi

è rappresentato dall’analisi

delle discussioni sui social

network. Il gruppo del Parco

del Basento ha registrato ne

periodo gennaio 2012 aprile

2014 circa 851 discussioni

con un elevato numero di

commenti e “mi piace”. In

qualsiasi processo partecipato

tradizionale sarebbe alquanto

difficile raggiungere una livello

confrontabile di scambio di

idee.

Le stesse reti semantiche costruite

a partire dalle discussioni

sviluppate nei social

network sono un elemento

centrale nella visualizzazione

dei concetti chiave.

L’idea è di sintetizzare i

workflow di queste iniziative

in una griglia progettuale

comune, da adottare come

strumento di valutazione del

livello di smartness di una

città (o di un territorio, in

senso più ampio), evidenziando

le necessità di quel particolare

contesto e ponendo le

basi per la loro risoluzione.

Soltanto in quest’ultima fase

il ricorso a soluzioni di tipo

hi-tech viene considerato,

nel quadro del suo effettivo

apporto alla risoluzione delle

istanze urbane.

48 GEOmedia n°2-2015


MERCATO

MassiMa Flessibilità e PerForMance.

in un’unica stazione totale.

Immagina di avere bisogno di un’unica stazione totale per effettuare

ogni tipo di raccolta dati e che possa gestire immagini, scansioni e

rilievi tradizionali. Una stazione totale capace di creare modelli 3D,

documentazioni visuali, nuvole di punti e molto altro ancora.

Lo strumento a cui stai pensando e’ la stazione totale Trimble ® S7.

Trimble S7 ha le più avanzate caratteristiche e tecnologie Trimble,

con la flessibilità e la performance di cui hai bisogno, per ogni

tuo progetto.

Trimble S7

Total Station

Scansioni ricche di particolari con

Trimble SureScan

Posizione in tempo reale della

tua strumentazione, con Trimble

Locate2Protect

Arricchisci di immagini il tuo lavoro,

utilizzando la tecnologia Trimble

VISION

Misura più lontano e più veloce con

Trimble DR Plus EDM

La documentazione geo-spaziale

comprensiva di tutto quello che serve –

con Trimble Business Center

Vai sul sito Trimble.com/geospatialTS

© 2015, Trimble Navigation Limited. Tutti i diritti riservati. Trimble e il logo Globe e Triangle sono marchi commerciali di Trimble Navigation Limited,

registrati negli Stati Uniti e in altri paesi. SureScan e VISION sono marchi di Trimble Navigation Limited. Tutti gli altri sono marchi dei rispettivi

proprietari. GEO-068A-ITA (05/15)

GEOmedia n°1-2015 49


AGENDA

1-4 giugno 2015

HxGN LIVE LAS 2015

Las Vegas (USA)

www.geoforall.it/fryr

4 giugno 2015

Tavola rotonda sull'Italia 3D vista

dalle strade organizzata da AMFM

Roma

www.geoforall.it/kkryd

9-11 Giugno 2015

World Geospatial Developers

Conference

China

www.geoforall.it/hhfa

17 - 19 giugno 2015

GIT Geosciences and Information

Technology

San Leo (RN)

www.geoforall.it/kka9h

22-25 giugno 2015

Tenth International Conference

on "Geographical Analysis, Urban

Modeling, Spatial Statistics" GEOG-

AND-MOD 15

Canada

1-3 luglio 2015

Innorobo 2015

Lione (Francia)

www.geoforall.it/kk6f6

7-10 luglio 2015

GI-Forum 2015

Salzburg (Austria)

www.geoforall.it/fryy

14-17 Luglio 2015

FOSS4G Europe Conference

Como

europe.foss4g.org/2015/

2-5 settembre 2015

The 2nd International Conference on

Augmented and Virtual Reality

Lecce

www.salentoavr.it/

13 - 18 settembre 2015

AQUA 2015

Roma

www.iah2015.org

14-18 september 2015

6th ESA Advanced Training Course

on Land Remote Sensing

Bucarest (Romania)

15-17 settembre 2015

INTERGEO 2015

Stuttgart (Germany)

www.geoforall.it/fryc

28 - 30 settembre 2015

ISPRS Laser Scanning 2015 e

GeoSpatial Week

La Grande Motte (Francia) -

www.geoforall.it/kkwq9

29 settembre - 1 ottobre 2015

XIX Conferenza Nazionale ASITA

Lecco

www.geoforall.it/frca

20-23 October 2015

Earth Observation for Water Cycle

Science 2015

Frascati

www.geoforall.it/kk8x4

27-29 Ottobre 2015

5th International Galileo Science

Colloquium

Braunschweig (Germany)

www.geoforall.it/kk6cc

23 novembre 2015

Third Eurographics Workshop

on Urban Data Modelling and

Visualisation

Delft The Netherlands

www.geoforall.it/kkc39

24-26 giugno 2015

Convegno SIFET

Firenze

www.geoforall.it/kk9kr

SOLUZIONI INNOVATIVE

PER IL mONITORAggIO AmbIENTALE

E RILIEVI dI ALTA PREcISIONE

Dal 1986 Teorema srl

lavora a fianco del professionista fornendo

la tecnologia più avanzata, la migliore consulenza

e un’accurata assistenza post-vendita

per rendere affidabile e produttivo il vostro lavoro.

TS50

Stazione

Totale

www.disto.it • www.geomatica.it • www.termocamere.com

Via A. Romilli, 20/8 20139 Milano • Tel. 02 5398739 • teorema@geomatica.it

Leica Nova TS50 & TM50

❚❚Massima precisione angolare 0.5”

❚❚Precisione Puntamento Automatico 0.5” (ATR)

❚❚Precisione EDM: 0.6 mm + 1 ppm su prisma

sino a 10.000 m

❚❚Laser PinPoint, precisione 2 mm + 2 ppm

❚❚Ricerca automatica dei Prismi (ATR)

TS50: oltre 1000 metri

TM50: oltre 3000 metri

❚❚Fotocamera grandangolare e coassiale

a 30 ingrandimenti per immagini ad alta

risoluzione da 5 Mpixel

❚❚Live Stream a 20Hz

TM50

Stazione

di Monitoraggio

❚❚Report di misura corredato da immagini

❚❚Messa a Fuoco Automatica (Autofocus)

❚❚Connettività wireless LAN, USB,

Bluetooth ® , RS232

❚❚Motori Hz e V Piezo High Dynamic: massima

velocità ed accelerazione

❚❚IP65/MIL

❚❚Software Leica Smartworx

❚❚Memoria interna: 1GB , Scheda SD, USB

❚❚Facilità d’uso e flussi di lavoro semplificati

❚❚Software performanti di elaborazione dati e

monitoraggio periodico e stand-alone


LA GESTIONE

EFFICIENTE

E INTEGRATA

DELLE RETI TECNOLOGICHE

MUUG (Multi Utilities User Group) è la soluzione Sinergis per

la gestione delle reti di distribuzione di servizi - energia,

acqua, gas, illuminazione pubblica, telecomunicazioni - che

aiuta le aziende multi utility a pianificare nel modo più corretto

l’erogazione, sia in termini geografici sia quantitativi, delle

risorse ai propri clienti. Basata sui prodotti leader di mercato

ArcFM di Schneider e ArcGIS di Esri, MUUG è la soluzione

che adegua i sistemi delle multi utility alla normativa e agli

standard operativi in uso in Italia.

www.sinergis.it


In mare parliamo

la stessa lingua.

MaRS è la divisione Codevintec dedicata

al noleggio di strumentazione marina.

MaRS ha gli strumenti in Italia, ha tecnici

ed operatori italiani, fornisce assistenza

tecnica immediata.

In italiano.

MaRS offre noleggi a breve e lungo termine.

Anche con operatore.

Consulenze, installazioni ed elaborazioni.

> Multibeam Beamformer Reson

> Multibeam interferometrici SEA

> Posizionamento e assetto Applanix

POS MV/LV

> Side Scan Sonar Edgetech

> Sub Bottom Profiler Edgetech

> ROV Remotely Operated Vehicles

> ADCP

> USBL

> Strumentazione ausiliaria:

GPS/GNSS RTK, OmniStar e MarineStar,

SVS, SVP, Link radio UHF, Bussole GPS...

MaRS

noleggi & soluzioni

Lungomare P. Toscanelli, 64 tel. +39 02 4830.2175

00122 Lido di Ostia RM mars@codevintec.it

MaRS è una divisione di

CODEVINTEC

Tecnologie per le Scienze della Terra

More magazines by this user
Similar magazines