energia del mare

mediageo

Rivista bimestrale - anno XVIII - Numero 5/2014

Sped. in abb. postale 70% - Filiale di Roma

www.rivistageomedia.it

La prima rivista italiana di

geomatica e geografia intelligente

N°5

2014

energia

del mare

come valutarla

All'interno

inserto

Speciale

UAV per la

geomatica

ALGORITMI SPAZIALI E

RISCHIO IDRAULICO

MONITORAGGIO E INDIVIDUAZIONE DI

AREE POTENZIALMENTE INQUINATE

UN MODELLO DI ANALISI DELLA

PEREQUAZIONE CATASTALE

GUEST PAPER: ISTAT DATA UTILIZATION

TO ENHANCE LANDSAT 8 IMAGES


SOLUZIONI INTEGRATE

GIS - TELERILEVAMENTO - FOTOGRAMMETRIA

Nell’ambito delle strategie del gruppo Hexagon AB, la rete commerciale e i prodotti di ERDAS sono

stati incorporati in Intergraph, estendendone l’offerta e la capacità di veicolare i prodotti sul mercato

attraverso un referenziato canale di distribuzione, la società Planetek Italia. Il nuovo portafoglio di

soluzioni è oggi perfettamente in grado di integrare GIS, Telerilevamento e Fotogrammetria, coprendo

l’intero ciclo di vita del dato: Acquisizione, Elaborazione, Gestione e Distribuzione.

La nuova offerta di Intergraph fornisce una soluzione globale “GeoSpatial” a 360°: la connessione

nativa e l’integrazione di complesse elaborazioni ed analisi (vector, raster e video), permette di trarre il

massimo vantaggio dalle molpeplici sorgenti dell’informazione geografica, realizzando così sistemi di

“REAL TIME DYNAMIC GIS”.

geospatial.intergraph.com/2013

© 2013 Intergraph Corporation. Intergraph is part of Hexagon. All rights reserved. Intergraph and the Intergraph logo are registered

trademarks of Intergraph Corporation or its subsidiaries in the United States and in other countries.


Mare-matica

www.rivistageomedia.it

GEOmedia, bimestrale, è la prima rivista italiana di geomatica.

Da oltre 15 anni pubblica argomenti collegati alle tecnologie

dei processi di acquisizione, analisi e interpretazione dei dati,

in particolare strumentali, relativi alla superficie terrestre.

In questo settore GEOmedia affronta temi culturali e

tecnologici per l’operatività degli addetti ai settori dei sistemi

informativi geografici e del catasto, della fotogrammetria e

cartografia, della geodesia e topografia, del telerilevamento

aereo e spaziale, con un approccio tecnico-scientifico e

divulgativo.

Direttore

RENZO CARLUCCI

direttore@rivistageomedia.it

Comitato editoriale

Fabrizio Bernardini, Luigi Colombo, Mattia Crespi, Luigi Di

Prinzio, Michele Dussi, Michele Fasolo, Beniamino Murgante,

Mauro Salvemini, Domenico Santarsiero, Donato Tufillaro

Direttore Responsabile

FULVIO BERNARDINI

fbernardini@rivistageomedia.it

Redazione

redazione@rivistageomedia.it

SANDRA LEONARDI

sleonardi@rivistageomedia.it

GIANLUCA PITITTO

gpititto@rivistageomedia.it

Marketing e Distribuzione

ALFONSO QUAGLIONE

marketing@rivistageomedia.it

Diffusione e Amministrazione

TATIANA IASILLO

diffusione@rivistageomedia.it

Progetto grafico e impaginazione

DANIELE CARLUCCI

dcarlucci@rivistageomedia.it

MediaGEO soc. coop.

Via Palestro, 95

00185 Roma

Tel. 06.62279612

Fax. 06.62209510

info@rivistageomedia.it

ISSN 1128-8132

Reg. Trib. di Roma N° 243/2003 del 14.05.03

Stampa: SPADAMEDIA srl

VIA DEL LAVORO 31,

00043 CIAMPINO (ROMA)

Editore: mediaGEO soc. coop.

Condizioni di abbonamento

La quota annuale di abbonamento alla rivista è di 45,00.

Il prezzo di ciascun fascicolo compreso nell’abbonamento

è di 9,00. Il prezzo di ciascun fascicolo arretrato è di 12,00.

I prezzi indicati si intendono Iva inclusa. L’editore, al fine di

garantire la continuità del servizio, in mancanza di esplicita

revoca, da comunicarsi in forma scritta entro il trimestre

seguente alla scadenza dell’abbonamento, si riserva di inviare

il periodico anche per il periodo successivo. La disdetta

non è comunque valida se l’abbonato non è in regola con i

pagamenti. Il rifiuto o la restituzione dei fascicoli della Rivista

non costituiscono disdetta dell’abbonamento a nessun effetto.

I fascicoli non pervenuti possono essere richiesti dall’abbonato

non oltre 20 giorni dopo la ricezione del numero successivo.

Numero chiuso in redazione il 15 Dicembre 2014.

Gli articoli firmati impegnano solo la responsabilità

dell’autore. È vietata la riproduzione anche parziale del

contenuto di questo numero della Rivista in qualsiasi forma e

con qualsiasi procedimento elettronico o meccanico, ivi inclusi

i sistemi di archiviazione e prelievo dati, senza il consenso

scritto dell’editore.

Rivista fondata da Domenico Santarsiero.

Su un recente numero di Coordinates, importante rivista internazionale del nostro

settore, il professore di geodinamica dell’Università di Stoccolma, Nils-Axel Mörner, ha

smentito le asserzioni del suo collega John Hannah, professore emerito di geodesia alla

University di Otago in Nuova Zelanda, sostenendo che nel corso degli ultimi 150 anni il

livello del mare non è aumentato in modo significativo e non ci si dovrebbe aspettare

che ciò avvenga nel corso dei prossimi 100 anni.

L’interesse per la controversia, superata la naturale apprensione che un’idea di

innalzamento costante del livello del mare può creare, porterebbe interessanti

quesiti a livello geomatico e per primo il calcolo altimetrico, la questione dell’origine

convenzionale delle altezze, la cosiddetta quota zero. I sistemi di riferimento per la

quota, utilizzati per la mappatura topografica e per i modelli digitali del terreno nella

costruzione di infrastrutture costiere di ingegneria sono in genere riferiti al livello medio

del mare. I confini catastali costieri sono anche definiti con riferimento al “datum” del

livello del mare.

In fin dei conti, se non c'è un costante aumento del livello del mare, a parte i danni

derivati dalle tempeste e dai normali processi di erosione costiera, che hanno prevalso

nel corso degli ultimi due millenni, non ci dovrebbero essere neanche problemi di

variazioni costiere con inondazioni di terre a lungo termine.

Il prof. Hannah sostiene che gli Oceani globalmente sono aumentati ad un tasso lineare

di circa 1,8 mm all’anno nel corso del 20° secolo, basandosi su dati altimetrici satellitari

e altre fonti. Ritiene inoltre che anche se rimangono discussioni e perplessità sul fatto

che quest’aumento sia permanente, o rifletta invece qualche andamento oceanico

periodico, o se vi sia stata un’accelerazione del tasso d’innalzamento del livello del mare

nel corso degli ultimi decenni, i migliori scenari futuri indicano un probabile aumento del

livello globale compreso tra 0,26 m e 0,82 per il periodo 2081-2100.

Il prof. Nils-Axel Mörner invece, contesta le analisi derivate dalle misurazioni altimetriche

satellitari con le osservazioni dirette, facendo notare che ci sono fenomeni di subsidenza

in molte zone, come ad esempio quello conosciuto di 2,3 mm all’anno di Venezia.

Nella disputa si innestano più sfide per le generazioni future se viene considerato che

le Nazioni Unite indicano come problema più importante legato all'ambiente globale

la relazione riguardante l'allineamento della “governance” del territorio con le sfide

della sostenibilità globale. Se il cambiamento climatico di origine antropica è una

finzione o, in effetti, presentasse poche minacce per il mondo del futuro, allora la sfida

della sostenibilità globale diventerebbe meno imminente, dando alla specie umana più

tempo per affrontare alcuni dei suoi problemi ambientali profondi.

Al di là di chi abbia ragione nel dibattito, Coordinates sembrerebbe averlo sollevato

senza lasciare nell’anonimato, consueto alla gran partte della letteratura attuale, la

contraddizione teorica evidente, o senza volerne misconoscere la fonte, scaturita dalla

capacità e potenza di calcolo analitico. Tuttavia anche l’opinionismo corrente propone

ancora una volta un modello matematico! Computer contro computer.

Buona lettura,

Renzo Carlucci

Conserva il piacere di sfogliare GEOmedia,

sottoscrivi l'abbonamento!

www.mediageo.it/abbonamenti


SOMMARIO 5 - 2014

FOCUS

6

La Geomatica per la valutazione della risorsa Energia

dal Mare: progettazione e sviluppo del DSS-Web GIS

“Waves Energy” di Maurizio Pollino, Luigi La Porta e Emanuela Caiaffa

10 NUOVE TECNOLOGIE SPAZIALI PER LA GESTIONE DEL

RISCHIO IDRAULICO NELLA PIANIFICAZIONE TERRITORIALE

di Laura Bassan e Gianfranco Pozzer

REPORTS

20

Integrazione fra ARCGIS e

EPANET2 per la modellazione

16 LA PEREQUAZIONE CATASTALE: UN MODELLO DI ANALISI

di Bruno Monti

18 QUALCHE RIFLESSIONE SULL’INTERAZIONE FRA UNIVERSITÀ

E INDUSTRIA NEL SETTORE OTTICO-MECCANICO

di Attilio Selvini

idraulica delle reti

di Mario Scandura

36 PROGETTO MIAPI - MONITORAGGIO E INDIVIDUAZIONE DELLE

AREE POTENZIALMENTE INQUINATE

di Laura Petriglia, Christian Peloso e Salvatore Costabile

GUEST PAPER

42 ISTAT DATA UTILIZATION TO ENHANCE LANDSAT 8 IMAGES

CLASSIFICATION PROCESS by Stefano Mugnoli and Raffaella Chiocchini

SPECIALE UAV

24 Valutazioni metriche di

piattaforme apr per rilievi

e modellazioni 3D

di Mauro Lo Brutto,

Alessandra Garraffa e Paolo Meli

Inserzionisti

Aerrobotix 46

CGT 14

Codevintec 52

Crisel 32

Flytop 41

Geomax 31

Intergraph 2

Microgeo 30

Planetek 4

Sinergis 15

Sistemi Territoriali 29

Teorema 50

Trimble 51

ALTRE RUBRICHE

In copertina un'immagine acquisita dal satellite

Landsat-8 che mostra le strutture sottomarine del

Great Bahamas Bank.

Si può chiaramente osservare dove le acque superficiali

scendono in profondità all'interno di

un'area scura nota come Tongue of the Ocean.

La fossa ha avuto origine durante l'ultima Era Glaciale,

quando il territorio era ancora al di sopra del

livello del mare e per questo esposto all'erosione

determinata dal drenaggio delle acque piovane.

Una volta che l'Era Glaciale ebbe fine si verificò di

conseguenza lo scioglimento dello strato di ghiaccio

globale: il livello del mare si innalzò e le acque

inondarono la fossa.

31 MERCATO

41 RECENSIONE

47 GI IN EUROPE

48 SMART CITIES

50 AGENDA


FOCUS

La Geomatica per la valutazione della

risorsa Energia dal Mare: progettazione e

sviluppo del DSS-WebGIS “Waves Energy”

di Maurizio Pollino, Luigi La Porta e Emanuela Caiaffa

Le tecnologie GIS sono in grado di fornire

un utile strumento per la stima della risorsa

energia dal mare, valutando sia se questa

energia è sfruttabile, sia gli impatti sulle

realtà sociali ed ambientali presenti in mare

aperto e/o nell’ambiente costiero.

Il DSS-WebGIS “Waves Energy” costituisce

uno strumento per la rappresentazione dei

dati e delle informazioni territoriali, la loro

condivisione con utenti esterni è un valido

supporto alla pianificazione delle nuove

installazioni, al sistema previsionale ed alla

gestione delle infrastrutture esistenti.

Fig. 2 - Interfaccia del WebGIS “Waves Energy”.

Nell’ambito delle attività relative

al progetto “Ricerca di

Sistema Elettrico”, frutto di

un accordo programmatico tra il Ministero

dello Sviluppo Economico e

l’ENEA, è stata sviluppata un’applicazione

web di tipo GIS-based, denominata

“Waves Energy”. Concepita

per la condivisione e fruizione di dati

geografici di tipo marino e costiero,

tale applicazione si configura come

uno strumento per la stima della risorsa

energia dal mare.

Fig. 1 - Schema architetturale dell’applicazione WebGIS “Waves Energy”.

Il WebGIS è raggiungibile all’indirizzo:

http://utmea.enea.it/energiadalmare/.

L’applicazione è stata realizzata ricorrendo

ad ambienti di sviluppo di tipo

free/open source (FOSS), che comprendono

un insieme di soluzioni applicative

adatte agli scopi suddetti ed

implementabili nel contesto di in una

piattaforma ben integrata e di agevole

utilizzo.

Questa soluzione ha permesso di

pubblicare su Web le informazioni

geospaziali di interesse (mappe tematiche

e layer di tipo marino e costiero),

secondo gli standard previsti

dall’Open Geospatial Consortium

(OGC-www.opengeospatial.org/),

mediante una serie di specifiche funzionalità

per la visualizzazione e la

consultazione delle mappe tematiche

in un framework concepito su misura

per l’applicazione “Waves Energy”.

OBIETTIVI DEL LAVORO

Il WebGIS “Waves Energy” è stato

progettato ed implementato con l’obiettivo

di archiviare e gestire dati

geografici e territoriali relativi alle

aree marine e costiere di interesse e,

quindi, fornire supporto nella stima

della risorsa energia dal mare, valutando

sia se questa energia è sfruttabile,

sia gli impatti sulle realtà sociali

ed ambientali presenti in mare aperto

e/o nell’ambiente costiero. I dati

geospaziali di base e le mappe elaborate

sono stati archiviati e gestiti in

un repository, strutturato ad hoc. In tal

modo, il WebGIS costituisce la naturale

interfaccia geografica del Sistema

di Supporto alle Decisioni (DSS)

previsto nel progetto: le informazioni

territoriali di base e le mappe ela-

6 GEOmedia n°5-2014


FOCUS

borate possono essere visualizzate

ed interrogate via web, tramite un

comune browser internet o tramite

dispositivi mobili (ad esempio,

i tablet), ed in tal modo i principali

risultati prodotti sono stati resi fruibili

in maniera open ed accessibili

on-line.

Gli obiettivi specifici del DSS-

WebGIS “Waves Energy” sono:

4Delineare e caratterizzare il territorio

marino e costiero oggetto di

studio ed analisi;

4Supportare l’analisi integrata delle

aree di interesse, congiuntamente

all’individuazione di specifici

indicatori ambientali, per le

fasi connesse alla progettazione

di nuovi impianti;

4Fornire supporto al sistema di

previsione e monitoraggio;

4Condividere dati, mappe e informazioni

mediante il Web.

Tali funzionalità hanno richiesto una

gestione avanzata ed integrata di:

4dati geo-spaziali di base necessari

alla caratterizzazione del territorio

marino e costiero di interesse, nelle

sue diverse componenti naturali ed

infrastrutturali;

4dati geo-spaziali elaborati a supporto

della gestione, della pianificazione,

della previsione meteomarina,

etc.

Tra i vantaggi legati all’utilizzo della

tecnologia WebGIS vi sono:

4la condivisione globale di informazioni

geografiche e dati geospaziali;

4la facilità d’uso da parte dell’utente

(il WebGIS è utilizzabile attraverso i

comuni browser internet);

4la diffusione in rete e la capacità di

raggiungere una platea più vasta di

fruitori.

Fig. 3 - Forecasting: Sovrapposizione GIS delle mappe tematiche relative all’altezza ed alla

direzione delle onde, con relativo grafico orario giornaliero.

dei dati di base, nonché per la loro

elaborazione geo-statistica. In questo

contesto, un ruolo fondamentale

è quello svolto dai dati provenienti

dalle simulazioni effettuate con i modelli

numerici oceanografici (modello

WAM su tutto il bacino del Mediterraneo):

tali dati, prodotti sotto forma

di file in formato NetCDF (Network

Common Data Form- http://www.

unidata.ucar.edu/software/netcdf/ ),

tramite opportune elaborazioni, sono

stati trasformati in un formato GIS

compatibile (Esri shapefile, .shp) e

resi disponibili per le successive fasi

operative.

Quindi, per implementare adeguatamente

il WebGIS in oggetto, è stata

adottata un’architettura Client-Server

per l’interscambio dei dati geospaziali

attraverso il Web, avvalendosi di

pacchetti software FOSS e conferendo

al tutto caratteristiche di originalità

e versatilità applicativa.

L’architettura logica del WebGIS è riportata

nella Figura 1 e si articola nella

seguente catena operativa:

4Repository Dati -> Web Server (GeoServer)

-> Libreria (OpenLayers)

-> Map Viewer (WebGIS)

Il Repository Dati individua l’area di

archiviazione che contiene l’insieme

dei dati da utilizzare (in formato GIS) e

che consentono l’accesso unicamente

agli apparati definiti fisicamente a

livello della Storage Area Network, in

modo da garantire l’assoluta integrità

e coerenza degli stessi.

Per Web Server si intende l’insieme

hardware/software che consente al

sistema di organizzare le informazioni

e renderle fruibili alla rete. Nel caso in

oggetto si è scelto di utilizzare Geo-

Server (http://geoserver.org/display/

GEOS/Welcome).

Fondamentale, pertanto, diviene l’utilizzo

di tale approccio GIS come

strumento di supporto ai processi

decisionali e di pianificazione, ossia

come componente di un sistema più

articolato e complesso quale il summenzionato

DSS, a supporto dell’utilizzo

della risorsa energia dal mare.

METODOLOGIA E ARCHITETTURA

DELL’APPLICAZIONE DSS-WEBGIS

“WAVES ENERGY”

Una fondamentale fase preliminare

ha visto il ricorso a procedure ed

algoritmi GIS di analisi spaziale (geoprocessing),

per l’elaborazione, l’omogeneizzazione

e l’organizzazione

Fig. 4 - Mappe di forecasting: subset l’area di interesse della costa sarda occidentale.

visita il sito www.rivistageomedia.it

7


FOCUS

Esso è un consolidato applicativo server

open source, che svolge la funzione

di nodo nell’infrastruttura SDI (Spatial

Data Infrastructure) implementata

e permette di condividere e gestire

(secondo differenti privilegi di accesso)

gli strati informativi archiviati nel

proprio repository. Inoltre, supporta

l’interoperabilità (legge e gestisce

vari formati di dati raster e vettoriali).

In considerazione di queste caratteristiche

Geoserver è stato sfruttato per

gestire i layers (mappe tematiche,

strati informativi di base, etc.) archiviati

nella banca dati geospaziale realizzata

nel corso delle attività e per

la loro successiva pubblicazione in

rete secondo gli open standard previsti

dall’Open Geospatial Consortium

(OGC), quali - ad esempio - il

Web Map Service (WMS- http://www.

opengeospatial.org/standards/wms).

OpenLayers (http://www.openlayers.

org/) è una libreria JavaScript di tipo

Open Source per visualizzare mappe

interattive nei browser web. Open-

Layers offre una cosiddetta Application

Programming Interface (API)

per poter accedere a diverse fonti di

informazioni cartografiche in Internet

come: WMS, WFS, mappe di tipo

commerciale (Google Maps, Bing,

etc.), diversi formati vettoriali, mappe

del progetto OpenStreetMap, etc.

Per quanto riguarda l’utilizzo del

WebGIS, l’utente (non necessariamente

dotato di specifiche conoscenze

GIS) attraverso un normale

browser web può visualizzare le

mappe che rappresentano i risultati

prodotti nell’ambito delle attività

progettuali. In particolare, per la visualizzazione

dei dati di interesse, si

è fatto ricorso allo standard WMS, per

mezzo di un approccio di tipo mapserver

che consente di produrre mappe

tematiche di dati georeferenziati e

rispondere a query di base sul contenuto

delle mappe stesse.

Fig. 5 - Mappa tematica dell’energia delle onde ricavata dai dati climatologici (2001-2010).

Fig. 6 - Tematismo dei valori medi di energia nel decennio di osservazione (2001-2010) e relativi grafici

per le coste della Sicilia.

FUNZIONALITÀ DELL’APPLICAZIO-

NE “WAVES ENERGY”

L’applicazione “Waves Energy” rende

disponibili varie funzionalità di base

tipiche dei WebGIS, come zoom, pan,

trasparenza, misure lineari ed areali,

etc. (Figura 2).

Inoltre, cliccando su un punto qualsiasi

del layer selezionato, vengono

mostrate le informazioni o gli attributi

quantitativi relativi al punto prescelto

(inquiry).

I dati esposti dal WebGIS possono

essere raggruppati, in base alle loro

caratteristiche e specifiche, in tre distinte

tipologie:

a) Previsioni (“Forecasting”)

b) Serie storiche (“Climatology”)

c) Strati informativi di base (“Other

Layers”)

I primi, disponibili per tutto il Mediterraneo

(con risoluzione spaziale circa 3

km, 1/32 di grado), forniscono la previsione

a 5 giorni, ad intervalli orari, delle

seguenti grandezze fisiche: Energia

delle onde (Wave Energy); Altezza delle

onde (Wave Height), Direzione delle

onde (Wave Direction), Periodo (Wave

Period). Ad esempio, per gli strati informativi

di tipo previsionale del moto

ondoso (altezza, direzione, etc.), selezionando

un punto d’interesse sulla

mappa è possibile ottenere uno specifico

grafico che mostra l’andamento

temporale delle variabili selezionate

nel corso dei successivi cinque giorni,

ad intervalli orari (Figura 3).

Inoltre, questi stessi dati sono disponibili

e visualizzabili in maggior dettaglio

per alcune sotto-aree di interesse

(Figura 4).

I dati indicati al precedente punto b),

invece, sono ricavati da serie storiche

e sono relativi al potenziale energetico

da onde e contengono i valori medi di

energia in kW/m nel periodo 2001-

2010, suddivisi anche per periodi trimestrali

(Figura 5).

Tali layer tematici sono, ovviamente,

raggruppati alla voce “Climatology”

dell’applicazione WebGIS. In particolare

nel WebGIS sono stati inseriti anche

i dati per tutto il Mediterraneo e

lungo le coste italiane per una fascia

di 12 Km (Figura 6).

Nella terza categoria, infine, sono rag-

8 GEOmedia n°5-2014


FOCUS

Fig. 7 - Visualizzazione delle Aree Marine Protette in Italia (fonte dato GIS: SINANET) e dei principali

porti italiani. Tematizzazione della batimetria (fonte: GEBCO) e della distanza dalla costa.

gruppati tutta una serie di dati geospaziali

ed informazioni territoriali/

ambientali di base, quali informazioni

tematiche accessorie, a complemento

delle precedenti per un migliore

inquadramento geografico e tematico.

Le più importanti sono: Batimetria

del Mediterraneo (fonte: GEB-

CO - General Bathymetric Chart of

the Oceans: http://www.gebco.net/

data_and_products/gridded_bathymetry_data/);

Subset della Batimetria

compresa tra 0 e 200 m; Fasce di distanza

dalla costa: 0-25 km e 25-50

km (layer ricavati appositamente dai

dati GEBCO); Porti principali; Aree

Marine Protette Italiane (fonte: SINA-

NET) come mostrato nella Figura 7.

CONCLUSIONI

È universalmente riconosciuta la capacità

delle mappe digitali di offrire

una visione d’insieme di fenomeni

ambientali, contribuendo attraverso

opportune descrizioni e tematizzazioni

alla comprensione degli stessi,

nonché alle relazioni che li legano tra

loro e con altre entità compresenti.

Le attività descritte nel presente studio

si sono concretizzate nello sviluppo

di una specifica applicazione DSS-

WebGIS, finalizzata alla pubblicazione

delle cosiddette mappe/layer tematici

di previsione (forecasting) e di

serie storiche climatiche (climatology)

elaborate, nonché nella realizzazione

di una condivisione in rete delle informazioni

geospaziali utilizzate e di

quelle prodotte. Le mappe tematiche

prodotte sono in grado non solo di

mostrare una serie di informazioni

e dati di interesse, ma anche di rappresentare

uno strumento a supporto

delle politiche di gestione e monitoraggio

legate all’utilizzo della risorsa

energia dal mare.

RINGRAZIAMENTI

Le attività descritte nel presente articolo

rappresentano uno dei risultati

conseguiti nell’ambito del Progetto

“Ricerca di Sistema Elettrico” (Piano

Annuale di Realizzazione 2013-2014),

promosso dall’Accordo di Programma

tra il Ministero dello Sviluppo Economico

e l’ENEA (Agenzia nazionale

per le nuove tecnologie, l’energia e

lo sviluppo economico sostenibile).

Gli autori desiderano ringraziare tutti

i colleghi con cui hanno condiviso

lo svolgimento delle suddette attività

ed, in particolare, Gianmaria Sannino

(referente ENEA per le attività progettuali),

Adriana Carillo ed Emanuele

Lombardi.

BIBLIOGRAFIA

- Caiaffa E., Borfecchia F., Carillo A., La Porta L.,

Pollino M., Liberti L., Sannino G.: “Tecnologie GIS

per la valutazione della risorsa energia dal mare”,

Atti della 17.ma Conferenza Nazionale ASITA, Riva

del Garda 5-7 Novembre 2013

- Caiaffa E. et al.: “Energia dal mare: modelli numerici

e GIS per la valutazione 2013del potenziale

energetico”. GEOmedia, 15(6), 2012

- Bargagli, A. Carillo, V. Ruggiero, P. Lanucara, G.

Sannino, “Modello di onde per l’area mediterranea”

http://www.enea.it/it/Ricerca_sviluppo/ricerca-di-sistema-elettrico/correnti-marine

- Zambresky L. and Ewing J.A.: “The WAM model - a

third generation ocean wave prediction model”, J.

Phys. Ocean. 18, 1775 – 1810, 1988

- Janssen P. and Bidlot J.R.: “ECMWF Wave Model

Operational - implementation 9 April 2002”, IFS

Documentation Cy25R1

PAROLE CHIAVE

energie rinnovabili; GIS; energia dal mare; sviluppo

sostenibile; supporto alle decisioni

ABSTRACT

GIS methodologies and technologies are able

to provide useful tools for the assessment of

sea-waves energy potential, by evaluating both

the exploitability of such resource, both the environmental/social

impacts in open sea and/or

in the coastal areas.

The DSS-WebGIS application developed (called

"Waves Energy") is a tool for providing and

publishing different geospatial data, sharing

information with a wide range of external user,

in order to support specific tasks, such as forecasting,

new installations planning and existing

infrastructures management.

AUTORI

Maurizio Pollino

maurizio.pollino@enea.it

Luigi La Porta

luigi.laporta@enea.it

Emanuela Caiaffa

emanuela.caiaffa@enea.it

ENEA UTMEA - Centro Ricerche della

Casaccia, Via Anguillarese, 301, 00123, Roma

visita il sito www.rivistageomedia.it

9


FOCUS

NUOVE TECNOLOGIE SPAZIALI PER LA

GESTIONE DEL RISCHIO IDRAULICO NELLA

PIANIFICAZIONE TERRITORIALE

di Laura Bassan e Gianfranco Pozzer

Lo scopo dello studio è quello di dimostrare, come e quanto,

l'urbanizzazione e l'impermeabilizzazione del suolo possono cambiare le

prestazioni idrauliche di una data geomorfologia. L'area di analisi comprende

il territorio dell'ex Consorzio di Bonifica Medio Astico Bacchiglione; un

test specifico è stato effettuato al Comune di Thiene in Provincia di Vicenza.

L’

ausilio di un apposito algoritmo

spaziale ha permesso di

testare la correlazione tra variazioni

di uso del suolo e coefficienti

di deflusso. Il test, eseguito a scala

di bacino idraulico, è stato effettuato

con l’uso del GIS nel comprensorio

dell’ex Consorzio di Bonifica Medio

Astico Bacchiglione. Il modello statistico

consente di correlare, per pattern

d’uso territoriale, i coefficienti di

deflusso alla morfologia del terreno.

In associazione alle funzioni di direzione

ed accumulo (hydrology tools

di ArcGIS), la metodologia restituisce

le dinamiche di deflusso superficiale

e la stima degli impatti idraulici per

variazione d’uso rispetto a due date

di riferimento (1954 e 2006). I risultati

possono orientare le politiche di

riqualificazione e restauro territoriale

in un periodo di crescenti criticità.

OBIETTIVI DEL CASO STUDIO

Azioni antropiche ed eventi naturali

contribuiscono alla definizione contestuale

di rischio. Gli effetti derivanti

dalla relazione fra le due componenti

sono spesso gestiti in modo settoriale.

Nel calcolo del rischio idraulico,

ad esempio, si tende a privilegiare la

dimensione idrogeologica, con una

gestione parziale del territorio. Ciò si

evince in particolare dalla lettura dei

quadri conoscitivi di pianificazione

territoriale e dalla carenza di modelli

empirici sulle relazioni tra dimensione

idraulica e dinamiche di contesto

(cambiamenti climatici, morfologie

insediative, inquinamento, deforestazione,

ecc.). Mappe istituzionali,

come quelle fornite dal Piano

Stralcio per l’Assetto Idrogeologico

(PAI), si limitano ad una

valutazione delle dinamiche di

bacino, nonostante studi empirici

evidenzino la correlazione esistente

tra coefficienti di deflusso

delle acque, processi di urbanizzazione

e di uso del suolo

Fig. 1 - Localizzazione del comprensorio dell’ex Consorzio di

Bonifica Medio Astico Bacchiglione su modello hillshade da

DTM (passo 25 m) della provincia di Vicenza.

(Bassan e Pozzer, 2011 e

2013; EPA, 2009; Pistocchi,

2001, Van Der Plog et al.,

2002). Questa correlazione

è influenzata dall’intensificarsi del ciclo

idrologico globale, con picchi di

piena più elevati, ma di durata più

breve (Huntington, 2006). Il concetto

di rischio richiede un aggiornamento,

affiancando le informazioni correnti

sull’idraulica alle caratteristiche

geomorfologiche e di uso del suolo

rappresentate con innovative tecnologie

di remote sensing e analisi dei

dati spaziali in ambiente GIS. Tale

approccio dimostra come le nuove

tecnologie di gestione del territorio

contribuiscano a perfezionare i quadri

conoscitivi e gli scenari di trasformazione.

ArcGIS consente l’impiego di un algoritmo

di correlazione e associazione

tra tipi di uso del suolo e funzioni di

direzione e accumulo dell’acqua, con

lo scopo di stimare, in aree campione,

i livelli incrementali di impermeabilizzazione

e i relativi impatti idraulici. La

correlazione, forzata su scala idraulica,

ed in associazione ai pesi delle

variabili ambientali di tipo morfologico,

idraulico, ecologico e insediativo,

consente di riconoscere gradienti di

vulnerabilità ed esposizione. Le due

componenti del rischio sono variabili

di stato e possono essere trattate in

un modello di analisi multiscalare e

multitemporale assieme alla pericolosità

(stressor). Il prodotto logico fra

le tre componenti consente una rappresentazione

integrata e continua

del rischio, con l’evidenza degli usi

maggiormente impattanti e la misurazione

della salute idraulica del territorio

(monitoraggio). L’obiettivo è

contestualizzare e parametrizzare il

rischio idraulico in ambienti diversamente

urbanizzati, allo scopo di fornire

le conoscenze necessarie per la

messa in atto di strategie di valutazione

del danno, di compensazione, ma

anche di adattamento e mitigazione.

10 GEOmedia n°5-2014


FOCUS

NUOVE TECNOLOGIE PER LA GE-

STIONE DEL RISCHIO IDRAULICO

L’esperienza qui discussa evidenzia

l’efficacia del dato multifonte per una

corretta modellizzazione del rischio

idraulico nella pianificazione territoriale.

Affinché l’algoritmo restituisca

un modello di analisi affidabile, è necessario

che i quadri conoscitivi siano

aggiornati con approcci di lettura

transcalare e multitemporale. Nella

costruzione di un modello conoscitivo

innovativo, l’uso della sensoristica,

integrata a diverse tecnologie di rete

(wireless, cablata, ecc.), permette di

conoscere le dinamiche territoriali

sia sulla base di misure e rilievi sistematici

o occasionali, sia sulla base di

opinioni. Il territorio diventa così un

generatore di informazione. Ciò tende

ad irrobustire strategie di pianificazione

e forme di auto-organizzazione

in ottica Smart City, migliorando la

comunicazione e la trasparenza delle

informazioni tra soggetti, tra oggetti

(internet delle cose) e tra entrambi i

gruppi. In un contesto ICT, da anni in

costante sviluppo, anche l’intera società

può divenire intermediaria di informazioni,

producendo risposte real

time al susseguirsi temporale degli

eventi (p.es. Sterling, 2006). Ciò permette

una meno deterministica definizione

del rischio e una caratterizzazione

sociale della interoperabilità.

AREA DI STUDIO

Il test è stato eseguito nel comprensorio

dell’ex Consorzio di Bonifica

Medio Astico Bacchiglione (Provincia

di Vicenza), ora parte del Consorzio

di Bonifica Alta Pianura Veneta (Figura

1). Le motivazioni che hanno condotto

alla scelta dell’area di studio

sono:

1) la costante e continua criticità

idraulica che interessa il territorio

vicentino (alluvione 2010 ed

esondazioni recenti);

2) la disponibilità di materiali ed informazioni

derivanti da analisi e

monitoraggi sulla compatibilità

idraulica nel territorio di competenza

dell’ex Direzione Distretto

Bacino Idrografico Brenta e Bacchiglione

– Genio Civile di Vicenza,

ora Sezione Bacino idrografico

Brenta-Bacchiglione – Sezione di

Vicenza, per gli anni 2007 e 2008;

3) le caratteristiche di bacino idraulico

dell’ex territorio consortile.

Un affondo è stato eseguito per il Comune

di Thiene (VI).

ALGORITMO SPAZIALE PER

L’ANALISI DEL RISCHIO

IDRAULICO: METODOLOGIA

Con apposito algoritmo è possibile stimare

l’impatto che la pressione antropica

esercita sul regime idraulico del territorio

campione. La funzione utilizzata

per la stima degli impatti è la seguente:

idraulici è la seguente:

con P, coefficiente di deflusso calibrato

sul profilo d’uso del suolo, compresi

la tipologia di terreno, l’armatura

eco-sistemica (naturale e artificiale)

e il contesto di riferimento (clima,

geografia, fragilità ecc.). Il suffisso u

indica l’uso del suolo in İ.

Nello specifico i seguenti parametri

indicano:

P= coefficiente di deflusso associato

ad aree impermeabili (0,9 - per

la stima dei coefficienti di deflusso

sull’intero range si veda l’allegato

A della Dgr n. 2948 (Regione del

Veneto) del 6 ottobre 2009 “Valutazione

di compatibilità idraulica per la

redazione degli strumenti urbanistici.

Modalità operative e indicazioni

tecniche”),

P°= coefficiente di deflusso associato

ad aree permeabili (0,2),

F= accumulo di flusso calcolato su

modello digitale del terreno ad alta

precisione (DTM con passo di griglia

5 m),

F u

= accumulo di flusso correlato all’uso

del suolo (DBCS 2006 della Regione

del Veneto, topologicamente

corretto in scala 1:10000).

Il valore assegnato a P è strategico, in

quanto la sua correlazione con l’accumulo

di flusso F restituisce gli impatti

idraulici φ İ

. Il valore di tale correlazione

indica la % di pioggia che si trasforma

in deflusso superficiale (range

da 0,2 a 0,9). Il procedimento, calibrato

a scala di bacino, è cumulativo.

Per eseguire correttamente l’associazione

sono necessari alcuni passaggi

in ambiente GIS. Il metodo prevede,

in primo luogo, di forzare il sistema

idrografico del Quadro Conoscitivo

della Regione del Veneto sul DTM.

Attraverso lo strumento hydrology

tools (ArcMap) vengono eseguite le

funzioni di direzione (Figura 2) e accumulo

dell’acqua. Il processo viene

considerato in territorio non urbanizzato

(DTM non pesato, impatto 0) e

in territorio urbanizzato (DTM pesato,

con impatto non nullo). Il peso è dato

dai coefficienti di deflusso calibrati a

seconda degli usi del suolo, o grado

di impermeabilizzazione (DBCS

2006), e dalle diverse tipologie di terreno

(Carta delle litologie e Carta dei

suoli del Quadro Conoscitivo della

Regione del Veneto).

A partire dai risultati, la stima viene

effettuata con raster calculator, generando

l’impatto idrologico dell’impermeabilizzazione

φ İ

nella unità

spaziale İ (Figura 3). L’analisi consente

non solo di quantificare il rischio, ma

di capire quali usi abbiano modificato

maggiormente l’equilibrio idraulico

con effetti su esposizione e vulnerabilità.

Ciò facilita l’attivazione di azioni

di contenimento entro livelli di rischio

accettabili.

CASO STUDIO:

COMUNE DI THIENE (VI)

Il test si basa sullo sviluppo di riprese

aerofotogrammetriche e ortofoto di-

Fig. 3 - Impatti sul sistema idraulico relativi

all’uso del suolo all’anno 2006 (DBCS

2006): comprensorio dell’ex Consorzio di

Bonifica Medio Astico Bacchiglione.

Fig. 2 -

Funzione di

direzione

per l’ex

Consorzio

di Bonifica

Medio Astico

Bacchiglione

a partire da

DTM passo

5 m.

visita il sito www.rivistageomedia.it

11


FOCUS

Fig. 4 - Comune di Thiene: impatti sul sistema idraulico relativi all’uso del suolo per gli anni

1954 e 2006.

gitali per l’analisi multiscalare e multitemporale

delle dinamiche di uso del

suolo (Fotogrammi GAI 1954-1955,

ortorettificati e sottoposti ad una successiva

operazione di mosaicatura;

Ortofoto IT2000 NR, 2006-2007). Con

questa analisi è possibile individuare

come gli usi del territorio siano variati

nel corso degli ultimi cinquant’anni. Il

metodo consente una visione sistemica

del bacino e mette in luce come

i cambiamenti di uso del suolo siano

determinanti per gli impatti sul sistema

idraulico. Gli impatti dell’urbanizzato,

riferiti al 1954 e al 2006, sono

stati calcolati utilizzando per l’anno

1954 i fotogrammi del volo GAI, per il

2006 il DBCS e le ortofoto (Figura 4).

Per meglio evidenziare le differenze

tra le due annate (1954-2006) i coefficienti

di deflusso sono stati standardizzati,

in modo da renderli confrontabili.

I risultati mostrano come

il coefficiente di deflusso medio sia

aumentato nel cinquantennio di riferimento,

segnalando un notevole

peggioramento della salute idraulica

(Figura 5). Per l’anno 1954 era pari a

0,38, mentre nel 2006 è salito a 0,58.

La Figura 6 mostra la variazione nella

distribuzione dei pixel, rispetto ai

coefficienti di deflusso, per le due annate.

Dalla lettura comparata dei grafici,

si può notare come il coefficiente

0,4, il più frequente nell’anno 1954,

sia calato enormemente nell’anno

2006. Aumenta invece il coefficiente

0,8, trascurabile per la prima annata.

Questo spiega il passaggio da una

distribuzione unimodale per il 1954

ad una bimodale per il 2006. Gli usi

che maggiormente hanno contribuito

al cambiamento sono stati il tessuto

urbano discontinuo denso, la rete

Fig. 5 - Variazione netta (2006-1954) dei coefficienti di deflusso, e quindi degli impatti,

dall’anno 1954 all’anno 2006. Lo 0 indica assenza di cambiamento, mentre gli altri valori

indicano la variazione (differenza) del coefficiente nel periodo.

infrastrutturale e le aree industriali e

commerciali. I cambiamenti tra le due

annate hanno causato una riduzione

delle aree permeabili (agricole) di

circa il 30%. La figura 7 specifica le

variazioni per usi commerciali e produttivi.

Queste variazioni d’uso, causando

consumo di suolo e crescente

impermeabilizzazione, sottraggono

vie di fuga all’acqua meteorica, con

incremento dell’onda di piena e della

portata del corpo idrico ricevente.

Aree industriali e commerciali, essendo

nella loro quasi totalità impermeabili,

rendono difficile la realizzazione

di opere di compensazione idraulica

per filtrazione, anche in presenza di

schemi di drenaggio. Per ripristinare

un grado di permeabilità accettabile

è necessario operare non solo in

termini di uso del suolo, ma anche di

copertura (p.es. riduzione del volume

idrico in rete attraverso strategie di invaso,

drenaggio, riciclo e riuso). Nelle

aree ad uso residenziale, invece, la

gestione dei deflussi superficiali sembra

più governabile. Ciò è dovuto ad

un innesto morfologico più frammentario.

I due casi sono identificabili in

Figura 8.

RILETTURA DEGLI IMPATTI

ATTRAVERSO NEIGHBORHOOD

STATISTICS

Con l’aiuto di neighborhood statistics

gli impatti al 2006 sono stati standardizzati.

Ciò ha consentito di elaborare

una cartografia per aree a diversa

criticità idraulica (Figura 8) che potrebbe

condurre ad una specifica del

PAI su scala comunale e qualificare

eventuali piani delle acque. La zonizzazione

indica, in caso di eventi pluviometrici

di una certa intensità, dove

e con che grado di pericolosità si potrebbero

verificare situazioni di allagamento.

La mappa mostra in modo

dinamico le difficoltà idrauliche di

un certo territorio in relazione al suo

bacino di appartenenza. Al variare di

uno dei parametri usati nel modello

la cartografia riproduce in tempo

reale il cambiamento avvenuto. Le

politiche di mitigazione del rischio

idraulico, costruite con l’ausilio della

zonizzazione, possono essere trattate

anche in un’ottica di adattamento ai

cambiamenti climatici.

CONCLUSIONI

Il contributo mette in evidenza come

l’uso delle nuove tecnologie possa

fornire elementi utili per la valutazione

dei processi di urbanizzazione in

termini di variazioni del rischio e per

la costruzione di scenari a supporto

della pianificazione e del governo

12 GEOmedia n°5-2014


FOCUS

del territorio. L’algoritmo utilizzato

contribuisce alla costruzione di un

sistema delle conoscenze territoriali

che permette di contestualizzare il rischio

idraulico. La zonizzazione agevola

la comunicazione di una problematica

diversamente percepita dalle

comunità.

Anche il non esperto può diventare

consapevole e parte critica nelle decisioni

territoriali.

Fig. 6 - Distribuzione di frequenza dei pixel classificati per coefficienti di deflusso (impatti

idraulici), 1954 e 2006.

AMBITO DEL LAVORO

Il lavoro restituisce parte di un’attività

di ricerca iniziata con la redazione

della tesi di Laurea specialistica in

Pianificazione della città e del territorio,

Università IUAV di Venezia, 2011

(relatori: proff. Domenico Patassini e

Antonio Rusconi) e proseguita con attività

di formazione e consulenza. Le

fasi successive prevedono di estendere

i test nei comuni del pedemonte

vicentino, perfezionando un indice di

impatto relativo da utilizzare nei processi

di riequilibrio idraulico (invarianza

idraulica) dei bacini di appartenenza.

Si prevede un’applicazione

della metodologia agli impatti idraulici

dell’Autostrada Pedemontana Veneta

(APV). Il monitoraggio dei fattori

che influenzano P è determinante.

Fig. 7 - Aree industriali e commerciali al 2006 e ripartizione al 1954.

Fig. 8 – Riclassificazione areale degli impatti al 2006: esempi di probabili criticità nel Comune di Thiene, a) – aree residenziali, b) – aree industriali.

visita il sito www.rivistageomedia.it

13


FOCUS

RINGRAZIAMENTI

Il lavoro è stato discusso e sviluppato

con il contributo e la review del prof.

Domenico Patassini (Università Iuav

di Venezia). Per la collaborazione, la

messa a disposizione delle banche

dati territoriali della Regione Veneto

e per gli importanti supporti tecnicoscientifici,

si ringraziano l’ing. Maurizio

De Gennaro (direttore della Sezione

Pianificazione Territoriale Strategica

e Cartografia, Regione del Veneto)

e l’arch. Sandro Baldan (Posizione

Organizzativa “Pianificazione e coordinamento

Piani Provinciali”, Sezione

Pianificazione Territoriale Strategica e

Cartografia, Regione del Veneto).

BIBLIOGRAFIA

Australian Government, Departement of Climate

Change and Energy Efficiency (2010), Climate

Change adaptation actions for local government

Bassan L., Pozzer G. (2011), Vincolo di invarianza

idraulica e pianificazione del territorio: prove di

zonizzazione in provincia di Vicenza, in La Loggia

G., Paletti A., Becciu G., Freni G., Sanfilippo U. (a cura

di), Acqua e Città 2011 - Pianificazione, Protezione e

Gestione, Milano: Centro Studi Idraulica Urbana, pp.

75-76

Bassan L., Pozzer G. (2013), Invarianza idraulica e

consumo di suolo: prove di zonizzazione per la

mitigazione del rischio idraulico e l’adattamento

dei processi di piano in Italia e Germania, in Musco

F., Zanchini F. (a cura di), Le città cambiano il clima,

Venezia: Corila, pp. 28-34

Compagnia Generale Ripreseaeree di Parma – CGR

(2007), Ortofoto IT2000 NR 2006-2007 (Concessione

della Regione del Veneto)

EPA (2009), Land-Use Scenarios: National-Scale

Housing-Density Scenarios Consistent with Climate

Change Storylines

Huntington T.G. (2006), Evidence for intensification

of the global water cycle: Review and synthesis, in

Journal of Hydrology, volume 319,1-4, pp. 83-95

Istituto Geografico Militare (IGMI) di Firenze (1955),

Fotogrammi GAI 1954-1955 (Concessione della

Regione del Veneto)

Pistocchi A. (2001), La valutazione idrologica dei piani

urbanistici: un metodo semplificato per l’invarianza

idraulica dei piani regolativi generali, in Ingegneria

Ambientale, volume XXX, 7/8, pp 407- 413

Regione del Veneto, Quadro Conoscitivo L.R. 11/2004

Regione del Veneto, Servizio Cartografico,

Segreteria Regionale al Territorio (2002), Repertorio

aerofotogrammetrico del Veneto, Parma: Grafiche STEP

Regione del Veneto (2007), DBCS Copertura del

suolo della Regione Veneto progetto GSE Land –

Urban- Atlas: utilizzo delle banche dati territoriali del

SIT della Regione Veneto, 2006

Schreider S.Y., Smith D.I., Jakeman A.J. (2000), Climate

change impacts on urban flooding, Climatic Change,

47, pp. 91-115

Sterling B. (2006), La forma del futuro, Milano: Apogeo

Van Der Plog R., Machulla R. et al. (2002), Changes in

land use and the growing number of flash floods in

Germany, in Steenvoorden J., Claessen F., Willems J.

(ed. by), Agricultural Effects on Ground and Surface

Waters: Research at the Edge of Science and Society,

Wallingford: IAHS Press, pp. 317-322

PAROLE CHIAVE

Tecnologie spaziali; gestione del rischio idraulico;

pianificazione territoriale

ABSTRACT

The aim of the study is to show, how and how much,

urbanization and soil sealing can change the hydraulic

performance of a given geomorphology. The analysis

area includes the territory of the ex Consortium for Land

Reclamation Medio Astico Bacchiglione; a specific test

was performed to Municipality of Thiene (Province of

Vicenza). Thanks to a dedicated spatial algorithm developed

with ArcGis it was possible to correlate, per

pattern of land use, the runoff coefficients at the digital

terrain model (DTM). The implementation of the functions

of direction and accumulation (hydrology tools),

has allowed to study the behaviour of the superficial

runoff and to evaluate the hydrological impacts per

use change, of two reference periods (1954 and 2006).

The test generates the risk mapping. Areas at different

vulnerability and exposure are identified with tool focal

statistics. Referred to them are the spatial planning

strategies on watershed scale. The algorithm in GIS environment

allows to manage flood risk with multiscale

and multitemporal analysis of the dynamics of land use,

and to estimate the incremental levels of soil sealing

and cumulative impacts. Hazard and risk are managed

with a complete overview of the problem; it allows to

check, in time, the uses at high impact and the health

risk. The obtained results support the urban regeneration

policies and the territorial development.

AUTORE

Laura Bassan

laurabassan84@gmail.com

Urbanista, consulente in Sistemi Informativi

Territoriali e Nuove tecnologie.

Gianfranco Pozzer

gianfranco.pozzer@gmail.com

Urbanista, dottorando di ricerca in Architettura,

città e design, curriculum Nuove tecnologie

per il territorio, la città e l’ambiente, Università

IUAV di Venezia; già collaboratore presso la

Regione del Veneto – Sezione Pianificazione

Territoriale Strategica e Cartografia.

14 GEOmedia n°5-2014


REPORTS

LA PEREQUAZIONE CATASTALE:

UN MODELLO DI ANALISI

Il presente studio ha lo scopo di verificare

e quantificare lo scostamento

tra il valore fiscale delle singole unità

immobiliari urbane (UIU) e il campionamento

(OMI) del più probabile valore

commerciale delle medesime unità.

La determinazione e la quantificazione

dello scostamento determina di fatto

il grado di qualità e di attendibilità valutativa

dello stock edilizio catastale

ricadente entro i limiti del territorio milanese.

Probabilmente le attuali istanze e studi

di rivisitazione globale del tema catastale,

iscrivibili alla voce “Riforma del

Catasto”, sottoporranno le logiche e gli

apparati normativi di supporto a una totale

e drastica elaborazione, sganciandosi

dall’attuale concetto di stima parametrica

(vani, mq., mc.) alla stima per

mq. commerciali legando, con ciò, al

dimensionamento dell’unità il più probabile

valore commerciale che ad oggi

è rilevato dall’Osservatorio del Mercato

Immobiliare (OMI) in capo all’Ufficio del

Territorio dell’Agenzia dell’Entrate.

Il compendio restituisce una fotografia

sul classamento catastale cittadino, non

Fig. 1 - Le 55 microzone OMI.

di Bruno Monti

Il progetto restituisce il grado di qualità del classamento catastale cittadino

determinato dall’indice di scostamento tra il classamento reale rispetto al

classamento atteso. L’elaborazione è stata eseguita sull’intero stock edilizio

catastale ordinario (categoria A0* e C0*) composto da circa 1.200.000 unità

immobiliari urbane.

rilevando le ampie e profonde trasformazioni

urbane che nell’ultimo decennio

hanno contribuito ad amplificare il

superamento dei limiti delle microzone

attuali e portando alla ribalta la necessità

di intervenire in modo puntuale sulla

completa riorganizzazione delle microzone

catastali e, in taluni casi, anche al

superamento delle stesse. Tale necessità

scaturisce dalla forte dipendenza

che l’erario statale, da una parte, e il

plafond tributario comunale, dall’altra,

rilevano sullo stock edilizio catastale e

il suo collegamento con la perequazione

fiscale per la corretta applicazione

sotto l’egida dell’equità e della corretta

valorizzazione immobiliare. Tale studio

mette in evidenza gli ambiti territoriali,

le categorie catastali e i classamenti che

sono indice di sperequazione fiscale

determinata dal valore di scostamento

crescente o decrescente della relazione

tra valori fiscali e valori economici estimativi.

Al fine di poter disporre di una mappatura

delle valorizzazioni commerciali

l’Osservatorio del Mercato Immobiliare,

in capo all’Agenzia delle Entrate – Ufficio

del Territorio (ex Agenzia del Territorio),

ha suddiviso la città in 55 ambiti di caratteristiche

omogenee (Microzone –

fig. 1) e per ogni ambito ha determinato

statisticamente i valori commerciali delle

singole unità immobiliari distinguendole

per tipologia e rifiniture.

L’Osservatorio del Mercato Immobiliare,

attraverso il campionamento delle transazioni

immobiliari intercorse in un ambito

territoriale omogeneo (Microzone)

determina i valori minimi e massimi

delle diverse tipologie edilizie che

compongono lo stock edilizio cittadino.

Questi valori sono pubblicati semestralmente

e contribuiscono a monitorare

il mercato immobiliare di riferimento

restituendo una fotografia sull’andamento

delle valorizzazioni economiche

delle unità immobiliari della città.

Il Valore Commerciale è calcolato

a mq., si è reso, quindi, necessario

attribuire ad ogni singola Unità

Immobiliare Urbana la relativa superficie

applicando i dettami del D.P.R.

23 marzo 1998 n. 138 “Regolamento

per la revisione delle zone censuarie e

delle tariffe d’estimo in esecuzione alla

Legge 662/96”.

La determinazione, invece, del valore

fiscale delle singole unità immobiliari

urbane (Categorie Ordinarie) segue

un mero calcolo di coefficiente di rivalutazione

che variano a seconda della

Categoria Catastale e della relativa

Classe attribuita in sede di accatastamento

e/o variazione.

La metodologia applicata, al presente

studio, è conforme alle direttive utilizzate

dall’Agenzia delle Entrate – Ufficio del

Territorio e prevede sostanzialmente

per alcune tipologie di unità immobiliari

la determinazione di un indice soglia

di normo classamento oltre il quale si

determina il sovra o il sotto classamento

della medesima unità.

Il valore dell’indice soglia è il rapporto

esistente tra il Valore Commerciale, calcolato

secondo i valori OMI della relativa

Microzona, e il Valore Catastale della

medesima Unità Immobiliare Urbana,

calcolato applicando i coefficienti di rivalutazione

appropriati. L’indice soglia

di tale rapporto è 3 (tre), ovvero per il

mantenimento del concetto perequativo

il Valore Commerciale è il triplo del

Valore Catastale (fig. 2).

Questa metodologia si applica per

le Unità Immobiliari Urbane ricadenti

nelle Categorie che si possono definire

abitative (A02, A03, A04, A05, A06,

A07 e A08) mentre per le altre Unità

Immobiliari Urbane, che identificano

altre tipologie edilizie (es. uffici, negozi,

box, magazzini, ecc.), la determinazione

dello scostamento si rileva con altra

metodologia: ovvero si confrontano i

classamenti (attribuzione della classe)

tra il reale accatastamento presente

nel Censuario Catastale e il classamento

atteso per quel ambito territoriale

determinato con i parametri di riferi-

16 GEOmedia n°5-2014


REPORTS

Fig. 2 - Comparazione tra valori di mercato e valori catastali.

mento al Secondo Semestre del 2004

(Legge 311/2004, art. 1, comma 339

“Disposizioni per la formazione del

Bilancio annuale e pluriennale dello

Stato – Legge Finanziaria 2005”). Lo

scostamento identifica, quindi, quante

sono le classi di differenza e quindi una

diversa applicazione della tariffa d’estimo

di riferimento, maggiore è la diversificazione

del classamento e maggiore

è la determinazione del differenziale tra

il Valore Catastale Effettivo e il Valore

Catastale Atteso. Calcolo del Valore secondo

i parametri OMI, con la seguente

formula:

VALOMIUIU = [SUDPR] * [VALOMI]

Dove:

4VALOMIUIU è il valore OMI calcolato

al secondo semestre 2004

4SUDPR è la superficie calcolata ai

sensi del DPR 138/98

4VALOMI è il valore al mq. determinato

dalla Microzona di riferimento

Per un valore complessivo di Euro

156.637.253.572,00 per un valore medio

Euro 217.460,53 per una superficie

complessiva 62.004.960,01 mq. e

una superficie media uiu di 86,08 mq.

Il valore catastale viene determinato

sulle stesse uiu valide con la seguente

formula:

VALCATUIU = [RENDITA] * 1,05 * 100

Dove:

4VALCATUIU è il valore catastale

rivalutato

4RENDITA è la consistenza per la

tariffa d’estimo riferita alla classe e

categoria catastale

41,05 è il coefficiente di rivalutazione

ai fini ICI

4100 è il coefficiente di rivalutazione

per la determinazione dell’imponibile

catastale all’attualità

Per un valore complessivo di Euro

54.152.762.428,70 per un valore medio

Euro 75.180,63 per una superficie

complessiva 62.004.960,01 mq. e una

superficie media uiu di 86,08 mq.

Risulta evidente la portata della capacità

elaborativa necessaria a valorizzare

lo studio con la componente territoriale,

per poter analizzare e individuare gli

ambiti urbani di maggior scostamento

e portatori di forti disallineamenti con il

concetto di perequazione. Solo, quindi,

con l’utilizzo massivo di strumenti

geografici (GIS) di analisi massive si è

potuto corredare lo studio con diverse

metodologie di rappresentazione e restituzione

aumentando notevolmente

la qualità informativa che una rappresentazione

tradizionale tabellare non è

in grado di ottenere. Il SIT del Comune

di Milano, in carico presso la Direzione

Centrale Entrate e Lotta all’Evasione,

in stretta collaborazione con il Servizio

Polo Catastale, ha elaborato il vasto set

informativo al fine di dotare l’Amministrazione

di uno strumento per la verifica

cittadina e di dettaglio del grado

di qualità del Classamento dello stock

edilizio catastale urbano.

I risultati dell’elaborazione possono essere

letti con molteplici angoli di analisi

che riguardano le singole categorie,

i singoli fogli, le singole microzone o

più in generale l’opportunità di creare

un ranking di intervento rispetto alla

ricostruzione della perequazione relativamente

al classamento atteso e quindi

intervenire su quelle microzone che

scontano un forte valore di scostamento

tra le unità immobiliari urbane sovra

o sotto classate e le unità immobiliari

urbane normo classate.

I risultati di seguito riportati sono confezionati

su compressione della categoria

catastale ma l’elaborazione riguarda le

singole unità immobiliari urbane mappate

su sistema geografico di analisi

e può, all’occorrenza, essere restituito

sul singolo foglio catastale o sul singolo

mappale di riferimento per l’analisi

contestuale del fabbricato oggetto di

verifica.

In conclusione i risultati hanno riportato

che si dovesse operare sulle tre microzone

di maggior complessità dell’indice

di scostamento si otterrebbe una

diminuzione della sperequazione fiscale

di più del 20% dell’intero valore

cittadino.

ABSTRACT

This project provides the degree of quality

class transfer cadastral citizen determined

by the index of deviation between the actual

class transfer with respect to the expected

class transfer.

The processing was performed on the entire

building stock cadastral ordinary (category

A0 * and * C0) composed of about 1.2

million urban housing units.

Determining, for individual building urban

index and relative offset value could return

a model for analyzing massive and detail

useful for defining the local tax policies and

interventions aimed at achieving the fiscal

equalization.

Plays, therefore, particular interest is the

geographical distribution of the index and

the opportunity to represent the data for local

areas diversified: the building, the building

complex, the block, the neighborhood,

the area of decentralization or areas chosen

independently.

PAROLE CHIAVE

Catasto; perequazione; classamento; stock

edilizio catastale; indice di scostamento del

classamento catastale

Fig. 3 - Dettaglio dei risultati.

AUTORI

Bruno Monti

bruno.monti@comune.milano.it

Responsabile SIT e Toponomastica

Comune di Milano

visita il sito www.rivistageomedia.it

17


REPORTS

QUALCHE RIFLESSIONE SULL’INTERAZIONE

FRA UNIVERSITÀ E INDUSTRIA

NEL SETTORE OTTICO-MECCANICO

di Attilio Selvini

Nel ventesimo secolo l’industria ottico-meccanica italiana ha

raggiunto, nel settore civile, primati a livello mondiale certamente

indiscutibili (1), (2). Però il supporto fornito dalle università è stato

modesto, assai modesto (3), a differenza di quanto per esempio era

accaduto nello stesso periodo in Germania (4). Vediamo di parlarne.

Il contributo italiano alle tre grandi

aziende del settore (Filotecnica

Salmoiraghi, Ottico Meccanica

Italiana, Officine Galileo) mi pare che

si sia limitato a qualche suggerimento:

si veda la corrispondenza fra Cassinis

e Umberto Nistri in (3), oltre a qualche

studio sulle prestazioni strumentali (5),

(6). Bisogna giungere agli anni Settanta,

perché si trovi una vera e propria intensa

collaborazione, però limitata

alle Officine Galileo e al Politecnico di

Torino, per opera di Giuseppe Inghilleri

che vi era preside della Facoltà di

Ingegneria (3) e che progettò e fece

costruire sotto la sua direzione, il restitutore

analitico DS (Digital Stereoplotter):

si veda in (7).

Qualche invero modestissima collaborazione

fu prestata alla Salmoiraghi

da Corrado Mazzon del Politecnico di

Milano, soprattutto per il miglioramento

di alcuni strumenti topografici; Lorenzo

Lanza, professore negli Istituti tecnici,

fece costruire (purtroppo fuori tempo:

si era già nell’epoca dei distanziometri

elettrottici) sempre dalla Salmoiraghi

una stadia auto - riduttrice per tacheometri

(3) e Clemente Bonfigli (3) progettò

uno stereodendrometro analitico per

la misura rapida dell’altezza degli alberi

(era professore nella Facoltà di Agraria

dell’Università di Milano). Margherita

Piazzolla Beloch costruì un prototipo di

misuratore del “vertice di piramide” e

nulla più.

Comunque l’unica interazione fra ricerca

e industria fu quella citata fra

Inghilleri e Galileo. Le tre aziende sopra

citate dovettero provvedere internamente

alla progettazione, al progresso

e al rinnovamento della propria produzione.

Per fortuna nel caso delle due

imprese di fotogrammetria il fondatore

della prima e il consulente della seconda,

rispettivamente Nistri e Santoni

(quest’ultimo aveva lungamente lavorato

all’Istituto Geografico Militare di

Firenze) erano inventori eccezionali e

quindi potevano fare a meno di consigli

e aiuti esterni. In Salmoiraghi, oltre

alla spinta e alle intuizioni del titolare,

già allievo di Ignazio Porro, vi fu anche

qui l’opera di studiosi interni d’eccezione

come l’ottico e cultore d’astronomia

Domenico Argentieri (3) e più

oltre quella di Raffaello Bruscaglioni,

solo per citare i maggiori. Per il resto,

poco o nulla dal mondo universitario,

generalmente rinchiuso in se stesso e

più rivolto alla ricerca, ma non di tipo

strumentale: basterà a tal fine ricordare

i molti e pregevoli lavori di Cassinis, di

Marussi, di Boaga, di Morelli, di Ballarin

fra gli altri; più tardi quelli di Solaini,

Cunietti, Togliatti, Inghilleri, Dequal,

Galetto, Monti …. sulle applicazioni

della fotogrammetria e su alcune tecniche

topografiche. Ciò anche per il

fatto che le industrie avevano messo a

disposizione in vario modo, compreso

il comodato e la donazione, i loro più

importanti strumenti soprattutto ai due

Politecnici (a Milano vi furono il primo

APc, un TA3 e un Photomapper della

OMI, lo Steosimplex, gli Sterocartografi

IV e V di Galileo, teodoliti e livelli della

Salmoiraghi).

Ben diversa fu la vicenda che riguarda

la nota e centenaria Carl Zeiss tedesca

e le università di quel Paese: traggo

molte notizie dal lavoro citato in (4), con

particolare riguardo al periodo del secondo

dopoguerra, anche se già dagli

Fig. 1 - L'ortofotoproiettore GZ1.

anni Venti, fra l’azienda e le università

tedesche, i legami erano importanti.

Ricostruita la Carl Zeiss fra le mille difficoltà

causate dal tracollo del Terzo

Reich (8), l’interazione fra università e

azienda fu stretta e continua. La progettazione

e la costruzione di uno dei

primi strumenti per la formazione di ortofotocarte,

vide in primo piano Erwin

Gigas, dottore “honoris causa” dell’Università

di Hannover, membro della

Commissione Geodetica Tedesca, dello

U.S. Coast and Geodetic Survey e della

Deutsche Gesellschaft für Kartographie

oltre che professore nel Politecnico

di Berlino. Scrive Dirk Hobbie in (4)

a tale proposito letteralmente quanto

segue: “… Si deve alle pressioni di

Erwin Gigas, al tempo direttore dell’Istituto

di Geodesia Applicata (IFAG) di

Francoforte sul Meno, la spinta al lavoro

presso Carl Zeiss in Oberkochen”.

Il “lavoro” riguardava per l’appunto la

formazione dell’ortofotoproiettore GZ1

(Gigas-Zeiss mod. 1), che per la prima

volta scindeva l’operazione in due parti

con due strumenti diversi (in precedenza,

i pochi apparati di quel tipo erano

unici, comprendendo sia l’esplorazione

del modello che la formazione dell’immagine

rettificata). La formazione dei

profili veniva invece qui affidata al restitutore

Stereoplanigrafo C8 (poi sostituito

dal Planimat D2) mentre l’ortofoto

usciva dal GZ1. Per opera di Gigas il

GZ1 venne provvisto di un interpola-

18 GEOmedia n°5-2014


REPORTS

tore ottico che evitava le vistose e fastidiose

“rotture” fra due strisce contigue,

non solo: la descrizione altimetrica si otteneva

non con le consuete “dropped

lines”, richiedenti ulteriore intervento

del disegnatore, bensì direttamente

per curve di livello tramite il dispositivo

HLZ (HöhenLinienZeichner). Il GZ1 con

accessori (qui in Fig. 1) venne acquistato

in due esemplari dalla nostra CGR di

Parma e dalla EIRA fiorentina.

Va ricordato che Erwin Gigas aveva già

progettato e fatto costruire nel 1953, il

teodolite astronomico a registrazione

fotografica, dalla casa tedesca Askania:

un esemplare, qui in fig. 2, si trova presso

il Politecnico di Milano (9).

A Kurt Schwidefsky che dal 1951 al

1960 fu professore all’università di

Karlsruhe, si deve nel 1952 la costruzione

del raddrizzatore SEG 5, successore

di altri strumenti dell’anteguerra, poi

munito di un dispositivo computerizzato

per l’orientamento del fotogramma

da cui trarre l’immagine raddrizzata e

quindi metrica (Fig. 3). Schwidefsky era

stato nominato professore all’università

di Dresda nel 1943, ma non vi aveva

preso posto perché impegnato presso

Zeiss ad Jena; fu poi membro onorario

della ISPRS, che più tardi istituì una medaglia

– premio a suo nome.

Richard Finsterwalder, del Politecnico

di Monaco di Baviera lavorò assiduamente

per la Carl Zeiss, così come si

deve a Gottfried Konecny dell’università

di Hannover il suggerimento ed i

consigli per la costruzione della “Metric

Camera”, durati dal 1974 al 1979, che

poi culminarono con il famoso volo

a quota 250 km del 1983. In Fig. 4 il

“Logo” della Metric Camera.

Konecny, che ebbe ottimi rapporti con

la nostra Giovanna Togliatti, era nato il

17 giugno 1930 in Cecoslovacchia, a

Troppau, in quella che era la famosa

zona dei Sudeti, inglobata per volere

di Hitler nel grande Reich nel 1938: era

Fig. 2 - Il teodolite astronomico Gigas-Askania.

quindi un “Volkdeutscher”, che ricoprì

nel dopoguerra importanti cariche sia

in Germania che all’estero: fu fra l’altro

presidente della ISPR, proprio quando

Giovanna Togliatti ne era tesoriere.

Non va dimenticato che ben tre dirigenti

della Carl Zeiss di Oberkochen

furono nominati professori onorari

da tre importanti università tedesche;

sono tuttora viventi e chi scrive ebbe

rapporti d’amicizia (e di lavoro) con tutti

loro. Hans Karstens Meier, a capo della

divisione fotogrammetria e topografia,

divenne professore e tenne il corso

di navigazione aerea all’università di

Stoccarda, nell’Istituto allora diretto da

Friedrich Ackermann (che collaborò direttamente

con Zeiss: per molti anni la

classica “Photogrammetrische Woche”

fu diretta proprio da Ackermann e

Meier). Reiner Schwebel, dirigente

della parte strumentale di restituzione,

fu professore dell’università di Monaco

di Baviera, mentre Dirk Hobbie, il costruttore

dell’ortofotoproiettore analitico

Orthocomp, lo fu dell’università di

Hannover. Va ricordato che, vincitore

di concorso all’università di Monaco di

Baviera, Hobbie rinunciò al posto, che

venne occupato poi da Heinrich Ebner

(altro ottimo amico del presente autore,

che venne invitato alla festa di addio

per il suo collocamento a riposo) perché

Hobbie non volle lasciare la Zeiss.

Altre figure di spicco legate al mondo

universitario lavorarono per la

Carl Zeiss, prima e dopo la seconda

guerra mondiale; ricorderò fra gli altri

Carl Pulfrich, Otto von Gruber, Eduard

Oskar Messter, Walter Bauersfeld,

Walter Brucklacher. Non va poi dimenticato

che le università tedesche sostennero

anche le altre minori aziende

tedesche che producevano strumenti

topografici: ricordo quindi, oltre alla

già menzionata Askania di Berlino, la

Ertel di Monaco di Baviera, la Fennel e

la Breithaupt di Kassel. Queste aziende

possono essere paragonate alle minori

italiane Saibene di Milano, Allemano di

Torino, Sbisà di Firenze, nessuna delle

quali però ebbe mai aiuti dal nostro

mondo universitario.

Tutte le nostre aziende sopra ricordate

sono scomparse da diversi decenni

(10); mentre quelle tedesche sono pur

sempre in buona salute. La Carl Zeiss,

dopo la riunificazione che ha visto Jena

e Oberckochen nuovamente sotto la

scudo della “Zeiss Stiftung”, ha ceduto

le proprie divisioni di topografia e fotogrammetria

rispettivamente alle multinazionali

Trimble e Intergraph, che continuano

a produrre anche in Germania

strumenti di tutto rispetto e ancora col

sostegno delle università sia tedesche

che U.S.A.

Fig. 3 - Il raddrizzatore SEG 5.

Fig. 4 - Si

nota, nel

Logo, la

camera Zeiss

speciale

sullo

“Shuttle”.

BIBLIOGRAFIA

1) E. Santoni Selected Work. Tipolito Nuova Grafica

Fiorentina, Firenze, 1971.

2) A. Selvini A mezzo secolo dalla scomparsa di

Umberto Nistri, GeoMedia, Roma, n° 1/2012.

3) A. Selvini Appunti per una storia delle topografia

in Italia nel XX secolo. Maggioli ed., Rimini,

2012.

4) D. Hobbie Die Entwicklung photogrammetrischer

Verfahren, und Instrumente bei Carl

Zeiss in Oberkochen. Deutsche Geodätische

Kommission, 2009.

5) L. Solaini Der Photomultiplo Nistri. Photogrammetrie,

n°4/41.

6) G. Cassinis Il Fotocartografo Nistri. Rivista del

Catasto e dei Servizi tecnici Erariali, Roma, n°

2/38.

7) G. Inghilleri Theorie of the DS Analitycal Stereocomparator.

Reston, Virginia (USA), 1980.

8) H. Armin Nur der Name war geblieben.

Deutsche Verlags-Anstalt, 1989.

9) C. Monti, A.Selvini Strumenti topografici e metodi

operativi fra Settecento e Novecento. Maggioli

ed., Rimini, 2013.

10) A. Selvini C’era una volta l’industria ottico

meccanica italiana. Rivista del Dip. del Territorio,

Roma, n°3/2009.

ABSTRACT

In the twentieth century the Italian opticalmechanical

industry reached, in the civil sector,

primates worldwide certainly indisputable.

However, the support provided by universities

was modest, very modest, unlike what had happened

for example in the same period in Germany.

PAROLE CHIAVE

Industria ottico-meccanica italiana; strumenti topografici;

storia

AUTORE

Attilio Selvini

attilio.selvini@polimi.it

Politecnico di Milano

visita il sito www.rivistageomedia.it

19


REPORTS

INTEGRAZIONE FRA ARCGIS E EPANET2 PER

LA MODELLAZIONE IDRAULICA DELLE RETI

di Mario Scandura

acoSet è un’azienda che SvoLge iL Servizio idrico neLL’area pedemontana

Sud-occidentaLe deLL’etna, Servendo 20 comuni conSorziati ed aLtri 4

con forniture aLL’ingroSSo, per un totaLe di oLtre 90.000 utenze. Le reti,

tutte interconneSSe, Si SviLuppano in un territorio compreSo fra Le

quote 200 e 950 m S.L.m. ed eSteSo per circa 50 km Su una Superficie

di oLtre 350 km2, che utiLizzano Le acque di due Sorgenti e di circa una

quindicina di campi pozzi, con oLtre 60 Serbatoi di accumuLo e di

compenSo.

Fig. 1 - La rete di distribuzione del Comune di Adamo.

Negli ultimi anni l’azienda ha

fatto effettuare, nei comuni

serviti, il rilievo geometrico e

strumentale delle reti idriche, con la

schedatura di tutti i pozzetti ed i relativi

pezzi speciali.

Inoltre è stato affidato alla società che

effettua la lettura periodica dei contatori,

l’incarico di provvedere anche alla

localizzazione degli stessi mediante

GPS e di effettuare le foto degli armadietti

aperti che li contengono.

Pertanto, essendo giunti a disporre dei

dati completi e certi delle reti idriche e

delle utenze servite, si è potuto procedere

allo loro organizzazione in tabelle

nel geodatabase Oracle 11g del SIT,

integrandoli con gli altri dati aziendali

relativi a produzione e consumi.

Per i contatori non rilevati si è provveduto

all’integrazione con il posizionamento

realizzato tramite geocodifica

semiautomatica degli indirizzi di installazione,

presenti nel database gestionale

Hydronet.

Quindi, disponendo per la prima volta

di grafi completi e collaudati delle reti

e della geolocalizzazione dei consumi,

si è potuto procedere all’analisi, progettazione

e realizzazione di una applicazione

che potesse permettere ai

tecnici dell’Azienda di simulare il funzionamento

di una rete direttamente

dal SIT, senza dover apprendere complicate

metodiche informatiche, ma

che, con l’introduzione di pochi parametri

e di due soli comandi, esporta

verso Epanet ed importa da Epanet i

dati.

LE REGOLE DELLA

MODELLAZIONE IDRAULICA

Per effettuare la simulazione idraulica

di una rete sono necessari una serie

di dati organizzati secondo quanto

richiesto dal software di modellistica.

Questi dati sono le singole condotte

corredate dalle informazioni su diametro,

materiale, scabrezza, nodo origine

e nodo destinazione; i nodi, ovvero

gli apparati connessi dalle condotte

(presenti generalmente nei pozzetti)

con particolare attenzione alle valvole,

saracinesche e ai cosiddetti “Nodi

Erogazione” cui fanno capo le capillari

che collegano i contatori utenza, ed i

serbatoi. Non sono state considerate

le pompe in quanto non presenti

all’interno delle reti di distribuzione.

Tutti gli oggetti che partecipano alla

rete da modellare devono essere connessi

geometricamente in un grafo di

archi e nodi.

Il prototipo

Si è quindi deciso di realizzare un primo

prototipo relativo alle reti di un

comune significativo e che mostrava

delle criticità non meglio identificate.

Questo prototipo è stato realizzato

con le informazioni relative al comune

di Adrano, nel quale la rete è divisa in

due grossi distretti che fanno capo rispettivamente

al Serbatoio Alto ed ai

Serbatoi Bassi (figura 1).

Dati utilizzati

I contatori rilevati in tutto il territorio

comunale sono risultati 13.035, di

questi, nell’anno 2012, non hanno misurato

alcun consumo 2.335.

Il consumo conturato, sempre nel

2012 da questi contatori è stato di

1.578.808 mc, pari ad un valore di

50,06 l/s.

Sono risultati serviti dalla rete Alta

1772 contatori per un consumo conturato

annuo di 226.711 mc pari a 7,80

l/s (non hanno misurato alcun consumo

360 contatori).

Attestati sulla rete bassa sono risultati

9797 contatori per un consumo annuo

di 1.285.162 mc, pari a un’erogazione

di 41,60 l/s (non hanno misurato alcun

consumo 1975 contatori).

Dal totale dei contatori risultano altri

1466 contatori che sono serviti direttamente

o dalla condotta principale

(Maniace e Ciapparazzo) e dalla fine

del raddoppio della condotta Ciapparazzo.

Le due reti che fanno capo ai serbatoi

di Adrano hanno uno sviluppo complessivo

di 65100 metri, escluse le

condotte di diametro inferiore ai 50

mm, e sono stati individuati ed aperti

1144 pozzetti. Il rilievo è stato caricato

nelle tabelle del SIT come grafo di

archi e nodi totalmente interconnessi.

Il serbatoio alto è alimentato dalla

condotta Ciapparazzo e dalla fornitura

effettuata dal pozzo S.E.D.A, i serbatoi

bassi sono alimentati sempre dalla

Ciapparazzo, dalla Maniace e dalla

fornitura del pozzo Floresta.

Software

I software utilizzati sono stati: Arcgis

Desktop 10.1 Advanced Edition,

Arcgis for Server 10.1 Enterprise Edition,

Oracle 11g, Epanet 2, e MatLab.

20 GEOmedia n°5-2014


REPORTS

IL PROGETTO

L’ipotesi di lavoro era quella di trasferire

i dati delle reti presenti nel SIT, al

software di modellazione, fare girare

il modello, effettuando le dovute calibrazioni

e quindi reimportare il risultato

della modellazione (portate e pressioni)

nel SIT, nelle tabelle delle condotte

(archi) e degli apparati (nodi),

in modo che il personale addetto alla

distribuzione avesse dei parametri di

confronto per una migliore gestione,

e gli ingegneri avessero dei dati puntuali

per lavorare all’ottimizzazione

delle reti stesse.

Tabelle SIT e dati per modellazione

Il primo problema che si è presentato

è stato quello di individuare quei tratti

di condotta e quei nodi che non si dovevano

passare al sw di modellazione,

senza dover duplicare tabelle o cancellare

oggetti. Si è così inserito un nuovo

campo denominato EPA con un flag

a 0 se da non trasferire, a 1 se da modellare.

Quindi si è proceduto ad una

verifica di congruità dei dati al fine di

correggere eventuali nodi isolati o archi

non connessi.

Si è aggiunto un ulteriore campo denominato

RETE_CODICE ad entrambe

le tabelle delle condotte e dei nodi al

fine di caratterizzare gli oggetti con un

indicatore di appartenenza ad una rete

piuttosto che ad un’altra e per i nodi di

confine (appartenenti ad entrambe le

reti) si è definito un terzo codice.

Tutti gli altri campi sono rimasti invariati da

come popolati nelle fasi di rilievo idrico.

In considerazione del fatto che i dati

necessari ad EPANET sono molto

meno di quelli presenti nelle tabelle si

è definita una griglia di filtraggio delle

tabelle per far pervenire al software di

modellazione esclusivamente dati utili.

Fig. 2 - Relazione spaziale tra singoli poligoni ed i contatori che ricadevano al loro interno.

I nodi erogazione

Uno dei problemi che si è presentato

e si è dovuto affrontare è stato quello

di definire i nodi erogazione ed assegnare

ad essi un valore coerente.

Dal rilievo dei pozzetti sono risultati

presenti 3611 nodi e di questi 3423

da passare al modello.

Di questi ultimi 622 erano caratterizzati

dalla presenza di 1 o più allacci di

condotte di diametro inferiore ai 50

mm., perciò si è stabilito di definire

questi nodi come nodi erogazione e,

creato il campo EROGAZIONE nella

tabella dei nodi, lo si è valorizzato con

1 se presenti allacci, con 0 se presenti

solo apparecchiature.

Il passo successivo è stato quello di assegnare

un valore ai nodi erogazione.

Disponendo del rilievo georeferenziato

dei contatori, si è prima effettuata

una estrazione, dal DB gestionale, dei

consumi conturati e letti nei 4 trimestri

del 2012, quindi si è assegnato a ciascun

contatore localizzato nel SIT il consumo

totale misurato nell’anno 2012.

Non disponendo di informazioni sufficienti

sulle capillari si dovevano assegnare

i contatori ai nodi erogazione

con un metodo automatico ma possibilmente

realistico.

Poligoni di Thiessen ed erogazione

Si è deciso perciò di calcolare i poligoni

di Thiessen relativi ai 622 nodi

erogazione.

Il metodo dei poligoni di Thiessen

permette di suddividere geometricamente

lo spazio in zone di pertinenza

di ogni punto. A ciascuno di essi viene

attribuita un’area che si trova più vicina

a esso che a qualunque degli altri

punti. Lo spazio viene così suddiviso

da una serie di linee che sono equidistanti

dai due punti a esse più vicini.

Il risultato sarà, pertanto, una serie

di poligoni, tanti quanti sono i punti,

all’interno dei quali si troverà solo un

punto (il nodo erogazione).

I poligoni di Thiessen risultano utili

Fig. 3 - Thiessen.

per avere un modello teorico della

configurazione delle zone di influenza

e delle aree di erogazione relative ai

singoli nodi. In questo modo, lungi dal

voler ricostruire la realtà, si cerca di individuare

le porzioni di territorio che

sono più facilmente servite da un certo

tratto di rete piuttosto che da un’altro.

Il paesaggio che si ottiene con

questo metodo è un modello ideale

e astratto della realtà; le suddivisioni

vengono infatti tracciate come se il

territorio fosse perfettamente uguale

e omogeneo.

Comunque, trattandosi di grandi numeri,

il risultato può considerasi assolutamente

accettabile.

Effettuata questa suddivisione, si è

proceduto a calcolare la relazione

spaziale tra i singoli poligoni ed i contatori

che ricadevano al loro interno,

creando due nuovi campi nella tabella

dei nodi N_CONTATORI e CONSU-

MO_ANNUO che venivano così popolati

automaticamente dalla somma

dei contatori presenti e dalla somma

dei relativi consumi. Ora si poteva assegnare

un consumo ad ogni singolo

nodo erogazione (figure 2 e 3).

visita il sito www.rivistageomedia.it

21


REPORTS

Completamento tabelle

Infine si creavano i due ultimi campi

nella tabella dei nodi, quelli delle coordinate

X e Y, necessari ad EPANET

per ricostruire il modello geometrico

della rete.

Nella tabella dei serbatoi si creavano i

campi coordinate X e Y, e della portata

media in erogazione.

L’intera procedura è stata automatizzata

con una procedura in Python il cui

schema è rappresentato nella figura

sovrastante.

EPANET

Dopo queste operazioni i dati delle

condotte, dei nodi e dei serbatoi

erano diventati compatibili ed utilizzabili

da EPANET. Questo software,

realizzato dal Ministero dell’Ambiente

degli Stati Uniti, è distribuito gratuitamente,

ed è considerato come uno

dei migliori strumenti di modellazione

idraulica disponibili. Il trasferimento

dei dati avviene tramite selezione della

rete da modellare (archi, poi nodi,

poi serbatoi) dopo filtraggio in base ai

campi EPA, CODICE_RETE ed esportazione

in formato tabellare *.dbf.

I files DBF che vengono presi in carico

da una procedura esterna stand-alone

scritta con MatLab che esegue una

trasformazione di formato, creando il

file di input per Epanet. Per quanto riguarda

valvole e saracinesche, Epanet

le considera come archi, mentre nel

GIS sono rappresentate come nodi. Al

fine di non stravolgere la metodologia

di rappresentazione di tali apparati in

ambiente GIS, si è optato di effettuare

la trasformazione da nodi in archi, per

questi apparati, nella procedura Mat-

Lab di trascodifica di formato. Lanciato

Epanet e caricato il file prodotto, si può

eseguire immediatamente la modellazione,

e quindi in base ai risultati ottenuti

decidere se effettuare calibrazioni

o modifiche sullo STATUS e sul SET-

TING delle valvole, e quindi rilanciare

la modellazione idraulica (figura 3).

Fig. 5 - Modello della rete di Adrano.

La simulazione idraulica

Ottenuto un risultato soddisfacente,

l’utente provvede ad esportare da

Epanet, in un file CSV, i risultati ottenuti,

che verrà importato nel SIT che

lo utilizzerà, tramite una join, esclusivamente

per aggiornare coi dati di

pressione, portata e degli stati delle

valvole, le tabelle degli archi e nodi

modellati.

Questi nuovi valori sono consultabili,

come qualsiasi altra informazione SIT

cliccando sull’oggetto, e in parte sono

già visibili come etichette degli oggetti

stessi.

Lo stato delle valvole può essere definito

sia nel SIT (desktop o web application)

che in EPANET, e comunque i

dati risulteranno sempre sincronizzati.

CONCLUSIONI

Il lavoro effettuato con questo prototipo

è stato immediatamente verificato

sul campo ed ha permesso di

modificare il funzionamento della rete

con immediato beneficio per il servizio.

Quindi si è voluto procedere alla

modellazione delle 4 reti del comune

di Belpasso ed è stato così possibile

identificare rapidamente due aree critiche

e porre rimedio al servizio e risparmiare

circa 7 l/s.

Attualmente questo sistema di interscambio

funziona perfettamente in

ambiente Desktop, si è gia iniziato

a trasferire queste procedure in ambiente

ArcGIS Server con risultati incoraggianti.

I prossimi passi dovranno

portare ad interagire con la modellazione

idraulica in ambiente Web, utilizzando

una web-application realizzata

per ArcGIS for Flex.

RINGRAZIAMENTI

Si ringraziano l’ing. Pasquale Cutore

dell’Acoset, per il fattivo contributo

relativo alle tecniche di modellazione

idraulica e alla verifica dei riscontri

teorici sul campo; ed Adriana Triolo

con Francesco Contraffatto, laureandi

in Ingegneria Idraulica all’Università

di Catania e stagisti in Acoset, per il

prezioso contributo nella realizzazione

della procedura in MatLab e nel

debugging di tutte le procedure.

PAROLE CHIAVE

Reti idriche; modellazione;sit

ABSTRACT

Reached the knowledge of networks and

consumption, both geolocated, the need has arisen

to verify, through simulations, the behavior and

efficiency of the water distribution system. The idea

was to integrate the SIT, platform ArcGIS 10.1, the

modeling software EPANET2.

By analyzing the needs of Epanet you modified the

data model of pipelines and equipment, in order to

make them compatible, and have addressed the

main problems arising from these analyzes.

The identification and corroboration of delivery

nodes to determine the value of the application of

the network, and the management of valves and

gate valves in the SIT that are represented as point

features, while in Epanet are treated as strings.

For the determination of the application, the

absence of data of the capillaries, it is proceeded

in an empirical creating polygons of Thyessen

related to the nodes dispensing, and "capturing"

the counters pertaining to each polygon and

then summing the relative consumptions, taken

by the management system . For valves it is made

of a procedure in the import software in Epanet

that turns the nodes into arcs, and in the export of

SIT return to the pressure values upstream and

downstream populate various fields of the table on

time of the valves.

Fig. 4 - EPANET 2, software per la modellazione idraulica.

AUTORE

Mario Scandura

scandura@inwind.it

ACOSET SPA

22 GEOmedia n°5-2014


Supplemento a GEOmedia numero 5-2014 - Direzione, Redazione, Marketing e

Stampa da mediaGEO soc.coop www.mediageo.it info@mediageo.it - Roma 2014

SPECIALE UAV

per la geomatica

UNA NUOVA REALTA' TRA

FOTOGRAMMETRIA E TOPOGRAFIA

INSERTO

STACCABILE

FlyNovex

FlyNovex è un sistema multi-rotore APR (Aeromobile

a Pilotaggio Remoto) della FlyTop. Progettato

per il rilievo del territorio, il precision farming, il

monitoraggio ambientale, il supporto alle situazioni

d'emergenza, i rilievi strutturali, le indagini sui beni

culturali e l'ausilio durante l'attività giornalistica o

di produzione cinematografica, è in grado di trasportare

molti sensori differenti come ad esempio

fotocamere, videocamere, termocamere, camere

iper-spettrali, multi-spettrali o sensori Lidar.

Valutazioni metriche

di piattaforme APR per

rilievi e modellazioni 3D


SPECIALE UAV

VALUTAZIONI METRICHE DI

PIATTAFORME APR PER RILIEVI

E MODELLAZIONI 3D

di Mauro Lo Brutto, Alessandra Garraffa e Paolo Meli

L’articolo descrive le esperienze

condotte per la valutazione

metrica di blocchi aerei acquisiti

con differenti sistemi APR

utilizzati nell’ambito del rilievo di

BB.CC. Il lavoro è stato svolto

su due siti che differiscono per

estensione e caratteristiche

morfologiche utilizzando due

diverse piattaforme APR, un

sistema multi-rotore e un sistema

ad ala fissa.

Fig. 1 - Quadricottero md4-200 della microdrones.

Il rilievo di Beni Culturali,

come siti archeologici

o centri storici, che

si sviluppano su aree di

estensioni variabili, anche

dell’ordine di qualche chilometro

quadrato, è sempre

stato abbastanza problematico

per la mancanza

di strumenti adeguati che

permettono di colmare il

gap tra i classici rilievi fotogrammetrici

aerei e i rilievi

terrestri (topografici,

fotogrammetrici o laser

scanner). Recentemente

questo gap è stato colmato

dallo sviluppo dei

sistemi APR (Aeromobili

a Pilotaggio Remoto) che

consentono sia di eseguire

rilievi aerei a bassa quota,

generalmente in un range

compreso tra i 20 e i 200

metri, sia l’acquisizione di

dati metrici e qualitativi

di dettaglio (Eisenbeiss &

Sauerbierl, 2011). Gli APR,

noti anche con l’acronimo

UAV (Unmanned Aerial

Vehicles) e sviluppati inizialmente

per applicazioni

militari, sono ormai molto

diffusi in ambito civile ed

in particolare nel settore

del rilievo architettonico

ed archeologico grazie

alla possibilità di ottenere

immagini dell’area di interesse

con numerosi vantaggi

quali: rapidità nell’esecuzione

del rilievo aereo,

possibilità di mappare aree

difficilmente accessibili, risoluzione

delle immagini

maggiore rispetto a quella

ottenibile dalla tradizionale

fotogrammetria aerea

(anche con pixel < 1 cm),

costi contenuti delle fasi

di acquisizione, disponibilità

di diversi software

user-friendly e low-cost per

il processamento delle immagini.

In particolare, l’attività

condotta nell’ambito

del rilievo architettonico

ed archeologico è principalmente

rivolta verso la

realizzazione di modelli 3D

con elevati livelli di dettaglio

e ortofoto con risoluzione

geometriche centimetriche

(o in alcuni casi

anche sub-centimetriche)

e scale nominali tipiche

del rilievo architettonico

(1:100 ÷ 1:200).

Il flusso di lavoro adottato

per questa tipologia di rilievi

è abbastanza standardizzato

e prevede sostanzialmente

tre fasi:

4 pianificazione del volo

4acquisizione delle immagini

4calcolo degli orientamenti,

delle nuvole di

punti 3D e delle ortofoto.

Ciascuna fase presenta

problematiche e caratteristiche

proprie che dipendono

da vari fattori.

La prima fase del rilievo

consiste nella progettazione

di un volo programmato

attraverso l’uso dei rispettivi

software di gestione dei

velivoli.

Questo approccio, particolarmente

utile per mantenere

le corrette geometrie

di presa durante il rilievo

fotogrammetrico, risulta

abbastanza semplice nel

caso di prese nadirali (dove

è possibile mantenere gli

stessi criteri della fotogrammetria

aerea), un po’

più problematico per schemi

con prese inclinate e/o

convergenti. In quest’ultimo

caso, la realizzazione

del progetto non sempre è

agevole per la mancanza di

funzioni adeguate nei software

di gestione dei voli;

inoltre, a causa della bassa

affidabilità del posizionamento

eseguito con il GPS

di cui sono dotati gli APR,

il piano di volo potrebbe

non essere seguito in maniera

corretta. I parametri

che influenzano maggiormente

le scelte di pianificazione

del volo sono l’autonomia

e il payload del

sistema APR.

24 GEOmedia n°5-2014


SPECIALE UAV

Fig. 2 - Velivolo Swinglet CAM della Sensefly.

Questi due parametri sono

fra di loro strettamente correlati;

il primo condiziona

l’estensione dell’area da

rilevare, il secondo la tipologia

del sensore da utilizzare.

L’acquisizione delle immagini

è principalmente influenzata

dalla morfologia

del sito, dalla vicinanza di

“pericoli” per il volo, dalla

stabilità della piattaforma

in condizioni metereologiche

non ottimali e dalla

disponibilità di spazi per

l’atterraggio (per sistemi

APR ad ala fissa).

Infine, il processamento

delle immagini è condizionato

dalla notevole

irregolarità dei blocchi

fotogrammetrici, dall’elevato

numero di immagini

(spesso maggiore di 100)

in genere necessarie per

una completa copertura

delle aree di studio, dalle

qualità e caratteristiche radiometriche

delle immagini,

dalle problematiche di

calibrazione delle camere

per uso fotogrammetrico e

dal numero, disposizione e

precisione dei punti di appoggio.

Le problematiche sul processamento

delle immagini

sono state quelle maggiormente

indagate nel

corso degli ultimi anni grazie

anche al sempre più frequente

utilizzo di software

derivanti dalla Computer

Vision in ambito fotogrammetrico.

Diverse ricerche

sono state effettuate soprattutto

verificando e/o

confrontando i risultati ottenuti

con software della

Computer Vision, che utilizzano

l’approccio Structure

from Motion (SfM), rispetto

ai classici programmi fotogrammetrici

(Verhoeven

et al., 2011; Lo Brutto et

al., 2012). Soltanto pochi

esempi sono riportati circa

la qualità dell’accuratezza

metrica in relazione all’uso

delle tecniche della SfM

rispetto differenti configurazioni

del blocco fotogrammetrico

(Nocerino et

al., 2013; Lo Brutto et al.,

2014). Non è ancora chiaro

se l’uso di configurazioni di

blocchi più stabili potrebbe

migliorare l’accuratezza

e l’affidabilità dei risultati

per le immagini acquisite

da sistemi APR e processate

attraverso un approccio

proprio della CV.

L’obbiettivo della ricerca

è stato quello di effettuare

una prima valutazione

sulle potenzialità metriche

delle piattaforme APR nel

campo del rilievo dei beni

culturali attraverso l’analisi

di alcuni dataset che

riprendono due aree con

forte valenza turistica e

culturale e che differiscono

per estensione e caratteristiche

morfologiche: la

prima è un’area di piccola

estensione, situata all’interno

del Parco Archeologico

e Paesaggistico della Valle

dei Templi di Agrigento

e relativa alla zona del

Tempio di Iside; la seconda

presenta un’estensione abbastanza

ampia e racchiude

il Cretto di Gibellina vicino

Trapani. I differenti dataset

sono stati ottenuti utilizzando

due diversi APR:

un quadricottero md4-200

della microdrones per l’area

all’interno della Valle

dei Templi (fig. 1) e un velivolo

ad ala fissa Swinglet

CAM della Sensefly per il

Cretto di Gibellina (fig. 2).

I due velivoli, pur appartenendo

alla stessa grande

categoria dei micro UAV e

pur avendo campi di applicazione

simili, si differenziano

per operatività,

autonomia di volo, quota

di volo, modalità di acquisizione:

il quadricottero,

come tutti i multi-rotori, ha

resistenza al vento inferiore,

può volare a quote di

volo anche molto basse

(10-20 metri) ed ha una

maggiore flessibilità in fase

di acquisizione in quanto

consente di effettuare prese

sia nadirali che inclinate

grazie alla possibilità di

ruotare la camera; il velivolo

ad ala fissa ha maggiore

resistenza al vento, vola a

quote sempre superiori ai

100 metri (in genere 140-

160 metri) e consente l’esecuzione

soltanto di prese

nadirali secondo il classico

schema di fotogrammetria

aerea. Ma l’elemento più

interessante che li contraddistingue

è relativo

alla tipologia di prodotti

ottenibili: rilievi a grandissima

scala (nel nostro

caso pixel 1 o 2 cm) per

il quadricottero md4-200

della microdrones, rilievi

a grande scala (nel nostro

caso pixel circa 5 cm) di

aree anche estese qualche

chilometro quadrato per

l’APR ad ala fissa. Entrambi

i velivoli sono dotati di camere

digitali compatte; in

particolare, il quadricottero

md4-200 è dotato di una

camera Pentax Optio RZ18

da 16 Megapixel con un

obiettivo a zoom variabile

da 4.5 mm a 81 mm mentre

il drone planante Swinglet

CAM è equipaggiato con

una camera Canon IXUS

125 HS da 16 Megapixel e

obiettivo a zoom variabile

da 4.3 mm a 21.5 mm.

Fig. 3 – Il tempio di Iside.

Fig. 4 – Il “Cretto di Gibellina”.

visita il sito www.rivistageomedia.it

25


SPECIALE UAV

IL RILIEVO UAV

Il Tempio di Iside è tra

i siti meno conosciuti e

meno frequentati dai

turisti dell’intero Parco

Archeologico della Valle

dei Templi di Agrigento

ed è costituito da un’area

solo parzialmente scavata.

Il Tempio era costituito da

un podio e da un triportico

che delimitava una piazza;

all’interno si trovava una

cella preceduta da un pronao

e seguita da un avancorpo

su podio accessibile

mediante due rampe laterali.

Il triportico era caratterizzato

da sessantadue colonne

e due mezze colonne

terminali oggi ancora

parzialmente visibili (fig. 3).

Il “Cretto di Gibellina”

è un’opera dell’artista

Alberto Burri realizzata tra

il 1984 e il 1989 nel posto

in cui una volta era situata

la città di Gibellina distrutta

dal terremoto della

Valle del Belice nel 1968.

Quest’opera è una tra i

maggiori esempi della cosiddetta

“land-art”. L’artista,

la cui idea era quella di

creare un luogo della memoria,

ha coperto con una

colata di cemento le rovine

della città in modo da

formare tanti “blocchi” che

riproducono le vecchie

strade della città; i blocchi

sono costituiti da muri di

cemento armato alti circa

1.60 m e sono separati da

“viali” larghi circa 2-3 metri.

Complessivamente l’opera,

rimasta in parte incompiuta

rispetto al progetto originario,

si estende su un’area

di circa 300 m x 270 m e ha

un dislivello di circa 100 m

(fig. 4).

Per il rilievo delle zone di

studio sono stati progettati

due voli con strisciate

orientate lungo direzioni

perpendicolari, approssimativamente

coincidenti

con le direzioni Nord-Sud

ed Est-Ovest; in questo

modo è stato possibile effettuare

diversi test in relazione

alle configurazioni

geometriche dei voli.

Tutte le riprese sono state

progettate imponendo un

classico schema di prese

fotogrammetriche aeree

(prese nadirali) con un ricoprimento

longitudinale

pari all’80% e un ricoprimento

trasversale pari al

70% e all’80% rispettivamente

per il rilievo dell’area

del Tempio di Iside e

per il “Cretto di Gibellina”.

Tutti i voli sono stati eseguiti

in modalità automatica

seguendo il piano di volo

realizzato in fase di progettazione

del rilievo e impostando

le camere in modalità

wide (minima distanza

focale) e messa a fuoco a

infinito.

Per i voli sul Tempio di Iside

è stata programmata una

ripresa con scatti eseguiti

in corrispondenza dei

waypoint calcolati in fase di

progettazione, imponendo

che, per ottenere una minima

ridondanza dei dati, venissero

scattate due immagini

per ciascun waypoint.

Complessivamente per

l’intera area, che presenta

un’estensione di circa 0.57

ha, sono stati realizzati due

voli (uno Nord-Sud e l’altro

Est-Ovest) con quote

relative di volo pari a circa

71 metri per la ripresa

Nord-Sud e a circa 65 metri

per quella Est-Ovest, ottenendo

rispettivamente

dimensioni medie del pixel

a terra (Ground Sample

Tab. 5 - Parametri di volo.

a) b)

Distance – GSD) di circa 1.9

cm e di circa 1.6 cm.

Per il rilievo del "Cretto di

Gibellina" sono stati eseguiti

due voli (Nord-Sud

ed Est-Ovest) da una quota

di volo di circa 160 metri

predisponendo uno scatto

ogni 3 secondi; in questo

modo è stato possibile ottenere

il ricoprimento trasversale

previsto e un GSD

di circa 5 cm. La tabella 5

riassume le caratteristiche

principali dei voli.

Contestualmente alla ripresa

nelle due aree sono stati

posizionati e rilevati topograficamente

dei target

opportunamente dimensionati

in funzione delle

relative altezze dei voli (di

dimensioni pari a 20 cm x

20 cm per le zone del Parco

Archeologico di Agrigento

pari a 40 cm x 30 cm per il

Cretto di Gibellina); i target

sono stati utilizzati in parte

come Ground Control

Point (GCP) ed in parte

come Check Point (CP). Le

coordinate dei target, riferite

al sistema di riferimento

UTM-WGS84 ETRF2000,

sono state determinate

tramite un rilievo RTK utilizzando

una stazione master

posizionata all’interno

delle aree di rilievo. Come

evidenziato in precedenza,

a causa dell’irregolarità dei

blocchi e al numero molto

elevato di immagini, il numero,

la disposizione e la

precisione delle coordinate

dei target rappresentano

aspetti da valutare con

attenzione in questo tipo di

rilievi. Per quanto riguarda

il numero e la disposizione

dei target si è cercato di coprire

in maniera omogena

le aree di interesse utilizzando

18 target (10 GCP e

8 CP) per il Tempio di Iside

e 24 target (16 GCP e 8 CP)

per il Cretto di Gibellina.

Come è noto i rilievi in modalità

RTK prevedono precisioni

nell’ordine di qualche

centimetro; per avere

però una stima più precisa

dell’accuratezza delle coordinate

dei punti di appog-

Fig. 5 - Differenti configurazioni dei blocchi utilizzati per il dataset del Tempio di Iside: Blocco Est-Ovest

(a); Blocco Nord-Sud (b).

26 GEOmedia n°5-2014


SPECIALE UAV

gio, si è scelto di misurare

le coordinate dei target del

dataset del Tempio di Iside

due volte in due giorni differenti.

Il risultato del confronto

tra le coordinate dei

due rilievi ha consentito di

calcolare uno s.q.m. pari a

±1.2 cm sia in planimetria

che in altimetria, con errori

massimi soprattutto in quota

anche nell’ordine dei 4

cm. Tale verifica, anche se

statisticamente non rigorosa,

da un’idea più realistica

delle accuratezze dei punti

di appoggio e delle precisioni

massime che è possibile

aspettarsi dal rilievo

fotogrammetrico.

I diversi blocchi fotogrammetrici

acquisiti sono stati

utilizzati per effettuare alcune

iniziali valutazioni sulla

precisione metrica dell’orientamento

delle immagini

in relazione alle diverse

configurazioni geometriche

del blocco e sull’accuratezza

in quota dei modelli

3D calcolati.

Il processamento delle immagini

è stato effettuato

con il software Photoscan

Professional Edition della

Agisoft. Tale software è

probabilmente il programma

di CV più noto e più

utilizzato in applicazioni

fotogrammetriche terrestri

e da APR e prevede una

sequenza di operazioni totalmente

automatiche per

l’orientamento delle immagini,

il calcolo del modello

3D e la generazione

dell’ortofoto, utilizzando

procedure di SfM e dense

image matching. Durante

il processo di orientamento

(definito allineamento)

PhotoScan stima sia i parametri

di orientamento

interno della camera (distanza

principale, posizione

del principale punto,

coefficienti di distorsione)

sia i parametri di orientamento

esterno per ogni

immagine e produce una

nuvola di punti sparsi.

Successivamente è possibile

calcolare una dense

point cloud o una mesh

dell’oggetto per ottenere

un modello 3D fotorealistico.

Il programma consente

a) b)

Fig. 6 - Differenti configurazioni dei blocchi utilizzati per il dataset del “Cretto di Gibellina”:

Blocco Est-Ovest (a); Blocco Nord-Sud (b).

l’impostazione di un numero

limitato di parametri

per il controllo delle operazioni

di calcolo (criterio

di selezione delle coppie

di immagini per la correlazione,

numero massimo di

punti per immagine, accuratezza

dell’allineamento) e

l’utilizzo di GCP e CP. I GCP

possono essere utilizzati

anche per “ottimizzare” i

parametri di orientamento

interno ed esterno tramite

una procedura di bundle

adjustment che consente

di compensare la deformazione

non-lineare del

blocco fotogrammetrico e

di migliorare la stima dei

parametri di orientamento

interno della camera.

Le verifiche effettuate hanno

previsto la valutazione

dei residui dei GCP e dei

CP su differenti configurazioni

dei blocchi fotogrammetrici:

• Blocco Est-Ovest

• Blocco Nord-Sud

• Blocco Est-Ovest con strisciate

trasversali al bordo

• Blocco Nord-Sud con strisciate

trasversali al bordo

• Blocco complessivo con

le riprese Est-Ovest e

Nord-Sud

I voli relativi alle due aree

di studio sono stati processati

e valutati separatamente

in relazione al diverso

velivolo utilizzato. Per tutti

i dataset considerati la procedura

di orientamento è

stata eseguita prevedendo

una fase di “allineamento”

in modalità high e una fase

di “ottimizzazione” dei parametri

di orientamento interno

ed esterno successiva

alla collimazione dei GCP e

dei CP. Sulla base dei risultati

del rilievo topografico,

l’accuratezza dei GCP è stata

settata pari ad 1 cm.

Per i CP sono state ottenute

accuratezze planimetriche

ed altimetriche nell’ordine

di circa ±1.5 cm e di circa

±3.0 cm per il dataset del

Tempio di Iside (Tabella

6) e nell’ordine di circa

±3.0 cm e di circa ±5.0 cm

per il dataset del “Cretto

di Gibellina” (Tabella 7).

Come previsto i residui ottenuti

per GCP e CP hanno

più o meno la stessa accuratezza

del rilievo topografico;

inoltre i residui ottenuti

in Z sono sempre risultati

maggiori.

Dai risultati ottenuti è possibile

notare che non ci sono

evidenti miglioramenti sui

residui utilizzando configurazioni

teoricamente

più stabili. In entrambi i

dataset, infatti, l’aggiunta

di strisciate trasversali nei

blocchi Est-Ovest e Nord-

Sud non crea un miglioramento

nei risultati, anzi, gli

scarti quadratici medi in X,

Y e Z sono quasi gli stessi,

se non peggiori (per esempio,

nel dataset del "Cretto

di Gibellina" lo scarto quadratico

medio della coordinata

Z nella configurazione

che prevede il Blocco NS

+ strisciate trasversali è

maggiore di 1 cm rispetto

al corrispondente valore

del solo Blocco NS). Ciò

potrebbe sembrare in contraddizione

con il classico

approccio fotogrammetrico

che generalmente

considera le strisciate trasversali

utili per limitare e

controllare la deformazione

del blocco fotogrammetrico.

Anche aumentando

la ridondanza delle misure

fotogrammetriche e considerando

l’insieme delle immagini

disponibili per ogni

dataset (Blocco complessivo

con le riprese Est-Ovest

e Nord-Sud) non si ottiene

un miglioramento sostanziale

dei risultati.

Tab. 6 - Parametri statistici dell’orientamento delle immagini per

il dataset del Tempio di Iside.

visita il sito www.rivistageomedia.it

27


SPECIALE UAV

Tab. 7 - Parametri statistici dell’orientamento delle immagini per il

dataset del “Cretto di Gibellina”.

VALUTAZIONE METRICA

MODELLO 3D

Ulteriori valutazioni sono

state condotte anche per

verificare le procedure di

dense image matching implementate

in PhotoScan

per calcolare i modelli 3D.

Tale verifica è stata fatta considerando

soltanto i dataset

di tre blocchi fotogrammetrici,

Blocco EO, Blocco NS

e il Blocco complessivo con

le riprese Est-Ovest e Nord-

Sud. Per questi blocchi sono

state calcolate point cloud

con parametri di risoluzione

“High” e “Ultra High”,

che permettono di ottenere

modelli 3D di estremo dettaglio,

con risoluzioni che

variano da 2.5 cm a 3.5 cm

per il Tempio di Iside e da

7 cm a 8 cm per il "Cretto

di Gibellina". La precisione

metrica in quota dei

modelli 3D è stata valutata

calcolando la differenza tra

il valore in Z di alcuni punti

di controllo uniformemente

distribuiti nelle aree di interesse

(376 punti nell’area

del Tempio di Iside e 274

punti nell’area del “Cretto di

Gibellina”), acquisiti tramite

un rilievo RTK, e il corrispondente

valore interpolato

dalle point cloud ottenute

da PhotoScan. Le differenze

calcolate mostrano per i

dati del Tempio di Iside una

distribuzione dei residui simile

in tutti i blocchi considerati

con residui maggiori

nella parte a nord dove si

evidenziano differenze in

quota anche di 20 cm (fig.

8); i valori di s.q.m. variano

da ±0.079 m (Blocco EO)

a ±0.086 m (Blocco NS).

Per il dataset del "Cretto di

Gibellina", nel confronto tra

i residui del Blocco EO e

del Blocco EO+NS vi è una

concentrazione di differenze

negative principalmente

nelle zone centrali, mentre

nel confronto tra i residui

del Blocco NS la distribuzione

delle deviazioni risulta

più omogenea (fig. 9). I

valori degli s.q.m. variano

da ±0.050 m (Blocco NS) a

±0.097 m (Blocco EO+NS).

Tutti i residui verticali calcolati

sono risultati mediamente

maggiori rispetto a quelli

determinati nei check point

utilizzati durante la fase di

orientamento, nonostante

tutti i punti di controllo siano

stati individuati in aree

pianeggianti o in aree con

pendenza costante per minimizzare

gli effetti dell’interpolazione

nel calcolo

della quota dal modello 3D.

Questo risultato evidenzia

come la stima della precisione

effettuata per l’orientamento

non possa essere

considerata anche valida

per le ricostruzioni 3D derivate

dalle procedure di

dense image matching.

CONCLUSIONI

Il lavoro presentato mostra

alcuni primi risultati

sulla valutazione metrica

di rilievi eseguiti da APR.

In particolare, le verifiche

eseguite sul calcolo degli

orientamenti non evidenziano

alcuna riduzione degli

scarti sui CP utilizzando

blocchi fotogrammetrici

geometricamente più stabili.

L’elevata ridondanza

delle misurazioni (in media

ogni punto ha nei casi considerati

almeno 8-10 proiezioni)

e l’elevato numero di

punti di legame per ogni

immagine (nell’ordine di

2000-4000 punti per immagine)

potrebbero rendere

superfluo l’uso di configurazioni

geometriche di

presa aerea più ridondanti

tipiche della fotogrammetria

aerea “tradizionale”.

Inoltre, le ricostruzioni 3D

calcolate, pur possedendo

un livello di dettaglio molto

alto, non sempre hanno

accuratezze compatibili

con quelle ottenute dalle

procedure di orientamento,

e, come si evince dalle

rappresentazioni grafiche

dei residui verticali, potrebbero

presentare delle

leggere deformazioni non

evidenziabili da un semplice

controllo qualitativo.

RINGRAZIAMENTI

Si ringrazia l’ente

“Parco Archeologico e

Paesaggistico della Valle

dei Templi di Agrigento”

per la disponibilità concessa

ad accedere nelle

aree oggetto dei rilievi e

il Consorzio Ticonzero e

la Menci Software srl per

l’esecuzione dei voli nelle

due aree di studio.

a) b) c)

Fig. 7 - Rappresentazione grafica dei residui verticali (in m) calcolati dalla nuvola di punti 3D per il Tempio di Iside: Blocco Est-Ovest(a);

Blocco Nord-Sud (b); Blocco Est-Ovest + Blocco Nord-Sud (c).

28 GEOmedia n°5-2014


SPECIALE UAV

a) b) c)

Fig. 8 - Rappresentazione grafica dei residui verticali (in m) calcolati dalla nuvola di punti 3D per il “Cretto di Gibellina”: Blocco Est-Ovest (a);

Blocco Nord-Sud (b); Blocco Est-Ovest + Blocco Nord-Sud (c).

BIBLIOGRAFIA

• Eisenbeiss, H., &Sauerbier, M., 2011. Investigation of UAV systems and flight

modes for photogrammetric applications. The Photogrammetric Record,

26(136), pp. 400-421.

• Lo Brutto, M., Borruso, A., D’Argenio, A., 2012. UAV Systems for photogrammetric

data acquisition of archaeological sites. Journal of Heritage in the

Digital Era, 1, Supplement 1, pp. 7-13.

• Lo Brutto, M., Garraffa, A., Meli, P., 2014. UAV platforms for cultural heritage

survey: first results. ISPRS Annals of the Photogrammetry, Remote Sensing

and Spatial Information Sciences, Volume II-5, pp. 227-234.

• Verhoeven, G., Doneus, M., Briese, C., Vermeulen, F., 2011. Mapping by

matching: a computer vision-based approach to fast and accurate georeferencing

of archaeological aerial photographs, Journal of Archaeological

Science, 39(7), pp. 2060-2070.

• Nocerino, E., Menna, F., Remondino, F., Saleri, R., 2013. Accuracy and block

deformation analysis in automatic UAV and Terrestrial photogrammetry –

Lesson learnt. International Archives of the Photogrammetry, Remote Sensing

and Spatial Information Sciences, Vol. II-5/W1, pp. 203-208.

ABSTRACT

The paper describes the work conducted for the metric evaluation of areal

blocks acquired using different APR systems for Cultural Heritage surveys. The

work was carried out on two sites whit different extent and morphology. Two

different APR systems (a multi-rotor and a fixed- wing) were used

AUTORI

Mauro Lo Brutto

mauro.lobrutto@unipa.it

Alessandra Garraffa

alessandra.garraffa@unipa.it

Paola Meli

paola.meli@unipa.it

Dipartimento di Ingegneria Civile, Ambientale, Aerospaziale e dei Materiali

(DICAM), Università di Palermo

PAROLE CHIAVE

Fotogrammetria; APR; Computer Vision; Modellazione 3D


e different

SOLUZIONI UAV INTEGRATE PER IL RILIEVO

CARATTERISTICHE

• Multirotori quadricotteri/esacotteri anche con

eliche contrapposte

• Struttura full carbon/alluminio

• Payload da 300 gr ad oltre 6 kg

• Camera mount con pan, tilt e sistema di

smorzamento tilt e roll

• Autostabilizzazione e posizionamento gps

• Radiocomando con video real-time

• Elevata stabilità ed estrema maneggevolezza

• GPS differenziale a bordo, come opzione

upgradabile in futuro

CARATTERISTICHE

• Peso al decollo: 2 kg

• Motore: Brushless, potenza 500W

• Autonomia di volo: 30 minuti

• Quota di volo rilievi: 70 mt

• Velocità: 40/70 km/h

• Resistenza al vento: fino a 30 km/h

• Condizioni ambientali operative: -10 °C/+ 45°C

• Fpv: 5,8 Ghz fino a 2 Km

• Volo assistito con modalità “cruise”

• Reset della missione

SOLUZIONI

CAMERA SYSTEM LIDAR SYSTEM INFRARED SYSTEM

www.microgeo.it

Via Petrarca, 42 • 50013 Campi Bisenzio • Firenze • Italy

Tel. +39 055 8954766 • Fax +39 055 8952483

info@microgeo.it www.microgeo.it


d - 60

01

5 Falc

lcon

ar

a M.

ma

(AN

AN)

- Fax

071

.9

1652

5263

ma

x-

po

si

ti

on

in

g.

it

itio

ioni

ning

ng.i

t

it

ioni

ning

ng

.com

om/i

t

Noi non pretendiamo che

i nostri strumenti

funzionino ovunque...

....ma promettiamo

che lavorino

quando tu lavori.

www.geomax-positioning.it

GEOMAX SRL

Via G. Marconi 86/d - 60015 Falconara M.ma (AN)

tel. 071.9173386 - fax 071.9165263

mail vendite@geomax-positioning.it

visita il sito www.rivistageomedia.it

store.geomax-positioning.com/it

MERCATO

Un nuovo software che consente

di produrre rapidamente modelli di

edifici 3D

I ricercatori della University of Twente

hanno sviluppato un software che consente

agli utenti di produrre rapidamente

modelli 3D di edifici a costo molto

ridotto. I modelli 3D così realizzati sono

utilizzati ad esempio per la navigazione,

corsi di formazione, pianificazione urbana e sicurezza, manutenzione,

costruzione e installazione di pannelli solari. Il software può generare

automaticamente il 95% dei modelli di edifici 3D dettagliati,

riducendo così i costi di produzione e i tempi. Il software è basato

su una ricerca condotta da Biao Xiong, che ha ottenuto il dottorato

presso la Facoltà di Geo-Information Science and Earth Observation

(ITC) il 5 dicembre scorso. Il software è già in uso per la fornitura di

mappe 3D.

Xiong ha sviluppato un software che permette agli utenti di generare

automaticamente il 95% dei modelli di edifici 3D utilizzando dati

laser. Il restante 5% della modellazione è un lavoro manuale realizzato

efficientemente. I modelli degli edifici sono molto dettagliati.

Xiong: "Il software può essere utilizzato da un vasto pubblico come

Comuni e Agenzie Catastali, ma le aziende possono anche trovare

interessanti situazioni come quella di un costruttore di tetti che può

basare la sua offerta sul modello 3D di un tetto. Anche per aziende

come... Google questo software è molto interessante. Google

ha già le mappe 3D a sua disposizione, ma è molto costoso e per

generare quelle mappe richiede tempo, non sono aggiornate, e

aggiornando costantemente l'intera collezione ci vorrebbe troppo

tempo. Tuttavia, con il nostro metodo, è possibile aggiornare automaticamente

le mappe per il 95%. Ci vuole solo una settimana per

produrre un modello 3D di tutta la città di Enschede con il mio portatile.

Ci vogliono, ovviamente, più persone e computer per fare un

modello 3D dell'intera nazione dei Paesi Bassi, cosa che comunque

dovrebbe essere realizzabile entro un mese. I costi di produzione

sono molto più bassi rispetto ai metodi attuali, in quanto la maggior

parte del lavoro è fatto automaticamente. "Insieme a quattro colleghi,

Xiong ha lanciato una start-up chiamata Dipper.

Per generare i modelli 3D, il software fa uso di dati laser (LiDAR), che

sono le misure acquisite da un elicottero o un aeroplano (come quelli

che si trovano nella Actueel Hoogtebestand Nederland, AHN2,

la collezione aggiornata di dati di altezza nei Paesi Bassi). Questo

dato è disponibile gratuitamente. Gli edifici vengono ricostruiti dalle

nuvole di punti di dati LiDAR. Parti del tetto vengono anche rilevate

utilizzando questa tecnica. Poi, gli elementi base delle costruzioni

sono riconosciute analizzando la ricostruzione dei tetti. Gli elementi

sono poi modellati in un intero edificio. Se un errore viene scoperto

nella costruzione del tetto, viene corretto automaticamente grazie

alla capacità del software di riconoscere e memorizzare i modelli di

errore. Questo garantisce la qualità del modello 3D. Il ricercatore

Sander Oude Elberink riporta:… "A livello di dettaglio 2 (LOD2), i

modelli 3D sono molto dettagliati. Si tratta di un livello di dettaglio

nel quale possono essere modellati gli andamenti dei tetti, compresi

gli abbaini. Si tratta di un enorme miglioramento rispetto al già esistente

software in grado di generare modelli al livello di dettaglio 1.

In confronto LOD1 è un livello di precisione con cui ogni edificio

viene ricostruito con una sola altezza, il che conduce a quei modelli

costruttivi aventi solo tetti piani ".

Biao Xiong ha ottenuto il dottorato presso l'Università di Twente ITC

Facoltà il 5 dicembre. La sua tesi di dottorato è intitolata: “Reconstructing

and correcting 3D building models using roof topology

graphs”. Il suo relatore di tesi è stato il prof. dr. George Vosselman e

il suo assistente relatore di tesi dr. Sander Oude Elberink.

La ITC

La Facoltà di Geo-Information Science and Earth Observation (ITC)

è una delle facoltà dell’Università di Twente. All’ITC, viene eseguita

ricerca e fornite lezioni nel campo della scienza della geo-informazione

e osservazione della Terra, con particolare attenzione alle applicazioni

nei paesi in via di sviluppo. Gli studenti della ITC provengono

da tutto il mondo. L'obiettivo delle attività di ITC è lo scambio

internazionale delle conoscenze, finalizzato allo sviluppo delle capacità

e lo sviluppo istituzionale nei paesi in via di sviluppo e nelle

economie emergenti.

(Fonte: ITC)

31


MERCATO

DroneMetrex lancia una soluzione per

georeferenziare direttamente i fotogrammi

ripresi da UAV

DroneMetrex, produttore dei sistemi di mappatura

fotogrammetrica TopoDrone, ha introdotto

una soluzione per georeferenziare

direttamente da UAV. La società australiana

afferma che il vantaggio principale della soluzione

a diretta georeferenziazione offerta

da DroneMetrex, è la disponibilità di dati cinematici

(PPK) in post processing.

La società è andata in questa direzione perché

il Real Time Kinematic (RTK) ha problemi di collegamento radio e problemi di distanza.

E' limitato al campo della telemetria e da altre interferenze radio (quali terreno, vegetazione,

edifici, condizioni atmosferiche). La precisione RTK si riduce con l'aumentare della distanza

e se si perdono frequenze radio o telemetria durante il volo possono mancare dati che compromettono

la precisione di tutto il percorso di volo.

Una componente importante delle soluzioni PPK a diretta georeferenziazione offerta da DroneMetrex

è un ricevitore accurato GPS a bordo di TopoDrone che registra autonomamente

le coordinate GPS del drone per ogni posizione di acquisizione dei fotogrammi.

La precisione della posizione del fotogramma è anche direttamente correlata alla sincronizzazione

dell'otturatore della fotocamera con la registrazione GPS. Avendo questo in mente,

gli specialisti DroneMetrex hanno modificato l'interno del

la fotocamera e sincronizzato l’antenna L1 / L2 / Glonass / BDS per ottenere la massima

precisione di mappatura.

Un altro aspetto che ha ricevuto molta attenzione degli esperti DroneMetrex è la posizione

dell'antenna GPS a bordo in relazione alla camera. Il TopoDrone-100 ha l'antenna GPS

montata direttamente ed esattamente sopra il centro dell'asse della camera per la massima

precisione di fotogrammetria. Il post-processing GPS differenziale viene poi utilizzato per

ottenere le esatte posizioni della telecamera.

(Fonte: Gim International)

ScanStation HDS P15 di Leica: facile

con "one-touch button" e calibrazione

automatica

Teorema presenta il Laser Scanner HDS P15

Leica, la semplicità di un laser scanner premendo

un solo tasto! La Leica ScanStation

P15 utilizza una combinazione ottimale di

misure angolari e distanza di misura per offrire

un'eccezionale qualità di punti 3D ed

affidabilità del prodotto.

Leica ScanStation P15 induce una "Calibrazione"

on-board che consente il controllo

elettronico degli errori dello strumento. Dopo l'esecuzione della "Calibrazione" si avrà la

certezza che il vostro Laser Scanner sarà in grado di restituire i migliori risultati.

Qualità dei dati e velocità

Il nuovo Leica ScanStation P15 raggiunge rapidamente una velocità di scansione pari a un

millione di punti al secondo e restituisce la pià alta qualità possibile di dati 3D per scansioni

di progetto con portata fino a 40m. Inoltre l’alta precisione delle misure angolari e la verifica

delle inclinazioni tramite il compensatore, rendono Leica ScanStation P15 perfettamente

adatto per rilievi as-built in qualsiasi applicazione.

Facile da usare

Leica ScanStation P15 dispone di un’interfaccia touch screen intuitiva e facile da usare La

Scansione “one-touch button” ed il software in modalità wizard garantiscono un flusso di

lavoro semplice ed un controllo rapido dei dati sul campo Grazie al controllo remoto delle

WLAN Leica ScanStation P15 può essere utilizzato da qualsiasi dispositivo palmare.

Le condizioni di lavoro possono essere estreme e Leica ScanStation P15 è stata progettata

per affrontarle. La P15 ha un range operativo di temperature da -20°C a +50°C e un grado

di protezione IP54.

Pioniere nello sviluppo dei laser scanner terrestri, Leica Geosystems ha anni di esperienza

nello sviluppo delle migliori tecnologie ad alta qualità.

La famiglia dei prodotti Laser Scanner Leica Geosystems oltre al laser scanner ultra veloce

Leica Scanstation P15 include anche la potenza e versatilità nei sistemi di misura "time-offligt"

e nei sistemi di scansione degli scavi. La gamma di prodotti Laser Scanner si arricchisce

ulteriormente con i software Leica Cyclone e Leica CloudWorx, offrendo un range completo

di strumenti di georeferenziazione e CAD integrato per creare, gestire ed inviare i dati delle

scansioni con facilità senza precedenti.

Teorema srl Milano è distributrice per Lombardia e Piacenza degli Strumenti Topografici Leica

Geosystems.

(Fonte: Teorema srl)

32 GEOmedia n°5-2014


MERCATO

L'Istituto Nazionale di Geofisica e Vulcanologia

abbraccia la causa dell'Open Access

L'Istituto nazionale di geofisica e vulcanologia ha

confermato, insieme agli altri Enti di ricerca e agli

Atenei italiani, con la Road Map 2014-2018, la sua

adesione a sostenere lo sviluppo dell'Open Access

e l'internazionalizzazione della ricerca scientifica.

Sostenere l'attuazione di politiche istituzionali volte a consolidare lo sviluppo

dell'Open Access (OA) e a favorire le opportunità di internazionalizzazione della

ricerca scientifica italiana in linea con le indicazioni della Commissione Europea

(Horizon 2020). Sono alcuni degli obiettivi dell'accordo della Road Map

2014-2018, sottoscritto dal Presidente dell'Istituto nazionale di geofisica e vulcanologia

(Ingv), Stefano Gresta, insieme agli altri Enti di ricerca e Atenei italiani,

nell'Aula Magna dell'Università di Messina, in occasione del decennale della

firma apposta nel 2004 alla Dichiarazione di Messina dai Rettori delle università

italiane (http://decennale.unime.it/).

"Con la firma di questo Accordo", spiega Stefano Gresta, "l'Ingv, da sempre

favorevole a un approccio condiviso tra le istituzioni accademiche e di ricerca

italiane grazie al sostegno e al coordinamento della Conferenza dei rettori delle

università italiane (Crui), si impegna ad adottare una policy nazionale per il deposito,

l'accesso aperto e l'uso dei dati prodotti dalla comunità scientifica, secondo

quanto indicato dalla Commissione Europea e gli standard internazionali. Il contributo

dell'Ingv, risultato fra gli enti pubblici di ricerca (Epr), nell'ultima valutazione

dell'Anvur (Agenzia nazionale di valutazione del sistema universitario e della

ricerca), il più innovativo in rapporto alle sue dimensioni (con una percentuale del

22,2%), consentirà di migliorare la circolazione e la diffusione dei risultati delle

ricerche nei settori della geofisica, vulcanologia e ambiente".

L'Ingv è stato uno degli gli enti di ricerca pionieri dell'accesso aperto. Dal 2005

possiede un archivio digitale di geosciences harvestabile, interoperabile con tutti

gli archivi internazionali, che rende fruibili le pubblicazioni dell'Ente, prive di

vincoli editoriali (www.earthprints.org). Dal 2010 ha anche messo online e ad accesso

aperto la rivista Annals of geophysics (www.annalsofgeophysics.eu), la cui

prima pubblicazione risale al 1948, con il modello gold road, ossia pubblicazione

di articoli Open Access, scaricabili gratuitamente sotto la licenza creative Common

3.0 attribution. Altra sfida in questo settore, la nuova piattaforma dell'Ingv,

EPOS (http://www.epos-eu.org/), una infrastruttura per la condivisione virtuale

dei risultati delle ricerche teoriche e sperimentali e l'accesso a nuovi dati, prodotti

scientifici e laboratori.

“L'Open Access non solo potenzia la ricerca, ma sviluppa l'innovazione e avvicina

la scienza ai cittadini. Consentire alla comunità scientifica di sfruttare pienamente

le opportunità offerte da questo strumento, sia nelle sue forme di editoria alternativa,

sia come mezzo per la divulgazione della propria opera in parallelo ai

canali di editoria tradizionale, rappresenta una grande opportunità per il futuro

della comunicazione scientifica.”

conclude il Presidente dell'Ingv.

(Fonte: INGV)

Yallowscan: il laser scanner da drone

Microgeo propone il primo dispositivo Lidar Laser

Scanner integrato a bordo del drone multirotore,

UAV Lidar, IMU e GPS in soli due chilogrammi

di payload.

Il sistema multi target integrato (fino a 3 echi)

garantisce una elevata penetrazione del segnale

nella vegetazione. La piena sicurezza del sistema

è assicurata dall'impiego di un laser in classe 1.

La memorizzazione dei dati avviene direttamente

on-board. Il sistema è compatibile con altre piattaforme

mobili (autoveicoli, imbarcazioni, veicoli

su rotaia).

Sistema UAV LIDAR

• Laser, IMU e GPS integrati

• Laser Classe 1

• Lunghezza d'onda: 905 nm

• Divergenza del fascio: 0.1 x 0.8°

• Portata: consigliata 100 m, max 150 m

• Risoluzione: 4 cm

• Accuratezza assoluta (XY): 10 cm + 1% x Altitudine

• Accuratezza assoluta (Z): 10 cm + 0.5% x Altitudine

• Campo di ripresa dello scanner: consigliata 60°, max 100°

• Risoluzione angolare dello scanner: 0,125°

• E chi per ogni singolo impulso: fino a 3

• Dimensioni: L.150 mm, P. 200 mm, H. 150 mm

• Autonomia: 2 ore (consigliata)

• Temperatura di esercizio: -20°C - +50°C

(Fonte: Microgeo)

Autodesk rilascia un nuovo

servizio cloud per l’interoperabilità

in campo civile

Autodesk ha reso disponibile un

nuovo servizio Cloud, chiamato

Civil Engineering Data Translator,

che permette la conversione bidirezionale

dei dati tra AutoCAD

Civil 3D e i software Bentley®

GEOPAK® e Bentley® Inroads®.

Non si tratta di un semplice traduttore

del formato DGN di Microstation: questo nuovo servizio cloud

permette di tradurre tutti gli elementi a valore aggiunto di un progetto

stradale: punti rilevati (points), piani quotati del terreno (Surfaces), tracciati

(Alignments) livellette (Profiles) e così via.

Il traduttore, quindi, permette ad AutoCAD Civil 3D di usare, senza perdere

informazioni, i progetti realizzati con i software concorrenti di Bentley.

Oppure, di tradurre i progetti realizzati con AutoCAD Civil 3D per chi usa

i software Bentley® GEOPAK® e Bentley® Inroads®.

Il servizio Cloud è disponibile per i possessori del contratto di manutenzione

(Autodesk Subscription) per AutoCAD Civil 3D, oppure Infrastructure

Design Suite Premium ed Ultimate.

(Fonte: Autodesk)

Nuove stampanti 3D di

HP, la forma del futuro

Immaginate l'innovazione che

migliora le prestazioni in tutte

le dimensioni. Adesso è diventata

realtà grazie alla nuova

stampante 3D di HP Multi Jet

Fusion. Grandi salti avanti per

quanto riguarda la velocità di

stampa e la qualità dei pezzi.

Per non parlare delle nuove

funzionalità di colore che la rendono più creativa nei materiali.

Sfruttando decenni di leadership nel settore della stampa ed

ispirata alla collaborazione creativa tra materiali e soluzioni software

complete, HP Multi Jet Fusion, si basa su un'architettura

proprietaria sincrona e multi-agent che migliora l'intero processo

di stampa.

La tecnologia HP Multi Jet Fusion, permette al mondo, di realizzare

a pieno potenziale le parti altamente funzionali della stampa in

3D e di controllare le proprietà dei materiali, al di là, di quelle che

si trovano in altri processi di stampa 3D, come le texture, l'attrito,

la forza e l'elasticità, le proprietà termiche, e altro ancora.

(Fonte: HP)

visita il sito www.rivistageomedia.it

33


MERCATO

Intergeo: Topcon vince

il 'Wichmann Innovation

Award' con il Topcon LN-

100 per il BIM

Durante l'ultimo Intergeo Topcon

Positioning Group ha vinto il

'Wichmann Innovation Award'

con il Topcon LN-100. Il premio

viene assegnato annualmente al

miglior prodotto o applicazione,

da una giuria indipendente di

importanti professionisti della geomatica

in occasione della fiera

Intergeo in Germania.

Piazzatosi al primo posto su una

platea di nove nomination, il Topcon LN-100, sistema monoperatore

per il tracciamento di cantiere, è stato scelto avendo in mente

criteri di “innovazione, facilità d'uso e praticità”.

“L'attuale accelerazione dell'implementazione del BIM, combinata

con la necessità di soluzioni di posizionamento di precisione facili

da usare che l'LN-100 offre, hanno fatto ricadere la scelta su

Topcon,” ha detto Ian Stilgoe, director of geomatics di Topcon.

“Caratteristiche uniche come l'auto-livellamento, l'ininterrotto flusso

dei dati dal progetto alla campagna e la semplicità di utilizzo, si

sono rivelati benefici determinanti per l'utente.

“Eliminando il superfluo ed alcune caratteristiche "intimidatorie"

proprie di una stazione totale robotica, l'LN-100 si presenta come

uno strumento dedicato ideale, con in più una ridotta curva di apprendimento,

per le operazioni di tracciamento di cantiere e controllo

qualità,” ha aggiunto Stilgoe.

Questo è il terzo anno che viene assegnato il premio 'Wichmann

Innovation Award'.

(Fonte: Geotop Topcon Italia)

Optech annuncia il primo sensore LiDAR multispettrale

Optech ha appena annunciato un passo avanti molto importante

per sensori lidar aviotrasportati. Il Titan è il primo sensore

lidar multispettrale al mondo. Titan si stacca dalla convenzione,

combinando tre fasci di lunghezze d'onda diverse, aumentando

il contenuto di informazioni che possono essere derivate dalla

superficie rilevata e permettendo ai professionisti del rilievo

di poter affrontare molte altre applicazioni utilizzando un solo

sensore.

Titan è dotato di tre fasci laser indipendenti a diverse lunghezze

d'onda, con una frequenza di campionamento a terra combinata

prossima a 1 MHz. Il sensore include la piena compatibilità

per gyro-stabilizzazione per la predittività della distribuzione dei

punti e uno scanner completamente programmabile per significativi

aumenti di densità dei punti in angoli visuali (FOV) stretti.

(Fonte Optech)

Presentata da ENEA una nuova metodologia basata su LiDAR per prevedere

le eruzioni vulcaniche

Riuscire a prevedere l’approssimarsi di un’eruzione vulcanica, potendo preallertare le popolazioni

delle zone circostanti potrebbe presto diventare una realtà grazie ad una tecnologia

tutta italiana presentata oggi a Monaco di Baviera presso l’Agenzia Aerospaziale

tedesca, in una conferenza di esperti europei ed aziende leader del settore.

Si tratta di un radar laser (o LiDAR) messo a punto dall’ENEA, basato su una tecnologia

molto sofisticata che permette, per la prima volta, di misurare la concentrazione di Co2 nei

gas vulcanici, un’operazione che con altre tecniche è rara, lenta, pericolosa e complessa

anche per la difficoltà della distanza.

Sono stati i vulcanologi a chiedere all’ENEA di sviluppare un radar laser capace di misurare

rapidamente e a distanza il biossido di carbonio nei fumi, in modo da affinare i modelli

di previsione delle eruzioni, sperando in futuro di poter allertare la popolazione in caso

di pericolo.

"Misurare il biossido di carbonio in pennacchi vulcanici è una sfida scientifica e tecnologica

di estrema importanza. Infatti, è ormai assodato che le eruzioni sono precedute dall’aumento

di questo gas nel fumo che esce dal cratere" spiega Luca Fiorani del Laboratorio

Diagnostiche e Metrologia del Centro ENEA di Frascati che ha sviluppato il radar-laser.

Il laser-radar è stato messo a punto nell’ambito del progetto europeo BRIDGE (Bridging

the gap between gas emissions and geophysical observations at active Volcanoes)

dell’European Research Council, coordinato dal Prof. Alessandro Aiuppa dell’Università di Palermo ed è stato chiamato BILLI, acronimo

di BrIdge voLcanic Lidar.

BILLI è in grado di misurare fino ad un chilometro di distanza e, grazie ad un sistema di specchi, il fascio laser può essere orientato in

qualsiasi direzione, mirando con precisione la zona di pennacchio vulcanico da investigare. I primi test sul campo sono stati fatti dal 13

al 17 ottobre presso la solfatara di Pozzuoli con il supporto dei ricercatori del Laboratorio di Chimica Ambientale dell’ENEA del Centro

Ricerche Portici.

"Una misura del genere non era mai stata fatta in precedenza– osserva il Prof. Aiuppa – e il radar laser permetterà di effettuare scansioni

dei pennacchi vulcanici, simili alle tomografie, con rapidità e continuità molto superiori a quelle ottenute finora, con lo scopo finale di

sorvegliare le emissioni di fluidi dai vulcani attivi, comprenderne il comportamento, e contribuire alla previsione delle sue dinamiche."

La tecnologia radar laser di BILLI si presta anche ad altre applicazioni in ambienti ostili, come i luoghi dove si è sviluppato un incendio o

in contesti industriali o cittadini dove ci sono emissioni dovute a processi di combustione.

Sotto potete vedere il video di presentazione del progetto realizzato da ENEA.

(Fonte: ENEA)

34 GEOmedia n°5-2014


MERCATO

Da Esri e USGS la mappa

delle unità territoriali ecologiche

alla più alta risoluzione

spaziale oggi possibile

chiamata ELUs

La mappa globale ELUs ritrae

una divisione e classificazione

delle informazioni ecologiche

sulle caratteristiche della superficie terrestre in modo sistematico. Il

lavoro è stato commissionato dal Group on Earth Observations (GEO)

e stampato dalla Association of American Geographers (AAG).

"Questa mappa fornisce, per la prima volta, un prodotto GIS-ready

web-based eco-fisiografico globale, dei dati per i gestori del territorio,

gli scienziati, gli ambientalisti, gli urbanisti e il pubblico che intende

utilizzare il sistema per analisi del paesaggio a scala globale e

regionale", ha detto Roger Sayre dall’USGS (United States Geological

Survey). "La mappa globale ELUs va verso un obiettivo ripetibile, quale

l'approccio 'big data' per la sintesi e la classificazione di importanti

livelli di dati della superficie terrestre in unità territoriali distinte ed

ecologicamente significative.”

Le unità territoriali ecologiche forniscono un quadro contabile spaziale

per la valutazione dei servizi ecosistemici, come lo stoccaggio del carbonio

e la formazione del suolo, così come i rischi importanti quali il

degrado ambientale. Esri ha creato una Story Map e personalizzato una

App che consente l'esplorazione e la comprensione complementare.

"Le unità territoriali ecologiche si prestano anche allo studio delle

diversità ecologiche, la rarità e l'isolamento evolutivo", ha dichiarato

Randy Vaughan da Esri. "Per esempio si possono individuare più

diversi paesaggi in termini di caratteristiche uniche territoriali ecologiche.

Comprendere la diversità può indicare la strada per una migliore

pianificazione della conservazione ".

"I dati saranno importanti anche per lo studio dei cambiamenti ambientali.

L'approccio oggettivo e automatizzato alla classificazione

consente alla mappatura di essere aggiornata non appena dati migliori

o più stratificati siano resi disponibili."

(Fonte: Esri)

Rendere personalizzabili i droni

Sviluppato da una startup con radici

MIT, il nuovo sistema operativo per

gli UAV, potrebbe velocizzare le progettazioni

dei produttori, per usi applicati

di vario genere.

Oggi, centinaia di aziende in tutto il

mondo stanno producendo droni per

monitoraggio di ogni tipo: dalle infrastrutture,

al controllo del bestiame fino

alle missioni di ricerca e soccorso. Il tipo di utlizzo è sempre lo stesso e

cioè quello del monitoraggio. Quindi modificarli per questa tipologia

di utilizzo, significherebbe tornare al tavolo da disegno, che può essere

molto costoso. Ora l'azienda AIRWARE, fondata dal MIT, ha sviluppato

una piattaforma hardware, software e servizi di cloud che consentiranno

ai produttori di selezionare e scegliere le varie componenti in base

alla tipologia di utilizzo che non dovrà essere specifica del settore ma in

base al tipo di uso applicato.

La componente chiave è un dispositivo pilota automatico basato su

Linux, una piccola scatola rossa che verrà installata sui droni. "Questa

renderà il volo affidabile e sicuro fungendo da hub per i componenti,

in modo che possa raccogliere tutti i dati e visualizzare queste informazioni

ad un utente", così afferma Downey, amministratore delegato di

AIRWARE, che ha ricercato e costruito software per droni per tutto il suo

periodo lavorativo al MIT.

Queste piattaforme sviluppate da AIRWARE verranno utilizzate da tutte

le industrie del settore in continuo sviluppo comne ad esempio la Delta

Drone in Francia che la utilizzerà per operazioni minerarie all'aperto, uso

agroclo e missioni di salvataggio. Un altro produttore famoso di UAV è

la Cyber Technology in Australia che la sta utilizzando la piattaforma per

ispezioneranno piattaforme petrolifere off-shore o per monitoraggio di

incidenti stradali non segnalati e disastri ambientali. Ora con la sua più

recente round di finanziamento da 25 milioni di dollari, AIRWARE prevede

di lanciare la piattaforma, per l'adozione generale di tutti i tipi di

droni entro la fine dell'anno.

Fonte: (Phys)

Trimble diventa Principal Member dell'Open Geospatial Consortium

L'Open Geospatial Consortium (OGC) annuncia che Trimble ha alzato il suo livello di adesione

al Consorzio ed è passato a Principal Member. Questo consentirà a Trimble di partecipare al

Comitato di programmazione dell'OGC che entra nel merito della mission del Consorzio,

delle politiche e strategie adottate e delle evoluzioni.

Inoltre Trimble parteciperà alle approvazioni definitive di tutti gli standard OGC, ed alle votazioni

delle nomine del Consiglio di Amministrazione.

Bryn Fosburgh, vicepresidente di Trimble e responsabile della Divisione Construction Technologies,

ha dichiarato, "Siamo estremamente lieti di far parte del Comitato di programmazione

dell'OGC e siamo ansiosi di collaborare con questo consorzio di aziende, agenzie governative,

organizzazioni di ricerca e università. Riteniamo che sostenere la creazione di standard nel campo geomatico consente, agli sviluppatori di

tecnologie, di rendere le informazioni ed i servizi più accessibili e utili a tutti."

(Fonte: OGC)

Hemisphere GNSS presenta il più piccolo ricevitore a doppia

frequenza con bussola e giroscopio integrati

Basato sulla tecnologia brevettata Crescent Vector della società, il Vector V104

integra due antenne satellitari GNSS, un giroscopio multiassiale e un sensore

di inclinazione in un unico sistema, facile da usare. Le doppie antenne integrate

forniscono sia dati di direzione che di posizione e il sensore giroscopico e

di inclinazione migliorano le prestazioni del sistema fornendo informazioni di

backup nel caso il segnale satellitare venga perso.

La tecnologia Crescent offre una accurata gestione della fase ed eccezionale

attenuazione del Multipath. Ciò si traduce in un'eccellente precisione e stabilità,

permettendo all'utente di installare il V104 in aree dove prodotti concorrenti

hanno difficoltà.

Come alternativa al tradizionale accoppiamento di giroscopi, sensori e bussola,

il Vector V104 offre una scelta di comunicazione seriale o NMEA2000, ed

è ideale per una vasta gamma di applicazioni, soprattutto nei mercati marini,

Mapping GIS e di controllo delle macchine.

(Fonte Hemisphere GNSS)

visita il sito www.rivistageomedia.it

35


REPORTS

PROGETTO MIAPI

MONITORAGGIO E INDIVIDUAZIONE DELLE

AREE POTENZIALMENTE INQUINATE

di Laura Petriglia, Christian Peloso e Salvatore Costabile

La forte connessione tra criminalità organizzata e degrado ambientale è stata

ampiamente dimostrata sia in sede investigativa che giudiziaria. Soprattutto nelle aree

ove l’illegalità diffusa è un fenomeno pervasivo occorre che le politiche di sviluppo

siano accompagnate da una particolare attenzione alla difesa dell’ambiente e al

controllo del territorio anche attraverso l’ausilio delle tecnologie più avanzate.

IL PROGRAMMA OPERATIVO

NAZIONALE “SICUREZZA PER

LO SVILUPPO”

L’Unione Europea, al fine di ridurre le

evidenti differenze esistenti tra le regioni

più ricche e quelle meno favorite

ha elaborato una specifica politica

di coesione economica e sociale; gli

strumenti messi a punto per raggiungere

tale obiettivo sono i cosiddetti

fondi strutturali europei e di investimento

europei. La programmazione

relativa a tali fondi è attuata attraverso

programmi operativi che possono essere

regionali, POR (Piano Operativo

Regionale), o nazionali, PON (Piano

Operativo Nazionale). Ciascun programma

copre un arco di tempo di

sette anni ed è elaborato dal singolo

Stato Membro sulla base di procedure

trasparenti nei confronti del pubblico

e conformi ai rispettivi quadri istituzionali

e giuridici.

Il Programma Operativo Nazionale

“Sicurezza per lo sviluppo - Obiettivo

convergenza” 2007- 2013 aveva come

obiettivo globale “diffondere migliori

condizioni di sicurezza, giustizia e

legalità per i cittadini e le imprese,

contribuendo alla riqualificazione dei

contesti caratterizzati da maggiore

pervasività e rilevanza dei fenomeni

criminali e all’incremento della fiducia

da parte della cittadinanza e degli

operatori economici.”

Il PON Sicurezza, il cui titolare è il

Dipartimento della Pubblica Sicurezza

del Ministero dell’Interno, aveva una

dotazione finanziaria di 1.158 milioni

di euro di cui il 50% cofinanziato

dall’Unione Europea, attraverso il

Fondo Europeo di Sviluppo Regionale

e il restante 50% dallo Stato Italiano.

Le regioni interessate dal PON

Sicurezza erano le Regioni Obiettivo

Convergenza: Calabria, Campania,

Puglia e Sicilia.

L’obiettivo globale del PON è stato perseguito

attraverso tre assi principali:

4Asse 1: Sicurezza per la libertà economica

e d’impresa;

4Asse 2: Diffusione della legalità;

4Asse 3: Assistenza tecnica.

In particolare l’Asse 1 – Sicurezza per

la libertà economica e d’impresa aveva

come obiettivo specifico quello di

“determinare una maggiore sicurezza

per la libertà economica e d’impresa”.

All’interno dell’Asse 1, l’Obiettivo

Operativo 1.3 – Tutelare il contesto

ambientale aveva come scopo il potenziamento

delle forme di tutela

dell’ambiente dall’aggressione criminale

a tutela del benessere sociale ed

economico delle Regioni Obiettivo

Convergenza anche attraverso la sperimentazione

di strumenti innovativi

per il controllo, il monitoraggio e la

prevenzione degli illeciti riguardanti

l’ambiente in genere.

Il Progetto per il “Monitoraggio e l’Individuazione

di Aree Potenzialmente

Inquinate (MIAPI) nelle Regioni

Obiettivo Convergenza” si colloca

proprio in questo particolare obiettivo

operativo.

Fig. 1 - Mappa di plausibilità della regione Campania.

IL PROGETTO MIAPI

Il Progetto MIAPI, ideato nel 2011,

nasce dalla collaborazione tra il

Ministero dell’Ambiente e della Tutela

del Territorio e del Mare e il Comando

Carabinieri per la Tutela Ambientale,

da tempo impegnato ad accogliere le

istanze di sicurezza in tema ambientale

provenienti dalla società civile e alla

ricerca costante di metodologie operative

e soluzioni tecniche innovative

che migliorino le capacità investigative

e di intervento.

Il Progetto MIAPI, finanziato con

10.556.570,00 di euro, ha come

obiettivo la localizzazione di possibili

fonti di inquinamento attraverso l’individuazione

delle anomalie che si

riscontrano in alcuni parametri fisici e

geofisici (magnetici, spettrometrici e

termici) misurati attraverso sensori da

piattaforma aerea. Il progetto prevede

l’acquisizione di un totale di circa

12.000 km 2 di rilievi aerei a cui si aggiungono

1550 km di verifiche a terra.

Il Progetto MIAPI, il primo in ambito

nazionale su vasta scala, ha una

connotazione fortemente innovativa

perché, per la prima volta, sono state

applicate tecniche normalmente utilizzate

nel campo dei rilievi geologici

36 GEOmedia n°5-2014


REPORTS

all’ambito della tutela dell’ambiente e

della prevenzione di reati ambientali.

Per la realizzazione del progetto e il

suo svolgimento è stata indetta una

gara europea a seguito della quale è

risultato aggiudicatario del contratto

un raggruppamento temporaneo

composto da Telecom Italia S.p.A. e

Helica S.r.l.

Il contratto tra il Ministero dell’Ambiente

e il RT.I. è stato stipulato il 19

dicembre 2012 ed i lavori sono stati

avviati nel maggio 2013.

Gli obiettivi principali del Progetto

MIAPI sono:

1. l’individuazione di discariche abusive

e siti potenzialmente contaminati

con l’ausilio di dati telerilevati

da piattaforma aerea;

2. la verifica a terra tramite indagini

di campo delle anomalie riscontrate

dall’analisi dei dati telerilevati;

3. la creazione di sistema informativo

multimediale (Sistema Informativo

Aree Potenzialmente Inquinate -

SIAPI) delle anomalie riscontrate

sul territorio.

STRUTTURA DEL PROGETTO MIAPI

Il progetto si articola fondamentalmente

in tre fasi. Nella prima fase, attraverso

un’analisi multicriteria su dati

storici, sono state individuate le aree

che statisticamente possono essere

oggetto di crimini ambientali e quindi

da analizzare. Il passo successivo ha

previsto le attività di volo aereo (elicottero

ed aereo) multi sensore (spettrometro

gamma, magnetometro, termico,

fotogrammetrico) sui 12.000 km 2

(65.000 km lineari di rilievo) di territorio.

I dati rilevati, che hanno richiesto

oltre 1500 ore di volo, sono stati quindi

analizzati con lo scopo di individuare

eventuali anomalie, dei parametri

misurati e di localizzare aree potenzialmente

inquinate su cui focalizzare

poi le tradizionali analisi a terra. I dati

acquisiti vengono anche confrontati

con serie fotogrammetriche storiche

e contestualizzati al fine di limitare al

massimo errori di interpretazione.

La seconda fase del progetto ha previsto

la verifica, tramite indagini in

campo con strumenti geofisici, dell’effettiva

presenza di inquinanti in corrispondenza

dei siti individuati; in caso

positivo si è proceduto alla precisa

localizzazione e perimetrazione dell’area

anomala.

La terza e ultima fase del progetto è

consistita nell’implementazione di

un sistema informativo centralizzato,

condiviso e aggiornabile, delle informazioni

relative ai siti potenzialmente

inquinati.

INDIVIDUAZIONE DELLE

AREE DA RILEVARE (FASE I)

La scelta delle aree da rilevare si è basata

principalmente su tre criteri.

1. vincoli legati alla normativa aeronautica

vigente e alla necessità di

mantenere una quota di volo stabile

e costante;

2. analisi multicriterio applicata sia

a criteri geomorfologici sia a

elementi derivanti

dall’attività

umana;

3. segnalazioni

provenienti

dalle Agenzie

Regionali per la

Protezione dell’Ambiente

(ARPA), dai Nuclei Operativi

Ecologici (NOE) e dalle Procure

della Repubblica.

Per quanto riguarda il primo punto la

scelta è legata innanzi tutto alle limitazioni

al volo derivanti dalla normativa

vigente che ha richiesto l’esclusione

di alcune aree quali centri abitati con

estensione superiore ai 2 km 2, zone

interdette al volo, ecc. Inoltre, al fine

di raggiungere il miglior compromesso

tra superficie investigata e accuratezza

dei dati rilevati, la quota di volo

dell’l’elicottero è stata fissata a 100 m.

dalla superficie terrestre per lo spettrometro

e 70 m. per il magnetometro;

ciò implica che la superficie terrestre

non deve presentare inclinazione

superiore ai di 15°, soglia limite per

mantenere una velocità che garantisca

la stabilità del magnetometro durante

le fasi di volo. Questo criterio ha

di fatto escluso dalle aree da rilevare

tutte quelle zone con pendenza superiore

ai 15°.

Per il secondo punto, una volta eliminate

tutte le aree non volabili si è fatto

ricorso all’applicazione di modelli

decisionali basati su metodi di Analisi

Multi-Criterio (MCA - Multi Criteria

Analysis), nei quali gli algoritmi del

modello utilizzato sono stati basati

sull’analisi di una serie di dati acquisiti

attraverso le ARPA Regionali e gli Enti

Locali. Il risultato ultimo è stato quello

di ottenere le mappe di plausibilità

(Figura 1) sulla presenza di aree potenzialmente

contaminate.

Le variabili dell’Analisi Multicriterio

prese in considerazione sono state:

1. impianti di cave, discariche e siti

industriali;

2. viabilità;

3. uso del suolo;

4. densità abitativa;

5. Anomalie Morfologiche ANtropiche

Fig. 2 - Aree

sottoposte a

rilievo nelle 4

Regioni Obiettivo

Convergenza.

(AMAN) individuate mediante

change detection fotointerpretativa

di immagini satellitari ad alta risoluzione;

6. informazioni di carattere geomorfologico.

A quanto sopra si aggiungono le segnalazioni,

provenienti dalla collaborazione

con le ARPA Regionali e i NOE

presenti sul territorio, su alcune aree

che si riteneva utile sottoporre a rilievo.

Dalle mappe di plausibilità sono state

desunte le aree da sottoporre a rilievo

(Figura 2).

RILIEVO DA PIATTAFORMA

ELITRASPORTATA E POST

PROCESSAMENTO

Al fine di restituire dati di alta qualità e

precisione, il rilievo aereo è stato eseguito

a bassissima quota circa 100 m.

come si evidenzia nella Figura 3.

Fig. 3 – Quota di volo del rilievo.

visita il sito www.rivistageomedia.it

37


REPORTS

Fig. 4 – Uno degli elicotteri utilizzati per il rilievo: in primo piano il magnetometro.

Fig. 5 – Dettaglio dello spettrometro.

Helica s.r.l., che all’interno del R.T.I.

vincitore della gara aveva in carico i

rilievi aerei, ha utilizzato due elicotteri

Eurocopter AS350 B3, certificati dalle

autorità competenti sia per l’abilitazione

a condurre rilievi aerei sia per l’installazione

a bordo dei sensori geofisici

aviotrasportati. Ogni elicottero era

dotato di una coppia di sensori costituita

da un magnetometro GemSystem

GSMP 35 A (Figura 4) e uno spettrometro

raggi Gamma Radiation Solutions

Inc RSX 5 (Figura 5).

Al fine di allargare il campo di indagine

nell’identificazione di siti potenzialmente

inquinati si è realizzato anche

un rilievo termografico aviotrasportato.

La termografia a raggi infrarossi (IR)

è una tecnica che, misurando la radiazione

infrarossa emessa da un corpo,

è in grado di determinarne la temperatura

superficiale. La mappatura della

temperatura della superficie è fondamentale

per poter valutare lo stato di

conservazione dell’area di indagine;

infatti, anomalie nella distribuzione

delle temperature superficiali possono

mettere in evidenza situazioni di

rischio ambientale come interramenti

abusivi di materiale organico, fuoriuscita

di percolato ad alta temperatura,

esalazioni anomale di biogas, ecc.

L’elaborazione dei dati geofisici, basata

su controlli qualitativi stringenti e

analisi statistiche, si è suddivisa in una

serie di procedure specifiche atte a

filtrare il dato dal rumore presente ed

enfatizzare le anomalie geofisiche.

In particolare, per i dati radiometrici

si è proceduto con il calcolo delle

Componenti Principali (Principal

Component Analysis – PCA) che ha

consentito di valutare quali componenti

principali presentavano segnale

e quali solamente rumore.

A valle della PCA ciascun spettro è

stato ricostruito sulla base delle sue

componenti principali in modo da

apparire privo del rumore statistico.

Il passo successivo è stata l’analisi di

“fit” che, attraverso il metodo dei minimi

quadrati, ha permesso di valutare

quali elementi radioattivi sono presenti

nell’area. Infine, è stato rimosso il

disturbo legato al Radon atmosferico

che, essendo un figlio prodotto dal

decadimento dell’uranio va eliminato

in quanto potrebbe alterare le mappe

dell’Uranio stesso aumentandone il

numero dei conteggi al secondo.

Per quanto riguarda i dati magnetici si

è proceduto prima ad una valutazione

del rumore e ad un’analisi dei gradienti

nelle tre direzioni. Successivamente

si è proceduto con la rimozione del

campo magnetico terrestre (IGRF

correction) calcolato sulla base di un

modello matematico in modo da evidenziare

l’eventuale anomalia magnetica

locale. Infine, sono state applicate

operazioni di filtraggio singolarmente,

caso per caso, per enfatizzare o minimizzare

la presenza di corpi o strutture

presenti (filtri di enhance).

Dopo la fase di processamento dei

dati si è proceduto alla generazione

di dataset di dati interpolati a partire

dalla misure rilevate in formato grid

(Figg.6,7 e 8).

ANALISI DEI DATI ACQUISITI

A valle del post processamento dei

dati, questi sono stati analizzati dagli

operatori che hanno proceduto con

l’individuazione delle anomalie magnetiche,

radiometriche e termiche. I

dati acquisiti sono stati incrociati con

altre informazioni quali ad esempio la

serie storica delle ortofoto dal 1988

al 2012, una serie di immagini satellitari,

lo strato informativo dei poligoni

delle aree “rimaneggiate” antropicamente,

rete stradale, rete ferroviaria,

ecc. Questa analisi ha portato all’individuazione

di circa 600 anomalie per

ognuna delle quali è stata prodotta

una scheda con alcune informazioni

di base e necessaria agli operatori

per le successive verifiche a terra.

Inoltre, tutte le informazioni riportate

nelle schede sono state utilizzate per

costruire un geodatabase che è parte

del sistema informativo SIAPI (Sistema

Informativo Aree Potenzialmente

Inquinate).

Nella Figura 9 si riporta un esempio

di scheda informativa per un’anomalia

magnetica mentre nella Figura 10

si mostra la localizzazione di alcune

anomalie riscontrate nella Regione

Campania.

Fig. 6 - Esempio di anomalia radiometrica.

Fig. 7 - Esempio di anomalia magnetica.

Fig. 8 - Esempio di anomalia termica.

38 GEOmedia n°5-2014


REPORTS

Fig. 9 - Esempio di scheda informativa per un’anomalia magnetica.

Fig. 10 - Localizzazione di alcune anomalie

riscontrate nella regione Campania.

L’individuazione di un’anomalia rispetto

ai parametri geofisici misurati non

implica automaticamente la presenza

di inquinamento. Occorre, quindi,

procedere ad una verifica a terra di

ciò che si è rilevato da piattaforma elitrasportata.

ATTIVITÀ DI VERIFICA A TERRA

E PREDISPOSIZIONE DELLA DOCU-

MENTAZIONE TECNICA (FASE II)

La seconda fase del progetto ha previsto

l’utilizzo di diverse squadre di

operatori che, con la collaborazione

e la conoscenza del territorio messa

a disposizione dai Nuclei Operativi

Ecologici dei Carabinieri provinciali,

hanno proceduto con la verifica

di ogni singola anomalia riscontrata

attraverso prima di tutto un controllo

visivo delle aree, e poi con indagini di

campo eseguite con strumenti geofisici

come magnetometro e spettrometro

da campo, georadar, geoelettrica

per terminare, a volte, con il prelievo e

l’analisi di alcuni campioni di terreno.

In questo modo si è potuta comprendere

l’effettiva natura dell’anomalia

riscontrata e, in caso positivo, procedere

alla precisa localizzazione e perimetrazione

dell’area anomala. Inoltre,

in alcuni casi come ad esempio la

mappatura di tratti di assi stradali, si

sono rese necessarie ulteriori indagini

eseguite con un veicolo laboratorio

appositamente allestito con lo stesso

spettrometro gamma ray installato

sull’elicottero.

Tale metodologia di rilievo ha unito la

produttività del rilievo da aeromobile

ed il dettaglio e l’accessibilità in ambiente

urbano tipici dei rilievi a terra.

Nelle Figure 11 e 12 di seguito si riportano

due esempi di rilievi a terra

eseguiti. Per ogni anomalia si predispone

una relazione tecnica che è aggiornata

ogni volta che si esegue un

nuovo tipo di intervento sull’area.

POPOLAMENTO DEL SISTEMA

INFORMATIVO SIAPI (FASE III)

Il Sistema Informativo del progetto

MIAPI, SIAPI (Figura 13), raccoglierà

tutte le informazioni funzionali allo

stato di conoscenza del sito e delle

operazioni svolte su di esso. In particolare

saranno raccolte all’interno del

sistema i dati territoriali acquisiti da

rilievo aereo, i dati acquisiti dalle campagne

a terra, le schede informative e

le relazioni di campo prodotte; a ciò

si possono aggiungere tutte quelle

informazioni documentali, storiche,

analitiche che possono aiutare nel definire

nuove attività di rilevamento sul

territorio o nel predisporre ulteriori

indagini.

a) b)

Fig. 11 - Esempi di rilievi a terra: magnetico (a), radiometrico (b).

visita il sito www.rivistageomedia.it

39


REPORTS

Fig. 12 - Processamento dei dati rilevati in campo.

Il Sistema Informativo sarà fornito alle

ARPA Regionali e ai relativi dipartimenti

e al Comando Carabinieri Tutela

dell’Ambiente e relativi NOE.

Il SIAPI è un sistema informativo complesso

perché contiene una serie di

servizi fondamentali quali:

4la gestione di dati eterogenei e

consultabili sia attraverso logiche

di data mining sia tramite ausilio di

report e di dashbaord per analisi

statistica;

4interfacce in grado di acquisire, verificare

e trasferire informazioni da sistemi

esterni (es.: ARPA, CC, ecc...);

4acquisizione e gestione di dati territoriali

e cartografici per il popolamento

del proprio geo datawarehouse

(contenente dati geo referenziati);

4gestione delle anagrafiche tramite

funzionalità di data-entry e consultazione

del dato tramite interfacce

grafiche web-oriented.

RISULTATI E CONCLUSIONI

Il notevole interesse suscitato dal

progetto, anche grazie all’apertura

di diverse istruttorie presso alcune

Procure della Repubblica, sia per l’innovativa

tecnica di indagine sia per la

sua speditiva applicazione ha portato

allo stanziamento di ulteriori fondi per

investigare aree inizialmente

escluse per la

mancanza di capienza

economica.

A luglio 2014 il

Ministero dell’Interno

- Dipartimento della

Pubblica Sicurezza

ha approvato “per il

soddisfacimento delle

esigenze di sicurezza

e legalità a carattere

sovra regionale nelle

4 Regioni Obiettivo

Convergenza” il progetto

di estensione del

progetto MIAPI originario;

ad ottobre 2014 è

stato firmato il contratto

con il R.T.I. che prevede

ulteriori 8.000 km 2 di rilievi

da piattaforma aerea

e altri 1700 km circa

di rilievi a terra e indagini

geognostiche.

ABSTRACT

The MIAPI Project (Detection And Monitoring

Of Potentially Polluted Areas) is a cooperation

between the Carabinieri Force and the Ministry

of the Environment. The project, focused on the

Italian Regions Campania, Calabria, Apulia and

Sicily, aims to provide information for fighting

environmental crimes.

The project has been organized in three stages.

The first one is a multiple-criteria analysis for

the identification of areas potentially involved

in environmental crimes. Airborne operations

are part of the second stage, which includes

multi-sensor surveys (gamma spectrometer,

magnetometer, thermal and photogrammetry)

on an area of 12000 km2. All acquired data

are then analysed for the detection of possible

anomalies in physical and geophysical parameters

in order to plan ground surveys on specific

target. If ground surveys are positive, the

area is exactly delimited and classified.

The third and last stage is the creation of an

information system called SIAPI. SIAPI, implemented

by the Ministry of the Environment,

is updated and feed by the Regional Environmental

Protection Agencies and the Carabinieri

Force.

Since a huge interest grew in the Project MIAPI,

in October 2014 a contract was signed for providing

additional 8,000 km2 of aerial.

PAROLE CHIAVE

PROGETTO MIAPI; SIAPI; POR; PON; MONI-

TORAGGIO AREE INQUINATE; ANALISI

GEOFISICHE

AUTORI

Laura Petriglia

petriglia.laura@minambiente.it

Ministero dell’Ambiente e della Tutela del

Territorio e del Mare

tel:+390657223140

Christian Peloso

c.peloso@helica.it

Helica S.r.l. tel:+39043394286

Salvatore Costabile

costabile.salvatore@minambiente.it

Ministero dell'Ambiente e della Tutela del

Territorio e del Mare

Tel:+390657228603

Fig. 13 - Home page del Sistema Informativo SIAPI.

40 GEOmedia n°5-2014


RECENSIONE

Scienze e Tecnologie

delle Costruzioni

AUTORE:

Giovanni Miucci

EDITORE:

Franco Lucisano

PAGINE: 288

PREZZO:

€€€€€19,10 euro

ISBN: 978-8808159779

Dalla piatta palude dei molti testi

didattici per il corso geometri

(oggi corso per i periti delle costruzioni,

dell’ambiente e del territorio) ogni

tanto emerge qualcosa di meritevole.

E’ il caso del recente volume edito

da Franco Lucisano e distribuito dalla

nota casa Zanichelli, di cui si allega

l’immagine di copertina. L’autore è

un intelligente e ben preparato ordinario

del milanese “Carlo Cattaneo”,

l’architetto Giovanni Miucci, che molti

anni fa nello stesso glorioso Istituto si

era diplomato geometra, per cui ben

conosce da entrambi i lati le necessità

dei discenti.

Pare giusto che il titolo sia “Scienze

e tecnologia…”, avendo anteposto il

sostantivo “scienze” al prescritto ministeriale

“tecnologia”; infatti l’autore non

si limita a descrivere elementi, materiali,

strutture, modalità operative dal

solo punto di vista tecnico, ma fornisce

anche il supporto concettuale di ogni

argomento. Piace in particolare a chi

scrive questa breve recensione, il fatto

che siano indicate puntualmente le

“marche” con cui segnare le varie unità

di misura: in un momento in cui persino

il Ministero della Pubblica Istruzione, in

un documento ufficiale, scambia i “millilitri”

coi “metri”, seguendo il vezzo

disdicevole di parlare (o “sparlare”!)

di “metri lineari”. Dimenticando che

sin dalla sua introduzione nel Secolo

dei Lumi, il “metro” è una grandezza

per l’appunto nata per la misura di distanze.

Con l’aggravante di far seguire

all’errato “ml” il punto (ml.), cosa che fa

rabbrividire chi si interessa anche solo

un poco di metrologia.

Ma i pregi del libro del professor

Giovanni Miucci sono molti; vi è un

corredo imponente di esercizi risolti e

da risolvere, di domande e di quesiti

che aiutano discente e docente a ben

assimilare ciò che il libro contiene.

Ogni argomento è trattato con cura e

saggezza; l’esposizione è chiara e concettualmente

ineccepibile; i molti anni

di insegnamento hanno messo l’autore

nelle condizioni di ben capire quali siano

i modi di parlare allo studente, per

portarlo alla conoscenza delle cose nuove

da apprendere. Pur trattandosi di

un testo di tecnologia delle costruzioni,

il libro ha una notevole introduzione

sulle misure topografiche: non è possibile

prescindere, nel progettare e nel

costruire, dal rilevamento del terreno,

quindi dalla indispensabile conoscenza

delle operazioni più semplici della

misura e della rappresentazione.

Non resta che congratularsi con

l’autore, augurando buona fortuna a

questo libro veramente ben fatto.

di Attilio Selvini, Politecnico di Milano

visita il sito www.rivistageomedia.it

41


GUEST PAPER

ISTAT DATA UTILIZATION TO ENHANCE

LANDSAT 8 IMAGES

CLASSIFICATION PROCESS

by Stefano Mugnoli and Raffaella Chiocchini

This paper shows an experimental study based on a LANDSAT 8 image

that cover completely 5 provinces in the north of Italy, where it’s

shown that ISTAT data, DEM and combine of NDVI and NDBI indices

can improve the results of the satellite image classification process.

Fig. 1 - LANDSAT

8 image clipped on

ISTAT administrative

boundaries (R,G,B 4,3,2).

Since the end of the Second World

War Italian landscape has suffered

the consequences derived from

many occurrences that have played

an important role in improving the demand

of housing estates, factories, roads

and highways, to name but a few.

The increase in the use of cars has influenced

urban sprawl in terms of amplification

of residence areas option

that are now further away from working

and commercial ones (European

Environment Agency, Urban Sprawl in

Europe - the ignored challenge, EEA report

n. 10/2006 [1]).

So, not only the residential role of the

town has been walked away from urban

centers but productive and commercial

too. This fact has created a gradual

expulsion process from centers to suburbs,

leaving urban unoccupied places

and making difficult a really rational

urban planning.

Thus, it’s very important assess how

much the ‘worn out soil’ in Italy is, and

this need comes from many factors,

some of these are described below:

4landscape and ecosystem fragmentation

with negative impact on vegetation,

wildlife and that can produce

critical hydrogeological factors;

4damage in a socio-cultural sense, since

landscape is a sort of human perceptual

and cultural identity;

4services and urbanization cost increase.

In fact the costs of a new ‘not

planned’ urban areas are highest in

relation to planned ones.

As far as ‘urban sprawl’ is concerned

Italian National Institute of Statistics

(ISTAT) has an important institutional

role overall in statistics assessment of

the phenomenon.

As ISTAT is also considered in ‘Welfare

Assessment Scientific Commission’

(BES Project) for the themes

‘Landscape and Cultural heritage’ and

‘Environment’, the most urgent task is to

have further geographic data to assess

‘urban sprawl’ has arisen.

This paper describes an experimental

study where Statistical data and satellite

ones are integrated to produce a geographic

dataset that can help to estimate

urban sprawl at medium scale.

USED DATA AND PRELIMINARY

ELABORATIONS

The experimental study has been

carried out on an area in the North

of Italy. This area covers 5 Provinces

in the Po valley. In order to cover the

entire zone by a satellite image, a full

LANDSAT 8 (LANDSAT Images can be

downloaded from http://earthexplorer.usgs.gov)

scene was chosen (scene

LC81920292013183LGN00). The file

name better explain that the scene was

taken in the July 2 nd 2013 .

Beginning February 3, 2014, all Landsat

8 data held in the USGS archives will be

reprocessed. All Landsat 8 scenes will

be removed from the online cache at

this time and the data will then be reprocessed

starting with the most recent

acquisitions and proceeding back to

the beginning of the mission. Data will

then become available for download.

Scenes waiting to be reprocessed

will also be available for on-demand

product orders. Reprocessing is expected

to take approximately 50 days.

Many corrections will be made to the

data, affecting both the Operational

Land Imager (OLI) and the Thermal

Infrared Sensor (TIRS). These corrections

include all calibration parameter

file updates since launch; improved OLI

reflectance conversion coefficients for

the cirrus band; improved OLI radiance

conversion coefficients for all bands;

refined OLI detector linearization to decrease

striping; a radiometric offset correction

for both TIRS bands; and a slight

improvement to the geolocation of the

TIRS data (details about these changes

are available on http://landsat.usgs.

gov/calibration_notices.php).

However, the aim of the project is to

extend the study to the whole Italian

territory in order to evaluate, at medium

scale, anthropic land cover and use

overall in extra-urban areas.

Satellite image was clipped using

ISTAT administrative boundaries and

so was extracted just the area that

covers completely five provinces:

Modena, Bologna, Ferrara, Ravenna,

Forlì-Cesena. In fig.1 satellite image in

combination R,G,B, 4,3,2 of the area in

exam.

Other data used have been ISTAT enumeration

areas, Digital Elevation Model

(20 m) elaborated by ISPRA (Superior

Institute for environment Protection and

Research) and ISTAT census 2010 population

data.

First of all LANDSAT image was classified

by an unsupervised classification

ISODATA algorithm; this in order to

understand how many land cover classes

could have been extracted from the

image. The ISODATA clustering method

uses the minimum spectral distan-

42 GEOmedia n°5-2014


GUEST PAPER

Classes N. pixels Interpretation

Class 1 1371212 Very wet vegetated areas; broad-leaved

Class 2 1169507 Coniferous

Class 3 1280340 Vegetation in plan areas

Class 4 803152 Rice fields; Coniferous

Class 5 371962 Coniferous

Class 7 302030 Water

Class 10 970482 Infrastructures; services

Class 11 1291884 Bare soil; not vegetated areas

Class 12 1515620 Urban areas; heterogeneous rural areas

Class 13 1294236 Dry bare soil

Class 14 369239 Dunes; beach; clouds

Tab. 1 - Unsupervised classification: summary report.

ce formula to form clusters. It begins

with either arbitrary cluster means or

means of an existing signature set, and

each time the clustering repeats, the

means of these clusters are shifted. The

new cluster means are used for the next

iteration. The ISODATA utility repeats

the clustering of the image until either a

maximum number of iteration has been

performed, or a maximum percentage

of unchanged pixels has been reached

between two iterations.

After studying the clusters distance

based on ‘transformed divergence’

method, eight land cover classes were

identified. Table 1 shows the results of

unsupervised classification.

The other classes are not significant.

However, image classification is not the

focal point of the study, because it will be

corrected by integration with ISTAT and

DEM data. Thus, supervised classification

was realized considering just eight

classes (Road networks, Coniferous,

Broad-leaved, Water, Continuous urban

fabric, Discontinuous urban fabric,

Infrastructures and services, Bare soil).

In order to rationalize further steps, it

was decided to consider urban areas

and extra-urban ones in two completely

different ways. In fact,

urban areas limits derived

principally from

ISTAT data, while their

classification both

ISTAT and satellite

classification.

So, first of all, the

classified image was

clipped using ISTAT

urban areas layer.

In figure 2 the classified

image for

Bologna municipality

area.

NDVI AND NDBI INDICES [2]

In order to better specify land cover,

overall in urban areas, some indices

were calculated. So NDVI (Normalized

Difference Vegetation Index) and NDBI

(Normalized Difference Built-up Index)

has been chosen because these can

clarify green urban areas and urban fabric

overall if these are utilized in combination.

In fact, NDBI, that was produced

using the following equation (Zha et

al. 2003 [3])

NDBI = MIR-NIR

MIR-NIR

can’t explain by itself the built-up areas

(and so the urban ones) because some

studies found that many vegetated areas

have positive NDBI values (i.e Cibula

et al., 1992 [4]; Gao, 1996 [5]).

On the other hand NDVI, produced

using canonical equation

NDVI = NIR-RED

NIR+RED

can generate positive values because

some kind of artificial surfaces have a

major reflectance in NIR respect in RED.

So what it has been said above allows

to understand that these two indices

combination give us better results. The

two indices has been calculated using

ERDAS/IMAGINE sw [6].

So, after having reclassify NDBI and

NDVI images, taking 0 value as break

point for both, a combine image was

produced using ARCGIS 10.1 combine

algorithm [7]. The result of this elaboration

is shown in figure 3.

For urban areas, just 311 pixel on

1166535 are not significant (0,026%).

Other indices can be calculated to

extract vegetation or other land cover

typologies {i.e. NDWI or MNDWI

(McFeeters,1996 [8]) for water and SAVI

for vegetation (Huete, 1988 [9])}, but in

this study it was decided to calculate

just NDVI and NDBI since ISTAT data

can be better define the results derived

from image processing.

ISTAT [10] DATA INTEGRATION

ISTAT enumeration parcels data (ISTAT

Enumeration parcels can be downloaded

from http://www.istat.it/it/archivio/104317)

have been updated

during Census 2010 collecting data;

in urban areas these parcels are very

detailed and they have been drawn not

only in relation to population and social

parameters but land cover ones too. So

these can be used, in combination to

other elaborations to describe land cover/use

entities at medium scale. ISTAT

data was first rasterized because they

are in vector format.

Thus, they have been combined to image

processing results in order to enhance

thematic resolution of the elaborations

described above. So, combining

ISTAT population data linked to enumeration

parcels attribute it’s possible

to codify some areas according to their

land cover/use ‘vocation’.

Fig. 2 - Supervised classification (Bologna municipality).

Fig. 3 - Combine NDBI & NDVI image (Bologna municipality).

visita il sito www.rivistageomedia.it

43


GUEST PAPER

Fig. 4 - Example of codified enumeration area (Cemetery).

Fig. 5 - Synthesis of the data integration (Bologna municipality): See the text for details.

Not all enumeration parcels can be utilized

for this porpoise, so it has been decided

to extract just these parcels that

have codes described in table 2 that

have residential population less than

1 resident per hectare. In figure 4 an

example of an enumeration area classified

according to its land cover/use.

ISTAT Code N. pixels Legend

5 4694 Green urban areas

12 95969 Industrial or commercial units

9 1775 Hospitals

16 142 Sport and leisure facilities

2 203 Religious institutes

3 58 Monuments

6 1025 Port areas

7 824 Airports

11 824 Military installations

18 208 Research institutes

24 204 Prisons

50 235 Water treatment plants

Tab. 2 - ISTAT enumeration aparcels code chosen to combine step.

Fig. 6 - Water extraction and its land cover/use classification.

How we can see, many classes are

represented by a little number of pixels

and these are surely eliminated if

we consider the spatial resolution of

a cartography product derived from

LANDSAT images (scale 1:50.000); but

there is to say that all of these pixels

come from single enumerations areas

and so they are grouped in clusters

absolutely recognizable on the classified

image. But it’s better to remember,

that the product of this experimentation

isn’t it a cartography one.

So combining NDVI/NDBI image and

LANDSAT classification with ISTAT

enumeration parcels in raster format

as describe above, we have now a

new image that represent a sort of synthesis

of all of these layer. In fig 5 the

synthesis image (Bologna municipality).

Some land cover/use indications:

4Red tones: residential areas;

4Purple: Infrastructures and services;

4Green: Green Urban areas;

4White: Sport and leisure facilities;

4Dark yellow: Hospitals

EXTRA-URBAN

AREAS INTE-

GRATION

At this point of

the study the

problem is to

relate and to

define the extraurban

classification.

ISTAT enumeration

areas,

in fact, aren’t

very suitable to

describe land

cover/use in extra-urban

zones

as they are for

urban ones. Just

few of them can be taken for this scope.

For example, those that have a special

area code (i.e. River, lakes, lagoons, etc.)

since they are drawn exactly to the limit

of these territorial features.

Another problem is linked to agricultural

areas; heterogeneity of these areas

in terms of reflectance make the extraction

of agricultural areas quite impossible,

just considering LANDSAT image

classification results. So another approach

is needed.

For this porpoise DEM and slope layer

have been used. So, a sort of a ‘step by

step’ extraction has been done.

First of all water has been isolated

using NDVI, ISTAT layer and LANDSAT

classification. In fact, water can be easily

extracted from LANDAST image

(especially from band 2 and infrared

ones); furthermore water has ever negative

NDVI values too. So this land

cover class has been extracted using

LANDSAT image and NDVI index. But,

in order to better specify ‘environmental’

and use classification of the body

of water, ISTAT attributes were used; in

fact in ISTAT enumeration parcels attribute

table there is a code that identify

the most important basins and rivers

by an unique national code; using this

code, water land cover/use typology

can be specify. An example of what is

has just been said is shown on fig.6.

DEM AND SLOPE

The area in exam is not very nervous

in morphological sense. In fact, considering

Digital Elevation Model (DEM)

realized by ISPRA (Superior Institute for

environment Protection and Research)

with a 20m*20m cell, it’s evident that

over 50% of the DEM cell have a value

less than 50 m. Moreover, considering

the slope value of a DEM single cell we

can see that over the 55% of the cell are

completely flat.

44 GEOmedia n°5-2014


GUEST PAPER

In brief, for each cell, the slope value

is calculated as the maximum rate of

change in value from that cell to its neighbors.

Basically, the maximum change

in elevation over the distance between

the cell and its eight neighbors identifies

the steepest downhill descent from

the cell. The lower the slope value, the

flatter the terrain; the higher the slope

value, the steeper the terrain. Below a

scheme that explain the concept.

In order to prevent critical hydrogeological

factors regional technical services

propose ordinary piece of legislation to

plan agricultural activities. Overall, their

attention is focused on areas that have

a degree of slope as high as, or higher

than, 30%. In this study this value has

been used to discriminate agro-forestry

areas.

Dem has been used to characterized

flat areas and areas over 1700 m of altitude;

in fact this value represent the

maximum limit of woods for the area in

exam. Thus using DEM and ‘slope’ layer

it’ possible to classify extra-urban areas

in six classes: two agricultural classes

(completely plain and hilly); an ‘agroforestry’

class; a broad-leaved class and

finally a ‘sparsely vegetated areas’.

RESULTS

In figure 7 is shown a map that represent

the final result of the activities

briefly describe above. Furthermore,

in table 3 a summary report with the

extension of each classes is shown. The

supervised algorithm was able to distinct

coniferous woods in coastal

zone, but unfortunately there

are some kind of agricultural

crops (especially very wet

ones), that have a reflectance

very similar to coniferous

woods. So , in

table 4 coniferous

woods class is in

red to highlight the

fact that coniferous

class data embody

some pixels that

belong to some

specific crops.

In annotation

column just

some pointers to

specify the way in

which some classes

have been extracted.

About results it might be said that they

have quite good quality in urban areas,

while in extra-urban one agro-forest

class is overestimated at the expense

of ‘forest and semi-natural’ one. This is

an example of the fact that ISTAT data

are fundamental to calculate ‘urban

sprawl’ in rural areas.

In table 3 it’ shown a comparison

among ‘ISTAT/LANDSAT’ layer with

CORINE Land cover 2006 (CLC 2006)

and Land Use Map 2008 realized by

Emilia-Romagna regional technical

services (LC ER), that represent the

reality. All the class codes have been

related to first CORINE LC level. Area is

expressed in hectares.

As it has been said before, the resulting

map is not a really cartography product

but it can be a good example of the fact

that ISTAT data can be integrate with

other base map that are often used to

produce cartography. In this regard,

ISTAT has instituted an activity in order

to produce an integrated layer called

Statistical Synthetic Map, with the aim

to put into a cartography product not

only ‘statistical data’ but administrative,

cover and land use too; about that at

the end of 2014 six Italian regions will

be completely realized.

CONCLUSION AND FUTURE

DEVELOPMENT

Nowadays, the activities of the study

are in progress, and these are not utterly.

It is necessary to individuate both

some statistic strategies to meliorate

classification especially in extra-urban

areas, and a methodology to validate

and to estimate the accuracy of this approach

both thematically and globally.

For the first point ISTAT residence population

data can be used to better

Fig. 7 - ‘ISTAT/LANDSAT’ map that shows the

final results of the study. Legend is specified in

Table 4 at column ‘Colour’.

Code

ISTAT/LANDSAT CLC 2006 LC ER

I liv.

1 117534,7 67969,4 126460,8

2 1059996,8 957112,8 828397,3

3 127981,8 270308,4 313306,2

4 9746,1 6854,8 24889,5

5 11993,1 22825,0 29763,0

TOT 1327252,5 1325070,4 1322816,8

Tab. 3 - Comparison among ISTAT/LANDSAT

map, CORINE Land Cover 2006 and Regional

Land Cover Map. Area is in hectares.

specify anthropic land use in extraurban

areas.

The best way to test this study is to

individuate a procedure of accuracy

assessment using the land cover

and land use cartography like the

Regional Land cover and land use

map of Emilia Romagna Region. The

reason for this is because this map is

one of the best and complete that we

have and because it use a legend quite

similar at the CORINE Land Cover

Legend. This map is produced at

1:10.00 scale and it is easily available

in shape file format at the Technical

Regional Office responsible.

The main activity, at the beginning, is

to harmonize the legend of the two

product, because they have been realized

with completely different aims.

All LANDSAT image derived products

not only have a return scale of 1:50.000

but the legend linked to them derived

especially from the layer used to catch

spectral signature of the classes. In

contrast, the Emilia Romagna CUS

map has a return scale of 1:10.000 with

a very good accuracy.

If the results of the further elaboration

will be acceptable, it is

possible to consider to

enlarge the portion of

territory to investigate

using more different

territorial characteristics

that can better

help us to individuate

an approach that

can be extended to

whole Italian territory.

At a later time it

is possible to plan

an integration with

other geographic

datasets in order

to upgrade the legend

details and

to complete and

to explain some

shortcomings in the

classification system

adopted.

visita il sito www.rivistageomedia.it

45


GUEST PAPER

This experimental study represent a

proposal to integrate geographic datasets

that are usually used in other application

fields and for very different purpose.

One of the target of this project is

to suggest how is a possible way to best

integrate ISTAT geographic dataset that

rarely are used as land/cover data.

There are a lot of benefits derived from

the use of LANDSAT images; first of all

they are free and then they cover, for

the areas of overlapping scenes, large

territorial portions every eight days. To

use ISTAT data gives a great advantage

overall in evaluation of ‘urban sprawl’

phenomenon; in fact from ISTAT enumeration

parcels layer can be extracted

little urban agglomerations that are

cancelled in medium scale cartography,

and this fact generate an error in quantification

of land cover/use classes.

Tab. 4 - Summary report with the extension of each class.

BIBLIOGRAFIA

1. European Environment Agency (EEA): Urban

Sprawl in Europe - the ignored challenge, EEA

report n. 10/2006. ISBN 92-9167-887-2 (2006)

2.Hanqiu Xu, 2007. Extraction of built-up land

features from LANDSAT imagery using a thematic

oriented index combination technique.

Photogrammetric Engineering & Remote

Sensing, Vol. 73, No. 12, December 2007, pp.

1381–1391

3. Zha, Y., J. Gao, and S. Ni, 2003. Use of normalized

difference built-up index in automatically

mapping urban areas from TM imagery, International

Journal of Remote Sensing, 24(3):583–

594

4.Cibula, W.G., E.F. Zetka, and D.L. Rickman, 1992.

Response of thematic bands to plant water

stress, International Journal of Remote Sensing,

13(10):1869–1880

5.Gao, B.C., 1996. NDWI–A normalized difference

water index for remote sensing of vegetation

liquid water from space, Remote Sensing of

Environment, 58(3):257–266

6. Intergraph ERDAS Imagine® 2013 - Version

13.00.0002.00598 ©1991-2013 Intergraph

Corporation

7. ESRI® ArcMap TM 10.1 – ArcGIS 10.1 SP1 for

Desktop, License type: Advanced

8. McFeeters, S.K., 1996. The use of normalized

difference water index (NDWI) in the delineation

of open water features, International Journal

of Remote Sensing, 17(7):1425–1432

9. Huete, A.R., 1988. A soil-adjusted vegetation

index (SAVI), Remote Sensing of Environment,

25(3):295–309

10.ISTAT (Italian National Institute of Statistics) –

DIQR – DCIQ – INT/C

ABSTRACT

ISTAT geographic data, updated to realize census

2010 project in October 2011, represents an useful

resource to improve the results derived from

Land cover/use cartography or satellite image

processing. In fact, both ISTAT vector data and

other cartography data (i.e. satellite image classification)

can be integrated to realize a product that

can help to better understand land cover data especially

in urban environment (i. e. urban sprawl),

although it can’t be considered a cartography

product in a strict sense. This paper summarizes

an experimental study based on a LANDSAT 8 image

that cover completely 5 provinces in the north

of Italy, where it’s shown that ISTAT data, DEM and

combine of NDVI and NDBI indices can improve

the results of the satellite image classification process,

especially in urban areas. Used SW: ARCGIS

10.1 for desktop (ArcInfo license) and ERDAS Imagine.

PAROLE CHIAVE

LANDSAT 8; ISTAT; NDVI; NDBI; ARCGIS 10.1;

ERDAS Imagine; Supervised classification; Urban

sprawl

AUTORE

Stefano Mugnoli

mugnoli@istat.it

Raffaella Chiocchini

rachiocc@istat.it

National Institute of Statistics (ISTAT),

Rome, Italy

• Rilievi batimetrici automatizzati

• Fotogrammetria delle sponde

• Acquisizione dati e immagini

• Mappatura parametri ambientali

• Attività di ricerca

Vendita – Noleggio - Servizi chiavi in mano, anche con strumentazione cliente

46 GEOmedia n°5-2014


REPORTS

GI IN EUROPE di Mauro Salvemini

INSPIRE VA ALLA REVISIONE

SI PARLA DI REVISIONE DELLA STRATEGIA EU2020

E DI INSPIRE: PUNTI DI CONTATTO

novembre è uscito il documento

A di valutazione intermedia di IN-

SPIRE che dovrebbe terminare la sua

missione nel 2020.

http://www.eea.europa.eu/publications/midterm-evaluation-report-oninspire-implementation

Il rapporto è certamente benevolente,

tratta con chiarezza gli obiettivi non

completamente raggiunti ed onestamente

indica su che cosa ci si dovrà

o dovrebbe concentrare nei prossimi

cinque anni.

Anche la Strategy EU 2020, un po’più

avanti del mezzo del cammin della sua

vita avendo ancora cinque anni dalla

“resa dei conti”, continua con la nuova

Commissione. Anche il semestre italiano

ha dimostrato sinora di avere cose

nuove da dire a riguardo.

https://portal.cor.europa.eu/euro-

pe2020/SiteCollectionDocuments/2459-

brochure-BlueprintEU2020.pdf

Inspire ha reso la documentazione dei

dati geografici certo molto più efficiente

attraverso la maggiore disponibilità

di metadati, ma ovviamente non

ha potuto influenzare più di tanto, a

livello dei singoli stati membri, l'accesso

e il riutilizzo di dati, che vengono

individuati come una barriera ancora

presente.

Sono stati comunque compiuti notevoli

progressi. Dice il rapporto che

anche l’implementazione dei servizi

basati su Internet ha subito un apprezzabile

sviluppo, ma sono ancora da

realizzarne di nuovi e da incentivare la

loro utilizzazione. L'interoperabilità, il

cavallo di battaglia di INSPIRE, sta migliorando,

non poteva del resto essere

altrimenti seguendo lo sviluppo della

ICT e con le risorse investiteci sopra

anche dai produttori di sw e di dati.

Il rapporto rileva che comunque la

maggioranza dei dati territoriali, di cui

agli allegati II e III di INSPIRE, è ancora

da fornire (scadenza fino al 2020). Solo

avendo dati disponibili e argomenti

chiari sui quali applicarli si potrà verificare

come la macchina funziona.

Il rapporto evidenzia peraltro che i risultati

sull'obiettivo della policy di dati

e servizi e sull’obiettivo del coordinamento

sono quelli che forse hanno

sofferto maggiormente e che giustificano

più di altri una revisione.

Una revisione della direttiva o di alcuni

suoi obiettivi strategici potrebbe essere

giustificata anche dall’auspicato

abbattimento delle barriere tecniche

che sembrano limitare la maggiore

utilizzabilità dei dati, mentre le barriere

culturali ed istituzionali tra i paesi

membri richiedono un rafforzamento a

livello comunitario, nazionale e locale

ed anche a livello transfrontaliero.

Il tema dei costi-benefici ( che bisogna

riconoscere è arduo da trattare) non

viene toccato dal rapporto a causa

della mancanza di dati attendibili al

momento. Occorre riconoscere che

la implementazione nazionale della

direttiva privilegia la coerenza e la capacità

tipicamente nazionale piuttosto

che comunitaria.

Ho sempre sostenuto che INSPIRE, più

di altre direttive, era ed è una opportunità

offerta agli stati membri: chi ha

inteso sfruttarla ne ha tratto benefici,

ma chi l’ ha considerata un ulteriore

obbligo comunitario ha sprecato una

opportunità difficilmente ripresentabile

poiché nel frattempo la ICT è

andata avanti e l’approccio ai dati ed

ai servizi è cambiato nel giro di più di

dieci anni.

Qualche spunto di visione futura viene

fornito dal rapporto: rafforzare il coordinamento

( ma da parte di chi della

Commissione o degli stati membri) ,

investire sulla consapevolezza e sulla

formazione dei funzionari pubblici (

con quali risorse), coinvolgere il settore

privato ( con quale modello e finalità)

.

Il rapporto non doveva rispondere alle

domande che ho posto tra parentesi,

ma di esse se ne dovrà tenere conto

se si andrà ad una revisione.

Il rapporto di valutazione di INSPIRE

fa esplicito riferimento alla strategia

EU2020 per quanto riguarda Galileo

e Copernicus, come strumenti posti in

essere per produrre dati, ed alla DAE

( Digital Agenda Europe) come più

ampia opportunità non entrando nello

specifico. Ma anche per la strategia EU

2020 si sta pensando ad una revisione

proposta peraltro dalla Presidenza Italiana

del Semestre.

Il documento che discute e propone la

revisione alla strategia EU2020 ovviamente

non fa riferimento ad INSPIRE,

ma introduce ed evidenzia la differenziazione

territoriale introdotta e votata

già nella dichiarazione di Atene del

marzo 2014 “ A territorial Vision for

Growth and Jobs” .

Richiama la partecipazione delle autorità

locali e regionali come essenziale

per la definizione di programmi. Focalizza

le soluzioni di governo invocando

l’approccio e la prassi multilivello.

Punta direttamente alla creazione di

posti di lavoro ed alla crescita.

Mappando i limiti di INSPIRE sulle

problematiche evidenziate da chi propone

una nuova visione della strategia

EU 2020, ritengo che i due strumenti

dovrebbero essere considerati insieme,

ovviamente ciascuno nel suo ambito

di competenza, alfine di produrre

vantaggi reciproci , soprattutto puntando

ai benefici per INSPIRE!

Tenendo a mente che la direttiva IN-

SPIRE è una direttiva ambientale con

connotati specifici ICT ed in particolare

è rivolta ai dati e ai servizi informatici,

e considerando che:

4 gli sviluppi avvenuti negli ultimi

dieci anni nella GI sono notevoli e

spesso inaspettati ;

4 le difficoltà che stanno trovando le

pubbliche amministrazioni centrali

nell’attuare quanto richiesto dalla

direttiva, sono pesanti;

4 l’interesse ed il coinvolgimento delle

pubbliche amministrazioni subnazionali

non è considerato dalla

direttiva;

4 gli aspetti del mercato pubblicoprivato

dei dati geografici, sono

complessi e giocano un importante

ruolo;

4 la reale necessità è oggi quella di

puntare allo sviluppo sociale tramite

la creazione di posti di lavoro ed

allo sviluppo di opportunità economiche

nel settore ICT;

non sarebbe il caso di rileggere i ben

accettati e condivisi principi di INSPI-

RE per definirne una sua evoluzione

pratica sintonizzata con la ( probabile!)

strategia EU 2030

AUTORE

Mauro Salvemini

mauro.salvemini@uniroma1.it

visita il sito www.rivistageomedia.it

47


SMART CITIES

Smart cities or dumb cities

Città, Ranking e Governance Urbana

Capita sempre più di frequente di imbattersi in classifiche

delle città italiane basate su indicatori di smartness.

Nella maggior parte dei casi si tratta di indicatori che

considerano la semplice presenza di alcuni servizi pubblici

o opere pubbliche senza entrare nel dettaglio della loro

qualità, né interrogandosi su che cosa ciò significhi, all’atto

pratico, per i cittadini che le vivono.

Leggendo semplici notizie di cronaca di rilievo nazionale

ed incrociandole con queste classifiche ci si rende conto

che molte tra le amministrazioni più “smart” lasciano molto

a desiderare nelle scelte intelligenti.

Consideriamo Genova, sempre tra le prime nei ranking

nazionali ed allo stesso tempo continuamente alla ribalta

per vittime a seguito di esondazioni.

Roma, altra città messa in buona posizione in tutte le

classifiche, si accorge all’improvviso di avere seri problemi

nella gestione del fenomeno migratorio e di aver speso

decine di milioni di euro per far vivere gli extracomunitari

in latrine. Considerazioni analoghe potrebbero essere

fatte su Venezia, Milano e molte altre città particolarmente

smart.

Evitando di entrare nel dettaglio dei singoli casi, per evitare

di speculare sulle disgrazie dei cittadini, è possibile però

sviluppare delle considerazioni di carattere generale.

In quasi tutti i casi i “progetti smart” sono partiti a seguito di

finanziamenti nazionali ed europei, ma le necessità di una

comunità sono state generate dalla possibilità di ottenere

delle risorse economiche invertendo la naturale sequenza

logica. In genere si effettua una “radiografia” di un sistema

mediante l’analisi dei problemi ipotizzando delle strategie

per risolverli. L’altra criticità, già evidenziata nei numeri

precedenti della rubrica, deriva dal completo scollamento

di questi programmi rispetto agli altri programmi in atto

sulla stessa città. L’importante è accaparrare risorse poi

se non si ha una chiara idea di cosa farsene non è un

problema.

Il risultato è una governance della città senza una vision,

basata su una sommatoria di interventi. Questa totale

assenza di strategia porta a rivedere continuamente

le scelte effettuate in precedenza, non per sforzarsi di

perseguire in maniera più efficace gli obbiettivi prefissati,

ma semplicemente per cercare di inseguire le continue e

variegate emergenze.

Nei numeri precedenti della rubrica era stato evidenziato

come il concetto di “Smart city” si basa sull’utilizzo delle

tecnologie per una migliore programmazione e gestione

delle città per risparmiare risorse e salvare il pianeta.

L’implementazione di questo concetto può essere

perseguita attraverso una stretta collaborazione tra

imprese, università ed enti locali.

L’immagine seguente evidenzia la clusterizzazione dei

tweet geo-localizzati rispetto ai principali hashtag durante

l’uragano Sandy realizzata dall’università di Washington. In

particolare è possibile notare nell’area centrale del webgis

una concentrazione di tweet (dati puntuali in rosa) che

hanno come hashtag #gas. In questo caso i cittadini hanno

agito da sensori volontari, fornendo delle informazioni

vitali nella gestione dell’emergenza (nello specifico caso

indicando le aree in cui si erano verificate perdite di gas

nella rete di distribuzione della città. Figura 1).

Da molti anni ad entrambi gli autori di questo contributo

è capitato di revisionare articoli scientifici incentrati

sull’analisi dei fenomeni migratori mediante l’uso dei

social media.

Purtroppo su questa tematica i social media (e Twitter

in particolare) vengono utilizzati prevalentemente per

diffondere affermazioni populiste. Quante ricerche

validate da pubblicazioni su importanti riviste internazionali

sono state prese in considerazione dagli enti locali nella

governance della città

Purtroppo il decisore spesso non va oltre gli slogan (spesso

si confondono tweet e provvedimenti), mentre il dirigente

è premiato rispetto alla capacità di smaltire mucchi di

carte. Risulta evidente che l’innovazione viene vista come

un problema, una deviazione dalle tradizionali e vetuste

procedure, una potenziale distrazione, un qualcosa di

poco utile nei minuti successivi. È bene evidenziare che in

questa analisi non sono stati analizzati fenomeni non del

tutto trascurabili in Italia come quello della corruzione e la

collusione con la criminalità organizzata.

Il risultato è quello avvenuto a Genova dove i sensori e la

pubblica amministrazione non sono riusciti a comunicare

Fig. 1 - Clusterizzazione dei tweet geo-localizzati rispetto ai principali hashtag durante l’uragano Sandy (http://faculty.washington.edu/kstarbi/TtT_

Hurricane_Map_byEvent.html).

48 GEOmedia n°5-2014


Fig. 2 - Web-gis con la localizzazione delle webcam per il monitoraggio del territorio realizzato dai cittadini di Genova (http://opengenova.org/maps/webcam/).

tra di loro (Scano, 2014) ed i cittadini hanno provveduto

alla realizzazione di un web-gis con la localizzazione delle

webcam per il monitoraggio del territorio (Figura 2).

Alcune amministrazioni stanno in realtà agendo in modo

concertato integrando, sul tema delle emergenze, le attività

di pianificazione ‘dall’alto’ con le interazioni ‘dal basso’ da

parte dei cittadini. È il caso della sperimentazione in corso

nella città di Trieste, dove il Comune, di concerto con la

locale Protezione Civile, sta implementando procedure e

metodi di interazione con la cittadinanza in occasione di

allerte “meteo”, “neve” e altri eventi calamitosi, basandosi,

tra gli altri, su comunicazioni via social networks e media,

grazie al coinvolgimento di una rete di ‘volontari digitali’,

in grado di fare da ripetitori delle informazioni di servizio

ma anche delle necessità del territorio in eventi simili. La

figura 3 riporta l’evidenza della prima sperimentazione

(non programmata, come la stessa allerta!) effettuata in

occasione delle bombe d’acqua scaricatesi su varie parti

d’Italia a ottobre 2014. Il 15 ottobre la città adriatica ne

risulta colpita e sono visibili i tweet georeferenziati (a

destra) relativi all’utilizzo dell’hashtag.

La via Italiana alle “smart city” che nel migliore dei casi

produrrà l’accensione automatizzata dei lampioni (Scano,

2014) è in linea con il tipico approccio che abbiamo nella

programmazione, dove siamo sotto il rischio continuo di

perdita di finanziamenti europei per un’assenza di una

strategia complessiva (Conte 2014).

L’approccio giusto deve basarsi su due capisaldi della

pianificazione strategica (Gibelli,1996):

1. La collocazione delle scelte di breve periodo in un

quadro previsionale che abbracci le dimensioni del

medio e lungo periodo;

2. Aspirazione al raccordo e all’integrazione delle politiche

di settore

In un interessante contributo su Wired Ernesto Belisario

identifica tre principali fattori di inefficienza della

pubblica amministrazione rispetto al fenomeno della

corruzione. L’analisi è fondamentalmente incentrata

sull’uso delle tecnologie e la mancanza di trasparenza.

A queste importanti considerazioni andrebbe aggiunta

una causa a monte, la mancanza di pianificazione. Questa

totale assenza programmazione produce un continuo

Figura 3 - Gli hashtag locali di #allertameteo da tweet geolocalizzati sul blog di Vicenzo

Cosenza, relativi a ottobre 2014. Il 15 ottobre Trieste sperimenta #AllertaMeteoTS con

Comune, Protezione Civile e volontari.

operare in fase di emergenza, bypassando le procedure

ordinarie e favorendo il fenomeno della corruzione. Il

risultato, nella maggior parte dei casi, è una sequenza di

azioni disorganiche, che spesso non sono la soluzione

ottimale del problema, completamente sconnesse dagli

altri programmi in atto sul territorio.

RIFERIMENTI BIBLIOGRAFICI

Gibelli M. C., (1996), "Tre famiglie di piani strategici: verso un modello reticolare

e visionario", in Curti F. e Gibelli M. C., (a cura di), "Pianificazione Strategica

e gestione dello sviluppo urbano", Alinea, Firenze.Las Casas G., Sansone A.

(2004). Un approccio rinnovato alla razionalità nel piano In: Deplano G. Politiche

e strumenti per il recupero urbano. EdicomEdizioni, MONFALCONE (GO):

ISBN:9788886729536

Scano R., (2014) “Le smart city e i momenti di melma” http://www.

agendadigitale.eu/smart-cities-communities/1178_le-smart-city-e-i-momentidi-melma.htm

Conte V. (2014) “Lettera Ue bacchetta l'Italia: "Non avete una strategia". A rischio

40 miliardi di fondi”,http://www.repubblica.it/economia/2014/08/13/news/

lettera_ue_bacchetta_l_italia_non_avete_una_strategia_a_rischio_40_miliardi_

di_fondi-93668748/

Goodchild, M.F.: Citizens as Voluntary Sensors: Spatial Data Infrastructure in the

World of Web 2.0. International Journal of Spatial Data Infrastructures Research

2, 24–32 (2007)

Belisario (2014) “Lotta alla corruzione e trasparenza: ecco perché l’Italia

sta facendo male” http://www.wired.it/attualita/politica/2014/12/10/lottacorruzione-trasparenza-stiamo-facendo-male/

Il Piccolo. A Trieste il piano neve diventa anche social, 4 dicembre 2014, http://

ilpiccolo.gelocal.it/trieste/cronaca/2014/12/04/news/a-trieste-il-piano-nevediventa-anche-social-1.10432913

Cosenza V., Allerta meteo: analisi e mappatura dei segnali da twitter, 17 ottobre

2014. http://vincos.it/2014/10/17/allerta-meteo-analisi-mappatura-segnalitwitter/

AUTORI

Beniamino Murgante, murgante@gmail.com

Giuseppe Borruso, giuseppe.borruso@deams.units.it

visita il sito www.rivistageomedia.it

49


AGENDA

2014-2015

4-6 Febbraio 2015

The Unmanned Systems Expo

The Hague (The Netherlands)

www.geoforall.it/qwq4

19 Febbraio 2015

Conferenza OpenGeoData Italia

Roma

www.geoforall.it/qucy

25-27 Marzo 2015

Photogrammetric Image Analysis (PIA)

High-Resolution Earth Imaging for

Geospatial Information (HRIGI)

Munich (Germany)

www.geoforall.it/q99y

25-27 Marzo 2015

Photogrammetric Image Analysis

Munich, Germany PIA15

www.geoforall.it/9p8a

14-16 Aprile 2015

Ocean Business 2015

Southampton (UK)

www.geoforall.it/q9kc

15-16 Aprile 2015

Conferenza Esri Italia

Roma

20-25 Aprile 2015

Istanbul (Turkey)

The World Cadastre Summit Congress

and Exhibition

www.geoforall.it/q9wa

28-30 Aprile 2015

GISTAM 2015

Barcellona (Spain)

www.geoforall.it/ayu3

13-14 Maggio 2015

Technology for All

www.technologyforall.it

Roma

25-29 Maggio 2015

INSPIRE-GWF 2015 Call for Abstracts

Lisbon (Portugal)

www.geoforall.it/qapk

27-28 Maggio 2015

The GEOSPATIAL Event

Londra

www.geoforall.it/hhac

9-11 Giugno 2015

World Geospatial Developers

Conference

China

www.geoforall.it/hhfa

Technology for All 2015

Tecnologie per il territorio

le smart city e i beni culturali

Roma

13-14 Maggio

www.technologyforall.it

TEOREMA srl: SOLUZIONI INNOVATIVE

PER LA TOPOGRAFIA E LA TERMOGRAFIA IR

Leica

Multistation

MS50

Leica

GS08 Plus

Leica

Disto D810

Touch

Leica

3D Disto

Leica

P20

Flir

E50 bx

www.disto.it • www.geomatica.it • www.termocamere.com

Via A. Romilli, 20/8 20139 Milano • Tel. 02 5398739 - Fax 02 57301988

teorema@geomatica.it


MASSIMA VELOCITÀ.

PRECISIONE SENZA CONFRONTI.

ANCHE CON UNA

LEGGERA INCLINAZIONE

Compensazione completa dell’inclinazione

con la tecnologia Trimble SurePoint

Semplificate la vostra metodologia di lavoro di rilievo con

la tecnologia Trimble ® SurePoint integrata, che compensa

automaticamente fino a 15° di inclinazione della palina, con

una tracciabilità della misurazione del 100%. Rilevate con

rapidità punti che prima erano inaccessibili. Questo è solo

uno dei vantaggi del nuovo Trimble R10, scopritene di più:

www.trimble.com/survey/TrimbleR10

TRIMBLE

R10 GNSS

© 2014, Trimble Navigation Limited. Tutti i diritti riservati. Trimble e il logo Globe e Triangle sono marchi commerciali di Trimble Navigation Limited,

registrati negli Stati Uniti e in altri paesi. SurePoint è un marchio di Trimble Navigation Limited. Tutti gli altri sono marchi dei rispettivi proprietari.

GEO-011-ITA (01/14)


Installazione multibeam e laser scanner

Lavoriamo

con chi lavora

con chi usa la propria esperienza

con intelligenza, con chi è orgoglioso

della propria professionalità.

Strumenti ad alta tecnologia

per le Scienze della Terra e del Mare

Indagini pre-scavo con georadar

> Studio del sottosuolo

georadar, sismica, geoelettrica,

logger da foro.

> Rappresentazione

dei fondali e delle coste

Multibeam, SideScanSonar,

SubBottom Profiler.

> Monitoraggio ambientale

e Ingegneria civile

georadar, sismografi, laser

scanner, magnetometri.

> Vulcanologia

e Monitoraggio sismico

sismometri, gravimetri,

inclinometri.

> Qualificato laboratorio

di Assistenza Tecnica.

> Sistemi disponibili a noleggio.

> Noleggio a lungo termine.

Per gentile concessione INGV

CODEVINTEC

Tecnologie per le Scienze della Terra

Via Labus 13 - Milano

tel. +39 02 4830.2175

info@codevintec.it

www.codevintec.it

More magazines by this user
Similar magazines