Archeomatica 2 2022
Tecnologie per i Beni Culturali
Tecnologie per i Beni Culturali
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
ivista trimestrale, Anno XIV - Numero II giugno 2022
ArcheomaticA
Tecnologie per i Beni Culturali
Piattaforme
in Evoluzione
A new IDEHA for Data managing and displaying
Open History Map
Open Science for Archaeology
www.archeomatica.it
EDITORIALE
Diritto d'autore e Digitale
Questo numero di Archeomatica tocca, con l’articolo di Paolo Rosati dal titolo Open
science for archeology, il complesso tema delle Creative Commons Licences. Quante e di
che tipo sono le licenze in Open access, che il Web ha ottenuto di diffondere. Quasi tutte
dispensano la licenza di utilizzo in tutto o in parte di un lavoro letterario o scientifico,
purché siano rispettate le dichiarazioni dei crediti autoriali o, per meglio dire, i crediti
delle istituzioni, fondazioni ed editori che li detengono. Lo spartiacque fondamentale è
tra le edizioni ante e post 1940, ma non per tutti i paesi è ugualmente regolamentato ed
anche per una buona fetta di opere anteriori al 1940, se non tutte, per poterle consultare
il lettore e lo studente dovranno registrarsi e dichiarare di non volerne fare un uso
commerciale per poterle scaricare. Non è chiaro perchè, dal momento che quasi nessuna
delle istituzioni e degli editori coinvolti potrebbero dimostrare di aver mai acquistato i
diritti autoriali delle opere e la loro acquisizione è per lo più soggetta a legislazioni di
singoli stati, mirate alla diffusione pubblica del bene, conditio sine qua non di un uso
commerciale. In altre parole, autori ed editori pioneristici che ne hanno suffragato la
creazione, la pubblicazione e la riproduzione possono continuare a crepare di fame per
generazioni ed il pubblico dovrà continuare a pagare il prezzo di un disagio anche quando
l’accessibilità e i diritti di riproduzione siano scaduti da tempo. Un dato di fatto è che la
fruizione sia un bene commerciale e che le schiere di riproduttori siano schiere di fruitori
che contribuiscono al valore di un’opera. Voler limitare l’accessione ad un prodotto
autoriale da parte di chi non ne è autore, al contrario, è un’operazione commerciale a
tutto tondo. Se opere enciclopediche come Wikipedia hanno mostrato quanto lento sia
l’aggiornamento culturale di una produzione dai confini sempre più illimitati, hanno d’altra
parte dimostrato anche che quasi mai nessuno sa chi ha detto che. E’ che il grosso del
lavoro di ogni autore è tracciare l’identikit di un prodotto culturale, afferrare chi, dove e
quando ne abbia detto che, per finire a scoprire che molte volte i più autorevoli ideatori e
interpreti siano i più taciuti e gratuiti. La letteratura è un lavoro di copia e incolla, dove
il plagio è all’ordine del giorno e forse è proprio questo a fare della ricerca in open access
la novità della crescita di una comunità scientifica: la misura di una fruizione simultanea
di una mole prima d’ora quasi imperscrutabile di dati, in cui anche l’autore neofita possa
addentrarsi come uno scolaretto e raggiungere il bene di leggerla a portata di mano,
ripagando gli autori e gli editori che l’hanno realizzata a questo fine e nessun altro. Il Web
è quel buon padre di famiglia che mette nel nostro scaffale un’indice di opere in un modo o
nell’altro proibite, frutto di un'umanità intera, in cui trovare non tanto e non solo qualcosa
di nuovo da dire, ma le ragioni del nostro dire più pressante, che, dopo aver letto e riletto,
ci sembrerà sempre meno uguale e sempre più comprensibile ad altri, meno divulgativo che
mai. Un obbiettivo fondamentale del web, da non cambiare, è che nessun altro dispensi
un’opera se non chi l’ha creata e che il più acuto dei lettori ne sia anche il suo inventore.
La fruizione digitale non sostituisce il contatto diretto con l’opera d’arte e nemmeno
le possibilità d’investimento commerciale nel prodotto. La sua portata rivoluzionaria e’
paragonabile all’invenzione della stampa tipografica: ci aiuterà a scoprire, come buoni
indagatori, qualcosa di falso in quello che la storia ha riconosciuto vero. Un nuovo impegno
nell’esercizio d’immaginazione, ma con una memoria meno ingombrante nello spazio fisico
che ci circonda e, soprattutto, senza rifiuti.
Buona lettura,
Francesca Salvemini
IN QUESTO NUMERO
DOCUMENTAZIONE
6 Uno strumento per
la digitalizzazione e
gestione
del Patrimonio
Culturale nel Parco
Archeologico
di Paestum e Velia: la
piattaforma HERA di Gabriel Zuchtriegel,
Francesco Uliano Scelza, Riccardo Auci, Cristiano Benedetto De Vita
In copertina dimostrazione del Tablet per la
gestione dei flussi di fruizione della
piattaforma Hera, utilizzata nel Parco
Archeologico di Paestum e Velia.
GUEST Paper
12 Full immersion in
Cultural Heritage
environments:
A new IDEHA for
data managing and
displaying
By Luca Bevilacqua, Bruno
Fanini, Nicola Mariniello, Augusto Palombini, Vladimiro Scotto di Carlo,
Giuseppe Scardozzi, Antonio Sorgente, Paolo Vanacore
Segui l'account di Archeomatica
su Twitter, Facebook e Instagram
ArcheomaticA
Tecnologie per i Beni Culturali
Anno XIV, N° 2 - GIUGNO 2022
Archeomatica, trimestrale pubblicata dal 2009, è la prima rivista
italiana interamente dedicata alla divulgazione, promozione
e interscambio di conoscenze sulle tecnologie per la tutela,
la conservazione, la valorizzazione e la fruizione del patrimonio
culturale italiano ed internazionale. Pubblica argomenti su
tecnologie per il rilievo e la documentazione, per l'analisi e la
diagnosi, per l'intervento di restauro o per la manutenzione e,
in ultimo, per la fruizione legata all'indotto dei musei e dei
parchi archeologici, senza tralasciare le modalità di fruizione
avanzata del web con il suo social networking e le periferiche
"smart". Collabora con tutti i riferimenti del settore sia italiani
che stranieri, tra i quali professionisti, istituzioni, accademia,
enti di ricerca e pubbliche amministrazioni.
Direttore
Renzo Carlucci
dir@archeomatica.it
Direttore Responsabile
Michele Fasolo
michele.fasolo@archeomatica.it
comItAto scIentIfIco
Giuseppe CeRaudo, annalisa CipRiani, MauRizio
FoRte, BeRnaRd FRisCheR, Giovanni ettoRe
GiGante, MaRio MiCheli, steFano Monti,
luCa papi, MaRCo RaMazzotti,
antonino saGGio, FRanCesCa salveMini,
RodolFo MaRia stRollo
Redazione
Maria Chiara Spezia
redazione@archeomatica.it
Matteo Serpetti
matteo.serpetti@archeomatica.it
Valerio Carlucci
valerio.carlucci@archeomatica.it
RUBRICHE
28 AZIENDE E
PRODOTTI
Soluzioni allo Stato
dell'Arte
32 AGORÀ
16 Open History Map – Status of the Project
by Marco Montanari, Lucia Marsicano, Raffaele Trojanis,
Silvia Bernardoni, Lorenzo Gigli
Notizie dal mondo delle
Tecnologie dei Beni
Culturali
40 EVENTI
22 Open Science for
Archaeology:
an up-to-date guide
(2022)
by Paolo Rosati
INSERZIONISTI
Esri 27
GEC Software 11
GEOMAX 31
gter 15
Hubstract 36
Nais solutions 40
Planetek 2
Stonex 35
Teorema 38
TechnlogyForAll 39
una pubblicazione
Science & Technology Communication
Science & Technology Communication
Diffusione e Amministrazione
Tatiana Iasillo
diffusione@archeomatica.it
MediaGEO soc. coop.
Via Palestro, 95
00185 Roma
tel. 06.64.87.12.09
fax. 06.62.20.95.10
www.archeomatica.it
Progetto grafico e impaginazione
Daniele Carlucci
daniele@archeomatica.it
Editore
MediaGEO soc. coop.
Archeomatica è una testata registrata al
Tribunale di Roma con il numero 395/2009
del 19 novembre 2009
ISSN 2037-2485
Stampa
System Graphic Srl
Via di Torre Santa Anastasia 61 00134 Roma
Condizioni di abbonamento
La quota annuale di abbonamento alla rivista è di
€ 45,00. Il prezzo di ciascun fascicolo compreso
nell’abbonamento è di € 12,00.
Il prezzo di ciascun fascicolo arretrato è di
€ 15,00. I prezzi indicati si intendono Iva inclusa.Per
abbonarsi: www.archeomatica.it
Gli articoli firmati impegnano solo la responsabilità
dell’autore. È vietata la riproduzione anche parziale
del contenuto di questo numero della Rivista
in qualsiasi forma e con qualsiasi procedimento
elettronico o meccanico, ivi inclusi i sistemi di
archiviazione e prelievo dati, senza il consenso scritto
dell’editore.
Data chiusura in redazione: 30 settembre 2022
DOCUMENTAZIONE
Uno strumento per la digitalizzazione e gestione
del Patrimonio Culturale nel Parco Archeologico
di Paestum e Velia: la piattaforma HERA
di Gabriel Zuchtriegel, Francesco Uliano Scelza, Riccardo Auci, Cristiano Benedetto De Vita
La digitalizzazione del Patrimonio
Culturale sta cambiando
radicalmente i luoghi e gli attori
del sistema Cultura. Tale processo
ha innescato nuovi percorsi di
conoscenza e di valorizzazione,
ponendo l’accento sulla necessità
di individuare strumenti e
metodologie innovative atte a
garantire una razionalizzazione
Fig. 1 - HERA PAESTUM. Schema di sintesi delle caratteristiche e delle funzionalità del
sistema
delle attività alla base del
funzionamento degli Enti
Culturali. Da questo punto di
vista, HERA, la piattaforma di
gestione del Parco Archeologico
di Paestum e Velia, sta
fissando nuovi standard per
la digitalizzazione, per la
la digitalizzazione,
per la conoscenza
e la gestione del
Pat- rimonio.
conoscenza e la gestione del
Paestum e Velia,
sta fissando nuovi
standard per
Patrimonio.
l’accento sulla necessità di individuare strumenti e metodologie
innovative atte a garantire una razionalizzazione delle attività alla base
del funzionamento degli Enti Culturali. Da questo punto di vista, HERA,
la piattaforma di
ges- tione del Parco
Ar- cheologico di
a digitalizzazione del Patrimonio Culturale sta cambiando radicalmente
i luoghi e gli attori del sistema Cultura. Tale processo ha innescato
nuovi percorsi di conoscenza e di valorizzazione, ponendo
L
La forte spinta alla digitalizzazione e lo sviluppo delle
nuove tecnologie per la gestione di big data ha
portato negli ultimi anni a un’ampia rilettura delle
necessità e delle criticità del lavoro degli Enti Culturali,
con l’obiettivo di individuare soluzioni in grado di migliorare
il complesso di attività e di processi che si svolgono
quotidianamente al loro interno. Si riconosce oggi nel digitale
un mezzo per incrementare la cura e la diffusione
del Patrimonio, due degli obiettivi principali di qualunque
Istituzione culturale.
In questo contesto, da alcuni anni il Parco Archeologico di
Paestum e Velia ha avviato la progettazione di uno strumento
digitale di razionalizzazione delle attività e dei
compiti. Il processo ha avuto inizio dall’analisi della complessità
che caratterizza questo Ente: una complessità
riconoscibile in un patrimonio composito costituito da tre
aree archeologiche con i loro monumenti e stratigrafie;
una documentazione scientifica prodotta in almeno cento
anni di attività e un complesso di reperti e manufatti
ricchissimo, in parte esposto e per lo più conservato nei
depositi; e, ancora, strutture, spazi espositivi, laboratori,
documentazione amministrativa.
6 ArcheomaticA N°2 Giugno 2022
Tecnologie per i Beni Culturali 7
Fig. 2 - Interfaccia schedografica, con visualizzazione dei reperti catalogati (schede MINP e RA)
Rispetto a tale quadro di così grande eterogeneità nelle sue
forme e nelle sue criticità è emerso l’obiettivo di costruire
una piattaforma che potesse collazionare il patrimonio e
gestirne le attività connesse, sia in fase di programmazione,
sia in quelle di progettazione ed esecuzione; sia rivolte
alla tutela, sia alla fruizione e valorizzazione. Scavi archeologici,
catalogazione, restauri, manutenzione, sono operazioni,
alcune esemplificative di un ventaglio ampio di attività,
che richiedono protocolli e procedure che possano
soddisfare, in termini di efficienza e di risultati, l’impiego
di risorse economiche e umane anche consistenti.
Inoltre, è risultato fondamentale creare un sistema digitale
interoperabile con altre piattaforme già esistenti e con
il mondo esterno al parco, con quell’ampio pubblico che è
il destinatario ultimo delle finalità di tutela e valorizzazione
del patrimonio.
In collaborazione con Visivalab, il Parco ha così progettato
e sviluppato HERA, una piattaforma digitale realizzata per
razionalizzare il Patrimonio dell’Istituto e garantirne la gestione,
la cura e la diffusione.
HERA è formulata secondo un approccio multiutente e dinamico
per cui garantisce un accesso globale al Patrimonio
per differenti livelli di utilizzo, e per distinti trasferimenti
e aggiornamenti. La struttura del sistema si articola su
quattro macro blocchi: area archeologica, sale espositive,
deposito ed archivio. Ciascun raggruppamento ha propri
apparati documentali e regole di utilizzo. Le singole sezioni
sono realizzate per soddisfare gli obblighi di legge di
tutela e di valorizzazione: conoscenza (inventario, catalogo,
ricerca, etc.); conservazione (stoccaggio, monitoraggio,
manutenzione, restauro, etc.); fruizione (diffusione,
riproduzione, studio, uso, etc.).
I dati sono raccolti in un sistema web che permette di
gestire le informazioni sul patrimonio con un’interfaccia
grafica intuitiva. Non si tratta solo di un database online,
bensì di uno strumento dinamico, che permette di utilizzare
i dati disponibili, di crearne di nuovi, di ricercarli e
di organizzarli.
Secondo un’ottica GIS based, HERA è costituita da due interfacce
principali: quella schedografica e quella cartografica.
La prima accoglie tutta la documentazione suddivisa
per categorie specifiche. Più di 27.000 elementi ad oggi
importati sono catalogati secondo schede strutturate sugli
standard ICCD. I dati spaziano dalle planimetrie e disegni
agli archivi di tipo scientifico e amministrativo, dalla bibliografia
alle fotografie, ai reperti mobili, alle indagini
archeologiche. Grazie al lavoro dei funzionari e degli archeologi,
è stato possibile organizzare i database presenti
all’interno degli archivi del Parco, e di sistematizzare le
informazioni inedite o raccolte in maniera asistematica.
Le schede di questa sezione possono essere modificate,
esportate e incrementate. Funzionalità aggiuntive della
sezione permettono di avviare attività di catalogazione con
gruppi di reperti che possono poi essere esportati all’interno
del SIGECweb dell’ICCD. Simili procedure possono
essere attivate per le informazioni legate alle indagini di
scavo e alla documentazione scientifica e amministrativa.
La seconda interfaccia è di tipo cartografico, implementata
attraverso una pianta georiferita della città antica,
la più aggiornata possibile, prodotta attraverso la raccolta
di supporti cartacei e digitali. È disponibile anche la
pianta dei depositi del Museo, che riproduce gli ambienti,
la disposizione degli scaffali e dei ripiani sui quali sono
conservati i reperti mobili. La cartografia è aggiornabile: è
possibile aggiungere e sovrapporre ulteriori supporti multiscalari
e multitemporali (rilievi, mappe catastali, carte
tecniche regionali).
Particolare attenzione è stata data anche al territorio, in
quanto la rappresentazione cartografica non ha limiti spaziali,
ed è dunque possibile aggiungere informazioni relative
all’esterno del perimetro dell’area archeologica.
Le basi cartografiche costituiscono i supporti su cui sono
distribuiti i dati: ogni elemento schedato (che sia un reperto,
uno scavo, un monumento, etc.) è rappresentato
vettorialmente, è geolocalizzato ed è individuabile tramite
ricerca o navigazione libera. Elementi topografici e
Fig. 3 - Interfaccia cartografica: in rosso i poligoni riferibili ai saggi di scavo effettuati nell’area archeologica.
indagini (quasi 500 tra scavo e prospezioni, e più di 1000
monumenti e sepolture) sono rappresentati da poligoni, visualizzabili
attraverso una tabella dei layer.
I reperti sono collegati al contesto di rinvenimento e al
luogo di conservazione o di esposizione. Ciò significa che
uno stesso reperto archeologico può essere correlato a
molteplici informazioni di localizzazione (multiple georeferenced
information) relative al luogo di provenienza e
ai luoghi di fruizione. In pratica, questa soluzione segue
la storia di ciascun reperto e ne prevede lo sviluppo. Difatti
è contemplata la possibilità di variare le informazioni
spaziali in funzione dei movimenti che il reperto affronta,
come nei casi di restauri, mostre ed esposizioni. Al tempo
stesso è fissato il collegamento con i contesti di provenienza.
All’interno di questa costruzione, la mappatura dei depositi
e degli spazi espositivi costituisce un elemento essenziale,
poiché fornisce le informazioni di destinazione del
patrimonio mobile. Come già detto, ogni singolo scaffale
o supporto è stato riprodotto digitalmente sotto forma di
poligoni vettoriali ed è consultabile sulla mappa. I poligoni
rappresentano dei veri e propri contenitori nei quali
sono inseriti i reperti e le cassette. Si possono effettuare
ricerche direttamente sulla schermata dei depositi,
Fig. 4 - Gestione dei contenitori e della pianta dei depositi, attraverso l’utilizzo di supporti mobile.
8 ArcheomaticA N°2 Giugno 2022
Tecnologie per i Beni Culturali 9
Fig. 5 - Il sistema SIMOVI per la gestione dei flussi di visita all’interno dell’area archeologica.
verificare la posizione dei materiali dalle schede di riferimento
o navigare liberamente nella pianta. Il prossimo
aggiornamento del sistema prevede l’applicazione di QR
code o RFID ad ogni singola cassetta. In questo modo, le
operazioni di movimentazione, individuazione, collazione
e riorganizzazione dei materiali saranno rese ancora più
controllate e immediate.
La massa di documentazione importata e i processi di acquisizione
e presentazione del dato archeologico sono stati
validati attraverso una fase di testing. Una seconda fase
di verifica si è svolta insieme ai funzionari e agli operatori
del Parco col fine di sperimentare e di rendere il sistema il
più duttile possibile.
Proprio perché rivolto a destinatari differenti, HERA presenta
un accesso multiutente, con livelli di sicurezza scalari.
Quello minimo garantisce al pubblico la consultazione
del catalogo e dell’apparato cartografico (consultabili
all’indirizzo https://hera.beniculturali.it/catalogo). Per
le funzionalità di gestione e di ricerca sono predisposti
profili specifici con i quali gli operatori del Parco o eventuali
concessionari possono accedere.
Gli utenti avanzati – i funzionari del parco – decidono in
ogni momento cosa pubblicare e come farlo, gestiscono gli
spazi di lavoro in modalità condivisa - evitando così la duplicazione
di informazioni – e possono effettuare ricerche
congiunte o attraverso indici specializzati per tipologia di
materiale.
Un ulteriore modulo del sistema è dedicato alla creazione
di progetti individuali. Questa funzione permette di organizzare
attività di lavoro, come ad esempio restauri, prestiti,
scavi archeologici, etc., poiché consente di raggruppare
in maniera rapida tutte le informazioni necessarie a
procedere con il lavoro. Queste schede di progettazione
sono condivisibili con gruppi di lavoro interni.
È in fase di test un modulo per la gestione delle attività
di manutenzione e la pianificazione di restauri su reperti e
monumenti, che sfrutterà come base l’apparato cartografico,
e si munirà di un sistema di calendarizzazione degli
interventi e di alert nel caso delle emergenze, queste ultime
segnalabili da tutti i tipi di utenti.
Infine, una fondamentale feature che rende HERA flessibile
in rapporto al tema della valorizzazione è la sua integrazione
con l’app di visita PAESTUM. Questo legame rende
semplice la migrazione di contenuti dalla piattaforma
all’applicazione mobile, con la possibilità di creare nuovi
percorsi e punti di interesse, mostre digitali e altro.
Il modulo chiamato SIMOVI consente, tramite la geolocalizzazione
dell’app di visita, il controllo dei flussi dei visitatori
all’interno dell’area archeologica. La raccolta dei
dati, nel totale rispetto della privacy, è stata resa necessaria
con l’inasprirsi della pandemia di Covid-19 a partire
dal marzo del 2020. Proprio il monitoraggio dei flussi ha
permesso al Parco di aprire in sicurezza e di garantire la
visita.
SIMOVI funziona attraverso la perimetrazione in poligoni
dell’area archeologica. Ad ogni poligono è assegnato un
indice di densità massimo delle presenze. Quando questo
indice viene raggiunto, il sistema invia automaticamente
ai visitatori presenti nell’area e agli addetti alla vigilanza
un allarme di sicurezza.
Le informazioni sui flussi si dimostrano utili per riconoscere
le aree a maggior concentrazione e quindi soggette
a maggior degrado, ma anche per individuare quali sono i
percorsi più apprezzati dai visitatori o i punti di interesse
maggiormente evocativi. Si possono così aprire nuovi percorsi,
pianificare la valorizzazione di nuove aree, perimetrare
i cantieri, e molto altro.
La struttura in moduli e la possibilità di aggiornamenti
continui, la logica di georeferenziazione e l’utilizzo di
standard catalografici rendono la piattaforma HERA altamente
scalabile e replicabile, applicabile al singolo Museo,
al Parco, all’Archivio. I moduli possono essere selezionati e
aggiunti, e questo rende anche più semplice la possibilità
di costruire uno strumento via via più completo.
Per concludere, la piattaforma HERA è strutturata con l’intento
di rendere il patrimonio il più possibile permeabile,
gestibile e conoscibile. Il suo utilizzo si configura in un
movimento circolare che permette di passare da un ambito
di interesse ad un altro attraverso legami tematici,
informativi, spaziali. Non esiste un “vicolo cieco” nell’uso
e nella fruizione del patrimonio, ma un processo di conoscenza
e gestione continuo e reiterabile. Sono questi
movimenti, valorizzati nel mondo digitale, che accrescono
il valore storico del Patrimonio di Paestum. Per dirla con
altre parole, attraverso HERA i contesti di produzione del
dato, i processi di acquisizione del patrimonio, il lavoro di
tutela, sono unificati e valorizzati. In HERA l’individuazione,
la catalogazione e la pubblicazione del dato sono integrate
quali funzioni di un processo in continuo svolgimento
che costantemente si alimenta sia dalla ricerca, sia dalla
fruizione.
METADESCRIPTION
HERA è la piattaforma di catalogazione e gestione del patrimonio
archeologico del Parco di Paestum.
BREVE SCHEDA DELL’AZIENDA
Il Parco Archeologico di Paestum e Velia ha demandato la costruzione
della struttura tecnologica di HERA a Visivalab.
La collaborazione è stata avviata con la direzione di Gabriel
Zuchtriegel nel 2019. Le funzionalità del sistema sono state
implementate dall’azienda attraverso le proposte progettuali
dei funzionari del parco, e su indirizzo di Francesco Uliano
Scelza. Visivalab ha collaborato anche nella progettazione
dell’APP di visita e fornisce continuo supporto, didattica e
aggiornamenti sul sistema HERA.
Visivalab è un laboratorio di esperienze che unisce le persone
con le istituzioni culturali e i brand grazie alla fusione di
design e tecnologia specializzata. Dal 2010 offre un'assistenza
completa ai clienti che ha lo scopo di arricchire il lavoro
in tutte le sue fasi, da quelle di indagine ed elaborazione a
quelle di implementazione, installazione e supporto. Tra gli
obiettivi principali di Visivalab è la costruzione di esperienze
immersive capaci di creare un vincolo armonico tra Patrimonio,
utenti e istituzioni. Le priorità sono quelle di garantire
risultati concreti in grado di lasciare il segno nella memoria
del singolo utente, e di migliorare i processi che coinvolgono
l’operato degli esperti dei Beni Culturali.
Piattaforme digitali, sistemi di catalogazione, Realtà Aumentata
e Virtuale, Smart Track, Video Mapping, Assistenti Virtuali,
sono solo alcune delle tecnologie che Visivalab declina
a seconda delle esigenze.
Abstract
The digitization of the Cultural Heritage is radically changing places and workers/professionals/operators
of the italian cultural system. This process has
activated new paths of knowledge and valorization, placing the emphasis on
the need to identify innovative tools and methodologies, and to ensure a rationalization
of activities of Cultural Institutions. From this point of view,
HERA, the digital platform of the Parco Archeologico di Paestum e Velia, is
setting new standards for digitization, knowledge and management of the
Heritage.
Parole Chiave
Digitalizzazione; HERA; Paestum; Database; Patrimonio Culturale
Autore
Gabriel Zuchtriegel
gabriel.zuchtriegel@cultura.gov.it
Direttore Parco Archeologico di Pompei (ex Direttore Parco Archeologico di
Paestum e Velia)
Francesco Uliano Scelza
francescouliano.scelza@cultura.gov.it
Funzionario archeologo Parco Archeologico di Paestum e Velia
Riccardo Auci
riccardo@visivalab.com
Responsabile Visivalab SL
Cristiano Benedetto De Vita
cristiano@visivalab.com
Archeologo, Visivalab SL
10 ArcheomaticA N°2 Giugno 2022
Tecnologie per i Beni Culturali 11
GUEST PAPER
Full immersion in Cultural Heritage
environments: A new IDEHA for
data managing and displaying
By Luca Bevilacqua, Bruno Fanini, Nicola Mariniello,
Augusto Palombini, Vladimiro Scotto di Carlo,
Giuseppe Scardozzi, Antonio Sorgente, Paolo Vanacore
Fig. 1 - Equirectangular projection of a scene of the viewer (case study of Santa marinella, latium, Italy), with icons targeted
to different kind of media contents.
IDEHA (Innovation for Data
Elaboration in Heritage Areas),
is a PON project coordinated by
CNR, aimed to an open platform
for real-time aggregation
of Cultural Heritage elements
(sites, monuments, etc.) data,
and their "packaging" in sets of
informations for different targets
of outlined public.
THE IDEHA PROJECT
The IDEHA project (“Innovations
for Data Elaboration in Heritage
Area”, PON FSC 2018-2022 www.
ideha.cnr.it), started in 2018,
funded by the Italian Ministry of
University and Research, under
the coordination of the Italian
National Research Council (CNR),
and involving as partners many research
institutions, as: Università
degli Studi di Firenze, Università
degli Studi di Modena and Reggio
Emilia, Università degli Studi di
Palermo, Università degli Studi di
Bologna; and enterprises as: Engineering
Ingegneria Informatica
S.p.A.; 2038 Innovation Company
S.r.l., Demetrix s.r.l., Centro di
Ricerca, Sviluppo e Studi Superiori
in Sardegna, Innovaway S.p.A.
The overall aim of the project was
an open source real time aggregator
of data from different sources
(archives, social networks, digital
libraries, IoT sensors, etc.), related
to specific CH items (sites,
monuments, objects); to group
them in “packages” tailored for
specific targets of public, according
to their profile (tourists,
scholars, technicians, etc.). The
project was organized in 8 operating
unities (defined as "OR")
12 ArcheomaticA N°2 Giugno 2022
Tecnologie per i Beni Culturali 13
OR1 Archiving, indexing & semantics
OR2 HBIM for CH
OR3 Open middleware for immersive
& mobile apps
OR4 Smart assisted visits
OR5 Deep learning & Computer Vision
OR6 AR technologies (Visualization
tool)
OR7 Business models for CH
OR8 Case studies coordination
The present communication is Focused
on the work carried on by
OR6, targeted to the creation of a
visualization tool, to represent the
project's output, and touches as
well part of the OR8 activity, in relation to the fieldwork
case studies. The entire pipeline is the result of a joint work
intersecting WP 3,6,8, and, starting from the general need
for a data visualization, it finally evolved to become a new
kind of immersive interactive viewer, useful for different
kinds of data representation in many areas of Cultural Heritage
dissemination and analysis.
The general IDEHA working flow concept
consists in a pipeline that starts
from the harvesting of different
data sources, then setting up their
semantic definition, and grouping
them into 'packages' tailored for different
categories of users, according
to their profile (Fig.1).
In such a context, the data viewer
was conceived as a 360° immersive
interactive environment (Mazzoleni
et al.2006, Skola et al. 2020), to enjoy
multimedia contents of any kind,
through space and time, thanks to
many different narrative metaphors.
The viewer is capable of playing high
definition 360° videos with different
categories of contents embedded, to
be activated through specific icons
by the user. The content type may
consist in any kind of media html5
compatible, including pictures,
texts, audio in the user's language
through real-time translators and
synthesizers, and so on; as well as
the typical "virtual tour" transition
icons to translate the users through
different points of view (Fig. 2).
Fig. 2 - The IDEHA working pipeline (see text for details)
damental importance in the global tourism competition.
Several venues are starting to offer usable digital versions
of their Cultural Heritage site and collections content in
Extended Reality to arouse interest and emotion. The rapid
hardware and software evolution in telecommunication networks
and XR-capable devices provide opportunities to gain
THE VIEWER DEVELOPMENT
Dealing with the data visualization
tool planning, it was immediately
evident the opportunity of creating
a tool whose power could go over
the simple project needs, and conceiving
an immersive framework for
different kinds of CH data. Such an
aim implied a deeper reflection on
the state-of-the art.
For some years now, digital technologies
have become a tool of fun-
Fig. 3 - Screenshot of Web Interface: (a) texts stored in the knowledge base; (b) meta-information
associated with a content
Fig. 4 - Endpoints for retrieving content from the knowledge base
competitive positions in innovation but expose investments
to obsolescence risk. Establishing and maintaining a relevant
presence in the current and foreseeable cultural heritage
metaverse is then a managerial and technical challenge.
Reducing the obsolescence of digital content (videos,
photos, 3D models) and allowing the reuse of existing digital
content while gradually producing more advanced formats
can be very useful.
In the IDEHA project, CNR and Engineering adopted this
strategic drive obtaining technical results that are:
• open and based on standards,
• cloud-native, and therefore very cost-effective,
• horizontally scalable, from single sites to large regions,
• able to manage the life cycle of digital content,
reducing its obsolescence and facilitating its reuse.
The IDEHA system can flexibly repurpose digital CH content,
extending its life cycle by adopting standards to produce
and preserve it, making it easy to create XR experiences
that leverage digital content realized over time. Our current
prototype features the possibility to define and deliver
XR (immersive, interactive) visit experiences, featuring:
- immersive digital content, such as 360° photos and videos,
enriched by overlapping interactive elements, adding
complementary audio and video, multimedia windows
or panels, and links to other interactive scenes,
- multilanguage ML-optimized Text-to-Speech audio descriptions,
- seamless integration of XR experiences with traditional
multimedia stories,
- optimized delivery: high-resolution immersive pictures
and video (up to 16384x8192 pixels), automatic adaptation
to the user device (in terms of language and display
resolutions), transcoding for optimal media delivery (basis
texture formats for immersive static scenes, MPEG-
DASH, or HLS for video scenes)
- reuse of all digital content, immersive or traditional,
maintaining the possibility to refine and update each item
on its own while merging them "on the fly" in the overall
experience,
- html5 output containers to be used in websites, mobile
apps, or virtual reality applications,
- Artificial Intelligence models to reduce the obsolescence
of digital content.
TEXTUAL CONTENT MANAGEMENT
The viewer described so far was conceived and created for
managing and perceiving multimedia contents. Nevertheless,
the different kinds of data produced in the project, in
particular the semantic elaboration of texts, arose the need
of adding a specific service to make textual materials as
enjoyable as pictures and 3d models.
One of the most natural ways to deliver cultural content is
in natural language, particularly through speech. Therefore,
enriching the fruition systems with audio contents that
describe the artworks and/or the environments that are visited
represents an added value.
To this end, a microservices platform has been designed and
developed to provide text and audio content when keyword
queries are made on meta information.
The platform allows the definition of a textual knowledge
base and the organization of information through meta-information
(tags described by a key-value pair) which will be
used for the recovery of the texts. To facilitate use, a userfriendly
web interface has been defined (Fig. 3) that is useful
for managing and creating contents, and REST API services
that allow the retrieval of the contents through program, so
it can be integrated into any software platform (Fig. 4).
For the generation of the audio content, a Text-To-Speech
(TTS) service has been defined which allows us to obtain a
vocal synthesis (audio stream) of the stored texts.
The implemented service is an abstraction of TTS, that is,
it defines a generic interface to which it is possible to connect
and then use third-party services that perform speech
synthesis. In the proposed implementation, TTS Google and
Amazon Polly were added to the service.
Fig.5: The ATON framework (snapshot representing the 3d model of the Augustus Forum virtual reconstruction)
14 ArcheomaticA N°2 Giugno 2022
TELERILEVAMENTO
Tecnologie per i Beni Culturali 15
The adoption of a Microservices architecture has made it
possible to obtain a highly scalable and integrable system,
oriented towards real-time interaction environments.
This latter issue is particularly relevant in the context of
the IDEHA project.
FUTURE PERSPECTIVES AND MULTIPLE VIEWERS
INTEGRATION
Looking forward, the system may be improved in different
ways. One of the main ones is the interaction with
other viewers and browsers. In fact, any interactive icon
in the 360 panorama may be conceived as an URL, moving
the user towards a different viewpoint, also generated by
another framework. In this way, different viewers, with
their own peculiarities may be connected.
The interactive 360° viewer was developed focusing on
the capabilities of high definition 360° shooting, allowed
by the last generation spherical cameras. Thus, the movie
player skills of the system have been considered as
fundamental, instead of other kinds of functions, such as
browsing digital models in a 3d environment. Nevertheless
the “time machine” function, allowing the user to
observe the same landscape in a different time, is a further
good task to achieve.
Since some ten years, the ISPC-CNR has been developing
the ATON 3d framework (http://osiris.itabc.cnr.it/aton/):
open source, cross-platform, working without plugins and,
again, compatible with all html5 media formats (Fanini et
al. 2021) (Fig.5). Such a tool resulted as a very smart tool
for 3d reconstruction of past environments and, generally,
interactive visual storytelling (Palombini and Fanini
2019, Fanini et al. 2019).
Differently from the IDEHA viewer, ATON is mainly conceived
for 3d landscape browsing. The next step is then
the connection of the two frameworks, in order to allow,
from the HR 2D movie player, to reach the reconstructed
conditions of the same context, modeled and placed as to
be reachable from the same position.
References
Fanini B., Ferdani D., Demetrescu E., Berto S., d’Annibale E. (2021) ATON:
An Open-Source Framework for Creating Immersive, Collaborative and
Liquid Web-Apps for Cultural Heritage. Applied Sciences 11, 22
Fanini B., Pescarin S., Palombini A. (2019) A cloud-based architecture for
processing and dissemination of 3D landscapes online. DAACH (Digital
Applications in Archaeology and Cultural Heritage), 14
Mazzoleni P., Valtolina S., Franzoni S., Mussio P., Bertino E. (2006) Towards
a contextualized access to the cultural heritage world using 360 Panoramic
Images. Proceedings of the Eighteenth International Conference on
Software Engineering and Knowledge Engineering, San Francisco, CA, USA,
July 5-7, 2006.
Palombini A., Fanini B. (2019) Il Museo virtuale dell’Alta Valle del Calore.
Archeologia e Calcolatori 30, 487-490
Škola F., Rizvic S., Cozza M., Barbieri L., Bruno F., Skarlatos D., Liarokapis
F. (2020) Virtual Reality with 360-Video Storytelling in Cultural Heritage:
Study of Presence, Engagement, and Immersion. Sensors 20, 5851
Abstract
IDEHA (Innovation for Data Elaboration in Heritage Areas), is a PON project
coordinated by CNR, aimed to an open platform for real-time aggregation of
Cultural Heritage elements (sites, monuments, etc.) data, and their "packaging"
in sets of informations for different targets of outlined public. The main
tool conceived for displaying data (spread from different sources: news, digital
libraries, IoT, etc.) is an immersive viewer capable of displaying 360° images
and videos, all multimedia inserts html5-compatible, and multi-language
audio-synthesized messages. Such a tool is presented here. It has been planned
thanks to the effort of CNR and Engineering, and will be released in order
to become a trigger of further initiatives both commercial and free.
Keywords
Cultural Heritage; 360° photography; semantics; interactivity; immersivity
Autore
Luca Bevilacqua(1), Bruno Fanini(2), Nicola Mariniello(1), Augusto Palombini(2),
Vladimiro Scotto di Carlo(1), Giuseppe Scardozzi(2), Antonio Sorgente(3), Paolo
Vanacore(1)
(1) Engineering ingegneria informatica S.p.a. [name.surname@eng.it]
(2) CNR- Institute of Heritage Science (ISPC) [name.surname@cnr.it]
(3) CNR- Institute of Cybernetics (ICIB) [name.surname@cnr.it]
MONITORAGGIO 3D
GIS E WEBGIS
www.gter.it
info@gter.it
GNSS
FORMAZIONE
RICERCA E INNOVAZIONE
GUEST PAPER
Open History Map –
Status of the Project
by Marco Montanari, Lucia Marsicano, Raffaele Trojanis, Silvia Bernardoni, Lorenzo Gigli
Open History Map, an open map of the past that
was already presented as a concept a few years
ago, is now in its first year of functioning infrastructure
and collects around 150GB of data from
around 90 sources. The platform is open in all of
its aspects and enables research groups to create
new importers for their own open datasets.
Open History Map aims to be a platform that collects
and displays data about our past with modern tools
and considering several user groups as reference.
This means that, unlike classic “collaborative” approaches,
it does not rely on a users single contribution but
more on blocks of contributions that are bound to research
and to possible publications. This also means that despite
the original approach wanted to be very ontology-centric
[Montanari et al. 2015] and [Bernardoni et al. 2017], this
maximalist requirement had to be changed to a more realistic
and bottom-up approach, where several research
groups use different ontologies and different representations
for similar aspects, as each research group can give a
very specific insight into one specific point of view on the
same phenomenon in history or, on the contrary, similar
points of view on very distant phenomena over time.
This led us to a less strict integration methodology, where
the ontology is still there, on our side, to enable the
interpretation of the data in different ways and to guide
users in the interoperability aspects of data cleaning.
On the other hand, this lead us to a completely different
approach to the infrastructure and to the architecture
of the platform. Specifically, it meant Open History Map
was no longer just “the map” and the data connected to
it, but also the classification system, the importers, the
methodology, the tools around the map itself. Choosing
to open the doors to difference made the platform more
robust and more solid. This also opened up for different
elements we had not, at the beginning, considered. The
“map” usually contains only “things that are there”, i.e.
buildings, trees, objects that shape the world. What about
all those elements that do shape the world in a non-direct
way? Part of the context we aspired to create about things
happening in our past with the original project is defined
by the events that happened, because the “material”
world and the “ephemeral” world are incredibly interwoven
and interconnected.
All these elements brought us to rework some of the concepts
behind the platform itself. Open History Map is now
an ecosystem of tools and points of view on the various
aspects of data. This locates the project at a crossroads
of several branches of knowledge and study, that can be
summed up in the broad concept of Digital/Spatial Humanities.
Nonetheless the platform is built with the idea not
to force providers to bring data in a specific form, but to
have every provider keeping her ontologies and formats in
order to facilitate the work on the leaves of the ecosystem
despite giving more work to the data integrator [Zundert,
2012].
16 ArcheomaticA N°2 Giugno 2022
Tecnologie per i Beni Culturali 17
Specifically, the ecosystem is now comprised of the following
components:
4Open History Map Data Index, to classify data sources
and papers;
4Open History Map Data Importer, to define transformations
and extractors for the datasets;
4Open History Map Viewer, to display photos, paintings
and reconstructions of moments or views of the past
located correctly in time and space;
4Open History Map Event Index, to collect references to
anthropic and natural events in time and their connections
and relationships;
4Open History Map, the core map of the project.
In addition to these already existing parts, the following
components are either planned or built but being rewritten
to be integrated into the broader platform:
4Open History Map Data Collector, to contain statistical
data about several phenomena about the various time
periods in the various places collected;
4Open History Map Public History Toolkit, a tool to help
researchers and groups to collect data about historical
events and periods in a structured manner;
4GeoContext [Marsicano 2018], a tool to create simple
visualizations of self contained research data; this will
be integrated into the OHM Public History Toolkit in order
to make the datasets created explorable and navigable
as single platforms.
All of these components are different points of view and
different ways to read the data contained in the core
data storage. Technically it is not just one database but
it is a constellation of databases interconnected via high
level APIs enabling the maximization of the data throughput
for the end-user.
Every single one of these components has a well defined
structural core ontology, on which we can rely to do the
majority of the work, and a weaker “content” ontology
part, where elements can be mapped or assigned in various
ways and with varying degrees of quality. The core
part is the one that the components use to define the
main activities for their own function and the general
purpose APIs that interconnect the infrastructure, the
rest gives the possibility to expand and adapt the specific
dataset or data point into a more complex and advanced
structure without requiring the infrastructure to change.
This flexibility is radically important in the first phases of
the project, as the ontology can emerge from the data
collected and can be fixed over time.
The core map has the largest amount of data, being a
collection of polygons, lines and points representing the
structure of the past in its various moments described
by historians, documents and digitized maps. Technically,
the information stored is described in a way that is
very similar to the openstreetmap ontology, except for
the fact that for every dataset imported the source is an
identifier that references one specific dataset described
in the Data Index.
The other major data collectors are the Event Index
and the Viewer. For each the geometries are simpler,
being points, and the API transforms these points into
more complex structures connected either by the same
subject, by context or by other references. This gives
the possibility to visualize connections between items and
create lines and convex containers representing the area
of a specific phenomenon (i.e. a war, a cultural presence)
or the track of a specific object over time (ship, person,
army unit).
The smallest data collection is the one related to the Data
Index. It contains only metadata about the data sources
that are imported into the system. This component is one
of the core elements of the whole system because it is
on this that the definition of the system relies, as the infrastructure
does not in itself have OHM-owned data. The
importer relies on this component to define the import
methodologies for specific datasets.
THE DATA INDEX
The original Open History Map infrastructure did not define
a repository for data sources, while the data quality had
to be considered as a secondary element in the definition
of the map itself. The infrastructure already had a defined
hierarchy of data quality definitions, but this definition
was more addressed towards the quality of the single
specific geographic information, than the source itself as a
whole. The change of paradigm in the import of the data
required a radical change in the quality assessment itself,
because obviously reliable primary sources are way more
useful than unreliable ones, and these are themselves
more useful than reliable hearsay sources, for example.
For this reason, the definition of source reliability and
source quality depend on several important factors and
are the result of a series of simplifications based on the
most common models for the evaluation of data quality. In
addition to a general model for Digital Humanities, a broader
information and data quality paradigm was analyzed,
looking also into metrics for the world wide web, as many
elements could be applied in the Data Index, as it is more
generic than a specific collector.
This considered, [Knight, s.d.] defines 20 dimensions for
Information and Data Quality. Some of these are very weboriented
(i.e. Consistency, Security, Timeliness and others)
and as such not relevant in our specific case. Other dimensions
are, on the other hand, very topic specific (i.e. Concise,
Completeness, Relevancy) and this depends on what
the research we are collecting is about: a study of a very
specific topic relevant to a small number of cities in the
ancient roman age will be way more concise than a broad
study on a very common phenomenon in modern ages.
In [Akoka et al. 2021] a 7-level hierarchy is defined for the
categorization of imprecise temporal assertions in an application
to the prosopographical database definition area.
Based on these two approaches, with the latest iteration
of the Open History Map platform, the Data Index was introduced,
creating the structure to collect, classify and
evaluate the data quality of the various sources that the
platform collects and imports. The importance of an external
metadata information collector is incredibly important
in order to be able to define methodologies and criteria
to uniform the import modes for the single datasets or
dataset groups.
The dimensions defined for this collector are divided into
three classes, Objective, subjective and process and these
into six dimensions. The subdivision is the following:
Space coverage is done using Geonames Identifiers and as
such creating a dynamically populated tree of areas covering
the various researches. For the period a beginning
time and end time of the period covered are the elements
classified.
The topics that are being collected as of now are the following:
4Agriculture - These datasets and researches regard the
area of agriculture, such as for example identification of
agricultural land use or of crops cultivated in the past in
specific areas.
4Climate - These datasets and research cover the changes
in climate in the past.
4Economy - These datasets and researches regard the
changes in economy and the possible normalizations of
the past with modern economic conditions.
4Entertainment - These datasets and researches regard
the world of entertainment, from circus to theatre to
cinema.
4Industry - These datasets and research cover the changes
in the industrial complex of the past.
4Infrastructures - These datasets and researches regard
the transportation infrastructure and its evolution. It is
further subdivided in air, water and land transport.
4Politics - These datasets and researches regard the
changes in borders.
4Religion - These datasets and researches cover the distribution
and activities related to religion
4Urban - These datasets and researches regard urban
evolution over time.
4Ephemeral - These datasets and researches regard movements
of people, ships and anything mobile
4War - These datasets and researches regard detailed
aspects of war.
4Geography - These datasets and researches regard the
changes in nature, both totally natural and anthropic
Class Dimension Meaning
Objective Spatial Coverage What area or areas does the research cover?
Period
Topic
Subtopic
What time frame or time frames does the research cover?
What topic or topics does the research cover?
What kind of information is collected about the topic?
Process Reliability How reliable is the research? What methodologies have been used?
Subjective Quality How precise is the information collected?
18 ArcheomaticA N°2 Giugno 2022
Tecnologie per i Beni Culturali 19
All of these topics have specific sub-classifiers defining
the kinds of elements collected. Specifically, these subclassifiers
are:
4Location - These researches and datasets give us the
punctual localization of analyzed items.
4Structure - This subtopic regards research that resulted
in the creation of open datasets of the planimetries
of buildings, cities, areas.
4Model - This subtopic regards activities that resulted
in the creation or the collection of 3D models for specific
buildings or items of the main topic.
4Events - These datasets and researches give us timelines
(as datasets or not) about the specific topic in the
specific analyzed period.
4Usage - These datasets and researches give us context
and modes for the fruition.
4Indexes - These datasets and researches analyze specific
indicators, such as for example salary over time
or GDP normalized or population.
4General - These datasets and researches covering the
main topic in general or without a specific viewpoint.
These four levels of classification enable the positioning
of the specific dataset in a multidimensional grid. This
enables the creation of the main visualization of the
Data Index.
The quality and reliability evaluation are given as two
values ranging from 1 to 6. The reliability score is divided
as follows:
46 - Academic peer-reviewed research / Excavation Report;
45 - In-period source material;
44 - Review papers;
43 - Non peer-reviewed research;
42 - Local public history activities, eventually supervised,
but not guaranteed in any way;
41 - Hearsay and oral tradition.
While the data quality is divided as follows:
46 - Precise dataset with well defined and documented
tools, with a validatable high level accuracy
45 - Lower fine granularity of data; data is available
but less precise.
44 - Verifiably incomplete data, some information is
missing for accurate identification
43 - Uncertain data, specification of uncertainty in a
major part of the data.
42 - Uncertain data with no references to other datasets
for cross-validation.
41 - Low quality dataset, with obvious discrepancies and/
or errors
The reliability descriptor represents the intrinsic quality of
the methodology applied in the publication of the data. On
the other hand the data quality depends on the precision
of the published data.
The current infrastructure is currently based on the storage
of items in a public Zotero collection where all the
collected researches are described as structured tags.
The following is the description of the CLIWOC dataset:
The datasets can not be described from the front-end
and for this reason these are currently defined by a name
and, in addition to the previously mentioned ontology a
descriptor for the single dataset or for the whole collection
of datasets associated with the project.
A CLOUD FIRST ARCHITECTURE FOR THE DH
One of the key principles of cloud-first infrastructure design
is to rely on pre-existing services already available
within the cloud infrastructure we are working with. This
is in principle optimal for high burn-rate startups with
huge funding but it might not be an ideal solution for low
budget digital humanities projects. For this reason we
designed an infrastructure that could take advantage of
an abstraction of this basic principle and of other general
principles of software architecture in order to create an
efficient architecture that complies with the needs and
requirements that define the Open History Map platform in
all of its aspects [Montanari 2021] but can also offer some
of the high-level tools that cloud infrastructures typically
lack for use in Digital Humanities.
One of the main factors taken into account during the architectural
planning process was the importance of delaying
and deferring decisions as much as possible both for
us, using the architecture as well as for the architecture
expandability itself [Martin 2017]. This principle is true
when designing an application, an API and a complex architecture.
For this reason most of the API orchestration is
delegated to the various interfaces that use the data and
compose the element in the way that fits best. For example,
the map front-end uses the Data Index API in order to
display information about a given source, using its id as
symbolic reference (which is in itself a symbolic reference
to the identifier defined in Zotero). This means a partial
delegation of the knowledge of the inner workings of one
specific part of the infrastructure to other elements that
might not have to know, in principle, anything of it, but on
the other hand, being part of the same ecosystem means
that many elements can be cross referenced between various
interfaces.
Space coverage ohm:area geonames:6295630
Time coverage ohm:from_time 1750
ohm:to_time 1855
Topic classification ohm:topic ephemeral
ohm:topic:topic
location
Data quality ohm:source_quality 6
Data reliability ohm:source_reliability 5
The infrastructure is divided into several macro-areas,
each of whom covers one specific aspect of the platform.
Wherever possible the vertical architecture of the macroarea
has been structured with the same pattern:
4Database (postgres/mongodb/redis/filesystem/influxdb)
4Writing API, that also controls the database initialization
infrastructure (a python/flask microservice)
4Reading API (a python/flask microservice) with eventually
Tile Server
4Front end (an angular application)
This very basic template may or may not have all of its
components, as for example, a service might not need to
write to a backend, while another service might only be
using interaction-less writing operations, and as such might
not need a direct reading API. Obviously, if the reading operations
are simple enough, they are integrated into the writing
component and vice-versa.
The less cross-depending macro-area is the already explained
Data Index, being simply a visualization of the data
collected in the Zotero collection representing the sources
used for populating all other areas. The infrastructure is
totally stateless, it has no persistent database and downloads
the current collection of sources once the docker image
starts, creating just an on-the-fly database. The api only
exposes the endpoints used by the interface and the APIs
for other macro-areas to get source-specific data to display
on their interfaces. All areas beyond this rely on its presence
and on its being up-to-date.
The main user of the Data Index API is the Data Importer,
an interface-less system that does the heavy lifting of transforming
and importing data into the various databases coordinating
the use of the various APIs. This service is stateless
as well, not having a persistent database, yet it does
connect to the local Docker socket, as it uses the Docker-indocker
methodology to spawn the machines that do the real
ETL operations as well as the test database and test-APIs in
case of import testing. The ETL code is downloaded from a
repository and for each source identifier or source dataset
identifier taken from the Data Index API the importer builds
the specific docker image and launches it, writing, if already
tested, directly on the various production APIs.
The other areas are all full stack infrastructures, as all rely
on one or more databases, APIs and specific front-ends.
Starting from the map, the data is stored in a PostGIS database
configured automatically via the API module and
already set up to be distributed across a cloud infrastructure
via partitioning. The partitioning configuration is done
both on layers (that are bound to topics) and year the dataset
starts being valid. Setting up a variable grain to the
time-dependent partitions enables a major optimization of
the resources for the infrastructure, giving the possibility
to move the storage of data-heavy periods (wars, moments
of major changes) into separate databases. The API relies,
in the writing part, on the possibility of using a redis-based
buffer to have a workload manager deciding when to import
specific items. This is very important because many
polygons are very detailed, and the possibility to do an
indirect upload of data gives the client better feedback on
operations even in very complicated cases. The tile server
is completely separated from the rest of the API and uses
a stored procedure defined in the db-initialization part of
the API. This enables an enormous optimization of the activities,
as it relies on the database-native generation of
MVT tiles for the specific requested tile.
Beyond the main map, all other tools are always cartographic
as well, being the Event Index and the Historical
Street View. Both contain mainly points, in contrast with
the multiple types of geometries stored by the main map.
The data, in the two cases, is bound to mapping events in
time and (not always) in space and mapping documentation
of the form of the world in history, respectively.
The Event Index collects data from various sources enabling
the location of specific events in time and space, but
also tracking particular subjects in their activities in time.
For example it is possible to visualize the course of a specific
ship over time, such as, in this case, the course of the
Endeavour over its travels to New Zealand.
In addition to movements, the layer also contains data
about events caused by anthropic causes of change (wars,
battles, murders, births and deaths) as well as by natural
causes (quakes, volcanic eruptions, various forms of disasters).
This layer is a pure collection of time-space coordinates
with general information about the event and
a reference to the external source. This block contains a
20 ArcheomaticA N°2 Giugno 2022
Tecnologie per i Beni Culturali 21
modified tileserver, slightly different from the main map
one, optimized for point management.
Finally, the Historical Street View macro-area is, like the
Event Index, simply a point storage for not just space
and time coordinates, but also the reference to external
sources for documents, being photos, paintings of views,
videos. These multimedia sources are not stored or cached
in the system and are visualized directly from other providers.
This is very important in order to guarantee the
maximum independence from local storage.
In conclusion, the defined architecture guarantees a great
amount of flexibility in case of additions to the system
as well as simplicity, based on the templatization of the
single structures. The transformation of the various parts
into microservices gives the whole system additional reliability
and resilience, enabling possible changes to the
implementation and horizontal growth without stopping
the infrastructure.
References
Bernardoni, Silvia, M. Montanari, & R. Trojanis. «Open History Map».
Archeologia e Calcolatori n. XXVIII.2 - 2017. Edizioni All’Insegna del Giglio,
20172-01-01. https://doi.org/10.19282/AC.28.2.2017.44.
Montanari M., Raffaele Trojanis, Silvia Bernardoni, & Luca Tepedino.
«Open history map - a new approach to open access for archaeology and
cultural heritage». In 2015 Digital Heritage, 2:479–80, 2015. https://doi.
org/10.1109/DigitalHeritage.2015.7419557.
Zundert, J. «If You Build It, Will We Come? Large Scale Digital
Infrastructures as a Dead End for Digital Humanities». Historical Social
Research / Historische Sozialforschung 37, n. 3 (141) (2012): 165–86.
Akoka J., Isabelle Comyn-Wattiau, Stéphane Lamassé, & Cédric Du
Mouza. ‘Conceptual Modeling of Prosopographic Databases Integrating
Quality Dimensions’. Journal of Data Mining & Digital Humanities Special
Issue on Data Science... (7 May 2021): 5078. https://doi.org/10.46298/
jdmdh.5078.
Franke M., Ralph Barczok, Steffen Koch, & Dorothea Weltecke. ‘Confidence
as First-Class Attribute in Digital Humanities Data’. In Workshop on
Visualization for the Digital Humanities (VIS4DH), 2019.
Knight, S.. ‘Developing a Framework for Assessing Information Quality on
the World Wide Web’, n.d., 14.
Naumann F., & Claudia R. ‘Assessment Methods for Information Quality
Criteria’, 27 October 2000.
Therón S., Roberto, Alejandro Benito Santos, Rodrigo Santamaría Vicente,
& Antonio Losada Gómez. ‘Towards an Uncertainty-Aware Visualization
in the Digital Humanities’. Informatics 6, no. 3 (September 2019): 31.
https://doi.org/10.3390/informatics6030031.
Martin, Robert C. Clean Architecture : A Craftsman’s Guide to Software
Structure and Design. 1° edition. London, England: Addison-Wesley, 2017.
Abstract
Open History Map, an open map of the past that was already presented as a
concept a few years ago, is now in its first year of functioning infrastructure
and collects around 150GB of data from around 90 sources. The platform is
open in all of its aspects and enables research groups to create new importers
for their own open datasets. In addition to that, OHM enables the visualization
of "ephemeral" datasets, i.e. representation of vicinity for historical
characters and vehicles, battles and events. The present work will analyze
the status of the project and the contributions it is doing to the general DH
and PH sector, specifically on source quality management and general cloud
first architectures.
OHM is based on the collection of open datasets available online. The geographic
precision as well as the informational quality varies a lot between
sources, research teams, projects. These factors higlight the need of a tool
to manage the data quality, which we called OHM Open Data Index, (https://
index.openhistorymap.org) where we collect all sources we find and all datasets
we import in order to analyze and display the general quality and/or
lack of data.
The complexity of the infrastructure behind a project such as Open History
Map required an original and cloud-first approach, enabling the optimization
of every single aspect of the development as well as the deployment and the
usage of the system. For this reason a cloud-first approach was used, trying
to harness all the features of the most common FLOS software platforms in
order to maximize the quality of the final product.
Keywords
Digital Humanities; Digital Archaeology; GIS; GLAM; Data quality;
Software Architecture
Author
Marco Montanari, Lucia Marsicano, Raffaele Trojanis,
Silvia Bernardoni, Lorenzo Gigli
University of Bologna
GUEST PAPER
Open Science for Archaeology:
an up-to-date guide (2022)
by Paolo Rosati
This paper was born by
the Open Science author’s
recent research experiences,
post-doc fellow for the
‘PAThs Project’, the ‘Mirrolab
project’ in Sapienza of Rome
and member of the Archeo-
FOSS 2021 editorial board. He
was one of the ArcheoFOSS
2020 Conference Proceedings
authors.
Fig.1 - The “Open Philosophy family“ (Rosati).
Wikimedia Italia and ArcheoFOSS stipulated in 2021
an agreement to publish in ‘Gold OA’ the proceedings
of the ArcheoFOSS 2019 and 2020 conferences.
The aim is to open all the articles (texts, citations, bibliographic
resources, images) and to allow them to upload to
the Wiki projects platforms, starting from Wikibooks.
Before the 2020 conference, ArcheoFOSS did not have a clear
policy on our proceedings licenses. Nevertheless, in the
name of the organisation, FOSS is intrinsically connected
with the Free and Open Source philosophy and has not a
clear Open Access policy was a regret.
In synthesis, having not an Open Access policy hampered
the full spread of the scientifical results of the congresses.
In the past years, the first big trouble was that having no policies
to publish our proceedings caused substantial anarchy.
Continuing in the description of our statement until the past
years, the first great problem has been the lack of publication
politics of our proceedings, which caused a substantial
anarchy.
The publication of an international congress article regarding
computer science with a high standard of double blind
peer review would take about 12 months, but in the past it
took ArcheoFOSS a few years and sometimes the book has
never been published.
This was a problem, considering the scientific purposes of
a conference based on computer science issues. An article
published in such conference may be outdated in the
following two years. However, for seven times ArcheoFOSS
proceedings have been published with an Open Access license,
but for six times with All Rights Reserved one. (Bogdani
- Sciacca 2021)
PHILOSOPHY HERE MATTERS
The organisation cannot name itself FOSS and publish under
the “All rights reserved” copyright. It is not entirely reliable.
The organisation’s name contains the word FOSS (Free
Open Source Software), but what the organisation wants to
mean is FLOSS (Free Libre and Open Source Software). In
the paper context, we must use the word FLOS (Free Libre
and Open Source).
Differences between FOSS and FLOSS:
FOSS indicate reversibility in the license (i.e. today,
my software code is open, pay attention, for
free, and everybody can download it, but if the app
turns out to be a great idea and becomes interesting
for the big companies, I can close the code and sell it).
FLOSS is not reversible. The difference is in the word “Libre”
(the L letter of FLOSS), which is not translatable in
English. It is a Spanish/French word synonym for “free”, but
22 ArcheomaticA N°2 Giugno 2022
Tecnologie per i Beni Culturali 23
in English, the word free has an ambiguous meaning and can
be translated into the Latin “gratis”. It seems a slight difference,
but this concept is the basis of the GNU philosophy,
the difference between Unix and GNU.
We are closing that issue: if we remove the final “S”, the
word FLOS’s meaning can be used for all innovative products
other than software.
Speaking of Open Access, we often refer to Journal articles,
book chapters, monographs, and conference proceedings.
WHAT IS OPEN ACCESS
“Open Access” for many communities worldwide is not a
fairy concept. There are groups of researchers asking for
Open Access in the dictatorships and the poorest part of
the world, fighting for human rights to democratise Access
to knowledge, accelerate discovery, and increase the investment
return in research and education. SPARC* defines
itself as: “A global advocacy organisation working to make
research and education open and equitable for everyone.”
For that community, “Knowledge” is a fundamental human
right.”
For a definition of Open Access, we borrow the header
of the SPARC* site because it allows us to underline
the political implication of the movement.
“Open Access is the free, immediate, online availability of
research articles combined with the rights to use these articles
fully in the digital environment.” (https://sparcopen.
org/open-access/ )This definition is important because it
underlines the role of the digital environment.
The Web is fundamental for the OA. Only through the Web,
it is possible to organise and imagine how to open the
knowledge.
Before the widespread of the Web, when all the knowledge
was on the physical supports, opening the Access to the
encyclopedias, books, articles, images, and contents was
reasonable to be impossible. There are only some physical
places where sharing knowledge was the role: the “Public
Libraries” have the role of ensuring the knowledge but no
more, if someone stole a book, it was taken away from the
whole community. Physical media such as paper, CDs, and
DVDs need a high cost to reproduce their knowledge.
Trying to go deep into the concept, Open Access works can
be free for anyone to read, share, reuse, and build upon.
Open Access contributions do not require:
4Any expensive subscription
4Affiliations with a major institution
4Any kind of Membership
4Non-disclosure agreements
4Moreover, remember the ambiguity of the term “free”:
We are saying: “‘Free’ as in speech, not as in ‘free’
beer.” - Richard Stallman
Fig. 2 - FOSS, FLOSS, FLOS differences and use.
The rigorous definition is on the website of CreativeCommons.org:
“Creative Commons licenses give everyone from
individual creators to large institutions a standardised way
to grant the public permission to use their creative work under
copyright law.” (https://creativecommons.org/about/
cclicenses/ )
Something on the most important Licenses
Starting from above, the first example, Creative Commons
Licenses 1:
- CC BY: This license allows reusers to distribute, remix,
adapt, and build upon the material in any medium or format,
so long as attribution is given to the creator. The license
allows for commercial use.
CC BY includes the following elements:
BY – Credit must be given to the creator.
- CC BY-SA: This license allows reusers to distribute, remix,
adapt, and build upon the material in any medium or format,
so long as attribution is given to the creator. The license
allows for commercial use. If you remix, adapt or build
upon the material, you must license the modified material
under identical terms.
CC BY-SA includes the following elements:
BY – Credit must be given to the creator.
SA – Adaptations must be shared under the same terms.
Creative Commons Licenses 2:
- CC BY-NC: This license allows reusers to distribute, remix,
adapt, and build upon the material in any medium or format
for non-commercial purposes only, and only so long as attribution
is given to the creator.
Only an Open Access publication can open the text of books
and papers, their citation, the bibliographical resources,
and the images.
However, in our complex world, the concept of Open can be
applied to many other creative contents.
‘CREATIVE COMMONS LICENSES’ WHAT THEY ARE
They underpinning the open philosophy, we can apply a license
to a wide range of products from literary works to
videos, photos, audio, open education, scientific research,
code, 3D models and more.
Fig. 3 - Open Science allied concepts.
It includes the following elements:
BY – Credit must be given to the creator.
NC – Only non-commercial uses of the work are permitted.
- CC BY-NC-SA: This license allows reusers to distribute, remix,
adapt, and build upon the material in any medium or
format for non-commercial purposes only, and only so long
as attribution is given to the creator. If remix, adapt or build
upon the material, must license the modified material
under identical terms.
CC BY-NC-SA includes the following elements:
BY – Credit must be given to the creator.
NC – Only non-commercial uses of the work are permitted.
SA – Adaptations must be shared under the same terms.
Creative Commons Licenses 3:
- CC BY-ND: This license allows reusers to copy and distribute
the material in any medium or format in unadapted form
only, and only so long as attribution is given to the creator.
The license allows for commercial use.
CC BY-ND includes the following elements:
BY – Credit must be given to the creator.
ND – No derivatives or adaptations of the work are permitted.
- CC BY-NC-ND: This license allows reusers to copy and distribute
the material in any medium or format in unadapted
form only, for non-commercial purposes only, and only so
long as attribution is given to the creator.
CC BY-NC-ND includes the following elements:
BY – Credit must be given to the creator.
NC – Only non-commercial uses of the work are permitted.
ND – No derivatives or adaptations of the work are permitted.
The public domain dedication:
- CC0 (aka CC Zero) is a public dedication tool which allows
creators to give up their copyright and put their works into
the worldwide public domain. CC0 allows reusers to distribute,
remix, adapt, and build upon the material in any medium
or format, with no conditions.
How to choose a license for the work, dataset, or text? The
six licenses and the public domain dedication tool give creators
a range of options. The best way to decide which is
appropriate is to think about why is to share the work and
how others will use that work.
Licenses subclasses
Some of these licenses are divided into subclasses. For
example, the CC BY-SA, which is one of the most used licenses
in the world, have four subclasses:
CC BY-SA 1.0 Generic
CC BY-SA 2.0 Generic
CC BY-SA 3.0 Unported
CC BY-SA 4.0 International (our license)
The differences between them are tiny indeed, but they
matter, and if someone wants to go deep in studying them,
can find more information on the CreativeCommons.org
website.
License CC BY-SA 4.0 International:
You are free to:
Share — copy and redistribute the material in any medium
or format.
Adapt — remix, transform, and build upon the material for
any purpose, even commercially.
The licensor cannot revoke these freedoms.
Under the following terms:
Attribution — You must give appropriate credit, provide a
link to the license, and indicate if changes were made. You
may do so reasonably, but not in any way that suggests the
licensor endorses you or your use.
Share Alike — If you remix, transform, or build upon the
material, you must distribute your contributions under the
same license as the original.
No additional restrictions — You may not apply legal terms
or technological measures that legally restrict others from
doing anything the license permits.
OPEN ACCESS ALLIED CONCEPTS
It is possible to apply a Creative Commons License to a broad
kind of creative content. The spread of the CC licenses
origins some other branches similar to the original Open Access
but with different meanings:
Open Education - Refers to teaching materials & pedagogy
Open Textbook - A subset of Open Education
Open Data - Refers to datasets big & small
Open Source - Refers to software or code
Open Science or Research - Refers to the entire process of
scholarship, including data, methods, publications, etc.
“Open” means the same thing in all of these concepts: free
to read, keep, and reuse.
Open vs. Subscription differences:
As you can see, there are no structural metamorphoses.
They are both:
4 Peer reviewed
4 Established scholars as editors
4 Content can be available online
4 Niche topics
4 General field journals
4 Scholarly societies
4 For-profit publishers
4 Non-profit publishers
4 Supported by foundations, libraries, societies, and fees
to authors
The difference is that the Open Access is in the subscription
itself: ‘Free for all to read and reuse’, the subscription publication
is costly to buy the full subscription, and it has no
re-use rights.
Open journals can be free because other business models
support them:
Fig. 4 - DOAJ and DOAB projects.
4 Library subsidy / Subscribe-to-Open models
4 Article Processing Charges (APCs) for authors
4 Membership fees to societies, organisations, and companies
(e.g. you have to be a member to have your article
published)
4 Grant or institutional funding (In our case, the Italian
Ministry for Culture MIC)
4 Sponsorships and advertising (In our case Wikimedia Italia)
Defining “Hybrid OA”, a hybrid open-access journal is a
24 ArcheomaticA N°2 Giugno 2022
Tecnologie per i Beni Culturali 25
subscription journal in which some of the articles are open
access.
It is often called “Hybrid OA” and is also referred to by some
Open Access advocates as “double-dipping” as the publisher
receives revenue from both the subscription and the Open
Access fees. These journals also may not comply with OA
mandates or grant requirements.
Some institutions and funders have Open Access requirements
built into their policies: any work of scholarship created
while employed or funded by the institution must be
open Access.
The ERC (European Research Council) I am working for is
one of that.
Some require you to publish in OA Journals (notably the ‘cO-
Alition S’ of funders in the EU); others allow you to share
copies in repositories after you publish; if you want to know
if your organisation is listed, you can refer to http://roarmap.eprints.org
.
COALITION S - THE PLAN S
It is a European program for making full and immediate Open
Access a reality. The recent declaration: “With effect from
2021, all scholarly publications on the results from research
funded by public or private grants provided by national, regional
and international research councils and funding bodies,
must be published in Open Access Journals, on Open
Access Platforms, or made immediately available through
Open Access Repositories without embargo.” (https://www.
coalition-s.org/about/)
The “Embargo” is a restriction, generally expressed in the
year before the possible open Access creation.
Plan S has ten roles: at the 8 th, we can read:
“The Funders do not support the ‘hybrid’ model of publishing.
However, as a transitional pathway towards full Open
Access within a clearly defined timeframe, and only as part
of transformative arrangements, Funders may contribute to
financially supporting such arrangements;” (https://www.
coalition-s.org/addendum-to-the-coalition-s-guidance-onthe-implementation-of-plan-s/principles-and-implementation/
)
LEADING OPEN ACCESS PLATFORMS AND WEBSITES
DOAJ and DOAB
Open Access generates services. There are many platforms
where to search Journals and Articles in Open Access:
In the Directory of Open Access Journals (DOAJ), where it is
possible to apply and send your work, services are free of
charge, including being indexed. (https://doaj.org/ )
The Directory of Open Access Book (DOAB) is a communitydriven
discovery service that indexes and provides access to
scholarly, peer-reviewed open access books and helps users
find trusted open-access book publishers. (https://www.doabooks.org/
)
For both these services, all services and data are entirely
freely available.
There are also two important platforms against the scientific
paywall.
Unpaywall
The Unpaywall has several tools for Libraries, enterprises,
and Research, and it is mainly a search engine for Open Access
articles and journals. (https://unpaywall.org/ )
More important and valuable for the community is “The
Open Access Button”, Give them a scholarly paper, and we
will search thousands of sources with millions of articles to
link you to free, legal, full-text articles instantly. (https://
openaccessbutton.org/ )
If access is not granted, a request will start. It is possible
to request articles from authors and guide them on making
the work available.
Another way to find an Open Access Copy for an Article is
through Google Scholar. (https://scholar.google.com/ ) It
is straightforward to access, search, download, or upload
Open Access books, articles, and book sections.
Zenodo
An important platform to share for free research, materials,
and content is Zenodo. Zenodo is derived from Zenodotus,
the first librarian of the Ancient Library of Alexandria and
the father of the first recorded use of metadata, a landmark
in library history. To share and find free contents witH a DOI
(https://zenodo.org/ )
It is possible to upload content for free in Zenodo and share
it with the broad Open-science community. If content
(could be a book of abstract, research paperwork, a pdf
presentation etc...) has not been published before, it is
possible to request your own DOI.
A DOI, or Digital Object Identifier, is a string of numbers,
letters, and symbols used to uniquely identify an article or
document and provide it with a permanent web address
(URL). A DOI will help the reader quickly locate a document
from the quotation.
We can consider the Web the new Alexandria Library, but it
will not burn. The DOI is a unique code that allows a paper
to be archived in several parts of the world, built for a very
long time (in a utopic view of an eternal time), searchable
and downloadable for free. Forever almost until the free or
illuminated government will occur in this world.
Wikibooks:
One of the most important web libraries is Wikibooks, a platform
where everyone can share Open Access Books and Monographies
from all over the world in several languages.
Sharing Books and Journals in Wikibooks have roles, and it is
not simple, but it is advantageous to index on the Web the
entire contents of the book, the authors, the titles, the texts,
the images, the captions, the bibliographical resources.
On Wikibooks, it is possible to share and download books
and monographs, but it is possible to upload only the compatible
license contents: CC BY-SA 3.0 or more (4.0, CC0).
(https://www.wikibooks.org )
Nowadays, most researchers publish their content on social
networks related to academia, like Academia.edu or Researchgate.net.
These platforms help to share, comment and
spread research.
Fig. 5 - Pass the Paywall.
WHY PUBLISH IN OPEN ACCESS
Publishing Papers
Open Access makes research available to a broader audience:
4 a more significant impact of work nowadays and in the
future. It is possible to reach:
a researchers without Access to academic libraries
a researchers at institutions unable to afford
subscriptions to specific journals
4 More immediate access to research
4 Reduced/no cost associated with the publication
4 Authors usually retain copyright to their work
a reuse figures, tables, and illustrations in future
works
a include the full text in a future volume
post work on a website or other repository
4 Synergistic effect in encouraging others to publish
Open Access
Open Access can boost the academic Careers:
4 OA increases indexing in a platform like “Scopus.”
4 It increases h-index
4 A high h-index means stable credibility in the scientific
world
4 It is not possible to reach these results nowadays without
these tools.
Furthermore, some criteria for choosing an OA venue:
4 Open Access outlets encompass a wide variety of disciplines
and subfields
4 Publication types include both journals and book series
4 Some “Standard” criteria for choosing a publication
outlet come into play in choosing an OA outlet are:
a fit between research and journal/series (book)
focus
a visibility (accessibility, prominence)
a quality (previous articles, editorial staff)
a reliability (timeline, process, frequency)
Consult with others about various options (colleagues in
your field, administrators)
Publishing Books
a Many book/monograph publishers are either exclusively
Open Access or have an Open Access option
a The Open Access Directory keeps a list of publishers
(i.e. http://oad.simmons.edu/oadwiki/Publishers_of_
OA_books ) and books (i.e. https://www.doabooks.
org/)
a The level of Open Access varies, and publication fees
(of varying amounts) are commonly assessed, but some
publishers either do not charge fees (e.g. Language
Science Press) and others (e.g. Ubiquity Press) pledge
to waive or reduce them under certain circumstances.
We can conclude by stating that this is the meaning to publish
in Open Access and widely share ArcheoFOSS 2019 –
2020 and 2021 books.
Bibliographical sources
Bogdani J., Montalbano R., Rosati P. (2021), ArcheoFOSS XIV 2020: Open
Software, Hardware, Processes, Data and Formats in Archaeological
Research. Proceedings 2020 Conference, Archeopress, Oxford.
https://www.academia.edu/62506475/_FULL_TEXT_ArcheoFOSS_
XIV_2020_Open_Software_Hardware_Processes_Data_and_Formats_in_
Archaeological_Research_Proceedings_2020_Conference
Bogdani J., Sciacca F. (2021), An introspective, incomplete, view on the
activity of the FLOS community dealing with Archaeology and Cultural
Heritage, in Bogdani J., Montalbano R., Rosati P., ArcheoFOSS XIV 2020:
Open Software, Hardware, Processes, Data and Formats in Archaeological
Research. Proceedings 2020 Conference, Archeopress, Oxford. 178 - 192
Gonizzi Bersanti S., Malatesta S. G., Palombini A., ArcheoFOSS XIII
Workshop - Open Software, Hardware, Processes, Data and Formats in
Archaeological Research, MDPI, Zurich. https://www.mdpi.com/2673-
4931/10/1
Web Sources References
ArcheoFOSS web site:
www.archeofoss.org (accessed 15/05/2022)
SPARC*:
https://sparcopen.org/open-access/ (accessed 15/05/2022)
Creative Commons Licenses:
https://creativecommons.org/about/cclicenses/ (accessed 15/05/2022)
Coalition S web site: https://www.coalition-s.org/ (accessed 15/05/2022)
ROAR MAP (Registry of Open Acces Repository MAndates and Policies) web
site:
http://roarmap.eprints.org (accessed 15/05/2022)
Coalition S about:
https://www.coalition-s.org/about/ (accessed 15/05/2022)
Coalition S definition of a OA Journal:
https://www.coalition-s.org/faq/how-does-coalition-s-define-an-oajournal/
(accessed 15/05/2022)
Coalition S definition of a OA Platform:
https://www.coalition-s.org/faq/what-is-an-open-access-platform/
(accessed 15/05/2022)
Coalition S principles and implementation:
https://www.coalition-s.org/addendum-to-the-coalition-s-guidance-onthe-implementation-of-plan-s/principles-and-implementation/
(accessed
15/05/2022)
DOAJ web site:
https://doaj.org/ (accessed 15/05/2022)
DOAB web site:
https://www.doabooks.org/ (accessed 15/05/2022)
The Unpaywall project:
https://unpaywall.org/ (accessed 15/05/2022)
The OpenAccess button:
https://openaccessbutton.org/ (accessed 15/05/2022)
Google Scholar main page:
https://scholar.google.com/ (accessed 15/05/2022)
Zenodo web site:
https://zenodo.org/ (accessed 15/05/2022)
Wikibooks main page:
https://www.wikibooks.org (accessed 15/05/2022)
List of publishers of OA Books:
http://oad.simmons.edu/oadwiki/Publishers_of_OA_books (accessed
15/05/2022)
Abstract
It is possible to ensure this talk into the “Open” philosophy tout-court and not
on a specific issue. As it will read, only during the last year did ArcheoFOSS
officially bring the “golden road” for its proceeding publication. The paper
aims to get the public up to date as a brief guide to speed with Open Access
applications and smartly understand the value of Open Access in the research
world. The paper consists of four sessions: during the first, titled “The
project,” we will recognise the previous situation in ArcheoFOSS publication,
and we will define why it was essential to decide to publish from 2020 on all
the proceedings in an Open Access way. The second called “Open Access Basics”,
shows the fundamental rules to remember when discussing this theme.
In the third session, we can find how to “Publish in Open Access”, and the last
one, a “Smart introduction in the Wiki-world”, is a practical chapter.
Parole Chiave
Open Science; Open Access; ArcheoFOSS; Digital Humanities; Wiki
Fig 6 - Zenodo main page.
Autore
Paolo Rosati
“La Sapienza” University of Rome:
paolo.rosati@uniroma1.it
26 ArcheomaticA N°2 Giugno 2022
Tecnologie per i Beni Culturali 27
Blending the Science of Geography
and Technology of GIS
www.esriitalia.it
AZIENDE E PRODOTTI
RAVENNA DANTESCA: LA RICOSTRUZIONE STORICA
IN 3D GRAZIE A TRE.DIGITAL
La fruizione dei beni culturali nei musei viene tradizionalmente
accompagnata da strumenti quali videoaudioguide,
proiezioni, pannelli, cataloghi e materiale
cartaceo. La direzione della struttura museale,
se interessata a valutare l’efficacia della sua gestione,
si affida inoltre ad una raccolta di informazioni
sul gradimento da parte dei visitatori, spesso attraverso
l’uso di sondaggi. Oltre ai visori in realtà aumentata,
nuove tecnologie, basate sull’Intelligenza
Artificiale applicata alla visione (computer vision),
abilitano gli uffici museali ad un grosso passo avanti
in tema di innovazione per i Beni Culturali.
E’ quanto introdotto dalla soluzione VEDI, realizzata
da Xenia Gestione Documentale srl, assieme all’Università
degli studi di Catania e a IMC Services srl, che
consiste di una piattaforma informatica di raccolta
dei dati provenienti da dispositivi di visione indossabili,
noleggiati dai visitatori all’ingresso del museo. Il
dispositivo fornisce ai visitatori informazioni in realtà
aumentata, proprie al servizio aggiuntivo, sulle opere
osservate nel percorso all’interno della struttura,
consentendo al visitatore di sapere sempre dove si
trova, di orientarsi nella mappa dell’edificio e di ricevere
suggerimenti e informazione culturale in base
alle preferenze mostrate durante la visita: in altre
parole di avvalersene in sostituzione della guida. Il
sistema non usa tag di riferimento per le opere e non
è necessario installare strumentazione e/o dispositivi
nelle sale del museo. Il riconoscimento delle opere
avviene attraverso la visione (object recognition) e
la localizzazione all’interno della struttura è basata
sulle immagini (image based localization) osservate
dal dispositivo indossato, continuativamente solidale
con il punto di vista del visitatore.
La raccolta passiva di queste informazioni alimenta
inoltre la piattaforma di gestione, che permette
alla direzione della struttura di conoscere quali ope-
re sono maggiormente osservate e per quanto tempo,
quali percorsi sono preferenziali e le restituisce attraverso
un’interfaccia grafica (Visual Analytics) sulle
preferenze dei visitatori (Behaviour Analysis). La gestione
di questi dati attraverso mappe di calore, mappe
di percorsi, statistiche sulle opere osservate, etc.,
permette di misurare la “performance” (KPI) del sito
culturale e fornisce all’ente gestore gli strumenti e
gli elementi per sviluppare e dosare i servizi offerti.
Il visitatore, attraverso il dispositivo indossabile, viene
immerso in un contesto sensoriale sempre più ricco,
in cui i limiti della frontiera robotica giorno dopo
giorno fanno coincidere con la flagranza delle visite
le attività museali, anche quelle rivolte allo stato di
conservazione e alla vulnerabilità delle opere, e con
i commenti più professionali di gradimento sulle dinamiche
espositive.
La stessa piattaforma VEDI, infatti, ultimamente è
stata arricchita di un’esperienza multisensoriale di
interazione verbale, in linguaggio naturale, da parte
del visitatore con l’ologramma (avatar) di una guida
virtuale che lo accompagna nel corso della sua visita,
nella quale il fruitore potrà agire da influencer.
HIBOUCOOP-HERITAGE & DIGITAL HUMANITES UNA
COOPERATIVA MULTITASKING
“Voltatevi, uscite da questo mondo a tre dimensioni
ed entrate nell'altro mondo, nella quarta dimensione,
dove il basso diventa l'alto e l'alto diventa il basso”
diceva San Tommaso Moro.
Recenti tecnologie di rappresentazione e sviluppo in
realtà virtuale, affiancate alle opportunità offerte dal
web 2.0 - termine apparso di recente per indicare la
seconda fase di sviluppo e diffusione di Internet - danno
la possibilità, come ben sappiamo, di estendere
all’ambito culturale una nuova dimensione interattiva
ed immersiva nella fruizione del patrimonio culturale:
AR e VR, tecnologie presenti già da tempo, si avvicinano
progressivamente ad un pubblico più ampio. L’AR,
ad esempio, è un’esperienza energica, moderna, che
ha ottimizzato il concetto di fruizione con la costruzione
di uno spazio fisico virtuale, un varco condiviso
che puo’ migliorare la conoscenza del bene da vicino
e da remoto.
L’idea perseguita fin dalle prime sperimentazioni di
realtà aumentata è che lo spazio fisico del costruito
virtuale possa essere una chiave d’accesso condivisa
alla conoscenza del bene, per orientarsi tra piani di
analisi e livelli informativi e formativi che si moltiplicano.
Tecnologie digitali per l’analisi, l’interpretazione,
la comunicazione, la diffusione e la conoscenza
del patrimonio culturale sono solo alcuni degli aspetti
proposti e sviluppati da HibouCoop - Heritage & Digital
Humanites. Una cooperativa di professionisti, nata ad
Imola nel 2019, quattro i soci fondatori che hanno scelto
di unire le loro professionalità, utilizzando la forma
cooperativa per dare corpo al progetto di un soggetto
aziendale solido, intergenerazionale e innovativo che
operasse nei settori del patrimonio culturale e delle
28 ArcheomaticA N°2 Giugno giugno 2022
Tecnologie per i Beni Culturali 29
Digital humanities con attitudine industriale. La base
sociale, formata oggi da 7 soci, vanta forti competenze
culturali, digitali e organizzative, maturate nel lavoro
e in percorsi di altissima formazione come l’École
Normale Supérieure e l’École des Chartes di Parigi, la
Scuola di archivistica dell’Archivio di Stato di Bologna,
l’Istituto Europeo di Design di Milano, l’Accademia di
Belle Arti di Venezia e l’esperienza professionale negli
enti locali e nella Fondazione Alma Mater dell’Università
di Bologna. Fin dalla nascita, la cooperativa investe
nell’innovazione tecnologica e nello sviluppo digitale:
dalla stampa alla modellazione 3D, a sistemi web avanzati
e a soluzioni basate sull’intelligenza artificiale, un
processo di ricerca e innovazione tecnica e tecnologica
teso al miglioramento continuo della qualità dei servizi
e dei prodotti.
SVILUPPO DIGITALE
Realtà virtuale e realtà aumentata
Sviluppo di soluzioni di rappresentazione tridimensionale
di oggetti, monumenti e scenari in realtà simulata
e aumentata con la dotazione tecnologica di visori e
strumentazione per l’installazione di postazioni.
Chatbot
Progettazione e implementazione chatbot per istituzioni
pubbliche e culturali, curando gli aspetti tecnici
e conversazionali.
Web e app
Progettazione e realizzazione di siti web e app dedicate
per enti culturali, pubblici e privati, associazioni e
realtà turistiche.
HERITAGE MUSEI
Attraverso le sue collezioni, un museo racconta la storia
e la cultura del territorio. Lo spazio del museo, anche
proiettato all’esterno degli istituti culturali, può
inoltre trasformarsi in uno spazio per attività culturali
trasversali aperte a tutti grazie ad attività didattiche
mirate.
Progettazione e allestimento
Progettazione, ideazione e realizzazione di percorsi
espositivi in spazi museali.
Scripta manent
Realizzazione di materiali informativi, didascalie, apparati
didattici e comunicativi del museo. Progettazione
di siti web, supporti digitali per l’interpretazione
dello spazio espositivo e audioguide.
Attività in Museo
Organizzazione e realizzazione di percorsi didattici,
laboratori, proiezioni, visite guidate, performance,
attività culturali e divulgative, percorsi espositivi temporanei
e mostre.
Museo diffuso
Realizzazione di percorsi diffusi sul territorio con l’integrazione
di pannelli informativi, audioguide, visite
guidate dedicate, strumenti web interattivi e app per
dispositivi mobile.
MANIFATTURA DIGITALE
La creazione di copie digitali tridimensionali di qualsiasi
tipo di oggetto o reperto permette di aprire nuove
frontiere alla valorizzazione di beni culturali.
Modellazione e scansione 3D
Realizzazione di scansioni 3D di oggetti e modellazione
virtuale finalizzata sia alla visione in realtà virtuale che
alla stampa tridimensionale additiva in resina o materiali
plastici.
Stampa 3D
Stampanti di ultima generazione che consentono la realizzazione
di modelli 3D accurati in ogni dettaglio, con
l’utilizzo di tutte le tipologie di filamento oggi disponibili
sul mercato, dai materiali plastici a quelli metallici.
SVILUPPO CONTENUTI
Nel mondo dei social e della rete globale, un approccio
narrativo e iconologico unico per la presentazione sul
web, o per prodotti editoriali del profilo storico e culturale
di un ente o di un’associazione, garantiscono riconoscibilità
e valorizzano la propria identità e l’identità
del bene attraverso la determinazione e la dichiarazione
delle specifiche tecniche del tipo di riproduzione digitale
immessa nel web.
Testi, immagini e copywriting
Redazione testi e ricerca iconografica per siti web, social,
presentazioni, bilanci sociali, materiali informativi.
Social Media Management
Realizzazione di strategie di comunicazione adatte ai
diversi social media, creazione di contenuti visivi e testuali
e campagne di advertising.
Motion Graphics
I video animati digitali sono uno dei linguaggi più efficaci
della contemporaneità: immediati nella comunicazione,
ricchi di sfumature e capaci di catturare l’attenzione.
Realizzazione motion graphics sia 2d che 3d,
dalla scrittura dello storyboard, al disegno, all’integrazione
fra 2d e 3d e all’inserzione di ologrammi.
AZIENDE E PRODOTTI
Contenuti multimediali
Realizzazione campagne di shooting, riprese video e audio
in alta definizione per qualsiasi prodotto culturale.
HERITAGE ARCHIVI
Gli archivi sono la testimonianza fisica della storia di un
ente culturale, una fondazione, un’associazione, un’impresa
o una persona. Riordinarli, valorizzarli e renderli
accessibili permette di diventare parte attiva nella costruzione
della memoria condivisa di una comunità. Gli
archivi non sono solo i custodi della documentazione e
della memoria del passato, ma istituti culturali a 360°
che svelano nuovi mondi ai loro visitatori e utenti.
Riordino e valorizzazione
Riordino, inventariazione, valorizzazione e progettazione
di campagne di comunicazione per archivi storici di
istituzioni pubbliche, aziende, enti privati e associazioni,
offrendo alla consultazione gli indici di classificazione
per tipo di ogni immagine e riproduzione tecnologica
digitalmente archiviata secondo le rispettive specifiche
normate.
Ricerca e formazione archivistica
Ricerche su commissione in archivi territoriali e nazionali,
ricerche genealogiche e presentazione dei risultati.
Organizzazione di corsi di formazione archivistica.
PROGETTAZIONE CULTURALE
Le strategie culturali, in ambito pubblico e privato, hanno
bisogno di far leva su una conoscenza precisa del
contesto in cui si opera affinché siano efficaci.
Strategie culturali sul territorio
Supporto alla realizzazione e allo sviluppo delle strategie
culturali nel contesto territoriale specifico, studio
e analisi del contesto socioculturale di riferimento di
ogni realtà. Consulenza e supporto nella progettazione
di piani strategici di promozione, sviluppo culturale, turistico
e consulenza alla ricerca di fondi e per la partecipazione
a bandi e gare in ambito culturale nazionale
ed europeo.
Klimt dedicò tutta la sua vita al disegno, ma anche
al ritratto, soprattutto di donne della ricca borghesia
viennese. Il quadro fu acquistato nel 1925 dal mecenate
Giuseppe Ricci Oddi da Luigi Scopinich, per il tramite
dell’architetto Giulio Ulisse Arat, e arrivò presso la Galleria
d’arte moderna Ricci Oddi nel 1931. A meravigliare
non è tanto la scoperta che il quadro fosse stato dipinto
sopra un altro ritratto, ma la storia del ritrovamento.
All’ordine del giorno i ripensamenti degli artisti, quasi
sempre senza una ragione specifica o guidati semplicemente
dal disegno, dal colore e, quindi, privi della
suspense, che rivede in questo dipinto, nella donna ritratta,
la compositrice austriaca Alma Mahler Schindler
amica di Klimt o l’ebrea Ria Munk, morta giovane e della
quale la madre chiese a Klimt un ritratto.
Il Ritratto: Ritratto di donna con un cappello, rappresentato
unicamente nell’illustrazione pubblicata sulla
rivista Velhagen & Klasings Monatshefte (XXXII-XXXIII.
1917-18, P. 32) ed esposto a Dresda nel 1912, svanisce
nel nulla. La sua rivelazione fu merito di una studentessa,
Claudia Maga da Broni, che all’epoca della scoperta
(1996) era alunna dell’ultimo anno del Liceo Artistico
Sperimentale presso l’Istituto Magistrale “Colombini” di
Piacenza. La ricerca scolastica si basava sullo studio di
circa dieci quadri di ritratti femminili esposti alla Galleria
D’Arte Moderna Ricci Oddi. Il confronto del celebre
dipinto Ritratto di Signora con un'immagine precedente
al 1916-17, riprodotta in un volume dei Classici dell’Arte
Rizzoli, ritenuta persa, si rivelò inatteso, molte erano le
corrispondenze tra i due ritratti. A convalidare l’intuizione
della studentessa furono le indagini scientifiche
-raggi X, infrarosso fotografico colore (I.R.C.), ultravioletto,
fotografia della fluorescenza, riflettografia infrarosso
e raggi X- affidate alla ditta romana il Cenacolo.
Chiuso un capitolo se ne riaprì un altro, il 22 Febbraio
del 1997 il dipinto venne trafugato. Per circa ventidue
anni, nonostante la riapertura delle indagini nel 2014,
Organizzazione di eventi e rassegne
Progettazione e organizzazione di eventi a carattere
culturale, presentazioni di libri, conferenze, festival
tematici e dibattiti.
IL RITRATTO DI SIGNORA DI KLIMT IN
REALTÀ AUMENTATA
Gote rutilanti, capelli nero corvino, pelle incipriata in
netto contrasto con il marcato sopracciglio e occhi cerulei
sono le caratteristiche dominanti del celebre Ritratto
di Signora di Gustav Klimt, 1917 (olio su tela,
cm. 55x60), alla Galleria d’arte Moderna Ricci Oddi di
Piacenza. Un dipinto che porta con sé una storia rocambolesca,
in opposizione alla vita poco mondana dell’artista.
La tela rientra in un gruppo di ritratti femminili
realizzati dal maestro viennese negli ultimi anni della
sua vita (tra il 1916 e il 1918), alcuni dei quali rimasti
incompiuti.
30 ArcheomaticA N°2 Giugno giugno 2022
Tecnologie per i Beni Culturali 31
non fu raggiunto alcun risultato. Tre anni fa, il 10 Dicembre
2019 è stato ritrovato casualmente in un vano
esterno del museo: tralasciando i motivi del furto e la
storia che ha tutto il sapore di un cult, riaccendiamo i
riflettori sul Ritratto di Signora per un’esperienza interattiva.
Oggi, grazie alle più avanzate tecnologie, è possibile
addentrarsi nei meandri reconditi di un’opera, estendendo
il risultato delle indagini ad un pubblico più ampio.
Cari lettori, e se vi dicessi che solo ora è possibile
evidenziare lo strato emergente sotto il Ritratto di Signora?
Le Tecnologie Immersive riescono a stimolare curiosità
e interesse verso il patrimonio artistico e culturale.
Uqido, azienda informatica dall’esperienza consolidata
nel campo delle Tecnologie di Extended Reality
(Realtà Aumentata, Realtà Virtuale, Realtà Mista), lavora
a numerosi progetti inerenti il settore museale.
Tra i più recenti si distingue proprio la seguente Esperienza
di Realtà Aumentata.
Il progetto nasce, durante il primo lockdown, dalla volontà
di portare i capolavori direttamente alle persone
impossibilitate a recarsi fisicamente al museo. La
committenza chiedeva un’esperienza compatibile con
i device più comuni ed emozionante, atta ad evocare
curiosità e meraviglia. Di qui la decisione di sviluppare
un filtro per smartphone, facile, intuitivo, ma soprattutto
capace di funzionare sia sul dipinto vero sia su
una fedele riproduzione.
Grazie a SparkAR Studio, tool per lo sviluppo professionale
di filtri ed effetti di Realtà Aumentata per i
social media, Uquido ha realizzato una soluzione che
raccontasse la storia dell’opera: il filtro fornisce una
narrazione per immagini di come il dipinto Ritratto di
Signora sia stato realizzato da Klimt sopra una sua opera
precedente sulla stessa tela. L’oggetto 3D propone
una fruizione dinamica e interattiva: puntando un device
mobile sull’opera, l’utente assiste alla scansione
a infrarossi della stessa, che culmina con la rivelazione
del dipinto originario, dimostrando come esso sia diverso
da quello definitivo.
Il filtro è stato ricevuto positivamente, portando a più
di 100k visualizzazioni a soli quattro mesi dalla sua
pubblicazione.
Numeri che rivelano un grande interesse verso soluzioni
tech applicate al settore artistico. La scelta di un
filtro applicato ai social media risponde anche all’urgenza
di intercettare le nuove generazioni, in modo
da far crescere in loro il desiderio e l’abitudine a frequentare
gli enti museali.
Autore: Maria Chiara Spiezia
Time to THE FUSION !
BLK2GO & X-PAD OFFICE FUSION
3D scanning and data processing
are now simpler than ever.
GeoMax provides the solution to increase your efficiency and accuracy.
BLK2GO, a handheld 3D imaging scanner, captures models and point clouds and
X-PAD OFFICE FUSION, GeoMax geodata office software, processes them in a few clicks.
©2022 Hexagon AB and/or its
subsidiaries and affiliates.
All rights reserved.
Part of Hexagon
Works when you do
GEOJUI22-210x148-BLK-X_Pad.indd 2 07/07/2022 17:40
AGORÀ
TECHNOLOGY for ALL 2022 -
Cambio date, si terrà dal 21
al 23 novembre 2022 – Con la
partnership di Istituzioni, enti
di ricerca ed università, ordini
professionali ed aziende specializzate,
l'obiettivo del Forum è
l’esposizione delle tecnologie innovative
per la tutela e la valorizzazione
del territorio, dei beni
culturali e delle smart city storiche
italiane, facilitando nel confronto
l’illustrazione ad un pubblico
il più ampio possibile dell'uso,
dei vantaggi e dei risultati
delle applicazioni, soprattutto
nei termini dell’ecosostenibilità
dei prodotti in ragione della
diminuzione dei tempi lavorativi
per ottenere il risultato previsto.
La complementarietà dei vari ambiti
applicativi delle tecnologie
che saranno trattati e le diverse
modalità con cui sono proposti ai
partecipanti, pone all'attenzione
dei visitatori le ultime innovazioni,
offrendo un’occasione
migliorativa di aggiornamento
professionale e formazione con
l’ampliamento del loro spettro
applicativo.
Il Forum 2022 si articolerà in una
giornata di workshop operativo,
a cui seguiranno due giornate di
sintesi dei laboratori avviati sul
campo, presso la Biblioteca Nazionale
Centrale di Roma, necessarie
a promuovere il confronto
tra creatori, produttori, esperti,
utilizzatori e curiosi delle nuove
tecnologie. Spazio rilevante sarà
inoltre riservato alla formazione
e a dimostrazioni pratiche.
I processi che saranno descritti,
relativi all'acquisizione dei dati,
alla loro elaborazione e diffusione,
interessano un’ampia gamma
di utenti: dagli Enti pubblici alle
aziende private, compresi gli
Enti preposti alle risorse energetiche
e alla tutela dell’ambiente,
intesa come protezione dell’aria,
della terra, agricola e boschiva e
delle acque, anche nella campionatura
di sfruttamento delle rinnovabili
in ragione dei benefici
sperimentati, e dai professionisti
ai ricercatori, dagli studenti ai
cittadini.
In particolare, le attività di laboratorio
consentono ai partecipanti
di vedere realmente in
azione le tecnologie innovative
e quelle consolidate che più
svilupperanno la ricerca mirata
in rapporto agli obbiettivi che
emergono dalla domanda attuale
e dedicano all’ascolto degli intervenuti
le sequenze finali dei
test di funzionamento conseguiti
in pratica.
I temi di grande attualità al centro
del Forum TFA 2022 saranno
imperniati, in particolare,
sull'impiego delle tecnologie per:
• monitoraggio urbano e territoriale
• osservazione della Terra
• acquisizione digitale della realtà
per Digital Twin, BIM e
HBIM
• tecnologie ed efficienza energetica
per l'edilizia anche storica
PROGRAMMA PRELIMINARE
PRIMA GIORNATA
lunedì 21 Novembre 2022 - WOR-
KSHOP SUL CAMPO 9:00 - 18:00
(luogo della cultura in corso di
definizione)
Attività pratiche dimostrative sul
tema del Digitale, Droni, Laser
Scanner, Mobile Mapping, Slam,
Scansione
SECONDA GIORNATA
martedì 22 Novembre 2022 -
CONVEGNO 9:00 - 18:00
BIBLIOTECA NAZIONALE CENTRA-
LE ROMA
Temi: Reality Capture per il BIM,
Digital Twin, Monitoraggio, Geomatica
nella Robotica
TERZA GIORNATA
mercoledì 23 Novembre 2022 -
CONVEGNO 9:00 - 18:00
BIBLIOTECA NAZIONALE CENTRA-
LE ROMA
Temi: Osservazione della Terra,
Digitale nei Beni Culturali, Gestione
dati digitali georiferiti
A fine convegno nella giornata di
Mercoledì 23 Novembre saranno
presentati i risultati della prima
giornata in campo.
Alcune info sui Forum precedenti
Nell’ultima edizione 2019 (successivo
stop di due anni per ragioni
legate al Covid-19), svoltasi
all’interno dell’ISA Istituto
Superiore Antincendi, hanno partecipato
70 relatori ed oltre 1300
iscritti, con molte collaborazioni
istituzionali. Informazioni di dettaglio
sono costantemente riportate
sul sito technologyforall.it
32 32 ArcheomaticA N°2 giugno Giugno 2022
Tecnologie Tecnologie per per i Beni i Beni Culturali Culturali
33
Primo rilievo tridimensionale integrato
del Colosseo – L'Anfiteatro
Flavio entro la prossima primavera
sarà disponibile in versione 3D, un
rilievo geometrico 3D globale con
l'utilizzo di tecnologie topografiche,
laser scanner, terrestri e da
drone. Fino adesso coinvolto solo
da rilievi dedicati a singole porzioni,
verrà fornita una dettagliata
analisi dell'opera con la georeferenziazione
di ogni singolo punto.
Un progetto di straordinaria importanza
per la tutela del monumento
e che costituirà un riferimento
fondamentale per qualsiasi
intervento di studio, manutenzione
e restauro, valorizzazione.
Il progetto elaborato dal Parco archeologico
del Colosseo (Rup dott.
ssa Federica Rinaldi) vede da alcuni
mesi impegnate imprese leader,
ciascuna con specifiche competenze,
nel settore (raggruppamento
temporaneo aggiudicatario di una
gara pubblica bandita da Invitalia
e costituito da CONSORZIO FU-
TURO in RICERCA CFR di Ferrara
- mandataria - che ha il coordinamento
scientifico delle attività,
GEOGRA’ Srl di Sermide, ETS Srl
e JANUS Srl di Roma). Sono stati,
inoltre, coinvolti esperti nelle diverse
discipline, studiosi e professionisti,
a supportare un'attività
di documentazione di particolare
complessità.
Questa unica e completa banca
dati, riferita al Colosseo e raccolta
in più modelli tridimensionali multidisciplinari,
renderà disponibile
a storici, archeologi, architetti,
restauratori e a tutti i professionisti
provenienti dai diversi ambiti
dei beni culturali una base conoscitiva
inedita per lo studio e la
verifica delle diverse fasi storiche
ed evolutive, nonché la conoscenza
dello stato di conservazione
delle superfici e delle strutture del
monumento, anche in previsione
delle ulteriori e già programmate
verifiche del rischio sismico.
Non da ultimo il rilievo potrà costituire
il supporto digitale per future
restituzioni a scopo scientifico
e didattico dell’originaria decorazione
architettonica grazie alla
previsione, inserita nel Capitolato
di gara, del rilievo di 50 reperti
notevoli, tra capitelli, colonne,
transenne, gradini della cavea,
tripodi.
Alfonsina Russo, direttore del Parco
archeologico del Colosseo dice:
"questo progetto si rivela di fondamentale
importanza, in quanto
consentirà, attraverso un rilievo
per la prima volta integrale e tridimensionale
dell'Anfiteatro Flavio,
di ottenere risultati ancora più incisivi
per la conoscenza e la tutela
di un monumento, noto in tutto il
mondo e patrimonio dell'umanità".
Non da ultimo, il rilievo permetterà
di "rispettare in pieno le
innovazioni normative in tema di
appalti di restauro e manutenzione,
che prevedono a partire dal
2025 l'obbligo di progettazione in
modalità BIM per interventi superiori
a un milione di euro".
Augmented Reality Studio nuove
esperienze museali – La Realtà
Aumentata è una tecnologia innovativa
che permette di sovrapporre
immagini, video, suoni e modelli
3D a ciò che gli utenti sono già in
grado di osservare intorno a loro.
Non sostituisce la realtà, non ne
crea una nuova come avviene con
la Realtà Virtuale, ma impreziosisce
ciò che è già presente, offre
agli artisti nuovi modi per raccontare
una storia e apre le porte a un
modo interattivo di vivere gli spazi
ed esseri coinvolti nel processo
creativo.
La startup Dilium fornisce prodotti
e servizi all’avanguardia in campo
tecnologico – digitale, il suo obbiettivo
principale è l’innovazione
delle esperienze museali, consentendo
agli artisti di adottare
strumenti per integrare la Realtà
Aumentata nelle proprie opere.
Lo sviluppo della piattaforma Augmented
Reality Studio per la creazione
semplificata di esperienze
AR, e la partecipazione nel 2021 al
bando InnovaMusei, ha permesso
all’azienda di avviare progetti sperimentali
in ambito culturale.
Le opportunità per l'uso dell'AR
sono ampie, molte strutture stanno
già adottando Augmented Reality
Studio per aggiungere in pochi
passaggi asset 2D, 3D e veicolare
maggiori informazioni. Versioni digitali
degli artisti, o video, accompagnano
le opere e ne descrivono
i tratti, interi quadri si animano e
si rivolgono in prima persona allo
spettatore. Nuove e numerose pos-
AGORÀ
sibilità per i musei e gli artisti interessati
a creare e vendere opere
immersive possono nascere dal recente
boom del mercato dei token
non fungibili (NFT).
L’AR è lo strumento ideale per aggiungere
valore a un’opera digitale
e il connubio tra Blockchain e AR
può finalmente restituire il giusto
riconoscimento all’arte digitale
che, ancora oggi, purtroppo, viene
spesso svalutata perché non realizzata
con strumenti tradizionali
tangibili. In occasione della Milano
Design Week, Dilium ha realizzato
la mostra LeonARdo, sviluppando
in realtà aumentata opere del
maestro Leonardo Da Vinci. La mostra
è stata un'esperienza unica sul
modello dello 'science center' con
oltre 1200 visitatori da 20 nazioni
differenti. Le opere del genio rinascimentale
sono state interpretate
in chiave moderna e animate
in Realtà Aumentata, dando modo
ai visitatori di avere accesso ad un
canale di comunicazione interattiva
e immateriale con l'esposizione
grazie all’App Bellfish.
Software SaaS progetti digitali
sostenibili per la cultura – L’ultimo
progetto digitale in ambito
culturale di cui avete sentito parlare?
Senz’altro uno che utilizza
tecnologie da buzzword su Wired,
realizzato attraverso finanziamenti
istituzionali. Pochi progetti però
si spingono nel lungo periodo, curando
nello sviluppo l’evoluzione
e la durata che avrà l’applicazione
realizzata di uso pubblico, non
sempre sostenibile nell’ordinaria
amministrazione.
Questo tipo di progetto ha bisogno
infatti di coinvolgere più attori,
per rientrare nei requisiti dei bandi
sempre più comuni, dimostrando
una cooperazione fra diversi
enti (trasferimento tecnologico) e
paesi (partenariati europei). Il risultato
di una coordinazione così
complessa, anche nei casi in cui
la user experience sia considerata,
frequentemente prescinde, per
l’oggettiva condizione di rapidità
della fase di lancio del progetto,
dalla routine di sfruttamento della
risorsa da parte di chi questi progetti
dovrà poi promuoverli e gestirne
i contenuti nel tempo, ovvero
gli uffici dell’ente culturale, siano
questi di un museo, un teatro o
un comune che promuove turismo.
Se il progetto perde utenti non appena
l'hype della notizia inizia a
scendere può voler dire che non si
è riusciti a raggiungere l’obiettivo
principale, che è quello di portare
più pubblico in maniera continuativa
nella fase gestionale, rendendo
efficace l’investimento, anche
quando arriva da un finanziamento
di eccellenza.
Con il PNRR, già dal 2023 sarà
previsto un investimento per gli
operatori dei luoghi pubblici della
cultura, personale sempre più
autonomo e in grado di gestire gli
strumenti digitali che entreranno
continuativamente a far parte del
lavoro di ufficio, come lo è già per
i settori industriali. Doversi affidare
a sistemi chiusi, invariabili nei
contenuti e nelle azioni sarà sempre
di meno un limite con l’orientamento
di personale marketing
qualificabile.
Un enorme vantaggio di questo
genere di software è quello di poter
essere pianificato, distribuito
e anche rivenduto come servizio
e negli ultimi anni sempre di più
si sta facendo strada il Softwareas-a-Service
(SaaS) in ogni settore
economico. Ci sono piattaforme
diffuse come Netflix, AirBnB, Uber
che ci hanno abituato a questo
share di servizio in ambito consumer,
cui si affiancano ora anche
nel settore culturale decisamente
quelli cosiddetti dell’ambito B2B
(come MailChimp, Zoom, Google
Workspace etc.).
Anche la Pubblica Amministrazione
ha cominciato ad aprire le porte a
questo tipo di prodotti, costruendo
un vero proprio marketplace a
riguardo, l’AGID Cloud Marketplace
[2], dove i fornitori possono esibirne
il catalogo dopo aver sottoposto
i loro servizi ad un accurato
processo di certificazione.
I sistemi SaaS esistenti differiscono
dai sistemi Ad-hoc per un alto
livello di standardizzazione e di
sicurezza, definendo chiaramente
costi nel tempo e garantendo
un aggiornamento tecnologico
costante del servizio, ovviamente
installato su ambiente Cloud.
L’obsolescenza del software è un
aspetto senz’altro rilevante quando
se ne sta per realizzare o acquistare
uno, soprattutto in questo
periodo di piccoli ma super rapidi
cambiamenti.
Last but not least, la velocità di
adozione di un sistema SaaS non ha
paragone con l’implementazione
di sistemi proprietari, che sebbene
possano essere realizzati su misura
possono nascondere insidie progettuali
che incideranno sull’investimento
(o sulle funzionalità preventivate)
e sui successivi tempi
di ottimizzazione, solitamente già
elevati in partenza.
“SHOWTIME! APPS” DI MANGO
MOBILE AGENCY
Mango Mobile è un’agenzia che sviluppa
prodotti software e servizi
di marketing per gli enti culturali,
prestando attenzione a massimizzare
l’esperienza utente e a dare
uno strumento efficace per coltivare
vecchio e nuovo pubblico in
open access.
Il prodotto “Showtime! Apps” è un
esempio di SaaS destinato al settore
cultura per rendere il visitor
journey un’esperienza interattiva
in tutte le sue fasi, prima, durante
e dopo la visita, attraverso un'app
ufficiale e dedicata dell’ente culturale.
Autore: Claudio Buda
34 ArcheomaticA N°2 giugno 2022
Tecnologie per i Beni Culturali 35
Sede in Italia
Più di 100 distributori nel mondo
Una linea di prodotti Made in Italy
Dove siamo Chiamaci Contattaci
Seguici sui Social
Viale dell’Industria 53
20037, Paderno Dugnano (MI)
Tel. +39 02 78619201
www.stonex.it
info@stonex.it - italia@stonex.it
Ogni oggetto, ogni luogo, ogni gesto
racconta l'emozione di una storia
hubstract.org
Hubstract - made for art è uno studio creativo: autori digitali, videomakers, designers e storytellers
realizzano percorsi di visita, allestimenti, eventi e contenuti combinando le nuove tecnologie e i
linguaggi digitali alle esperienze tradizionali.
hubstract.madeforart
hubstract
hubstract
Tecnologie per i Beni Culturali 37
La piattaforma Emma e le
nuove forme di Management
Museale – I forti cambiamenti
nelle forme di avvicinamento
e prenotazione
alla visita nonché le spinte
ministeriali all’innovazione
tecnologica nel settore hanno
portato, negli ultimi anni,
ad un’ampia rilettura delle
necessità e delle criticità del
lavoro degli Enti Culturali,
con l’obiettivo di individuare
soluzioni in grado di migliorare
il complesso di attività
e di processi gestionali che si
svolgono quotidianamente al
loro interno. Oggi è sempre
più necessario il mezzo digitale
per un’ottimale gestione
e valorizzazione del patrimonio,
divenuto imprescindibile
per il coinvolgimento e la gestione
dei flussi di visitatori
presso le istituzioni culturali.
In questo Contesto è nata
grazie a RnB4Culture, la progettazione
di Emma (Electronic
Museum Management
& Analytics), piattaforma
capace di razionalizzare
le innumerevoli attività di
management museale per
renderle di facile gestione e
da un unico punto d’accesso
mobile first. Emma, come
Saas, è formulato secondo
un approccio multiutente e
dinamico al fine di garantirne
globalmente alla singola
istituzione la gestione ai differenti
livelli di utilizzo. Il
progetto è nato con lo scopo
di rendere la digitalizzazione
museale accessibile alle
istituzioni culturali di ogni
ordine e grado, puntando
strategicamente su un rinascimento
culturale diffuso.
Vari sono i moduli previsti da
Emma che manifestano come
unico requisito la copertura
di rete internet e fornire,
oltre alla più comune interfaccia
desktop, la possibilità
di effettuare vendite da mobile,
tramite app dedicata
compatibile con Android e
IOS.
Dato il quadro di così grande
eterogeneità nelle sue forme
e nelle sue criticità che mostra
il panorama delle Istituzioni
culturali italiane, si è
deciso di configurare Emma
come un sistema modulare.
In tal senso il servizio di Ticketing
prevede la possibilità
di disporre di un’interfaccia
di online ticketing integrata
nel proprio sito web altamente
personalizzabile oltre
che di un sistema di cassa fisica.
Al sistema di cassa è legato
il modulo Bookshop che
garantisce una maggior efficienza
nella gestione dell’inventario.
L'operatore museale può scegliere
di registrare nuovi articoli
e aggiornare le giacenze
tramite piattaforma web
o mobile e tenere traccia dei
flussi di giacenza. EMMA permette
di inserire e modificare
autonomamente tutti gli
articoli in vendita, senza la
necessità di richiedere supporto
o l'intervento di tecnici
esterni. L’integrazione diretta
con il sistema di vendite
e il modulo di Analytics permette
un controllo continuo
ed efficiente sull’andamento
su quello che, molto spesso,
è una delle aree più remunerative
dei Musei. Se era un
fenomeno già in forte crescita
il periodo pandemico
ha dimostrato quanto un ottimale
gestione delle prenotazioni,
specialmente online,
sia un elemento determinante
del successo museale sia
per eventi speciali che per la
normale fruizione della mostra
permanente.
In tal senso si è voluto rendere
accessibile anche per
le istituzioni minori la possibilità
di pubblicare sui principali
canali social o sul proprio
sito un evento in modo
centralizzato e immediato,
per poi registrare le prenotazioni
ricevute per eventi e
visite, consultare il programma
settimanale e monitorare
l'affluenza attesa per ogni
fascia oraria della giornata.
A supporto del management
museale è inoltre previsto
un CRM per la gestione del
personale e un avanzato sistema
di Analytics che permette
alla direzione di avere
sempre sotto controllo ogni
singolo aspetto della propria
realtà in simultanea. Particolare
attenzione è stata
data anche al territorio, e
al valore aggiunto dalla collaborazione
con e tra le istituzioni.
Per questo Emma è
utilizzabile sia da istituzioni
culturali singole che connesse
in rete. Le Istituzioni che
decidono di unirsi in rete visualizzeranno
il modulo aggiuntivo
“Rete Museale” nel
proprio portale, comprendente
una sezione dedicata
alla vendita di biglietti e
prodotti in condivisione con
altre realtà museali. Il modulo
permette una gestione
coordinata e simultanea di
vendite ed ingressi da parte
di tutti gli attori appartenenti
ad una stessa rete, agevolando
l'amministrazione di
biglietti unici, card territoriali
e gadgettistica comune.
La rete sarà inoltre in grado
di valutare, in modo aggregato,
i dati statistici prodotti
dalle singole realtà.
Dato l’alto valore dei dati
nella pianificazione dell’area
espositiva, nel distanziamento
sociale, nella possibilità
di implementazione di logiche
di gamification con
le opere, di ottimizzazione
dell’impiantistica Emma si
è arricchita anche di un modulo
di real time tracking dei
visitatori all’interno dell’area
espositiva. Il sistema,
attraverso l’integrazione di
tecnologie innovative Ultra
Wide Band, permette l’analisi
comportamentale dei visitatori
del museo attraverso il
tracciamento puntuale della
loro posizione all’interno
all’area espositiva in tempo
reale. Un sistema simile
permette al management di
usufruire di una base dati
sia real-time che storicizzata,
da cui acquisire insight
utili all’ottimizzazione della
gestione del museo. L’utilizzo
di un sistema simile
permette di riconoscere il
posizionamento del visitatore
all’interno dell’esposizione
con un margine di errore
minore di 20cm permettendo
di aprire innumerevoli possibilità
progettuali con i singoli
Musei. Per l’alto livello
di innovazione del software
Emma, la società RnB4Culture
è stata premiata come
miglior start up innovativa
culturale nell’ambito del
bando InnovaMusei indetto
da Cariplo Factory, Regione
Lombardia, Union Camere
Lombardia e Fondazione
Giordano dell’Amore.
RnB4Culture, parte del gruppo
RnBGate, è una dinamica
start-up ad alto valore sociale
che applica le più innovative
tecnologie di ArtTech
alla promozione e alla valorizzazione
del patrimonio
storico-culturale. Punta alla
salvaguardia e al rilancio del
patrimonio culturale attraverso
il management e la gestione
di istituzioni culturali,
il loro supporto attraverso il
project office bandi e allo
sviluppo di software e hardware
per la loro fruizione.
RnB4Culture ridisegna come
le persone vivono la cultura
associando ricerca e tecnologia
alle ricchezze storiche e
culturali del territorio.
EVENTI
10 - 12 NOVEMBRE 2022
CHNT 27
Conference on Cultural
Heritage
and New Technologies
Vienna (Austria)
https://chnt.at/
21 - 23 NOVEMBRE 2022
TECHNOLOGY FOR ALL
Roma
http://technologyforall.it
8 - 9 DICEMBRE 2022
YOCOCU 2022 - YOuth in
COnservation of CUltural
Heritage
Francoforte (Germania)
https://www.yococu.com/
14-16 DICEMBRE 2022
XIII Convegno Internazionale
AIES
Napoli (Italia) - Museo
Archeologico Nazionale
https://www.aiesbbcc.it/
19 - 21 APRILE 2023
XII Congresso Nazionale AIAr
Messina (Italia)
http://www.associazioneaiar.
com/
20-23 MARZO 2023
3rd International Conference
TMM-CH
Transdisciplinary Multispectral
Modelling and
Cooperation for the
Preservation of Cultural
Heritage
Atene (Grecia) - Eugenides
Foundation
https://tmm-ch.com/#about
PRIMAVERA 2023
Restauro - Salone
Internazionale dei Beni
Culturali e Ambientali
XXVIII edizione
Ferrara Fiere (Italia)
https://www.
salonedelrestauro.com/
25 - 30 GIUGNO 2023
CIPA 2023
Firenze (Italia)
https://www.
cipa2023florence.org/
LEICA BLK360
CATTURA IL MONDO CHE CI CIRCONDA CON
IMMAGINI PANORAMICHE A COLORI SOVRAPPOSTE
AD ACCURATE NUVOLE DI PUNTI.
◗ Lo scanner più piccolo e leggero della sua categoria:
165 mm di altezza x 100 mm di diametro.
◗ Nuvole di punti ad alta precisione: 360.000 punti/sec.
con risoluzione personalizzabile.
◗ Semplice da utilizzare: si attiva con la pressione di un solo tasto.
◗ Registra le scansioni e visualizza i dati sul campo in pochi istanti.
◗ Rilevazione di immagini termiche con sensore FLIR®,
in contemporanea con la scansione delle immagini.
◗ I dati di realtà acquisita si connettono con le soluzioni di
progettazione Autodesk.
◗ Tramite l'app mobile ReCap Pro, BLK360 trasferisce immagini e
dati di nuvole di punti su un tablet iPad, filtrando e registrando
i dati di scansione in tempo reale per poi effettuarne
il trasferimento a diverse applicazioni CAD, BIM, VR e AR.
per maggiori
informazioni
Contattaci, scoprirai molto di più!
Via A. Romilli, 20/8 - 20139 Milano • Tel. 02 5398739
38
E-mail: teorema@geomatica.it
www.geomatica.it • www.disto.it • ArcheomaticA www.termocamere.com N°2 Giugno 2022
Tecnologie per i Beni Culturali 39
ROMA 21-23 NOVEMBRE 2022
21
PRIMA GIORNATA
lunedì 21 Novembre 2022
WORKSHOP SUL CAMPO
9:00 - 18:00
SCALO DE PINEDO
FIUME TEVERE
Attività pratiche dimostrative
Droni aerei e acquatici
Laser Scanner
Mobile Mapping
22
SECONDA GIORNATA
martedì 22 Novembre 2022
CONVEGNO
9:00 - 18:00
BIBLIOTECA NAZIONALE
CENTRALE ROMA
Tecnologie per Ambiente e Territorio
Satelliti, droni e aerei
Laser Scanner e Mobile Mapping
Agricoltura di precisione
23
TERZA GIORNATA
mercoledì 23 Novembre 2022
CONVEGNO
9:00 - 18:00
BIBLIOTECA NAZIONALE
CENTRALE ROMA
Tecnologie per i Beni Culturali
Informazione Geografica
Indagini conoscitive avanzate
Sostenibilità energetica
ISCRIZIONI APERTE SUL SITO WWW.TECHNOLOGYFORALL.IT
L’iscrizione è gratuita. CFU riconosciuti CdL (Ing Edilz, Ing. e Tecn. del Costr., Ing Edile Archit)
Macroarea Ingegneria Univ. Roma Tor Vergata e in via di riconoscimento CFU CdL altre Università
di Roma e CFP Ordine degli Architetti di Roma e Provincia, Ordine degli Ingegneri della
Provincia di Roma e dal Collegio Provinciale dei Geometri di Roma.
Science & Technology Communication
info@mediageo.it - tel: 3391498366
Via Palestro 95, 00185 Roma
Science & Technology Communication