23.12.2020 Views

LeStrade n.1563 dicembre 2020

MONOGRAFICO Numero dedicato alle reti stradali INTERVISTE In esclusiva Anas e Commissione EU SPECIALISTI Norme, sicurezza e alta tecnologia

MONOGRAFICO
Numero dedicato alle reti stradali
INTERVISTE
In esclusiva Anas e Commissione EU
SPECIALISTI
Norme, sicurezza e alta tecnologia

SHOW MORE
SHOW LESS
  • No tags were found...

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

46<br />

47 LS<br />

Nuovo tecno-umanesimo<br />

e “custodia dei custodi”<br />

Diventa chiaro che essere artefici dell’intelligence augmentation,<br />

creatori di sistemi con funzioni cognitivamente avanzate<br />

ed emulatrici del nostro muoverci su strada tra gli altri, con<br />

gli altri, porta in campo numerose valutazioni di carattere legale,<br />

sociale, etico e morale, sulle quali stanno lavorando accademici,<br />

politologi, sociologi e anche policy makers della fase<br />

regolamentare del nuovo traffico. Ne è un esempio l’evento<br />

ITU-WEF, “AI for Good 4 ”, svoltosi lo scorso ottobre, promosso<br />

da Bryn Balcombe, Danit Gal e Tim Dawkins. Nella parte dedicata<br />

all’intelligenza artificiale applicata ai sistemi automotive<br />

e self driving, il famoso dilemma del trolley (dal panel indicato<br />

come “The Molly Problem”, una bimba che attraversa<br />

inaspettatamente tagliando la strada a un veicolo selfdriving)<br />

è stato al centro del dibattito sulle reazione attese da sistemi<br />

intelligenti, e per inferenza, sui principi etici da ascrivere nelle<br />

derivazioni logaritmiche che gestiranno azione/reazione. Nella<br />

dinamica del traffico, di fronte al famoso dilemma del trolley, o<br />

all’evento inaspettato su strada che implicherebbe una scelta<br />

fondamentale vita/morte, quale sarà la decisione dell’intelligenza<br />

artificiale? In base a quali parametri etici, civici, morali<br />

- importati dal programmatore tra le righe algoritmiche impercettibili<br />

- avverrà la scelta di sterzare verso una direzione<br />

salvifica per uno o per tanti? Sull’evento ITU, anche la rivitutto<br />

d’altronde, quando ci si rapporta alla scala stratigrafica.<br />

Un Lidar oltre la siepe, si potrebbe dire, romanticamente, e prima<br />

che ne prendiamo consapevolezza, siamo già oltre, nella<br />

nuova era che ci vedrà alter ego e avatar di sistemi algoritmici<br />

avanzati, viaggiatori di veicoli autonomi/indipendenti, che,<br />

scevri dalle debolezze e fallibilità umane, tuteleranno la sicurezza<br />

su strada, forgiando una nuova mobilità, sicura, inclusiva,<br />

sostenibile. Il futuro dell’Agenda 2030 e oltre.<br />

Indubbiamente possibile, realizzabile, lo abbiamo visto negli<br />

ultimi decenni, siamo consapevoli che la tecnologia ci ha effettivamente<br />

portato oltre le mete immaginate. Sarà cosi anche<br />

con l'AI? Verosimilmente sì, ma, noi policy makers, siamo per<br />

il primum vivere, deinde philosophari. Prima gli aspetti pratici,<br />

e direi regolamentari, prima la vita quotidiana, poi si potrà<br />

indugiare e speculare sul vantaggio evolutivo che la potenza<br />

tecnologica ha portato .<br />

Lavorare sul binomio<br />

cognizione-esperienza<br />

La regolamentazione dell’interazione uomo-macchina (HMI) già<br />

complessa nei livelli di alta automazione, diviene ancora più articolata<br />

e difficile quando arriviamo a confrontarci con funzionalità<br />

di guida totalmente (giuridicamente) ascritte ai sistemi<br />

algoritmici, all’intelligenza artificiale. Tutta la funzione di guida,<br />

strategica, dinamica che sia, gestita in piena autonomia dall’intelligenza<br />

artificiale, sarà più sicura, eviterà l’errore umano. Non<br />

dubitiamo dell’evento quasi di logica sequenza, da programma.<br />

Ma perplessità sorgono quando si dovrà accertare la capacità -<br />

nei sistemi di AI predisposti alle funzioni di guida - di raggiungere<br />

lo stesso punto etico esperienzale dei guidatori umani, la<br />

previsione intuitiva su eventi probabili (palla che rimbalza in<br />

strada, l’eventualità euristica che sia seguita da un bambino), e<br />

così passare dal machine learning al deep learning, inglobando<br />

l’elaborazione cognitiva di Bruner e l’appredimento esperenziale<br />

di Kolb, per validare ogni accadimento secondo una responsabilità<br />

ben ascritta e verificabile. Non solo sensori e Lidar a breve e<br />

corto raggio per leggere la strada e gli ostacoli, algoritmi per le<br />

funzioni di guida dinamica, ma intelligenza artificiale a simulazione<br />

dell’intero processo cognitivo, elaborativo decisionale del<br />

cervello umano, per la classificazione di informazioni e l’identificazione<br />

di modelli real time, permettendo qualità e accuratezza<br />

delle risposte atte a influenzare le dinamiche al volante e<br />

nell'interazione con il traffico. Il tutto con affidabilità certificabile,<br />

omologabile, che generi certezza sulla responsabilità ascritta.<br />

Di questo dobbiamo essere sicuri, di questo dobbiamo veramente<br />

occuparci e preoccuparci come policy makers, perché la<br />

nuova mobilità deve portarci al vero benessere sociale, equo,<br />

inclusivo. Artificial Intelligence per il bene, for the social good.<br />

Tutto il resto è merchandising, marketing. Questa è l’ultima<br />

frontiera, dove confrontarsi per far sì che il futuro tecno<br />

digitale dell’automazione di per sé immaginifico<br />

e vasto, sia anche bello, socialmente<br />

buono. La sfida resta quindi nel delineare<br />

e muoversi sulla sottile linea rossa, nel<br />

profilare la responsabilità nelle varie<br />

fasi, l’individuazione certa dell’attore<br />

nel preciso momento, che significa<br />

poi riferirsi all’affidabilità certificata dei<br />

8<br />

6<br />

sistemi di guida che saranno chiamati ad assumersi/condividere<br />

la responsabilità della guida. Quindi questo non è che l’inizio,<br />

per trovare il punto preciso in cui etica, principi internazionalmente<br />

riconosciuti ed evoluzione tecnologica si incontrano per<br />

essere elemento validato fondante di una mobilità trasformativa,<br />

che deve anche avere insita la potenzialità di essere replicabile,<br />

condivisibile, in tutte le regioni del pianeta.<br />

6. IoT in self-driving<br />

7. Dal WP1 UNECE<br />

una risoluzione sul nuovo<br />

traffico con veicoli<br />

ad alta automazione<br />

8. AI, Machine Learning<br />

e Deep Learning<br />

4. https://aiforgood.itu.int/events/ai-safety-ethics-for-self-driving-introducing-themolly-problem/<br />

5. https://www.forbes.com/sites/lanceeliot/<strong>2020</strong>/10/14/on-the-hit-and-mayberun-self-driving-car-dilemma-akin-to-themolly-problem/?sh=521d7d724662<br />

7<br />

9<br />

9. AI for Goods<br />

sta Forbes 5 , grazie all’editorialista in AI Lance Eliot, ha puntato<br />

i riflettori per richiamare l’importanza di non dimenticare<br />

l’elemento umano nella corsa cibernetica. Il punto nevralgico<br />

è proprio questo. La vera ambizione trasformativa dell’uso<br />

dell’intelligenza artificiale deve risiedere non in una corsa commerciale,<br />

ma nella chiave etica di un nuovo tecno-umanesimo.<br />

Nel plasmare la nuova mobilità “intelligente”, vogliamo forgiare<br />

lo strumento abilitante e creativo del nuovo mondo solidale,<br />

inclusivo, che offra opportunità sostenibili e replicabili in tutte<br />

le aree del pianeta, e soprattutto in quelle svantaggiate. Non<br />

vogliamo generare la frattura digitale, un digital divide, acuendo<br />

il divario di sviluppo tra aree dove conviene investire o destinare<br />

un determinato tipo di prodotto ad alta tecnologia, e<br />

zone di esclusione, destinate a essere ramificazioni terminali<br />

sociali sempre più isolate, già mortificate da secoli in termini<br />

di trasporto, sicurezza stradale, accesso alle opportunità.<br />

Non solo intelligenza artificiale, quindi, ma anche armonizzazione<br />

attenta e condivisa dei principi che ne vengono a regolare<br />

lo sviluppo e l’applicazione. Un gioco di squadra, dove<br />

assume valore l’adagio latino “Quis custodiet custodes?” - chi<br />

custodirà i custodi - a dire, chi deciderà i principi morali etici,<br />

di riferimento sui quali gli algoritmi verranno “programmati”?<br />

Chi valuterà le linee etiche e morali che l’elaborazione<br />

quantistica potrà superare, tenere o non tenere da conto,<br />

quando si tratterà di fornire i parametri di procedura inferenziali<br />

a seconda del contesto e della situazione per agire? La<br />

comunità internazionale tutta ha indubbiamente l’onere di<br />

questa responsabilità.<br />

E forse un giorno arriveremo anche alla singularity, che<br />

Stephen Hawkings considerava perfino pericolosa e penalizzante<br />

per l’umanità, privata delle sue espressioni più alte<br />

di coscienza, logica e quindi resa mera parte infinitesimale<br />

nell’augmented life del futuro.<br />

Donare le regole al cielo del futuro<br />

Ma prima, ora, siamo ancora noi. Il cielo stellato sopra di me, la<br />

legge morale dentro di me, diceva Immanuel Kant. Predisponiamo<br />

quindi le applicazioni regolamentari proprie per favorire<br />

l’intelligenza artificiale applicata secondo valutazioni etiche<br />

e morali valide per rendere il mondo un posto migliore. Proprio<br />

per le generazioni umane che guarderanno il cielo stellato del<br />

futuro, per loro, non dobbiamo perdere la prospettiva eticoantropologica<br />

del progresso, la possibilità che abbiamo ora di<br />

privilegiare sviluppo e benessere diffuso con questo momento<br />

unico di Rinascimento tecnologico. nn<br />

Gli Specialisti<br />

Gli Specialisti<br />

12/<strong>2020</strong> leStrade

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!