LeStrade n.1563 dicembre 2020
MONOGRAFICO Numero dedicato alle reti stradali INTERVISTE In esclusiva Anas e Commissione EU SPECIALISTI Norme, sicurezza e alta tecnologia
MONOGRAFICO
Numero dedicato alle reti stradali
INTERVISTE
In esclusiva Anas e Commissione EU
SPECIALISTI
Norme, sicurezza e alta tecnologia
- No tags were found...
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
46<br />
47 LS<br />
Nuovo tecno-umanesimo<br />
e “custodia dei custodi”<br />
Diventa chiaro che essere artefici dell’intelligence augmentation,<br />
creatori di sistemi con funzioni cognitivamente avanzate<br />
ed emulatrici del nostro muoverci su strada tra gli altri, con<br />
gli altri, porta in campo numerose valutazioni di carattere legale,<br />
sociale, etico e morale, sulle quali stanno lavorando accademici,<br />
politologi, sociologi e anche policy makers della fase<br />
regolamentare del nuovo traffico. Ne è un esempio l’evento<br />
ITU-WEF, “AI for Good 4 ”, svoltosi lo scorso ottobre, promosso<br />
da Bryn Balcombe, Danit Gal e Tim Dawkins. Nella parte dedicata<br />
all’intelligenza artificiale applicata ai sistemi automotive<br />
e self driving, il famoso dilemma del trolley (dal panel indicato<br />
come “The Molly Problem”, una bimba che attraversa<br />
inaspettatamente tagliando la strada a un veicolo selfdriving)<br />
è stato al centro del dibattito sulle reazione attese da sistemi<br />
intelligenti, e per inferenza, sui principi etici da ascrivere nelle<br />
derivazioni logaritmiche che gestiranno azione/reazione. Nella<br />
dinamica del traffico, di fronte al famoso dilemma del trolley, o<br />
all’evento inaspettato su strada che implicherebbe una scelta<br />
fondamentale vita/morte, quale sarà la decisione dell’intelligenza<br />
artificiale? In base a quali parametri etici, civici, morali<br />
- importati dal programmatore tra le righe algoritmiche impercettibili<br />
- avverrà la scelta di sterzare verso una direzione<br />
salvifica per uno o per tanti? Sull’evento ITU, anche la rivitutto<br />
d’altronde, quando ci si rapporta alla scala stratigrafica.<br />
Un Lidar oltre la siepe, si potrebbe dire, romanticamente, e prima<br />
che ne prendiamo consapevolezza, siamo già oltre, nella<br />
nuova era che ci vedrà alter ego e avatar di sistemi algoritmici<br />
avanzati, viaggiatori di veicoli autonomi/indipendenti, che,<br />
scevri dalle debolezze e fallibilità umane, tuteleranno la sicurezza<br />
su strada, forgiando una nuova mobilità, sicura, inclusiva,<br />
sostenibile. Il futuro dell’Agenda 2030 e oltre.<br />
Indubbiamente possibile, realizzabile, lo abbiamo visto negli<br />
ultimi decenni, siamo consapevoli che la tecnologia ci ha effettivamente<br />
portato oltre le mete immaginate. Sarà cosi anche<br />
con l'AI? Verosimilmente sì, ma, noi policy makers, siamo per<br />
il primum vivere, deinde philosophari. Prima gli aspetti pratici,<br />
e direi regolamentari, prima la vita quotidiana, poi si potrà<br />
indugiare e speculare sul vantaggio evolutivo che la potenza<br />
tecnologica ha portato .<br />
Lavorare sul binomio<br />
cognizione-esperienza<br />
La regolamentazione dell’interazione uomo-macchina (HMI) già<br />
complessa nei livelli di alta automazione, diviene ancora più articolata<br />
e difficile quando arriviamo a confrontarci con funzionalità<br />
di guida totalmente (giuridicamente) ascritte ai sistemi<br />
algoritmici, all’intelligenza artificiale. Tutta la funzione di guida,<br />
strategica, dinamica che sia, gestita in piena autonomia dall’intelligenza<br />
artificiale, sarà più sicura, eviterà l’errore umano. Non<br />
dubitiamo dell’evento quasi di logica sequenza, da programma.<br />
Ma perplessità sorgono quando si dovrà accertare la capacità -<br />
nei sistemi di AI predisposti alle funzioni di guida - di raggiungere<br />
lo stesso punto etico esperienzale dei guidatori umani, la<br />
previsione intuitiva su eventi probabili (palla che rimbalza in<br />
strada, l’eventualità euristica che sia seguita da un bambino), e<br />
così passare dal machine learning al deep learning, inglobando<br />
l’elaborazione cognitiva di Bruner e l’appredimento esperenziale<br />
di Kolb, per validare ogni accadimento secondo una responsabilità<br />
ben ascritta e verificabile. Non solo sensori e Lidar a breve e<br />
corto raggio per leggere la strada e gli ostacoli, algoritmi per le<br />
funzioni di guida dinamica, ma intelligenza artificiale a simulazione<br />
dell’intero processo cognitivo, elaborativo decisionale del<br />
cervello umano, per la classificazione di informazioni e l’identificazione<br />
di modelli real time, permettendo qualità e accuratezza<br />
delle risposte atte a influenzare le dinamiche al volante e<br />
nell'interazione con il traffico. Il tutto con affidabilità certificabile,<br />
omologabile, che generi certezza sulla responsabilità ascritta.<br />
Di questo dobbiamo essere sicuri, di questo dobbiamo veramente<br />
occuparci e preoccuparci come policy makers, perché la<br />
nuova mobilità deve portarci al vero benessere sociale, equo,<br />
inclusivo. Artificial Intelligence per il bene, for the social good.<br />
Tutto il resto è merchandising, marketing. Questa è l’ultima<br />
frontiera, dove confrontarsi per far sì che il futuro tecno<br />
digitale dell’automazione di per sé immaginifico<br />
e vasto, sia anche bello, socialmente<br />
buono. La sfida resta quindi nel delineare<br />
e muoversi sulla sottile linea rossa, nel<br />
profilare la responsabilità nelle varie<br />
fasi, l’individuazione certa dell’attore<br />
nel preciso momento, che significa<br />
poi riferirsi all’affidabilità certificata dei<br />
8<br />
6<br />
sistemi di guida che saranno chiamati ad assumersi/condividere<br />
la responsabilità della guida. Quindi questo non è che l’inizio,<br />
per trovare il punto preciso in cui etica, principi internazionalmente<br />
riconosciuti ed evoluzione tecnologica si incontrano per<br />
essere elemento validato fondante di una mobilità trasformativa,<br />
che deve anche avere insita la potenzialità di essere replicabile,<br />
condivisibile, in tutte le regioni del pianeta.<br />
6. IoT in self-driving<br />
7. Dal WP1 UNECE<br />
una risoluzione sul nuovo<br />
traffico con veicoli<br />
ad alta automazione<br />
8. AI, Machine Learning<br />
e Deep Learning<br />
4. https://aiforgood.itu.int/events/ai-safety-ethics-for-self-driving-introducing-themolly-problem/<br />
5. https://www.forbes.com/sites/lanceeliot/<strong>2020</strong>/10/14/on-the-hit-and-mayberun-self-driving-car-dilemma-akin-to-themolly-problem/?sh=521d7d724662<br />
7<br />
9<br />
9. AI for Goods<br />
sta Forbes 5 , grazie all’editorialista in AI Lance Eliot, ha puntato<br />
i riflettori per richiamare l’importanza di non dimenticare<br />
l’elemento umano nella corsa cibernetica. Il punto nevralgico<br />
è proprio questo. La vera ambizione trasformativa dell’uso<br />
dell’intelligenza artificiale deve risiedere non in una corsa commerciale,<br />
ma nella chiave etica di un nuovo tecno-umanesimo.<br />
Nel plasmare la nuova mobilità “intelligente”, vogliamo forgiare<br />
lo strumento abilitante e creativo del nuovo mondo solidale,<br />
inclusivo, che offra opportunità sostenibili e replicabili in tutte<br />
le aree del pianeta, e soprattutto in quelle svantaggiate. Non<br />
vogliamo generare la frattura digitale, un digital divide, acuendo<br />
il divario di sviluppo tra aree dove conviene investire o destinare<br />
un determinato tipo di prodotto ad alta tecnologia, e<br />
zone di esclusione, destinate a essere ramificazioni terminali<br />
sociali sempre più isolate, già mortificate da secoli in termini<br />
di trasporto, sicurezza stradale, accesso alle opportunità.<br />
Non solo intelligenza artificiale, quindi, ma anche armonizzazione<br />
attenta e condivisa dei principi che ne vengono a regolare<br />
lo sviluppo e l’applicazione. Un gioco di squadra, dove<br />
assume valore l’adagio latino “Quis custodiet custodes?” - chi<br />
custodirà i custodi - a dire, chi deciderà i principi morali etici,<br />
di riferimento sui quali gli algoritmi verranno “programmati”?<br />
Chi valuterà le linee etiche e morali che l’elaborazione<br />
quantistica potrà superare, tenere o non tenere da conto,<br />
quando si tratterà di fornire i parametri di procedura inferenziali<br />
a seconda del contesto e della situazione per agire? La<br />
comunità internazionale tutta ha indubbiamente l’onere di<br />
questa responsabilità.<br />
E forse un giorno arriveremo anche alla singularity, che<br />
Stephen Hawkings considerava perfino pericolosa e penalizzante<br />
per l’umanità, privata delle sue espressioni più alte<br />
di coscienza, logica e quindi resa mera parte infinitesimale<br />
nell’augmented life del futuro.<br />
Donare le regole al cielo del futuro<br />
Ma prima, ora, siamo ancora noi. Il cielo stellato sopra di me, la<br />
legge morale dentro di me, diceva Immanuel Kant. Predisponiamo<br />
quindi le applicazioni regolamentari proprie per favorire<br />
l’intelligenza artificiale applicata secondo valutazioni etiche<br />
e morali valide per rendere il mondo un posto migliore. Proprio<br />
per le generazioni umane che guarderanno il cielo stellato del<br />
futuro, per loro, non dobbiamo perdere la prospettiva eticoantropologica<br />
del progresso, la possibilità che abbiamo ora di<br />
privilegiare sviluppo e benessere diffuso con questo momento<br />
unico di Rinascimento tecnologico. nn<br />
Gli Specialisti<br />
Gli Specialisti<br />
12/<strong>2020</strong> leStrade