L’umanità prima della macchina
Principi guida per l’Intelligenza artificiale con responsabilità sociale
Principi guida per l’Intelligenza artificiale con responsabilità sociale
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
26 27<br />
3. Responsabilità etica e sociale<br />
4. Trasparenza e capacità di dialogo<br />
Risoluzione<br />
Nel design, sviluppo, introduzione e impiego di sistemi di<br />
IA viene esercitata la responsabilità sociale ed etica. Con i<br />
sistemi di IA si agisce in modo affidabile. Si applica il<br />
principio « Ethics by Design ».<br />
Motivazione<br />
I progettisti di IA hanno una responsabilità etica nell’elaborazione<br />
di sistemi di IA che si ripercuotono positivamente sulla<br />
società, sono conformi alle disposizioni giuridiche e soddisfano i<br />
nostri più elevati standard etici.<br />
Chi viene ritenuto responsabile delle conseguenze se le persone<br />
delegano le decisioni alle macchine? A causa di questa domanda<br />
gli specialisti si dichiarano contrari ai sistemi completamente<br />
autonomi e a favore di una persona nel circuito (loop). Altrimenti<br />
ci cederebbe la responsabilità etica per la progettazione<br />
sistemica.<br />
La responsabilità deve rimanere in capo all’uomo. È ciò che<br />
avviene già oggi, quando ad esempio guidiamo un’auto – non<br />
cambia nulla in termini di responsabilità. È necessario che<br />
esercitiamo il potere sulle macchine e vi è motivo di ritenere che<br />
saremo ancora in grado di farlo anche in un prossimo futuro.<br />
Risoluzione<br />
I sistemi di IA sono trasparenti, comprensibili, spiegabili e<br />
riconoscibili in quanto tali. I loro risultati sono riproducibili,<br />
rintracciabili e affidabili. I dati e i formati elaborati e<br />
risultanti sono interoperabili. Se le decisioni dei sistemi di<br />
IA riguardano le persone, esse hanno il diritto di contestare<br />
tali decisioni e farle verificare da una persona (« human<br />
review »).<br />
Motivazione<br />
Per avere fiducia nei sistemi intelligenti nella pratica quotidiana,<br />
servono sufficienti informazioni sul relativo funzionamento e<br />
sulle possibili conseguenze. I meccanismi del sistema devono<br />
essere trasparenti al fine di fornire informazioni per il proprio<br />
operato e per poter determinare autonomamente se e in<br />
che misura dargli fiducia. Gli elementi chiave di una catena<br />
di processo di tipo etico sono di conseguenza: informazione →<br />
trasparenza riconoscimento autodeterminazione<br />
fiducia. La fiducia è tanto più importante quanto più alto<br />
è il rischio.