14.04.2020 Views

L’umanità prima della macchina

Principi guida per l’Intelligenza artificiale con responsabilità sociale

Principi guida per l’Intelligenza artificiale con responsabilità sociale

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

26 27<br />

3. Responsabilità etica e sociale<br />

4. Trasparenza e capacità di dialogo<br />

Risoluzione<br />

Nel design, sviluppo, introduzione e impiego di sistemi di<br />

IA viene esercitata la responsabilità sociale ed etica. Con i<br />

sistemi di IA si agisce in modo affidabile. Si applica il<br />

principio « Ethics by Design ».<br />

Motivazione<br />

I progettisti di IA hanno una responsabilità etica nell’elaborazione<br />

di sistemi di IA che si ripercuotono positivamente sulla<br />

società, sono conformi alle disposizioni giuridiche e soddisfano i<br />

nostri più elevati standard etici.<br />

Chi viene ritenuto responsabile delle conseguenze se le persone<br />

delegano le decisioni alle macchine? A causa di questa domanda<br />

gli specialisti si dichiarano contrari ai sistemi completamente<br />

autonomi e a favore di una persona nel circuito (loop). Altrimenti<br />

ci cederebbe la responsabilità etica per la progettazione<br />

sistemica.<br />

La responsabilità deve rimanere in capo all’uomo. È ciò che<br />

avviene già oggi, quando ad esempio guidiamo un’auto – non<br />

cambia nulla in termini di responsabilità. È necessario che<br />

esercitiamo il potere sulle macchine e vi è motivo di ritenere che<br />

saremo ancora in grado di farlo anche in un prossimo futuro.<br />

Risoluzione<br />

I sistemi di IA sono trasparenti, comprensibili, spiegabili e<br />

riconoscibili in quanto tali. I loro risultati sono riproducibili,<br />

rintracciabili e affidabili. I dati e i formati elaborati e<br />

risultanti sono interoperabili. Se le decisioni dei sistemi di<br />

IA riguardano le persone, esse hanno il diritto di contestare<br />

tali decisioni e farle verificare da una persona (« human<br />

review »).<br />

Motivazione<br />

Per avere fiducia nei sistemi intelligenti nella pratica quotidiana,<br />

servono sufficienti informazioni sul relativo funzionamento e<br />

sulle possibili conseguenze. I meccanismi del sistema devono<br />

essere trasparenti al fine di fornire informazioni per il proprio<br />

operato e per poter determinare autonomamente se e in<br />

che misura dargli fiducia. Gli elementi chiave di una catena<br />

di processo di tipo etico sono di conseguenza: informazione →<br />

trasparenza riconoscimento autodeterminazione<br />

fiducia. La fiducia è tanto più importante quanto più alto<br />

è il rischio.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!