syndicom rivista N.32
Da molto tempo ci impegniamo per i diritti dei lavoratori della logistica, delle telecomunicazioni e dei media. Le buone condizioni di lavoro sono, e sono sempre state, il risultato di successi raggiunti insieme. Entra anche tu nel nostro movimento e crea il tuo futuro insieme a noi. L'unione fa la forza!
Da molto tempo ci impegniamo per i diritti dei lavoratori della logistica, delle telecomunicazioni e dei media. Le buone condizioni di lavoro sono, e sono sempre state, il risultato di successi raggiunti insieme. Entra anche tu nel nostro movimento e crea il tuo futuro insieme a noi. L'unione fa la forza!
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
10 Dossier<br />
e i big data, l’intelligenza artificiale e le reti neurali, la robotica<br />
e il profiling sono opportunità, ma contengono anche<br />
rischi.<br />
Ovviamente non è un concetto sbagliato, e proprio per<br />
questo è una frase terribilmente stupida. Perché tutto dipende<br />
da chi controlla queste tecnologie, da cosa ne fa e<br />
dalle regole sociali che vengono applicate. Nel mondo capitalista,<br />
nelle mani di società globali come i GAFAM e di<br />
governi repressivi, sono simili ad armi di distruzione di<br />
massa.<br />
In parole povere: un algoritmo non è razzista di sua iniziativa.<br />
Ma può essere programmato per essere razzista.<br />
Questo è ciò che hanno vissuto decine di migliaia di famiglie<br />
olandesi allorché un algoritmo ha distrutto i loro mezzi<br />
di sostentamento accusandole di frode sociale. Sebbene<br />
ciò fosse palesemente sbagliato nel 94 per cento dei<br />
casi, come si scoprì anni dopo, si è arrivati a decreti d’accusa<br />
automatici e a mostruose richieste di risarcimento.<br />
Inoltre, si è arrivati all’interruzione immediata di assegni<br />
familiari, contributi per l’affitto, indennità di malattia,<br />
sussidi di disoccupazione, assistenza sociale ecc. Alcune<br />
famiglie sono state sfrattate, altre sono state separate. E<br />
poi si è scoperto che a essere particolarmente colpiti dalle<br />
misure erano migranti e madri single con nomi africani o<br />
arabi. Se sei nel mirino di un algoritmo, è meglio che non<br />
Se ti chiami Leila,<br />
meglio che tu<br />
non sia nel mirino<br />
di un algoritmo<br />
ti chiami Leila. Le obiezioni sono state immediatamente<br />
respinte: l’algoritmo ha sempre ragione, perché è matematica.<br />
I debiti fittizi sono stati riscossi senza pietà. Alcune<br />
persone colpite si sono tolte la vita. Questo avversario<br />
è invisibile, non discute con voi, non deve dimostrare nulla.<br />
Kafkiano.<br />
Allorché lo scandalo è arrivato in Parlamento, il governo<br />
si è giustificato con «errori di programmazione». Uno<br />
sfortunato caso particolare, forse dovuto a un programmatore<br />
malintenzionato? Sciocchezze. Piuttosto, una logica<br />
sistemica è evidente in centinaia di situazioni di questo<br />
tipo in molti Paesi e in tutti i settori. La metà inferiore<br />
della società e i migranti sono regolarmente discriminati<br />
dagli algoritmi quando si tratta di domande di lavoro, domande<br />
di crediti, libertà vigilata, assegnazione di posti di<br />
studio e formazione, lavoro di polizia preventiva, assicurazioni<br />
sociali. L’IA, così come viene attualmente utilizzata,<br />
è verosimilmente uno specchio fedele della politica neoliberale.<br />
Per una IA sociale<br />
Si tratta di una sfida immensa per la società. L’intelligenza<br />
artificiale può essere utile. Per le cure mediche. Per evitare<br />
disastri ecologici. Per tutte le forme di uguaglianza.<br />
Per un servizio pubblico efficiente. Anche per un lavoro<br />
migliore. Ma per questo, gli algoritmi dovrebbero essere<br />
più trasparenti e sottratti al beneficio esclusivo dei grandi<br />
gruppi.<br />
L’umanità prima della macchina: il dossier di <strong>syndicom</strong><br />
sull’intelligenza artificiale