14.04.2020 Views

L’humain avant la machine

Principes directeurs pour une intelligence artificielle avec responsabilité sociale

Principes directeurs pour une intelligence artificielle avec responsabilité sociale

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Ça c’est syndicom!<br />

syndicom est <strong>la</strong> force syndicale déterminante dans <strong>la</strong> branche TIC.<br />

Notre syndicat défend aussi une économie soucieuse des besoins<br />

des travailleuses et travailleurs. Il négocie des conventions collectives<br />

de travail, travaille étroitement avec les représentations du personnel<br />

et influe sur <strong>la</strong> légis<strong>la</strong>tion pour obtenir de meilleures conditions de<br />

travail et une meilleure protection de ses membres.<br />

Par ton affiliation, tu bénéficies en outre des prestations suivantes:<br />

– Protection juridique professionnelle: informations et conseils<br />

gratuits sur toutes les questions liées aux conditions et rapports<br />

de travail, aux assurances sociales, au droit contractuel, au droit<br />

de participation et à l’égalité.<br />

– Formation continue et perfectionnement: participation gratuite<br />

à des cours «Movendo» dans le domaine de <strong>la</strong> formation continue<br />

syndicale et professionnelle. Soutien financier à <strong>la</strong> formation<br />

continue et au perfectionnement.<br />

– Conditions préférentielles et rabais attrayants pour les<br />

membres de syndicom.<br />

syndicom – le syndicat de ta branche:<br />

inscris-toi dès aujourd’hui!<br />

www.syndicom.ch<br />

<strong>L’humain</strong><br />

<strong>avant</strong> <strong>la</strong> <strong>machine</strong><br />

Principes directeurs pour<br />

une intelligence artificielle<br />

avec responsabilité sociale


<strong>L’humain</strong> <strong>avant</strong><br />

<strong>la</strong> <strong>machine</strong><br />

Principes directeurs pour<br />

une intelligence artificielle<br />

avec responsabilité sociale<br />

Importance économique, défi social,<br />

responsabilité humaine


« Dans <strong>la</strong> vie, rien n’est à craindre,<br />

tout est à comprendre. »<br />

Maria Salomea Sk odowska Curie (Marie Curie)<br />

Physicienne, chimiste, prix Nobel<br />

1867–1934


Table des matières<br />

6<br />

12<br />

22<br />

38<br />

68<br />

70<br />

PRÉFACE<br />

DÉFIS<br />

Opportunités et risques de l’intelligence artificielle<br />

RÉSOLUTION<br />

Les neuf principes directeurs concernant l’intelligence artificielle<br />

LEXIQUE IA<br />

De A à Z<br />

CONCLUSION ET PERSPECTIVE<br />

BIBLIOGRAPHIE


6 7<br />

PRÉFACE<br />

Humain ou <strong>machine</strong> ?<br />

La Suisse connaît une mutation numérique.<br />

Elle est en pleine transformation<br />

: le syndicat syndicom et ses<br />

membres sont eux aussi concernés.<br />

L’avenir numérique de l’économie et de <strong>la</strong> société est un sujet<br />

central du syndicat syndicom :<br />

– Au secteur TIC, un manifeste « Pour une Suisse numérique avec<br />

responsabilité sociale » a été adopté fin 2016.<br />

– A son assemblée des délégué-e-s de 2016, syndicom a adopté<br />

treize thèses sur <strong>la</strong> numérisation, qui ont donné lieu à <strong>la</strong><br />

brochure « Comment nous définissons le travail 4.0 » et<br />

finalement au papier du congrès 2017.<br />

– En 2017 également, syndicom a pu présenter les résultats de<br />

l’étude nationale sur le crowdworking en Suisse.<br />

– Cette brochure constitue désormais le prochain document de<br />

base sur l’avenir numérique, axé sur l’intelligence artificielle<br />

(IA). Le 1er novembre 2019, lors d’une conférence nationale<br />

sur l’intelligence artificielle et l’éthique, les membres de<br />

syndicom du secteur TIC ont adopté une nouvelle résolution,<br />

dont les principes directeurs sont au cœur de <strong>la</strong> présente<br />

brochure.<br />

Pourquoi l’IA ? Nous en savons encore re<strong>la</strong>tivement peu sur<br />

l’intelligence artificielle (IA), mais elle gagne en importance<br />

dans notre vie quotidienne et dans le monde professionnel.<br />

L’IA est le moteur essentiel de <strong>la</strong> numérisation omniprésente.<br />

Et elle conduira tôt ou tard à de profonds changements dans<br />

l’économie et <strong>la</strong> société, y compris dans <strong>la</strong> branche TIC en<br />

Suisse. Le potentiel est déjà considérable aujourd’hui :<br />

– Des entreprises telles que Swisscom ainsi que des sociétés<br />

informatiques peuvent développer des applications d’IA et<br />

les rendre accessibles aux PME dans le cloud quand celles-ci<br />

manquent de ressources pour en développer elles-mêmes.<br />

– Pour les entreprises de <strong>la</strong> branche Infrastructure de réseau,<br />

<strong>la</strong> réalité augmentée et les composants d’autodiagnostic et<br />

d’autoréparation modifient fondamentalement <strong>la</strong> façon<br />

dont les réseaux sont installés et entretenus.<br />

– Dans les centres de contact et d’appels, des chatbots sont<br />

utilisés pour répondre aux questions de plus en plus complexes<br />

des clients.<br />

Dans ce contexte, des questions inédites se posent à <strong>la</strong> popu<strong>la</strong>tion<br />

suisse :<br />

– Quelles sont les conséquences de l’évolution technologique<br />

pour <strong>la</strong> politique, <strong>la</strong> légis<strong>la</strong>tion et <strong>la</strong> société ?<br />

– Que signifie l’évolution technologique pour le service public<br />

en particulier ?<br />

– Comment défendre des principes éthiques alors qu’un nombre<br />

grandissant de décisions sont prises par des algorithmes ?<br />

– Comment nous défendre contre des tentatives visant à<br />

opprimer des groupes de popu<strong>la</strong>tion à l’aide d’analyses et<br />

d’algorithmes basés sur des données ?


8 9<br />

– Comment garantir que les employé-e-s d’aujourd’hui puissent<br />

se servir de <strong>la</strong> technologie de demain ?<br />

– Comment organiser le travail dans un monde numérique, afin<br />

qu’il ait un sens et permette de vivre correctement ?<br />

– Ou de manière générale : comment s’assurer que <strong>la</strong> <strong>machine</strong><br />

serve les individus – et non l’inverse ?<br />

Ce sont là des questions que <strong>la</strong> politique suisse doit également<br />

aborder et qui sont particulièrement importantes pour le<br />

partenariat social. Le secteur TIC chez syndicom a un rôle<br />

pionnier à jouer à cet égard. Lors des dernières négociations<br />

CCT, nous sommes parvenus à développer des conditions-cadres<br />

importantes dans le contexte de <strong>la</strong> numérisation comme un<br />

droit à <strong>la</strong> non-joignabilité dans <strong>la</strong> dynamique de décloisonnement<br />

des espaces et temps de travail, le droit à <strong>la</strong> formation continue<br />

et au perfectionnement, <strong>la</strong> protection étendue de <strong>la</strong> sphère<br />

privée des employé-e-s au travail, et un code de conduite pour<br />

une p<strong>la</strong>teforme de crowdwork.<br />

Mais ce n’est que le début. Il reste à aborder de nombreuses<br />

nouvelles questions éthiques avec nos partenaires sociaux, par<br />

exemple lors des prochaines négociations sur les conventions<br />

collectives de travail. Ce sont des questions auxquelles le<br />

syndicat syndicom et ses membres sont bien préparés, également<br />

grâce à cette brochure.<br />

Giorgio Pardini,<br />

Responsable du secteur TIC au syndicat syndicom


L’intelligence artificielle …<br />

… décrit des applications informatiques, dont<br />

le but est de montrer un comportement intelligent<br />

et humain. Pour y parvenir, certaines compétences<br />

de base sont requises dans des proportions<br />

différentes : percevoir, comprendre, agir et<br />

apprendre. Ces quatre compétences de base<br />

représentent <strong>la</strong> plus grande simplification<br />

possible d’un modèle d’IA moderne : percevoir –<br />

comprendre – agir étendent le principe de base<br />

de tous les systèmes informatiques : entrée –<br />

traitement – sortie. Ce qui est vraiment nouveau,<br />

c’est l’apprentissage et <strong>la</strong> compréhension. Les<br />

« véritables » systèmes d’IA ont aujourd’hui en<br />

commun qu’ils sont également entraînés à <strong>la</strong><br />

composante de traitement et qu’ils peuvent donc<br />

apprendre et obtenir de meilleurs résultats que<br />

des processus c<strong>la</strong>ssiques basés sur des règles<br />

rigides, c<strong>la</strong>irement définies et bien programmées.


12 13<br />

Opportunités et risiques<br />

L’avenir de l’intelligence<br />

artificielle<br />

Quel enjeu pour les personnes<br />

qui travaillent<br />

L’avenir est humain<br />

L’utilisation de l’IA comporte de<br />

nombreuses opportunités, comme les<br />

exemples suivants le montrent.<br />

Un débat public informatif et éc<strong>la</strong>iré s’impose sur les opportunités<br />

et les risques de l’intelligence artificielle (IA). La question<br />

se pose également de savoir comment <strong>la</strong> société peut surmonter<br />

au mieux un déclin de l’emploi dans certains groupes professionnels<br />

par <strong>la</strong> création simultanée de profils professionnels<br />

totalement nouveaux.<br />

Écologie : <strong>la</strong> crise climatique ne se <strong>la</strong>isse pas surmonter sans<br />

l’IA. Les technologies numériques peuvent contribuer de<br />

manière significative à faire progresser <strong>la</strong> protection de l’environnement,<br />

des ressources et du climat, et à préserver <strong>la</strong><br />

biodiversité en rendant l’air, le sol et l’eau plus propres. Dans<br />

les « villes intelligentes », par exemple, où l’IA lie des données,<br />

elle assume le rôle d’offrir à <strong>la</strong> popu<strong>la</strong>tion une qualité de vie<br />

élevée tout en minimisant simultanément <strong>la</strong> consommation<br />

des ressources. En même temps, les multiples opportunités<br />

offertes par les innovations basées sur l’IA impliquent une<br />

responsabilité pour garder à l’esprit de potentiels risques tels<br />

que <strong>la</strong> consommation croissante d’énergie, les effets de rebond<br />

(si le potentiel d’économie des gains d’efficacité ne peut<br />

être réalisé ou ne le peut être que partiellement) ou <strong>la</strong> sécurité<br />

des ressources.<br />

Santé : l’IA soutient les médecins et les radiologues dans<br />

le diagnostic du cancer et des ma<strong>la</strong>dies rares. Une comparaison<br />

entre l’humain et <strong>la</strong> <strong>machine</strong> montre que l’algorithme établit<br />

le bon diagnostic dans 90% des cas, alors que les radiologues<br />

ne font le bon diagnostic que dans <strong>la</strong> moitié des cas. Grâce à<br />

l’IA, les personnes aveugles peuvent à nouveau reconnaître les<br />

émotions de leurs semb<strong>la</strong>bles et percevoir ce qui se passe dans


14 15<br />

leur environnement. Les personnes sourdes et muettes ont<br />

<strong>la</strong> possibilité d’é<strong>la</strong>rgir considérablement leur champ d’action –<br />

l’intégration de services de traduction avec un avatar en <strong>la</strong>ngue<br />

des signes rend cette opération possible. Les scientifiques<br />

développent le cockpit chirurgical, un système d’assistance<br />

complet qui surveille tous les processus de travail en salle<br />

d’opération et assiste les chirurgiennes et chirurgiens – de<br />

l’analyse des informations aux décisions thérapeutiques, en<br />

passant par <strong>la</strong> mise en œuvre de <strong>la</strong> thérapie.<br />

Sécurité IT : les départements informatiques des entreprises<br />

comptent parmi les utilisateurs les plus importants de l’IA dans<br />

le monde. Ils utilisent l’intelligence artificielle pour surveiller<br />

<strong>la</strong> sécurité des systèmes informatiques, détecter et prévenir des<br />

attaques potentielles de pirates informatiques. Des solutions<br />

d’IA analysent des schémas de comportement, automatiquement<br />

et à toute heure du jour et de <strong>la</strong> nuit, pour en tirer des enseignements.<br />

Si des processus suspects et des menaces éventuelles<br />

sont découverts, les administratrices et administrateurs<br />

informatiques reçoivent des notifications d’a<strong>la</strong>rme et peuvent<br />

alors prendre des contre-mesures. Les fournisseurs de sécurité<br />

avancée utilisent le deep learning pour parer aux logiciels<br />

malveil<strong>la</strong>nts et aux cyberattaques jusqu’alors inconnus. Ils<br />

soutiennent des organismes publics, des entreprises dans le<br />

secteur de <strong>la</strong> santé et des prestataires de services financiers<br />

qui posent des exigences particulièrement élevées en matière<br />

de sécurité de leurs systèmes informatiques. <strong>L’humain</strong> se<br />

concentre sur <strong>la</strong> gestion de <strong>la</strong> qualité des données et le traitement<br />

des fausses a<strong>la</strong>rmes.<br />

Recrutement : les chatbots facilitent le recrutement de personnel.<br />

Ils sont utilisés pour répondre aux questions de potentiels<br />

candidat-e-s au sujet de postes annoncés. Les <strong>avant</strong>ages de<br />

ces solutions sont évidents : les responsables RH peuvent se<br />

concentrer sur les candidat-e-s les plus intéressés.<br />

Marché du travail : dans les secteurs où <strong>la</strong> main-d’œuvre se<br />

fait très rare, <strong>la</strong> croissance par <strong>la</strong> robotique devient possible.<br />

Dans de nombreux domaines de <strong>la</strong> vie, tels que les soins aux<br />

personnes âgées et les services de santé, il manque de <strong>la</strong><br />

main-d’œuvre pour couvrir <strong>la</strong> demande croissante. Ici, les robots<br />

doivent répondre aux besoins en soins par <strong>la</strong> prise en charge<br />

de tâches routinières. Le vieillissement de <strong>la</strong> société accroîtra <strong>la</strong><br />

demande de robotique dans les années à venir.


16 17<br />

Le contrôle se perd<br />

L’utilisation de l’IA comporte<br />

aussi des risques, comme les cinq<br />

exemples suivants le montrent.<br />

Démocratie : tout ce qui peut être effectué au moyen de<br />

routines de décision c<strong>la</strong>irement définies sera tôt ou tard<br />

exécutable à l’aide de grands pools de données et d’algorithmes.<br />

Mais a-t-on encore affaire à des décisions ? Ou plutôt à des<br />

routines intelligentes ? Cette question, loin d’être uniquement<br />

conceptuelle, est importante au vu de notre manière d’envisager<br />

les décisions humaines et en termes de valeur que nous accordons<br />

aux individus comme décideurs et souverains. Le plus<br />

grand défi dans une société démocratique tient au fait que les<br />

processus et les routines de prise de décision sociaux – y c.<br />

l’information et <strong>la</strong> communication préparées, accompagnées ou<br />

commentées – se réajustent avec l’utilisation généralisée du<br />

big data et de l’IA.<br />

Fake news : dernièrement, le thème des fake news a fait l’objet<br />

de discussions intenses, y compris au niveau des nouvelles lois<br />

contre leur diffusion. En particulier après les élections présidentielles<br />

américaines en 2016, l’inquiétude a grandi de voir les<br />

médias sociaux propager des nouvelles mensongères et influencer<br />

ainsi les processus démocratiques tels que les élections ou les<br />

référendums. Un article sur <strong>la</strong> société Cambridge Analytica, qui<br />

a voulu exercé une forte influence en faveur de Trump via des<br />

analyses granu<strong>la</strong>ires de groupes cibles sur Facebook, a d’abord<br />

donné lieu à beaucoup d’agitation, puis s’est ensuite avéré<br />

c<strong>la</strong>irement exagéré.<br />

Censure et contrôle : le progrès technologique a eu un effet<br />

c<strong>la</strong>irement négatif sur <strong>la</strong> liberté d’information et d’opinion en ce<br />

sens que les mesures é<strong>la</strong>rgies de censure et de surveil<strong>la</strong>nce<br />

incluent des données biométriques (par exemple, les systèmes<br />

de reconnaissance faciale). La possibilité de pénétrer dans de<br />

nombreux systèmes par des portes dérobées et des exploits est<br />

utilisée non seulement par les services secrets, mais aussi par<br />

des institutions répressives et de censure dans les pays autoritaires<br />

et, finalement, par des personnes criminelles.<br />

Marché du travail : le big data et l’IA auront pour conséquence<br />

que de nombreuses activités ne seront plus demandées sur<br />

le marché du travail. C’est certain. Quant à savoir lesquelles et<br />

dans quelle proportion, à quelle vitesse et à quel endroit,<br />

les pronostics sont très différents. Il n’est donc pas possible<br />

d’établir un masterp<strong>la</strong>n détaillé de l’IA pour le marché du<br />

travail. Toutefois, certaines tendances sont prévisibles : les<br />

groupes professionnels dans lesquels de nombreux employé-e-s<br />

se croyaient en sécurité en tant que travailleuses et travailleurs<br />

du savoir du savoir sont aussi touchés. Ces groupes professionnels<br />

– du traitement de dossiers à l’audit – sont actuellement en<br />

point de mire. L’IA est particulièrement efficace lorsqu’il s’agit<br />

d’effectuer des tâches routinières, d’apprendre progressivement<br />

de celles-ci et d’entraîner des activités plus complexes. Les<br />

emplois comportant de telles tâches sont menacés, en particulier<br />

dans le secteur des bas sa<strong>la</strong>ires, où des activités répétitives<br />

sont souvent exécutées. Cependant, même les emplois de<br />

bureau ne sont pas épargnés si des tâches peuvent être accom-


18 19<br />

plies par l’IA plus rapidement et à moindre coût. Les emplois<br />

déjà externalisés à l’étranger pour des raisons de prix sont<br />

<strong>avant</strong> tout menacés. Il s’agit surtout de milliers de postes de<br />

compliance dans les grandes banques, parce qu’elles recourront<br />

de plus en plus à l’IA pour maîtriser les changements dans<br />

l’environnement réglementaire.<br />

Responsabilité : l’IA peut représenter une tentative de vivre<br />

<strong>la</strong> réticence de l’être humain à assumer ses responsabilités par<br />

un transfert de responsabilité à l’IA.<br />

Bi<strong>la</strong>n : Il faut des<br />

règles contraignantes<br />

syndicom reconnaît le potentiel de l’intelligence artificielle (IA)<br />

pour le progrès social à condition que l’IA soit utilisée en faveur<br />

des individus. syndicom participe activement au discours social,<br />

afin que le bien-être des individus occupe <strong>la</strong> première p<strong>la</strong>ce<br />

lorsque des systèmes IA sont conçus, développés, introduits et<br />

utilisés.<br />

L’interaction entre les humains et le système d’IA offre une<br />

opportunité de repenser et de redéfinir <strong>la</strong> re<strong>la</strong>tion des domaines<br />

de vie entre eux, notamment en ce qui concerne une réduction<br />

significative du temps de travail sans perte de revenu. La<br />

technologie n’est jamais neutre, mais elle est produite dans un<br />

contexte économique, social, culturel et politique. Afin d’exploiter<br />

les possibilités de l’IA tout en minimisant les risques qui<br />

y sont associés, syndicom compte réglementer le développement<br />

et l’application de l’IA d’une manière contraignante. Les<br />

principes directeurs suivants de <strong>la</strong> résolution AI constituent un<br />

début.


22 23<br />

Résolution<br />

1. Autonomie et contrôle<br />

Neuf principes directeurs<br />

de l’IA pour un avenir humain<br />

Comment exploiter les opportunités<br />

et écarter les risques.<br />

Résolution<br />

Les systèmes d’intelligence artificielle servent l’individu et<br />

son autonomie, mais aussi <strong>la</strong> société et <strong>la</strong> p<strong>la</strong>nète, à condition<br />

que l’humain reste maître de <strong>la</strong> <strong>machine</strong> à tout moment.<br />

Les systèmes d’IA n’ont donc pas une personnalité juridique<br />

propre – les individus continuent d’assumer <strong>la</strong> responsabilité.<br />

La dignité humaine est respectée.<br />

Développement<br />

La re<strong>la</strong>tion homme-<strong>machine</strong> se transforme : un changement de<br />

paradigme qui évolue vers un modèle de partenariat prend<br />

p<strong>la</strong>ce. Le but des systèmes intelligents est de nous décharger.<br />

Ils peuvent assumer cette fonction parce qu’ils sont capables<br />

d’appréhender leur environnement, disposent d’une mémoire et<br />

agissent de manière autonome. L’individu ne domine plus le<br />

système, mais interagit avec lui. Afin d’éviter des effets paternalistes<br />

par le biais de décisions automatisées, qui limitent <strong>la</strong><br />

liberté d’action de l’être humain, un contrôle permanent du<br />

système et des possibilités d’intervention dans le système sont<br />

nécessaires. Pour les utilisateurs, il s’agit de comprendre<br />

comment des systèmes intelligents sont développés et entraînés.<br />

Des processus décisionnels particulièrement responsables – par<br />

exemple en matière de contrôle autonome des véhicules ou de<br />

diagnostic médical – devraient être conçus de telle sorte que <strong>la</strong><br />

compétence décisionnelle finale incombe aux acteurs responsables,<br />

et ce jusqu’à ce que <strong>la</strong> qualité de l’IA atteigne un niveau<br />

accepté par tous les participants. Dans les processus d’approbation<br />

pour des véhicules autonomes, par exemple, l’autonomie<br />

n’est étendue que par petites étapes.


24 25<br />

2. Droits humains et droits fondamentaux<br />

Résolution<br />

Les systèmes d’IA font l’objet d’une procédure de vérification<br />

(procédure diligente) appropriée. La liberté et les droits<br />

humains ainsi que les principes de l’État de droit et démocratiques<br />

sont protégés, respectés et accompagnés de mécanismes<br />

correctifs. Les systèmes d’IA sont conformes aux<br />

règles définies par l’être humain et <strong>la</strong> loi. Les distorsions et<br />

les préjugés ainsi que <strong>la</strong> discrimination sont minimisés dans<br />

les systèmes d’IA et dans leurs résultats. L’égalité, <strong>la</strong><br />

non-discrimination et <strong>la</strong> solidarité sont le fil conducteur de<br />

l’action. Dans le développement des systèmes d’IA, <strong>la</strong><br />

diversité du personnel dans le développement est respectée<br />

et promue.<br />

Développement<br />

Nous croyons en une approche de l’éthique IA fondée sur les<br />

droits fondamentaux prévus par <strong>la</strong> légis<strong>la</strong>tion internationale<br />

re<strong>la</strong>tive aux droits de l’homme. Le respect des droits fondamentaux<br />

dans le cadre de <strong>la</strong> démocratie et de l’État de droit constitue<br />

<strong>la</strong> base <strong>la</strong> plus favorable pour définir des valeurs et des<br />

principes éthiques et abstraits, qui peuvent être concrétisés<br />

dans le contexte de l’IA.<br />

différents groupes de popu<strong>la</strong>tion). Ce<strong>la</strong> exige également un<br />

respect adéquat des personnes et des groupes potentiellement<br />

fragilisés, par exemple les employés, les femmes, les personnes<br />

souffrant d’un handicap, les minorités ethniques, les enfants,<br />

les consommateurs ou d’autres groupes exposés à l’exclusion.<br />

C’est pourquoi <strong>la</strong> diversité des développeurs est si importante.<br />

Les processus politiques, c’est-à-dire le type de communication<br />

<strong>avant</strong>, pendant et après des décisions collectivement contraignantes,<br />

constituent un moyen particulier de créer une légitimité.<br />

La possibilité de s’informer et le droit d’exprimer son propre<br />

opinion jouent un rôle important dans notre compréhension<br />

des processus démocratiques. Cette question est abordée par <strong>la</strong><br />

numérisation et, plus récemment, par l’entrée de l’IA dans les<br />

applications de masse. Les assistants numériques influencent les<br />

informations que nous recevons et nous aident à formuler nos<br />

propres opinions et pensées. Les algorithmes jouent également<br />

un rôle dans <strong>la</strong> diffusion des nouvelles et peuvent avoir une<br />

incidence sur le choix de sujets dans le discours public.<br />

Il faut accorder à toutes les personnes le même respect de leur<br />

valeur morale et de leur dignité. Cette exigence va au-delà<br />

de <strong>la</strong> non-discrimination, qui tolère des distinctions entre des<br />

situations dissemb<strong>la</strong>bles sur <strong>la</strong> base de justifications objectives.<br />

Dans un contexte lié à l’IA, l’égalité signifie que le système<br />

ne doit pas fournir des résultats injustement biaisés (par<br />

exemple, les données utilisées pour ajuster les systèmes d’IA<br />

doivent être aussi inclusives que possible et représenter


26 27<br />

3. Responsabilité éthique et sociale<br />

4. Transparence et interopérabilité<br />

Résolution<br />

La responsabilité éthique et sociale est assumée dans <strong>la</strong><br />

conception, le développement, l’introduction et l’utilisation<br />

des systèmes d’IA. Les systèmes d’IA sont gérés de manière<br />

fiable. Le principe «Ethics by design» s’applique.<br />

Développement<br />

Les concepteurs d’IA ont <strong>la</strong> responsabilité éthique de concevoir<br />

des systèmes d’IA qui ont un impact positif sur <strong>la</strong> société,<br />

respectent les exigences légales et répondent à nos normes<br />

éthiques les plus élevées.<br />

Qui est rendu responsable des conséquences lorsque des<br />

décisions sont déléguées aux <strong>machine</strong>s ? Cette question amène<br />

les experts à condamner des systèmes complètement autonomes.<br />

Faute de quoi, on se soustrairait à notre responsabilité<br />

éthique en matière de conception de systèmes.<br />

L’être humain reste responsable. C’est déjà le cas aujourd’hui,<br />

par exemple lorsque nous conduisons une voiture – rien ne<br />

changera au niveau de <strong>la</strong> responsabilité. Il est nécessaire que<br />

nous exercions notre pouvoir sur les <strong>machine</strong>s. Et tout porte à<br />

croire que nous serons encore en mesure de le faire dans un<br />

avenir proche.<br />

Résolution<br />

Les systèmes d’IA sont transparents, compréhensibles,<br />

explicables et reconnaissables comme tels. Leurs résultats<br />

sont reproductibles, traçables et fiables. Les données traitées<br />

et les formats qui en résultent sont capables de dialoguer<br />

(interopérables). Si les décisions des systèmes d’IA<br />

concernent des personnes, celles-ci ont le droit de contester<br />

ces décisions et de les faire examiner par un être humain<br />

(«human review»).<br />

Développement<br />

Afin de gagner <strong>la</strong> confiance dans des systèmes intelligents dans<br />

<strong>la</strong> pratique quotidienne, il faut disposer d’informations suffisantes<br />

sur leur fonctionnalité et leurs conséquences possibles.<br />

Les mécanismes du système doivent être transparents afin<br />

d’en tirer des conséquences pour ses propres actions et déterminer<br />

si et dans quelle mesure on peut leur faire confiance. Les<br />

éléments clés d’une chaîne de processus orientée vers l’éthique<br />

sont donc : l’information <strong>la</strong> transparence le constat<br />

l’autodétermination <strong>la</strong> confiance. Plus le risque est élevé,<br />

plus il est important de pouvoir faire confiance.


28 29<br />

5. Documentation et responsabilité<br />

Résolution<br />

Les systèmes d’IA contiennent une «boîte noire éthique»<br />

qui enregistre les données traitées par le système.<br />

Les employeurs qui utilisent des systèmes d’IA sont tenus<br />

d’analyser et d’évaluer les systèmes et d’en rendre compte.<br />

En outre, les autorités et le monde scientifique ont un<br />

accès légal aux algorithmes et aux données utilisés par des<br />

systèmes d’IA.<br />

Développement<br />

Des dispositions doivent être prises pour assurer <strong>la</strong> responsabilité<br />

et l’obligation de rendre compte sur les systèmes d’IA et leurs<br />

résultats <strong>avant</strong> et après leur mise en œuvre.<br />

La vérifiabilité signifie que les algorithmes, les données et le<br />

processus de conception peuvent être soumis à une évaluation.<br />

Ce<strong>la</strong> ne signifie pas pour autant que l’information sur les<br />

modèles commerciaux et <strong>la</strong> propriété intellectuelle liés au<br />

système d’IA doit toujours être accessible au public. L’évaluation<br />

des systèmes d’IA par des contrôles internes et externes et <strong>la</strong><br />

mise à disposition de ces rapports d’évaluation peuvent contribuer<br />

de manière significative à <strong>la</strong> fiabilité de <strong>la</strong> technologie. La<br />

vérifiabilité externe devrait être assurée, en particulier pour les<br />

applications qui ont une incidence sur les droits fondamentaux,<br />

ainsi que pour les applications critiques pour <strong>la</strong> sécurité.<br />

Il devrait être possible de rendre compte des actions ou des<br />

décisions qui contribuent à l’obtention d’un certain résultat du<br />

système et de réagir aux conséquences de ce résultat. Les<br />

personnes concernées attachent de l’importance à ce que les<br />

impacts négatifs potentiels des systèmes d’IA puissent être<br />

identifiés, évalués, notifiés et minimisés. Une protection<br />

adéquate doit être assurée aux <strong>la</strong>nceurs d’alerte, aux organisations<br />

non gouvernementales, aux syndicats et aux autres<br />

organismes qui expriment des préoccupations légitimes concernant<br />

un système fondé sur l’IA. Afin de minimiser les impacts<br />

négatifs, il peut être utile d’avoir recours à des analyses<br />

d’impact (par exemple, le « red teaming » ou des formes d’évaluation<br />

algorithmique de l’impact) <strong>avant</strong> et pendant le développement,<br />

<strong>la</strong> mise en œuvre et l’utilisation des systèmes d’IA.<br />

Ces évaluations doivent être dans un rapport proportionnel au<br />

risque que posent les systèmes d’IA.


30 31<br />

7. Partenariat social et codécision<br />

6. Robustesse, sécurité et protection<br />

des employé-e-s<br />

Résolution<br />

Il existe une politique responsable en matière de données<br />

qui établit des règles efficaces pour <strong>la</strong> sécurité des données,<br />

<strong>la</strong> protection des données, <strong>la</strong> vie privée et l’autodétermination<br />

informationnelle. De plus, chaque système AI dispose d’un<br />

«interrupteur d’arrêt d’urgence». Le principe de <strong>la</strong> prévention<br />

du dommage figure au premier p<strong>la</strong>n.<br />

Développement<br />

Les systèmes d’IA doivent assurer <strong>la</strong> protection de <strong>la</strong> sphère<br />

privée et des données à toutes les étapes du cycle de vie d’un<br />

système. A savoir aussi pour les informations fournies initialement<br />

par les utilisateurs et pour celles générées à leur sujet<br />

au cours de l’interaction avec le système (p. ex. résultats<br />

générés par le système d’IA pour des utilisateurs spécifiques<br />

ou réaction des utilisateurs à des recommandations spécifiques).<br />

A partir des enregistrements numériques du comportement<br />

humain, les systèmes d’IA peuvent déduire non seulement les<br />

préférences personnelles des individus, mais aussi l’orientation<br />

sexuelle, l’âge et le sexe, et les points de vue religieux ou<br />

politiques. Pour que les personnes aient confiance dans le<br />

traitement des données, il faut veiller à ce que les données<br />

collectées à leur sujet ne soient pas utilisées pour les discriminer<br />

de manière illégale ou injuste.<br />

Résolution<br />

Les syndicats ont des droits de participation importants<br />

au niveau politique et auprès des employeurs. Afin d’assurer<br />

<strong>la</strong> codécision de tous les employé-e-s en ce qui concerne<br />

les systèmes d’IA et le traitement des données, des représentations<br />

du personnel sont formées et dotées de droits<br />

effectifs de codécision. Avant d’é<strong>la</strong>borer ou d’introduire des<br />

systèmes d’IA, les employeurs remettent suffisamment tôt<br />

aux employé-e-s et à leurs syndicats des rapports sur l’impact<br />

des systèmes d’IA sur le personnel, ainsi que des rapports<br />

réguliers sur le bien-être des employé-e-s. En cas d’abus de<br />

droit, les employé-e-s peuvent refuser d’utiliser des systèmes<br />

d’IA ou de participer à leur é<strong>la</strong>boration sans craindre<br />

des conséquences négatives. Dans de tels cas, une protection<br />

absolue contre le licenciement s’applique, en particulier si<br />

les employé-e-s ont exploité les points de contact internes et<br />

agissent en tant que dénonciateurs.<br />

Développement<br />

Les syndicats disposent de droits de participation très étendus au<br />

niveau politique et auprès des employeurs. Il s’agit de renforcer<br />

ces droits pour qu’ils perdurent à l’ère de l’IA. L’IA modifie<br />

considérablement les rapports de travail. Elle doit donc devenir<br />

un enjeu important du partenariat social, par exemple dans<br />

l’é<strong>la</strong>boration des conventions collectives de travail. En particulier<br />

là où l’IA est en cours de développement, les représentants<br />

du personnel ont également un rôle important à jouer, afin que<br />

les employés aient un droit de codécision sur les questions<br />

éthiques re<strong>la</strong>tives aux systèmes d’IA à développer. Dans le même<br />

temps, des droits collectifs et des garanties doivent être accordés<br />

aux travailleurs indépendants et aux crowdworkers.


32 33<br />

8. Transformation numérique<br />

équitable et durable<br />

Résolution<br />

La transformation sociale et économique induite par<br />

<strong>la</strong> numérisation en cours est mise en œuvre équitablement.<br />

De plus, elle améliore <strong>la</strong> situation du plus grand nombre<br />

possible de personnes grâce à <strong>la</strong> redistribution et contribue<br />

à l’égalité entre les femmes et les hommes. Les gains de<br />

productivité sont réinvestis durablement en faveur de<br />

<strong>la</strong> popu<strong>la</strong>tion. Les individus doivent être habilités à utiliser<br />

des systèmes d’IA. Dans le même temps, un droit à un<br />

apprentissage tout au long de <strong>la</strong> vie est ancré, qui permet<br />

une reconversion et un perfectionnement complets et<br />

effectués à temps.<br />

Développement<br />

Les craintes d’importantes pertes d’emplois ne se sont avérées<br />

fondées à long terme dans aucune des trois révolutions industrielles<br />

précédentes. De nouveaux emplois n’ont cessé d’être<br />

créés en nombre suffisant pour compenser les emplois obsolètes<br />

causés par l’automatisation. Mais l’histoire montre aussi que<br />

toute société qui traverse une révolution industrielle est<br />

confrontée à d’autres questions existentielles qui ne portent<br />

pas seulement sur le nombre d’emplois en soi, mais sur les<br />

conséquences des processus d’ajustement et – surtout – sur <strong>la</strong><br />

répartition des richesses.<br />

– La première révolution industrielle a transformé les paysans<br />

et agriculteurs en ouvriers d’usine.<br />

– La deuxième révolution industrielle a consisté à tirer le<br />

maximum du travail de l’automatisation (chaînes de production),<br />

tout en créant une production de masse pour <strong>la</strong> consommation<br />

de masse. Ce<strong>la</strong> supposait un pouvoir d’achat de masse<br />

(augmentation des sa<strong>la</strong>ires).<br />

– La troisième révolution industrielle a combiné le travail avec<br />

des <strong>machine</strong>s à commande microélectronique. D’une part, il<br />

s’agissait de maximiser <strong>la</strong> productivité du travail. D’autre part,<br />

le procédé a commencé à évincer le travail du processus de<br />

production. Parfois, les travailleurs de l’industrie s’étonnent<br />

du terme « transformation numérique », car ils connaissent<br />

depuis trente ans des robots de production à commande<br />

numérique, <strong>la</strong> production « allégée » et les licenciements<br />

collectifs. Ce<strong>la</strong> correspond au vieux rêve des propriétaires<br />

du capital d’obtenir <strong>la</strong> croissance et le profit sans travail.<br />

Une illusion, car seul le travail crée de <strong>la</strong> valeur.<br />

– A l’ère de <strong>la</strong> quatrième révolution industrielle, le système<br />

économique a changé de visage. Il a pour objectif de fonctionner<br />

avec le moins de sa<strong>la</strong>riés possible et de se soustraire aux<br />

rapports contractuels garantis par contrat. Ce n’est pas une<br />

innovation technologique, c’est une rupture historique et<br />

sociale. Les raisons n’en sont pas à chercher dans l’automatisation<br />

numérique, mais dans le système économique.<br />

C’est pourquoi les syndicats sont particulièrement sollicités<br />

aujourd’hui.


34 35<br />

9. Réglementation et coopération globales<br />

Résolution<br />

Des mécanismes de réglementation mondiaux sont établis.<br />

Les armes basées sur des systèmes d’IA sont interdites.<br />

Développement<br />

Le big data et l’IA peuvent aussi être conçus pour nuire<br />

aux individus. Les données, l’IA et les systèmes intelligents<br />

deviennent ainsi des outils ingénieux entre les mains d’une<br />

multitude d’acteurs, dont font partie des personnes politiquement<br />

puissantes. De plus, des personnes criminelles utilisent<br />

aussi l’IA. Il convient d’en tenir compte lors de <strong>la</strong> conception<br />

et de <strong>la</strong> réglementation de l’IA. Toutefois, les dommages<br />

potentiels ne sont pas une caractéristique du développement<br />

technologique, mais un résultat de son utilisation. Il est donc<br />

d’autant plus important que les communes, les cantons et<br />

l’Etat réglementent l’espace numérique pour éviter que d’autres<br />

acteurs s’en chargent et dictent leurs ordres. Et au-delà des<br />

frontières.


ALGORITHME<br />

CORPUS<br />

DEEP LEARNING<br />

PROFILING<br />

DYNAMIC PRICING<br />

INTELLIGENCE COGNITIVE<br />

SMART PROCUREMENT<br />

BIG DATA


38 39<br />

Lexique de l’IA<br />

Ce qu’il faut savoir de A à Z.<br />

Pour façonner l’avenir de l’IA,<br />

nous devons <strong>la</strong> comprendre.<br />

A<br />

Achat intelligent<br />

Des solutions intelligentes soutiendront les processus d’achat<br />

dans les entreprises dans un proche avenir. De premières offres<br />

de solutions prévoient l’intégration de commandes vocales et<br />

d’assistants numériques. De cette manière, des processus<br />

<strong>la</strong>rgement standardisés doivent être mis en œuvre de manière<br />

plus efficace.<br />

Administration publique<br />

Dans le domaine de l’administration publique, l’utilisation de<br />

l’IA offre <strong>la</strong> possibilité de fournir aux citoyens des informations<br />

et des services d’une manière plus ciblée, plus précise et plus<br />

facilement accessible, et de les préparer au sein de l’administration.<br />

Pour l’administration, les exigences, les conditions-cadres<br />

et les possibilités changent en raison du recours à l’IA.<br />

Algorithme<br />

Les algorithmes sont des modèles mathématiques et statistiques<br />

qui, sur <strong>la</strong> base d’une certaine question et du modèle de<br />

données sous-jacent, fournissent de nouveaux constats ou de<br />

nouvelles informations qui contribuent au soutien à <strong>la</strong> prise<br />

décision, voire à <strong>la</strong> décision elle-même. D’un point de vue<br />

économique, ces algorithmes sont le moteur de l’innovation.<br />

Alpha Go<br />

Le Chinois Ke Jie, âgé de vingt ans, maîtrise comme aucune<br />

autre personne le jeu de p<strong>la</strong>teau chinois Go, vieux de presque<br />

trois mille ans. Le jeu de Go, d’une stratégie extrêmement<br />

complexe avec son nombre presque infini de coups potentiels<br />

(le nombre est supérieur à celui de tous les atomes de l’univers),<br />

était aupar<strong>avant</strong> considéré comme invincible pour les ordinateurs.<br />

Mais Ke a trouvé son maître le 27 mai 2017. Il a été battu<br />

en trois parties. Son adversaire tout-puissant : AlphaGo, un<br />

ordinateur développé par Google. AlphaGo est un système<br />

d’auto-apprentissage, ce qui signifie que seules les règles de<br />

base du Go ont été programmées par des êtres humains.<br />

AlphaGo a « appris » le reste en mémorisant les schémas de<br />

millions de coups et en jouant contre lui-même dans d’innombrables<br />

parties. Et il n’a cessé de s’améliorer. « C’était comme<br />

si je jouais contre Dieu. L’avenir appartient aux <strong>machine</strong>s »,<br />

a déc<strong>la</strong>ré Ke après sa défaite.<br />

La victoire d’AlphaGo sur Ke Jie symbolise les énormes progrès<br />

réalisés ces dernières années dans des domaines tels que<br />

l’intelligence artificielle, les systèmes d’auto-apprentissage et<br />

<strong>la</strong> robotique.<br />

Apprentissage automatique<br />

L’apprentissage automatique (Machine Learning ou ML) désigne<br />

des procédures dans lesquelles des algorithmes informatiques<br />

apprennent à partir de données, par exemple pour reconnaître<br />

des modèles ou montrer les comportements souhaités, sans<br />

que chaque cas individuel n’ait été explicitement programmé.<br />

Dans le domaine de <strong>la</strong> vente de livres en ligne, les algorithmes<br />

apprennent par exemple qu’il existe certaines catégories de<br />

livres qui sont achetés par certains types de clients sans qu’on


40 41<br />

B<br />

ait défini au préa<strong>la</strong>ble ce que sont les romans d’amour ou ce que<br />

lit un jeune père. Les véhicules autonomes apprennent du fait<br />

que des personnes les conduisent pendant un certain temps.<br />

Cette méthode permet aussi d’entraîner <strong>la</strong> description automatique<br />

(étiquetage) d’images. Des personnes complètent les<br />

images avec des informations qui indiquent si l’expression du<br />

visage est gaie ou triste, et après plusieurs milliers ou dizaines<br />

de milliers d’exemples, un algorithme peut apprendre à c<strong>la</strong>sser<br />

lui-même de nouvelles images. L’apprentissage automatique<br />

est souvent assimilé à l’IA. Alors que l’apprentissage automatique<br />

(ML) est fréquemment utilisé dans l’IA, ML reste une<br />

méthode ou un outil parmi tant d’autres instruments de l’IA.<br />

L’apprentissage automatique avec des réseaux neuronaux<br />

rudimentaires s’appelle deep learning.<br />

Big data<br />

Big data est un terme générique pour désigner le traitement<br />

d’énormes quantités de données, de nature très différente, qui<br />

ne peuvent plus être traitées avec des méthodes conventionnelles<br />

de traitement de données. Les trois caractéristiques typiques<br />

du big data sont VVV :<br />

– « Volume » (volume de données)<br />

– « Velocity » (vitesse à <strong>la</strong>quelle les données sont collectées)<br />

– « Variety » (variété des types et des sources de données).<br />

Un autre facteur est <strong>la</strong> possibilité de structurer les données en<br />

tableaux, qui ont longtemps été le format le plus important<br />

dans lequel les données pouvaient être stockées. Le big data<br />

permet désormais également de traiter de manière standardisée<br />

des quantités de données non structurées. Il s’agit souvent de<br />

flux de données, qui ne peuvent pas être saisis dans leur<br />

intégralité dans des bases de données c<strong>la</strong>ssiques. Les propriétaires<br />

ou utilisateurs de données croient souvent à tort qu’ils ont<br />

affaire au big data simplement parce qu’ils disposent d’un<br />

grand nombre de données. Par exemple, une base de données<br />

de numéros de téléphone pour l’ensemble de <strong>la</strong> Suisse est<br />

re<strong>la</strong>tivement importante, mais elle ne serait pas considérée<br />

comme big data. Les données audio de tous les appels téléphoniques<br />

en cours, par contre, le sont. En résumé, le big data<br />

fait référence à l’utilisation de grandes quantités de données<br />

provenant de sources multiples à des vitesses de traitement<br />

élevées pour générer des <strong>avant</strong>ages économiques.<br />

Bots<br />

En 2016, les chatbots deviennent à <strong>la</strong> mode. Ils permettent aux<br />

utilisateurs d’interagir avec le système via un texte écrit (chat).<br />

En 2017, les assistants personnels à commande vocale (les<br />

robots vocaux comme Amazon Alexa ou Google Home) ont fait<br />

leur entrée chez les utilisateurs et ont connu une évolution<br />

remarquable, car <strong>la</strong> parole offre de nets <strong>avant</strong>ages en termes de<br />

facilité d’utilisation sur le texte écrit. Dans <strong>la</strong> course à l’interaction<br />

<strong>la</strong> plus pratique et à <strong>la</strong> meilleure perception pour les<br />

utilisateurs, les premiers systèmes de dialogue sémantique<br />

pilotés par l’image, les visual bots, ont été <strong>la</strong>ncés sur le marché.<br />

Des découvertes récentes en neurosciences montrent que <strong>la</strong><br />

partie limbique du cerveau humain traite les émotions principalement<br />

générées par des images à une vitesse mille fois<br />

supérieure – mais le système limbique n’a aucune capacité pour<br />

le traitement du <strong>la</strong>ngage. On peut s’attendre ici à un prochain<br />

saut vers des aptitudes à <strong>la</strong> conversation et à l’interaction.


HUMAN, MALE, 35<br />

HUMAN, MALE, 56<br />

HUMAN, FEMALE, 30<br />

HUMAN, FEMALE, 47<br />

HUMAN, FEMALE, 25<br />

HUMAN, MALE, 56


44 45<br />

C<br />

Capteurs<br />

Les systèmes d’IA ont besoin de données. Plus il y a de données,<br />

meilleurs sont les résultats. Ces données peuvent provenir de<br />

bases de données ou être obtenues à l’aide de capteurs : les<br />

capteurs mesurent par exemple les vibrations, les courants et les<br />

températures des <strong>machine</strong>s et fournissent ainsi à un système<br />

d’IA des informations pour pronostiquer les échéances des<br />

travaux de maintenance. D’autres capteurs enregistrent le pouls,<br />

<strong>la</strong> tension artérielle, voire les taux de glycémie chez les êtres<br />

humains afin de tirer des conclusions sur leur état de santé. Ces<br />

dernières années, <strong>la</strong> robotique mobile et <strong>la</strong> conduite autonome<br />

ont donné de nombreuses impulsions à <strong>la</strong> technologie des<br />

capteurs.<br />

Changement structurel<br />

L’IA conduira à une situation dans <strong>la</strong>quelle de nombreuses<br />

activités – en particulier des activités de routine – ne seront<br />

plus demandées sur le marché du travail. En même temps,<br />

l’humain ne sera pas remp<strong>la</strong>cé, et il ne faut pas s’attendre à un<br />

royaume automatisé de <strong>la</strong> liberté dans lequel le travail deviendra<br />

superflu. On doit s’attendre à ce que <strong>la</strong> vague d’automatisation<br />

intelligente entraîne l’émergence de nombreuses nouvelles<br />

professions et une valorisation de nombreux groupes professionnels<br />

dans des domaines tels que les services sociaux, les arts<br />

et <strong>la</strong> culture, le secteur du divertissement, les activités de loisir,<br />

<strong>la</strong> formation et l’environnement. Le travail créatif sera renforcé.<br />

Tous les processus associés à cette transformation sociale<br />

doivent être activement promus par <strong>la</strong> c<strong>la</strong>sse politique et p<strong>la</strong>cés<br />

sur une base financière stable.<br />

Col<strong>la</strong>boration<br />

Dans un avenir re<strong>la</strong>tivement proche, l’IA libérera nos esprits de<br />

tâches routinières, répétitives et axées sur des processus. Du<br />

temps et des ressources pourront ainsi être réinvestis – surtout<br />

dans l’innovation et <strong>la</strong> créativité. Le résultat est un changement<br />

presque révolutionnaire dans le travail. C’est ce que souligne<br />

une nouvelle étude des scientifiques de Goldsmiths, Université<br />

de Londres, réalisée en col<strong>la</strong>boration avec IPsoft. L’étude,<br />

intitulée « FuturaCorp : Artificial Intelligence & The Freedom To<br />

Be Human », montre <strong>la</strong> vision d’une FuturaCorp – un lieu de<br />

travail idéal pour l’homme et <strong>la</strong> <strong>machine</strong>.<br />

Le résultat de l’étude démontre que <strong>la</strong> productivité de Futura-<br />

Corp peut être multipliée par 3,5 par rapport aux organisations<br />

actuelles. En effet, les entreprises automatisent des tâches<br />

répétitives et les employés acceptent des emplois qui exigent des<br />

compétences plus élevées. Toutefois, le potentiel pour une<br />

productivité plus élevée n’augmente que si le fonctionnement<br />

de l’intelligence artificielle est compris ainsi que <strong>la</strong> façon dont<br />

les systèmes d’IA peuvent compléter et améliorer les performances<br />

créatives des êtres humains.<br />

L’étude décrit des profils d’emploi fondés sur un ensemble de<br />

tâches. Certaines tâches sont répétitives et axées sur les<br />

processus (déterministes). D’autres requièrent une col<strong>la</strong>boration<br />

entre l’IA et les individus (approche probabiliste). Et d’autres,<br />

enfin, exigent des approches que seul le cerveau humain<br />

peut développer – de <strong>la</strong> génération d’idées à <strong>la</strong> résolution de<br />

problèmes complexes (pensée interfonctionnelle).


46 47<br />

Communication<br />

Les systèmes modernes de communication et d’information<br />

forment le système nerveux central d’une économie et d’une<br />

société numériques. Afin de garantir un réseautage efficace<br />

et fiable, il s’agit de développer de nouveaux systèmes de<br />

communication capables d’apprendre et de s’adapter, mais aussi<br />

de gérer les ressources existantes de manière efficace et<br />

durable. Afin de détecter des anomalies dans les réseaux ainsi<br />

que dans les systèmes informatiques et de production,<br />

d’énormes quantités de données doivent être analysées dans<br />

des dé<strong>la</strong>is très courts. Ce<strong>la</strong> nécessite <strong>la</strong> recherche et le développement<br />

de nouveaux processus (partiellement) automatisés,<br />

qui se basent sur des méthodes d’IA.<br />

Contrôleur-euse<br />

Un-e contrôleur-euse IA vérifie le bon fonctionnement d’un ou<br />

plusieurs IA en cours de fonctionnement et intervient immédiatement<br />

en cas de dysfonctionnement ou de danger manifeste.<br />

Un-e contrôleur-euse IA pourrait être responsable par exemple<br />

d’une petite flotte de plusieurs camions autonomes et les<br />

surveiller à distance.<br />

Conversational Interfaces<br />

Les interfaces de conversation (en ang<strong>la</strong>is, « conversational<br />

interfaces ») sont une méthodologie d’interaction entre l’IA et<br />

les utilisateurs, dotée d’une sémantique appropriée et orientée<br />

vers une compréhension basée sur le dialogue. La <strong>la</strong>ngue écrite<br />

ou parlée est utilisée pour interagir avec l’ordinateur.<br />

Corpus<br />

Les algorithmes génèrent de <strong>la</strong> valeur ajoutée à partir de<br />

données qu’ils transformant en informations et préparent de<br />

manière à ce qu’elles puissent être utilisées dans <strong>la</strong> société<br />

de façon ciblée. Les algorithmes sont basés sur des données qui<br />

contribuent à <strong>la</strong> prise de décision. Tout comme les décideurs<br />

humains, les algorithmes peuvent aussi prendre des décisions<br />

erronées fondées sur des données incomplètes ou incorrectes.<br />

Comme dans le cas de prises de décision humaines, une re<strong>la</strong>tion<br />

de confiance avec le fournisseur de données demeure <strong>la</strong> meilleure<br />

garantie pour l’exactitude des informations fournies en<br />

raison de <strong>la</strong> complexité du système.<br />

La collecte de données et d’algorithmes corrects à partir<br />

desquels des informations sont déduites, également connue<br />

sous le nom de corpus, est très précieuse pour les entreprises<br />

et mobilise parfois d’importantes ressources. Il est donc crucial<br />

de protéger juridiquement ces corpus, par exemple par le biais<br />

des droits de <strong>la</strong> propriété intellectuelle. Dans le même temps,<br />

le droit d’auteur ne doit pas devenir un obstacle à <strong>la</strong> création de<br />

tels corpus uniquement parce qu’une partie des données<br />

collectées bénéficie également de <strong>la</strong> protection du droit d’auteur.<br />

D’où <strong>la</strong> nécessité d’avoir une exemption explicite pour tous<br />

les domaines d’application de l’IA dans le cadre réglementaire<br />

européen. Car ce sera un <strong>avant</strong>age compétitif d’avoir accès à<br />

des corpus complets et de grande qualité – des recueils de<br />

contenus spécifiques à un domaine, qui peuvent être développés<br />

ou acquis, puis enrichis au fur à mesure.


48 49<br />

Culture<br />

En tant que tâche centrale de <strong>la</strong> politique culturelle et de <strong>la</strong><br />

politique des médias, il est essentiel d’assurer, même à l’époque<br />

de l’IA, des conditions-cadres qui créent et préservent <strong>la</strong><br />

diversité et garantissent l’espace nécessaire au développement<br />

de <strong>la</strong> liberté culturelle et des médias. L’IA a des possibilités dans<br />

le secteur de <strong>la</strong> culture et des médias. Car <strong>la</strong> liberté d’une<br />

société démocratique se <strong>la</strong>isse toujours <strong>avant</strong> tout définir aussi<br />

par sa diversité culturelle et médiatique et l’indépendance des<br />

médias. Ces principes doivent donc être préservés. Dans le même<br />

temps, les nombreux potentiels de l’IA dans l’économie de <strong>la</strong><br />

culture, des médias et de <strong>la</strong> création devraient être augmentés.<br />

Bien que l’intelligence artificielle ne puisse remp<strong>la</strong>cer <strong>la</strong><br />

créativité humaine, elle peut aussi être un instrument d’inspiration<br />

supplémentaire dans le processus créatif et ouvrir de<br />

nouvelles voies pour diffuser <strong>la</strong> culture et l’art. Ces espaces de<br />

possibilités doivent être utilisés dans le sens de <strong>la</strong> liberté<br />

d’opinion, d’information, des médias et de l’art – tout en étant<br />

conscients aussi des limites éthiques et des dangers possibles<br />

pour notre société démocratique libre. En outre, les principes de<br />

transparence et de non-discrimination doivent également valoir<br />

pour les applications de l’intelligence artificielle dans les<br />

secteurs des médias et de <strong>la</strong> culture, afin de garantir <strong>la</strong> formation<br />

libre de l’opinion publique et des individus.<br />

D<br />

Deep learning<br />

Le deep learning (« apprentissage profond ») est l’utilisation des<br />

réseaux neuronaux pour renforcer l’apprentissage. La discussion<br />

internationale sur le deep learning porte actuellement sur<br />

les frameworks, l’optimisation du deep learning et ses limites.<br />

L’optimisation de <strong>la</strong> fonctionnalité et de <strong>la</strong> convivialité de ces<br />

frameworks est un levier clé pour faciliter aux spécialistes<br />

des données leur entrée dans le deep learning. Dans le même<br />

temps, on discute de plus en plus des limites de <strong>la</strong> reconnaissance<br />

pure de modèles par rapport à une utilisation duale de<br />

reconnaissance de modèles avec des approches d’apprentissage<br />

génériques. Mais le degré élevé de complexité des réseaux de<br />

neurones par rapport à l’utilisation de méthodes plus simples<br />

avec des résultats tout aussi bons fait également l’objet d’une<br />

discussion animée.<br />

Dignité<br />

La dignité humaine est fondée sur l’idée que chaque être humain<br />

a une « valeur inhérente » qui ne doit en aucun cas être diminuée,<br />

compromise ou opprimée par de nouvelles technologies<br />

telles que les systèmes IA. Dans le contexte de l’IA, le respect de<br />

<strong>la</strong> dignité humaine exige que tous les êtres humains soient<br />

traités avec respect, car ils sont des sujets moraux et non de<br />

simples objets à examiner, trier, évaluer, regrouper, conditionner<br />

ou manipuler. Les systèmes d’IA devraient donc être<br />

développés de manière à respecter, promouvoir et protéger<br />

l’intégrité physique et mentale des êtres humains, leur identité<br />

personnelle et culturelle ainsi que <strong>la</strong> satisfaction de leurs<br />

besoins fondamentaux.


50 51<br />

E<br />

Droits de l’homme<br />

L’AI est fondée sur les droits fondamentaux consacrés par le<br />

droit international des droits de l’homme. Le respect des droits<br />

fondamentaux dans le cadre de <strong>la</strong> démocratie et de l’État de<br />

droit constitue <strong>la</strong> base <strong>la</strong> plus favorable pour définir des<br />

principes et valeurs éthiques abstraits qui peuvent être transposés<br />

concrètement dans le contexte de l’IA.<br />

Dynamic Pricing<br />

Le Dynamic Pricing (ou tarification dynamique) décrit <strong>la</strong> tentative<br />

de déterminer le prix idéal au moment choisi au moyen de<br />

l’IA à l’intérieur de niveaux de prix qui changent rapidement.<br />

Ce<strong>la</strong> est atteint lorsque le niveau de <strong>la</strong> demande et <strong>la</strong> taille de <strong>la</strong><br />

marge sont dans une re<strong>la</strong>tion optimale entre eux.<br />

Entraînement<br />

Presque tout le monde entraîne l’IA. Toute personne qui<br />

visite un site web et doit prouver qu’elle n’est pas un robot en<br />

marquant, par exemple, parmi plusieurs images celles sur<br />

lesquelles sont représentés des feux de circu<strong>la</strong>tion ou autres<br />

objets, contribue automatiquement à entraîner les ordinateurs<br />

et à optimiser <strong>la</strong> reconnaissance des images des systèmes<br />

intelligents.<br />

Ethique<br />

C’est un vaste domaine et peut-être le plus important lié à<br />

l’IA. Les possibilités ouvertes par l’IA nous confrontent à de<br />

nouveaux problèmes éthiques. Jusqu’à présent, les garde-fous<br />

éthiques ont été fondés sur des re<strong>la</strong>tions interpersonnelles et<br />

des représentations de valeurs traditionnelles. Cependant, dans<br />

F<br />

G<br />

une nouvelle ère d’influence technologique dominée par l’IA,<br />

cet ensemble de valeurs ne suffit pas à lui seul. De nouvelles<br />

questions, aupar<strong>avant</strong> inimaginables, se posent.<br />

Formation<br />

Les entreprises sont en compétition mondiale pour obtenir les<br />

(meilleurs) experts en IA. L’offre est limitée en développeurs<br />

d’intelligence artificielle et de spécialistes des données scientifiques.<br />

Dans l’enseignement supérieur, une réforme est nécessaire<br />

pour intégrer plus rapidement les nouveaux développements<br />

technologiques dans les cursus techniques, étendre les filières<br />

c<strong>la</strong>ssiques d’ingénierie avec des modules en sciences des<br />

données et intégrer d<strong>avant</strong>age l’IA dans l’enseignement<br />

supérieur. L’analyse des données et l’IA doivent également jouer<br />

un rôle plus important dans <strong>la</strong> formation sco<strong>la</strong>ire et professionnelle<br />

ainsi que dans <strong>la</strong> formation continue en entreprise.<br />

En particulier, les compétences en matière d’application et de<br />

c<strong>la</strong>ssification ou d’interprétation des résultats décou<strong>la</strong>nt des<br />

applications d’analyse de données et d’IA gagneront en importance<br />

pour le travail quotidien d’une grande partie du personnel<br />

dans les années à venir, car ces technologies deviendront des<br />

outils précieux pour soutenir les employés.<br />

Gestionnaire IA<br />

Un gestionnaire IA participe au développement et à l’amélioration<br />

de certaines IA en cours de fonctionnement. Contrairement<br />

au contrôleur IA, le gestionnaire IA a une tâche active vis-à-vis<br />

de l’IA dans le cadre opérationnel réglementaire et lui transmet<br />

un savoir facile à appréhender pour les êtres humains. Dans


52 53<br />

H<br />

I<br />

le cas d’une IA qui serait utilisée par exemple dans le contexte<br />

de processus d’entreprise, un formateur d’IA serait chargé de<br />

transmettre à l’IA, à <strong>la</strong> fois initialement et continuellement, les<br />

processus opérationnels en cours d’évolution, y compris <strong>la</strong><br />

différence entre des situations exceptionnelles légitimes et des<br />

scénarios d’erreur.<br />

Histoire<br />

L’événement fondateur de l’intelligence artificielle comme une<br />

discipline académique remonte à <strong>la</strong> conférence de Dartmouth de<br />

l’été 1956 au Dartmouth College de Hanovre (New Hampshire),<br />

un atelier de six semaines intitulé Dartmouth Summer Research<br />

Project on Artificial Intelligence – organisé par John McCarthy<br />

dans le cadre d’un projet de recherche financé par Rockefeller.<br />

Dans <strong>la</strong> proposition, le terme « intelligence artificielle » (IA)<br />

apparaît pour <strong>la</strong> première fois.<br />

IA faible<br />

De façon très abstraite, les chercheurs en IA s’assignent deux<br />

directions : l’IA « faible » ou « forte ». L’intelligence artificielle<br />

« faible » vise <strong>la</strong> résolution de problèmes d’application concrets<br />

sur <strong>la</strong> base de méthodes provenant des mathématiques et<br />

de l’informatique, quoi que les systèmes développés soient<br />

capables d’auto-optimisation. A cette fin, des aspects de<br />

l’intelligence humaine sont simulés et formellement décrits et<br />

des systèmes de simu<strong>la</strong>tion et de soutien de <strong>la</strong> pensée humaine<br />

sont construits. L’IA « forte » établit que les systèmes d’IA<br />

ont les mêmes capacités intellectuelles que les humains ou<br />

qu’ils peuvent même les surpasser.<br />

Industrie<br />

Les applications d’intelligence artificielle industrielle fournissent<br />

des instruments pour traiter efficacement les données<br />

issues des processus industriels et les interpréter au profit des<br />

entreprises et de leurs clients. L’IA est donc un élément central<br />

et un moteur essentiel pour surveiller, gérer et réguler ces<br />

processus de manière intelligente, les rendre plus flexibles et<br />

ainsi élever l’industrie 4.0 à un nouveau niveau.<br />

Intelligence artificielle<br />

L’intelligence artificielle décrit des applications informatiques<br />

dont le but est de montrer un comportement intelligent et<br />

humain. Pour y parvenir, certaines compétences de base sont<br />

requises dans des proportions différentes : <strong>la</strong> perception, <strong>la</strong><br />

compréhension, l’action et l’apprentissage. Ces quatre compétences<br />

de base constituent <strong>la</strong> plus grande simplification possible<br />

d’un modèle d’IA moderne : percevoir – comprendre – agir<br />

étendent le principe de base de tous les systèmes informatiques :<br />

entrée – traitement – sortie. Ce qui est vraiment nouveau,<br />

c’est l’apprentissage et <strong>la</strong> compréhension. Les « véritables »<br />

systèmes d’IA d’aujourd’hui ont en commun le fait qu’ils sont<br />

également entraînés dans <strong>la</strong> composante de traitement et<br />

peuvent donc apprendre et obtenir de meilleurs résultats que<br />

les méthodes conventionnelles, qui sont uniquement basées<br />

sur des règles rigides, c<strong>la</strong>irement définies et programmées de<br />

manière fixe.<br />

Intelligence cognitive<br />

Dans le cas de l’intelligence cognitive, <strong>la</strong> <strong>machine</strong> est déjà<br />

supérieure aux humains dans de nombreux domaines : échecs,<br />

Go et autres jeux de table. Partout où les connaissances sont


56 57<br />

absorbées et apprises, de nouvelles combinaisons sont é<strong>la</strong>borées<br />

pour en tirer des conclusions. Ce<strong>la</strong> correspond souvent à ce que<br />

les individus acquièrent dans leur formation.<br />

Intelligence émotionnelle<br />

Dans ce domaine, <strong>la</strong> <strong>machine</strong> n’a pratiquement rien réalisé<br />

jusqu’à présent. L’être humain peut se mettre à <strong>la</strong> p<strong>la</strong>ce d’une<br />

autre personne, éprouver de <strong>la</strong> sympathie et de l’empathie,<br />

de <strong>la</strong> compassion, de <strong>la</strong> pitié, du chagrin, de <strong>la</strong> peur, de <strong>la</strong> joie,<br />

écrire des poèmes d’amour, avoir des accès de colère, etc. Mais<br />

les <strong>machine</strong>s peuvent déjà aujourd’hui analyser les sentiments,<br />

c’est-à-dire « lire » les émotions d’une personne en observant<br />

son <strong>la</strong>ngage corporel, donc son visage, sa gestuelle, etc.<br />

Intelligence sensomotrice<br />

Avec cette intelligence, l’être humain est encore supérieur à <strong>la</strong><br />

<strong>machine</strong>, mais certaines <strong>machine</strong>s lui sont supérieures dans<br />

des domaines de capteurs individuels. En principe, l’œil humain<br />

est très bien développé. Mais une caméra vidéo appropriée peut<br />

également traiter <strong>la</strong> lumière dans le domaine des infrarouges<br />

et UV, ce dont n’est pas capable un être humain. En acoustique,<br />

les microphones peuvent capter des volumes sonores beaucoup<br />

plus faibles ou d’autres gammes de fréquences que l’oreille<br />

humaine. C’est encore plus vrai pour le sens de l’odorat et<br />

du goût, où les capteurs mécaniques sont nettement supérieurs.<br />

Cependant, un être humain peut combiner ces impressions<br />

sensorielles (fusion de capteurs), ce qu’une <strong>machine</strong> est<br />

quasiment incapable de faire jusqu’à présent. Cependant, une<br />

amélioration pourrait se dessiner dans quelques années.<br />

J<br />

Intelligence sociale<br />

Il s’agit de <strong>la</strong> capacité à (ré)agir de manière appropriée dans un<br />

groupe humain, par exemple pour reconnaître ou influencer de<br />

manière constructive une ambiance, p. ex. l’esprit d’équipe.<br />

Jusqu’à présent, <strong>la</strong> <strong>machine</strong> ne peut rien faire dans ce domaine.<br />

Internet des choses<br />

L’internet des objets (Internet of Things, IoT) désigne <strong>la</strong> mise en<br />

réseau croissante d’outils, de dispositifs, de capteurs, de véhicules,<br />

etc. par l’instal<strong>la</strong>tion de puces et l’attribution d’identificateurs<br />

numériques uniques, comparables aux adresses URL sur<br />

le Web. L’échange de données rendu possible par cette mise en<br />

réseau permet d’obtenir des quantités de données extrêmement<br />

importantes.<br />

Jobs (micro-jobs et travail du clic)<br />

L’IA pourrait rendre de nombreux emplois superflus. Mais <strong>avant</strong><br />

que ce<strong>la</strong> n’arrive, elle créera d’innombrables nouveaux emplois.<br />

Un grand nombre de soi-disant micro-jobs et de travailleurs<br />

du clic exécutent des tâches qui ne peuvent pas encore être<br />

automatisées. L’industrie automobile passe p. ex. un très grand<br />

nombre de commandes auprès des crowdworkers pour entraîner<br />

l’IA en vue de l’avènement des véhicules autonomes. D’innombrables<br />

pixels sont ainsi étiquetés un à un : est-ce un être<br />

humain ? Une clôture de jardin ? Les crowdworkers travaillent<br />

toutefois souvent seuls, sans prestations sociales. Quant aux<br />

travailleurs du clic, il n’est pas rare que leur revenu soit<br />

constitué de petits montants.


58 59<br />

L<br />

Langue<br />

Les technologies <strong>la</strong>ngagières peuvent contribuer à <strong>la</strong> démocratisation<br />

des décisions si elles permettent aux utilisateurs une<br />

action informée. Par exemple en assurant <strong>la</strong> transparence, par <strong>la</strong><br />

mise en re<strong>la</strong>tion des humains avec des informations et des<br />

connaissances, en traduisant, en résumant, en reconnaissant<br />

des émotions, etc …<br />

Liberté<br />

L’une des exigences éthiques est que les individus devraient<br />

avoir <strong>la</strong> liberté de faire leurs propres choix de vie. D’une part,<br />

ce<strong>la</strong> signifie d’être libre d’une intervention de l’État. D’autre<br />

part, ce<strong>la</strong> nécessite toutefois des mesures de <strong>la</strong> part du gouvernement<br />

et des organisations non gouvernementales pour<br />

garantir aux citoyens touchés par le danger d’exclusion un<br />

même accès aux <strong>avant</strong>ages et aux possibilités de l’IA. Dans le<br />

contexte de l’IA, <strong>la</strong> liberté individuelle exige d’endiguer <strong>la</strong><br />

coercition illégale (in)directe, les menaces pour l’autodétermination<br />

intellectuelle et <strong>la</strong> santé mentale, <strong>la</strong> surveil<strong>la</strong>nce<br />

injustifiée, <strong>la</strong> tromperie et <strong>la</strong> manipu<strong>la</strong>tion injuste. En effet, <strong>la</strong><br />

liberté de chacun-e représente une obligation à permettre aux<br />

individus d’exercer un contrôle encore plus important sur leur<br />

propre vie. Ce<strong>la</strong> inclut (entre autres droits) <strong>la</strong> protection de<br />

<strong>la</strong> liberté d’entreprise, de <strong>la</strong> liberté des arts et des sciences, de<br />

<strong>la</strong> liberté d’expression, du droit à <strong>la</strong> vie privée et à <strong>la</strong> sphère<br />

privée, du droit de réunion et d’association.<br />

M<br />

N<br />

Mobilité<br />

Les systèmes d’IA contribuent de manière décisive à <strong>la</strong> réalisation<br />

d’une conduite autonome. L’environnement complexe de <strong>la</strong><br />

circu<strong>la</strong>tion routière urbaine pose un énorme défi. De <strong>la</strong> fusion<br />

des données des capteurs à <strong>la</strong> reconnaissance d’objets, en<br />

passant par <strong>la</strong> p<strong>la</strong>nification des manœuvres de conduite dans le<br />

véhicule, les technologies IA sont indispensables. En raison<br />

des exigences élevées en matière de sécurité dans le secteur<br />

automobile, <strong>la</strong> fiabilité des procédures d’IA joue un rôle essentiel.<br />

A cette fin, l’acquisition de suffisamment de données<br />

d’entraînement et le développement de bases de données ad<br />

hoc revêtent une importance particulière. De plus, en vue de<br />

futures autorisations, il est important de développer de nouveaux<br />

processus, méthodes et critères de qualité.<br />

Moment marketing<br />

En raison de <strong>la</strong> joignabilité constante et des changements<br />

survenus dans l’utilisation des médias, le moment du marketing<br />

a pris de l’importance, et il serait difficilement imaginable sans<br />

l’inclusion du big data et de l’algorithmique. De nombreuses<br />

sources sont combinées, afin de fournir aux clients potentiels le<br />

bon message au bon moment.<br />

Notation<br />

La notation est généralement comprise comme une procédure<br />

mathématico-statistique qui permet de calculer <strong>la</strong> probabilité<br />

avec <strong>la</strong>quelle une certaine personne se comportera d’une<br />

certaine manière.


60 61<br />

P<br />

Précarité<br />

Bon nombre des progrès récents de l’intelligence artificielle<br />

sous le paradigme de l’apprentissage automatique sont dus non<br />

seulement aux innovations de <strong>la</strong> technique du logiciel et du<br />

hardware, mais aussi aux nouvelles possibilités de mettre au<br />

service des <strong>machine</strong>s <strong>la</strong> faculté de jugement humain, et ce de<br />

manière rapide et bon marché. L’IA a besoin de scientifiques et<br />

d’experts, mais aussi d’employés auxiliaires qui compilent<br />

le matériel pédagogique et surveillent les progrès d’apprentissage<br />

des systèmes. Ceux-ci exécutent des tâches qui nécessitent<br />

peu de qualification, sans toutefois se <strong>la</strong>isser automatiser. Ils<br />

écrivent des légendes, traduisent de courts textes, évaluent<br />

des traductions, fixent par écrit des textes parlés, tapent à <strong>la</strong><br />

main des formu<strong>la</strong>ires complétés ou diagnostiquent des symptômes<br />

de ma<strong>la</strong>die. Ils travaillent seuls, souvent sans contrat de<br />

travail et sans sécurité sociale. Ce ne sont pas des travailleurs<br />

journaliers, mais des « travailleurs à <strong>la</strong> minute », car les tâches<br />

qui leur sont assignées par les p<strong>la</strong>teformes de p<strong>la</strong>cement sur<br />

Internet peuvent souvent être accomplies très rapidement. Leurs<br />

gains se chiffrent en centimes. Ils sont les ratés de <strong>la</strong> gig<br />

economy, les démunis de l’économie du partage, les marginalisés<br />

du crowdsourcing. Ils forment le précariat de l’IA. On les<br />

appelle aussi micro-employés ou travailleurs du clic. On les<br />

trouve dans le monde entier, aussi bien dans les pays industrialisés<br />

que dans les pays en développement. Mais ils passent<br />

toujours inaperçus. C’est pourquoi leur travail est également<br />

qualifié de « travail fantôme ».<br />

Précision<br />

La précision fait référence à <strong>la</strong> capacité d’un système d’IA à<br />

évaluer correctement des faits, par exemple en c<strong>la</strong>ssant correctement<br />

des informations par catégories ou en faisant des<br />

prédictions, recommandations ou décisions correctes sur <strong>la</strong> base<br />

de données ou de modèles. Un processus d’é<strong>la</strong>boration et<br />

d’évaluation explicite et bien conçu peut mettre en évidence,<br />

éviter et corriger des risques indésirables qui découlent de<br />

fausses prédictions. Même si des prédictions imprécises occasionnelles<br />

ne peuvent être évitées, il est important que le<br />

système soit en mesure d’indiquer <strong>la</strong> probabilité avec <strong>la</strong>quelle<br />

des erreurs se produisent. Un haut niveau de précision est<br />

indispensable, en particulier lorsque des systèmes d’IA ont un<br />

impact direct sur <strong>la</strong> vie humaine.<br />

Profi<strong>la</strong>ge<br />

Par profi<strong>la</strong>ge, on entend tout traitement automatisé de données<br />

personnelles qui consiste à les utiliser pour évaluer certains<br />

aspects de <strong>la</strong> personnalité d’une personne physique.<br />

Protection des données<br />

Le droit applicable à <strong>la</strong> protection des données est pertinent<br />

pour le traitement des données au moyen d’algorithmes lorsque<br />

les données traitées ou recueillies concernent une personne<br />

en particulier ou au moins identifiable, donc lorsqu’elles peuvent<br />

être liées à cette personne. Le droit applicable à <strong>la</strong> protection<br />

des données fait partie de <strong>la</strong> protection du libre épanouissement<br />

de <strong>la</strong> personnalité et de <strong>la</strong> sphère privée et est inscrit dans<br />

le droit fédéral suisse, ainsi que dans <strong>la</strong> Charte des droits


62 63<br />

R<br />

fondamentaux de l’UE et dans <strong>la</strong> Convention européenne des<br />

droits de l’homme. Une vio<strong>la</strong>tion de <strong>la</strong> protection des données<br />

personnelles peut entraîner un préjudice physique matériel<br />

ou immatériel pour des personnes physiques, tel que discrimination,<br />

vol d’identité, perte financière, atteinte à <strong>la</strong> réputation<br />

ou autres dés<strong>avant</strong>ages économiques ou sociaux importants. Afin<br />

de se prémunir contre ces risques, <strong>la</strong> loi sur <strong>la</strong> protection des<br />

données sert surtout de droit aux individus pour se défendre<br />

contre l’Etat, mais elle fixe également des règles en matière de<br />

traitement des données personnelles pour les entreprises.<br />

Racisme<br />

La qualité des systèmes algorithmiques dépend de <strong>la</strong> qualité<br />

des données qui les alimentent. Ce<strong>la</strong> signifie que <strong>la</strong> technologie<br />

n’est jamais neutre et qu’elle adopte également des préjugés. Si<br />

les données qui servent à enrichir les systèmes d’intelligence<br />

artificielle sont racistes, <strong>la</strong> technologie l’est aussi. Il arrive ainsi<br />

que des systèmes intelligents n’aient pas été en mesure d’identifier<br />

des personnes de couleur en tant que telles parce qu’elles<br />

ont été négligés pendant <strong>la</strong> saisie des données. En lieu et p<strong>la</strong>ce,<br />

elles ont été c<strong>la</strong>ssées dans <strong>la</strong> catégorie des gorilles.<br />

Reconnaissance de formes<br />

L’intelligence visuelle permet de reconnaître et d’analyser des<br />

images ou des formes. Comme exemples d’applications, nous<br />

avons ici <strong>la</strong> reconnaissance de l’écriture manuscrite, l’identification<br />

de personnes par reconnaissance faciale, <strong>la</strong> comparaison<br />

d’empreintes digitales ou de l’iris, le contrôle qualité industriel<br />

et l’automatisation industrielle (cette dernière en combinaison<br />

avec <strong>la</strong> robotique).<br />

S<br />

Grâce à l’intelligence linguistique, il est possible de convertir<br />

p. ex. un texte écrit en parole (synthèse vocale) et inversement<br />

de transposer par écrit un texte parlé (reconnaissance vocale).<br />

Ce traitement automatique du <strong>la</strong>ngage peut être développé,<br />

de sorte qu’un sens soit attribué aux mots et aux textes grâce à<br />

l’analyse sémantique <strong>la</strong>tente.<br />

Google Brain et Microsoft Adam sont des exemples de systèmes<br />

de reconnaissance de formes.<br />

Robotique<br />

La robotique traite de l’intelligence manipu<strong>la</strong>trice. Les robots<br />

peuvent être utilisés pour automatiser des activités dangereuses<br />

comme <strong>la</strong> détection de mines ou des manipu<strong>la</strong>tions répétitives<br />

qui se produisent p. ex. pendant le soudage ou <strong>la</strong> peinture.<br />

L’idée de base est de créer des systèmes capables de reproduire<br />

le comportement intelligent des êtres vivants. Des exemples de<br />

tels robots sont ASIMO et At<strong>la</strong>s.<br />

Santé<br />

Compte tenu de <strong>la</strong> numérisation, l’ampleur des informations<br />

utilisables dans le secteur de <strong>la</strong> santé pour gérer les processus<br />

de fourniture de soins et leurs structures augmente. Dans<br />

l’intérêt des patients, les données issues des processus de<br />

fourniture de soins et des processus de facturation doivent dont<br />

être accessibles d’une manière cohérente et conforme à <strong>la</strong><br />

protection des données, et dans des formats adaptés aux<br />

systèmes d’apprentissage. L’objectif doit être d’utiliser à l’avenir<br />

les données d’une manière conforme aux exigences en matière de<br />

protection des données, afin de démontrer les corré<strong>la</strong>tions<br />

et de trouver de nouvelles approches, d’identifier encore mieux


64 65<br />

les ma<strong>la</strong>dies et les risques, et de pouvoir entamer un traitement<br />

à un stade précoce. De point de vue des patients, il convient de<br />

prendre en compte les aspects de <strong>la</strong> souveraineté des données,<br />

les droits des patients, les intérêts des patients dignes de<br />

protection et les exigences éthiques pour le domaine particulièrement<br />

sensible de l’utilisation des données médicales.<br />

Pour exploiter les potentiels technologiques d’utilisation de<br />

très grandes quantités de données (applications du big data) et<br />

d’applications d’IA et permettre aux entreprises suisses de<br />

réussir dans ce domaine concurrentiel, <strong>la</strong> Suisse devra établir<br />

des formats favorables à une meilleure mise en réseau et à un<br />

meilleur échange de données entre fourniture et recherche,<br />

conformément aux exigences de <strong>la</strong> protection des données.<br />

Ils devront bientôt s’attendre à être surveillés eux aussi<br />

par capteurs, déc<strong>la</strong>re un professeur d’aviation de l’Université<br />

de Chine.<br />

Singu<strong>la</strong>rité technologique<br />

Si un système superintelligent commence à s’améliorer<br />

continuellement, alors l’état de singu<strong>la</strong>rité est atteint, où<br />

l’intelligence automatique dans son ensemble dépasse l’intelligence<br />

humaine. D’ici à ce que les systèmes actuels ou en<br />

développement atteignent de telles performances, il faudra<br />

encore des décennies d’un point de vue purement technique.<br />

La question se pose également de savoir si une super intelligence<br />

automatique est souhaitable ou même nécessaire.<br />

Scanner du cerveau<br />

Une entreprise chinoise a franchi un nouveau niveau de surveil<strong>la</strong>nce<br />

et de contrôle : comme l’a rapporté le « South China<br />

Morning Post », les employés de l’usine Hangzhou Zhongheng<br />

Electric portent des casquettes qui dissimulent des capteurs<br />

de ba<strong>la</strong>yage. Ces appareils de mesure capturent en permanence<br />

les ondes cérébrales des travailleurs à <strong>la</strong> chaîne pour évaluer<br />

comment ils se sentent. Un fournisseur d’énergie qui travaille<br />

avec des électroencéphalogrammes depuis 2014 aurait ainsi<br />

réalisé un bénéfice de 315 millions de dol<strong>la</strong>rs supplémentaires –<br />

parce que les données sur le cerveau ont montré quand<br />

l’équipe a besoin d’une pause. Aussi pour les conducteurs<br />

de train chinois, de premières casquettes munies de capteurs<br />

sont déjà disponibles. Leur but premier est de constater<br />

assez tôt quand ils sont trop fatigués et courent le risque<br />

de s’endormir. L’Etat chinois prévoit <strong>la</strong> même chose pour<br />

les pilotes.<br />

T<br />

Spécialiste<br />

Un spécialiste de l’IA exécute, dans le même processus de travail<br />

que l’IA, les tâches qu’une IA n’est pas capable d’accomplir de<br />

manière autonome. Ici, on assiste, du côté de l’IA, à un transfert<br />

explicite à l’être humain dès que l’IA atteint ses limites. Cette<br />

forme de transfert peut déjà être observée dans certains<br />

scénarios de support client, par exemple, mais elle sera étendue<br />

à d’autres domaines d’interaction client à l’avenir.<br />

Test de Turing<br />

Afin d’avoir un critère lorsqu’une <strong>machine</strong> simule une intelligence<br />

équivalente à celle de l’homme, A<strong>la</strong>n Turing a proposé le<br />

test de Turing qui porte son nom. Dans ce test, une personne<br />

utilise un terminal pour poser des questions à une autre<br />

personne ou à une IA sans savoir qui répond. La personne qui<br />

pose <strong>la</strong> question doit décider si <strong>la</strong> personne interrogée était


66 67<br />

une <strong>machine</strong> ou une personne. Selon Turing, si on ne peut pas<br />

établir de distinction entre <strong>la</strong> <strong>machine</strong> et l’être humain, alors <strong>la</strong><br />

<strong>machine</strong> est intelligente. Jusqu’à présent, aucune <strong>machine</strong> n’a<br />

réussi le test de Turing sans qu’aucun doute n’ait été émis.<br />

Traducteurs-trices<br />

Un-e traducteur-trice d’IA sert de lien entre les acteurs humains<br />

d’une entreprise et une ou plusieurs IA de l’entreprise. La<br />

traduction s’effectue dans deux sens, c’est-à-dire sous <strong>la</strong> forme<br />

d’une aide à l’IA pour <strong>la</strong> formu<strong>la</strong>tion de demandes et de tâches,<br />

et sous <strong>la</strong> forme d’explications et de c<strong>la</strong>ssification des résultats<br />

produits par l’IA. Ce poste requiert une qualification particulière,<br />

car il exige une connaissance du fonctionnement de l’IA<br />

et du contexte opérationnel. On peut imaginer par exemple<br />

un-e traducteur-trice typique d’IA dans un scénario où une IA<br />

effectue une analyse automatique des données et où les<br />

résultats de l’analyse doivent être rendus compréhensibles pour<br />

des décideurs humains.


70 71<br />

Conclusion et perspective<br />

Le premier objectif de cette brochure est de rapprocher l’IA des<br />

lectrices et lecteurs. Car même si l’intelligence artificielle<br />

s’immisce de plus en plus dans notre quotidien et le monde<br />

professionnel, nous ne savons pas grand-chose à son sujet. Et<br />

sur ce que le peu que nous savons, nous ne devons avoir rien à<br />

craindre, affirmait Marie Sk odowska Curie.<br />

Le deuxième objectif de cette brochure et de <strong>la</strong> résolution<br />

qu’elle contient est de développer des principes directeurs pour<br />

un traitement éthique de l’IA. Nous ne prétendons pas avoir<br />

trouvé <strong>la</strong> « pierre philosophale » avec nos principes directeurs,<br />

mais nous voulons continuer à les développer dans le cadre d’un<br />

discours mené non seulement avec nos membres, mais aussi<br />

avec le monde scientifique, <strong>la</strong> c<strong>la</strong>sse politique et les partenaires<br />

sociaux. Pour parvenir ainsi à un consensus encore plus <strong>la</strong>rge.<br />

À <strong>la</strong> lecture des principes directeurs IA de syndicom, on peut<br />

être surpris : ils semblent presque trop simples pour un sujet<br />

d’une telle portée et ne sont certainement pas une grande<br />

surprise pour l’une ou l’autre d’entre vous. Chaque principe<br />

en soi est toutefois fondamental : pour <strong>la</strong> prise en charge de<br />

<strong>la</strong> responsabilité, pour <strong>la</strong> transparence, pour <strong>la</strong> protection des<br />

données, pour <strong>la</strong> sécurité, pour l’autodétermination des<br />

données, pour <strong>la</strong> protection des consommatrices et consommateurs.<br />

Bref, pour les principes que nous connaissons aujourd’hui<br />

et dont on s’attend en tant qu’utilisatrices et utilisateurs<br />

à ce qu’ils soient respectés dans le cadre de l’interaction<br />

avec les produits et services – sans être toutefois certains qu’ils<br />

soient pris en compte en fonction des applications d’IA.<br />

Dans un monde numérique où l’intelligence artificielle gagne<br />

du terrain, chaque personne doit pouvoir décider librement et<br />

de manière autonome où et dans quelle mesure elle soutient <strong>la</strong><br />

technologie, et dans quels cas elle souhaite agir elle-même sans<br />

une aide fondée sur l’intelligence artificielle. Les événements<br />

et les résultats qui concernent directement des individus, mais<br />

qui sont hors de leur champ d’influence, doivent eux aussi<br />

être compréhensibles. Nous sommes convaincus que le grand<br />

potentiel de l’intelligence artificielle ne peut être réalisé que si<br />

elle est adaptée à nos besoins et acceptée par <strong>la</strong> société.<br />

Cependant, ce<strong>la</strong> doit se faire dans un cadre choisi librement,<br />

qui est éthiquement et juridiquement correct. <strong>L’humain</strong> doit<br />

continuer à conserver sa souveraineté. Sur <strong>la</strong> base de notre<br />

expérience avec des technologies de <strong>la</strong> communication, nous<br />

considérons qu’il est indispensable d’inclure dès le début<br />

les questions éthiques dans le développement et l’utilisation<br />

de l’IA, et de vérifier de manière régulière les réponses à ces<br />

questions au vu de leur actualité. Dans le cadre des droits<br />

humains, de <strong>la</strong> participation démocratique, de l’État de droit<br />

et de <strong>la</strong> redistribution sociale, l’objectif doit être que l’intelligence<br />

artificielle serve les personnes et leur liberté – et pas<br />

uniquement les entreprises.<br />

Daniel Hügli,<br />

Secrétaire central du secteur TIC au syndicat syndicom


72<br />

Bibliographie<br />

Die Bundesregierung (2018) : Strategie Künstliche Intelligenz.<br />

Berlin : Bundesministerium für Wirtschaft und Energie.<br />

HEG-KI (2018) : Hochrangige Expertengruppe für Künstliche<br />

Intelligenz. Ethik-Leitlinien für eine vertrauenswürdige KI.<br />

Brüssel : Europäische Kommission.<br />

Mackert M., Kohn, S. (2018) : Deutsche Telekom. Digital Ethics<br />

Guidelines On AI. Bonn : Deutsche Telekom AG.<br />

Reinschmidt, J. (2018) : Menschenzentrierte Künstliche<br />

Intelligenz in der Industrie. Zehn Handlungsempfehlungen<br />

für Deutsch<strong>la</strong>nd und Europa. Frankfurt am Main : ZVEI –<br />

Zentralverband Elektrotechnik- und Elektroindustrie e.V.<br />

Weber, M., Burchardt, A. (2017) : Künstliche Intelligenz.<br />

Wirtschaftliche Bedeutung, gesellschaftliche Herausforderung,<br />

menschliche Verantwortung. Berlin : Bitkom e.V.


Impressum<br />

Éditeur<br />

Responsabilité<br />

politique<br />

Rédaction<br />

Mise en page<br />

Traduction<br />

Photos<br />

Impression<br />

Tirage<br />

syndicom, secteur TIC<br />

Monbijoustrasse 33, 3011 Berne<br />

ict@syndicom.ch<br />

Giorgio Pardini,<br />

responsable du secteur TIC & membre du comité directeur<br />

de syndicom<br />

Giorgio Pardini, Miriam Berger, Franz Schori, Lena Allenspach,<br />

Daniel Hügli<br />

komform GmbH, Liebefeld, www.komform.ch<br />

Alexandrine Bieri<br />

Adobe Stock, Shutterstock, Unsp<strong>la</strong>sh<br />

Stämpfli AG, Berne<br />

1000 exemp<strong>la</strong>ires<br />

Berne, janvier 2020

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!