X

Idées

Ne laissons pas les algorithmes décider pour nous !

Intelligence artificielle
Diane COYLE | OLJ
15/12/2018

Un algorithme reflète le biais des données qu’il traite ; or ces données sont biaisées, car sélectionnées suivant des critères subjectifs liés à ce qu’une société ou un responsable juge important ou utile. De ce fait, les chiffres « officiels » eux-mêmes ne peuvent être considérés comme objectifs, ils sont un reflet de la société telle qu’elle est à un moment donné. Les catégories et les classifications utilisées ne sont pas neutres ; de même que l’on a tendance à mesurer ce que l’on voit, on a tendance à ignorer ce que l’on ne mesure pas.

Les algorithmes prenant une place de plus en plus grande dans les décisions politiques, ils jettent une lumière crue sur les biais sociaux qui sous-tendent le choix des données qu’ils utilisent. À la limite, on pourrait dire que l’irruption de l’intelligence artificielle nous confronte au type de société que nous avons créé.


Optimiser la « satisfaction »

Non seulement les ordinateurs pensent comme des entreprises – comme l’a écrit, dans une tribune publiée le 26 novembre dernier par le magazine The Economist, mon collègue de l’université de Cambridge Jonnie Penn –, mais ils sont aussi conçus pour penser comme des économistes. Une intelligence artificielle est une version infaillible de l’« homo economicus » tel que l’on peut l’imaginer. Elle est parfaitement rationnelle et sa logique imparable lui permet de parvenir au résultat que l’on recherche, avec des ressources de calcul limitées. Elle est en cela bien plus efficace qu’un être humain.

Selon la théorie utilitariste, nous prenons nos décisions (qu’il s’agisse d’un achat, d’un investissement, de notre investissement au travail…) dans l’objectif d’optimiser notre bien-être ou notre satisfaction en fonction de nos préférences et de nos croyances, dans le cadre des limites imposées par le revenu ou les ressources. Il paraît naturel de supposer que chacun choisit ce qui lui paraît préférable, pour autant l’utilitarisme est-il un concept pertinent ? Il est à l’économie ce que la théorie du « phlogiston  » était à la chimie. Il y a fort longtemps, les chimistes croyaient que la matière combustible contenait un élément caché, le « phlogiston  » (du grec « inflammable »), qui expliquerait le changement de forme d’une substance lors de sa combustion. Mais cette idée n’a jamais été confirmée. Les scientifiques n’ont pas pu mettre en évidence le « phlogiston  », de la même manière que les économistes d’aujourd’hui ne peuvent mesurer véritablement la satisfaction d’un individu ou d’un groupe. L’utilitarisme classique préconise d’agir au niveau collectif pour la satisfaction maximale du plus grand nombre. De même que les économistes modernes suivent les traces de John Stuart Mill, la plupart des concepteurs des algorithmes sont des utilitaristes qui croient que si l’on sait définir la « satisfaction », il est possible de l’optimiser.

Cette hypothèse peut conduire à des résultats qui posent question. Considérons par exemple l’utilisation des algorithmes pour décider si un prisonnier peut être placé en liberté conditionnelle. Dans une étude approfondie de 2017, intitulée Human Decisions and Machine Predictions et publiée dans la revue The Quarterly Journal of Economics de février dernier, un groupe de chercheurs montre que les algorithmes sont bien meilleurs que les êtres humains pour prévoir le risque de récidive, et que de ce fait ils peuvent être utilisés pour réduire de plus de 40 % le taux d’incarcération « sans augmentation du taux de criminalité ». Aux États-Unis, l’intelligence artificielle pourrait servir à réduire une population pénale qui comporte un nombre disproportionné de Noirs. Mais que se passera-t-il si une intelligence artificielle gère les libérations conditionnelles et que la proportion de prisonniers noirs reste supérieure à celle des prisonniers blancs ?


Introspection

Des algorithmes d’aide à la décision mettent ces questions au premier plan et nous contraignent à fixer précisément nos objectifs. Voulons-nous simplement réduire la population pénale dans son ensemble ou voulons-nous également un processus judiciaire plus équitable ? Là où la politique se satisfait d’imprécisions et de compromis pour masquer ce genre d’ambiguïté, l’intelligence artificielle exige de la clarté. Du fait de cette exigence de clarté, il est plus difficile d’ignorer les causes structurelles des inégalités. À l’âge de l’intelligence artificielle, les algorithmes montrent que notre utilisation des données perpétue les conflits sociopolitiques du passé.

Grâce à des organisations telles qu’AI Ethics Initiative et Partnership on AI, un large débat sur l’éthique de l’intelligence artificielle commence à prendre forme. Mais ses algorithmes ne font que ce qu’on leur demande. La véritable question va bien au-delà de l’utilisation des algorithmes d’aide à la décision en politique ou dans les entreprises, elle interroge les fondements éthiques de nos sociétés.

Il faut sûrement débattre des questions pratiques et philosophiques liées au recours à l’intelligence artificielle pour optimiser notre « satisfaction », mais nous devons aussi nous engager sur la voie de l’introspection. L’intelligence artificielle soulève des questions fondamentales sur la manière dont nous avons organisé nos interactions sociales, politiques et économiques. Nous devons décider maintenant si nous voulons confier à des machines les données relatives à notre organisation sociale actuelle pour qu’elles prennent demain des décisions à notre place. Étant donné la fracture sociale qui se creuse un peu partout dans le monde, le moment est sans doute venu de passer à un autre scénario.


Traduction Patrice Horovitz.

Copyright Project Syndicate, 2018.

Professeure de politique publique à l’université de Cambridge.

À la une

Retour au dossier "Idées"

Vos Commentaires

Chère/cher internaute,
Afin que vos réactions soient validées sans problème par les modérateurs de L'Orient-Le Jour, nous vous prions de jeter un coup d'oeil à notre charte de modération en cliquant ici.

Nous vous rappelons que les commentaires doivent être des réactions à l'article concerné et que l'espace "réactions" de L'Orient-Le Jour, afin d'éviter tout dérapage, n'est pas un forum de discussion entre internautes.

Merci.

 

gaby sioufi

les algorithmes?
c exactement comme les statistiques !
on peut leur faire dire et leur faire faire ce que l'on veut bien !
TOUTE INTERPRETATION ETANT "plausible " ET MALHEUREUSEMENT DIRIGEE.

Sarkis Serge Tateossian

Sujet totalement d'actualité. Notre future se décidé aujourd'hui et on est pour le moment mal parti.

L'EXPRESSION DE LA LIBRE ANALYSE

NOUS SOMMES PRIS DANS UNE SPIRALE VICIEUSE... TRES VICIEUSE !

Dernières infos

Les signatures du jour

Décryptage de Scarlett HADDAD

Le Liban invité à Astana : une reconnaissance de la priorité du dossier des réfugiés syriens

Les + de l'OLJ

1/1

Les articles les plus

A WEEKLY EDITION CURATED AND
PERSONALIZED BY OUR EDITORIAL TEAM

SIGN UP TO OUR NEWSLETTER IN ENGLISH

More Info See Sample
x

Pour enregistrer cet article dans votre dossier personnel Mon Compte, vous devez au préalable vous identifier.

L'Orient-Le Jour vous offre 5 articles

Nous sommes un journal indépendant, nous chérissons notre liberté qui découle de notre autonomie financière comme de nos principes éthiques. Votre soutien, cher lecteur, est plus que nécessaire pour pérenniser nos initiatives.

Je poursuis la lecture

4

articles restants