Critiques littéraires

L’intelligence juridique pour une intelligence artificielle éclairée

L’intelligence juridique pour une intelligence artificielle éclairée

D.R.

L’affaire Cambridge Analytica, survenue en 2018, a révélé comment des algorithmes ont pu orienter les votes de l’élection présidentielle américaine, en exploitant les données personnelles d’utilisateurs Facebook pour leur envoyer du contenu ciblé. Cette affaire met en lumière les risques juridiques inhérents à l’intelligence artificielle (IA) et développés dans l’ouvrage Les Algorithmes font-ils la loi ? d’Aurélie Jean, duquel le présent article est largement inspiré.

Les algorithmes sont-ils coupables ?

Les algorithmes utilisent couramment des données personnelles collectées sur la situation, le phénomène ou le scénario à simuler. Leur choix, primordial pour l’apprentissage, peut induire un « biais » et provoquer une « discrimination technologique » conduisant, par exemple, Apple Card en 2019 à accorder aux hommes des lignes de crédit jusqu’à vingt fois plus élevées que celles des femmes à mêmes conditions fiscales et avec le même historique de crédit. On peut citer également les problèmes de reconnaissance faciale qui échouent à reconnaître les peaux noires en raison d’un manque de diversité dans les données d’apprentissage.

L’algorithme ne peut cependant pas être tenu « coupable », car il n’est ni une entité physique ni une entité juridique. Ce sont les individus, responsables des décisions concernant son utilisation, son implémentation et leurs conséquences, qui endossent la responsabilité de ces choix.

Aux USA et en Europe, la justice elle-même fait appel aux algorithmes. À Los Angeles, l’algorithme PredPol, « entraîné » sur un échantillon de données portant sur des crimes passés, permettait aux juges d’évaluer le risque d’une libération sous caution. Instaurée en 2012, son utilisation a été interrompue en 2020 en raison du risque élevé de discrimination raciale dans les suggestions algorithmiques.

En l’absence d’un jugement « éclairé », les algorithmes peuvent compromettre l’indépendance de la justice et entraîner des préjudices pour des personnes innocentes.

Comment concilier les avantages remarquables de l’IA avec la prévention des risques qu’elle présente ?

La justice peut-elle « auditer » la mise en place des algorithmes ?

Les règles logiques qui composent les algorithmes dits « explicites » sont explicitement définies, comme dans les « arbres décisionnels » : chaque nœud de l’arbre inclut une condition sous forme de question dont chaque réponse possible pilote le choix de la prochaine étape (« si le client a moins de trente ans alors… »).

Les algorithmes implicites, tels les algorithmes d’apprentissage, comprenant les algorithmes de « Machine Learning » et les « réseaux de neurones - Deep Learning », sont difficiles, voire impossibles à « auditer » ; or ces algorithmes sont précisément en plein essor et présentent de brillantes perspectives dans des domaines de la médecine, la sécurité, la finance ou la robotique.

Aussi étonnant que cela puisse paraître, il existe une méthode qui permet à l’algorithme de s’auto-expliquer : pendant son exécution, l’algorithme est capable de fournir des indications sur son propre fonctionnement.

On utilise le terme « explainability by design » pour décrire l’ensemble des méthodes mises en place en amont pour anticiper l’explicabilité des algorithmes, ainsi que les moyens permettant d’y parvenir.

Les algorithmes pourront ainsi fournir des informations qui améliorent notre compréhension de leurs « décisions » préliminaires, afin de nourrir la réflexion humaine qui précède une décision finale, quel que soit le domaine.

Cette capacité est essentielle pour fournir des éléments d’explicabilité et de transparence, surtout dans le contexte de la justice. Cependant, il est crucial d’assumer une responsabilité humaine et d’acquérir les compétences nécessaires pour développer une analyse critique de ces outils, dans l’intérêt des citoyens.

Les perspectives légales 

Au lieu de réguler les algorithmes, la loi devrait exiger des entreprises et des équipes la mise en œuvre d’une gouvernance technique et scientifique visant à garantir une compréhension minimale des technologies, l’absence de biais tant dans les données que dans les algorithmes entraînés, une collecte de données inclusive, ainsi qu’une utilisation responsable de ces outils.

La scientifique américaine Cathy O’Neil propose la création d’une agence d’évaluation et de régulation, similaire à la Food and Drug Administration (FDA), pour approuver le déploiement massif d’algorithmes dans un domaine spécifique et pour des applications particulières.

Les critères d’approbation de cette « Data and Algorithmic Administration » pourraient être élaborés par des équipes composées de scientifiques, d’ingénieurs spécialisés dans les données et l’algorithmique, d’experts industriels et de chercheurs universitaires, en étroite collaboration avec des juristes, même si cette approche risquerait de ralentir considérablement les processus de déploiement des algorithmes et, par conséquent, de réduire la capacité des acteurs technologiques à innover.

Il est crucial que la législation soit rédigée de manière aussi précise que possible afin de minimiser les risques de lacunes technologiques, et d’éviter ainsi un « vide technologique » aussi préjudiciable qu’un « vide juridique ».

La perspective d’établir une législation sur l’IA est prometteuse, notamment en considérant l’efficacité du Règlement Général sur la Protection des Données (RGPD) qui protège les données personnelles et instaure une relation de confiance entre les citoyens des 27 États membres de l’Union européenne. Son équivalent en Californie, le CCPA (California Consumer Privacy Act), pourrait être prochainement étendu à l’ensemble des États-Unis.

Enfin, il est de la responsabilité des utilisateurs de comprendre, même de manière générale, le fonctionnement des outils, d’autant plus que la loi leur accordera le droit de demander des explications claires et sans équivoque aux acteurs technologiques.

C’est au prix de ces efforts que l’on pourra satisfaire un « utilisateur éclairé » plutôt que de déconcerter un « utilisateur ébloui » par la technologie.

Les Algorithmes font-ils la loi ? d’Aurélie Jean, Le Livre de Poche, 2023, 224 p.

L’affaire Cambridge Analytica, survenue en 2018, a révélé comment des algorithmes ont pu orienter les votes de l’élection présidentielle américaine, en exploitant les données personnelles d’utilisateurs Facebook pour leur envoyer du contenu ciblé. Cette affaire met en lumière les risques juridiques inhérents à l’intelligence artificielle (IA) et développés dans...

commentaires (0)

Commentaires (0)

Retour en haut