Le professeur Karim Benyekhlef signe l’article « L’IA et nos principes de justice fondamentale » publié dans le dossier Dimensions éthiques et sociales de l’intelligence artificielle du Forum Options politiques dont voici un extrait :
Il faut aborder rapidement la question des données massives, qui heurtent de plein fouet les fondements des lois de protection des données personnelles.
L’actualité récente bruisse des effets et incidences de l’intelligence artificielle (IA) sur l’emploi, la finance, la santé, le droit, etc. Il convient bien entendu de raison garder, mais on pressent des changements importants. Or il importe de s’assurer que ceux-ci se feront dans le meilleur intérêt de tous et que les disruptions induites par l’IA n’entraînent pas une dégradation des conditions socioéconomiques d’une partie de la population ou des atteintes démesurées aux droits. Sans prétendre à l’exhaustivité, examinons quelques effets ou conséquences de l’IA dans le champ de la seule justice.
On peut d’abord affirmer qu’une approche strictement éthique de l’IA apparaît insuffisante en raison du caractère très fluide de l’éthique et de son absence de sanction. Un cadre régulatoire, qui se fondera sur les principes juridiques existants, semble nécessaire, quitte à le compléter en raison de la nature inédite de certaines situations posées par l’IA (par exemple, la question de la responsabilité civile de la voiture autonome).
La cyberjustice
La cyberjustice pourrait être définie comme le recours aux technologies de l’information, dans leur sens le plus large et comprenant donc l’IA, pour faciliter le traitement, l’organisation et la communication de l’information juridique et judiciaire dans le monde de la justice. Voilà un secteur où l’IA a déjà fait son entrée. On pense à certains outils algorithmiques utilisés devant les tribunaux américains pour déterminer la sentence d’une personne trouvée coupable, afin d’aider le juge à décider si une personne doit être détenue ou non durant les procédures, ou encore aux outils de justice prédictive qui proposent une prédiction statistique du résultat possible d’un litige. À la lumière de plusieurs enquêtes journalistiques aux États-Unis, dont celle de ProPublica, on note que certains de ces outils révèlent des biais discriminatoires envers des populations pauvres, racisées ou autrement marginalisées. Les préjugés et les biais du développeur, mais surtout ceux qui se retrouvent dans les données appelées à nourrir l’algorithme, sont ainsi incorporés dans l’outil. Comment assurer que l’outil algorithmique reflète les principes de la justice fondamentale, comme la présomption d’innocence, la non-discrimination ou l’équité générale du procès ? …
Lire la SUite
Les bonnes pratiques de développement algorithmiques
Il importe ainsi d’élaborer des pratiques de développement algorithmique qui incorporent des dispositifs contre la discrimination, les biais et les préjugés raciaux, ethniques, religieux, sexuels etc., mais intègrent également des dispositifs positifs de protection des droits fondamentaux, des droits des consommateurs et des citoyens dans leurs relations avec l’administration publique. Ces outils doivent aussi révéler le raisonnement qui fonde leurs résultats…
Lire la SUite
Le partage des données
Il existe, à l’heure actuelle, un déséquilibre délétère en ce qui concerne les données, ingrédient essentiel des techniques d’IA. Les données les plus intéressantes au plan de leur contenu et de leur référencement se trouvent dans les mains des géants du Web (Facebook, Google), grâce aux services gratuits qu’ils offrent et qui leur permettent de collecter une masse formidable d’informations. Ils vendent parfois certains jeux de données (ou y donnent accès), mais les conservent en général à leur seul bénéfice, arguant, comble de l’ironie, que les rendre accessibles constituerait une atteinte au droit à la vie privée des personnes fichées…
Lire la SUite
Ce contenu a été mis à jour le 19 février 2018 à 14 h 31 min.