Rechercher un rapport, une publication, un expert...
Rencontres
Mars 2020

Algorithmes : contrĂ´le des biais S.V.P.

Imprimer
PARTAGER

Le mardi 10 mars, Anne Bouverot (prĂ©sidente du conseil d'administration de Technicolor et prĂ©sidente, Fondation Abeona, co-prĂ©sidente du groupe de travail), Dominique Cardon (directeur, MĂ©dialab de Sciences Po), Marie-Laure Denis (prĂ©sidente, CNIL) et Sasha Rubel (experte du programme Innovation Digitale Ă  l’UNESCO) Ă©taient rĂ©unis afin d’échanger sur le rapport publiĂ© ce jour par l’Institut Montaigne Algorithmes : contrĂ´le des Biais S.V.P.. Les Ă©changes Ă©taient modĂ©rĂ©s par Nicholas Vinocur (Technology Editor chez Politico). Après une brève introduction de Camille Godeau, directrice adjointe de l’Institut Montaigne, et une prĂ©sentation du rapport par Anne Bouverot, les dĂ©bats ont portĂ© sur les solutions en France et Ă  l’international pour rĂ©pondre aux enjeux que posent les algorithmes. 

biais-des-algorithmes-table.jpg​

Les enjeux actuels des biais algorithmiques 

Les biais algorithmiques posent des questions de sociĂ©tĂ© selon Dominique Cardon. Le rĂ´le de l’algorithme est de classer, filtrer, ordonner. Par dĂ©finition donc, il est biaisĂ©. La question qui se pose est celle de la capacitĂ© de l’algorithme Ă  reprĂ©senter statistiquement des populations (par exemple dans le cas du classement scolaire ou du recrutement). Un autre risque repose sur les algorithmes de recommandation en ligne, auxquels on reproche d’aller Ă  l’encontre du libre arbitre de l’individu.

De mĂŞme, le choix de l’objectif d’équitĂ© de l’algorithme reprĂ©sente en lui-mĂŞme un enjeu. En effet, au nom de l’optimisation de l’équitĂ© individuelle, on peut laisser de cĂ´tĂ© l’équitĂ© de groupe, et vice-versa. Enfin, alors que, prĂ©cĂ©demment, les tables statistiques comportaient une centaine de variables, aujourd’hui les algorithmes de machine learning multiplient les variables sans permettre de voir les chemins de prise de dĂ©cision. 

Réguler sans freiner l’innovation, un cadre législatif existant sur lequel s’appuyer

Pour autant les algorithmes représentent aussi une opportunité selon Marie-Laure Denis, un message qui fait écho au rapport de l’Institut Montaigne. La difficulté est alors de rester attentif aux risques de biais, sans entrer dans une démarche qui freine l’innovation.

Marie-Laure Denis partage Ă©galement le constat du rapport qu’un arsenal lĂ©gislatif et rĂ©glementaire existe. La lĂ©gislation actuelle encadre la collecte et l’utilisation de donnĂ©es personnelles et interdit qu’une machine puisse prendre une dĂ©cision sans action humaine. Le Conseil constitutionnel a rĂ©itĂ©rĂ© ce principe en dĂ©terminant qu’il ne peut y avoir une procĂ©dure fiscale enclenchĂ©e sans une action humaine. De plus, la loi pour une RĂ©publique numĂ©rique de 2016 impose des critères de transparence. Enfin, le RGPD a mis en place un principe de proportionnalitĂ© et a renforcĂ© la sĂ©curitĂ© des donnĂ©es. Ce cadre rĂ©pond ainsi Ă  des prĂ©occupations Ă©thiques et juridiques. 

Cependant, un enjeu demeure concernant la responsabilisation des acteurs vis-Ă -vis de leurs algorithmes. La mission conduite par la CNIL en 2017, pour laquelle 45 dĂ©bats avaient Ă©tĂ© organisĂ©s sur le territoire, a abouti Ă  la rĂ©daction d’un rapport sur les algorithmes. Celui-ci est construit selon deux grands principes : loyautĂ© et vigilance. 

De même, d’après Sasha Rubel, à l’échelle internationale une collaboration a été mise en place. C’était déjà le cas en 2015, à travers la démarche de l’UNESCO visant à réaliser une charte de l’universalité d’internet déterminant des principes fondamentaux. Aujourd'hui, Sasha Rubel souligne que l’UNESCO élabore une charte normative de l’intelligence artificielle qui sera finalisée en 2021.

Selon Dominique Cardon, il est aussi essentiel de mettre en relief l’avance prétendue de certaines entreprises étrangères face aux acteurs français. Concernant le domaine de la santé par exemple, Google semble posséder un large spectre de données mais a en réalité accès à des signaux faibles sur l’état de santé des gens, en comparaison des données de la carte vitale. Toutefois, si le RGPD a rehaussé le niveau juridique de protection des données sensibles, l’usage de ces données doit être fortement encadré. Il est donc nécessaire de laisser la possibilité de déterminer la réponse adaptée au cas par cas selon Marie-Laure Denis.

Limiter les biais dès l’élaboration de l’algorithme jusqu’à son déploiement: tests, explicabilité, formation

La notion d’explicabilitĂ© est dĂ©fendue aux Ă©chelles nationale et europĂ©enne. Selon Dominique Cardon, il y a une demande de comprĂ©hension de plus en plus forte dans la sociĂ©tĂ© face Ă  des systèmes parfois opaques. L’explicabilitĂ© est ainsi mentionnĂ©e dans le rapport de la Commission europĂ©enne, bien que dĂ©finie d’une manière non technique, en mettant d’autres principes en valeur : transparence, responsabilitĂ©, non-discrimination et diversitĂ©. Aux Pays-Bas, un tribunal vient par exemple d’interdire au gouvernement nĂ©erlandais d’utiliser un logiciel tant que son code n’aura pas Ă©tĂ© publiĂ©. De mĂŞme, la CNIL avait mis en demeure l’Education nationale afin qu’elle rende le code de sĂ©lection d’APB public. Mais rendre un code public ne suffit pas forcĂ©ment. Le rapport prĂ©sentĂ© par Anne Bouverot dĂ©fend la nĂ©cessitĂ© d’avoir encore plus d’exigence pour les algorithmes Ă  fort impact, en demandant non seulement de la transparence sur les donnĂ©es utilisĂ©es mais aussi la mise en place d’un droit de recours.

Afin de faire face aux risques de biais, toute une sĂ©rie d’acteurs doit ĂŞtre mobilisĂ©e, mĂŞlant les communautĂ©s impliquĂ©es, les chercheurs ainsi que la sociĂ©tĂ© civile. Au niveau international, le besoin est aujourd’hui celui d’une alphabĂ©tisation vis-Ă -vis de l’IA selon Sasha Rubel. 

Un mouvement est Ă©galement en train d’avoir lieu pour dĂ©velopper, au sein de l’Etat, des capacitĂ©s d’audit pour crĂ©er des relations nouvelles avec les plateformes au-delĂ  des sanctions punitives. Le AI Now Institute et Kate Crawford ont ainsi créé un cadre pour rĂ©aliser des Ă©tudes d’impact algorithmique. 

Développer une approche d’équité active

Une recommandation importante du rapport est la mise en place de tests vis-Ă -vis de variables protĂ©gĂ©es, qui ne seraient pas dans les donnĂ©es initiales mais envers lesquelles les systèmes de machine learning pourraient ĂŞtre indirectement discriminants. En effet, mĂŞme sans que des algorithmes de machine learning aient accès Ă  des donnĂ©es sensibles, par exemple l’origine ethnique, le genre ou la religion, il est possible de les retrouver par d’autres critères. PlutĂ´t que de chercher Ă  ne pas les regarder, il est nĂ©cessaire d’intĂ©grer ces donnĂ©es sensibles au moment du test de l’algorithme, pour pouvoir s’assurer que l’algorithme ne discrimine pas - c’est ce que Anne Bouverot appelle “équitĂ© active”. 

MalgrĂ© tout, la question de la reprĂ©sentation statistique d’un groupe (les femmes ou une minoritĂ© ethnique par exemple) dans le monde rĂ©el demeure centrale et rend difficile d’identifier de manière unilatĂ©rale ce que constitue un biais. 

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne