Rechercher un rapport, une publication, un expert...
La plateforme de débats et d’actualités de l’Institut Montaigne
21/06/2023
Imprimer
PARTAGER

Quand l’IA défie le libéralisme politique

Quand l’IA défie le libéralisme politique
 Charleyne Biondi
Auteur
Experte Associée - Numérique

Quels principaux défis la révolution de l’IA pose-t-elle aux gouvernements et régulateurs internationaux ? Pour Charleyne Biondi, nouvelle experte associée à l’Institut Montaigne, spécialiste des questions numériques, l’IA générative transforme l’enjeu réglementaire en un véritable défi éthique. La protection de nos sociétés et des individus qui la composent doit être la priorité, face à des systèmes autonomes qui peuvent altérer la vérité et ébranler le fonctionnement de certains de nos services publics. Alors que l’UE vient d’adopter une législation pionnière en la matière, l’AI ACT, l’auteur s’interroge sur l’impact de ces réglementations sur nos institutions politiques libérales.

Le succès de Chat GPT, premier modèle d’intelligence artificielle (IA) générative à connaître un large usage commercial, a donné un nouveau souffle aux dystopies technologiques des grands récits de science-fiction. Avec la lettre ouverte demandant un moratoire sur le développement de l’IA, signée par les fondateurs de Chat GPT eux-mêmes, le scénario catastrophe d’une super-intelligence capable de mettre en danger l’humanité est tout à coup devenu une hypothèse sérieuse dans le débat public. Si la communauté scientifique reste partagée sur la probabilité qu’une telle menace se matérialise à l’avenir, les perspectives de croissance de l’industrie numérique, et en particulier de normalisation des applications d’intelligence artificielle générative, ne laissent cependant aucun doute sur l’enjeu sociétal que ces nouvelles technologies représentent dans l’immédiat. Du marché de l’emploi à l’éducation, de la recherche médicale à l’industrie de défense, tous les secteurs sont susceptibles d’être transformés par la massification de contenus générés par des IA.

L’arrivĂ©e des IA gĂ©nĂ©ratives est souvent comparĂ©e Ă  la naissance d’internet, pour souligner la qualitĂ© Ă©pistĂ©mologique de la rupture qui se profile : ces nouveaux systèmes d’apprentissage non-supervisĂ©s, autonomes, et capables de crĂ©er de toutes pièces des textes, images ou mĂ©lodies qui n’existaient pas, laissent en effet prĂ©sager un changement radical dans le socle des connaissances, et surtout, une remise en cause des hypothèses fondamentales Ă  partir desquelles on apprĂ©hende le rĂ©el. Par exemple : l’équation philosophique de la modernitĂ©, par laquelle la raison humaine est le moteur du progrès et de l’avancement de l’humanitĂ©, n’apparaĂ®t plus comme une Ă©vidence ; l’idĂ©e que la crĂ©ativitĂ© est le propre de l’homme, non plus. Ainsi, dans tous les domaines, des machines dont le fonctionnement demeure parfois opaque, mĂŞme pour leurs concepteurs, produiront toujours plus de connaissances et de vĂ©ritĂ©s sur le monde, soulevant du mĂŞme coup des prĂ©occupations inĂ©dites pour les droits d’auteur, la vie privĂ©e ou encore la vĂ©racitĂ© des informations… Nul besoin, donc, de s’aventurer vers les extrapolations long-termistes d’un "risque existentiel" pour l’humanitĂ© pour comprendre que l’IA gĂ©nĂ©rative pose dĂ©jĂ  un dĂ©fi majeur Ă  la sociĂ©tĂ© : c’est tout un tissu de normes et de pratiques sociales qu’elle met en jeu.

Dès lors, la puissance publique ne peut pas se contenter de venir rĂ©guler a posteriori les externalitĂ©s socio-Ă©conomiques produites par des innovations "disruptives" telles que les Ă©conomies de plateforme de Uber ou AirBnB. Car l’IA gĂ©nĂ©rative, prĂ©cisĂ©ment parce qu’elle a vocation Ă  ĂŞtre signifiante, Ă  dire des choses sur le monde, transforme l’enjeu rĂ©glementaire en un enjeu Ă©thique : celui de protĂ©ger les individus et les sociĂ©tĂ©s contre le risque que ces systèmes autonomes disent n’importe quoi – risque d’autant plus important lorsque l’IA en question est appliquĂ©e Ă  un domaine sensible tel que la justice pĂ©nale, la police, ou la sĂ©curitĂ©.

Bénéficier des opportunités révolutionnaires de ces innovations tout en minimisant les risques potentiels de ces nouveaux outils pour les droits fondamentaux, tel est donc l’objectif des gouvernements et des organisations internationales, lancés dans une "course à la réglementation" depuis l’avènement de Chat GPT. L’Union européenne (UE), qui travaille à un "acte sur l’intelligence artificielle" depuis avril 2021, vient d’adopter le 14 juin 2023 une législation pionnière en la matière, visant à catégoriser et réguler les applications d’IA en fonction de leur niveau de risque. Le texte est à ce stade loin d’être définitif, puisqu’il sera prochainement débattu et amendé durant la phase de trilogues ; mais il offre cependant un aperçu très complet des enjeux politiques de l’intelligence artificielle.

Nous nous concentrerons plus particulièrement sur la façon dont l’IA met sous tension le cadre libéral de nos institutions politiques ; d’abord, à travers ses applications à visées sécuritaires telle que la reconnaissance faciale, qui ont fait ressurgir dans le débat public le spectre de la "surveillance de masse" et l’impossible arbitrage entre sécurité et liberté ; et enfin, à travers le dilemme que soulève la réglementation des IA génératives, qui pour être correctement appréhendées forcent le libéralisme à renoncer à ses propres principes – et à se prononcer sur ce qui serait (ou non) un avenir – un progrès – désirable.

L’IA fait ressurgir le spectre de la surveillance de masse

L’IA, comme la plupart des technologies numériques, est un objet juridique difficile à saisir – il n’y a pas de définition universellement admise de ces outils, dont les usages évoluent d’ailleurs souvent trop vite pour être "fixés" par des termes spécifiques. En conséquence, pour éviter de construire un cadre réglementaire qui glisserait trop rapidement dans l’obsolescence, l’Union européenne a fait le choix d’appréhender les applications d’IA en fonction de leur niveau de risque.

L’Acte sur l’intelligence artificielle classe ainsi les systèmes d'IA en quatre catĂ©gories de risque : inacceptable, Ă©levĂ©, limitĂ© et minimal. Les applications tombant dans la catĂ©gorie de risque minimal ne sont soumises Ă  aucune exigence spĂ©cifique, tandis que celles prĂ©sentant un risque limitĂ©, comme les chatbots par exemple, sont soumises aux normes de transparence traditionnelles de sĂ©curitĂ© des produits dans l’UE. En revanche, pour les systèmes d'IA Ă  risque Ă©levĂ©, l’acte europĂ©en Ă©tablit un nouveau cadre rĂ©glementaire spĂ©cifique. Ainsi, les systèmes d’IA utilisĂ©s pour l’identification biomĂ©trique Ă  distance ou pour prendre des dĂ©cisions automatisĂ©es ayant des consĂ©quences juridiques par exemple, auront l’obligation de respecter des critères stricts en matière de transparence, d'explicabilitĂ© et de robustesse des systèmes.

Quant aux IA présentant un risque jugé inacceptable pour la sécurité et les droits fondamentaux, ils sont tout simplement prohibés. C’est le cas par exemple des systèmes qui manipulent le comportement humain et portent atteinte à la dignité des personnes, des applications qui permettent une forme de "crédit social" à la chinoise, ou des IA qui font de la reconnaissance faciale ("identification biométrique") en temps réel.

Les mesures d’encadrement de la reconnaissance faciale demeurent cependant l’objet de vives controverses. L’acte sur l’IA autorise en effet certains usages de reconnaissance faciale et en proscrit d’autres. L’identification biométrique n’est interdite que si elle est opérée en temps réel, dans l’espace public et à des fins de répression ; mais autorisée, par exemple, si elle intervient "a posteriori" de la captation d’images de vidéo-surveillance (elle est alors classée dans la catégorie des systèmes à risque élevé). L’ambiguïté du texte a provoqué de vives réactions de la part d’organisations de la société civile, qui craignent que l’absence d’interdiction ferme ne conduise à des usages abusifs de ces technologies par les pouvoirs publics. Ces craintes de voir la reconnaissance faciale instrumentalisée au nom de la sécurité et de la lutte antiterroriste ont par ailleurs été accentuées par une récente proposition de loi émanant de sénateurs français, qui vise à mettre en place une "expérimentation" des technologies d’identification biométrique en temps réel par les pouvoir publics, dans des lieux particulièrement exposés à des risques d’insécurité.

De fait, l’encadrement de la reconnaissance faciale a fait ressurgir la question qui structure tout le dĂ©bat politique autour des technologies numĂ©riques depuis le 11 septembre 2001 : celle de la surveillance de masse. HantĂ©es par les spectres des États totalitaires du XXème siècle, nourries de rĂ©fĂ©rences post-modernes sur les sociĂ©tĂ©s panoptiques et de contrĂ´le et de fantasmes orwelliens, les thĂ©ories de la surveillance numĂ©rique dĂ©noncent l’instrumentalisation des nouvelles technologies par l’État, et la mutation illibĂ©rale de nos dĂ©mocraties en appareils techno-sĂ©curitaires, au prĂ©texte d’une lutte contre le terrorisme et autres insĂ©curitĂ©s.

Or, l’IA est de ce point de vue beaucoup plus intrusive que la collecte massive de donnĂ©es (Big Data) : d’une part, les donnĂ©es biomĂ©triques utilisĂ©es dans le cadre de la reconnaissance faciale sont considĂ©rĂ©es comme des donnĂ©es "sensibles" par le règlement gĂ©nĂ©ral pour la protection des donnĂ©es (RGPD) ; d’autre part, la reconnaissance faciale permet de surveiller les individus Ă  une Ă©chelle et avec une prĂ©cision inĂ©galĂ©es. Enfin, mĂŞme sans identification biomĂ©trique, l'IA peut ĂŞtre utilisĂ©e pour analyser et interprĂ©ter toutes sortes de donnĂ©es de surveillance, permettant ainsi des contrĂ´les bien plus ciblĂ©s. Comme en tĂ©moigne le texte de la loi "JO" en France, des "camĂ©ras augmentĂ©es" (ou intelligentes) sont tout Ă  fait capables, sans avoir recours Ă  aucun marqueur d’identification biomĂ©trique, de dĂ©tecter en temps rĂ©el des comportements suspects, et donc de suivre (sans pour autant l’identifier) un individu donnĂ© dans une foule.

Ainsi, après une dĂ©cennie d’alertes lancĂ©es au sujet des moyens de surveillance des services de renseignement et de l’industrie technologique, de lois adoptĂ©es pour encadrer ces pratiques et pour protĂ©ger les donnĂ©es des utilisateurs, et de prise de conscience de ces enjeux par le marchĂ©, la reconnaissance faciale nous renvoie en quelque sorte Ă  la case dĂ©part. Elle rend potentiellement caduques les garde-fous que l’on croyait avoir instituĂ©s, et reformule ce paradoxe politique que la technologie ne cesse de nourrir : Ă  l’ère numĂ©rique, la condition de la sĂ©curitĂ© de l’État libĂ©ral – incarnĂ©e par l’appareil techno-surveillanciel – porte aussi sa nĂ©gation potentielle.

Pour le dire autrement : en collectant les donnĂ©es de ses citoyens, ou en identifiant Ă  leur insu leurs visages, en se donnant les moyens de violer la vie privĂ©e de n’importe qui, l’État libĂ©ral enfreint cela mĂŞme qui lĂ©gitime son existence : la sĂ©paration du public et du privĂ©, et la promesse de protĂ©ger, toujours, le second des invectives du premier. C’est ce que David Lyon nommel’irrĂ©ductible ambiguĂŻtĂ© de la surveillance : celle-ci apparaĂ®t Ă  la fois comme une nĂ©cessitĂ© pour la sĂ©curitĂ© de la sociĂ©tĂ© et comme une menace pour les libertĂ©s individuelles.

En thĂ©orie, l’acte sur l’IA est prĂ©cisĂ©ment formulĂ© pour Ă©viter ces Ă©cueils, et pour instituer, en amont, un cadre qui empĂŞche toute instrumentalisation abusive de ces technologies, y compris par l’État. Cependant, l’approche rĂ©glementaire choisie, et notamment la catĂ©gorisation des systèmes d’IA selon leur niveau de risque, ne peut faire l’économie d’un certain degrĂ© de gĂ©nĂ©ralitĂ© dans la spĂ©cification des systèmes proscrits. En d’autres termes, les autoritĂ©s et les acteurs rĂ©glementĂ©s devront interprĂ©ter les dispositions lĂ©gales applicables, ce qui n’est pas optimal lorsque des droits fondamentaux sont en jeu.   

L’IA générative et la tentation d’une réglementation "à la racine"

Les limitations d’une approche réglementaire par le risque apparaissent déjà dans l’acte sur l’IA lui-même. En effet, pris de court par l’arrivée sur le marché de Chat GPT, le Parlement européen a dû amender le texte présenté par la Commission, qu’il jugeait inadapté à l’encadrement de tels systèmes (nommés dans le texte "modèles de fondation", en référence à ce type d’IA générative polyvalente, capable de servir de "base" pour une large gamme d’applications, comme Chat GPT).

Ainsi, pour les IA génératives polyvalentes, les parlementaires ont estimé qu’il ne suffisait pas de réglementer les applications de ces IA, mais leur conception même. En d’autres termes, toute innovation en matière d’IA générative devra être soumise, dès sa création, à un certain nombre de règles éthiques et politiques, comme l’utilisation de bases de données contrôlées, le respect des droits d’auteur, la prise en compte de l’impact environnemental, et une garantie de transparence. Bien entendu, il ne s’agit à ce stade que d’un projet de mandat de négociation adopté par le Parlement, lequel sera encore débattu et sans doute largement amendé au cours la dernière phase législative des trilogues durant laquelle il passera de nouveau par la Commission et le Conseil avant d’être soumis à la validation finale du Parlement européen. Ces propositions ne sont donc pas définitives, mais elles sont néanmoins essentielles pour évaluer l’enjeu politique de ces technologies.

Le vote du Parlement europĂ©en a Ă©tĂ© unanimement saluĂ© comme un geste politique fort - voire trop fort, pour ceux qui craignent que, dans la course stratĂ©gique Ă  l’innovation, la prudence europĂ©enne n’inflige Ă  son industrie un fardeau irrĂ©mĂ©diable. Pour le meilleur ou pour le pire, il tĂ©moigne en effet d’une tentative d’extension du pouvoir politique Ă  une sphère qui lui restait plus ou moins impermĂ©able : celle du progrès techno-scientifique. Alors qu’on a tant de fois regrettĂ© que la puissance disruptive de l’industrie numĂ©rique conduise Ă  une destitution du politique, et craint que face Ă  l’influence des GAFAM la dĂ©mocratie se trouve vidĂ©e de son sens, le Parlement europĂ©en envisage, pour la première fois, la seule mesure qui permettrait vraiment de renverser ce rapport de force : celle de soumettre, Ă  la racine, le progrès technologique Ă  une volontĂ© politique.

Que ce projet soit souhaitable, ou mĂŞme rĂ©alisable, n’est pas la question. Ce qui est essentiel, c’est de comprendre ce que la position europĂ©enne sur l’IA rĂ©vèle de la crise politique, et mĂ©taphysique, que la transformation numĂ©rique fait germer depuis des annĂ©es. Il ne faut pas se tromper de sujet : le problème n’est pas que la technologie dĂ©cide et dĂ©termine le sens de l’Histoire – elle l’a toujours fait. Ce que l’IA gĂ©nĂ©rative fait dĂ©sormais apparaĂ®tre avec une virulente clartĂ©, c’est que les avancĂ©es technologiques remettent en question le sens mĂŞme du Progrès, et ce faisant, brisent la seule boussole de l’ordre politique occidental, privent nos institutions dĂ©mocratiques de l’unique assise Ă©thico-philosophique dont elles pouvaient se prĂ©valoir.

Le Progrès comme boussole : force et faiblesse du libĂ©ralisme

On reproche souvent Ă  la modernitĂ© d’avoir remplacĂ© Dieu par une autre religion, celle du Progrès. C’est faux, car en rĂ©alitĂ© la Foi de l’homme moderne ne se fonde qu’en lui-mĂŞme : c’est en sa propre Raison qu’il croit, et en la libertĂ© qu’elle lui confère de tracer toujours plus loin son propre chemin – de progresser. Or, dès lors que l’horizon des hommes n’est plus la dĂ©couverte et l’acceptation du dessein que Dieu a voulu pour eux, mais la poursuite d’un avenir meilleur qu’il leur incombe de construire, les institutions politiques gagnent un tout autre rĂ´le : celui d’organiser les affaires humaines de façon Ă  ce que la sociĂ©tĂ© soit libre de produire le plus efficacement possible tout ce qui contribuera Ă  l’amĂ©lioration de ses conditions. En d’autres termes, au lieu d’incarner un ordre et une vision qui les transcende, les institutions politiques sĂ©cularisĂ©es deviennent le moyen par lequel l’ordre du monde est dĂ©terminĂ©, le rouage intermĂ©diaire et essentiel entre les hommes et leurs espoirs – entre les hommes et leur Progrès.

Ce Progrès, cependant, reste indĂ©terminĂ©. C’est une abstraction totale, un concept sans visage, qui n’est rattachĂ© Ă  aucune idĂ©e transcendante. Le Progrès n’est d’ailleurs mĂŞme pas une idĂ©e, mais seulement l’idĂ©e, sans cesse changeante, que l’on s’en fait. C’est une coquille vide, un rĂ©ceptacle des aspirations toujours renouvelĂ©es de l’humanitĂ©. En un mot : le Progrès est un processus – celui d’une avancĂ©e perpĂ©tuelle, et perpĂ©tuellement redirigĂ©e par la contingence des hommes et de leurs dĂ©sirs.

La relation de la démocratie libérale au Progrès est donc beaucoup plus subtile qu’une soumission de la première au second. Car le Progrès comme processus historique, le Progrès comme promesse des hommes à eux-mêmes, pour être réalisé, force la politique à renoncer à tout ce qui la rend prescriptive. Pour le dire autrement, le libéralisme est bien la théorie politique du Progrès ; c’est même précisément la théorie qui a réussi l’exploit de transformer cette notion parfaitement a-morale de Progrès en horizon moral. En effet, en renonçant à imposer toute "vision" transcendante du Bien ou du Juste, le libéralisme a indexé le "bien" et le "juste" à la liberté des hommes, et en particulier, à leur liberté d’entreprendre, de déployer leur ingéniosité, et de matérialiser leur Raison au travers de prouesses techniques et scientifiques.

Les institutions politiques de nos dĂ©mocraties libĂ©rales ont donc Ă©tĂ© pensĂ©es et construites pour tenir cette promesse : pour faire en sorte que l’ingĂ©niositĂ© et l’entreprise humaines, en tant qu’expression de notre libertĂ©, soient les seuls dĂ©terminants de ce qu’il nous est permis d’espĂ©rer, ou autrement dit, les seuls dĂ©terminants du Progrès. Cela implique, en retour, une conception strictement administrative du politique, oĂą le mandat des institutions consiste simplement Ă  garantir que rien n’arrĂŞte le progrès perpĂ©tuel de la sociĂ©tĂ©, et Ă  s’assurer qu’elle en dĂ©termine librement l’orientation. L’équation politique du libĂ©ralisme est presque miraculeuse, tant elle est subtile : c’est en s’effaçant que le politique gagne toute sa noblesse, en se limitant Ă  sa dimension administrative qu’il devient le garant Ă©thĂ©rĂ© du bien le plus prĂ©cieux, la libertĂ©.

 L’IA, ou la mise au dĂ©fi du libĂ©ralisme politique

L’équation politique moderne repose donc sur une croyance : que le progrès technique est le moteur du Progrès de l’humanitĂ©. Or, l’IA aujourd’hui nous fait douter de cette Ă©quivalence. D’abord, parce qu’elle met en pĂ©ril les droits fondamentaux ; mais surtout, parce que l’ampleur des mutations qu’elle pourrait provoquer conduirait Ă  radicalement redessiner les frontières du monde social. En d’autres termes, l’IA pourrait bien piper les dĂ©s du jeu libĂ©ral, indexer le sens du progrès Ă  son propre système, ce qui reviendrait Ă  priver les hommes de leur libertĂ© politique.

C’est bien parce que l’on pressent que l’IA comporte une "charge morale", et qu’elle pourrait donc imprimer sur le monde une forme de "vision" qui contraindrait des formes de vie, que les législateurs européens ont fait le choix d’intervenir "à la racine", de contrôler les hypothèses-mêmes à partir desquelles ces systèmes fonctionnent. Ce que cela nous indique, c’est que pour faire face à l’IA et aux risques qu’elle fait peser sur les droits fondamentaux, l’idéal libéral d’un État neutre, d’un État qui refuse d’endosser une quelconque "vision" collective au nom du pluralisme, devient intenable – car l’IA, elle, endossera cette vision. L’IA vient donc pousser le libéralisme dans ses derniers retranchements, en forçant le politique à se prononcer sur ce qui est (ou n’est pas) un avenir - un progrès - désirable.

En d’autres termes, le vrai enjeu politique de l’IA, c’est que ces technologies viennent mettre au dĂ©fi nos institutions sur un plan qui les dĂ©passe, et qui les exclut : elles les force Ă  reconvoquer une forme de politique morale, que le libĂ©ralisme avait justement congĂ©diĂ©e.

 

Copyright Image : OLIVIER MORIN / AFP

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne