Rechercher un rapport, une publication, un expert...
La plateforme de débats et d’actualités de l’Institut Montaigne

Technopolitique de l’IA : luttes idĂ©ologiques, tensions gĂ©opolitiques, espoirs dĂ©mocratiques

Technopolitique de l’IA : luttes idéologiques, tensions géopolitiques, espoirs démocratiques
 Asma Mhalla
Auteur
Spécialiste des enjeux politiques et géopolitiques de la Tech

Les débats autour de l’intelligence artificielle se multiplient depuis plusieurs semaines, favorisés par l’utilisation à très grande échelle de ChatGPT. Sommes-nous les contemporains d’une révolution dont l’agent conversationnel serait le leader et le héraut ? Pour Asma Mhalla, si ChatGPT marque un nouveau tournant pour l’intelligence artificielle, la révolution a déjà eu lieu. En matière d’IA, la question centrale ne serait plus tant celle du “comment” ou du “quand” mais bien celle du “qui” : qui en détient la vision ? La conception ? Et selon quels intérêts ? Face à la Chine et aux États-Unis, l’enjeu est non seulement géopolitique mais également idéologique. À cet égard, souligne l’auteur, il revient à la France et à l’Europe d’élaborer une véritable stratégie techno-industrielle.

La façon dont le débat public s’est emparé de la question de l’intelligence artificielle laisse parfois songeur : l’intelligence artificielle est souvent comprise comme un "bloc", un "concept".. Elle nous est présentée comme une perspective, quelque chose à venir, à craindre. Un horizon fantasmatique : "pour ou contre", "danger ou progrès", "l’homme ou la machine", etc. La réflexion proposée est bien souvent victime d’un enfermement binaire dont nous sommes désormais coutumiers mais qu’il faut toujours combattre avec nuance et complexité.

Pourtant, le sujet, hautement complexe, ne peut se contenter de cet excès de simplisme, l’intelligence artificielle se situe à un carrefour interdisciplinaire stratégique : data science, philosophie politique, géopolitique, droit, économie, politiques publiques.

Au-delà des fantasmes, l’IA est une réalité bien palpable, un enjeu de puissance et un vecteur de pouvoir. Elle pointe les failles de nos démocraties, nous enjoint à une réflexion sur la singularité de l’Homme. En tant que Technologie totale, elle exige une pensée totale.

La révolution a déjà eu lieu et le monde ne s’est pas effondré

En l’espèce, le fantasme est prĂ©cisĂ©ment de croire qu’il y en a un. Pour aborder sereinement un sujet aussi complexe, il faudrait avant tout se mettre en condition et convoquer les travaux du psychologue Daniel Kahneman : inhiber son premier circuit cognitif, heuristique, celui qui alimente instinctivement les Ă©motions primaires, souvent nĂ©gatives, la peur en premier lieu, pour mieux activer le second circuit, celui de la pensĂ©e complexe, du raisonnement Ă  froid, de la distance critique avec son objet.

Partant de lĂ , l’IA n’est pas un horizon, elle est une rĂ©alitĂ© matĂ©rielle, opĂ©rationnelle, dĂ©jĂ  omniprĂ©sente dans nos existences. Elle n’a d’ailleurs pas d’unicitĂ© propre. Elle est au contraire multiple, issue de modèles d’entraĂ®nement plus ou moins profonds, du "machine learning" simple au "deep learning" le plus sophistiquĂ© : intelligences artificielles gĂ©nĂ©ratives de contenus (textes, voix, images, codes), agents conversationnels, systèmes de prĂ©diction, logiciels de prise de dĂ©cisions, algorithmes de recommandation, reconnaissance faciale ou biomĂ©trique, vĂ©hicules et armes autonomes en perspective. L’ "IA-as-a-concept" participe dĂ©jĂ  Ă  nos environnements quotidiens directs ou indirects. Disons-le, la rĂ©volution de l’IA n’est pas une perspective, elle a dĂ©jĂ  eu lieu, progressivement, par Ă -coups, de sauts technologiques en surprises. Son dĂ©veloppement s’est plus particulièrement dĂ©ployĂ© ces trente dernières annĂ©es avec alternativement des moments d’emballement et d’EurĂŞka - ChatGPT en ce moment en est un, Deep Blue en 1997 (le superordinateur d’IBM qui avait alors rĂ©ussi l’exploit de battre Gary Kasparov aux Ă©checs) ou encore AlphaGo en 2015 (intelligence artificielle dĂ©veloppĂ©e par DeepMind ayant rĂ©ussi lĂ  encore Ă  battre un joueur professionnel) - en leur temps, et puis de longs tunnels de ralentissements et de doute.

En ce qui concerne ChatGPT, la  vague de "hype" que nous vivons au moment oĂą ces lignes sont Ă©crites est une rĂ©ussite technologique et commerciale, une rĂ©ussite enrobĂ©e d’un rĂ©cit savamment organisĂ© par Sam Altman mais aussi par ses dĂ©tracteurs qui ont ainsi fait monter la cĂ´te du sujet en flèche – donc sa valeur business. Ce storytelling a Ă©tĂ© abondamment repris par les mĂ©dias du monde entier. Autour de ce "momentum" populaire et mĂ©diatique, ChatGPT marque en effet un tournant, et cela Ă  trois Ă©gards :

-  Les modèles LLM (les Large Language Models) existaient dĂ©jĂ  depuis la fin 2017, mais la vitesse de propagation (scalabilitĂ© du modèle) et le niveau d’acceptabilitĂ© sociale des utilisateurs Ă  Ă©chelle globale furent quant Ă  eux rĂ©ellement inĂ©dits. En janvier 2023, ChatGPT 3.5 comptabilisait plus de 100 millions d’utilisateurs actifs Ă  peine deux mois après son lancement.

- Le saut qualitatif réel entre la version 3.5 de fin 2022 et ChatGPT 4 mis à disposition il y a à peine quelques semaines, plus complexe, plus fiable, plus cohérent, multimodal, capable de traiter des prompts (consignes) plus nuancés. Le narratif volontairement "anthropomorphe" participe à la fabrication de ce mélange paralysant de panique préfabriquée, de sentiment de perte de contrôle et de fascination. La déconstruction des discours est ici fondamentale car si les systèmes actuels sont incapables de raisonnement, ils le simulent très bien en revanche. Par exemple, les modèles génératifs reposent sur des calculs probabilistes mais à aucun moment sur une pensée autonome.

- Le nouveau coup de projecteur dans le débat public sur la place de ces outils dans nos agencements sociaux, industriels et politiques représente une occasion unique de mettre à plat des sujets latents en matière de politiques publiques que l’IA vient bousculer de nouveau, comme l’éducation (le rôle de l’école) ou le futur du travail. Le récent débat sur les retraites en France a été, de ce point de vue, une occasion politique ratée. Elle offrait pourtant un espace-temps idéal pour lancer une réflexion collective sur la place du travail dans un avenir en gestation, les mutations des emplois actuels et à venir, les mécanismes de solidarités à repenser collectivement autour d’une réaffirmation et/ou d’une mise à jour de notre contrat social.

Le potentiel de rupture proposé par ChatGPT vient de ce test d’acceptabilité de l’usage de ces programmes à grande échelle. Le passage à l’échelle prépare en quelque sorte la commodisation et la démocratisation de cet outil et de ses semblables à l’instar de MidJourney (application basée sur une IA générative d’images et d’illustrations à partir de consignes écrites) par exemple avec les bénéfices et les écueils qui leur sont associés. Cette dynamique est en train d’ouvrir des marchés nouveaux, de créer de nombreux cas d’usages à la fois civils et militaires, avec les éternelles questions éthiques et politiques qui les accompagnent inévitablement.

Ainsi, la révolution a déjà eu lieu, ou plus exactement, est en cours, et cela depuis longtemps sans que notre monde ne se soit effondré pour autant. En revanche, ce dernier mute, profondément. De ce point de vue, est venu le temps de faire le tri entre les faux sujets et les vrais problèmes.

Intelligence artificielle : vrais sujets, faux problèmes

La question technologique sous-tend par dĂ©finition les luttes de pouvoir, les jeux de puissance, elle en est l’un des vĂ©hicules. MĂŞme la technologie "low tech", dirions-nous aujourd’hui, du papyrus fut une "rĂ©volution"  en son temps ! Au XXIème siècle, le changement paradigmatique passera notamment par l’intelligence artificielle. De façon directe ou indirecte, explicite ou implicite, c’est l’IA comme domaine scientifique et industriel omni usages ainsi que l’ensemble des ramifications du mĂ©ta-système qu’elle induit, qui cristallise par exemple la rivalitĂ© stratĂ©gique entre États-Unis et Chine. La lutte, pour ne pas dire la guerre technologique, est fĂ©roce, elle se joue sur trois fronts : idĂ©ologique, gĂ©opolitique et militaire, ainsi que philosophique.

- Sur le plan géopolitique, la compétition sino-américaine se joue en particulier sur la question des IA à usages militaires. De ce point de vue, l’intelligence artificielle transforme profondément la chose militaire. La guerre d’Ukraine nous en offre les prémices, celles des guerres du futur et de la suprématie de l’une ou l’autre des hyperpuissances.

- Dans le champ idĂ©ologique, la technologie n’a de valeur qu’en cela qu’elle encapsule des normes, une vision du monde. Celui qui dĂ©tient la technologie en contrĂ´le l’intention politique. Cette question s’articule Ă  deux niveaux : entre nations mais aussi entre concepteurs.

- Enfin, elle pose une question philosophique universelle cruciale : face Ă  ces performances calculatoires de plus en plus puissantes, oĂą se loge notre singularitĂ© d’Humain ? Comment prĂ©parer cet avenir par nature imprĂ©visible ? La question philosophique devient alors fondamentalement politique. Une fois mĂ»re, elle doit, en tout Ă©tat de cause, se transformer en projet de sociĂ©tĂ©, donc en politiques publiques claires et prĂ©cises dĂ»ment partagĂ©es avec la population, dernier amortisseur du choc technologique.

L’innovation technologique exige en ce sens une capacité d’innovation politique au moins de même ampleur mais pour le moment immature. En conséquence de quoi, la question de l’IA pointe les faiblesses de nos réponses institutionnelles, nos prêts-à-penser politiques et intellectuels. En miroir, elle nous contraint à affronter les dilemmes, les paradoxes, les voies à priori sans issues. En gardant son cap, celui d’un réalisme serein, un optimisme raisonnable qui ne soit pris ni dans le piège d’une folie transhumaniste encore balbutiante ni une collapsologie technophobe morbide et mortifère.

Dans ces moments de mutations historiques qui dĂ©stabilisent nos repères et nos Ă©quilibres, il faut urgemment dĂ©mystifier l’IA pour recentrer la rĂ©flexion collective vers l’essentiel, mettre de l’ordre dans la façon dont plus gĂ©nĂ©ralement la question technologique est abordĂ©e. Ces derniers mois, nous nous sommes trompĂ©s de dĂ©bat car nous nous sommes trompĂ©s de question. L’IA n’anĂ©antira pas tout d’un coup l’école ou l'hĂ´pital, ni ne mettra du jour au lendemain des millions de personnes au chĂ´mage. En revanche, en fonction des choix qui seront faits, elle pourrait participer Ă  optimiser les points de friction des services publics (problèmes de compĂ©tences, de recrutement et d’attractivitĂ© rĂ©currents) ou au contraire, Ă  aggraver une situation prĂ©existante. Un exemple concret : certains systèmes d’IA appliquĂ©s Ă  la mĂ©decine peuvent aider l'hĂ´pital public Ă  poursuivre sa mission sans (trop de) douleur, voire en amĂ©liorer sensiblement la promesse (la santĂ© prĂ©dictive reprĂ©sente Ă  cet Ă©gard un rĂ©el enjeu de santĂ© publique) grâce Ă  des gains de productivitĂ© qui permettraient Ă  moyen terme de pallier le manque d’attractivitĂ© du secteur, pourtant central dans la conception toute française de l’État social.

Partant de lĂ , l’intelligence artificielle ne pose pas tant la question du "quoi". Pour la CNIL, "l’intelligence artificielle n’est pas une technologie Ă  proprement parler mais plutĂ´t un domaine scientifique". Elle ne pose pas non plus la question du "quand". Nous l’avons vu plus haut, la rĂ©volution a dĂ©jĂ  eu lieu, elle est encore en cours et fonctionne par sauts, hibernations, surprises. La question du "comment" est plus intĂ©ressante mais dĂ©jĂ  fort bien documentĂ©e, la technologie irrigue nos grands systèmes. Elle est Ă©quivalente Ă  ce que fut l’électricitĂ© en son temps : omni usages, invasive, omniprĂ©sente, incontournable, dĂ©finissant les nouveaux critères de production, de consommation, d’information, d’éducation, de pratiques dĂ©mocratiques, de rĂ©volution dans les affaires militaires. Elle est système, charge au politique de se prĂ©parer et de prĂ©parer la sociĂ©tĂ© Ă  ces mutations civilisationnelles profondes, Ă  Ă©viter la prochaine grande crise pour cause d’imprĂ©paration et de manque d’anticipation. La question n’est pas non plus "pourquoi" : elle est une vision, un objectif politique, Ă©conomique et idĂ©ologique pour ceux qui y travaillent. Elle est, tout simplement, un instrument de pouvoir et de puissance.

En France, les experts consultés, par le prisme spécialisé de leur expertise, se sont alternativement focalisés sur l’une de ces quatre questions. Chacune posant évidemment des enjeux, des arbitrages mais qui apparaissent, dans le fond, secondaires. Non pas secondaires par leur importance mais secondaires en ce sens qu’elles dérivent d’une question originelle, première. Cette question première, c’est celle du "QUI". Car qui dominera cette technologie dessinera en partie les contours du siècle qui advient. L’IA incarne de façon éclatante notre éternel problème politique qui était, est et sera toujours de savoir qui domine et qui est dominé. Au Ve siècle avant notre ère, Thucydide le formulait déjà ainsi au moment de la guerre du Péloponnèse "les hommes tendent, selon une nécessité de leur nature, à la domination partout où leurs forces prévalent".

Nous voilĂ  arrivĂ©s a priori Ă  un premier consensus : oui, l’intelligence artificielle est et sera partout. Il y a bien une dynamique irrĂ©pressible qui est en marche, qui articule Ă  la fois la recherche de pouvoir et de puissance. Or c’est bien cette soif-lĂ , très humaine, qui risque de nous dĂ©passer et non pas (ou du moins pas encore) l’outil lui-mĂŞme. Cela pose encore une fois la seule question qui vaille, celle du "Qui" : Qui dĂ©tient la vision ? Qui la conçoit, c’est-Ă -dire qui dĂ©tient la capacitĂ© Ă  donner corps Ă  cette vision ? Selon l’intĂ©rĂŞt de qui ou de quoi ? En contrechamp, sur quel projet politique commun devrait-on aligner ce nouveau socle non pas seulement technologique mais aussi civilisationnel ?

En somme, la puissance technologique est un chemin vers le pouvoir politique. De ce point de vue, CHATGPT n’est que l’arbre qui cache la forêt ou plutôt le système qui est en train de s’ordonner.

La question idĂ©ologique : technologie totale, risque x et alignement

La question du "Qui" nous emmène vers une analyse du sujet sous l’angle idéologique.

Ces dernières années, nombre de critiques ont été formulées, de tous bords, sur notre panne idéologique, remplacée par une approche purement technocrate de la chose politique. Or ce n’est pas tout à fait vrai. La dimension idéologique du monde qui advient, la réflexion sur les contours et la morphologie de notre futur est belle et bien préemptée. L’épicentre se situant à la fois entre Oxford University et la Silicon Valley.

Les technologues de la Silicon Valley sont d’abord des idĂ©ologues, ils ont un projet politique, un horizon, un moteur. La technologie, d’une certaine façon, n’en est que le prĂ©texte et le chemin. Le problème posĂ© est double :

La conversation mondiale a bien lieu, portĂ©e haut et fort par Elon Musk, Peter Thiel ou Sam Altman, David Holz (PDG de MidJourney) plus rĂ©cemment et consorts. Le vide idĂ©ologique dont nous nous Ă©tions tellement plaints est ici comblĂ© et les propositions sont Ă  la hauteur du vide : intelligence artificielle gĂ©nĂ©rale, transhumanisme, long-termisme. Nous ne sommes pas déçus. Il est intĂ©ressant de noter que les technologues amĂ©ricains ne privatisent pas simplement la technologie mais ce faisant mettent en mot une privatisation plus subtile, une privatisation idĂ©ologique d’une certaine façon.

La confiscation de la discussion Ă  laquelle nous avons bien voulu consentir, par facilitĂ©, jusque-lĂ , est doublĂ©e en Europe d’une gestion subtile de la passivitĂ©. Car ici, en Europe, nous commentons, nous gĂ©rons du mieux que nous le pouvons nos impuissances sur ce qui ne nous appartient pas mais ce qui nous impacte dĂ©jĂ  tant. Vous rĂ©torquerez : oui mais la norme ! Certes, nous y viendrons plus tard.

Les concepteurs des systèmes d’intelligence artificielle proposent des agendas très précis via un système de ce que l’on peut appeler un projet de "technologie totale" que j’évoquais déjà dans un précédent article en analysant le "système Musk". Ils "designent" notre futur par leurs outils, ils appellent cela le "long-term thinking". Sam Altman, patron d’OpenAI, est l’un de ceux qui explicitent et revendiquent le mieux cette nécessité à la fois business et idéologique de penser le futur, de projeter les technologies sur le long-terme. Cela renvoie sans conteste au "Triptyque des BigTech" que je formalisais en janvier 2023.

La question de la Technologie totale est Ă  comprendre ici Ă  deux niveaux :

- Technologie totale en ce sens qu’elle enferme nos usages autour de quelques interfaces privées, nous encerclent cognitivement, ce que Tim Berners Lee appelait déjà en 2007 les "Walled Gardens".

- Technologie totale car elle met en place les briques d’une captation et d’une exploitation des usages et des données totales, sans couture avec son corollaire, des dispositifs de surveillance et de monitoring généralisés.

En plus du développement d’une intelligence artificielle générale dite "AGI" (une IA forte, capable de concurrencer directement l’intelligence humaine avec une autonomie totale dans la prise de décision), Sam Altman a d’ores et déjà commencé la collecte de données biométriques mondiales avec le programme WorldID sous prétexte de combattre les bots et les faux comptes. Sur le volet transhumaniste, il est un "siliconien" tout ce qu’il y a de plus classique, biberonné aux désirs démiurgiques des gourous du transhumanisme, de ses amis Peter Thiel ou son nouveau meilleur ennemi Elon Musk. Lui aussi rêve de combattre le vieillissement et la mort et vient d’investir 180 M$ dans Retrobiosciences.

En rĂ©ponse Ă  ChatGPT, première brique d’un projet d’AGI plus grand portĂ© par Altman, Elon Musk a lancĂ© son offensive via d’abord un moratoire  plus que discutable, hypocrite, voire dangereux car invisibilisant les risques dĂ©jĂ  bien rĂ©els posĂ©s par l’IA mais surtout soutenu par le Futur of Life Institute, institution promouvant une idĂ©ologie particulière et discutable que l’on appelle le "long-termisme". Le long-termisme stipule que la prioritĂ© de nos dĂ©cisions aujourd’hui doit ĂŞtre la pĂ©rennitĂ© de l’espèce humaine dans le temps, que l’avenir des gĂ©nĂ©rations futures compte au moins autant que nos vies ici et maintenant et cela, coĂ»te-que-coĂ»te, un rationalisme qui, poussĂ© Ă  son extrĂŞme limite, crĂ©e des problèmes Ă©thiques majeurs. Ce courant de pensĂ©e, très en vogue Ă  la Silicon Valley et qui compte comme adeptes Thiel ou Musk, fait l’objet d’une critique virulente. Le long-termisme trouve ses racines rĂ©centes Ă  Oxford University. Nick Bostrom ou encore William McAskill, qui vient d’y consacrer un essai au retentissement mondial, en sont les chefs de file. Curieuse alliance, au passage, entre Oxford et la Silicon Valley.

En parallèle du moratoire qui appelait Ă  une absurde "pause" de six mois dans la R&D de l’IA, Elon Musk lançait au mĂŞme moment son dernier projet X.AI, censĂ© concurrencer frontalement OpenAI, dont il fut – ironie du sort – cofondateur en 2015. Mais le plus intĂ©ressant de X.AI est qu’il est Ă©videmment en lien avec l’autre grand projet de Musk, sa X App, interface universelle sur le modèle WeChat Ă©voquĂ© ici comme brique du projet muskien de "technologie totale", en complĂ©ment de Starlink et Neuralink. Le prĂ©texte de la bronca anti-ChatGPT est qu’il poserait un risque existentiel, le dĂ©sormais cĂ©lèbre "risque", Ă  l’HumanitĂ©. La critique idĂ©ologique doit ĂŞtre nĂ©anmoins lue et comprise Ă  plusieurs niveaux, plus proche de nous le combat est nettement plus pragmatique : Musk, chantre du "freedom of speech" maximaliste, suppose que l’entraĂ®nement et les filtres de ChatGPT en feraient un outil "woke". Dans sa bataille contre le "woke capital", son idĂ©e est donc, aussi, de dĂ©velopper une IA-anti-woke ou pour aller encore plus loin, une IA recherchant une forme de vĂ©ritĂ© totale et absolue sobrement baptisĂ©e “TruthGPT”. Woke, pas woke, Ă©troite (narrow AI), gĂ©nĂ©rale (AGI) ou super (Super AI), la guerre de tranchĂ©es des IA a bel et bien commencĂ© sur fond inquiĂ©tant de post-vĂ©ritĂ©.

Cette logique à la croisée des idéologies long-termiste et transhumaniste est cristallisée par son autre startup Neuralink dont l’une des expérimentations consiste en des implants dans le cerveau pour créer des interfaces directes esprit-machine tout en augmentant sensiblement les capacités cognitives humaines, à des visées thérapeutiques mais aussi disons, existentielles (cela permettrait à l’homme de concurrencer l’hypothétique avènement des AGI). Au moment de la publication du moratoire, Elon Musk annonçait sans complexe le démarrage prochain de tests d’implants Neuralink sur les hommes. Fort heureusement, la FDA rejeta la demande compte-tenu des risques posés par une technologie NBIC loin d’être stabilisée.

Sous ce vernis technologique et rationaliste, l’on voit dĂ©jĂ  poindre l’irraison dĂ©miurgique de ces projets. L’excès de raison risque rapidement de devenir son opposĂ©, une folie dystopique car pour la première fois, ces idĂ©ologues ont les moyens de leurs ambitions. David Holz, patron de Midjourney, illustre le risque politique rĂ©el de cet excès de rationalisme. En avril 2023, il justifiait l’interdiction de gĂ©nĂ©rer des images via MidJourney du prĂ©sident chinois Xi Jinping ainsi : "Je pense que les gens en Chine qui utilisent cette technologie peuvent faire avancer quelque chose dans le monde en gĂ©nĂ©ral (dans le bon sens). Des individus lambdas ici qui font de la satire politique n’apportent pas grand-chose. L’analyse coĂ»ts/bĂ©nĂ©fices semble claire". Par ce rapide calcul rationaliste coĂ»ts-bĂ©nĂ©fices, au demeurant tout Ă  fait discutable, Holz s’est trouvĂ© en position de pouvoir imposer des lois de censure digne d'un pays autoritaire Ă  la communautĂ© mondiale.

Les techno-idĂ©ologues de la Silicon Valley crĂ©ent des combats et des dilemmes que nous allons devoir rĂ©soudre :

- Comment prĂ©server notre rĂ©el face Ă  leur futur fantasmĂ© et fantasmatique ?

- Comment refonder notre rapport Ă  la LibertĂ©, comme projet politique, comme contre-modèle Ă  leur projet de technologie totale matinĂ©e de surveillance gĂ©nĂ©ralisĂ©e et au vernis biopolitique inquiĂ©tant ?

Sous l’angle prosaïquement technologique, cela pose la question de l’alignement.
Dans le domaine de l'IA, le terme "alignement" désigne le processus qui consiste à s'assurer que les comportements d'une IA s'alignent bien sur les intentions et objectifs de ses créateurs. Autrement dit, il s’agit d’éviter que l'IA puisse agir contre les intérêts de ses concepteurs. L’alignement est un domaine de recherche en tant que tel, qui a pu faire l’objet de controverses.

Comment faire pour que les algorithmes se comportent comme nous voulons qu'ils se comportent ? Ă€ qui ces machines vont-elles servir, avec quelle intentionnalitĂ© ? Quels savoirs sont embarquĂ©s et visibilisĂ©s, quels sont ceux qui sont, Ă  l’inverse, invisibilisĂ©s ? Selon quelles valeurs et d’après quelle vision du monde ?

Les problèmes liĂ©s Ă  l’alignement n'ont rien de nouveau. Sauf que dans le cas prĂ©sent, nos responsables politiques semblent encore relativement Ă©loignĂ©s de ces enjeux technologiques profonds et semblent pour le moment plutĂ´t enclins Ă  une attitude Ă  la fois normative et attentiste. Certes, le temps technologique n’est pas le temps politique mais si nous attendons trop longtemps, les gagnants ("the winner takes all") rafleront la mise (en quantitĂ© : capital et nombre d’utilisateurs captifs, et en qualitĂ© : leurs idĂ©ologies infusent dĂ©jĂ  et les usages dĂ©politisent dĂ©jĂ  la question). Le politique arrivera une fois de plus après la bataille, sera une fois de plus soumis Ă  la volontĂ© d’acteurs privĂ©s prĂ´nant une vision politique Ă  la fois claire, tranchĂ©e et arbitraire. Or dĂ©faire les usages et les idĂ©es prendra bien plus de temps qu’y participer dès l’amont pour en inflĂ©chir l’horizon.  

D'une manière ou d'une autre, nous allons devoir collectivement décider de ce que nous souhaitons faire de (et avec) ces technologies, ce que nous sommes prêts à obtenir et ce à quoi nous allons renoncer en connaissance de cause. À cet égard, la peur et la panique ou la fascination n’aideront en rien l’installation d’un débat méthodique, apaisé et sain.

La valeur de la réponse normative européenne

En réponse, le premier réflexe, usuel, en Europe est l’arme juridique.

Fin mars 2023, l’Italie lance les hostilitĂ©s contre ChatGPT et interdit l’outil le temps de l’instruction d’une enquĂŞte du rĂ©gulateur national sur l’usage des donnĂ©es personnelles par l’outil et pour non-conformitĂ© au Règlement gĂ©nĂ©ral des donnĂ©es personnelles (RGPD). Elle justifie sa dĂ©cision sur quatre critères : inexactitude des donnĂ©es utilisĂ©es Ă  l'entraĂ®nement, dĂ©faut d’information (Ă©ternel problème du consentement Ă©clairĂ©), absence de base lĂ©gale justifiant l’usage des donnĂ©es aspirĂ©es pour l'entraĂ®nement du modèle, absence de vĂ©rification de l’âge des utilisateurs, ce qui pose problème pour les mineurs de moins de 13 ans.

L’Allemagne et l’Espagne pourraient suivre la voie italienne. La France quant à elle, par l’intermédiaire de la CNIL, va également se pencher sur la question à l’occasion de deux plaintes déposées auprès du régulateur national. Fait intéressant à noter, les régulateurs européens ont décidé de se coordonner en montant une "taskforce" spéciale sur ChatGPT.

En attendant l’AI Act europĂ©en, certains des arguments juridiques portĂ©s en Italie ou en France pourraient in fine ĂŞtre retoquĂ©s, mais quelle que soit l’issue de ces enquĂŞtes, deux Ă©lĂ©ments structurants doivent ĂŞtre notĂ©s, et gardĂ©s Ă  l’esprit le moment venu. Ces deux Ă©lĂ©ments sont moins juridiques que politiques :  

- La norme n’endiguera pas la dynamique mais permettra a minima d’énoncer les règles du jeu;

- L'interdiction italienne ne rĂ©soudra pas la question mais a le mĂ©rite singulier de brandir un concept philosophique et politique avant d'ĂŞtre normatif : le droit Ă  l'intime, au secret, Ă  ce qui fonde nos libertĂ©s fondamentales.

De ce fait, les IA génératives, intégrées aux différents projets de "technologie totale", peuvent devenir à terme anti-démocratiques. Nous devons visibiliser cette question en ces termes car ce faisant, cela repolitise une technologie dont l’usage ludique ou créatif se dépolitise progressivement par l’accoutumance et la familiarité d’apparence inoffensive qu’il crée, cela réaffirme au passage notre attachement à la singularité du privé et aux droits fondamentaux qu’elle permet de protéger.

Cela pointe un paradoxe fondamental : le rĂ©gulateur semble bien plus attachĂ© aux libertĂ©s et Ă  la vie privĂ©e que nous, utilisateurs, qui produisons et octroyons nos donnĂ©es toujours davantage, malgrĂ© tous les avertissements et les scandales. Nous continuons bille en tĂŞte, le confort de l’expĂ©rience du consommateur supplantant visiblement tout sur son passage. Le rĂ©gulateur ne pourra pas tout faire tout seul sur des sujets de cette ampleur si le citoyen qu’il protège ne se mobilise pas sur la cause ou n’est qu’indiffĂ©rent Ă  celle-ci.

En outre, compte-tenu des échelles et vitesse de déploiement dont on parle, des forces de frappe en présence, la position normative européenne reste essentiellement défensive, une condition nécessaire mais non suffisante.

Et la France ? LĂ  encore, il faut encore muscler davantage le versant proactif et offensif, Ă  savoir une vĂ©ritable stratĂ©gie techno-industrielle qui cesse pour de bon le saupoudrage des fonds publics allouĂ©s - qui restent honorables pour un pays de la taille de la France. Une vision qui permette de dĂ©cider de la place de la France Ă  20 ou 30 ans sur des secteurs de niche Ă  identifier et flĂ©cher, en repensant (identifier, dĂ©graisser, agiliser, raccourcir, faciliter) le système national d’innovation de bout en bout (SNI). Le repositionnement de la French Tech ou le programme France 2030 auraient dĂ» en ĂŞtre l’occasion rĂŞvĂ©e. Le renouvellement de l’approche est d’autant plus urgent que la France n’est aujourd’hui pratiquement plus une puissance technologique malgrĂ© de nombreux atouts, par exemple la recherche nationale en IA ou sur certains usages mĂ©dicaux et scientifiques par exemple. D’après le Global AI Index, elle arriverait tout juste Ă  la 10ème position, après les Pays-Bas et l’Allemagne, très loin derrière le Royaume-Uni, 3ème après les États-Unis et la Chine. Sur le seul critère de la recherche, elle est positionnĂ©e 15ème lĂ  oĂą l’Allemagne est 6ème et le Royaume-Uni, 5ème. Une position de niche sur des secteurs stratĂ©giques oĂą la France possède des avantages comparatifs rĂ©els, voilĂ  le seul chemin possible de l’autonomie stratĂ©gique, en fait de la souverainetĂ© technologique, Ă  savoir la capacitĂ© Ă  tenir un rapport de force en cas de besoin.

Si l’affaire n’est pas totalement perdue, elle est néanmoins urgente et pour des bénéfices politiques qui ne seront visibles qu’à long-terme. Une véritable stratégie en IA suppose du courage politique qui s’affranchit des effets d’annonce qui s’égrènent au gré des effets de mode.

Mais l’Europe n’est pas la seule à normer. États-Unis et Chine, les deux hyperpuissances de l’IA, s’y mettent également, avec une approche fidèle à leur corpus de valeurs.

Côté américain, l’approche est basée sur la responsabilité des systèmes, leur transparence et l’usage, éventuellement abusif, des données personnelles. La National Telecommunications and Information Administration (NTIA) a publié le 11 avril un "AI Accountability Policy Request for Comment", un appel à contribution sur ce que devrait être une bonne politique publique en matière de responsabilité de l’IA, avec des cas d’usages appliqués sur des secteur stratégiques comme la santé.

En Chine, la Cyberspace Administration of China (CAC) soutient les projets d’IA en générale et des IA génératives en particulier.Mais avec des règles à respecter, en premier lieu desquelles la conformité aux valeurs socialistes du pays et la transparence sur l’identité des utilisateurs (ces derniers devront fournir leur véritable identité). Un volet concerne également le bon usage des données utilisées à l’entraînement afin d’éviter les biais et les discriminations mais aussi la conformité des systèmes aux règles établies par la CAC.

La gĂ©opolitique de l’IA comme rĂ©ponse aux projets idĂ©ologiques : ordre mondial et ordre social font bon mĂ©nage !

Au même titre que la question climatique, l’IA reflète de plus en plus un désaccord politique persistant qui est en train de se hisser au sommet de l'agenda mondial.

Si les USA ou la Chine s’emparent de la question normative, ce n’est pas pour freiner une innovation devenue le carburant de leur rivalitĂ© stratĂ©gique, mais pour garder le contrĂ´le d’abord intĂ©rieur d’outils dotĂ©s Ă  terme d’une puissance qui pourraient dĂ©border les États eux-mĂŞmes. Ă€ Ă©chelle encore "raisonnable", nous en voyons dĂ©jĂ  les prĂ©mices avec les dĂ©gâts possibles d’un ChatGPT ou d’un MidJourney dans les luttes informationnelles et guerres cognitives qui se jouent Ă  bas bruit. Imaginons les consĂ©quences d’IA duales, aux usages civils et militaires  dĂ©cuplĂ©s.

Chine et États-Unis doivent jouer aux Ă©quilibristes : stimuler l’innovation et les acteurs technologiques, bras armĂ©s technologiques fournisseurs d’instruments de projection de puissance et dans le mĂŞme temps, garder l’écosystème sous contrĂ´le, et en consĂ©quence de quoi, la hiĂ©rarchie des normes et des acteurs mais aussi l’ordre social. Ordre mondial et Ordre social font bon mĂ©nage.   

Avec le climat, la question technologique, et en particulier l’IA, va participer à structurer l’ordre et la sécurité mondiale des prochaines décennies. En particulier, l’IA va participer à dessiner la morphologie des futures guerres, hybrides, cyber ou cinétiques. L’IA a déjà apporté des robots tueurs, des IA conversationnelles capables de rédiger des communiqués gouvernementaux, des programmes capables de traiter des données à une hypervitesse supérieure à la cognition humaine. Il est alors logique que les puissances mondiales se lancent dans une course pour dominer ce nouveau paysage technologique.

Les IA à usage militaire permettront, notamment aux armes, d’être hyper rapides (vitesse), autonomes (critère vital à l’heure des brouillages électromagnétiques), super-précises dans le traitement de la donnée et dans la prise de décision avec le traitement le flux d’information ("fog of more") à une vitesse irrattrapable par l’homme.

L’horizon des IA à usages militaires est l’hyperguerre, la "hyperwar" pour reprendre le concept d’Allen et Husain. L’IA est au cœur des attributs de puissance, à la fois côté chinois et américain.

L’intention politique chinoise est claire : en  2017, le Parti communiste chinois a prĂ©sentĂ© un plan visant Ă  dĂ©velopper l'intelligence artificielle pour faire du pays le premier centre mondial d'innovation en IA d'ici 2030. En janvier 2023, le ministère de l'Industrie et des Technologies de l'information chinois a rĂ©affirmĂ© l’intention de suprĂ©matie technologique chinoise en dĂ©clarant que l'IA et les autres industries Ă©mergentes "Ă©taient une prioritĂ© clĂ© pour 2023".

CĂ´tĂ© amĂ©ricain, le discours politique est encore plus musclĂ©. Celui de Jake Sullivan (conseiller Ă  la sĂ©curitĂ© nationale des États-Unis auprès du prĂ©sident Joe Biden depuis janvier 2021) en date du 8 septembre 2022 est, dans ce contexte, Ă  lire avec prĂ©caution car il y donne le ton en Ă©numĂ©rant par le menu les industries critiques pour le maintien du leadership amĂ©ricain dans le monde dont l’IA et sa condition de production : les semi-conducteurs, point faible chinois sur lequel l’administration amĂ©ricaine se concentre en consĂ©quence pour affaiblir son rival.

Pour cela, tous les outils de la "Power Politics" y passent : jeux d’alliances, arsenalisation des dĂ©pendances et des interdĂ©pendances, instrumentalisation politique des goulots d’étranglement dans les chaĂ®nes d’approvisionnement globales et cela, conformĂ©ment aux cadres d’analyse posĂ©s par Farrell et Newman dans leur cĂ©lèbre article "Weaponized Interdependence" paru en 2019. Cela est particulièrement vĂ©rifiĂ© dans le cas de la politique amĂ©ricaine sur les semi-conducteurs, via une panoplie d’instruments allant de la coercition Ă©conomique, Ă  l’extra-territorialitĂ© du droit amĂ©ricain en passant par l’interdiction d’exportation de certains composants stratĂ©giques, le tout associĂ© Ă  une stratĂ©gie de dĂ©couplage progressive vis-Ă -vis de la Chine qui, de son cĂ´tĂ©, dĂ©veloppe assez logiquement son propre arsenal techno-militaire.

De ce point de vue, nous pouvons aussi lire les projets des techno-idéologues américains comme participant à la stratégie de puissance américaine. À condition que l’État américain en garde le contrôle final.

Pour finir, rester humain

Dans ce combat de titans entre Hyperpuissances et HyperTechnologues, nous, simples citoyens, pouvons avoir l’impression d’être dĂ©munis. Mais nous ne le sommes pas. Il est normal d’être dĂ©stabilisĂ© dans les pĂ©riodes de mutations profondes, mais ne perdons pas de vue un point cardinal : notre HumanitĂ©.

Cette HumanitĂ©-lĂ  ne doit pas se rĂ©duire Ă  ce que l’on entend parfois ici et lĂ , nos "Ă©motions", nos "intuitions". Non, nous ne sommes dĂ©finitivement pas que cela. Nous sommes aussi Intelligence et Raison. Accepter le discours que notre "avantage comparatif" face aux IA serait notre "sensibilitĂ©", c’est abandonner la bataille, c’est paradoxalement accepter son statut "animal" pour reprendre le merveilleux essai "God, Human, Animal, Machine: Technology, Metaphor, and the Search for Meaning" de Meghan O'Gieblyn. Se replier est un abandon. Un abandon dangereux car c’est bien dans ces failles cognitives, Ă©motionnelles et Ă©motives, que se loge le lent poison de la dĂ©sinformation, des stratĂ©gies de cyber-dĂ©stabilisation sans nul doute amplifiĂ©es par les outils Ă©voquĂ©s dans le prĂ©sent papier. En somme, nous avons le devoir de rester vigilants, singuliers, complexes, humains !

Dans Species Technica, le philosophe Gilbert Hottois expliquait que la technique ne finissait par prendre le contrôle de certains pans de nos existences que parce que l’Homme ne les investissait plus. Dans le fond, oui, l’Homme n’est plus là car il est bel et bien déjà ailleurs, reparti à la découverte de contrées nouvelles. C’est à partir de cette seule conviction, le refus du renoncement, que la véritable discussion démocratique pourra alors commencer.

 

Copyright Image : Marco BERTORELLO / AFP

Une photo prise le 31 mars 2023 à Manta, près de Turin, montre un écran d'ordinateur avec la page d'accueil du site web de l'intelligence artificielle OpenAI, affichant son robot ChatGPT. L'organisme italien de protection de la vie privée a déclaré en mars qu'il avait bloqué le robot controversé ChatGPT, estimant que l'application d'intelligence artificielle ne respectait pas les données des utilisateurs et ne pouvait pas vérifier l'âge de ces derniers.

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne