Rechercher un rapport, une publication, un expert...
La plateforme de débats et d’actualités de l’Institut Montaigne
03/07/2019
Imprimer
PARTAGER

Les dĂ©fis de la modĂ©ration des contenus : de l'importance de la coopĂ©ration

Entretien avec Ben Nimmo

Les défis de la modération des contenus : de l'importance de la coopération
 Ben Nimmo
Senior Fellow au Digital Forensic Research Lab (DFRLab) de l’Atlantic Council

La France et d'autres pays, dont l'Allemagne et le Royaume-Uni, tâchent actuellement de fournir un cadre réglementaire à la modération des contenus sur les réseaux sociaux. Si ces initiatives sont souvent encouragées par les pouvoirs publics, elles font l'objet de vifs débats quant à leur impact potentiel sur la liberté d'expression. Dans cet entretien, Ben Nimmo, Senior Fellow au Digital Forensic Research Lab (DFRLab) de l’Atlantic Council et membre du précédent groupe de travail de l'Institut Montaigne Media Polarization "à la française"?, souligne la difficulté d'obtenir des définitions claires et l'enjeu de transparence dans la modération des contenus ; il en appelle à une collaboration intersectorielle pour y faire face.

La mission de régulation des réseaux sociaux insiste sur l’importance de la transparence des algorithmes utilisés par les plateformes et le principe de "responsabilité dès la conception" (accountability by design). Quel regard portez-vous sur cette approche ? La pensez-vous à même de réduire les nuisances en ligne ?

Les plateformes, et en particulier Twitter, ont traditionnellement valorisé l'importance de la liberté d'expression ; la modération y est donc réduite au minimum. Cette posture explique en partie leur succès. Néanmoins, les plateformes sont aujourd’hui vivement incitées à dépasser ce positionnement et à effectuer une plus grande modération des contenus, sans pour autant disposer d’un ensemble de règles claires qui les aideraient à distinguer les contenus acceptables de ceux qui ne le sont pas. Même au sein des catégories de contenu a priori les plus évidentes et faciles à définir, comme le "discours haineux", les zones grises sont nombreuses : la frontière entre expression légitime d’une hostilité et discours haineux n’est pas universellement partagée…

La publication des "lignes directrices" auxquelles se réfèrent actuellement les modérateurs pour déterminer l’inacceptabilité d’un contenu contribuerait à davantage de transparence.

Le problème est similaire en matière d'incitation au harcèlement. A titre d'exemple, faut-il Ă©tablir une diffĂ©rence entre des affirmations comme : "allez tous harceler la personne X" ; "la personne X mĂ©rite d'ĂŞtre harcelĂ©e" ; "j'aimerais que quelqu'un harcèle la personne X" ? Fournir des rĂ©ponses Ă  ces questions implique des dĂ©cisions linguistiques et juridiques complexes, ce qui signifie que tout algorithme visant Ă  catĂ©goriser des propos devra bĂ©nĂ©ficier de l’appui d’un modĂ©rateur humain ; du moins jusqu'Ă  ce que l’entraĂ®nement des algorithmes atteigne un niveau satisfaisant - ce qui prendra beaucoup de temps. En cela, la publication des "lignes directrices" auxquelles se rĂ©fèrent actuellement les modĂ©rateurs pour dĂ©terminer l’inacceptabilitĂ© d’un contenu contribuerait Ă  davantage de transparence.

Pourtant, il existe un risque non négligeable que des acteurs malveillants trouvent les moyens de contourner ces lignes directrices et parviennent à publier des contenus nuisibles en déjouant les règles des plateformes.

Il est crucial que les législateurs proposent aux plateformes une liste détaillant les types de comportements à interdire et la définition légale de termes importants comme "discours haineux", "harcèlement" et "désinformation". Plus les législateurs fourniront des informations spécifiques et précises sur ce qui doit être autorisé ou non, plus il sera facile pour les plateformes de mettre en place des processus de modération appropriés et pour les législateurs d'établir des mécanismes de responsabilité offrant un certain contrôle sur les efforts entrepris par les plateformes pour modérer les contenus.

Peut-on mettre en parallèle l'initiative françaises et l’approche amĂ©ricaine de la modĂ©ration du contenu en ligne ?

Les efforts que mène la France pour dĂ©velopper une approche cohĂ©rente de ces questions sont louables. Les autoritĂ©s amĂ©ricaines Ă©voluent dans un environnement plus complexe : le premier amendement de la Constitution des Etats-Unis limite grandement les possibilitĂ©s de modĂ©ration des contenus. De plus, certaines personnalitĂ©s politiques amĂ©ricaines ont dĂ©noncĂ© les biais prĂ©tendument anti-conservateurs des rĂ©seaux sociaux politiques, sur la base, dans le meilleur des cas, de preuves anecdotiques. Ainsi, si les plateformes amĂ©ricaines tentaient d’adopter des processus de modĂ©ration plus actifs, leur marge de manoeuvre serait très restreinte. Dans les annĂ©es Ă  venir, je m'attends Ă  voir un mouvement beaucoup plus fort en faveur de la modĂ©ration des contenus en Europe qu'aux États-Unis.

Le gouvernement français et Facebook ont initiĂ© une collaboration, qui a menĂ© Ă  la publication du rapport de la mission de rĂ©gulation des rĂ©seaux sociaux le 10 mai dernier. Que pensez-vous d'un tel rapprochement ? Est-ce une piste qui pourrait ĂŞtre encouragĂ©e ailleurs ?

Mon Ă©quipe au sein du Digital Forensic Lab de l’Atlantic Council et Facebook ont conclu un accord de coopĂ©ration, donc vous ne serez pas surpris si je pense que la coopĂ©ration a beaucoup de potentiel et qu'elle doit ĂŞtre renforcĂ©e ! En rĂ©alitĂ©, la taille de la plupart des plateformes - et pas seulement Facebook - est si importante par rapport au nombre de personnes qu'elles emploient qu'il leur est tout bonnement impossible de tout contrĂ´ler en interne. J’irais mĂŞme jusqu’à dire que ce serait profondĂ©ment troublant qu’elles s’y essaient. Il est donc fondamental que d'autres acteurs contribuent Ă  la rĂ©solution des enjeux auxquels ces plateformes sont confrontĂ©es, et je pense en cela que la collaboration est un bon moyen d'y parvenir.

Les délicates questions politiques comme la modération des contenus doivent faire l'objet d'un large débat public. Elles exigent que les termes régissant l’expression en ligne soient définis avec précision par la loi pour qu’une réponse adéquate puisse y être apportée. Il convient également de noter qu’il y aura certainement des différences, parmi différents types de modérateurs de contenu, dans leurs analyses, qu’ils fonderont sur différents types de preuves : les plateformes examineront les profils de données associés aux comptes analysés, tandis que les chercheurs en open source auront peut-être une approche différente et s’intéresseront à d’autres types d’indicateurs. Une telle complémentarité peut donc être vertueuse et introduire de la nuance dans le processus de sélection et de modération.

Seules les plateformes sont capables de conserver ce qui est partagĂ© : elles doivent donc pouvoir s’assurer que les informations qu'elles dĂ©voilent ne seront pas utilisĂ©es Ă  mauvais escient.

Par consĂ©quent, la construction d'une relation de confiance entre les plateformes, leurs utilisateurs, les chercheurs et les dĂ©cideurs politiques est essentielle. Seules les plateformes sont capables de conserver ce qui est partagĂ© : elles doivent donc pouvoir s’assurer que les informations qu'elles dĂ©voilent ne seront pas utilisĂ©es Ă  mauvais escient. De leur cĂ´tĂ©, les utilisateurs doivent avoir confiance et considĂ©rer que l'information qu'ils partagent sur les plateformes ne fera pas l'objet d'abus. Enfin, gouvernements et plateformes doivent se faire mutuellement confiance pour ĂŞtre dans une relation efficace. Le traitement de cette question implique l'instauration d'Ă©changes multipartites, qui rĂ©uniraient simultanĂ©ment plateformes, lĂ©gislateurs, chercheurs, dĂ©fenseurs et avocats de la protection de la vie privĂ©e.

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne