Rechercher un rapport, une publication, un expert...
La plateforme de débats et d’actualités de l’Institut Montaigne
25/07/2019
Imprimer
PARTAGER

Les dĂ©fis de la modĂ©ration des contenus : combler l’écart de connaissances

Entretien avec Charlie Beckett

Les défis de la modération des contenus : combler l’écart de connaissances
 Charlie Beckett
Président fondateur du think tank Polis

La France et d'autres pays, dont l'Allemagne et le Royaume-Uni, tâchent actuellement de fournir un cadre réglementaire à la modération des contenus sur les réseaux sociaux. Si ces initiatives sont souvent encouragées par les pouvoirs publics, elles font l'objet de vifs débats quant à leur impact potentiel sur la liberté d'expression. Dans cette interview, Charlie Beckett, professeur en étude des médias et en communication à la London School of Economics (LSE) et membre principal de la Commission Truth, Trust & Technology (T3) de la LSE, plaide en faveur de la création d'une agence qui aurait l'indépendance et l'expertise nécessaires pour contrôler la modération des contenus sur les plateformes.

Quels sont les principaux enseignements du rapport de la Commission T3 intitulé Tackling the Information Crisis: A Policy Framework for Media System Resilience (Faire face à la crise de l’information : un cadre politique pour la résilience du système médiatique), en particulier au sujet de la modération des contenus et des réglementations en la matière ?

Tout d'abord, il convient de noter que la rédaction de ce rapport est le fruit de plusieurs constats fondamentaux. Parmi eux, le manque de confiance croissant à l’égard des médias traditionnels, provoqué par un sentiment général de confusion, notamment en raison de la prolifération croissante de l'information.

Nous souhaitions aboutir à une compréhension approfondie des plateformes de réseaux sociaux - leur structure, leur mode de fonctionnement, leurs biais - et essayer d’offrir des cadres au service d’une grande plus responsabilité de ces organisations.

Nous nous posions aussi la question du rĂ´le des plateformes de rĂ©seaux sociaux après le scandale Cambridge Analytica : la publicitĂ© peut-elle ĂŞtre dĂ©ployĂ©e de manière transparente et sans porter atteinte Ă  la vie privĂ©e des utilisateurs ? Quelle responsabilitĂ© pour les rĂ©seaux sociaux en pĂ©riode Ă©lectorale ? Le rĂ´le de la Commission T3 a donc Ă©tĂ© de prendre du recul et d'identifier les Ă©lĂ©ments permettant de dĂ©crire les nuisances potentielles de notre nouveau système informationnel. L’objectif Ă©tait double : contribuer Ă  dissiper ce sentiment gĂ©nĂ©ral de confusion, mais aussi Ă©viter les risques de rĂ©action excessive. Par exemple, bien sĂ»r, la nĂ©cessitĂ© d’une modĂ©ration des contenus se heurte Ă  l'importance d’une protection de la libertĂ© d'expression ; il y a toujours un risque que certaines voix soient rĂ©duites au silence, alors qu'il est essentiel que chacun participe aux dĂ©bats publics, surtout en pĂ©riode de changement politique.

Par consĂ©quent, l'ambition du rapport de la Commission T3 Ă©tait principalement : 

  • de saisir ce qui nous prĂ©occupe vraiment lorsque nous parlons de crise de l'information ; 
  • d'Ă©valuer l’existence d’élĂ©ments prouvant que la dĂ©sinformation est diffusĂ©e par des acteurs externes ; 
  • de dĂ©terminer si la dĂ©sinformation modifie notre façon de faire de la politique ;
  • et d'examiner le rĂ´le du contexte socio-Ă©conomique plus global dans ces diffĂ©rents phĂ©nomènes nouveaux. 

Enfin, nous souhaitions aboutir à une compréhension approfondie des plateformes de réseaux sociaux - leur structure, leur mode de fonctionnement, leurs biais - et essayer d’offrir des cadres au service d’une grande plus responsabilité de ces organisations, tout en admettant les éléments positifs de certaines de leurs activités.

Quelles solutions avez-vous identifiĂ©es pour garantir une plus grande responsabilitĂ© des plateformes de rĂ©seaux sociaux ?

Dans le rapport, nous prônons la création d'une agence indépendante (Independent Platform Agency), qui aurait accès aux données de toutes les grandes plateformes, contrôlerait leurs activités de modération, et serait en mesure d'imposer des amendes en cas de rétention des données. Son rôle irait donc au-delà de la simple recommandation de rapports de transparence. Les plateformes de réseaux sociaux se sont très récemment prononcées en faveur de la réglementation, alors qu'elles s'y étaient auparavant opposées. Pourtant, elles ignorent elles-mêmes quels seraient les contours de cette réglementation, et il est important que celle-ci ne soit pas conçue exclusivement selon leurs propres termes et conditions. Nous avons donc besoin d'un organisme indépendant qui travaillerait main dans la main avec les plateformes et qui aurait le pouvoir, la responsabilité, et l'expertise nécessaires pour collaborer avec elles et examiner de l'intérieur les mécanismes qu'elles utilisent. C’est une institution de cette nature qui, en coordination également avec les organismes de réglementation et les législateurs, nous permettra de construire un cadre de responsabilisation qui, en fin de compte, devra impliquer des sanctions.

Jusqu'Ă  prĂ©sent, les discussions ont principalement portĂ© sur les moyens par lesquels les plateformes ou les gouvernements - ou, d’ailleurs, les deux - peuvent et doivent endosser ce rĂ´le de modĂ©ration des contenus. Pourtant, si la sociĂ©tĂ© civile n’est pas incluse dans ces rĂ©flexions, de telles initiatives pourraient ĂŞtre dĂ©noncĂ©es comme non dĂ©mocratiques, compte tenu du contexte actuel de mĂ©fiance. Comment s’assurer de la participation des citoyens Ă  ces dĂ©bats ?

Il est en effet essentiel d'impliquer davantage les citoyens dans ces discussions ; il est Ă  craindre que les individus deviennent de plus en plus sceptiques Ă  l'Ă©gard des technologies numĂ©riques. Je crois qu'une manière d'y parvenir est de caractĂ©riser la façon dont le contenu est priorisĂ©. Ces processus sont encore trop opaques et les critères utilisĂ©s pour la curation des contenus doivent gagner en transparence. 

Bien sûr, rendre les algorithmes de curation et de modération plus transparents offrirait potentiellement aux utilisateurs malveillants un moyen de contourner la modération des contenus ; ce risque, non négligeable, ne doit pas être oublié. Pourtant, nous ne pouvons actuellement pas nous payer le luxe de trouver des solutions parfaites aux problèmes auxquels nous faisons face : chaque action entreprise aura, presque inévitablement, des inconvénients.

L'essentiel, pour l'instant, est de garantir un certain contrôle sur les activités de modération réalisées par les plateformes.

L'essentiel, pour l'instant, est de garantir un certain contrôle sur les activités de modération réalisées par les plateformes. Ce qui est souvent évoqué à l’heure actuelle, c’est de doter les algorithmes de critères démocratiques, mais déterminer qui décide de la nature ces critères peut s’avérer très délicat. Il existe une grande pluralité de valeurs, et il pourrait être problématique d'essayer d'encoder seulement une partie d'entre elles dans les algorithmes de modération.

Dans l'ensemble, je dirais qu’il convient d'accorder une attention plus forte à cette question. L'intelligence artificielle et l’économie numérique sont actuellement sur toutes les lèvres, mais il existe un véritable écart de connaissances en matière de modération des contenus. Nous avons besoin que les institutions et les universités s'engagent davantage sur ce sujet. Aucune organisation n'est actuellement spécifiquement dédiée à cette question ; le développement d’une plus grande expertise dans le domaine est un pré-requis avant de prendre des décisions politiques importantes.
 

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne