Rechercher un rapport, une publication, un expert...
La plateforme de débats et d’actualités de l’Institut Montaigne
Imprimer
PARTAGER

Le lĂ©gislatif manque-t-il Ă  l’Appel de la modĂ©ration des contenus violents ? 

Le législatif manque-t-il à l’Appel de la modération des contenus violents ? 
 Alice Bougnères
Auteur
Déléguée générale de l’association ALMA

Deux après l’Appel de Christchurch, lancĂ© Ă  Paris par des chefs d’État et dirigeants d’entreprises et dirigeants d’organisations du numĂ©rique, oĂą en sommes-nous, en France et en Europe dans la lutte contre le terrorisme et l’extrĂ©misme violent en ligne ? Alice Bougnères, dĂ©lĂ©guĂ©e gĂ©nĂ©rale de l’association ALMA, nous livre un Ă©tat des lieux des concrĂ©tisations lĂ©gislatives de ce mouvement. 

L’Appel de Christchurch a été lancé le 15 mai 2019 par la Première ministre néo-zélandaise, Jacinda Ardern, et le Président de la République français pour supprimer les contenus terroristes et extrémistes violents en ligne, suite à l’attentat du 15 mars 2019 contre la communauté musulmane de Christchurch. Les images avaient été diffusées en direct par le tueur sur Facebook Live, puis s’étaient propagées en ligne de manière virale, et l’horreur avait ainsi fait irruption sur les écrans du monde entier. S’agissait-il d’une information brute, de libre expression, ou de propagande à l’obscénité macabre et incitant à la violence à censurer ?

Il y a deux ans, Donald Trump avait refusĂ©, au nom de la libertĂ© d’expression, de rejoindre l’Appel de Christchurch, tout en dĂ©clarant soutenir ses objectifs gĂ©nĂ©raux. Aujourd’hui, les États-Unis rallient l’Appel, tout en prĂ©cisant qu’ils "ne prendront pas de mesures qui violeraient les libertĂ©s d'expression et d'association protĂ©gĂ©es par le premier amendement de la Constitution amĂ©ricaine". 

La position initiale de Washington Ă©tait conforme Ă  la tradition juridique du royaume du free speech. La seule limite Ă  la libertĂ© absolue consacrĂ©e au premier amendement de la Constitution amĂ©ricaine relève du "danger clair et imminent". Les exceptions liberticides Ă  la libertĂ© d’expression sont ainsi restreintes aux seules expressions qui "incitent immĂ©diatement autrui Ă  se livrer Ă  une action criminelle ou dangereuse". Ainsi, en 1969, le juge amĂ©ricain Ă©tablit que l’incitation Ă  la violence ne pouvait ĂŞtre interdite que si elle Ă©tait de nature Ă  engendrer de manière imminente des actions illicites, et non si elle prĂ©conisait la violence en des termes gĂ©nĂ©raux ou pour un moment futur. La diffusion en direct des images d’horreur de Christchuch peut difficilement s’apprĂ©hender comme la source mĂ©canique et immĂ©diate d’autres actions violentes. 

La reprĂ©sentation d’une tradition amĂ©ricaine absolument libĂ©rale, ancienne et constante mĂ©rite cependant d’être nuancĂ©e. En effet, les AmĂ©ricains furent les pionniers de la pĂ©nalisation de la haine, avec l’exception des fighting words admise par la Cour suprĂŞme dès 1942, qui visait les mots qui, "par leur seule Ă©nonciation, infligent une blessure ou tendent Ă  provoquer un trouble immĂ©diat Ă  l’ordre public". La permissivitĂ© de principe est balancĂ©e par une protection vigilante des minoritĂ©s. La traque au hate speech Ă  leur encontre a des racines profondes ; dès 1952, la Cour suprĂŞme avait confirmĂ© la constitutionnalitĂ© de lois rĂ©primant les injures exposant "le citoyen d'une race, couleur, croyance ou religion quelconques au mĂ©pris, Ă  la dĂ©rision ou Ă  l'opprobre, ou qui provoqueraient des troubles Ă  l'ordre public ou des Ă©meutes". En cela, le refus de Donald Trump de signer l’Appel de Christchurch s’analyse davantage comme une fantaisie - cohĂ©rente par ailleurs avec sa rhĂ©torique au sujet des minoritĂ©s - et le revirement rĂ©cent comme un retour Ă  la norme. 

Le ralliement symbolique de Washington le 7 mai dernier, s’inscrit dans le contexte d’une mobilisation croissante affichĂ©e par les entreprises amĂ©ricaines gĂ©antes de services en ligne. 

Le ralliement symbolique de Washington le 7 mai dernier, s’inscrit dans le contexte d’une mobilisation croissante affichée par les entreprises américaines géantes de services en ligne. Signataires de l’Appel de Christchurch aux côtés de 48 États, de la Commission européenne, du Conseil de l’Europe, de l’UNESCO et d’un réseau de représentants de la société civile internationale, Facebook, Google et Twitter notamment s’y engagent à renforcer les moyens consacrés à la détection et à la suppression des contenus terroristes et extrémistes violents.

D’après la Commission européenne, ces grandes entreprises font preuve d’un volontarisme certain sur la régulation des contenus qu’elles contribuent à diffuser, depuis l’adoption en 2016 d’un code de conduite visant à combattre les discours de haine illégaux en ligne. La création de "standards de la communauté", la publication régulière de "rapports de transparence" sur la modération interne des plateformes sous la plume d’un "directeur de l’intégrité", la création en 2021 d’une instance similaire à une Cour suprême chez Facebook, chargée de traiter les recours contre les décisions de retrait ou de maintien de contenus, sont autant de signaux de la bonne volonté affichée des fournisseurs de services en ligne.

Voici par exemple la règle de Facebook en matière de lutte contre les contenus terroristes explicitĂ©e dans les standards de la communautĂ© : "Afin d’éviter et d’empĂŞcher tout danger rĂ©el, les organisations ou individus qui revendiquent des objectifs violents ou qui sont impliquĂ©s dans des activitĂ©s violentes ne sont pas les bienvenus sur Facebook. Cela comprend les organisations et les individus impliquĂ©s dans les activitĂ©s suivantes : les activitĂ©s terroristes, la haine organisĂ©e, les tueries (y compris les tentatives) ou homicides multiples, la traite des personnes, la violence ou les activitĂ©s criminelles organisĂ©es. Nous supprimons Ă©galement tout contenu soutenant ou faisant l’éloge de groupes, dirigeants ou individus impliquĂ©s dans ces activitĂ©s." Dans son rapport de transparence, Facebook prĂ©cise que "les vues de contenus contenant du terrorisme sont très rares, et nous supprimons une grande partie de ce contenu avant que les gens ne le voient. En consĂ©quence, souvent, nous ne trouvons pas suffisamment d'Ă©chantillons violents pour en estimer prĂ©cisĂ©ment la prĂ©valence."

La bénédiction accordée par le gouvernement américain à l’Appel de Christchurch constitue sans doute un symbole politique de taille, mais compte probablement moins, d’un point de vue opérationnel, que les règles édictées et les moyens effectivement mis en œuvre par les plateformes. Et ce d’autant plus que la portée normative et contraignante de l’Appel n’est pas manifeste.

Dans une dĂ©claration conjointe Ă  l’occasion du premier anniversaire de l’Appel de Christchurch, le prĂ©sident de la RĂ©publique, Emmanuel Macron, et la Première ministre de Nouvelle ZĂ©lande, Jacinda Ardern, s’étaient fĂ©licitĂ©s des progrès accomplis en vue d'Ă©liminer les contenus terroristes et extrĂ©mistes violents en ligne, et dits dĂ©terminĂ©s Ă  poursuivre leurs efforts, en insistant sur la nĂ©cessitĂ© et l’efficacitĂ© du "modèle de collaboration multi-acteurs de l'Appel de Christchurch". 

Cette troisième voie, de recherche de coopération, au-delà des fantasmes d’une auto-régulation libertaire, d’un contrôle total par les États ou d’une toute-puissance malveillante des plateformes géantes, est l’approche qui est également retenue à Bruxelles et à Paris sur la lutte contre les contenus haineux.

Si le phénomène et son impact restent difficilement quantifiables, malgré les tentatives variées de mesure, l’heure de la mobilisation générale a sonné contre le fléau des discours de haine sur les plateformes : en 2020, la loi dite Avia, le Digital Services Act européen et la loi visant à conforter les principes républicains ont posé les premières pierres du chantier. Il s’agit moins de définir une hiérarchie de normes entre les acteurs mobilisés que de répartir leurs responsabilités respectives au service d’une régulation la plus efficace possible.

Cette troisième voie, de recherche de coopération est l’approche qui est également retenue à Bruxelles et à Paris sur la lutte contre les contenus haineux.

Cela n’exclut pas toutefois quelques manifestations de conflits de souveraineté entre Bruxelles, forte de son échelle supranationale, Paris, outragée par la violence terroriste et les plateformes, fortes de l’adhésion volontaire de leurs milliards d’utilisateurs.

InspirĂ©e par une loi allemande de 2018, Laetitia Avia, dĂ©putĂ©e de la majoritĂ©, avait proposĂ© en dĂ©but d’annĂ©e 2020 d’imposer une obligation de retrait en 24 heures des contenus manifestement illicites, sanctionnĂ©e par une amende pouvant atteindre 4 % du chiffre d’affaires. La loi NetzDG allemande, qui l’avait inspirĂ©e, et qui prĂ©voit une sanction jusqu’à 50 millions d’euros, a donnĂ© lieu en 2019 Ă  une condamnation de Facebook de 2 millions d’euros. Si l’initiative française a Ă©tĂ© vivement critiquĂ©e, notamment par le Conseil d’État, et surtout sĂ©vèrement censurĂ©e par le Conseil constitutionnel, l’opportunitĂ© de lĂ©gifĂ©rer invoquĂ©e par le projet Avia n’est guère discutĂ©e, y compris par ses dĂ©tracteurs et par les plateformes elles-mĂŞmes, ne serait-ce que parce que le rĂ©gime actuel de responsabilitĂ© des acteurs de l’internet, fruit de la transposition en France de la directive e-Commerce de 2001 par la loi pour la confiance dans l’économie numĂ©rique de 2004, date d’avant l’essor des rĂ©seaux sociaux. La Commission europĂ©enne, après avoir relevĂ© les nombreuses imprĂ©cisions "concernant la portĂ©e ainsi que l’objectif et l'intention du projet de loi" Avia, a admis "sa conformitĂ© Ă  la politique europĂ©enne" en la matière, et a prĂ©conisĂ© d’éviter toute initiative nationale : "La Commission partage l’objectif politique des autoritĂ©s françaises concernant la lutte contre les contenus illĂ©gaux en ligne. Cependant, au vu de l’intention de la Commission et des travaux en cours concernant la proposition et l’adoption d’une lĂ©gislation europĂ©enne dans un avenir proche, il est suggĂ©rĂ© aux États membres de reporter l’adoption d’initiatives nationales sur le sujet."

L’obligation de moyens imposĂ©e aux plateformes pour lutter contre certains contenus illicites, est ainsi la clĂ© de voĂ»te de la nouvelle rĂ©gulation de la haine en ligne. 

Las, c’est dans le cadre de la lutte contre le cyber-islamisme, suite au discours des Mureaux du président de la République et aux attentats de l’automne 2020, que la régulation de la liberté d’expression en ligne est revenue à l’agenda législatif national. Le projet de loi "confortant les principes républicains" présenté en décembre 2020 contraint les réseaux sociaux à déployer des moyens supplémentaires en matière de modération des contenus haineux et à améliorer la transparence.

"Il s’agit de donner aux réseaux sociaux des obligations de modération, avec des moyens humains, techniques et financiers qui soient bien proportionnels à leur activité. La finalité est de permettre un traitement prompt des signalements et un examen approprié des contenus. On veut que les plateformes fassent plus attention à ce qu’il se passe sur leurs outils. Et, concrètement, qu’elles recrutent des milliers de modérateurs", avait détaillé dans la presse Laetitia Avia à l’aube du dépôt du projet de loi.

Les dispositions résultant du projet de loi visant à conforter les principes républicains sont transitoires, dans l’attente de l’entrée en vigueur des dispositions européennes du Digital Services Act, (DSA) à l’horizon 2022. "Nous avons essayé de coller au plus près de la rédaction du texte européen" a précisé Cédric O qui a présenté l’amendement comme une "transposition anticipée compte tenu de l’urgence sur ces sujets". Le Digital Services Act, présenté en décembre 2020, veut combattre les propos haineux sur internet, et imposer des règles de transparence et de responsabilité aux grandes plateformes.

L’obligation de moyens imposée aux plateformes pour lutter contre certains contenus illicites, est ainsi la clé de voûte de la nouvelle régulation de la haine en ligne. Si la consécration de cette obligation de moyens, combinée à l’exigence de transparence sur ces moyens, constitue une formidable avancée dans la régulation de la haine et de la violence en ligne, il reste encore la question cruciale de ce qu’est un contenu illégal. Pour que cette mobilisation collective produise les effets escomptés, un effort de définition détaillée de ce qui relève de la liberté d’expression, par distinction avec ce qui relève des contenus à bannir, reste à produire, idéalement à l’échelle nationale. Et cela, au secours des plateformes, comme du régulateur investi par la France, le CSA, doté depuis 2020, d’un Observatoire de la haine en ligne.

 

 

Copyright : PHILIPPE HUGUEN / AFP

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne