Sur internet, la modération c'est pas automatique !

Sur internet, la modération c'est pas automatique !

Si tout le monde s’accorde sur le besoin de freiner la prolifération des contenus haineux et des fausses nouvelles sur internet, on imagine trop souvent que le bon algorithme saura régler le problème. Entretien avec Emmanuel Marty sur les modérateurs qui font réellement le travail.

Le 9 avril, Buzzfeed a révélé qu'une nouvelle version de l'application YouTube pour enfants, YouTube Kids, serait à présent entièrement gérée par des modérateurs humains. Les bots censés repérer et bloquer les contenus inappropriés aux plus jeunes n'arrivaient pas à détecter des vidéos à caractère sexuel ou conspirationniste, pensées précisément pour duper les algorithmes. Après plusieurs scandales, l'entreprise américaine semble finalement reconnaître que ses algorithmes ne sont pas infaillibles. Deux jours plus tard, lors de son témoignage devant le Congrès américain, Mark Zuckerberg trébuche sur la question de la modération. Quand le sénateur républicain Ben Sasse lui demande de définir ce qui constitue « un discours haineux », le PDG de Facebook admet que c'est une question difficile et « l'une des raisons pour laquelle [Facebook a] du mal avec ça ». Pourtant, il n'hésite pas à dire qu'une intelligence artificielle sera bientôt capable de faire la distinction.

Une propos haineux posté sur Internet n'a pas forcément pour but de célébrer une attitude haineuse, elle peut servir à la dénoncer, alors qu'un dessin animé aux allures enfantines peut cacher des messages conspirationnistes. Serait-il possible de différencier ce type de contenu avec une modération automatique ?

Emmanuel Marty : Je ne pense pas. Cette distinction échapperait totalement à une modération automatique, laquelle aujourd'hui est pour le moins imparfaite. Actuellement, aucun acteur soumis à un flux important de contenus sur internet ne peut se fier à une modération entièrement automatique. Les modérateurs humains ont encore un rôle d'arbitrage très important à jouer, notamment sur les sujets sensibles. D’autant que certains internautes usent de stratégies de contournement, en jouant sur des codes ou sur l'implicite, qui échappent aux outils automatisés.

Pour la vidéo, malgré certains progrès en reconnaissance automatique d'image, c'est encore plus compliqué. La preuve, un acteur comme Google, mis en cause pour son manque de contrôle des vidéos extrémistes ou à caractère sexuel postées sur la plateforme YouTube, a annoncé pour 2018 le recrutement de 10 000 modérateurs, et fait reposer une partie de ce travail sur la communauté d'utilisateurs.

Pourquoi pensez-vous que la mention des modérateurs est généralement absente des discours sur le besoin de contrôler davantage les propos haineux ou les fausses nouvelles sur internet ?

E. M. : De manière générale, il y a une certaine méconnaissance de l'existence-même des modérateurs. D'abord, parce que leur invisibilité est en quelque sorte une qualité constitutive de leur fonction de filtre de l'expression publique. Le modérateur sélectionne mais ne s'exprime en fait quasiment jamais. On imagine d'ailleurs volontiers, plus ou moins aidés en cela par un certain nombre de discours des acteurs du numérique, que le processus de modération est entièrement automatisé.

L'autre raison de cette absence est que la majorité des plateformes numériques et des médias sur internet ont progressivement abandonné l'idée d'une modération en interne. Ils sous-traitent cette activité à des sociétés spécialisées, dont une grande partie de l'activité est délocalisée dans des pays à bas coût, comme Madagascar ou le Maroc pour les sites francophones.

L'invisibilité du modérateur, l'externalisation et la délocalisation de cette activité sont sans doute de mauvais signaux sur l'intérêt accordé aux commentaires par les acteurs et par extension sur le statut conféré aux publics, relégués dans ce cas à des sources de trafic monétisables. Les acteurs prenant la peine de modérer eux-mêmes les contenus émanant d'internautes, en y allouant les ressources nécessaires, sont généralement dans une autre forme de relation à leur public.

Si une grande partie de la modération est délocalisée dans des pays où la main-d’œuvre est moins chère, comment peut-elle faire face à des stratégies de contournement propres à la culture et/ou à l’actualité française ?

E. M. : Il est certain que les modérateurs basés à l’étranger, quand bien même ils auraient un certain intérêt pour l'actualité française et une formation minimale à leur activité, sont moins bien armés que des modérateurs résidant en France pour faire face à ces stratégies. C'est d'ailleurs l'argument de la société que nous avons étudiée avec Nikos Smyrnaios [1], Atchik, un sous-traitant basé à Toulouse qui modère les commentaires sur certains sites web d'actualité. Son discours commercial insiste également sur le fait que ses modérateurs ont un fort niveau de qualification, bien souvent un Bac+5, accompagné d'une très bonne culture générale et politique française. Mais même pour ces modérateurs, certains commentaires sont délicats.

Si le racisme dans sa forme la plus primaire et vulgaire est assez facilement détectable, les frontières entre l'expression d'un mécontentement et l'insulte ou la diffamation, par exemple, sont parfois plus délicates à établir. Intégrer de manière opérationnelle la charte légale d'un pays et la charte éditoriale d'un média, l'appliquer à des propos dont le caractère raciste ou identitaire est parfois codé est une activité très exigeante cognitivement, surtout lorsque l'on sait que les modérateurs sont soumis à un rendement, avec en moyenne neuf secondes pour valider ou pas un commentaire. 

Les commentaires sur internet sont déjà soumis à la loi française, qui condamne les propos injurieux tenus en public. Mais le 19 mars 2018, le Premier ministre a annoncé vouloir modifier la loi française dans la lutte contre la haine sur internet. Que pourrait ou devrait apporter une nouvelle législation ?

E. M. : Je ne suis pas juriste, mais la législation existante me semble amplement suffisante pour encadrer la liberté d'expression, notamment la loi du 29 juillet 1881 sur la liberté de la presse. Les projets de loi destinés à renforcer le pouvoir coercitif de l'Etat sur le pluralisme des opinions, fussent-elles condamnables sur le plan moral ou éthique, ne me semblent ni souhaitables, ni réalistes. La question des modèles économiques et éditoriaux à la fois des médias et des plateformes numériques me semble plus cruciale, l'encadrement de l'expression des internautes étant de la responsabilité, politique, de ceux qui les hébergent ou les suscitent.

Qu’elles l'encouragent ou non, l’engagement provoqué par les contenus haineux, les fausses nouvelles ou les contenus complotistes participe de manière indifférenciée aux revenus des plateformes numériques. Serait-il une part peu reluisante mais bien réelle de leur modèle économique ?

E. M. : L'engagement est en effet la clé de voûte du modèle économique des réseaux socio-numériques, et pour partie celui des médias qui s'en rendent dépendants. Or on sait aujourd'hui, effectivement, que les propos outranciers, complotistes et/ou haineux ont la propriété de susciter beaucoup d'engagement, de flux (partages, likes, réponses, commentaires, contre-argumentations, etc.). Laisser passer de tels propos est d'ailleurs la hantise des modérateurs, qui savent qu'un message injurieux publié va amener une forme d'escalade et de surenchère. Mais c'est un phénomène qui, sur les réseaux socio-numériques, contribue à la profitabilité des plateformes.

Sans encourager explicitement ce genre de propos, elles en permettent largement la dissémination et n'ont commencé à mettre en place des outils de régulation ou de lutte qu'à partir du moment où elles ont explicitement et nommément été mises en cause. Le cas le plus emblématique est celui de Facebook, accusé d'avoir favorisé la dissémination de fausses informations pendant la campagne présidentielle américaine.

 

[1] Nikos Smyrnaios est co-auteur avec Emmanuel Marty de « Profession “nettoyeur du net”. De la modération des commentaires sur les sites d’information français », paru en 2017 dans le numéro 205 de la revue Réseaux (éd. La Découverte).

Emmanuel Marty est maître de conférences en sciences de l’information et de la communication à l’université Grenoble Alpes.

 

Propos recueillis par Sandrine Samii.

Photo : L'application YouTube © Jaap Arriens/NurPhoto/AFP