Assassinat de Samuel Paty : les réseaux sociaux pointés du doigt, la modération mise en cause

Auteur(s)
FranceSoir
Publié le 20 octobre 2020 - 18:32
Image
Siege Facebook
Crédits
DR
Facebook emploierait 7500 modérateurs dans le monde, Twitter ne donne pas ses chiffres
DR
Les représentants français de Google, Facebook, Twitter, Tik-Tok et Instagram étaient « convoqués » ce mardi au ministère de l’Intérieur. 
 
« Nous avons besoin que les entreprises du Net comprennent qu’elles ont un rôle important à jouer »
 
« Je veux que les réseaux sociaux prennent leur responsabilité »
 
Les deux phrases ont été prononcées à cinq ans d’intervalle : la première en 2015 par le ministre de l’Intérieur Bernard Cazeneuve après les attentats de Charlie Hebdo et de l’Hypercasher ; la seconde ce mardi matin par Marlène Schiappa, ministre déléguée chargées de la citoyenneté, suite à l’assassinat de Samuel Paty. 
 
Attaque de la discothèque gay d’Orlando, assassinat des deux policiers français à Magnanville le même jour (revendiquée par une vidéo en direct de Facebook), attentats de Christchurch… A chaque drame, les réseaux sociaux sont montrés du doigt et sommés de prendre des mesures. 
 
 
Contenus haineux 
 
Ce qui est mis en cause, c’est bien entendu la diffusion de contenus illicites et de messages haineux, en l’occurrence en ce qui concerne l'assassinat de Samuel Paty, la vidéo du père d’élève accusateur envers le professeur d’histoire-géographie de Conflans-Sainte-Honorine et la revendication de l’assassin sur Twitter. 
 
Comment empêcher de tels contenus de tourner sur les réseaux jusqu’à parfois en devenir viral ? C’est d’abord une affaire de modération. Entre interventions humaines et outils de détection automatique, les méthodes des réseaux sociaux en la matière sont pour le moins opaques. 
 
Dans la grande majorité des cas, les géants du web se contentent de fournir leurs chiffres de modération : 270000 comptes suspendus par Twitter pour incitation à la haine en 2019, 5 millions de contenus liés au terrorisme supprimés par Facebook depuis le début de l’année 2020…
 
Une modération à posteriori
 
Une chose est sûre, en raison du statut d’hébergeur – et non d’éditeur – de ces réseaux, la modération ne peut en théorie se faire qu’à posteriori, c’est-à-dire après un signalement par un utilisateur. 
 
En théorie toujours, toute suppression de contenu est d’origine humaine. Un algorithme qui détecte un « contenu indésirable » passe en quelque sorte la main à une personne chargée de décider. Les modérateurs seraient 7500 chez Facebook, selon la firme de Mark Zuckerberg. 
 
YouTube : la mauvaise expérience
 
Pendant le confinement, YouTube a bien tenté de « confier » l’analyse et la suppression des contenus inappropriés à ses programmes d’intelligence artificielle. Résultat, entre mai et juin, deux fois plus de vidéos qu’en temps normal (11 millions) ont été supprimées, et beaucoup par erreur. 
 
Le 20 septembre dernier, YouTube a annoncé faire marche arrière et remettre le sort des vidéos problématiques entre les mains de modérateurs humains. 
 
« Ils prennent des décisions plus nuancées, notamment quand il s’agit de discours haineux, de désinformation médicale ou de harcèlement »
Comme quoi l’IA ne peut pas tout… Encore faudrait-il, d’une part que ces modérateurs humains soient suffisamment nombreux, d’autre part qu’ils maîtrisent non seulement la langue mais encore la culture des pays pour lesquels ils modèrent. 
 
Dans un tout autre registre, certaines œuvres d’art, au premier rang desquelles « L’origine du monde » de Gustave Courbet ont fait les frais de ces pratiques, censurées sur Facebook pour cause de nudité.