Censure et désinformation: dans les médias et sur les réseaux sociaux, la sélection des informations “acceptables” pose question

  •  SOUTENEZ L'INDEPENDANCE DE FRANCESOIR, FAITES UN DON !  

Censure et désinformation: dans les médias et sur les réseaux sociaux, la sélection des informations “acceptables” pose question

Publié le 31/07/2020 à 10:22 - Mise à jour à 18:12
Unsplash
PARTAGER :

Auteur(s): FranceSoir

-A +A

L’information en ligne est volatile et très difficilement contrôlable, comme en témoignent les campagnes mettant en scène de fausses informations, les mouvements parfois massifs de haine en ligne et de harcèlement. Dans ce contexte, les médias et les plateformes numériques sont soumis à une pression intense pour sélectionner les informations “vraies” ou “acceptables”, et invisibiliser ou supprimer les autres. Le dernier exemple en date, la suppression d’une vidéo tweetée par Donald Trump sur Twitter, montre la complexité de cette question: qui décide de ce qui peut-être diffusé sur une plateforme, ou de ce qui peut être catégorisé “fake news” par un média? Les plateformes numériques ont acquis le droit de décider ce qui est une information et ce qui ne l’est pas, et ont donc de plus en plus de protagonisme dans le débat sur la censure et la liberté d’expression. En outre, les nouveaux mécanismes de vérification des médias, financés en partie par les géants du net, font toujours l'objet de méfiance de la part des lecteurs, qui ne comprennent pas toujours comment sont définies les “fake news” et les vraies infos.

Une lutte entre liberté d'expression et contrôle de la désinformation et de la haine en ligne

La rapidité et le caractère massif de la diffusion des contenus sur les réseaux sociaux pose un problème de contrôle, car des informations contestables peuvent avoir un impact très important sur le déroulement d’élections, sur la formation de l’opinion publique, ou simplement sur la santé mentale d’une personne attaquée massivement. Face à ce phénomène, les plateformes numériques, plutôt passives jusqu’à aujourd’hui, passent à l’action, et prennent l’initiative de supprimer ou d’étiqueter des contenus estimés contestables. Le dernier exemple en date est la suppression par Twitter, Facebook et Youtube d’une vidéo tweetée par le Président des États-Unis Donald Trump, ainsi que son fils Donald Trump Junior. Ce dernier a même vu son compte Twitter suspendu
Pour justifier cette suppression de la vidéo, Facebook, Twitter et Youtube ont évoqué le non respect de leurs «politiques de fausses informations sur le Covid». Ces politiques concernant les fausses informations sont cruciales pour les plateformes numériques, qui sont sous le feu des critiques des pouvoirs publics, des annonceurs et des utilisateurs, en raison du faible contrôle exercé sur le contenu diffusé. En matière de santé, et spécifiquement concernant l’épidémie de Coronavirus, les plateformes affirment se baser sur les recommandations de l’Organisation Mondiale de la Santé et des pouvoirs publics pour détecter les fausses informations.
Mais en la matière, les positions sont loin d'être unanimes, et la décision de supprimer une vidéo ou de désactiver un compte peut donc paraître arbitraire, lorsqu'elle est prise par une plateforme numérique, sans se baser sur une décision de justice.
Lundi 27 juillet, le président Donald J. Trump a demandé à la Federal Communications Commission (FCC ) de mettre en conformité avec la loi les réseaux sociaux par rapport à l'éditorialisation du discours des utilisateurs. Pour le président Trump, il s'agit  d'une censure injuste et politiquement biaisée. La guerre de Trump contre la “censure des réseaux sociaux” montre la complexité de la modération de l'information de manière privée et opaque .

Définir les limites de la liberté d'expression sur internet

La régulation du contenu publié sur les réseaux sociaux est pour l'instant une sorte de “far west” chaotique. Des lois existent pour réprimer la diffamation, l'incitation à la haine raciale, les appels à la violence, etc, mais le temps judiciaire est long. Les utilisateurs ne comprennent pas comment des tweets racistes, violents, sexistes, ou de fausses informations, peuvent être publiés sans contrôle, et sans suppression ou modération immédiate. Ils incriminent les plateformes et leur manque de réactivité, et les plateformes évoquent l'absence de régulation adaptée.
Dans ce vide juridique, les plateformes ont développé leurs propres règles et conditions d'utilisation, qui aboutissent à la situation actuelle: des comptes signalés par les utilisateurs sont suspendus, des tweets et des vidéos supprimés, mais rarement de manière cohérente ou transparente. Sans décisions de justice publiques, et sans justifications détaillées fournies par les plateformes, difficile de ne pas évoquer le caractère parfois arbitraire et illégitime de cette censure.
Cette question fait d'ailleurs l'objet d’une tribune récente de Paula Forteza, députée, Aymeril Hoang et Benoît Loutrel, experts en numérique, qui appellent à la nécessaire transparence des plateformes, et à l'accélération du processus judiciaire, qui doit rester la seule manière de censurer. 

Censure préventive pour éliminer les “mauvaises pensées”

Pour l'instant, les réseaux sociaux sont maîtres de l’éditorialisation de leur contenu, alors qu’ils n’ont par définition pas de compétences éditoriales. Pour assurer la légitimité de leurs décisions de signaler de fausses informations, des manipulations, ou pour supprimer du contenu, les plateformes collaborent parfois avec des médias d'information, qui partagent avec elles leurs conclusions en matière de “fact checking”. Ces partenariats sont louables, mais comment penser que les médias traditionnels, en grande difficulté en raison des bouleversements de leur modèles économique, ont la capacité de vérifier les millions de contenus publiés chaque jours sur des plateformes dont les revenus se chiffrent au minimum en centaines de millions d’euros? des fois aussi en coopération avec d'autres acteurs des médias.
Pour palier ce manque de moyens, les plateformes n'hésitent pas à mettre la main à la poche, et l’AFP, L'Express, Le Monde, France 24, 20 Minutes, sont financés à travers le dispositif  “Coronavirus factchecking grant” pour filtrer les “fake news” liées à la pandémie. Google de son côté soutient les Décodeurs du Monde. Mais est-ce suffisant, pour tout vérifier, et surtout pour décider du contenu qui sera supprimé de manière définitive, ou étiqueté comme “fake news”?

Malgré les services de vérification, on ne croit plus dans les médias

Même avant la crise du Coronavirus, les français se montraient déçus par les médias. Selon le baromètre 2020 de la confiance dans les médias  réalisé par Kantar pour le journal La Croix en janvier 2020, seuls 59% des Français interrogés s'intéressent aux informations avec très grand ou assez grand intérêt. Malgré une confiance dans l'information diffusée sur internet en baisse, le numérique reste une des principales sources d'information des Français. Selon Guillaume Goubert, le directeur du journal La Croix, la plupart des grands médias, sont assez mal acceptés, car ils essaient de rendre compte de toutes les opinions.
Le manque de confiance et intérêt dans les médias pourrait être aussi causé par la censure et la désinformation sélective opérée par les plateformes, en association avec les médias, mais sans grande transparence. L'exemple américain nous montre que les réseaux sociaux, les géants du net et les grands médias collaborent pour sélectionner les informations “acceptables”, mais cela ne semble pas suffisant pour faire remonter la confiance dans les médias.

Auteur(s): FranceSoir


PARTAGER CET ARTICLE :


Les nouveaux mécanismes de vérification des médias, financés en partie par les géants du net, font toujours l'objet de méfiance de la part des lecteurs, qui ne comprennent pas toujours comment sont définies les “fake news” et les vraies infos

Annonces immobilières

Newsletter


Fil d'actualités Culture




Commentaires

-