Plus de 35 000 vidéos supprimées en 2023 : YouTube dit “soutenir” les prochaines élections européennes et rappelle ses règles de modération
Les élections européennes approchent à grands pas et dans leur sillage, le risque de censure de la part des GAFAM, sous pression des textes législatifs européens. YouTube, la filiale de Google de partage de vidéos, a annoncé le 09 mai dernier ses nouvelles “fonctionnalités” en prévision du scrutin européen. Outre les nouveaux boutons, dédiés à ses élections et leur déroulement, qui feront leur apparition, YouTube insiste sur ses règles de modération, dopées à l’intelligence artificielle (IA), pour détecter et supprimer les contenus soupçonnés de désinformation électorale. Ce “soutien” de YouTube intervient peu après l’annonce par Microsoft, un autre des GAFAM, d’un fonds pour former à la détection de contenus modifiés.
Dans son communiqué, YouTube dévoile “un aperçu de ses efforts pour aider les citoyens d'Europe et d'ailleurs à trouver des actualités et des informations électorales utiles et faisant autorité”. La filiale de la firme Alphabet (ex-Google) a listé les nouvelles fonctionnalités qui apparaîtront sous peu sur son site et son application, en prévision de l’échéance électorale européenne.
Plus de 35 000 vidéos supprimées dans l’UE en 2023
YouTube évoque un panneau d'information pour orienter les spectateurs de l'UE vers les fonctionnalités “comment voter” et “comment s'inscrire pour voter”, des notices sur les candidats lors des recherches des utilisateurs ou encore, le jour J, les résultats en direct du vote. “Au cours des dernières semaines de la campagne, sur la page d'accueil de YouTube, nous afficherons des rappels indiquant où et comment voter”, lit-on encore.
La plateforme de partage de vidéos insiste surtout sur les règles de modération. Dans son communiqué, “l’ingérence dans le processus démocratique”, dans toutes les langues aussi bien aux États-Unis qu’en Europe, est particulièrement citée. “Nos règles déterminent ce qui n'est pas autorisé sur YouTube et s'appliquent à tous les contenus, quels que soient la langue ou le point de vue politique (...) Par exemple, nous supprimons les contenus qui induisent les électeurs en erreur sur la manière de voter ou encouragent l'ingérence dans le processus démocratique”, lit-on.
YouTube révèle alors avoir supprimé en 2023 plus de 35 000 vidéos mises en ligne depuis les États membres de l’UE, pour “violation de [ses] politiques en matière de désinformation”.
“Notre équipe mondiale de modérateurs s'associe à la technologie d'apprentissage automatique (Intelligence artificielle, NDLR) pour appliquer ces politiques à grande échelle, 24h/24 et 7j/7”.
La plateforme rappelle que les “campagnes d’influence” ne sont pas autorisées et dit “travailler en étroite collaboration avec le Threat Analysis Group (TAG) de Google pour repérer ces types de campagnes et mettre fin à leurs chaînes (...) Grâce à TAG, nous partageons également des informations sur les menaces avec les forces de l'ordre, telles qu'EUROPOL.
En attendant la promulgation de l’Artificial Intelligence Act, adopté par le Parlement européen en mars 2024 après un accord avec le Conseil en décembre 2023, l’IA, particulièrement les outils génératifs comme ChatGPT, suscite une vive inquiétude, notamment dans un contexte d’élections avec la diffusion de contenus trompeurs, à l’instar des deepfakes.
En attendant, Breton fait le gendarme
A ce propos, YouTube oblige désormais les créateurs de vidéos à préciser si leurs contenus sont générés par une IA, se permettant même de notifier comme “synthétique ou modifié” tout contenu qui n’a pas été indiqué comme tel par son créateur et “susceptible d’induire les téléspectateurs en erreur”. Censure en vue ?
En attendant, YouTube comme les autres GAFAM, à l’image de Meta et ses réseaux sociaux Facebook ou encore Instagram, sont contraints par le Digital Service Act (DSA), en vigueur depuis août 2023, de réagir face aux contenus jugés “dangereux”, “illicites” ou propageant de la “désinformation”.
Le 30 avril dernier, la Commission européenne a annoncé le lancement d'une procédure formelle d'infraction contre les plateformes dirigées par Mark Zuckerberg, pour des manquements au règlement sur les services numériques (DSA), à quelques semaines des élections européennes. L'exécutif européen estime que Meta n'en fait pas assez pour lutter contre la “désinformation en provenance de Russie et d'autres régimes malveillants”.
Parmi les reproches faits à Meta figure sa non-conformité aux obligations du règlement en matière de lutte contre la diffusion de messages trompeurs, de publicités et de campagnes de désinformation. En outre, la prochaine mise hors service de CrowdTangle, un logiciel très utilisé par les journalistes et les chercheurs et considéré comme “essentiel” pour “repérer” et “analyser la désinformation”, passe mal auprès de la Commission.
Si Microsoft n’est pas aussi sensiblement concernée par la lutte contre la désinformation, la firme fondée par Bill Gates prend les devants et lance avec OpenAI un fonds de 2 millions d’euros, appelé “Resilience Fund” visant à dispenser, par des ONG, des formations sur les contenus générés par l’IA en période électorale.
Ça va bien se passer !
À LIRE AUSSI
L'article vous a plu ? Il a mobilisé notre rédaction qui ne vit que de vos dons.
L'information a un coût, d'autant plus que la concurrence des rédactions subventionnées impose un surcroît de rigueur et de professionnalisme.
Avec votre soutien, France-Soir continuera à proposer ses articles gratuitement car nous pensons que tout le monde doit avoir accès à une information libre et indépendante pour se forger sa propre opinion.
Vous êtes la condition sine qua non à notre existence, soutenez-nous pour que France-Soir demeure le média français qui fait s’exprimer les plus légitimes.
Si vous le pouvez, soutenez-nous mensuellement, à partir de seulement 1€. Votre impact en faveur d’une presse libre n’en sera que plus fort. Merci.