YouTube a annoncé des modifications à sa politique de désinformation électorale. À compter du 2 juin 2023, le site web ne supprimera plus les contenus faisant état de « fraudes, d’erreurs ou de dysfonctionnements généralisés » lors d’élections antérieures, y compris l’élection présidentielle américaine de 2020.


Ce changement vise à équilibrer l’engagement de YouTube en faveur de la sécurité et d’un discours politique ouvert. À l’approche d’une nouvelle élection présidentielle américaine en 2024, vous vous demandez peut-être ce que cela signifie réellement et pourquoi YouTube procède à ce changement maintenant.

Les débuts de la politique de désinformation électorale de YouTube

La politique de YouTube en matière de désinformation électorale couvre les normes de la plateforme pour les éditeurs et les créateurs qui couvrent ou commentent les élections. En décembre 2020, YouTube a interdit les contenus faisant de fausses déclarations au sujet d’une « fraude généralisée, d’erreurs ou de dysfonctionnements » lors de l’élection présidentielle américaine de 2020.

La plateforme a mis en œuvre cette politique à la suite de la « date limite de la sphère de sécurité » du 8 décembre pour la certification de l’élection de cette année-là. Selon la loi fédérale américaine, la date limite de la « sphère de sécurité » est fixée à six jours avant le vote du collège électoral. C’est la date limite pour chaque État de certifier les résultats des élections ou de traiter les résultats contestés.

Lire  Quelle est la différence entre un antivirus et un antimalware ?

YouTube est plus qu’une source de divertissement. Selon le Pew Research Center, il a également été une source d’information pour plus d’un quart des Américains en 2020, y compris le contenu des principaux médias et des créateurs indépendants.

En outre, selon le Bureau du recensement des États-Unis, l’élection de 2020 a connu le taux de participation le plus élevé du XXIe siècle, avec plus de 68 % des citoyens éligibles ayant voté. En raison de la combinaison d’un taux de participation plus élevé que d’habitude et de la grande portée de YouTube, la plateforme a attiré des créateurs ayant un large éventail de croyances et de théories sur l’élection.

Dans un billet de blog de YouTube, la plateforme affirme avoir supprimé des « dizaines de milliers » de vidéos dont le contenu violait sa « politique de désinformation électorale » au cours des deux dernières années qui ont suivi l’élection de 2020. Dans un autre billet de blog, YouTube mentionne également que plus de 77 % de ces vidéos ont été supprimées avant d’avoir accumulé 100 vues.

Bien entendu, YouTube n’est pas la seule plateforme à avoir agi de la sorte. Par exemple, TikTok a supprimé plus de 300 000 vidéos pour désinformation électorale.

Si l’élection présidentielle américaine a été le catalyseur de la mise à jour de la politique de désinformation électorale de 2020, les normes de YouTube s’appliquent à d’autres élections en dehors des États-Unis. Par exemple, les lignes directrices de la politique mentionnent spécifiquement les élections fédérales allemandes de 2021 et les élections présidentielles brésiliennes de 2014, 2018 et 2022.

Lire  Les 8 meilleures applications mobiles pour améliorer la positivité corporelle

Pourquoi YouTube a-t-il modifié sa politique en matière de désinformation ?

YouTube a déclaré que la mise à jour de juin 2023 était motivée par sa volonté de favoriser le discours politique. Le billet de blog de la plateforme indique ce qui suit :

« Si la suppression de ce contenu permet d’endiguer certaines fausses informations, elle pourrait également avoir pour effet involontaire de restreindre le discours politique sans réduire de manière significative le risque de violence ou d’autres préjudices dans le monde réel. »

Cela ne signifie pas que YouTube a supprimé toutes les restrictions. Selon sa politique de désinformation électorale mise à jour, les « contenus trompeurs ou mensongers présentant un risque sérieux de préjudice grave » ne sont toujours pas autorisés :

  • Les fausses informations visant à décourager les gens de voter.
  • Fausses allégations concernant l’éligibilité d’un candidat à une fonction élective ou à l’exercice d’une telle fonction
  • Distribution de matériel piraté
  • Incitation à interférer avec le processus démocratique

YouTube maintient également ses restrictions contre le harcèlement, les discours haineux et l’incitation à la violence qui s’appliquent à tous les contenus, y compris les commentaires électoraux. Dans le paysage médiatique, le fait que YouTube revienne sur ses restrictions concernant l’élection présidentielle américaine de 2020 est similaire aux changements apportés par Twitter plus tôt en 2023.

Lire  7 séries télévisées à regarder en streaming si vous aimez The Last of Us

CNBC a rapporté que les licenciements dans les entreprises technologiques ont eu un impact sur les équipes chargées de la confiance et de la sécurité chez Meta, Google et Twitter. Avec une équipe réduite, l’application de la politique précédente deviendrait encore plus difficile qu’elle ne l’était en 2020. Si vous voyez un contenu qui, selon vous, enfreint les règles de YouTube, suivez la procédure décrite par l’équipe d’assistance de YouTube.

Que signifie le changement de YouTube pour les élections de 2024 ?

La majeure partie de la politique de YouTube en matière de désinformation électorale reste inchangée. La mise à jour n’empêche pas YouTube de choisir de supprimer les contenus qui, selon la plateforme, diffusent des informations erronées sur les futures élections aux États-Unis ou ailleurs dans le monde.

À l’instar de sa société mère Google, YouTube attire des spectateurs et des créateurs de contenu aux intérêts très variés, ce qui rend plus difficile la lutte constante contre la désinformation. Néanmoins, YouTube continuera à surveiller les contenus qui vont à l’encontre de ses règles. De même, vous pouvez toujours signaler tout contenu que vous jugez inapproprié.