Selon le rapport, le fait que des partis politiques et des gouvernements utilisent la propagande n’est vraiment pas nouveau, mais la nouvelle norme inclut désormais des messages toxiques qui sont faciles à diffuser à l’échelle mondiale avec ces nouveaux outils puissants de ciblage et d’amplification.
Selon le projet de recherche sur la propagande informatique de l’Université d’Oxford, l’utilisation des algorithmes, de l’automatisation et du Big Data pour façonner l’opinion publique, que l’on désigne globalement par le terme ‘propagande informatique’, est en train de devenir “une réalité omniprésente et envahissante au sein de nos vies quotidiennes”.
Pour son troisième rapport annuel, le projet a examiné ce qu’il appelle l’activité des “cyber-troupes” dans 70 pays. Ces cyber-troupes sont le terme collectif qui désigne les acteurs du gouvernement ou des partis politiques qui utilisent les réseaux sociaux pour manipuler l’opinion publique, harceler des dissidents, attaquer des opposants politiques ou encore diffuser des messages polarisants destinés à diviser les sociétés, entre autres choses.
Le projet a révélé qu’au cours des deux dernières années, le nombre de pays utilisant les réseaux sociaux pour lancer des campagnes de manipulation avait augmenté de 150%.
L’utilisation de la propagande informatique pour façonner les attitudes du public via les réseaux sociaux est devenue une pratique courante, allant bien au-delà des initiatives de quelques acteurs malveillants. Dans un environnement informationnel caractérisé par de gros volumes d’informations et par un degré d’attention et de confiance limité des utilisateurs, les outils et techniques de la propagande informatique sont en train de devenir un élément courant, et incontestablement essentiel, des campagnes numériques et de la diplomatie publique.
Pourquoi un tel développement ?
Selon les chercheurs, une partie de ce développement peut être attribué au fait que les observateurs deviennent de plus en plus experts lorsqu’il s’agit d’identifier et de signaler de telles campagnes de manipulation, à l’aide d’outils numériques et d’un vocabulaire plus précis pour décrire l’activité des cyber-troupes qu’ils découvrent.
Les chercheurs affirment qu’une partie de cette croissance provient également de pays nouvellement entrés dans l’ère des réseaux sociaux et qui expérimentent les outils et techniques de la propagande informatique lors d’élections ou bien en tant que nouvel outil de contrôle de l’information à part entière.
Les plateformes en ligne préférées
Les chercheurs ont trouvé des preuves montrant que 56 pays organisent des campagnes de type cyber-troupe sur Facebook. Les chercheurs ont découvert que, en raison de la taille de son marché (en effet, il s’agit de l’une des plus grandes plateformes de réseaux sociaux au monde), de sa portée, de sa capacité à influencer non seulement des publics cibles, mais aussi leurs réseaux, la famille proche et les amis, cette plateforme est sans nul doute N°1 pour une telle activité. Facebook fonctionne également comme outil de propagande en raison de sa diffusion d’informations et d’actualités politiques ainsi que de sa capacité à former des groupes et à créer des pages.
En réponse aux demandes de renseignements des médias concernant ce rapport, Facebook a déclaré que montrer aux utilisateurs des informations exactes constituait une “priorité majeure” pour l’entreprise. Un porte-parole a déclaré :
Nous avons développé des outils plus intelligents, une plus grande transparence et des partenariats plus solides pour mieux identifier les menaces émergentes, arrêter les acteurs malveillants et réduire la propagation de la désinformation sur Facebook, Instagram et WhatsApp.
Au cours de l’année écoulée, le projet a également vu l’activité des cyber-troupes se développer sur les plateformes de partage d’images et de vidéos telles qu’Instagram et YouTube, ainsi que sur WhatsApp. Les chercheurs pensent que dans les prochaines années, les communications politiques se développeront sur ces plateformes visuelles.
Samantha Bradshaw, l’un des auteurs du rapport, a déclaré à Reuters que, sur de telles plateformes, les utilisateurs visualisaient des fake news diffusées sous forme de flashs rapides et faciles à digérer qui ne fatiguaient pas le cerveau :
Sur Instagram et YouTube, il est question de la nature évolutive des fake news : à présent, il existe moins de sites web à base de texte partageant des articles et plus de sites à base de vidéos à contenu rapide à consommer.
Il est difficile de contrôler le contenu visuel
Bradshaw a déclaré que le passage au contenu visuel en tant qu’outil de propagande rendra plus difficile pour les plateformes l’identification et la suppression automatique de ce type de contenu. Malheureusement, nous ne pouvons pas compter sur les utilisateurs pour signaler des vidéos, même horribles, sans parler du contenu visuel trompeur ou biaisé.
L’attaque terroriste perpétrée à Christchurch, en Nouvelle-Zélande en mars dernier, est un exemple du type de contenu pouvant circuler librement sur les réseaux sociaux. Facebook a déclaré dans un communiqué qu’il avait fallu 29 minutes et des milliers de vues avant qu’un signalement ne soit fait et pour que le contenu en question ne soit finalement supprimé.
Pendant ce temps, la vidéo avait été partagée et uploadée à plusieurs reprises sur de nombreuses plateformes.
Bradshaw a déclaré :
Il est plus facile d’analyser automatiquement des mots que des images. De plus, les images ont souvent plus d’impact que les mots, avec un potentiel pour devenir virales plus important.
Stratégies, outils, techniques
Au cours des trois dernières années, les chercheurs ont surveillé l’utilisation de trois types de faux comptes utilisés dans des campagnes de propagande informatique : bot, humain et cyborg. Selon les chercheurs, les bots, des comptes hautement automatisés conçus pour imiter le comportement humain en ligne, sont souvent utilisés pour amplifier des récits ou noyer la dissidence politique.
Ils ont trouvé des preuves d’utilisation de compte de type bot dans 50 des 70 pays suivis. Par contre, ils ont découvert que des humains étaient derrière de très nombreux faux comptes. Ces comptes engagent des conversations en postant des commentaires ou des tweets, ou via la messagerie privée. Ces comptes ont été retrouvés dans 60 des 70 pays couverts par le rapport de cette année. Le troisième type de faux compte, les comptes cyborg, est un hybride qui associe automatisation et intervention humaine.
Cette année, le projet a ajouté un quatrième type de faux compte : les comptes piratés ou volés. Ces derniers ne sont pas faux en tant que tels, mais ces comptes sont, en général, très en vue avec un rayonnement très important qui attirent les pirates. Selon les chercheurs, de tels comptes sont utilisés de manière stratégique pour diffuser de la propagande en faveur du gouvernement ou pour censurer la liberté d’expression en interdisant l’accès au compte par son propriétaire légitime.
Quelques éléments clés mentionnés dans ce rapport :
- 87% des pays utilisent des comptes contrôlés par des humains.
- 80% des pays utilisent des comptes bot.
- 11% des pays utilisent des comptes cyborg.
- 7% des pays utilisent des comptes piratés/volés.
- 71% de ces comptes diffusaient de la propagande en faveur du gouvernement ou d’un parti politique.
- 89% attaquent l’opposition ou lancent des campagnes de diffamation.
- 34% diffusent des messages polarisants conçus pour susciter des divisions au sein de la société.
- 75% des pays ont utilisé la désinformation et la manipulation des médias pour induire en erreur les utilisateurs.
- 68% des pays utilisent le trolling sponsorisé par l’État pour cibler les dissidents politiques, l’opposition ou les journalistes.
- 73% amplifient les messages et le contenu en saturant les hashtags.
En ce qui concerne les stratégies de communication, les plus courantes sont la désinformation ou la manipulation des médias, un terme plus nuancé pour ce que nous appelons les “fake news“. Le rapport a révélé que, dans 52 des 70 pays étudiés, des cyber-propagandistes avaient conçus des mèmes, des vidéos, de faux sites web d’information ou des médias manipulés afin d’induire en erreur les utilisateurs. Afin de cibler des communautés spécifiques avec de la désinformation, ils ont acheté de la publicité sur les réseaux sociaux.
Le trolling, le doxxing et le harcèlement constituent également un problème croissant. En 2018, 27 pays utilisaient des trolls sponsorisés par l’État pour attaquer des opposants politiques ou des militants via les réseaux sociaux. Cette année, 47 pays sont concernés.
Parmi les autres outils de répression, citons la censure par le biais du signalement massif de contenu ou de compte.
Quoi faire ?
C’est un problème difficile à résoudre. Le rapport ne mentionne pas comment on pourrait repérer, bloquer ou ignorer les manipulations, mais il indique que nous ne pouvons pas blâmer uniquement les réseaux sociaux. Selon les chercheurs, la démocratie a déjà commencé à montrer des signes de faiblesse avant l’avènement des réseaux sociaux :
Les nombreuses questions au cœur de cette propagande informatique, à savoir la polarisation, la méfiance ou le déclin de la démocratie, existaient bien avant les réseaux sociaux et même Internet. L’utilisation des technologies au niveau des réseaux sociaux devrait inquiéter les démocraties du monde entier, tout comme d’ailleurs les nombreux défis, parfois anciens, auxquels ces dernières doivent faire face.
Pour que des démocraties fortes puissent prospérer, nous avons besoin d’avoir “accès à une information de grande qualité ainsi qu’une possibilité offerte aux citoyens de se réunir pour débattre, discuter, délibérer, faire preuve d’empathie et enfin faire des concessions”, affirment les chercheurs. En ces temps, nous nous tournons actuellement vers les réseaux sociaux pour être tenu informé. Mais les plateformes sont-elles à la hauteur de nos attentes ?
Les plateformes sociales créent-elles vraiment un espace pour la délibération publique et la démocratie ? Ou est-ce qu’elles amplifient le contenu qui maintient les citoyens dépendants, désinformés et en colère ?
Commençons avec les jeunes
Les chercheurs de l’Université d’Oxford n’ont pas exploré les méthodes permettant de détecter les fake news, mais d’autres y travaillent. Par exemple, en juin 2019, Google a lancé une initiative visant à aider les enfants à détecter les fake news.
Cette initiative est conçue pour protéger les enfants et les aider à devenir de meilleurs citoyens en ligne, en leur montrant comment analyser les emails et les SMS pour essayer de repérer les phishers, comment réagir aux messages suspects afin de vérifier l’identité de l’expéditeur, ainsi que d’autres techniques utiles pour se protéger de cette guerre mentale menée par les cyber-troupes : comment repérer et dialoguer avec les chatbots, comment utiliser des critères tels que la motivation et l’expertise pour établir la crédibilité lors de l’évaluation des sources, en détectant, par exemple, les fausses URL et en évaluant les en-têtes.
L’initiative de Google, qui fait partie de l’initiative “Be Internet Awesome“, fait partie d’un effort plus vaste visant à enrayer la propagation des fake news. Plus tôt cette année, il a également publié des outils de vérification des faits permettant aux journalistes de taguer des histoires qui discréditent la désinformation. Mozilla a également mise en œuvre sa propre stratégie pour combattre les fake news.
Et si les plateformes de réseaux sociaux et les autres géants d’Internet ne peuvent pas résoudre ce problème, en effet si tout échoue, nous avons au moins des souris !
Billet inspiré de Social media manipulation as a political tool is spreading, sur Sophos nakedsecurity.