Êtes-vous digne de confiance, ou êtes-vous tout simplement une nouvelle fake news prête à se répandre ?
Facebook se charge pour vous de répondre à cette interrogation, ayant travaillé l’année passée à développer un système de classification de la fiabilité, auparavant non renseignée, des utilisateurs de Facebook. Selon une interview, donné au Washington Post par Tessa Lyons, chef de produit en charge de la lutte contre la désinformation, les utilisateurs de Facebook se voient attribuer une cote de confiance allant de zéro à un.
Cette initiative fait partie de la bataille en cours, que la Silicon Valley mène, contre tous ceux qui ont un peu trop joué avec les plateformes de réseaux sociaux : des acteurs russes qui ont inondé Twitter avec de la propagande et lâché des armées de comptes automatisés sur la plateforme sociale en question ainsi que sur Facebook, jusqu’au pourvoyeurs de fake news émanant des deux extrémités du spectre politique.
Facebook a connu dernièrement une période difficile en ce qui concerne les fake news.
En avril, il a commencé à contextualiser les sources des news stories. Cela inclut tous les articles d’actualité : à la fois les sources ayant une bonne réputation, mais aussi de purs ramassis de sottises accompagnés de leurs armées surexcitées de bots débiles qui en tirent profit.
Vous vous rappellerez peut-être qu’en mars 2017, Facebook a commencé à agiter des drapeaux “contesté” sur ce que son panel de vérificateurs de faits considérait comme étant des fake news.
En réalité, ces drapeaux n’ont fait qu’aggraver les choses. Ils n’ont rien fait pour empêcher la diffusion de fausses informations et ont, au contraire, fait monter en flèche le trafic vers certaines histoires contestées, en réaction à ce que certains groupes considéraient comme une tentative d’enterrer “la vérité”. Le mois dernier, Facebook a jeté l’éponge concernant son souhait de se débarrasser de la désinformation. La pensée derrière cette décision : même s’il s’agit d’un flux malsain, il a lui aussi le droit de circuler, non ? A la place, le réseau social déclare qu’il s’apprête plutôt à les rétrograder : une punition qui s’étend aux pages et aux domaines qui partagent régulièrement des fausses nouvelles.
La situation a atteint son paroxysme lors d’un événement presse supposé être une opération de communication bienveillante : en effet, cette situation a été attaquée frontalement par le journaliste Oliver Darcy de CNN, qui a vivement critiqué John Hegeman, Responsable des News Feed, en mentionnant sa décision d’autoriser sur sa plateforme le site complotiste d’informations d’Alex Jones, InfoWars. Comment, selon Darcy, l’entreprise peut-elle prétendre s’attaquer sérieusement au problème de la désinformation en ligne, tout en permettant au site InfoWars de maintenir une page avec près d’un million d’abonnés ?
La réponse de Hegeman : l’entreprise …
… ne censure pas les fake news !
Mais cela ne signifie pas que les plateformes de réseaux sociaux ne cherchent pas à analyser le comportement de certains comptes afin de repérer les acteurs violents. Comme le souligne le Washington Post, Twitter prend désormais en compte le comportement d’autres comptes dans le réseau d’un utilisateur, en tant que facteur de risque, pour juger si les tweets de ce dernier doivent être diffusés.
Ainsi, il ne devrait pas être surprenant d’apprendre que Facebook a adopté la même démarche. Mais le fonctionnement réel, sans surprise, reste un véritable un mystère. Comme tous les algorithmes de Facebook, notamment ceux qui évaluent la probabilité que nous achetions certains produits, ou ceux qui essayent de déterminer si nous utilisons une fausse identité, ceux dédiés à la fiabilité des utilisateurs de Facebook sont aussi opaques qu’un gâteau au chocolat !
Le manque de transparence sur la façon dont Facebook nous juge ne facilite pas le travail des vérificateurs de faits. L’un de ces vérificateurs est First Draft, un laboratoire de recherche de la Harvard Kennedy School, qui se concentre sur l’impact de la désinformation.
La directrice, Claire Wardle, a déclaré au Washington Post que même si ce manque de clarté est difficile à gérer, il est tout de même facile de deviner pourquoi Facebook doit garder sa technologie mystérieuse, car elle pourrait sinon être utilisée pour duper les systèmes de la plateforme sociale :
Le malaise vient du fait de ne pas savoir comment [Facebook] nous juge. Mais l’ironie est qu’ils ne peuvent pas nous dire comment ils nous jugent, car s’ils le font, les algorithmes qu’ils ont construits seront déjoués.
Un exemple en est la controverse autour du conservateur conspirationniste Alex Jones et son site InfoWars, qui ont finalement été bannis de Facebook et d’autres sites de réseaux sociaux plus tôt dans ce mois-ci.
Cet évènement n’est pas apparu, aux yeux des dirigeants de Facebook, comme une victoire nette sur la désinformation. Ils soupçonnaient plutôt que le signalement de masse du contenu de Jones faisait partie d’un effort visant à déjouer les systèmes de Facebook.
Lyons a déclaré au Washington Post que si les internautes ne signalaient que les faux messages, son travail serait facile. En réalité, la vérité est beaucoup plus compliquée. Elle a déclaré que peu de temps après que le réseau social ait donné aux utilisateurs de Facebook la possibilité de signaler les messages qu’ils considéraient comme faux, en 2015, elle s’est rendu compte que les gens signalaient les messages simplement parce qu’ils n’étaient pas d’accord avec le contenu !
Ces messages sont ensuite transmis à des vérificateurs tiers de Facebook. Pour utiliser efficacement leur temps, l’équipe de Lyons doit déterminer si ceux qui ont signalé des messages sont eux-mêmes dignes de confiance.
Un élément que Facebook utilise pour évaluer cette fiabilité est la façon dont les gens interagissent avec les articles, a déclaré Lyons :
Par exemple, si un utilisateur nous avait déjà signalé qu’un article était faux et que l’article a été confirmé faux par un vérificateur, nous pourrions donner plus de poids au futur signalement émanant de cette personne en particulier concernant des fake news, plutôt qu’à celui en provenance d’un individu qui signale des fausses informations concernant un grand nombre d’articles, y compris certains qui finissent par être confirmés comme vrais.
En ce qui concerne les autres éléments que Facebook utilise pour nous évaluer, l’entreprise ne divulgue rien de plus. Même si le fonctionnement interne reste flou, il est sans doute raisonnable de penser que la fiabilité globale du contenu sur Facebook est plus importante que le fait d’être évalué ou non. Pensez-y : avez-vous confiance en l’apport de tous ces grincheux indignés qui se défoulent sur le bouton “signaler” simplement parce qu’ils ne sont pas d’accord avec quelque chose ?
Non ? moi non plus ! Et s’il faut une note de fiabilité pour rétrograder ce type de comportement, cela semble être un compromis acceptable.
Au moins, il ne s’agit pas d’une note de confiance qui nous est attribuée publiquement, comme si nous étions des produits, comme l’application Peeple l’avait proposé il y a quelques années.
Bien sûr, nous sommes des produits en ce qui concerne Facebook. Mais au moins, notre note n’est pas inscrite sur note front !
Billet inspiré de Facebook’s rating you on how trustworthy you are, sur Sophos nakedsecurity.