Mardi, Facebook a encore donné un grand coup de pied dans la fourmilière, en ces temps où la transparence obnubile de plus en plus les utilisateurs et les politiciens.
Cette nouvelle initiative a pris, pour le réseau social, la forme d’une première version de son Community Standards Enforcement Report, et ce dernier comportait de nombreuses précisions que Mark Zuckerberg avait promises à tant de membres du Congrès, lorsqu’il a été passé sur le grill durant ces deux jours d’audition.
Pendant des années, Facebook avait des standards de la communauté qui expliquaient “ce qui restait et ce qui disparaissait”.
Le mois dernier, pour la première fois, Facebook a publié les guidelines internes qu’il suit pour faire respecter ces standards.
La publication, mardi dernier, du tout premier Community Standards Enforcement Report est une façon de communiquer les chiffres issus de cette mise en application. Avec ces chiffres en main, le réseau social estime que nous pouvons tous juger par nous-mêmes de la réactivité de ce dernier concernant les faux comptes Facebook et leurs productions de spams et autres intentions malveillantes … Sans oublier les messages affichant de la nudité, des activités sexuelles, mettant en avant des discours de haine et de la propagande terroriste.
Guy Rosen, vice-président product management chez Facebook, a déclaré dans son message que l’entreprise avait désactivé environ 583 millions de faux comptes Facebook au cours des trois premiers mois, soit entre 3% et 4% des utilisateurs actifs mensuels. Il en a supprimé près de 1,3 milliard au cours des six derniers mois.
La majorité des faux comptes Facebook ont été bloqués dans les minutes suivant l’enregistrement, a déclaré Facebook, vantant ainsi ses technologies d’auto-flag et d’auto-destruction basées sur l’intelligence artificielle (AI). Chaque jour, il détruit des millions de faux comptes Facebook, et ce avant même qu’ils voient le jour !
En fermant les comptes, vous éliminez par la même occasion les nombreux spams qu’ils déversent, soit environ 837 millions échantillons que Facebook a trouvés et signalés au cours du premier trimestre 2018. Près de 100% de ces spams ont été découverts et signalés avant qu’un utilisateur ne le fasse.
La fermeture des faux comptes Facebook n’est pas importante seulement dans la lutte contre les spams. Elle est également cruciale pour lutter contre les fake news, la désinformation, les publicités et les scams malveillants. Par exemple, à la suite de la conférence F8 des développeurs Facebook, l’entreprise a déclaré qu’elle commençait à utiliser l’IA pour détecter automatiquement les comptes liés à des escroqueries financières.
Quelques chiffres concernant d’autres types de contenu inapproprié et outrageant :
- Facebook a supprimé 21 millions d’éléments supposés liés à de la nudité et à des activités sexuelles adultes au premier trimestre 2018. Il a réussi à découvrir 96% de ce contenu inapproprié avant qu’il ne soit signalé par des tiers. Facebook estime que parmi 10 000 éléments de contenu consultés sur Facebook, sept à neuf affichages ne respectaient pas ses standards en matière de nudité et de pornographie pour adultes … qui, soit dit en passant, ont fait l’objet de tergiversations et autres hésitations. Il y a quelques années, Facebook s’est trouvé dans l’obligation de clarifier ce qu’était la “nudité” indésirable. TL; DR: cela avait à voir avec les nuances au niveau des tétons.
- Pour la violence graphique, Facebook a supprimé ou mis en garde par avertissement environ 3,5 millions de contenus violents au premier trimestre 2018, dont 86% ont été identifiés par l’IA avant que les utilisateurs ne les signalent à Facebook.
- Les discours haineux sont plus compliqués à gérer, pas seulement pour Facebook mais aussi pour Twitter, YouTube et d’autres plateformes. Facebook dit que sa technologie “ne fonctionne toujours pas très bien et qu’elle doit encore donc être vérifiée par ses équipes dédiées”. Facebook a supprimé 2,5 millions de discours haineux au premier trimestre 2018, dont 38% ont été automatiquement signalés avant de voir le jour.
Rosen a fait écho à ce que Zuckerberg a déclaré durant le F8 récemment : “nous avons beaucoup de travail à faire pour anticiper les abus”.
Par exemple, repérer les discours de haine est complexe, comme Rosen l’a décrit dans un article détaillé après la conférence F8.
Dans le post de mardi :
L’intelligence artificielle n’est pas encore assez efficace pour déterminer si individu incite à la haine ou décrit un évènement qui lui est arrivé afin de pouvoir sensibiliser à une question en particulier.
L’IA doit également être entraînée avec de grandes quantités de données pour détecter les comportements significatifs. Facebook ne dispose pas toujours d’autant de données pour entraîner son système, et en particulier dans les langues les moins courantes.
Dans l’ensemble, ce rapport est la dernière tentative de Facebook pour se sortir du fiasco post-Cambridge Analytica dans lequel il s’est …
… lui-même mis, suite au scandale du partage des données utilisateur qui a déjà éclaboussé deux autres applications malveillantes : en plus de Cambridge Analytica, nous avons eu une deuxième application qui se faisait passer pour gentil petit agneau dédié aux recherches académiques, mais qui au final vendait nos données aux grands méchants loups du marketing. Enfin, cette semaine, nous avons découvert une autre application de recherche académique qui a exhibé l’intimité des utilisateurs à la vue de tous, sans sécurité, et ce pendant quatre ans !
Mais Facebook a beaucoup, beaucoup plus de problèmes à résoudre que ceux liés à l’agonie des applications. Par exemple, on imagine que beaucoup de questions auxquelles ce rapport tente de répondre sont liées aux suspicions de manipulation des élections présidentielles américaines de 2016, aussi bien avec les trolls russes, les fake news et les publicités politiques illégalement achetées par des entités étrangères.
Mais il ne s’agit que d’une petite partie rattachée à une question plus générale : est-ce que Facebook est maintenant trop puissant ? Et peut-il même suivre ce qu’il appelle “des adversaires sophistiqués qui changent continuellement de tactiques pour contourner ses contrôles ?”.
Billet inspiré de Facebook crushes 583 million fake accounts in 3 months, sur Sophos nakedsecurity.