Facebook lutte contre le piratage de comptes à des fins de propagande terroriste

Réseaux sociaux

Un partisan présumé de l’EI a été vu en train d’avertir d’autres qu’il était de plus en plus difficile de faire de la propagande terroriste sur la plateforme sociale. L’une des suggestions faite par ce dernier était de tenter de prendre le contrôle de comptes de réseaux sociaux légitimes qui avaient été piratés.

propagande terroriste

Monika Bickert, Responsable Policy Management Monde chez Facebook, et Brian Fishman, Responsable Counterterrorism Policy, ont déclaré jeudi dans un message que le Département de la Justice (DOJ) américain avait récemment découvert un partisan présumé de l’EI avertissant les autres qu’il était de plus en plus difficile de faire de la propagande terroriste sur la plateforme sociale.

Comme indiqué dans une plainte pénale, l’une des suggestions du prétendu terroriste/sympathisant était de tenter de prendre le contrôle de comptes de réseaux sociaux légitimes qui avaient été piratés : plus précisément, d’agir comme des loups se glissant dans des peaux de mouton pour échapper au contrôle de Facebook.

Le travail continu de Facebook concernant la propagande terroriste porte ses fruits.

Bickert et Fishman ont également signalé que Facebook avait supprimé 14 millions de contenus susceptibles de provenir de terroristes, et jugés en tant que tels par la nouvelle technologie d’apprentissage automatique, le hachage d’images, de vidéos, de flux audio et de texte, afin de créer des empreintes digitales de contenu, sans oublier les vérificateurs humains, en souffrance depuis si longtemps (merci, merci pauvres âmes !).

Ils ont déclaré que la plupart du contenu, qui est lié à l’État islamique, à Al-Qaïda et à leurs affiliés, était du vieux matériel que Facebook avait découvert en utilisant des techniques spécialisées.

Bien entendu, 14 millions éléments de contenu représentent à peine une goutte d’eau dans un océan lorsqu’il est question d’une plateforme délivrant justement du contenu. Il semblerait que Facebook ait vu 300 millions de photos uploadées par jour, en remontant aussi loin qu’en 2012, et que 2,5 milliards d’éléments de contenu aient été partagés : des chiffres qui bien évidemment ont explosé depuis !

Mais restons néanmoins positifs : il s’agit d’un travail important, car il est réalisé dans un contexte où les terroristes continuent de proposer sans cesse de nouvelles façons de déjouer la plateforme.

Combien de temps le contenu offensant reste-t-il actif et est-ce important ?

Facebook a souligné qu’il existait deux paramètres pour mesurer le succès dans ce type de combat. L’un d’entre eux, le temps moyen pendant lequel le contenu reste sur la plateforme avant son retrait, retient plus l’attention qu’il ne devrait probablement, étant donné qu’un ancien contenu, qui existe depuis un certain temps, n’aurait peut-être plus eu autant d’impact. Voici un extrait du message publié :

On nous demande souvent combien de temps le contenu terroriste reste sur Facebook avant que l’on ne prenne des mesures. Mais notre analyse indique que le temps de réaction est une mesure du préjudice infligé moins significative que celle qui se concentrerait plus explicitement sur l’impact réel de ce contenu en question. En effet, une partie du contenu peut être visionnée plusieurs minutes à peine après sa publication ou peut rester en grande partie invisible pendant des jours, des semaines voire des mois avant d’être vue ou partagée par une autre personne.  

Alors que les terroristes cherchent toujours des moyens de contourner la détection des plateformes de réseaux sociaux, ces dernières doivent continuer à améliorer leur technologie, leur formation et leurs processus pour contrer leurs efforts, explique Facebook. Cela prend du temps et, bien que les technologies et les autres améliorations arrivent à maturité, elles ne fonctionneront peut-être pas toutes aussi efficacement.

Un nouvel apprentissage automatique en action

Facebook indique qu’un nouvel outil d’apprentissage automatique permet de produire un score indiquant la probabilité qu’une publication enfreigne ses politiques de lutte contre le terrorisme, ce qui aide son équipe de vérificateurs à hiérarchiser les publications les plus dangereuses.

Parfois, lorsque l’outil considère qu’une publication contient potentiellement de la propagande terrorisme, il est automatiquement supprimé. Les humains restent toutefois des acteurs clés dans cette initiative : des vérificateurs spécialisés évaluent la plupart des publications. Le seul moment où un message est immédiatement et automatiquement supprimé, c’est lorsque l’outil est tellement sûr de la nature du contenu que sa “décision” indique qu’il sera plus précis que les vérificateurs humains de Facebook.

Facebook ne veut pas trop se dévoiler à ses adversaires. Il ne donne donc pas beaucoup de détails sur les améliorations apportées. Ce qu’il a dit, c’est que son apprentissage automatique fonctionne maintenant dans 19 langues.

Facebook partage également certaines de ses nouvelles avancées en matière de hachage de contenu avec un consortium de partenaires technologiques comprenant Microsoft, Twitter et YouTube.

Tout cela conduit à une amélioration de la suppression du contenu terroriste. Mais le travail ne s’arrête jamais, a déclaré Facebook, et cela inclut la lutte contre la menace terroriste en dehors du cyber-monde :

Nous ne devrions pas considérer cela comme un problème qui peut être “résolu” et mis de côté, même dans les scénarios les plus optimistes. Nous pouvons réduire la présence du terrorisme sur les plateformes sociales traditionnelles, mais son élimination totale nécessite aussi de s’occuper des personnes et des organisations qui génèrent cette propagande terroriste dans le monde réel.  

Comment combattre les hackers ?

Nous avons beaucoup écris sur le piratage de compte. Heureusement, bon nombre des grandes plateformes de réseaux sociaux proposent un moyen, à savoir une authentification basée sur des applications, de protéger nos comptes contre ces attaques, qui se présentent sous des formes telles que le phishing et les SIM SWAP.

L’utilisation de l’application 2FA basée via des applications (telle que Sophos Authenticator, qui est également incluse dans notre logiciel gratuit Sophos Mobile Security pour Android et iOS) réduit considérablement le risque d’attaques par SIM SWAP, car ces applications d’authentification mobile ne reposent pas sur des communications liées à un numéro de téléphone.

Facebook affirme qu’en plus d’utiliser des comptes piratés, les terroristes ont développé d’autres tactiques pour éviter la fermeture de compte et la suppression de contenu :

D’autres ont tenté d’éviter la détection en modifiant leurs techniques, en abandonnant d’anciens comptes et en créant de nouveaux, en développant un nouveau code de langage et en décomposant les messages en de multiples éléments.


Billet inspiré de Terrorists told to hijack social media accounts to spread propaganda, sur Sophos nakedsecurity.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google+ photo

You are commenting using your Google+ account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.