object.title
Désinformation et manipulation en ligne : analyses, défis et stratégies de mitigation

Du 18 au 21 novembre 2024, Rennes a accueilli la 9ème édition de l’European Cyber Week, rassemblant des acteurs de la cyber de tout horizons autour de divers événements et conférences.

Ce fut l’occasion pour Squad d’être présent en tant qu’exposant mais aussi pour certains participants d’assister à des conférences présentées à cette occasion.

Je vous propose de faire un petit tour de plusieurs travaux présentés lors de tables rondes sur la thématique de la lutte contre les manipulations de l’information sur internet et les réseaux sociaux.

Un peu de contexte

Les réseaux sociaux sont devenus avec le temps un lieu d’échange incontournable, aussi bien dans la sphère privée que publique. Aujourd’hui, près de la moitié des Français s’informe sur les réseaux sociaux : nous sommes donc de plus en plus confrontés à de la désinformation et les exemples dans l’actualité ne manquent pas.

Les utilisateurs de ces plateformes ont des profils très variés. Ainsi, les jeunes ayant grandi avec internet seront de grands consommateurs d’information en ligne mais ils sont souvent plus sensibilisés que les générations les précédant.

Avec l’arrivée de l’IA, de nouvelles questions se posent et très peu de recherche existe sur notre capacité à interpréter du contenu généré artificiellement. Quelques études ont été menées sur la reconnaissance d’expression avec deux conclusions intéressantes :
               - pas de différence significative pour la reconnaissance d’expression entre deepfake et photo
               - perception différente des émotions quand le sujet pense qu’il s’agit d’un deepfake (sans que la photo ne le soit réellement)
Les travaux de recherche sur l’humain face à l’IA en sont donc à leurs débuts, mais le contexte ainsi que notre perception pourraient être des facteurs important dans notre capacité à traiter ce type d’information.

Pourquoi c’est important ?

Depuis plusieurs années, on constate un investissement massif dans des campagnes de manipulation de l'information. Ces campagnes sont réalisées dans un contexte de guerre d’influence où l'objectif est de gagner la bataille des perceptions et des opinions.

Publicité ciblée : outil de propagande

La publicité est un outil de choix pour des opérations d’influence : elle permet d’influencer les comportements des individus aussi bien à des fins commerciales que politiques. Certaines approches de ciblage s’appuient sur l’utilisation de profils créés à partir d’une grande quantité de données personnelles, permettant ainsi de délivrer des messages personnalisés.

Nous voyons que ces techniques sont particulièrement utilisées à des fins politiques pour adapter le message au destinataire, par exemple lors des élections Françaises où les femmes recevaient plutôt des publicités sur les thèmes de la santé et politique sociale contre les thématiques d'économie et énergie pour les hommes.

L'identification de la propagande par le biais des communications commerciales restes toutefois compliquée à étudier : les chercheurs indépendants n'ont pas accès aux bases appartenant aux plateformes et pour les bases de données existant, l'identification des publicités politiques est basée sur la déclaration du publicitaire : dans l'étude présentée, la moitié des publicités politiques analysées n'étaient pas identifiées comme telles par la plateforme.

Des Algorithmes favorisant la désinformation

Sur les réseaux sociaux, la discussion sur la désinformation passe nécessairement par le sujet des algorithmes.

Conçus pour favoriser les réactions à chaud, ils s'appuient sur des techniques de neuromarketing pour garder l'attention des utilisateurs le plus longtemps possible mais soulèvent bien des questions éthiques. Tout comme les médias, les réseaux sociaux fonctionnent beaucoup sur l'économie des scandales : du contenu négatif ou clivant aura tendance à être mis en avant car générant plus d'attention.

Les titres d'articles sont bien souvent aguicheurs (voire mensongers) ce qui pose problème quand on sait que moins de 20% des utilisateurs lisent plus loin que le titre et la phrase d'accroche.

Parfois plus subtile que de simples "fake news", certains contenus présentent également des informations correctes mais sous un angle orienté ou employant parfois certains biais cognitifs pour influencer le lecteur.

On observe une convergence entre les opérations d’influence et les attaques cyber offensives : grâce aux réseaux sociaux où l’information circule et se propage rapidement, les informations sur des attaques cyber de faible ampleur et faible impact sont souvent amplifiées ce qui a un impact sur la réputation des entités concernées.

Quelles solutions ?

Pour le moment, les adversaires privilégient une approche quantitative : la tendance est à l'utilisation d'IA pour générer du contenu en masse : faux articles, faux reportages ou encore deepfake. Ces campagnes étant pour la plupart peu sophistiquées, des motifs restent identifiables ce qui permet de les "débunker".

La modération des réseaux sociaux est particulièrement difficile et était jusqu’ici gérée en "best effort" par des journalistes (souvent appelés "fact checker") : en général, un score de prévalence entre [0,1] est attribué à une publication avant de passer par une vérification manuelle au-delà d'un certain seuil, puis les conclusions de l'analyse sont appliquées aux résultats similaires.

La modération sur les réseaux sociaux est un réel sujet d’actualité, nous avons d’ailleurs vu qu’en début d’année le groupe Meta a annoncé la fin de son programme de fact-checking aux Etats Unis pour un système similaire à X (twitter) de notes de la communauté.

L’un des grands défis actuels sur les réseaux sociaux est finalement d’identifier les fausses informations dans des volumes dépassant nos capacités de traitement manuel. Plusieurs chercheurs nous ont partagé leur travail et quelques pistes sur le sujet, chacun avec une approche différente.

Nous avons d’abord assisté à une présentation de travaux basés sur une approche statistique qui s’intéresse à la structure rhétorique du discours. Des « arguments » vont être labellisés et classés dans différentes catégories : controverse, polémique, démonstration et propagande.

Les résultats obtenus jusqu’ici par Pascal MARCHAND tendent à indiquer que la détection de discours complotiste se ferait plutôt sur des signaux faibles dans la catégorie des arguments classés comme "propagande", ce qui constitue le sujet de ses prochaines études.

Reconnaissance d'arguments fallacieux

Les recherches présentées par Oana BALALAU portent quant à eux sur la fouille d'arguments et notamment l'identification des arguments fallacieux, c’est-à-dire des prémisses et conclusions convaincantes mais avec une logique incorrecte.

Elle s’appuie sur les LLM (large language model) qui sont très utiles pour la détection de ce type d'argument, mais qui nécessitent beaucoup de contexte ce qui rend leur utilisation compliquée.

Les arguments fallacieux sont largement utilisés dans la désinformation car nous y sommes facilement vulnérables. En voici quelques-uns que l’on pourra retenir de la présentation :

  • L’argument d'autorité : donner de la valeur à un argument en fonction de son origine plutôt que son contenu
  • L’appel à la masse : un grand nombre de personnes adhèrent à l’argument donc c’est la preuve de sa véracité
  • L’appel à la nature : ce qui est naturel est mieux (ex : certaines méthodes de médecine alternative « naturelle »)
  • L’appel à la tradition : l’ancienneté d’une théorie montre qu’il y a du vrai (« on a toujours fait comme ça »)
  • Le faux dilemme : présenter deux solutions à un problème donné comme si elles étaient les deux seules possibles alors qu’il en existe d’autres
  • Le raisonnement émotionnel : susciter des émotions fortes pour convaincre plutôt que des preuves concrètes
  • Le langage chargé : les mots ou expressions choisis sont souvent à connotation de manière à susciter certaines émotions (ex : pro-vie VS anti-avortement)

En attendant, la seule solution actuelle est d’être sensibilisé à ces techniques de discours même s’il existe des indices que l’on peut repérer. En cherchant des informations, on pourra alors faire attention à l'ancienneté du site, la cohérence du discours et la qualité des autres informations disponibles.

Croyances : facteurs explicatifs et pistes de débiaising

Et si nous arrivions à nous défaire de nos croyances ? C’est un peu la question que s’est posée Aline CHEVALIER, qui s’est demandée dans une étude : peut-on aider les gens qui croient aux théories du complot en les aidant à être plus analytiques dans leur approche ?

Voici le protocole :

  • Des participants, évalués sur 3 axes :
    • Leur adhésion générale à des théories du complot
    • Leur type de raisonnement (plutôt intuitif ou analytique)
    • Leur littéracie sur un sujet donné (capacité à trouver et interpréter des informations)

Le raisonnement intuitif automatique :il a l’avantage d’être rapide et efficace mais est le plus susceptible d’introduire des erreurs ou biais de jugement. A l’inverse, le raisonnement analytique est plus lent, analytique et logique mais demande plus d’effort.

La méthode de recherche d'information des participants (exploration en élargissant les sources VS exploitation avec recherche en profondeur spécifique) ainsi que leur restitution d'informations a ensuite été évaluées.

Une première expérience montrait que les profils les plus analytiques sont plutôt dans l'exploration et ignorent les sources non officielles à l'inverse des intuitifs. Après des exercices pour entrainer le raisonnement analytique des participants, les résultats d'une deuxième expérience ont conclu que les interventions basées sur le raisonnement n'ont pas permis de réduire le niveau de croyance conspirationniste.

Un critère est néanmoins sorti du lot : le niveau de littéracie, qui est le facteur avec le meilleur impact sur les performances dans la recherche d'information pertinente, peu importe le taux d’adhésion aux théories du complot.

Conclusion

Finalement, le sujet de la lutte contre les manipulations de l'information est vaste et doit être abordé sous de multiples angles, aussi bien techniques qu’humain.

Il est facile de créer et diffuser de fausses informations : la désinformation a un avantage important sur la vérité, car vérifier et démontrer que des affirmations sont fausses est particulièrement coûteux en temps et en énergie.

Par ailleurs, il existe un réel biais d'ancrage qui donne l'avantage au premier à parler : plutôt que d'interdire ou critiquer, il est donc important d'anticiper et "occuper le terrain", notamment sur les réseaux sociaux.

De nombreuses pistes sont explorées pour automatiser leur détection et traitement à grande échelle mais on retiendra surtout que le plus efficace reste de promouvoir l'éducation à la pensée critique et les initiatives de sensibilisation.

Aller plus loin

Cet article ne fait qu’effleurer des sujets, chaque intervenant ayant eu une vingtaine de minutes pour présenter ses travaux. Pour aller plus loin, vous trouverez ci-dessous la liste des intervenants dont les travaux ont été cités et vous pourrez retrouver l’ensemble du programme sur le site de l’ECW.

MARCHAND Pascal : A la recherche des signes complotistes dans les messages en ligne : nouvelles tentatives d'indexation automatique

BALALAU Oana : La fouille d'arguments et ses applications dans la détection de propagande

GOGA Oana : Quantification et contrôle des risques liés au ciblage des informations basées sur l’IA

GIUDICELLI Edouard : La reconnaissance des deep-fake : Une menace ou une opportunité d'innovations ?

CHEVALIER Aline : Croyances à des théories du complot et Internet : facteurs explicatifs et pistes de débiaising

 

Lauranne BRUNO
Consultante cybersécurité