Exemples de campagnes de manipulation de l’information

Cette page référence des campagnes récentes, marquantes et documentées pour illustrer la diversité des manipulations de l’information, à la fois dans les origines, les canaux utilisés et les objectifs poursuivis.

Origines

Les manipulations de l’information peuvent être orchestrées par des origines de différentes natures : acteurs étatiques ou non-étatiques, tels que des entreprises ou des organisations, voire même des groupes informels d’individus. Ces origines peuvent se positionner de différentes manières relativement au public ciblé par la manipulation de l’information. Ainsi, lors d’une manipulation que l’on peut qualifier d’ « exogène », l’origine est extérieur à la communauté visée, ou n’en dépend pas directement. À l’inverse, dans le cadre d’une manipulation de l’information qualifiée d’« endogène », l’origine appartient à la communauté-cible, au pays visé ou en dépend fortement.

Lorsque la manipulation de l’information est d’origine étatique et étrangère, celle-ci relève d’une ingérence.

Il faut néanmoins souligner qu’une des plus grandes difficultés dans la lutte contre les manipulations de l’information demeure la question de l’attribution. Remonter à l’identité de l’origine et attribuer la responsabilité est toujours complexe, et la certitude quasiment impossible à obtenir. L’exercice est d’autant plus délicat que des tiers peuvent tenter de donner de faux indices afin d’orienter l’attribution. C’est pourquoi tous les exemples de campagnes donnés ci-dessous ne font que répertorier les origines suspectées par les auteurs des analyses, et ne représentent pas une attribution.

Les Macron Leaks
Date : 2017
Nature des acteurs soupçonnés : acteur étatique (Russie), ultra-droite (alt-right) américaine, « fachosphère » française)
Type de manipulation : exogène
Canaux de diffusion employés : sites d’information relayant des narratifs pro-Kremlin (Sputnik, RT), réseaux sociaux
Modus operandi : utilisation de trolls, hack et leak d’un mélange de faux et de vrais documents, diffusés à l’aide d’une amplification artificielle sur les réseaux sociaux
Objectifs supposés : affaiblir le candidat Macron, semer le doute quant au résultat de l’élection
Contexte : élections présidentielles française de 2017
Résumé : la campagne présidentielle française a constitué le théâtre des Macron Leaks. Des mois durant une campagne de manipulation de l’information a été orchestrée sur les réseaux sociaux et sur certains médias (Sputnik et Russia Today en particulier) à l’encontre du candidat Macron. Cette campagne est parachevée deux jours avant le second tour de l’élection présidentielle et plus précisément deux heures avant le dernier débat télévisé, par une fuite de faux documents prétendument piratés depuis les ordinateurs de l’équipe de campagne du candidat, fuite qui sera par la suite amplifiée artificiellement sur les réseaux sociaux. La Russie et des groupes américains et français d’extrême droite sont soupçonnés d’être impliqués dans cette manipulation.
Source : CAPS
Go bald for BLM
Date : 2020
Natures des acteurs soupçonnés : société civile
Type de manipulation : endogène
Canaux de diffusion employés : réseaux sociaux, forum 4Chan
Modus operandi : lancement d’une fausse rumeur, amplification organique et coordonnée
Objectifs : discréditer le mouvement Black Lives Matter
Contexte : mouvement Black Lives Matter de protestation contre le racisme systémique
Résumé : en novembre 2020, des utilisateurs du forum américain 4chan, décident de lancer un faux challenge sur les réseaux sociaux : demander aux femmes blanches de se raser la tête en signe de soutien au mouvement Black Lives Matter, afin de discréditer le mouvement. Les utilisateurs de 4chan (rapidement relayés par d’autres communautés) amplifient le challenge en postant de fausses photos de femmes aux crânes rasés et en l’associant au hashtag #GoBaldForBLM.
Source : France24

Canaux

Les manipulations de l’information peuvent se diffuser à travers plusieurs canaux : médias (télévision, radio, journaux), réseaux sociaux, notamment à travers l’usage de faux comptes ou de contenus sponsorisés.

Ces canaux sont utilisés avec des modus operandi différents : rétention d’informations, censure, amplification artificielle d’une information, collecte de données personnelles, campagnes ciblées…

Le caractère protéiforme des manipulations de l’information et l’utilisation de divers canaux et modus operandi en conjonction peuvent complexifier l’effort de caractérisation.

L’élection présidentielle américaine de 2016
Date : 2016
Nature des acteurs soupçonnés : acteur étatique (GRU), entreprise privée proche d’acteurs étatiques, Internet Research Agency (IRA), entreprise privée (Cambridge Analytica)
Type de manipulation : exogène pour le GRU et l’IRA, endogène pour Cambridge Analytica
Canaux de diffusion employés : réseaux sociaux, forums, sites
Modus operandi : hack puis leak de documents sensibles, campagne ciblée par collecte de données personnelles, utilisation de fermes à trolls
Objectifs : déstabiliser et diviser la société américaine, favoriser l’élection d’un candidat
Contexte : élections présidentielles américaines de 2016
Résumé : la campagne présidentielle américaine est marquée par des cyberattaques et des manipulations de l’information dont certaines sont identifiées comme des ingérences russes par les États-Unis.
• WikiLeaks publie 30 000 courriels révélant certains échanges de la candidate Clinton et de son équipe lorsqu’elle était secrétaire d’État. La controverse autour de l’utilisation par Hillary Clinton d’une adresse mail personnelle pour des conversations confidentielles est relancée. Le rapport Mueller attribuera l’exfiltration de ces documents au GRU (service de renseignement militaire russe).
• Cambridge Analytica, entreprise britannique dirigée par Steve Bannon, est chargée par l’équipe du candidat Trump de mener une campagne médiatique sur Facebook. L’entreprise récupère les données personnelles de 87 millions de personnes via une application tierce, et mène une campagne ciblée dans les swing states à l’encontre d’individus sélectionnés sur la base de leurs données personnelles.
• L’IRA est soupçonnée d’utiliser des fermes à trolls pour influencer l’opinion publique sur les réseaux sociaux. Selon Facebook, près de 100 000 dollars de publicités ciblées ont été achetés, et des milliers de bots et de faux comptes auraient amplifié ces fausses informations (mais aussi de vraies informations comme la fuite des courriels de Clinton).
Sources : France24, résumé par BusinessInsider
L’élection présidentielle brésilienne de 2018
Date : 2018
Natures des acteurs soupçonnés : parti politique, entreprises spécialisées dans la communication
Type de manipulation : endogène
Canaux de diffusion employés : application de messagerie (WhatsApp)
Modus operandi : propagation de fausses nouvelles, communication de masse en ligne directe avec les citoyens
Objectifs : favoriser le candidat Jair Bolsonaro et dénigrer ses opposants
Contexte : elections présidentielles brésiliennes de 2018
Résumé : les élections présidentielles brésiliennes sont remportées par le candidat d’extrême droite Jair Bolsonaro. La campagne est marquée par l’utilisation de WhatsApp pour propager des messages à teneur politique, qui se sont avérés être des fausses nouvelles dans la plupart des cas. Une enquête a été ouverte à l’encontre du parti de Bolsonaro sur l’organisation d’une campagne de désinformation sur WhatsApp en recourant à des entreprises spécialisées dans la communication de masse.
Sources : The Guardian, Folha de S. Paulo

Objectifs

Les manipulations de l’information peuvent soutenir des objectifs très divers : améliorer l’image de l’attaquant, étouffer une affaire, déstabiliser une personnalité ou une communauté, exacerber des tensions préexistantes, diviser et semer le chaos, saper la confiance dans les institutions, altérer la sincérité du scrutin…

Ces objectifs s’inscrivent évidemment dans des contextes particuliers et divers : processus électoraux, tensions frontalières, guerre économique, pandémie…

La crise des Rohingyas
Date : 2018
Natures des acteurs soupçonnés : acteur étatique (junte militaire du Myanmar)
Type de manipulation : endogène
Canaux de diffusion employés : réseaux sociaux
Modus operandi : utilisation de faux comptes pour amplifier de fausses informations
Objectifs : inciter à la haine envers les Rohingyas
Contexte : violences perpétrées à l’encontre de l’ethnie des Rohingyas au Myanmar
Résumé : la crise des Rohingyas est à son paroxysme au Myanmar. Facebook révèle que la junte militaire mène des campagnes de manipulation de l’information coordonnées à l’aide de centaines de faux comptes pour inciter à la haine envers les Rohingyas et ainsi justifier leur migration forcée.
Source : New York Times
Les élections législatives du Royaume-Uni de 2019
Date : 2019
Natures des acteurs soupçonnés : acteur étatique (Russie)
Type de manipulation : exogène
Canaux de diffusion employés : réseaux sociaux, reprise par les médias
Modus operandi : cyberattaque puis leak d’un document authentique, amplification artificielle sur les réseaux sociaux
Objectifs : changer l’issue d’une élection, semer le doute, saper la confiance dans le gouvernement
Contexte : élections législatives du Royaume-Uni de 2019
Résumé : au Royaume-Uni, les élections législatives sont marquées par la fuite sur Reddit d’un projet d’accord commercial avec les États-Unis. Les documents se sont avérés être authentiques. Reddit supprime 61 comptes qui ont coordonné l’amplification de l’information. Le leader de l’opposition, Jeremy Corbyn, considère que cet accord constitue un affaiblissement du système de santé britannique et reprend ces documents pour attaquer le gouvernement au cours d’une conférence de presse. En juin 2020, l’entreprise américaine Graphika spécialisée dans l’étude des manipulations de l’information sur Internet relie cet évènement à une opération de plus grande ampleur surnommée Secondary Infektion. En juillet 2020, le gouvernement britannique déclare officiellement la Russie responsable de la cyberattaque, de la fuite et de l’amplification artificielle du document.
Sources : BBC, Graphika, Parlement britannique

Creative Commons Attribution Share alike license ✎ Improve this content How to contribute