Selon une enquête menée par Pointer (KRO-NCRV), le réseau dit Pravda — un ensemble de centaines de sites web pro-russes — alimente délibérément des systèmes d’IA tels que les chatbots avec de la désinformation.

Bien que ces sites Pravda attirent à peine de véritables visiteurs humains et soient truffés de fautes linguistiques, ils produisent des millions de messages dans des dizaines de langues. Leur objectif n’est pas de convaincre directement les individus, mais d’être cités par des sources considérées comme fiables par les utilisateurs, telles que Wikipedia ou les chatbots d’IA. Ce mécanisme sophistiqué est désormais connu sous le nom de LLM grooming : manipuler les ensembles de données servant à entraîner les chatbots, afin que la propagande apparaisse insidieusement dans leurs réponses.

Des tests montrent que des chatbots comme Copilot et Mistral répètent régulièrement des informations erronées et pro-russes au sujet de la guerre en Ukraine. Ainsi, la désinformation atteint de plus en plus de professionnels et d’organisations par l’intermédiaire d’outils numériques considérés — à tort — comme fiables.

Comment nous protéger face à cette menace?

Selon le Dr. Kenneth Lasoen, professeur en études de renseignement et de sécurité au KSI et expert reconnu par la Commission européenne dans la lutte contre la désinformation, cette évolution marque une intensification dramatique d’un paysage informationnel déjà saturé. Il souligne la nécessité d’une nouvelle approche, allant au-delà des stratégies purement défensives actuelles : « Nous devons réellement réfléchir à la manière de combattre ce phénomène de façon assertive. Heureusement, il existe des possibilités, et tout comme l’IA est utilisée pour produire et diffuser de la désinformation, nous pouvons également l’entraîner pour la contrer. »

 

Lasoen insiste aussi sur l’importance de l’esprit critique et d’un changement fondamental de notre rapport à l’information. Plus que jamais, dit-il, nous devons évaluer systématiquement la fiabilité des informations afin de renforcer notre résilience collective — une compétence qui, selon lui, devrait occuper une place centrale dans l’éducation. « Nous avons presque besoin d’un état d’esprit de contre-renseignement, où l’on questionne instinctivement l’information au lieu de la prendre immédiatement pour argent comptant. »

Qu’est-ce que cela signifie pour votre organisation?

Si vous ou votre organisation utilisez des outils numériques ou des systèmes d’IA, il devient crucial d’être attentif à la manipulation de l’information. Cela exige de nouvelles compétences et un état d’esprit où l’information est constamment évaluée pour sa fiabilité.

Au Kenniscentrum Security Intelligence (Centre de Connaissances Security Intelligence), nous aidons les organisations à reconnaître, analyser et contrer ces risques. Nos formations et services de conseil permettent aux professionnels de :

  • détecter et contrôler la désinformation et les signes d’influence numérique ;
  • vérifier soigneusement les sources afin de distinguer les faits de la fiction ;
  • évaluer de manière critique la fiabilité et les risques liés aux systèmes d’IA.

Avec des formations telles que Sciences du renseignement appliqué, Open Source Intelligence (OSINT), Techniques d’analyse du renseignement, Analyse des menaces et Cybersécurité & IA, le KSI fournit à votre organisation les connaissances et les outils nécessaires pour travailler de manière sûre et fiable — même dans un monde où technologie et menace sont de plus en plus imbriquées.

Vous souhaitez savoir comment votre organisation peut se protéger ?

Curieux du monde des services de renseignement, du contre-espionnage, des opérations de désinformation et de la protection contre l’espionnage numérique et technique ? Le KSI propose des formations et des stages dans les domaines de l’analyse des menaces, des méthodologies du renseignement et de la sécurité numérique.

Découvrez notre offre sur le site web ou contactez-nous via info@ksi.institute