Russische beïnvloedingscampagnes verschuiven hun strijdtoneel van sociale media naar kunstmatige intelligentie. Uit onderzoek van Pointer (KRO-NCRV) blijkt dat het zogeheten Pravda-netwerk — een web van honderden pro-Russische websites — doelbewust AI-systemen zoals chatbots voedt met desinformatie.
Hoewel deze Pravda-sites nauwelijks menselijke bezoekers trekken en vol taalfouten staan, produceren ze miljoenen berichten in tientallen talen. Niet om mensen direct te overtuigen, maar om geciteerd te worden door bronnen die gebruikers als betrouwbaar zien, zoals Wikipedia of AI-chatbots. Dit slimme mechanisme heet inmiddels LLM grooming: het manipuleren van datasets waarmee chatbots worden getraind, zodat propaganda ongemerkt in antwoorden opduikt.
Uit tests blijkt dat chatbots zoals Copilot en Mistral geregeld onjuiste, pro-Russische informatie herhalen over de oorlog in Oekraïne. Daarmee bereikt desinformatie steeds vaker professionals en organisaties via digitale tools die onterecht als betrouwbaar gelden.
Hoe wapenen we ons tegen deze dreiging?
Volgens dr. Kenneth Lasoen, docent Inlichtingen- en Veiligheidsstudies bij KSI, professor én erkend expert bij de Europese Commissie voor het tegengaan van desinformatie, betekent deze ontwikkeling een dramatische opschaling van een al verzadigd informatielandschap. Hij benadrukt dat dit een nieuwe aanpak vereist, die verder gaat dan de huidige louter defensieve strategie. “We moeten echt nadenken over hoe we dit assertief gaan bestrijden,” stelt hij. “Gelukkig zijn er mogelijkheden, en net zoals AI wordt gebruikt voor het produceren en verspreiden van desinformatie, kunnen we AI net zo goed trainen om het tegen te gaan.”
Daarnaast wijst Lasoen op het belang van kritisch denken en een fundamentele verandering in onze houding tegenover informatie. Meer dan ooit, zo stelt hij, moeten we informatie telkens evalueren op betrouwbaarheid, met het oog op onze collectieve weerbaarheid, iets wat volgens hem veel meer aandacht moet krijgen in ons onderwijs. “We hebben bijna nood aan een ‘contra-inlichting’-mindset, waarbij we instinctief informatie bevragen in plaats van die meteen voor waar aan te nemen.”
Wat betekent dit voor uw organisatie?
Als u of uw organisatie werkt met digitale tools of AI-systemen, wordt het cruciaal om waakzaam te zijn voor manipulatie van informatie. Het vraagt nieuwe vaardigheden en een mindset waarin informatie voortdurend op betrouwbaarheid wordt getoetst.
Bij het Kenniscentrum Security Intelligence (KSI) ondersteunen wij organisaties bij het herkennen, analyseren en tegengaan van dit soort risico’s. Onze opleidingen en adviesdiensten helpen professionals om:
- desinformatie en signalen van digitale beïnvloeding kunnen herkennen én controleren;
- bronnen zorgvuldig verifiëren om feiten van fictie te scheiden;
- AI-systemen kritisch beoordelen op betrouwbaarheid en risico’s;
Met opleidingen zoals Inlichtingenkunde, Open Source Intelligence (OSINT), Inlichtingenanalysetechnieken, Dreigingsanalyse en Cybersecurity & AI geeft KSI uw organisatie de kennis en tools om veilig en betrouwbaar te werken — ook in een wereld waar technologie en dreiging steeds meer met elkaar verweven zijn.
Wilt u weten hoe uw organisatie zich hiertegen kan wapenen?
Benieuwd naar de wereld van inlichtingendiensten, contraspionage, misleidingsoperaties en bescherming tegen digitale en technische spionagemiddelen? Het Kenniscentrum Security Intelligence (KSI) biedt opleidingen en trainingen aan op het gebied van dreigingsanalyse, intelligence-methodiek en digitale veiligheid.
Ontdek ons aanbod op de website of neem contact op via info@ksi.institute