“We gaan een nieuwe fase van informatieoorlogvoering op sociale mediaplatforms binnen, waar technologische vooruitgang de klassieke botbenadering overbodig heeft gemaakt”, zegt Jonas Kunst, hoogleraar communicatie aan BI Business School en een van de co-auteurs van het rapport.
Voor experts die jarenlang desinformatiecampagnes hebben gevolgd en bestreden, presenteert het artikel een beangstigende toekomst.
“Wat als AI niet alleen informatie zou hallucineren, maar duizenden AI-chatbots zouden samenwerken om dekmantel te bieden voor basisondersteuning waar die er niet was? Dat is de toekomst die dit artikel voor ogen heeft – Russische trollenboerderijen op steroïden”, zegt Nina Jankowicz, de voormalige desinformatie-tsaar van de Biden-regering en die nu projectmanager is voor het Amerikaanse Sunlight.
De onderzoekers zeggen dat het onduidelijk is of deze tactiek al wordt gebruikt, omdat de huidige systemen om gecoördineerd niet-authentiek gedrag te volgen en te identificeren, dit niet kunnen detecteren.
“Vanwege hun ongrijpbaarheid om mensen na te bootsen, is het erg moeilijk om ze daadwerkelijk te detecteren en te beoordelen in welke mate ze aanwezig zijn”, zegt Kunst. “We hebben geen toegang tot de meeste (sociale media) platforms omdat platforms steeds restrictiever zijn geworden, dus het is moeilijk om daar inzicht in te krijgen. Technisch gezien is het zeker mogelijk. We zijn er vrij zeker van dat het wordt getest.”
Kunst voegde eraan toe dat deze systemen waarschijnlijk nog steeds enig menselijk toezicht zullen hebben naarmate ze worden ontwikkeld, en voorspelt dat ze, hoewel ze misschien geen enorme impact zullen hebben op de Amerikaanse tussentijdse verkiezingen van 2026 in november, hoogstwaarschijnlijk zullen worden ingezet om de presidentsverkiezingen van 2028 te verstoren.
Accounts die niet te onderscheiden zijn van mensen op sociale-mediaplatforms zijn slechts één probleem. Het vermogen om sociale netwerken op grote schaal in kaart te brengen zal, zo zeggen de onderzoekers, degenen die desinformatiecampagnes coördineren in staat stellen agenten op specifieke gemeenschappen te richten, waardoor de grootste impact wordt gegarandeerd.
“Uitgerust met dergelijke mogelijkheden kunnen zwermen zichzelf positioneren voor maximale impact en hun berichten afstemmen op de overtuigingen en culturele signalen van elke gemeenschap, waardoor een nauwkeurigere targeting mogelijk wordt dan met eerdere botnets”, schrijven ze.
Dergelijke systemen zouden in wezen zichzelf kunnen verbeteren en de reacties op hun berichten kunnen gebruiken als feedback om de redenering te verbeteren om een boodschap beter over te brengen. “Als ze voldoende signalen krijgen, kunnen ze miljoenen microA/B-tests uitvoeren, de winnende varianten op machinesnelheid verspreiden en veel sneller itereren dan mensen”, schrijven de onderzoekers.
Om de dreiging van AI-zwermen te bestrijden, stellen de onderzoekers de oprichting voor van een ‘AI Influence Observatory’, dat zou bestaan uit mensen uit academische groepen en niet-gouvernementele organisaties die werken aan ‘het standaardiseren van bewijsmateriaal, het verbeteren van het situationeel bewustzijn en het mogelijk maken van een snellere collectieve respons in plaats van het opleggen van reputatieboetes van bovenaf’.
Eén groep die niet is opgenomen zijn de leidinggevenden van de sociale-mediaplatforms zelf, vooral omdat de onderzoekers geloven dat hun bedrijven betrokkenheid boven alles aanmoedigen, en daarom weinig prikkels hebben om deze zwermen te identificeren.
“Laten we zeggen dat AI-zwermen zo frequent voorkomen dat je niemand meer kunt vertrouwen en dat mensen het platform verlaten”, zegt Kunst. “Dat is natuurlijk een bedreiging voor het model. Als ze de betrokkenheid alleen maar vergroten, kun je dit voor een platform beter niet openbaar maken, omdat het lijkt alsof er meer betrokkenheid is, er meer advertenties worden gezien, wat positief zou zijn voor de waardering van een bepaald bedrijf.”
Afgezien van het gebrek aan actie van de platforms, zijn experts van mening dat er weinig prikkels zijn voor overheden om betrokken te raken. “Het huidige geopolitieke landschap is misschien niet vriendelijk voor ‘observatoria’ die in wezen online discussies monitoren”, zegt Olejnik, iets waar Jankowicz het mee eens is: “Het enge aan deze toekomst is dat er heel weinig politieke wil is om de schade aan te pakken die AI aanricht, wat betekent dat (AI-zwermen) binnenkort werkelijkheid kunnen worden.”



