Terwijl de rest van de wereld zich haast om hiervan te profiteren de kracht van kunstmatige intelligentiemilitante groepen experimenteren ook met de technologie, hoewel ze niet precies weten wat ze ermee moeten doen.
Voor extremistische organisaties, AI zou er één kunnen zijn krachtig hulpmiddel Nationale veiligheidsexperts en spionagediensten hebben gewaarschuwd voor het rekruteren van nieuwe leden, het produceren van realistische deepfake-beelden en het verfijnen van hun cyberaanvallen.
Een persoon die vorige maand op een website van een pro-Islamitische Staatsgroep postte, drong er bij andere IS-aanhangers op aan om kunstmatige intelligentie onderdeel te maken van hun activiteiten. “Een van de beste dingen van AI is hoe gemakkelijk het te gebruiken is”, schreef de gebruiker in het Engels.
“Sommige inlichtingendiensten zijn bang dat kunstmatige intelligentie zal helpen bij het rekruteren”, vervolgde de gebruiker. ‘Laat dan hun nachtmerries uitkomen.’
IS, dat jaren geleden grondgebied in Irak en Syrië had veroverd, maar nu een gedecentraliseerde alliantie is van militante groepen die een gewelddadige ideologie delen, realiseerde zich jaren geleden dat sociale media een krachtig instrument zouden kunnen zijn voor rekrutering en desinformatie. Het is dus niet verrassend dat de groep AI aan het testen is, zeggen nationale veiligheidsexperts.
Voor slecht gefinancierde, losjes gevestigde extremistische groepen – of zelfs voor een individuele slechte actor met een internetverbinding – kan AI worden gebruikt om propaganda of deepfakes op grote schaal uit te pompen, waardoor hun bereik en invloed worden vergroot.
“Voor elke tegenstander maakt AI het echt een stuk eenvoudiger om dingen te doen”, zegt John Laliberte, een voormalig kwetsbaarheidsonderzoeker bij de National Security Agency en nu CEO van cyberbeveiligingsbedrijf ClearVector. “Met kunstmatige intelligentie kan zelfs een kleine groep die niet veel geld heeft, nog steeds impact maken.”
Hoe extremistische groepen experimenteren
Militante groepen begonnen kunstmatige intelligentie te gebruiken zodra programma’s als ChatGPT algemeen beschikbaar kwamen. In de jaren daarna hebben ze steeds vaker generatieve AI-programma’s gebruikt om realistisch ogende foto’s en video’s te maken.
Wanneer deze nep-inhoud wordt gekoppeld aan algoritmen van sociale media, kan deze helpen nieuwe gelovigen te werven, vijanden te verwarren of te intimideren, en propaganda te verspreiden op een schaal die nog maar een paar jaar geleden ondenkbaar was.
Dergelijke groepen verspreidden twee jaar geleden valse foto’s van de oorlog tussen Israël en Hamas, waarop bloedige, achtergelaten baby’s in gebombardeerde gebouwen te zien zijn. De beelden zorgden voor verontwaardiging en polarisatie, terwijl de werkelijke verschrikkingen van de oorlog aan het oog werden onttrokken. Gewelddadige groepen in het Midden-Oosten gebruikten de beelden om nieuwe leden te rekruteren, net als antisemitische haatgroepen in de VS en elders.
Iets soortgelijks gebeurde vorig jaar nadat bij een aanval, opgeëist door een IS-filiaal, bijna 140 mensen omkwamen op een concertlocatie in Rusland. In de dagen na de schietpartij circuleerden door AI geproduceerde propagandavideo’s op grote schaal op discussieborden en sociale media om nieuwe rekruten te werven.
IS heeft ook deepfake-audio-opnames gemaakt van zijn eigen leiders die teksten reciteerden en AI gebruikt om berichten snel in meerdere talen te vertalen, aldus onderzoekers van SITE Intelligence Group, een bedrijf dat extremistische activiteiten volgt en het evoluerende gebruik van AI door IS heeft bestudeerd.
‘Aspireren’ – voor nu
Dergelijke groepen lopen achter op China, Rusland of Iran en beschouwen het meer geavanceerde gebruik van kunstmatige intelligentie nog steeds als ‘ambitieus’, aldus Marcus Fowler, een voormalige CIA-agent die nu CEO is van Darktrace Federal, een cyberbeveiligingsbedrijf dat samenwerkt met de federale overheid.
Maar de risico’s zijn te groot om te negeren en zullen waarschijnlijk toenemen naarmate het gebruik van goedkope, krachtige kunstmatige intelligentie toeneemt, zei hij.
Hackers maken al gebruik van synthetische audio en video voor phishing-campagnes, waarbij ze zich proberen voor te doen als een senior bedrijfs- of overheidsfunctionaris om toegang te krijgen tot gevoelige netwerken. Ze kunnen AI ook gebruiken om kwaadaardige code te schrijven of bepaalde aspecten van cyberaanvallen te automatiseren.
Zorgwekkender is de mogelijkheid dat militante groepen zouden kunnen proberen kunstmatige intelligentie te gebruiken om biologische of chemische wapens te helpen produceren, ter compensatie van het gebrek aan technische expertise. Dit risico is opgenomen in de bijgewerkte Homeland Threat Assessment van het Department of Homeland Security, die eerder dit jaar werd gepubliceerd.
“ISIS kwam al vroeg op Twitter en vond manieren om sociale media in hun voordeel te gebruiken”, zei Fowler. “Ze zijn altijd op zoek naar het volgende dat ze aan hun arsenaal kunnen toevoegen.”
Confronteer een groeiende dreiging
Wetgevers hebben verschillende voorstellen gedaan en zeggen dat er dringend actie moet worden ondernomen.
Laat. Mark Warner uit Virginia, de hoogste democraat in de inlichtingencommissie van de Senaat, zei bijvoorbeeld dat de Verenigde Staten het voor AI-ontwikkelaars gemakkelijker moeten maken om informatie te delen over hoe hun producten worden gebruikt door slechte actoren, of het nu extremisten, criminele hackers of buitenlandse spionnen zijn.
“Sinds eind 2022, met de publieke release van ChatGPT, is het duidelijk dat dezelfde fascinatie en experimenten met generatieve AI die het publiek heeft gehad, ook van toepassing zou zijn op een aantal kwaadaardige acteurs”, aldus Warner.
Tijdens een recente hoorzitting over extremistische dreigingen hebben parlementsleden in het Huis van Afgevaardigden vernomen dat IS en Al-Qaeda trainingsworkshops hebben gehouden om volgers te helpen AI te leren gebruiken.
Wetgeving die vorige maand door het Amerikaanse Huis van Afgevaardigden is aangenomen, vereist dat binnenlandse veiligheidsfunctionarissen elk jaar de AI-risico’s van dergelijke groepen beoordelen.
Bescherming tegen kwaadwillig gebruik van kunstmatige intelligentie is niets anders dan voorbereiding op meer conventionele aanvallen, zei vertegenwoordiger August Pfluger, R-Texas, de sponsor van het wetsvoorstel.
‘Ons beleid en onze capaciteiten moeten gelijke tred houden met de bedreigingen van morgen’, zei hij.
—David Klepper, Associated Press


