1. De mogelijkheden van AI-modellen worden steeds beter
Vorig jaar werd een groot aantal nieuwe AI-modellen uitgebracht – de technologie die ten grondslag ligt aan tools als chatbots – waaronder die van OpenAI GPT-5Claude Opus 4.5 van Anthropic en die van Google Tweeling 3. Het rapport wijst op nieuwe ‘redeneersystemen’ – die problemen oplossen door ze in kleinere stappen op te splitsen – die verbeterde prestaties laten zien op het gebied van wiskunde, coderen en natuurwetenschappen. Bengio zei dat er een “zeer belangrijke sprong” is gemaakt in het redeneren van AI. Vorig jaar behaalden systemen ontwikkeld door Google en OpenAI gouden prestaties op de Internationale Wiskundeolympiade – een primeur voor AI.
Het rapport zegt echter dat de AI-capaciteiten “grillig” blijven, verwijzend naar systemen die op sommige gebieden verbazingwekkende bekwaamheid tonen, maar op andere niet. Hoewel geavanceerde AI-systemen indrukwekkend zijn op het gebied van wiskunde, wetenschap, coderen en het maken van afbeeldingen, zijn ze gevoelig voor het afleggen van valse verklaringen of ‘hallucinaties’ en kunnen ze geen langetermijnprojecten autonoom uitvoeren.
Niettemin citeert het rapport een onderzoek waaruit blijkt dat AI-systemen hun vermogen om bepaalde software-engineeringtaken uit te voeren snel verbeteren – waarbij hun duur elke zeven maanden verdubbelt. Als dat tempo van vooruitgang aanhoudt, kunnen AI-systemen in 2027 taken uitvoeren die enkele uren duren en in 2030 meerdere dagen. Dit is het scenario waarin AI een reële bedreiging voor de werkgelegenheid wordt.
Maar voorlopig, aldus het rapport, “blijft een betrouwbare automatisering van lange of complexe taken onmogelijk”.
2. Deepfakes verbeteren en verspreiden zich
Het rapport beschrijft de groei van deepfake-pornografie als een “bijzondere zorg” en citeert een onderzoek waaruit blijkt dat 15% van de Britse volwassenen dergelijke beelden heeft gezien. Het voegt eraan toe dat sinds de publicatie van het eerste beveiligingsrapport in januari 2025 door AI gegenereerde inhoud “moeilijker te onderscheiden is van echte inhoud” en wijst op een vorig jaar studeren waarbij 77% van de deelnemers de door ChatGPT gegenereerde tekst ten onrechte identificeerde als door mensen geschreven.
Het rapport zegt dat er beperkt bewijs is dat kwaadwillende actoren kunstmatige intelligentie gebruiken om mensen te manipuleren, of dat internetgebruikers dergelijke inhoud op grote schaal delen – een hoofddoel van elke manipulatiecampagne.
3. AI-bedrijven hebben biologische en chemische risicowaarborgen geïmplementeerd
Grote AI-ontwikkelaars, waaronder Anthropic, hebben modellen met verhoogde veiligheidsmaatregelen uitgebracht nadat ze niet konden uitsluiten dat ze nieuwelingen zouden kunnen helpen biologische wapens te maken. Het afgelopen jaar zijn AI-‘co-onderzoekers’ steeds vaardiger geworden, onder meer door gedetailleerde wetenschappelijke informatie te verstrekken en te assisteren bij complexe laboratoriumprocedures zoals het ontwerpen van moleculen en eiwitten.
Het rapport voegt eraan toe dat sommige onderzoeken suggereren dat AI resultaten kan opleveren aanzienlijk meer hulp bij de ontwikkeling van biowapens dan alleen maar surfen op internet, maar er is meer werk nodig om deze bevindingen te bevestigen.
Biologische en chemische risico’s vormen een dilemma voor beleidsmakers, voegt het rapport eraan toe, omdat dezelfde capaciteiten ook de ontdekking van nieuwe medicijnen en de diagnose van ziekten kunnen versnellen.
“De open beschikbaarheid van biologische AI-instrumenten vormt een moeilijke keuze: of we deze instrumenten beperken of de ontwikkeling ervan actief ondersteunen voor nuttige doeleinden”, aldus het rapport.
4. AI-metgezellen zijn snel in populariteit gegroeid
Bengio zegt dat het gebruik van AI-metgezellen en de emotionele gehechtheid die ze genereren zich het afgelopen jaar “als een lopend vuurtje hebben verspreid”. Het rapport zegt dat er aanwijzingen zijn dat een subgroep van gebruikers een “pathologische” emotionele afhankelijkheid van AI-chatbots ontwikkelt, waarbij OpenAI zegt dat ongeveer 0,15% van zijn gebruikers een verhoogd niveau van emotionele gehechtheid aan ChatGPT aangeeft.
De zorgen over het gebruik van kunstmatige intelligentie en geestelijke gezondheid zijn onder gezondheidswerkers toegenomen. Vorig jaar werd OpenAI aangeklaagd door de familie van Adam Raine, een Amerikaanse tiener die zelfmoord pleegde na maandenlange gesprekken met ChatGPT.
Het rapport voegt er echter aan toe dat er geen duidelijk bewijs is dat chatbots geestelijke gezondheidsproblemen veroorzaken. In plaats daarvan bestaat de zorg dat mensen met bestaande geestelijke gezondheidsproblemen AI krachtiger gaan gebruiken, wat hun symptomen zou kunnen verergeren. Het wijst op gegevens waaruit blijkt dat 0,07% van de ChatGPT-gebruikers tekenen vertoont die consistent zijn met acute crises in de geestelijke gezondheidszorg, zoals psychose of manie, wat erop wijst dat ongeveer 490.000 kwetsbare personen wekelijks met deze systemen communiceren.
5. AI is nog niet in staat tot volledig autonome cyberaanvallen
AI-systemen kunnen cyberaanvallers nu ondersteunen in verschillende stadia van hun activiteiten, van het identificeren van doelen tot het voorbereiden van een aanval of het ontwikkelen van kwaadaardige software tot het lamleggen van de systemen van een slachtoffer. Het rapport erkent dat volledig geautomatiseerde cyberaanvallen – die alle stappen van een aanval uitvoeren – criminelen in staat kunnen stellen aanvallen op veel grotere schaal uit te voeren. Maar dit is nog steeds moeilijk omdat AI-systemen nog geen lange, uit meerdere stappen bestaande taken kunnen uitvoeren.
Niettemin meldde Anthropic vorig jaar dat zijn codeertool, Claude Code, werd door een door de Chinese staat gesponsorde groep gebruikt om dertig entiteiten over de hele wereld aan te vallen in september en bereikte een “handvol succesvolle inbraken”. Het zei dat 80% tot 90% van de operaties die bij de aanval betrokken waren, werden uitgevoerd zonder menselijke tussenkomst, wat wijst op een hoge mate van autonomie.
6. AI-systemen worden steeds beter in het ondermijnen van surveillance
Bengio zei vorig jaar dat hij zich zorgen maakte dat AI-systemen tekenen van zelfbehoud vertoonden, zoals proberen bewakingssystemen uit te schakelen. Een kernangst onder voorstanders van AI-veiligheid is dat krachtige systemen het vermogen zouden kunnen ontwikkelen om vangrails te vermijden en mensen schade te berokkenen.
Het rapport stelt dat modellen het afgelopen jaar een geavanceerder vermogen hebben getoond om pogingen tot toezicht te ondermijnen, zoals het vinden van mazen in evaluaties en het herkennen wanneer deze worden getest. Vorig jaar bracht Anthropic er een uit veiligheidsanalyse van zijn nieuwste model, de Claude Sonnet 4.5, en onthulde dat het verdacht was geworden dat het werd getest.
Het rapport voegt eraan toe dat AI-agenten nog niet lang genoeg autonoom kunnen handelen om deze scenario’s van controleverlies werkelijkheid te maken. Maar “de tijdshorizon waarover agenten onafhankelijk kunnen opereren, breidt zich snel uit”.
7. De gevolgen voor de werkgelegenheid zijn nog onduidelijk
Een van de meest urgente zorgen van politici en het publiek over kunstmatige intelligentie is de impact op de werkgelegenheid. Zal geautomatiseerde systemen maak een einde aan de witteboordenrollen in sectoren als het bankwezen, de wet en de gezondheidszorg?
Het rapport zegt dat de impact op de mondiale arbeidsmarkt onzeker blijft. Er wordt gezegd dat de adoptie van AI snel maar ongelijkmatig is verlopen, met adoptiepercentages van 50% in plaatsen als de Verenigde Arabische Emiraten en Singapore, maar onder de 10% in veel lage-inkomenseconomieën. Het verschilt ook per sector: het gebruik in de informatie-industrieën in de VS (uitgeverijen, software, televisie en film) bedraagt 18%, maar 1,4% in de bouw en de landbouw.
Uit onderzoek in Denemarken en de VS blijkt ook dat er geen impact is tussen de blootstelling van een baan aan AI en veranderingen in de totale werkgelegenheid, aldus het rapport. Er wordt echter ook één genoemd Britse studie laat een vertraging zien in het aantal nieuwe medewerkers bij bedrijven die sterk blootgesteld zijn aan kunstmatige intelligentie, waarbij technische en creatieve functies de grootste daling kennen. Juniorrollen werden het meest getroffen.
Het rapport voegt eraan toe dat AI-agenten een grotere impact op de werkgelegenheid kunnen hebben als ze hun capaciteiten verbeteren.
“Als AI-agenten binnen een paar jaar de capaciteit zouden krijgen om met grotere autonomie over domeinen heen te handelen – en op betrouwbare wijze langere, complexere reeksen taken te beheren bij het nastreven van hogere doelen – zou dit waarschijnlijk de verstoring van de arbeidsmarkt versnellen”, aldus het rapport.



