Recente ontwikkelingen op het gebied van AI kunnen ertoe leiden dat door de mens veroorzaakte pandemieën vijf keer zo waarschijnlijk zijn als een jaar geleden, suggereert een onderzoek. studie voorspellingen van topexperts die exclusief met TIME worden gedeeld.
De gegevens weerspiegelen de zorgen die AI-bedrijven OpenAI en Anthropic de afgelopen maanden hebben geuit, die beide hebben gewaarschuwd dat de huidige AI-instrumenten de capaciteit bereiken om slechte actoren die proberen biologische wapens te maken aanzienlijk te helpen.
Meer informatie: Exclusief: Nieuw Claude-model activeert maatregelen ter bescherming tegen biologisch gevaar bij Anthropic
Het is voor biologen al lang mogelijk om virussen te modificeren met behulp van laboratoriumtechnologie. De nieuwe ontwikkeling is het vermogen van chatbots, zoals ChatGPT of Claude, om nauwkeurig advies te geven over het oplossen van problemen aan amateurbiologen die proberen een dodelijk biowapen in een laboratorium te creëren. Beveiligingsexperts beschouwen de moeilijkheid van dit probleemoplossingsproces al lang als een aanzienlijk obstakel voor het vermogen van terroristische groeperingen om een biologisch wapen te maken, zegt Seth Donoughe, co-auteur van het onderzoek. Tegenwoordig zegt hij dat dankzij AI de expertise die nodig is om opzettelijk een nieuwe pandemie te veroorzaken “voor een zeer groot aantal mensen toegankelijk zou kunnen worden.”
Tussen december 2024 en februari 2025 vroeg het Forecasting Research Institute 46 bioveiligheidsexperts en 22 ‘superforecasters’ (individuen met een hoog succespercentage bij het voorspellen van toekomstige gebeurtenissen) om het risico van een door de mens veroorzaakte pandemie in te schatten. De gemiddelde enquêterespondent voorspelde dat de kans dat dit in een bepaald jaar zou gebeuren 0,3% was.
Belangrijk is dat de onderzoekers vervolgens nog een vraag stelden: hoeveel zou dit risico toenemen als AI-tools de prestaties van een team van experts zouden kunnen evenaren bij een moeilijke virologische probleemoplossingstest? Als AI dat zou kunnen doen, zegt de gemiddelde expert, dan zou het jaarlijkse risico stijgen naar 1,5%, oftewel vijf keer zoveel.
Wat voorspellers niet wisten, was dat Donoughe, een onderzoekswetenschapper bij de non-profitorganisatie SecureBio voor de preventie van pandemieën, AI-systemen testte op dezelfde capaciteit. In april onthulde het team van Donoughe de resultaten van deze tests: de beste AI-systemen van dit moment kan beter presteren dan virologen op doctoraal niveau bij een moeilijke probleemoplossingstest.
Meer informatie: Exclusief: AI presteert beter dan virusexperts in het laboratorium en vergroot de angst voor biologische gevaren
Met andere woorden: AI kan nu precies doen wat volgens voorspellers het risico op een door de mens veroorzaakte pandemie zou vervijfvoudigen. (Het Forecast Research Institute is van plan dezelfde experts in de toekomst opnieuw te interviewen om te bepalen of hun kijk op risico’s is toegenomen zoals ze hadden aangekondigd, maar zei dat het onderzoek maanden zou duren.)
Er zijn zeker verschillende redenen om sceptisch te zijn over de resultaten. Voorspellen is een onnauwkeurige wetenschap en het is bijzonder moeilijk om de waarschijnlijkheid van zeer zeldzame gebeurtenissen nauwkeurig te voorspellen. De voorspellers van het onderzoek brachten ook een gebrek aan inzicht aan het tempo van de vooruitgang van AI aan het licht. (Desgevraagd zeiden de meesten bijvoorbeeld dat ze niet verwachtten dat AI de menselijke prestaties bij virologische tests tot 2030 zou overtreffen, terwijl uit de test van Donoughe bleek dat de lat al bereikt was.) Maar zelfs als de cijfers zelf met een korreltje zout worden genomen, zeggen de auteurs van het artikel, wijzen de resultaten als geheel nog steeds in een zorgwekkende richting. “Het lijkt erop dat AI-capaciteiten op de korte termijn het risico op een door mensen veroorzaakte uitbraak aanzienlijk kunnen vergroten”, zegt Josh Rosenberg, CEO van het Forecasting Research Institute.
De studie identificeerde ook manieren om de risico’s voor biowapens van AI te verminderen. Deze maatregelen vielen grofweg in twee categorieën uiteen.
De eerste categorie betreft garanties op modelniveau. In interviews prezen onderzoekers de inspanningen van bedrijven als OpenAI en Anthropic om te voorkomen dat hun AI’s reageren op aanwijzingen om een biowapen te bouwen. Het document identificeert ook het beperken van de verspreiding van “geopende gewichten“-modellen, en het toevoegen van bescherming tegen het bestaan van modellen gejailbreaktwaarschijnlijk het risico verkleinen dat AI wordt gebruikt om een pandemie te veroorzaken.
De tweede categorie waarborgen betreft het opleggen van beperkingen aan bedrijven die nucleïnezuren synthetiseren. Momenteel is het mogelijk om een genetische code naar een van deze bedrijven te sturen en biologisch materiaal dat met deze code correspondeert te laten leveren. Tegenwoordig zijn deze bedrijven bij wet niet verplicht om de genetische codes die ze ontvangen te filteren voordat ze deze synthetiseren. Dit is potentieel gevaarlijk omdat dit gesynthetiseerde genetische materiaal zou kunnen worden gebruikt om postorderpathogenen te creëren. De auteurs van het artikel bevelen aan dat laboratoria hun genetische sequenties analyseren op schade, en dat laboratoria ‘ken uw klant’-procedures implementeren.
Alles bij elkaar genomen zouden al deze beschermende maatregelen, indien geïmplementeerd, het risico op een door AI aangedreven pandemie kunnen terugdringen tot 0,4%, aldus de gemiddelde voorspeller. (Nauwelijks hoger dan de basislijn van 0,3% van waar ze dachten dat de wereld was voordat ze wisten dat de huidige AI zou kunnen helpen een biowapen te creëren.)
“Over het algemeen lijkt het erop dat dit een nieuw risicogebied is waar we aandacht aan moeten besteden”, zegt Rosenberg. “Maar er zijn goede beleidsreacties op dit probleem.”



