De wereld heeft ‘misschien geen tijd’ om zich op voor te bereiden veiligheidsrisico’s bestaat uit geavanceerde AI-systemen, aldus een senior figuur bij het wetenschappelijk onderzoeksbureau van de Britse overheid.
David Dalrymple, programmadirecteur en AI-beveiligingsexpert bij het Aria-bureau, vertelde de Guardian dat mensen zich zorgen moeten maken over de groeiende mogelijkheden van de technologie.
“Ik denk dat we ons zorgen moeten maken over systemen die alle functies kunnen vervullen die mensen doen om dingen gedaan te krijgen in de wereld, maar dan beter”, zei hij. “We zullen overtroffen worden op alle domeinen waarin we dominant moeten zijn om de controle over onze beschaving, samenleving en planeet te behouden.”
Dalrymple zei dat er een kloof bestaat in het begrip tussen de publieke sector en AI-bedrijven over de kracht van dreigende doorbraken in de technologie.
“Ik zou willen zeggen dat de zaken heel snel gaan en dat we misschien geen tijd hebben om er vanuit veiligheidsperspectief op vooruit te lopen”, zei hij. “En het is geen sciencefiction om te voorspellen dat binnen vijf jaar de economisch meest waardevolle taken zullen worden uitgevoerd door machines, met een hoger kwaliteitsniveau en tegen lagere kosten dan door mensen.”
Dalrymple zei dat regeringen er niet van mogen uitgaan dat geavanceerde systemen betrouwbaar zijn. Aria wordt door de overheid gefinancierd, maar is onafhankelijk van de overheid en beheert onderzoeksfondsen. Dalrymple ontwikkelt systemen om het gebruik van AI in kritieke infrastructuur zoals energienetwerken te garanderen.
“We kunnen niet aannemen dat deze systemen betrouwbaar zijn. De wetenschap om dat te doen zal waarschijnlijk niet op tijd werkelijkheid worden, gezien de economische druk. Dus het beste wat we kunnen doen, wat we misschien ook wel op tijd kunnen doen, is het beheersen en verzachten van de negatieve gevolgen”, zei hij.
Dalrymple beschrijft de gevolgen van de technologische vooruitgang die vóór de veiligheid gaat als een “destabilisatie van de veiligheid en de economie”, en zei dat er meer technisch werk nodig is om het gedrag van geavanceerde AI-systemen te begrijpen en te controleren.
“Vooruitgang kan worden afgeschilderd als destabiliserend, en het zou zelfs goed kunnen zijn, en dat is wat veel mensen aan de grens hopen. Ik werk eraan om de zaken te verbeteren, maar het brengt een zeer groot risico met zich mee, en de menselijke beschaving als geheel slaapt tijdens deze transitie.”
Deze maand zei het AI Security Institute (AISI) van de Britse regering dat de mogelijkheden van geavanceerde AI-modellen “snel verbeterden” op alle domeinen, waarbij de prestaties op sommige gebieden elke acht maanden verdubbelden.
Leidende modellen kunnen nu gemiddeld 50% van de tijd taken op leerlingniveau uitvoeren, vergeleken met ongeveer 10% van de tijd vorig jaar, aldus het instituut. AISI ontdekte ook dat de meest geavanceerde systemen autonoom taken kunnen uitvoeren die een menselijke expert meer dan een uur zouden kosten.
Het instituut testte ook geavanceerde modellen voor zelfreplicatie, een belangrijk beveiligingsprobleem omdat het om een systeem gaat dat kopieën van zichzelf naar andere apparaten verspreidt en daardoor moeilijker te controleren wordt. Uit de tests kwamen twee geavanceerde modellen naar voren die een succespercentage van meer dan 60% bereikten.
AISI benadrukte echter dat een worstcasescenario in de dagelijkse omgeving onwaarschijnlijk is, en zei dat elke poging tot zelfreplicatie “waarschijnlijk niet zal slagen onder reële omstandigheden”.
Dalrymple gelooft dat AI-systemen tegen eind 2026 het equivalent van een volledige dag onderzoeks- en ontwikkelingswerk zullen kunnen automatiseren, wat “zal resulteren in een verdere versnelling van de mogelijkheden” omdat de technologie zichzelf zal kunnen verbeteren op het gebied van de wiskunde en computerwetenschappen van de ontwikkeling van AI.



