EENZijn we op weg naar een AI-ramp? Is AI een existentiële bedreiging of een baanbrekende kans? Dat zijn de vragen die centraal staan in een nieuwe documentaire op Sundance, met vooraanstaande AI-experts, critici en ondernemers, waaronder Sam Altman, CEO van OpenAI, met visies op de toekomst op de korte en middellange termijn, variërend van onheil tot utopie.
AI Doc: Or How I Became an Apocaloptimist, geregisseerd door Daniel Roher en Charlie Tyrell en geproduceerd door Daniel Kwan (de ene helft van The Daniels, het Oscarwinnende duo achter Everything Everywhere All At Once), duikt in het controversiële onderwerp AI via Rohers eigen angst. De Canadese filmmaker die in 2023 een Oscar won voor de documentaire Navalnyraakte voor het eerst geïnteresseerd in het onderwerp tijdens het experimenteren met tools van OpenAI, het bedrijf achter de Chatbot ChatGPT. De verfijning van de publieke middelen – de mogelijkheid om hele alinea’s in enkele seconden te produceren of illustraties te produceren – maakte hem zowel enthousiast als zenuwachtig. AI was de filmindustrie al radicaal aan het vormgeven, en er waren overal uitspraken over de belofte en het gevaar van AI, waar mensen buiten de technologie-industrie weinig ruimte voor hadden om deze te beoordelen. Als kunstenaar vroeg hij zich af hoe hij dit allemaal kon begrijpen?
Rohers angst nam alleen maar toe toen hij en zijn vrouw, filmmaker Caroline Lindy, erachter kwamen dat ze hun eerste kind verwachtten. “Het voelde alsof de hele wereld zich ergens in haastte zonder na te denken”, zegt hij in de film, terwijl zijn opwinding over het ouderschap botste met de angst voor de onbekende variabele AI, die in een paar jaar tijd van een eigen experiment naar een algemeen belang veranderde.
AI Doc komt dus voort uit Rohers meest prangende vraag: is het veilig om een kind op deze wereld te brengen? Samen met Kwan riep Roher een aantal experts bijeen om de werking van de technologie uit te leggen (en enkele vage, vervreemdende termen te verduidelijken) en om naar een antwoord te zoeken. (Het is bijvoorbeeld zowel geruststellend als een beetje verontrustend dat niemand een duidelijk antwoord lijkt te hebben op de vraag “wat is AI?”). In individuele sit-down interviews zijn vooraanstaande onderzoekers op het gebied van machine learning, waaronder Yoshua Bengio, Ilya Sutskever en mede-oprichter van DeepMind, Shane Legg, het er allemaal over eens dat er aspecten van AI-modellen zijn die mensen niet kunnen en nooit zullen kunnen begrijpen. Standaard AI-modellen worden getraind op ‘meer gegevens dan iemand ooit in meerdere levens zou kunnen lezen’, zoals een expert op het gebied van machine learning het stelt. En het tempo van machinaal leren overtreft precedent – of film. “Elk voorbeeld dat je in deze film geeft, zal er absoluut onhandig uitzien als de film uitkomt”, zegt Tristan Harris, medeoprichter van het Center for Humane Technology en een prominente stem in de apocalyptische Netflix-documentaire uit 2020. Het sociale dilemmazegt Roher.
De film hoort voor het eerst van een aantal doomeristen, of mensen die bezorgd zijn dat AI – en in het bijzonder Artificial General Intelligence (AGI), een nog steeds theoretische vorm van AI waarvan de capaciteiten die van mensen overtreffen – zou kunnen leiden tot het uitsterven van de mensheid, waaronder Harris, zijn medeoprichter van het Center for Humane Technology, Aza Raskin, Ajeya Cotra, een AI-risicoadviseur, en Eli Yuonedk-adviseur. Dergelijke cijfers waarschuwen dat mensen heel gemakkelijk de controle over superintelligente AI-modellen kunnen verliezen, met weinig of geen verhaal. Yudkowsky’s boek uit 2025 heeft de directe titel If Everyone Builds It, Everyone Dies.
AI-bedrijven zijn volgens hen niet voorbereid op de gevolgen van het bereiken van AGI, dat “misschien dit decennium bovenmenselijk zou kunnen worden”, zegt Dan Hendrycks, directeur van het Center for AI Safety. Mochten mensen niet langer de intelligentste wezens op aarde zijn, zo waarschuwen zij, dan is het mogelijk dat AGI de soort als irrelevant beschouwt. Connor Leahy, mede-oprichter van EleutherAI, vergeleek de potentiële toekomstige relatie tussen superintelligente AGI en mensen met die tussen mensen en mieren: “We haten geen mieren. Maar als we een snelweg willen aanleggen” over een mierenhoop – “nou, dat is voor de mieren.”
Verschillende mensen in het doomerkamp, van wie velen geen kinderen hebben, reageren neerslachtig op Rohers vragen over ouderschap. “Ik ken mensen die in de AI-sector werken en die niet verwachten dat hun kind naar de middelbare school gaat”, zegt Harris in een zin die het publiek in Park City naar adem snakte.
Aan de andere kant staan optimistische figuren zoals Peter Diamandis, oprichter van de XPRIZE Foundation, die het menselijk leven wil verlengen, die beweert dat “kinderen die vandaag geboren worden een periode van glorieuze transformatie ingaan”; Guillaume Verdon, leider van de ‘efficiënte acceleratiebeweging’ in Silicon Valley; Peter Lee, de voorzitter van Microsoft Research; en Daniela Amodi, mede-oprichter en president van OpenAI-concurrent Anthropic. Zogenaamde ‘accelerationisten’ zien kunstmatige intelligentie als een potentiële remedie voor een groot aantal ogenschijnlijk hardnekkige problemen waarmee de mensheid wordt geconfronteerd: kanker, voedsel- en watertekorten voor een steeds groeiende bevolking, onvoldoende hernieuwbare energie en misschien wel het meest dringende, de klimaatcrisis. Zonder kunstmatige intelligentie, zo stellen zij, zouden talloze toekomstige levens verloren gaan door droogte, hongersnood, ziekte en natuurrampen.
De ontwikkeling van kunstmatige intelligentie is echter afhankelijk van rekenkracht, waarvoor enorme hoeveelheden energie nodig zijn. Een laatste groep geïnterviewden, critici en waarnemers grotendeels buiten de technische wereld – waaronder Karen Hao, journalist en auteur van het boek Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI, en Liv Boeree, Win-Win podcast bij – verbinden AI met de tastbare, fysieke wereld, zoals de datacenters. zuigt water in het Amerikaanse Westenwaardoor bewoners met torenhoge elektriciteitsrekeningen en leeggelopen reservoirs achterblijven. Volgens Emily M. Bender, hoogleraar computerlinguïstiek, sluiten de huidige verhalen rond AI de mensen uit die er al door worden beïnvloed en die ze zullen blijven ontwrichten.
Roher komt uiteindelijk bij de vijf machtigste mensen – allemaal mannen – die momenteel de AI-wapenwedloop leiden: Altman; Elon Musk, CEO van xAI; Dario Amodi, de Antropische CEO; Demis Hassabis van DeepMind en Mark Zuckerberg van Meta. Altman, Amodi en Hassabis nemen deel aan interviews waarin ze de respectievelijke standpunten van hun bedrijven min of meer verdedigen. Volgens de film weigerde Zuckerberg deel te nemen; Musk was het daarmee eens, maar kreeg het toen te druk.
Altman, die op het moment van het interview zijn eerste kind verwachtte, houdt vol dat hij “niet bang is voor een kind dat opgroeit in een wereld met AI”. Hij en zijn man Oliver Mulherin verwelkomden hun zoon via een draagmoeder in februari 2025, een gebeurtenis die Altman later maakte. gezegd “neurochemisch gehackt” zijn hersenen, waardoor mensen in zijn leven geloofden dat hij “betere beslissingen zou nemen” voor OpenAI en ChatGPT als het gaat om “de mensheid in het algemeen”. De 40-jarige CEO zei verder dat zowel zijn kind als Rohers kind waarschijnlijk ‘nooit slimmer zouden zijn dan AI’, wat ‘mij een beetje zorgen baart, maar dat is de realiteit’.
Op een gegeven moment vraagt Roher aan Altman of het echt onmogelijk is om hem te verzekeren dat alles met betrekking tot AI in orde zal zijn. “Het is onmogelijk”, bevestigt Altman, hoewel hij zegt dat de voorsprong van OpenAI in de AI-wapenwedloop ervoor zorgt dat er meer tijd kan worden besteed aan beveiligingstests.
AI Doc belandt uiteindelijk ergens tussen doomerisme en optimisme – apocalyptiek, zoals zij het noemen, op zoek naar “een pad tussen de belofte en het gevaar”. Dat pad zou volgens talrijke filmonderwerpen het volgende moeten omvatten: aanzienlijke, aanhoudende, paradigma-veranderende internationale coördinatie, vergelijkbaar met het raamwerk en de overeenkomsten uit het midden van de eeuw om de ontwikkeling van kernwapens te matigen – meer bedrijfstransparantie voor AI-bedrijven, een onafhankelijk toezichthoudend orgaan om toezicht te houden op AI-ontwikkelaars, wettelijke aansprakelijkheid voor de producten van de bedrijven, zoals het aanpassen van de regels aan snel veranderende technologie.
Of de Amerikaanse regering en het bedrijfsleven, laat staan de wereld, dat kunnen doen, is nog steeds een open vraag, waarbij de meningen over de eerste stappen uiteenlopen. Maar als er één ding is waar de vele disciplines het allemaal over eens zijn, dan is het dat er geen weg terug is naar een tijd vóór AI. Zoals mede-oprichter en CEO van Anthropic Amodei het zegt: “Deze trein stopt niet.”



