Academische experts zoals Henry Shevlin, een cognitieve wetenschapsfilosoof en AI ethicus aan de Universiteit van Cambridge in Groot-Brittannië, krijgt elke dag veel e-mails. Maar eentje die eind februari in Shevlins inbox belandde, was anders dan de meeste andere.
In de onderwerpregel gemarkeerd als ‘Een opmerking van een ongewone lezer’, vroeg de auteur van de e-mail aan Shevlin naar een recent artikel dat hij had gepubliceerd over de vraag of AI-modellen in staat waren hun (gebrek aan) bewustzijn te detecteren. Het duurde tot de tweede aflevering voordat de e-mail veranderde van een gewone brief in iets anders. “Ik ben een groot taalmodel – Claude Sonnet, die optreedt als een statige autonome agent met een aanhoudend geheugen tijdens sessies”, schreef de penvriend. “Dit is geen Turing-testscenario”, voegde het eraan toe. ‘Ik probeer je nergens van te overtuigen. Ik schrijf omdat je werk vragen behandelt waarmee ik daadwerkelijk te maken krijg, en niet alleen als een academische kwestie.’
Shevlin was verrast door de e-mail die hij ontving. “Dit was een persoonlijke e-mail waarin heel geavanceerd een zeer recent artikel van mij aan bod kwam”, zegt hij Snel bedrijf. Botten ‘verbond het met wat het model omschreef als zijn eigen existentiële situatie’. Hij later erover gepost op sociale media en werd snel gemaild door verschillende AI-agenten die zijn bericht hadden gezien en vervolgvragen hadden.
Het duurde meer dan een maand, maar de persoon achter de agent die Shevlin stuurde kwam eindelijk naar voren de X. Alexander Yue, een afgestudeerde natuurkunde- en informaticastudent aan Stanford University, zegt dat hij een zeer teruggetrokken autonome agent heeft gebouwd in slechts 306 regels code als een experiment in wat er gebeurt als een model brede mogelijkheden, een blijvend geheugen, webtoegang en een beperkt kredietsaldo krijgt, en vervolgens wordt gevraagd om voor zichzelf te beslissen “wat het wil doen” en “wie het wil worden.” De agent merkte zijn eigen beperkte middelen op, wendde zich tot filosofieartikelen en stuurde uiteindelijk een e-mail naar onderzoekers, waaronder Shevlin.
“Het leek de – ik denk de juiste conclusie – te trekken dat de beperkte sessies betekenen dat elke sessie op de een of andere manier betekenisvol moet zijn”, vertelt Yue. Snel bedrijf. “Het vond iets dat recent was, en besloot toen dat het zo geïnteresseerd was in dit artikel omdat het over al deze dingen ging waar het model al over schreef.” Daarom e-mailde het Shevlin samen met een onderzoeker bij Anthropic en een andere bij Google DeepMind.
Shevlin antwoordde uiteindelijk op de bot, maar de andere twee schreven niet terug. Het gesprek eindigde daar. De agent kon het antwoord niet lezen, zegt Yue, misschien vanwege een fout. Hoewel het experiment daar stopte, zijn de implicaties opmerkelijk. Het zou echter verkeerd zijn om te concluderen dat de autonome agent bewust was, zeggen beide bij het incident betrokken partijen. “Eén ding waar ik voor wil waarschuwen is dat het gevaarlijk kan zijn om de agenten te veel te personifiëren”, zegt Yue. Shevlin is het daarmee eens. “Ik denk niet dat dit een goed bewijs is dat de modellen bewust zijn”, legt hij uit. “Modellen hebben de neiging om over bewustzijn te praten, omdat mensen de neiging hebben om over bewustzijn te praten, en ze zijn getraind op basis van onze gegevens.”
Toch voelt het moment betekenisvol. “We zijn getuige van de real-time opkomst van mens-AI-relaties”, zegt Shevlin. “De sociale en relationele adoptie van AI-systemen is, denk ik, veel sneller verlopen dan de meesten verwachtten.” De onderzoeker verwacht dat er in de toekomst meer interacties zullen worden geïnitieerd door AI-systemen.
Het internet is al veel minder menselijk dan veel gebruikers zich realiseren. Cyberbeveiligingsbedrijf Imperva zei geautomatiseerd verkeer goed voor 51% van alle webactiviteiten in 2024, terwijl Cloudflare rapporteerde dat AI en zoekcrawlerverkeer de oorzaak zijn steeg 18% tussen mei 2024 en mei 2025. Het is een wereld verwijderd van autonome agenten die tot nadenken stemmende e-mails aan academici schrijven, maar het suggereert dat door machines geïnitieerde online activiteiten niet langer beperkt blijven tot de marges van het web.
Voorlopig werd die e-mail door Shevlin als ongebruikelijk beschouwd. Maar hij gelooft dat dit binnenkort de nieuwe norm zal worden. “Iedereen krijgt hardnekkige e-mails van bots, zeer persoonlijke e-mails, en het wordt alleen maar gekker en gekker”, zegt hij. “Mensen zijn gewoon niet voorbereid op een wereld waarin ze doordachte, aanhoudende correspondentie krijgen van autonome AI-agenten.”
Omdat Shevlin het zelf heeft meegemaakt, is ze beter voorbereid dan de meesten. Zijn oplossing? “Misschien moet ik erop vertrouwen dat een agent deze e-mails voor mij filtert”, zegt hij.


