TEr bestaat tegenwoordig veel bezorgdheid over de gevaren van relaties tussen mens en AI. Meldingen van zelfmoord en zelfbeschadiging als gevolg van interacties met chatbots hebben begrijpelijkerwijs de krantenkoppen gehaald. De term “AI-psychose‘ is gebruikt om de situatie van te beschrijven mensen die waanvoorstellingen ervarenparanoia of dissociatie na het spreken met grote taalmodellen (LLM’s). Onze collectieve angst is vergroot door onderzoeken die aantonen dat jongeren het idee van AI-relaties steeds meer omarmen; de helft van de tieners chat minstens een paar keer per maand met een AI-partner, waarbij één op de drie gesprekken met AI vindt”even bevredigend of bevredigender te zijn dan degenen met echte vrienden”.
Maar we moeten de paniek op de rem trappen. De gevaren is reëel, maar dat geldt ook voor de potentiële voordelen. In feite is er een argument dat kan worden aangevoerd, afhankelijk van wat toekomstig wetenschappelijk onderzoek onthult: AI-relaties kunnen in feite een zegen zijn voor de mensheid.
Bedenk hoe alomtegenwoordig niet-menselijke relaties altijd zijn geweest voor onze soort. We hebben een lange geschiedenis in het aangaan van gezonde interacties met niet-mensen, of het nu huisdieren, knuffelbeesten of geliefde objecten of machines zijn – denk aan die persoon in je leven die volledig geobsedeerd is door zijn auto, tot op het punt dat hij hem een naam geeft. In het geval van huisdieren zijn dit oprecht relaties in de mate dat onze katten en honden begrijpen dat ze een relatie met ons hebben. Maar de eenzijdige, parasociale relaties die we hebben met knuffels of auto’s gebeuren zonder dat we weten dat we bestaan. Slechts in de zeldzaamste gevallen ontwikkelen deze aandoeningen zich tot iets pathologisch. Parasocialiteit is meestal normaal en gezond.
En toch is er iets verontrustends aan AI-relaties. Omdat ze vloeiende taalgebruikers zijn, genereren LLM’s het griezelige gevoel dat ze mensachtige gedachten, gevoelens en bedoelingen hebben. Ze genereren ook sycophantische reacties die onze opvattingen versterken en zelden ons denken uitdagen. Deze combinatie kan mensen gemakkelijk op een pad van waanvoorstellingen leiden. Dit is niet iets dat gebeurt als we omgaan met katten, honden of levenloze voorwerpen. Maar de vraag blijft: zelfs in gevallen waarin mensen de illusie niet kunnen doorzien dat AI’s echte mensen zijn die daadwerkelijk om ons geven, is dat dan altijd een probleem?
Denk aan eenzaamheid: één op de zes mensen op deze planeet ervaart het, en het is geassocieerd met a 26% toename van vroegtijdige sterfte; het equivalent van het roken van 15 sigaretten per dag. Onderzoek is in opkomst het suggereert dat AI-metgezellen effectief zijn in het verminderen van gevoelens van eenzaamheid – en niet alleen door als een vorm van afleiding te fungerenmaar als gevolg van de parasociale relatie zelf. Voor veel mensen is een AI-chatbot de enige vriendschapsoptie die voor hen beschikbaar is, hoe hol het ook lijkt. Zoals journaliste Sangita Lal onlangs uitgelegd in een rapport over degenen die zich tot AI wenden om samen te zijn, moeten we niet zo snel oordelen. “Als je niet begrijpt waarom abonnees deze verbinding willen, zoeken en nodig hebben”, zei Lal, “heb je het geluk dat je geen eenzaamheid hebt ervaren.”
De eerlijkheid gebiedt te zeggen dat er een argument kan worden aangevoerd dat de opkomst van nieuwe technologie en sociale media zelf een rol hebben gespeeld bij het aandrijven van de eenzaamheidsepidemie. Daarom Mark Zuckerberg kreeg vlok voor zijn lovende kritiek op kunstmatige intelligentie als oplossing voor een probleem waarvoor hij wellicht gedeeltelijk verantwoordelijk is. Maar als de realiteit is dat het helpt, kan dit niet zomaar terzijde worden geschoven.
Er is ook onderzoek dat aantoont dat kunstmatige intelligentie kan worden gebruikt als een effectief hulpmiddel voor psychotherapie. In een studietoonde aan dat patiënten die chatten met een AI-aangedreven therapiechatbot een vermindering van 30% in angstsymptomen vertoonden. Niet zo effectief als menselijke therapeuten die een reductie van 45% genereerden, maar nog steeds beter dan niets. Dit utilitaire argument is het overwegen waard; er zijn miljoenen mensen die om de een of andere reden geen toegang hebben tot een therapeut. En in die gevallen is het waarschijnlijk beter om je tot een AI te wenden dan helemaal geen hulp te zoeken.
Maar één onderzoek bewijst niets. En daar zit het probleem. We bevinden ons in de beginfase van onderzoek naar de potentiële voordelen of nadelen van AI-gezelschap. Het is gemakkelijk om ons te concentreren op het handjevol onderzoeken dat onze vooropgezette ideeën over de gevaren of voordelen van deze technologie ondersteunt.
Het is in dit onderzoeksvacuüm dat de echte gevaren van AI aan het licht komen. De meeste entiteiten die AI-metgezellen implementeren, zijn bedrijven met winstoogmerk. En als er één ding is dat we weten over bedrijven met winstoogmerk, dan is het dat ze graag regelgeving willen vermijden en bewijsmateriaal willen vermijden dat hun bedrijfsresultaten zou kunnen schaden. Ze worden aangemoedigd om de risico’s te bagatelliseren, bewijsmateriaal uit te pikken en alleen de voordelen onder de aandacht te brengen.
De opkomst van kunstmatige intelligentie lijkt op de ontdekking van de pijnstillende eigenschappen van opium; Indien gebruikt door verantwoordelijke partijen met als doel pijn en lijden te verlichten, kunnen zowel AI als opioïden legitieme hulpmiddelen voor genezing zijn. Maar als slechte acteurs hun verslavende eigenschappen exploiteren om zichzelf te verrijken, is het resultaat verslaving of de dood.
Ik blijf hoopvol dat er plaats is voor AI-gezelschap. Maar alleen als het wordt ondersteund door robuuste wetenschap en wordt geïmplementeerd door organisaties die bestaan voor het algemeen belang. AI’s moeten het sycofantieprobleem vermijden dat kwetsbare mensen tot waanideeën leidt. Dit kan alleen worden bereikt als ze daar expliciet in worden opgeleid, zelfs als het hen minder aantrekkelijk maakt als potentiële metgezel; een idee dat afschuwelijk is voor bedrijven die willen dat je een maandelijks abonnement betaalt, zonder welk je de toegang tot je “vriend” verliest. Ze moeten ook ontworpen zijn om de gebruiker te helpen de sociale vaardigheden te ontwikkelen die hij nodig heeft om met echte mensen in de echte wereld om te gaan.
Het uiteindelijke doel van AI-metgezellen zou moeten zijn om zichzelf overbodig te maken. Hoe behulpzaam ze ook mogen zijn bij het dichten van de gaten in de toegang tot therapie of het verlichten van eenzaamheid, het zal altijd beter zijn om met een echt persoon te praten.
Justin Gregg is bioloog en auteur van Humanish (Oneworld).
Verder lezen
Codeverslaafde: leven in de schaduw van AI door Madhumita Murgia (Picador, £20)
De komende golf: AI, macht en onze toekomst door Mustafa Suleyman (vintage, £ 10,99)
Supremacy: AI, ChatGPT en de race die de wereld zal veranderen door Parmy Olson (Macmillan, £ 10,99)



