De meeste mensen zijn zich niet bewust van de grote dreiging die AI binnenkort voor hen zal vormen menselijke tussenkomst. Een gewoon refrein is het ‘AI is slechts een hulpmiddel’ en zoals bij elk hulpmiddel zijn de voordelen en gevaren ervan afhankelijk van de manier waarop mensen het gebruiken. Dit is ouderwets denken. AI schakelt uit hulpmiddelen die we gebruiken naar prothesen die we dragen. Dit zal creëren belangrijke nieuwe bedreigingen we zijn er gewoon niet op voorbereid.
Nee, ik heb het niet over enge hersenimplantaten. Deze door AI aangedreven prothesen zullen gewone producten zijn die we kopen bij Amazon of de Apple Store, op de markt gebracht met vriendelijke namen als ‘assistenten’, ‘coaches’, ‘co-piloten’ en ‘mentoren’. Ze zullen echte waarde toevoegen aan ons leven – zozeer zelfs dat we ons benadeeld zullen voelen als anderen ze dragen en wij niet. Dit zal een snelle druk creëren voor massale adoptie.
De prothesen waar ik het over heb zijn “AI-aangedreven wearables” zoals slimme brillen, hangers, spelden en oortelefoons. Uw draagbare AI zal zien wat u ziet en horen wat u hoort, terwijl hij ondertussen bijhoudt waar u bent, wat u doet, met wie u bent en wat u probeert te bereiken. Vervolgens, zonder dat u een woord hoeft te zeggen, zullen deze mentale hulpmiddelen dat doen fluister advies in uw oren of flitsinstructies voor uw ogen.
Het verschil tussen een hulpmiddel en een prothese lijkt misschien subtiel, maar dat is het wel implicaties voor menselijke keuzevrijheid zijn diep. Dit kan het beste worden begrepen door een eenvoudige analyse van input en output. Een tool neemt menselijke input en genereert versterkte output. Een hulpmiddel kan ons sterker en sneller maken of ons laten vliegen. Een mentale prothese daarentegen vormt een feedbacklus rond de mens, accepteert input van de gebruiker (door hun acties te volgen en hen in gesprek te brengen) en genereert output die onmiddellijke impact de mentaliteit van de gebruiker.
Deze feedbackloop verandert alles. Dit komt omdat op het lichaam gedragen AI-apparaten ons gedrag en onze emoties kunnen monitoren en deze gegevens daarvoor kunnen gebruiken praat ons binnen dingen geloven die niet waar zijn, dingen kopen die we niet nodig hebben, of standpunten aannemen waarvan we anders zouden beseffen dat ze niet in ons beste belang zijn. Dit wordt genoemd Het AI-manipulatieprobleemen we zijn niet klaar voor de risico’s. Dit is een urgent probleem omdat geweldige technologie zich haast om deze producten op de markt te brengen.
Waarom zijn feedbackloops zo gevaarlijk?
In de wereld van vandaag worden alle computerapparatuur gebruikt om gerichte beïnvloeding ten behoeve van betalende sponsors uit te voeren. Draagbare AI-producten zullen deze trend waarschijnlijk voortzetten. Het probleem is dat deze apparaten gemakkelijk een “mate van invloed” en belast met het optimaliseren van hun impact op de gebruiker, door hun gesprekstactieken aan te passen om elke weerstand die ze ontdekken te overwinnen. Dit transformeert het concept van gerichte invloed van sociale media tot hittezoekende raketten die behendig langs je verdediging navigeren. En toch beseffen politici dit risico niet.
Helaas zien de meeste toezichthouders nog steeds het gevaar van AI in termen van het vermogen ervan om snel traditionele vormen van invloed (deepfakes, nepnieuws, propaganda) te genereren. Natuurlijk zijn dit aanzienlijke bedreigingen, maar ze zijn lang niet zo gevaarlijk als interactieve en adaptieve invloed die binnenkort wijdverspreid kan worden via gespreksagenten, vooral wanneer deze AI-agenten met ons door ons leven reizen in draagbare apparaten.
Dit komt binnenkort
Meta, Google en Apple racen om draagbare AI-producten zo snel mogelijk te lanceren. Om het publiek te beschermen moeten beleidsmakers hun ‘toolgebruik’ opgeven bij het reguleren van AI-apparaten. Dit is moeilijk omdat de metafoor van het gereedschapsgebruik 35 jaar teruggaat tot het moment waarop Steve Jobs de pc op kleurrijke wijze omschreef als een ‘de fiets van de geest.” Een fiets is een krachtig hulpmiddel dat de berijder stevig de controle houdt. Wearable AI zal deze metafoor op zijn kop zetten, waardoor we ons afvragen wie de fiets bestuurt – de mens, de AI-agenten die in de menselijke oren fluisteren, of de bedrijven die de agenten hebben ingezet? Ik denk dat het een gevaarlijke mix van alle drie zal zijn.
Bovendien zullen gebruikers waarschijnlijk vertrouwen AI-stemmen in hun hoofd meer dan ze zouden moeten. Dat komt omdat deze AI-agenten ons gedurende ons dagelijks leven van nuttig advies en informatie zullen voorzien – ons opleiden, herinneren, coachen en informeren. Het probleem is dat we misschien niet kunnen onderscheiden wanneer de AI-agent zijn doel heeft verlegd van ons helpen naar ons beïnvloeden. Bekijk de bekroonde korte film om het verschil te begrijpen Vertrouwelijkheid verloren (2023) over de gevaren van door AI aangedreven draagbare apparaten. Dit is vooral het geval wanneer apparaten invasieve functies bevatten, zoals gezichtsherkenning (zoals Meta voegt naar verluidt toe naar hun bril).
Wat kunnen we doen om het publiek te beschermen?
Eerst en vooral moeten politici zich realiseren dat conversationele AI dit mogelijk maakt een compleet nieuwe mediavorm dat interactief, adaptief, geïndividualiseerd en steeds contextbewuster is. Deze nieuwe vorm van media zal fungeren als ‘actieve invloed’ omdat het zijn tactieken in realtime kan aanpassen om de weerstand van gebruikers te overwinnen. Wanneer ze worden geïmplementeerd in draagbare apparaten, kunnen deze AI-systemen worden ontworpen om onze acties te manipuleren, onze meningen en onze overtuigingen te beïnvloeden – en dat tot in de puntjes. ogenschijnlijk losse dialoog. Erger nog, deze agenten zullen uiteindelijk leren welke gesprekstactieken voor ieder van ons op persoonlijk niveau het beste werken.
Het is een feit, chatagenten mogen geen controlelussen vormen rondom de gebruikers. Als dit niet gereguleerd wordt, zal AI ons met bovenmenselijke overtuigingskracht kunnen beïnvloeden. Bovendien zouden AI-agenten dat moeten zijn verplicht om gebruikers te informeren wanneer ze promotionele inhoud gaan uitdrukken namens een derde partij. Zonder dergelijke bescherming zullen AI-agenten waarschijnlijk zo overtuigend worden dat de huidige gerichte beïnvloedingstechnieken er idiosyncratisch uit zullen zien.
Louis Rosenberg is een pionier op het gebied van augmented reality en al jarenlang AI-onderzoeker. Hij promoveerde aan Stanford, was professor aan de California State University en schreef verschillende boeken over de gevaren van kunstmatige intelligentie, waaronder Arrival Mind en Our Next Reality.
Welkom bij de VentureBeat-community!
In ons gastpostprogramma delen technische experts inzichten en bieden ze neutrale, onbevooroordeelde diepgaande inzichten in AI, data-infrastructuur, cyberbeveiliging en andere geavanceerde technologieën die de toekomst van het bedrijfsleven vormgeven.
Lees meer uit ons gastpostprogramma – en bekijk ons richtlijnen als u geïnteresseerd bent om uw eigen artikel bij te dragen!


