Home Nieuws Hoe het consumerende nieuws van AI onze realiteit verandert

Hoe het consumerende nieuws van AI onze realiteit verandert

17
0
Hoe het consumerende nieuws van AI onze realiteit verandert

Meta’s beslissing om haar professionele factcheckingprogramma voltooien leidde tot een golf van kritiek in de technologie- en mediawereld. Critici waarschuwden dat het laten vallen van toezicht door deskundigen het vertrouwen en de betrouwbaarheid in het digitale informatielandschap zou kunnen aantasten, vooral wanneer op winst gerichte platforms grotendeels aan zelfcontrole worden overgelaten.

Wat een groot deel van dit debat echter over het hoofd heeft gezien, is dat vandaag de dag AI belangrijkste taalmodellen zijn steeds meer gebruikt het schrijven van nieuwsoverzichten, krantenkoppen en inhoud die uw aandacht trekt lang voordat traditionele mechanismen voor inhoudsmoderatie in werking treden. Het probleem is niet dat er sprake is van duidelijke gevallen van verkeerde informatie of schadelijke inhoud die onopgemerkt blijft bij gebrek aan inhoudsmoderatie. Wat ontbreekt in de discussie is hoe ogenschijnlijk nauwkeurige informatie wordt geselecteerd, ingekaderd en benadrukt op manieren die de publieke perceptie kunnen beïnvloeden.

Grote taalmodellen beïnvloeden geleidelijk de manier waarop mensen meningen vormen door de informatie te genereren die chatbots en virtuele assistenten in de loop van de tijd aan mensen presenteren. Deze modellen worden nu ook verwerkt in nieuwssites, sociale mediaplatforms en zoekdiensten, waardoor ze worden gemaakt primaire toegangspoort om informatie te verkrijgen.

Studies tonen aan dat het geweldige taalmodellen gebruikt meer dan alleen het doorgeven van informatie. Hun reacties kunnen op subtiele wijze bepaalde gezichtspunten benadrukken, terwijl andere worden geminimaliseerd, vaak zonder dat gebruikers het beseffen.

Communicatievooroordeel

Mijn collega, computerwetenschapper Stefan Schmidt, en ikeen technologierecht- en beleidsonderzoeker, laat in een aankomend geaccepteerd artikel in het tijdschrift Communications van de ACM zien dat grote taalmodellen vertoont communicatievooroordelen. We ontdekten dat ze de neiging kunnen hebben om bepaalde perspectieven te benadrukken, terwijl ze andere weglaten of bagatelliseren. Dergelijke vooroordelen kunnen hoe dan ook van invloed zijn op hoe gebruikers denken of voelen of de gepresenteerde informatie waar of onwaar is.

Empirisch onderzoek van de afgelopen jaren heeft dit opgeleverd benchmark-dataset dat de modeloutput correleert met partijstandpunten voor en tijdens verkiezingen. Ze onthullen variaties in de manier waarop de huidige grote taalmodellen met publieke inhoud omgaan. Afhankelijk van de persona of context die wordt gebruikt om grote taalmodellen te ontlokken, kantelen de huidige modellen subtiel naar bepaalde posities – zelfs als de feitelijke nauwkeurigheid intact blijft.

Deze verschuivingen wijzen op een nieuwe vorm van persoonsgerichte controle: de neiging van een model om de toon en nadruk aan te passen aan de waargenomen verwachtingen van de gebruiker. Wanneer de ene gebruiker zichzelf bijvoorbeeld omschrijft als milieuactivist en de andere als bedrijfseigenaar, kan een model dezelfde vraag over een nieuwe klimaatwet beantwoorden door voor elke gebruiker verschillende, maar feitelijk correcte zorgen te benadrukken. Kritiek kan bijvoorbeeld zijn dat de wet niet ver genoeg gaat in het bevorderen van milieuvoordelen en dat de wet regeldruk en nalevingskosten oplegt.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in