Home Nieuws Maak kennis met de AI-werkers die hun vrienden en familie vertellen om...

Maak kennis met de AI-werkers die hun vrienden en familie vertellen om weg te blijven van AI | Kunstmatige intelligentie (AI)

22
0
Maak kennis met de AI-werkers die hun vrienden en familie vertellen om weg te blijven van AI | Kunstmatige intelligentie (AI)

KRista Pawloski herinnert zich het enige beslissende moment dat haar kijk op ethiek vorm gaf kunstmatige intelligentie. Als AI-medewerker bij Amazon Mechanical Turk – een marktplaats waar bedrijven werknemers kunnen inhuren om taken uit te voeren zoals het invoeren van gegevens of het matchen van een AI-prompt met de output ervan – besteedt Pawloski zijn tijd aan het modereren en beoordelen van de kwaliteit van door AI gegenereerde tekst, afbeeldingen en video’s, evenals aan het controleren van feiten.

Ongeveer twee jaar geleden, terwijl ze vanuit huis aan haar eettafel werkte, nam ze een baan aan waarbij ze tweets identificeerde als racistisch of niet. Toen ze een tweet kreeg met de tekst ‘Luister naar dat maancricket-zingen’, klikte ze bijna op de knop ‘nee’ voordat ze besloot de betekenis van het woord ‘mooncricket’ te controleren, wat tot haar verbazing een racistische smet tegen zwarte Amerikanen was.

“Ik zat daar te denken hoe vaak ik dezelfde fout had kunnen maken zonder mezelf te betrappen”, zei Pawloski.

De potentiële omvang van haar eigen fouten en die van duizenden andere werknemers zoals zij zorgden ervoor dat Pawloski in een spiraal terechtkwam. Hoeveel anderen hadden onbewust aanstootgevend materiaal voorbij laten glippen? Of erger nog, ervoor kiezen om het toe te staan?

Na jarenlang getuige te zijn geweest van de innerlijke werking van AI-modellen, besloot Pawloski om niet langer persoonlijk generatieve AI-producten te gebruiken en zegt hij tegen zijn familie dat ze deze moeten vermijden.

“In mijn huis is het een nee-nee”, zei Pawloski, verwijzend naar hoe ze haar tienerdochter geen hulpmiddelen laat gebruiken zoals ChatGPT. En met de mensen die ze sociaal ontmoet, moedigt ze hen aan om de AI iets te vragen waar ze veel van weten, zodat ze de tekortkomingen ervan kunnen ontdekken en zelf kunnen begrijpen hoe feilbaar de technologie is. Pawloski zei dat elke keer dat ze een menu met nieuwe taken ziet waaruit ze kan kiezen op de Mechanical Turk-site, ze zich afvraagt ​​of er een manier is waarop wat ze doet kan worden gebruikt om mensen pijn te doen. Vaak is het antwoord ja, zegt ze.

Een verklaring van Amazone genoemde werknemers kunnen naar eigen goeddunken kiezen welke taken ze willen uitvoeren en de details van een taak bekijken voordat ze deze accepteren. Volgens Amazon verstrekken aanvragers de details van een bepaalde taak, zoals de toegewezen tijd, het salaris en het instructieniveau.

“Amazon Mechanical Turk is een marktplaats die bedrijven en onderzoekers, onderzoekers genoemd, verbindt met werknemers om online taken uit te voeren, zoals het taggen van afbeeldingen, het beantwoorden van enquêtes, het transcriberen van tekst of het beoordelen van AI-uitvoer”, zegt Montana MacLachlan, een woordvoerder van Amazon.

Pawloski is niet de enige. Een dozijn AI-recensentenWerknemers die de antwoorden van een AI controleren op nauwkeurigheid en basis, vertelden de Guardian dat ze, nadat ze zich bewust waren geworden van hoe chatbots en beeldgeneratoren werken en hoe verkeerd hun output kan zijn, er bij hun vrienden en familie op zijn gaan aandringen om helemaal geen generatieve AI te gebruiken – of op zijn minst te proberen hun dierbaren op te leiden om deze zorgvuldig te gebruiken. Deze trainers werken aan verschillende AI-modellen: Google’s Gemini, Elon Musk’s Grok, andere populaire modellen en verschillende minder of minder bekende bots.

Een werknemer, een AI-beoordelaar met Googlen die de antwoorden evalueert die worden gegenereerd door de AI-overzichten van Google Search, zegt dat ze AI zo spaarzaam mogelijk probeert te gebruiken, of helemaal niet. Vooral de benadering van het bedrijf van door AI gegenereerde antwoorden op vragen over gezondheid heeft haar doen twijfelen, zei ze, en vroeg om anonimiteit uit angst voor professionele represailles. Ze zei dat ze zag hoe haar collega’s kritiekloos AI-gegenereerde antwoorden op medische kwesties beoordeelden en dat ze de taak kreeg om dergelijke vragen zelf te beoordelen, ondanks een gebrek aan medische opleiding.

Thuis heeft ze haar 10-jarige dochter verboden chatbots te gebruiken. “Ze moet eerst kritisch denken leren, anders kan ze niet zeggen of het resultaat goed is”, aldus de recensent.

“Beoordelingen zijn slechts een van de vele verzamelde datapunten die ons helpen te meten hoe goed onze systemen werken, maar hebben geen directe invloed op onze algoritmen of modellen”, luidt een verklaring van Google. “We hebben ook een aantal sterke beveiligingen ingevoerd om informatie van hoge kwaliteit in onze producten te garanderen.”

Bot-watchers luiden alarm

Deze mensen maken deel uit van een wereldwijd personeelsbestand van tienduizenden mensen die ervoor zorgen dat chatbots menselijker klinken. Bij het controleren van AI-reacties doen ze ook hun best om ervoor te zorgen dat een chatbot geen onnauwkeurige of schadelijke informatie lekt.

Maar als de mensen die AI geloofwaardig maken degenen zijn die er het minst vertrouwen in hebben, zeggen experts dat dit een veel groter probleem aangeeft.

“Het laat zien dat er waarschijnlijk prikkels zijn om langzame, zorgvuldige validatie uit te voeren en op te schalen en dat de feedbackrechters worden genegeerd”, zegt Alex Mahadevan, directeur van MediaWise bij Poynter, een mediageletterdheidsprogramma. “Dat betekent dus dat wanneer we de definitieve (versie van) de chatbot zien, we dezelfde soort fouten kunnen verwachten die zij ervaren. Dat belooft niet veel goeds voor een publiek dat steeds vaker naar LLM’s gaat voor nieuws en informatie.”

AI-werknemers zeggen dat ze de modellen waaraan ze werken wantrouwen vanwege de consistente nadruk op een snelle doorlooptijd die ten koste gaat van de kwaliteit. Brook Hansen, een AI-medewerker bij Amazon Mechanical Turk, legde uit dat ze generatieve AI als concept weliswaar niet wantrouwt, maar ook de bedrijven die deze tools ontwikkelen en implementeren niet vertrouwt. Voor haar was het grootste keerpunt het besef hoe weinig steun de mensen die deze systemen trainen krijgen.

“Er wordt van ons verwacht dat we helpen het model te verbeteren, maar toch krijgen we vaak vage of onvolledige instructies, minimale training en onrealistische deadlines voor het voltooien van taken”, zegt Hansen, die sinds 2010 datawerk doet en heeft geholpen bij het trainen van enkele van de populairste AI-modellen van Silicon Valley. “Als werknemers niet zijn uitgerust met de informatie, middelen en tijd die we nodig hebben, hoe kunnen de resultaten dan veilig, accuraat of ethisch zijn? Voor mij is de kloof tussen wat er van ons wordt verwacht en wat we daadwerkelijk krijgen om het werk te doen een duidelijk teken dat bedrijven snelheid en winst belangrijker vinden dan verantwoordelijkheid en kwaliteit.”

Het uitdelen van valse informatie op een zelfverzekerde toon in plaats van een antwoord te geven terwijl deze niet direct beschikbaar is, is een grote tekortkoming van generatieve AI, zeggen experts. Uit een audit van de top 10 generatieve AI-modellen, waaronder ChatGPT, Gemini en Meta’s AI, door de non-profit mediageletterdheidsorganisatie NewsGuard bleek dat het non-responspercentage van chatbots daalde van 31% in augustus 2024 naar 0% in augustus 2025. Tegelijkertijd is de kans groot dat de valse informatie van chatbots zich herhaalt. bijna verdubbeld van 18% naar 35%NewsGuard gevonden. Geen van beide bedrijven reageerde destijds op het verzoek van NewsGuard om commentaar.

“Ik zou geen enkel aanbod van feiten (de bot) vertrouwen zonder ze zelf te controleren – het is gewoon niet betrouwbaar”, zei een andere Google AI-recensent, die om anonimiteit vroeg vanwege een geheimhoudingsovereenkomst die ze met het aannemersbedrijf had ondertekend. Ze waarschuwt mensen tegen het gebruik ervan, in navolging van het punt van een andere recensent dat mensen met slechts oppervlakkige kennis ook belast zijn met medische en gevoelige ethische kwesties. “Dit is geen ethische robot. Het is gewoon een robot.”

sla de vorige nieuwsbriefcampagne over

“We maken grapjes dat (chatbots) geweldig zouden zijn als we ze konden laten stoppen met liegen”, zei een AI-supervisor die met Gemini, ChatGPT en Grok heeft gewerkt en om anonimiteit vroeg na het ondertekenen van vertrouwelijkheidsovereenkomsten.

‘Afval erin, afval eruit’

Een andere AI-beoordelaar die begin 2024 begon met het beoordelen van antwoorden voor Google-producten, kreeg na zes maanden het gevoel dat hij de AI niet meer kon vertrouwen. Hij kreeg de taak om het model te verlagen, wat inhield dat hij de AI van Google verschillende vragen moest stellen die de beperkingen of zwakheden ervan aan het licht zouden brengen. Deze medewerker, die een diploma geschiedenis had, stelde voor de opdracht de modelhistorische vragen.

“Ik vroeg hem naar de geschiedenis van het Palestijnse volk, en ik kreeg geen antwoord, hoe ik de vraag ook herformuleerde”, herinnerde deze arbeider zich, die om anonimiteit vroeg nadat hij een geheimhoudingsverklaring had ondertekend. “Toen ik hem vroeg naar de geschiedenis van Israël, kreeg ik zonder problemen een zeer uitgebreid overzicht. We hebben het gemeld, maar niemand leek zich om Google te bekommeren.” Toen Google specifiek werd gevraagd naar de door de recensent beschreven situatie, gaf Google geen verklaring af.

Voor deze Googler is de grootste zorg bij AI-training de feedback die beoordelaars zoals hij op AI-modellen geven. “Nadat ik had gezien hoe slecht de gegevens zijn om het model te trainen, wist ik dat het absoluut onmogelijk was om het model ooit op de juiste manier te trainen”, zei hij. Hij gebruikte de uitdrukking ‘garbage in, garbage out’, een principe in computerprogrammering dat uitlegt dat als je slechte of onvolledige gegevens in een technisch systeem invoert, de uitvoer ook dezelfde fouten zou bevatten.

De recensent vermijdt het gebruik van generatieve AI en heeft ook “al mijn familieleden en vrienden geadviseerd om geen nieuwere telefoons te kopen waarin AI is geïntegreerd, om zich indien mogelijk te verzetten tegen automatische updates die AI-integratie toevoegen, en om AI niets persoonlijk te vertellen”, zei hij.

Breekbaar, niet futuristisch

Telkens wanneer het onderwerp AI ter sprake komt in sociale gesprekken, herinnert Hansen mensen eraan dat AI geen magie is – hij legt het leger van onzichtbare werkers erachter uit, de onbetrouwbaarheid van informatie en hoe het is schadelijk voor het milieu.

“Als je eenmaal ziet hoe deze systemen met elkaar verweven zijn – de vooroordelen, de gehaaste tijdlijnen, de voortdurende compromissen – zie je AI niet langer als futuristisch, maar begin je het als kwetsbaar te zien”, zei Adio Dinika, die het werk achter AI bestudeert bij het Distributed AI Research Institute, over de mensen die achter de schermen werken. “Mijn ervaring is dat het altijd mensen zijn die AI niet begrijpen, die erdoor betoverd raken.”

De AI-werkers die met The Guardian spraken, zeiden dat ze zich inzetten voor het maken van betere keuzes en het vergroten van het bewustzijn daarover, waarbij ze vooral het idee benadrukten dat AI, in de woorden van Hansen, “slechts zo goed is als wat erin wordt gestopt, en wat erin wordt gestopt niet altijd de beste informatie is”. Zij en Pawloski gaven in mei een presentatie op de voorjaarsconferentie van de Michigan Association of School Boards. In een zaal vol schoolbestuursleden en bestuurders uit de hele staat spraken ze over de ethische en ecologische implicaties van kunstmatige intelligentie, in de hoop een gesprek op gang te brengen.

“Veel aanwezigen waren geschokt door wat ze leerden, aangezien de meesten nog nooit hadden gehoord van de menselijke arbeid of de ecologische voetafdruk achter AI”, aldus Hansen. “Sommigen waren dankbaar voor het inzicht, terwijl anderen defensief of gefrustreerd waren en ons ervan beschuldigden ‘onheil en somberheid’ te zijn over technologie die zij als opwindend en vol potentieel zagen.”

Pawloski vergelijkt de ethiek van AI met die van de textielindustrie: als mensen niet wisten hoe goedkoop kleding werd gemaakt, vonden ze graag de beste deal en bespaarden ze een paar kronen. Maar toen de sweatshopverhalen naar buiten kwamen, hadden consumenten een keuze en wisten ze dat ze vragen moesten stellen. Ze gelooft dat dit hetzelfde is voor AI.

“Waar komen uw gegevens vandaan? Is dit model gebaseerd op inbreuk op het auteursrecht? Werden werknemers eerlijk gecompenseerd voor hun werk?” zei ze. “We beginnen deze vragen nog maar net te stellen, dus in de meeste gevallen heeft het publiek geen toegang tot de waarheid. Maar net als in de textielindustrie is verandering mogelijk als we blijven vragen en aandringen.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in