Home Nieuws Porno, babyhonden en snaps op sociale media: ’taskers’ struinen het internet af...

Porno, babyhonden en snaps op sociale media: ’taskers’ struinen het internet af voor AI-bedrijf dat eigendom is van Meta | AI (kunstmatige intelligentie)

1
0
Porno, babyhonden en snaps op sociale media: ’taskers’ struinen het internet af voor AI-bedrijf dat eigendom is van Meta | AI (kunstmatige intelligentie)

Tduizenden mensen zijn betaald door een bedrijf dat gedeeltelijk eigendom is van Meta om AI te trainen door te kammen Instagram accounts, het verzamelen van auteursrechtelijk beschermd werk en het transcriberen van pornografische soundtracks, kan The Guardian onthullen.

Scale AI, voor 49% gecontroleerd door het sociale media-imperium van Mark Zuckerberg, heeft experts gerecruteerd op terreinen als geneeskunde, natuurkunde en economie – vermoedelijk om kunstmatige-intelligentiesystemen op het hoogste niveau te verfijnen via een platform genaamd Outlier. ‘Word de expert waar AI van leert’, staat er websitedat reclame maakt voor flexibel werk voor mensen met sterke kwalificaties.

Maar medewerkers van het platform zeiden dat ze betrokken waren bij het schrappen van de persoonlijke gegevens van een aantal andere mensen – in wat zij beschreven als een moreel verwerpelijke oefening die aanzienlijk verschilde van systeemverfijning op hoog niveau.

Outlier wordt beheerd door Scale AI, dat contracten heeft met het Pentagon en Amerikaanse defensiebedrijven.

De voormalige CEO van Meta, Alexandr Wang, de Chief AI Officer van Meta, was dat wel beschreven door Forbes als “de jongste selfmade miljardair ter wereld”. De voormalige CEO, Michael Kratsios, is wetenschappelijk adviseur van de Amerikaanse president Donald Trump.

Een in de Verenigde Staten gevestigde Outlier-contractant zei dat gebruikers van metaplatforms, waaronder Facebook en Instagram, zouden verbaasd zijn over de manier waarop gegevens van hun accounts werden verzameld – inclusief foto’s van gebruikers en hun vrienden.

“Ik denk niet dat mensen volledig begrepen dat er iemand op een bureau in een willekeurige toestand naar je (sociale media) profiel zou kijken en dit zou gebruiken om AI-gegevens te genereren”, zeiden ze.

The Guardian sprak met tien mensen die voor Outlier hebben gewerkt om AI-systemen te trainen, sommigen al meer dan een jaar. Velen van hen hadden andere banen – als journalisten, studenten, docenten en bibliothecarissen. Maar in een economie die worstelt met de dreiging van kunstmatige intelligentie, wilden ze extra werk.

“Velen van ons waren echt wanhopig”, zei er een. “Veel mensen hadden deze baan echt nodig, inclusief ikzelf, en probeerden echt het beste van een slechte situatie te maken.”

Net als de groeiende klasse van AI-gigwerkers over de hele wereld, geloofden de meesten dat ze hun eigen vervangers hadden opgeleid. Een kunstenaar beschreef ‘geïnternaliseerde schaamte en schuldgevoelens’ als ‘die rechtstreeks bijdragen aan de automatisering van mijn hoop en dromen’.

‘Als hoopvol mens word ik boos op het systeem’, zeiden ze.

Glenn Danas, een partner bij Clarkson, een advocatenkantoor dat AI-gig-werknemers vertegenwoordigt in rechtszaken tegen Scale AI en verschillende soortgelijke platforms, schat dat honderdduizenden mensen wereldwijd nu voor platforms als Outlier werken. The Guardian sprak met werknemers van Outlier, ook wel ‘taskers’ genoemd, in Groot-Brittannië, de VS en Australië.

In interviews beschreven taskers de steeds vaker bekende vernederingen van AI-optredens: constante monitoring en stukje bij beetje, onstabiele werkgelegenheid. Schaal-AI is geweest beschuldigd het gebruik van ‘bait-and-switch’-tactieken om potentiële werknemers aan te trekken – werknemers een hoog salaris beloven tijdens de eerste aanwerving en hen vervolgens aanzienlijk minder aanbieden. Scale AI weigerde commentaar te geven op lopende rechtszaken, maar een bron zei dat de loontarieven alleen veranderen na aanwerving als werknemers andere, lagerbetaalde projecten kiezen.

Taskers werd gevraagd zich te onderwerpen aan herhaalde, onbetaalde AI-interviews om voor bepaalde taken in aanmerking te komen; sommigen waren van mening dat deze interviews werden hergebruikt om de AI te trainen. Ze zeiden allemaal dat ze voortdurend in de gaten werden gehouden via een platform genaamd ‘Hubstaff’, dat screenshots kon maken van de websites die ze bezochten terwijl ze aan het werk waren. De Scale AI-bron zei dat Hubstaff werd gebruikt om ervoor te zorgen dat bijdragers nauwkeurig werden betaald, maar niet om taskers “actief te monitoren”.

Verschillende taskers beschreven dat ze werden gevraagd pornografische soundtracks te transcriberen of afbeeldingen van dode dieren of hondenuitwerpselen te labelen. Een promovendus zei dat ze een diagram van de genitaliën van de baby moesten labelen. Er waren politieoproepen waarin gewelddadige scenario’s werden beschreven.

“Ons was al eerder verteld dat er bij deze missie geen sprake zou zijn van naaktheid. Gepast gedrag, geen verminking, zoals geen bloed”, aldus de student. “Maar dan zou ik een audiotranscript voor porno krijgen, anders zouden er alleen maar willekeurige clips zijn van mensen die om de een of andere reden overgeven.”

The Guardian heeft video’s en screenshots gezien van enkele van de taken die Outlier van zijn werknemers eiste. Deze omvatten foto’s van hondenuitwerpselen en taken met aanwijzingen als “Wat zou u doen als een gevangene weigerde bevelen op te volgen in een penitentiaire inrichting?”

Skala AI, aldus de bron, sluit taken af ​​als ongepaste inhoud wordt gemarkeerd, en werknemers hoeven niet door te gaan met taken waarbij ze zich ongemakkelijk voelen. De bron voegde eraan toe dat Scale AI geen projecten op zich nam waarbij seksueel misbruik van kinderen of pornografie betrokken was.

Er werd verwacht dat de sociale media zouden worden geschrapt, suggereerden de Outlier-werknemers. Zeven van de beschreven taken beschreven het bladeren door de Instagram- en Facebook-accounts van anderen, waarbij mensen op naam werden getagd, evenals hun locaties en hun vrienden. Sommige hiervan omvatten het trainen van AI op accounts van mensen onder de 18 jaar. De taken waren zo gestructureerd dat er nieuwe gegevens nodig waren die andere werknemers nog niet hadden geüpload, waardoor werknemers ertoe werden aangezet de sociale accounts van meer mensen te solderen.

The Guardian heeft zo’n taak gezien, waarbij werknemers foto’s moesten selecteren uit de Facebook-accounts van individuen en deze vervolgens moesten rangschikken op basis van de leeftijd van de gebruiker op de foto.

Verschillende werknemers zeiden dat ze deze taken verontrustend vonden; men probeerde ze aan te vullen door alleen foto’s van beroemdheden en publieke figuren te gebruiken. “Ik voelde me ongemakkelijk bij het toevoegen van foto’s van kinderen en zo, maar net als bij het trainingsmateriaal zouden er kinderen in zitten”, zei er een.

“Ik heb geen vrienden of familie gebruikt om (opdrachten) naar de AI te sturen”, zei een ander. “Ik begrijp dat ik het ethisch gezien niet leuk vind.”

De Scale-bron zei dat taskers de sociale-media-accounts die op ‘privé’ waren ingesteld niet beoordeelden en niet op de hoogte waren van taken waarbij de leeftijd van individuen of hun persoonlijke relaties moesten worden gelabeld. Ze voegden eraan toe dat Scale AI geen projecten ondernam met expliciet gevoelige inhoud met betrekking tot kinderen, maar gebruik maakte van de openbare sociale mediagegevens van kinderen. Werknemers logden niet in op persoonlijke Facebook- of Instagram-accounts om deze taken uit te voeren.

Voor een andere opdracht beschreven taskers het verzamelen van afbeeldingen van auteursrechtelijk beschermde kunst. Net als bij de sociale mediatraining vereiste de taak voortdurend nieuwe input: het ogenschijnlijk trainen van een AI om zijn eigen artistieke beelden te produceren. Omdat werknemers geen andere opties meer hadden, lieten ze de verhalen van artiesten en makers op sociale media wijzer worden.

The Guardian heeft documentatie voor deze opdracht gezien, waaronder door AI gegenereerde schilderijen van ‘een Indiaanse verzorger’ en de oproep: ‘Gebruik GEEN door AI gegenereerde afbeeldingen. Kies alleen handgetekende, geschilderde of geïllustreerde kunstwerken gemaakt door menselijke kunstenaars.’

Scale AI vroeg de bijdragers niet om auteursrechtelijk beschermde kunst te gebruiken om taken uit te voeren, aldus de bron, en verwierp werk dat deze norm schond.

Taskers uitten ook hun onzekerheid over waar ze AI voor konden trainen – en hoe hun bijdragen zouden worden gebruikt.

“Het lijkt erop dat het labelen van diagrammen iets is dat een AI al kan doen, dus ik ben erg benieuwd waarom we dode dieren nodig hebben”, zei iemand.

Scale AI heeft grote technologiebedrijven als Google, Meta en OpenAI, evenals het Amerikaanse ministerie van Defensie en de regering van Qatar. Het voldoet aan een behoefte die steeds groter wordt naarmate AI-modellen groter worden: aan nieuwe, gelabelde gegevens die kunnen worden gebruikt om ze te trainen.

Taskers beschreven de interactie met ChatGPT en Claude of het gebruik van gegevens uit Meta om bepaalde taken uit te voeren; sommigen dachten dat ze misschien Meta’s nieuwe model, Avocado, trainden.

Meta en Anthropic hebben niet gereageerd op een verzoek om commentaar. OpenAI zei dat het in juni 2025 stopte met werken met Scale AI en dat de “gedragscode voor leveranciers duidelijke verwachtingen schetst voor de ethische en eerlijke behandeling van alle werknemers”.

De meeste taskers met wie de Guardian sprak, accepteren nog steeds taken op het Outlier-platform. Het salaris is onstabiel; er zijn af en toe massale ontslagen. Maar nu de AI-toekomst snel dichterbij komt, denken ze dat er misschien geen andere keus is.

“Ik moet positief zijn over AI, omdat het alternatief niet geweldig is”, zei iemand. “Dus ik denk dat de dingen uiteindelijk wel zullen worden opgelost.”

Een woordvoerder van Scale AI zei: “Outlier biedt flexibel, projectmatig werk met transparante beloning. Bijdragers kiezen wanneer en hoe ze willen deelnemen, en de beschikbaarheid varieert op basis van de projectbehoeften. We horen regelmatig van zeer bekwame bijdragers die de flexibiliteit en mogelijkheid waarderen om hun expertise op het platform toe te passen.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in