Home Nieuws AI-hyperscalers moeten het vertrouwen herstellen – hier leest u hoe

AI-hyperscalers moeten het vertrouwen herstellen – hier leest u hoe

15
0
AI-hyperscalers moeten het vertrouwen herstellen – hier leest u hoe

Het is moeilijk om de conclusie te vermijden dat de markt voor kunstmatige intelligentie en de daaraan verbonden industrieën zijn overmatig opgeblazen. In 2025 waren slechts vijf hyperscalers – Alphabet, Meta, Microsoft, Amazon en Oracle – goed voor een kapitaalinvestering van 399 miljard dollardie de komende jaren zal oplopen tot ruim 600 miljard dollar per jaar. In de eerste negen maanden van vorig jaar was er sprake van een reële bbp-groei in de Verenigde Staten 2,1%maar zou 1,5% zijn geweest zonder de bijdrage van AI-investeringen.

Deze verslaving is gevaarlijk. In een recente notitie van Deutsche Bank werd de vraag gesteld of dit wel een zegen zou kunnen zijn belwijzend op de historisch ongekende concentratie van de sector, die nu ongeveer 35% van de totale Amerikaanse marktkapitalisatie voor zijn rekening neemt, waarbij de tien Amerikaanse bedrijven meer dan 20% van de mondiale aandelenmarktkapitalisatie voor hun rekening nemen. Als een dergelijke investering geen enkel voordeel zou opleveren, zou het een mislukking van ongekende proporties zijn.

In die van hen boek Macht en vooruitgangNobelprijswinnende economen Daron Acemoglu en Simon Johnson vertellen over de catastrofale mislukking van het Franse Panamakanaalproject aan het einde van de 19e eeuw. Duizenden investeerders, groot en klein, verloren hun fortuin, en 20.000 mensen die aan het project werkten, stierven voor niets. Het probleem, zo schrijven Acemoglu en Simon, was dat de visie op vooruitgang niet alomvattend was – en het onvermogen om feedback van anderen op te nemen resulteerde in besluitvorming van slechte kwaliteit. Zoals zij opmerken: “wat u met technologie doet, hangt af van de richting van de vooruitgang die u in kaart probeert te brengen en wat u als acceptabele kosten beschouwt.”
150 jaar later is een aanzienlijk deel van de Amerikaanse economie ook afhankelijk van een kleine groep grote visionaire, ambitieuze investeerders en techno-optimisten. Hun vermogen om hun critici te negeren en degenen die gedwongen worden de kosten van hun missie te dragen buitenspel te zetten, riskeert catastrofale gevolgen. Betrouwbare AI-systemen kunnen niet worden opgeroepen marketing magie. We moeten ervoor zorgen dat degenen die deze systemen bouwen, implementeren en ermee werken, inspraak kunnen hebben in de manier waarop we de ontwikkeling van deze technologie beheren.

Wantrouwen en een algemeen gebrek aan optimisme

Uit gegevens blijkt dat er dringend een nieuwe koers moet worden uitgezet. Zelfs een genereuze analyse van de markt voor generatieve AI-producten zou waarschijnlijk moeite hebben om aan te tonen hoe een fatsoenlijk rendement op de enorme investering in kapitaal realistisch is. EEN laatste rapport van MIT ontdekte dat ondanks $30-40 miljard aan bedrijfsinvesteringen in GenAI, 95% van de organisaties nul rendement behaalt. Het is moeilijk om je een andere industrie voor te stellen die zoveel kapitaal ophaalt, ondanks dat er zo weinig wordt geproduceerd. Maar dit lijkt de echte superkracht van Sam Altman te zijn die Brian Merchant heeft uitgebreid gedocumenteerd.

Dit gaat gepaard met een aanzienlijk wantrouwen en een algemeen gebrek aan optimisme bij gewone mensen over het potentieel van deze technologie. Uit het meest uitgebreide mondiale onderzoek onder 48.000 mensen in 47 landen blijkt KPMG ontdekte dat 54% van de respondenten huiverig is om AI te vertrouwen. Ze willen ook meer regelgeving: 70% van de respondenten zegt dat regelgeving noodzakelijk is, maar slechts 43% vindt dat de huidige wetgeving voldoende is. Het rapport concludeert dat de meest veelbelovende weg naar het verbeteren van het vertrouwen in AI het versterken van waarborgen, regelgeving en wetten was om veilig AI-gebruik te bevorderen.

Dit staat duidelijk in schril contrast met het standpunt van de regering-Trump, die herhaaldelijk de regulering van de industrie heeft geformuleerd als ‘ een obstakel voor innovatie. Maar het vertrouwenstekort kan niet zomaar worden opgeheven. Het vormt een aanzienlijke structurele barrière voor de verspreiding en waardevolle verspreiding van nieuwe technologieën.

Een van de belangrijkste bevindingen van het MIT-rapport is dat de kleine subgroep van bedrijven er daadwerkelijk naar heeft gekeken productiviteit De winst uit generatieve AI-producten kwam doordat “ze adaptieve, ingebedde systemen bouwen die leren van feedback.” Sterk gecentraliseerde aankoopbeslissingen zouden er waarschijnlijk toe leiden dat van werknemers kant-en-klare producten moesten worden gebruikt die niet geschikt waren voor de zakelijke omgeving en die output genereerden die werknemers wantrouwden, vooral voor taken met een hogere inzet, wat resulteerde in omzeilingen of een afnemende bezettingsgraad. Het probleem is dat deze tools niet kunnen leren en zich niet kunnen aanpassen. Aan de andere kant zijn er te weinig mogelijkheden voor managers om die feedback te ontvangen of op zinvolle wijze te verwerken in de modelontwikkeling en -aanpassing.

Het verhaal van politici en mediacommentatoren dat de AI-industrie vol visionaire leiders zit, wijst onbedoeld op een belangrijke reden waarom deze producten falen. Vertrouwen in AI-systemen kan alleen worden bereikt als er zowel naar feedback wordt gezocht als wordt gereageerd – wat een aanzienlijke uitdaging is voor de hyperscalers omdat hun basismodellen minder goed in staat zijn zich aan te passen aan en te reageren op unieke en gevarieerde contexten. Tenzij we de ontwikkeling en het beheer hiervan decentraliseren, kunnen de voordelen ongrijpbaar blijven.

De mening van de arbeiders

Er liggen nuttige ideeën rond die kunnen helpen een ander pad van technologische vooruitgang te bewandelen. Human Technology Institute van de Technische Universiteit van Sydney gepubliceerd onderzoek over hoe werknemers worden behandeld als onzichtbare toeschouwers bij de inzet van AI-systemen. Door middel van diepgaande, kwalitatieve consultaties met verpleegkundigen, werknemers in de detailhandel en werknemers in de publieke sector om feedback te verzamelen over geautomatiseerde systemen en hun impact op hun werk.

In plaats van een achterlijke of nutteloze houding ten opzichte van AI te tonen, hebben werknemers genuanceerde en constructieve bijdragen geleverd aan de impact op hun werkplek. Werknemers in de detailhandel spraken bijvoorbeeld over de moeilijkheden van geautomatiseerde systemen die werknemers ontmoedigden en hun discretie beperkten: “In tegenstelling tot een productielijn is de detailhandel een onvoorspelbare omgeving. Er zijn dingen die klanten worden genoemd en die een mooie gestage stroom in de weg staan.”

Een verpleegkundige merkte op dat “de toenemende inzet van geautomatiseerde systemen en alarmen ernstige alarmmoeheid onder verpleegkundigen veroorzaakt. Wanneer een alarm (AI-systeem) afgaat, hebben we de neiging dit te negeren of niet serieus te nemen. Of onmiddellijk terzijde te schuiven om het alarm te stoppen.”

Je zou denken dat meer investeringen in dergelijke systemen het probleem van alarmmoeheid zouden bestrijden. Maar zonder de inbreng van medewerkers wordt dit gemakkelijk als een probleem over het hoofd gezien. Het resultaat is, zoals een overheidsfunctionaris het uitdrukte, dat op werkplekken waar kanalen voor feedback van werknemers ontbreken, een noodzakelijke kwaliteit van werknemers ‘het geschenk van de oplossing’ is.

Traditioneel zou dit soort overleg en betrokkenheid plaatsvinden via werknemersorganisaties. Maar nu het vakbondspercentage in de VS onder de 10% daalt, wordt dit niet alleen een probleem voor werknemers, maar ook voor werkgevers, die weinig methoden overhouden om op zinvolle wijze met hun personeel om te gaan.

Sommige vakbonden lopen niettemin voorop in deze kwestie en kunnen, bij gebrek aan politiek leiderschap, de beste hoop zijn om verandering teweeg te brengen. De AFL-CIO heeft een veelbelovende modelwet ontwikkeld om werknemers tegen te beschermen kwaadaardige AI-systemen. Het voorstel richt zich op het beperken van het gebruik van werknemersgegevens om modellen te trainen, en op het introduceren van wrijving in de automatisering van essentiële beslissingen, zoals werkgelegenheid en ontslag. Het benadrukt ook dat werknemers het recht moeten krijgen om te weigeren de richtlijnen van AI-systemen op te volgen, waarbij in wezen feedbackloops worden ingebouwd voor als de automatisering misgaat. Het recht om te weigeren is een essentiële fail-safe die ook een cultuur van kritische betrokkenheid bij technologie kan cultiveren en als basis voor vertrouwen kan dienen.

Bedrijven mogen de standpunten van werknemers negeren, maar werknemers kunnen uiteindelijk op andere manieren worden gehoord. Uit recente onderzoeken blijkt dat 31% van de werknemers dit toegeeft actief saboteren de AI-strategie van hun bedrijf, en voor jongere werknemers zijn de cijfers zelfs nog hoger. Zelfs bedrijven die er niet in slagen om feedback van werknemers te vragen, kunnen deze uiteindelijk toch ontvangen.

Onze huidige technologische vooruitgang is afhankelijk van beperkte inzichten in expertise en te veel van kleine aantallen zeer grote bedrijven. We moeten gaan luisteren naar de mensen die dagelijks met deze technologie werken om problemen uit de echte wereld op te lossen. Deze decentralisatie van macht is een noodzakelijke stap als we technologie willen die zowel betrouwbaar als efficiënt is.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in