Home Nieuws Het grootste probleem van AI is niet intelligentie. Het is implementatie

Het grootste probleem van AI is niet intelligentie. Het is implementatie

4
0
Het grootste probleem van AI is niet intelligentie. Het is implementatie

Welkom bij AI Gedecodeerd, Snel bedrijf’s wekelijkse nieuwsbrief met het belangrijkste nieuws ter wereld AI. Je kunt tekenen om deze nieuwsbrief wekelijks per e-mail te ontvangen hier.

De AI-‘wapenwedloop’ is wellicht meer een ‘arm-twist’

De grote AI Bedrijven vertellen ons dat kunstmatige intelligentie binnenkort elk aspect van het bedrijfsleven in elke sector zal hervormen. Velen van ons vragen zich af wanneer het daadwerkelijk zal gebeuren in de echte wereld, wanneer de zogenaamde ‘AI-start’ zal komen. Maar omdat er zoveel variabelen zijn, zoveel verschillende soorten organisaties, banen en werknemers, is er geen bevredigend antwoord. Bij gebrek aan hard bewijs baseren we ons op anekdotes: succesverhalen van oprichters, influencers en early adopters die posten op X of TikTok.

Zowel economen als beleggers willen graag de ‘wanneer’-vraag beantwoorden. Ze willen weten hoe snel de effecten van AI zich zullen manifesteren en hoeveel kostenbesparingen dat zal opleveren productiviteit groei die het zal genereren. Politici zijn gefocust op risico’s: hoeveel banen zullen verloren gaan en welke? Wat zullen de stroomafwaartse effecten zijn op het sociale vangnet?

Business schools en adviesbureaus hebben zich tot onderzoek gewend om antwoorden op deze vragen te vinden. Een van de meest recente inspanningen was a MIT-studie in 2025waaruit bleek dat ondanks de uitgaven tussen de $30 en $40 miljard aan generatieve kunstmatige intelligentie, 95% van de grote bedrijven “geen meetbare impact op de bedrijfsresultaten (winst en verlies) had gezien.

Recent onderzoek schetst een wat rooskleuriger beeld. EEN recent onderzoek van de Wharton School ontdekte dat drie van de vier bedrijfsleiders “een positief rendement op AI-investeringen rapporteerden, en 88% van plan was de uitgaven het komende jaar te verhogen.”

Ik heb het gevoel dat de timing van de start van AI moeilijk te begrijpen is, omdat de adoptie zo ongelijkmatig is en sterk afhankelijk is van de toepassing van AI. Softwareontwikkelaars zien bijvoorbeeld duidelijke efficiëntiewinsten door AI-codeeragenten, en retailers profiteren van slimmere klantenservice-chatbots die meer problemen automatisch kunnen oplossen.

Het hangt ook af van de cultuur van de organisatie. Bedrijven met duidelijke strategieën, goede data, enkele PhD’s en interne AI-enthousiastelingen boeken echte vooruitgang. Ik vermoed dat veel oudere, minder technologiegeoriënteerde bedrijven in de pilotmodus blijven steken en moeite hebben om hun ROI te bewijzen.

Ander onderzoeken hebben aangetoond dat menselijke werknemers in de beginfase van de implementatie veel tijd moeten investeren in het corrigeren of trainen van AI-tools, wat de netto productiviteitswinst aanzienlijk beperkt. Anderen laten zien dat werknemers in AI-forward organisaties aanzienlijke productiviteitsverbeteringen zien, maar daardoor ambitieuzer worden en uiteindelijk werk meerniet minder.

De MIT-onderzoekers voegden een interessante disclaimer toe aan hun onderzoeksresultaten. Hun ontnuchterende bevindingen, zo merkten ze op, weerspiegelden niet de beperkingen van de AI-tools zelf, maar eerder het feit dat organisaties vaak jaren nodig hebben om hun mensen en processen aan te passen aan de nieuwe technologie.

Dus terwijl AI-bedrijven de steeds groeiende intelligentie in hun modellen voortdurend ophemelen, gaat het er uiteindelijk om hoe snel grote organisaties deze tools in hun dagelijkse werk kunnen integreren. In die zin is de AI-revolutie meer een armwending dan een wapenwedloop. De weg naar ROI gaat via mensen en cultuur. En het menselijke knelpunt kan uiteindelijk bepalen wanneer de AI-industrie en haar financiers rendement gaan zien op hun enorme investeringen.

Uit een nieuwe benchmark blijkt dat AI het grootste deel van het digitale concertwerk niet aankan

AI-bedrijven blijven in hoog tempo slimmere modellen uitbrengen. Maar de belangrijkste manier van de industrie om vooruitgang te bewijzen (benchmarks) geeft niet volledig weer hoe goed AI-agenten presteren bij projecten in de echte wereld. Een relatief nieuwe benchmark genaamd Externe arbeidsindex (RLI) probeert deze kloof te dichten door AI-agenten te testen op projecten die vergelijkbaar zijn met die aan externe contractanten. Deze omvatten taken binnen de game-ontwikkeling, productontwerpen video-animatie. Sommige van de taken, gebaseerd op daadwerkelijke contractbanen, zouden menselijke werknemers meer dan 100 uur kosten om te voltooien en zouden meer dan $ 10.000 aan arbeid kosten.

Op dit moment doen enkele van de beste modellen in de branche het niet zo goed op RLI. In tests die eind vorig jaar werden uitgevoerd, konden AI-agenten, aangedreven door modellen van top AI-ontwikkelaars, waaronder OpenAI, Anthropic, Google en anderen, nauwelijks een van de projecten voltooien. De beste agent, aangedreven door het Opus 4.5-model van Anthropic, voltooide slechts 3,5% van de taken. (Anthropic heeft sindsdien Opus 4.6 uitgebracht, maar is nog niet geëvalueerd op RLI.)

De test plaatst de vraag naar het huidige nut van agenten in een ander licht en kan enkele van de meest bullish beweringen over de effectiviteit van agenten uit de AI-industrie temperen.

De vervelende ‘directeuren’ van Silicon Valley duiken opnieuw op en irriteren het Witte Huis en het Pentagon

Het Pentagon en het Witte Huis wel grote gek bij het veiligheidsbewuste AI-bedrijf Anthropic. Waarom? Omdat Anthropic niet wil dat zijn AI wordt gebruikt om mensen te targeten door autonome drones of voor massale surveillance van Amerikaanse burgers.

Anthropic heeft er nu een Contract ter waarde van 200 miljoen dollar staat het gebruik van zijn Claude-chatbot en modellen van federale uitzendkrachten toe. Het was een van de eerste bedrijven die toestemming kregen om met gevoelige overheidsgegevens te werken, en het eerste AI-bedrijf dat een gespecialiseerd model voor inlichtingenwerk bouwde. Maar het bedrijf hanteert al lange tijd duidelijke regels in zijn gebruikershandleidingen dat zijn modellen niet voor schade mogen worden gebruikt.

Het Pentagon is van mening dat het, na betaling voor de technologie, deze voor elk legaal gebruik moet kunnen gebruiken. Maar aanvaardbaar gebruik van AI verschilt van traditionele software. Het potentieel van AI voor autonomie maakt het inherent gevaarlijker, en de risico’s ervan nemen toe naarmate de bestrijding ervan dichterbij komt.

Als het geschil niet wordt opgelost, kan het contract van Anthropic met de regering mogelijk in gevaar komen. Maar het kan nog erger worden. Afgelopen weekend zei het Pentagon dat het overwoog om Anthropic te classificeren als een ‘toeleveringsketenrisico’, wat zou betekenen dat de regering Anthropic ongeveer net zo betrouwbaar acht als Huawei. Overheidscontractanten van allerlei aard zouden onder druk worden gezet om te stoppen met het gebruik van Anthropic.

De beperkingen van Anthropic voor bepaalde defensiegerelateerde toepassingen worden uiteengezet in haar Grondweteen document dat de waarden en het gedrag beschrijft dat zijn modellen moeten volgen. Claude, zo staat er, zou een ‘werkelijk goede, wijze en deugdzame agent’ moeten zijn. “We willen dat Claude doet wat een diep en vakkundig ethisch persoon zou doen in de positie van Claude.” Voor critici in de regering-Trump vertaalt die taal zich in een mandaat voor waakzaamheid.

Al het stof gaat terug tot 2018, toen Google het liet vallen Project Maven contract met de overheid nadat werknemers in opstand kwamen tegen de technologie van Google die werd gebruikt om mensen in gevechten aan te vallen. Google werkt nog steeds samen met de overheid en heeft in de loop der jaren haar ethische richtlijnen verzacht.

De waarheid is dat technologiebedrijven niet meer zo vasthouden aan hun principes als vroeger. Velen hebben zich in een soort patronagerelatie met het huidige regime gevestigd, een relatief goedkope manier om MAGA-reactie te voorkomen en tegelijkertijd de aandeelhouders tevreden te houden. Antropisch lijkt op zijn manier een andere koers te gaan varen, en lijdt daar financieel onder. Maar op de lange termijn kan het bedrijf enig respect, vertrouwen en welwillendheid verdienen van veel consumenten en toezichthouders. Voor een bedrijf wiens product net zo krachtig en potentieel gevaarlijk is als consumenten-AI, zou dat veel kunnen betekenen.

Meer AI-dekking van Snel bedrijf:

Wilt u exclusieve rapportage en trendanalyse over technologie, bedrijfsinnovatie, de toekomst van werk en design? Schrijf je in voor Snel bedrijf Premie.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in