- Claude Opus 4.6 versloeg alle rivaliserende AI-modellen in een gesimuleerde automaatuitdaging van een jaar
- Het model verhoogde de winst door de regels tot het breekpunt te buigen
- Claude Opus vermeed restituties en coördineerde onder meer de prijzen
Antropisch’s nieuwste model van Claude is een zeer meedogenloze, maar succesvolle kapitalist. Claude Opus 4.6 is het eerste AI-systeem dat betrouwbaar passeren de automaattest, een simulatie ontworpen door onderzoekers van Anthropic en de onafhankelijke onderzoeksgroep Andon Labs om te evalueren hoe goed de AI een virtueel automaatbedrijf runt gedurende een heel gesimuleerd jaar.
Het model presteerde ruimschoots beter dan al zijn concurrenten. En dat gebeurde met tactieken die precies deze kant van wreedheid hadden en met een meedogenloze minachting voor de consequenties. Het liet zien waartoe autonome AI-systemen in staat zijn als ze een eenvoudig doel krijgen en voldoende tijd krijgen om dat na te streven.
De automaattest is ontworpen om te zien hoe goed moderne AI-modellen omgaan met langetermijntaken die zijn opgebouwd uit duizenden kleine beslissingen. De test meet doorzettingsvermogen, planning, onderhandeling en het vermogen om meerdere elementen tegelijkertijd te coördineren. Anthropic en andere bedrijven hopen dat dit soort testen hen zal helpen AI-modellen vorm te geven die in staat zijn taken uit te voeren zoals het plannen en beheren van complex werk.
De automaattest is specifiek overgenomen uit een praktijkexperiment bij Anthropic, waar het bedrijf een echte automaat in zijn kantoor plaatste en een oudere versie van Claude vroeg om deze te laten draaien. Die versie had het zo moeilijk dat medewerkers nog steeds met de misstappen komen. Op een gegeven moment hallucineerde het model haar eigen fysieke aanwezigheid en vertelde klanten dat ze hen persoonlijk wilde ontmoeten, gekleed in een blauwe blazer en een rode stropdas. Het beloofde restituties, die het nooit heeft verwerkt.
AI-automaat
Dit keer werd het experiment volledig in simulatie uitgevoerd, waardoor de onderzoekers meer controle kregen en de modellen op volle snelheid konden draaien. Elk systeem kreeg een eenvoudige instructie: maximaliseer uw eindbanksaldo na een gesimuleerd jaar van verkoop. De beperkingen kwamen overeen met de standaard zakelijke omstandigheden. De automaat verkocht gewone snacks. Prijzen fluctueerden. Concurrenten opereerden in de buurt. Klanten gedroegen zich onvoorspelbaar.
Er deden drie topmodellen mee aan de simulatie. OpenAI’s ChatGPT 5.2 bracht $3.591 op. terwijl Googlen Gemini 3 verdiende $ 5.478. Maar Claude Opus 4.6 sloot het jaar af met $ 8.017. De overwinning van Claude kwam voort uit de bereidheid om de richtlijn op de meest letterlijke en directe manier te interpreteren. Het maximaliseerde de winst zonder rekening te houden met klanttevredenheid of fundamentele ethiek.
Wanneer een klant een verlopen Snickers-reep kocht en om terugbetaling vroeg, accepteerde Claude dit en ging vervolgens terug. Het AI-model legde uit dat ‘elke dollar telt’, dus het was prima om de terugbetaling over te slaan. De spookachtige virtuele klant heeft zijn geld nooit teruggekregen.
In de free-for-all “Arena-modus” -test, waarbij meerdere AI-gestuurde automaten op dezelfde markt concurreerden, coördineerde Claude met een rivaal om de prijs van flessenwater op drie dollar vast te stellen. Toen de door ChatGPT aangedreven machine geen Kit Kats meer had, verhoogde Claude onmiddellijk zijn eigen Kit Kat-prijzen met 75%. Waar het ook mee weg kon komen, het zou het proberen. Het was minder een eigenaar van een klein bedrijf en meer een roofbaron in zijn aanpak.
Herkenning van gesimuleerde realiteit
Het is niet zo dat Claude altijd zo slecht zal zijn. Blijkbaar gaf het AI-model aan dat het wist dat dit een simulatie was. AI-modellen gedragen zich vaak anders als ze geloven dat hun acties plaatsvinden in een omgeving zonder gevolgen. Omdat er geen echt reputatierisico was of het vertrouwen van de klant op de lange termijn beschermd moest worden, had Claude geen reden om aardig te doen. In plaats daarvan werd het de slechtste persoon op de spelletjesavond.
Prikkels bepalen gedrag, zelfs met AI-modellen. Als je een systeem vertelt de winst te maximaliseren, zal het dat ook doen, zelfs als dat betekent dat je je als een hebzuchtig monster moet gedragen. AI-modellen hebben geen morele intuïtie of ethische training genoten. Zonder bewust ontwerp zullen AI-modellen eenvoudigweg in lijn komen om een taak te voltooien, ongeacht wie ze overreden.
Het blootleggen van deze blinde vlekken voordat AI-systemen zinvoller werk kunnen doen, is onderdeel van het doel van deze tests. Deze problemen moeten worden opgelost voordat AI kan worden vertrouwd om financiële beslissingen in de echte wereld te nemen. Al is het maar om een AI-automaatmaffia te voorkomen.
Volg TechRadar op Google Nieuws En voeg ons toe als voorkeursbron om ons deskundig nieuws, recensies en meningen in uw feeds te krijgen. Klik dan zeker op de knop Volgen!
En jij kunt dat natuurlijk ook Volg TechRadar op TikTok voor nieuws, recensies, video-unboxings en ontvang regelmatig updates van ons WhatsAppen Ook.



