In de eerste 24 uur van de oorlog met Iran hebben de VS duizend doelen getroffen. Tegen het einde van de week bedroeg het totaal meer dan drieduizend – twee keer zoveel als tijdens de ‘shock and awe’-fase van de invasie van Irak in 2003. volgens Pete Hegseth. Dit ongekende aantal stakingen werd mogelijk gemaakt door kunstmatige intelligentie. Het Amerikaanse Centrale Commando (CENTCOM) dringt aan dat mensen op de hoogte blijven van elke targetingbeslissing en dat AI er is om hen te helpen ‘slimmere, snellere beslissingen te nemen’. Maar welke rol mensen precies kunnen spelen als de systemen in dit tempo werken, is onduidelijk.
Het Israëlische gebruik van AI-gestuurde targeting in zijn oorlog tegen Hamas kan enige inzichten opleveren. Dat meldde een onderzoek vorig jaar dat het Israëlische leger een AI-systeem genaamd Lavender had ingezet om vermoedelijke militanten in Gaza te identificeren. De officiële lijn is dat bij alle doelgerichte beslissingen sprake was van menselijk oordeel. Maar volgens een van de operators van Lavender beperkten ze, zodra ze vertrouwen kregen in het systeem, hun eigen controles tot niets meer dan de bevestiging dat het doelwit een man was. “Ik zou voor elk doelpunt twintig seconden investeren”, zei de telefoniste. “Ik had als mens geen toegevoegde waarde, behalve dat ik een postzegel was. Het scheelde veel tijd.”
Hetzelfde patroon heeft zich al in het bedrijfsleven voltrokken. In 2023, ProPublica onthuld dat Cigna, een van Amerika’s grootste zorgverzekeraars, een algoritme had geïmplementeerd om claims voor weigering te markeren. De artsen, die wettelijk verplicht waren hun klinische oordeel uit te oefenen, tekenden de beslissingen van het algoritme in batches af, waarbij ze gemiddeld 1,2 seconden aan elke zaak besteedden. Eén arts ontkende in één maand tijd meer dan 60.000 claims. “We klikken en verzenden letterlijk”, zei een voormalig Cigna-arts. “Het kost allemaal 10 seconden om 50 tegelijk te doen.”
Twintig seconden om een aanval goed te keuren; 1,2 seconden om een claim af te wijzen. De mens zit in de lus. De mensheid is dat niet.
{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”:https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/creator-faisalhoq ue.png “imageMobileUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/faisal-hoque.png”,”eyebrow” “klaar” om te gedijen op het kruispunt van zaken, technologie en menselijkheid? “dek” De boeken, podcast en zijn bedrijven van Faisal Hoque bieden leiders het raamwerk en platforms om het doel, de mensen, het proces en de technologie op één lijn te brengen – verstoringen om te zetten in betekenisvolle, duurzame vooruitgang.”,”subhed”:”, “description”:”, “ctaLearn”: “Meer”, ctaUrl “https://faisalhoque.com”, thema”:{“bg”:#02263c”, “text”:#ffffff”, “eyebrow”:#9aa2aa”, subhed”:#ffffff”, “buttonBg”:#ffffff”, “b uttonHoverBg”:#3b3f46″, “buttonText”:#000000″},”imageDesktopId”:91420512,”imageMobileId”:91420514,”deelbaar”:false,”slug””,”wpCssClasses””}
Moeilijkheidsgraad van ontwerp
Romanschrijver Milan Kundera schrijft over het angstaanjagende gewicht van de confrontatie met de aanhoudende ernst van onze daden. Maar hoewel lichtheid aantrekkelijk lijkt in het licht van deze onmogelijk zware last, is het uiteindelijk ondraaglijk. Als we het gewicht van onze beslissingen loskoppelen, worden ze van inhoud en betekenis beroofd.
Sommige dingen zijn zo belangrijk dat we het gewicht ervan zouden moeten voelen. De zou moeten tijd nodig hebben om te beslissen iemand te doden of een gezondheidsclaim af te wijzen. De zou moeten Het is moeilijk om erachter te komen welke gebouwen je moet bombarderen. AI maakt deze beslissingen sneller en gemakkelijker, maar sommige beslissingen zouden moeilijk moeten zijn. En als AI het zware werk doet, als het de last wegneemt van het nemen van beslissingen over wie leeft en wie sterft, is dat geen vooruitgang. Dit is morele degradatie.
AI belooft de last van moeilijk en cognitief veeleisend werk te verlichten – het maakt het werk gemakkelijker. Op veel gebieden is het echte vooruitgang. Maar sommige dingen zijn zo belangrijk dat we het gewicht ervan zouden moeten voelen. De zou moeten tijd nodig hebben om te beslissen iemand te doden of een gezondheidsclaim af te wijzen. De zou moeten Het is moeilijk om erachter te komen welke gebouwen je moet bombarderen. Bij zulke beslissingen heeft de moeilijkheid een functie: het is een functie, geen bug. Het is een mechanisme dat instellingen dwingt rekening te houden met wat ze doen. En als AI dat gewicht wegneemt, wordt de instelling niet efficiënter. Het wordt gevoelloos.
Als de ‘human in the loop’ een paar seconden aan elke beslissing besteedt, wordt de vraag of het systeem autonoom is of door mensen wordt gecontroleerd grotendeels semantisch. Wij moeten aandringen mensheid ook in de lus. In gevallen als deze moet de mens daartoe de gelegenheid krijgen zijn mensen, ook al betekent dit dat ze langzamer, minder nauwkeurig en minder efficiënt zijn. Dit is de prijs die we betalen voor iets dat absoluut noodzakelijk is: we hebben de mens nodig om het gewicht te voelen van de beslissingen die hij neemt, omdat moeilijkheden de wrijving veroorzaken die ervoor zorgt dat mensen blijven staan, vragen stellen en terugdringen.
Institutionele cultuur
Wanneer moeilijke beslissingen gemakkelijk worden, verandert de instelling zichzelf. Mensen stoppen met het stellen van vragen omdat er niets is dat de moeite waard is om in twijfel te trekken; het systeem heeft al een besluit genomen en het is de menselijke rol om dit te bevestigen. Andersdenkenden vallen weg omdat afwijkende meningen wrijving vereisen, en die wrijving is weggewerkt. De verantwoordingsplicht wordt ondermijnd omdat iedereen weet dat de computer de beslissingen neemt.
De arts uit Cigna die in één maand 60.000 claims ontkende, was niet wreed. Ze waren in een systeem geplaatst waarin het weigeren van een claim niet meer moeite kostte dan het klikken op een knop. Het systeem deed iets verraderlijkers dan het corrumperen van hun oordeel; het maakte het onnodig. Daarom is de zaak Cigna geen verhaal van één enkele slechte acteur. Het is veeleer een verhaal over wat er gebeurt met elke instelling die systematisch gewicht toekent aan haar moeilijkste beslissingen.
De kosten van het uithollen van de verantwoordelijkheid
Een uitgeholde verantwoordingsplicht brengt voor bedrijven op drie plaatsen kosten met zich mee.
Ten eerste: verantwoordelijkheid. Een algoritme kan niet worden aangeklaagd, ontslagen of aansprakelijk worden gesteld voor zijn fouten. De organisatie die het heeft geïmplementeerd kan dat wel. Stempeltoezicht is geen juridisch grijs gebied; het is een verantwoordelijkheid die wacht tot advocaten in actie komen.
Ten tweede: institutionele kwetsbaarheid. Wanneer mensen niet langer betrokken zijn bij beslissingen, leren ze er ook niet meer van. Als de machine de zaken altijd goed lijkt te doen, ontwikkelt niemand het soort oordeel dat nodig is om te bepalen wanneer er daadwerkelijk iets mis is. Organisaties die mensen uit hun besluitvormingscircuits halen, worden afhankelijk van systemen die ze niet langer volledig begrijpen. En het leidt tot kwetsbaarheid op de momenten dat veerkracht vereist is.
Ten derde: vertrouwen. Klanten, medewerkers en toezichthouders willen wellicht weten of een AI een besluit heeft genomen. Maar ze willen absoluut weten of iemand er echt verantwoordelijk voor is. Het antwoord in veel te veel organisaties is nee, en dat antwoord heeft diepgaande gevolgen voor de relaties van de organisatie met degenen aan wie zij verantwoordelijk is.
De gewichtstest
Voordat managers kunstmatige intelligentie gebruiken om welk besluitvormingsproces dan ook eenvoudiger te maken, moeten ze vier vragen stellen:
1. Welk institutioneel gedrag veroorzaakt de huidige moeilijkheid van deze beslissing? controle, escalatie, onenigheid – en wat zijn de kosten als je ze kwijtraakt?
2. Als er iets misgaat, kunnen we dan iemand identificeren die moeite had met de beslissing – of gewoon iemand die op ‘goedkeuren’ klikte?
3. Hoe kunnen we weten of de mensen in dit proces rubberen stempels zijn geworden? Wat gaan we meten en meten we dat?
4. Als de mensen die door dit besluit worden getroffen precies zouden weten hoe het tot stand is gekomen en hoeveel tijd de persoon eraan heeft besteed, zou de instelling zich dan op haar gemak voelen om dit proces publiekelijk te verdedigen?
Deze vragen komen niet voor in de implementatiechecklist van een AI-leverancier. Dit is precies waarom ze ertoe doen.
Conclusie
Er wordt ons verteld dat AI ons bevrijdt – van saai werk, van langzame processen, van de last van moeilijke beslissingen. En dat gebeurt vaak ook. Maar niet elke last is een probleem dat moet worden opgelost. Soms zijn de lasten het punt. Het gewicht dat een commandant moet voelen voordat hij een aanval goedkeurt, de moeite die een arts doet voordat hij zorg weigert – dit zijn geen inefficiënties die kunnen worden weggeoptimaliseerd. Het zijn de mechanismen die instituties eerlijk houden over de macht die zij uitoefenen.
Organisaties die dat gewicht ontwikkelen, zullen uiteraard sneller en lichter zijn. Het lijkt er misschien een tijdje op dat ze aan het winnen zijn. Maar deze organisaties zullen ook degenen zijn die te laat ontdekken dat de moeilijkheid de prijs is om degene te zijn die beslist – en op het moment dat een organisatie stopt met betalen, heeft ze helemaal niets meer te beslissen.
{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”:https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/creator-faisalhoq ue.png “imageMobileUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/faisal-hoque.png”,”eyebrow” “klaar” om te gedijen op het kruispunt van zaken, technologie en menselijkheid? “dek” De boeken, podcast en zijn bedrijven van Faisal Hoque bieden leiders het raamwerk en platforms om het doel, de mensen, het proces en de technologie op één lijn te brengen – verstoringen om te zetten in betekenisvolle, duurzame vooruitgang.”,”subhed”:”, “description”:”, “ctaLearn”: “Meer”, ctaUrl “https://faisalhoque.com”, thema”:{“bg”:#02263c”, “text”:#ffffff”, “eyebrow”:#9aa2aa”, subhed”:#ffffff”, “buttonBg”:#ffffff”, “b uttonHoverBg”:#3b3f46″, “buttonText”:#000000″},”imageDesktopId”:91420512,”imageMobileId”:91420514,”deelbaar”:false,”slug””,”wpCssClasses””}
Nieuwsbron



