Tijdens afgelopen decenniumdigitale innovaties hebben een aantal rrekruterings- en evaluatie-instrumenten: nu, wanneer je voor het eerst solliciteren naar een baanDe kans is kleiner dat u door mensen wordt beoordeeld en de kans groter dat u door mensen wordt beoordeeld AI. Nog voordat je de kans krijgt indruk maken op een menselijke interviewerje moet eerst indruk maken op het algoritme!
Onlangs, AI is ook gebruikt om te helpen huidig werknemers bij het uitvoeren van hun werk en help vervolgens hun werkgevers bij het evalueren ervan hoe goed medewerkers presteren in die banen. In feite is de adoptie van AI nu de norm voor banen in de kenniseconomie, en schattingen wijzen daar op zijn minst op 70% van de mensen maakt gebruik van kunstmatige intelligentie regelmatig op het werk (een getal dat waarschijnlijk een ondervertegenwoordiging is van de werkelijkheid, aangezien een groot deel van de AI-uitgaven daaraan wordt besteed). het werk is geheim en niet openbaar gemaakt), en een groeiend aantal organisaties gebruikt kunstmatige intelligentie om de prestaties van werknemers te evalueren.
Meritocratisch of Orwelliaans?
Traditionele prestatiebeoordelingen (vaak een zwaar, jaarlijks ritueel gebaseerd op subjectieve, “luidruchtig,” en onbetrouwbaar of ongeldige managementfeedback) worden feitelijk verstoord door algoritmen die in staat zijn om workflows, communicatiepatronen en zelfs ‘relationele analyses’ (de digitale voetafdrukken van uw gesprekken met collega’s te analyseren) in realtime te analyseren, wat critici betreuren als een vorm van ‘toezichtkapitalisme’.
{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”:https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/tcp-16-syn. jpg”,”imageMobileUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/tcp-photo-syndey-1×1-2.jpg”,”G”eyebrow””,”G”eyebrow””, meer inzichten van Tomas Chamorro-Premuzic”,”dek”Dr. Tomas Chamorro-Premuzic is hoogleraar organisatiepsychologie aan de UCL en Columbia University, en medeoprichter van DeeperSignals. “,”subhed”:”, “description”:, “ctaText”: Meer informatie, “ctaUrl”:https://drtomas.com/intro/”, “theme”:{“bg”:#2b2d30″, “text”:#ffffff”, “eyebrow”:#9aa2aa”, “subhed”:#ffffff”, “buttonBg”: “#3b3f46”, “buttonHoverBg”:91424800, “buttonText”:false,”slug”:91424798, “shareable”:false,”slug”}}
Deze tools zullen organisaties ongetwijfeld ongekende macht geven om datagestuurde managementbeslissingen na te streven die, in het beste geval, banen kunnen creëren. eerlijker en meritocratischermaar in het slechtste geval lijkt het ongemakkelijk dichtbij één Orwelliaans grote broer dystopie en kan Erodeert het vertrouwen en het moreel.
Om AI in prestatiemanagement te begrijpen, helpt het om een eenvoudige matrix van vier kwadranten of scenario’s voor te stellen, die het klassieke onderhandelingsmodel repliceert door Roger Fisher en William Ury op win-win resultaten, evenals tientallen jaren van gedragswetenschappelijke differentiatie integratief van nul som benaderingen van conflicten. In één scenario winnen zowel het bedrijf als de werknemer. In een ander geval wint alleen het bedrijf. In een derde geval leren werknemers het systeem in hun voordeel te gebruiken, maar niet in dat van het bedrijf. En in het ergste geval heeft niemand er baat bij.
Eerste scenario: AI helpt zowel het bedrijf als de werknemer. Laten we beginnen met het beste kwadrant van de matrix. Als het goed wordt gebruikt, kan AI feedback eerlijker en nuttiger maken. Iedereen die ooit een vage beoordeling heeft gekregen, kent het probleem, en meta-analytische onderzoeken laat zien dat slechts 1/3 van de feedback doorgaans nuttig is, 1/3 nutteloos of irrelevant is, en 1/3 feitelijk verergert prestaties van medewerkers! Voeg daarbij de typische onbetrouwbaarheid van prestatiebeoordelingen, die doorgaans zeer subjectief zijn: de ene manager houdt van jouw enthousiasme; een ander vindt dat je te veel praat; een derde herinnert zich simpelweg de laatste fout die je hebt gemaakt; een vierde heeft geen idee wie je bent, enzovoort. Met andere woorden: prestatie-evaluatie staat historisch gezien dichter bij subjectieve wijnproeven dan bij objectieve wetenschap.
Als AI op de juiste manier wordt gebruikt en gevalideerd, kan feedback worden verankerd in waarneembaar gedrag in plaats van in indrukken. Een verkoopmanager kan mogelijk zien welke klantinteracties daadwerkelijk hebben geleid tot terugkerende klanten in haar verkoopteam. Een projectmanager kan erachter komen dat er vertragingen optreden als de goedkeuringen zich opstapelen op zijn bureau. In plaats van ongeduldig te wachten op een jaarlijkse evaluatie om te zien hoe hun prestaties kunnen worden ervaren, krijgen medewerkers realtime feedback en suggesties. Het proces zal zijn dichter bij het coachen dan te oordelen. Dit is waar de belofte van AI het meest overtuigend is. Het democratiseert het verzamelen en verspreiden van feedback en suggesties. Het vervangt giswerk door data. Het vergeet nooit, en het kan de evaluatie van medewerkers prestatiegedreven maken in plaats van politiek.
Tweede scenario: AI helpt het bedrijf, maar schaadt de werknemers. Dezelfde tools kunnen snel in monitoring terechtkomen. Algoritmen analyseren nu workflows, communicatiepatronen, tone of voice en zelfs wat sommige leveranciers ‘relationele analyse’ noemen. Een daling van de schrijfsnelheid kan worden geïnterpreteerd als een verbroken verbinding. Een verandering in de Slack-stemming kan iemand als ‘sceptisch’ of ‘cynisch’ bestempelen. Het opsporen en bestraffen van onregelmatige werktijden kan ouders of mensen met gezondheidsproblemen heimelijk benadelen. Stemmen of gezichtsanalyse kan emotionele toestanden of fysieke omstandigheden afleiden die werkgevers feitelijk wettelijk verboden zijn om vast te stellen of te diagnosticeren. Wat begint als een poging om prestaties te meten, kan uitgroeien tot een digitaal panopticum. Medewerkers voelen zich gecontroleerd in plaats van ondersteund. Het vertrouwen erodeert echter op de lange termijn productiviteit lijkt op de korte termijn toe te nemen. Zoals vaak het geval is, behoren de Europese landen tot de eersten die hierin voorzien wettelijke beschermingen (https://natlawreview.com/article/ai-news-italy-sets-rules-ai-workplace) zodat werknemers zich tegen dit scenario kunnen beschermen.
Derde scenario: de werknemers profiteren, maar het bedrijf verliest. Mensen zijn niet passief. Wanneer medewerkers zich realiseren dat ze door een algoritme worden beoordeeld, leren ze dit in hun voordeel te gebruiken. Iedereen die in een callcenter heeft gewerkt (of er zelfs maar is gebeld) heeft deze dynamiek gezien. Als de AI een opgewekte toon beloont, wordt iedereen kunstmatig optimistisch, zelfs als bellers erdoor worden besluipt met het zoetsappige effect van de servicemedewerkers. Als AI een hoog e-mailvolume beloont, worden de outboxen en inboxen gevuld met onnodige berichten. Leraren geven les op de proef. Studenten leren uit het hoofd zonder te begrijpen. In kantoren optimaliseren mensen op statistieken in plaats van op resultaten. Echte samenwerking verschuift naar privékanalen en officiële gegevens worden minder waarheidsgetrouw dan voorheen. AI meet uiteindelijk performatief theater in plaats van echte toegevoegde waarde, en werknemers leren perfecte prestatiebeoordelingen te creëren en productiviteitssignalen te vervalsen die AI gebruiken om werkgevers te misleiden of te misleiden en tientallen jaren van vooruitgang terug te draaien.
Vierde scenario: niemand profiteert. Het slechtste resultaat is multilateraal wantrouwen. Managers verschuilen zich achter dashboards die ze niet kunnen uitleggen. Medewerkers beschouwen feedback als ruis. Prestatiebeoordelingen worden bureaucratische ‘check the box’-oefeningen die met minimale aandacht worden uitgevoerd. ‘Wij doen alsof we werken en zij doen alsof ze ons betalen’ was tientallen jaren geleden een cynische arbeidersslogan in de Sovjet-Unie. Misschien zou ‘Wij doen alsof we onze prestaties evalueren en zij doen alsof ze ons beoordelen’ het moderne equivalent zijn als de beoordelingen in wezen ‘AI Slop’ zijn. Als een manager zegt: ‘Het systeem heeft u deze beoordeling gegeven’, heeft het management in feite afstand gedaan van de verantwoordelijkheid. Organisaties kunnen terabytes aan gegevens verzamelen die niets bruikbaars voorspellen. Medewerkers ontkoppelen. Het vertrouwen en het moreel nemen af. We hebben eerder versies hiervan gezien met slecht ontworpen beoordelingen of niet-gevalideerde tools. Technologie elimineert slecht management niet. Het kan het schalen. En in dit scenario, ook al onthoudt het ‘systeem’ alles wat erin wordt ingevoerd, negeren en vergeten managers en medewerkers snel alles wat eruit komt.
Wat te doen
Dus wat moeten leiders doen? De principes zijn eenvoudig, maar niet gemakkelijk. Valideer vóór automatisering. Vraag of een statistiek echte prestaties of alleen activiteit voorspelt. Wees transparant over welke gegevens worden gebruikt, hoe en waarom. Zorg ervoor dat het systeem controleerbaar is op de manier waarop het input aan output koppelt en geen ondoorgrondelijke ‘black box’ is. Houd mensen op de hoogte, zodat de context niet verloren gaat. Verzamel of houd geen rekening met privé-informatie, ook al kan de technologie dit afleiden. En optimaliseer niet alleen voor operationele statistieken of output, maar ook voor moreel en betrokkenheid. En laat AI ten slotte niet alleen feedback geven aan medewerkers, maar ook aan managers en HR over wat er gedaan kan worden om de basis te leggen voor meer succes van medewerkers in de toekomst.
Naarmate algoritmen en AI de afgelopen tien jaar centraal zijn geworden bij talentbeslissingen, en omdat schattingen suggereren dat de overgrote meerderheid van de mensen AI op het werk gebruikt, is de verleiding om alles te meten groter geworden. Zoals de regel die vaak aan Einstein wordt toegeschreven ons eraan herinnert: niet alles wat telt, kan worden geteld, en niet alles wat kan worden geteld, zou moeten tellen. AI kan prestatiemanagement meer op goede coaching of meer op constante monitoring maken. Het verschil ligt niet in de technologie, maar in de manier waarop managers, medewerkers en organisaties er verstandig voor kiezen om er gebruik van te maken. AI moet niet alleen worden gebruikt om werknemers binnen een organisatiesysteem te evalueren, het moet ook het systeem evalueren waarin werknemers werken en constructieve observaties en aanbevelingen doen die het succes van individuen, teams, afdelingen en bedrijven kunnen verbeteren.
Het belangrijkste is dat er nog veel te behouden valt de kunst van goede prestatiebeoordelingendie al lang ouder zijn dan AI en vaak juist werken omdat ze menselijk zijn. Wanneer een leider en medewerker aan het begin van het jaar gezamenlijk duidelijke, meetbare doelen stellen, krijgt iedereen duidelijkheid over hoe succes eruit ziet (en doet hij een cognitieve en emotionele investering in het bereiken van dat succes), en komen er later minder verrassingen of teleurstellingen voor. Wanneer feedback specifiek en actueel is en geworteld is in echte prestaties of mislukkingen, zoals een moeilijke klantonderhandeling, een mislukte productlancering of een junior collega die je hebt gecoacht om promotie te maken, leren werknemers wat ze moeten herhalen en wat ze moeten oplossen, en zien leiders mogelijkheden boven alleen maar output. En als de beoordelingen een toekomstgericht ontwikkelingsplan omvatten, waarbij iemand misschien naar een nieuwe markt wordt getild, een aanvullend trainingsprogramma wordt gefinancierd of wordt gekoppeld aan een mentor, investeert de organisatie in toekomstige waarde, terwijl de medewerker een geloofwaardig pad naar groei ziet. Deze eenvoudige praktijken slagen niet omdat ze hightech zijn, maar omdat ze prikkels op elkaar afstemmen, een gedeeld holistisch begrip creëren en leiders competente leiders maken. Bij correct gebruik kan AI de succesvolle co-evolutie van systemen en al hun belanghebbenden verbeteren en versnellen.
{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”:https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/tcp-16-syn. jpg”,”imageMobileUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/tcp-photo-syndey-1×1-2.jpg”,”G”eyebrow””,”G”eyebrow””, meer inzichten van Tomas Chamorro-Premuzic”,”dek”Dr. Tomas Chamorro-Premuzic is hoogleraar organisatiepsychologie aan de UCL en Columbia University, en medeoprichter van DeeperSignals. “,”subhed”:”, “description”:, “ctaText”: Meer informatie, “ctaUrl”:https://drtomas.com/intro/”, “theme”:{“bg”:#2b2d30″, “text”:#ffffff”, “eyebrow”:#9aa2aa”, “subhed”:#ffffff”, “buttonBg”: “#3b3f46”, “buttonHoverBg”:91424800, “buttonText”:false,”slug”:91424798, “shareable”:false,”slug”}}
Nieuwsbron



