AI kan een indrukwekkende hoeveelheid saaie, alledaagse drukte wegnemen. Het kan ook creatieve taken op zich nemen. Maar de fundamentele vraag blijft: moet dat?
Nu het gebruik van kunstmatige intelligentie in organisaties nieuwe hoogten bereikt, onderkennen bedrijven ook de beperkingen ervan – en trekken ze zich in sommige gevallen terug. Neem Duolingo, het taalleerbedrijf dat aankondigde dat het freelanceschrijvers en vertalers zou uitfaseren en vervangen door door AI gegenereerde inhoud. Na publieke reacties en gebruikersrapporten, hoe de door AI geproduceerde lessen aanvoelden formule en culturele nuance ontbeerde, verduidelijkte Duolingo zijn standpunt.
“Ik zie kunstmatige intelligentie niet als vervanging voor wat onze medewerkers doen… ik zie het als een hulpmiddel om wat we doen te versnellen naar hetzelfde of een beter kwaliteitsniveau”, schreef CEO Luis von Ahn.
Afhaalmaaltijden: delegeer blindelings aan AI, simpelweg omdat kan het uitvoeren van een taak kan net zo riskant zijn als er regelrecht weerstand aan bieden. Als CEO van een automatiseringsbedrijf heb ik ontdekt dat werknemers hun beoordelingsvermogen moeten ontwikkelen en moeten leren wanneer AI de vooruitgang kan versnellen en wanneer menselijk inzicht leidend moet zijn.
Hier leest u hoe leiders kunnen helpen dit onderscheidingsvermogen in hun teams te cultiveren.
Houd de verantwoordelijkheid menselijk, zelfs als AI daarbij helpt
Als de cumulatieve wijsheid tot nu toe iets heeft onthuld, is het dat het gebruik van AI misgaat als het in de schaduw plaatsvindt. Werknemers kunnen uiteindelijk te veel delegeren aan kunstmatige intelligentie, inclusief taken die nog steeds menselijke inbreng vereisen, zoals creativiteit, empathie en subjectief, niet-kwantificeerbaar oordeel.
Daarom heeft elk bedrijf vandaag de dag behoefte aan een expliciet AI-beleid dat transparant en toegankelijk is voor alle medewerkers. Een gearchiveerd boekdeel met instructies volstaat gewoon niet.
Sommige managers schetsen hun bedrijfsbeleid in een managementmemo. Tobi Lütke, CEO van Shopify, gebruikte bijvoorbeeld een beknopte interne memo om de bedrijfsactiviteiten samen te vatten AI-eerste aanpak:
“Voordat teams om meer personeel en middelen vragen, moeten ze aantonen waarom ze met AI niet kunnen krijgen wat ze willen.”
Bij Jotform vullen we periodieke aantekeningen aan met chats en presentaties tijdens onze wekelijkse all-hands meetings. Samen met onze leiders beoordelen we AI-updates, goedgekeurde tools en voorbeelden van hoe we AI op de juiste manier kunnen gebruiken, en delen we ook af en toe een ongelukje.
Of het nu in een vergadering, een memo of een virtueel discussieforum is, leiders moeten duidelijke grenzen definiëren voor waar AI beslissingen informeert versus waar mensen beslissen.
Combineer politiek met echt vallen en opstaan
Het creëren van formeel en informeel AI-beleid is slechts de helft van het verhaal. In de tweede helft wordt gekeken naar hoe dit beleid in de praktijk uitpakt.
Managers hebben de taak om teams te trainen om voortdurend de sterke en zwakke punten van AI binnen de echte workflows van een bedrijf te beoordelen. Wanneer er zwakke punten aan het licht komen, is het tijd om de aanpak te heroverwegen. Veel organisaties hebben bijvoorbeeld AI gebruikt om te maken werkgelegenheid efficiënter. Op het eerste gezicht waren de resultaten veelbelovend: bedrijven konden meer kandidaten interviewen en toptalent sneller identificeren. Maar wervingsteams werden ook geconfronteerd met uitdagingen, waaronder ingebouwde vooroordelen en onbedoelde uitsluiting van hooggekwalificeerde kandidaten vanwege strenge screeningcriteria. Als gevolg hiervan hebben bedrijven hun gebruik van kunstmatige intelligentie moeten herijken en meer verantwoordelijkheid aan werknemers moeten toewijzen.
In alle bedrijfsgebieden moet de evaluatie van de sterke en zwakke punten van AI een voortdurende dialoog zijn tussen werknemers en managers. Werknemers moeten worden aangemoedigd om met nieuwe hulpmiddelen te experimenteren en hun ervaringen te delen. Managers moeten regelmatige check-ins plannen om ervoor te zorgen dat ongepast of ineffectief gebruik niet verdwijnt.
Maak van AI-beoordeling een continu gesprek
Wanneer teams AI-tools in hun workflows integreren, is een van de risico’s dat de verantwoordelijkheid verspreid raakt. De verantwoordelijkheid valt door de kieren. Als een door AI aangedreven chatbot een klant bijvoorbeeld verouderde informatie geeft, wie is dan de schuldige? Of nog belangrijker: wie heeft de taak ervoor te zorgen dat dit niet nog een keer gebeurt? Het is niet altijd duidelijk. En de AI de schuld geven, voorkomt niets anders dan elke koerscorrectie.
Bewuste en gedeelde verantwoordelijkheid verhindert daarentegen dat teams het eigendom en de taken volledig uitbesteden. Bij Jotform wijst elk team een menselijke ‘eigenaar’ aan voor AI-ondersteunde output. Hoewel deze persoon ervoor verantwoordelijk is dat een taak correct wordt voltooid, blijft het hele team betrokken bij het beoordelen en verfijnen van de output.
Een andere mogelijke waarborg is het toevoegen van een AI-beoordelingsstap aan projectchecklists, waarbij verificatie van feiten en bronnen vereist is. Als het een taak of project is waarbij de inzet bijzonder hoog is, zijn twee menselijke stukken geen slecht idee.
Gedeelde verantwoordelijkheid zorgt ervoor dat resultaten de verantwoordelijkheid van het team blijven, en niet die van de AI. In de woorden van Alphabet-CEO Sundar Pichai: dat zouden mensen niet moeten doen blindelings vertrouwen AI. AI is een hulpmiddel om het menselijk beoordelingsvermogen te vergroten, geen vervanging ervan, en teams moeten waakzaam blijven en verantwoordelijk blijven voor de beslissingen die AI helpt produceren.



