Een paar jaar geleden, toen ik bij een traditioneel advocatenkantoor werkte, kwamen de partners vrijwel zonder enige opwinding bij ons bijeen. “Verheug je”, kondigden ze aan en onthulden onze nieuwe AI assistent die het juridische werk sneller, gemakkelijker en beter zou maken. Er werd een expert ingeschakeld om ons te trainen in dashboards en automatisering. Binnen enkele maanden was haar enthousiasme omgeslagen in frustratie, omdat advocaten het dure instrument negeerden of, erger nog, de aanbevelingen ervan blindelings volgden.
Toen besefte ik: we leerden niet hoe we AI moesten gebruiken. AI heeft ons leren gebruiken.
Veel traditionele advocatenkantoren zijn overhaast begonnen met het adopteren van AI-beslissingsondersteunende instrumenten voor cliëntselectie, zaakbeoordeling en strategieontwikkeling. Het veld is onweerstaanbaar: AI verlaagt de kosten, bespaart tijd en belooft betere beslissingen op basis van pure logica, onaangetast door menselijke vooroordelen of emoties.
Deze systemen lijken nauwkeurig: wanneer AI in zaken werd gebruikt, werd het bewijsmateriaal beoordeeld als ‘sterk’, ‘gemiddeld’ of ‘zwak’. Case-uitkomsten krijgen waarschijnlijkheidsscores. Juridische strategieën zijn kleurgecodeerd op basis van risiconiveau.
Maar deze scherpe beveiliging verbergt een rommelige realiteit: de meeste van deze AI-beoordelingen zijn gebaseerd op eenvoudige scoreregels die controleren of de informatie overeenkomt met vooraf gedefinieerde kenmerken. Het is verfijnde patroonafstemming, geen wijsheid, en het valt op spectaculaire wijze uit elkaar bij grensgevallen die niet in het sjabloon passen.
En hier komt het knaller: AI-systemen repliceren vaak juist de vooroordelen die ze geacht worden te elimineren. Onderzoek is te vinden dat algoritmische aanbevelingen in de juridische technologie menselijke vooroordelen die in trainingsgegevens zijn ingebed, kunnen weerspiegelen en zelfs versterken. Uw ‘objectieve’ AI-tool heeft misschien dezelfde blinde vlekken als een bevooroordeelde partner, maar is er alleen sneller en zelfverzekerder over.
En toch: dit alles betekent niet dat we AI-tools moeten opgeven. Het betekent bouwen en beter eisen.
De standaard val
“En dan?” denk je misschien. “AI-tools zijn precies dat: tools. Kunnen we hun snelheid en efficiëntie niet gebruiken terwijl we hun voorstellen kritisch beoordelen?”
In theorie wel. In de praktijk zijn we er vreselijk in.
Gedragseconomen hebben dit gedocumenteerd een fenomeen dat status quo bias wordt genoemd: onze sterke voorkeur voor standaardinstellingen. Wanneer een AI-systeem een aanbeveling doet, wordt die aanbeveling de weg van de minste weerstand. Het in twijfel trekken kost tijd, cognitieve inspanning en de sociale onhandigheid van het terzijde schuiven van wat voelt als consensus van deskundigen.
Ik zag dit herhaaldelijk gebeuren in het bedrijf. Een medewerker zou de details van de zaak door de AI laten lopen, wat een juridische strategie zou uitspugen. In plaats van het als één van de vele input te beschouwen, werd het het startpunt dat vorm gaf aan elke volgende discussie. De gissingen van de AI werden onze standaard, en de standaardinstellingen zijn plakkerig.
Het zou niet uitmaken als we op z’n minst herkenden wat er gebeurd was. Maar er gebeurt iets verraderlijkers: ons vermogen om onafhankelijk te denken neemt af. Auteur Nicholas Carr heb al lang gewaarschuwd over de cognitieve kosten van het uitbesteden van het denken aan machines, en steeds meer bewijs ondersteunt zijn zorgen. Elke keer dat we AI uitstellen zonder het in twijfel te trekken, worden we een beetje slechter in het zelf maken van die oordelen.
Ik heb gezien dat junior medewerkers het vermogen verloren om zelfstandig zaken te beoordelen. Ze zijn bedreven geworden in het bedienen van de AI-interface, maar hebben moeite als hen wordt gevraagd een juridisch probleem helemaal opnieuw te analyseren. De tool moest ze efficiënter maken; in plaats daarvan heeft het hen afhankelijk gemaakt.
Snelheid zonder wijsheid
Het echte gevaar is niet dat AI fouten maakt. Het is dat AI snel, veilig en op grote schaal fouten maakt.
Een advocaat accepteert een zaakevaluatie zonder te merken dat het systeem een cruciaal precedent verkeerd begrijpt. Een partner vertrouwt op door AI gegenereerde strategieaanbevelingen die geen creatief juridisch argument hebben dat een mens zou hebben gezien. Een bedrijf maakt gebruik van kunstmatige intelligentie voor de instroom van cliënten en verwijdert systematisch zaken die niet overeenkomen met historische patronen, zelfs als die zaken waarde hebben. Elke beslissing voelt op dit moment rationeel aan, ondersteund door technologie en data. Maar slechte input en gebrekkige modellen zorgen voor slechte output, alleen sneller dan voorheen.
De betere weg vooruit
De problemen waar ik getuige van was, vloeiden voort uit de manier waarop deze oude systemen waren ontworpen: als vervangingsinstrumenten in plaats van als verbeteringsinstrumenten. Ze positioneerden AI als de beslisser, waarbij mensen alleen maar de output beoordeelden, in plaats van het menselijk oordeel centraal te stellen.
Er bestaan betere juridische AI-instrumenten, die een fundamenteel andere aanpak hanteren.
Ze zijn gebouwd met een ontwerp waarbij het oordeel eerst centraal staat, waarbij advocaten worden beschouwd als de belangrijkste besluitvormers en AI als een ondersteuningssysteem dat expertise vergroot in plaats van vervangt. Deze systemen maken hun redenering transparant en laten zien hoe ze tot aanbevelingen zijn gekomen in plaats van black-box-output te presenteren. Ze omvatten regelmatige capaciteitsbeoordelingen om ervoor te zorgen dat advocaten hun onafhankelijke analytische vaardigheden behouden, zelfs als ze AI-hulp gebruiken. En ze zijn bedoeld om problemen en onzekerheden onder de aandacht te brengen, in plaats van vals vertrouwen te wekken.
Het verschil is filosofisch: bouw je instrumenten die advocaten sneller advocaat maken, of instrumenten die de praktijk van het recht zelf proberen te vervangen?
Ik zie deze andere aanpak zich uiten in de immigratiediensten, waar bijzondere nadruk wordt gelegd op slechte beslissingen. Neem een geval waarin het arbeidsverleden van een sollicitant niet overeenkomt met historische goedkeuringspatronen; misschien hebben ze hiaten gehad, carrièreveranderingen gehad of op nieuwe gebieden gewerkt. Een traditionele AI-tool markeert dit als ‘niet-standaard’, wat de kans op goedkeuring verlaagt en de standaardaanbeveling wordt. Een systeem dat eerst oordeelt, doet iets heel anders: het legt de exacte factoren bloot die de zaak atypisch maken, legt uit waarom een precedent wel of niet van toepassing is, en vraagt de immigratieambtenaar expliciet: “Wat zie je hier dat het algoritme ontbreekt?” De functionaris blijft de beslisser, gewapend met zowel AI-efficiëntie als de cognitieve ruimte om genuanceerde expertise toe te passen. Het instrument heeft het oordeel niet vervangen; het verbeterde het. Het is het verschil tussen AI die professionals verslaafd maakt en AI die hen scherper maakt.
De controle terugnemen
Dit alles betekent niet dat we AI-tools moeten opgeven. Dit betekent dat je ze bewust gebruikt:
Behandel AI-aanbevelingen als concepten, niet als antwoorden. Voordat u een AI-voorstel accepteert, moet u zich afvragen: “Wat zou ik aanbevelen als het systeem er niet was?” Als je niet kunt antwoorden, ben je nog niet klaar om de output van de AI te evalueren.
Bouw wrijving in. Creëer een regel dat belangrijke beslissingen ten minste één alternatief vereisen voor de aanbeveling van de AI. Dwing jezelf om te verwoorden waarom de AI gelijk heeft, in plaats van aan te nemen dat dit zo is.
Regelmatig testen. Los regelmatig problemen op zonder hulp van AI om uw onafhankelijke oordeel te behouden. Zie het als een piloot die handmatige landingen oefent, ondanks dat hij een automatische piloot heeft.
Vraag om transparantie. Daag leveranciers uit om uit te leggen hoe hun systemen tot conclusies komen. Als ze dat niet kunnen of willen, is dat een rode vlag. U heeft het recht om te begrijpen wat uw beslissingen bepaalt.
Blijf sceptisch over de veiligheid. Als AI-resultaten verdacht veilig of accuraat lijken, graaf dan dieper. Problemen in de echte wereld zijn rommelig; als het antwoord er te simpel uitziet, wordt er waarschijnlijk iets te simpel voorgesteld.
De juridische professionals die gedijen op AI zijn niet degenen die het blindelings of volledig afwijzen. Zij zijn degenen die profiteren van de effectiviteit ervan, terwijl ze een scherp menselijk oordeel behouden en die vasthouden aan instrumenten die zijn ontworpen om hun capaciteiten te vergroten in plaats van ze te omzeilen.
Als je niet wordt gecontroleerd, zullen slecht ontworpen AI-assistenten je trainen om vreselijke beslissingen te nemen. Maar die uitkomst is niet onvermijdelijk. De toekomst is aan advocaten die instrumenten eisen die hun expertise daadwerkelijk vergroten in plaats van uithollen. Snelheid en gemak verliezen immers veel van hun aantrekkingskracht als ze de kwaliteit van de rechtspraak zelf in gevaar brengen.
Deadline van Fast Company Wereldveranderende ideeënprijzen is vrijdag 14 november om 23:59 uur PT. Solliciteer vandaag nog.


