Advocaten hebben een notoire worsteling met technologie. De advocatuur bestaat uit rechtszalen met houten lambrisering en in leer gebonden wetboeken – en niet uit apps en chatbots.
De beruchte Advocaatkat uit het vroege Zoom-tijdperk van de pandemie is een bijzonder grappig voorbeeld van wat er gebeurt als advocaten gedwongen worden technologie te omarmen die ze anders niet zouden aanraken.
En wanneer advocaten gebruiken kunstmatige intelligentieVaak gaat het net zo slecht.
Het was een advocaat uit Massachusetts gesanctioneerd voor het aanhalen van niet-bestaande gevallen die door ChatGPT zijn gehallucineerd in een officieel proces, en onlangs in Californië legde een advocaat een boete van $ 10.000 op voor soortgelijke AI-gehallucineerde fouten.
Het is dan ook geen verrassing dat advocaten misschien terughoudend zijn in het omarmen van de grote taalmodellen (LLM’s) en AI-agenten die andere beroepen massaal adopteren.
Een specifieke gril in de advocatuur kan hen echter binnenkort de hand dwingen door advocaten te bedreigen met wanpraktijken als ze dat doen niet AI adopteren.
En dezelfde dynamiek zou van toepassing kunnen zijn op vakgebieden als de boekhouding of de geneeskunde, waardoor deze zeer impactvolle, AI-sceptische vakgebieden naar de voorgrond van de adoptie van AI worden gekatapulteerd, of ze dat nu leuk vinden of niet.
Aangezien dit een verhaal over advocaten is, zal ik even pauzeren om de disclaimer aan te bieden dat ik een verslaggever ben, geen advocaat, en dat niets hier juridisch advies is; het is gebaseerd op mijn eigen onderzoek en verschillende off-the-record gesprekken met praktiserende advocaten. Bent u werkzaam in het beroep, dan dient u over deze wijzigingen contact op te nemen met uw eigen balie.
Gedwongen door curatoren
De meeste mensen moeten gewoon goed genoeg zijn voor hun werk.
Zelfs als mijn metaforen een beetje vaststaan, of als een specifiek stuk dat ik heb geschreven een overvloedige, verleidelijke alliteratie mist, heb ik mijn werk gedaan als Snel bedrijf bijdrager als ik het nieuws naar waarheid heb gerapporteerd en u redelijkerwijs op de hoogte heb gehouden.
Advocaten worden aan een andere norm gehouden. In veel gevallen is dat zo gebonden door verschillende vertrouwensposities— wettelijke verplichtingen om hun cliënten op een bepaalde manier te behandelen.
Zaken moeten bijvoorbeeld vertrouwelijk zijn en advocaten mogen hun cliënten niet aan de andere kant verkopen.
Maar advocaten zijn ook wettelijk verplicht bekwaam te zijn en dat ook te doen brengen hun klanten redelijke vergoedingen in rekening— deze vergoedingen zo laag mogelijk houden en toch aan de juridische behoeften van hun cliënten voldoen.
In het verleden betekende dit doorgaans het vermijden van onnodig juridisch onderzoek, dat b.v. de rekening kan oplopen, of dat u vermijdt om overdadige maaltijden en andere frivole zaken op de rekening van uw klant uit te geven.
Nu staat AI echter misschien op het punt de definitie te veranderen van wat het betekent om ‘competent’ te zijn. En het vermogen van AI om taken eenvoudiger en sneller te maken, zou fiduciaire problemen kunnen betekenen voor advocaten en andere professionals die de technologie niet omarmen.
Wees anders efficiënt
Ook hier zijn advocaten vaak terughoudend in het omarmen van nieuwe technologie. Geconfronteerd met het risico van verzonnen zaken en hoge boetes, hebben veel advocaten er eenvoudigweg voor gekozen om niet langer te testen of om AI helemaal te gebruiken.
EEN formele verklaring van de American Bar Association (ABA) maakt echter duidelijk dat dit binnenkort misschien niet langer een optie is.
“Met de mogelijkheid om snel nieuwe, schijnbaar door mensen gegenereerde inhoud te creëren als reactie op gebruikersvragen, geven generatieve AI (GAI) tools advocaten het potentieel om de efficiëntie en kwaliteit van hun juridische dienstverlening aan cliënten te verhogen”, zegt de ABA.
Ja, deze tools kunnen fouten maken, erkent de ABA, en “advocaten mogen hun verantwoordelijkheid niet afzweren door uitsluitend op een GAI-tool te vertrouwen.”
Toch waarschuwt de ABA haar leden om niet te voorzichtig te zijn met het gebruik van kunstmatige intelligentie.
“Opkomende technologieën kunnen output opleveren die van aanzienlijk hogere kwaliteit is dan de huidige GAI-tools, of kunnen advocaten in staat stellen hun werk aanzienlijk sneller en economischer uit te voeren”, luidt de verklaring.
Als dat gebeurt, waarschuwt de ABA, kan dit leiden tot de fiduciaire plicht om competent te zijn en de vergoedingen te minimaliseren. De instrumenten kunnen ‘alomtegenwoordig worden in de rechtspraktijk’ en ‘conventionele verwachtingen scheppen van de competentieplicht van advocaten’.
Met andere woorden: AI kan zo nuttig worden in de advocatuur dat advocaten die dit vermijden de tijd van hun cliënten verspillen of een inferieure vertegenwoordiging bieden.
ABA geeft het voorbeeld van e-mail en pdf’s. “Een advocaat zou het in de huidige omgeving moeilijk vinden om competente juridische diensten te verlenen zonder te weten hoe hij e-mail moet gebruiken of een elektronisch document moet maken”, zegt de ABA. “Naarmate GAI-tools blijven evolueren en op grotere schaal beschikbaar komen, is het denkbaar dat advocaten ze uiteindelijk zullen moeten gebruiken om bepaalde taken voor cliënten competent uit te voeren.”
Nogmaals, vanwege hun fiduciaire rol zou het nalaten dit te doen niet alleen een slechte vorm zijn – het zou mogelijk ook als wanpraktijken kunnen gelden.
Om dit punt duidelijk te maken, breidt de ABA haar e-mailmetafoor uit en zegt dat advocaten die er niet in slagen de meest up-to-date technologie van het tijdperk te gebruiken, ‘mogelijk aansprakelijk zijn voor wanpraktijken’. De duidelijke implicatie is dat dezelfde straf kan gelden voor AI-achterblijvers zodra de technologie voldoende vooruitgaat.
Off the record hebben verschillende advocaten mij verteld dat dat moment snel nadert of al daar is.
Het advies van de ABA werd geschreven in 2024, toen LLM’s veel minder krachtig en nauwkeurig waren. Tegenwoordig, zo vertelde een oude advocaat me, schrijven LLM’s vaak in minuten lijsten met relevante zaken – of zelfs hele briefstukken – die net zo goed zijn als die een advocaat buiten kantooruren in een traditionele juridische bibliotheek kan produceren.
De potentiële verplichting om kunstmatige intelligentie te gebruiken komt blijkbaar al voor in het jaarlijkse bijscholingsmateriaal van advocaten. En naarmate LLM’s steeds beter worden, zal hun macht om tijd te besparen en superieure output te produceren – en de daaruit voortvloeiende plicht voor advocaten om deze te omarmen – alleen maar toenemen.
Gedwongen op de voorgrond
Als LLM’s en andere generatieve AI-instrumenten zo ver evolueren dat advocaten ze moeten gebruiken om bekwaam te blijven, kan de advocatuur plotseling gedwongen worden om de adoptie van AI te leiden.
Bedrijven zouden over zichzelf struikelen om hun advocaten op de hoogte te houden van de nieuwste AI-technologie. En er zouden ongetwijfeld talloze bedrijven opduiken die AI op alle aspecten van het recht zouden toepassen. Het zou een goudmijn zijn voor AI-appbouwers en -consultants.
En het is onwaarschijnlijk dat de impact op juridisch gebied zal blijven liggen: verschillende andere AI-sceptische beroepen kunnen onderworpen zijn aan soortgelijke ethische en juridische plichten en dezelfde snelle, gedwongen adoptie ervaren.
Artsen leggen bijvoorbeeld een professionele eed af om ‘geen kwaad te doen’. Terwijl de American Medical Association hiervan op de hoogte is Artsen mogen niet gestraft worden andere bronnen wijzen erop dat we er niet in slagen de huidige AI over te nemen naarmate de LLM’s vorderenAls er geen gebruik wordt gemaakt van kunstmatige intelligentie, kan dit ertoe leiden dat patiënten onnodig risico lopen.
Een onderzoek uit 2024 binnen gerapporteerd New York Times toonde aan dat zelfs de relatief eenvoudige chatbots van dat jaar beter waren dan artsen in het diagnosticeren van veel ziekten. En erger nog, toen artsen met chatbots probeerden te werken, presteerden ze uiteindelijk slechter dan de chatbots zonder hun hulp.
Studies hebben dat zelfs aangetoond patiënten vinden chatbots empathischer en beter in communiceren dan echte artsen.
Nogmaals, naarmate de technologie vordert, zou dit kunnen betekenen dat artsen die AI vermijden steeds meer risico lopen hun patiënten schade toe te brengen. Hetzelfde geldt voor accountants, financiële planners, makelaars en vele andere beroepen met fiduciaire verantwoordelijkheden jegens hun cliënten.
Voorlopig kunnen advocaten, artsen, accountants en andere professionals plausibel wijzen op de vroege status van LLM’s en de voortdurende neiging om te hallucineren en hun handen te wassen van de noodzaak om de technologie over te nemen of ermee te experimenteren.
Naarmate de modellen verbeteren, zal die claim echter steeds moeilijker te maken zijn. Zoals de ABA opmerkt, zou een advocaat die geen kennis heeft van e-mail in 1990 als volledig competent zijn beschouwd. Tegenwoordig zou hij als een hacker worden gezien en kan hij worden geschorst.
Dezelfde dynamiek kan binnenkort van toepassing zijn op chatbots en LLM’s. En als dat gebeurt, zullen de professionals die er vandaag de dag niet in zijn geslaagd de technologie te leren kennen – of koppig volhielden dat AI een voorbijgaande rage is die hun tijd en aandacht niet waard is – dat op eigen risico hebben gedaan.



