Van losse experimenten naar volwassen, veilig en professioneel gebruik
“AI is een waardevol hulpmiddel voor de advocaat, mits ingezet met oog voor de kernwaarden van de advocatuur.”
Generatieve AI is in korte tijd doorgedrongen tot bijna elke juridische praktijk. Veel kantoren gebruiken toepassingen voor het samenvatten van dossiers, het maken van eerste concepten of het verkennen van juridische vragen. Vaak gebeurt dat nog ad hoc, met proefaccounts en losse experimenten tussen de bedrijven door.
Met de publicatie van de aanbevelingen “AI in de advocatuur” zet de Nederlandse Orde van Advocaten (NOvA) een duidelijke stap. De boodschap is helder: AI mag, maar niet gedachteloos. Het gebruik moet passen binnen de kernwaarden van de advocatuur en binnen een professioneel georganiseerd kantoor.
In deze blog lopen we stap voor stap langs de belangrijkste lijnen van de richtlijnen. We laten zien hoe zij zich verhouden tot de Vlaamse aanpak en wat dit betekent voor de dagelijkse praktijk van advocaten en juridische teams.
Waarom AI-richtlijnen nu onmisbaar zijn voor de Nederlandse advocatuur
De advocatuur staat in een spanningsveld. Aan de ene kant is er de druk van cliënten om sneller en efficiënter te werken. Aan de andere kant zijn er hoge eisen aan zorgvuldigheid, vertrouwelijkheid en onafhankelijkheid.
AI vergroot dat spanningsveld. De technologie maakt taken sneller en ogenschijnlijk eenvoudiger, maar vergroot ook de risico’s op fouten, datalekken en ondoorzichtige besluitvorming.
De NOvA kiest daarom voor een duidelijke uitgangspositie:
- AI is een hulpmiddel, geen vervanging van de advocaat
- De kernwaarden blijven leidend, ook als de techniek verandert
- De advocaat blijft altijd eindverantwoordelijk voor advies en proceshouding
De nieuwe aanbevelingen zijn dus geen rem op innovatie, maar een kader. Ze maken duidelijk onder welke voorwaarden AI de praktijk mag versterken.
AI binnen de kernwaarden van de advocatuur: techniek in dienst van het beroep
De richtlijnen zijn niet opgebouwd vanuit technologie, maar vanuit de klassieke kernwaarden: deskundigheid, vertrouwelijkheid, onafhankelijkheid, integriteit en partijdigheid. Dat is een belangrijk signaal. AI wordt niet gezien als los IT-vraagstuk, maar als iets dat direct raakt aan de identiteit van het beroep.
In de kern komt het hierop neer:
- Deskundigheid: je gebruikt geen hulpmiddel dat je niet begrijpt
- Vertrouwelijkheid: je verliest nooit de controle over cliëntgegevens
- Onafhankelijkheid: AI stuurt niet jouw oordeel, jij stuurt AI
- Integriteit: je bent eerlijk over de manier waarop je werkt
- Partijdigheid: je gebruikt AI alleen op een manier die de positie van je cliënt versterkt, niet verzwakt
De aanbevelingen concretiseren per kernwaarde wat dit betekent voor dagelijkse keuzes. Dat maakt het document praktisch bruikbaar voor beleid en voor individuele advocaten.
Deskundigheid en AI-vaardigheid: waarom elke advocaat de basis moet beheersen
De NOvA is heel duidelijk: een advocaat die AI inzet, moet weten wat hij doet. Basiskennis van generatieve AI is “essentieel voor iedere advocaat”.
Die deskundigheid heeft meerdere lagen.
Kennis van de techniek
Je hoeft geen programmeur te worden, maar je moet wel begrijpen:
- Wat een taalmodel doet
- Dat uitkomsten waarschijnlijk zijn, niet gegarandeerd juist
- Dat hallucinatie en bias geen uitzonderingen, maar eigenschappen zijn
Kennis van de juridische kaders
De Orde koppelt AI expliciet aan de AI-verordening en aan bestaande regelgeving over gegevensbescherming en cybersecurity. Dat betekent dat je als advocaat moet weten welke verplichtingen ontstaan zodra je persoonsgegevens, bedrijfsgevoelige gegevens of strafdossierinformatie via een AI-toepassing laat lopen.
Kennis van veilig werken in de praktijk
De aanbevelingen maken deskundigheid concreet:
- Volg scholing over generatieve AI, taalmodellen, foutdetectie en beveiliging
- Houd kennis actueel via permanente educatie en interne uitwisseling van goede voorbeelden
- Train jezelf in het formuleren van duidelijke instructies en het kritisch lezen van AI-uitvoer
De onderliggende lijn is scherp: een advocaat die AI gebruikt zonder deze basiskennis, handelt onzorgvuldig. AI-vaardigheid wordt onderdeel van het professionele profiel van de advocaat.
Verificatie en eindverantwoordelijkheid: de advocaat blijft de laatste controle
Een van de hardste eisen in de richtlijnen is de verificatieplicht. AI mag je helpen, maar het systeem neemt nooit het werk van de jurist over.
De NOvA formuleert dat heel concreet:
- Controleer citaten, jurisprudentie en feiten altijd handmatig voordat je ze gebruikt
- Gebruik bij voorkeur toepassingen met bronverwijzing, zodat je eenvoudig kunt nagaan of de verwijzing klopt en volledig is
Dit sluit aan bij wat veel onderzoeken laten zien: AI kan indrukwekkend goed presteren, maar fouten zijn vaak moeilijk zichtbaar als je niet actief controleert. Zeker bij langere analyses of goed klinkende clausules is de verleiding groot om mee te gaan met de toon van zekerheid.
De richtlijnen draaien die verleiding om in een norm. Juridisch gezien telt alleen wat jij als advocaat na controle accepteert. De verantwoordelijkheid verschuift niet naar het systeem, maar blijft bij de mens.
Vertrouwelijkheid en datastromen: het beroepsgeheim in een nieuw tijdperk
Het meest gevoelige deel van de aanbevelingen gaat over vertrouwelijkheid en gegevensbescherming. De kern is eenvoudig, maar vergaand: de advocaat moet alle datastromen kennen en beheersen.
Dat heeft praktische gevolgen. De Orde raadt onder meer aan:
- Gebruik geen vertrouwelijke gegevens in gratis of publieke toepassingen
- Deel alleen strikt noodzakelijke informatie en documenteer je afweging
- Voer geen vertrouwelijke of cliëntgegevens in publieke modellen
- Voer een beoordeling uit als je persoonsgegevens verwerkt met AI
- Zorg dat invoer en uitvoer binnen de beveiligde kantooromgeving blijven
In de Vlaamse richtlijnen ligt de nadruk al op pseudonimiseren en op het vermijden van open systemen voor informatie onder het beroepsgeheim. De Nederlandse aanbevelingen zijn net anders. Zij leggen nadruk op documentatie, formele beoordeling en contractuele afspraken met leveranciers.
Voor kantoren betekent dit dat incidenteel experimenteren met losse toepassingen niet meer past binnen een professionele standaard. Er is beleid nodig, een overzicht van gebruikte systemen en expliciete keuzes over wat wel en niet via AI mag lopen.
Onafhankelijkheid en integriteit: AI ondersteunt, maar bepaalt niet
AI-systemen zijn ontworpen om hulpvaardig te zijn. Ze vullen aan, denken mee en bevestigen vaak de instructie die de gebruiker geeft. Dat is prettig in het dagelijks gebruik, maar risicovol als het gaat om juridisch advies.
De NOvA waarschuwt daarom voor toepassingen die geneigd zijn de ingevoerde instructie te bevestigen, ook wanneer die niet klopt. De advocaat moet alert blijven op dit effect en actief toetsen of de uitkomst logisch en evenwichtig is.
Daarnaast vraagt de Orde dat kantoren toezicht organiseren:
- Stel een kantoorbreed AI-beleid op
- Leg vast hoe controle plaatsvindt en wie waarvoor verantwoordelijk is
- Implementeer een cyclus van evaluatie en bijstelling van het AI-gebruik
Integriteit krijgt ook een communicatieve kant. De Orde vindt dat kantoren cliënten moeten informeren over hun beleid rond AI. Niet door bij elk document te melden welke toepassing is gebruikt, maar door duidelijk te zijn over de manier waarop techniek wordt ingezet in de dienstverlening.
Partijdigheid en bias: waarom technologie nooit helemaal neutraal is
Partijdigheid betekent dat de advocaat zich vol inzet voor de belangen van de cliënt, binnen de grenzen van het recht. AI-systemen kennen die kernwaarde niet. Ze zijn getraind op grote hoeveelheden tekst, met alle vooroordelen en patronen van dien.
De NOvA verbindt partijdigheid daarom expliciet aan het risico op eenzijdige of bevooroordeelde algoritmen.
De boodschap:
- De advocaat blijft verantwoordelijk voor een rechtmatige, maar partijdige belangenbehartiging
- AI mag deze rol nooit overnemen en mag ook niet ongemerkt verschuiven naar de positie van beslisser
In de praktijk vraagt dit om kritische vragen als je AI gebruikt:
- Vanuit welk perspectief is deze tekst geschreven?
- Zijn er belangen of risico’s van de cliënt onderbelicht?
- Zijn er groepen of standpunten die structureel ontbreken in de voorbeelden die AI aandraagt?
Zo wordt bias-bewustzijn een onderdeel van de professionele standaard. Niet alleen bij wetgeving en beleid, maar ook in de dagelijkse keuze of je een voorstel van een systeem overneemt.
Vergelijking met Vlaanderen: dezelfde richting, andere accenten en nuance
De Vlaamse Orde heeft eerder richtlijnen gepubliceerd over AI-gebruik door advocaten. Wie beide documenten naast elkaar legt, ziet duidelijke overeenkomsten, maar ook interessante verschillen.
Overeenkomsten zijn onder meer:
- AI-gebruik is toegestaan, maar nooit verplicht
- De advocaat moet de werking en beperkingen van AI begrijpen
- Vertrouwelijkheid en gegevensbescherming zijn centrale zorgen
- De advocaat blijft eindverantwoordelijk voor elke vorm van AI-uitvoer
De Nederlandse aanbevelingen leggen andere accenten:
- Sterkere koppeling met permanente educatie en kwaliteitstoetsing
- Meer nadruk op datastromen, documentatie en formele beoordelingen
- Een expliciet verzoek aan kantoren om een breed AI-beleid op te stellen en cliënten daarover te informeren
Samengevat: Vlaanderen richt zich vooral op de individuele advocaat en het beroepsgeheim. Nederland plaatst AI nadrukkelijk binnen kantoororganisatie, governance en toezicht.
Wat kantoren nu concreet kunnen doen met de NOvA-aanbevelingen
De richtlijnen zijn geen theoretisch stuk. Ze vragen om concrete keuzes. Voor een gemiddeld kantoor ligt er grofweg de volgende agenda:
- Ontwikkel een helder AI-beleid
Leg vast welke toepassingen zijn toegestaan, voor welke werkzaamheden en onder welke voorwaarden. Maak duidelijk welke gegevens nooit via AI mogen worden verwerkt. - Organiseer scholing en interne kennisdeling
Zorg dat iedere advocaat een basisniveau van AI-kennis heeft. Laat collega’s voorbeelden delen van zaken die goed gingen en van situaties waarin AI fouten maakte. - Herzie werkprocessen
Bepaal bij welke taken AI kan helpen, zoals het maken van een eerste concept, samenvatten of structureren. Leg vast hoe de menselijke controle wordt ingericht. - Breng datastromen en leveranciers in kaart
Maak een overzicht van alle systemen waarin cliëntinformatie voorkomt, inclusief AI-functies. Controleer contracten op eigendom van data, beveiliging, aansprakelijkheid en de mogelijkheid om over te stappen als je leverancier verandert.
Wie deze stappen nu zet, voldoet niet alleen beter aan de aanbevelingen, maar bouwt ook aan een professionelere en efficiëntere praktijk.
Slotbeschouwing: AI wordt normaal, de kern van het beroep blijft
Met de aanbevelingen over AI in de advocatuur maakt de NOvA duidelijk dat AI geen tijdelijk speeltje is, maar blijvend onderdeel wordt van juridisch werk. Tegelijk beschermt de Orde wat de kern van het beroep vormt: onafhankelijk advies, vertrouwelijkheid, zorgvuldigheid en partijdige belangenbehartiging.
De uitdaging voor advocatenkantoren is nu om van losse experimenten te verschuiven naar volwassen gebruik. Dat vraagt om beleid, scholing, technische keuzes en eerlijke communicatie, intern en richting cliënten.
Wie die stap zet, hoeft niet bang te zijn voor AI. Dan wordt het een krachtige assistent, ingebed in een stevig professioneel kader. De techniek verandert, maar de maatstaf blijft dezelfde: de advocaat die weet wat hij doet, die de regie houdt en die de belangen van zijn cliënt centraal stelt. Juist in een tijdperk met digitale collega’s maakt dat het verschil.