Madrileense richtlijnen voor advocaten bij gebruik AI gepubliceerd
“Onze vaste inzet is dat innovatie altijd in dienst staat van het recht.”
De Orde van Advocaten in Madrid (ICAM) publiceert een “Guía de Buenas Prácticas para el uso de la Inteligencia Artificial en la Abogacía”: een praktische leidraad die innovatie omarmt, zonder de kernwaarden van de advocatuur los te laten. De boodschap is helder: “gebruik AI zonder angst, maar met discretie,” met behoud van vertrouwelijkheid, professioneel oordeel en mensenrechten als vaste ankerpunten. De gids past Europese en Spaanse kaders (waaronder de AI Act en het AVG-regime) concreet toe op het dagelijkse werk van advocaten, van documentanalyse en contractreview tot kantoor-governance.
Waarom deze gids ertoe doet
ICAM positioneert de advocatuur nadrukkelijk als aanvoerder van digitale verandering, niet als volger. Technologie ondersteunt, maar vervangt de advocaat niet: menselijke supervisie, kritisch oordeel en verhoogde zorgvuldigheid blijven leidend. De gids is opgesteld door ICAM onder coördinatie van Mabel Klimt (Managing Partner bij advocatenkantoor Elzaburu en verantwoordelijk voor innovatie binnen de ICAM), met inbreng van sectievoorzitters en externe experts.
De kern in zes pijlers
1) Begrijp de technologie die je inzet
De gids start met de basis: onderscheid analytische/predictieve AI en generatieve AI. Volgens de informatie in de gids produceren generatieve modellen nieuw taal- of beeldmateriaal op basis van patronen, maar begrijpen ze het recht niet; zij kunnen hallucineren en bias reproduceren. Daarom is systematische menselijke controle verplicht onderdeel van het werkproces.
In de praktijk:
- Zet GenAI in voor eerste versies en samenvattingen, maar verifieer bronnen en juridische juistheid.
- Documenteer je prompts, versies en correcties, zodat je verantwoording kunt afleggen.
2) Kies doelbewust: behoefteanalyse en toolselectie
Voer vóór gebruik een behoefteanalyse uit en test oplossingen uitvoerig. Stel selectiecriteria op (functionaliteit, beveiliging, privacy, interoperabiliteit, ROI) en verifieer deze ook tijdens het gebruik. Kies bij voorkeur tools met erkende normen (bijv. ISO/IEC 42001 voor AI-management, ISO/IEC 27001 voor informatiebeveiliging, ISO/IEC 27701 voor privacy).
In de praktijk:
- Leg vast waarvoor een tool is toegestaan, welke versie je gebruikt en wie toezicht houdt.
- Herzie periodiek of de tool nog voldoet aan technische, wettelijke en deontologische eisen.
3) Werk AI-conform: AI Act, AVG en meer
De gids vertaalt het Europese kader naar het kantoor: risicogebaseerde inzet, menselijke supervisie (AI Act art. 14), transparantie (art. 13), risicobeoordeling en impactevaluaties (art. 9 en 27), plus naleving van AVG-beginselen.
In de praktijk:
- Supervisie: laat AI-output altijd valideren door een advocaat; beperk AI voor taken die uitsluitend menselijk oordeel vereisen.
- Transparantie: informeer cliënten waar passend over AI-gebruik, beperkingen en aannames; kies waar mogelijk uitlegbare modellen en borg tracering van beslissingen.
- Risico & impact: voer vooraf risico-analyses en (waar nodig) grondrechten-impacttoetsen uit; audit periodiek prestaties en bias.
- Data & vertrouwelijkheid: voer geen vertrouwelijke cliëntgegevens in zonder passende waarborgen; check verwerkersvoorwaarden, versleuteling en basis in het gegevensbeschermingsrecht.
4) Governance, documentatie en registraties
ICAM beveelt interne protocollen aan: definieer toegestane tools en doeleinden, wijs verantwoordelijken aan, regel risicobeheer, houd logboeken bij en installeer incident- en auditprocedures.
In de praktijk:
- Leg een AI-register aan (tool, versie, dataset-herkomst, auditdata, beperkingen).
- Koppel governance aan datakwaliteit en bewaartermijnen; gebruik vaste review-checklists per product (memo, processtuk, contract).
5) Fundamentele rechten en bias-mitigatie
AI is niet neutraal. De gids vraagt om bias-audits, diversiteit in ontwerp- en toezichtteams en voortdurende monitoring.
In de praktijk:
- Check trainingsdata op representativiteit; test uitvoerig, juist ook op onbedoelde bias.
- Beperk gebruik van AI voor kritieke beslissingen; borg aanvullende menselijke toetsing.
6) Competenties, cultuur en leveranciers
Technologische competentie is een beroepsverplichting. Bouw een leercultuur met trainingen, interne assessments en interdisciplinaire communities (juristen, technici, privacy, ethiek). Externe leveranciers vallen onder hetzelfde regime: uitbesteden ≠ verantwoordelijkheid uitbesteden.
In de praktijk:
- Stel een jaarlijks opleidingsplan op (AI-geletterdheid, prompten, feitencontrole, tool-beveiliging, ethiek).
- Neem in leverancierscontracten concrete garanties op: beveiliging, updates, audit-rechten, model-documentatie, exit-afspraken.
Wat Nederlandse advocaten hiervan kunnen leren
Nederlandse advocaten kunnen van de Madrileense gids vooral leren om vooruit te organiseren: wacht niet op een Nederlandse richtlijn, maar stel nu al een kantoorbreed AI-beleid op, met een register van toegestane tools, duidelijke use-cases, verplichte menselijke eindcontrole en periodieke audits op kwaliteit, bias en brongebruik. Maak AI-geletterdheid onderdeel van permanente educatie, toets leveranciers op beveiliging, privacy en uitlegbaarheid, en borg dat vertrouwelijke gegevens alleen binnen gesloten, goed gecontracteerde omgevingen worden verwerkt. De recente richtlijnen van de Orde van Vlaamse Balies wijzen in dezelfde richting: AI is toegestaan, maar de advocaat blijft eindverantwoordelijk, bewaakt vertrouwelijkheid en controleert de output; verplichte transparantie naar cliënten is daar niet opgenomen. Samen geven Madrid en Vlaanderen zo een praktisch sjabloon dat Nederlandse kantoren direct kunnen toepassen.
Conclusie
De kern is eenvoudig en werkbaar: innoveer, maar structureer. De ICAM-aanpak laat zien hoe je AI veilig integreert zonder het hart van de advocatuur, vertrouwelijkheid, onafhankelijk oordeel en zorgvuldige rechtsbescherming, te verliezen. Dat begint bij een helder AI-beleid met rollen en bevoegdheden, een actueel tool- en datalogsysteem, en vaste review-checklists per product (advies, processtuk, contract). Voeg daar een risicogebaseerde werkwijze aan toe (laag, middel, hoog), expliciete “mens-in-de-lus”-stappen en herhaalbare kwaliteitscontroles, zodat elke AI-bijdrage traceerbaar en uitlegbaar blijft.
Investeer tegelijk in vaardigheden: train teams in prompten, bron- en feitencontrole, bias-herkenning en privacy-hygiëne, en zet een interne testomgeving op om nieuwe tools gecontroleerd te testen. Contracteer leveranciers streng op beveiliging, modeldocumentatie, auditrechten en incidentplichten; uitbesteden betekent niet dat de verantwoordelijkheid verdwijnt.
Kijk tot slot over de grens: Vlaanderen bevestigt de lijn van Madrid en onderstreept dat vrijheid om AI te gebruiken gepaard gaat met verhoogde professionele zorgplicht. Wie deze lessen nu vertaalt naar beleid, processen en scholing, haalt voordeel uit AI, houdt regie over kwaliteit en blijft, ook al is er nog geen Nederlandse richtlijn, volledig binnen de beroepsethiek.