Belgische richtlijnen voor advocaten voor het gebruik van AI en wat we in Nederland kunnen verwachten

In België zijn recent (20 januari 2025) richtlijnen gepubliceerd door de Orde van Vlaamse Balies over het gebruik van artificiële intelligentie (AI) door advocaten. Deze richtlijnen geven meer duidelijkheid over de manier waarop advocaten AI kunnen inzetten binnen hun praktijk en welke verantwoordelijkheden daarbij horen. Wat houden de Belgische richtlijnen precies in? En hoe kunnen Nederlandse advocaten zich voorbereiden op toekomstige richtlijnen in ons eigen land?

AI-gebruik: toegestaan, maar met duidelijke verantwoordelijkheden

In België is het gebruik van AI door advocaten niet verplicht, maar ook niet verboden. Advocaten hebben de vrijheid om AI-tools in te zetten, mits zij de werking ervan begrijpen en de controle behouden over de resultaten.

Dit betekent onder meer dat:

  • De advocaat basiskennis moet hebben van AI en Large Language Models (LLM’s).
  • De advocaat de gebruiksvoorwaarden van AI-tools goed moet doorlezen. Dit met aandacht voor zaken als dataverwerking en het karakter van het AI-systeem (open of gesloten).
  • De advocaat de output van AI altijd moet controleren, inclusief vermelde bronnen.

Vertrouwelijkheid en gegevensbescherming: kernpunten binnen AI-gebruik

Belgische advocaten moeten ervoor zorgen dat vertrouwelijke informatie (gedekt door het beroepsgeheim) niet in ieder AI-systeem terechtkomt.

Dit vertaalt zich in de volgende concrete richtlijnen:

  • De advocaat pseudonimiseert persoonsgegevens voordat deze door AI-tools worden verwerkt.
  • Alleen wanneer dit essentieel is, dan mogen persoonsgegevens door AI verwerkt worden, mits de advocaat transparant is en vraagt om toestemming aan de betrokken persoon.
  • Er mogen geen vertrouwelijke gegevens (gedekt door het beroepsgeheim) in AI-systemen worden ingevoerd, tenzij de advocaat absoluut zeker is dat hij of zij het AI-systeem gebruikt in een gesloten omgeving met voldoende waarborgen.

Aansprakelijkheid: de advocaat blijft eindverantwoordelijk

AI mag ondersteuning bieden, maar de advocaat blijft volledig aansprakelijk voor het gebruik van door AI gegenereerde output.

Geen verplichte transparantie over AI-gebruik

Opvallend aan de Belgische richtlijnen is dat advocaten niet verplicht zijn om cliënten te informeren over hun AI-gebruik. Dit betekent dat een advocaat net als bij andere IT-tools niet hoeft te vermelden dat AI is ingezet bij het uitvoeren van een juridische analyse of voor het opstellen van een overeenkomst.

Wat betekent dit voor Nederland?

Hoewel  de Nederlandse orde van advocaten nog geen vergelijkbare richtlijnen heeft, uitgevaardigd kunnen advocaten zich al wel voorbereiden op de komst hiervan:

  1. Verdiep je in AI en de juridische toepassingen ervan – zorg dat je begrijpt hoe AI werkt en welke beperkingen er zijn. Zo is bijvoorbeeld AI-geletterdheid vanaf deze maand (februari 2025) een wettelijk vereiste als gevolg van de AI Act. Dat betekent dat de leveranciers van AI-systemen en de organisaties die AI-systemen gebruiken op grond van artikel 4 van de AI Act verplicht zijn om er voor te zorgen dat alle medewerkers die gebruikmaken van AI ook AI-geletterd zijn.
  2. Controleer altijd de output van AI-tools – vertrouw niet blindelings op de gegenereerde tekst en controleer bronnen.
  3. Zorg ervoor dat vertrouwelijke gegevens niet in AI-systemen terechtkomen – gebruik alleen geanonimiseerde gegevens en gebruik niet zomaar iedere (nieuwe) tool.
  4. Blijf verantwoordelijk: AI is een hulpmiddel en de advocaat blijft verantwoordelijk – zorg ervoor dat cliënten niet afhankelijk worden van geautomatiseerde adviezen.

Met veel dank aan Jos van der Wijst voor de bijdrage aan deze blog!