Moet AI een eigen rechtspersoonlijkheid krijgen?
“De wet gaat uit van mensen en bedrijven. Maar wat als straks een AI zelfstandig beslissingen neemt die juridische gevolgen hebben?”
Volgens de Britse Law Commission – een onafhankelijke adviescommissie van de Britse wetgever – moeten we deze vraag serieus nemen. In haar nieuwe discussiestuk AI and the Law verkennen zij de juridische knelpunten rondom kunstmatige intelligentie. Eén van de spannendste vragen: moeten sommige AI-systemen straks worden erkend als juridische entiteit, met een eigen rechtspersoonlijkheid?
De discussie klinkt futuristisch, maar is actueler dan je denkt. AI wordt steeds autonomer en speelt een steeds grotere rol in besluitvorming, ook in juridische contexten. Denk aan contractanalyse, juridisch onderzoek en het analyseren van dossiers.
Waarom deze discussie nu?
De Law Commission ziet drie trends die deze vraag urgent maken:
- AI wordt agentisch en zelfstandig – AI-systemen voeren steeds vaker taken uit zonder menselijke tussenkomst. Denk aan zelfrijdende voertuigen op niveau 4 die in bepaalde gebieden volledig autonoom rijden, of AI-agents die zelfstandig een complete reis plannen, boeken en betalen. Sommige systemen nemen zelfs beslissingen op basis van complexe afwegingen en zelf ontwikkelde strategieën, zoals AlphaGo dat deed in zijn partijen tegen menselijke wereldkampioenen.
- De wet kent nu al verschillende soorten rechtspersonen – Denk aan bedrijven, verenigingen of stichtingen. Die kunnen eigendom hebben, contracten sluiten en voor de rechter worden gedaagd. Waarom zou een geavanceerd AI-systeem dat zelfstandig handelt daar niet ook onder kunnen vallen? In theorie zou dat kunnen, maar in de praktijk is dat nu nog niet aan de orde. Zelfs de meest geavanceerde toepassingen, zoals zelfrijdende voertuigen, hebben nog altijd een menselijke toezichthouder of interventiemogelijkheid. AI opereert dus (voorlopig) nog niet volledig los van menselijk ingrijpen.
- Er ontstaan juridische gaten in de aansprakelijkheid – In sommige scenario’s is niemand echt aansprakelijk voor schade veroorzaakt door AI. Dan is er een juridisch gat. Een aparte rechtspersoonlijkheid voor AI zou dat kunnen opvangen.
De Law Commission benadrukt dat het nog te vroeg is om AI zo’n status te geven. Maar het idee wordt wel steeds realistischer.
Wat betekent ‘rechtspersoonlijkheid’ eigenlijk?
Een entiteit met rechtspersoonlijkheid kan:
- Eigendom hebben,
- Rechten en plichten dragen,
- Contracten aangaan,
- En zelfstandig procederen of gedaagd worden.
Dat betekent dus ook: aansprakelijkheid dragen. En daar zit precies de kern van het debat. Rechtspersoonlijkheid is een juridische constructie. Het is niet voorbehouden aan mensen of bedrijven. In de loop der tijd hebben ook andere entiteiten een juridische status gekregen. Denk aan stichtingen, verenigingen of zelfs tijdelijke samenwerkingsverbanden.
Zo krijgt ook de natuur steeds vaker rechtspersoonlijkheid. In 2017 ontving de Whanganui-rivier in Nieuw-Zeeland een eigen juridische status. Niet omdat de rivier contracten gaat ondertekenen, maar zodat zij beter beschermd kan worden, met vertegenwoordigers die haar belangen mogen behartigen in juridische procedures.
Argumenten vóór en tegen AI met rechtspersoonlijkheid
De Law Commission zet de voordelen en nadelen helder uiteen.
Voordelen:
- Aansprakelijkheid kan beter worden gereguleerd en gekanaliseerd.
- Innovatie wordt mogelijk bevorderd doordat ontwikkelaars niet meer alle risico’s hoeven te dragen.
- AI-systemen kunnen zelf verantwoordelijk worden gehouden voor hun gedrag.
Bezwaren:
- Ontwikkelaars kunnen AI gebruiken als juridisch schild om eigen aansprakelijkheid te ontlopen.
- Hoe geef je AI echt ‘bezit’ of ‘middelen’ om aansprakelijk te maken? Dat vraagt een compleet nieuw juridisch kader.
- De morele en ethische vraag: willen we machines behandelen als juridische ‘personen’?
Wanneer zou een AI in aanmerking komen?
Niet elk AI-systeem is een kandidaat voor rechtspersoonlijkheid. Een spamfilter of automatische assistent die afspraken in je agenda inboekt hoeft geen rechtspersoon te worden. De discussie richt zich voornamelijk op AI agents: systemen die zelfstandig complexe taken uitvoeren en zelfstandig beslissingen nemen.
Criteria die overwogen worden zijn onder meer:
- Mate van autonomie,
- Vermogen tot zelflering,
- En de impact van de beslissingen.
Maar waar trek je de grens? En wie bepaalt dat? Uiteindelijk zal de wetgever daarin keuzes moeten maken.
Wat moet de wetgever nu doen?
De Law Commission komt niet met concrete wetsvoorstellen, maar benadrukt drie urgente aandachtspunten voor de wetgever in Groot Brittannië:
- Onderzoek de mogelijkheid van rechtspersoonlijkheid voor AI Niet voor elk systeem, maar wellicht voor de meest geavanceerde, autonome AI-agents. De wetgever moet verkennen of en hoe dit vorm kan krijgen, inclusief toezicht, identificatie en aansprakelijkheidsregels.
- Voorkom een aansprakelijkheidsvacuüm Een toekomstige wet moet duidelijk maken wie verantwoordelijk is binnen complexe AI-ketens: ontwikkelaars, leveranciers, gebruikers of allemaal? Zo voorkom je dat slachtoffers tussen wal en schip vallen.
- Zorg voor uitlegbaarheid en toegang tot bezwaar Zeker als AI wordt ingezet binnen de overheid of het strafrecht, moet het mogelijk blijven om beslissingen te begrijpen, te toetsen en aan te vechten. Dat vraagt om transparantie, maar ook om nieuwe juridische kaders.
Conclusie: een oud debat met nieuwe urgentie
De vraag of technologie een eigen rechtspersoonlijkheid moet krijgen, speelt al langer. In de context van zelfrijdende auto’s, autonome robots en drones wordt al jaren gezocht naar manieren om aansprakelijkheid eerlijk en effectief te verdelen. Wat nieuw is, is dat AI inmiddels taken kan uitvoeren die veel dichter bij juridische kernfuncties liggen, het interpreteren van contracten, het nemen van beslissingen op basis van complexe datasets, of het aangaan van interacties die juridisch bindend kunnen zijn.
De kern van het vraagstuk is niet veranderd: hoe voorkomen we dat er een aansprakelijkheidsvacuüm ontstaat als technologie zelfstandig handelt? Wat wél verandert, is de snelheid waarmee die vraag nu op ons afkomt. AI-systemen ontwikkelen zich in een tempo dat wetgevers onder druk zet om nu al scenario’s uit te werken, voordat de praktijk ons inhaalt.
Voorlopig is er altijd nog een mens “in de loop” en ligt de juridische verantwoordelijkheid bij natuurlijke of bestaande rechtspersonen. Maar als AI-agenten straks echt zelfstandig en onvoorspelbaar handelen, moeten we een keuze maken: blijven we werken binnen het huidige model, of geven we bepaalde AI-systemen een eigen juridische status? Dat debat is niet nieuw, maar het is nog nooit zó urgent geweest.