Menu

Filter op
content
PONT | Governance

0

Europese Commissie trekt wetsvoorstel voor AI-aansprakelijkheidsrichtlijn in

19 februari 2025

blue and black ball on blue and white checkered textile
Het wetsvoorstel voor een AI-aansprakelijkheidsrichtlijn (ook wel de “AI Liability Directive”) is van de baan. Dat volgt uit het werkprogramma van de Europese Commissie voor 2025.[1] Reden van de intrekking van het wetsvoorstel, dat op 29 september 2022 door de Europese Commissie werd geïntroduceerd, is dat overeenstemming tussen de Europese wetgevende partijen ‘niet voorzienbaar’ is.[2] De Europese Commissie geeft aan te onderzoeken of een ander wetsvoorstel in de plaats moet treden van de ingetrokken AI Liability Directive of dat een andere aanpak gevolgd moet worden. In dit artikel bespreken Laura Poolman en Astrid Sixma (beide Kennedy van der Laan) de gevolgen van deze ontwikkeling.

Wat regelde de AI Liability Directive?

Het wetsvoorstel had het doel om – ter verbetering van de interne markt binnen de Europese Unie – uniforme regels vast te stellen voor niet-contractuele, civielrechtelijke aansprakelijkheid bij schade als gevolg van de betrokkenheid van AI-systemen. Sinds 1 augustus 2024 is de AI-Verordening in werking getreden, waarin het op de markt brengen en gebruiken van – voornamelijk ‘hoog risico’ – AI-systemen wordt gereguleerd. In deze wet zijn onder meer waarborgen opgenomen om risico’s voor de veiligheid en fundamentele rechten door de inzet van AI-systemen te beperken. Echter, deze waarborgen zijn onvoldoende om deze risico’s volledig weg te nemen. Bovendien, in de AI-Verordening ontbreken concrete bepalingen voor verhaal van schade als gevolg van gebrekkige AI-systemen.

In de AI Liability Directive stond daarom aansprakelijkheid voor alle vormen van schade (geleden door natuurlijke personen en rechtspersonen) door AI-systemen centraal. Te denken valt aan situaties waarbij een individu financiële of reputatieschade schade lijdt als gevolg van een foutieve output door een AI-systeem, bijvoorbeeld omdat de beveiligingsmaatregelen niet op juiste wijze zijn doorgevoerd of sprake is geweest van discriminatie.

Het wetsvoorstel sloot aan op soortgelijke wetgeving die op Europees niveau al bestaat om bescherming te bieden bij schade geleden door andere technologieën, zoals de EU-richtlijn voor productaansprakelijkheid. Hierbij wordt uitgegaan van risicoaansprakelijkheid, wat betekent dat het voor de verhaalbaarheid van de schade niet uitmaakt of deze het gevolg is van schuld. Deze productaansprakelijkheidsrichtlijn – in Nederland opgenomen in het Burgerlijk Wetboek – kan ook soelaas bieden bij AI-gestuurde producten. De werking daarvan is echter beperkt tot de producent van het gebrekkige product (enkele uitzonderingen daargelaten). De AI Liability Directive trok de aansprakelijkheid door naar gebruikers van AI-systemen. Daarnaast werden twee handvatten geïntroduceerd om het voor de benadeelde makkelijker te maken causaliteit tussen de geleden schade en de schadeveroorzakende handeling (door het AI-systeem) aan te tonen, door (i) de verantwoordelijke voor het AI-systeem te kunnen verplichten om tot openbaarmaking van het bewijsmateriaal over te gaan en (ii) het bestaan van een vermoeden van causaal verband aan te nemen.

(i) Openbaarmaking van bewijsmateriaal door verantwoordelijke AI-systeem

Aan de partij die het AI-systeem heeft ontwikkeld (aanbieder) of de partij die het AI-systeem gebruikt (gebruiksverantwoordelijke) kon worden bevolen om bewijsmateriaal openbaar te maken. Dit was alleen aan de orde als het AI-systeem, waarvan wordt vermoed dat dit de schade heeft veroorzaakt, als ‘hoog risico’ kwalificeert onder de AI-Verordening én de informatie al eerder door de eisende partij is verzocht maar niet is verkregen. Bovendien moest de eisende partij ‘aannemelijk maken’ dat schade is geleden door het betreffende AI-systeem. Algemene ‘fishing expeditions’ werden hiermee voorkomen. De aangesproken partij kan het vermoeden van door het aangewezen AI-systeem veroorzaakte schade weerleggen.

(ii) Vermoeden van causaal verband

Gelet op de complexiteit van (de werking van) AI-systemen, voorzag het voorstel onder voorwaarden in een – weerlegbaar – vermoeden van causaliteit tussen de fout enerzijds, en de output die door het AI-systeem wordt gegenereerd, dan wel het onvermogen van het AI-systeem om deze output te genereren die de relevante schade heeft veroorzaakt anderzijds. De eiser moet dan nog wel steeds bewijzen dat de schade is veroorzaakt door schending van een Unierechtelijke of nationaalrechtelijke verplichting (waaronder: het niet voldoen aan de AI-Verordening),  dat het – gelet op de omstandigheden van het geval – waarschijnlijk is dat gedrag[3] van de aangesproken partij van invloed is geweest op het ontstaan van deze schade en de (afwezige) output van het AI-systeem heeft geleid tot de schade.

Gevolgen voor de (Nederlandse) praktijk?

Betekent het stranden van het voorstel voor de AI Liability Directive dat een door een AI-systeem gedupeerde persoon nu met lege handen staat? Zeker niet: het Nederlandse recht kent al vergelijkbare instrumenten, zoals onze collega Reinoud Westerdijk en conculega Polo van der Putt eerder schreven.[4]

(i) Openbaarmaking van bewijsmateriaal; exhibitieplicht

In art. 194 Rv (het ‘oude’ 843a Rv dat tot 1 januari 2025 gold) is de exhibitieplicht opgenomen. Met een beroep op dit artikel kan inzage of afschrift worden gevorderd van stukken die de wederpartij onder zich heeft als de eiser daar een rechtmatig belang bij heeft, bijvoorbeeld ter bewijsvoering. Art. 194 Rv lijkt een succesvol beroep op deze bepaling echter meer aan banden te leggen dan de richtlijn. Algemene ‘fishing expeditions’ worden in beide gevallen voorkomen, maar onder art. 194 Rv moet de eiser een specifiek belang bij afgifte van de gevorderde stukken aantonen en de af te geven stukken voldoende specificeren. Op dit punt was de AI Liability Directive een welkome toevoeging geweest voor de gedupeerde.

(ii) Vermoeden van causaal verband; omkeringsregel

Ons recht kent het rechtsfiguur van het bewijsvermoeden en in de rechtspraak wordt de zogeheten ‘omkeringsregel’ toegepast. Indien een verwijtbare gedraging een risico op schade in het leven heeft geroepen en dit risico zich vervolgens heeft verwezenlijkt, dan is daarmee het causaal verband tussen die gedraging en de ontstane schade in beginsel gegeven. Het is dan aan de beweerdelijk schadeveroorzakende partij (in deze context: de gebruiksverantwoordelijke of aanbieder van het AI-systeem) om het tegendeel te bewijzen. Deze omkeringsregeling wordt al toegepast bij schade veroorzaakt door gebrekkige of onveilige producten die niet voldoen aan de wettelijke voorschriften. Westerdijk en Van der Putt concludeerden dat de AI Liability Directive meer behoudend lijkt op dit punt, omdat daarin de additionele eis is opgenomen dat aannemelijk moet worden gemaakt dat redelijkerwijs kan worden aangenomen dat door de normschending de werking van het AI-systeem is beïnvloed. Een dergelijke eis volgt niet uit de huidige Nederlandse omkeringsregel. De partij die stelt schade te hebben gelden door een AI-systeem, zou dan beter af zijn met de toepassing van de in de Nederlandse rechtspraak ontwikkelde omkeringsregel.

Conclusie

Op dit moment is het afwachten of er vanuit Europa alsnog geharmoniseerde regels komen over aansprakelijkheid en AI. Indien deze regels niet of niet-tijdig hun intrede doen, dan zal teruggevallen worden op het nationale regime, dat vergelijkbare juridische instrumenten biedt waarmee de schadelijdende partij zijn recht kan (proberen te) halen.

Lees hier de originele versie op de website van Kennedy van der Laan

------------------

[1]https://commission.europa.eu/strategy-and-policy/strategy-documents/commission-work-programme/commission-work-programme-2025_en

[2] Naast de Europese Commissie, zijn dat het Europees Parlement en de Raad van de Europese Unie.

[3] Het moet dan gaan om nalatig gedrag van deze partij, bijvoorbeeld een fout door menselijk handelen of nalaten dat niet voldoet aan een zorgplicht die volgt uit het Unie- of nationale recht die rechtstreeks bescherming biedt tegen de schade.

[4] mr. P.G. van der Putt en mr. R.J.J. Westerdijk, AI en aansprakelijkheid: stappen naar een nieuw regime, Tijdschrift voor Internetrecht, 2023 nr.1. Tevens hier te raadplegen: https://kvdl.com/artikelen/ai-en-aansprakelijkheid-stappen-naar-een-nieuw-regime

Artikel delen

Reacties

Laat een reactie achter