Juridische aansprakelijkheid in tijden van AI

We leven in een digitaal tijdperk waarin steeds meer zaken worden geregeld door middel van technologie. Een van de belangrijkste uitvindingen was Artificiële Intelligentie (AI). AI is een technologie, waarbij computersystemen taken uitvoeren die normaal menselijk denkvermogen vereisen, zoals leren, redeneren en beslissen. In onze huidige samenleving is een leven zonder AI haast ondenkbaar geworden en is het een onderdeel van ons dagelijks leven geworden. Denk hierbij aan ChatGPT, zelfrijdende auto’s, chatbots voor klantenservice, beeldanalyse in de gezondheidszorg…

AI maakt ons leven makkelijker, maar het gebruik ervan is niet compleet risicoloos. Indien de software een gebrek bevat of bij verkeerd gebruik ervan door de gebruiker kan hierdoor schade ontstaan. Hoe wordt de aansprakelijkheid voor deze schade geregeld? Door het zelflerende en autonome karakter van AI wijkt de toepassing van aansprakelijkheid namelijk af van de gebruikelijke aansprakelijkheid. Wie wordt gehouden tot de vergoeding van de schade? Is dit de ontwikkelaar van de software of de gebruiker ervan? U leest het in deze blogpost.

Fleur Soffers

Legal Consultant 

Werkingsjaar 2025-2026

 

De AI-verordening

Op 2 februari 2024 trad de Europese AI-verordening, ter regulering van AI in de Europese Unie, in werking. In deze verordening wordt onder andere een verbod opgelegd voor AI-systemen met een ‘onacceptabel risico’. Dit zijn systemen die een kennelijke bedreiging vormen voor de veiligheid, levensonderhoud en de rechten van mensen, zoals social scoring[1] en real-time biometrische identificatie in openbare ruimtes[2]. De verordening bevat nog 3 andere niveaus van risico’s, namelijk een hoog risico, beperkt risico en een minimaal risico. De mate van verplichtingen en voorzorg is afhankelijk van het risicogehalte van de AI.

In hoge risico-systemen, zoals in de gezondheidszorg, migratiediensten en onderwijs, gelden er strikte verplichtingen om het risico te handhaven. Ze moeten bijvoorbeeld beschikken over adequate systemen voor risicoanalyse en risicobeperking, activiteiten registreren en menselijk toezicht blijven uitvoeren.

Productaansprakelijkheid

Wettelijk toepassingsgebied

Volgens de Wet Productaansprakelijkheid (WPA) is de producent aansprakelijk voor de schade die veroorzaakt wordt door een gebrek in een product dat hij op de markt brengt. Deze wetgeving is van toepassing op roerende goederen, maar het wordt aanvaard dat software die geïncorporeerd is in een lichamelijk goed (bijvoorbeeld een auto, een bank, een lamp…) ook onder de toepassing valt. Men kan zich de vraag stellen of AI wel onder de toepassing van de wet valt indien het niet geïncorporeerd is in een lichamelijk goed. De Europese Commissie opteert echter voor een ruime interpretatie van het toepassingsgebied, waardoor software eveneens onder het toepassingsgebied van de wet valt.

Wanneer is een product gebrekkig?

Opdat de producent van het AI-systeem aansprakelijk gesteld kan worden, moet de AI een gebrek bevatten. Volgens deze wet is een product gebrekkig wanneer het niet de veiligheid biedt die men gerechtigd is te verwachten. Dit is de consumer expectation test. Hierbij moet rekening gehouden worden met de verwachtingen van de doelgroep en van de voorzienbare, maar niet bedoelde, gebruikers. Het dient daarnaast ook veilig te zijn voor een normaal gebruik én een abnormaal gebruik dat redelijkerwijze voorzienbaar is. Denk hierbij bijvoorbeeld aan een knuffel voor kinderen, maar waarvan de stof giftig is. Het is niet bedoeld om de knuffel in de mond te steken, maar het is redelijk voorzienbaar dat kleine kinderen dit wel zullen doen.

Het probleem bij de consumer expectation test is dat veel mensen weinig kennis hebben van deze technologieën en dit maakt het moeilijk om hun verwachtingen in te schatten. Daarom is het beter om de risk utility test uit te voeren, waarbij een product gebrekkig is als de productie ervan onzorgvuldig was. Om de onzorgvuldigheid te beoordelen moet men een kostenbaten-analyse uitvoeren. Als de kost om de AI veiliger te maken lager is dan de opbrengst van de veiligheid ervan, moet de producent deze investering doen. Doet de producent dit niet, dan kan hij aansprakelijk gesteld worden voor de schade die ontstond door het gebrek.

Zijn er bevrijdingsgronden voor de producent?

De producent van het AI-systeem is normaal gezien niet aansprakelijk als hij kan bewijzen dat het gebrek pas ontstond nadat het product in het verkeer werd gebracht. Dit is vanzelfsprekend bij lichamelijke roerende goederen, maar bij AI-systemen is dit een moeilijk vraagstuk. Er worden immers regelmatig updates uitgevoerd en men moet het zelflerend karakter van AI-systemen in acht nemen.

Een andere mogelijke bevrijdingsgrond voor de producent is het ontwikkelingsrisico. Hierbij kon de producent het gebrek ten tijde van in het verkeer brengen van de AI niet ontdekken op basis van de toenmalige stand van wetenschappelijke en technische kennis. Net zoals bij de eerder vermelde bevrijdingsgrond zorgt het zelflerend karakter van AI voor problemen. Hierdoor kan de producent het gedrag van AI niet volledig voorzien en kan hij in veel gevallen ontsnappen aan zijn aansprakelijkheid, wat zou leiden tot onbillijke gevallen. De producent dient immers al tijdens de ontwikkelingsfase hypotheses te vormen over hoe de AI zich verder zal ontwikkelen en mogelijke risico’s te proberen elimineren.

Foutaansprakelijkheid

De foutaansprakelijkheid, vervat in artikelen 6.5 en 6.6 nieuw BW, kan door iedere schadelijder worden ingeroepen ten aanzien van de persoon die door een fout de schade veroorzaakt heeft. In tegenstelling tot bij de productaansprakelijkheid, kan de schadelijder iedereen aanspreken die een fout beging, en niet enkel de producent.

Om succesvol een schadevergoeding te ontvangen, moet de schadelijder drie elementen aantonen. Een fout vanwege de persoon tegen wie de aansprakelijkheid wordt ingeroepen, de schade en ten slotte een causaal verband tussen de fout en de schade.

Het foutbegrip

Men kan op twee manieren een fout begaan. Dit kan door de schending van een wettelijke regel die een bepaald gedrag oplegt of juist verbiedt en door de schending van de algemene zorgvuldigheidsplicht. Een voorbeeld van een schending van een wettelijke regel is schending van een van de gedragsverplichtingen van de AI-verordening. Als aanbieders van AI-systemen bijvoorbeeld niet diens activiteiten registreren of een risico-analyse uitvoeren, kunnen zij hiervoor aansprakelijk worden gesteld.

Het wettelijk kader met betrekking tot AI is tot op heden redelijk beperkt en door het evoluerend karakter is het moeilijk om vaste normen uit te vaardigen. Hier komt de algemene zorgvuldigheidsnorm goed van pas. De algemene zorgvuldigheidsnorm gaat uit van gedrag dat overeenstemt met dat van een voorzichtig en redelijk persoon in dezelfde omstandigheden geplaatst. Als het gedrag van de persoon in kwestie niet overeenstemt met dit gedrag, kan hij aansprakelijk worden gesteld.

Bij de algemene zorgvuldigheidsnorm wordt er onder andere rekening gehouden met de redelijk voorzienbare gevolgen van het gedrag. Ook hier zorgt het onvoorspelbare en zelflerende karakter van AI voor problemen. De producent kan bijvoorbeeld tijdens de ontwikkelingsfase rekening houden met eventuele evoluties van AI om bepaalde schaderisico’s te voorkomen of de gebruiksbevoegdheid van de AI beperken tot professionals. Daarnaast moet de producent na het op de markt brengen van het AI-systeem toezicht houden op de werking ervan en eventueel waarschuwingen geven of updates doen.

Bij de aansprakelijkheid van de operator van het AI-systeem moet men een onderscheid maken tussen systemen met een hoog en laag risico. Bij systemen met een hoog risico is de operator objectief aansprakelijk en dus steeds aansprakelijk, ook al beging hij geen fout. Indien het een laagrisicosysteem is, kan de operator de aansprakelijkheid ontsnappen indien hij kan bewijzen dat de schade niet door zijn fout is ontstaan of ingeval van overmacht.

De gebruiker van AI kan eveneens aansprakelijk worden gesteld in drie gevallen. In de eerste plaats indien hij bewust de gebruiksinstructies overtreedt bij gebruik ervan of het met een schadeverwekkend oogmerk gebruikt. Ten tweede indien de externe omstandigheden ervoor zorgen dat het gebruik van AI een schending van de algemene zorgvuldigheidsnorm uitmaakt. Denk hierbij bijvoorbeeld aan het gebruik van AI bij financieel advies tijdens een beurscrash. De AI is getraind op basis van historische informatie en kan in deze uitzonderlijke marktomstandigheden geen gepast advies verlenen. Ten slotte kan men zich de vraag stellen of de gebruiker al dan niet de mogelijkheid heeft tot controle of interventie wanneer het schadegeval zich voordoet. Als de gebruiker de mogelijkheid had om weer controle te nemen om het schadegeval te voorkomen en hij deed dit niet, dan kan hij aansprakelijk zijn.

Objectieve aansprakelijkheid

Bij de objectieve aansprakelijkheid, ook wel risicoaansprakelijkheid genoemd, moet het slachtoffer geen fout bewijzen vanwege de gebruiker of houder van het AI-systeem. Deze aansprakelijkheid maakt het beduidend makkelijker voor de schadelijder om zijn schade vergoed te krijgen. Dit heeft tot gevolg dat men zorgvuldiger en voorzichtiger omgaat met AI, maar dit zorgt ook voor een daling van de activiteit. Deze strikte aansprakelijkheid zorgt ervoor dat de huidige technologieën zich blijven verbeteren, om ervoor te zorgen dat men niet aansprakelijk gesteld kan worden.

Hoog risico

De objectieve aansprakelijkheid is van toepassing bij operatoren van AI-systemen met een hoog risico. Het Europees parlement omschrijft dit als ‘een aanzienlijk potentieel van een autonoom werkend AI-systeem om één of meer personen schade te berokkenen op een wijze die willekeurig is en verder gaat dan wat redelijkerwijs kan worden verwacht’. Hoe aanzienlijk het potentieel is, hangt af van de wisselwerking tussen de ernst van de mogelijke schade, de mate van autonome besluitvorming, de waarschijnlijkheid dat het risico zich verwezenlijkt, de gebruikswijze en de context waarin het AI-systeem wordt gebruikt.

De operatoren van AI-systemen kunnen bij een hoog risico niet ontsnappen aan de aansprakelijkheid, ook al handelden ze zorgvuldig. Ze zijn echter niet aansprakelijk indien de schade ontstaat door overmacht.

Zaakaansprakelijkheid

Op grond van artikel 6.16 nieuw BW zijn bewaarders objectief aansprakelijk voor de schade veroorzaakt door gebrekkige zaken die ze in bewaring hebben. De toepassing van deze aansprakelijkheid is eveneens niet vanzelfsprekend als het om AI gaat.

Ten eerste moet er sprake zijn van een zaak. AI-systemen die verwerkt zijn in een lichamelijk goed kunnen gekwalificeerd worden als een zaak, maar zuivere AI-systemen zijn een moeilijk vraagstuk. Er zijn auteurs die pleiten dat de zaakaansprakelijkheid van artikel 6.16 nieuw BW enkel van toepassing is op lichamelijke goederen. Dit zou betekenen dat deze aansprakelijkheid niet ingeroepen kan worden voor schade veroorzaakt door zuivere AI-systemen die niet verwerkt zijn in een lichamelijk goed. Het kan wel ingeroepen worden voor samengestelde goederen. Dit zijn goederen waarin AI is verwerkt, zoals een zelfrijdende auto.

Ten tweede moet de zaak gebrekkig zijn. Volgens het Hof van Cassatie is dit ‘een abnormaal kenmerk of abnormale gesteldheid van de zaak waardoor ze in bepaalde omstandigheden schade kan veroorzaken’. Dit kan zowel een intrinsiek gebrek zijn als een extern gebrek. Dit wil zeggen een gebrek aan het goed zelf of dat het gebruik van het goed door externe factoren gevaarlijk kan zijn. De AI moet verder een ‘abnormaal’ karakter vertonen en afwijken van de normale toestand van AI-systemen. Rechters hebben hiervoor een ruime beoordelingsmarge om te oordelen of een zaak al dan niet een ‘abnormaal’ karakter vertoont. Uit rechtspraak kan men afleiden dat feitenrechters vaak kiezen voor de zaakaansprakelijkheid van artikel 1384, lid 1 oud BW.

Ten slotte moet men bewaarder zijn van het AI-systeem voor de toepassing van de zaakaansprakelijkheid. Men is bewaarder wanneer men deze zaak voor eigen rekening gebruikt, het genot ervan heeft of ze bewaart, met de mogelijkheid er toezicht, leiding en controle op uit te oefenen. Door de autonome en zelflerende eigenschappen van AI wordt er steeds minder toezicht, leiding en controle over de AI-systemen uitgeoefend. Het is daarnaast niet vereist dat de bewaarder kennis had van het gebrek of dat hij eigenaar was. Het volstaat dat hij de mogelijkheid had tot toezicht, leiding of controle had op het ogenblik van het schadegeval.

Conclusie

De aansprakelijkheid bij het gebruik van AI vormt een complex juridisch vraagstuk. Door het zelflerende en onvoorspelbare karakter van AI is het moeilijk vast te stellen wie verantwoordelijk is bij schade: de producent, operator of gebruiker. De Europese AI-verordening en bestaande aansprakelijkheidsregels, zoals productaansprakelijkheid, foutaansprakelijkheid en zaakaansprakelijkheid, bieden kaders, maar kennen beperkingen. Vooral bij hoog-risico AI-systemen gelden strikte verplichtingen en objectieve aansprakelijkheid om slachtoffers te beschermen en veiligheid te waarborgen. Tegelijkertijd blijft er nood aan duidelijke en toekomstbestendige regelgeving die zowel innovatie mogelijk maakt als rechtvaardige schadevergoeding voor benadeelden garandeert.

Bibliografie:

 

    • Artikel 1 WPA

    • Artikel 8, b WPA

    • Artikel 8, e WPA

    • Artikel 6.6, §1 BW

    • Artikel 6.6, §2 BW

    • Cass. 4 januari 2016 (AR C.15.0191.F)

    • EUROPESE COMMISSIE, “Verslag over de gevolgen van kunstmatige intelligentie, het internet der dingen en robotica op het gebied van veiligheid en aansprakelijkheid”, COM 2020 64 final, 19 februari 2020, 16.

    • EXPERT GROUP ON LIABILITY AND NEW TECHNOLOGIES – NEW TECHNOLOGIES FORMATION, Liability for Artificial Intelligence and other emerging digital technologies, November 2019, 44-45.

    • DE BRUYNE J., VAN GOOL E., BOES A., Recente ontwikkelingen in het aansprakelijkheids- en verzekeringsrecht, 1e editie, Bruxelles, Intersentia, 2022, p. 191-253.

    • H. ZECH, Liability for AI: Public Policy Considerations, ERA Forum 2021, vol. 22, (147) 152.

    • Zie o.a. H. BOCKEN en I.BOONE m.m.v. M. KRUITHOF, Inleiding tot het schadevergoedingsrecht, Brugge, die Keure, 2014, 184.


[1] Social scoring is een systeem waarbij iemands gedrag, interacties of gegevens (bijvoorbeeld online activiteiten of financiële betrouwbaarheid) worden beoordeeld en omgezet in een score. Die score kan vervolgens gebruikt worden om toegang tot diensten, voordelen of kansen te bepalen.

[2] Real-time biometrische identificatie in openbare ruimtes betekent dat camera’s of sensoren gezichten, stemmen of andere unieke lichaamskenmerken direct herkennen en vergelijken met databanken. Dit wordt gebruikt om personen onmiddellijk te identificeren of te volgen terwijl zij zich in de ruimte bewegen.

Scroll naar boven