De huidige wetgeving voor productaansprakelijkheid is al tientallen jaren oud. Simpel gezegd: als een product een defect heeft en schade veroorzaakt, is de producent verantwoordelijk. Denk aan een stofzuiger die kortsluiting maakt en brand veroorzaakt.
Toch hoe zit dat met software? AI leert en evolueert voortdurend – iets waar de oude wetboeken geen rekening mee houden. Een van de grootste problemen met de huidige wetgeving is dat software vaak niet als “product” wordt gezien. Dit zorgt voor problemen wanneer een AI-systeem fouten maakt. Wie is dan verantwoordelijk? De producent van het apparaat, de softwareontwikkelaar, of de gebruiker?
In het huidige productaansprakelijkheidsrecht ligt de bewijslast meestal bij de consument. Dat betekent dat als je schade lijdt door een defect product moet jij zelf bewijzen dat het product een gebrek vertoonde. Bij een fysiek product is dit al lastig, maar bij complexe AI-systemen is het bijna onmogelijk. Hoe bewijs je dat een fout in de code van een AI-systeem jouw schade veroorzaakte?
Om consumenten beter te beschermen, wordt voorgesteld om de bewijslast om te keren, zodat de producent moet aantonen dat hun AI-systeem goed functioneerde. Dit zou vooral consumenten helpen die geen toegang hebben tot de technische details van AI. Deze verschuiving in de bewijslast brengt echter ook uitdagingen met zich mee voor producenten.
Een van de grootste obstakels bij het toewijzen van aansprakelijkheid in AI-systemen is het zogenaamde “black box”-probleem. AI-systemen werken vaak als een gesloten doos: er gaat data in (zoals beelden of geluiden), en er komt een beslissing uit (zoals een waarschuwing of actie), maar de tussenliggende processen zijn voor buitenstaanders en soms zelfs voor de ontwikkelaars moeilijk te doorgronden.
Dit zorgt voor een serieus probleem als het gaat om aansprakelijkheid. Zelfs als de bewijslast bij de producent ligt, hoe kan deze bewijzen dat de AI geen fout heeft gemaakt als de logica achter het beslissingsproces in de ‘black box’ niet transparant is? Het gevolg is dat de producent vaak zelf ook niet volledig weet wat er misging.
Hoewel de verschuiving van de bewijslast voordelen biedt voor consumenten, kan het ook leiden tot problemen voor producenten. De verplichting om interne informatie vrij te geven, vooral als het gaat om gevoelige data zoals handelsgeheimen, kan hun concurrentiepositie schaden. Dit zou hen kunnen ontmoedigen om innovatieve producten op de markt te brengen. Bovendien kan het leiden tot hogere kosten voor bedrijven, wat mogelijk ook de consumentenprijzen zou verhogen.
Het risico bestaat ook dat producenten onder druk komen te staan om een fout te bewijzen die buiten hun controle ligt. Bijvoorbeeld, als een AI-systeem niet goed functioneert door een externe factor zoals een slechte internetverbinding of een ontbrekende software-update, moet de producent toch bewijzen dat het probleem niet binnen hun product ligt.
De Europese Commissie is zich bewust van deze problemen en werkt hard aan nieuwe wetgeving. Onder de nieuwe voorstellen wordt de definitie van “product” uitgebreid: software en AI-systemen zullen nu ook expliciet onder productaansprakelijkheid vallen.
Ook wordt er gekeken naar de bewijslast. Bij schade door complexe systemen, zoals AI, wordt de producent verplicht om informatie te delen over de werking van hun systemen als de consument een claim indient. Waar de informatie voorheen vooral van de producent naar de consument stroomde, ontstaat er nu een meer gelijkwaardige informatiestroom. Het herziene wettelijke kader creëert een informatiestroom in twee richtingen (fig. 2), waardoor consumenten toegang krijgen tot cruciale informatie die voorheen vaak werd achtergehouden (fig.1). Dit zou het voor consumenten gemakkelijker moeten maken om hun zaak te onderbouwen, en de producent zou moeten bewijzen dat er geen sprake was van een gebrek.
Hoewel België achterloopt, zijn sommige landen al bezig met regelgeving voor AI. Zo heeft Nederland in 2018 een interessante zaak behandeld waarin een zelfrijdende auto betrokken was bij een ongeluk. De rechter oordeelde dat de bestuurder nog steeds verantwoordelijk was voor de handelingen van het voertuig, ondanks de aanwezigheid van geavanceerde AI.
In Duitsland gaat men zelfs nog een stap verder met hun Nationale AI-strategie, die al in 2018 werd gelanceerd. Duitsland erkent dat AI niet alleen kansen biedt, maar ook risico's. Terwijl België nog vooral op regionaal niveau werkt, zoals het AI-beleidsplan van Vlaanderen uit 2019, is Duitsland systematisch bezig om AI-wetgeving nationaal op te schalen.
Onze wetten moeten dringend aangepast worden aan de nieuwe realiteit. Met AI die een steeds grotere rol speelt in ons dagelijks leven, wordt het steeds belangrijker dat consumenten beschermd worden. De Europese voorstellen zijn een stap in de juiste richting, maar er is nog veel werk te doen, ook op het Belgisch niveau wat ver achter loopt ten opzichte van landen als Nederland of Duitsland.
De uitdaging is duidelijk: hoe zorgen we ervoor dat we profiteren van de voordelen van AI, zonder dat we in een juridisch niemandsland belanden als er iets misgaat? Het antwoord ligt in proactieve wetgeving die klaar is voor de toekomst. Want hoe meer we vertrouwen op AI, hoe belangrijker het wordt om te weten wie er verantwoordelijk is als het fout loopt.
---
Note: Fig. 1 en fig. 2 werden door mij gemaakt in python. De andere 2 afbeeldingen komen uit mijn power point presentatie van mijn bachelorproef gemaakt in Canva.
België
Wetgeving:
Richt.Raad nr. 85/374/EEG, 25 juli 1985 betreffende de onderlinge aanpassing van de wettelijke en bestuursrechtelijke bepalingen der Lid-Staten inzake de aansprakelijkheid voor produkten met gebreken, Pb.L. 7 augustus 1985, afl. 210, 29.
Wet 25 februari 1991 betreffende de aansprakelijkheid voor produkten met gebreken, BS 22 maart 1991.
Burgerlijk Wetboek.
Voorstel (Comm.) voor een richtlijn van het Europees Parlement en De Raad inzake aansprakelijkheid voor producten met gebreken, 28 september 2022, COM(2022) 495 def - 2022/0302 (COD).
Voorstel (Comm.) voor een richtlijn van het europees parlement en de raad betreffende de aanpassing van de regels inzake niet-contractuele civielrechtelijke aansprakelijkheid aan artificiële intelligentie (AI), Brussel, 28 september 2022, COM(2022) 496 def. - 2022/0303 (COD).
Rechtspraak:
HvJ 10 januari 2006, nr. C-402/03.
HvJ 20 november 2014, nr. C-310/13, ECLI:EU:C:2014:2385.
HvJ 21 december 2011, nr. C-495/10, ECLI:EU:C:2011:869.
HvJ 4 juni 2009, nr. C-285/08, ECLI:EU:C:2009:351.
HvJ 10 januari 2006, nr. C-402/03.
HvJ 25 april 2002, nr. C-52/00, ECLI:EU:C:2002:252.
Luik 25 oktober 2011, T.Verz. 2013, 100-103.
Antwerpen 28 oktober 2009, TBBR 2011, 381-384.
Gent 7 mei 2004, Rev. dr. santé 2007-08, afl. 2, 160-162.
Rechtsleer en overige stukken
VAN GOOL, E., DE BRUYNE, J. en FIERENS, M., “De regulering van artificiële intelligentie (deel 2): Een analyse van buitencontractuele aansprakelijkheid”, RW 2021, 1003-10024.
DE BRUYNE J. Recente ontwikkelingen in het aansprakelijkheids- en verzekeringsrecht, Mortsel, Intersentia, 2022, 296 p.
TAMBIAMA M., “Briefing. EU Legislation in Progress. Artificial intelligence liability directive.”, februari 2023, 12 p.
SCHOLLAERT, V. en DE BRYUNE, J., “Voorstel Richtlijn AI aansprakelijkheid Verkennende analyse vanuit Belgisch perspectief”, NJF, nr. 486, 27 september 2023, 575-587.
SCHOLLAERT V., “Rechtspersoonlijkheid voor robots: een Belgische afweging vanuit burgerrechtelijk en stafrechtelijk aansprakelijkheidsoogpunt”, Computerr. 2022, afl. 91, 185-192.
VERHOEVEN D., “ Inleiding W. 25 februari 1991” in DAMBRE M., DIRIX E. en TILLEMAN B.(eds), Bijzondere overeenkomsten. Artikelsgewijze commentaar met overzicht van rechtspraak en rechtsleer, Mechelen, Kluwer, losbl.
DE RIDDER A., “Produktenaansprakelijkheid”, nr. 25, RW 1972-73, nr. 25, 1075-1084.
DE SUTTER P., “Een schandaal van veel grotere omvang dan softenon”, De Standaard, 4 maart 2019.
SCHAMPS G., La mise en danger: un concept fondateur d’un principe général de responsabilité, Brussel, Bruylant, 1998, afl. 244, 770p.
DONOVAN K.A. , JIAN A., RADOSLAW NOVAK P., JINGTING C.Y. FINK E.C., BERRY B.C., EBERT B.L. en FISCHER E.R., “Thalidomide promotes degradation of SALL4, a transcription factor implicated in Duane Radial Ray syndrome”, eLIFE, 1 augustus 2018, 1-2, https://elifesciences.org/articles/38430.
GONZALEZ PONS E., GROSSETETE F. en MCGUINESS M., “Thalidomide. Vraag met verzoek om mondeling antwoord O-000023/2016 aan de Commissie. Artikel 128 van het Reglement.”, 4 februari 2016, https://www.europarl.europa.eu/doceo/document/O-8-2016-000023_NL.html.&…;
X, “After 60 years, scientists uncover how thalidomide produced birth defects”, Dana-Farber Cancer Institute, par. 7, https://www.dana-farber.org/newsroom/news-releases/2018/after-60-years-….
X, “Why comparisons between the corona vaccine and thalidomide do not hold: a historical take on public health scandals and the regulation of drug safety in Europe”, Utrecht University, https://consumers.sites.uu.nl/news/corona-and thalidomide/#:~:text=Thalidomide%20was%20perhaps%20the%20first,outrage%20throughout%20Europe%20and%20beyond.
X, “Productaansprakelijkheid. De Europese Richtlijn:Harmonisatie en consumentenbescherming (deel 1)”, RW 1987-1988, nr. 1 - 5 september 1987, 1 https://rw.be/archief/5101/pdf.
Com., “Eerste verslag over de toepassing van de richtlijn van de Raad betreffende de onderlinge aanpassing van de wettelijke bestuursrechtelijke bepalingen der lid-staten inzake de aansprakelijkheid voor produkten met gebrekken”, 12 december 1995, https://ec.europa.eu/docsroom/documents/7101.
DELFORGE C., “Le défaut de sécurité au sens de la loi du 25 février 1991 relative à la responsabilité du fait des produits défectueux” in DELFORGE C. en VAN ZUYLEN J.(éds.), Les défauts de la chose, Limal, Anthemis, 2015, 332-370.
VERHOEVEN D., “La charge de la preuve et l’invocation de présomptions dans la Directive Responsabilité du fait des produits défectueux”, T.Gez. 2017-18, afl. 3, 208.
Comm., “Verslag van de Commissie over de toepassing van Richtlijn 85/374 inzake de aansprakelijkheid voor producten met gebreken”, COM(2000) nr. 893 def., Brussel, 31 januari 2001, https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:52000DC08…;
Comm., “Groenboek Wettelijke aansprakelijkheid voor producten met gebreken”, COM( 1999) nr. 396 def., Brussel, 28 juli 1999, 43 p.
Com., "Verslag van de Commissie aan het Europees Parlement, de Raad en het Europees Economisch en Sociaal Comité over de toepassing van Richtlijn 85/374/EEG van de Raad betreffende de onderlinge aanpassing van de wettelijke en bestuursrechtelijke bepalingen der lidstaten inzake de aansprakelijkheid voor producten met gebreken", COM(2018) 246 def., Brussel, 7 mei 2018, 1-2.
Com., “Mededeling van de Commissie aan het Europees Parlement, de Europese Raad, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio's. Kunstmatige intelligentie in Europa.”, COM (2018) 237 def., Brussel, 25 april 2018.
WUYTS D., “Productaansprakelijkheid: een Richtlijn voor (n)iets?”, TBBR 2008, afl. 1, 8.
VERHOEVEN D., “Potentiële gebreken in serieproducten: hoe ver reiken het gebrekkigheidsvereiste en het schadevereiste uit de Richtlijn Productaansprakelijkheid?”, T.Gez. 2015-16, afl. 1, 1-50.
TILLEMAN B., “Voorwaarden voor aansprakelijkheid”, in TILLEMAN B. (ed.) Overeenkomsten. Deel 2. Bijzondere overeenkomsten. A. Koop. Deel 2. Gevolgen van de koop , Mechelen, Kluwer, 2022, 975.
YADAV V., “Wat is het Internet of Things: definitie en gebruiksvoorbeelden”, globalsign 10 februari 2023, https://www.globalsign.com/nl-nl/blog/wat-het-internet-things-definitie….
FIERENS M., VAN GOOL E. en DE BRUYNE J., “De regulering van artifi ciële intelligentie (deel 1) – Een algemene stand van zaken en een analyse van enkele vraagstukken inzake consumentenbescherming”, RW 2020-21, nr. 25, 962-980.
VAN SWEEVELT T. en WEYTS B., Handboek buitencontractueel aansprakelijkheidsrecht, Antwerpen, Intersentia, 2009, 935 p.
Comm., “Commission staff working document. Subsidiarity grid accompanying the document: “Proposal for a Directive of the European Parliament and of the Council on liability for defective products”, Brussels, 28 september 2022, SWD(2022) 315 def.
COM(2022) 495 final 2022/0302 (COD), “Proposal for a directive of the european parliament and of the council on liability for defective products”, 29 september 20223.
DE LUCA S., “Brefing. EU Legislation in progress. New Product Liability Directive.”, december 2023.
MENDES RODRIGUES E. en MILIC-FRAYLING N., “Linking People, Photos, and Tags”, in HANSEN D.L., HNEIDERMAN B. en SMITH M.A. (eds.) Analyzing Social Media Networks with NodeXL Insights from a Connected World , Amsterdam, Elsevier 304 p.
BRUYNINX S., “Hoe worden jouw data gebruikt om je smart home-producten te trainen?”, https://news.evokepr.be/hoe-worden-jouw-data-gebruikt-om-je-smart-home-producten-te-trainen
AKKERMAN W., “Alles wat je wilt weten over Meta AI”, december 2023, https://id.nl/huis-en-entertainment/computer-en-gaming/software/wat-je-wil-weten-over-meta-ai
DE BRUYNE J., VAN GOOL E. en BOES A., Wat bracht 2022 en wat brengt de toekomst op het vlak van artificiële intelligentie en buitencontractuele aansprakelijkheid?, Morsel, Intersetia 2022, 60 p.
DE MEEUS S., “The Product Liability Directive at the Age of the Digital Industrial Revolution: Fit for Innovation?”, Journal of European Consumer and Market Law 2019, vol. 8, afl. 4, 149-154.
European Law Institute, European Commission's Public Consultation on Civil Liability. Adapting Liability Rules to the Digital Age and Artificial Intelligence Response of the European Law Institute, 2022, 32 p.
MvT, Wetsontwerp houdende invoeging van Boek 8 “Bewijs” in het nieuw Burgerlijk Wetboek, Parl.St. Kamer 2017-18, nr. 54 3349/001.
Ethical Intelligence Associates, “What is the Accountability Gap? And how can we close it?”, 2023, https://www.ethicalintelligence.co/.
SCHOLLAERT V., “Rechtspersoonlijkheid voor robots: een Belgische afweging vanuit burgerrechtelijk en stafrechtelijk aansprakelijkheidsoogpunt”, Computerr. 2022, afl. 91, 177-190.
Expert Group on Liability and New Technologies, Liability for Artificial Intelligence and other emerging digital technologies, Luxembourg, Publications Offices of the European Union 2019, 70 p.
JOHNSON S. en IZIEV N., “A.I is masterist language. Should we trust what it says?”, New York Times, April 2022, 1-14.
CASTELVECCHI D. “Can we open the black box of AI?», Nature 2016”, afl . 7623, 21-34.
Nederland
Burgerlijk Wetboek
Rechtbank Midden-Nederlanden, ECLI:NL:RBMNE:2018:5707 , https://uitspraken.rechtspraak.nl/#!/details?id=ECLI:NL:RBMNE:2018:5707…;
Parket bij de Hoge Raad, ECLI:NL:PHR:2023:1012.
VERHEIJ B., “Artificial intelligence as law”, 14 mei 2020, 181-206. https://link.springer.com/article/10.1007/s10506-020-09266-0
“Data Ethics Decision Aid (DEDA): a dialogical framework for ethical inquiry of AI and data projects in the Netherlands” https://link.springer.com/article/10.1007/s10676-020-09577-5
LOCK P. F., “Recht en rechtspraak vanaf 2040”, TCR 2023, nr. 2, doi:10.5553/TCR/092986492023031002002.
WASSINIK J. en LOOS M.B.M., “Productaansprakelijkheid in het digitale tijdperk: De Richtlijn productaansprakelijkheid bij de tijd gebracht”, Nederlands Tijdschrift voor Europees Recht, https://doi.org/10.5553/NtER/138241202023029001003.
Duitsland
Bundesregierung, “Strategie Künstliche Intelligenz der Bundesregierung“, november 2018, https://www.bmwk.de/Redaktion/DE/Publikationen/Technologie/strategie-ku… bundesregierung.pdf?__blob=publicationFile&v=1
“Economic stimulus package. An ambitious programme", 3 juni 2020, https://www.bundesregierung.de/breg-en/news/konjunkturpaket-1757640
“Bosch und Lidl investieren in deutsches KI-Startup, 6 november 2023, https://www.tagesschau.de/wirtschaft/digitales/aleph-alpha-ki-finanzierungsrunde-100.html
EU Com. , “Germany AI Strategy Report“, https://ai-watch.ec.europa.eu/countries/germany/germany-ai-strategy-rep…;
AppliedAI Institute for Europe, “Die sechste jährliche KI-Startup Landscape”, https://www.appliedai-institute.de/hub/2023-ai-german-startup-landscape…;
“BMBF-Aktionsplan „Künstliche Intelligenz"”, 7 november 2023, https://www.bmbf.de/bmbf/de/forschung/digitale-wirtschaft-und-gesellsch…; A. CLAESEN, “ Deutscher KI-Aktionsplan: Förderung einer EU-Antwort an China und USA?“, Euractief, 7 novembe 2023, https://www.euractiv.de/section/innovation/news/deutscher-ki-aktionspla…
Bundesministerium fur Bildung und Forschung, “BMBF-Aktionsplan „Künstliche Intelligenz", 7 november 2023, 32 p.
https://www.bmbf.de/SharedDocs/Publikationen/de/bmbf/5/31819_Aktionspla…
Vlaamse regering, “Vlaams Beleidsplan Artificiële Intelligentie”, VR 2019 2203 DOC.0318/1QUATER,https://www.ewivlaanderen.be/sites/default/files/quaternota_aan_de_vlaa…
“Digitaal Wallonie”, https://www.digitalwallonia.be/ia/