12/06/2023 - Welkom bij Considerati’s blogserie over de invloed van ‘artificial intelligence’ (AI). Wij zetten ons in om het grijze gebied tussen AI en andere gebieden zoals aansprakelijkheid, privacy en ethiek op te helderen in het licht van de EU AI Act die naar de triloogfase gaat.
We brengen deze blogserie uit in aanloop naar de Conferentie: Artificial Intelligence, impact & update, dat Considerati in samenwerking met Outvie op 16 juni organiseert. Op deze dag zal prof. Mr. Dr. Bart Schermer, oprichter van Considerati, spreken over de status en ontwikkelingen rondom de AI Act. Daarnaast organiseren Responsible Tech consultants Marianne Schoenmakers en Jord Goudsmit een workshop over hoe u Responsible AI Governance binnen uw organisatie kan meten en monitoren.
Wilt u hierbij aanwezig zijn? Bestel dan uw ticket via deze link en gebruik onze code 70940_Considerati. Deze code kunt u tijdens het bestellen van uw tickets invoeren bij het onderdeel “Waardebon”. Het gebruik van onze code markeert automatisch uw deelname aan een leuke giveaway, waarbij u een van de drie exemplaren van het boek 'De democratie crasht' van Kees Verhoeven kunt winnen.
Onze vorige blog ging over het onderwerp "Artificial Intelligence: een schending van de mensenrechten? ", waar het ging over de vaak minder besproken implicaties van artificial intelligence ("AI") op mensenrechten. Deze keer duiken we in een ander opkomend hot AI-onderwerp: wie is aansprakelijk wanneer een AI-systeem faalt?
Zoals eerder besproken, is de impact van AI op privacy, de arbeidsmarkt, discriminatie en algemene Skynet-fobie de gebruikelijke reden voor een gesprek. Maar nu de laatste stap van de AI Act op ons afkomt verdiend een ander belangrijk AI-gerelateerd onderwerp aandacht: aansprakelijkheidsregels voor AI-systemen. In de collegebanken wordt AI-aansprakelijkheid al langere tijd als enigszins abstract onderwerp behandeld, maar met het recente voorstel van de Europese Commissie ("EC") voor de zogenaamde AI-aansprakelijkheidsrichtlijn ("AILD"), evenals de amendementen op de bestaande productaansprakelijkheidsrichtlijn ("PLD"), die AI-systemen nu beschouwt als producten, kan dit enigszins abstracte onderwerp binnenkort zeer concrete toepassingen en gevolgen hebben.
In de meeste EU-lidstaten is de algemene norm schuldaansprakelijkheid. Volgens deze regeling moeten eisers bewijzen dat de verweerder in gebreke is gebleven, dat zij schade heeft geleden en dat er een oorzakelijk verband is tussen de schadelijke activiteit en de schade. In andere gevallen is een risicoaansprakelijkheidsregeling vereist, waarbij de verweerder geen schuld hoeft te hebben en eisers alleen moeten bewijzen dat de verweerder in gebreke is gebleven of risico's heeft genomen.
De huidige toepasselijke PLD voorziet in een risicoaansprakelijkheidsregeling waarbij producenten aansprakelijk zijn voor gebreken aan hun producten, ongeacht of het gebrek aan hun schuld te wijten is. De toepassing van deze regeling in de context van digitale of autonome systemen, rekening houdend met onder andere de onzekerheid over de juridische aard van digitale goederen, d.w.z. of ze producten of diensten zijn, heeft de EC ertoe gezet om de PLD met betrekking tot opkomende technologieën opnieuw te evalueren. De voorgestelde wijzigingen van de PLD bevatten onder meer een uitbreiding van de begrippen schade, product, gebrek en aansprakelijke partij. Een van deze wijzigingen is het opnemen van immateriële software en digitale productiebestanden als producten, alsook het opnemen van "verlies of beschadiging van gegevens die niet uitsluitend voor professionele doeleinden worden gebruikt" als een categorie van vergoedbare schade.
De AILD daarentegen is bedoeld om uniforme regels vast te stellen voor de wettelijke aansprakelijkheid van eigenaars en gebruikers van AI. De huidige EU-aansprakelijkheidsregeling lijkt geen afdoende oplossing te bieden voor schade die wordt veroorzaakt door op AI gebaseerde producten en diensten. Wanneer schuldeisers niet worden beschermd door de PLD, moeten zij wenden tot de wettelijke aansprakelijkheidsregels van de nationale lidstaten om schade te vorderen die door AI-systemen is veroorzaakt. Een aparte aansprakelijkheidsregeling voor AI is dus noodzakelijk omdat het vaak niet mogelijk is om te bewijzen dat een ontwikkelaar van een AI-systeem een fout heeft gemaakt als gevolg van de complexiteit of ondoorzichtigheid van de meeste AI-systemen. De in de AILD geïntroduceerde regeling is zeker een stap voorwaarts, maar lijkt de hiaten uit de PLD niet volledig op te vullen.
Zoals uitvoeriger besproken in een eerdere blog van Considerati, is de AILD gebaseerd op schuld, met als nieuwe toevoeging het recht van eisers op toegang tot relevant bewijsmateriaal. Hoewel dit nuttig is, maken de problemen van ondoorzichtigheid en complexiteit en het inherente eigendomsrecht van sommige AI-systemen het voor eisers nog steeds moeilijk om de schuld van het AI-systeem, d.w.z. de ontwikkelaar of gebruiker, te bewijzen. Aangezien de AILD bedoeld is als aanvulling op de AI Act, introduceert de AILD bovendien een weerlegbaar vermoeden van causaliteit. Dit betekent dat de nationale rechtbanken van de lidstaten mogen aannemen dat de niet-naleving van de AI Act door een aanbieder, ontwikkelaar of gebruiker van een AI-systeem de fout heeft veroorzaakt. Dit is het geval als de schuldeiser kan bewijzen dat de niet-naleving van de AI Act de schade heeft veroorzaakt en het waarschijnlijk is dat de fout de output van het AI-systeem, of het gebrek daaraan, heeft beïnvloed. Ook dit is nuttig, maar geldt alleen voor AI-systemen met een hoog risico, terwijl dit vermoeden voor AI zonder hoog risico alleen geldt als een nationale rechtbank van mening is dat het voor de eiser "buitengewoon moeilijk" is om de niet-naleving te bewijzen.
Gezien deze wijzigingen in de EU-aansprakelijkheidsregeling met betrekking tot AI en digitale technologieën, is een belangrijke vraag wie er precies schuld heeft aan het in gebreke blijven van een AI-systeem. Bij AI-gebaseerde oplossingen zijn meestal meerdere partijen betrokken bij de levering van het product of de dienst. Het bewijzen van het bestaan van schade kan een "makkelijkere" stap zijn, maar wie de schade precies moet vergoeden en in welke mate, is niet altijd duidelijk. Bij een risicoaansprakelijkheidsregeling is de totale schade vergoedbaar, maar bij een schuldaansprakelijkheidsregeling moet eerst worden vastgesteld welke partij schuld heeft en voor welke schade. In eerste instantie kan worden gedacht aan de schuld van de producent of ontwikkelaar van het AI-systeem, omdat zij de veiligheidsfuncties van het systeem controleren en de interfaces tussen het systeem en de gebruiker verzorgen. Dit is vooral belangrijk voor sterk autonome AI-systemen waarbij de operator het systeem onderhoudt en ervoor zorgt dat het correct wordt gebruikt. Producenten kunnen het AI-systeem creëren, maar het zijn de eigenaar en de gebruiker van het systeem die invloed hebben op het uiteindelijke gebruik ervan.
In het PLD-voorstel wordt de term "producent" vervangen door "fabrikant" om ook aanbieders van software, aanbieders van digitale diensten en online marktplaatsen als mogelijke aansprakelijke partijen te beschouwen. Het AILD-voorstel daarentegen plaatst aanbieders en gebruikers van AI-systemen als mogelijk aansprakelijke partijen, op basis van hun definitie in de AI Act. Ondanks deze oplossingen is het identificeren van een concrete aansprakelijke partij mogelijk niet van toepassing op alle AI-systemen. Open source systemen zijn bijvoorbeeld uitgesloten van het toepassingsgebied van de PLD. De AI Act sluit daarom ook open source-systemen uit. Als dergelijke systemen schade veroorzaken, vallen ze niet onder de huidige of voorgestelde aansprakelijkheidsregeling.
Tot slot heeft het Europees Parlement in de laatste ontwikkelingen rond de AI Act eisen toegevoegd voor basismodellen zoals grote taalmodellen en generatieve AI, waaronder ChatGPT. Interessant genoeg bepalen de gebruiksvoorwaarden van OpenAI (de ontwikkelaar van ChatGPT) al dat de gebruiker van ChatGPT "ons zal verdedigen, schadeloosstellen en vrijwaren (...) van en tegen alle claims, verliezen en uitgaven (...) die voortvloeien uit of verband houden met uw gebruik van de diensten". Met andere woorden, de gebruiker van ChatGPT die schade heeft veroorzaakt bij het gebruik van ChatGPT zal dus naast OpenAI aansprakelijk zijn.
Het aansprakelijk stellen van AI-systemen is geen eenduidige zaak. Met de verschillende aansprakelijkheidsregimes in de voorgestelde PLD-wijzigingen en de AILD moet de invloed van deze twee wetten op AI-aansprakelijkheid in de praktijk nog blijken. In deze blog wordt het huidige EU-aansprakelijkheidsregime uitgelegd en hoe AI-systemen daarin passen. Met de voortdurende veranderingen op het gebied van AI-regelgeving zijn veranderingen in de voorgestelde AI-aansprakelijkheidsregeling wellicht ook te verwachten.
In deze editie van Considerati's serie over artificial intelligence ronden we onze analyse van AI en aansprakelijkheid af. We vertrouwen erop dat onze verkenning waardevolle inzichten heeft opgeleverd rondom de raakvlakken van AI met aansprakelijkheid, privacy en ethiek. De complexiteit van deze relaties zijn cruciaal in ons digitale ecosysteem en het is van cruciaal belang om ze te begrijpen.
In ons volgende bericht, dat op 19 juni verschijnt, gaan we dieper in op privacy en AI. Tot dan!
Heeft u vragen over AI-aansprakelijkheid? Neem contact op met Considerati, wij bieden gespecialiseerd advies en ondersteuning op maat.