02-03-2023 - Tijdens de eerste persconferentie van de Ethical, Legal, Societal Aspects (ELSA) Labs op 1 december 2022, werd de publicatie Ethiek en AI: de 7 Methoden in Theorie en Praktijk gepresenteerd. De publicatie beschrijft, zoals de naam al verklapt, zeven methoden die gebruikt kunnen worden tijdens de implementatie van algoritmen en andere technologie. Too long, didn’t read? Wij hebben een samenvatting voor u geschreven.
Methode 1: Aanpak Begeleidingsethiek
Betrokkenen: ECP-werkgroep, prof. Dr. Ir Verbeek en dr. Ir. Daniel Tijink.
Jaar: 2019
Doel: Begeleidingsethiek richt zich op het ethisch begeleiden van technologie in de samenleving, door een focus te leggen op het vaststellen van handelingsopties. In een dialoog met diverse stakeholders wordt gekeken naar een manier van inbedding van de technologie die strookt met de relevante waarden, in plaats van dat er slechts beoordeeld wordt of een technologie goed of fout is, ingezet of vermeden moet worden.
Tijdens een gesprek tussen verschillende belanghebbenden wordt er gezocht naar een manier om technologie op een manier te integreren die overeenkomt met de relevante waarden, in plaats van simpelweg te beoordelen of de technologie goed of slecht is en of deze wel of niet gebruikt moet worden.
Door aansluiting te vinden bij de concrete praktijk, het in acht nemen van stakeholder input en het voeren van een dialoog tijdens workshops probeert Begeleidingsethiek antwoord te krijgen op hoe mens en technologie zich op een waarden-volle wijze kunnen ontwikkelen.
Methode 2: De Ethische Data Assistent (DEDA)
Betrokkenen: Universiteit Utrecht en Utrecht Data School (o.a. Aline Franzke, dr. Mirko Tobias Schäfer en Iris Muis).
Jaar: 2017
Doel: DEDA is een impact assessment tool wat gebruikt kan worden voor Big Data-projecten. De methode stimuleert teams die aan dataprojecten werken om een dialoog te voeren over de ethische aspecten ervan, de morele keuzes die ze maken en om het project op basis hiervan bij te sturen indien nodig. DEDA probeert ethiek inzichtelijk en begrijpelijk te maken middels het gebruik van een fysieke en digitale poster met allerlei vragen over algoritmen en data. DEDA heeft later als inspiratie gediend voor de internationale Ethics Guidelines van de Association of Internet Researchers.
Methode 3: Impact Assessment Mensenrechten en Algoritmes (IAMA)
Betrokkenen: Universiteit Utrecht (prof. Mr. Janneke Gerards, dr. Mirko Tobias Schäfer, Arthur Vankan en Iris Muis)
Jaar: 2021
Doel: In 2021 heeft het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK) in samenwerking met de Universiteit Utrecht, het IAMA gepubliceerd. De methode brengt maatschappelijke en juridische risico’s rond de inzet van algoritmes in kaart. Hierbij richt het zich specifiek op de mogelijke impact van het in te zetten algoritme op mensenrechten. Door middel van 57 open vragen stimuleert de methode om een afgewogen discussie te voeren tussen de relevante partijen over de impact van het algoritme. Vervolgens helpt het IAMA om de ontwikkeling en implementatie van het algoritme in goede/verantwoorde banen te leiden. Onlangs is er een motie aangenomen om de IAMA te verplichten voor overheden.
Methode 4: Technnology Impact Cycle Tool (TICT)
Betrokkenen: Fontys University of Applied Science (Jo-An Kamp), dr. Prof. Ir Verbeek en prof.dr. ir. Van de Poel
Jaar: 2019
Doel: De TICT is een methode die helpt om de impact van technologie in te schatten aan de hand van open vragen over verschillende thema’s zoals privacy, transparantie, rechtvaardigheid en duurzaamheid. De methode is gebaseerd op het denken van Verbeek en van de Poel, en overlapt daarom op sommige vlakken met de Aanpak Begeleidingsethiek. Zo zal de methode geen uitsluitsel geven over wat goed of fout is, maar helpt het tot het komen van betere beslissingen door middel van een Quick Scan, Improvement Scan en Full Scan.
Methode 5: Data Governance Clinics (DGC)
Betrokkenen: Tilburg Insititute for Law, Technology and Society (Shazade Jameson, Linnet Taylor en Merel Noorman).
Jaar: 2021
Doel: De DGC aanpak is gericht op het inrichten van governance structuren rondom data-gedreven innovatieve projecten in het publieke domein. De methode bestaat uit een serie workshops waarin een project besproken wordt met de stakeholders, gemodereerd door een onafhankelijke onderzoeker. De DGC richt zich voornamelijk op het produceren van nieuwe kennis, waarbij de burger centraal staat in plaats van de belangen van het project. De workshops zijn geheel gevormd rondom de specificaties van het project en leunen dus niet op vooraf geformuleerde ethische kaders of principes.
Methode 6: Assessment List for Trustworthy AI (ALTAI)
Betrokkenen: High-Level Expert Group on AI van de Europese Commissie.
Jaar: 2020
Doel: De ALTAI is een zelfbeoordelingstool, gericht op ontwikkelaars en ontwikkelteams om hen te helpen met inschatten of een AI-product in lijn is met de Ethics Guidelines for Trustworthy AI, wat ook ontwikkeld is door de High-Level Expert Group. Volgens de guidelines moet AI voldoen aan zeven eisen, onder andere op het gebied van transparantie, non-discriminatie en robuustheid. Deze eisen worden vervolgens getest in de ALTAI door middel van open vragen. Er is ook een prototype beschikbaar van een interactieve versie van de ALTAI.
Methode 7: Data Protection Impact Assessment (DPIA)
Betrokkenen: Algemene Verordening Gegevensbescherming (AVG)
Jaar: 2018
Doel: De DPIA is een assessment tool dat ontworpen is om risico’s die voortkomen uit de verwerking van persoonsgegevens te minimaliseren. De methode is verplicht onder de AVG Artikel 35 op het moment dat er grote kans is op een hoog privacy risico voor de mensen van wie persoonsgegevens gebruikt, verzamelt of gedeeld worden. Er is geen standaardmethode om een DPIA uit te voeren, maar het proces moet voldoen aan vier eisen, waaronder een systematische beschrijving van de beoogde gegevensverwerkingen en een beoordeling van de noodzaak en proportionaliteit hiervan.
Bonus Methode: Functioneringsgesprek voor AI
Betrokkenen: Utrecht Data School
Jaar: Aanstaande
De ontwikkelaars van DEDA en het IAMA ontwikkelen momenteel samen met de Nederlandse Voedsel- en Warenautoriteit (NVWA), I-Partnerschap Rijk en Rijksinspectie Digitale Infrastructuur een nieuwe methode; het Functioneringsgesprek voor AI. Deze methode zal zich toespitsen op het monitoren van algoritmen van marktpartijen door toezichthouders. Het instrument moet hulp bieden bij het monitoren van de code van het algoritme, de (morele) keuzes van de marktpartijen en de borging van AI binnen de organisatie. Daarbij moet het breed inzetbaar zijn, om zodoende álle toezichthouders die zich toeleggen op AI in verschillende domeinen van dienst te zijn. Eind 2023 wordt het eerste onderzoeksrapport verwacht.
Kortom, elke methode biedt een specifiek perspectief op de verantwoorde implementatie van technologie. Welke methode in een specifiek geval het meest effectief is hangt onder andere af van de context, de organisatie die de technologie inzet, de fase waarin de ontwikkeling van de technologie zit en het specifieke toepassingsgebied.
Heeft u vragen over de verschillende methodes of wilt u meer informatie ontvangen? Neem dan contact op met onze Responsible Tech consultants Marianne Schoenmakers of Lauren Challis.