26/05/2023 - Afgelopen 11 mei stemde de gecombineerde EU-commissies Interne Markt en Consumentenbescherming (IMCO) en Burgerlijke vrijheden, justitie en binnenlandse zaken (LIBE) in met het opnemen van een mensenrechten impact assessment in de AI-act. Dit brengt ons een stap dichter bij de invoering van een verplichte mensenrechten impact assessment voor algoritmen met een hoog risico. 

Artikel 29a 

De commissies stemden over twaalf amendementen, met uiteenlopende onderwerpen zoals foundation models, milieu impact en een mensenrechten impact assessment. De verplichting tot deze assessment staat beschreven in artikel 29a van de amendementen en beschrijft de verplichting hiertoe bij het inzetten van hoog-risico AI-systemen. Door middel van deze impact assessment moeten mensenrechten en publieke waarden een prominentere rol krijgen in het ontwikkelen en toepassen van hoog-risico AI-systemen. Door het instemmen van de gecombineerde EU-commissies is de kans op een verplichting bij het gebruik van hoog-risico AI-systemen een stuk groter geworden.  

Minimale vereisten 

Artikel 29a, waarin de mensenrechten impact assessment is vastgelegd, beschrijft ook de minimale vereisten waar deze aan moet voldoen. Voordat de impact op mensenrechten kan worden geanalyseerd, moet er een duidelijk doel omschreven zijn en moet de context van het systeem worden vastgesteld. Dit faciliteert de identificatie van diegene die mogelijk door het systeem getroffen worden, waarbij nadrukkelijk stil moet worden gestaan bij de risico’s voor gemarginaliseerde groepen of kwetsbare personen, zoals kinderen. 

Een belangrijk onderdeel van de mensenrechtentoets is het opstellen van mitigerende maatregelen. Deze mitigerende maatregelen hebben als doel de impact op mensenrechten te beperken. Wanneer de mitigerende maatregelen door veranderingen tijdens het gebruik van het systeem niet meer voldoende blijken te zijn, moet er opnieuw een mensenrechtentoets worden uitgevoerd.  

Het IAMA 

Een voorbeeld van een verwezenlijkte mensenrechtentoets is de recent in Nederland ontwikkelde Impact Assessment Mensenrechten en Algoritmen (IAMA). In het IAMA wordt er in dialoogsessies gezamenlijk een stappenplan doorlopen waarbij het AI-systeem gekoppeld wordt aan gerelateerde mensenrechten. Voorbeelden hiervan zijn rechten omtrent privacy, het recht op gelijke behandeling of vrijheid van meningsuiting. Door het expliciet maken van de relatie tussen deze mensenrechten en het AI-systeem, worden de gevolgen van en de mogelijke mitigerende maatregelen voor schendingen inzichtelijker.  

En nu? 

Nu de commissies voor de amendementen hebben gestemd, is de volgende halte het Europees parlement. Daar worden de amendementen rond 14 juni in stemming gebracht. Als de amendementen ook daar worden aangenomen kunnen de onderhandelingen met de Europese raad over de definitieve vorm van de wet van start. 

Het toevoegen van een mensenrechten impact assessment past in de huidige trend in wetgeving, waarin er een groeiende aandacht is voor mensenrechten.  

Het IAMA is een van de eerste van deze soort en kan een goede eerste stap zijn om voor te bereiden  op deze ontwikkelingen. 

Frits van Hurne Stagiair Responsible Tech

Wilt u meer weten?

Heeft u vragen over bovenstaand onderwerp? Neem dan contact op met Considerati, wij bieden gespecialiseerd advies en ondersteuning.