20/07/2023 - In een position paper van 29 juni 2023, pleit het College voor de Rechten van de Mens voor een wettelijke verplichting voor de transparantie van publieke algoritmen, vooral waar deze de burger direct raken. Het College weegt in zulke gevallen transparantie zwaarder dan het intellectueel eigendom van de ontwikkelaar. Dit sluit aan bij een actuele discussie omtrent de aanbesteding van publieke algoritmen en het algoritme register, waarin het intellectueel eigendom van de algoritmeontwikkelaars de opname van algoritmen in het register compliceert. Een dergelijk wettelijke verplichting, zoals het College suggereert, zou dit proces kunnen aanwakkeren.  

Persoonskenmerken 

Het College redeneert dat het gebruik van algoritmen die niet transparant zijn, onduidelijkheid creëert over de totstandkoming van een overheidsbesluit, voornamelijk bij een overheidsbesluit gericht op een individuele burger. Door het gebrek aan transparantie kan er niet bewezen worden dat een beslissing is genomen op persoonskenmerken die er eigenlijk niet toe doen. 

Daadkrachtige en kenbare motivering 

Daarnaast is het College van mening dat het bestuursrecht al een, impliciete, verplichting tot transparantie voor publieke algoritmen kent. In de Algemene wet bestuursrecht (Awb), is het motiveringsbeginsel vastgelegd in artikel 3:46 en 3:47: overheidsbesluiten moeten een daadkrachtige en kenbare motivering hebben. Om dit ook te garanderen voor overheidsbesluiten volgend uit publieke algoritmen, pleit het College er nu voor de transparantie van algoritmen ook expliciet op te nemen in de Awb en daarmee het melden en uitleggen van algoritmegebruik bij beslissingen verplicht te stellen. Volgens het College kan alleen zo de rechtsbescherming van burgers gegarandeerd worden. 

Inzet van het IAMA 

Het College geeft een enkele uitzondering: alleen bij risicoselectie algoritmen, zoals gebruikt voor fraudeopsporing, hoeven niet altijd alle technische details uit de doeken te worden gedaan om de effectiviteit te waarborgen en misbruik te voorkomen. Toch is de laatste tijd met enige regelmaat te zien dat juist hier fouten worden gemaakt, zoals bij het fraude algoritme in Rotterdam en de toeslagenaffaire. Daarom stelt het College voor om in situaties waar een algoritme echt niet openbaar kan worden gemaakt, vooraf een bindende, onafhankelijke mensenrechtentoets uit te laten voeren, zoals het IAMA. 

Nationaal algoritme register 

Een belangrijk component van de Werkagenda Waardegedreven Digitaliseren is de incorporatie van hoog-risico overheidsalgoritmen in een Nationaal Algoritme Register. Op dit moment is het vaak nog lastig om de algoritmen op te nemen in het register, omdat hier vooraf geen afspraken over zijn gemaakt bij de aanbesteding tussen de leverancier en de overheid. Hierdoor kan de overheid deze algoritmen niet zomaar openbaar maken, omdat anders het intellectueel eigendom van de ontwikkelaar zou worden geschonden. In het vervolg zou een verplichting tot transparantie meegenomen kunnen worden in de aanbesteding van een publiek algoritme. Met een wettelijke verplichting hiervoor zou de overheid sterker staan bij een dergelijke onderhandeling.  

Heeft u vragen?

Bent u op zoek naar strategisch Responsible Tech advies? Neem dan contact op met Considerati en wij denken graag met u mee!