21/06/'21 - In het kader van onze blogserie ‘de toekomstige regulering van algoritmen in beeld’, gaan we in dit tweede blog dieper in op de toekomstige verschillende vormen van regulering voor AI en algoritmen.  Het doel is om na te gaan welke rol algoritmen tegenwoordig spelen op het politieke toneel. Omdat algoritmen steeds meer invloed uitoefenen op verschillende aspecten van onze samenleving, ontkomen politieke partijen er niet aan standpunten in te nemen over het onderwerp. In hoeverre richten de Europese en nationale politici zich op actievere regulering van algoritmen? 

Wat gaat er gebeuren op nationaal niveau?

Toezichthouder AI 

Allereerst bekijken we het verkiezingsprogramma van de VVD. Hieruit blijkt dat de partij meer controle wil op het gebruik van algoritmen door techbedrijven en overheden. De VVD onderstreept het gevaar van discriminatie van burgers door algoritmen die, bijvoorbeeld, worden gebruikt om verzekeringspremies vast te stellen of fraudeurs op te sporen. De VVD is dan ook een van de partijen die pleit voor een aparte toezichthouder voor algoritmen. Het idee is dat deze nieuwe toezichthouder moet toezien op het ontwikkelen en inzetten van algoritmen in de publieke en private sector. Ook moet de toezichthouder de mogelijkheid krijgen om te handhaven, bijvoorbeeld in geval van ongelijke behandeling. 

Dat laatste wordt gedeeld door andere partijen. Ook D66 pleit voor toezicht op het gebied van algoritmen. De partij wil er niet een specifieke entiteit voor oprichten, maar de Autoriteit Persoonsgegevens (AP) uitbreiden met een algoritme waakhond. Deze moet het gebruik van algoritmen gaan controleren op discriminatie of uitsluiting, en dit kunnen terugdraaien.  

Transparantie AI

Een tweede onderwerp wat veel wordt genoemd door partijen is dat algoritmen en de werking ervan transparant moeten zijn. Ook de partijen die niets in hun programma hebben over een toezichthouder op AI, pleiten wel voor betere bescherming van de Nederlandse burger tegen algoritmen door middel van transparantie. De VVD, D66, CDA, PvdA, GroenLinks en FvD hebben allemaal transparantie van algoritmen opgenomen in hun partijprogramma. De vraag is hoe die partijen van plan zijn daadwerkelijke transparantie van algoritmen te bewerkstelligen; daar gaan partijen namelijk niet op in. 

Het is niet vreemd dat deze onderwerpen niet uitgebreid in de verkiezingsprogramma’s zijn opgenomen. Partijen kunnen slechts concentreren op een beperkt aantal onderwerpen, de regulering van algoritmen is slechts een van de vele onderwerpen en het zijn ingewikkelde onderwerpen, waar veel technische expertise voor nodig is.  

Wat gaat er gebeuren op Europees niveau?

Wat duidelijk is, is dat de genoemde politieke partijen voorsorteren op de mogelijke impact van de aangekondigde Artificial Intelligence Act. Het aanwijzen van een toezichthouder op het gebied van AI is, bijvoorbeeld, een verplichting voor iedere lidstaat. Net zoals de nationale toezichthouders die handhaven op grond van de AVG, zal de toezichthouder een sleutelrol spelen in de handhaving van de regels.  

Naast het verplicht aanwijzen van een toezichthouder staan in dit voorstel een aantal voorwaarden en verplichtingen waar gebruikers en ontwikkelaars van algoritmen aan moeten voldoen.  

Ook transparantie is een van die verplichtingen. Waar in de verkiezingsprogramma’s niet expliciet wordt uitgelegd wat transparantie inhoudt, staat in het wetsvoorstel het volgende hierover: het algoritme moet open en begrijpelijk zijn voor de personen die het algoritme inzetten; zij moeten kunnen begrijpen waarom het systeem een bepaalde handeling uitvoert. Bijvoorbeeld, wanneer jouw organisatie een algoritme wil inzetten voor het voorselecteren van kandidaten op basis van hun CV, dan moeten jouw medewerkers die verantwoordelijk zijn voor dit systeem begrijpen hoe het algoritme werkt en snappen waarom de ingevoerde data een bepaalde uitkomst oplevert. 

Een toezichthouder en transparantie zijn slechts twee van de verplichtingen uit de Artificial Intelligence Act. Daarnaast moeten algoritmen ook trainingsdata gebruiken die aan bepaalde kwaliteitscriteria voldoen, moet het algoritme gepaard gaan met technische documentatie die up-to-date is en moet het algoritmische systeem zo ontwikkeld zijn dat het automatisch documenteert (logging) wat het systeem doet. 

Verschuiving 

Er is in vier jaar veel veranderd. Op nationaal gebied lag in het regeerakkoord van 2017 het accent nog op het delen en analyseren van data met, bijvoorbeeld, als doel fraude op te sporen. Ondertussen is duidelijk geworden dat  dit in sommige gevallen leidt tot discriminatie en profilering. Zaken zoals de Toeslagenaffaire zorgen ervoor dat algoritmische besluitvorming hoger op de nationale politieke agenda staat. Met een toezichthouder en verplichte transparantie probeert de overheid meer grip te krijgen op de ontwikkeling en ingebruikname van algoritmen. 

Het ontwikkelen en implementeren van algoritmen is complex en kost veel tijd. Met meer wettelijke verplichtingen en regulering is het des te belangrijker om binnen de eigen organisatie te kijken wat nodig is om te voldoen aan deze verplichtingen en awareness te kweken bij management, ontwikkelaars en gebruikers van algoritmen. Gebruikt de organisatie een hoog risico algoritme? In hoeverre is het algoritme transparant? In welke mate is de ontwikkeling en de ingebruikname van het algoritme gedocumenteerd? Heb je voldoende data analisten en data wetenschappers om te voldoen aan de vereisten? Dit zijn allemaal vragen die organisaties zich moeten stellen, zodat zij voorbereid zijn op toekomstige AI-wetgeving.  

In ons volgende blog behandelen we de praktische impact van de toekomstige regulering. Wat kan jouw organisatie nu al doen om de ontwikkeling en implementatie van algoritmen te stroomlijnen in lijn met de Artificial Intelligence Act? Welke wettelijke verplichtingen worden precies van kracht en wat betekent dat voor de praktijk? Welke verantwoordelijkheden krijgen ontwikkelaars en inzetters van AI-systemen naar aanleiding van de regulering? 

Cmotions en Considerati bieden een gezamenlijke dienstverlening aan om je organisatie hierbij te helpen.  

Daarnaast komen deze onderwerpen ook voorbij in de gezamenlijke opleiding van Cmotions en Considerati. Deze trainingen zijn specifiek ontwikkeld, zodat mensen werkzaam in data science in een vogelvlucht kennismaken hoe de AVG op hun werkzaamheden van toepassing is. Dergelijke training is ook ontwikkeld voor juristen, zodat zij een beter begrip krijgen hoe algoritmen worden ontwikkeld.

Training AI & AVG data scientists  

Training AI & AVG juristen

Ka Wing Falkena Legal Consultant

Meer weten?

Meer weten over de AI-regulering of onze dienstverlening met Cmotions? neem dan contact op met: 

Ka Wing Falkena, falkena@considerati.com  of Anja Meerding, a.meerding@cmotions.nl.