27-02-2023 - Inmiddels is het alweer bijna twee jaar geleden dat de Europese Commissie (EC) haar voorstel voor een regulerend kader voor artificiële intelligentie (AI) wereldkundig maakte. Het doel hiervan is duidelijk: technologie en wetgeving beter op elkaar aan laten sluiten door regels te creëren die (voor zover mogelijk) bestand zijn tegen de grenzeloze ontwikkeling van AI.

Sindsdien zijn er verschillende suggesties op het voorstel gedaan. Op 6 december 2022 werden alle EU-lidstaten het uiteindelijk eens over een aangepaste tekst, waarmee zij definitief de bal bij de Europese Commissie en het Parlement hebben gelegd om het voorstel af te ronden. Deze blog gaat in op een aantal wijzigingen die het Parlement op het voorstel heeft gedaan.

Uitbreiding van begrip hoog-risico-AI-systemen

Allereerst doet het Parlement een voorstel om het begrip ‘hoog-risico-AI-systemen’ uit te breiden. Hieronder vallen alle AI-systemen met een hoog risico voor mens en maatschappij (zie voor meer info een eerdere blog van Considerati over dit onderwerp). Omdat er veel verschillende hoog-risico-AI-systemen bestaan, is door middel van een bijlage geprobeerd om alle hoog-risico-AI-systemen op te sommen. We hebben de belangrijkste aanvullingen van het Europees Parlement op deze bijlage voor u onder elkaar gezet:

  • Niet alleen live biometrische identificatie, zoals gezichtsherkenning, maar ook wanneer dit achteraf gebeurt. Denk aan apps die avatars kunnen maken aan de hand van een gezichtsscan.
  • Elke veiligheidscomponent voor het weg-, spoor- en wegverkeer die onder de categorie van kritieke infrastructuur is te rekenen. Systemen die het beheer van water, gas, verwarming en energie regelen vallen eronder voor zover een storing leidt tot een direct risico voor de voorraad hiervan.
  • AI-systemen in het onderwijs die gepersonaliseerde leertaken toewijzen op basis van de persoonsgegevens van leerlingen.
  • AI-systemen die opereren binnen de arbeidsmarkt en via algoritmes wijzigingen kunnen aanbrengen in arbeidsrelaties.
  • AI-systemen die beoordelen of iemand in aanmerking komt voor een ziekte- of levensverzekering, of noodoproepen kunnen classificeren ten behoeve van de gezondheidszorg.
  • De bescherming van kwetsbare groepen zoals kinderen, als nieuwe categorie. Mogelijk vallen ook aanbevelingsalgoritmes van social media hieronder.
  • AI-systemen die mogelijk het stemgedrag van mensen kunnen beïnvloeden bij nationale en internationale democratische processen. Ook systemen die bijvoorbeeld alleen stemmen tellen vallen hieronder.
  • Deepfakes en andere kunstmatige gebeurtenissen die nooit hebben plaatsgevonden, tenzij het overduidelijk is dat het om een kunstwerk gaat.
  • Andere AI-systemen die uit zichzelf tekst of afbeeldingen kunnen creëren, tenzij er duidelijk een persoon of organisatie aansprakelijk voor kan worden gehouden.

Verboden AI-systemen

Daarnaast wil het Parlement het begrip ‘verboden AI-systemen’ aanvullen. Dit zijn AI-systemen die de AI Act (AI-verordening) verbiedt. Een voorbeeld hiervan is ‘social scoring’.  Dit is het beoordelen van mensen op basis van hun financiële, zakelijke maar ook sociale gedrag. Deze beoordeling kan vervolgens invloed hebben op belangrijke zaken, zoals hypotheekaanvragen of baankansen. China maakt gebruik van een dergelijk systeem. De AI Act wil voorkomen dat EU-lidstaten hier ook mee te maken krijgen. Het Parlement vult dit onderwerp aan op de volgende punten:

  • Social scoring moet naast het beoordelen van het gedrag van mensen ook verboden worden voor het beoordelen van persoonlijke kenmerken, met gevolgen voor de personen in kwestie.
  • AI-systemen die werken met technieken die het menselijk bevattingsvermogen overstijgen, tenzij deze voor therapeutische doeleinden of met uitdrukkelijke toestemming van betrokkenen is goedgekeurd. Denk hierbij aan audiofrequenties die mensen niet kunnen horen, of lichttinten die niet zijn te zien.
  • AI-systemen die expres mensen manipuleren of misbruik maken van kwetsbaarheden, zoals de mentale gezondheid of financiële situatie.

Definitie AI

Er bestaat veel discussie over de definitie van AI. Meerdere lidstaten en EU-organen hebben hun zienswijze over dit onderwerp met elkaar gedeeld. Enerzijds willen sommigen dat een groot deel van de AI-systemen binnen de reikwijdte van de definitie valt, anderzijds moet men ervoor waken dat simpele software niet ook aan de strenge regels van hoog risico AI-systemen wordt onderworpen. Het Parlement heeft echter aangegeven een definitief uitsluitsel over dit gevoelige onderwerp nog even te parkeren. Daarmee kan dit betekenen dat de Commissie de knoop uiteindelijk zal moeten doorhakken.

Wat betekent dit voor uw organisatie?

Dit zijn de belangrijkste punten uit de voorgestelde wijzigingen van het Parlement. Tot aan de stemming van het Parlement over de AI Act – naar verwachting eind maart 2023 – kunnen er aanvullende wijzigingen worden voorgesteld door Parlementsleden. De definitieve goedkeuring van de AI Act zou dan in het najaar van 2023 plaatsvinden, wat betekent dat de AI Act in 2024 pas echt in werking treedt.

Wilt u meer weten over de verantwoorde inzet van AI en Responsible AI governance? Kom dan op 16 juni a.s. naar het Actualiteitencongres AI toe dat Considerati samen met Outvie organiseert. Op dit congres krijgt u een deepdive AI, leert u over de kansen en risico's van AI, algoritmes en hoe u AI verantwoord kunt toepassen.

Profiteer momenteel van de vroegboekkorting door gebruik te maken van onze code: 70940_Considerati. Deze code kunt u op het einde bij het bestellen van uw tickets toevoegen bij het onderdeel ‘Waardebon’.

Bent u benieuwd of uw organisatie klaar is voor de AI Act (AI-verordening)? Kom erachter via onze infographic:

Download hier de infographic

Gijs Alberdingk Thijm Legal Consultant

Meer weten?

Heeft u vragen over bovenstaand? Neem dan gerust contact op met Considerati.