26/06/2023 - Welkom bij de laatste bijdrage in Considerati's uitgebreide blogserie over de invloed van kunstmatige intelligentie. Wij, bij Considerati, zijn toegewijd aan het demystificeren van het snijvlak tussen AI en andere gebieden zoals aansprakelijkheid, privacy en ethiek in het licht van de EU AI Act die naar de trialoogfase gaat.
Deze blogreeks werd gelanceerd in de aanloop naar de onlangs gehouden conferentie: Artificial Intelligence, Impact & Update 2023 die Considerati in samenwerking met Outvie organiseerde op 16 juni 2023. Prof. dr. Bart Schermer, oprichter van Considerati, sprak over de status en ontwikkelingen van de AI-regelgeving. Responsible AI consultants Marianne Schoenmakers en Jord Goudsmit verzorgden ook een workshop over het meten en monitoren van Responsible AI Governance binnen organisaties.
Vorige week keken we naar het snijvlak tussen privacy en kunstmatige intelligentie, met de blogpost "Het potentieel ontsluiten: AI, GDPR en de toekomst van privacy". Vandaag gaan we een stap verder en bekijken we hoe data protection engineering relevant is voor AI.
Data Protection Engineering of Privacy Engineering is een discipline die helpt bij het vertalen van het principe van gegevensbescherming door ontwerp en standaardinstellingen naar specifieke technische vereisten binnen systemen die persoonsgegevens verwerken, inclusief AI, en aanvullende organisatorische maatregelen. Het is gericht op het bieden van richtlijnen voor het minimaliseren van privacyrisico's, zodat organisaties op de juiste manier middelen kunnen toewijzen en technische controles effectief kunnen implementeren in systemen. Data Protection Engineering is een samensmelting van software engineering, ethische overwegingen en wettelijke naleving.
Aangezien AI-systemen inherent gegevensintensief zijn, is data protection engineering zeer belangrijk, vooral gezien de snelle doorbraken op het gebied van AI en het toenemende belang van gegevensprivacy. Aan de ene kant kunnen AI-systemen robuustere beveiligingen mogelijk maken, zoals geavanceerde inbraakdetectiesystemen en geautomatiseerde gegevensanonimisering. Aan de andere kant kan de grootschalige gegevensverwerking die inherent is aan veel AI-toepassingen aanzienlijke privacyrisico's met zich meebrengen als deze niet goed wordt beheerd. Daarom is het vanuit juridisch en ethisch oogpunt noodzakelijk om ervoor te zorgen dat deze technologieën de privacy van de betrokkenen gedurende de gehele levenscyclus van de gegevens beschermen.
Bovendien moeten gebruikers van AI-systemen de technologie kunnen vertrouwen. Door ervoor te zorgen dat deze op een privacybeschermende manier met gegevens omgaat, helpt data protection engineering niet alleen bij het trainen van AI-modellen door alleen toegang te krijgen tot de ruwe gegevens, maar het biedt de gebruikers ook de relevante informatie op een transparante manier.
Een belangrijk onderdeel van privacy engineering zijn privacyverbeterende technologieën (PET's), zoals homomorfe encryptie. Dit zijn technieken die kunnen worden gebruikt om de vertrouwelijkheid, integriteit en beschikbaarheid van persoonlijke gegevens te garanderen en tegelijkertijd de nauwkeurigheid, begrijpelijkheid en bruikbaarheid bij het verwerken van deze gegevens te waarborgen. Tot slot verkleint de ontwikkeling van een technisch robuust AI-systeem de kans op datalekken en zorgt het ervoor dat technologische innovatie in balans is met de gegevensbescherming van individuen. Met de toenemende wettelijke controle op AI-systemen, er zijn veel toepassingen in de industrie waarbij data protection engineering cruciaal is:
Slimme thuisapparaten: AI-gestuurde smart home-apparaten zoals Google Nest of Amazon Echo komen steeds vaker voor. Deze apparaten verwerken continu persoonlijke gegevens op de achtergrond, wat ernstige privacyproblemen met zich meebrengt. Privacy engineering kan ervoor zorgen dat deze apparaten gegevens verwerken op een manier die de privacy van de gebruiker respecteert, bijvoorbeeld door stemgegevens automatisch te anonimiseren en ervoor te zorgen dat de gebruiker toestemming geeft voor het verzamelen van gegevens.
Geautomatiseerde besluitvormingssystemen: Deze systemen, waaronder algoritmen voor het goedkeuren van leningen, HR-wervingstools of advertentieplatforms, verwerken vaak gevoelige persoonlijke gegevens. Privacy engineering kan ervoor zorgen dat deze systemen zich houden aan de principes van privacy-by-design, waaronder dataminimalisatie, doelbinding en transparantie, door de uitkomsten uit te leggen, toezicht en bezwaarmogelijkheden te bieden, enzovoort.
Gezondheidszorg: AI-algoritmen worden steeds vaker gebruikt in de gezondheidszorg, van diagnose tot aanbevelingen voor behandelingen. Deze algoritmen verwerken vaak gevoelige gezondheidsgegevens, waardoor robuuste privacybescherming nodig is. Privacy engineering speelt een belangrijke rol bij het waarborgen dat deze bescherming wordt geïntegreerd in het ontwerp van de AI-systemen, door gegevens te synthetiseren of digitale tweelingen te gebruiken.
Net zoals de GDPR een belangrijke rol heeft gespeeld bij het vormgeven van het privacylandschap, zal privacy engineering, samen met de verplichtingen in de aankomende AI-wet en AI-aansprakelijkheidsrichtlijn, essentieel zijn om ervoor te zorgen dat AI-systemen van de toekomst worden ontworpen en ontwikkeld met privacy als kern. Terwijl de GDPR & AI Act het "wat" leveren - de wettelijke vereisten voor privacy en AI - levert privacy engineering het "hoe" - de technische middelen om deze vereisten te implementeren in AI-systemen.
Hoewel overheidsinstanties zoals het Europees Agentschap voor Cyberbeveiliging (ENISA) organisaties helpen door standaarden op te stellen en richting te geven aan wetgevingsinitiatieven, is het cruciaal dat organisaties zelf de technische vereisten ter bescherming van de privacy serieus nemen. AI-systemen moeten worden gemaakt en ingezet op een manier die niet alleen efficiënt is en aan de wet voldoet, maar ook als technisch en ethisch bastion van het recht op privacy van een individu.
Met dit bericht sluiten we onze AI-blogserie af. We vertrouwen erop dat onze voortdurende verkenning van verschillende onderwerpen en hun raakvlak met AI u waardevolle inzichten heeft opgeleverd.
Heb je nog vragen die je beantwoord wilt zien over de onderwerpen in deze serie? Of heeft u als organisatie praktisch advies nodig om ervoor te zorgen dat uw gebruik van AI verantwoord is? Neem contact op met Considerati, want wij bieden gespecialiseerd advies en ondersteuning op maat.
Heeft u vragen over bovenstaand onderwerp? Neem contact op met Considerati, wij bieden gespecialiseerd advies en ondersteuning op maat.