Big data analyse een inbreuk op privacy?

Slimme data-analisten kunnen op basis van grote datasets het gedrag van individuele personen in toenemende mate voorspellen, zonder dat data van deze specifieke personen in de dataset aanwezig hoeft te zijn. Hoewel dit al gebruikelijk is bij online adverteerders, openbaar bestuur en sectoren zoals verzekeringen, rijst hierbij de vraag of dit een privacyrechtelijk vraagstuk, bijvoorbeeld in relatie met de Wet bescherming persoonsgegevens, is. Dit was de centrale vraag van Kate Crawford en Jason Schultz in hun paper “Big Data and Due Process: Toward a Framework to Redress Predictive Privacy Harms” en tevens tijdens een panelgesprek tijdens de Amsterdam Privacy Conference.

Zoals de veel besproken Target zwangerschapscasus heeft verduidelijkt, kunnen onschuldige data tijdens transacties (bijv. winkelen) bijzonder gevoelige feiten onthullen (bijv. tienerzwangerschap). Niet alleen kan toepassing van big data grote levensveranderde ontwikkelingen openbaren, ook meer permanente feiten over een persoon kunnen op grond van big data worden onthult. Zo tonen onderzoekers van Cambridge University in de paper “Private traits and attributes are predictable from digital records of human behaviour” aan dat aan de hand van big data kan worden vastgesteld of een persoon die een bepaald soort frites op sociale media ‘liked’, een hoog of laag IQ heeft. Hoewel niet alle uitkomsten gevoelige feiten zullen onthullen, lijkt big data wel een makkelijke manier om te leren over feiten die niet direct naar voren komen uit de data die een persoon zelf heeft aangeleverd.

Dit is een voedingsbodem voor discriminatie. Zo zijn de onderliggende algoritmes ontworpen door mensen met bepaalde doelen, prikkels en ideeën over de wereld (zie Barocas en Selbst’s paper over Big Data’s Disparate Impact) én wordt door toepassing van machine-gebaseerd leren iedere vorm van een morele check door een tussenpersoon bij het toepassen van afgeleide feiten, weggenomen. Een bijzonder groot verlies van autonomie vindt plaats wanneer de gecreëerde data wordt gebruikt om beslissingen te nemen over mensen over andere onderwerpen dan passen binnen het doel waarvoor de data in eerste instantie is verstrekt. Bijvoorbeeld, stel je voor dat je recente financiële transacties passen binnen het patroon voor mensen voor wie de kans groot is dat zij over een jaar gescheiden zullen zijn. Deze kennis zou alarmerend kunnen werken binnen de financiële sector en invloed kunnen hebben wanneer je een nieuwe dienst wilt afnemen.

Bestaande machtsverhouding worden verstoord als bepaalde organisaties meer over iemand weten dan die persoon zelf. De vraag blijft hoe we moeten omgaan met deze verstoring in de machtsverhouding, die gebaseerd is op informatie. Het toepassen van Europese privacywetgeving kan moeilijk blijken, daar niet per se sprake is van het verwerken van persoonsgegevens van de persoon op wie de big-data analyse uiteindelijk wordt toegepast. Een oproep voor meer transparantie bij dataverwerkingen zou onbeduidend en als valse zekerheid kunnen worden gezien, omdat slechts weinig mensen de tijd zullen nemen om de moderne informatiepraktijk te begrijpen. De paper van Crawford en Schultz stelt voor dat individuele personen die door big data analyse geraakt worden, gelijke rechtsmiddelen moeten hebben als gevonden kunnen worden in Angelsaksische privacywetgeving.

Desalniettemin blijft de vraag of voorspellende analyse een privacy-inbreuk vormt binnen het huidige kader voor privacy. Gezien de actieve houding van het Europees Hof in recente privacy-gerelateerde zaken, is het waarschijnlijk niet heel moeilijk om te voorspellen hoe de rechters deze vraag zouden beantwoorden. Het lijkt er echter op dat privacy wetenschappers momenteel meer op grond van ethische rechtvaardiging dan op grond van juridische oplossingen antwoorden proberen te vinden.