Onlangs had ik een gesprek met een mede-onderzoeker die wat advieswerk deed voor een grote organisatie. Haar taak was om de privacy risico’s in databanken te kwantificeren en om acties van medewerkers te initiëren als bepaalde drempels werden bereikt, zoals het uitvoeren van een security analyse als deze onvoldoende bescherming blijkt te bieden volgens het model. Terwijl wij door haar stappenplan gingen, moest ik steeds denken aan de typische openingszinnen van zichzelf respecterende academische papers, zoals “Privacy is a value so complex, so entangled in competing and contradictory dimensions, so engorged with various and distinct meanings, that I sometimes despair whether it can be usefully addressed at all.” (Robert C. Post, Three Concepts of Privacy, 2001). Andere variaties zijn bijvoorbeeld die van Judith Jarvis Thomson in haar paper The Right To Privacy (pdf) “Perhaps the most striking thing about the right to privacy is that nobody seems to have any very clear idea what it is.” – of Daniel Solove’s eerste zin in zijn paper A Taxonomy of Privacy (pdf): “Privacy is a concept in disarray.”
Het lijkt mij een hele opgave om de risico’s te kwantificeren van een concept dat voor de knapste koppen in het vak nog een vaag begrip is. Daarnaast moeten de risico’s die voortvloeien uit de openbaarmaking van informatie ook worden berekend, waarbij rekening moet worden gehouden met toekomstige technologische ontwikkelingen. Dit is, zoals ethicus Hannah Maslen beargumenteert, belangrijk om ervoor te zorgen dat men niet wordt ingehaald door technologie. Ze noemt het echter eerder een speculatieve dan praktische opgave. De recente Italiaanse studie “Security, privacy and trust in Internet of Things: The road ahead” analyseert bijvoorbeeld een enquête over de benodigde security- en privacymaatregelen in een wereld waar miljarden apparaten aan elkaar zijn gekoppeld en data verzamelen. Om voldoende te begrijpen welke technische maatregelen geconstrueerd moeten worden voor een bepaalde context, zijn kwalitatieve onderzoeken nodig. Een voorbeeld hiervan is de recente Zweedse studie “Online privacy concerns: A broad approach to understanding the concerns of different groups for different uses.” Deze paper herhaalt de constatering dat mensen met soortgelijke karakteristieken, zoals politieke oriëntatie of inherent vertrouwen in andere mensen, soortgelijke zorgen om hun privacy hebben, maar dat deze zorgen tussen de verschillende lagen van de samenleving kunnen verschillen. De enquête geeft niet per se een meer solide definitie van privacy, maar kan wel een licht werpen op de technische vereisten voor een gepaste verwerking van persoonsgegevens.
Wellicht zijn meest interessante academische werken over de kwantificatie van privacy risico’s te vinden in de fase van openbaarmaking of verspreiding van data. Zo beschrijft bijvoorbeeld de paper “Privacy-Preserving Big Data Publishing” door de Universiteit Calgary en IBM Research hoe bekende data-aggregatiemethodes (zoals k-anonymity en l-diversity) met succes worden toegepast op gigantische big data sets. Het voordeel van dergelijke benaderingen van openbaarmaking en verspreiding van gegevens is de mogelijkheid om de balans te beheersen tussen privacy en het nut van een bepaalde databank, die kan worden aangepast naarmate de context en de daaropvolgende risicoanalyse dat verlangt. Toch blijft de beste manier om privacy te waarborgen – en wellicht ook te kwantificeren – om het vage begrip bij voorbaat al in het ontwerp van informatiesystemen toe te passen, bijvoorbeeld door Privacy by Design strategieën, zoals enkele jaren geleden samengevat door Jaap-Henk Hoepman. Wachten met een privacy risicoanalyse totdat de data al verzameld is en de databanken al gecreëerd zijn laat te veel ruimte voor speculatie van (waarschijnlijk) onvoldoende begrepen context-gebonden risico’s.