De Tweede Kamer heeft recent een motie aangenomen die de regering oproept om onderzoek te doen naar situaties waarin ongewenste effecten van algoritmes kunnen voortkomen. De Kamerleden Van den Berg (CDA) en Wörsdörfer (VVD) merken op dat de werking van bepaalde algoritmes (met name algoritmes die gebruik maken van machinaal leren) ondoorzichtig is. Terecht merken de Kamerleden op dat de inzet van algoritmen ongewenste en onvoorziene effecten kan hebben.
Er schuilt een gevaarlijke aanname in het verzoek aan de regering: de impact van de inzet van algoritmen is moeilijk in het algemeen, los van een specifieke context, te bepalen. Daarnaast hebben de gegevens, ontwikkelaars, bedrijfsprocessen, technische keuzes, evaluatiemechanismen, etc., invloed op het effect dat een algoritme kan hebben.
Vergelijk een algoritme met een hamer (ook een gereedschap) en het is al snel duidelijk dat de context omtrent het gereedschap allesbepalend is. Op een bouwplaats, in de handen van een vakman is een hamer een bijzonder geschikt gereedschap dat betrouwbare en gewenste resultaten oplevert. In de handen van een kleuter, bij het keukenraam, zijn er tenminste extra waarborgen op zijn plaats. Voor algoritmes geldt hetzelfde, wat in de ene situatie passend en betrouwbaar (genoeg) is kan in een andere context volledig onacceptabel zijn.
Het is dus noodzakelijk om een goed beeld te hebben van de hele context waarin een algoritme ontwikkeld en later toegepast wordt.
Daarom gaan we in onze AI impact assessment eerst na:
De antwoorden op deze vragen geven een goede indicatie of een impact assessment waardevol is omdat er waarschijnlijk ethische en juridische aspecten zijn die nadere analyse verdienen. Een analyse die bovendien gevoed moet worden met technische, operationele en juridische maar ook reputatie en ethische perspectieven.
Alleen met een integrale AI impact assessment kan voorkomen worden dat de risico's van de inzet van algoritmen overschat worden, met het verlies van innovatieve diensten en processen als gevolg. Of andersom, dat de risico's van de inzet van een algoritme juist onderschat worden, met mogelijk (reputatie)schade als gevolg.
Het is uitstekend dat ook de Tweede Kamer zich druk maakt over de inzet van algoritmes, maar met algemene beschouwingen alleen zijn organisaties niet geholpen. Bent u benieuwd naar hoe wij de AI impact assessment aanpakken of hoe wij u verder kunnen helpen omgaan met de juridische en reputationele aspecten van AI? Neem contact met mij op via vanham@considerati.com.