Algoritmerisico’s in beeld: AP en DCA brengen rapportage uit

Discriminatie, willekeur of misleiding. Een handjevol risico’s dat de Autoriteit Persoonsgegevens (AP) aan het licht brengt in haar nieuwe rapportage over de inzet van algoritmes. De AP heeft onlangs de eerste Rapportage algoritmerisico’s Nederland gepubliceerd. De rapportage brengt de huidige algoritmerisico’s en de effecten van de inzet van algoritmes in Nederland in beeld. Hieruit blijkt dat innovaties zoals intelligente chatbots en gebrekkig inzicht in bestaande algoritmes momenteel de belangrijkste risico’s van de inzet van algoritmes zijn.

2 aug. 2023

Bescherming van publieke waarden en grondrechten

De rapportage is opgesteld door de nieuwe directie Coördinatie Algoritmes (DCA) en de AP. De autoriteit is dit jaar van start gegaan met een nieuwe versterkte focus op het toezicht op de ontwikkelingen en het gebruik van algoritmes en heeft hiervoor een apart organisatieonderdeel opgericht: de DCA. Deze autoriteit heeft als focuspunt het (beter) beschermen van publieke waarden en grondrechten. Zo wil zij discriminatie, willekeur en misleiding voorkomen, de transparantie bevorderen en kijkt zij onder meer naar de eerlijkheid van algoritmes. Als onderdeel van haar signalerende taak publiceert de DCA voortaan elk half jaar een rapportage die de algoritmerisico’s in Nederland in beeld brengt. In juli 2023 is de eerste editie uitgebracht en eind 2023 verschijnt de eerste volledige rapportage. Met de rapportages proberen de AP en de DCA bij te dragen aan een verbeterde en verantwoorde inzet van algoritmes.

Risico’s van algoritmes en AI

De onlangs verschenen rapportage gaat over systemen en toepassingen van algoritmes en Artificiële Intelligentie (AI) die impact kunnen hebben op (groepen) mensen. Een AI-systeem ziet op het automatiseren van handelingen en beslissingen die voorheen door mensen werden verricht. De inzet van algoritmes biedt volgens de rapportage zeker een maatschappelijke waarde, maar het brengt ook risico’s met zich mee. Denk aan risico’s zoals (groeps)discriminatie, (groeps)oneerlijkheid of gebrek aan verantwoording. Zo kan er bij het gebruik van deepfakes een valse werkelijkheid worden gecreëerd, waardoor het voor mensen lastig is om te bepalen wat wel en niet te vertrouwen is. Het is van belang dat deze risico’s worden beheerst, want volgens de DCA kunnen die risico’s op de lange termijn de samenleving ontwrichten. De meer geavanceerde en complexe vormen van AI en algoritmes, zoals machine learning en neurale netwerken, maken het beheersen van risico’s extra uitdagend. Het belang van adequate risicobeheersing gaat bovendien alleen maar toenemen de komende tijd. Algoritmes worden krachtiger en er zullen nieuwe toepassingsmogelijkheden ontstaan. In het geval van onvoldoende risicobeheersing, wordt organisaties geadviseerd om terughoudend te zijn met het inzetten van algoritmes en AI.

Kernboodschappen

De rapportage bevat een paar kernboodschappen over de inzet en risico’s van algoritmes. Ten eerste moet Nederland stappen blijven zetten om grip te krijgen op de maatschappelijke effecten van de inzet van algoritmes en AI. Hierbij kan worden gedacht aan een snellere totstandkoming van wettelijke eisen aan transparantie, duidelijke(re) regulering en het versterken van zowel intern als extern toezicht. Organisaties zullen meer personeel en scholing moeten inzetten om dit doel na te streven.

Verder moedigt de AP het gebruik van een algoritmeregister voor overheidsinstanties aan. Een algoritmeregister verschaft inzicht in de algoritmes die deze instanties gebruiken. De AP ziet ruimte voor een verplichtstelling van het algoritmeregister, waarbij zij de nadruk legt op hoog-risicosystemen. De gedachte hierachter is dat de basisgegevens over de meest risicovolle algoritmes zo snel mogelijk worden geregistreerd.

Bij algoritmes en AI die een grote maatschappelijke impact kunnen hebben is het volgens de AP en de DCA wenselijk dat organisaties voor, tijdens en na de inzet hiervan verantwoording afleggen. De AP stelt dat organisaties ook deze gevallen nog te vaak aanmerken als een puur interne organisatorische aangelegenheid.

Daarbij wordt geconstateerd dat de Europese Unie (EU) zich in de goede richting beweegt als het gaat om het beschermen van grondrechten en fundamentele vrijheden, zoals het discriminatieverbod of de vrijheid van meningsuiting. Daarbij doet de AP al een voorzichtige voorspelling dat de EU potentieel koploper kan worden op het gebied van AI- en algoritmeregulatie, mocht eind dit jaar een politiek akkoord worden bereikt op de AI-Verordening. Toch benadrukken de AP en de DCA dat de AI-verordening geen panacee zal zijn voor de hedendaagse uitdagingen. Zij motiveren dit door voorop te stellen dat het opleggen van verplichtingen voor AI-producenten van hoog-risicosystemen grotendeels is gebaseerd op hoe zij hun eigen systeem beoordelen, en dat er in dat kader geen onafhankelijke zekerheid bestaat dat een systeem geen inbreuk vormt op de grondrechten. Tevens duurt het enkele jaren voordat het nieuwe pakket aan Europese regelgeving bindend is, ook na het akkoord.

Heeft u als organisatie vragen over de inzet en/of risico’s van algoritmes? Neem dan gerust contact met ons op.