ICT-recht
Artificiële intelligentie (AI)-verordening: verplichtingen AI-aanbieders en -exploitanten (deel 2)
R. (Rik) Groteboer 31 okt. 2023
De maatschappij ziet in artificiële intelligentie (AI) zowel grote kansen als enorme gevaren. In goede handen kan AI bijvoorbeeld worden gebruikt om patiënten een betere diagnostisering te geven, fraude op te sporen, auto’s zelf te laten rijden en bovenal als hulpmiddel om bepaalde werkzaamheden efficiënter uit te kunnen voeren. Hier staan echter ook risico’s tegenover. Burgers zijn er niet altijd zeker van hoe een AI-systeem tot zijn output komt. Zeker in situaties waarin deze output gevolgen heeft voor deze burgers is dat zorgelijk. Daarbij biedt de technologie ook de mogelijkheid om nóg eenvoudiger foutieve en misleidende informatie te creëren. Ook de privacy van burgers, die door de komst van technologie al werd ingeperkt, zal nog verder onder druk komen te staan. Om te voorkomen dat AI het monster van Frankenstein van dit decennium wordt (waar uiteindelijk de maker slachtoffer werd van zijn eigen wetenschappelijke creatie), probeert de Europese Unie (EU) een voortrekkersrol in te nemen om deze risico’s al in een vroeg stadium in te dammen. In het wetsvoorstel voor de AI-verordening, die in 2024 wordt verwacht in werking te treden, staan verschillende verplichtingen opgenomen voor zowel ontwikkelaars (AI-aanbieders) als gebruikers (AI-exploitanten) van AI-systemen. Het gros van deze verplichtingen worden in deze blog besproken.
Lees verder