Wetsvoorstel Digital Omnibus Package moet het trainen van AI-modellen met persoonsgegevens makkelijker maken

Als u in uw organisatie AI gebruikt is de kans groot dat u te maken heeft met de verwerking van persoonsgegevens. Naast de AI-act, die het gebruik van AI-systemen en AI-modellen reguleert, moet u zich dan houden aan de Algemene Verordening Gegevensbescherming (‘AVG’). 

Voor ontwikkelaars van AI geldt dat eveneens zodra zij hun AI-model trainen met persoonsgegevens. Onder de huidige AVG is het nog onduidelijk of en wanneer persoonsgegevens gebruikt mogen worden voor het trainen van AI-modellen. De Europese Commissie heeft daarom recent een wetsvoorstel gepresenteerd dat meer duidelijkheid moet bieden: de zogeheten Digital Omnibus Package. Hoewel dit voorstel nog geen geldend recht is, geeft het een duidelijk beeld van de richting waarin de Europese wetgever denkt. Lees hier wat dit voor u betekent.

Eerder is op onze website al een blog verschenen over de verhouding tussen AI en de AVG. Nu er nieuwe wetgeving aan komt is het een goed moment om stil te staan bij dit onderwerp. Wat kan dit voorstel betekenen voor de manier waarop bedrijven persoonsgegevens mogen gebruiken in een AI-context?

Persoonsgegevens en de training van AI

De wetgeving rondom de training van AI ontwikkelt zich momenteel in rap tempo. De training en het gebruik van AI-modellen wordt geraakt door meerdere wetten waaronder de AI Act, de Auteurswet, de Data Act en de Algemene Verordening Gegevensbescherming. Een deel van de data die benut wordt voor training én gebruik van AI-modellen is te kwalificeren als persoonsgegevens. 

Persoonsgegevens zijn gegevens die betrekking hebben op de identiteit van een persoon. Denk bijv. aan iemands naam maar in sommige gevallen ook aan het nummerbord van iemands auto. Deze vallen onder het regime van de AVG. Wanneer persoonsgegevens worden gebruikt voor de training of het gebruik van een AI-model wordt dit binnen het huidige systeem geclassificeerd als verwerking. De reden dat hier speciale regels voor zijn is dat er risico’s kleven aan de verwerking van persoonsgegevens. Zo kunnen er datalekken plaatsvinden wanneer een AI-model wordt getraind op persoonsgegevens en is er een risico dat het AI-model leert om te profileren (‘profiling’). Kortgezegd verstaat de AVG onder ‘profiling’ elke vorm van geautomatiseerde verwerking van persoonsgegevens waarbij de gegevens worden gebruikt om persoonlijke kenmerken van een persoon te beoordelen of te voorspellen. Denk bijvoorbeeld o.a. aan prestaties, gedrag en gezondheid. Ter illustratie: gedrag van mensen kan worden voorspeld en op basis daarvan kunnen mensen categorisch worden ingedeeld. Dit kan een methode zijn om bijvoorbeeld de vraag te onderzoeken hoe terroristen kunnen worden herkend. Voor profiling gelden zeer strenge vereisten. 

In de AVG zijn er allerlei regels onder welke omstandigheden een verwerking wel of niet is toegestaan. Om de ontwikkeling van AI-modellen binnen de Europese Unie te stimuleren heeft de Europese Commissie op 19 november 2025 een voorstel bekend gemaakt om deze regels te verduidelijken en te versoepelen. Dit voorstel is deel van de Digital Omnibus Package. 

In deze blog zal besproken worden welke effecten de Digital Omnibus Package in zijn huidige vorm heeft voor de verhouding tussen privacywetgeving en de ontwikkeling van AI-modellen. Eerst zal het huidige systeem van de AVG in relatie tot AI-ontwikkeling en gebruik besproken worden. Hierna zal ingegaan worden op wat de Digital Omnibus Package beoogt te bereiken. Als laatst zal behandeld worden wat er veranderd als de Digital Omnibus Package in werking zou treden. 

Het huidige systeem van de AVG met betrekking tot AI

Zoals hiervoor aangestipt is het trainen van een AI-model met persoonsgegevens aan te merken als een verwerking binnen het systeem van de AVG. Een verwerking is alleen toegestaan als aan bepaalde voorwaarden is voldaan. Dit is bijvoorbeeld zo wanneer de persoon wiens gegevens worden verwerkt toestemming heeft gegeven voor de verwerking.

Momenteel zijn er al meerdere tech-bedrijven zoals LinkedIn en Google begonnen met het trainen van hun AI-modellen met de gegevens van de gebruikers van hun platforms. Aangezien dit aangemerkt wordt als verwerking is hier een grond voor nodig. De grond waar zij zich op beroepen is het gerechtvaardigd belang uit art. 6, lid 1, onder f AVG. 

Kunnen AI ontwikkelaars zich beroepen op de grondslag gerechtvaardigd belang voor het trainen van hun AI met persoonsgegevens?

In de AVG wordt bepaald dat een verwerking is toegestaan wanneer:

  • Deze nodig is voor doeleinden die voortkomen uit het gerechtvaardigd belang van de verwerker of een derde partij;
  • Het rechtvaardig belang van de verwerker (of derde partij) niet zwaarder weegt dan de belangen of fundamentele rechten van de ‘betrokkene’ (de persoon wiens gegevens worden verwerkt) welke de bescherming van zijn persoonsgegevens vereisen. Dit weegt zwaarder wanneer de betrokkene een kind is. 

Het is al langer de vraag of het trainen van een AI-model onder de grondslag van gerechtvaardigd belang kan vallen waardoor het zou zijn toegestaan om persoonsgegevens te verwerken bij de training van een AI-model. De European Data Protection Board (‘EDPB’) heeft hierover in een rapport gezegd dat de training van een AI-model in ieder geval, afhankelijk van omstandigheden, een gerechtvaardigd belang kan vormen. Bij de afweging of dit het geval is moet volgens de EDPB onder andere rekening worden gehouden met de impact van de verwerking op de betrokkene, de redelijke verwachting van de betrokkene, de maatregelen die zijn genomen om impact op de betrokkene te verminderen en het doel waarvoor het AI-model getraind wordt. De beoordeling is dus sterk context afhankelijk. 

De Autoriteit Persoonsgegevens (‘AP’) is in een handreiking uit april 2025 kritisch over het gebruik van persoonsgegevens voor de training van AI-modellen. Het gebruik van persoonsgegevens kan volgens de AP al snel een grote inbreuk zijn op de rechten van betrokkenen. Dit zou het lastig kunnen maken om te voldoen aan de voorwaarden voor een succesvol beroep op het gerechtvaardigd belang omdat het recht van de betrokkene dan zwaarder weegt.

Gebruik bijzondere persoonsgegevens voor de training van AI-modellen onder de AVG

Voor de verwerking van zogeheten bijzondere persoonsgegevens bestaan nog striktere regels. Dit zijn persoonsgegevens die informatie bevatten over bijvoorbeeld iemands ras of religieuze overtuiging. Dit is onder andere toegestaan wanneer de betrokkene toestemming heeft gegeven voor de verwerking of als de betrokkene de persoonsgegevens zelf openbaar heeft gemaakt. Voor de training van een AI-model kan dit problemen oproepen aangezien gegevensverzameling vaak automatisch gaat. Het is voor een robot lastig om te weten of het gaat om persoonsgegevens en te beoordelen in welke categorie de persoonsgegevens vallen.

Er zitten onder het huidige systeem dus nog wel de nodige haken en ogen aan de verwerking van persoonsgegevens voor de training van een AI-model. In de volgende paragraaf wordt besproken wat de Digital Omnibus Package inhoudt en welke impact invoering van deze wetgeving zou hebben op de mogelijkheden om AI-modellen te trainen met persoonsgegevens.

De Digital Omnibus Package

De Digital Omnibus Package is een voorstel voor een pakket aan wetgeving vanuit de Europese Commissie. Deze wetgeving ziet op verschillende aspecten van de digitale markt en datastrategie. Het doel van het voorstel is het stroomlijnen van wetgeving rondom AI, cybersecurity en data. Een deel van de voorstellen focust zich op het gebruik van persoonsgegevens voor de training van AI-modellen, maar ook op gebruik van persoonsgegevens in de AI tool zelf. In het voorstel worden niet alleen nieuwe regels voorgesteld voor de reguliere persoonsgegevens. Er worden ook nieuwe regels voorgesteld voor de bijzondere persoonsgegevens. In deze paragraaf zullen eerst de voorstellen over de reguliere persoonsgegevens besproken worden. Daarna ga ik in op de voorstellen die betrekking hebben op de bijzondere persoonsgegevens. 

Nieuwe interpretatie van persoonsgegevens

De eerste verandering die de Digital Omnibus Package voorstelt is het veranderen van wat een persoonsgegeven precies is. Hierbij wordt aangesloten bij recente rechtspraak van het Europese Hof van Justitie. Onder de huidige AVG is er sprake van een persoonsgegeven wanneer het gaat om informatie over een geïdentificeerde of identificeerbare natuurlijke persoon. Of dit het geval is hangt af van de vraag of deze persoon aan de hand van de gegevens direct of indirect kan worden geïdentificeerd. Dit is afhankelijk van welke middelen de verwerkende partij heeft om de persoon aan de hand van de gegevens te identificeren.

Volgens de Digital Omnibus Package moet, om te bepalen of gegevens classificeren als persoonsgegevens, gekeken worden of de entiteit die de gegevens gebruikt de middelen heeft die redelijk waarschijnlijk gebruikt zullen worden om aan de hand van de gegevens de persoon te identificeren. Als dit niet het geval is, is er geen sprake van persoonsgegevens. Dit betekent dat de gegevens niet onder het regime van de AVG vallen en het gebruik voor de training van AI-modellen minder strikt gereguleerd is. 

Als voorbeeld worden gepseudonimiseerde gegevens gebruikt. Pseudonimisering zorgt ervoor dat gegevens niet (direct) herleidbaar zijn tot een individu. De pseudonimiseringsmaatregelen kunnen echter met de juiste “sleutel” weer teruggedraaid worden, zodat deze gegevens weer (terug) herleid kunnen worden tot een individu. Daarmee zijn pseudonieme persoonsgegevens – anders dan anonieme – per definitie wel persoonsgegevens onder de AVG. Volgens de Digital Omnibus Package is het bestaan van dit soort additionele gegevens waardoor de gepseudonimiseerde gegevens kunnen worden gebruikt om iemand te identificeren op zichzelf niet genoeg om de gepseudonimiseerde gegevens te zien als persoonsgegevens. Wanneer een partij beschikt over additionele data om identificatie mogelijk te maken zijn de gegevens voor deze partij wel aan te merken als persoonlijke gegevens. 

Maar wat maakt het redelijk waarschijnlijk dat een partij de middelen waarover zij beschikt redelijk waarschijnlijk zal gebruiken om iemand te identificeren? Duidelijk is dat dit niet het geval is wanneer identificatie bij wet verboden of praktisch onmogelijk is. Het zou praktisch onmogelijk zijn om iemand te identificeren wanneer dit disproportioneel veel tijd, geld of werk kost.

Verwerking van persoonsgegevens is een gerechtvaardigd belang

Wanneer er wel sprake is van persoonsgegevens moet er onder de AVG nog steeds een gerechtvaardigd belang bestaan om de persoonsgegevens te mogen verwerken. Onder de Digital Omnibus Package wordt verduidelijkt dat gebruik voor de training van een AI-model zo een gerechtvaardigd belang kan zijn. Er moet dan nog steeds voldaan worden aan de eerdergenoemde vereisten voor een verwerking gebaseerd op het gerechtvaardigd belang. Daarnaast is het mogelijk dat de wet, voor bepaalde verwerkingen, alsnog expliciete toestemming van de betrokkene vereist. 

Wanneer een verwerking wordt gebaseerd op deze grond is verder vereist dat er organisatorische en technische maatregelen zijn genomen om de rechten en vrijheden van de betrokkene te beschermen. Er moet bijvoorbeeld gezorgd worden dat:

  • Zo min mogelijk data gebruikt wordt (‘data minimisation’);
  • Voorkomen wordt dat zonder weten van de betrokkene gegevens in het systeem blijven hangen;
  • Men transparant is tegenover betrokkenen; en
  • Betrokkenen een onvoorwaardelijk recht krijgen om bezwaar te maken tegen het gebruik.

Let wel dat het recht om bezwaar te maken tegen het gebruik niet per definitie betekent dat het bezwaar altijd gehonoreerd zal worden, nu er een belangenafweging dient plaats te vinden (tenzij sprake is van een verwerking t.b.v. direct marketing doeleinden). Wij vragen ons af hoe hier in de praktijk mee omgegaan zal worden. Daarnaast is het voor het maken van bezwaar vereist dat betrokkenen zich bewust zijn van de omstandigheid dat hun persoonsgegevens zijn verwerkt. Er kunnen daarom vraagtekens worden gezet bij hoe effectief dit recht in de realiteit gebruikt zal kunnen worden.

Gebruik van bijzondere persoonsgegevens niet langer strikt verboden

Er worden ook nieuwe regels voorgesteld voor het gebruik van bijzondere persoonsgegevens voor de training van AI-modellen. Het verwerken van deze gegevens in een AI-model blijft verboden maar daar zit een kanttekening aan. Zoals eerder opgemerkt kan het lastig zijn om te weten op wat voor (persoons)gegevens een AI-model precies wordt getraind. Hierdoor is het mogelijk dat er onbedoeld ook bijzondere persoonsgegevens in de training van het model zijn meegenomen. Onder voorwaarden hoeft de AI-aanbieder deze niet uit het model te halen. Dit zou volgens het voorstel komen te gelden wanneer:

  • Er toepasselijke organisatorische en technische maatregelen zijn genomen om te voorkomen dat bijzondere persoonsgegevens worden verwerkt;
  • Deze desondanks tijdens de training, het testen of de validatie van het AI-model toch in het systeem belanden; en
  • Het verwijderen van deze gegevens een disproportionele mate van moeite zou vereisen voor de aanbieder (verderop wordt daar een voorbeeld van gegeven).

De AI-aanbieder moet zodra hij hier weet van krijgt in dit geval wel zorgen dat deze gegevens alsnog effectief beschermd worden. Dit houdt in dat ze niet gebruikt mogen worden voor het genereren van voortbrengselen. Ook moet gezorgd worden dat deze gegevens niet op andere manieren openbaar kunnen worden of in de handen van derden kunnen komen. 

Een voorbeeld van een geval dat een disproportionele mate van moeite zou opleveren is het herontwerpen van het AI-model. Het is thans nog onduidelijk waar hierbij de precieze grens ligt, aangezien het nog slechts om een wetgevingsontwerp gaat en het niet verder is uitgewerkt. Wij vragen ons wel af of dit artikel in de realiteit niet nadelige effecten gaat hebben voor hoe secuur AI-aanbieders en -gebruikers omgaan met bijzondere persoonsgegevens. 

Een ander voorgestelde uitzondering heeft betrekking op het gebruik van bijzondere persoonsgegevens met het oog op het opsporen en corrigeren van mogelijke bias (vooringenomenheid) van het AI-model. 

Tenslotte, er kleven inherent risico’s aan het verwerken van bijzondere persoonsgegevens in AI-modellen. Een van die risico’s is bijvoorbeeld het risico op profilering van betrokkenen op basis van deze kenmerken. 

Conclusie

Hoewel de Digital Omnibus Package nog geen wetgeving is, geeft het wel een duidelijk idee van de richting die de Europese Commissie op wil. Meer ruimte voor AI-ontwikkeling en duidelijkere regels over wanneer het toegestaan is om in dit kader persoonsgegevens te gebruiken. Meer duidelijkheid is op zichzelf een positieve ontwikkeling. Door deze duidelijkheid te scheppen zijn wij in staat beter advies te geven en kunnen bedrijven hun investeringen beter plannen. 

Aan de andere kant is er een reden dat persoonsgegevens zo goed beschermd zijn. Hoewel er door de voorwaarden die aan verwerkingen gesteld zijn gepoogd is deze bescherming te behouden is het niet zeker hoe effectief dit gaat zijn. Bezwaar maken en rechtszaken aanspannen kosten immers tijd en geld. Dit zou in het voordeel van big-tech kunnen uitpakken aangezien zij over meer middelen beschikken dan de gemiddelde persoon wiens data wordt verwerkt. 

Aangezien het om een wetsvoorstel gaat zal er nog genoeg veranderen aan het wettenpakket. Wij zullen u hiervan op de hoogte houden. Neem gerust contact op als u vragen heeft over wat uw organisatie kan doen om binnen de kaders van de AI- en AVG-wetgeving AI te ontwikkelen of te benutten. 

Martijn 1

Meer weten over dit onderwerp of een andere vraag?

Wij plaatsen functionele en analytische cookies. Eventueel kunnen derde partijen tracking cookies plaatsen. U dient daar dan eerst mee akkoord te gaan. Lees meer in onze Privacyverklaring