We leven in een innovatieve en creatieve wereld. De wereld om ons heen verandert snel. De Innovatieve Meesters van Elferink & Kortier Advocaten houden de ontwikkelingen op onze vakgebieden voor u bij in deze databank.
Artificiële intelligentie (AI)-verordening: (deel) 4: AI en Privacy, algemene beginselen
In deze vierde blog in onze reeks over AI en de Europese AI-verordening bekijken wij AI vanuit een privacy-perspectief. Wij gaan dieper in op de verhouding tussen AI, de AI-verordening en de privacyregels uit de Europese Algemene Verordening Gegevensbescherming (hierna: ‘de AVG’). Deze keer over AI en de basisbeginselen uit de AVG.
LET OP: Op 12 juli 2024 is de AI-verordening officieel gepubliceerd. Na een lang discussietraject zijn veranderingen doorgevoerd in de officiële wettekst, ten opzichte van de eerdere wetsvoorstellen waarop wij blogs van hebben gebaseerd. De tekst in deze blog is nog gebaseerd op eerdere wetsvoorstellen en is in die zin niet geheel up to date.
Een belangrijke aanpassing in de officiële wettekst is bijvoorbeeld het vervangen van de veelvoorkomende term ‘AI-exploitant’ door de term ‘AI-gebruiksverantwoordelijke’. In de praktijk blijven deze begrippen echter dezelfde betekenis houden. In plaats van de term ‘AI-exploitant’ kan men dus de term ‘AI-gebruiksverantwoordelijke’ lezen.
Om onze blogs volledig in lijn te brengen met de officiële wettekst, schreven wij een tweetal updateblogs om de juistheid en continuïteit van onze eerdere AI-blogs te kunnen waarborgen. Daarin benoemen wij specifiek de punten waarop onze eerdere blogs verouderd zijn, en werken wij deze bij. Updateblog #1 vindt u [hier].
Privacy en AI
Kunstmatige intelligentie (AI) neemt een enorme vlucht. Daarbij kommen allerlei privacy-vraagstukken om de hoek kijken. Denk daarbij aan vragen als:
- Hoe zit het met identificeerbaarheid van big data? Zijn dat persoonsgegevens? Door het leggen van verbanden kunnen veel meer en veel gevoeligere gegevens van betrokkenen worden verkregen. Wat als dat bijzondere persoonsgegevens zijn en/of worden? Welke regels gelden dan?
- Welke rol heeft de aanbieder, de exploitant (de partij die het systeem inzet) van zo’n AI- systeem en de eindgebruiker c.q. betrokkene daarvan? Welke partij bepaalt het doel en middelen van de persoonsgegevensverwerking binnen AI? Wie moet welke beginselen uit de AVG naleven?
- Met welk doel worden persoonsgegevens gebruikt in (of voor training van) AI-systemen? Mag dat? Is daar toestemming voor nodig of geldt een andere grondslag?
- Welke regels gelden voor het verzamelen van data voor AI-trainingsdoeleinden, zoals webscraping?
- Hoe zit het met gegenereerde output die effect heeft op de privacy van een betrokkene?
- De AVG gaat uit van transparantie: hoe kun je transparant zijn over het verwerken van persoonsgegevens met AI?
- Kun je als betrokkenen onder de AVG je rechten wel effectief uitoefenen als je met AI te maken hebt?
- Hoe zit het met profiling en geautomatiseerde besluitvorming met gebruikmaking van AI?
- Hoe zit het met de uitzonderingen onder de AVG voor wetenschappelijk en statistisch onderzoek? Speelt dat een rol bij AI?
Bovenstaande vragen zullen niet altijd even eenvoudig te beantwoorden zijn. Hoe een en ander precies uitpakt hangt af van de precieze toepassing van AI. Dat neemt niet weg dat de mogelijke aandachtspunten wel op voorhand beschouwd kunnen worden.
Omdat het een omvangrijk onderwerp betreft, knippen wij het onderwerp AI en privacy weer op in drie verschillende blogs.
- In deze blog gaan we nader in op de basisbeginselen uit de AVG in relatie tot AI.
- In het tweede deel gaan we nader in op de transparantie-eisen uit de AVG en de rechten van betrokkenen waarvan de persoonsgegevens middels AI worden verwerkt.
- In het laatste deel (3) gaan we nader in op geautomatiseerde besluitvorming en profilering. Houd er overigens rekening mee dat er veel meer regelgeving van toepassing is op data dan alleen de AVG. Zo is er vanuit Europa wetgeving (op komst) als de Data Act, de Data Governance.
Terminologie
In deze blogserie gebruiken wij regelmatig de termen ‘Aanbieder van een AI-systeem’ en ‘Exploitant van een AI-systeem’. Deze termen komen uit de AI-Verordening. We hebben deze nader toegelicht in het eerste deel van deze blogserie, maar om onderhavige blog goed te kunnen lezen, geven we de definities hiervan nog even kort weer.
De aanbieder is de partij die een AI-systeem of AI-model voor algemene doeleinden ontwikkelt of in de handel brengt of in gebruik stelt. Deze partij biedt het AI-systeem dus letterlijk aan.
De exploitant is een verwarrende term die wat ongelukkig vertaald lijkt. De exploitant is degene die een AI-systeem onder eigen verantwoordelijkheid gebruikt. Let op: de term exploitant is in de definitieve tekst van de AI-verordening inmiddels gewijzigd in Gebruiksverantwoordelijke.
AI EN PRIVACY – BASISBEGINSELEN AVG
Persoonsgegevens en AI
AI-systemen en/of basismodellen verwerken enorme hoeveelheden data, waaronder ook persoonsgegevens. Bij AI wordt gebruik gemaakt van machine learning of deep learning om tot algoritmen te komen. Dergelijke algoritmen worden getraind om verbanden te leggen tussen enorme hoeveelheden data, waarna met die getrainde modellen op basis van input output wordt gegenereerd. Het betreft dan output zoals voorspellingen, content, aanbevelingen of beslissingen. Bij AI is (big) data dus de brandstof voor de motor die het systeem aandrijft.
Met die enorme hoeveelheden data liggen allerlei privacyrechtelijke vraagstukken op de loer. Dat wordt in de AI-verordening ook onderkend. In die verordening is bijvoorbeeld uitdrukkelijk opgenomen dat de regels uit de verordening de regels uit diverse andere Europese regelgeving onverlet laat, zo ook de AVG. Dat betekent dat als er persoonsgegevens worden verwerkt met AI, de AVG van toepassing is op die verwerking, náást de AI-Verordening. De AVG is, de naam zegt het al, een algemene verordening. Het biedt een algemeen kader voor verwerking van persoonsgegevens, dat bewust open en techniekneutraal is geformuleerd is zodat het geschikt is voor verschillende toepassingen en technieken.
Input en output
Voordat we nader ingaan op de privacyregels, is het belangrijk om te realiseren dat er een scheiding gemaakt kan worden tussen enerzijds de input van persoonsgegevens die met AI worden verwerkt of die als trainingsdata dienen. Dat kan bijvoorbeeld via webscraping, waarbij door de aanbieder van een AI systeem grote hoeveelheden data van het web worden gehaald. Anderzijds genereren AI-systemen ook output zoals voorspellingen en content. De input en de output worden mogelijk door verschillende partijen verwerkt en vaak ook op verschillende momenten in de keten. Dat brengt andere en verschillende verplichtingen c.q. aandachtspunten met zich mee.
Hoe zit dat dan? Trainingsdata voor AI-systemen kunnen bijv. bestaan uit persoonlijke gegevens zoals tekst, afbeeldingen of andere gegevens die direct of indirect identificeerbare informatie bevatten. De inputkant brengt privacy-vragen met zich mee in het geval deze bijvoorbeeld onjuist worden gebruikt, onbevoegd worden verzameld of de verwerkte persoonsgegevens worden blootgesteld aan risico’s van ongeautoriseerde toegang of datalekken. De belangrijkste vraag aan de input kant is: hoe komt men aan de data (met persoonsgegevens) en heeft men een grondslag voor verwerking daarvan?
De output van AI-systemen kan van grote invloed kan zijn op individuen. Zo kunnen er bijvoorbeeld op basis van AI-voorspellingen keuzes worden gemaakt of besluiten worden genomen die ingrijpend zijn voor de privacy van betrokkenen. Om die reden is het van belang dat deze output voldoet aan de vereisten van de AVG. AI-algoritmen kunnen bijvoorbeeld vooroordelen (zogenaamde bias) bevatten die kunnen leiden tot resultaten die discriminerend van aard zijn. AI-modellen kunnen mogelijk ook profielen maken van individuen op basis van hun persoonlijke gegevens en gedrag. De belangrijkste aandachtspunten aan de output-kant zijn daarom; hoe komt de output tot stand en hoe wordt deze vervolgens gebruikt? Welke gevolgen heeft dat voor de betrokkene? Welke rechten heeft de betrokkene?
Het voorgaande onderscheid tussen input en output komt regelmatig terug in deze blogserie.
Voorvragen
Persoonsgegevens
Als we naar de AVG kijken om te beschouwen welke regels gelden voor het verwerken van persoonsgegevens met AI, ontkomen we er niet aan om eerst een aantal voorvragen te stellen. De belangrijkste vraag is namelijk of de AVG überhaupt van toepassing is op een AI-systeem of AI-model. De AVG is van toepassing op de verwerking van persoonsgegevens. De vraag is aldus of de data die met AI worden verwerkt aan te merken zijn als persoonsgegevens. De precieze fase speelt daarbij een rol. Want de trainingsdata die een aanbieder gebruikt om zijn algoritme te trainen, is een heel andere vorm van data dan de data die door een exploitant worden ‘gevoerd’ aan een AI-systeem om een bepaalde output te krijgen.
Om dat duidelijk te maken eerst een volstrekt hypothetisch voorbeeld. Stel een hogeschool wil een bepaald AI-systeem, à la ChatGPT, gebruiken om enerzijds toetsen te laten genereren en anderzijds om de toets-antwoorden van studenten te laten nakijken en daar geautomatiseerd een beoordeling voor te geven. De school betrekt het systeem van een onderwijs-uitgever, die ook de maker van dat systeem is. Het systeem is door de uitgever getraind met heel veel trainingsdata; zoals allerlei oudere toetsen uit heel Europa, alsmede de antwoorden die studenten daarop gaven. In dit voorbeeld laten we even de vraag buiten beschouwing of de uitgever überhaupt over die data zou kunnen beschikken c.q. zo’n systeem zou kunnen maken.
De uitgever is aldus de aanbieder onder de AI-verordening. Zij traint het algoritme met data, waaronder ook persoonsgegevens. Nog niet zo lang geleden is immers uitgemaakt dat toets-antwoorden persoonsgegevens (kunnen) zijn. Hetzelfde geldt voor het handschrift van de student, die mogelijk nog op oudere toetsen. De trainingsdata zijn daarmee aan te merken als persoonsgegevens en daarop is de AVG van toepassing. De school, als exploitant c.q. partij die AI inzet, gebruikt het AI-systeem vervolgens voor voornoemde doeleinden. Zij voert o.a. de toets-antwoorden van haar studenten in. Dat zijn dus ook persoonsgegevens. Uiteraard verwerkt het systeem ook de naam en overige identificerende gegevens van de student. Voor die invoer c.q. input geldt dus dat de AVG óók van toepassing is, maar in deze fase (in ieder geval) onder verantwoordelijkheid van de school. Tot slot genereert het systeem output. Het analyseert en interpreteert immers de toets-antwoorden aan de hand van het algoritme en hangt daar een beoordeling of cijfer aan. Die output heeft gevolgen voor de student en zegt iets over de kennis die die student heeft van een bepaald vak. Daarmee is ook de output een persoonsgegeven.
Tot zover is de vraag of de data die het AI-systeem verwerkt persoonsgegevens kunnen zijn nog niet zo ingewikkeld. Het wordt echter ingewikkelder als de ingevoerde data op zichzelf beschouwd, althans voor mensen, niet als een identificerend gegeven kan worden beschouwd. In het geval van AI worden echter allerlei verbanden gelegd tussen verschillende, op het eerste oog niet identificerende, gegevens. Daarmee kunnen die gegevens in onderling verband beschouwd, wel degelijk indirect (of opnieuw) herleidbaar zijn tot een persoon. Bovendien zou het zelfs zo kunnen zijn dat het algoritme door het leggen van verbanden en gevolgtrekkingen zodanige data genereert, dat er veel meer details en bijzonderheden over een specifieke betrokkene naar boven komen dan men op het eerste gezicht zou denken en dan men zou verwachten. Het zou dan goed mogelijk zijn dat het informatie betreft die heel gevoelig is en die de betrokkene zelf niet had willen delen. Door het combineren van gegevens, het leggen van verbanden of het herkennen van patronen, kunnen zomaar bijzondere persoonsgegevens als seksuele of politieke voorkeur of medische informatie naar boven komen drijven. Een bekend voorbeeld hiervan is de zogenaamde Target-zaak uit de VS, waarbij een winkel een AI-algoritme had ontwikkeld om zwangere vrouwen, gebaseerd op hun winkelgedrag, te identificeren, zodat aanbiedingen beter op hen gericht zouden kunnen worden. Dat algoritme werkte zo goed dat deze winkel in sommige gevallen eerder wist dat die vrouwen zwanger waren dan die vrouwen zelf.
Het voorgaande betekent dat er in het geval van AI misschien wel veel eerder sprake is van ‘persoonsgegevens’ dan op het eerste gezicht het geval lijkt.
Tot slot speelt nog het volgende: In het geval van AI kan het zo zijn dat gegevens die op zichzelf herleidbaar zijn tot een persoon, bijvoorbeeld een foto, door het systeem worden opgeknipt en in kleine stukjes worden gebruikt als trainingsdata of geanalyseerd door het AI-model. In het geval van een foto kan het bijvoorbeeld voor een bepaald AI-systeem (bijvoorbeeld voor een systeem als Dall-e) voldoende zijn om te weten op welke plek de ogen zitten, zodat het systeem zelf gezichten kan genereren en de ogen op de juiste plaats kan plaatsen. De losgeknipte onderdelen van die foto in de trainingsdata zijn dan mogelijk niet meer herleidbaar tot een persoon. Het is dan de vraag of er nog over persoonsgegevens gesproken kan worden. Toch is dat waarschijnlijk, op een bepaald moment althans, wel het geval (geweest). De losgeknipte gegevens zijn immers mogelijk wel weer aan elkaar te plakken, waarna ze opnieuw herleidbaar worden. Belangrijker is echter dat de foto’s eerst wel in zijn geheel worden verzameld en vervolgens worden verknipt. Dat zijn twee ‘verwerkings’-handelingen met (dan nog) persoonsgegevens waarop de AVG in eerste instantie wel van toepassing is. Dat betekent dat, in dit geval de aanbieder, moet voldoen aan de AVG.
Verantwoordelijke
Als is vastgesteld dat de AVG van toepassing is, is vervolgens de vraag wie voor die verwerking verantwoordelijk is. De AVG gaat uit van een aantal rollen. De belangrijkste daarvan zijn de verwerkingsverantwoordelijke en de verwerker. De verwerkingsverantwoordelijke is de partij die het doel en de middelen van de persoonsgegevensverwerking bepaalt. Kort gezegd bepaalt deze partij het ‘hoe en het waarom’ van de verwerking. Dat lijkt in het geval van AI-toepassingen op het eerste gezicht relatief eenvoudig vast te stellen. Als men verder kijkt, komt men echter omstandigheden tegen die de kwalificatie lastig kunnen maken. Hoe zit dat?
Een aanbieder van AI-systemen, dus de partij die het AI- systeem heeft ontwikkeld en die het traint met trainingsdata, zal in de regel verwerkingsverantwoordelijke zijn. Deze partij bepaalt immers welke (trainings)data hij nodig heeft om het AI- systeem te kunnen ontwikkelen en trainen.
De AI-verordening identificeert naast de rol van aanbieder ook de rol van exploitant. De exploitant kan ook verwerkingsverantwoordelijke zijn voor de persoonsgegevens die hij door het AI-systeem laat verwerken. Het gaat dan niet per se om trainingsdata, maar eerder om de persoonsgegevens die de exploitant door middel van het AI-systeem laat verwerken om een bepaalde output te genereren. De exploitant bepaalt dan immers welk AI-systeem het gebruikt, met welke persoonsgegevens en voor welk doel. Als de output ook persoonsgegevens zijn, bijvoorbeeld omdat het iets zegt over een betrokkene, dan lijkt het voor de hand te liggen dat de exploitant ook daarvoor verwerkingsverantwoordelijke is. De exploitant bepaalt immers hoe en waarom hij deze output gebruikt. Denk hierbij wederom aan het voorbeeld van de school. De school is de exploitant en bepaalt welk systeem het gebruikt voor het nakijken van de toetsen en wat het met de output doet.
Maar hier begint de schoen toch wat te wringen. Want is het wel zo dat de exploitant helemaal het hoe en wat van de output bepaalt? Is hij goed in staat om te begrijpen hoe de persoonsgegevens dan precies worden verwerkt door het systeem? Dit wordt ook wel de blackbox-problematiek genoemd. Wat er met de data precies gebeurt in een AI-systeem en hoe het algoritme werkt en tot output komt, is meestal niet duidelijk voor de exploitant. Het algoritme is ingewikkeld en moeilijk te doorgronden, zeker voor andere partijen dan de aanbieder. Bovendien kan in het geval van deep learning het algoritme ieder moment wijzigen. Het systeem leert immers continu. Het lijkt in dat kader dus veel logischer dat niet de exploitant maar de aanbieder weet (of zou moeten weten) hoe en waarom bepaalde persoonsgegevens worden verwerkt om tot een bepaalde uitkomst te komen. Is die partij dan niet de verwerkingsverantwoordelijke? Anderzijds weet in het geval van Deep Learning de aanbieder ook niet altijd hoe het algoritme tot stand komt. Hoe die kwalificatie in de praktijk uitvalt is dus sterk afhankelijk van de concrete omstandigheden van het geval.
Of zou de aanbieder een ‘verwerker’ (in de zin van de AVG) van de exploitant (die verwerkingsverantwoordelijke is) kunnen zijn. De privacyrechtelijke rol van verwerker wordt in de AVG gedefinieerd als de partij die ten behoeve van de verwerkingsverantwoordelijke (en onder diens verantwoordelijkheid) een onderdeel van de verwerking op zich neemt, zonder dat hijzelf doel en middelen van de verwerking bepaalt. De verwerker heeft dus een ondergeschikte, dienende rol, in het verwerkingsproces. Het voert te ver om de vele nuances op dit vlak in deze blog uit te schrijven. Als u meer wilt weten over de rol van van verwerker en/of verwerkingsverantwoordelijke, dan verwijzen wij u naar onze blog over de privacyrechtelijke kwalificatie van de AVG-rollen. Als de aanbieder op uitdrukkelijke instructie van de exploitant persoonsgegevens volgens een bepaald stramien zou verwerken, dan zou het een verwerker van de exploitant kunnen zijn. Dat lijkt echter niet het geval, omdat de instructies van de exploitant waarschijnlijk niet zodanig zijn dat de aanbieder uitsluitend die ‘dienende rol’ heeft in het verwerkingsproces. Het punt van AI is nu juist dat het vaak het algoritme c.q. de aanbieder van het AI-systeem is die besluit hoe en welke persoonsgegevens worden verwerkt, op welke manier en voor welke uitkomst. Het is dan ook waarschijnlijker dat zowel de aanbieder als de exploitant in dat proces beiden zelfstandig verwerkingsverantwoordelijke zijn, maar dan ieder vanuit zijn eigen AI-rol.
Doel en grondslag AVG
Het is aan de verwerkingsverantwoordelijke om de basisbeginselen van de AVG in acht te nemen. De belangrijkste daarvan is de zogenaamde doelbinding. Voor iedere verwerking van persoonsgegevens is het noodzakelijk dat de verwerkingsverantwoordelijke daarvoor voorafgaand een uitdrukkelijk omschreven, welbepaald en gerechtvaardigd doel heeft. Persoonsgegevens mogen vervolgens niet op een met dat doel onverenigbare wijze worden verwerkt. Dat roept de vraag op hoe dat zit als een aanbieder van een AI-systeem persoonsgegevens als trainingsdata gebruikt die oorspronkelijk voor een ander doel zijn verzameld. Volgens de letter van de wet zou dat alleen kunnen als de aanbieder voor het gebruik als trainingsdata een nieuw doel heeft geformuleerd en daarvoor een rechtmatige grondslag heeft (zoals toestemming). Een alternatief kan zijn dat de AVG ‘verdere verwerking dan de oorspronkelijke verwerking’ onder omstandigheden toestaat. Daarbij is echter wel relevant onder welke omstandigheden die verdere verwerking plaatsvindt en in hoeverre dat verenigbaar is met de oorspronkelijke verwerking. Een andere uitzondering bestaat voor verdere verwerking met het oog op wetenschappelijke doeleinden. Ook voor die verwerking gelden echter waarborgen. Het is afhankelijk van het precieze doel en de uitwerking van het specifieke AI-systeem, of aanbieders daar een beroep op zouden kunnen doen. Hoe dit in de praktijk er uit ziet, zal moeten blijken.
Overigens is in de AI-verordening specifiek opgenomen dat het verder verwerken van persoonsgegevens ten behoeve van het ontwikkelen van bepaalde AI- systemen in het publieke belang, onder omstandigheden niet als strijdig met de oorspronkelijke doeleinden wordt beschouwd. Met andere woorden; een dergelijke verwerking voor die doeleinden is onder omstandigheden toegestaan. Men heeft hierin voorzien om innovatie te stimuleren en regels rondom persoonsgegevensverwerking daarbij niet een onnodige belemmering te laten zijn.
Het doel van de verwerking is onder de AVG te meer een belangrijk uitgangspunt omdat meerdere beginselen uit die wet daar direct aan worden gekoppeld. Denk bijvoorbeeld aan de bewaartermijn en het beginsel van dataminimalisatie. In principe mogen niet meer persoonsgegevens verwerkt worden dan strikt noodzakelijk voor het doel. In het geval van AI, dat juist uitsluitend werkt als er grote hoeveelheden data worden verwerkt, kan dat problematisch zijn. Daarvoor geldt hetzelfde als hiervoor: Hoe dat uitwerkt, zal in de praktijk moeten blijken en is sterk afhankelijk van de precieze omstandigheden waaronder het AI-systeem wordt getraind of gebruikt. Wilt u daar in een concreet geval meer over weten, laat u dan adviseren.
Grondslag verwerking
Naast een doel, moet een verwerkingsverantwoordelijke een rechtmatige grondslag hebben om persoonsgegevens te mogen verwerken met AI. Die grondslagen zijn limitatief opgesomd in artikel 6 van de AVG. Er is nog veel discussie over welke grondslag in het geval van AI de meest gerede is. Dat hangt ook af van het doel. Het trainen van AI heeft een andere privacy-impact en vereist mogelijk een andere grondslag dan het maken van een profiel en het door AI laten genereren van een automatische beslissing met rechtsgevolgen voor de betrokkene.
In de eerste instantie ligt het voor de hand om toestemming te vragen aan degene van wie de persoonsgegevens worden gebruikt. Dat kan ondoenlijk zijn als het om hele grote hoeveelheden data gaat (zoals trainingsdata) of in het geval van bijv. webscraping. Bovendien vereist de AVG dat de betrokkene toestemming geïnformeerd moet kunnen gegeven. Daarnaast moet de toestemming te allen tijde kunnen worden ingetrokken. Die laatste twee eisen zullen in de praktijk voor problemen zorgen nu het maar zeer de vraag is of de betrokkene voldoende in staat kan worden gesteld om het algoritme te begrijpen en dus om te begrijpen waarvoor hij precies zijn toestemming geeft. Als dat niet zo is, is de toestemming in principe ongeldig. Bovendien rijst de vraag wat de gevolgen zijn als een betrokkene zijn eenmaal gegeven toestemming om zijn persoonsgegevens voor trainingsdata te gebruiken, weer intrekt. Dat geldt te meer nu onder de AI-verordening eisen voor aanbieders gelden om transparant te zijn over de gebruikte data en het algoritme. Wat zouden de gevolgen zijn als bepaalde data verwijderd zouden moeten worden? Kan dan nog wel transparantie gegeven worden over de gebruikte dataset? Of het proces dat ten grondslag heeft gelegen aan het genereren van de output? En kan trainingsdata überhaupt worden verwijderd (technisch)? Zitten de gegevens nog wel in originele vorm in de trainingsdataset? Allemaal vragen waar op voorhand geen eenvoudig antwoord op te geven is. Of toestemming daarom een geschikte grondslag voor verwerking van persoonsgegevens door een AI-toepassing kan zijn, zal per geval afgewogen moeten worden. Op voorhand lijkt dat echter niet (atijd) het geval.
Een mogelijk alternatief is de grondslag ‘gerechtvaardigd belang’. in dat geval moet de verwerkingsverantwoordelijke zijn eigen gerechtvaardigde belang voor het verwerken van persoonsgegevens afwegen tegen het privacybelang van de betrokkene (kort gezegd en sterk vereenvoudigd weergegeven). Hoe die belangenafweging uitvalt zal ook per geval moeten blijken en is sterk afhankelijk van de specifieke AI-toepassing die door de exploitant wordt ingezet. Het is aan de verwerkingsverantwoordelijke om die afweging te maken én te documenteren.
Bijzondere persoonsgegevens
Speciale aandacht verdient de situatie dat met de AI-toepassing bijzondere persoonsgegevens worden verwerkt. Bijzondere persoonsgegevens zijn in de AVG een specifieke categorie persoonsgegevens. Onder bijzondere persoonsgegevens worden bijvoorbeeld gegevens verstaan over gezondheid, geloof, ras, biometrische gegevens, maar ook gegevens over seksueel gedrag en gerichtheid. Zo kan een algoritme bijvoorbeeld getraind worden om onderscheid te maken, bijvoorbeeld op ras of geloof. Dat kan bijvoorbeeld aan de hand van foto’s waar het ras of het geloof (denk aan keppeltjes en kruisjes) op zichtbaar zijn. Denk ook aan de situatie dat medische data zoals lichaamsscans geanalyseerd worden door een AI-tool om ziektes vroegtijdig op te sporen. Voor bijzondere persoonsgegevens geldt dat verwerking in principe verboden is en dat ze uitsluitend verwerkt mogen worden als een van de uitzonderingen op dat verwerkingsverbod op gaat. Die uitzonderingen staan in artikel 9 van de AVG.
Bijzondere persoonsgegevens kunnen om verschillende redenen een rol spelen in het geval van AI. Allereerst speelt hier wederom het aandachtspunt dat AI vaak in staat is om veel meer en diepgaandere verbanden te leggen tussen losse stukjes informatie. Die verbanden kunnen veel gevoeligere informatie aan het licht brengen op basis van bepaalde patronen, dan men vooraf zou denken. Het kan bijvoorbeeld een medische toestand openbaren (zie het voorbeeld over zwangerschap in de Target-kwestie eerder in deze blog). Feitelijk worden gewone gegevens daarmee eerder bijzondere persoonsgegevens, waarvoor in principe een verwerkingsverbod geldt.
Een belangrijk aandachtspunt bij AI-toepassingen is daarnaast het gevaar van bias (vooringenomenheid). Denk bijvoorbeeld aan een AI-tool die op geautomatiseerde basis sollicitatiebrieven beoordeelt en uitnodigings- of afwijzingsreacties stuurt naar sollicitanten. (Ik laat de vraag of een dergelijk systeem onder de AI-verordening überhaupt is toegestaan even in het midden. Het gaat mij even om het voorbeeld om mijn punt duidelijk te kunnen maken.) Als die tool is getraind met informatie over het huidige aannamebeleid van een bedrijf en het is zo dat de laatste jaren door dat bedrijf vooral mannen van middelbare leeftijd met een westerse achtergrond worden aangenomen, dan zou die tool kunnen denken dat mensen met een andere achtergrond (vrouw, niet-westerse achtergrond) afgewezen moeten worden. Los van het feit dat de AI-verordening stuurt op het voorkomen van BIAS en discriminerende AI-systemen, zou dat ook in strijd kunnen zijn met het verwerkingsverbod van bijzondere persoonsgegevens.
Onder omstandigheden mag men bijzondere persoonsgegevens verwerken. Een van de uitzonderingen is bijvoorbeeld het vragen van uitdrukkelijke toestemming aan de betrokkene. Ons inziens moet de betrokkene dan wel uitdrukkelijk op de risico’s van deze specifieke verwerking worden gewezen en dat vereist dat de verantwoordelijke compleet transparant moet zijn over hoe de bijzondere persoonsgegevens precies worden verwerkt. Het is de vraag of dat met AI en een zelflerend algoritme altijd mogelijk is (zie daarvoor ook onze volgende blog over transparantie en rechten van betrokkenen).
Overigens is in de AI- verordening specifiek opgenomen dat het aanbieders (onder voorwaarden) is toegestaan om bijzondere persoonsgegevens te verwerken voor zover dat strikt noodzakelijk is om de voornoemde bias te detecteren en te corrigeren.
DPIA
Tot slot nog iets over de gegevensbeschermingseffectbeoordeling (de DPIA).
De AVG kent voor sommige toepassingen de verplichting een DPIA uit te voeren vóórdat persoonsgegevens verwerkt mogen worden. Deze verplichting kan daardoor ook op gevallen zien waarbij een AI-systeem wordt toegepast om persoonsgegevens te verwerken, indien de verwerking een hoog risico met zich mee brengt. AI-systemen waarvoor onder de AI-verordening een conformiteitsbeoordeling (AI-systeem met hoog risico) moet worden uitgevoerd, verwerken in veel gevallen persoonsgegevens en daarvoor geldt dus ook de DPIA-plicht uit de AVG. Deze DPIA-verplichting uit de AVG en de conformiteitsbeoordeling uit de AI-Verordening vullen elkaar aan. Dit betekent dus dat de AI-verordening zorg draagt voor kwalitatief goede AI-systemen, en de AVG het kader biedt voor de verwerking van persoonsgegevens. Beide verordeningen vullen elkaar dus aan.
De term ‘hoog risico’ in het kader van de DPIA uit de AVG moet naar ons inzicht los worden gezien van een ‘hoog risico’-systeem in het kader van de AI-verordening. Hoewel het op grond de AI-verordening nagenoeg vereist is voor de AI-exploitant om een DPIA uit te voeren indien zij gebruik maakt van een hoog risico AI-systeem (waarmee persoonsgegevens worden verwerkt), blijkt andersom niet dat een DPIA per definitie achterwege kan worden gelaten als het geen hoog risico AI-systeem betreft (Zie voor de voorwaarden waarnaar wordt gekeken of een AI-systeem te gelden heeft als een ‘hoog risico AI-systeem’ onze eerste blog in deze reeks.) Op grond van artikel 35 AVG is een DPIA met name van belang wanneer bij het verwerken van persoonsgegevens nieuwe technologieën worden gebruikt. Daarmee is het gebruik van een gegevensverwerkend AI-systeem op zichzelf al een risicoverzwarende reden die mee kan brengen dat het verplicht is om een DPIA uit te voeren. Het is dus voor de AI-exploitant belangrijk of – naast het categoriseren van het AI-systeem onder de AI-verordening – na te gaan of de verwerking d.m.v. het AI-systeem zelf ook een hoog risico kan meebrengen voor de privacy van betrokken personen. In dat geval is een DPIA vereist.
Afsluiting
Tot zover deze blog over AI en de basisbeginselen uit de AVG. In het volgende deel van deze blogserie AI en privacy gaan we nader in op de transparantie-eisen uit de AVG en de rechten van betrokkenen in het geval van gebruik van AI. In een later deel gaan wij nader in op geautomatiseerde besluitvorming en profiling en de regels die zowel de AI-verordening en de AVG daarvoor stellen.
Heeft u vragen of wilt u advies? Neemt u dan gerust contact met ons op.
P.s.
Op deze plek schrijft Elferink & Kortier Advocaten een blogserie over AI. AI raakt immers direct aan het specialisme van ons kantoor; intellectueel eigendomsrecht, ICT-recht en privacy. Recentelijk is de Europese AI-verordening (AI-act) aangenomen. In het eerste deel van onze AI-blogserie hebben wij de definities en werking van de AI-verordening verkend. In deel 2 hebben wij de belangrijkste verplichtingen voor AI-aanbieders en -exploitanten uiteengezet. In deel 3 van de blogserie zijn wij ingegaan op AI in relatie tot het auteursrecht.