31 jan. 2023

Voorstel AI-verordening: balans tussen innovatie en bescherming grondrechten?

De meeste mensen hebben inmiddels wel gehoord van artificial intelligence oftewel kunstmatige intelligentie, kort gezegd ook wel “AI”. Programma's als chatbot ChatGPT en kunstgenerator DALL-E zijn veel in het nieuws. Europa ziet in AI veel goeds, maar ook risico’s. In dat kader heeft de Europese Commissie een wetgevingsvoorstel gepubliceerd om burgers te beschermen tegen de risico’s van AI en daarnaast innovatie te stimuleren voor AI-toepassingen. Dit wetgevingsvoorstel is vastgelegd in een concept verordening met betrekking tot AI waarvan het de bedoeling is dat deze rechtstreeks zal werken in de lidstaten op moment van inwerkingtreding. Hoe wil Europa dit gaan aanpakken en wat kunnen bedrijven die AI gebruiken alvast doen om zich hierop voor te bereiden?

De basis: wat is AI?

Voordat we de diepte ingaan en bespreken wat de regeling allemaal inhoudt, wordt eerst stil gestaan bij wat AI eigenlijk is. De meesten hebben de naam inmiddels wel een aantal keren voorbij horen komen, maar wat is AI nu eigenlijk? AI staat voor artificial intelligence oftewel kunstmatige intelligentie. AI is de mogelijkheid van een machine om “mensachtige vaardigheden” te vertonen - zoals redeneren, leren, plannen en creativiteit. Een machine kan dit doen door grote hoeveelheden data te combineren met snelle, intelligente algoritmen. Hierdoor kan de software automatisch van patronen of opties in de data leren.

Wat is AI volgens AI? We vroegen aan ChatGPT: ‘wat is kunstmatige intelligentie?’ Het antwoord:

Kunstmatige Intelligentie (KI) is de ontwikkeling van computersystemen die taken kunnen uitvoeren die normaal gesproken menselijke intelligentie vereisen, zoals het begrijpen van natuurlijke taal, het herkennen van beelden, het nemen van beslissingen en het oplossen van problemen.’

Kortom, AI weet best wel goed wat AI inhoudt.

Waarom is AI opeens zo belangrijk?

Sommige AI-technologieën bestaan al meer dan 50 jaar, maar door de vooruitgang in de rekenkracht van computers en de enorme hoeveelheid data die vandaag de dag beschikbaar is, kan AI steeds meer. Daardoor volgen de ontwikkelingen op het gebied van AI zich de laatste tijd in rap tempo op. Kunstmatige intelligentie is daarmee een belangrijk onderdeel geworden van de digitale maatschappij. Reden voor de EU om een serieus pakket met regelgeving te introduceren voor AI.

De AI-verordening

Het voorstel voor een Europese AI-verordening kent een zogenaamde ‘risicogerichte aanpak’. Dit houdt in dat er verschillende verplichtingen gelden voor AI-systemen op basis van hun risico voor mensen. De AI-verordening kent vier soorten risico niveaus:

  • Onaanvaardbaar risico: AI-systemen in deze categorie vormen een duidelijke bedreiging voor de veiligheid en de rechten van mensen. Op deze systemen rust een volledig verbod. Deze zijn vanaf de inwerkingtreding van de AI-verordening niet meer toegestaan. Voorbeelden van deze categorie zijn:
    • Manipulatieve systemen die gedrag verstoren, zoals AI-systemen die de vermoeidheid van een vrachtwagenchauffeur meten en een geluid afspelen dat hem of haar aanzet langer door te rijden;
    • Sociale puntensystemen die scores verbinden aan personen op basis waarvan zij onevenredig worden behandeld. Bijvoorbeeld door het beperken van iemands reismogelijkheden als deze persoon niet voldoende recyclet;
    • Grootschalige biometrische systemen die de politie kan gebruiken om mensen te herkennen, zoals software voor gezichtsherkenning gekoppeld aan diverse beveiligingscamera’s in een stad.
  • Hoog risico: AI-systemen in deze categorie vormen een hoog risico voor de gezondheid, de veiligheid en de grondrechten, maar vallen niet in de categorie ‘onaanvaardbaar’. In deze categorie zitten bijvoorbeeld systemen die worden gebruikt voor de automatisering van besluitvorming met grote gevolgen voor individuen, zoals in de gezondheidszorg of in de rechtspraak. Er gelden strenge eisen en verplichtingen voor deze hoog risicosystemen. Het belangrijkste vereiste voor hoog risicosystemen is de verplichting een keuring uit te voeren - en daarmee te controleren op alle verplichtingen - voordat het product in de markt gezet kan worden (conformiteitsbeoordeling).
  • Beperkt risico: AI-systemen in deze categorie hoeven enkel te voldoen aan transparantieverplichtingen. Een voorbeeld van een AI-systeem met een beperkt risico is een chatbot. Het moet voor de eindgebruiker duidelijk zijn dat hij met een AI-aangestuurde machine chat.
  • Minimaal risico: AI-systemen in deze categorie vormen een minimaal tot geen risico voor de gezondheid en de veiligheid van een persoon. Voor deze systemen gelden geen aanvullende eisen die verder gaan dan de huidige wetgeving. Wel moedigt Europa vrijwillige gedragscodes en naleving hiervan voor dit type AI-systeem aan. Een voorbeeld van een AI-systeem met een minimaal risico is een algoritme dat video’s voorstelt aan gebruikers op basis van eerder kijkgedrag.

Kortom, het risico van het AI-systeem bepaalt straks de wettelijke verplichtingen die er op de aanbieder/gebruiker van dit AI-systeem rusten. Het spectrum loopt van nauwelijks beperkingen tot een compleet verbod op bepaalde AI-systemen. De AI-verordening gaat gelden zowel voor producenten van AI-systemen als voor bedrijven die AI-systemen gebruiken.

Handhaving van de AI-verordening

De lidstaten worden verplicht om een nationale toezichthoudende autoriteit aan te wijzen.

Wellicht vooruitlopend op deze verplichting is in Nederland de AP op 1 januari 2023 gestart met het toezicht op algoritmes. Algoritmen vormen namelijk een belangrijk onderdeel van AI.

De AI-verordening voorziet in ieder geval in forse boetes bij overtreding. De boete kan eventueel, net zoals bij de Algemene Verordening Gegevensbescherming die de wetgeving op het gebied van de omgang met persoonsgegevens reguleert, gekoppeld worden aan een percentage van de jaarlijkse omzet.

De aangewezen autoriteit zal de lidstaat tevens vertegenwoordigen in het aan te stellen Europees comité voor kunstmatige intelligentie. Op Europees niveau wordt namelijk het European Artificial Intelligence Board (EAIB) in het leven te roepen. De EAIB zal bestaan uit vertegenwoordigers van de lidstaten en de Europese Commissie, en zal verantwoordelijk worden voor een aantal adviestaken. Ook zal de EAIB de Europese Commissie bijstaan bij specifieke vragen over AI. Voor ontwikkelaars van AI-systemen wordt een meldplicht voorgesteld van ernstige incidenten en defecten. Ontwikkelaars dienen dit te melden aan de aangestelde autoriteit (vergelijkbaar met de meldplicht bij datalekken uit de AVG).

Status AI-verordening

Op 6 december 2022 hebben de Europese telecomministers ingestemd met het (gewijzigde) voorstel. Het Europees Parlement gaat nu verder onderhandelen over de precieze inhoud van de verordening. Europa streeft ernaar om voor het einde van 2023 een akkoord te hebben voor de AI-verordening. In dit akkoord moet ook nog een termijn voor de inwerkingtreding van de AI-verordening worden vastgesteld.

Het duurt dus nog even voordat de AI-verordening zijn intrede maakt, maar gezien de vele verplichtingen die deze met zich meebrengt is het verstandig om tijdig in kaart te brengen of, en zo ja, welke AI-systemen uw organisatie gebruikt dan wel ontwikkelt en welke risico’s daaraan zitten.

Conclusie

Gelet op de vele verplichtingen die de AI-verordening met zich meebrengt is het, ondanks dat de inwerkingtreding nog op zich laat wachten, aan te raden om alvast in kaart te brengen of en welke AI-systemen uw organisatie gebruikt. Denk daarbij ook aan de mogelijke risico’s voor betrokkenen. Heeft u vragen over de AI-verordening en/of de mogelijke verplichtingen die daaruit volgen voor uw bedrijf? Neem gerust contact met ons op.

Martijn 1

Meer weten over dit onderwerp of een andere vraag?

Wij plaatsen functionele en analytische cookies. Eventueel kunnen derde partijen tracking cookies plaatsen. U dient daar dan eerst mee akkoord te gaan. Lees meer in onze Privacyverklaring