We leven in een innovatieve en creatieve wereld. De wereld om ons heen verandert snel. De Innovatieve Meesters van Elferink & Kortier Advocaten houden de ontwikkelingen op onze vakgebieden voor u bij in deze databank.
Artificiële intelligentie (AI)-verordening: definities en werking – UPDATE deel 1
Op 12 juli 2024 is de AI-verordening officieel gepubliceerd. Na een lang discussietraject zijn er veranderingen doorgevoerd in de uiteindelijke wettekst ten opzichte van de teksten die hiervoor beschikbaar waren. Om die reden is bepaalde informatie vermeld in eerdere blogs in onze AI-serie inmiddels niet meer up to date. Deze blog updatet daarom de inhoud van Deel 1: Definities en werking waar nodig.
De definitieve AI-verordening vertoont relevante verschillen met de informatie zoals gepresenteerd in onze blog ‘Deel 1: Definities en werking’ op de volgende onderwerpen:
- Wijzigingen in definities en terminologie;
- Een uitvergroot onderscheid tussen AI-systemen en AI-modellen;
- Aanbevelingssystemen van grote online platformen geen expliciet hoog risico;
- Additionele regelingen self-assessment risico AI-systeem;
- Wijziging maximale boetebedragen bij overtreding;
Voor onderwerpen waarvoor geen wijzigingen gelden, verwijzen wij u graag door naar AI-blog Deel 1: Definities en werking voor nadere informatie.
Definities en begrippen:
De AI-verordening hanteert verschillende definities en begrippen, waarvan er een aantal zijn gewijzigd door de verschillende iteraties van het wetsvoorstel. Wij bespreken hierna achtereenvolgens de meest relevante:
- AI-systeem
- AI-systemen voor algemene doeleinden
- Exploitant
- Basismodellen
AI-systeem
De uiteindelijke definitie van een AI-systeem luidt als volgt:
“een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na het inzetten ervan aanpassingsvermogen kan vertonen, en dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen”;
Hoewel de definitie op hoofdlijnen onveranderd is gebleven, heeft het cruciale begrip ‘AI-systeem’ meer nuance gekregen in de wettekst. De hierboven onderstreepte zinsnede is nieuw. De definitie stelt nu dat indien het systeem output genereert die het niet afleidt uit de ontvangen input (met een bepaalde mate van autonomie), er geen sprake is van een AI-systeem. Het lijkt erop dat de wetgever een verduidelijking heeft willen aanbrengen: door deze formulering in combinatie met het vereiste van een bepaalde mate van autonomie, lijkt zij nog nadrukkelijker te stellen dat ‘simpele’ algoritmes (zoals de in blog 1 behandelde ‘traditionele’ automatische stofzuiger) geen AI-systemen zijn in de zin van de AI-verordening. De hoofdmoot van de AI-systemen zal, naar alle waarschijnlijkheid en kijkend naar de huidige stand van de technologie, voornamelijk bestaan uit ‘machine learning’ en ‘deep learning’-systemen.
AI-systemen voor algemene doeleinden
De wettelijke definitie van deze term luidt als volgt:
“een AI-systeem dat is gebaseerd op een AI-model voor algemene doeleinden, dat verschillende doeleinden kan dienen, zowel voor direct gebruik als voor integratie in andere AI-systemen;”
AI-systemen voor algemene doeleinden zijn systemen die voor meerdere doeleinden kunnen worden gebruikt. Zij hebben een nadrukkelijkere rol gekregen in de uiteindelijke versie van de AI-verordening. AI-systemen voor algemene doeleinden worden gekenmerkt door het feit dat zij zijn gebaseerd op een AI-model voor algemene doeleinden. Over het begrip ‘AI-modellen voor algemene doeleinden’ hieronder meer.
Exploitant / Gebruiksverantwoordelijke
Vanwege het belang van het begrip ‘exploitant’ in onze gehele blogreeks nemen wij hier al op dat deze term gewijzigd is door het begrip ‘gebruiksverantwoordelijke’. Daarmee is de gebruiksverantwoordelijke de daadwerkelijke instantie die verantwoordelijk is voor het inzetten en het gebruik van een AI-systeem. De definitie is onveranderd gebleven in vergelijking met de term ‘exploitant’, waardoor voor AI-exploitant de term ‘AI-gebruiksverantwoordelijke’ kan worden gelezen.
Basismodellen
Het begrip ‘basismodellen’ is volledig geschrapt uit de AI-verordening en is vervangen door de term ‘AI-modellen voor algemene doeleinden’. De definitie hiervan luidt als volgt:
“een AI-model, ook wanneer het is getraind met een grote hoeveelheid gegevens met behulp van zelftoezicht op grote schaal, dat een aanzienlijk algemeen karakter vertoont en in staat is op competente wijze een breed scala aan verschillende taken uit te voeren, ongeacht de wijze waarop het model in de handel wordt gebracht, en dat kan worden geïntegreerd in een verscheidenheid aan downstreamsystemen of -toepassingen, met uitzondering van AI-modellen die worden gebruikt voor onderzoek, ontwikkeling of prototypingactiviteiten alvorens zij in de handel worden gebracht”;
De consequentie van deze wijziging is dat in de nieuwe versie van de AI-verordening het onderscheid tussen een AI-model en een AI-systeem duidelijker naar voren komt.
Risicocategorisatie AI-modellen
Het nieuwe wetsvoorstel laat – zoals gezegd – het onderscheid tussen AI-modellen en AI-systemen duidelijker naar voren komen. Dat blijkt uit het feit dat AI-modellen een eigen risicocategorisatie hebben gekregen. De volgende drie smaken zijn mogelijk:
- AI-modellen niet bestemd voor algemene doeleinden;
- AI-modellen voor algemene doeleinden;
- AI-modellen voor algemene doeleinden met een systeemrisico.
De AI-aanbieder van een AI-model zal daarom ook zijn AI-model moeten categoriseren. In het geval dat de AI-aanbieder zowel het AI-model als het AI-systeem aanbiedt, zal hij dit moeten doen voor beide producten. AI-modellen niet bestemd voor algemene doeleinden zijn modellen die niet inzetbaar zijn voor een breed scala aan verschillende taken en waarbij het ontbreekt aan een aanzienlijk algemeen karakter. Voor deze modellen regelt de AI-verordening niets.
AI-modellen voor algemene doeleinden staan hierboven weergegeven. AI-modellen voor algemene doeleinden met een systeemrisico vallen onder deze definitie, met als toevoeging dat de inzet daarvan vergaande risico’s met zich mee brengt en daarom aan hun eigen – vergaande – verplichtingen onderhevig zijn. Een systeemrisico blijkt uit de capaciteiten van een AI-model geschikt voor algemene doeleinden en kan – als gevolg van die capaciteiten – aanzienlijke consequenties hebben voor de Unie, gezondheid, veiligheid, grondrechten en de samenleving als geheel. Het uitgangspunt is dat er in ieder geval sprake is van een systeemrisico wanneer de rekenkracht van het AI-model dermate groot is dat de cumulatieve hoeveelheid berekeningen die wordt gebruikt om het model te trainen, gemeten in Floating Point Operations (FLOPs), groter is dan 1025. Naar de huidige stand van de techniek vallen nog extreem weinig partijen hieronder. Verder kan ook de Europese Commissie bij besluit vaststellen dat een AI-model voor algemene doeleinden daadwerkelijk een systeemrisico bevat. Mocht de Europese Commissie reden zien om de criteria voor het aannemen van een systeemrisico bij te stellen, is zij daartoe bevoegd.
Self Assessment
Hoe kan nou worden vastgesteld onder welk risico een AI-systeem/AI-model valt? Dat zal in eerste instantie de AI-aanbieder zelf moeten doen. In gevallen waarbij de wet niet al zonder meer regelt dat een AI-systeem valt onder hoog risico, dient zij eerst na te gaan of het AI-systeem valt onder één van de gebruiksgevallen die staan opgesomd in Bijlage III van de AI-verordening. Voorbeelden zijn AI-systemen opgenomen in kritieke infrastructuur, AI gebruikt voor toelating/toetsing binnen het onderwijs, en AI binnen de rechtspraak. De AI-aanbieder hoeft hier niet in mee te gaan, indien zij van mening is dat het AI-systeem toch geen hoog risico met zich meebrengt voor de gezondheid, veiligheid en grondrechten van burgers. Dat is bijvoorbeeld zo wanneer de uitkomst van de besluitvorming niet wezenlijk door toepassing van het AI-systeem wordt beïnvloedt. Voorbeelden van dergelijke situaties zijn als het AI-systeem slechts wordt gebruikt bij het inzetten van een beperkte procedurele taak, of wanneer het enkel wordt gebruikt om het resultaat van eerder uitgevoerde menselijke activiteiten te verbeteren. Valt het AI-systeem onder de gebruiksgevallen van Bijlage III en wordt er gebruik gemaakt van profilering? Dan is het AI-systeem altijd ‘hoog risico’.
Indien de AI-aanbieder tot de conclusie komt dat hij geen hoog risico-systeem heeft (maar wel onder Bijlage III valt), moet het systeem nog wel Europees worden geregistreerd en de documentatie van het self assessment worden bewaard. De bevoegde autoriteiten kunnen deze documentatie desgewenst opvragen. Een verkeerde kwalificatie kan een boete tot gevolg hebben.
Vanwege de aard van AI-systemen geschikt voor algemene doeleinden (e.g. AI-systemen waar een AI-model geschikt voor algemene doeleinden aan ten grondslag ligt) is het lastig deze te kwalificeren onder een bepaald risico. Het kwalificeren van een risico is namelijk voor een deel afhankelijk van het doel waarvoor het AI-systeem wordt gebruikt, maar bij deze AI-systemen kunnen deze mogelijke gebruiksgevallen ver uiteen lopen. Het Europees Parlement heeft al gesteld dat generatieve AI als ChatGPT in eerste instantie niet onder ‘hoog risico’ zal vallen. Toch lijkt de wetgever de deur op een kier te willen houden, door in de AI-verordening op te nemen dat de markttoezichthouder verplicht is om nalevingsevaluaties te verrichten indien een AI-systeem voor algemene doeleinden niet aan de wettelijke voorschriften voldoet indien het AI-systeem rechtstreeks door de gebruiksverantwoordelijke kan worden gebruikt voor tenminste één doel dat valt onder hoog risico.
Maximale hoogte boetes
Voor het op de markt brengen van een verboden AI-systeem is de maximale boete verlaagd naar 35 miljoen euro of 7% van de wereldwijd behaalde jaaromzet. Niet voldoen aan de vereisten voor hoog risico/beperkte risico-systemen en/of voor een AI-model voor algemene doeleinden levert een maximale boete van 15 miljoen euro of 3% van de wereldwijd behaalde jaaromzet op. De maximale boete voor het verstrekken van onjuiste, onvolledige of misleidende informatie aan de bevoegde autoriteiten bedraagt 7,5 miljoen euro of 1% van de wereldwijd behaalde jaaromzet. In principe geldt als maximum het bedrag dat het hoogste uitvalt (dus ofwel het boetebedrag ofwel het percentage van de omzet). Voor startups en mkb’s geldt als maximumbedrag echter het laagste van de twee, tenzij het gaat om een aanbieder van een AI-model voor algemene doeleinden. In dat geval geldt weer het hoogste bedrag.
Conclusie
De AI-verordening heeft over het laatste jaar meerdere aanpassingen ondergaan. Nu de officiële versie beschikbaar is, is het voor organisaties binnen de AI-waardeketen, met name AI-aanbieders en AI-gebruiksverantwoordelijken, van belang zich bewust te zijn van de wijzigingen die hebben plaatsgevonden. De volgende – en tevens laatste – updateblog zal zo snel mogelijk volgen met betrekking tot Blog 2 – Verplichtingen AI-aanbieders en AI-gebruiksverantwoordelijken.
Vragen? Neem gerust contact met ons op.