In oktober 2020 verzocht de Europese Raad de Europese Commissie zich te buigen over de ontwikkelingen op het gebied van kunstmatige of artificiële intelligentie (AI) en te komen met een voorstel voor passende wet- en regelgeving. Op 21 april 2021 presenteerde de Europese Commissie een eerste voorstel op de Europese wet op AI, ook wel AI Verordening of AI Act genoemd.
Sindsdien zijn er verschillende suggesties op het voorstel gedaan. Op 6 december 2022 hebben telecom-ministers van alle EU-lidstaten een akkoord bereikt over de Europese wet op AI (pdf).
Over deze wet is het Europees Parlement en de Europese Commissie nu in onderhandeling. Het streven van de Europese commissaris voor digitale zaken Margrethe Vestager is een definitief akkoord in het najaar van 2023, waarna EU-lidstaten de verordening in eigen land gaan doorvoeren.
Een beknopt overzicht:
Voor wie is de wet bedoeld?
De Europese Commissie richt zich in de wet op zowel de ontwikkelaars (aanbieders), distributeurs als de gebruikers van AI-systemen.
Wat verstaat de wet onder een AI-systeem?
De EU hanteert daarbij de volgende definitie van een AI-systeem:
Een systeem dat ontworpen is met autonome elementen en dat, op basis van door machines en/of mensen aangeleverde data en input, afleidt hoe het een gegeven reeks doelstellingen kan verwezenlijken met behulp van machinaal leren en/of op logica of kennis gebaseerde benaderingen, en systeem-gegenereerde output kan produceren zoals inhoud (generatieve AI-systemen), voorspellingen, aanbevelingen of beslissingen die van invloed zijn op de omgevingen waarmee het AI-systeem interageert.
Wat zijn de doelstellingen van de wet?
In de wet staan vier doelstellingen centraal:
- ervoor zorgen dat AI-systemen veilig zijn en de grondrechten en waarden van de EU respecteren;
- rechtszekerheid garanderen om investeringen en innovatie in AI te vergemakkelijken;
- de handhaving van bestaande wetgeving die van toepassing is op AI-systemen verbeteren;
- de ontwikkeling van een interne markt voor wettige, veilige en betrouwbare AI-toepassingen vergemakkelijken en marktversnippering voorkomen.
Welke soorten AI-systemen onderscheid de wet?
De wet kiest voor een “risicogebaseerde aanpak”, waarbij onderscheid wordt gemaakt tussen AI-systemen met:
- een onaanvaardbaar risico;
- een hoog risico;
- een beperkt risico;
- een minimaal risico.
AI-systemen met een onaanvaardbaar risico
In de wet staan AI-systemen genoemd die een onaanvaardbaar risico met zich meebrengen, omdat er bijvoorbeeld een schending van grondrechten plaatsvindt of een duidelijke bedreiging voor de veiligheid bestaat. Een voorbeeld van een dergelijke AI-praktijk is het gebruik van subliminale technieken waarvan personen zich niet bewust zijn, waardoor fysieke of psychologische schade optreedt. Ook AI-gedreven ”sociale scoring” en gezichtsherkenning in openbare ruimten voor rechtshandhaving, zijn verboden.
AI-systemen met een hoog risico
Naast AI-systemen met een onaanvaardbaar risico, onderscheid de wet ook AI-systemen met een hoog risico. Dit zijn AI-systemen die bedoeld zijn om gebruikt te worden als veiligheidscomponent, zoals medische hulpmiddelen, en AI-systemen met implicaties op het gebied van de grondrechten, zoals op het gebied van onderwijs en beroepsopleiding.
De belangrijkste vereiste voor AI-systemen met een hoog risico is de verplichting een keuring uit te voeren voordat het product op de markt gezet kan worden (conformiteitsbeoordeling). AI-systemen, die ingezet worden als veiligheidscomponent voor publieke infrastructuur of biometrische identificatie, moeten door een derde partij beoordeeld worden. Andere systemen voldoen met een conformiteitsbeoordeling door de provider of importeur EU.
Bij een conformiteitsbeoordeling moet specifiek worden gekeken naar risicomanagement, de kwaliteit van data sets (voor training), documentatie en verslaglegging van belangrijke ontwerpbesluiten, transparantie en informatievoorziening naar de gebruikers, passend menselijk toezicht, en de robuustheid, accuraatheid en veiligheid van het systeem. Ook is het bijvoorbeeld verplicht een hoog risico AI-systeem te registreren in een centrale Europese database. Distributeurs van hoog risico AI-systemen zijn verantwoordelijk dat het systeem voldoet aan de eisen van de EU-regulering.
Gebruikers zijn verplicht om het gebruik van het AI-systeem te monitoren en bij te houden welke data gebruikt is om bijvoorbeeld voorspellingen te doen. Ook moeten zij systemen gebruiken volgens instructies van de provider en de doelen waarvoor het systeem ontwikkeld is. Wordt daarvan afgeweken dan bepaalt de regulering dat de gebruiker als provider gezien moet worden, met de eisen die daarvoor gelden.
AI-systemen met een beperkt risico
AI-systemen in deze categorie hoeven enkel te voldoen aan transparantieverplichtingen. Bijvoorbeeld om personen die AI gebruiken in staat te stellen weloverwogen beslissingen te nemen. Dit gebeurt bijvoorbeeld bij een chatbot door de gebruiker te laten weten dat hij met een AI-aangestuurde machine spreekt.
AI-systemen met een minimaal risico
AI-systemen in deze categorie vormen een minimaal tot geen risico voor de gezondheid en de veiligheid van een persoon. Voor deze systemen gelden geen aanvullende eisen die verder gaan dan de huidige wetgeving. De EC en de EU-lidstaten faciliteren uitsluitend in vrijwillige gedragscodes en moedigen de naleving hiervan aan.
Hoe verder?
Zoals gezegd is deze wet nu in onderhandeling en is het streven dat er een definitief akkoord is in het najaar van 2023, waarna EU-lidstaten de verordening in eigen land gaan doorvoeren. Praktisch zou dat betekenen dat de Europese wet op AI op zijn vroegst in 2024 in werking zal treden. Alhoewel het nog niet duidelijk is hoe de handhaving precies zal gaan, zullen organisaties zich dit jaar wel moeten voorbereiden. Vooral organisaties die betrokken zijn bij AI-systemen met een onaanvaardbaar en hoog risico krijgen waarschijnlijk te maken met strenge handhaving en aanzienlijke financiële gevolgen bij overtreding.
To be continued…
Bronnen:
- A digital future for Europe
- AI-regels: wat het Europees Parlement wil (oktober 2020)
- Persmededeling Europese wet op AI (december 2022)
- Voorstel Europese wet op AI (pdf) (december 2022)
- Europese AI-verordening: veel procedurele en inhoudelijke eisen (PwC, maart 2022)
- AI-regelgeving vanuit de Europese Unie: waar staan we nu? (Dirkzwager, november 2022)
- Het stapsgewijze vormingsproces van de AI Act (Considerati, februari 2023)
9 reacties
BNR-podcast over Europese AI-regels (én een verdrag) (vanaf 25:40) met Catelijne Muller, voorzitter van ALL-AI en adviseur van de Raad voor Europa voor het AI-verdrag, en Kim van Sparrentak, Europarlementariër namens GroenLinks:
https://www.bnr.nl/podcast/digitaal/10511685/europese-ai-regels-en-een-verdrag-komen-begin-2024-al-pas
Goede analyse van Marietje Schaake in CNN’s Amanpour: AI-bedrijven verliezen het ‘maatschappelijk risico’ van AI uit het oog. Overheid moet macht terugwinnen van de markt en zorgen voor verantwoording:
https://edition.cnn.com/videos/tv/2023/05/02/amanpour-schaake-ai.cnn
Zie ook:
https://www.linkedin.com/feed/update/urn:li:activity:7059309508602306560
Grip op algoritmische besluitvorming bij de overheid:
https://app.1848.nl/document/parlementair-item/189241
Handreiking aan de Eerste Kamer voor meer grip op AI bij de overheid:
https://www.rathenau.nl/nl/digitalisering/handreiking-aan-de-eerste-kamer-voor-meer-grip-op-ai-bij-de-overheid
Zie ook:
https://www.eerstekamer.nl/kamerstukdossier/grip_op_algoritmische
Highlights van de conferentie “Ethical and Legal Aspects of AI for Law Enforcement”:
https://counter-project.eu/news/highlights-from-the-ethical-and-legal-aspects-of-ai-for-law-enforcement-conference/
Op het congres werden kwesties behandeld in verband met de juridische, ethische, operationele en sociale aspecten van het gebruik van AI in een context van civiele veiligheid:
Maar hoe zit het nu met AI-systemen die bijvoorbeeld door de politie worden gebruikt ter bestrijding van criminaliteit?
AI-systemen met de volgende toepassingen zijn verboden:
https://legalair.nl/kennisbank/verboden-toepassingen-van-ai-concept-ai-verordening/
AI-systemen die door de politie worden gebruikt en volgens de nieuwe AI Act vallen onder hoge risico systemen:
https://legalair.nl/kennisbank/hoog-risico-ai-systemen-concept-ai-verordening/
Europarlement wil strenge regels voor AI – ook voor ChatGPT:
https://www.nrc.nl/nieuws/2023/05/11/europarlement-wil-strenge-regels-voor-ai-ook-voor-chatgpt-a4164449
De stemming deze donderdag was een tussenstap op weg naar concrete Europese wetgeving. Volgende maand moeten Europarlementariërs het mandaat nog in een plenaire stemming bekrachtigen. Daarna kunnen pas onderhandelingen met de lidstaten beginnen, die naar verwachting niet eenvoudig worden. Vooral voor gezichtsherkenning willen EU-overheden soepeler regels, waardoor de technologie nog wel kan worden ingezet bij bijvoorbeeld opsporing van criminelen.
Terwijl Amerikaanse leiders vrezen dat China de VS zal inhalen met de ontwikkeling van AI, is China inmiddels de VS al ver vooruit als het gaat om wet- en regelgeving mbt AI:
https://www.axios.com/2023/05/08/china-ai-regulation-race
De AI Act door het parlement: welke regels gaan er gelden voor AI en algoritmes?
https://www.ictrecht.nl/blog/de-ai-act-door-het-parlementwelke-regels
EU verbiedt gezichtsherkenning in publieke ruimte:
https://nl.hardware.info/nieuws/85467/eu-verbiedt-gezichtsherkenning-in-publieke-ruimte-limiet-aan-gebruik-ai
Foundation modellen als GPT-4, PaLM 2 en LLaMA voldoen (nog) niet aan de gestelde eisen van de concept-EU AI-wet:
https://crfm.stanford.edu/2023/06/15/eu-ai-act.html