Europese wet op AI: waar staan we nu?

door Marco Derksen op 7 mei 2023

In oktober 2020 verzocht de Europese Raad de Europese Commissie zich te buigen over de ontwikkelingen op het gebied van kunstmatige of artificiële intelligentie (AI) en te komen met een voorstel voor passende wet- en regelgeving. Op 21 april 2021 presenteerde de Europese Commissie een eerste voorstel op de Europese wet op AI, ook wel AI Verordening of AI Act genoemd.

Sindsdien zijn er verschillende suggesties op het voorstel gedaan. Op 6 december 2022 hebben telecom-ministers van alle EU-lidstaten een akkoord bereikt over de Europese wet op AI (pdf).

Over deze wet is het Europees Parlement en de Europese Commissie nu in onderhandeling. Het streven van de Europese commissaris voor digitale zaken Margrethe Vestager is een definitief akkoord in het najaar van 2023, waarna EU-lidstaten de verordening in eigen land gaan doorvoeren.

Een beknopt overzicht:

Voor wie is de wet bedoeld?

De Europese Commissie richt zich in de wet op zowel de ontwikkelaars (aanbieders), distributeurs als de gebruikers van AI-systemen.

Wat verstaat de wet onder een AI-systeem?

De EU hanteert daarbij de volgende definitie van een AI-systeem:

Een systeem dat ontworpen is met autonome elementen en dat, op basis van door machines en/of mensen aangeleverde data en input, afleidt hoe het een gegeven reeks doelstellingen kan verwezenlijken met behulp van machinaal leren en/of op logica of kennis gebaseerde benaderingen, en systeem-gegenereerde output kan produceren zoals inhoud (generatieve AI-systemen), voorspellingen, aanbevelingen of beslissingen die van invloed zijn op de omgevingen waarmee het AI-systeem interageert.

Wat zijn de doelstellingen van de wet?

In de wet staan vier doelstellingen centraal:

  • ervoor zorgen dat AI-systemen veilig zijn en de grondrechten en waarden van de EU respecteren;
  • rechtszekerheid garanderen om investeringen en innovatie in AI te vergemakkelijken;
  • de handhaving van bestaande wetgeving die van toepassing is op AI-systemen verbeteren;
  • de ontwikkeling van een interne markt voor wettige, veilige en betrouwbare AI-toepassingen vergemakkelijken en marktversnippering voorkomen.

Welke soorten AI-systemen onderscheid de wet?

De wet kiest voor een “risicogebaseerde aanpak”, waarbij onderscheid wordt gemaakt tussen AI-systemen met:

  • een onaanvaardbaar risico;
  • een hoog risico;
  • een beperkt risico;
  • een minimaal risico.

AI-systemen met een onaanvaardbaar risico

In de wet staan AI-systemen genoemd die een onaanvaardbaar risico met zich meebrengen, omdat er bijvoorbeeld een schending van grondrechten plaatsvindt of een duidelijke bedreiging voor de veiligheid bestaat. Een voorbeeld van een dergelijke AI-praktijk is het gebruik van subliminale technieken waarvan personen zich niet bewust zijn, waardoor fysieke of psychologische schade optreedt. Ook AI-gedreven ”sociale scoring” en gezichtsherkenning in openbare ruimten voor rechtshandhaving, zijn verboden.

AI-systemen met een hoog risico

Naast AI-systemen met een onaanvaardbaar risico, onderscheid de wet ook AI-systemen met een hoog risico. Dit zijn AI-systemen die bedoeld zijn om gebruikt te worden als veiligheidscomponent, zoals medische hulpmiddelen, en AI-systemen met implicaties op het gebied van de grondrechten, zoals op het gebied van onderwijs en beroepsopleiding.

De belangrijkste vereiste voor AI-systemen met een hoog risico is de verplichting een keuring uit te voeren voordat het product op de markt gezet kan worden (conformiteitsbeoordeling). AI-systemen, die ingezet worden als veiligheidscomponent voor publieke infrastructuur of biometrische identificatie, moeten door een derde partij beoordeeld worden. Andere systemen voldoen met een conformiteitsbeoordeling door de provider of importeur EU.

Bij een conformiteitsbeoordeling moet specifiek worden gekeken naar risicomanagement, de kwaliteit van data sets (voor training), documentatie en verslaglegging van belangrijke ontwerpbesluiten, transparantie en informatievoorziening naar de gebruikers, passend menselijk toezicht, en de robuustheid, accuraatheid en veiligheid van het systeem. Ook is het bijvoorbeeld verplicht een hoog risico AI-systeem te registreren in een centrale Europese database. Distributeurs van hoog risico AI-systemen zijn verantwoordelijk dat het systeem voldoet aan de eisen van de EU-regulering.

Gebruikers zijn verplicht om het gebruik van het AI-systeem te monitoren en bij te houden welke data gebruikt is om bijvoorbeeld voorspellingen te doen. Ook moeten zij systemen gebruiken volgens instructies van de provider en de doelen waarvoor het systeem ontwikkeld is. Wordt daarvan afgeweken dan bepaalt de regulering dat de gebruiker als provider gezien moet worden, met de eisen die daarvoor gelden.

AI-systemen met een beperkt risico
AI-systemen in deze categorie hoeven enkel te voldoen aan transparantieverplichtingen. Bijvoorbeeld om personen die AI gebruiken in staat te stellen weloverwogen beslissingen te nemen. Dit gebeurt bijvoorbeeld bij een chatbot door de gebruiker te laten weten dat hij met een AI-aangestuurde machine spreekt.

AI-systemen met een minimaal risico
AI-systemen in deze categorie vormen een minimaal tot geen risico voor de gezondheid en de veiligheid van een persoon. Voor deze systemen gelden geen aanvullende eisen die verder gaan dan de huidige wetgeving. De EC en de EU-lidstaten faciliteren uitsluitend in vrijwillige gedragscodes en moedigen de naleving hiervan aan.

Hoe verder?

Zoals gezegd is deze wet nu in onderhandeling en is het streven dat er een definitief akkoord is in het najaar van 2023, waarna EU-lidstaten de verordening in eigen land gaan doorvoeren. Praktisch zou dat betekenen dat de Europese wet op AI op zijn vroegst in 2024 in werking zal treden. Alhoewel het nog niet duidelijk is hoe de handhaving precies zal gaan, zullen organisaties zich dit jaar wel moeten voorbereiden. Vooral organisaties die betrokken zijn bij AI-systemen met een onaanvaardbaar en hoog risico krijgen waarschijnlijk te maken met strenge handhaving en aanzienlijke financiële gevolgen bij overtreding.

To be continued…

Bronnen:

9 reacties

Beantwoord

Beantwoord

Highlights van de conferentie “Ethical and Legal Aspects of AI for Law Enforcement”:
https://counter-project.eu/news/highlights-from-the-ethical-and-legal-aspects-of-ai-for-law-enforcement-conference/

Op het congres werden kwesties behandeld in verband met de juridische, ethische, operationele en sociale aspecten van het gebruik van AI in een context van civiele veiligheid:

  • AP4AI creëert een wereldwijd kader voor AI-verantwoordelijkheid voor politie, veiligheid en justitie;
  • ALIGNER is een coördinatie- en ondersteuningsproject dat tot doel heeft Europese actoren op het gebied van AI, rechtshandhaving en politie samen te brengen om gezamenlijk de behoeften voor een veiliger Europa te bespreken;
  • popAI heeft tot doel het vertrouwen in de toepassing van AI en AI-mechanismen in de veiligheidssector te bevorderen door het bewustzijn en de maatschappelijke betrokkenheid van meerdere sectoren te vergroten. Deze aanpak zal leiden tot een uniforme Europese visie van alle LEA’s (Law Enforcement Agencies);
  • STARLIGHT, waarmee de LEA’s hun autonomie en veerkracht bij het gebruik van AI voor de bestrijding van grote criminele dreigingen zullen ontwikkelen in een community die hen samenbrengt met onderzoekers, het bedrijfsleven en mensen uit de praktijk van het veiligheidsecosysteem.

Beantwoord

Maar hoe zit het nu met AI-systemen die bijvoorbeeld door de politie worden gebruikt ter bestrijding van criminaliteit?

AI-systemen met de volgende toepassingen zijn verboden:

  • Systemen die, door middel van signalen die niet bewust herkend worden, een persoon proberen te beïnvloeden en diens gedrag te veranderen op een manier die waarschijnlijk fysiek of geestelijk leed kan veroorzaken bij die persoon of bij een ander.
  • Systemen die misbruik maken van kwetsbaarheden van bepaalde groepen vanwege hun leeftijd of handicap op een manier die waarschijnlijk fysiek of geestelijk leed kan veroorzaken bij die persoon of bij een ander.
  • Systemen die door of namens de overheid worden gebruikt om een betrouwbaarheidsscore, gebaseerd op gedrag of persoonlijkheidskenmerken, te bepalen voor een persoon en die vervolgens leidt tot:
    • Een nadelige behandeling voor de persoon of een hele groep, zonder dat er sprake is van een verband tussen de score en de nieuwe situatie.
    • Een nadelige behandeling voor de persoon of een hele groep die niet gerechtvaardigd wordt door het eerdere gedrag of de zwaarte van de gevolgen.
  • Systemen die direct op afstand biometrische identificatie uitvoeren in de openbare ruimte voor het handhaven van de wet, behalve als het strikt noodzakelijk is voor de volgende doelen:
    • Het gericht zoeken naar specifieke mogelijke slachtoffers van een misdaad en vermiste kinderen.
    • Het voorkomen van een specifieke en directe bedreiging van iemands leven of fysieke veiligheid of het voorkomen van een terroristische aanslag.
    • Het zoeken of herkennen van een verdachte van een misdaad waarvoor een minimale maximumstraf staat van 3 jaar.

https://legalair.nl/kennisbank/verboden-toepassingen-van-ai-concept-ai-verordening/

AI-systemen die door de politie worden gebruikt en volgens de nieuwe AI Act vallen onder hoge risico systemen:

  • Voor een individu het risico op het (opnieuw) begaan van een misdaad te bepalen of het risico voor mogelijke slachtoffers van een misdaad.
  • De emotionele staat van een persoon te bepalen of om leugens te herkennen.
  • Deep fakes te herkennen.
  • De betrouwbaarheid van bewijs te beoordelen tijdens een strafrechtelijk onderzoek.
  • Op basis van het profileren van personen de kans op misdaden te beoordelen of om eigenschappen van personen of groepen in te schatten.
  • Mensen te profileren tijdens het herkennen, onderzoeken en vervolgen van misdaden.
  • Misdaadanalyses met betrekking tot mensen uit te voeren waarbij er grote hoeveelheden data uit verschillende bronnen doorzocht wordt om patronen of verbanden te vinden.

https://legalair.nl/kennisbank/hoog-risico-ai-systemen-concept-ai-verordening/

Beantwoord

Europarlement wil strenge regels voor AI – ook voor ChatGPT:
https://www.nrc.nl/nieuws/2023/05/11/europarlement-wil-strenge-regels-voor-ai-ook-voor-chatgpt-a4164449

De stemming deze donderdag was een tussenstap op weg naar concrete Europese wetgeving. Volgende maand moeten Europarlementariërs het mandaat nog in een plenaire stemming bekrachtigen. Daarna kunnen pas onderhandelingen met de lidstaten beginnen, die naar verwachting niet eenvoudig worden. Vooral voor gezichtsherkenning willen EU-overheden soepeler regels, waardoor de technologie nog wel kan worden ingezet bij bijvoorbeeld opsporing van criminelen.

Beantwoord

Beantwoord

Beantwoord

Beantwoord

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.

Laatste blogs

Bekijk alle blogs (965)
Contact