Pragmatisch
Kwaliteit
Flexibel
Relevant

BLOG: AI-wetgeving: mogen we straks geen kunstmatige intelligentie (AI) gebruiken?

woensdag 09 augustus 2023

Sinds de verschijning van ChatGPT staat het gebruik van AI opeens centraal in de publieke discussie, maar veel AI-toepassingen gebruiken we al langere tijd en zijn geïntegreerd in ons dagelijks leven zonder dat we dit door hebben. Denk aan simpele vormen van algoritmes zoals een chatbot tot vergaande geavanceerde generatieve modellen, zoals ChatGPT.


Andere wijdverspreide toepassingen zijn:

  • - Het ontgrendelen van smartphones door middel van gezichtsherkenning
  • - Het aanbieden van gepersonaliseerde advertenties
  • - Chatten met chatbots
  • - Procesoptimalisatie
  • - Wetenschappelijke onderzoeken

De Nederlandse overheid probeert sinds kort transparanter te zijn over het gebruik van algoritmes. Hier kun je meer over lezen op https://algoritmes.overheid.nl/nl.

Het gebruik van AI is dus niet nieuw, maar regulering hierover wel. Op 21 april 2021 publiceerde de Europese Commissie de AI-verordening, maar deze is nog niet in beton gegoten. Wat wel vaststaat is dat Europa met wetgeving komt! De AI-verordening heeft als doel EU-burgers vertrouwen te geven in AI door te zorgen dat veilige Al-systemen op de markt zijn met waarborgen voor de bescherming van fundamentele rechten.
De aankomende wetgeving beschouwt AI-systemen dus als producten en kijkt vanuit productregulering. Dit betekent dat productveiligheid van een AI-systeem centraal staat en vooraf wordt gecontroleerd. Burgers worden zo op een indirecte manier beschermd tegen ondeugdelijke AI-systemen. De wetgeving bereikt deze vorm van productveiligheid door AI-systemen als risico’s te kwalificeren. 


Risicobenadering.

De AI-verordening onderscheid vier risiconiveaus. Hoe hoger het risico, hoe meer verplichtingen er moeten worden nageleefd. De niveaus zijn, van hoog tot laag:

  1. 1. Onaanvaardbaar risico
    1. a. Denk hierbij aan het gebruik van real-time biometrische systemen in de openbare ruimte. Dit soort systemen zijn verboden;
  2. 2. Hoog risico
    1. a. Denk hierbij aan systemen in sectoren die een risico kunnen vormen voor de gezondheid, veiligheid of grondrechten van personen. Denk hierbij bijvoorbeeld aan het SyRI systeem om uitkeringsfraude op te sporen. Deze systemen zullen aan strenge eisen moeten voldoen;
  3. 3. Beperkt risico
    1. a. Denk hierbij aan systemen die gebruikt worden door webshops, zoals chatbots. De regulering richt zich voornamelijk op transparantie;
  4. 4. Minimaal risico
    1. a. Denk hierbij aan systemen voor spamfilters. Hier gelden geen verplichtingen maar wordt zelfregulering aanbevolen.

Impact en aansprakelijkheid.

De AI-verordening richt zich niet alleen op ontwikkelaars, maar ook op de distributeurs en gebruikers van AI-systemen. Dit betekent dat een organisatie als gebruiker van AI-systemen (bepaalde) verplichtingen krijgt op het gebied van bijvoorbeeld transparantie, registratie en conformiteitsbeoordelingen.

Kunnen burgers bepaalde rechten uitoefenen op basis van deze wetgeving? Nee, maar er zijn andere mogelijkheden. Als er bijvoorbeeld persoonsgegevens verwerkt worden dan zal de AVG van toepassing zijn en kunnen betrokken hun rechten uitoefenen op basis van art. 13-22 AVG. Daarnaast heeft de Europese Commissie een richtlijn over aansprakelijkheid voor AI gepubliceerd. Deze richtlijn houdt organisaties aansprakelijk. Zorg dus dat je als organisatie je documentatie over systemen op orde hebt, anders kan dit leiden tot een veronderstelling van non-compliance en aansprakelijkheid.

Daniël Tjeerdsma
Adviseur L2P


Blijf up-to-date!

L2P volgt de ontwikkelingen rond de AI-verordening op de voet en zal analyseren wat de impact van deze nieuwe wetgeving is voor organisaties zodra er meer duidelijkheid is over de definitieve tekst. Via onderstaande invulveld kunt u zich aanmelden voor onze maandelijkse nieuwsbrief om up-to-date te blijven van alle ontwikkelingen.