De AI Act: Wat je moet weten

05 maart 2025

In de  snel veranderende wereld van technologie speelt kunstmatige intelligentie (‘AI’) een steeds grotere rol.

Om deze ontwikkelingen in goede banen te leiden, heeft de Europese Unie (‘EU’) de AI Act uitgevaardigd die per september 2024 gedeeltelijk in werking is getreden. Maar wat houdt AI Act precies in en wat betekent het voor uw organisatie? In deze blog lichten we de belangrijkste punten van de AI Act uit.

Wat is de AI Act?

De AI Act is een Europese verordening die een gemeenschappelijk regelgevend en juridisch kader biedt voor de regulering van AI. Het doel is om AI-systemen veilig en betrouwbaar te maken, terwijl innovatie en economische groei worden gestimuleerd. De AI Act richt zich op het minimaliseren van risico’s en het beschermen van de rechten van burgers.

Wat is de reikwijdte van de AI Act?

De AI Act is van toepassing op een breed scala aan organisaties en personen binnen de Europese Unie. De AI geldt voor:

  1. Aanbieders van AI-systemen: Dit zijn organisaties die AI-systemen ontwikkelen en op de markt brengen binnen de EU. Zij zijn verantwoordelijk voor het waarborgen dat hun systemen voldoen aan de eisen van de AI Act.
  2. Gebruikers van AI-systemen: Organisaties en individuen die AI-systemen inzetten binnen de EU vallen ook onder de AI Act. Zij moeten ervoor zorgen dat de systemen op een verantwoorde en conforme manier worden gebruikt.
  3. Importeurs en distributeurs: Bedrijven die AI-systemen van buiten de EU importeren of binnen de EU distribueren, moeten ervoor zorgen dat deze systemen voldoen aan de AI Act.
  4. AI-systemen die impact hebben binnen de EU: Zelfs als een AI-systeem buiten de EU is ontwikkeld of wordt een AI-systeem buiten de EU geëxploiteerd, dan nog kan de AI-Act van toepassing zijn als de AI-systemen invloed hebben op personen binnen de EU. Dit betekent dat Amerikaanse en Chinese ondernemingen die AI-diensten aan burgers in EU aanbieden, ook aan de AI Act moeten voldoen.

Wat is de risico gebaseerde benadering?

Een van de uitgangputen van de AI Act is de risicogebaseerde benadering. AI-systemen worden ingedeeld in vier risicocategorieën. Zo wordt in de AI Act onderscheid gemaakt tussen de risiconiveau’s: minimaal, beperkt, hoog en onaanvaardbaar. Deze indeling bepaalt welke rechten en verplichtingen van toepassing zijn.

  • Minimaal risico: Voor deze systemen gelden weinig tot geen verplichtingen. Denk hierbij aan AI-systemen als spamfilters of videogames.
  • Beperkt risico: Hier zijn enkele transparantieverplichtingen van toepassing. Bijvoorbeeld AI-systemen zoals chatbots die duidelijk moeten maken dat ze geen mens zijn.
  • Hoog risico: Deze systemen hebben een aanzienlijke impact op de rechten en veiligheid van mensen. Voorbeelden van deze AI-systemen zijn AI-systemen in medische apparatuur of zelfrijdende auto’s. Ze moeten voldoen aan strenge eisen op het gebied van data governance, documentatie en menselijke supervisie.
  • Onaanvaardbaar risico: AI-systemen die een bedreiging vormen voor de veiligheid, rechten of vrijheden van mensen. Deze AI-systemen zijn op basis van de AI Act verboden. Denk aan systemen die kwetsbare groepen manipuleren. Deze onaanvaardbaar risico AI-systemen zijn per 1 februari 2025 verboden onder de AI-Act.

Transparantie en verantwoording

De AI-Act legt veel nadruk op transparantie en verantwoording. Organisaties moeten duidelijk communiceren over het gebruik van AI-systemen door hun organisatie en ervoor zorgen dat gebruikers van die AI-systemen begrijpen op welke wijze en waarom AI-systemen beslissingen worden genomen. Dit betekent dat bedrijven verplicht zijn om informatie te verstrekken over de werking van hun AI-systemen, vooral als deze een hoog risico met zich meebrengen.

Gegevensbeheer en privacy

Een ander belangrijk aspect van de AI Act is het beheer van gegevens. AI-systemen moeten worden getraind op datasets die nauwkeurig, representatief en vrij van bias zijn. Dit helpt om discriminerende uitkomsten te voorkomen. Bovendien moeten organisaties ervoor zorgen dat de privacy van individuen wordt beschermd, in lijn met de Algemene Verordening Gegevensbescherming (AVG).

Impact op Innovatie

Hoewel de AI Act strenge regels introduceert, is het doel niet om innovatie te belemmeren. Integendeel, de verordening is ontworpen om een veilige en betrouwbare omgeving te creëren waarin AI kan floreren. Door duidelijke richtlijnen te bieden, helpt de AI Act bedrijven om vertrouwen op te bouwen bij hun klanten en partners.

Wat betekent dit voor uw organisatie?

Als bestuurder of beleidsmaker is het belangrijk om te begrijpen hoe de AI Act uw organisatie beïnvloedt. Hier zijn enkele stappen die u kunt nemen:

  1. Beoordeel uw AI-systemen: Identificeer welke AI-systemen u gebruikt en in welke risicocategorie ze vallen.
  2. Zorg voor naleving: Zorg ervoor dat uw systemen voldoen aan de vereisten van de AI Act, vooral als ze in de categorie hoog risico vallen.
  3. Investeer in transparantie: Communiceer duidelijk over het gebruik van AI binnen uw organisatie en zorg ervoor dat uw klanten en medewerkers begrijpen hoe AI-beslissingen worden genomen.
  4. Bescherm gegevens en privacy: Zorg ervoor dat uw gegevensbeheerpraktijken voldoen aan de vereisten van de AI Act en de AVG.

Conclusie

De AI Act is een belangrijke stap in de regulering van kunstmatige intelligentie binnen de Europese Unie. Door een balans te vinden tussen veiligheid, innovatie en rechten van burgers, biedt de verordening een kader waarbinnen AI op een verantwoorde manier kan worden ontwikkeld en ingezet. Voor bestuurders en beleidsmakers is het essentieel om op de hoogte te zijn van deze regels en ervoor te zorgen dat hun organisaties compliant zijn. Door proactief te handelen, kunt u niet alleen risico’s minimaliseren, maar ook het vertrouwen van uw klanten en partners vergroten.

Meer informatie?

Op 17 april 2025 organiseren wij het event ‘Alles wat je moet weten om compliant te zijn’. Klik op de onderstaande button voor meer informatie en om je direct aan te melden.

Interesse?