
AI-wet: hoe de EU kunstmatige intelligentie op zijn plaats wil zetten
De AI-wet wordt in juni van kracht in de EU. Het regelt verschillende aspecten van de ontwikkeling en het gebruik van kunstmatige intelligentie. Voornamelijk door bedrijven, overheden en onderzoeksinstellingen. Wat betekent dit precies?
Kunstmatige intelligentie (AI) wordt onderworpen aan regels in de Europese Unie. De AI Act - een wet die onlangs door de Raad en het Parlement is aangenomen - wordt in juni van kracht. De regels zijn bedoeld om de gevaren van AI-modellen in toom te houden.
Het zal maximaal twee jaar duren voordat alle aspecten van de wet zijn geïmplementeerd. Er zijn echter kortere en langere overgangsperioden voor individuele uitzonderingen.
De AI-wet in een notendop
De wet is gebaseerd op een risicogebaseerde aanpak. Dit betekent dat hoe hoger het risico is dat het gebruik van een model mensen kan schaden, hoe hoger de drempel is om het te gebruiken. Er zijn echter bepaalde uitzonderingen. Bijvoorbeeld voor wetshandhavingsinstanties. Gegevensbeschermers en mensenrechtengroepen zijn hier helemaal niet blij mee.
Hoe werkt de risicobenadering?
Er zijn drie risicogroepen (eigenlijk vier, met de twee laagste samengevat):
Een onaanvaardbaar risico
AI-toepassingen worden volgens Artikel 5, punt 1 beschouwd als "onaanvaardbaar riskant" als ze:
- het menselijk gedrag manipuleren
- een waarde toekennen aan het gedrag of de eigenschappen van een persoon (social credit / social scoring)
- menselijke zwakheden of kwetsbaarheid uitbuiten
- openbare systemen in realtime herkennen en zo biometrische identificatie van een persoon mogelijk maken
Over het laatste punt maken sommige belanghebbenden nog steeds ruzie. Daar zijn twee redenen voor. Ten eerste zijn hier twee uitzonderingen besloten - verdediging tegen terrorisme en de vervolging van ernstige strafbare feiten. Ten tweede is de definitie van de term "real-time" niet duidelijk. Kritische stemmen vrezen dat zelfs fracties van een seconde na een moment niet meer als "real-time" kunnen worden gedefinieerd - en daarom het verbod op biometrische identificatie zou worden verbogen.
Een hoog risico (AI-systemen met een hoog risico)
Een AI-systeem met een hoog risico wordt gedefinieerd als een model dat een aanzienlijk risico vormt voor de gezondheid, veiligheid of grondrechten. Bijvoorbeeld systemen die worden gebruikt in het wegverkeer, ziekenhuizen, wetshandhaving of het bankwezen (en nog veel meer).

Bron: Shutterstock
Als een systeem is gecategoriseerd als een "AI-systeem met hoog risico", gelden er speciale regels. Aanbieders moeten ervoor zorgen dat hun systemen aan deze regels voldoen. Hierop wordt toezicht gehouden.
Ze moeten bijvoorbeeld een zogenaamd risicomanagementsysteem en een kwaliteitssysteem opzetten (Artikel 9. Ze moeten ook uitleggen wat de gevolgen zijn voor gebruikers als hun AI-modellen worden gebruikt, vooraf training geven en nog veel meer. Dit is geregeld in Artikel 8 (ff.).
Een laag of minimaal risico
Wat en hoe AI-modellen worden gedefinieerd als een laag of minimaal risico is te vinden in de Wet AI onder Artikel 52. Dit zijn systemen die interactie hebben met mensen of inhoud genereren.
Daaronder vallen bijvoorbeeld chatbots, in-game AI, spamfilters, zoekalgoritmen en deep fakes. Deze laatste moeten echter wel als zodanig worden bestempeld. Als dergelijke systemen interactie hebben met mensen, moet de persoon hiervan op de hoogte worden gesteld. Voorbeeld: als een online winkel ChatGPT gebruikt voor ondersteuningszaken, moet het chatvenster duidelijk aangeven dat je niet met een persoon praat, maar met een AI.
Tussen haakjes: als je werkt aan een AI-model voor een bedrijf, kun je uitzoeken in welke categorie het model kan worden ingedeeld door een vragenlijst in te vullen. Je ziet dan wat de verplichtingen zijn en hoe snel na de invoering van de Wet AI je daaraan moet voldoen.
Hoe definieert de EU kunstmatige intelligentie precies
De definitie van AI door de EU is vrij breed. Het geldt niet alleen voor grote taalmodellen zoals ChatGPT of Gemini. Een 18 pagina's tellend document legt in detail uit wat hieronder valt.
Ik zal je het lezen besparen en de definiërende kenmerken opnoemen. Software wordt beschouwd als kunstmatige intelligentie als het:
- Gebruikt machine learning of deep learning concepten OF
- Op logica en kennis gebaseerde concepten gebruikt OF
- Meestert statistische benaderingen, schattings-, zoek- en optimalisatiemethoden
Om het te gebruiken
- Doelstellingen nastreven die door mensen zijn gedefinieerd OF
- uitkomsten of inhoud voorspellen of aanbevelen OF
- beïnvloedt hun omgeving
Wie moet voldoen aan deze AI-wet
In principe iedereen die een AI-systeem ontwikkelt, levert of gebruikt. Dus in eerste instantie bedrijven, onderzoeksinstellingen of overheden. Maar ook hier zijn uitzonderingen. De AI-wet is bijvoorbeeld niet zoals gebruikelijk van toepassing als het AI-systeem uitsluitend voor militaire doeleinden wordt gebruikt.
Belangrijk om te weten: De wet heeft ook gevolgen voor bedrijven in Zwitserland en andere landen over de hele wereld. Zodra een AI-model beschikbaar is en gebruikt kan worden in de EU.
Wie controleert of de wet wordt nageleefd
In eerste instantie zijn de afzonderlijke lidstaten verantwoordelijk voor de naleving van de AI-wet. Ze zijn verplicht om toezichthoudende autoriteiten op te richten om de naleving te controleren. Daarnaast is er op EU-niveau het Office for Artificial Intelligence. Dit werkt samen met de nationale autoriteiten en coördineert bijvoorbeeld gezamenlijke acties.

Bron: consilium.europa.eu
Wie zich niet aan de AI-wet houdt, kan worden gestraft. Net als bij de Digital Markets Act en andere EU-wetten zijn de straffen niet gering. Boetes tot 35 miljoen euro zijn te betalen voor verboden AI-praktijken - of tot zeven procent van de wereldwijde jaaromzet van het overtredende bedrijf. De jaaromzet van Meta is 134,9 miljard Amerikaanse dollar. Een boete voor Meta kan dus oplopen tot 9,4 miljard US dollar, zeven procent van de jaaromzet van 135 miljard.
Voor overtredingen in het hoogrisicogebied stelt de EU de boetelimiet op 15 miljoen of drie procent van het jaarinkomen. Daarnaast kost het doorgeven van valse informatie maximaal 7,5 miljoen euro of één procent van de jaaromzet.
Wat gebeurt er nu?
De AI-wet treedt deze dagen in werking. Binnen twee jaar zijn alle deadlines verstreken en is hij volledig van toepassing. Maar natuurlijk zijn er ook hier verschillende deadlines:
- AI-systemen met een onacceptabel risico worden binnen zes maanden verboden en mogen dan niet meer gebruikt worden. Dus eind 2024.
- Voor AI-systemen in het algemeen gelden de toepassingsregels na 12 maanden. Hieronder vallen bijvoorbeeld ChatGPT en Google Gemini.
- Het duurt langer voor AI-systemen die als risicovol zijn gecategoriseerd en nu al bestaan. De AI-wet wordt pas na 36 maanden van kracht omdat aanpassing volgens de EU langer duurt en gevoeliger ligt. 6.
De genoemde AI-toezichthouders en de bijbehorende structuur moeten 12 maanden na inwerkingtreding door de EU-lidstaten zijn ingesteld.
Elk jaar - ook nadat de deadlines zijn verstreken - bekijkt de EU-Commissie of er wijzigingen moeten worden aangebracht in de categorisering of de wet. AI ontwikkelt zich immers razendsnel. <p
33 mensen vinden dit artikel leuk


Sinds ik ontdekt heb hoe ik beide telefoonkanalen op de ISDN kaart kan activeren voor meer bandbreedte, ben ik aan het knutselen met digitale netwerken. Ik knutsel al met analoge netwerken sinds ik kan praten. Winterthur door keuze met een rood-blauw hart. En koffie - voor, na, tussendoor en tijdens.