De AI Act deelt systemen in naar hun risico voor veiligheid, gezondheid en grondrechten.
Verboden AI: Toepassingen met een onaanvaardbaar risico, zoals manipulatie, social scoring en massasurveillance.
Hoog-risico AI: AI in domeinen zoals onderwijs, zorg, werkgelegenheid en rechtshandhaving; deze systemen hebben de strengste verplichtingen.
Algemene AI-modellen: General Purpose AI, zoals grote taalmodellen, die breed inzetbaar zijn.
Generatieve AI en chatbots: Specifieke transparantie-eisen, zodat mensen weten dat ze met AI communiceren of AI-inhoud zien.
Overige AI: AI-systemen die niet onder bovenstaande categorieën vallen, maar wel onder andere wetgeving kunnen vallen.
De wet omschrijft AI als systemen die autonoom functioneren, zich kunnen aanpassen en outputs genereren zoals voorspellingen, aanbevelingen of beslissingen.
Machine learning: Leren uit data om doelen te bereiken.
Kennis- en logica-gebaseerde systemen: Redeneren en modelleren met vastgelegde kennis.
Uitsluiting: Regelsystemen die enkel menselijke instructies volgen vallen er niet onder.
De verplichtingen verschillen per rol.
Aanbieder (provider): Ontwikkelt of levert AI en brengt deze op de markt.
Gebruiksverantwoordelijke (deployer): Zet AI onder eigen verantwoordelijkheid in.
Andere actoren: Importeurs, distributeurs en gemachtigden hebben aanvullende rollen.
4.1 Verboden AI
Sommige AI-systemen zijn vanaf februari 2025 verboden.
Manipulatie van gedrag: Bijvoorbeeld beïnvloeding die vrije keuze beperkt.
Misbruik van kwetsbaarheid: Bijvoorbeeld kinderen of ouderen doelgericht manipuleren.
Social scoring: Burgers beoordelen op gedrag of kenmerken.
Massasurveillance: Ongerichte biometrische identificatie en emotieherkenning in werk of onderwijs.
Profilering: Risicobeoordeling van strafbare feiten uitsluitend op basis van kenmerken.
4.2 Hoog-risico AI
Hoog-risico AI kent de meeste verplichtingen.
Risicomanagement: Systematisch vaststellen en beperken van risico’s.
Data en datagovernance: Gebruik van representatieve en foutarme datasets, inclusief maatregelen tegen bias.
Technische documentatie: Duidelijke vastlegging van ontwerp, gebruik en risico’s.
Logging: Bijhouden van gebruiksdata en systeemactiviteiten.
Transparantie en informatie: Instructies geven over gebruik, beperkingen en toezicht.
Menselijk toezicht: Zorgen dat gebruikers AI kunnen controleren en ingrijpen.
Nauwkeurigheid, robuustheid en cyberbeveiliging: Eisen aan betrouwbaarheid en veiligheid.
Kwaliteitsbeheer: Organisaties moeten systemen hebben voor naleving en kwaliteitsbewaking.
Monitoring: Voortdurende controle tijdens gebruik en meldplicht van incidenten.
4.3 Algemene AI-modellen
Voor General Purpose AI gelden extra regels.
Informatievoorziening: Documentatie delen over mogelijkheden en beperkingen.
Transparantie in training: Openbaar maken van samenvattingen over gebruikte trainingsdata.
Beperkingen systeemrisico’s: Evaluaties uitvoeren en risico’s beperken bij zeer grote modellen.
4.4 Generatieve AI en chatbots
Specifieke transparantieverplichtingen gelden voor AI die content genereert of gesprekken voert.
Herkenbaarheid: Gebruikers moeten weten dat ze met AI te maken hebben.
Markering: Output (tekst, beeld, audio, video) moet herkenbaar zijn als kunstmatig.
Informatieplicht: Mensen die aan biometrische categorisering of emotieherkenning worden blootgesteld, moeten geïnformeerd worden.
4.5 Overige AI
Systemen die niet onder bovenstaande categorieën vallen.
Geen specifieke AI Act-eisen: maar mogelijk wel onder andere EU-wetgeving.
Let op: Als ze in een hoog-risico domein worden gebruikt, vallen ze alsnog onder hoog-risico AI.