Begrip van ethiek, wetgeving en maatschappelijke impact van AI – De deelnemer kan ethische, juridische en maatschappelijke aspecten van AI herkennen en er in handelen.
Ethische dilemma’s in AI – De deelnemer kan ethische dilemma’s rondom AI herkennen en erover reflecteren in praktijksituaties.
Wetgeving en regelgeving voor AI – De deelnemer kan de relevante wet- en regelgeving rondom AI toepassen in beroepshandelingen.
Maatschappelijke impact van AI – De deelnemer kan de maatschappelijke gevolgen van AI benoemen en duiden in relatie tot het eigen werkveld.
Duurzaamheid in AI – De deelnemer kan duurzame keuzes maken bij het gebruik of ontwerp van AI-toepassingen.
AI-technologie verandert onze samenleving razendsnel. Van slimme chatbots tot algoritmes die sollicitanten beoordelen – kunstmatige intelligentie speelt een steeds grotere rol in ons dagelijks werk en leven. Maar met die vooruitgang komen ook vragen: is het eerlijk, veilig en verantwoord? In dit hoofdstuk leer je hoe je ethische, juridische en maatschappelijke aspecten van AI kunt herkennen en hoe je er in de praktijk mee omgaat.
We bekijken samen wat AI betekent voor jou als professional: hoe je moreel kunt afwegen, welke wet- en regelgeving er geldt, wat AI betekent voor mens en maatschappij, en hoe je duurzame keuzes kunt maken. Deze kennis is essentieel als je AI wilt inzetten op een manier die niet alleen technisch slim is, maar ook sociaal en juridisch verantwoord.
Het hoofdstuk bestaat uit vier onderdelen met elk een concreet leerdoel. Je leert niet alleen de theorie begrijpen, maar vooral ook hoe je die toepast in realistische beroepssituaties.
Ethische dilemma’s in AI – De deelnemer kan ethische dilemma’s rondom AI herkennen en erover reflecteren in praktijksituaties.
Wetgeving en regelgeving voor AI – De deelnemer kan de relevante wet- en regelgeving rondom AI toepassen in beroepshandelingen.
Maatschappelijke impact van AI – De deelnemer kan de maatschappelijke gevolgen van AI benoemen en duiden in relatie tot het eigen werkveld.
Duurzaamheid in AI – De deelnemer kan duurzame keuzes maken bij het gebruik of ontwerp van AI-toepassingen.
Leerdoel: De deelnemer kan ethische dilemma’s rondom AI herkennen en erover reflecteren in praktijksituaties.
AI-technologie kan krachtige beslissingen nemen en grote invloed uitoefenen op mensen en de maatschappij. Dit roept vragen op over wat ‘goed’ of ‘verantwoord’ is. Een ethisch dilemma ontstaat wanneer er meerdere handelingsopties zijn die botsen met verschillende waarden of belangen. In dit onderdeel verkennen we hoe zulke dilemma’s kunnen ontstaan bij het gebruik van AI, en hoe je hier professioneel en verantwoord mee kunt omgaan.
AI beïnvloedt mensenlevens: denk aan systemen die sollicitaties beoordelen, medische diagnoses ondersteunen of gedrag voorspellen. Als deze systemen fouten maken, bevooroordeeld zijn of niet transparant, kunnen ze onrechtvaardige uitkomsten veroorzaken. Het is daarom belangrijk om AI niet alleen technisch, maar ook moreel te evalueren.
Een ethisch dilemma is een situatie waarin twee of meer waarden of plichten met elkaar botsen. Bijvoorbeeld: een AI-systeem dat efficiëntie verhoogt, maar de privacy van gebruikers aantast. Of een systeem dat objectiviteit nastreeft, maar bestaande vooroordelen in data overneemt.
In de context van AI komen ethische dilemma’s vaak voort uit:
Gebrek aan transparantie: Waarom neemt een AI-systeem een bepaalde beslissing?
Bevooroordeelde data: AI leert van data die mogelijk ongelijkheid bevat.
Verantwoordelijkheid: Wie is aansprakelijk als een AI-systeem schade veroorzaakt?
Privacy: Hoe ga je om met persoonlijke gegevens?
Autonomie: Mogen mensen nog eigen keuzes maken, of stuurt AI ze ongemerkt?
Selectie op basis van algoritmes: Een AI-systeem selecteert automatisch kandidaten voor een vacature. Het systeem blijkt vooral mannelijke kandidaten door te laten. Is het algoritme eerlijk?
Gezichtsherkenning op school: Een school wil AI gebruiken om aanwezigheid te registreren via gezichtsherkenning. Dit bespaart tijd, maar is het verantwoord ten opzichte van de privacy van studenten?
AI in de zorg: Een AI-systeem adviseert welke patiënten als eerste behandeld moeten worden. Wat als het systeem vooroordelen bevat over bepaalde groepen patiënten?
Ethisch handelen betekent dat je situaties waarin AI wordt gebruikt kritisch leert bekijken. Daarbij stel je vragen als:
Welke waarden zijn in het geding?
Wie zijn de betrokkenen en wie wordt (on)terecht benadeeld?
Hoe kun je als professional zorgen dat technologie rechtvaardig wordt toegepast?
Gebruik hierbij modellen zoals de ‘moreel beraad-methode’ of de ‘waardenafweging’, waarin je stap voor stap onderzoekt welke belangen en waarden botsen, en hoe je tot een verantwoorde keuze komt.
Casus: Sollicitatie-algoritme
Een HR-afdeling gebruikt AI om cv’s te filteren. Na enkele maanden blijkt dat het systeem vooral mannelijke kandidaten aanbeveelt. De data waarop het systeem getraind is, bevatte historisch meer mannelijke kandidaten.
Ethische vraag: Moet het bedrijf het systeem blijven gebruiken, aanpassen of vervangen? Wat zijn de gevolgen voor gelijke kansen?
Floridi, L., & Cowls, J. (2019). A unified framework of five principles for AI in society. Harvard Data Science Review.
Rijksoverheid (2024). Gids AI-verordening – AI ACT Europa. https://www.ondernemersplein.nl/AIA
Leerdoel: De deelnemer kan de relevante wet- en regelgeving rondom AI toepassen in beroepshandelingen.
Wetgeving vormt het kader waarbinnen AI veilig, eerlijk en verantwoord gebruikt mag worden. In Europa is in 2024 de AI-verordening (AI Act) vastgesteld. Deze wet bepaalt welke AI-systemen wel of niet zijn toegestaan, onder welke voorwaarden, en wie waarvoor verantwoordelijk is. Voor professionals in het hoger beroepsonderwijs is het essentieel om te begrijpen hoe deze regels van invloed zijn op de praktijk.
AI-toepassingen kunnen risico’s opleveren, zoals discriminatie, privacy-schendingen en ondoorzichtige besluitvorming. Wetgeving helpt om deze risico’s te beperken. De AI-verordening zorgt ervoor dat mensenrechten en publieke waarden worden beschermd, terwijl innovatie mogelijk blijft.
De AI-verordening is een Europese wet die regels stelt voor het ontwikkelen, aanbieden en gebruiken van AI. Ze treedt gefaseerd in werking vanaf februari 2025 (voor verboden AI) en grotendeels vanaf augustus 2026 en 2027.
De regels zijn gebaseerd op het risiconiveau van het AI-systeem:
Verboden AI: Onaanvaardbare risico’s, zoals manipulatie of social scoring. Deze zijn verboden.
Hoog-risico AI: Toepassingen met risico’s voor veiligheid, gezondheid of grondrechten (zoals AI in onderwijs, zorg, rechtspraak of personeelsselectie). Hier gelden strenge eisen.
Overige AI: Weinig risico’s. Er gelden vooral transparantie-eisen.
Generatieve AI en chatbots: Moeten altijd transparant zijn over hun aard.
De wet maakt onderscheid tussen:
Aanbieders: Organisaties die AI ontwikkelen en op de markt brengen. Zij moeten zorgen voor documentatie, risicobeheer, data governance en menselijk toezicht.
Gebruiksverantwoordelijken: Organisaties die AI toepassen binnen hun werkproces. Zij moeten AI correct gebruiken, personeel informeren, incidenten melden en risico’s monitoren.
Als je als organisatie het AI-systeem aanpast of onder je eigen naam op de markt brengt, word je zelf aanbieder.
Voor hoog-risico AI gelden o.a. de volgende verplichtingen:
Risicobeheersysteem opzetten.
Duidelijke documentatie en logboeken bijhouden.
Transparantie over hoe het systeem werkt.
Toezicht door mensen organiseren.
Beoordeling van effecten op mensenrechten bij overheidsgebruik.
Voor generatieve AI moet je aangeven dat de output door AI is gemaakt – bijvoorbeeld via een watermerk of expliciete vermelding.
Casus: AI bij leerlingbegeleiding
Een mbo-instelling wil een AI-systeem inzetten dat op basis van leerresultaten voorspelt welke studenten extra begeleiding nodig hebben. Omdat dit invloed heeft op toegang tot onderwijs en keuzes over begeleiding, valt dit systeem onder hoog-risico AI.
Juridische vraag: Wat moet de instelling doen om aan de wet te voldoen?
Europese Commissie. (2024). AI-verordening (AI Act). https://eur-lex.europa.eu/legal-content/NL/TXT/?uri=CELEX:32024R1689
Rijksoverheid. (2024). Gids AI-verordening – AI ACT Europa. https://www.ondernemersplein.nl/AIA
NEN. (2024). AI en normering. https://www.nen.nl/ict/digitale-ehtiek-en-veiligheid/ai
Leerdoel: De deelnemer kan de maatschappelijke gevolgen van AI benoemen en duiden in relatie tot het eigen werkveld.
AI verandert de manier waarop we werken, communiceren en organiseren. De impact gaat verder dan alleen technologie: ze raakt economische, sociale, culturele en ethische aspecten van de samenleving. Voor professionals is het belangrijk om deze impact te herkennen, te begrijpen en er bewust mee om te gaan in hun dagelijkse praktijk.
AI is steeds vaker aanwezig in alledaagse toepassingen: van navigatie en gezondheidszorg tot onderwijs, personeelsselectie en financiële dienstverlening. Dat biedt kansen, maar roept ook zorgen op:
Arbeidsmarkt: Sommige banen verdwijnen, andere veranderen of ontstaan. Vaardigheden als kritisch denken, samenwerken en omgaan met technologie worden belangrijker.
Toegang en ongelijkheid: Niet iedereen heeft gelijke toegang tot AI. Er kunnen verschillen ontstaan in wie profiteert van technologie en wie achterblijft.
Informatievoorziening en manipulatie: AI kan helpen informatie te filteren, maar ook nepnieuws verspreiden of mensen manipuleren via algoritmen.
Mensenrechten en discriminatie: AI-systemen kunnen onbedoeld ongelijk behandelen, bijvoorbeeld door vooroordelen in data.
Afhankelijk van de sector waarin je werkt of studeert, zijn er specifieke voorbeelden van AI-impact:
Onderwijs: AI kan helpen met gepersonaliseerd leren, maar ook leiden tot standaardisering en verlies van menselijk contact.
Zorg: AI ondersteunt bij diagnoses en behandelingen, maar roept vragen op over privacy en menselijke controle.
Juridisch en sociaal domein: AI kan efficiëntie verhogen, maar kan ook leiden tot afstand tussen overheid en burger of ongelijke behandeling.
Door de maatschappelijke impact te herkennen, kun je als professional beter anticiperen op de kansen en risico’s van AI. Zo draag je bij aan een inclusieve en rechtvaardige toepassing van technologie.
Blijf kritisch: welke waarden staan op het spel?
Stimuleer transparantie: laat mensen weten wanneer AI wordt gebruikt.
Betrek anderen: werk samen met collega’s en belanghebbenden bij het implementeren van AI.
Denk mee over beleid: geef input over hoe AI op een verantwoorde manier ingezet kan worden.
Casus: AI bij klantcontact in de zorgverzekeringen
Een zorgverzekeraar gebruikt AI om klantvragen automatisch te beantwoorden. Dit bespaart kosten, maar sommige klanten voelen zich niet gehoord en stappen over naar een andere verzekeraar.
Maatschappelijke vraag: Hoe zorg je dat AI efficiëntie oplevert, zonder het menselijke contact en vertrouwen te verliezen?
Wetenschappelijke Raad voor het Regeringsbeleid (WRR). (2021). Opgave AI: de nieuwe systeemtechnologie. https://www.wrr.nl/
AlgorithmWatch. (2023). Automating Society Report. https://automatingsociety.algorithmwatch.org
UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. https://unesdoc.unesco.org/
Deze toets bestaat uit 10 meerkeuzevragen en toetst of de deelnemer inzicht heeft in de ethische, juridische, maatschappelijke en duurzame aspecten van AI. De vragen zijn praktijkgericht en sluiten aan bij het hoger beroepsonderwijs.
Leerdoelen:
Deelnemer herkent ethische dilemma’s bij het gebruik van AI.
Deelnemer past relevante wet- en regelgeving toe, zoals de AI-verordening.
Deelnemer benoemt maatschappelijke gevolgen van AI in het eigen werkveld.
Deelnemer maakt bewuste en duurzame keuzes bij AI-toepassingen.