Kritisch omgaan met AI – De deelnemer kan AI-uitvoer kritisch analyseren en beoordelen op betrouwbaarheid en toepasbaarheid.
Analyseren van informatiebronnen – De deelnemer kan informatiebronnen, ook gegenereerd door AI, analyseren op inhoud, herkomst en waarde.
Beoordelen van AI-toepassingen – De deelnemer kan AI-toepassingen evalueren op bruikbaarheid, ethiek en effectiviteit.
Kritisch bevragen van inhoud – De deelnemer kan inhoud van AI-uitvoer kritisch bevragen en verifiëren.
In een wereld waarin AI-systemen steeds vaker informatie genereren en beslissingen ondersteunen, is het van groot belang dat studenten en professionals leren om deze uitvoer kritisch te beoordelen. AI genereert geen feiten, maar voorspellingen en suggesties op basis van data. Dit betekent dat het resultaat beïnvloed kan zijn door fouten, vooroordelen of gebrek aan context. Daarom is het essentieel om bewust, kritisch en verantwoord met AI om te gaan.
In dit onderdeel leren deelnemers hoe ze AI-uitvoer kunnen analyseren en beoordelen op betrouwbaarheid en toepasbaarheid. Ze leren ook hoe ze bronnen kunnen evalueren, AI-systemen kunnen doorgronden en ethische risico’s kunnen herkennen. Deze vaardigheden zijn onmisbaar voor een professionele beroepshouding in het hoger beroepsonderwijs, waarin zelfstandig denken, onderbouwde keuzes maken en ethisch handelen centraal staan.
We richten ons op vier samenhangende thema’s:
Analyseren van informatiebronnen
Leerdoel: De deelnemer kan informatiebronnen, ook gegenereerd door AI, analyseren op inhoud, herkomst en waarde.
Waarom belangrijk: Studenten en professionals moeten kunnen inschatten of informatie betrouwbaar is, vooral als deze uit AI komt.
Beoordelen van AI-toepassingen
Leerdoel: De deelnemer kan AI-toepassingen evalueren op bruikbaarheid, ethiek en effectiviteit.
Waarom belangrijk: In het werkveld komen studenten AI tegen in tools, systemen en beleid. Ze moeten leren deze toepassingen kritisch te beoordelen.
Kritisch bevragen van inhoud
Leerdoel: De deelnemer kan inhoud van AI-uitvoer kritisch bevragen en verifiëren.
Waarom belangrijk: AI kan overtuigend zijn, ook als het onjuiste of incomplete informatie genereert. Kritisch denken is nodig om fouten te herkennen.
Ontwikkelen van bewustzijn over bias en manipulatie
Leerdoel: De deelnemer kan bias en manipulatie herkennen in AI-systemen en verantwoord daarmee omgaan.
Waarom belangrijk: Bias (vooroordelen) en manipulatie kunnen leiden tot discriminatie of verkeerde beslissingen. Herkennen is de eerste stap naar bewust gebruik.
Leerdoel: De deelnemer kan informatiebronnen, ook gegenereerd door AI, analyseren op inhoud, herkomst en waarde.
Waarom dit belangrijk is
In het hoger beroepsonderwijs wordt verwacht dat studenten werken met betrouwbare informatie. AI kan snel informatie geven, maar die is niet altijd correct, actueel of objectief. Daarom is het belangrijk dat deelnemers leren hoe ze bronnen – ook AI-uitvoer – kunnen beoordelen op betrouwbaarheid, herkomst en waarde. Zo leren ze zelfstandig verantwoorde keuzes te maken in hun studie en toekomstige werkpraktijk.
Een informatiebron is alles waaruit je gegevens of kennis kunt halen: een boek, een website, een rapport, een interview, maar ook een antwoord van een AI-systeem. Elke bron moet je kritisch bekijken, vooral als je die bron gebruikt om keuzes te maken of informatie verder te verspreiden.
Herkomst: Wie is de maker? Is het een erkende organisatie, een expert, of een anonieme bron?
Doel: Wil de bron informeren, overtuigen, verkopen of misleiden?
Actualiteit: Is de informatie recent genoeg?
Controleerbaarheid: Wordt verwezen naar andere bronnen of onderzoek?
Onafhankelijkheid: Is er sprake van belangen, sponsoring of beïnvloeding?
AI-systemen zoals ChatGPT genereren teksten op basis van grote hoeveelheden data, maar noemen niet altijd bronnen. Ook kunnen ze foutieve informatie geven alsof het klopt. AI heeft geen “waarheidsbesef” – het voorspelt op basis van patronen. Daardoor is het extra belangrijk om AI-uitvoer altijd te controleren op:
feitelijke juistheid
actualiteit
mogelijke bias (vooroordelen)
bronverwijzing
Wat wordt er beweerd? Vat de kern samen.
Waar komt het vandaan? Worden bronnen genoemd? Kun je ze vinden?
Is het logisch en consistent? Kloppen de redeneringen?
Is er reden tot twijfel? Zijn er aanwijzingen voor onvolledigheid, subjectiviteit of fouten?
Kun je het verifiëren? Zoek het op in een erkende bron.
Een student communicatie gebruikt ChatGPT om een tekst te schrijven over desinformatie. De AI geeft een overtuigend antwoord, maar noemt geen bron. De student checkt enkele beweringen via betrouwbare nieuwssites en een publicatie van de Europese Commissie. Ze merkt dat één bewering achterhaald is en past haar verslag aan. De docent waardeert de kritische aanpak.
Europese Commissie. (2024). AI-verordening. Geraadpleegd via https://eur-lex.europa.eu/legal-content/NL/TXT/?uri=CELEX:32024R1689
Universiteit Utrecht. (z.d.). Bronnen beoordelen. Geraadpleegd op 27 maart 2025 via https://www.uu.nl/onderwijs/bronnen-beoordelen
Rijksoverheid. (2024). AI-verordening gids. Versie 1.0 – oktober 2024.
Leerdoel: De deelnemer kan AI-toepassingen evalueren op bruikbaarheid, ethiek en effectiviteit.
Waarom dit belangrijk is
In het hoger beroepsonderwijs maken studenten steeds vaker gebruik van AI-tools: van taalassistenten tot geautomatiseerde beslissystemen in stage- en werkomgevingen. Het is belangrijk dat ze leren beoordelen of deze toepassingen geschikt zijn voor het beoogde doel, verantwoord gebruikt worden en geen onwenselijke effecten hebben. Dit vraagt om een brede blik: technisch, praktisch én ethisch.
Een AI-toepassing is een softwaretool die gebruikmaakt van kunstmatige intelligentie om een taak uit te voeren, zoals tekst genereren, voorspellen, herkennen of beslissen. Denk aan chatbots, beeldherkenning, automatisch selecteren van sollicitanten of hulpmiddelen in het onderwijs.
Een goede beoordeling kijkt naar drie aspecten:
1. Bruikbaarheid
Past de tool bij het doel waarvoor je het wilt inzetten?
Is het gebruiksvriendelijk en begrijpelijk?
Werkt het onder verschillende omstandigheden?
2. Effectiviteit
Bereikt de toepassing het gewenste resultaat?
Hoe goed presteert de AI in vergelijking met mensen?
Zijn er bekende fouten of beperkingen?
3. Ethische aspecten
Respecteert de tool de privacy en grondrechten van mensen?
Worden mensen eerlijk en zonder vooroordelen behandeld?
Is er menselijk toezicht mogelijk bij belangrijke beslissingen?
De Europese AI-verordening maakt onderscheid tussen AI die verboden is, AI met hoog risico, en AI die vrij gebruikt mag worden. AI-toepassingen voor bijvoorbeeld onderwijs, gezondheidszorg en rechtspraak vallen vaak onder de categorie ‘hoog-risico’. Dit betekent dat aanbieders en gebruikers verplicht zijn om te zorgen voor veiligheid, transparantie en menselijk toezicht.
Een student social work onderzoekt een AI-tool die wordt gebruikt om cliënten te beoordelen op urgentie. Ze ontdekt dat de tool deels op postcode en opleidingsniveau baseert, wat kan leiden tot ongelijke behandeling. Ze bespreekt dit met haar stagebegeleider en adviseert om aanvullende menselijke beoordeling verplicht te stellen. Daarmee toont ze niet alleen kritisch inzicht, maar ook aandacht voor ethiek en inclusie.
Rijksoverheid. (2024). AI-verordening gids. Versie 1.0 – oktober 2024.
European Commission. (2024). AI Act: CELEX:32024R1689.
Rathenau Instituut. (2023). Ethische reflectie op AI-toepassingen.
AI For Good. (2023). Evaluating AI systems ethically.
Leerdoel: De deelnemer kan inhoud van AI-uitvoer kritisch bevragen en verifiëren.
Waarom dit belangrijk is
AI-systemen kunnen op overtuigende wijze inhoud genereren, ook als die inhoud feitelijk onjuist, onvolledig of subjectief is. Studenten en professionals moeten daarom leren om AI-uitvoer niet klakkeloos over te nemen, maar te bevragen en te toetsen aan andere bronnen. Zo ontwikkelen ze een onderzoekende houding en leren ze verantwoordelijkheid te nemen voor wat ze gebruiken of doorgeven.
AI-systemen zoals ChatGPT genereren teksten op basis van statistische patronen. Ze zijn getraind op grote hoeveelheden data en maken op basis daarvan een voorspelling van een “logisch” antwoord. Dit betekent dat AI niet weet wat ‘waar’ is, en fouten of verzinsels (“hallucinaties”) kunnen voorkomen.
Een kritische houding betekent niet alleen twijfelen, maar vooral systematisch onderzoeken. Stel jezelf de volgende vragen:
Wat wordt er precies beweerd?
Is de tekst feitelijk of mening? Zijn er concrete voorbeelden of algemene uitspraken?
Waarom wordt dit gezegd?
Lijkt de tekst neutraal of zit er een richting of overtuiging in?
Hoe weet ik of dit klopt?
Zijn er bronnen? Kun je het controleren met andere informatie?
Wat ontbreekt er?
Zijn er perspectieven, groepen of feiten die buiten beeld blijven?
Wie heeft hier belang bij?
Is er een doel of belang dat deze bewering stuurt?
Als een AI-antwoord ‘logisch klinkt’, wil dat niet zeggen dat het klopt. Juist de overtuigende toon maakt het gevaarlijk om fouten over het hoofd te zien. Combineer daarom je eerste indruk met bewijs uit betrouwbare bronnen.
Volgens de AI-verordening moet het duidelijk zijn dat je met AI te maken hebt, vooral bij chatbots en generatieve systemen. Gebruikers hebben recht op transparantie. Als AI wordt ingezet bij belangrijke beslissingen (zoals bij hoog-risico toepassingen), moet er altijd menselijk toezicht mogelijk zijn.
Een student journalistiek gebruikt AI om een achtergrondartikel over gezichtsherkenning te schrijven. De tekst leest lekker weg, maar bevat feitelijke onjuistheden over wetgeving. De student raadpleegt de AI-verordening en corrigeert de tekst. In haar verslag beschrijft ze ook hoe ze de fouten ontdekte – een voorbeeld van kritisch denken en verantwoord handelen.
Rijksoverheid. (2024). AI-verordening gids. Versie 1.0 – oktober 2024.
Mozilla Foundation. (2023). Understanding AI-generated content.
Universiteit Leiden. (z.d.). Kritisch denken en bronnengebruik.
Leerdoel: De deelnemer kan bias en manipulatie herkennen in AI-systemen en verantwoord daarmee omgaan.
Waarom dit belangrijk is
AI-systemen zijn niet neutraal: ze zijn getraind op bestaande data en kunnen daardoor bestaande vooroordelen (bias) versterken. Ook kunnen AI-systemen bewust worden ingezet om gedrag te beïnvloeden of informatie te sturen. In het hoger beroepsonderwijs is het daarom belangrijk dat studenten deze mechanismen leren herkennen en verantwoord leren omgaan met AI, zowel in eigen gebruik als bij analyse van externe bronnen.
Bias betekent: een systematische afwijking, vaak in de vorm van een vooroordeel. AI-systemen kunnen bias vertonen in hoe ze mensen indelen, welke antwoorden ze geven of wie ze bevoordelen. Dit komt doordat ze getraind zijn op data waarin bestaande ongelijkheden zitten.
Voorbeelden van bias:
Een sollicitatietool die vrouwen lager inschat vanwege historische data.
Een chatbot die vooral westerse perspectieven benadrukt.
Een AI die mensen in bepaalde wijken onterecht als risicovol inschat.
AI-manipulatie betekent dat een systeem gericht wordt ingezet om gedrag te sturen zonder dat de gebruiker dat doorheeft. Denk aan:
Het aanbieden van aangepaste informatie om een mening te beïnvloeden.
Het gebruik van emotieherkenning om je aandacht langer vast te houden.
Het automatisch aanpassen van de prijs of dienst op basis van je profiel.
De AI-verordening verbiedt manipulatieve AI die de vrije wil aantast en schade kan veroorzaken. Ook AI die misbruik maakt van kwetsbare groepen of mensen onterecht indeelt op basis van gedrag of profiel is verboden.
Vergelijk output met andere bronnen: Zie je grote verschillen?
Check wie er voordeel heeft bij de output: Volg het geld of het belang.
Vraag je af op basis van welke data het systeem werkt: Zijn die data volledig en representatief?
Let op stereotypen of herhaling van bekende vooroordelen.
Wees kritisch bij gepersonaliseerde informatie: Wordt er gestuurd op jouw profiel?
Spreek het gebruik van AI-systemen aan als er sprake is van ongelijkheid.
Geef feedback aan ontwikkelaars en leveranciers van tools.
Kies waar mogelijk voor transparante en toetsbare AI.
Documenteer als professional hoe je AI gebruikt en beoordeelt.
Een student HRM gebruikt een AI-tool om cv’s te screenen. Ze merkt dat de tool systematisch kandidaten met buitenlandse namen lager scoort. Ze verdiept zich in het algoritme, bespreekt de bevinding met haar stagebedrijf en adviseert een alternatieve werkwijze waarbij AI slechts één van meerdere inputs is. Daarmee bevordert ze gelijke kansen en ethisch handelen.
Rijksoverheid. (2024). AI-verordening gids. Versie 1.0 – oktober 2024.
EPRS. (2022). AI bias and discrimination. European Parliament Research Service.
NOS. (2023). AI gebruikt foute data bij sollicitaties.
Mozilla Foundation. (2023). How to detect algorithmic manipulation.
AI-uitvoer: De tekst, afbeelding of andere vorm van inhoud die gegenereerd wordt door een AI-systeem zoals een chatbot of beeldgenerator.
Bronverificatie: Het controleren van informatie door na te gaan wie de bron is, wat het doel van de bron is, en of de inhoud overeenkomt met betrouwbare informatie.
Bias: Een systematische afwijking of vooroordeel in data of algoritmes, waardoor bepaalde groepen worden benadeeld of bevoordeeld.
Manipulatie: Het bewust beïnvloeden van het gedrag of de mening van gebruikers via AI-systemen, vaak zonder dat de gebruiker zich daarvan bewust is.
Automation bias: De neiging van mensen om de output van geautomatiseerde systemen (zoals AI) automatisch als correct te accepteren, zonder kritische afweging.
Hoog-risico AI: AI-systemen die volgens de Europese AI-verordening risico’s vormen voor veiligheid, gezondheid of fundamentele rechten en daarom aan strengere regels moeten voldoen.
Verantwoord gebruik: Het bewust en kritisch inzetten van AI, waarbij rekening wordt gehouden met betrouwbaarheid, ethiek en maatschappelijke gevolgen.
AI-verordening (AI Act): Europese wet die regels stelt aan het gebruik en de ontwikkeling van AI in de EU, met het doel mensen te beschermen tegen onveilige of oneerlijke toepassingen van AI.
Transparantieplicht: De verplichting om duidelijk te maken dat een gebruiker met een AI-systeem te maken heeft, zoals bij chatbots of generatieve AI.
Hallucinatie (bij AI): Het verschijnsel waarbij een AI overtuigende maar feitelijk onjuiste of verzonnen informatie genereert.
Deze toets bestaat uit 10 meerkeuzevragen en toetst of de deelnemer in staat is om AI-uitvoer en AI-toepassingen kritisch te analyseren en te beoordelen. De vragen zijn gebaseerd op realistische situaties die studenten in het hoger beroepsonderwijs kunnen tegenkomen bij het gebruik van AI in studie of praktijk.
De deelnemer kan informatiebronnen, ook gegenereerd door AI, analyseren op inhoud, herkomst en waarde.
De deelnemer kan AI-toepassingen evalueren op bruikbaarheid, ethiek en effectiviteit.
De deelnemer kan inhoud van AI-uitvoer kritisch bevragen en verifiëren.
De deelnemer kan bias en manipulatie herkennen in AI-systemen en verantwoord daarmee omgaan.