PrivacyTeam033 200 30 83

AI in het onderwijs

Zoals u wellicht weet is de AI-Act op 1 augustus 2024 in werking getreden en zal deze gefaseerd worden ingevoerd. De impact hiervan op onderwijsinstellingen hangt af van de mate waarin AI toepassingen worden gebruikt. Onderwijsinstellingen zullen voornamelijk de rol van gebruikersverantwoordelijke hebben en niet die van ontwikkelaar, tenzij je als onderwijsinstelling zelf AI-modellen wilt gaan trainen voor eigen doeleinden. Voor gebruikersverantwoordelijke gelden minder strikte regels dan voor ontwikkelaars. In dit artikel bespreken we wat u als onderwijsinstelling op dit moment moet doen om AI op een verantwoorde manier te gebruiken.

Verplichtingen en deadlines

De AI-Act brengt verschillende verplichtingen met zich mee waar je als gebruiker of ontwikkelaar aan moet voldoen. Hieronder vindt u de belangrijkste verplichtingen en deadlines:

1. Sinds 1 februari 2025 moeten medewerkers die AI-toepassingen gebruiken (zoals ChatGPT) of hiermee te maken krijgen (bijv. middels adaptieve leermiddelen) AI-geletterd (1) zijn. Dit betekent dat zij:

  • Basiskennis hebben van AI, inclusief de mogelijkheden en risico’s.
  • De werking van AI-systemen kunnen monitoren door menselijk toezicht.
  • AI-beslissingen kritisch kunnen beoordelen.

2. Vanaf 2 mei 2025 worden er sectorale praktijkcodes verwacht die helpen bij de uitvoering van de AI-Act. Hier zal waarschijnlijk Kennisnet een rol in gaan spelen.

3. Vanaf 1 augustus 2026 treden de verplichtingen voor hoog-risico AI-toepassingen in werking.

AI-toepassingen worden steeds meer geïntegreerd in het onderwijs, bijvoorbeeld in digitale leermiddelen, administratieve en ondersteunende systemen. Daarnaast kunnen leerkrachten en medewerkers AI-taalmodellen gebruiken zoals ChatGPT, Gemini of MS-365 Copilot voor lesvoorbereiding, ondersteuning of gebruik in de klas. Let op: Aan het gebruik van AI-taalmodellen zitten leeftijdsgrenzen. Het gebruik van ChatGPT bijv. voor leerlingen in de klas (<16 jaar) vereist ouderlijke toestemming. Daarnaast moeten onderwijsinstellingen zich realiseren dat er aan Copilot hoge resterende risico’s (2) kleven, waardoor de Copilot toepassing binnen de onderwijsinstelling niet mag worden gebruikt.

Voorbeelden Hoog-risico AI-toepassingen binnen het onderwijs:

In de AI-Act worden verschillende toepassingen genoemd die veelvuldig in de onderwijssector worden gebruikt en die vallen onder een Hoog-risico verwerking (3). Het gaat hier om de volgende toepassingen:

  • Systemen die gebruikt worden om de toegang, toelating of toewijzing van leerlingen te bepalen tot onderwijs.
  • Systemen die het passende onderwijsniveau voor leerlingen beoordelen en hierdoor een wezenlijk invloed hebben op het niveau van onderwijs en opleiding.
  • Systemen die ongeoorloofd gedrag detecteren tijdens toetsen of tests.
  • Systemen die leerresultaten evalueren en vervolgens het leerproces sturen (adaptief leren) bijv. Snappet, Gynzy, LessonUp en Rekentuin.

Deze systemen worden als hoog-risico geclassificeerd, omdat ze bepalend kunnen zijn voor de onderwijs- en beroepsloopbaan van een leerling, en daardoor invloed kunnen hebben op zijn vermogen om in zijn levensonderhoud te voorzien.

Verplichtingen voor gebruikersverantwoordelijke van hoog-risico AI-systemen

Zoals eerder vermeld, zullen onderwijsinstellingen voornamelijk de rol van gebruikers-verantwoordelijke vervullen. Vanaf 1 augustus 2026 moeten onderwijsinstellingen die hoog-risico AI-systemen gebruiken voldoen aan de volgende regels:

  • Zorgen voor een juiste implementatie en gebruik volgens instructies van de leverancier.
  • Er moet sprake zijn van menselijk toezicht op AI-uitkomsten, met de mogelijkheid om in te grijpen.
  • De onderwijsinstelling moet duidelijk communiceren over het gebruik van AI in de lesomgeving en ondersteunende AI-systemen, vooral bij impactvolle beslissingen.
  • Uitlegbaarheid en transparantie: Leerkrachten en medewerkers moeten begrijpen hoe AI-systemen werken.
  • Er dient een risicobeoordeling uitgevoerd te worden van de impact van AI binnen de schoolorganisatie.
  • De onderwijsinstelling moeten de naleving van de AI-Act kunnen aantonen bij audits en inspecties.
  • Menselijke controle op beslissingen: AI mag niet de enige beslisser zijn bij kritieke processen.

Wat kun je als onderwijsinstelling nu doen?

1. Inventariseer kennis en behoeften van leerkrachten en medewerkers op het gebied van AI.

  • Beoordeel het AI-geletterdheidsniveau van leerkrachten en medewerkers.
  • Maak gebruik van de volgende informatiebronnen, zoals Artificial intelligence - Kennisnet.

2. Bespreek het huidige gebruik van AI-toepassingen:

  • Welke AI-toepassingen worden al gebruikt in het klaslokaal of door leraren? (Bijv. ChatGPT, MS 365 Copilot of Gemini). Onderneem actie als het gebruik niet is toegestaan. Je loopt hiermee daadwerkelijk een groot risico.
  • Welke AI-toepassingen worden door andere medewerkers gebruikt bij de uitvoering van hun werkzaamheden of maken deel uit van gebruikte applicaties?
  • Welke digitale leermiddelen maken gebruik van algoritmes? (Bijv. Snappet, Gynzy, LessonUp, Rekentuin).
  • Let op: Het gebruik van DeepSeek wordt ten zeerste afgeraden en MS365 Copilot dient niet gebruikt te worden op advies van SIVON/Surf.

3. Maak afspraken en beleid over het gebruik van AI.

  • Bespreek hoe je als onderwijsinstelling wilt omgaan met AI-toepassingen.
  • Zorg ervoor dat iedereen zich bewust is van de risico’s en in staat is AI-uitkomsten op de juiste manier te beoordelen.
  • Stel gedragsregels op voor het gebruik van gevoelige bedrijfsinformatie en persoonsgegevens, en begin met het opstellen van een AI-beleid.

4. Gebruik beschikbare leidraden, zoals:

https://www.kennisnet.nl/artificial-intelligence/ai-in-de-school-deze-stappen-zet-je-eerst/

Vragen?

Mocht u vragen hebben of meer willen weten over het gebruik van AI binnen het onderwijs, neem dan gerust contact met ons op. We denken graag met u mee en ondersteunen waar nodig bij de implementatie en het beleid rondom AI.

Voetnoten:
(1) Overweging 20 - VERORDENING (EU) 2024/1689 VAN HET EUROPEES PARLEMENT EN DE RAAD van 13 juni 2024 tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie en tot wijziging van de Verordeningen (EG) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 en (EU) 2019/2144, en de Richtlijnen 2014/90/EU, (EU) 2016/797 en (EU) 2020/1828
(verordening artificiële intelligentie).
(2) Zie: SURF raadt gebruik van Microsoft 365 Copilot vooralsnog af vanwege privacyrisico’s - SIVON
(3) Overweging 56 - VERORDENING (EU) 2024/1689 VAN HET EUROPEES PARLEMENT EN DE RAAD van 13 juni 2024 tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie en tot wijziging van de Verordeningen (EG) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 en (EU) 2019/2144, en de Richtlijnen 2014/90/EU, (EU) 2016/797 en (EU) 2020/1828
(verordening artificiële intelligentie)

 

Naar het overzicht