De integratie van AI-systemen en -tools in het dagelijks leven en op de werkvloer groeit snel. Van chatbots die HR-vragen beantwoorden tot AI-systemen voor werving en selectie: AI-systemen bieden tal van kansen, maar brengen ook juridische uitdagingen met zich mee. Lees vooral onze eerdere blogs over de risico’s van openbare AI-tools en AI-tools en disfunctioneren. In deze blog bespreken we de EU AI-Verordening. Volgens de Europese Commissie: “het allereerste alomvattende rechtskader inzake AI ter wereld. Het doel van de regels is om betrouwbare AI in Europa te bevorderen.”. Wat houdt deze nieuwe regelgeving in en welke impact heeft dit op jouw organisatie? In deze blog leg ik de kern van de AI-Verordening uit.
De AI-Verordening: risicogericht toezicht
De AI-Verordening, van kracht sinds augustus 2024, legt een risicogerichte aanpak vast. Dit betekent dat hoe groter het risico voor de samenleving en burgers, hoe strenger de regels voor het gebruik van AI-systemen en tools. De verordening maakt onderscheid tussen AI-systemen met een onaanvaardbaar risico, hoog risico en beperkt of minimaal risico.
Verbod bij onaanvaardbaar risico (verboden sinds februari 2025):
Systemen die fundamentele rechten van individuen bedreigen, worden simpelweg verboden. Denk aan sociale kredietscoring, waarbij burgers punten krijgen voor hun gedrag, of real-time gezichtsherkenning door overheden in openbare ruimtes. Deze grens is hard: geen uitzonderingen en geen compromissen. Deze AI-systemen zijn sinds februari 2025 verboden.
Strenge eisen voor hoog-risicosystemen:
Hoog risico AI-systemen hebben strikte verplichtingen omdat ze fundamentele rechten en levensonderhoud kunnen beïnvloeden. Een AI-systeem dat bepaalt of iemand in aanmerking komt voor een hypotheek of lening, valt onder hoog risico omdat het directe gevolgen heeft voor financiële stabiliteit en levensonderhoud. Als het systeem fouten maakt of bevooroordeeld is, kan dit leiden tot onterechte afwijzingen en ongelijkheid. Zonder menselijk toezicht en een verplicht systeem voor kwaliteitsbeheer mogen deze systemen niet worden gebruikt. Ontwikkelaars moeten transparant zijn welke data hun systemen gebruiken en hoe risico’s worden beheerst, dit wordt vanaf 2026 gecontroleerd.
Transparantie voorop bij beperkt of laag risico:
Ook bij alledaagse toepassingen – van werkplekautomatisering tot consumentenproducten – stelt Europa duidelijke kaders. Eerlijkheid, non-discriminatie en transparantie staan centraal. Het gaat vooral om AI-systemen die bedoeld zijn om met personen in contact te komen, zoals chatbots. En AI-tools die zelf inhoud maken, zoals teksten en beeldmateriaal (Generatieve AI, ChatGPT, Perplexity etc.). Het gebruik door organisaties is toegestaan maar wees transparant. Ook hier geldt dat op de transparantieverplichting vanaf 2026 wordt gecontroleerd.
AI-systemen en het personeelsdossier
De AI-Verordening richt zich nadrukkelijk op het gebruik van AI-systemen in de werksfeer. Niet zonder reden: deze systemen hebben directe invloed op cruciale carrière momenten. Van de eerste sollicitatie en promotiekansen tot prestatiebeoordeling en besluiten over ontslag, het gebruik van AI-systemen voor het maken van deze beslissingen kan het leven van de medewerker fundamenteel beïnvloeden.
Deze HR-gerelateerde AI-systemen vallen daarom onder de categorie 'hoog risico'. Deze AI-systemen beïnvloeden niet alleen carrièrekansen, maar versterken ook het risico op bestaande discriminatiepatronen. Bijvoorbeeld een AI-tool die automatisch cv’s en gesprekken analyseert en kandidaten selecteert voor de volgende ronde in een sollicitatieprocedure. Het gebruik van deze AI-systemen als hulpmiddel is toegestaan. Uiteindelijk zal een besluit door een HR-directeur/manager genomen moeten worden.
Er geldt een belangrijke nuance: systemen die uitsluitend data structureren, zoals voor HR-rapportages, en geen significante impact hebben op gezondheid, veiligheid of grondrechten van medewerkers, vallen buiten deze hoge risicocategorie.
AI-geletterdheid: voor wie geldt dit?
Volgens de AI-Verordening moeten aanbieders van AI-systemen én organisaties (als gebruikers) ervoor zorgen dat medewerkers en externe personen die namens hen AI-systemen gebruiken, voldoende AI-geletterd zijn. AI-geletterdheid omvat de essentiële vaardigheden, kennis en inzicht die nodig zijn voor het werken met AI-systemen. De mate van vereiste AI-geletterdheid schaalt mee met het risico: hoe groter de impact op fundamentele rechten, hoe uitgebreider de kennis moet zijn.
De medewerker die Copilot gebruikt voor het opzetten van een eenvoudige Excel-formule heeft minder diepgaande AI-geletterdheid nodig dan de recruiter die een AI-systeem inzet voor het screenen van sollicitanten. Een klantenservicemedewerker die een AI-gestuurde kennisbank raadpleegt heeft een andere verantwoordelijkheid dan de compliance officer die AI gebruikt voor fraudedetectie.
Weer een verplichte training? Nee, het gaat erom dat bedrijven en medewerkers zich bewust worden van het gebruik van AI-systemen en ook welke invloed AI-gegenereerde antwoorden kunnen hebben op de besluitvorming. Zorg daarom voor een passend niveau per functie, zodat elke medewerker precies weet wat de grenzen en mogelijkheden zijn van de AI-systemen die zij dagelijks gebruiken.
Vergeet de ondernemingsraad niet!
Organisaties die AI-systemen willen implementeren op de werkvloer moeten niet vergeten om de ondernemingsraad of personeelsvertegenwoordiging in dit proces mee te nemen. Medewerkers moeten op de hoogte worden gesteld van de implementatie en het gebruik van AI-systemen. De ondernemingsraad of personeelsvertegenwoordiging moet om advies of instemming worden gevraagd:
- Adviesrecht: Dit speelt een rol bij substantiële investeringen, technologische innovaties en ingrijpende wijzigingen in werkprocessen. Wanneer het AI-systeem de dagelijkse werkzaamheden significant beïnvloedt, moet de ondernemingsraad hierbij betrokken worden en om advies worden gevraagd.
- Instemmingsrecht: Dit is vereist wanneer een AI-systeem bestaande personeelsregelingen wijzigt. Denk aan hoog risico AI-gestuurde beoordelingssystemen, functiewaarderingssystemen of selectieprocedures bij sollicitaties.
Hoe kan jij hiermee aan de slag?
- Analyseer de AI-systemen: Welke AI-systemen of tools worden gebruikt binnen jouw organisatie? In welke risicogroep vallen deze systemen en tools? En welke maatregelen zijn nodig om aan de AI-verordening te voldoen?
- Ontwikkel een duidelijk AI-beleid: Schrijf richtlijnen voor het gebruik van AI-systemen of tools binnen het bedrijf. Bepaal welke systemen en tools wel en niet zijn toegestaan en hoe medewerkers deze veilig kunnen inzetten, denk aan bedrijfsspecifieke instructies. Geef aan welke privacy- en gegevensbeschermingsmaatregelen van toepassing zijn. Neem dit beleid op in het personeelshandboek of de arbeidsovereenkomsten. Betrek de ondernemingsraad bij deze ontwikkelingen.
- Creëer bewustwording en investeer in AI-kennis: Informeer medewerkers over de gevaren van ongecontroleerd AI-gebruik en de impact hiervan. Stimuleer AI-kennis door middel van trainingen en duidelijke richtlijnen voor veilig gebruik.. Dit is verplicht vanaf februari 2025.
- Implementeer beveiligingsmaatregelen en transparantie: Gebruik firewalls en andere beveiligingsmaatregelen om ongeautoriseerde AI-systemen te blokkeren. Wees transparant over hoe en welke data de AI-systemen verwerken. Heb je een AI-chatbot? Vermeld dit.
- Stimuleer transparantie: Moedig medewerkers aan om hun AI-gebruik te melden, ervaringen uit te wisselen en eventuele zorgen kenbaar te maken.
- Investeer in AI-oplossingen: Overweeg om AI-systemen te ontwikkelen die speciaal afgestemd zijn op de behoeften en veiligheidsvereisten van jouw bedrijf.
Waar kan Het WerkLab je mee helpen?
Wil je meer weten of heb je vragen? Neem gerust contact met ons op. We helpen je graag op weg met advies of bij het opstellen van een AI-beleid.