De kansen en risico’s van het gebruik van openbare AI-tools op het werk

De kansen en risico’s van het gebruik van openbare AI-tools op het werk cover
De kansen en risico’s van het gebruik van openbare AI-tools op het werk cover

In het huidige digitale tijdperk gebruiken steeds meer bedrijven en medewerkers AI-technologie om hun productiviteit en efficiëntie te vergroten. Als werkgever is het essentieel om niet alleen de technologische voordelen van AI te omarmen, maar ook de impact ervan op je medewerkers te begrijpen. Hoe zorg je ervoor dat AI op een verantwoorde en effectieve manier wordt ingezet, met oog voor de rechten en ontwikkeling van je medewerkers? In deze blogreeks bespreken we de toepassingen en uitdagingen van AI in de werkomgeving. In dit deel: (on)gecontroleerd AI-gebruik.

De verborgen gevaren van openbare AI-tools

AI-tools zoals ChatGPT, Perplexity en Claude bieden ongekende mogelijkheden voor bedrijven. Ze versnellen processen, besparen kosten en stimuleren creativiteit. Wat deze tools zo aantrekkelijk maakt, is de capaciteit om menselijke gesprekken te begrijpen en realistisch na te bootsen.

Zo kunnen medewerkers ChatGPT gebruiken om snel samenvattingen van lange documenten te genereren en te brainstormen, Perplexity inzetten voor het opzoeken van relevante informatie of Claude gebruiken om creatieve content, zoals blogs of marketingteksten, te schrijven. Deze en andere openbare AI-tools stellen medewerkers in staat taken te automatiseren, tijd te besparen en nieuwe ideeën sneller te ontwikkelen.

Een tip: leer hoe je goede prompts schrijft.

Hoewel deze tools de efficiëntie kunnen verhogen, brengen ze ook risico's en uitdagingen met zich mee:

  1. Risico op datalekken en onbedoelde gegevensverwerking: Wanneer medewerkers bedrijfs- en persoonsgegevens invoeren in openbare AI-tools, is het onduidelijk wat er met deze data gebeurt. Veel servers staan in het buitenland, waar andere privacyregels gelden.
  2. Gevaar voor intellectueel bedrijfseigendom: Ingevoerde bedrijfsgeheimen of innovatieve ideeën worden door de AI-providers opgeslagen en kunnen zelfs hergebruikt worden. Niet iets om lichtzinnig over te denken! Lees de omvangrijke pagina’s met kleine lettertjes vooral.
  3. Onduidelijkheid bij medewerkers: Zonder duidelijke kaders weten medewerkers vaak niet wat wel of niet is toegestaan bij het gebruik van AI-tools. Dit kan leiden tot verkeerd gebruik, zoals het delen van gevoelige gegevens of het blind vertrouwen op AI-resultaten.

Strategieën voor verantwoord AI-gebruik

Als werkgever kun je de volgende stappen zetten om verantwoord gebruik van AI-tools door medewerkers te waarborgen:

  1. Ontwikkel een duidelijk AI-beleid: Schrijf richtlijnen voor het gebruik van AI-tools binnen het bedrijf. Bepaal welke tools wel en niet zijn toegestaan en hoe medewerkers deze veilig kunnen inzetten, denk aan bedrijfsspecifieke instructies. Geef aan welke privacy- en gegevensbeschermingsmaatregelen van toepassing zijn. Neem dit beleid op in het personeelshandboek of de arbeidsovereenkomsten.
  2. Creëer bewustwording en investeer in AI-kennis: Informeer medewerkers over de gevaren van ongecontroleerd AI-gebruik en de impact hiervan. Stimuleer het vergroten van AI-kennis van de medewerkers, door trainingen en veilig gebruik.
  3. Implementeer beveiligingsmaatregelen: Zet firewalls en andere technische oplossingen in om niet-goedgekeurde tools te blokkeren.
  4. Stimuleer transparantie: Moedig medewerkers aan om hun AI-gebruik te melden, ervaringen uit te wisselen en eventuele zorgen kenbaar te maken.
  5. Investeer in AI-oplossingen: Overweeg om AI-tools te ontwikkelen die speciaal afgestemd zijn op de behoeften en veiligheidsvereisten van jouw bedrijf.

En hoe nu verder?

Vanaf februari 2025 geldt de eis dat organisaties voldoende AI-kennis in huis hebben (Europese AI Act). Medewerkers moeten het benodigde kennisniveau hebben, afhankelijk van hoe de AI-systemen in hun werk worden ingezet en welke impact deze systemen kunnen hebben.

Weer een verplichte training? Nee, het gaat erom dat bedrijven en medewerkers zich bewust worden van het gebruik van AI en ook welke invloed AI gegenereerde antwoorden kunnen hebben. Zeker als deze antwoorden blindelings worden overgenomen.

Bijvoorbeeld, een HR-medewerker of recruiter moet begrijpen dat AI-systemen vooroordelen kunnen bevatten, wat sollicitanten onterecht kan bevoordelen of benadelen. Een schadebehandelaar moet weten dat AI, op basis van historische cijfers, onterecht schadeclaims van bepaalde groepen kan afwijzen door bias in de trainingsgegevens.

AI zal binnenkort een onmisbaar onderdeel zijn van ons dagelijks leven en de bedrijfsvoering (of is dat in sommige omgevingen al). Deze technologie biedt enorme kansen voor innovatie en efficiëntie, maar brengt ook uitdagingen met zich mee. Zonder een zorgvuldig beleid kunnen medewerkers onbewust gevoelige gegevens delen. Een goede balans tussen beleid en gebruik is daarom essentieel.

Door een proactief beleid, het vergroten van bewustwording, kennis en het bieden van veilige alternatieven kan AI optimaal worden ingezet en tegelijkertijd risico’s worden beperkt.

Waar kan Het WerkLab je mee helpen?

Wil je meer weten of heb je vragen? Neem gerust contact met ons op. We helpen je graag op weg met advies of bij het opstellen van een AI-beleid.