Chatbot mag, goed opgeleide medewerker blijft verplicht

Steeds meer organisaties zetten AI-chatbots in om klantvragen te beantwoorden of service te automatiseren. Dat kan efficiënt zijn, maar bedrijven mogen menselijk contact niet volledig vervangen. Er moeten medewerkers beschikbaar blijven om vragen van klanten te beantwoorden en eventuele problemen op te lossen die de chatbot niet aankan. Werkgevers moeten hun personeel trainen voor het verantwoord gebruik van AI. Vanaf 2 augustus 2026 gaan bovendien nieuwe regels gelden.

Dat stellen de toezichthouders Autoriteit Persoonsgegevens (AP) en de Autoriteit Consument & Markt (ACM).

Wat blijft verplicht?
Volgens de toezichthouders gelden er nu al verplichtingen vanuit het consumentenrecht: bedrijven moeten klanten rechtstreeks, effectief en juist te woord staan. Dat betekent dat er altijd een mogelijkheid moet zijn om een medewerker te spreken — dus niet alleen een digitale assistent.

De Europese Digital Services Act (DSA) verplicht online platforms al tot deze transparantie. De aankomende Digital Fairness Act moet diezelfde duidelijkheid gaan geven voor andere bedrijven, zoals dienstverleners en organisaties met klantenservice via chat. Deze regelingen moeten deels nog worden verwerkt in Nederlandse wetgeving, maar werkgevers moeten hun werknemers hier wel op voorbereiden.

Nieuwe AI-verplichtingen vanaf augustus 2026
Organisaties die AI-systemen ontwikkelen of gebruiken, moeten er sinds 2 februari 2025 al voor zorgen dat hun werknemers 'AI-geletterd' zijn. Zij moeten voldoende kennis hebben om op een verantwoorde manier met AI te werken. Vanaf 2 augustus 2026 gaan nog aanvullende regels gelden vanuit de AI-verordening (AI Act). Organisaties die AI-chatbots inzetten, moeten dan:

  • duidelijk aangeven dat de gebruiker met een geautomatiseerd systeem communiceert;
  • transparantie bieden over hoe de chatbot werkt;
  • mogelijk maken om over te schakelen naar menselijk contact.

De AP en ACM pleiten er bovendien voor om dit aan te vullen met ontwerpregels voor chatbots, zodat deze herkenbaar, eerlijk en toegankelijk zijn — en mensen niet misleiden of vastzetten in een geautomatiseerd proces.

Toenemend aantal klachten
Uit consumentenonderzoek van de ACM blijkt dat het ontbreken van menselijk contact één van de grootste ergernissen is bij digitale klantenservices. Klachten gaan vooral over:

  • geen medewerker kunnen bereiken;
  • onduidelijkheid of men met een chatbot of mens spreekt;
  • onjuiste of ontwijkende antwoorden;
  • chatbots die het probleem niet oplossen, maar doorverwijzen zonder actie.

Extra aandacht voor privacy en dataveiligheid
De AP wijst daarnaast op privacyrisico’s bij AI-chatbots. Omdat generatieve AI-systemen worden getraind op grote hoeveelheden data, bestaat het risico dat er vertrouwelijke informatie kan worden ontsloten of misbruikt. Kwaadwillenden kunnen proberen een chatbot meer informatie te laten geven dan nodig, wat kan leiden tot datalekken of misbruik van persoonsgegevens.

Wat betekent dit voor HR en werkgevers?

Voor organisaties — en zeker voor HR-afdelingen die betrokken zijn bij digitalisering en compliance — betekent dit:

  • Evalueer het huidige gebruik van chatbots in klant- of medewerkerservice.
  • Als dat nog niet is gebeurd: train medewerkers en spijker hun kennis geregeld bij voor het verantwoord gebruik van AI.
  • Controleer of medewerkers altijd bereikbaar zijn bij escalatie of keuze van de gebruiker.
  • Informeer gebruikers duidelijk wanneer een gesprek met een chatbot plaatsvindt.
  • Borg privacy en dataveiligheid in het ontwerp én gebruik van AI-oplossingen.
  • Bereid je voor op de AI-verordening per 2026, inclusief documentatie, transparantie en toezicht vanuit de organisatie.


Kunstmatige in telligentie: Model AI-richtlijn AI op het werk

 

Doorsturen:

Neem een abonnement en download 477 exclusieve vakartikelen en 317 actuele HR-instrumenten!

Wilt u als HR-professional ook niks meer missen op uw vakgebied?