Kunstmatige intelligentie (AI) moet niet zomaar gebruikt worden om te meten of iemand blij, boos, verdrietig of gestrest is.
Unsplash/Andre Hunter

Daarvoor waarschuwt de Autoriteit Persoonsgegevens (AP).

Volgens de privacytoezichthouder is het twijfelachtig of de systemen in staat zijn emoties te herkennen, en kunnen ze leiden tot het inperken van vrijheden en het schenden van privacy.

De AP heeft onderzoek gedaan naar systemen die volgens de makers emoties kunnen herkennen aan iemands stem of gezicht. Ze worden onder meer gebruikt bij klantenservices en in de zorg. De waakhond concludeert dat het niet duidelijk is hoe de systemen werken. Soms horen ze dat iemand snel en luid praat, en concludeert de AI dat iemand dan boos is.

Die conclusie klopt echteniet voor iedereen, aldus de AP. Zo kunnen mensen met autisme anders reageren dan de technologie verwacht. Bij een andere huidskleur kan de technologie tot een andere conclusie komen.

Hoe kun je AI inzetten om leertrajecten te personaliseren, content sneller te ontwikkelen en coaching schaalbaar te maken? In deze praktijkgerichte training ontdek je hoe tools als ChatGPT en Copilot jouw L&D-werkzaamheden kunnen transformeren.

En niet iedereen die lacht, doet dat uit blijdschap. “Systemen gebruiken voor iedereen dezelfde indeling van emoties. Maar emoties kunnen niet alleen tussen culturen verschillen, maar ook tussen individuen”, zegt AI-inspecteur Ruth Ruskamp.

De toezichthouder wil dat organisaties kritisch nadenken of ze emotieherkenning wel willen gebruiken. Ook moeten ze er open en eerlijk over zijn, en moeten ze beseffen dat de systemen beperkingen kennen.

De AP keek onder meer naar draagbare apparaten, zoals smartwatches. Die kunnen bijvoorbeeld meten of iemand stress ervaart. Op zich is dat heel nuttig, zegt de toezichthouder, maar de werkelijkheid is niet zo simpel als het beeld dat het apparaat je geeft.

Bedrijven moeten beter registreren welke algoritmes ze gebruiken

“Stress wordt in een app weergegeven in duidelijke diagrammen met categorieën en heldere scores. Zo lijkt het betrouwbaar. Ook lijkt het objectief, terwijl de subjectieve kant van stress ook erg belangrijk is”, aldus de AP.

De autoriteit heeft ook onderzocht hoe de overheid omgaat met AI. De overheid ligt op een van de negen terreinen op koers, namelijk als het gaat om het creëren van vertrouwen in en kennis over algoritmes onder de bevolking.

Op enkele gebieden is de voortgang onvoldoende. Zo worden incidenteniet goed bijgehouden. “We zien te weinig. Incidenten komen nou eenmaal voor, dat gaan we niet voorkomen. Maar als het gebeurt, moeten we lessen leren en zorgen dat we die delen”, zegt coördinerend AI-inspecteur Gerald Hopster. De toezichthouder wil ook dat overheden, bedrijven en andere organisaties beter registreren welke algoritmes ze gebruiken.

LEES OOK: Verplichte kennis over AI ontbreekt bij HR en medewerkers: privacy-uitglijders liggen op de loer