SVG Image
< Terug naar nieuws

9 september

Meertalige organisaties riskeren inconsistente AI-antwoorden

AI-systemen geven niet altijd dezelfde antwoorden in verschillende talen. Uit onderzoek van CWI en partners blijkt dat Nederlandse multinationals hierdoor onbewust risico’s lopen, van HR tot klantenservice en strategische besluitvorming.

Voor multinationals klinkt één AI-systeem dat in meerdere talen inzetbaar is logisch en efficiënt. Toch wijst nieuw onderzoek van het Centrum Wiskunde & Informatica (CWI) op een verborgen risico: AI-antwoorden blijken afhankelijk van de taal waarin een gebruiker communiceert. Onderzoeker Davide Ceolin, verbonden aan de Human-Centered Data Analytics groep van CWI en tevens docent aan de Vrije Universiteit Amsterdam, toont samen met internationale collega’s aan dat dezelfde modellen politieke en zakelijke adviezen verschuivend formuleren, afhankelijk van de taal.

 

Het onderzoek testte vijftien AI-modellen met de Political Compass Test en vond aanzienlijke verschillen: waar GPT-4o in het Engels economisch links scoorde, gaf dezelfde test in het Chinees een centrum-rechts profiel. Zulke verschillen hebben directe gevolgen voor bedrijven die AI inzetten bij personeelsselectie, klantenservice of compliance.

 

Volgens Ceolin kan dit leiden tot systematische vooroordelen en reputatierisico’s. Hij adviseert organisaties hun systemen te testen met persona-based prompting, waarbij scenario’s in verschillende talen gecontroleerd worden. Ook governance-structuren die bias expliciet meenemen zijn volgens de onderzoekers noodzakelijk.

 

De problematiek is geen tijdelijke hapering, maar een structureel vraagstuk dat internationale aandacht trekt. Ceolin en zijn team werken onder meer samen met het Franse INRIA. Voor organisaties betekent dit dat AI-governance moet worden uitgebreid met aandacht voor linguïstische consistentie, om te voorkomen dat één systeem meerdere ‘persoonlijkheden’ blijkt te hebben.

 

Lees het volledige artikel op ICT Magazine:
Meertalige organisaties riskeren inconsistente AI-antwoorden.