Trend Micro presenterar idag en ny undersökning som varnar för att AI-system kan generera olika resultat beroende på geografi, språk, censur och begränsningar av datasuveränitet – trots att de fått samma prompt. Företag som använder stora språkmodeller (LLM) utan ordentlig styrning, verifiering och övervakning riskerar därmed att utsätta sig för juridiska, ekonomiska och förtroendemässiga skador.
Konsekvenserna kan bli betydande, inte minst för den offentliga sektorn. Undersökningen baseras på tusentals upprepade tester på nästan 100 modeller och belyser varför AI som används inom offentlig förvaltning, kommunikation eller beslutsstöd måste regleras, verifieras och kontinuerligt testas, särskilt när resultaten kan tolkas som officiella riktlinjer.
– Våra tester visar att AI-system kan återge inkonsekvent eller gammal information i politiskt känsliga, regulatoriska och medborgarorienterade scenarier, säger Martin Fribrock, Sverigechef på Trend Micro. Det ökar risken att felaktig information presenteras och att förtroendet för företag och myndigheter urholkas när AI-resultatet tas för sant utan ordentlig verifiering.
– Många organisationer antar att AI fungerar som traditionell programvara, där samma indata ger samma utdata, fortsätter Martin Fribrock. Vår rapport visar att detta antagande inte stämmer. Stora språkmodeller kan ändra sina svar baserat på region, språk och säkerhetspolicyer. Företag behöver betrakta det som en högriskberoende, med tydlig styrning, ansvar och mänsklig verifiering för alla användarorienterade utdata. Det innebär också att man måste kräva transparens från AI-leverantörer om hur modellerna fungerar, vilka data de förlitar sig på och var begränsningar tillämpas.
AI kan absolut driva innovation och effektivitet, men bara när det används med en tydlig förståelse för dess begränsningar och med kontroller som återspeglar hur dessa system beter sig i verkliga miljöer.
Ta del av rapporten Risks of Unmanaged AI Reliance: Evaluating Regional Biases här.