Nyheter

Truecaller: ”AI-teknologin öppnar nya slagfält i kriget mot cyberbrottsligheten”

Som alla tekniska framsteg innebär den snabba AI-utvecklingen både nya möjligheter och nya hot – inte minst inom cybersäkerhet.

– Bedragare och andra cyberbrottslingar är traditionellt väldigt skickliga på att ta till sig och tillämpa nya tekniska möjligheter. Men AI har också potential att revolutionera säkerhetsarbetet, och stärka skyddet för personlig integritet, säger Baris Färnman, CISO  och VP Information Security på Truecaller, vars globala tjänst bidrar till att skydda konsumenter och näringsliv från bedrägerier och andra oönskade samtal.

Det finns redan många praktiska exempel på hur AI snabbt börjar används av kriminella aktörer. En avancerad chatbot kan snabbt skapa ett effektivt spam-meddelande på korrekt engelska, med ett trovärdigare resultat än de skräppostmeddelanden nästan alla snabbt kan avslöja och rensa bort. Deepfake-teknik för att skapa falska bilder och videor blir snabbt mer realistiska, även om det i de flesta brett tillgängliga tjänster finns medvetet inbyggda svagheter för att kunna avslöja bedrägerier, till exempel när det gäller ansikten och händer.

Ett område som Truecaller håller extra noga koll på är syntetiska AI-röster som har förmågan att härma en verklig person. Fenomenet är inte så omskrivet ännu, men är en växande trend globalt, mot företag, men även mot privatpersoner. Röst från exempelvis sociala medier kan samlas in för att genomföra riktade bedrägerier.

– Om du får ett sms från någon som utger sig för att vara din kollega, din partner eller ditt barn som akut behöver din hjälp med pengar eller att utföra en handling, är det oftast ganska lätt att avslöja det. Men om du får ett samtal med en röst som låter snarlik den som det utgör sig för att vara blir tröskeln för att bli lurad mycket lägre. Även om vi är medvetna om att tekniken utvecklas snabbt så har vi inte utsatts för det tidigare.

– Det är också svårt för de flesta att sätta sig in i tanken att man själv kan vara ett utvalt mål för ett bedrägeri – man kanske inte känner sig tillräckligt viktig. Men AI kortar ner tiden enormt mycket för att förbereda och genomföra även avancerade bedrägerier mot många enskilda personer på kort tid, säger Baris Färnman.

Även många av motmedlen mot AI-baserade attacker är beroende av tekniken. Ett exempel är lösningar som utvecklas för att analysera och avslöja AI-genererade videor och texter, och här pågår en digital kapprustning där båda sidor försöker ha den mest avancerade tekniken.

AI-analys kan också till exempel användas för att identifiera avvikelser i beteenden hos användare och transaktioner på nätet. Genom att jämföra användarnas normala beteende med typiska beteenden kan systemet upptäcka avvikelser som kan tyda på bedrägeriförsök och därmed stoppa dem innan de inträffar. Maskininlärningsalgoritmer kan också utifrån stora datamängder identifiera och kartlägga mönster för att hitta och flagga tillvägagångssätt.

Verktygen utvecklas snabbt, men kan ibland vara för effektiva.

– Falska positiva resultat är en utmaning, där tekniken identifierar en aktivitet som bedräglig fastän den inte är det. Det kan i sin tur leda till tid som läggs på utredningar i onödan, eller att legitima aktiviteter blockeras av säkerhetsverktygen. En rapport från Ponemon Institute visade att upp till 45% av bedrägerialarmen som genererats av AI-verktyg var falska positiva resultat, säger Baris Färnman.

En annan potentiell användning av AI-teknik för att förebygga bedrägerier är att övervaka sociala medier och andra plattformar för att identifiera hot och bedrägeriförsök. Men den tekniken måste användas ansvarsfullt och försiktigt, menar Baris Färnman:

Det finns en stor och befogad oro för att användningen av AI-teknik, om den utförs på fel sätt, kan kränka personlig integritet, särskilt när tekniken används för att övervaka och samla in data om användare. Det blir extra relevant med tanke på den snabba tillväxten av digitala assistenttjänster och smarta hem-lösningar. Det blir väldigt mycket information som kan övervakas, och mycket av den bör inte övervakas.”