Text: Joakim Sundberg, Fastly
När företag blir allt snabbare att lansera nya AI-drivna verktyg står vi som arbetar med cybersäkerhet inför en ny utmaning: att försvara en ständigt växande och samtidigt föränderlig attackyta. Hoten kommer från flera håll samtidigt och lösningen ligger i att låta utvecklare och säkerhetsteam samarbeta tidigare. Det skriver Joakim Sundberg på det globala IT-företaget Fastly.
Säkerhetschefer är överlag optimistiska till de nya AI-verktygen, men verkligheten är att AI samtidigt kommer att öka attackytan – markant. Visst kommer vi som jobbar med säkerhet att få vissa fördelar av den pågående AI-utvecklingen, men den ökade attackytan ger i slutändan angriparna ett övertag som inte går att bortse från.
Skugg-AI öppnar dörrar för angriparna
De AI-verktyg som företag nu rullar ut har höga behörigheter och är djupt integrerade i företagens system. Om en attack lyckas kan konsekvenserna därför bli allvarliga. Chefer måste därför prioritera säkerheten i AI-infrastrukturen. Det inkluderar bättre försvar, samarbete mellan teamen och verktyg för att få kontroll över var AI används i företaget. Ett stort problem är att de AI-tjänster som medarbetare använder på egen hand utan att IT-avdelningen har koll på dem, så kallad skugg-AI. Dessa skapar nya sårbarheter som angripare kan utnyttja. All åtkomst måste loggas och följa principen om minsta möjliga behörighet.
Svårt att skilja goda agenter från onda botar
En annan stor utmaning är att AI-botar blir vanligare och förändrar hur internet fungerar. Snart kommer dessa inte bara att läsa och samla information, utan också agera åt oss när vi besöker sajter och använder tjänster online. När webbplatser och system inte längre kan skilja på riktiga användare och AI-agenter fungerar inte de normala säkerhetslösningarna. Skadliga bot-attacker blir svårare att upptäcka och det blir krångligare att filtrera bort skadlig trafik utan att samtidigt blockera den nyttiga bot-trafik som företag faktiskt behöver.
Säkra genom att bygga in skydd från början
Det är de organisationer som lyckas få utvecklare och säkerhetsteam att jobba nära varandra som kommer att vinna tävlingen om att utveckla och lansera AI-verktyg. Utvecklarna är pressade att innovera och få ut AI snabbt, medan säkerhetsteamen ska hitta och fixa säkerhetsproblem innan lansering. När dessa samarbetar från början kan de bygga in rätt skydd direkt och lösa potentiella säkerhetshål innan de uppstår. Det skapar ett säkrare och mer pålitligt AI-ekosystem, där innovation och säkerhet går hand i hand.
2026 blir ett avgörande år för AI-säkerhet. De företag som förstår att säkerhet måste byggas in från början, inte läggas till i efterhand, kommer att ha bäst förutsättningar att lyckas i den AI-drivna framtiden.
BIld: Dom Ide