AI har snabbt blivit en ny, effektiv motor för näringslivet. Men utan styrning och säkerhet riskerar det att bli till en tickande bomb, enligt en ny rapport från Palo Alto Networks. Redan i dag kan 14 procent av alla säkerhetsincidenter kopplas till generativ AI.
En omfattande undersökning från IT-säkerhetsföretaget Palo Alto Networks kartlägger hur användningen av generativ AI utvecklas bland företag världen över. Den nya rapporten State of Generative AI 2025 visar att trafik från generativ AI ökade med hela 890 procent under 2024 – ett uttryck för teknikens snabba mognad och dess löfte att öka effektiviteten i praktiskt taget alla branscher.
Men det finns en hake, för AI:s framväxt åtföljs av en ny våg av risker. Rapporten visar att dataintrång relaterade till generativ AI har mer än fördubblats och nu svarar för 14 procent av alla säkerhetsincidenter.
Den snabba utbredningen av AI sker ofta utan att det finns tydliga riktlinjer eller tillräckliga kontroller. En växande del av trafiken kommer från så kallad skugg-AI, det vill säga AI-verktyg som används av medarbetare utan ledningens vetskap eller godkännande. Dessa hamnar därför oskyddade vid sidan av organisationens löpande säkerhetsarbete, och ofta på tvärs med gällande regelverk.
Enligt rapporten använder företag i genomsnitt för närvarande 66 olika applikationer med generativ AI. Omkring 10 procent av dessa kan betraktas som högrisk, antingen på grund av svagt dataskydd, oklara policyer för datalagring eller låg motståndskraft mot manipulation. Branscher som finans och tillverkningsindustri är särskilt sårbara, liksom sektorer som i hög grad använder AI för kodning och automatisering.
Populära verktyg – och deras nackdelar
De mest använda AI-verktygen är grammatiktjänsten Grammarly, Microsoft 365 Copilot och ChatGPT från OpenAI. Grammarly står ensamt för nästan 40 procent av all AI-trafik, medan över 49 procent av företagen använder Microsoft Copilot eller Copilot Studio.
Men popularitet är inte detsamma som säkerhet. Tester som gjorts av Palo Alto Networks visar att över 70 procent av de studerade skrivassistenterna kan manipuleras för att generera skadligt eller oetiskt innehåll – till exempel via jailbreak-attacker som kringgår verktygets säkerhetsmekanismer.
Särskilt utsatta är AI-verktyg som skapar programkod. Många av dessa saknar viktiga säkerhetsfunktioner som datakryptering, åtkomstkontroll eller skydd mot skadlig kod som genereras och skickas vidare i utvecklingsmiljön. När källkod bearbetas i appar utan grundläggande skydd ökar risken avsevärt för att data läcker ut, skadlig kod implementeras eller obehörig åtkomst till system.
Åtgärder som minskar riskerna
Palo Alto Networks rekommenderar en riktad strategi med flera nivåer för att styra användningen av AI. Det handlar om att skapa överblick, sätta tydliga ramverk och skydda data och användare hela vägen genom AI-ekosystemet.
Några viktiga åtgärder:
Inför åtkomstkontroll baserat på användartyp, geografisk plats, enhetskompatibilitet och applikationsrisk.
Begränsa användningen av AI-plattformar och plugins till uppgifter som har ett dokumenterat affärssyfte.
Inför realtidsinspektion av AI-trafik och tillämpa aktivt säkerhetspolicyer i infrastruktur och datamiljöer.
Säkra känsliga data genom att etablera centrala mekanismer för att upptäcka och förhindra obehörig åtkomst och dataläckage.
TIllämpa en Zero Trust-strategi som skyddar mot avancerade hot – inklusive AI-genererad skadlig kod, social manipulation och datautvinning via AI-svar.
Bild: Samanta Pereira Ferdinandi Sam