Nyheter

Ny undersökning visar att AI-användning i molnet accelererar samtidigt som behoven av säkerhetsstrategier ökar

Wiz undersökning State of AI in the Cloud visar att över 85 procent av företagen nu använder AI-tjänster i molnet, vilket signalerar ett betydande skifte från ett tidigt stadie av experimentering till en ny nivå av utbrett operativt användande

3 juni 2025 – Den ökade användningen markerar en ny fas för verksamheter. Att säkra AI-pipelines kräver ett färskt perspektiv på risker, och förståelsen för hur man skyddar data och modeller är väsentligt för att säkra framgång. Utöver detta visar rapporten att åtta av tio av de mest populära AI-teknikerna som används associeras med modeller med öppen källkod. Verktyg som LangChain, Hugging Face och Llama har blivit integrerade delar av ett modernt AI-stack.

Den andra årliga rapporten från Wiz, State of AI in the Cloud, visar att AI-verktyg med öppen källkod är centrala för innovation i molnet under 2025. Det snabba anammandet omformar hur organisationer bygger, distribuerar och skalar upp sin AI-användning. Men samtidigt måste säkerhetslandskapet utvecklas i samma takt, särskilt med tanke på den dynamiska decentraliserade naturen i ett öppet källkods-ekosystem.

Bart van de Burgt, Area Vice President, EMEA Central & North hos Wiz, säger:

– AI-boomen påminner om molnets begynnelse – det är en framväxande teknik med en enorm disruptiv potential som fokuserar på utveckling och anammande snarare än säkerhetsstandarder och styrning. När ekosystemen i molnet blir AI-native så måste metoderna för säkerhet utvecklas i samma takt. Detta kräver en centraliserad och handlingsbar överblick kring verksamheters AI-säkerhet, som är ämnad för att skydda innovation utan att bromsa den.

AI driver på molnbaserad innovation

AI blir en allt mer central faktor i molnverksamheten. Förra året använde 70 procent av organisationerna hanterade AI-tjänster – detta år ligger siffran på 74 procent. 85 procent använder antingen hanterade eller självhysta AI-verktyg vilket kan tolkas som ett ökat förtroende i AI:s operativa värde.

OpenAI SDK är fortfarande den mest använda AI-teknologin och används av 63 procent av företagen, följt av PyTorch (50%), ONNX Runtime (46%) och Hugging Face (45%). Användningen av självhysta AI-lösningar ökade kraftigt från 42 procent under 2024 till hela 75 procent under 2025, vilket främst beror på ökad integration i programvara från tredje parter och i interna AI-plattformar.

Llama-modeller blev avsevärt mer populära under det senaste året och ökade från 18 procent till 35 procent bland organisationer som använder självhysta AI-lösningar – ett tecken på den bestående betydelsen av ekosystem med öppen källkod.

DeepSeek-R1 laddades ner över 130 000 gånger på bara några veckor efter lansering, och dess användning bland självhysta organisationer fördubblades till 7 procent i januari 2025. Denna trend visar på ett ökat behov av flexibilitet, experimenterande och kontroll samtidigt som det betonar vikten av att kunna hantera dessa miljöer säkert och i stor skala.

Säkerhetsstrategier måste hålla takt med AI:s utveckling

Samtidigt som AI integreras i molnets ekosystem så måste traditionella säkerhetsmodeller anpassas. Experter har upptäckt allvarliga brister, som bland annat en exponerad AI-databas som läckte miljontals loggrader och gav administrativ åtkomst till obehöriga. Detta är ett tydligt exempel på hur felaktiga konfigurationer kan leda till kritiska brister. Vid ett annat fall så användes publika lagringsytor för att träna AI-modeller, något som öppnade möjligheten till så kallade “model-poisoning”-attacker. Vissa AI-modeller kördes också i virtuella maskiner med riskabla importer vilket också gjorde potentiella “remote code execution (RCE)”-attacker möjligt och står för tydliga exempel på ett ökande hot där AI:s specifika risker ännu inte hanteras på ett fullständigt sätt av traditionella säkerhetslösningar inom molnet.

Det är samtidigt inga skäl till att backa tillbaka i AI-utvecklingen, men snarare signaler på att säkerheten måste utvecklas i takt med dess innovation. En proaktiv AI-säkerhetsstrategi hjälper teams att slippa valet mellan framsteg och adekvat säkerhetsskydd.

Van de Burgt avslutar:

– AI:s fördelar är tydligare än någonsin för verksamheter. Samtidigt som det finns många fantastiska exempel på företag som har uppnått omvälvande resultat så är det viktigt att komma ihåg att med stora framsteg följer stort ansvar. Gartner lyfter fram en viktig punkt när det gäller ökande AI-hot och menar att ‘AI-användning innebär en ökad risk och utan effektiv styrning och tillräckliga säkerhetskontroller så kommer det få skadliga och oförutsedda konsekvenser hos organisationer.’ Vi på Wiz delar denna uppfattning. Säkerhet ska inte stoppa utvecklingen – snarare möjliggöra den. Organisationer som omfamnar AI-specifika säkerhetsverktyg och bästa praxis för molnet kan fortsätta framåt med tillit. Vi befinner oss i ett stadie som erbjuder oss möjligheter som aldrig förut: att förena säkerhet och innovation genom att implementera väl avvägda, framåtblickande strategier som hjälper organisationer att leda ansvarsfullt i AI-eran.” Hela The State of AI in the Cloud 2025 finns att läsa här.

Bild: Diensh pal