Nyheter

Wiz undersökning: AI trappar upp hotbilden i molnet, visar ny rapport

En ny rapport från ledande molnsäkerhetsföretaget Wiz har analyserat utvecklingen inom molnsäkerhet och belyser hur AI utvidgar omfattningen av existerande attackmetoder, snarare än att introducera helt nya klasser av hot. Cloud Threats Retrospective 2026 baseras på analys av data från verkliga incidenter och undersöker hur beprövade svagheter i molnmiljöer och AI-driven förändring formade angripares aktiviteter under 2025.

Rapporten avslöjar att 80 procent av de dokumenterade molnintrången under 2025 inleddes med exponerade inloggningsuppgifter, sårbarheter eller felkonfigurationer. Samtidigt accelererar AI kända säkerhetsrisker, vilket medför potential för betydligt större konsekvenser.

Tidigare undersökningar från Wiz visar att hela 85 procent av alla organisationer använder någon form av AI i sin dagliga verksamhet – en siffra som förväntas öka exponentiellt i takt med att nya AI-verktyg lanseras. Den breda AI-användningen innebär att molnmiljöernas attackytor expanderar snabbt, ofta utan att säkerhetsarbete eller kompetens hinner anpassas i samma takt. Var fjärde organisation uppger att de inte vet vilka AI-tjänster som körs i deras miljöer, medan nästan en tredjedel pekar på bristande AI-specifik säkerhetskompetens som en huvudutmaning. Säkerheten prioriteras därför ofta bort till förmån för snabb AI-innovation.

Nya, oprövade system skapar möjligheter för angripare

Denna klyfta skapar gynnsamma förutsättningar för angripare. Wiz har tidigare avslöjat att 65 procent av de ledande privata AI-bolagen har läckt känsliga autentiseringsuppgifter, inklusive API-nycklar och tokens, via utvecklingsplattformar som publika kodförråd. Dessa exponeringar ökar avsevärt risken för obehörig åtkomst och automatiserad exploatering.

Avgörande är att AI-system introducerar ökad komplexitet och sammankoppling inom molninfrastrukturen. AI-pipelines är starkt beroende av delade autentiseringsuppgifter, automatiseringsverktyg och integrerade tjänster. Det innebär att en enda komprometterad identitet kan ge åtkomst till flera system. Denna så kallade ”blast radius”-effekt gör det möjligt för angripare att skala upp konsekvenserna av relativt enkla intrång.

Verkliga incidenter bekräftar utvecklingen. Hotaktörer har redan utnyttjat AI-infrastruktur, bland annat genom att orkestrera kryptomining-kampanjer i GPU-kluster genom att missbruka legitima schemaläggningsfunktioner. I andra fall har angripare använt AI-drivna verktyg för att automatisera rekognosering, generera systemkommandon och påskynda insamling av inloggningsuppgifter efter ett initialt intrång.

-Wiz Research har dokumenterat flera fall där välkända molnrisker, såsom felkonfigurationer, exponerade autentiseringsuppgifter och överdrivna behörigheter, har observerats i AI-relaterade system. Det handlar om allt från systematiska säkerhetsbrister i välanvända ’vibe coding’-plattformar, till hur AI-pipelines introducerar risker via automatisering och delad infrastruktur. Gemensamt för dessa sårbarheter är att AI inte skapar nya attackmetoder, utan snarare utökar antalet ytor där kända risker kan uppstå och spridas, säger Rami McCarthy, Principal Security Researcher hos Wiz.

Rapporten lyfter även fram en tydlig acceleration i hur snabbt sårbarheter exploateras. AI-assisterade verktyg kan nu identifiera svagheter och generera fungerande exploits inom minuter efter att de offentliggjorts, vilket kraftigt minskar försvararnas reaktionstid. Trots detta är de grundläggande sårbarheterna oförändrade; felkonfigurationer och exponerade inloggningsuppgifter ligger fortfarande bakom majoriteten av incidenterna. Däremot förstärks effekten nu av AI-driven skala och integration över moln-, SaaS- och utvecklingsmiljöer.

Upptrappat tempo kräver nya arbetsmetoder

Organisationer behöver inte uppfinna sina försvarsstrategier på nytt, men de måste tillämpa grundläggande säkerhetskontroller med högre hastighet, bättre kontext och ökad synlighet. Prioriterade åtgärder bör inkludera att minimera externa tillgångar, övervaka förändringar i identiteter och åtkomsträttigheter, upptäcka tidig rekognosering samt tillämpa produktionsklassade säkerhetskontroller på AI-system.

AI fungerar som en accelerator inom molnsäkerhet – den förstärker både angriparens kapacitet och organisationens riskexponering. I takt med att moln- och AI-ekosystem blir alltmer sammankopplade krävs insyn i exponeringar och identitetsrelationer för att förhindra att små svagheter eskalerar till storskaliga incidenter. Rätt säkerhet hindrar inte innovation, utan möjliggör den genom metoder som håller samma takt som teknikutvecklingen.

Läs hela undersökningen här.