Nyheter

Din AI-assistent kan vara en bakdörr – ny forskning avslöjar hur cyberkriminella utnyttjar OpenClaw

”Jag säljer root-åtkomst till en vd:s dator – 25 000 dollar. Men det riktiga värdet? Hans AI-assistent. Han pratar med den just nu medan jag skriver detta.”

Så lyder ett inlägg på ett hacker-forum, dokumenterat av hotforskningsgruppen Cato CTRL vid Cato Networks. Erbjudandet handlar inte bara om att komma åt en dator – utan om allt som den AI-drivna assistenten OpenClaw har samlat in: lösenord, API-nycklar, affärsplaner och personliga konversationer.

En guldgruva i klartext

OpenClaw är en populär AI-assistent med öppen källkod som körs lokalt på användarens dator – med direkt åtkomst till filsystem och nätverk. Enligt Cato CTRL:s analys lagrar verktyget all data, inklusive API-nycklar och konversationer, i okrypterade textfiler. Det innebär att den som får åtkomst till maskinen också får tillgång till allt assistenten har samlat på sig.

Forskarna identifierade över 45 000 internetexponerade OpenClaw-instanser, varav uppskattningsvis 30 000 redan var aktivt komprometterade. Tre allvarliga sårbarheter lyfts fram i rapporten: bland annat en som möjliggör utbrytning ur Docker-sandlådan (CVE-2026-24763) och en som tillåter exfiltrering av autentiseringstoken (CVE-2026-25253).

Från produktivitetsverktyg till säkerhetsrisk

Det som gör fyndet anmärkningsvärt är hur AI-assistenten förändrar hotbilden. Till skillnad från traditionella bakdörrar som ger åtkomst till specifika system, aggregerar en komprometterad AI-assistent automatiskt känslig information från flera källor – i realtid. Angriparen behöver inte leta; assistenten har redan gjort jobbet.

Problemet är inte AI-tekniken i sig, utan att säkerheten inte hängt med, konstaterar forskarna vid Cato CTRL. När en AI-assistent med bred systemåtkomst lagrar data okrypterat uppstår en helt ny typ av angreppsmål.

Vad organisationer bör tänka på

Cato CTRL:s forskning understryker behovet av att inventera och riskbedöma AI-verktyg som används inom organisationen – särskilt sådana som körs lokalt med breda behörigheter. Forskarna rekommenderar att verktyg som OpenClaw inte exponeras mot internet utan adekvata skyddsmekanismer, och att organisationer har policyer för vilka AI-assistenter som är godkända att använda i verksamheten.

Hela analysen finns att läsa på Cato Networks blogg: https://www.catonetworks.com/blog/cato-ctrl-when-openclaw-ai-personal-assistant-becomes-backdoor/

BIld av Sandy Flowers