”Jag säljer root-åtkomst till en vd:s dator – 25 000 dollar. Men det riktiga värdet? Hans AI-assistent. Han pratar med den just nu medan jag skriver detta.”
Så lyder ett inlägg på ett hacker-forum, dokumenterat av hotforskningsgruppen Cato CTRL vid Cato Networks. Erbjudandet handlar inte bara om att komma åt en dator – utan om allt som den AI-drivna assistenten OpenClaw har samlat in: lösenord, API-nycklar, affärsplaner och personliga konversationer.
En guldgruva i klartext
OpenClaw är en populär AI-assistent med öppen källkod som körs lokalt på användarens dator – med direkt åtkomst till filsystem och nätverk. Enligt Cato CTRL:s analys lagrar verktyget all data, inklusive API-nycklar och konversationer, i okrypterade textfiler. Det innebär att den som får åtkomst till maskinen också får tillgång till allt assistenten har samlat på sig.
Forskarna identifierade över 45 000 internetexponerade OpenClaw-instanser, varav uppskattningsvis 30 000 redan var aktivt komprometterade. Tre allvarliga sårbarheter lyfts fram i rapporten: bland annat en som möjliggör utbrytning ur Docker-sandlådan (CVE-2026-24763) och en som tillåter exfiltrering av autentiseringstoken (CVE-2026-25253).
Från produktivitetsverktyg till säkerhetsrisk
Det som gör fyndet anmärkningsvärt är hur AI-assistenten förändrar hotbilden. Till skillnad från traditionella bakdörrar som ger åtkomst till specifika system, aggregerar en komprometterad AI-assistent automatiskt känslig information från flera källor – i realtid. Angriparen behöver inte leta; assistenten har redan gjort jobbet.
Problemet är inte AI-tekniken i sig, utan att säkerheten inte hängt med, konstaterar forskarna vid Cato CTRL. När en AI-assistent med bred systemåtkomst lagrar data okrypterat uppstår en helt ny typ av angreppsmål.
Vad organisationer bör tänka på
Cato CTRL:s forskning understryker behovet av att inventera och riskbedöma AI-verktyg som används inom organisationen – särskilt sådana som körs lokalt med breda behörigheter. Forskarna rekommenderar att verktyg som OpenClaw inte exponeras mot internet utan adekvata skyddsmekanismer, och att organisationer har policyer för vilka AI-assistenter som är godkända att använda i verksamheten.
Hela analysen finns att läsa på Cato Networks blogg: https://www.catonetworks.com/blog/cato-ctrl-when-openclaw-ai-personal-assistant-becomes-backdoor/
BIld av Sandy Flowers