De senaste veckorna har AI-botten Openclaw skapat många rubriker. Openclaw fungerar som en AI-agent på datorn. Den chattar med sin ägare via valfri chattapp och utför uppgifterna som den blir instruerad att göra. Den gör dem dessutom förvånansvärt bra. Openclaw gör det som Siri och Google Assistant alltid har strävat efter att kunna erbjuda, men aldrig lyckats leverera.
Den extremt kompetenta AI-botten är samtidigt vansinnigt riskfylld. Openclaws utvecklare är helt öppna med detta faktum. De varnar användare som installerar botten för att den kan bli lurad att göra osäkra saker. Utvecklarna klassar dessutom Openclaw som ett hobbyprojekt och koden har ännu inte lämnat beta-stadiet.
I veckans poddavsnitt pratar Peter och Nikka om Openclaws förträffliga funktionalitet och undermåliga cybersäkerhet. Nikka lyfter fem problem som gör att han avråder alla från att använda botten i annat än test- och leksammanhang.
Openclaw dras bland annat med samma problem som ChatGPT:s AI-agentwebbläsare: risken för promptinjektionsattacker. Angripare skulle kunna lura Openclaw att tolka information på webben eller i meddelanden som instruktioner att följa. Då är det plötsligt angriparen som styr vad AI-agenten ska göra på datorn där Openclaw har släppts loss.
Hur pass väl skyddad Openclaw är mot promptinjektionsattacker beror på vilken underliggande AI-modell som ägaren väljer. Utvecklarna har gjort sitt bästa för att skydda botten, men de är samtidigt öppna med att risken kvarstår. Än så länge vet faktiskt ingen om problemet ens går att lösa.
Se fullständiga shownotes på https://go.nikkasystems.com/podd339.