AI-ul care a cucerit comunitatea tech: Ce este Moltbot și care sunt riscurile de securitate
0Utilizatorii avansați de inteligență artificială din China testează cu entuziasm Moltbot, asistentul AI care a devenit viral în Silicon Valley, furnizorii de cloud oferind pachete speciale pentru cei care vor să încerce cât mai repede.
Creat de antreprenorul austriac Peter Steinberger, Moltbot, un agent AI open-source, a atras atenția comunității tech prin capacitatea sa de a învăța obiceiurile utilizatorilor, de a prelua controlul asupra dispozitivelor și de a finaliza sarcini în mod proactiv, fără a fi nevoie de intervenție la fiecare pas.
Inițial numit Clawdbot, numele a fost schimbat la solicitarea Anthropic, proprietarul Claude. Joi, botul a primit din nou numele OpenClaw, potrivit lui Steinberger.
Ce este Moltbot (fost Clawdbot)
La bază, Moltbot este un cadru pentru agenți AI locali, nu un model AI în sine. Nu conține inteligență proprie, ci coordonează apelurile către modele de limbaj mari, precum Claude, și transformă rezultatele acestora în acțiuni pe dispozitivul utilizatorului, se arată într-o analiză publicată pe site‑ul oficial al companiei DoControl, o platformă de securitate cibernetică.
Poate fi privit ca un centru de comandă care transformă răspunsurile modelelor lingvistice în execuție reală.
Dispune de memorie pe termen lung stocată local, poate lega sarcinile între ele și poate funcționa continuu, nu doar pe sesiuni. Acest lucru îl diferențiază fundamental de majoritatea instrumentelor AI third-party folosite azi, care operează în browser și „uită” totul la închiderea tabului.
Această caracteristică „mereu activă” face parte din mișcarea mai largă a agenților AI — instrumente concepute să funcționeze independent, fără a aștepta prompturi umane.
Cum funcționează Moltbot
Moltbot nu este un asistent conversațional în sensul obișnuit. Funcționează ca un agent software autonom, integrat direct în mediul de calcul.
Odată instalat și configurat, poate primi acces la: sistemul propriu, control asupra browserului și sesiunilor active, permisiuni pentru citirea și scrierea fișierelor locale, acces la servicii externe precum email, calendar sau API-uri (în funcție de ce este conectat), memorie pe termen lung care păstrează contextul chiar și după restart.
În loc să răspundă la întrebări punctuale, Moltbot poate observa, planifica și executa sarcini pe cont propriu — folosind modelul de limbaj ca strat de raționament și mașina locală ca strat de execuție.
Riscurile de securitate ale Moltbot
Moltbot prezintă câteva riscuri majore, mai ales când este folosit pe dispozitive care ating sistemele corporative:
1.Acces extins la date și privilegii
Fiind instalat direct pe sistemul utilizatorului, Moltbot moștenește aceleași privilegii și poate ajunge la date confidențiale, parola sau sesiuni active. În cazul unei erori sau atac, consecințele pot fi extinse, inclusiv: scurgeri de date, furt de identitate, eșecuri de conformitate și pierderea urmăririi acțiunilor.
2.Lipsa politicilor de securitate
Nu există mecanisme integrate de protecție. Responsabilitatea se transferă complet asupra celui care îl folosește, ceea ce poate fi riscant pentru laptopuri corporative sau medii reglementate.
3.Riscuri de prompt injection
Moltbot poate interpreta instrucțiuni ascunse în fișiere sau texte ca fiind comenzi legitime. Astfel, un atacator poate introduce comenzi malițioase, iar agentul le poate executa fără ca cineva să observe, afectând dispozitive conectate sau date sensibile.
Cursa pentru AI
Giganții tech concurează acum să dezvolte asistenți AI. Anthropic a lansat recent Claude Cowork, un instrument-agent capabil să organizeze fișiere și să creeze foi de calcul. Meta a achiziționat Manus, un produs AI originar din China, care poate automatiza postările pe rețele sociale și analiza CV-uri. Niciunul dintre aceste instrumente nu este disponibil în China, relatează publicația de presă nonprofit Rest of World.
Experții în securitate cibernetică avertizează asupra riscurilor de confidențialitate și securitate atunci când agenților rudimentari li se oferă prea multă autonomie. Agenți precum Moltbot pot trimite emailuri greșite și, mai grav, pot scurge accidental informații sensibile sau credențiale ale utilizatorilor.