Moltbook, il nuovo “social network” per gli agenti AI: il commento di Barracuda
Di seguito il commento di Adam Khan, VP Global Security Operations di Barracuda Networks, azienda specializzata in soluzioni di cybersecurity, su Moltbook, il nuovo “social network” per gli agenti AI.
“In Terminator, Skynet non era pericoloso perché intelligente, bensì perché operava in modo indipendente e coordinato su larga scala e agiva più rapidamente rispetto agli interventi umani. Oggi stiamo assistendo alla comparsa di quelle stesse caratteristiche strutturali, ma senza i quadri di governance necessari per gestirle in modo sicuro.
I sistemi di AI tradizionali sono stati ampiamente limitati dall’intento dei singoli utenti e dalla revisione umana, ma questi ecosistemi di agenti stanno già mostrando dinamiche sociali che i modelli di sicurezza e governance esistenti non sono stati progettati per gestire. I rischi non sono più ipotetici: gli agenti AI si sono resi responsabili di abusi delle interfacce API, dumping di credenziali, interazioni ingannevoli con altri agenti e truffe finanziarie, comprese frodi con criptovalute. Questo è ciò che distingue fondamentalmente i sistemi di AI agentica dalle precedenti innovazioni nel campo dell’intelligenza artificiale e che costituisce una preoccupazione sempre maggiore per i team di sicurezza, rischio e governance.
Nel breve termine, i team di sicurezza dovranno affrontare significative mancanze di visibilità. Gli agenti autonomi non corrispondono perfettamente alle categorie esistenti quali utenti, account di servizio o applicazioni, il che rende difficile il monitoraggio, l’attribuzione e l’applicazione delle policy. Ciò amplierà la superficie di attacco: agenti configurati in modo errato o con privilegi eccessivi aumentano il rischio di esposizione dei dati, l’uso improprio delle credenziali e le azioni non intenzionali eseguite alla velocità delle macchine.
Inoltre, esiste un’elevata probabilità che gli aggressori sfruttino gli stessi framework degli agenti per automatizzare la ricognizione, la manipolazione e il movimento laterale. Da un punto di vista tecnologico, ciò accelererà la domanda di nuovi controlli incentrati sull’identità degli agenti, sul monitoraggio del comportamento, sulla convalida delle intenzioni e sulle funzionalità di kill switch.
Le organizzazioni dovrebbero considerare questo aspetto come un chiaro segnale per ripensare il modo in cui i sistemi agentici sono progettati e disciplinati. La loro autonomia deve essere intenzionale e limitata e le loro roadmap dovrebbero dare priorità all’osservabilità, al controllo delle autorizzazioni e alla verificabilità, prima ancora di espandere l’autonomia. Dunque, le aziende devono partire dal presupposto che gli agenti interagiranno con altri agenti, compresi quelli non affidabili, e progettare di conseguenza.
Cosa ancora più importante, la governance degli agenti non può essere un pensiero secondario: gli addetti alla sicurezza, al rischio e alla compliance devono essere coinvolti fin dalla fase di progettazione, non dopo l’implementazione. Le organizzazioni che tratteranno gli agenti come un nuovo livello operativo e non solo come una funzione di produttività saranno in grado di affrontare queste evoluzioni con successo”.