Barracuda: sei applicazioni dell’AI negli attacchi hacker

 Barracuda: sei applicazioni dell’AI negli attacchi hacker

Computer operator using laptop to maintenance artificial intelligence neural networks simulating human thought processes in computerized model. Tech support doing checkup on AI systems, close up

Delle e-mail di phishing sempre più verosimili e convincenti ai tentativi di accesso agli account automatizzati su larga scala: ecco gli usi dell’AI che aggravano le minacce informatiche

I rischi collegati alla crescente efficacia e diffusione delle minacce informatiche, nonché alla maggiore accuratezza con cui queste vengono congegnate, sono molteplici e spaziano dall’ingente impatto economico che possono avere sulle aziende (in media, 5,34 milioni di dollari all’anno stando ai risultati dell’ultima ricerca commissionata da Barracuda) a eventuali interruzioni prolungate delle operazioni e gravi danni reputazionali.

Ma non è tutto: un’altra fonte di preoccupazione risiede nelle potenziali applicazioni malevole dell’intelligenza artificiale, che può permettere agli attacchi di apprendere dalle difese in cui si imbattono e adattarsi di conseguenza, aumentandone così la pericolosità. Timori che si aggravano alla luce di un altro dato emerso nella ricerca: solo il 39% delle aziende intervistate, infatti, ritiene che la propria infrastruttura di sicurezza sia adeguatamente preparata a rispondere alle minacce automatizzate e potenziate grazie all’intelligenza artificiale.

Oltre a individuare le eventuali falle o mancanze delle soluzioni di sicurezza adottate e porvi rimedio per aumentare il livello di impenetrabilità delle proprie soluzioni di protezione, diventa quindi fondamentale conoscere i nuovi strumenti e le tattiche di cui gli hacker possono servirsi al giorno d’oggi e nel prossimo futuro. Per questo motivo, di seguito gli esperti di Barracuda hanno analizzato sei applicazioni malevole dell’AI nelle mani degli hacker.

1. Creazione di e-mail fraudolente più convincenti. La principale applicazione dell’AI negli attacchi di phishing, spear phishing e Business Email Compromise (BEC) consiste nell’imitazione di modelli comunicativi per la creazione automatizzata di messaggi ancor più precisi, verosimili e personalizzati. Tale tecnologia, infatti, favorisce un maggior livello di contestualizzazione linguistica, culturale e anche settoriale, rendendo l’individuazione delle e-mail fraudolente ancora più difficile da parte delle misure di sicurezza tradizionali.

2. Generazione di codice malevolo e adattivo. L’avvento di strumenti malevoli basati su AI come WormGPT e EvilGPT ha permesso ai criminali di automatizzare la ricerca delle vulnerabilità delle vittime, con un conseguente aumento potenziale degli attacchi zero-day. L’intelligenza artificiale, inoltre, potrebbe consentire di creare malware adattivi – costituiti da codice malevolo in grado di modificare il proprio comportamento per eludere il rilevamento -, o payload dinamici con virus polimorfi, oltre a facilitare l’offuscamento dei contenuti per aggirare gli strumenti di analisi statica.

3. Costruzione di botnet più grandi per attacchi DDoS. Le maggiori capacità di coordinamento e automazione delle reti di bot supportate dall’AI potrebbero amplificare il potenziale di massicci attacchi DDoS. Tali botnet possono evitare sistematicamente gli strumenti CAPTCHA e i meccanismi di proof of work, oltre a evolversi per evitare gli algoritmi tradizionali che si basano su serie storiche di dati per identificare i bot.

4. Produzione di deepfake. I deepfake, ovvero video e audio falsi generati grazie all’intelligenza artificiale a partire da contenuti reali, si stanno imponendo sempre più come potenti strumenti di impersonificazione. Chiunque abbia accesso a filmati e registrazioni audio, infatti, può utilizzare strumenti basati su AI per creare imitazioni estremamente realistiche e inserirle nei messaggi di phishing per ingannare i destinatari. Ad esempio, le falsificazioni vocali potrebbero simulare personaggi famosi e influenti per diffondere truffe o innescare campagne di disinformazione.

5. Furto di credenziali e tentativi di accesso automatizzati su larga scala. Molti attacchi informatici partono dal furto delle credenziali che consentono agli aggressori di accedere a un account e/o a una rete. Gli strumenti di intelligenza artificiale possono aiutare a raggiungere questo obiettivo in diversi modi: ad esempio, creando pagine di login false che assomigliano a siti web legittimi per raggirare gli utenti, oppure incrementando la quantità dei tentativi di credential stuffing, che testano a ritmi elevatissimi grandi volumi di combinazioni di password e nomi utente ottenute tramite la violazione dei dati per ottenere l’accesso agli account personali.

6. Manipolazione dei modelli di addestramento AI. I modelli di intelligenza artificiale utilizzati per le applicazioni prevedono l’utilizzo di un’ampia serie di dati per l’addestramento o l’aggiornamento dei modelli. Se la sicurezza dei dati viene violata e gli hacker riescono a manipolarli e inquinarli, i sistemi basati su tali input grazie all’AI rischiano di fornire risultati imprevedibili e pericolosi, soprattutto per le organizzazioni che si affidano all’intelligenza artificiale per supportare i processi automatizzati (ad esempio riguardanti elementi IoT interconnessi quali segnali stradali e meccanismi di controllo dei flussi).

Digiqole Ad

Articoli correlati