Cybersecurity: il lato oscuro di AI e CharGPT è sul dark web

Gli attori delle minacce cyber stanno esplorando schemi che vanno dalla creazione di alternative malevole dei chatbot al jailbreak della versione originale, e molto altro. Lo ha scoperto il Kaspersky Digital Footprint Intelligence: nel 2023 sono stati quasi 3000 i post pubblicati sul dark web in cui si discute dell’uso di ChatGPT e di altri LLM per attività illegali, o si fa riferimento a strumenti basati su tecnologie di Intelligenza artificiale. E sebbene le conversazioni abbiano raggiunto l’apice nel mese di marzo, le discussioni continuano anche nel 2024.

Tanto che anche gli account ChatGPT rubati, e i servizi che offrono la loro creazione automatizzata in massa, stanno riempiendo i canali del dark web con altri 3000 post.

Sui dark post si discute lo sviluppo di malware 

“Gli attori delle minacce stanno esplorando attivamente vari schemi per implementare ChatGPT e AI. Gli argomenti trattati includono spesso lo sviluppo di malware e altri tipi di uso illecito dei modelli linguistici, come l’elaborazione di dati utente rubati, il parsing di file da dispositivi infetti e altro – ha spiegato Alisa Kulishenko, Digital Footprint Analyst di Kaspersky -. La popolarità degli strumenti di AI ha favorito l’integrazione delle risposte automatiche di ChatGPT o dei suoi equivalenti in alcuni forum di criminali informatici. Inoltre, gli attori delle minacce tendono a condividere jailbreak attraverso vari canali del dark web, speciali set di prompt che possono sbloccare funzionalità aggiuntive, e a escogitare modi per sfruttare strumenti legittimi, come quelli per il pentesting, basati su modelli per scopi malevoli”. 

Le alternative illecite a ChatGPT: XXXGPT e FraudGPT

Oltre ai chatbot e all’Intelligenza artificiale, si sta prestando molta attenzione a progetti come XXXGPT, FraudGPT e altri ancora.
Questi modelli linguistici sono commercializzati sul dark web come alternative a ChatGPT, vantando funzionalità aggiuntive e l’assenza delle limitazioni originali.

Un’altra minaccia per utenti e aziende è il mercato degli account per la versione a pagamento di ChatGPT. Nel 2023 sono stati identificati nel dark web e nei canali shadow di Telegram altri 3000 post (oltre a quelli già citati) che pubblicizzavano account ChatGPT in vendita.
Questi post distribuiscono account rubati o promuovono servizi di registrazione automatica che creano in massa account su richiesta. In particolare, alcuni post sono stati pubblicati ripetutamente su più canali del dark web.

Obiettivo, abbassare la barriera d’ingresso al cybercrime

“Sebbene gli strumenti di AI di per sé non siano intrinsecamente pericolosi, i criminali informatici stanno cercando di trovare modi efficienti per utilizzare i modelli linguistici, alimentando così una tendenza ad abbassare la barriera d’ingresso al cyber crime e, in alcuni casi, ad aumentare potenzialmente il numero di attacchi IT – ha aggiunto Alisa Kulishenko -. Tuttavia, è improbabile che l’AI generativa e i chatbot rivoluzionino il panorama degli attacchi, almeno nel 2024. La natura automatizzata dei cyberattacchi spesso implica difese automatizzate. Tuttavia, restare informati sulle attività degli aggressori è fondamentale per essere in vantaggio sugli avversari in termini di sicurezza informatica aziendale”.  

Comments are Disabled