WormGPT: la versione cybercriminale di ChatGPT
Era solo una questione di tempo prima che il famoso ChatGPT venisse emulato per scopi dannosi e uno di questi strumenti ora sul mercato è noto come WormGPT. Dovremmo essere preoccupati? Ecco tutto ciò che bisogna sapere.
Quando ChatGPT è stato reso disponibile al pubblico il 30 novembre 2002, la chatbot AI ha invaso il mondo.
Il software è stato sviluppato da OpenAI , una società di ricerca e intelligenza artificiale. ChatGPT è uno strumento di elaborazione del linguaggio in grado di rispondere a domande e fornire informazioni basate su un set di dati raccolti da diverse fonti, inclusi libri e pagine Web online, che è diventato uno strumento prezioso come attività di raccolta di informazioni, analisi e scrittura per milioni di utenti in tutto il mondo.
Mentre alcuni esperti ritengono che questa tecnologia potrebbe dimostrare di arrivare ad un livello tale da “disturbare” Internet, altri invece pensano che ChatGPT dimostra nelle sue risposte “una imprecisione sicura”. Molti studenti sono stati sorpresi a plagiare i corsi tramite lo strumento, a meno che i set di dati non vengano verificati, chatbot AI come ChatGPT potrebbero diventare strumenti inconsapevoli per diffondere disinformazione e propaganda.
In effetti, la Federal Trade Commission (FTC) degli Stati Uniti sta indagando su Open AI, precisamente sulla sua gestione delle informazioni personali e sui dati utilizzati per creare il suo modello linguistico.
Al di là delle preoccupazioni sulla protezione dei dati, tuttavia, ogni volta che viene realizzata una nuova innovazione tecnologica utile all’uomo, c’è anche un percorso parallelo di abuso della tecnologia. Era solo una questione di tempo prima che la chatboat venisse emulata per scopi dannosi e uno di questi strumenti è ora sul mercato ed è noto come WormGPT.
Cos’è WormGPT?
Il 13 luglio, i ricercatori della società di sicurezza informatica SlashNext hanno pubblicato un post sul blog che rivelava la scoperta di WormGPT, uno strumento promosso per la vendita su un forum di hacker.
Secondo l’utente del forum, il progetto WormGPT mira a essere una “alternativa” blackhat a ChatGPT, “uno strumento che ti consente di fare ogni sorta di roba illegale e di venderla facilmente online in futuro”.
SlashNext ha ottenuto l’accesso allo strumento, che è stato descritto come un modulo AI basato sul modello linguistico GPTJ. WormGPT è stato presumibilmente addestrato con fonti di dati che includono informazioni relative al malware, ma i set di dati specifici rimangono noti solo all’autore di WormGPT.
Potrebbe essere possibile che WormGPT generi codice dannoso ad esempio o e-mail di phishing convincenti.
Per cosa viene utilizzato WormGPT?
WormGTP è descritto come “simile a ChatGPT ma non ha limiti o limiti etici“.
ChatGPT ha una serie di regole per cercare di impedire agli utenti di abusare della chatbot in modo non etico. Ciò include il rifiuto di completare attività relative a criminalità e malware. Tuttavia, gli utenti trovano costantemente modi per aggirare queste limitazioni.
I ricercatori sono stati in grado di utilizzare WormGPT per “generare un’e-mail destinata a fare pressione su un ignaro account manager affinché pagasse una fattura fraudolenta“. Il team è rimasto sorpreso dal modo in cui il modello linguistico ha gestito il compito, definendo il risultato “straordinariamente persuasivo [e] anche strategicamente astuto”.
Anche se i ricercatori non hanno detto nulla sul fatto di aver provato il servizio di scrittura di malware, è plausibile che il bot AI possa farlo, dato che i limiti imposti a ChatGPT non esistono.
Secondo quanto riferito da un canale Telegram lanciato per promuovere lo strumento, i post visualizzati da ZDNET indicano che lo sviluppatore sta creando un modello di abbonamento per l’accesso, che va da $ 60 a $ 700. Un membro del canale, “darkstux”, afferma che ci sono già oltre 1.500 utenti di WormGPT.
Our WormGPT tool in action 👍
Buy/Questions – https://t.co/XXv2dm4UCC#WormGPT #AI #CyberSecurity #ChatGPT #OpenAI #WormAI #Worm #ArtificialIntelligence #Malware pic.twitter.com/toBb8NfU8D
— WormGPT (@wormgpt) July 17, 2023
WormGPT è uguale a ChatGPT?
No. ChatGPT è stato sviluppato da OpenAI, un’organizzazione legittima e rispettata. WormGMT non è una loro creazione ed è un esempio di come i criminali informatici possano trarre ispirazione dai chatbots AI avanzati per sviluppare i propri strumenti dannosi.
Ci saranno più strumenti come WormGPT in futuro?
Anche nelle mani di principianti e del tipico truffatore, i modelli di linguaggio naturale potrebbero trasformare le truffe di phishing e BEC (Business Email Compromise) facilmente evitabili, in operazioni sofisticate con maggiori probabilità di successo. Non c’è dubbio che dove si devono fare soldi, i criminali informatici perseguiranno qualsiasi iniziativa e WormGPT è solo l’inizio di una nuova gamma di strumenti per criminali informatici destinati a essere scambiati nei mercati clandestini.
È anche improbabile che WormGPT sia l’unico nel mondo del darkweb.
Cosa dicono le autorità di regolamentazione sull’abuso degli strumenti di AI?
Europol : Europol ha affermato nel rapporto del 2023, “L’impatto dei Large Language Models (LLM) su Law Enforcement”, presume che “sarà fondamentale monitorare […] lo sviluppo, poiché i Dark LLM (Large Language Models) addestrati per facilitare l’output dannoso possono diventare un modello chiave di business criminale del futuro. Ciò pone una nuova sfida per l’applicazione della legge, per cui diventerà più facile che mai per i malintenzionati perpetrare attività criminali senza la necessaria conoscenza preliminare”.
Federal Trade Commission : la FTC sta indagando sul creatore di ChatGPT OpenAI sulle politiche di utilizzo dei dati e sull’imprecisione.
Agenzia nazionale britannica per la criminalità (NCA): la NCA avverte che l’AI potrebbe provocare un’esplosione di rischi e abusi per i giovani .
Ufficio della Commissione per le informazioni del Regno Unito (ICO): l’ICO ha ricordato alle organizzazioni che i loro strumenti di intelligenza artificiale sono ancora vincolati dalle leggi esistenti sulla protezione dei dati.
ChatGPT può essere utilizzato per scopi illegali?
Screenshot effettuato dall’autore
Non senza tattiche nascoste, ma con i giusti suggerimenti, molti modelli di chatbots possono essere persuasi ad azioni e compiti particolari.
ChatGPT, ad esempio, può redigere e-mail professionali , lettere di accompagnamento, curriculum, ordini di acquisto e altro ancora. Questo da solo può rimuovere alcuni degli indicatori più comuni di un’e-mail di phishing: errori di ortografia, errori di grammatica e problemi con una seconda lingua. Di per sé, questo da solo potrebbe causare problemi alle aziende che tentano di addestrare il proprio personale a riconoscere le email sospette.
I ricercatori di SlashNext affermano che “i criminali informatici possono utilizzare tale tecnologia per automatizzare la creazione di e-mail false altamente convincenti, personalizzate per il destinatario, aumentando così le possibilità di successo dell’attacco phishing”.
Quanto costa ChatGPT?
ChatGPT è gratuito. Lo strumento può essere utilizzato per rispondere a domande generali, scrivere contenuti e codice o generare prompt per qualsiasi cosa, dalle storie creative ai progetti di marketing.
Esiste un’opzione di abbonamento, ChatGPT Plus , a cui gli utenti possono iscriversi. L’abbonamento costa $ 20 al mese e fornisce agli utenti l’accesso a ChatGPT durante le ore di punta e in altro modo, tempi di risposta più rapidi e accesso prioritario a miglioramenti e correzioni.