Blog

Joshua Koblin via Unsplash

Il crimine in abbonamento: l’era dell’IA criminale

L’intelligenza artificiale a vocazione criminale è realtà 

La lotta al crimine si trova ad affrontare una nuova minaccia: le piattaforme per il cybercrimine, che mettono la AI al servizio di scopi non leciti e stanno scalando rapidamente

Crimine e Intelligenza Artificiale: stiamo entrando in una nuova fase dell’evoluzione dell’IA, una in cui chiunque può abbonarsi alla criminalità automatizzata. L’intelligenza artificiale è solitamente associata a produttività, automazione e creatività. Ma, come ogni tecnologia potente, possiede anche uno specchio oscuro. Xanthorox è un esempio reale di come l’innovazione possa trasformarsi silenziosamente in minaccia—talvolta basta solo un leggero cambiamento di intenzione.

La piattaforma, che ha recentemente guadagnato notorietà, si promuove apertamente come un modo per “diventare cybercriminali senza competenze di programmazione.” Come riportato da Scientific American, fornisce strumenti automatizzati per phishing, furto d’identità, frodi online e persino la generazione di deepfake—il tutto tramite un semplice modello in abbonamento. Le implicazioni sono inquietanti: non è più necessario essere esperti per commettere crimini digitali. Basta pagare una quota.

“Crime as a Service”

Xanthorox è un toolkit criminale plug-and-play: una piattaforma SaaS basata su intelligenza artificiale progettata esplicitamente per lo sfruttamento digitale. Gli utenti accedono attraverso un’interfaccia web elegante, trovandosi davanti a una dashboard con moduli per tutto: spear-phishing, distribuzione di ransomware, creazione di identità sintetiche e clonazione vocale tramite deepfake.

Ogni strumento è preconfigurato per essere semplice da usare: basta inserire il nome della vittima, il suo profilo social o un’email trapelata, e il sistema fa il resto. Genera automaticamente email di truffa convincenti, chiamate false con voci sintetiche, e persino documenti contraffatti personalizzati per istituzioni o paesi specifici. La piattaforma sfrutta modelli linguistici open-source e dataset pubblici per rendere gli attacchi più credibili—e scalabili. Ciò che prima richiedeva settimane di preparazione e abilità tecniche, ora può essere fatto in pochi clic. In pratica, Xanthorox abbassa la soglia d’ingresso al cybercrimine a quasi zero.

Deepfake e furto d’Identità: quando la voce della nonna non è la sua

Uno degli usi più inquietanti dell’IA criminale è la creazione di deepfake—simulazioni audio e video così realistiche da essere praticamente indistinguibili da persone reali. I truffatori ora si fingono familiari o amici in messaggi urgenti, spesso chiedendo denaro.

Aziende come Reality Defender stanno lavorando per rilevare questi falsi attraverso tecniche forensi avanzate. Ma mentre le difese si evolvono, anche gli attacchi lo fanno. Alcune persone iniziano a proteggersi creando “parole sicure” con i propri cari—frasi o domande che solo loro conoscerebbero. Tuttavia, nemmeno questo è infallibile. Esperimenti mostrano che grandi modelli linguistici come ChatGPT possono avvicinarsi pericolosamente alle risposte corrette con appena un po’ di contesto.

Il concetto stesso di fiducia—una volta radicato in voce, volto e memoria condivisa—sta vacillando.

Un’industria nell’ombra

Il creatore di Xanthorox resta anonimo, ma alcuni indizi suggeriscono che si tratti di un’operazione condotta da una sola persona. In un canale Telegram, lo sviluppatore ha recentemente scherzato dicendo che la domanda per i server è cresciuta talmente tanto da dover dedicare un’intera stanza del suo appartamento all’hosting della piattaforma.

È un dettaglio rivelatore: l’IA criminale non è più teoria. È operativa—e si sta espandendo. Le forze dell’ordine e le piattaforme tecnologiche corrono per tenere il passo. Nel frattempo, le comunità online stanno normalizzando silenziosamente l’idea della frode assistita dall’intelligenza artificiale. Nei forum e nei canali criptati, Xanthorox non è vista come una minaccia. È vista come uno strumento.

Anche l’IA “buona” solleva nuove domande

All’estremo opposto dello spettro ci sono applicazioni apparentemente innocue come Paws, un’app VR che aiuta gli utenti a meditare con la compagnia di un animale domestico digitale. È carina, rilassante e innovativa. Ma è anche un promemoria di quanto l’IA sia diventata emotivamente coinvolgente.

Se possiamo meditare con un cane digitale e provare qualcosa di reale, immaginiamo quanto facilmente potremmo essere manipolati da un’IA che finge di essere qualcuno che amiamo. Il problema non è più il realismo. È la credibilità emotiva. E l’IA sta colmando rapidamente anche quel divario.

Cosa succede quando chiunque può pianificare un crimine?

Ciò che Xanthorox rivela non è solo che l’IA può essere usata per fare del male. Ma che costruire una piattaforma di IA criminale è ormai alla portata di quasi chiunque. Strumenti open-source, modelli fondamentali e dataset pubblici hanno fatto crollare le barriere tecniche.

Cosa significa allora “responsabilità” in questo nuovo scenario? Dovremmo regolamentare con più rigore i modelli aperti? Dovrebbero esserci limiti a ciò che i sistemi generativi possono fare—o pubblicare? O ci stiamo avviando verso un’epoca in cui il pensiero critico diventerà l’ultima linea di difesa della società?

L’IA criminale non è il futuro—è già qui

Non si tratta di speculazione. Adolescenti stanno sottoscrivendo abbonamenti a piattaforme di “cybercrime-as-a-service”. I deepfake stanno ingannando i genitori per sottrarre loro denaro. E un’economia sotterranea si sta formando attorno a strumenti progettati per ingannare, rubare e sfruttare.

Ma c’è ancora tempo per rispondere—se agiamo in fretta e pensiamo con attenzione. Perché la domanda non è più se l’IA sarà usata per il bene o per il male. La domanda è: chi la userà, e per cosa?

Supportati da modelli emergenti di Crime-as-a-Service (CaaS) progettati per sfruttare la cognizione umana, i sistemi di IA generativa sfideranno legislatori, regolatori e decisori politici in modi per i quali non sono ancora preparati. Con la capacità dell’IA generativa di superare la propria configurazione iniziale attraverso l’apprendimento adattivo, e mostrando effetti collaterali non intenzionali, chi sarà responsabile dei crimini che commette, se l’intervento umano si limita alla progettazione, al lancio e all’incasso dei profitti?

Fonti: Scientific American, TheCommonwealth.org
Immagine di copertina: Joshua Koblin via Unsplash
Barbara Marcotulli

Maker Faire Rome - The European Edition, promossa dalla Camera di Commercio di Roma, si impegna fin dalla sua prima edizione a rendere l'innovazione accessibile e fruibile, offrendo contenuti e informazioni in un blog sempre aggiornato e ricco di opportunità per curiosi, maker, imprese che vogliono arricchire le proprie conoscenze ed espandere la propria attività, in Italia e all'estero.

Seguici, iscriviti alla nostra newsletter: ti forniremo solo le informazioni giuste per approfondire i temi di tuo interesse