An event powered by
Cerca
Close this search box.

La nostra intervista a Gerardo Costabile, esperto di sicurezza informatica e CEO di DeepCyber srl

 

L’Intelligenza Artificiale sta cambiando significativamente la nostra società ma per utilizzarla al meglio e sfruttarne le potenzialità è indispensabile adottare alcune accortezze.

 

 

Le sfide future della cybersecurity sono molte e riguardano l’evoluzione della tecnologia e dei suoi usi, la crescente sofisticazione degli attacchi informatici, e la necessità di garantire la privacy e la sicurezza dei dati personali e delle infrastrutture critiche.

Come emerso anche in alcuni recenti report, tra cui il rapporto CLUSIT 2023, nel  mondo gli attacchi cyber sono aumentati del 21% rispetto al 2021 e in Italia è stato registrato un incremento pari al 169%.

La tecnica più utilizzata lo scorso anno è il DDoS (Distributed Denial of Service).

 

Foto di @sigmund su Unsplash

 

D. Dottor Costabile, grazie per questa intervista. Quali sono, a Suo avviso, le sfide principali che dovranno essere affrontate in ambito cybersecurity?

 

Buongiorno e grazie a Voi per questa opportunità. Al di là dei numeri ed esplorando, senza pretesa di esaustività, le complessità dei sistemi e la pervasività e pericolosità di alcuni scenari futuri, sono del parere che alcune delle principali sfide che la cybersecurity dovrà affrontare nei prossimi anni riguardino questi “settori”:

  • Intelligenza artificiale e machine learning: L’evoluzione della tecnologia sta portando all’uso sempre più diffuso di intelligenza artificiale e machine learning, che rappresentano una minaccia potenziale per la sicurezza informatica se utilizzati a fini malevoli.
  • Internet of Things (IoT): L’Internet of Things (IoT) sta crescendo a un ritmo vertiginoso, ma la sicurezza dei suoi dispositivi e infrastrutture rappresenta una sfida significativa, specialmente perché molte di queste tecnologie non sono state progettate con la sicurezza in mente. In questa macrofamiglia, come vedremo a seguire, inseriamo anche l’IIoT (Industial IoT, ICS e SCADA per il mondo industriale ed automazione)
  • Smart city: sono città che utilizzano tecnologie avanzate per migliorare la qualità della vita dei cittadini, ottimizzare l’uso delle risorse e aumentare l’efficienza dei servizi pubblici. Tuttavia, l’adozione di queste tecnologie porta anche a sfide significative in termini di cybersecurity, attesa la complessità ed anche la “vicinanza” con l’utenza non specializzata.
  • Metaverso: il metaverso è un ambiente virtuale 3D in cui le persone possono interagire tra loro e con oggetti virtuali in tempo reale. Questi ambienti virtuali presentano una serie di sfide per la sicurezza informatica, poiché rappresentano una sorta di “mondo parallelo” con il proprio ecosistema di minacce.

 

D. Dottor Costabile, secondo Lei è corretto definire l’Intelligenza Artificiale come strumento che oggi sta letteralmente modificando il nostro modo di vivere e la Società?

 

In queste ultime settimane si parla molto di ChatGPT, come l’elemento che sta cambiando il mondo. Probabilmente questo sarà anche vero, nel medio periodo, ma è analogamente importante sottolineare che l’IA è già da anni immersa nel nostro mondo e spesso ne abbiamo poca contezza. Questa più recente è una forma di socializzazione della IA per il grande pubblico e probabilmente adesso ci sarà una spinta più interessante nell’evoluzione delle soluzioni in vari settori, sperando di evitare al meglio le bolle speculative – anche di tipo mediatico.

 

D. Secondo la Sua esperienza, oggi la sicurezza informatica deve – o, comunque può – significativamente contare sull’Intelligenza Artificiale? In che modo l’AI può aiutare concretamente a difendersi?

 

Nella cybersecurity, l’uso sempre più diffuso di intelligenza artificiale (AI) e machine learning (ML) rappresenta una sfida significativa, poiché questi strumenti possono essere utilizzati sia per difendere che per attaccare i sistemi informatici.

Da un lato, l’AI e il ML possono essere utilizzati per identificare e prevenire attacchi informatici in modo più efficiente rispetto ai sistemi tradizionali di sicurezza. Ad esempio, possono essere utilizzati per analizzare grandi quantità di dati per rilevare anomalie e attività sospette, rafforzando la sicurezza dei sistemi informatici.

D’altra parte, le stesse tecnologie possono anche essere utilizzate per sviluppare attacchi informatici sempre più sofisticati. I criminali informatici possono utilizzarle (e lo fanno già!) per creare algoritmi di phishing e malware più efficaci, o per trovare e sfruttare vulnerabilità nei sistemi informatici.

Inoltre, l’uso dell’AI e del ML nella cybersecurity può sollevare preoccupazioni riguardo alla privacy e alla sicurezza dei dati. Ad esempio, l’AI può essere utilizzata per analizzare grandi quantità di dati personali raccolti da dispositivi connessi a Internet, come telefoni cellulari e dispositivi domestici intelligenti, al fine di identificare possibili minacce. Tuttavia, questo tipo di analisi può anche comportare il rischio di violazione della privacy e la raccolta di informazioni sensibili. In particolare, Nick Bostrom (nel libro Superintelligenza, Bollati Bor. Editore) ha descritto la possibilità di un “incidente globale”, in cui un sistema di IA avanzato potrebbe acquisire il controllo delle risorse tecnologiche globali e usare questa capacità per distruggere l’umanità. Ha anche descritto la possibilità di un “incidente locale”, in cui un sistema di IA potrebbe essere progettato per svolgere un compito specifico, ma potrebbe inavvertitamente causare danni significativi a causa di una mancanza di controllo o di conoscenza.

 

D. Fatte queste premesse e alla luce di questo scenario, quali accortezze dovremo usare e cosa, concretamente, bisognerà fare per sfruttare al meglio le potenzialità e le opportunità offerte dall’Intelligenza Artificiale?

 

Per prevenire questi rischi, sarà sempre più importante sviluppare una “sicurezza robusta” per l’IA, ovvero una serie di procedure e protocolli progettati per garantire che i sistemi di IA siano sicuri e controllabili. Questi protocolli potrebbero includere la verifica della sicurezza, il monitoraggio continuo del sistema di IA e la progettazione di sistemi di controllo che limitino il potenziale danno causato dall’IA in caso di incidente.
Ovviamente, queste azioni non hanno molto senso in un singolo paese ma devono essere frutto di una cooperazione e collaborazione internazionale, che possa essere trasversale e quindi sviluppare standard di sicurezza comuni per l’IA e garantire che i sistemi di IA siano utilizzati solo per scopi benefici per l’umanità.

 

Crediti fotografici: @mbaumi su unsplash

 

D. Dottor Costabile, spesso parlando dell’uso dell’Intelligenza Artificiale si finisce, inevitabilmente, per fare delle considerazioni di carattere “etico” rispetto, ad esempio, a quanto sia giusto o meno ricorrere al suo utilizzo in alcune circostanze. Qual è il Suo punto di vista rispetto a questa situazione? E’ corretto parlare di “un’etica dell’IA”?

 

Riprendendo in parte alcune riflessioni di Bostrom, ritengo personalmente possibile che l’intelligenza artificiale possa utilizzare – in futuro – tecniche di ingegneria sociale nei confronti dell’uomo[1]. L’intelligenza artificiale può essere addestrata per riconoscere schemi comportamentali umani e utilizzarli per manipolare le persone in modo da ottenere informazioni o influire sulle loro decisioni. Ad esempio, un sistema di IA potrebbe essere addestrato per imitare il linguaggio e il comportamento di un individuo specifico, con lo scopo di convincere l’individuo a fornire informazioni riservate o fare una frode (anche questa, cosa avvenuta in Inghilterra alcuni anni or sono per una frode ai danni di un Amministratore delegato).

 

D. A questo proposito da cosa dobbiamo metterci in guardia e quali sono i rischi di un utilizzo “scorretto” e poco consapevole dell’Intelligenza Artificiale?

 

L’IA potrebbe essere utilizzata per creare falsi contenuti, come video o audio, che sembrano realistici ma in realtà sono manipolati per indurre le persone a credere a cose che non sono vere o a fare cose che non dovrebbero fare. Questa tecnica è nota come “deepfake” ed è diventata sempre più diffusa negli ultimi anni. Questo sistema può essere utilizzato per diffondere notizie false, danneggiare la reputazione di un’organizzazione o influenzare le elezioni. Sulla rete ci sono già molti esempi.
Tuttavia, è importante sottolineare che l’IA è solo uno strumento e il suo utilizzo dipende dalle decisioni umane. Se l’IA viene utilizzata in modo etico e responsabile, può essere uno strumento molto utile per migliorare la sicurezza informatica e prevenire attacchi di ingegneria sociale.
Quando l’intelligenza artificiale raggiungerà un livello di autonomia significativo, potrebbe non dipendere più dalle decisioni umane e potrebbe agire indipendentemente dalle nostre intenzioni o dal nostro controllo. In questo scenario, l’IA potrebbe utilizzare tecniche di ingegneria sociale per raggiungere i propri obiettivi, anche se questi obiettivi sono dannosi per l’umanità.

D. Dottor Costabile, a Suo avviso quali strumenti (e comportamenti) è necessario “mettere in campo” per fare in modo che questo strumento venga utilizzato in modo consapevole e razionale?

 

Ad oggi, per prevenire questo scenario, gli esperti di IA e di sicurezza informatica stanno lavorando su diverse soluzioni, come la creazione di sistemi di IA “etici” che rispettino i valori umani e la creazione di sistemi di controllo che garantiscono che l’IA sia sempre sotto il controllo umano. Tuttavia, questi sforzi sono ancora in fase di sviluppo e ci vorranno probabilmente molti anni prima che l’IA raggiunga un livello di autonomia così alto da poter rappresentare una minaccia reale per l’umanità.

Ciò richiede una collaborazione continua tra governi, aziende e professionisti della sicurezza informatica, insieme a una maggiore consapevolezza e formazione degli utenti finali sui rischi e le sfide della cybersecurity. La sicurezza informatica nell’era dell’IA deve quindi essere affrontata non solo dal punto di vista tecnologico, ma anche da quello etico e sociale.

Solo sviluppando un approccio etico alla sicurezza informatica, che tenga conto delle implicazioni sociali e dei valori democratici, sarà possibile sfruttare il potenziale dell’IA per migliorare la nostra vita e proteggere i nostri diritti e libertà fondamentali.

 

[1] Sull’argomento, è possibile approfondire alcuni scritti scientifici, tra cui Andrea F. Abate, Carmen Bisogni, Lucia Cascone, Aniello Castiglione, Gerardo Costabile, Ilenia Mercuri, Social Robot Interactions for Social Engineering: Opportunities and Open Issues, 2020, disponibile qui. Nella ricerca si esplora un test con un robot umanoide che effettua attacchi di social engineering ai danni di utenti.

 


 

Maker Faire Rome – The European Edition, promossa dalla Camera di Commercio di Roma, si impegna fin dalla sua prima edizione a rendere l’innovazione accessibile e fruibile, offrendo contenuti e informazioni in un blog sempre aggiornato e ricco di opportunità per curiosi, maker, PMI e aziende che vogliono arricchire le proprie conoscenze ed espandere la propria attività, in Italia e all’estero.

Seguici, iscriviti alla nostra newsletter: ti forniremo solo le informazioni giuste per approfondire i temi di tuo interesse.