5 software gratuiti per riconoscere le immagini false generate dall’AI
È sempre più difficile capire se una foto è stata creata o manipolata con l’intelligenza artificiale, ma esistono software in grado di riconoscere automaticamente le immagini fake
La proliferazione dell’intelligenza artificiale e di immagini realistiche generate da algoritmi sta crescendo costantemente, agevolando la diffusione di informazioni false o ingannevoli. In risposta a questa sfida, sono emersi nuovi strumenti che utilizzano l’intelligenza artificiale in modo opposto, mirando a smascherare foto manipolate e distinguendo tra ciò che è autentico e ciò che è prodotto artificialmente.
Le difficoltà di distinguere la realtà
Persino la più recente versione di Photoshop permette agli utenti di manipolare o aggiungere facilmente un’immagine in pochi secondi, semplicemente dando un comando al programma. La versione beta della nuova funzionalità “Generative Fill” di Adobe arriva sulla scia di numerosi altri progressi nel software di generazione di immagini avvenuti nell’ultimo anno.
Nel tentativo di aumentare la trasparenza e rassicurare gli utenti, ad ogni modo, Adobe – produttore di Photoshop – ha deciso che le immagini create utilizzando la nuova tecnologia AI di Photoshop avranno un’etichetta nelle credenziali del contenuto – che Adobe chiama “nutrition label”, contenente metadati delle foto – per indicare che l’immagine è stata alterata utilizzando l’intelligenza artificiale e non generare convinzioni ingannevoli negli utenti.
Tra etica e tecnologia
L’intelligenza artificiale è, infatti, uno strumento potentissimo e dal potenziale assolutamente che continua a sorprendere positivamente. Recentemente, a Maker Faire Rome 2023 abbiamo affrontato il tema grazie alle molte occasioni di approfondimento, che ne hanno evidenziato il valore per lo sviluppo della società, dell’economia, del lavoro.
Al tempo stesso però, il suo uso malizioso può alimentare problemi importanti, non ultimo quello della disinformazione. E’ infatti “allarme IA e fake news”: l’Intelligenza artificiale può peggiorare la nostra disinformazione se le intelligenze artificiali generative sono utilizzate per distorcere la realtà attraverso la produzione di ‘fake’, false immagini.
Ne seguono preoccupazioni etiche importanti, dalle questioni di copyright alle accuse di pregiudizi razzisti o sessisti alla possibilità che questi programmi generativi utilizzati in modo scorretto possano contribuire a diffondere disinformazione. Data la rapidità con cui questa tecnologia è avanzata finora, è lecito ritenere che presto raggiungeremo un punto in cui le immagini generate dall’intelligenza artificiale e le immagini reali saranno quasi impossibili da distinguere. Nuovamente, sarà proprio la tecnologia a venirci in aiuto.
Le soluzioni, a difesa della verità
La rivista Wired ha provato a testare queste tecnologie di contrasto alla produzione di immagini false. Si tratta di piattaforme che rendono disponibili gratuitamente software capaci di analizzare le immagini e riconoscerne la manipolazione. Ecco una lista dei cinque migliori, secondo l’analisi del magazine:
AI or not
Lanciato nel 2022 da Optic — società di intelligenza artificiale con sede a San Francisco — questa piattaforma fa uso di tecnologie avanzate per autenticare immagini, video e audio, distinguendo tra contenuti reali e falsi. L’obiettivo iniziale di AI o Not era individuare Nft falsati. Infatti, mentre la blockchain garantisce l’unicità e l’immutabilità del registro, non ha alcuna influenza sul contenuto effettivo dei file. Pertanto, è necessaria un’ulteriore infrastruttura per verificare se un’immagine o un video sia autentico, generato dall’IA, rubato o contenga materiali coperti da copyright. Fino a oggi, AI o Not ha identificato oltre 100 milioni di falsi Nft, dimostrando notevole efficacia anche nel riconoscimento dei falsi che circolano sul web. Punto debole dell’applicazione è il riconoscimento dei disegni umani, che talvolta vengono confusi con quelli generati dall’intelligenza artificiale.
Inoltre, i test condotti da Bellingcat, un’organizzazione specializzata nell’analisi open source, rivelano che “le prestazioni positive di AI o Not con le immagini normali sono limitate da prestazioni notevolmente inferiori con immagini compresse“. Questo aspetto è particolarmente rilevante per gli operatori open source che spesso non hanno accesso a formati in alta risoluzione contenenti dati sufficienti alla rilevazione delle AI.
Illuminarty
Questa piattaforma offre una vasta gamma di strumenti progettati per aiutare gli utenti a individuare immagini generate dall’intelligenza artificiale. Nei test che abbiamo effettuato, Illuminarty ha valutato correttamente la maggior parte delle foto reali come autentiche, ma ha etichettato solo circa la metà delle immagini AI come artificiali. Lo strumento, hanno affermato i creatori, ha un design intenzionalmente cauto per evitare di accusare falsamente gli artisti di utilizzare l’intelligenza artificiale. Nell’esempio che mostriamo il software ha riconosciuto la foto di Putin inginocchiato ai piedi di Xi che è circolata molto sui social negli scorsi mesi.
Gli utenti possono confermare se una certa foto o un disegno sono stati generati dall’intelligenza artificiale, identificare il modello specifico di programma utilizzato nella sua creazione e individuare, eventualmente le aree specifiche generate da algoritmi di AI.
Hugging face
La sua semplicità d’uso e l’accesso gratuito lo rendono uno strumento davvero funzionale. Grazie al suo status open source, è completamente gratuito per chiunque desideri utilizzarlo. L’applicazione offre una percentuale che distingue tra elementi “umani” e “artificiali”. Nelle nostre prove, il riconoscimento è stato completato in appena cinque secondi. L’accuratezza è soddisfacente, anche se non perfetta al 100%.
Nell’esempio che mostriamo, il rilevatore ha identificato con successo un dipinto dall’aspetto incredibilmente realistico, simile allo stile di Monet, generato da Dall-e, modello di intelligenza artificiale per creare immagini.
FotoForensics
Questo software si distingue dalla concorrenza in quanto supporta una vasta gamma di formati, incluso l’opzione di inserire un Url di un’immagine. Lo strumento fa anche uso dell’analisi del livello di errore (Ela) per individuare variazioni nei livelli di compressione all’interno dei file analizzati. Se una sezione specifica dell’immagine presenta un livello di errore notevolmente diverso, spesso ciò indica che la foto è stata modificata digitalmente. Inoltre, Foto Forensics mette a disposizione una serie di risorse per analizzare e identificare immagini generate dall’IA, tra cui algoritmi e tutorial online utilizzabili dagli utenti. Nell’esempio che abbiamo riportato l’analisi Ela rivela chiaramente una differenza di compressione tra le immagini giustapposte, rivelando così la manipolazione fotografica.
Questa applicazione funziona come una sorta di lente d’ingrandimento per osservare più da vicino una risorsa grafica. Offre una serie di strumenti gratuiti che consentono agli utenti di valutare la legittimità di un’immagine e determinare se questa sia stata generata dall’AI o meno.
Maker Faire Rome – The European Edition, promossa dalla Camera di Commercio di Roma, si impegna fin dalla sua prima edizione a rendere l’innovazione accessibile e fruibile, offrendo contenuti e informazioni in un blog sempre aggiornato e ricco di opportunità per curiosi, maker, PMI e aziende che vogliono arricchire le proprie conoscenze ed espandere la propria attività, in Italia e all’estero.
Seguici sui nostri social (Facebook, Instagram, Twitter, LinkedIn, Youtube) e iscriviti alla newsletter per ricevere aggiornamenti, sconti, agevolazioni per organizzare al meglio la tua partecipazione.