Le immagini AI stanno diventando sempre più difficili da individuare.  Google pensa di avere una soluzione.

Blog

CasaCasa / Blog / Le immagini AI stanno diventando sempre più difficili da individuare. Google pensa di avere una soluzione.

Aug 19, 2023

Le immagini AI stanno diventando sempre più difficili da individuare. Google pensa di avere una soluzione.

Le immagini generate dall’intelligenza artificiale stanno diventando sempre più difficili da distinguere da quelle reali poiché le aziende tecnologiche corrono per migliorare i loro prodotti di intelligenza artificiale. Con l’intensificarsi della campagna presidenziale del 2024, la preoccupazione aumenta

Le immagini generate dall’intelligenza artificiale stanno diventando sempre più difficili da distinguere da quelle reali poiché le aziende tecnologiche corrono per migliorare i loro prodotti di intelligenza artificiale. Con l’intensificarsi della campagna presidenziale del 2024, cresce rapidamente la preoccupazione che tali immagini possano essere utilizzate per diffondere informazioni false.

Martedì, Google ha annunciato un nuovo strumento, chiamato SynthID, che secondo lui potrebbe essere parte della soluzione. Lo strumento incorpora una “filigrana” digitale direttamente nell'immagine che non può essere vista dall'occhio umano ma può essere rilevata da un computer addestrato a leggerla. Google ha affermato che la sua nuova tecnologia di watermarking è resistente alle manomissioni, rendendola un passo fondamentale verso il controllo della diffusione di immagini false e il rallentamento della diffusione della disinformazione.

I generatori di immagini AI sono disponibili da diversi anni e sono stati sempre più utilizzati per creare “deepfakes”: immagini false che pretendono di essere reali. A marzo, immagini false dell’ex presidente Donald Trump in fuga dalla polizia sono diventate virali online, e a maggio un’immagine falsa che mostrava un’esplosione al Pentagono ha causato un momentaneo crollo dei mercati azionari. Le aziende hanno inserito loghi visibili sulle immagini AI, nonché “metadati” di testo allegati che indicano l'origine di un'immagine, ma entrambe le tecniche possono essere ritagliate o modificate con relativa facilità.

"Chiaramente il genio è già uscito dalla bottiglia", ha detto in un'intervista la deputata Yvette D. Clarke (DN.Y.), che ha spinto per una legislazione che imponga alle aziende di filigranare le loro immagini AI. "Semplicemente non l'abbiamo visto massimizzato in termini di utilizzo delle armi."

Per ora, lo strumento di Google è disponibile solo per alcuni clienti paganti della sua attività di cloud computing e funziona solo con immagini realizzate con lo strumento di generazione di immagini di Google, Imagen. L'azienda afferma che non richiede ai clienti di utilizzarlo perché è ancora sperimentale.

L'obiettivo finale è quello di contribuire a creare un sistema in cui la maggior parte delle immagini create dall'intelligenza artificiale possano essere facilmente identificate utilizzando filigrane incorporate, ha affermato Pushmeet Kohli, vicepresidente della ricerca presso Google DeepMind, il laboratorio di intelligenza artificiale dell'azienda, che ha avvertito che il nuovo strumento non è del tutto infallibile. “La domanda è: abbiamo la tecnologia per arrivarci?”

Man mano che l’intelligenza artificiale migliora nella creazione di immagini e video, politici, ricercatori e giornalisti temono che il confine tra ciò che è reale e ciò che è falso online verrà ulteriormente eroso, una dinamica che potrebbe approfondire le divisioni politiche esistenti e rendere più difficile la diffusione di informazioni basate sui fatti. Il miglioramento della tecnologia deepfake sta arrivando mentre le società di social media si stanno tirando indietro dal tentativo di controllare la disinformazione sulle loro piattaforme.

Il watermarking è una delle idee su cui si stanno mobilitando le aziende tecnologiche come potenziale modo per ridurre l’impatto negativo della tecnologia “generativa” dell’intelligenza artificiale che stanno rapidamente distribuendo a milioni di persone. A luglio, la Casa Bianca ha ospitato un incontro con i leader di sette delle più potenti società di intelligenza artificiale, tra cui Google e OpenAI, produttore di ChatGPT. Tutte le aziende si sono impegnate a creare strumenti per filigranare e rilevare testo, video e immagini generati dall'intelligenza artificiale.

Microsoft ha avviato una coalizione di aziende tecnologiche e società di media per sviluppare uno standard comune per la filigrana delle immagini AI e la società ha affermato che sta ricercando nuovi metodi per tracciare le immagini AI. L'azienda inserisce inoltre una piccola filigrana visibile nell'angolo delle immagini generate dai suoi strumenti di intelligenza artificiale. OpenAI, il cui generatore di immagini Dall-E ha contribuito a dare il via all'ondata di interesse per l'intelligenza artificiale lo scorso anno, aggiunge anche una filigrana visibile. I ricercatori dell'intelligenza artificiale hanno suggerito modi per incorporare filigrane digitali che l'occhio umano non può vedere ma che possono essere identificate da un computer.

Kohli, il dirigente di Google, ha affermato che il nuovo strumento di Google è migliore perché funziona anche dopo che l'immagine è stata modificata in modo significativo: un miglioramento chiave rispetto ai metodi precedenti che potrebbe essere facilmente ostacolato modificando o addirittura capovolgendo un'immagine.

"Esistono altre tecniche per il watermarking incorporato, ma non pensiamo che siano così affidabili", ha affermato.