Mostra tutti

Stable Signature – Così Meta etichetterà le immagini prodotte dall’Intelligenza Artificiale

Nell’ambito delle immagini generate dall’intelligenza artificiale (AI), recenti statistiche rivelano un incremento esponenziale nella produzione di questi contenuti. Si stima che oltre 15 miliardi di immagini siano state create utilizzando modelli AI da fonti open source, un volume che supera il numero totale di immagini caricate su piattaforme popolari come Instagram. Questa tendenza evidenzia l’impatto significativo che la tecnologia AI sta avendo sulla creazione di contenuti digitali, segnalando un cambiamento nell’ecosistema dei media e sollevando questioni relative all’autenticità e alla provenienza dei contenuti online.  Fonte: Everypixel.

l campo dell’intelligenza artificiale generativa è in rapida espansione, aprendo altrettante opportunità quanto preoccupazioni, in particolare nell’ambito del copyright.

Meta, in collaborazione con Inria (inria.fr/en), ha introdotto una tecnica innovativa chiamata “Stable Signature – The Stable Signature: Rooting Watermarks in Latent Diffusion Models” per affrontare queste problematiche, mirando specificamente alla marcatura delle immagini create dai modelli generativi AI e consente di incorporare watermark invisibili direttamente nel processo di generazione delle immagini AI, che rimangono rilevabili anche dopo modifiche all’immagine.

Come individuare i Metadati

Individuare metadati nascosti o non immediatamente visibili in file digitali richiede competenze specifiche nell’analisi forense digitale e l’uso di strumenti adeguati. Il processo di rilevamento di metadati nascosti varia a seconda del tipo di file (immagini, documenti, audio, video) e della natura dei metadati. Tuttavia, posso descrivere in termini generali come si potrebbe procedere con un file immagine, ad esempio, utilizzando strumenti software.

Strumenti e Tecniche per Trovare Metadati Nascosti

  1. ExifTool: ExifTool è uno strumento molto potente, disponibile da linea di comando, che può leggere, scrivere ed editare metadati in un’ampia varietà di file. Per le immagini, può rivelare informazioni come l’ora e la data di creazione, la marca e il modello della fotocamera, le impostazioni della fotocamera al momento dello scatto, e molto altro.
    • Uso di base di ExifTool: mostrerà tutti i metadati associati a file.jpg.
  2. Binwalk: Binwalk è utilizzato principalmente per l’analisi di firmware e l’estrazione di file incapsulati, ma può anche essere usato per identificare parti nascoste o non convenzionali all’interno di file digitali.
    • Uso di Binwalk: può rivelare se ci sono dati nascosti o incorporati all’interno dell’immagine.
  3. Foremost/Autopsy: Sono strumenti di analisi forense che possono essere usati per recuperare dati da file digitali, inclusi quelli nascosti o cancellati.
  4. Stegdetect: Stegdetect è uno strumento specificamente progettato per rilevare la steganografia in immagini. La steganografia è una tecnica per nascondere dati all’interno di altri file, come immagini o audio, in modo non evidente.
  5. Python e librerie di elaborazione delle immagini: Script personalizzati in Python, utilizzando librerie come Pillow o OpenCV, possono essere scritti per analizzare immagini alla ricerca di anomalie o pattern che potrebbero indicare la presenza di metadati nascosti o manipolazioni.

Il test di estrazione Metadati “semplici” da immagine generata da AI.

L’estratto di metadati suggerisce che l’immagine è stata generata da un’intelligenza artificiale. In particolare, i seguenti campi sono indicatori chiave:

  • JUMD Type e JUMD Label: Indicano l’uso di un Content Authenticity Initiative (CAI) framework come quello promosso da c2pa.org (Coalition for Content Provenance and Authenticity). Questo è usato per tracciare la provenienza e l’autenticità dei contenuti digitali.
  • C2PA Hash Boxes Salt e Alg: Questi campi includono un valore “salt” che è usato per la generazione dell’hash e l’algoritmo di hashing utilizzato (sha256). I valori hash associati alle varie parti del file sono elencati e servono a garantire l’integrità del contenuto e delle informazioni di provenienza.
  • C2PA Actions Salt, Actions Action, e Actions Software Agent: Questi campi descrivono le azioni eseguite sull’immagine, incluso il software utilizzato per la creazione dell’immagine. “Image Creator from Designer” potrebbe essere il nome del software AI utilizzato.
  • Actions When e Actions Description: Questi campi specificano la data e l’ora della creazione dell’immagine e una descrizione che esplicitamente dice “AI Generated Image”.
  • Claim generator e Claim Generator Info: Questi campi forniscono informazioni su chi o cosa ha generato l’immagine, in questo caso, una qualche forma di strumento o framework di Microsoft dedicato all’IA responsabile.
  • Assertions: Include URL e hash che potrebbero corrispondere a ulteriori asserzioni riguardo alla provenienza e all’integrità dell’immagine.
  • Signature e Instance ID: Questi sono legati alla firma digitale che garantisce l’autenticità e l’integrità delle informazioni di provenienza.

I dati sono coerenti con il framework C2PA che mira a fornire un mezzo affidabile per tracciare la provenienza e assicurare l’autenticità del contenuto digitale. La presenza di questi metadati specifici fornisce trasparenza sulla creazione e manipolazione dell’immagine, permettendo agli utenti e alle piattaforme di valutare l’affidabilità e l’origine del contenuto.

Test per individuare ed eliminare Metadati nascosti

Se i metadati sono nascosti o non immediatamente accessibili attraverso metodi standard, potrebbe essere necessario utilizzare tecniche di analisi forense digitale per individuarli e rimuoverli. Ciò richiede strumenti specializzati che possono scansionare in profondità il file oltre i normali metadati visibili.

La libreria Python exiftool è una wrapper intorno al programma ExifTool, che può essere utilizzato per questo scopo. Tuttavia, la capacità di rilevare e rimuovere metadati nascosti dipende dalla natura e dalla complessità dei metadati stessi, e talvolta può richiedere competenze avanzate e approfondite conoscenze tecniche.

Ecco uno scenario di come si potrebbe usare ExifTool in Python per rimuovere metadati:

_____________

import subprocess
# Percorso dell’immagine originale
image_path = ‘percorso/della/tua/immagine.jpg’
# Comando ExifTool per rimuovere tutti i metadati
command = [‘exiftool’, ‘-all=’, image_path] # Esegue il comando
subprocess.run(command)
# Nota: Questo script richiede che ExifTool sia installato sul sistema in cui viene eseguito lo script.

____________

Questo script invoca ExifTool dalla linea di comando per rimuovere i metadati. Ricorda che questo approccio funziona solo se ExifTool è installato sul tuo sistema. Inoltre, è sempre buona pratica creare una copia di backup prima di modificare i file originali, per prevenire la perdita di dati.

La tecnica di watermarkingStable Signature”

Stable Signature è una tecnica di watermarking che si radica nel modello generativo stesso, piuttosto che essere un pensiero aggiunto all’immagine creata. Questa tecnica incapsula un watermark invisibile nel contenuto generato, che può essere ricondotto all’origine dell’immagine. Questo watermark rimane rilevabile anche se l’immagine subisce modifiche, come ritagli o cambiamenti di colore, assicurando che il contenuto possa sempre essere ricondotto alla sua fonte generativa.

L’implementazione tecnica di Stable Signature comporta un processo in due fasi. Il primo passo comprende l’addestramento di due reti neurali convoluzionali: una per codificare un’immagine con un messaggio casuale in un watermark, e un’altra per estrarre il messaggio dall’immagine con watermark. Il secondo passo coinvolge il fine-tuning del decoder latente del modello generativo per incorporare una firma fissa nelle immagini generate. Questo processo si è dimostrato sia rapido che efficace, richiedendo una quantità minima di dati e tempo per produrre immagini con watermark di alta qualità.

Uno dei vantaggi significativi di Stable Signature è la sua robustezza contro le comuni alterazioni delle immagini e la sua capacità di ridurre drasticamente la comparsa di falsi positivi nell’identificazione di contenuti generati da AI. Questo è cruciale in un ecosistema dove la maggior parte delle immagini online non sono generate da AI, e i falsi positivi possono portare a un vasto numero di immagini contrassegnate in modo errato.

Inoltre, l’approccio Stable Signature è adattabile alle pratiche comuni in AI, come il fine-tuning dei modelli fondazionali per casi d’uso specifici senza influenzare il watermark. Ciò lo rende uno strumento versatile che funziona bene con modelli generativi popolari come i modelli di immagini quantizzati vettorialmente e i modelli di diffusione latenti.

La filigrana delle immagini è stata a lungo studiata nel contesto del tracciamento e della protezione della proprietà intellettuale. Ci concentreremo sui modelli di diffusione latente (LDM) poiché possono eseguire un’ampia gamma di compiti generativi. Questo lavoro mostra che la semplice messa a punto di una piccola parte del modello generativo – il decodificatore che genera immagini dai vettori latenti – è sufficiente per incorporare nativamente una filigrana in tutte le immagini generate. Stable Signature non richiede alcuna modifica architetturale e non modifica il processo di diffusione.
Pertanto è compatibile con la maggior parte dei metodi generativi basati su LDM e la fase di messa a punto viene eseguita propagando all’indietro una combinazione di perdita di immagine percettiva e perdita di messaggio nascosto da un estrattore di filigrana al decodificatore LDM preaddestrando l’estrattore con una versione semplificata del metodo di deep watermarking HiDDeN.
Unire il watermarking e il processo generativo è un’idea recente che è più vicina alla letteratura sul modello watermarking e soffrono di due forti limitazioni. Innanzitutto, questi
metodi si applicano solo a GAN, mentre LDM sta iniziando a sostituirli nella maggior parte delle applicazioni. In secondo luogo, il watermarking è incorporato fin dall’inizio nel processo di formazione del GAN.

Per gli sviluppatori interessati ad implementare questa tecnica, il codice è disponibile su GitHub, “Stable Signature”, pubblicato sotto il titolo “The Stable Signature: Rooting Watermarks in Latent Diffusion Models” e fornisce una risorsa preziosa per integrare watermarking robusto nei modelli generativi. L’uso di questo metodo promette di migliorare la tracciabilità e l’integrità dei contenuti generati da AI, una considerazione importante per gli sviluppatori web e i ricercatori che mirano a mantenere standard elevati di affidabilità e responsabilità nell’uso delle tecnologie AI.

Per esplorare più a fondo e contribuire a questo importante lavoro, si può accedere al repository GitHub di Meta per il “Stable Signature” all’indirizzo: Stable Signature GitHub Repository.

Tag: Intelligenza Artificiale, Generazione di Immagini AI, Watermarking Invisibile, Contenuto Digitale, Meta Research, Forense Digitale, Python, ExifTool, Marcatura di Contenuti, Open Source, Autenticità Online, Modelli Generativi, Diffusione Latente, Tracciabilità dei Contenuti.

libro vita da hacker