Nuovi strumenti mirano a proteggere gli artisti dall’intelligenza artificiale
CasaCasa > Blog > Nuovi strumenti mirano a proteggere gli artisti dall’intelligenza artificiale

Nuovi strumenti mirano a proteggere gli artisti dall’intelligenza artificiale

Dec 23, 2023

Preservando l'integrità dell'art.

L’ascesa degli strumenti artistici basati sull’intelligenza artificiale minaccia di mettere gli artisti umani senza lavoro e molti modelli di intelligenza artificiale vengono addestrati a partire dal lavoro di artisti umani su Internet senza il loro consenso. Strumenti come Glaze, tuttavia, vengono sviluppati nel tentativo di ingannare gli strumenti artistici dell'intelligenza artificiale.

Glaze, sviluppato da scienziati informatici dell'Università di Chicago, utilizza algoritmi di apprendimento automatico per mascherare o nascondere digitalmente opere d'arte/immagini in modo da ostacolare i tentativi dei modelli di intelligenza artificiale di comprendere le immagini.

Ad esempio, un artista può caricare un'immagine del proprio dipinto a olio che è stata sottoposta a Glaze. Ciò farà sì che il modello AI legga il dipinto come qualcosa di simile a un disegno a carboncino, nonostante sia chiaramente un dipinto ad olio all'occhio umano.

Questo strumento consente agli artisti di acquisire un'immagine digitale della loro opera d'arte, eseguirla tramite Glaze, "e poi avere la certezza che quest'opera d'arte apparirà ora radicalmente diversa per un modello AI rispetto a un essere umano", Ben Zhao, un professore di informatica presso l’Università di Chicago e uno dei ricercatori principali del progetto Glaze, ha detto alla CNN.

Secondo Zhao, il primo prototipo di Glaze è stato rilasciato nel marzo 2023 e ha già superato il milione di download. All'inizio di questo mese è stata rilasciata anche una versione gratuita dello strumento.

Jon Lam, un artista con sede in California, ha dichiarato di utilizzare Glaze per tutte le immagini delle sue opere d'arte che condivide online.

"Sappiamo che le persone stanno prendendo il nostro lavoro ad alta risoluzione e lo stanno inserendo in macchine che competono nello stesso spazio in cui lavoriamo", ha affermato Lam. “Quindi ora dobbiamo essere un po’ più cauti e iniziare a pensare a come proteggerci”.

Anche Eveline Fröhlich, artista visiva con sede a Stoccarda, in Germania, ha parlato di come Glaze ha contribuito a proteggere gli artisti nell'era dell'intelligenza artificiale.

"Ci ha dato un modo per reagire", ha dichiarato Fröhlich. "Fino a quel momento, molti di noi si sentivano così impotenti di fronte a questa situazione, perché non c'era davvero un buon modo per tenerci al sicuro, quindi quella era davvero la soluzione." la prima cosa che mi ha reso personalmente consapevole che: sì, ha senso respingere.

Sebbene Glaze possa aiutare alcuni dei problemi legati all’intelligenza artificiale che gli artisti oggi devono affrontare, Lam afferma anche che è necessario fare di più per regolamentare il modo in cui le aziende tecnologiche possono acquisire dati da Internet per la formazione sull’intelligenza artificiale.

"In questo momento, vediamo gli artisti come i canarini nella miniera di carbone", ha detto Lam. "Ma influenzerà davvero ogni settore."

Zhao ha anche affermato che, da quando ha rilasciato Glaze, il suo team ha ricevuto un'ondata di messaggi da altri campi come scrittori di narrativa, musicisti, doppiatori, giornalisti, ecc. che chiedevano informazioni su una versione di Glaze per il loro campo.

Un altro strumento recente volto a proteggere le immagini digitali dagli strumenti AI si chiama PhotoGuard. Lo strumento è stato creato da Hadi Salman, ricercatore presso il Massachusetts Institute of Technology, insieme ai ricercatori del MIT del Computer Science and Artificial Intelligence Laboratory.

“Siamo nell’era dei deepfake”, ha detto Salman alla CNN. “Chiunque ora può manipolare immagini e video per indurre le persone a fare effettivamente qualcosa che non stanno facendo”.

Il prototipo della tecnologia mette una “immunizzazione” invisibile sulle immagini che impedisce ai modelli di intelligenza artificiale di manipolare o alterare l’immagine. PhotoGuard funziona regolando i pixel dell'immagine in modo impercettibile all'occhio umano. Lo scopo dello strumento è proteggere le foto che le persone caricano online da qualsiasi manipolazione da parte dei modelli AI.

Lo strumento utilizza due diversi metodi di “attacco” per generare le perturbazioni. Uno è l'attacco “codificatore” che prende di mira la rappresentazione latente dell'immagine nel modello AI, facendo sì che il modello percepisca l'immagine come un'entità casuale. Il secondo è l'attacco di “diffusione” che definisce un'immagine target e ottimizza le perturbazioni per far sì che l'immagine assomigli il più possibile al target.