Artisti contro intelligenza artificiale: arriva Nightshade, “l’avvelenatore di immagini”

Per permettere agli artisti di difendersi dai furti di immagini, un team di ricercatori ha realizzato Nightshade, uno strumento che gli utenti possono “allegare” al proprio lavoro creativo per corrompere il software che lo userà per ricavarne dati di addestramento

Continua la guerra che vede gli artisti contrapposti ai software generativi di immagini che usano le loro opere per allenare l’intelligenza artificiale. Oltre alle cause già in corso, che idealmente permetteranno di sanare i torti subiti e sanare l’evidente lacuna legale, gli artisti hanno ora un nuovo aiuto per difendersi dal furto intellettuale: un veleno per le IA. Parliamo di Nightshade, uno strumento che gli utenti possono allegare al proprio lavoro creativo per corromperne la lettura da parte dei software che vogliono usare quell’arte per ricavarne dati di addestramento (i cosiddetti scraper), rendendo di fatto inutili modelli generativi da testo a immagine come DALL-E, Stable Diffusion e Midjourney e andando a danneggiare le loro abilità sul lungo periodo.

Come funziona Nightshade, il veleno per IA

Quello che Nightshade sostanzialmente permette di fare è di aggiungere delle “modifiche invisibili” ai pixel di un’opera d’arte digitale, attribuendole un significato diverso rispetto a quello che l’immagine effettivamente rappresenta: per esempio, se il modello per l’addestramento prende l’immagine di un tavolo, la nuova aggiunta lo porterà a leggere quel tavolo come un gatto. Questo andrebbe completamente ad alterare la leggibilità delle immagini, e la loro riproducibilità. Stando alla rivista del Massachusetts Institute of Technology MIT Technology Review, uno dei creatori dello strumento – il professore dell’Università di Chicago Ben Zhao – spera con questa innovazione di “ribaltare l’equilibrio di potere in atto, togliendolo di fatto alle aziende di Intelligenza Artificiale che hanno preso dati protetti da copyright per addestrare i loro modelli”. 

Glaze o Nightshade “contro” l’intelligenza artificiale

Ma Nightshade funziona davvero? The Verge, il documento di ricerca alla base dello strumento (che presto diventerà open source), sostiene che i dati di addestramento utilizzati nei modelli di IA da testo a immagine sono effettivamente vulnerabili a questo tipo di attacco: “Sorprendentemente, dimostriamo che un numero moderato di attacchi Nightshade può destabilizzare le caratteristiche generali di un modello generativo testo-immagine, disabilitando di fatto la sua capacità di generare immagini significative”. Uno strumento potente, a cui il team di ricercatori dietro il suo sviluppo ha affiancato una soluzione meno intensa: Glaze, un altro strumento che maschera lo stile artistico di un’opera (trasformando un’illustrazione in foto 3D, o un’opera realistica in cubista). Gli sviluppatori potrebbero integrare Nightshade dentro Glaze, lasciando agli utenti la libertà di scegliere – in assenza di una soluzione migliore, magari attraverso il pagamento di royalties – se accontentarsi di rendere illeggibile il proprio stile o utilizzare direttamente la “pillola avvelenata”.

Giulia Giaume

Artribune è anche su Whatsapp. È sufficiente cliccare qui per iscriversi al canale ed essere sempre aggiornati

Giulia Giaume

Giulia Giaume

Amante della cultura in ogni sua forma, è divoratrice di libri, spettacoli, mostre e balletti. Laureata in Lettere Moderne, con una tesi sul Furioso, e in Scienze Storiche, indirizzo di Storia Contemporanea, ha frequentato l'VIII edizione del master di giornalismo…

Scopri di più