Proteggersi dalle invadenze dell’Intelligenza Artificiale è importante. Soprattutto se sei un’artista. Finalmente c’è un modo per farlo.
Tutelare sé stessi e, soprattutto, le proprie opere d’arte è importante. E questo metodo è davvero geniale.
Intromissione Artificiale
Ormai l’Intelligenza Artificiale sta letteralmente invadendo qualunque campo. Ci sono tesi universitarie redatte usando la IA, articoli di giornale, molte voci degli spot e dei video che girano sui social (sono certa che in molti casi non te ne sia accorto) sono generate con l’Intelligenza Artificiale.
Ma il campo in cui è più evidente ed invadente la presenza dell’Intelligenza Artificiale è quello delle arti visive. Ormai quando si guarda una fotografia o un video non si sa più se ciò che si sta guardando sia reale o artefatto.
E se questo in certi contesti può far sorridere (pensa alle app di incontri in cui quasi sempre reale ed immaginario si confondono) in altri può essere molto pericoloso.
Danni Reali da Intelligenza Artificiale
Pensiamo ai DeepFake e cioè a quei video falsi nei quali, grazie alla IA, è possibile “incollare” la faccia di chi vogliamo su un corpo e fargli dire ciò che vogliamo. Persino Obama ne è stato vittima. Teoricamente i più puri d’animo tra di noi potrebbero pensare che non ci sia nulla di male ad usare il volto di attori e politici nei video artefatti.
Ma pensa a cosa potrebbe accadere se, tramite un video fake, il Presidente di uno stato dichiarasse guerra ad un altro Stato. O se tramite questi video si veicolassero messaggi in grado di generare panico di massa. Già, non c’è proprio nulla di simpatico.
Arte in pericolo
Anche il mondo dell’arte se la passa malissimo da questo punto di vista. Ricordiamo come funziona l’IA: essa è programmata per fagocitare informazioni ed imparare da ciò che ha “mangiato”. Se tu le propini tutta la biografia e le opere di Leopardi, IA è perfettamente in grado non solo di scrivere tesine ed articoli sul grande poeta ma anche di elaborare poesie alla maniera di Leopardi.
Stessa cosa vale per i dipinti e per le opere digitali. L’IA se ne appropria e li fa circolare, senza tenere in minimo conto il diritto d’autore. Ed è in questo contesto che si inserisce l’artista Greg Rutkowski che per primo ha sollevato il problema che ha portato un gruppo di ricercatori dell’Università di Chicago ad elaborare una soluzione geniale.
Il veleno dell’Intelligenza Artificiale
I ricercatori, infatti, stanno sviluppando una sorta di veleno per “uccidere” l’Intelligenza Artificiale. Cosa ha a che fare l’artista concettuale Rutkowski con questo veleno? E’ presto detto. A inizio dello scorso anno Greg, che crea opere digitali in stile fantasy si è reso conto che stavano circolando illustrazioni identiche alle sue ma che lui non aveva mai creato.
I suoi contenuti erano stati dati in pasto alla IA che ne aveva prodotti altri in tutto e per tutto in linea con lo stile di Rutkowski ma non fatti da lui. Greg fu dunque il primo a chiedersi “cosa ne sarà della mia arte se nemmeno io ormai riesco a riconoscere i miei stessi contenuti”?
E partendo dai suoi timori il team di ricercatori ha sviluppato Nightshade. Si tratta di un programma da aggiungere alle immagini digitali prima che vengano messe in rete. Questo programma aggiunge delle modifiche invisibili che però sono “mortali” per la IA. Se l’IA dovesse “mangiare” i contenuti protetti da Nightshade il sistema di “avvelenerebbe“: in pratica Nightshade avvelena i dati di addestramento stravolgendoli. Questo significa che, ad esempio, la sabbia diventa acqua, i cani diventano gatti e via discorrendo.
Chiaramente col tempo la IA imparerà anche a sviluppare un antidoto per questi veleni ma, per ora, Nightshade sta facendo benissimo il suo lavoro.