Il papa con un piumino bianco alla moda, in stile trapper. È il caso che per qualche giorno ha infiammato il web e ha messo la maggior parte delle persone di fronte a un dato di fatto: ci confrontiamo sempre più spesso con immagini generate con Intelligenza Artificiale.
Ma come vengono prodotte? Come si riconoscono? E soprattutto, come la loro circolazione impatta sul mondo dell’arte e su quello dell’informazione e della comunicazione?
Le tecniche per realizzare immagini con intelligenza artificiale sono molteplici, e partono da altre immagini oppure da stringhe testuali (il cosiddetto T-T-I: text-to-image). Ci sono ad esempio le GAN (Generative Adversarial Networks), che offrono la possibilità di usare un set di immagini già esistenti: una prima rete le rielabora per generarne una nuova, che la seconda rete deve riconoscere come estranea al set originale. In questo modo la prima rete si “allena” e migliora man mano, per fare in modo di “ingannare” la seconda, fino al punto in cui non individua più la differenza tra le immagini.
Un’alternativa Midjourney (https://www.midjourney.com/home?callbackUrl=%2Fexplore), programma sviluppato da un laboratorio di ricerca, in cui si utilizza un comando testuale per descrivere l’immagine che si vuole produrre, che viene generata dal sistema e può essere poi personalizzata. Oltre a questa, le piattaforme per la generazione di immagini in IA sono numerose: tra le più note, Dall-E 2 (https://openai.com/dall-e-2) di OpenAI, laboratorio di ricerca sull'intelligenza artificiale, Runaway (https://runwayml.com/), Deep AI (https://deepai.org/), Stable Diffusion (https://stablediffusionweb.com/).
Molte di esse sono accessibili anche a chi non ha particolari competenze informatiche o artistiche, e del resto moltissime persone hanno sperimentato almeno una volta le funzionalità più semplici dell’IA, per esempio con le applicazioni che permettono di cambiare lo stile delle proprie foto ispirandosi a quello di pittori famosi (come l’app Prisma https://prisma-ai.com/).
Intelligenza artificiale e immagini artistiche
Come spesso accade, artiste e artisti hanno colto le potenzialità espressive di questa tecnologia e ne hanno fatto un ambito di indagine privilegiato. Un passo fondamentale nel riconoscimento di opere realizzate con IA si è avuto nell’ottobre 2018, quando Christie’s, la più grande casa d’aste del mondo, ha venduto per 400mila dollari Il ritratto di Edmond Belamy (https://www.christies.com/lot/lot-edmond-de-belamy-from-la-famille-de-6166184/?from=salesummery&intObjectID=6166184&sid=18abf70b-239c-41f7-bf78-99c5a4370bc7). L’opera è realizzata dal collettivo francese Obvious Art e la firma riportata nella parte bassa del quadro è decisamente insolita: un algoritmo. Il dipinto è infatti prodotto tramite l’IA, sfruttando reti GAN e partendo da un database di 15.000 ritratti datati tra il XIV e il XX secolo.
Per quanto sperimentazioni in questo senso non fossero nuove all’epoca, era meno consueto che trovassero l’attenzione di istituzioni così importanti. Il dibattito che ne è nato ha messo in discussione i confini stessi del concetto di arte: siamo ancora in presenza di opere artistiche? Dal momento che queste opere attingono a database di altre opere, non fanno altro che copiare? E l’artista può ancora considerarsi il vero autore, o autore è il programma informatico?
Il confronto su questi temi non si è affievolito nel corso degli anni, mentre le gallerie hanno iniziato a popolarsi di opere in cui l’intervento umano si ibrida con l’azione dei sistemi di IA. A chi difende una presunta incontaminazione dell’arte rispetto ai sistemi tecnologici, si oppongono le posizioni che riconoscono come l’IA sia diventata uno strumento creativo come molti altri.
In questo senso, l’uso dell’IA ci spinge a considerare come nel corso dei secoli l’arte abbia preso corpo attraverso materiali che andavano ben oltre la sola tela e pennelli (basta pensare alle opere di Duchamp e Manzoni, tra le tante). E di conseguenza ci porta a riconoscere che le tecniche non sono neutre, ma contribuiscono, insieme alla creatività dell’autore e a una rete di altri fattori (il periodo storico, le influenze, …), a determinare la peculiarità di ciascuna opera. Questo porta a intendere in maniera più complessa il concetto di autorialità, immaginando che possa includere anche l’atto di istruire una rete e lavorare con essa per generare un’opera. D’altra parte, dal dibattito emerge la necessità comprendere meglio i confini di questo intervento: è sufficiente produrre un’immagine con un tool di IA disponibile online perché una persona sia considerata artista? E come la facilità nel generare immagini di buona qualità anche per chi non ha particolari competenze impatta sulle professioni legate all’arte, come l’illustrazione o il design?
Molte questioni sono ancora aperte, e questo rende il riconoscimento del copyright per le opere in IA tutt’ora problematico e contestato. È il caso ad esempio di Jason M. Allen, che ha vinto un premio alla Colorado State Fair Fine Arts Competition con l’opera in IA Théâtre D’opéra Spatial, ma nonostante questo si è visto negare dall’ufficio preposto la tutela del copyright. O meglio, Allen avrebbe potuto tutelare quelle parti da lui modificate con Photoshop, ma non le restanti.
Intelligenza artificiale e fotografia artistica
Un altro momento “caldo” del dibattito sull’IA nella creazione artistica si è avuto nel marzo 2023, quando l’artista tedesco Boris Eldagsen ha vinto il primo premio nella categoria “Creative” dell’importante concorso fotografico Sony World Photography Awards (https://www.worldphoto.org/sony-world-photography-awards). Lo scatto The Electrician è stato generato con il sistema IA Stable Diffusion ed è parte di una serie dall’eloquente titolo “Pseudomnesia: Fake Memories” (https://www.eldagsen.com/pseudomnesia/), che si ispira visivamente agli scatti in bianco e nero degli anni Quaranta. Al momento dell’attribuzione del premio i giudici non erano al corrente della genesi dell’immagine, ma lo hanno poi confermato anche una volta chiarita la sua natura. Lo scalpore è nato però perché l’artista lo ha rifiutato, con l’obiettivo di proporre una riflessione pubblica sulle immagini realizzate con IA.
In particolare, Eldagsen pone sul tappeto due questioni. La prima rivendica l’artisticità del lavoro con IA, e nello stesso tempo la sua peculiarità rispetto ad altre forme artistiche. «Per me, lavorare con generatori di immagini IA è una co-creazione, in cui i sono il regista» precisa l’artista: «non si tratta solo di premere un pulsante – ed è fatta. Si tratta di esplorare la complessità del processo, iniziando a perfezionare dei suggerimenti di testo, poi sviluppando un complesso flusso di lavoro e mettendo insieme varie piattaforme e tecniche». (https://www.eldagsen.com/sony-world-photography-awards-2023/). Ben vengano dunque a suo avviso le opere prodotto con l’IA, ma esse devono avere circuiti separati dalle altre.
La seconda considerazione sollevata dall’artista si appunta invece sulla capacità di distinguere tra i due tipi di immagini, che neanche i giudici del concorso hanno dimostrato di possedere. Si tratta di una questione fondamentale, che va ben oltre il mondo dell’arte e investe la circolazione delle immagini nell’ambito della comunicazione e dell’informazione: come distinguere le immagini prodotte con IA?
La circolazione delle immagini generate dall’intelligenza artificiale
Proprio nelle stesse settimane in cui si discuteva di Eldagsen, il già citato caso del Papa con il piumino ha acceso il dibattito pubblico. Un utente ha postato sul social network Reddit la foto, che in un attimo è diventa virale. Per la sua estrema verosimiglianza qualcuno l’ha presa sul serio, ma anche se ai più era chiaro che si trattasse di un falso, è emersa con forza una questione cruciale: le immagini prodotte con IA assomigliano moltissimo alle vere fotografie, e rischiano di trarci in inganno.
Non era la prima volta che venivano diffuse immagini che rappresentano personaggi reali in situazioni totalmente inventate, come nel caso delle false foto dell’arresto di Donald Trump, che avevano creato non poca confusione nel mondo dell’informazione.
È il fenomeno dei cosiddetti deepfake, ossia foto, audio o video generati con IA a partire da immagini di persone reali, che ritraggono eventi o situazioni mai accadute ma dall’apparenza estremamente realistica.
Se quando consideriamo il mondo dell’arte ci troviamo nell’ambito di un territorio dai confini ben definiti per quanto riguarda la circolazione e l’attribuzione di senso alle immagini, i problemi aumentano quando ci spostiamo nel contesto della comunicazione. Distinguere una fotografia che riprende un evento realmente accaduto da una irreale, ma verosimile, diventa fondamentale per avere accesso a un’informazione attendibile e veritiera. Il problema del riconoscimento delle notizie vere o false è ben più ampio e riguarda molte dinamiche del web, ma certamente le immagini lo rendono ancora più pervasivo e sottile. Siamo abituati a “vedere per credere”, nonostante da sempre le immagini siano passibili di manipolazione e di distorsioni di significato, anche se scattate “dal vero”.
Per di più la rapidità con cui si propagano contenuti e reazioni sul web rende spesso difficile la riflessione, creando e perpetrando bias che diventano poi difficili da scalfire. Inoltre, questa sovrapposizione tra immagini dallo statuto diverso, reali o fittizie, o in bilico tra le due dimensioni, getta nel lungo periodo le basi per vere e proprie distorsioni nella comprensione delle dinamiche politiche e sociali del mondo in cui si è immersi, che diventano sempre più difficile da interpretare.
Le ricadute sono anche sulle relazioni interpersonali: la facilità con cui si possono manipolare immagini di persone reali e calarle in contesti inventati rende possibili dei veri e propri furti di identità, ed espone soprattutto chi è più giovane e fragile a prevaricazioni e atti di violenza. È il caso del cosiddetto deepnude, in cui le persone vengono fittiziamente spogliate tramite l’IA, e le immagini vengono poi fatte circolare pubblicamente. In questione è dunque il rischio di essere espropriati della nostra stessa immagine e del nostro diritto a deciderne le sorti, a moltissimi livelli.
Scheda sui deepfake sul sito di Generazioni Connesse: https://www.generazioniconnesse.it/site/it/2022/02/26/deep-fake/
Scheda informativa sui deepfake del Garante della Privacy: https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9512278
Intelligenza artificiale ed educazione ai media
Se proviamo a interrogarci su come questo scenario così complesso, sfaccettato e in divenire impatta sul mondo educativo, diventa importante elaborare strategie e strumenti che permettano di fronteggiare queste nuove sfide. Le preoccupazioni sono comprensibili, data la delicatezza delle implicazioni, ma a maggior ragione le criticità dovrebbero diventare occasione per tracciare percorsi che favoriscano la comprensione dei fenomeni in atto, dei rischi e delle loro potenzialità formative.
Un’educazione ai linguaggi dei media permette innanzitutto di sfatare il mito dell’immediatezza e del “vedere per credere”, facendo riflettere su come la costruzione delle immagini contribuisca a veicolare un senso preciso, al di là del dato referenziale. Abituarsi a considerare le immagini come un linguaggio che produce veri e propri discorsi, è il primo antidoto all’adesione immediata a qualsiasi contenuto venga proposto. Guardare con approccio critico alle immagini (così come ai testi) usate per fare informazione, è il punto di partenza per un rapporto più consapevole e attivo con il mondo in cui si vive.
Inoltre, nel caso delle immagini generate con IA, una necessità pressante è che i percorsi didattici si confrontino con gli aspetti tecnici: come funzionano questi sistemi? Quali meccanismi operano dietro l’apparente immediatezza di utilizzo? Quali sono le logiche di fondo e quali i risultati a cui possono portare? È a partire da queste premesse che diventa più facile imparare a ragionare sulla costruzione delle immagini stesse, e affinare lo sguardo per distinguere quelle menzognere.
Più a monte, quali dati vengono utilizzati per istruire le IA? Dati aperti o protetti da copyright? E come il possesso dei dati, in termini di quantità e qualità, crea squilibri di potere tra gli attori che operano in questo ambito? Uno scacchiere molto concreto, dal momento che riguarda anche i dati che quotidianamente divulghiamo e per cui cediamo i diritti di utilizzo. È da qui che può nascere la consapevolezza dell’importanza di tutelare la propria immagine e quella altrui nel contesto della rete.
Ci si può anche chiedere quali siano i contenuti delle immagini da cui le IA “imparano” a generare i propri modelli: esprimono bias e stereotipi che l’IA, basandosi su quanto già esistente, rischia di perpetrare? E dove può collocarsi in queste dinamiche la trasformazione delle narrazioni dominanti?
Ancora, l’IA può entrare nei programmi di storia dell’arte, per dare enfasi alle sue potenzialità creative e suggerire piste di sperimentazione delle innovazioni tecnologiche. Infine, un aspetto spesso trascurato: per funzionare le IA consumano energia, e la generazione di immagini è tra i compiti più dispendiosi. Qual è dunque l’impatto ambientale di questi sistemi? Come valutarlo e gestirlo?
Questi risvolti rivelano come l’educazione ai media si intrecci sempre più strettamente non solo con l’educazione civica, ma anche con una pluralità di altre discipline, e come sia dunque un elemento fondamentale per costruire le forme di cittadinanza contemporanee, non solo online.
IA e dispendio energetico: https://www.wired.it/article/immagine-ai-consumi-energia/
Crediti immagine: peshkova / 123RF