Aula di lettere

Aula di lettere

Percorsi nel mondo umanistico

Sezioni
Accad(d)e che
Come te lo spiego
Interventi d'autore
Il passato ci parla
Sentieri di parole
Nuovo Cinema Paini
Storia di oggi
Le figure retoriche
Gli antichi e noi
Idee didattiche digitali
Le parole dei media
Come si parla
Dall'archivio
Tutti i temi del mese
Materie
Italiano
Lettere classiche
Storia e Geografia
Filosofia
Storia dell'arte
Scienze umane
Podcast
Chi siamo
Cerca
Dall'archivio

Sapere aude!

Approfondimenti e percorsi didattici sull’intelligenza

Il linguista e neuroscienziato Andrea Moro, docente all’Istituto Universitario di Studi Superiori di Pavia, allievo del linguista americano Noam Chomsky, presenta nel video che segue i suoi studi sulle cosiddette lingue impossibili, da lui definite anche una sorta di “grande inganno della natura”.

Ma che cosa sono le lingue impossibili? E cosa ci dicono sulle capacità intellettive dell’essere umano, sul funzionamento del cervello e sul nostro modo di esprimerci e di capirci?

Il ruolo della sintassi

Moro parte dalla sintassi. Essa è una sorta di impronta digitale del linguaggio umano ed è la capacità di generare significati cambiando gli elementi che compongono una frase. Una delle caratteristiche più sorprendenti della sintassi (o grammatica) è che essa è indipendente dal significato e anche dalla logica. La sintassi contribuisce a generare il significato di una frase (es. “Caino uccise Abele” vuol dire una cosa contraria rispetto a “Abele uccise Caino”). 

Questo ci dà la possibilità di dire e scrivere frasi senza senso come

“Questo cerchio è triangolare”

ma anche frasi senza alcun significato, come

“Il gulco gianigeva le brale”.

Non sappiamo cosa sia un “gulco”, né cosa significhi “gianigere”, né cosa sia una “brala”, ma grazie al potere della sintassi potremmo tranquillamente rispondere alla domanda “Chi gianigeva le brale?”.  

Il grande scandalo della Natura

Il grande scandalo della Natura, come lo chiama Moro, è che il linguaggio nasce in oggetto fisico, il cervello, ma sembra essere sfuggente rispetto all’oggetto che lo genera. Uno dei cardini della scienza galileiana e newtoniana è che, note le condizioni di partenza, un sistema fisico può essere sempre prevedibile.

Per esempio: se lascio andare una sfera lungo un piano inclinato, potrò sempre prevedere il comportamento della sfera, come la sua velocità, la sua posizione, quanto tempo impiegherà ad arrivare in fondo al piano.

Al contrario, nessuna espressione linguistica è davvero prevedibile. Non sappiamo mai con assoluta certezza quale parola o quale frase ascolteremo da un interlocutore, e forse non sappiamo mai davvero nemmeno quale parola useremo noi stessi. Questa natura così sfuggente del linguaggio fu tra i motivi che indussero il filosofo Cartesio a postulare l’esistenza di due realtà: una fisica, misurabile, e una intellettiva, che pensa (e parla, negli esseri umani).

Tuttavia, la libertà del linguaggio non è totale: questi limiti sono posti dalla grammatica. Lo studio dei limiti del linguaggio è uno dei principali programmi della linguistica contemporanea, in particolare del linguista americano Noam Chomsky.

Dal momento che ci sono dei limiti imposti dalle regole grammaticali, possiamo immaginare che esistano lingue impossibili. 

Lingue impossibili e neuroimaging

Nel video, Andrea Moro illustra i suoi studi sulle lingue impossibili realizzati con gli strumenti scientifici di indagine del cervello, come per esempio le tecniche di neuroimmagine.

Moro e i ricercatori hanno inventato delle vere e proprie lingue: alcune di queste erano lingue possibili, ovvero rispondevano alle regole che conosciamo (per esempio la regola delle scatole, una regola presente in tutte le lingue conosciute) mentre altre erano lingue impossibili, ovvero presentavano frasi che violavano appositamente le regole note.

Hanno poi sottoposto queste lingue inventate a persone scelte per l’esperimento. In presenza di lingue possibili, i partecipanti diventavano via via sempre più bravi e capaci di capire le lingue inventate ma possibili. Inoltre, i cervelli di queste persone mostravano un maggiore afflusso di sangue nell’area di Broca, la zona del cervello deputata al linguaggio.

Di fronte a lingue impossibili, invece, il cervello reagisce in modo del tutto diverso: l’afflusso del sangue verso l’area di Broca è decisamente minore. Più il soggetto apprende “regole impossibili”, più il cervello inibisce i circuiti naturali del linguaggio.

La scoperta conferma la correttezza delle intuizioni che Chomsky aveva elaborato sin dagli anni Cinquanta e dimostra che la carne, ovvero il cervello, pone un limite naturale al linguaggio degli esseri umani.


Crediti immagini: Pieter Bruegel il Vecchio, La grande torre di Babele, 1563. Olio su tavola, 114×155 cm. Vienna, Kunsthistorisches Museum (Wikipedia)

Perché parlare di intelligenza artificiale?

Nel 2023 l’espressione intelligenza artificiale ha invaso i mezzi di comunicazione.
Social media, quotidiani e programmi radio e televisivi hanno riscoperto una branca della scienza e della tecnologia: l’intelligenza artificiale, che d’ora in avanti abbrevieremo con IA.
In particolare, le abilità di scrittura di un prodotto software hanno scioccato il mondo. Il prodotto in questione è ChatGPT: un assistente virtuale al quale si può chiedere di tutto, interattivamente, tramite una chat.
ChatGPT dialoga fluentemente in almeno 40 lingue e ha proprietà di linguaggio e comprensione del contesto che rendono le conversazioni con esso fruttuose e piacevoli.
In realtà, chiunque usi uno smartphone ha già avuto a che fare, più o meno consapevolmente, con assistenti virtuali basati su tecniche di IA (basti pensare a Siri di Apple o a Google Assistant) che spesso non erano però in grado di soddisfare le nostre richieste, anche se banali. ChatGPT è migliore di tutti gli altri assistenti prodotti finora.[1]
Per chi non lo avesse ancora provato, riportiamo un breve estratto di conversazione con questo assistente virtuale. Allo strumento abbiamo chiesto consigli per organizzare un piccolo viaggio in Baviera, con partenza da Bologna.

Dopo questa conversazione, non dovrebbe sorprenderci che qualche quotidiano abbia persino pubblicato articoli realizzati con questo software e invitato i lettori a individuarli.
Insomma, i computer hanno imparato a scrivere. Ci verrebbe da aggiungere che hanno imparato anche a scrivere discretamente bene.
Per esempio, sanno sintetizzare un testo.

Oppure, se si è in vena poetica, possiamo richiedere dei versi anziché un testo in prosa.

Non c’è solo la scrittura. Nell’ultimo decennio abbiamo compreso come programmare i computer per eseguire compiti sempre più complessi, che credevamo essere solo di pertinenza umana: giocare a scacchi, ricercare la struttura tridimensionale delle proteine o comporre musica.

Le conversazioni con ChatGPT e gli esempi riportati non sono frutto di magia, ma il risultato di un lavoro di ricerca e sviluppo tecnologico al confine tra diverse branche dello scibile umano come la matematica, l’informatica e l’ingegneria, e non solo.
Nei prossimi paragrafi proveremo a comprendere:

●      che cos’è l’IA;

●      come funziona l’IA;

●      dove troviamo l’IA.

In particolare, cercheremo di introdurre il lessico necessario per comprendere la relazione tra IA e prodotti come ChatGPT, per apprezzare i limiti scientifici e i rischi delle sue applicazioni, senza demonizzare la disciplina.

Che cos’è l’IA?

Partiamo con una cattiva notizia: nella letteratura scientifica non esiste una definizione di IA univoca. Questo perché, nel corso degli anni, sotto l’espressione intelligenza artificiale sono stati raccolti contributi provenienti da campi scientifici e tecnologici diversi, rendendola una disciplina di confine tra scienza e ingegneria. Inoltre, la presenza della parola intelligenza, già di per sé complessa da definire, complica ulteriormente la questione.

Abbiamo scelto la definizione di IA data dalla professoressa Margareth A. Boden, nel suo libro L’intelligenza artificiale pubblicato in Italia da Il Mulino[2], perché non scende in tecnicismi e racchiude l’essenza della materia:

«L’intelligenza artificiale (IA) cerca di mettere in grado i computer[3] di fare il genere di cose che sanno fare le menti. Alcune di queste cose (ad esempio ragionare) sono solitamente descritte come “intelligenti”, mentre altre (ad esempio vedere) non lo sono. Ma tutte coinvolgono quelle capacità psicologiche come la percezione, l’associazione, la previsione e il controllo motorio – che consentono agli umani e agli animali di conseguire i loro obiettivi.»

Allo stato attuale della ricerca, pur parlando di intelligenza, non dobbiamo assumere che esista una tipologia di intelligenza e/o coscienza – simile a quella umana – che alberga nei nostri dispositivi, come smartphone, tablet e computer. I dispositivi informatici, seppur sempre più complessi e capaci di fare calcoli sempre più potenti, restano delle macchine senza volontà o autonomia proprie, incapaci di operare se non istruiti. Gli insiemi di istruzioni necessari a svolgere un determinato compito sono detti algoritmi.

Un algoritmo non è dissimile da una ricetta di cucina, in cui ogni riga è un’istruzione ben precisa. In questa analogia, chi riproduce la ricetta è il computer, gli ingredienti sono i dati necessari alla computazione e le istruzioni dell’algoritmo sono i passi da svolgere della ricetta.

Possiamo quindi riformulare la definizione introducendo un lessico più corretto.
L’IA è quella disciplina che studia e costruisce algoritmi che cercano di rendere i computer in grado di compiere azioni che richiederebbero facoltà tipiche della mente.
Troviamo gli algoritmi più riusciti nella tecnologia che usiamo ogni giorno, anche se non ne siamo consapevoli.

Facciamo un esempio concreto. Tutti i primati[4] sono in grado di riconoscere i volti. Non è chiaro se questa sia una capacità innata o acquisita: possiamo convenire però che richieda facoltà mentali complesse. È merito dei successi dell’IA, in particolare degli algoritmi di riconoscimento facciale, se le fotocamere moderne sono capaci di individuare in maniera efficace i volti, scattando così foto a fuoco.

Fare in modo che un computer possa riconoscere un volto umano non è stato semplice: ci sono voluti molti anni di ricerca e migliorie dei nostri strumenti di calcolo affinché questi algoritmi diventassero una tecnologia accessibile a tutti. Nel prossimo paragrafo cerchiamo di spiegare come funzionano, per favorire una maggiore consapevolezza della tecnologia e di ciò che vi è dietro.

Come funziona l’IA?

In questa primavera dell’IA, gli algoritmi appartengono tutti al filone di ricerca dell’apprendimento automatico[5]. Proprio per l’importanza che l’apprendimento automatico ricopre per l’IA, le due espressioni sono usate impropriamente in maniera intercambiabile nell’uso comune.[6]

Apprendimento automatico

Per far svolgere alle macchine dei compiti complessi, come giocare a scacchi o riconoscere volti in una foto, dobbiamo scrivere delle istruzioni: il codice dell'algoritmo. Tuttavia, non sempre è possibile fornire tutte le istruzioni in anticipo.
Per esempio, è praticamente impossibile anticipare tutte le possibili mosse per una partita a scacchi, qualunque siano quelle dell’avversario. Sarebbero troppe le mosse da dettagliare!

L’apprendimento automatico indica un insieme di metodi per insegnare ai computer a compiere attività complesse, senza codificare in anticipo tutte le casistiche possibili sotto forma di istruzioni scritte nel codice di un algoritmo.
Il suo funzionamento è basato sul concetto di insegnamento induttivo: fornire un numero sufficiente di esempi a una macchina per insegnarle un dato compito.

Per esempio, centinaia di migliaia di esempi di foto con volti evidenziati sono necessari per addestrare in maniera automatica un algoritmo di riconoscimento facciale. Mentre per programmare una macchina a giocare a scacchi, meglio di un umano, abbiamo bisogno di fornire milioni di partite svolte a un algoritmo.

L’apprendimento automatico si compone di almeno due fasi sequenziali: l’allenamento, in cui somministriamo gli esempi all’algoritmo, e il test, in cui verifichiamo che l’algoritmo abbia effettivamente appreso.

L’allenamento

Quando propongono gli esempi all’algoritmo, i ricercatori dicono che lo allenano sui dati etichettati di train (allenamento), quelli per i quali si conosce già il risultato corretto.
Il funzionamento di questa tecnica è legato indissolubilmente alla matematica applicata. Infatti, gli algoritmi di apprendimento automatico hanno in pancia un insieme di numeri, detti parametri, che non sono definiti in anticipo e che nella fase di allenamento vengono modificati in maniera tale da ottimizzare l’algoritmo per raggiungere l’obiettivo. Quindi, l’allenamento si considera concluso quando si trovano i parametri ottimali.
Nel caso del riconoscimento dei volti, i parametri trovati sono quelli che consentono all’algoritmo di individuare correttamente il maggior numero di facce. Invece, se stiamo allenando un algoritmo a giocare a scacchi, i parametri ottimali sono quelli che fanno vincere il maggior numero di partite.
I matematici definiscono la fase di allenamento un problema di ottimizzazione.
Per avere un’idea di quanti parametri parliamo, l’algoritmo alla base di ChatGPT dipende da centinaia di miliardi di parametri. Per via del gran numero di parametri e del fatto che lavora con il linguaggio naturale l’algoritmo con cui è fatto ChatGPT fa parte degli algoritmi detti Large Language Model (LLM).
Al termine della fase di allenamento, diciamo che l’algoritmo è allenato per svolgere il compito per il quale abbiamo fornito i dati di train.

Il test

Il processo non può finire qui, perché non è detto che i parametri trovati durante l’allenamento funzionino anche su dati che l’algoritmo allenato non ha mai visto. Questo dettaglio è importante, perché è quello che differenzia l’apprendimento automatico dalla sola ottimizzazione. Infatti, alla fase di allenamento segue una fase di test nella quale l’algoritmo allenato, quello con i parametri ottimali, viene messo alla prova su esempi etichettati di test (prova) mai somministrati prima. In questo passaggio ci si assicura che i risultati della fase di test siano comparabili con quelli dell’allenamento, pena la correzione e il riallenamento dell’algoritmo stesso.
Siccome i dati in gioco sono tanti, chi testa questi algoritmi lo può fare solo in termini statistici. Per esempio, sappiamo che alcuni algoritmi di riconoscimento facciale riescono a individuare facce con un'accuratezza del 99% in base ai test fatti. Attenzione: questo dato di accuratezza risulta vero solo sui grandi numeri. Non è garantito che se presentiamo 100 volti all’algoritmo allenato, lui ne riconosca 99: potrebbe riconoscerli tutti così come solo 90. Quindi, quando siamo a contatto con gli algoritmi di apprendimento automatico dobbiamo tenere a mente due informazioni: non possiamo giudicare la qualità di un algoritmo allenato sulla base di pochi esempi e dobbiamo convivere con l’incertezza del risultato.

Insomma, un po’ come gli studenti, gli algoritmi di apprendimento automatico sono esposti a insegnamenti (esempi corretti nell’allenamento), a una verifica (il test) ed eventualmente a essere rimandati a settembre in caso di risultati insufficienti. Risultano importanti quali e quante informazioni (i dati) forniamo loro, perché è da queste che l’algoritmo apprende un dato compito (individuazione dei parametri ottimali).
Questi algoritmi devono ricavare i parametri ottimali basandosi solo sugli esempi proposti, a differenza degli studenti che ricevono anche informazioni teoriche, regole generali ed eccezioni. Per questa ragione, nessuno può garantire con assoluta certezza che l’algoritmo allenato sia in grado di svolgere sempre correttamente il compito assegnato.
Allo stato attuale della ricerca, l’algoritmo non può interiorizzare i motivi delle scelte che compie, come farebbe un bravo studente. In altre parole, gli algoritmi allenati non ragionano come faremmo noi.

Allenare un algoritmo di riconoscimento facciale solo su volti con occhi azzurri difficilmente genererà un risultato capace di individuare visi con occhi castani o di altri colori. Scegliere un campione di volti con soli occhi azzurri è un esempio di bias nei dati di allenamento.

Un caso di bias di questo tipo è accaduto in una grande azienda, che  aveva fornito a un algoritmo per la selezione del personale i dati storici delle precedenti selezioni. Come risultato, l’algoritmo allenato prediligeva candidati di sesso maschile[7]. Infatti, gli esempi utilizzati per l’allenamento contenevano un numero di candidati uomini molto più elevato rispetto al numero di candidate donne.
Questo caso dimostra come gli algoritmi allenati non abbiano consapevolezza del perché compiano date scelte, il loro comportamento è influenzato dai dati di allenamento.
La conclusione è che sono i dati a giocare un ruolo cruciale: l’insieme di dati di allenamento deve essere sufficientemente grande e diversificato, affinché un algoritmo possa produrre risultati ottimali nella fase di test.

Adesso comprendiamo meglio che sviluppare algoritmi di IA per compiti avanzati richiede molti dati informativi; soprattutto se l’IA segue il paradigma dell’apprendimento automatico.
Per esempio, l’algoritmo alla base di ChatGPT è stato allenato con milioni di pagine di testi multilingua per completare le frasi di un discorso.[8]
A sua volta, l’utilizzo di grossi volumi di informazioni richiede una potenza computazionale sempre più grande, che solo in questi ultimi anni la tecnologia ha raggiunto.
Per tali motivi, stiamo apprezzando solo ora i risultati sconvolgenti dell’IA, anche se gran parte delle idee scientifiche alla base degli algoritmi erano note da decenni.

Algoritmi

Gli algoritmi di apprendimento automatico sono più datati di quanto si possa immaginare.
Nota già dall’Ottocento, la regressione lineare è una procedura di ottimizzazione, relativamente semplice, che aiuta a trovare la migliore retta che rappresenti un gruppo di punti in un piano. Talvolta si insegna in matematica o fisica già alle scuole superiori. Questa procedura, con i dovuti adattamenti, è probabilmente l’esempio più semplice di un algoritmo di apprendimento automatico.

La rivoluzione dell’ultimo decennio dell’IA è dovuta all’utilizzo di una classe di algoritmi: le reti neurali.
Parliamo di classe di algoritmi perché ne esistono davvero tante e i ricercatori le classificano in base alle loro caratteristiche tecniche, così come gli etologi raggruppano gli animali in tassonomie specifiche. Per esempio, le scimmie appartengono alla classe tassonomica dei primati.

Le reti neurali

L’aggettivo neurale deriva da un modello matematico, sviluppato all’inizio del Novecento, che mirava a descrivere il funzionamento del neurone; tale modello, errato per la biologia, si è rivelato di successo nel campo dell’IA.
Una rete neurale è un insieme di neuroni collegati tra loro secondo determinate geometrie. I neuroni di cui parliamo, però, sono funzioni matematiche, molto lontane dai neuroni che troviamo nel cervello.

La geometria con la quale i neuroni sono disposti all’interno della rete è l’architettura. L’architettura più semplice è quella del percettrone che è composta da un singolo neurone. Ne parliamo perché fu scoperta nel lontano 1954 ed è una testimonianza della non più giovane età dell’IA.[9]
Dopo il percettrone la ricerca ha prodotto altre architetture, per risolvere problemi sempre più complessi. Per esempio, l’architettura basata su blocchi convolutivi è quella che si è dimostrata più efficace per il riconoscimento facciale.
Invece, dobbiamo i miracoli tecnologici degli ultimi anni all’architettura basata su transformer. Ne parliamo qui perché la T finale di ChatGPT rappresenta proprio la parola transformer: ChatGPT, oltre che un assistente virtuale, non è altro che una chat costruita su GPT[10] (transformer pre-allenato generativo), una rete neurale con architettura basata su transformer.

Se pensiamo all’algoritmo di apprendimento automatico come al motore di un’automobile, distinguere tra una rete neurale a blocchi convolutivi e una regressione lineare equivale a distinguere tra un motore termico e un motore elettrico: è una distinzione che interessa i meccanici (gli esperti di IA), ma anche chi non vuole fermarsi alla carrozzeria e desidera conoscere i dettagli sul funzionamento della propria auto.
Infatti, ogni algoritmo di IA ha sia punti di forza che limiti. Per esempio, le regressioni lineari possono funzionare con un numero esiguo di dati, a differenza delle reti neurali. Un’altra limitazione delle reti neurali è che sono difficilmente interpretabili: non riusciamo a spiegare le ragioni delle loro risposte. D’altra parte, utilizzando una regressione lineare non possiamo produrre risultati sorprendenti, come riconoscere volti con estrema accuratezza in una foto o giocare partite a scacchi.
Conoscere meglio le peculiarità degli algoritmi ci aiuta a capire come usare al meglio la tecnologia basata sull’IA, in un mondo sempre più tecnologico e informatizzato.

Dove troviamo l’IA?

Gli algoritmi di IA trovano applicazione in molti ambiti, dalla scrittura ai software per i videogiochi alla ricerca di molecole utili per i farmaci; possono suggerire la serie televisiva più adatta a noi o individuare frodi bancarie. In linea di principio, non esiste un vero vincolo nell’applicazione dell’IA in un particolare settore del sapere, a meno di limitazioni pratiche.
Come per ogni tecnologia potente e accessibile, si possono elencare casi in cui l’applicazione degli stessi algoritmi ha risvolti deleteri per la società: per esempio la generazione di fake news adoperando i LLM, o il riconoscimento facciale applicato al controllo di massa. A questo proposito, l’Unione Europea ha già cominciato a occuparsi del tema con l’AI Act, volto proprio a normare l’utilizzo dell’IA e a tutelare i cittadini europei.

Nei prossimi paragrafi illustriamo alcuni casi di successo, che dimostrano come degli algoritmi di IA abbiano portato innovazione in discipline apparentemente lontane: come la biochimica e la medicina, o la musica e la fisica.
Infine, chiudiamo questa breve panoramica raccontando di Ada Lovelace, la matematica che per prima ha ipotizzato alcuni dei successi dell’IA.

Prevedere la struttura delle proteine

Le proteine sono molecole essenziali per la vita. La comprensione della loro struttura 3D è indispensabile per comprenderne le funzioni. Dalla struttura tridimensionale della proteina, infatti, dipende la sua capacità di interagire con altre molecole, come nel caso degli anticorpi che riconoscono molecole virali o batteriche (antigeni), oppure degli enzimi che catalizzano specifiche reazioni chimiche. Determinare la struttura 3D di una proteina, tuttavia, non è affatto semplice: si tratta infatti di molecole complesse, talvolta molto grandi.
Attraverso un enorme sforzo sperimentale, sono state determinate le strutture tridimensionali di circa 100 000 proteine. In base a questi dati, e grazie ad AlphaFold[11], l’algoritmo di apprendimento automatico messo a punto da DeepMind in collaborazione con l’Istituto europeo di bioinformatica, è stato poi possibile prevedere la struttura tridimensionale di oltre 200 milioni di altre proteine di cui era nota la sequenza amminoacidica[12]. Non sempre la previsione viene confermata al cento per cento dai dati sperimentali, ma si sta dimostrando una base di partenza efficace e più accurata rispetto ad altre che non utilizzano algoritmi di IA. L’altro aspetto da non trascurare è la velocità con la quale è stato possibile raggiungere questi risultati che, altrimenti, avrebbero richiesto decenni di lavoro.
Questa tecnologia ha cambiato anche la modalità di lavoro dei team di ricerca sui vaccini contro i virus. Infatti, anche i virus sono composti da proteine: con AlphaFold è possibile individuare le proteine virali che costituiscono il bersaglio migliore per i farmaci antivirali e per i vaccini, come nel caso del coronavirus SARS-CoV-2.[13]

Comporre musica

L’IA non ha interessato solo branche del sapere scientifico, ma anche il mondo della composizione musicale, consentendo ai compositori di esplorare nuove frontiere creative e completare opere iniziate da grandi maestri del passato. Un esempio eccezionale è stato il completamento della Decima sinfonia di Beethoven, un’opera incompiuta a causa della morte prematura del compositore. Ricercatori e musicisti hanno analizzato il lavoro di Beethoven e ne hanno studiato le caratteristiche stilistiche distintive. Successivamente, hanno allenato un algoritmo di apprendimento automatico per emulare il genio musicale di Beethoven, componendo nuove sezioni della sinfonia con una sorprendente fedeltà alle bozze lasciate dall’autore.
Questa sinergia tra l’arte della composizione e l’IA ha, di fatto, consentito di completare l’opera, offrendo al mondo l’opportunità di immaginare un finale aderente ai canoni del maestro.[14]

L’impatto dell’intelligenza artificiale sulla generazione musicale si è esteso oltre il recupero di opere incompiute. Grazie all’IA, musicisti e compositori hanno potuto sperimentare nuovi orizzonti espressivi, utilizzando algoritmi di generazione per creare basi per brani in una vasta gamma di stili e generi. L’IA ha dimostrato di essere uno strumento potente per ispirare nuove idee, esplorare combinazioni, armonie e ritmi, offrendo una prospettiva innovativa sulla creatività musicale. Nonostante alcune controversie riguardo l’autenticità e l’originalità dell’arte generata dall’IA, l’innovazione tecnologica ha aperto nuovi orizzonti per gli artisti e il pubblico.

Il bosone di Higgs

Nel 2014 il CERN lanciò una competizione per processare i dati delle misurazioni nell’esperimento ATLAS per l’identificazione del bosone di Higgs. L’ente mise a disposizione 25000 misurazioni già validate dai ricercatori.
A vincere la sfida fu un algoritmo di apprendimento automatico, chiamato XGBoost, basato sugli alberi di decisione.[15] La collaborazione di scienziati e informatici permise di rendere più efficiente il processo di misurazione di eventi significativi nella ricerca del bosone di Higgs, la cui scoperta confermò le attuali teorie sulla struttura microscopica della realtà che ci circonda. L’algoritmo vincitore aiutò gli scienziati a differenziare gli eventi da considerare rumore da quelli che rappresentavano un segnale, tra quelli rilevati dall’acceleratore.

Come tante delle scoperte fatte al, o per il, CERN, anche questo algoritmo si è poi rivelato uno degli strumenti più potenti per la classificazione di altri tipi di fenomeni: dall’identificazione dello spam nelle mail alle frodi bancarie, fino al riconoscimento di pazienti a rischio di recidive tumorali[16].

Ada Lovelace, la madre dell’IA

I computer attuali sono basati su circuiti elettrici, ma le prime macchine computazionali sono state meccaniche.
Esistono evidenze di macchine, pur molto primitive, in grado di svolgere calcoli complessi già in epoca preromanica, come la macchina di Anticitera capace di compiere sofisticati calcoli astronomici. Di solito, questi marchingegni erano dedicati a risolvere compiti non banali ma specifici.
Il primo calcolatore generico è il motore analitico di Charles Babbage (1837): una macchina meccanica in grado di svolgere le operazioni base dei pc moderni[17].
Ada Lovelace, figlia di Lord Byron, oltre che essere una delle prime matematiche moderne, è stata la prima che ha intravisto le potenzialità dell’invenzione di Babbage. La matematica inglese, pur comprendendo le limitazioni, capì in anticipo che il potere computazionale di quello strumento sarebbe potuto andare oltre il mero calcolo matematico.

Di seguito riportiamo un estratto di una lettera tra Ada Lovelace e Luigi Menabrea, ingegnere e primo ministro italiano, che analizzò la macchina di Babbage. In questa lettera Lovelace descrive con largo anticipo gli sviluppi dell’IA degli ultimi anni.
 

[The Analytical Engine] might act upon other things besides number, were objects found whose mutual fundamental relations could be expressed by those of the abstract science of operations, and which should be also susceptible of adaptations to the action of the operating notation and mechanism of the engine...Supposing, for instance, that the fundamental relations of pitched sounds in the science of harmony and of musical composition were susceptible of such expression and adaptations, the engine might compose elaborate and scientific pieces of music of any degree of complexity or extent.[18]

[Il motore analitico] potrebbe agire anche su altri oggetti oltre i numeri, fin tanto che per questi oggetti si riesca a trovare relazioni che possono essere espresse da operazioni scientifiche astratte, e che debbano anche essere suscettibili ad adattamenti dell’azione delle operazioni e del meccanismo della macchina… Supponiamo, per esempio, che le relazioni fondamentali tra i suoni per la scienza dell’armonia e della composizione musicale siano suscettibili a queste notazioni e adattamenti, la macchina potrebbe elaborare e comporre scientificamente dei brani musicali di ogni tipo di complessità e genere.



Giuseppe Savino è il responsabile dell'Ufficio Dati, qui in Zanichelli. Con una formazione accademica in fisica e matematica applicata, Giuseppe ha lavorato come consulente e data scientist per diverse aziende italiane. Crede che la formazione e la divulgazione scientifica siano cardini per il progresso della società e li considera un dovere civico di chi si occupa di scienza.


[1] Sono nati prodotti simili a ChatGPT, come Bard o Claude, ma ne esistono altri ancora. Nel testo adopereremo ChatGPT come esempio perché è stato il primo accessibile al pubblico.

[2] Margareth A. Boden, L’intelligenza artificiale, Il Mulino, Bologna 2019, traduzione F. Calzavarini.

[3] Qui per computer si intende un qualsiasi dispositivo dotato di capacità di calcolo. Per esempio, anche un moderno cellulare, o smartphone, può essere considerato alla stregua di un computer.

[4] A meno di particolari patologie, quali la prosopagnosia, descritta in L’uomo che scambiò sua moglie per un cappello di Oliver Sacks, Adelphi, Milano 1986, traduzione C. Morena.

[5] L’apprendimento automatico è conosciuto nel settore con l’espressione inglese Machine Learning, letteralmente traducibile con apprendimento delle macchine 

[6] Talvolta, l’espressione IA è usata non del tutto propriamente anche per indicare un algoritmo come nella frase: «ChatGPT è un software basato su una IA»

[7] https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G

[8] In realtà ChatGPT utilizza anche altri algoritmi, ma la componente di apprendimento automatico è quella più rilevante.

[9] Per maggiori dettagli sulla storia dell’IA e del  percettrone di Rosenblatt si può fare riferimento al primo capitolo di Intelligenza Artificiale, Conradi e Molinari, Zanichelli, Bologna 2022.

[10] GPT è l’acronimo inglese di Generative Pre-trained Transformer.

[11] L’articolo di AlfaFold pubblicato su Nature - https://www.nature.com/articles/s41586-021-03819-2

[12] Maggiori dettagli sul blog Zanichelli Aula di scienze https://aulascienze.scuola.zanichelli.it/blog-scienze/biologia-e-dintorni/le-proteine-mostrano-le-loro-forme-all-intelligenza-artificiale

[13] Articolo di revisione della letteratura sull’utilizzo di AlphaFold in virologia - https://www.mdpi.com/1467-3045/45/4/240

[14] Parte dell’opera è ascoltabile al seguente link youtube eseguita dall’orchestra di Bonn - Beethoven X: The AI Project: Complete (Bonn Orchestra)

[15] Articolo del CERN sulla vittoria di XGBoost e gli impatti sulla ricerca del bosone di Higgs - https://atlas.cern/updates/news/machine-learning-wins-higgs-challenge

[16] XGBoost e recidive tumorali nei carcinomi renali - https://www.sciencedirect.com/science/article/abs/pii/S1761676X22001365

[17] Dettagli sulla storia dell’informatica e dei calcolatori - https://www.computerhistory.org/timeline/ai-robotics/l

[18] Lovelace, Ada; Menabrea, Luigi (1842). “Sketch of the Analytical Engine invented by Charles Babbage Esq”. Scientific Memoirs. Richard Taylor: 694.


Crediti immagine:  Diego Thomazini / Shutterstock

neurone biologico artificiale_savino.png

Confronto tra la struttura di un neurone biologico e quella di un neurone artificiale.

100 euro_G chat gpt_1.png
752px-Ada_Lovelace_portrait.jpg
funzione_savino.png

Esempio delle due fasi di addestramento di un algoritmo di apprendimento automatico: allenamento e test.
I campioni forniti durante l’addestramento sono i punti blu; la curva rappresenta il compito dell’algoritmo che dovrà essere in grado di approssimare anche i dati nuovi rappresentati con i punti rossi.

volti_Savino.jpeg

La base di dati che viene fornita all'algoritmo dev’essere assortita in modo tale da evitare bias (I volti raffigurati sono stati generati da un algoritmo).

funzione2.png

Esempio di regressione lineare: i punti rossi sono i dati usati per il training; la retta blu è quella che meglio approssima la distribuzione dei punti nel piano.

induttivo deduttivo_savino.png
una frase_G ChatGPT_2.png

Questa immagine contiene le istruzioni dell'algoritmo in uno specifico linguaggio di programmazione: il codice.
Questo algoritmo ricerca i parametri della migliore retta che approssima una serie di punti in un piano.
Le righe 4, 5 e 6 descrivono i dati necessari all'algoritmo per il suo funzionamento.
Le righe dalla 8 fino alla 21 sono le istruzioni, cioè i passi che l'algoritmo deve svolgere.
La riga 23 definisce il risultato che l’algoritmo produce.

una frase_G ChatGPT_2.png
forma poetica_G Chat gpt_3.png

 Per scrivere questo pezzo ho utilizzato uno spunto molto semplice: ho chiesto a Chat GPT (https://chat.openai.com/auth/login) di parlarmi di Intelligenza e letteratura.

In pochi secondi, l’intelligenza artificiale ha generato un testo, suddiviso in 7 punti chiave, in cui dice cose per la verità un po’ generiche e scontate, ma non per questo sbagliate o fuori fuoco. Così, l’idea che mi è venuta è questa: farò finta che le risposte elaborate da Chat GPT siano in realtà 7 questioni, 7 domande intorno alla letteratura che una mente artificiale ha posto all’essere umano, e proverò a entrare in dialogo con esse e a spiegarle. Insomma, per una volta, non sarà l’essere umano a chiedere una cosa a un computer, ma il contrario. È una specie di rivincita, se volete. Vediamo che succede.

All’inizio della sua risposta, Chat GPT fa un cappello introduttivo di un paio di righe: «L'intelligenza e la letteratura sono due concetti complessi che possono essere esplorati da diverse prospettive» – e spero che questo inizio sia sufficiente per far capire perché, poco sopra, ho detto che le risposte erano “generiche e scontate”. Poi parte con il primo dei 7 punti, che l’intelligenza artificiale definisce «connessioni tra intelligenza e letteratura». Eccolo:

Espressione dell'intelligenza

«La scrittura e la creazione letteraria possono essere considerate forme di espressione dell'intelligenza. La capacità di comunicare idee complesse, emozioni profonde e concetti astratti richiede un elevato livello di intelligenza.»

Sono due affermazioni piuttosto generiche, soprattutto la prima: qualunque pratica umana può essere considerata una forma di espressione dell’intelligenza; nella seconda, invece, si adombra un concetto cruciale, quello che la letteratura sia qualcosa che ha a che vedere con la produzione di pensiero: raccontare una storia significa dunque dare una forma alle idee che abbiamo nei confronti del mondo e degli altri; questa pratica, ovviamente, si dà nel momento in cui non solo, per così dire, costruisce dei discorsi, ma anche se, attraverso questi discorsi, riesce a far passare emozioni e concetti astratti. È tutto molto generico, ma c’è un aspetto molto interessante: Chat GPT non ha detto che la letteratura è “raccontare storie”, non ha parlato della dimensione narrativa della letteratura, come se per l’intelligenza artificiale non esistessero favole né cantastorie né romanzi né storytelling. È piuttosto bizzarro: a ciascuno di noi, per prima cosa, sarebbe venuto in mente proprio questo aspetto «La letteratura è quella pratica tramite cui gli esseri umani si raccontano storie» avremmo detto; oppure, in modo leggermente più raffinato e collegandoci meglio con la questione dell’intelligenza: «La letteratura è quella pratica tramite cui gli esseri umani, raccontandosi storie, producono pensiero e parlano del mondo».

Il grande scrittore russo Vladimir Nabokov aggiungerebbe a quest’ultimo virgolettato una chiosa sopraffina. Direbbe, come ha scritto all’inizio delle sue formidabili Lezioni di letteratura, che essa non è nata il giorno in cui un ragazzino si mise a correre, inseguito da un lupo, gridando «Al lupo! al lupo!»; è nata il giorno in cui un ragazzino, correndo, gridò «Al lupo! al lupo!» ma il lupo non c’era...

«È del tutto incidentale» dice Nabokov, «che il poverino per aver mentito troppo spesso alla fine sia stato divorato da un lupo in carne e ossa. Il punto importante è che tra il lupo della prateria e il lupo della bugia esiste un intermediario scintillante: quell'intermediario, quel prisma, è l'arte della letteratura».

CHE COSA SONO LE LEZIONI DI LETTERATURA, DIRETTAMENTE DALLA PREFAZIONE ALL’EDIZIONE ITALIANA: https://www.adelphi.it/download/10663/86825884279c/lezioni-di-letteratura-pp.-526-47-tavole-b-n-.pdf

Ma forse mi sono spinto un po’ troppo in là: dopotutto, in questo suo primo punto, Chat GPT intendeva forse dire semplicemente che per scrivere e per leggere bisogna essere almeno un po’ intelligenti. Vediamo il secondo punto:

Comprensione del mondo

«La letteratura offre una finestra sulla comprensione del mondo. Gli scrittori spesso esplorano temi complessi, sociali, filosofici e psicologici, offrendo ai lettori nuove prospettive e stimolando il pensiero critico.»

Ecco, qui cominciano i problemi. Se avete letto la prefazione alle Lezioni che c’è nel link poco sopra, sapete che c’è chi, proprio come Nabokov, sostiene che la letteratura non abbia niente da insegnare, che non sia una «finestra sulla comprensione del mondo», o per lo meno che questo non sia il suo fine – semplicemente perché la letteratura non ha un fine. Sono secoli che si dibatte su questi argomenti – e una delle questioni più classiche è la seguente: è giusto leggere un romanzo per sapere come vivevano le persone nell’epoca in cui è ambientato? Ha senso, per esempio, leggere Il fu Mattia Pascal di Pirandello per scoprire come si viveva all’inizio del XX secolo? Certo che no. Però, allo stesso tempo, chi legge L’ammazzatoio (1877) di Zola impara qualcosa sulla vita della classe operaia francese nella seconda metà del XIX secolo e sul suo abbrutimento – e dunque la letteratura può (attenzione: può, non per forza deve) avere anche una funzione illustrativa.

CHE COS’È E DI COSA PARLA L‘AMMAZZATOIO: https://giorgiobaruzzi.altervista.org/blog/emile-zola-lassommoir/ 

Alcuni direbbero che un libro che si legge ormai solo per conoscere una condizione “sociale” in un dato momento storico è un libro utile dal punto di vista didattico ma fallimentare da quello artistico e letterario. Propongo allora un esempio (e, nel farlo, mi viene in mente una cosa che l’intelligenza artificiale non ha fatto rispondendo alla mia domanda iniziale: proporre esempi) che, a mio modo di vedere, mette d’accordo tutti, perché è uno dei più alti esempi di prosa italiana e, allo stesso tempo, la riproposizione di un documento storico: le gride di Manzoni, dai Promessi sposi. Che cos’erano le gride, all’epoca in cui il romanzo è ambientato? Erano delle ordinanze e dei provvedimenti che le Autorità emettevano e diffondevano per le strade, per esempio appiccicandole ai muri: ma, poiché la quasi totalità della popolazione non sapeva leggere, per le città giravano dei banditori che ne davano pubblica lettura e, facendolo, gridavano. Le grida manzoniane sono bellissime – a livello linguistico sono pezzi di pura avanguardia. Questo è un estratto di una grida del capitolo III: «Comanda Sua Eccellenza (il marchese de la Hynojosa) che chi porterà i capelli di tal lunghezza che coprano il fronte fino alli cigli esclusivamente, ovvero porterà la trezza, o avanti o dopo le orecchie, incorra la pena di trecento scudi; et in caso d’inhabilità, di tre anni di galera, per la prima volta, e per la seconda, oltre la suddetta, maggiore ancora, pecuniaria et corporale, all’arbitrio di Sua Eccellenza.»

 Ora, Manzoni sicuramente si è divertito a scriverle, e molti scrittori del Novecento (a cominciare da Gadda) hanno preso ispirazione dal suo stile ma, ecco, queste gride danno anche un’informazione sul mondo: dicono qualcosa sulle leggi secentesche, e sul modo di comunicarle alla popolazione e dunque, in un certo senso, benché siano inventate, sono anche dei documenti storici.
Terza connessione:

Sfida intellettuale

«Letture complesse e sfide linguistiche presenti nella letteratura classica e contemporanea possono fungere da stimoli intellettuali, migliorando la capacità di analisi e interpretazione del lettore.»

Su questo punto non mi soffermerei, e per due motivi: il primo, è perché è ovvio che leggere sia uno stimolo intellettuale; il secondo è che mi sembra di averne già parlato qui https://aulalettere.scuola.zanichelli.it/materie-lettere/italiano-lettere/romanzi-globali 

Quarta connessione:

Empatia e comprensione umana

«La letteratura, attraverso personaggi e narrazioni, può sviluppare l'empatia e la comprensione verso diverse prospettive e esperienze umane. Questo coinvolgimento emotivo può contribuire alla crescita intellettuale e alla maturazione emotiva.»

Credo che per commentare questa connessione possa tornare utile la famosa frase di Umberto Eco: «Chi non legge, a 70 anni avrà vissuto una sola vita: la propria. Chi legge avrà vissuto 5000 anni: c’era quando Caino uccise Abele, quando Renzo sposò Lucia, quando Leopardi ammirava l’infinito... perché la lettura è un’immortalità all’indietro». La letteratura fa vivere tante vite, attraversare molti mari, amare molte cose, a volte perfino improbabili o sgradevoli. Pochi anni fa è stato pubblicato un libro brevissimo, Dolore. È una delle ultime cose scritte da V.S. Naipaul, scrittore trinidadiano vincitore del Premio Nobel per la letteratura nel 2001. Dolore è un’opera minore, piccola e personale, e nelle prime pagine racconta due lutti terribili: quello per la morte del padre e quello per la morte del fratello; ma li liquida abbastanza in fretta, come se non ne volesse parlare (anzi, Naipaul sembra addirittura scostante, se è vero che, a proposito del funerale del fratello, scrive: «Una cosa assolutamente nuova, per me; quello era il conforto che moltissimi prima di me avevano cercato, d’istinto. Ma per me non aveva funzionato. La bara era solo una bara; il legno, sotto la mia mano, solo legno»). C’è però un terzo lutto che colpisce lo scrittore: quello di Augustus, il gatto. È già bizzarro che la morte del gatto venga accostata, e dunque paragonata, a quella di un padre o un fratello, ma quello che Naipaul fa qui è addirittura dedicare molte, moltissime pagine ad Augustus, tanto che un lettore poco esperto potrebbe pensare che Dolore sia un racconto su di lui, che il dolore che traspira da questa storia sia quello per il gatto più che per il padre o il fratello. Per molte pagine, sobrie ed eleganti, Naipaul rievoca la vita di Augustus, le sue audacie, i suoi giochi, la loro intimità e, all’inizio, per chi legge tutto questo suona perfino fastidioso: ma come, ci si domanda, muore tuo fratello e parli del gatto? Ma, ecco, a poco a poco si capisce che Naipaul parla del gatto, forse, perché non riesce a parlare del fratello (e del padre), e perché tutto l’amore convogliato sull’animale, il senso di vuoto per la perdita, sembrano enormi perché contengono anche il dolore per gli altri due. Così, ma mano che questa storia breve va avanti, noi che leggiamo ci affezioniamo ad Augustus e impariamo a piangere, insieme a lui, anche la morte degli umani.

Riflessione sulla complessità 

«Molti autori affrontano temi complessi e sfide umane attraverso la loro scrittura. La lettura di opere che esplorano la complessità della vita e della società può stimolare il pensiero critico e la riflessione filosofica.»

Siamo alla quinta connessione e già sembra che l’intelligenza artificiale cominci a ripetersi: questa “riflessione sulla complessità” mette sostanzialmente insieme ciò che Chat GPT aveva già detto in Sfida intellettuale e in Comprensione del mondo. Vediamo se, al sesto punto, ci viene proposto qualcosa di nuovo:

Lingua e capacità comunicative

«La letteratura promuove lo sviluppo del linguaggio e delle capacità comunicative. La ricchezza del vocabolario, la precisione nella scelta delle parole e la struttura delle frasi sono aspetti importanti che richiedono intelligenza linguistica.»

Che la letteratura “promuova” lo sviluppo del linguaggio fa un po’ ridere: sembra una pubblicità ministeriale. La letteratura non promuove nulla, però è vero ciò che si dice nella seconda parte della connessione: la ricchezza del vocabolario, la precisione nella scelta delle parole e nella costruzione delle frasi sono una delle caratteristiche fondamentali del fare letteratura. Pensate solo a che catastrofe può rivelarsi la scelta di un vocabolo sbagliato: invitate la persona che vi piace a vedere l’occaso. Vi prenderà per matti o, se ha qualche dimestichezza con la poesia italiana, per qualcuno che vive almeno un secolo e mezzo indietro. Insomma: scegliere la parola giusta è fondamentale, e la letteratura è quella pratica umana che, proprio perché lavora con il linguaggio, conosce (o per lo meno dovrebbe conoscere) quali sono le parole giuste da dire in un dato momento o contesto. Però non voglio fare un pezzo su come gli scrittori cesellano le parole, costruiscono la lingua ecc. Mi prendo piuttosto un piccolo spazio per raccontarvi un caso in cui qualcuno si è, almeno in parte, inventato una lingua. Si chiama Groppi d’amore nella scuraglia, è un testo buffissimo e malinconico che Tiziano Scarpa ha scritto immaginando una lingua che è un misto di dialetti del meridione e parole inventate – una lingua insieme antica e nuovissima in cui, per esempio, non ci sono topi, ma surci pantecani, non c’è l’immaginazione, ma l’atto di ponzare a l’immaginata, non c’è Dio ma Iddio Patro. Eccetera. È la storia di Scatorchio, un povero cristo che parla con Dio e con gli animali, e che ama Pruscilla ma ha un rivale in amore. Per vendicarsi di questo smacco, aiuta il sindaco a trasformare il paese in una discarica.

Ecco, Groppi d’amore nella scuraglia è un testo scritto in una lingua consapevolmente sbagliata, fuori dalla storia e bellissima, che fa ridere e fa tenerezza insieme.

Ascoltatela:

«A chistu munno
chi ce mantene la bellezza ce cumanda.
Ma puro chi ce mantene lu pauro ce cumanda.
Lu munno iè nu battaglio
de bellezza e de pauro.
Accusì ne la notte nottosa
lu pauro e la bellezza ce s’attizzano battaglio
pe cunquistà la scuraglia de l’ommeno.»

GROPPI D’AMORE NELLA SCURAGLIA A TEATRO: https://www.youtube.com/watch?v=dJJct791x6Y 

Infine l’ultima connessione, la settima: 

Innovazione e creatività

«Alcuni dei lavori letterari più significativi sono frutto di menti creative e innovative. La letteratura può ispirare la creatività e stimolare l'immaginazione, incoraggiando l'individuo a pensare al di là dei confini convenzionali.»

Anche su questo argomento, mi sembra, abbiamo già detto qualcosa: pensate che la letteratura è un posto dove, all’improvviso, si può smettere di immaginare per cominciare a ponzare a l’immaginata – e pensate a cosa deve essere, l’immaginazione, per qualcuno che, anziché fantasticare, ponza a l’immaginata. Ecco, la letteratura può far questo: ma non voglio dirvi come fa, leggetelo in Tiziano Scarpa.

Non contenta di aver ripetuto due o tre volte gli stessi concetti all’interno dei 7 punti, Chat GPT mi propone anche una chiosa finale. Questa: «In sintesi, l'intelligenza e la letteratura sono interconnesse in molteplici modi. La letteratura offre un terreno fertile per lo sviluppo intellettuale, promuovendo la comprensione, l'empatia, la creatività e la riflessione critica. Allo stesso tempo, la capacità di creare opere letterarie raffinate richiede un elevato grado di intelligenza da parte degli autori».

È tutto vero, ma è anche piuttosto scontato e banale. Non un gran finale, insomma. C’è sicuramente almeno uno scrittore, in giro, che potrebbe esprimere gli stessi concetti in modo meno insipido, e lo farebbe usando in modo un po’ creativo la sua intelligenza non artificiale – insomma ponzandoci un po’ su.


Crediti immagine: Girl Reading in a Landscape, Ada Thilén, 1896 (Wikimedia Commons)

Nella storia del pensiero in Occidente, la filosofia ha spesso privilegiato l’aspetto razionale del comportamento umano. D’altro canto, la stessa riflessione filosofica nasce come il tentativo di trovare spiegazioni logiche ai fenomeni del mondo, uscendo dalla sfera del mito, della religione e della superstizione. Il periodo illuminista ha poi definitivamente imposto un canone, facendo coincidere una serie di capacità umane con l’idea di intelligenza, una coincidenza che ancora persiste nell’immaginario comune. Il ragionamento logico-matematico, l’abilità di districarsi nella scelta dei mezzi dato un determinato scopo, le capacità di astrazione e di linguaggio: tutti questi aspetti non solo sono stati considerati come ciò che distingue gli esseri umani dagli altri esseri viventi, ma sono stati anche presi come i criteri principali per stabilire il grado di intelligenza degli individui.

In questa linea di sviluppo, la filosofia ha certamente lasciato il passo in modo progressivo alla psicologia, divenuta disciplina autonoma dall’Ottocento, ma che continua a fornire contributi di riflessione fondamentali. Non stupisce che, seguendo il paradigma razionalista, agli inizi del Novecento siano stati elaborati test standardizzati per misurare il cosiddetto Quoziente Intellettivo (QI) delle persone, test tuttora in uso. Tuttavia, già intorno alla metà degli anni Ottanta, alcuni studiosi cominciarono a intravvedere diversi limiti in questo approccio. Il QI pare infatti misurare solo una particolare tipologia di intelligenza umana e non sembra riuscire a “prevedere” l’effettivo successo (o felicità?) di una persona; i test “funzionano” nei contesti scolastici e accademici, rispetto a una precisa idea di istruzione, ma si registra come persone con alto QI non riescano a districarsi altrettanto bene nella complessità delle vicende e delle relazioni umane e si osserva come quoziente intellettivo e benessere psicologico non siano necessariamente connessi.

Un lavoro significativo in questa direzione è stato Formae mentis (1983) dello psicologo statunitense Howard Gardner che identificava una più vasta gamma di intelligenze: oltre alle più “classiche” verbale e logico-matematica, egli individuava la cinestetica, la musicale, l’intelligenza interpersonale e quella intrapsichica (in studi successivi questa lista diventerà ancora più lunga e articolata). Pur avendo inaugurato la cosiddetta “teoria delle intelligenze multiple”, Gardner si muoveva ancora nella scia della rivoluzione cognitivista di fine anni Sessanta, che si basava sull’analogia tra mente e calcolatore concependone il funzionamento come mera rielaborazione di dati e non tenendo conto del ruolo di emozioni ed empatia nella definizione di intelligenza.

Agli inizi degli anni Novanta, saranno gli psicologi Peter Salovey e John D. Mayer a coniare l’espressione “intelligenza emotiva”, intesa come abilità pratica complementare alla forma di intelligenza di natura più intellettuale. È interessante osservare come nel modello di Salovey e Mayer riecheggino temi e questioni radicate in una tradizione filosofica che si affianca a quella illuminista-razionalista. Per i due studiosi, i pilastri dell’intelligenza emotiva infatti sono: l’auto-consapevolezza delle proprie emozioni (una versione del “conosci te stesso” socratico); il controllo delle emozioni e la motivazione di sé stessi (aspetti che richiamano alla mente la dottrina del “giusto mezzo” nell’Etica Nicomachea di Aristotele); il riconoscimento delle emozioni altrui; l’arte delle relazioni. Anche questi ultimi due aspetti non appaiono nuovi, pur appartenendo al paradigma che si è culturalmente e storicamente affermato. Persino un filosofo del calibro di David Hume (1711-1776), nel suo fondamentale Trattato sulla natura umana, difendeva la prospettiva di una visione antropologica fondata sulla socievolezza (benevolence), rifiutando dunque l’idea che l’essere umano abbia una natura intrinsecamente egoista. A caratterizzare gli esseri umani sarebbe una spontanea inclinazione definita “simpatia” (sympathy), simile a ciò che noi contemporanei definiremmo empatia, ovvero la capacità di immedesimarci con le emozioni delle altre persone pur non potendole esperire in modo diretto. Certamente, Hume è il più noto esponente della scuola dell’illuminismo scozzese, ma non è l’unico che ha posto l’accento sull’esistenza di un affetto morale innato dell’essere umano, che gli permetterebbe di cogliere in modo spontaneo la differenza tra giusto e ingiusto e di rapportarsi con gli altri nello spazio sociale e politico: un approccio molto lontano dal razionalismo cartesiano e dall’egoismo calcolatore hobbesiano.

La filosofa italiana Laura Boella ha approfondito in più occasioni il tema dell’empatia. Qui si propongono due suoi contributo, il primo per RaiCultura, il secondo in occasione del Festival della Filosofia del 2013: https://www.raicultura.it/filosofia/articoli/2019/01/Boella-lempatia-contro-la-paura-0c3801a1-80eb-4329-9f9a-36bbbba692c7.html 
https://www.youtube.com/watch?v=QSpfwqgrPm4 

In anni molto più recenti, si assiste in ambito filosofico a un recupero di quelle tradizioni che considerano sentimenti, emozioni ed empatia parte di un concetto di intelligenza più ampio. Centrali a questo riguardo sono i lavori della filosofa statunitense Martha Nussbaum (n. 1947). Già nel testo La fragilità del bene (1986), Nussbaum riconosce una sorta di razionalità nelle emozioni e nella capacità di comprendere attraverso di esse la sofferenza dell’altro: «Capire un amore, o una tragedia, con l’intelletto non è sufficiente per acquisire una conoscenza autentica di essi». Le emozioni sono per Nussbaum un modo per comprendere il mondo e, dunque, per agire. E sta proprio nella possibilità di agire che l’emozione si distingue dal mero sentimento: essa infatti nasce da uno stimolo esterno che colpisce la dimensione personale. Il ragionamento di Nussbaum continua in un altro testo, dal titolo significativo: L’intelligenza delle emozioni (2001). La filosofa sostiene che le emozioni comportano giudizi su cose per noi importanti, giudizi nei quali riconosciamo la nostra incompletezza nei confronti di cose del mondo che sfuggono al nostro controllo. Da queste premesse, è inevitabile che la prospettiva di Nussbaum conduca a una concezione di educazione molto diversa da quelle viste in precedenza e che si concretizzano nel mero calcolo di un quoziente intellettivo: per la filosofa, l’obiettivo del sistema scolastico dovrebbe essere quello di educare le persone a vivere pienamente in una società democratica e attraverso questa idea di educazione mantenere viva la democrazia stessa. Siamo così di fronte a un paradigma molto più articolato non solo cognitivo, ma prima di tutto antropologico secondo il quale: «[i] cittadini non possono relazionarsi bene alla complessità del mondo che li circonda soltanto grazie alla logica e al sapere fattuale. La terza competenza del cittadino, strettamente correlata alle prime due, è ciò che chiamiamo immaginazione narrativa. Vale a dire la capacità di pensarsi nei panni di un’altra persona, di essere un lettore intelligente della sua storia, di comprenderne le emozioni, le aspettative, i desideri» (Nussbaum, Non per profitto, 2010).


Crediti immagine: Les noisettes, William-Adolphe Bouguereau, 1882 (Wikimedia Commons)

«L’erudizione non insegna ad avere intelligenza» (Eraclito, fr. 40 DK). Con la sua consueta incisività, Eraclito oppone all’intelligenza, al νοῦς (nous), il nozionismo della πολυμαθία (polymathia), da lui polemicamente attribuita ai grandi maestri del passato (Omero, Esiodo, Pitagora, Senofane). Se non sono i saperi accumulati a garantire il senno, forse esso è una dote innata o una sapienza acquisita con l’esperienza. Tucidide, nel brillante ritratto che traccia di Temistocle, ci può aiutare a comprendere meglio cosa intendano gli antichi per «intelligenza»: Temistocle era un uomo che nel modo più certo aveva mostrato la forza del suo ingegno […]: infatti con la propria intelligenza (οἰκείᾳ γὰρ ξυνέσει) […] sapeva giudicare nel modo più competente e con il minimo di riflessione le questioni immediate, e per le cose non ancora avvenute sapeva fare le congetture migliori (ἄριστος εἰκαστής) per il periodo più esteso del futuro: le azioni che intraprendeva era capace di spiegarle, e per quelle in cui non aveva esperienza non mancava di esprimere un giudizio appropriato; prevedeva benissimo, quando erano ancora nell’oscurità (ἐν τῷ ἀφανεῖ), i vantaggi e gli svantaggi.(Tucidide I 138.3, trad. di G. Donini)

Il ritratto di Temistocle ci mostra un esempio perfetto di ingegno, che unisce prontezza di spirito e acutezza nella valutazione degli eventi, sagacia nel prevedere le conseguenze future delle azioni e, soprattutto, capacità di leggere l’invisibile, portando alla luce ciò che ancora è in ombra: il vero uomo politico è dunque colui che, rispetto al futuro, «meglio è in grado di congetturare» (ἄριστος εἰκαστής). Intelligenza è voce dotta derivata dal latino intelligentia(m), che discende a sua volta da intellegere, cioè inter, «tra», e legere, «leggere», «scegliere». Intelligenza è capacità di lettura e di discernimento della realtà o, secondo la definizione dello Zingarelli, è «il complesso delle facoltà mentali e psichiche che consentono all’uomo di ragionare, di comprendere la realtà, di fronteggiare situazioni nuove». Nel latino classico sono principalmente tre i vocaboli che si alternano con questo significato: la facoltà di comprendere e legare in unità è intelligentia, affiancata da intellectus, cioè capacità di valutazione delle circostanze e di connessione tra i concetti, e da ingenium, la cui acutezza viene esaltata come dote preziosa, ad esempio per il futuro oratore. Si pensi a Cicerone, per il quale è meritevole di lode la sottile intelligenza dell’ingegno, distinta dalla mera erudizione: ingenio plus valere quam doctrina (Orator 42.143). Ingenium è intelligenza creativa, ispirata, inventiva (non dimentichiamo che il termine è composto da in, «dentro» e dal verbo gignere, «generare»). Rispetto all’innato talento del genio, l’ingegno unisce natura e applicazione, mentre un preciso richiamo alla dote innata dell’arguzia è contenuto sia in acumen, l’intelligenza affilata come una spada, sia in subtilitas e argutiae, a suggerire l’esercizio di una mente dalla sottigliezza analitica.

A questo ricco vocabolario corrisponde, nel greco antico, una varietà semantica ancora più complessa. Intelligenza è, da un lato, la capacità di utilizzare il proprio logos, cioè la propria ragione, per analizzare e interpretare la realtà: è dunque una qualità prevalentemente speculativa e razionale, a cui si affianca, d’altro lato, l’intelligenza come sagacia e sapienza indiziaria (quella che la moderna semiologia definirebbe abduttiva), a cui il modo greco, soprattutto d’età arcaica, ha tributato un particolare rispetto. Il primo termine al quale fare riferimento, pur nella stratificazione dei suoi significati, è νοός (contratto in νοῦς), che indica sia la mente come sede dei pensieri, sia la facoltà di pensare e comprendere, sia, infine, l’oggetto del pensiero, quindi l’idea o il concetto. Aristotele dedicherà al νοῦς una trattazione complessa nel De anima: qui ci basti ricordare la definizione che il filosofo fornisce di νοῦς, come l’organo con il quale l’anima (ἡ ψυχή) pensa (διανοεῖται) e apprende (ὑπολαμβάνει, AN. 429a23). Come νοῦς, anche διάνοια (dianoia), formata da διά, usato come rafforzativo, e νοέω, «penso», «ho in mente», è sia l’azione del pensare, sia il suo effetto: è la facoltà intellettiva per eccellenza, intesa come capacità di separare e analizzare gli elementi che compongono la realtà, per poi connetterli in una visione sistematica. Famosa è la definizione platonica del Sofista (263e2-5) in cui la διάνοια è introdotta come «il dialogo silenzioso (letteralmente, “senza voce”, ἄνευ φωνῆς) che si svolge all’interno dell’anima (ἐντὸς τῆς ψυχῆς) con sé stessa (πρὸς αὑτὴν)».

Σύνεσις (synesis) e κατάληψις (katalēpsis), derivati rispettivamente dai verbi συνίημι («metto», «tengo insieme») e καταλαμβάνω («prendo», «afferro», «colgo»), alludono alla capacità di com-prensione, cioè alla perspicacia nell’afferrare concettualmente la complessità di un problema e nel farne oggetto di una «presa» mentale, secondo la famosa metafora stoica della mano stretta a pugno che, nella «rappresentazione catalettica», esprime l’atto con cui l’intelletto coglie e comprende l’oggetto.

Esistono poi – come ricordavo sopra – alcuni termini che evocano l’intelligenza nella sua dimensione polimorfa, cioè come sapienza pratica e inventiva: caso principe è rappresentato da μῆτις (mētis) e derivati. Μῆτις è sia l’abilità tecnica sia la capacità di escogitare stratagemmi per la risoluzione di un problema, e spesso ricorre nell’epos come sinonimo di astuzia, a conferma del labile confine che per gli antichi separa intelligenza da inganno. Ποικιλομήτης (poikilomētēs), formato da ποικίλος, «multiforme», «complesso», e μῆτις, «intelligenza», qualifica l’ingegno come «ricco di espedienti»: così è definito Hermes, il dio per eccellenza polimorfo e ladro (Hymn.Herm 155 e 514), ma anche Zeus, considerato da Era maestro di inganni (Hymn.Ap. 322), il titano Prometeo, simbolo di scaltro ingegno rispetto allo stolto Epimeteo (Hes. Theog. 511, 521), e soprattutto Odisseo, l’eroe dalla «mente piena di astuzie» (νόον πολυκερδέα, Od. 13.255). A Odisseo vengono associati diversi epiteti composti con πολύ-: la polimorfia del suo ingegno si manifesta nell’essere non solo ποικιλομήτης, ma anche πολύτροπος (polytropos, aggettivo composto da πολύς, «molto», e τρέπω, «volgo»), letteralmente «che si volge in molti modi», dunque versatile e multiforme (Od. 1.1). La sua capacità di escogitare strategie per sciogliere nodi critici è evidente in tantissimi momenti dell’Odissea, a partire dall’incontro con il Ciclope o con le Sirene.

Μῆτις ha un’origine mitica: come narra Esiodo nella Teogonia, è figlia di Oceano e Teti e sposa di Zeus (Th. 886 ss.), che la divorerà per evitare la generazione di figli destinati a spodestarlo. Ingoiando Μῆτις, Zeus tenta di integrarla nella propria natura, confiscando a proprio vantaggio l’unica forza che potrebbe metterne in discussione l’autorità. Μῆτις è nome parlante, che divinizza l’astuzia come facoltà preziosa tra dèi e uomini. Questa forma di intelligenza operativa, che unisce intuito, sagacia, senso dell’opportunità, rivestirà infatti un ruolo essenziale tra i mortali: cacciatore, pescatore, medico, stratega sono tutti accomunati da una sapienza pratica, intesa come arte di adattarsi alle circostanze e di escogitare stratagemmi risolutivi. Il prestigio della μῆτις tende a indebolirsi dopo l’epica omerica; trova ancora spazio nelle macchinazioni della commedia, ma viene molto raramente menzionata nei tragici, restando poi quasi del tutto esclusa dal pensiero filosofico d’età classica.

Come μῆτις, anche ποικιλία (poikilia) è vocabolo talvolta associato al lessico dell’inganno: da un lato il termine ricorre per chi mostra una natura camaleontica e tentacolare, come il polipo con la sua straordinaria capacità di adattamento; dall’altro, riferendosi ai prodotti variegati dell’arte, il vocabolario della ποικιλία è impiegato metaforicamente per evocare la trama mutevole dei discorsi persuasivi. Oltre a ποικιλία possiamo ricordare la πολυμηχανία (polymēchania), come abilità inventiva, intelligenza nell’escogitare μηχαναί, cioè «espedienti» o trucchi risolutivi, e la εὐπορία (euporia), cioè l’ingegnosità industriosa di chi sa trovare una «buona via» (da εὐ, «bene» e πόρος, «passaggio) per uscire dai vicoli ciechi.

Infine, due termini utilizzati prevalentemente in età classica per esprimere l’acutezza di sguardo e la sagacia sono ἀγχίνοια (anchinoia, da γχι, «vicino», «presto», e radice di νοέω, «penso») e εὐστοχία (eustochia, da εὐ, «bene», e στοχάζω, «prendo la mira»). Il primo (corrispondente al wit inglese o all’esprit francese) viene utilizzato da Platone per la «acutezza dell’anima» (ὀξύτης […] τῆς ψυχῆς, Carmide 160a1), quella velocità di pensiero che ingegnosamente sa progettare e realizzare i propri obiettivi. Aristotele negli Analitici (I 34, 89b10-15) osserva che questa forma di intelligenza è talmente veloce da esercitarsi in un tempo troppo breve per essere osservato (ἐν ἀσκέπτῳ χρόνῳ). Il filosofo, inoltre, la riconosce all’opera nella prontezza della levatrice che sa tagliare il cordone ombelicale nel punto giusto e al momento opportuno, ed è dotata, oltre che di abilità pratica, di esperienza e perspicacia nella lettura delle situazioni (Historia animalium VII 9, 587a9 ss.). Anche la εὐστοχία è una forma di intelligenza pratica: è l’occhio che sa vedere l’invisibile, interpretare gli eventi e cogliere il kairos, l’occasione propizia per mirare al proprio obiettivo (si veda Aristotele, Etica Nicomachea VI 10, 1142b1-6), come un arciere in grado di prendere la mira e di colpire il bersaglio, secondo un’immagine utilizzata più volte anche da Platone (ad esempio, Leggi 706a1 e 934b5). La εὐστοχία è il giusto colpo d’occhio, cioè la sagacia che prescinde dal ragionamento articolato e procede per analogie istantanee, decifrando i segni che legano visibile e invisibile, come avviene quando il bravo medico (o il politico eccellente alla Temistocle), osservando gli indizi del presente, ne sa cogliere l’oscura radice e prevedere lo sviluppo futuro.


Crediti immagine: Giuseppe Bossi, La sepoltura delle ceneri di Temistocle in terra attica, 1806 (Wikimedia Commons)

Con la fine del primo conflitto mondiale, un’istanza razionalistica si manifesta in alcune correnti dell’arte degli anni Venti. La ritrovata fiducia nella ragione e nell’intelletto come strumento per costruire un nuovo mondo è alla base di almeno due correnti artistiche, Astrattismo e Costruttivismo, che si contrappongono al Surrealismo, portabandiera dell’irrazionale, della fantasia e del sogno. Anche la parallela esperienza tedesca del Bauhaus di Walter Gropius si basa su un impianto razionale per dare riposte estetiche alle esigenze della vita di ogni giorno.

L’Olanda fa da culla al movimento Neoplastico che con le sue teorie voleva condurre alle estreme conseguenze le conquiste che erano già presenti in nuce nel percorso di altre avanguardie.

All’epoca Piet Mondriaan (1872-1944) era avviato a una ordinaria carriera di pittore figurativo, docente di disegno che produceva dipinti di paesaggio secondo lo stile naturalista tipico della Scuola dell'Aja, appreso durante il suo percorso di studi condotto all’Accademia di Amsterdam.

All'inizio del Novecento, in modo spontaneo, nella sua pittura si era manifestata una struttura più geometrica, che ad esempio accentuava il verticalismo degli alberi, ma che rimaneva all’interno di un sostanziale naturalismo. La decisiva metamorfosi verso l’astrattismo fu provocata da una serie di avvenimenti e di incontri, che si scaglionarono a cavallo del primo decennio del secolo: aveva conosciuto la rivoluzione del colore libero, acceso e antinaturalistico dei Fauves, grazie all’amico pittore Kees Van Dongen ed era entrato in contatto con la teosofia, che gli aveva permesso di ampliare la propria sensibilità verso una spiritualità più accentuata.

L’anno della svolta, per quando riguarda la sua ricerca stilistica, è il 1911, quando ha già 41 anni. La visita ad Amsterdam di una mostra in cui erano esposti dipinti di Pablo Picasso e di Georges Braque, lo mette in contatto con il cubismo francese, che innesca in Mondrian una crisi che avrà come esito finale il rifiuto assoluto del dato naturale. Per tutta la vita egli lotterà "contro" la natura nel suo aspetto apparente, e la sua pittura diventa il mezzo per accedere all’universo geometrico, di dominio esclusivo della mente e dell’intelletto.

Nello stesso anno prende la decisione di recarsi a Parigi, città che lo accoglie con il suo fermento culturale e artistico e che sarà la sua residenza – tranne che per il periodo della prima guerra mondiale – fino al 1938.

È in questo momento che decide di modificare il cognome in Mondrian, sopprimendo la doppia “a” di matrice olandese.

La scena artistica parigina del 1911 vede schierate correnti artistiche opposte e contrastanti – come il post-impressionismo, il fauvismo, l'espressionismo, il futurismo ed il cubismo – che offrono, oltre a stili completamente differenti, una diversa visione del mondo. Mondrian è attratto dalla poetica del cubismo, dal rigore della pratica della scomposizione e dall’attività di decodifica del mondo, perché è alla ricerca di un percorso che permetta la conoscenza della realtà assoluta.

https://www.guggenheim.org/artwork/3001

Piet Mondrian, Natura morta con vaso di zenzero II, 1911-12, olio su tela, Solomon R. Guggenheim Museum, New York

Durante la fase cubista, qui rappresentata dalla Natura morta con vaso di zenzero II, Mondrian si rende conto: «gradatamente che il cubismo non traeva le conseguenze logiche delle sue stesse scoperte; non sviluppava l'astrattismo fino alla sua ultima meta: l'espressione della realtà pura».

Rientrato in Olanda nel 1914 per assistere il padre caduto in malattia, deve rimanere in patria per tutto il periodo del primo conflitto mondiale.

Nel periodo olandese, nei suoi Taccuini, l’artista annota ed enuclea le prime idee di questo nuovo stile in relazione alla sua visione del mondo e, parallelamente, elabora in solitudine le sue sperimentazioni verso l’astrattismo con la serie intitolata Molo e Oceano.

https://www.moma.org/collection/works/33419?artist_id=4057&page=1&sov_referrer=artist

Piet Mondrian, Molo e Oceano V (Mare e cielo stellato), 1914-15, Museum of Modern Art, New York

Prendendo le distanze dal soggetto romantico del mare in tempesta, il mare calmo viene più volte rielaborato dall’arte del XX secolo. Le onde, scomposte in elementi minimi, diventavano un motivo decorativo con linee orizzontali, che si espandono nella tela come la vastità della marina.

Il molo, costituito da alcune linee più lunghe e continue, è ben visibile nella parte inferiore del foglio. Tutt’intorno le linee orizzontali e verticali, ortogonali tra loro, frammentano la superficie del dipinto, ricreando il luccichio delle onde e la vastità del cielo.

L’artista attribuisce un valore simbolico alle linee verticali (principio maschile e conscio) e alle linee orizzontali (principio femminile e inconscio), valori simbolici che derivano dal suo atteggiamento mistico di matrice teosofica.

La griglia di derivazione cubista viene disintegrata in un campo di segni “più” e “meno”, irregolari e ritoccati di acquerellatura bianca per rendere lo scintillio della superfice del mare. A una attenta visione, si coglie che la composizione non è per nulla casuale e che gli spazi tra le linee si comprimono verso la parte alta della tela, quasi a ricreare lo scorcio di una prospettiva tradizionale.

È lavorando su questo tema che Mondrian scrive: «Esclusi sempre più dalla mia pittura le linee curve fino ad arrivare a composizioni formate solo di linee verticali e orizzontali che formavano croci».

Questa griglia traduce l’infinità naturale del mare in un'”infinità artificiale” e questa snaturalizzazione della pittura diventa il postulato fondamentale della "nuova plastica".

Cruciale è nel 1915 il suo incontro con Theo van Doesburg. Così descrive l’evento: «Pieno di vitalità, e di zelo per il movimento già internazionale detto "astratto", pure apprezzando sinceramente la mia opera, [Theo van Doesburg] venne a chiedermi di collaborare a una rivista ch'egli aveva l'intenzione di pubblicare e che voleva intitolare "De Stjil"...».

Era il 1917. Dalle pagine della rivista, Mondrian andrà via via enunciando, in lunghi e meditati articoli, il proprio pensiero sull'arte, che si fonda su «La razionalità del neoplasticimo», come cita il titolo di un suo saggio.

Nel giro di pochi anni si crea un movimento di pensiero e una produzione direttamente collegata che dimostrava tutta la forza della poetica astratta olandese.

In una lettera a Theo Van Doesburg del 1919, Mondrian scrive: «Concordo con te sul concetto essenziale: bisogna distruggere l'aspetto naturale delle cose e ricostruirlo secondo lo spirito, ma il concetto non va inteso troppo alla lettera. Dopotutto l'aspetto naturale non deve coincidere necessariamente con una immagine particolare. In questo periodo sto lavorando a una sorta di ricostruzione di un cielo stellato, ma senza rifarmi alla natura».

Gli scritti di Mondrian riflettono posizioni teoriche ampie e complesse, frutto di molteplici influenze filosofiche elaborate in modo personale, eclettico e non sempre lineare.

L’adesione dell’artista alla dottrina teosofica era stata graduale, leggendo i libri della fondatrice del movimento, Hélène Blavatskij (1831-1891). Nella Società Teosofica, Mondrian aveva trovato un’organizzazione che promuoveva pace e tolleranza, in nome di una verità divina unitaria e segreta, di origine ancestrale.

Nel 1916 l’artista aveva inoltre conosciuto il matematico e filosofo olandese Mathieu J. Schoenmaekers (1875-1944), che, come scrive Theo Van Doesburg: «Vede nella matematica l'unica misura pura delle nostre emozioni. Secondo lui un'opera d'arte deve avere sempre un fondamento matematico».

Per entrambi, la natura, variabile e bizzosa, doveva essere spogliata di ogni apparenza, per svelare la sua fondamentale regolarità e razionalità, espressione più alta dell’ordine matematico.

Su queste suggestioni Mondrian innesta la lettura personale degli scritti di G.J.P.J. Bolland sulla dialettica hegeliana e la conoscenza di uno dei trattati più famosi sugli elementi della pittura, come la Grammaire des arts du dessin di Charles Blanc.

Con un bagaglio così composito, dopo il suo ritorno a Parigi, negli anni Venti Piet Mondrian diventa l’artista che tutti riconoscono per le composizioni geometriche pure, a campiture piatte imbrigliate da griglie nere. Procede a una sistematica decantazione tra forma e contenuto, a una semplificazione integrale, che gli permise di arrivare alla struttura geometrica piana dell’oggetto:

«... Nella plastica nuova, la pittura non si esprime più mediante la corporeità apparente che conferisce aspetto naturale. Al contrario, s'esprime mediante un piano nel piano, ridotta la corporeità tridimensionale della pittura a un sol piano, essa esprime un rapporto puro... ». Egli immagina queste strutture come pure linee rette, che rappresentano l’essenzialità pittorica, gli scheletri delle cose.

Come molti altri artisti dell’avanguardia astratta, Piet Mondrian prende spunto dalle vetrate cloisonné medievali, come soggetto per giungere a un linguaggio lineare. «C'era nelle mie opere del 1919 e 1920, dove la tela era coperta di rettangoli accostati, una equivalenza di orizzontali e verticali. L'esito complessivo era più universale che nei quadri in cui predominavano le linee verticali, ma era ancora vago. Verticali e orizzontali si annullavano a vicenda; il risultato era confuso, la struttura si perdeva», dirà anni dopo.

 

La struttura della vetrata si riconosce ancora in alcuni dipinti proprio nella stretta cornice di rettangoli colorati che serrano la zona centrale più ampia. Mondrian procede per sottrazione, per un progressivo e inesorabile ridurre il superfluo e il decorativo per lasciare libera la forma e la struttura del reale, in tutta la sua disadorna essenzialità. La scelta non poteva che cadere sui colori fondamentali (giallo, rosso, azzurro) stesi a campiture piatte che sembrano autogeneratesi, senza tocchi o pennellate visibili; la tela è divisa in quadrati o in rettangoli, che compongono su un bianco assoluto griglie e maglie di rette nere e larghe, che frantumano il campo in varianti strutturali sempre diverse.

Lo sperimentalismo su questa struttura durò circa sette anni, per poi approdare a una griglia ancor più essenziale: una croce assiale decentrata, formata da una singola linea dominante orizzontale e da una singola dominante verticale, da cui si sviluppa l'intera composizione. La produzione del suo periodo “classico” (1929-32) è caratterizzata da opere di nuovo, austero formato, in cui poche linee ben marcate circoscrivono un'apertura centrale, bordata di strisce colorate.

L'armatura lineare della finestra si era dissolta. Le tele mantengono una struttura lineare identica, ma presentano inversioni cromatiche tali da permettere all’artista di esplorare nuove dimensioni, fondate sulla diversa percezione dei colori.

L’astrattismo, con il suo precetto di ridurre tutto all'estrema purezza, al supremo distacco dal mondo degli oggetti, si pone come risposta alla domanda di una vita sociale nuova, che sia illuminata dal controllo razionale, pervasa di una luce che doni equilibrio e serenità all’uomo del XX secolo.

Mondrian di fronte alle sue creazioni, dichiarava compiaciuto: «Quando l'uomo avrà trasformato la natura in ciò ch'egli stesso è - un equilibrio di natura e di non-natura… avrà recuperato il paradiso sulla terra».

Per saperne di più:

S. DEICHER, Piet Mondrian: 1872-1944: costruzione sul vuoto, Koln Taschen, 2015
P. KARMEL, L'arte astratta: una storia globale, Torino Einaudi, 2021
L’arte moderna. Razionalità e fantasia dell’arte astratta, a c. di G. Veronesi, VI, Milano F.lli Fabbri Editori, 1975
Mondrian. L’armonia perfetta, a c. di B. Tempel, Milano Skira, 2011
Scritti teorici: il neoplasticismo e una nuova immagine della società. Piet Mondrian, a cura di E. Pontiggia, Milano Libri Scheiwiller, 2021

Crediti immagine: Piet Mondrian, Composizione con grande quadrato rosso, giallo, nero, grigio e blu, 1921, olio su tela, L'Aia, Gemeentemuseum

115694.png

Piet Mondrian, Composizione con giallo, blu, nero e blu chiaro, 1929, olio su tela, New Haven, Yale University Art Gallery

Piet Mondrian (Amersfoort, 7 marzo 1872 – New York, 1º febbraio 1944) (fonte: Wikipedia)

shutterstock_2214795895.jpg

Piet Mondrian, Composizione 11, (Composizione in rosso, blu e giallo), 1930, olio su tela, New York, coll. priv.

130055.png

Piet Mondrian, Composizione con rosso, giallo e blu, 1929, olio su tela, Amsterdam, Stedelijk Museum.

I0115693.png

Piet Mondrian, Composizione con rosso, giallo, blu, 1928. Olio su tela, 45×45 cm. Ludwigshafen, Wilhelm-Hack Museum.

I0115692.png

Piet Mondrian, Composizione con grande quadrato rosso, giallo, nero, grigio e blu, 1921, olio su tela, L'Aia, Gemeentemuseum

La ricerca del fine ultimo della vita

Anche gli antichi conoscevano l’angoscia esistenziale. Nell’età ellenistica, quando il cittadino della polis sperimenta la crisi del proprio ruolo sociale, diventando suddito di un impero, la ricerca filosofica si sposta sul versante dell’etica e si concentra sul problema della felicità individuale. Qual è il fine ultimo (τέλος [tèlos]) della vita umana? Quale il sommo bene, capace di dare senso pieno all’esistenza? Le risposte elaborate dalle scuole filosofiche variano giungendo a esiti quasi contrapposti (al piacere catastematico, cioè statico e invariabile, di Epicuro gli stoici oppongono la tensione verso la virtù), ma tutte partono dall’osservazione di un generale smarrimento del senso della vita, e tutte individuano nella ragione (ratio, λόγος [lògos]) lo strumento privilegiato per dare piena dignità all’esistenza umana.

Il messaggio di salvezza della filosofia epicurea

L’umanità si dibatte nelle tenebre accecata da falsi ideali, erra smarrita alla ricerca di un senso che fama, potere, ricchezza non possono dare, trascina la vita nell’oppressione, schiava della paura della morte, tenuta sotto scacco dalla minaccia di divinità vendicative: Lucrezio (De rerum natura 2,10 ss.; 1,62 ss.) dipinge così la sofferenza esistenziale dell’essere umano. Ma la filosofia epicurea offre una via di salvezza, l’indagine scientifica della natura sgombra il campo dalla paura della morte e dal timore degli dèi, radici di tutte le passioni che tolgono gioia alla vita. Lucrezio ha imparato la lezione di Epicuro e ora che si mette alla sua sequela (te sequor, o Graiae gentis decus, inque tuis nunc/ ficta pedum pono pressis vestigia signis, 3,2-3) sente l’urgenza di comunicare al pubblico romano (nella persona di Memmio, destinatario interno del poema) il messaggio di salvezza contenuto nella dottrina del maestro.

La scienza della natura libera l’essere umano dalla paura della morte e degli dèi

Epicuro per primo è riuscito a penetrare i segreti della natura con la sua indagine razionale. Senza lasciarsi influenzare dal pensiero comune, ha sostituito alle opinioni non verificate (δόξαι [dòxai]) una conoscenza scientifica fondata sulla dimostrazione razionale (ἐπιστήμη [epistème]). Dall’osservazione dei fenomeni celesti l’umanità ha derivato la falsa credenza sull’esistenza di divinità che interferiscono con le attività dell’essere umano: Epicuro ha dimostrato che tuoni, fulmini e gli altri fenomeni atmosferici non sono manifestazioni della volontà divina, ma ubbidiscono a rigorose leggi di natura. Gli dèi, estranei al mondo, alla sua creazione e alla sua storia, vivono beati e imperturbabili negli intermundia, gli spazi celesti tra i mondi (che sono di numero infinito), senza nutrire alcun interesse per il destino dell’uomo. L’essere umano perciò può venerarli come modello perfetto di pace imperturbabile (ἀταραξία, «mancanza di turbamento»), ma non ha motivo di temerne le punizioni né in vita né dopo la morte (le pene degli Inferi essendo la principale causa della paura della morte).

Un’impresa eroica degna di un animo grande

Un’impresa intellettuale enorme, quella di Epicuro, che Lucrezio (1,62-79) rappresenta come epica lotta tra l’eroe benefattore e il mostro, la religio, che occupa il cielo (non a caso, dato che dal cielo l’uomo ne ha ricavato l’idea) e schiaccia dall’alto l’umanità con il suo essere occhiuto e terrificante: «Per primo un uomo greco osò levare lo sguardo per provocarla, per primo osò ergersi contro di lei» (1,66-67). Lucrezio fa ripetere a Epicuro le azioni previste dal codice del duello omerico (tendere contra / est oculos ausus … obsistere contra) attribuendogli così il coraggio e la magnanimità che l’eroe epico simboleggia. L’indagine scientifica della natura richiede infatti non solo acutezza d’ingegno, ma anche una straordinaria forza morale: il trionfo di Epicuro sulle false credenze è frutto della sua vivida vis animi (v. 72), dello sforzo vigoroso del suo animus; la sua ricerca scientifica si configura come un volo della mente che oltrepassa lo strato igneo dell’etere posto intorno al mondo (extra / processit longe flammantia moenia mundi, «e molto avanzò al di là delle fiammanti mura del mondo», v. 73), varcato il quale Epicuro percorre l’universo nella sua immensità mente animoque, con tutte le sue energie, intellettuali e morali. Dalla spedizione ai confini del mondo, l’eroe filosofo torna vincitore recando all’umanità un prezioso bottino di conoscenza: la scoperta delle leggi della natura.

Sulle orme di Epicuro

Uno straordinario viaggio della ragione che il discepolo epicureo è chiamato a ripetere: «Non appena la tua dottrina (detta ratio, in quanto sistema ordinato, come la “ragione” di cui è il prodotto) ha cominciato a spiegare a chiare lettere la natura delle cose, rivelata dalla tua mente sovrumana, si dileguano i terrori dell’anima, le mura del mondo si fanno da parte, e vedo le cose muoversi nel vuoto infinito (totum video per inane geri res)», 3,15-17. La natura si rivela infatti costituita da vuoto e materia e la materia fatta di atomi, indistruttibili, infiniti di numero, di varia dimensione, forma, peso e colore, che si muovono nel vuoto infinito aggregandosi a costituire le cose esistenti, e si disgregano poi per tornare a muoversi e originare altri corpi. Ecco che allora al discepolo sulle orme di Epicuro «appaiono» le sedi serene degli dèi, separate dal mondo e dagli esseri umani, mentre «non appaiono da nessuna parte» gli Acherusia templa, il mondo degli Inferi, sede delle pene eterne che l’uomo teme dopo la morte, né la terra «impedisce di vedere» il movimento atomico nel vuoto sottostante (3,18-27). Apparet…, At contra nusquam apparent…, nec obstat quin despiciantur…: la struttura del mondo descritta dall’atomismo professato da Epicuro si rivela con l’evidenza concreta delle immagini visive. La conoscenza si fa certa perché si fonda sull’evidenza dei sensi, che non si ingannano mai (quando sembrano ingannarsi, infatti, l’errore dipende da un falso giudizio della ragione sulla percezione sensibile, di per sé infallibile).

L’analogia come metodo di conoscenza razionale

Non a caso lo strumento privilegiato dell’argomentazione lucreziana è l’analogia, nella forma della similitudine o dell’esempio. L’analogia, che istituisce una relazione tra ordini diversi (vegetale e animale, corporeo e incorporeo, visibile e invisibile…), permette a Lucrezio di superare i limiti dell’intelligibile, riconducendo l’ignoto al noto.

Per esempio, per dimostrare l’esistenza degli atomi invisibili, Lucrezio osserva che ci sono altri corpi di cui non si può negare l’esistenza, ma altrettanto invisibili: nessuno dubita infatti dell’esistenza del vento che «agita il il mare, rovescia navi enormi e disperde le nubi» (1,271 s.) appunto perché se ne possono verificare gli effetti distruttivi; ma poiché nemmeno i venti si vedono ecco un’altra analogia a completare la dimostrazione: nec ratione fluunt alia stragemque propagant…, «i venti fluiscono e seminano distruzione in maniera non diversa» dalla corrente impetuosa di un torrente in piena (l’uso metaforico del verbo fluo anticipa e sottolinea la relazione tra i due corpi), questo sì pienamente percepibile con la vista e con tutti gli altri sensi. L’analogia rende conoscibile una realtà (la realtà atomica) che sfugge alla percezione sensibile (fondamento della gnoseologia epicurea), grazie alla relazione che si riconosce prima con una realtà altrettanto inafferrabile ai sensi (il vento), ma di cui sono ben tangibili gli effetti, poi con la realtà pienamente sensibile della corrente dei fiumi: così ciò che sfugge alla percezione sensibile diventa conoscibile per analogia con la realtà sensibile.

In Lucrezio l’analogia è molto più di uno schema retorico è un criterio di conoscenza ordinato in un struttura razionale, è la forma in cui si struttura il pensiero nel processo della conoscenza.

La fatica dell’impresa e il premio della sapientia

Se la conoscenza, secondo il materialismo sensistico epicureo, si realizza per acquisizione ordinata di immagini visive, il lettore del De rerum natura si trova davanti allo spettacolo grandioso della natura, che si dispiega sotto i suoi occhi dal macrocosmo dell’universo infinito al microcosmo del corpo umano. Di fronte all’immagine del vuoto percorso dal movimento atomico, Lucrezio confessa di provare un «brivido misto a divino piacere» (divina voluptas atque horror, 3,28-29): è la vertigine di chi scopre una realtà che lo sopravanza, che suscita un senso di inadeguatezza, il senso di una sproporzione che si può colmare solo tenendo saldo il timone della ragione fino a raggiungere quella divina voluptas che aspetta il discepolo al compimento del processo conoscitivo. L’apprendimento della scienza della natura è un’esperienza che coinvolge i sensi e la mente, che richiede una tempra morale non inferiore a quella del suo inventor, Epicuro. Un impegno che però è ampiamente ricompensato dal risultato promesso: la liberazione dalle passioni, e quindi la mancanza di turbamento (ἀταραξία) e il piacere inteso come assenza di dolore (ἀπονία [aponìa]), per il quale è necessaria soltanto la soddisfazione di bisogni elementari, quelli naturali e necessari (non avere fame, né sete, né freddo, cf. Gnom.Vat.33). Non l’edonismo gaudente rimproverato all’epicureismo dai suoi detrattori, ma uno stato di gioia di cui gode la ragione: «Come non rendersi conto che la natura non reclama nient’altro per sé, se non che il dolore sia rimosso e lontano dal corpo e che nella mente possa godere di un senso di gioia (mente fruatur/ iucundo sensu) libera da affanni e paure?» (2,16-18).

La ragione, principale animi nella dottrina stoica

Se per gli epicurei l’anima è fatta di atomi (che si disgregano dopo la morte) ed è quindi mortale, per gli stoici l’anima, immortale, è composta di pnèuma (πνεῦμα, «soffio», lat. spiritus), una sostanza volatile che si forma per evaporazione dai liquidi corporei, soprattutto dal sangue, diffusa in tutto il corpo. Il pneuma non si trova solo nell’anima umana ma è presente in tutto il mondo, e assume forme diverse che scandiscono una gerarchia dell’essere (scala naturae), dai minerali, alle piante, agli animali, all’essere umano, agli dèi.

Secondo la teoria stoica, di derivazione platonica, l’anima umana è formata da partes ministrae, con funzione di alimentazione e di movimento, e dal principale animi (questi i termini usati da Seneca nell’epistola 92,1), costituito dalla ragione e detto anche «egemonico» (ἡγεμονικόν) perché alla ragione sono subordinate tutte le altre parti dell’anima. Il ruolo dominante svolto dalla ragione si fonda sul fatto che essa deriva dalla ratio divina, che rappresenta il gradino più alto della gerarchia dell’essere. Spiega infatti Seneca: «come la ragione divina presiede a tutto ed essa a nessuna cosa è sottoposta, così lo stesso avviene nella nostra ragione, che deriva da quella (ex illa est)», ep. 92,1.

Ma come nell’epicureismo, la conoscenza della natura, in questo caso la psicologia, ha immediate ricadute etiche: riconoscere la struttura gerarchica dell’anima significa infatti riconoscere che la felicità consiste solo nella ragione perfetta: in hoc uno positam esse beatam vitam, ut in nobis ratio perfecta sit, «in questo soltanto consiste la felicità, che in noi la ragione sia perfetta» (92,2).

Ragione e ragione perfetta

La ragione è la parte migliore (optimum) dell’essere umano: essa lo rende superiore agli animali e secondo soltanto agli dèi. La ragione perfetta è il bene peculiare (proprium) dell’essere umano, mentre altre doti, come forza, bellezza, velocità, sono comuni anche agli animali (ep. 76,9). Ma se tutti gli esseri umani sono provvisti di ragione, non tutti riescono a raggiungere la ratio perfecta: «L’uomo è un animale fornito di ragione, pertanto realizza pienamente il suo bene se raggiunge il fine per cui è nato»; per farlo è necessario «che egli viva secondo la natura che gli è propria, (secundum naturam suam vivere)» (ep. 41,8), ovvero secondo la ragione stessa. Esiste una sproporzione tra ratio e ratio perfecta: per colmarla occorre proiettare la ratio sul livello superiore della ratio universale: nell’esortazione a «vivere secondo la ragione», la ragione indica non solo cioè che il proprium dell’uomo, ma anche la ragione universale da cui essa deriva, il lògos che dà ordine e forma alla materia. «La ragione non è che una parte dello spirito divino infusa nel corpo dell’uomo» (ep. 66,12), ma all’essere umano è richiesto uno sforzo per adeguarsi alla natura che gli è propria e che lo rende simile alla divinità. Mentre la ratio divina che anima il mondo coincide con il bene, è essa stessa bene, al bene l’uomo non aderisce necessariamente: il bene della divinità è perfetto per natura, quello dell’essere umano è frutto del suo impegno, della sua cura (dei bonum natura perficit, hominis cura, ep.124,14). Solo esercitare la propria ragione in accordo con la ragione universale, il lògos divino che permea l’universo orientandolo al bene, permette all’essere umano di diventare pienamente sé stesso.


Crediti immagine: Epicuro, Agostino Scilla, 1670-1680 (Wikimedia Commons)

I geni ci affascinano (e un po’ ci fanno paura). Persone fuori dalla norma, e come tali “merce pregiata” per sceneggiatori e registi. Ma d’altra parte può fornire ottimi spunti, soprattutto per le commedie, anche chi dell’intelligenza non è proprio un campione. Grandi menti/idioti totali, il binomio ha spesso funzionato nella storia del cinema. Stanlio, giusto per fare un esempio, è tonto per antonomasia, ma anche a lui può capitare (al cinema TUTTO può capitare!) di diventare professore in un prestigioso college inglese. E il giardiniere Chance, protagonista di Oltre il giardino, è un sommo genio o un radicale cretino? Molto spesso, passando ai film biografici e drammatici, l’intelligenza è legata all’impossibilità di vivere una vita normale e tranquilla: è il caso di tanti matematici, fisici, bambini prodigio, alle prese con la difficoltà di entrare in relazione con il mondo che li circonda. Il tema è infinito, perché comprende anche i “geni del male”, capaci di mettere le loro capacità al servizio di regimi mostruosi oppure di progetti distruttivi. Un film di grande successo uscito pochi mesi fa, Oppenheimer, è in qualche modo un compendio di queste attualissime (e inquietanti) problematiche.

Cartesio, di Roberto Rossellini, Italia 1973

Roberto Rossellini ritorna spesso in questi nostri “panorami cinematografici”. Il motivo è semplice: i film di questo grandissimo maestro del cinema italiano non passano mai di moda. Questo, in realtà, è un lavoro realizzato per la televisione, un mezzo al quale Rossellini guardò in particolare negli anni finali della sua carriera. Era infatti convinto che il piccolo schermo, con la sua diffusione capillare in tutte le case, fosse uno strumento indispensabile per poter trasmettere il sapere, per fare insomma opera di divulgazione soprattutto verso chi non era in possesso di un’istruzione superiore. Una scommessa in qualche modo paragonabile a quella di Piero Angela, il maggiore dei nostri divulgatori televisivi, e in più sorretta dalla fama raggiunta con i capolavori cinematografici (uno per tutti: lo straordinario Roma città aperta, del 1945). Compito davvero non facile: condensare in poco più di due ore la vita, e soprattutto il pensiero, di un filosofo e matematico straordinario, vissuto tra il 1596 e il 1650. Il suo fondamentale Discorso sul metodo spiegato nel modo più semplice possibile; le sue discussioni con gli ottusi difensori a tutti i costi della tradizione; i lunghi soggiorni di lavoro e studio in Olanda e Svezia. L’intelligenza al lavoro: quella di René Descartes, tra i massimi fondatori della modernità, e quella di Roberto Rossellini, fiducioso oltremisura nelle possibilità educative dell’allora ancora giovane televisione. Con una mesta riflessione finale: chissà quale sarebbe la sua reazione se avesse la possibilità di vedere come si è ridotta l’amata tv…

Oltre il giardino, di Hal Ashby, Usa 1979

Tutti ne sono incantati, tutti pendono dalla sua bocca. Le sue frasi sibilline vengono ritenute dagli ascoltatori come oracoli illuminati dal genio: ma il giardiniere analfabeta Chance, l’uomo dalla cui bocca escono questi venerati messaggi, è davvero una persona dall’intelligenza superiore alla media? Mistero. Il personaggio, già protagonista del romanzo Presenze di Jerzy Kaminski, anche sceneggiatore del film, è quanto di più enigmatico si possa immaginare. Sembra di assistere a una riscrittura della fiaba di Andersen I vestiti nuovi dell’imperatore, là dove solo un innocente bambino ha il coraggio di urlare: «Il re è nudo!». Qui tutti si inchinano davanti all’(apparente) intelligenza mostruosa di Chance, ma a ogni sua battuta ci viene il sospetto che possa essere una sciocchezza tremenda, e che gli “intelligentoni” intenti a santificarlo siano in realtà dei palloni gonfiati, degli ipocriti conformisti, capaci solo di adattarsi ai giudizi degli altri. Ma il dubbio resta: verso il finale, Chance cammina addirittura sulle acque, proprio come Gesù nell’episodio evangelico. E allora, abbiamo torto noi? La forza più grande di questo film sta proprio nel lasciarci nel dubbio. L’intelligenza può essere  qualcosa di sfuggente per noi comuni mortali, qualcosa che ci mette continuamente alla prova. Anche nella vita quotidiana, nella decifrazione delle notizie, nella lotta continua per capire il vero valore dei leader del mondo: chi di loro è davvero dotato di qualità superiori e chi invece è solo bravo nello spacciare luoghi comuni? Chance, aiutaci tu!

La stangata, di George Roy Hill, Usa 1973

Una commedia, ne abbiamo bisogno. Qui con l’intelligenza si gioca, e con l’intelligenza ci si diverte. Da una parte due simpatiche canaglie (con diversi “collaboratori”), dall’altra un violento “canaglione” che merita davvero il brutto scherzo che i primi due gli stanno per tirare. Il meccanismo della trappola è altamente sofisticato, così come tutte le “rotelline” della sceneggiatura, perfetta in ogni tassello. Ovunque l’intelligenza brilla: nella messa a punto del piano per incastrare l’antipatico, nella sua esecuzione, e ancora di più nel coinvolgimento dello spettatore che, per divertirsi in pieno, non deve perdere nessuna battuta, nessun particolare, mettendo così alla prova anche la sua, di intelligenza. La stangata è un film ideale per capire il funzionamento del grande cinema: alla prima visione si resta irretititi nella trama, si “tifa” per le simpatiche canaglie, ci si gode fino alla fine la suspense. Già a una seconda visione ci si comincia a rendere conto di quanto sia stato complicato il lavoro degli sceneggiatori, del regista, del montatore: la macchina spettacolare hollywoodiana funziona così bene proprio perché “sembra” semplice, mentre nella realtà è il frutto del lavoro certosino di una folla immensa di collaboratori, tanto migliore quanto più si rende “invisibile”. È dunque, sic et simpliciter, il trionfo dell’intelligenza, dall’una e dall’altra parte dello schermo. Un film d’evasione, certo, ma allo stesso tempo un concentrato del saper fare ” illuminato” dal genio dei suoi autori.
Ps: Buon divertimento!

La teoria del tutto, di James Marsh, Gran Bretagna 2014

La mente e il corpo. Una mente prodigiosa, all’altezza dei maggiori geni della storia; un corpo distrutto a poco a poco da una gravissima malattia degenerativa, l’atrofia muscolare progressiva. La mente e il corpo di Stephen Hawking, cosmologo inglese che appena ventenne, mentre studia a Cambridge, inizia a pensare a una teoria in grado di spiegare la nascita dell’Universo. La malattia non si è ancora manifestata, il giovane studioso è pieno di entusiasmo, sicuro di essere sulla strada giusta. Il film ne racconta la vita e gli studi, le persone che gli sono state accanto, a partire dalla moglie Jane che lo assiste quando la malattia comincia a minargli il fisico. Quella di Hawking è un’intelligenza (sovrumana) in perenne “guerra” contro un corpo che sempre più gli diventa di peso. Chiunque si sarebbe arreso di fronte all’impossibilità prima di muoversi, poi addirittura di parlare. Eppure quell’intelligenza è troppo grande per farsi rinchiudere in questa trappola: con l’aiuto di un’infermiera e di supporti tecnici, lo scienziato riesce ancora a comunicare, a scrivere libri, a illuminare con le sue idee i misteri della realtà. La lotta è commovente, si scontra con i sentimenti, con la più che comprensibile stanchezza della moglie, con la depressione sempre in agguato. Ma l’intelligenza è più forte e il genio, per una volta, è anche uno straordinario maestro di vita. Per tutti noi.

Oppenheimer, di Christopher Nolan, Usa, Gran Bretagna  2023

Quando l’intelligenza suprema si incrocia con la suprema ferocia della guerra. Questa è una storia che ci riguarda tutti: l’invenzione, e immediatamente dopo, l’impiego della bomba atomica. Una ricerca partita dal desiderio di scoprire com’è fatta la materia, quali sono i suoi segreti più profondi. Da un lato la teoria, che riceve uno straordinario influsso dalle intuizioni del Genio Assoluto, Albert Einstein, e poi arriva alle prove in laboratorio di altre intelligenze eccelse, come l’italiano Enrico Fermi, poi emigrato in America. Si parla di tutti questi “mostri d’intelligenza”, nel film di Nolan, ma il protagonista assoluto è lui, Julius Robert Oppenheimer. Un uomo dalla mente complessa, un novello Prometeo, sempre sull’orlo di un possibile crollo nervoso. Ma è a lui che il governo degli Stati Uniti decide di affidare il progetto esecutivo dell’”arma assoluta”, la Bomba in grado di distruggere un’intera città, sterminandone gli abitanti. Dunque il dilemma è terribile: contribuire alla costruzione di questo ordigno diabolico, favorendo così la vittoria del proprio Paese, o rinunciare per motivi morali? Oppenheimer e i suoi colleghi decidono di andare avanti, pur non mancando tra di loro qualche voce critica. Si ritirano in mezzo al deserto, a Los Alamos nel Nuovo Messico, e lavorano alacremente al progetto. Com’è andata a finire è purtroppo cosa ben nota: Hiroshima e Nagasaki, le due città martiri, vaporizzate in un istante e con loro decine e decine di migliaia di donne, uomini, bambini. Tutti civili, colpevoli solo di essere giapponesi. Il film, molto complesso (va visto solo dopo avere studiato in modo approfondito le vicende di quegli anni) ci porta all’interno della mente di Oppenheimer, ci fa sentire i suoi dubbi e i suoi slanci, senza tralasciare il suo difficile rapporto con i politici di Washington, sullo sfondo della storia crudele di quegli anni.  Ma, soprattutto, ci dà da pensare, visto che l’incubo atomico abita ancora fra noi.

Noi siamo le colonne, d Hal Roach, Usa 1940

E per finire… una lunga risata liberatoria! Stanlio & Ollio sono gli intramontabili del cinema, tra i pochi protagonisti del passato che non conoscono il declino. Poteva mancare una loro capatina in un college di Oxford? No, ovviamente, anche se risulta difficile immaginarli chini sui banchi della prestigiosa università inglese. Arrivati al seguito di una serie strampalate coincidenze, i due non avrebbero assolutamente nulla da fare, se non essere lo zimbello degli altri studenti, a meno che… A meno che non intervengano circostanze e coincidenze assurde, che solo il cinema comico può giustificare. Prima coincidenza : Stanlio è praticamente il sosia di un celebre professorone locale, scomparso da tempo nel nulla. Seconda coincidenza, ancora Stanlio dopo una gran botta in testa, si ritrova con un cervello geniale. È proprio lui, il professorone che è tornato, con la sua intelligenza mostruosa, esultano tutti i colleghi. Fino al prossimo colpo in testa, ovviamente.
E così ci congediamo dai geni, dando anche a quelli di noi che si immedesimano in Stanlio e Ollio l’illusione di potere un giorno, chissà…


Crediti immagine: Peter Zurek – Shutterstock

Nei sistemi totalitari, il coinvolgimento della comunità popolare alla costruzione del “nuovo ordine” proclamato dall’élite al potere costituisce una condizione indispensabile per la sua realizzazione. Perché lo Stato totalitario non si limita a imporre la propria volontà ai governati, ma esige anche che questi partecipino attivamente alla vita pubblica, che appoggino il regime e si mobilitino in favore dei principi su cui esso si basa. Le disposizioni legislative e le misure repressive adottate dal regime nazista non sarebbero risultate certo sufficienti a garantire l’appoggio della popolazione tedesca alla weltanschauung nazionalsocialista. Così già avveniva in Italia e in Unione sovietica, la capillare opera di educazione ai nuovi modelli culturali e la pluralità di iniziative di mobilitazione popolare si imposero, dunque, anche nella Germania nazista, quali strumenti di primaria importanza al fine di guadagnare l’adesione delle masse.

Particolare attenzione venne riservata, in tal senso, all’indottrinamento delle nuove generazioni, inquadrate nella Hitlerjugend di Baldur von Schirach, alla quale era affidato il compito di garantire l’immortalità del regime. Nel contempo, gli studi e i trattati sulle origini e la “missione” della razza germanica condotti da Alfred Rosenberg si sforzarono di conferire dignità scientifica ai fondamenti ideologici del regime, mentre, sotto l’abile direzione di Joseph Goebbels, stampa, radio e cinema divennero protagonisti di una martellante campagna propagandistica, volta a favorire un generale livellamento delle coscienze. All’interno delle grandiose opere architettoniche, progettate dal giovane e ambizioso architetto Albert Speer per contenere moltitudini di persone e stupire i visitatori stranieri, il partito e le organizzazioni a esso affiliate celebrarono immensi raduni, che avevano l’effetto di rafforzare nel singolo lo spirito di appartenenza e di sottomissione alla comunità popolare. Come in preda a un’ipnosi collettiva, l’intera nazione tedesca imparò a marciare compatta al grido di “Ein Reich, ein Volk, ein Führer”.

L’esordio

Tra gli imputati di Norimberga l’unico disposto ad assumersi la responsabilità dei crimini contestati dal tribunale fu proprio Albert Speer, una delle personalità più interessanti tra tutti i gerarchi del Terzo Reich. Nella sua rapida carriera, percorsa all’interno dello Stato nazista, prima come architetto favorito di Hitler e poi come ministro degli armamenti, è possibile individuare i riflessi del moderno rapporto tra la politica e la tecnica, tra l’uomo tecnologico e l’apparato all’interno del quale egli è chiamato a operare. Per oltre dieci anni Speer si illuse di poter adempiere ai compiti via via assegnatigli senza farsi in alcun modo coinvolgere nei terrificanti effetti prodotti dalla dittatura che aveva scelto di servire e alla cui popolarità e longevità egli contribuì in maniera rilevante.

Giovane e ambizioso architetto, Speer si era iscritto al partito relativamente tardi, nel 1931, ma nello spazio di pochi mesi aveva già portato a termine due commissioni affidategli da Goebbels, allora Gauleiter (capo di sezione del partito) di Berlino: la ristrutturazione della “Casa del Gau” nel centro della capitale e, subito dopo la presa del potere da parte della NSDAP, una serie di interventi nel nuova sede che avrebbe ospitato il Ministero della propaganda. La prima vera occasione per mettere in mostra il proprio talento si presentò a Speer nell’aprile del ’33, quando ottenne l’incarico di allestire la scenografia della grande adunata serale, convocata nella spianata dell’aeroporto di Tempelhof per celebrare la festività del Primo Maggio, che Hitler aveva usurpato ai sindacati ribattezzandola “festa della comunità del popolo”. Il progetto di un grande palco sormontato da enormi bandiere e l’innovativo utilizzo di potenti riflettori per esaltare il gioco di contrasti tra luce e ombra entusiasmarono il cancelliere e marcarono il primo passo di una folgorante carriera.

Pochi mesi dopo, il ventottenne architetto assumeva la direzione dei lavori per la ristrutturazione della Cancelleria del Reich a Berlino e le frequenti visite effettuate da Hitler nel cantiere segnarono l’inizio di un legame profondo e assolutamente anomalo per le ultrariservate abitudini del Führer. Giovane, intelligente, distinto e particolarmente dotato per una professione che Hitler aveva tentato di intraprendere senza successo negli anni giovanili trascorsi a Vienna, Speer aveva tutte le caratteristiche per piacere al nuovo padrone della Germania e per soddisfarne le megalomani ambizioni. La realizzazione di grandiose opere architettoniche avrebbe, infatti, dovuto contribuire in modo determinante alla nuova immagine di potenza che il regime intendeva trasmettere ai contemporanei e ai posteri e Speer fece di tutto per assecondare il gusto neoclassico e monumentale di Hitler.

L’ascesa

Il primo grande successo ottenuto dal giovane architetto risale all’inizio del 1934, quando venne incaricato di adattare il campo Zeppelin a Norimberga alle esigenze dell’annuale congresso del partito. Nel progetto realizzato da Speer, il Führer e gli alti gerarchi della NSDAP avrebbero celebrato i fasti del regime dalla sommità dell’imponente tribuna, lunga 390 metri, di fronte a un’assemblea di 150.000 persone ordinate in ranghi ben serrati. La maestosità della scena era assicurata da una geniale trovata, consistente nel dislocare lungo il perimetro del campo 130 potentissimi riflettori antiaerei, capaci di proiettare per chilometri nell’oscurità singoli coni di luce, simili a colonne di un enorme tempio, che alla fine si fondevano in una cupola luminosa. All’interno di quella che l’ambasciatore inglese, visibilmente impressionato, definì una “cattedrale di luce”, le fiaccole, le bandiere e le sfilate contribuivano a esaltare il significato liturgico delle imponenti adunate notturne del partito.

Il successo dell’opera aprì a Speer le porte degli incarichi colossali. Nel 1935 Hitler gli affidò il compito di progettare per i futuri congressi della NSDAP un’intera area di Norimberga, destinata a ospitare enormi costruzioni, quali una sala dei congressi con 60.000 posti, uno stadio capace di contenere 500.000 spettatori e un campo per le sfilate lungo un chilometro per settecento metri. Solo per lo stadio furono ordinati blocchi di granito per molti milioni di marchi poiché, nella prospettiva di un Reich destinato a durare mille anni, la scelta del materiale da costruzione rivestiva per il Führer particolare importanza. Suggestionato dalla “Teoria sul valore delle rovine” (Theorie vom Ruinenwert) rilanciata da Speer, ponendo la prima pietra della sala dei congressi Hitler dichiarò: «Se il movimento dovesse un giorno tacere, sarà questo testimone a parlare anche tra millenni. In mezzo a un boschetto sacro di antiche querce la gente ammirerà con reverente stupore questo primo gigante tra le costruzioni del Terzo Reich»[1]. Premiato con il Grand Prix all’Esposizione Universale di Parigi del 1937, il progetto urbanistico di Speer non verrà mai portato a termine e con esso molti altri incarichicome quello di ispettore generale per la ricostruzione di Berlino, che avrebbe cambiato il volto della capitale con interventi urbanistici radicali e la costruzione di gigantesche opere architettoniche – non andarono oltre le miniature dei plastici. Ciò era, comunque, sufficiente per dare vita a lunghe e appassionate discussioni di architettura tra Hitler e Speer, il cui rapporto divenne sempre più esclusivo.

Il tecnocrate

Immerso nel lavoro e stordito dalla rapida ascesa, Speer non si rese conto o, meglio, non volle rendersi conto, della cupa piega che nel frattempo stavano prendendo gli eventi attorno a lui. L’occupazione dell’Austria e della regione dei Sudeti (provincia tedescofona della Cecoslovacchia) da parte delle truppe tedesche nel corso del 1938 furono accolte dall’architetto di Hitler con una sorta di benevola indifferenza e anche la drammatica Notte dei cristalli (8-9 novembre 1938), in cui in tutta la Germania centinaia di negozi di ebrei vennero saccheggiati e molte sinagoghe devastate e incendiate, non produssero in Speer che un senso di disagio, per quella che ricorderà come «un’ impressione di disordine fatto di travi carbonizzate, di muri crollati, di suppellettili bruciate… le vetrine infrante ferirono il mio senso borghese di conservazione».[2]

Il suo tentativo di chiudersi ermeticamente in una sorta di isolamento apolitico sarebbe stato messo a dura prova negli anni seguenti quando, nominato nel 1942 Ministro degli armamenti a seguito della morte di Fritz Todt, verrà chiamato ad assumere responsabilità di primo piano al servizio del paese in guerra. Le doti organizzative già dimostrate da Speer come architetto si adattarono perfettamente alle nuove mansioni e, in breve tempo, egli fu in grado di riorganizzare l’industria bellica secondo criteri di efficienza, eliminando sprechi e disfunzioni nell’apparato produttivo. La struttura burocratica venne drasticamente semplificata e il nuovo ministro si avvalse di collaboratori scelti unicamente in base al criterio della professionalità. Nel 1944 la produzione di armi aumentò di sette volte rispetto al 1942, e questo nonostante i sempre più pesanti bombardamenti anglo-americani sull’apparato industriale tedesco. Anche nelle nuove vesti ministeriali Speer rimase sostanzialmente un tecnico, concentrato sugli indici di produzione e indifferente di fronte all’assunzione di responsabilità che esulassero dall’assolvimento dei compiti che gli erano stati assegnati. L’impiego di centinaia di migliaia di ebrei e di lavoratori coatti rastrellati in tutta Europa e costretti a lavorare in condizioni disumane, non costituì motivo di preoccupazione per il ministro degli armamenti, interessato esclusivamente al raggiungimento degli obiettivi prefissati.

I successi ottenuti sul piano delle produzione bellica non riusciranno comunque a colmare il vuoto lasciato da tanti progetti architettonici incompiuti. Dalla cella della prigione nella quale sconterà la condanna a 20 anni di reclusione, nel ricordare i mesi trascorsi a elaborare i piani per trasformazione urbanistica di Berlino gli orrori del conflitto passavano quasi in secondo piano agli occhi di Speer, rispetto al senso di frustrazione professionale, unito a un risentimento quasi infantile nei confronti di Hitler che, lamentava, si era «buttato a capofitto nella guerra inseguendo i suoi sogni di potenza politica e così facendo ha anche distrutto il progetto della mia vita».[3].


[1] Joachim Fest, Il volto del Terzo Reich, Mursia, Milano 1970, p 321

[2] Albert Speer, Memorie del Terzo Reich, Mondadori, Milano 1995, p. 135

[3] Guido Knopp, Tutti gli uomini di Hitler, Corbaccio, Milano 1999, p. 281


 (Crediti immagine: Große Halle, Albert Speer, Wikimedia Commons)

Figura simile alla dittologia (https://aulalettere.scuola.zanichelli.it/materie-lettere/italiano-lettere/la-dittologia-una-figura-viva-e-vegeta), che può esserne considerata una derivazione, la sinonimia può causare confusione: non ha necessariamente a che vedere, infatti, con dei sinonimi, ma con una sequenza di parole o espressioni diverse che però hanno lo stesso senso e che vengono messe in fila con l’idea di rafforzare un concetto.

Facciamo una sinonimia quando siamo arrabbiati con qualcuno che ha combinato un pasticcio («Hai fatto un disastro! È una catastrofe! Un’apocalisse!») o quando ci innamoriamo e diventiamo un po’ melensi, retorici («Ti adoro... ti venero... ti amo!»): quasi sempre, peraltro, nelle successioni sinonimiche ben fatte si usano tre elementi, come in questi esempi, perché la struttura ternaria è il nucleo base, in retorica, per un discorso efficace (quattro elementi sono troppi, due sono spesso pochi).

Infine, fate attenzione, perché la sinonimia è diversa dall’isocolo (https://aulalettere.scuola.zanichelli.it/materie-lettere/italiano-lettere/in-fila-per-tre-lisocolo), a cui magari istintivamente state pensando: infatti anche là, nell’isocolo, si costruiscono frasi ternarie, ma non sono composte da sinonimi o da espressioni che hanno lo stesso senso.


Crediti immagine: jorisvo / Shutterstock

L’espressione Intelligenza artificiale sembra a prima vista un paradosso. Un artefatto umano (come i computer o la Rete internet) è in effetti il prodotto di un’intelligenza umana che lo ha progettato e realizzato: come può a sua volta essere dotata di intelligenza? E, alla stessa stregua di una creatura che si ribella al proprio creatore, può imporre all’intelligenza umana i propri ritmi e i propri schemi?

Fin dalla comparsa del celebre articolo Google ci rende stupidi? di Nicholas Carr (2010) psichiatri e psicologi si interrogano su difficile confronto tra le due intelligenze.

L’articolo di Carr e un suo successivo libro hanno scatenato un ampio dibattito di cui è difficile riassumere il profilo. Può essere utile leggere un articolo dell’epoca https://www.ilpost.it/2010/06/07/google-ci-rende-un-po-stupidi/ 

Destinati alla demenza?

Lo psichiatra tedesco Manfred Spitzer non ha dubbi sugli esiti devastanti provocati dai media digitali e dai computer sulla mente delle persone. Abituati a delegare agli strumenti elettronici molti compiti, come consultare una mappa o cercare facili informazioni, i cervelli si atrofizzano. E sottoposti a una quantità di informazioni eccessive rispetto alle loro capacità di gestione, finiranno per capitolare e preferire una conoscenza superficiale a un impossibile approfondimento. Scritto qualche anno prima del dibattito sull’intelligenza artificiale, Demenza digitale (2012) traccia inoltre un ritratto impietoso dei nativi digitale e dell’abuso dei mezzi digitali, disegnando un futuro a tinte fosche.

Il testo di Spitzer è stato oggetto di varie critiche. Tra quelle meno tecniche vi è quella di non aver esaurientemente analizzato gli aspetti di reazione soggettiva all’uso dei media, come emerge dall’articolo dall’articolo di Roberto Pozzetti La demenza digitale esiste? Impariamo a distinguere, con la ricerca “single case”.
 https://www.agendadigitale.eu/cultura-digitale/la-demenza-digitale-esiste-impariamo-a-distinguere-dalla-ricerca-single-case/

Troppe informazioni

Tra i vari aspetti critici delle tecnologie digitali denunciati da Spitzer vi è la sproporzione tra le informazioni che esse sono in grado di trasmettere e quelle che la mente umana è in grado di gestire. Lo psicologo cognitivista Paolo Legrenzi (Prima lezione di scienze cognitive, 2010) allude allo stesso rischio, come effetto del diverso ritmo di sviluppo della mente umana e delle nuove tecnologie. Frutto infatti di una lenta selezione biologica millenaria, il cervello umano non ha gli strumenti per gestire un flusso di informazioni troppo rapido e troppo ricco. Queste “protesi”, come vengono chiamate da Legrenzi, vanno dunque usate in modo consapevole.

Una intelligenza umana o sovraumana?

A questo punto la questione diventa quella di capire come adattarsi a un nuovo contesto, che l’essere umano stesso sta creando. Anche se con accenti diversi Spitzer e Legrenzi ci hanno fatto intuire i rischi impliciti nell’uso di una tecnologia che è sempre più distante da noi per via della nostra incapacità di comprenderla al meglio.

Eppure, si potrebbe dire che essa popola il nostro ambiente di vita in modo preponderante. A ben vedere, questo non dovrebbe essere causa di stupore. La storia della nostra specie è nello stesso tempo la storia di una evoluzione di mezzi tecnologici. Secondo Sloman e Fernbach (Illusione della conoscenza, 2018): «I nostri corpi e cervelli sono progettati per includere nuovi strumenti nelle nostre attività, quasi fossero estensioni dei nostri corpi». Essi però restano solo degli strumenti, che non condividono la nostra intenzionalità. La forza dell’intelligenza artificiale, da questo punto di vista, è di riuscire a riunire insieme le conoscenze di un consorzio umano, costituito spesso da persone che non si conoscono o addirittura non hanno alcuna relazione le une con le altre. La sua competenza in un determinato settore (immaginiamo di porre dei quesiti a ChatGPT non è quindi per nulla sovraumana, ma l’unione di conoscenze individuali.

Gli strumenti digitali sono degli idiots savants?

La riduzione dell’Intelligenza artificiale a una sorta di idiot savant, come la definisce l’informatico Erik J. Larson (Il mito dell’intelligenza artificiale, 2022), è per certi versi consolante, perché riduce quest’ultima al rango di strumento della nostra intelligenza naturale.

Chiarita la natura di mezzo dell’Intelligenza artificiale, il problema sembra spostarsi dallo strumento al suo utilizzatore, che ignorando il funzionamento dell’Intelligenza artificiale e spesso dell’oggetto o dei compiti che affronta tramite essa, si trova tra le mani un simulacro di conoscenza e non un sapere autentico. La soluzione? Il fattore tempo e la nostra coevoluzione con la tecnologia potrebbero giocare a nostro favore, quando riusciremo a trarre vantaggio dalla comunità della conoscenza.

Alla ricerca di una nuova interazione

Un altro rischio però si palesa e cioè che a un livello più profondo possano essere i nostri stessi strumenti a plasmare la nostra mente. L’assuefazione all’approssimazione, alla mancanza di originalità, alla pratica del copia incolla quali effetti potrebbe avere sulla nostra creatività e il nostro senso critico? La sensazione di avere il mondo sulla punta delle dita (che sfiorano i tasti di un dispositivo) non è un disincentivo a conoscere il mondo dal vivo? La questione allora non è se, ma come evolverci culturalmente per restare intelligenti in un mondo di algoritmi e di profilazioni, ossia come imparare ad adottare questi strumenti in un’ottica di pensiero critico e di creatività.

Qualche ipotesi sull’uso dell’IA a scuola sono espresse da Ivan Ferrero in questo articolo:
https://www.agendadigitale.eu/scuola-digitale/intelligenza-artificiale-nellapprendimento-le-sfide-per-docenti-e-ragazzi/ 

Crediti immagine: peshkova / 123RF

Il papa con un piumino bianco alla moda, in stile trapper. È il caso che per qualche giorno ha infiammato il web e ha messo la maggior parte delle persone di fronte a un dato di fatto: ci confrontiamo sempre più spesso con immagini generate con Intelligenza Artificiale.

Ma come vengono prodotte? Come si riconoscono? E soprattutto, come la loro circolazione impatta sul mondo dell’arte e su quello dell’informazione e della comunicazione?

Le tecniche per realizzare immagini con intelligenza artificiale sono molteplici, e partono da altre immagini oppure da stringhe testuali (il cosiddetto T-T-I: text-to-image). Ci sono ad esempio le GAN (Generative Adversarial Networks), che offrono la possibilità di usare un set di immagini già esistenti: una prima rete le rielabora per generarne una nuova, che la seconda rete deve riconoscere come estranea al set originale. In questo modo la prima rete si “allena” e migliora man mano, per fare in modo di “ingannare” la seconda, fino al punto in cui non individua più la differenza tra le immagini.

Un’alternativa Midjourney (https://www.midjourney.com/home?callbackUrl=%2Fexplore), programma sviluppato da un laboratorio di ricerca, in cui si utilizza un comando testuale per descrivere l’immagine che si vuole produrre, che viene generata dal sistema e può essere poi personalizzata. Oltre a questa, le piattaforme per la generazione di immagini in IA sono numerose: tra le più note, Dall-E 2 (https://openai.com/dall-e-2) di OpenAI, laboratorio di ricerca sull'intelligenza artificiale, Runaway (https://runwayml.com/), Deep AI (https://deepai.org/), Stable Diffusion (https://stablediffusionweb.com/).

Molte di esse sono accessibili anche a chi non ha particolari competenze informatiche o artistiche, e del resto moltissime persone hanno sperimentato almeno una volta le funzionalità più semplici dell’IA, per esempio con le applicazioni che permettono di cambiare lo stile delle proprie foto ispirandosi a quello di pittori famosi (come l’app Prisma https://prisma-ai.com/).

Elements of AI, un corso online gratuito sull’intelligenza artificiale: https://www.elementsofai.it/

Intelligenza artificiale e immagini artistiche

Come spesso accade, artiste e artisti hanno colto le potenzialità espressive di questa tecnologia e ne hanno fatto un ambito di indagine privilegiato. Un passo fondamentale nel riconoscimento di opere realizzate con IA si è avuto nell’ottobre 2018, quando Christie’s, la più grande casa d’aste del mondo, ha venduto per 400mila dollari Il ritratto di Edmond Belamy (https://www.christies.com/lot/lot-edmond-de-belamy-from-la-famille-de-6166184/?from=salesummery&intObjectID=6166184&sid=18abf70b-239c-41f7-bf78-99c5a4370bc7). L’opera è realizzata dal collettivo francese Obvious Art e la firma riportata nella parte bassa del quadro è decisamente insolita: un algoritmo. Il dipinto è infatti prodotto tramite l’IA, sfruttando reti GAN e partendo da un database di 15.000 ritratti datati tra il XIV e il XX secolo.

Per quanto sperimentazioni in questo senso non fossero nuove all’epoca, era meno consueto che trovassero l’attenzione di istituzioni così importanti. Il dibattito che ne è nato ha messo in discussione i confini stessi del concetto di arte: siamo ancora in presenza di opere artistiche? Dal momento che queste opere attingono a database di altre opere, non fanno altro che copiare? E l’artista può ancora considerarsi il vero autore, o autore è il programma informatico?

Il confronto su questi temi non si è affievolito nel corso degli anni, mentre le gallerie hanno iniziato a popolarsi di opere in cui l’intervento umano si ibrida con l’azione dei sistemi di IA. A chi difende una presunta incontaminazione dell’arte rispetto ai sistemi tecnologici, si oppongono le posizioni che riconoscono come l’IA sia diventata uno strumento creativo come molti altri.

In questo senso, l’uso dell’IA ci spinge a considerare come nel corso dei secoli l’arte abbia preso corpo attraverso materiali che andavano ben oltre la sola tela e pennelli (basta pensare alle opere di Duchamp e Manzoni, tra le tante). E di conseguenza ci porta a riconoscere che le tecniche non sono neutre, ma contribuiscono, insieme alla creatività dell’autore e a una rete di altri fattori (il periodo storico, le influenze, …), a determinare la peculiarità di ciascuna opera. Questo porta a intendere in maniera più complessa il concetto di autorialità, immaginando che possa includere anche l’atto di istruire una rete e lavorare con essa per generare un’opera. D’altra parte, dal dibattito emerge la necessità comprendere meglio i confini di questo intervento: è sufficiente produrre un’immagine con un tool di IA disponibile online perché una persona sia considerata artista? E come la facilità nel generare immagini di buona qualità anche per chi non ha particolari competenze impatta sulle professioni legate all’arte, come l’illustrazione o il design?

Molte questioni sono ancora aperte, e questo rende il riconoscimento del copyright per le opere in IA tutt’ora problematico e contestato. È il caso ad esempio di Jason M. Allen, che ha vinto un premio alla Colorado State Fair Fine Arts Competition con l’opera in IA Théâtre D’opéra Spatial, ma nonostante questo si è visto negare dall’ufficio preposto la tutela del copyright. O meglio, Allen avrebbe potuto tutelare quelle parti da lui modificate con Photoshop, ma non le restanti.

Il (mancato) diritto d’autore per Théâtre D’opéra Spatial: https://www.wired.it/article/intelligenza-artificiale-opere-artistiche-copyright/

Intelligenza artificiale e fotografia artistica

Un altro momento “caldo” del dibattito sull’IA nella creazione artistica si è avuto nel marzo 2023, quando l’artista tedesco Boris Eldagsen ha vinto il primo premio nella categoria “Creative” dell’importante concorso fotografico Sony World Photography Awards (https://www.worldphoto.org/sony-world-photography-awards). Lo scatto The Electrician è stato generato con il sistema IA Stable Diffusion ed è parte di una serie dall’eloquente titolo “Pseudomnesia: Fake Memories” (https://www.eldagsen.com/pseudomnesia/), che si ispira visivamente agli scatti in bianco e nero degli anni Quaranta. Al momento dell’attribuzione del premio i giudici non erano al corrente della genesi dell’immagine, ma lo hanno poi confermato anche una volta chiarita la sua natura. Lo scalpore è nato però perché l’artista lo ha rifiutato, con l’obiettivo di proporre una riflessione pubblica sulle immagini realizzate con IA.

In particolare, Eldagsen pone sul tappeto due questioni. La prima rivendica l’artisticità del lavoro con IA, e nello stesso tempo la sua peculiarità rispetto ad altre forme artistiche. «Per me, lavorare con generatori di immagini IA è una co-creazione, in cui i sono il regista» precisa l’artista: «non si tratta solo di premere un pulsante – ed è fatta. Si tratta di esplorare la complessità del processo, iniziando a perfezionare dei suggerimenti di testo, poi sviluppando un complesso flusso di lavoro e mettendo insieme varie piattaforme e tecniche». (https://www.eldagsen.com/sony-world-photography-awards-2023/). Ben vengano dunque a suo avviso le opere prodotto con l’IA, ma esse devono avere circuiti separati dalle altre.

La seconda considerazione sollevata dall’artista si appunta invece sulla capacità di distinguere tra i due tipi di immagini, che neanche i giudici del concorso hanno dimostrato di possedere. Si tratta di una questione fondamentale, che va ben oltre il mondo dell’arte e investe la circolazione delle immagini nell’ambito della comunicazione e dell’informazione: come distinguere le immagini prodotte con IA?

La circolazione delle immagini generate dall’intelligenza artificiale

Proprio nelle stesse settimane in cui si discuteva di Eldagsen, il già citato caso del Papa con il piumino ha acceso il dibattito pubblico. Un utente ha postato sul social network Reddit la foto, che in un attimo è diventa virale. Per la sua estrema verosimiglianza qualcuno l’ha presa sul serio, ma anche se ai più era chiaro che si trattasse di un falso, è emersa con forza una questione cruciale: le immagini prodotte con IA assomigliano moltissimo alle vere fotografie, e rischiano di trarci in inganno.

Non era la prima volta che venivano diffuse immagini che rappresentano personaggi reali in situazioni totalmente inventate, come nel caso delle false foto dell’arresto di Donald Trump, che avevano creato non poca confusione nel mondo dell’informazione.

È il fenomeno dei cosiddetti deepfake, ossia foto, audio o video generati con IA a partire da immagini di persone reali, che ritraggono eventi o situazioni mai accadute ma dall’apparenza estremamente realistica.

Se quando consideriamo il mondo dell’arte ci troviamo nell’ambito di un territorio dai confini ben definiti per quanto riguarda la circolazione e l’attribuzione di senso alle immagini, i problemi aumentano quando ci spostiamo nel contesto della comunicazione. Distinguere una fotografia che riprende un evento realmente accaduto da una irreale, ma verosimile, diventa fondamentale per avere accesso a un’informazione attendibile e veritiera. Il problema del riconoscimento delle notizie vere o false è ben più ampio e riguarda molte dinamiche del web, ma certamente le immagini lo rendono ancora più pervasivo e sottile. Siamo abituati a “vedere per credere”, nonostante da sempre le immagini siano passibili di manipolazione e di distorsioni di significato, anche se scattate “dal vero”. 

Per di più la rapidità con cui si propagano contenuti e reazioni sul web rende spesso difficile la riflessione, creando e perpetrando bias che diventano poi difficili da scalfire. Inoltre, questa sovrapposizione tra immagini dallo statuto diverso, reali o fittizie, o in bilico tra le due dimensioni, getta nel lungo periodo le basi per vere e proprie distorsioni nella comprensione delle dinamiche politiche e sociali del mondo in cui si è immersi, che diventano sempre più difficile da interpretare.

Le ricadute sono anche sulle relazioni interpersonali: la facilità con cui si possono manipolare immagini di persone reali e calarle in contesti inventati rende possibili dei veri e propri furti di identità, ed espone soprattutto chi è più giovane e fragile a prevaricazioni e atti di violenza. È il caso del cosiddetto deepnude, in cui le persone vengono fittiziamente spogliate tramite l’IA, e le immagini vengono poi fatte circolare pubblicamente. In questione è dunque il rischio di essere espropriati della nostra stessa immagine e del nostro diritto a deciderne le sorti, a moltissimi livelli.

Intelligenza artificiale ed educazione ai media

Se proviamo a interrogarci su come questo scenario così complesso, sfaccettato e in divenire impatta sul mondo educativo, diventa importante elaborare strategie e strumenti che permettano di fronteggiare queste nuove sfide. Le preoccupazioni sono comprensibili, data la delicatezza delle implicazioni, ma a maggior ragione le criticità dovrebbero diventare occasione per tracciare percorsi che favoriscano la comprensione dei fenomeni in atto, dei rischi e delle loro potenzialità formative.

Un’educazione ai linguaggi dei media permette innanzitutto di sfatare il mito dell’immediatezza e del “vedere per credere”, facendo riflettere su come la costruzione delle immagini contribuisca a veicolare un senso preciso, al di là del dato referenziale. Abituarsi a considerare le immagini come un linguaggio che produce veri e propri discorsi, è il primo antidoto all’adesione immediata a qualsiasi contenuto venga proposto. Guardare con approccio critico alle immagini (così come ai testi) usate per fare informazione, è il punto di partenza per un rapporto più consapevole e attivo con il mondo in cui si vive.

Inoltre, nel caso delle immagini generate con IA, una necessità pressante è che i percorsi didattici si confrontino con gli aspetti tecnici: come funzionano questi sistemi? Quali meccanismi operano dietro l’apparente immediatezza di utilizzo? Quali sono le logiche di fondo e quali i risultati a cui possono portare? È a partire da queste premesse che diventa più facile imparare a ragionare sulla costruzione delle immagini stesse, e affinare lo sguardo per distinguere quelle menzognere.

Più a monte, quali dati vengono utilizzati per istruire le IA? Dati aperti o protetti da copyright? E come il possesso dei dati, in termini di quantità e qualità, crea squilibri di potere tra gli attori che operano in questo ambito? Uno scacchiere molto concreto, dal momento che riguarda anche i dati che quotidianamente divulghiamo e per cui cediamo i diritti di utilizzo. È da qui che può nascere la consapevolezza dell’importanza di tutelare la propria immagine e quella altrui nel contesto della rete.

Ci si può anche chiedere quali siano i contenuti delle immagini da cui le IA “imparano” a generare i propri modelli: esprimono bias e stereotipi che l’IA, basandosi su quanto già esistente, rischia di perpetrare? E dove può collocarsi in queste dinamiche la trasformazione delle narrazioni dominanti?

Ancora, l’IA può entrare nei programmi di storia dell’arte, per dare enfasi alle sue potenzialità creative e suggerire piste di sperimentazione delle innovazioni tecnologiche. Infine, un aspetto spesso trascurato: per funzionare le IA consumano energia, e la generazione di immagini è tra i compiti più dispendiosi. Qual è dunque l’impatto ambientale di questi sistemi? Come valutarlo e gestirlo?

Questi risvolti rivelano come l’educazione ai media si intrecci sempre più strettamente non solo con l’educazione civica, ma anche con una pluralità di altre discipline, e come sia dunque un elemento fondamentale per costruire le forme di cittadinanza contemporanee, non solo online.


Crediti immagine: peshkova / 123RF

Cosa c’entra l’azione di raccogliere con l’intelligenza? Il verbo latino “lego” è la radice del termine italiano “intelligenza” e “lego” vuol proprio dire “raccogliere”.

Come spesso accade nei Sentieri di parole, l’etimologia non è solo un approfondimento lessicale, ma racconta una storia e mostra azioni molto concrete. L’intelligenza è raccogliere: informazioni sensoriali, esperienze, concetti, che la nostra mente rielabora e sfrutta al fine di svilupparsi pienamente e conoscere il mondo, fare previsioni, sviluppare comportamenti e teorie anche estremamente complicate.

Il concetto di raccolta si trova anche in altre parole che hanno in “leg-” una radice: è il caso del termine “leggere” – che cos’è, la lettura, se non una raccolta di storie, personaggi, emozioni, azioni – ma anche “legione”, “collezionare”, “sacrilego”, ovvero colui che raccoglie le cose sacre e poi le ruba.

Il verbo “lego” descrive soprattutto azioni proprie di un ambito agricolo: si descrivono azioni come raccogliere i frutti della terra, di braccia protese e di mani che afferrano piante e rami. Queste azioni rappresentano l’origine del termine che oggi nell’italiano moderno designa la facoltà intellettiva, una facoltà che attraverso una raccolta certosina di informazioni – che, nella metafora, sono i frutti dei campi del verbo “lego” – consente all’essere umano di sviluppare una capacità unica e, a quanto ne sappiamo, peculiare in tutto il regno animale.

Ma ultimamente non peculiare solo dell’essere umano: i progressi dell’intelligenza artificiale rivelano che anche le macchine sanno raccogliere informazioni e sfruttarle per sapere cose sul mondo, ovvero apprendere e comprendere.  


Crediti immagine banner: donatas1205 / Shutterstock

condividi