Perché parlare di intelligenza artificiale?
Nel 2023 l’espressione intelligenza artificiale ha invaso i mezzi di comunicazione.
Social media, quotidiani e programmi radio e televisivi hanno riscoperto una branca della scienza e della tecnologia: l’intelligenza artificiale, che d’ora in avanti abbrevieremo con IA.
In particolare, le abilità di scrittura di un prodotto software hanno scioccato il mondo. Il prodotto in questione è ChatGPT: un assistente virtuale al quale si può chiedere di tutto, interattivamente, tramite una chat.
ChatGPT dialoga fluentemente in almeno 40 lingue e ha proprietà di linguaggio e comprensione del contesto che rendono le conversazioni con esso fruttuose e piacevoli.
In realtà, chiunque usi uno smartphone ha già avuto a che fare, più o meno consapevolmente, con assistenti virtuali basati su tecniche di IA (basti pensare a Siri di Apple o a Google Assistant) che spesso non erano però in grado di soddisfare le nostre richieste, anche se banali. ChatGPT è migliore di tutti gli altri assistenti prodotti finora.[1]
Per chi non lo avesse ancora provato, riportiamo un breve estratto di conversazione con questo assistente virtuale. Allo strumento abbiamo chiesto consigli per organizzare un piccolo viaggio in Baviera, con partenza da Bologna.
Dopo questa conversazione, non dovrebbe sorprenderci che qualche quotidiano abbia persino pubblicato articoli realizzati con questo software e invitato i lettori a individuarli.
Insomma, i computer hanno imparato a scrivere. Ci verrebbe da aggiungere che hanno imparato anche a scrivere discretamente bene.
Per esempio, sanno sintetizzare un testo.
Oppure, se si è in vena poetica, possiamo richiedere dei versi anziché un testo in prosa.
Non c’è solo la scrittura. Nell’ultimo decennio abbiamo compreso come programmare i computer per eseguire compiti sempre più complessi, che credevamo essere solo di pertinenza umana: giocare a scacchi, ricercare la struttura tridimensionale delle proteine o comporre musica.
Le conversazioni con ChatGPT e gli esempi riportati non sono frutto di magia, ma il risultato di un lavoro di ricerca e sviluppo tecnologico al confine tra diverse branche dello scibile umano come la matematica, l’informatica e l’ingegneria, e non solo.
Nei prossimi paragrafi proveremo a comprendere:
● che cos’è l’IA;
● come funziona l’IA;
● dove troviamo l’IA.
In particolare, cercheremo di introdurre il lessico necessario per comprendere la relazione tra IA e prodotti come ChatGPT, per apprezzare i limiti scientifici e i rischi delle sue applicazioni, senza demonizzare la disciplina.
Che cos’è l’IA?
Partiamo con una cattiva notizia: nella letteratura scientifica non esiste una definizione di IA univoca. Questo perché, nel corso degli anni, sotto l’espressione intelligenza artificiale sono stati raccolti contributi provenienti da campi scientifici e tecnologici diversi, rendendola una disciplina di confine tra scienza e ingegneria. Inoltre, la presenza della parola intelligenza, già di per sé complessa da definire, complica ulteriormente la questione.
Abbiamo scelto la definizione di IA data dalla professoressa Margareth A. Boden, nel suo libro L’intelligenza artificiale pubblicato in Italia da Il Mulino[2], perché non scende in tecnicismi e racchiude l’essenza della materia:
«L’intelligenza artificiale (IA) cerca di mettere in grado i computer[3] di fare il genere di cose che sanno fare le menti. Alcune di queste cose (ad esempio ragionare) sono solitamente descritte come “intelligenti”, mentre altre (ad esempio vedere) non lo sono. Ma tutte coinvolgono quelle capacità psicologiche come la percezione, l’associazione, la previsione e il controllo motorio – che consentono agli umani e agli animali di conseguire i loro obiettivi.»
Allo stato attuale della ricerca, pur parlando di intelligenza, non dobbiamo assumere che esista una tipologia di intelligenza e/o coscienza – simile a quella umana – che alberga nei nostri dispositivi, come smartphone, tablet e computer. I dispositivi informatici, seppur sempre più complessi e capaci di fare calcoli sempre più potenti, restano delle macchine senza volontà o autonomia proprie, incapaci di operare se non istruiti. Gli insiemi di istruzioni necessari a svolgere un determinato compito sono detti algoritmi.
Un algoritmo non è dissimile da una ricetta di cucina, in cui ogni riga è un’istruzione ben precisa. In questa analogia, chi riproduce la ricetta è il computer, gli ingredienti sono i dati necessari alla computazione e le istruzioni dell’algoritmo sono i passi da svolgere della ricetta.
Questa immagine contiene le istruzioni dell'algoritmo in uno specifico linguaggio di programmazione: il codice.
Questo algoritmo ricerca i parametri della migliore retta che approssima una serie di punti in un piano.
Le righe 4, 5 e 6 descrivono i dati necessari all'algoritmo per il suo funzionamento.
Le righe dalla 8 fino alla 21 sono le istruzioni, cioè i passi che l'algoritmo deve svolgere.
La riga 23 definisce il risultato che l’algoritmo produce.
Possiamo quindi riformulare la definizione introducendo un lessico più corretto.
L’IA è quella disciplina che studia e costruisce algoritmi che cercano di rendere i computer in grado di compiere azioni che richiederebbero facoltà tipiche della mente.
Troviamo gli algoritmi più riusciti nella tecnologia che usiamo ogni giorno, anche se non ne siamo consapevoli.
Facciamo un esempio concreto. Tutti i primati[4] sono in grado di riconoscere i volti. Non è chiaro se questa sia una capacità innata o acquisita: possiamo convenire però che richieda facoltà mentali complesse. È merito dei successi dell’IA, in particolare degli algoritmi di riconoscimento facciale, se le fotocamere moderne sono capaci di individuare in maniera efficace i volti, scattando così foto a fuoco.
Fare in modo che un computer possa riconoscere un volto umano non è stato semplice: ci sono voluti molti anni di ricerca e migliorie dei nostri strumenti di calcolo affinché questi algoritmi diventassero una tecnologia accessibile a tutti. Nel prossimo paragrafo cerchiamo di spiegare come funzionano, per favorire una maggiore consapevolezza della tecnologia e di ciò che vi è dietro.
Come funziona l’IA?
In questa primavera dell’IA, gli algoritmi appartengono tutti al filone di ricerca dell’apprendimento automatico[5]. Proprio per l’importanza che l’apprendimento automatico ricopre per l’IA, le due espressioni sono usate impropriamente in maniera intercambiabile nell’uso comune.[6]
Apprendimento automatico
Per far svolgere alle macchine dei compiti complessi, come giocare a scacchi o riconoscere volti in una foto, dobbiamo scrivere delle istruzioni: il codice dell'algoritmo. Tuttavia, non sempre è possibile fornire tutte le istruzioni in anticipo.
Per esempio, è praticamente impossibile anticipare tutte le possibili mosse per una partita a scacchi, qualunque siano quelle dell’avversario. Sarebbero troppe le mosse da dettagliare!
L’apprendimento automatico indica un insieme di metodi per insegnare ai computer a compiere attività complesse, senza codificare in anticipo tutte le casistiche possibili sotto forma di istruzioni scritte nel codice di un algoritmo.
Il suo funzionamento è basato sul concetto di insegnamento induttivo: fornire un numero sufficiente di esempi a una macchina per insegnarle un dato compito.
Per esempio, centinaia di migliaia di esempi di foto con volti evidenziati sono necessari per addestrare in maniera automatica un algoritmo di riconoscimento facciale. Mentre per programmare una macchina a giocare a scacchi, meglio di un umano, abbiamo bisogno di fornire milioni di partite svolte a un algoritmo.
L’apprendimento automatico si compone di almeno due fasi sequenziali: l’allenamento, in cui somministriamo gli esempi all’algoritmo, e il test, in cui verifichiamo che l’algoritmo abbia effettivamente appreso.
L’allenamento
Quando propongono gli esempi all’algoritmo, i ricercatori dicono che lo allenano sui dati etichettati di train (allenamento), quelli per i quali si conosce già il risultato corretto.
Il funzionamento di questa tecnica è legato indissolubilmente alla matematica applicata. Infatti, gli algoritmi di apprendimento automatico hanno in pancia un insieme di numeri, detti parametri, che non sono definiti in anticipo e che nella fase di allenamento vengono modificati in maniera tale da ottimizzare l’algoritmo per raggiungere l’obiettivo. Quindi, l’allenamento si considera concluso quando si trovano i parametri ottimali.
Nel caso del riconoscimento dei volti, i parametri trovati sono quelli che consentono all’algoritmo di individuare correttamente il maggior numero di facce. Invece, se stiamo allenando un algoritmo a giocare a scacchi, i parametri ottimali sono quelli che fanno vincere il maggior numero di partite.
I matematici definiscono la fase di allenamento un problema di ottimizzazione.
Per avere un’idea di quanti parametri parliamo, l’algoritmo alla base di ChatGPT dipende da centinaia di miliardi di parametri. Per via del gran numero di parametri e del fatto che lavora con il linguaggio naturale l’algoritmo con cui è fatto ChatGPT fa parte degli algoritmi detti Large Language Model (LLM).
Al termine della fase di allenamento, diciamo che l’algoritmo è allenato per svolgere il compito per il quale abbiamo fornito i dati di train.
Esempio delle due fasi di addestramento di un algoritmo di apprendimento automatico: allenamento e test.
I campioni forniti durante l’addestramento sono i punti blu; la curva rappresenta il compito dell’algoritmo che dovrà essere in grado di approssimare anche i dati nuovi rappresentati con i punti rossi.
Il test
Il processo non può finire qui, perché non è detto che i parametri trovati durante l’allenamento funzionino anche su dati che l’algoritmo allenato non ha mai visto. Questo dettaglio è importante, perché è quello che differenzia l’apprendimento automatico dalla sola ottimizzazione. Infatti, alla fase di allenamento segue una fase di test nella quale l’algoritmo allenato, quello con i parametri ottimali, viene messo alla prova su esempi etichettati di test (prova) mai somministrati prima. In questo passaggio ci si assicura che i risultati della fase di test siano comparabili con quelli dell’allenamento, pena la correzione e il riallenamento dell’algoritmo stesso.
Siccome i dati in gioco sono tanti, chi testa questi algoritmi lo può fare solo in termini statistici. Per esempio, sappiamo che alcuni algoritmi di riconoscimento facciale riescono a individuare facce con un'accuratezza del 99% in base ai test fatti. Attenzione: questo dato di accuratezza risulta vero solo sui grandi numeri. Non è garantito che se presentiamo 100 volti all’algoritmo allenato, lui ne riconosca 99: potrebbe riconoscerli tutti così come solo 90. Quindi, quando siamo a contatto con gli algoritmi di apprendimento automatico dobbiamo tenere a mente due informazioni: non possiamo giudicare la qualità di un algoritmo allenato sulla base di pochi esempi e dobbiamo convivere con l’incertezza del risultato.
Insomma, un po’ come gli studenti, gli algoritmi di apprendimento automatico sono esposti a insegnamenti (esempi corretti nell’allenamento), a una verifica (il test) ed eventualmente a essere rimandati a settembre in caso di risultati insufficienti. Risultano importanti quali e quante informazioni (i dati) forniamo loro, perché è da queste che l’algoritmo apprende un dato compito (individuazione dei parametri ottimali).
Questi algoritmi devono ricavare i parametri ottimali basandosi solo sugli esempi proposti, a differenza degli studenti che ricevono anche informazioni teoriche, regole generali ed eccezioni. Per questa ragione, nessuno può garantire con assoluta certezza che l’algoritmo allenato sia in grado di svolgere sempre correttamente il compito assegnato.
Allo stato attuale della ricerca, l’algoritmo non può interiorizzare i motivi delle scelte che compie, come farebbe un bravo studente. In altre parole, gli algoritmi allenati non ragionano come faremmo noi.
Allenare un algoritmo di riconoscimento facciale solo su volti con occhi azzurri difficilmente genererà un risultato capace di individuare visi con occhi castani o di altri colori. Scegliere un campione di volti con soli occhi azzurri è un esempio di bias nei dati di allenamento.
La base di dati che viene fornita all'algoritmo dev’essere assortita in modo tale da evitare bias (I volti raffigurati sono stati generati da un algoritmo).
Un caso di bias di questo tipo è accaduto in una grande azienda, che aveva fornito a un algoritmo per la selezione del personale i dati storici delle precedenti selezioni. Come risultato, l’algoritmo allenato prediligeva candidati di sesso maschile[7]. Infatti, gli esempi utilizzati per l’allenamento contenevano un numero di candidati uomini molto più elevato rispetto al numero di candidate donne.
Questo caso dimostra come gli algoritmi allenati non abbiano consapevolezza del perché compiano date scelte, il loro comportamento è influenzato dai dati di allenamento.
La conclusione è che sono i dati a giocare un ruolo cruciale: l’insieme di dati di allenamento deve essere sufficientemente grande e diversificato, affinché un algoritmo possa produrre risultati ottimali nella fase di test.
Adesso comprendiamo meglio che sviluppare algoritmi di IA per compiti avanzati richiede molti dati informativi; soprattutto se l’IA segue il paradigma dell’apprendimento automatico.
Per esempio, l’algoritmo alla base di ChatGPT è stato allenato con milioni di pagine di testi multilingua per completare le frasi di un discorso.[8]
A sua volta, l’utilizzo di grossi volumi di informazioni richiede una potenza computazionale sempre più grande, che solo in questi ultimi anni la tecnologia ha raggiunto.
Per tali motivi, stiamo apprezzando solo ora i risultati sconvolgenti dell’IA, anche se gran parte delle idee scientifiche alla base degli algoritmi erano note da decenni.
Algoritmi
Gli algoritmi di apprendimento automatico sono più datati di quanto si possa immaginare.
Nota già dall’Ottocento, la regressione lineare è una procedura di ottimizzazione, relativamente semplice, che aiuta a trovare la migliore retta che rappresenti un gruppo di punti in un piano. Talvolta si insegna in matematica o fisica già alle scuole superiori. Questa procedura, con i dovuti adattamenti, è probabilmente l’esempio più semplice di un algoritmo di apprendimento automatico.
Esempio di regressione lineare: i punti rossi sono i dati usati per il training; la retta blu è quella che meglio approssima la distribuzione dei punti nel piano.
La rivoluzione dell’ultimo decennio dell’IA è dovuta all’utilizzo di una classe di algoritmi: le reti neurali.
Parliamo di classe di algoritmi perché ne esistono davvero tante e i ricercatori le classificano in base alle loro caratteristiche tecniche, così come gli etologi raggruppano gli animali in tassonomie specifiche. Per esempio, le scimmie appartengono alla classe tassonomica dei primati.
Le reti neurali
L’aggettivo neurale deriva da un modello matematico, sviluppato all’inizio del Novecento, che mirava a descrivere il funzionamento del neurone; tale modello, errato per la biologia, si è rivelato di successo nel campo dell’IA.
Una rete neurale è un insieme di neuroni collegati tra loro secondo determinate geometrie. I neuroni di cui parliamo, però, sono funzioni matematiche, molto lontane dai neuroni che troviamo nel cervello.
Confronto tra la struttura di un neurone biologico e quella di un neurone artificiale.
La geometria con la quale i neuroni sono disposti all’interno della rete è l’architettura. L’architettura più semplice è quella del percettrone che è composta da un singolo neurone. Ne parliamo perché fu scoperta nel lontano 1954 ed è una testimonianza della non più giovane età dell’IA.[9]
Dopo il percettrone la ricerca ha prodotto altre architetture, per risolvere problemi sempre più complessi. Per esempio, l’architettura basata su blocchi convolutivi è quella che si è dimostrata più efficace per il riconoscimento facciale.
Invece, dobbiamo i miracoli tecnologici degli ultimi anni all’architettura basata su transformer. Ne parliamo qui perché la T finale di ChatGPT rappresenta proprio la parola transformer: ChatGPT, oltre che un assistente virtuale, non è altro che una chat costruita su GPT[10] (transformer pre-allenato generativo), una rete neurale con architettura basata su transformer.
Se pensiamo all’algoritmo di apprendimento automatico come al motore di un’automobile, distinguere tra una rete neurale a blocchi convolutivi e una regressione lineare equivale a distinguere tra un motore termico e un motore elettrico: è una distinzione che interessa i meccanici (gli esperti di IA), ma anche chi non vuole fermarsi alla carrozzeria e desidera conoscere i dettagli sul funzionamento della propria auto.
Infatti, ogni algoritmo di IA ha sia punti di forza che limiti. Per esempio, le regressioni lineari possono funzionare con un numero esiguo di dati, a differenza delle reti neurali. Un’altra limitazione delle reti neurali è che sono difficilmente interpretabili: non riusciamo a spiegare le ragioni delle loro risposte. D’altra parte, utilizzando una regressione lineare non possiamo produrre risultati sorprendenti, come riconoscere volti con estrema accuratezza in una foto o giocare partite a scacchi.
Conoscere meglio le peculiarità degli algoritmi ci aiuta a capire come usare al meglio la tecnologia basata sull’IA, in un mondo sempre più tecnologico e informatizzato.
Dove troviamo l’IA?
Gli algoritmi di IA trovano applicazione in molti ambiti, dalla scrittura ai software per i videogiochi alla ricerca di molecole utili per i farmaci; possono suggerire la serie televisiva più adatta a noi o individuare frodi bancarie. In linea di principio, non esiste un vero vincolo nell’applicazione dell’IA in un particolare settore del sapere, a meno di limitazioni pratiche.
Come per ogni tecnologia potente e accessibile, si possono elencare casi in cui l’applicazione degli stessi algoritmi ha risvolti deleteri per la società: per esempio la generazione di fake news adoperando i LLM, o il riconoscimento facciale applicato al controllo di massa. A questo proposito, l’Unione Europea ha già cominciato a occuparsi del tema con l’AI Act, volto proprio a normare l’utilizzo dell’IA e a tutelare i cittadini europei.
Nei prossimi paragrafi illustriamo alcuni casi di successo, che dimostrano come degli algoritmi di IA abbiano portato innovazione in discipline apparentemente lontane: come la biochimica e la medicina, o la musica e la fisica.
Infine, chiudiamo questa breve panoramica raccontando di Ada Lovelace, la matematica che per prima ha ipotizzato alcuni dei successi dell’IA.
Prevedere la struttura delle proteine
Le proteine sono molecole essenziali per la vita. La comprensione della loro struttura 3D è indispensabile per comprenderne le funzioni. Dalla struttura tridimensionale della proteina, infatti, dipende la sua capacità di interagire con altre molecole, come nel caso degli anticorpi che riconoscono molecole virali o batteriche (antigeni), oppure degli enzimi che catalizzano specifiche reazioni chimiche. Determinare la struttura 3D di una proteina, tuttavia, non è affatto semplice: si tratta infatti di molecole complesse, talvolta molto grandi.
Attraverso un enorme sforzo sperimentale, sono state determinate le strutture tridimensionali di circa 100 000 proteine. In base a questi dati, e grazie ad AlphaFold[11], l’algoritmo di apprendimento automatico messo a punto da DeepMind in collaborazione con l’Istituto europeo di bioinformatica, è stato poi possibile prevedere la struttura tridimensionale di oltre 200 milioni di altre proteine di cui era nota la sequenza amminoacidica[12]. Non sempre la previsione viene confermata al cento per cento dai dati sperimentali, ma si sta dimostrando una base di partenza efficace e più accurata rispetto ad altre che non utilizzano algoritmi di IA. L’altro aspetto da non trascurare è la velocità con la quale è stato possibile raggiungere questi risultati che, altrimenti, avrebbero richiesto decenni di lavoro.
Questa tecnologia ha cambiato anche la modalità di lavoro dei team di ricerca sui vaccini contro i virus. Infatti, anche i virus sono composti da proteine: con AlphaFold è possibile individuare le proteine virali che costituiscono il bersaglio migliore per i farmaci antivirali e per i vaccini, come nel caso del coronavirus SARS-CoV-2.[13]
Comporre musica
L’IA non ha interessato solo branche del sapere scientifico, ma anche il mondo della composizione musicale, consentendo ai compositori di esplorare nuove frontiere creative e completare opere iniziate da grandi maestri del passato. Un esempio eccezionale è stato il completamento della Decima sinfonia di Beethoven, un’opera incompiuta a causa della morte prematura del compositore. Ricercatori e musicisti hanno analizzato il lavoro di Beethoven e ne hanno studiato le caratteristiche stilistiche distintive. Successivamente, hanno allenato un algoritmo di apprendimento automatico per emulare il genio musicale di Beethoven, componendo nuove sezioni della sinfonia con una sorprendente fedeltà alle bozze lasciate dall’autore.
Questa sinergia tra l’arte della composizione e l’IA ha, di fatto, consentito di completare l’opera, offrendo al mondo l’opportunità di immaginare un finale aderente ai canoni del maestro.[14]
L’impatto dell’intelligenza artificiale sulla generazione musicale si è esteso oltre il recupero di opere incompiute. Grazie all’IA, musicisti e compositori hanno potuto sperimentare nuovi orizzonti espressivi, utilizzando algoritmi di generazione per creare basi per brani in una vasta gamma di stili e generi. L’IA ha dimostrato di essere uno strumento potente per ispirare nuove idee, esplorare combinazioni, armonie e ritmi, offrendo una prospettiva innovativa sulla creatività musicale. Nonostante alcune controversie riguardo l’autenticità e l’originalità dell’arte generata dall’IA, l’innovazione tecnologica ha aperto nuovi orizzonti per gli artisti e il pubblico.
Il bosone di Higgs
Nel 2014 il CERN lanciò una competizione per processare i dati delle misurazioni nell’esperimento ATLAS per l’identificazione del bosone di Higgs. L’ente mise a disposizione 25000 misurazioni già validate dai ricercatori.
A vincere la sfida fu un algoritmo di apprendimento automatico, chiamato XGBoost, basato sugli alberi di decisione.[15] La collaborazione di scienziati e informatici permise di rendere più efficiente il processo di misurazione di eventi significativi nella ricerca del bosone di Higgs, la cui scoperta confermò le attuali teorie sulla struttura microscopica della realtà che ci circonda. L’algoritmo vincitore aiutò gli scienziati a differenziare gli eventi da considerare rumore da quelli che rappresentavano un segnale, tra quelli rilevati dall’acceleratore.
Come tante delle scoperte fatte al, o per il, CERN, anche questo algoritmo si è poi rivelato uno degli strumenti più potenti per la classificazione di altri tipi di fenomeni: dall’identificazione dello spam nelle mail alle frodi bancarie, fino al riconoscimento di pazienti a rischio di recidive tumorali[16].
Ada Lovelace, la madre dell’IA
I computer attuali sono basati su circuiti elettrici, ma le prime macchine computazionali sono state meccaniche.
Esistono evidenze di macchine, pur molto primitive, in grado di svolgere calcoli complessi già in epoca preromanica, come la macchina di Anticitera capace di compiere sofisticati calcoli astronomici. Di solito, questi marchingegni erano dedicati a risolvere compiti non banali ma specifici.
Il primo calcolatore generico è il motore analitico di Charles Babbage (1837): una macchina meccanica in grado di svolgere le operazioni base dei pc moderni[17].
Ada Lovelace, figlia di Lord Byron, oltre che essere una delle prime matematiche moderne, è stata la prima che ha intravisto le potenzialità dell’invenzione di Babbage. La matematica inglese, pur comprendendo le limitazioni, capì in anticipo che il potere computazionale di quello strumento sarebbe potuto andare oltre il mero calcolo matematico.
Di seguito riportiamo un estratto di una lettera tra Ada Lovelace e Luigi Menabrea, ingegnere e primo ministro italiano, che analizzò la macchina di Babbage. In questa lettera Lovelace descrive con largo anticipo gli sviluppi dell’IA degli ultimi anni.
[The Analytical Engine] might act upon other things besides number, were objects found whose mutual fundamental relations could be expressed by those of the abstract science of operations, and which should be also susceptible of adaptations to the action of the operating notation and mechanism of the engine...Supposing, for instance, that the fundamental relations of pitched sounds in the science of harmony and of musical composition were susceptible of such expression and adaptations, the engine might compose elaborate and scientific pieces of music of any degree of complexity or extent.[18]
[Il motore analitico] potrebbe agire anche su altri oggetti oltre i numeri, fin tanto che per questi oggetti si riesca a trovare relazioni che possono essere espresse da operazioni scientifiche astratte, e che debbano anche essere suscettibili ad adattamenti dell’azione delle operazioni e del meccanismo della macchina… Supponiamo, per esempio, che le relazioni fondamentali tra i suoni per la scienza dell’armonia e della composizione musicale siano suscettibili a queste notazioni e adattamenti, la macchina potrebbe elaborare e comporre scientificamente dei brani musicali di ogni tipo di complessità e genere.
Giuseppe Savino è il responsabile dell'Ufficio Dati, qui in Zanichelli. Con una formazione accademica in fisica e matematica applicata, Giuseppe ha lavorato come consulente e data scientist per diverse aziende italiane. Crede che la formazione e la divulgazione scientifica siano cardini per il progresso della società e li considera un dovere civico di chi si occupa di scienza.
[1] Sono nati prodotti simili a ChatGPT, come Bard o Claude, ma ne esistono altri ancora. Nel testo adopereremo ChatGPT come esempio perché è stato il primo accessibile al pubblico.
[2] Margareth A. Boden, L’intelligenza artificiale, Il Mulino, Bologna 2019, traduzione F. Calzavarini.
[3] Qui per computer si intende un qualsiasi dispositivo dotato di capacità di calcolo. Per esempio, anche un moderno cellulare, o smartphone, può essere considerato alla stregua di un computer.
[4] A meno di particolari patologie, quali la prosopagnosia, descritta in L’uomo che scambiò sua moglie per un cappello di Oliver Sacks, Adelphi, Milano 1986, traduzione C. Morena.
[5] L’apprendimento automatico è conosciuto nel settore con l’espressione inglese Machine Learning, letteralmente traducibile con apprendimento delle macchine
[6] Talvolta, l’espressione IA è usata non del tutto propriamente anche per indicare un algoritmo come nella frase: «ChatGPT è un software basato su una IA»
[7] https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
[8] In realtà ChatGPT utilizza anche altri algoritmi, ma la componente di apprendimento automatico è quella più rilevante.
[9] Per maggiori dettagli sulla storia dell’IA e del percettrone di Rosenblatt si può fare riferimento al primo capitolo di Intelligenza Artificiale, Conradi e Molinari, Zanichelli, Bologna 2022.
[10] GPT è l’acronimo inglese di Generative Pre-trained Transformer.
[11] L’articolo di AlfaFold pubblicato su Nature - https://www.nature.com/articles/s41586-021-03819-2
[12] Maggiori dettagli sul blog Zanichelli Aula di scienze https://aulascienze.scuola.zanichelli.it/blog-scienze/biologia-e-dintorni/le-proteine-mostrano-le-loro-forme-all-intelligenza-artificiale
[13] Articolo di revisione della letteratura sull’utilizzo di AlphaFold in virologia - https://www.mdpi.com/1467-3045/45/4/240
[14] Parte dell’opera è ascoltabile al seguente link youtube eseguita dall’orchestra di Bonn - Beethoven X: The AI Project: Complete (Bonn Orchestra)
[15] Articolo del CERN sulla vittoria di XGBoost e gli impatti sulla ricerca del bosone di Higgs - https://atlas.cern/updates/news/machine-learning-wins-higgs-challenge
[16] XGBoost e recidive tumorali nei carcinomi renali - https://www.sciencedirect.com/science/article/abs/pii/S1761676X22001365
[17] Dettagli sulla storia dell’informatica e dei calcolatori - https://www.computerhistory.org/timeline/ai-robotics/l
[18] Lovelace, Ada; Menabrea, Luigi (1842). “Sketch of the Analytical Engine invented by Charles Babbage Esq”. Scientific Memoirs. Richard Taylor: 694.
Crediti immagine: Diego Thomazini / Shutterstock