Stefano Quintarelli – LA METAFORA DELL’INTELIGENZA ARTIFICIALE: LIMITI E POTENZIALITA’

(Estratto da Paradoxa 4/2023)

Sarà vera intelligenza?

‘Intelligenza artificiale’ è una metafora. Particolarmente azzeccata, date le numerose analogie che su di essa si possono basare, ma pur sempre una metafora. Quando conosciamo bene una cosa, i limiti delle metafore che la riguardano ci sono evidenti: non ci addentreremmo in speculazioni se ‘una montagna di libri’ sia o meno un ambiente adatto alla riproduzione degli stambecchi, anche se non si può escludere che qualcuno, in particolare attorno all’epoca di Gutenberg, possa averlo fatto.
Lo slogan ‘intelligenza artificiale’ è nato il 2 settembre 1955, quando gli accademici chiesero alla Fondazione Rockefeller un finanziamento di 13500 dollari per poter svolgere un workshop estivo con una decina di scienziati, della durata di un paio di mesi, da tenersi nell’estate del 1956 presso l’Università di Dartmouth. I proponenti erano alcuni mostri sacri della matematica e dell’informatica dell’epoca: McCarthy, Minsky, Rochester e Shannon.

Proponiamo che uno studio sull’intelligenza artificiale, della durata di due mesi e composto da dieci persone, venga condotto durante l’estate del 1956 al Dartmouth College di Hanover, nel New Hampshire. Lo studio deve procedere sulla base della congettura che ogni aspetto dell’apprendimento o di qualsiasi altra caratteristica dell’intelligenza possa essere descritto in linea di principio in modo così preciso da poter essere simulato da una macchina. Si cercherà di capire come far sì che le macchine utilizzino il linguaggio, formino astrazioni e concetti, risolvano tipi di problemi ora riservati agli esseri umani e migliorino se stesse. Riteniamo che un gruppo di scienziati accuratamente selezionati possa compiere un progresso significativo in uno o più di questi problemi lavorando insieme per un’estate. (McCarthy et al., 1955)

Dal 1956 ad oggi l’intelligenza artificiale ha alternato fasi di eccitazione con fasi di delusione, queste ultime chiamate ‘inverni dell’intelligenza artificiale’ è più o meno legate alle aspettative riposte dalla comunità scientifica in vari approcci che, in determinate fasi storiche, apparivano più promettenti di altri: i sistemi esperti, la programmazione logica, le reti neurali.

La fase iniziale della storia dell’intelligenza artificiale era fondamentalmente condizionata dall’idea primigenia che «ogni aspetto dell’apprendimento o di qualsiasi altra caratteristica dell’intelligenza possa essere descritto in linea di principio in modo così preciso da poter essere simulato da una macchina» (ibid.). Furono investite enormi quantità di denaro inseguendo tale miraggio di poter catturare ogni aspetto della intelligenza umana e inserirlo in gabbie formali. Investimenti che riguardarono sia il software che l’hardware.

Per molti anni si sono riposte speranze nei cosiddetti ‘sistemi esperti’, sistemi informatici che emulano la capacità decisionale di un esperto umano. I sistemi esperti sono progettati per risolvere problemi complessi ragionando attraverso corpi di conoscenza, rappresentati come regole ‘if/then’, piuttosto che attraverso codice procedurale come avviene nei programmi convenzionali. I primi sistemi esperti furono creati negli anni ‘70 e poi proliferarono negli anni ‘80. Un sistema esperto è diviso in due sottosistemi: il motore inferenziale e la base di conoscenza. La base di conoscenza rappresenta fatti e regole. Il motore inferenziale applica le regole ai fatti noti per dedurne nuovi.

Il sistema esperto più famoso fu ‘Mycin’, sviluppato nel corso di cinque anni all’inizio degli anni ‘70 presso l’Università di Stanford con lo scopo di identificare batteri responsabili di infezioni gravi, come la batteriemia e la meningite, e di consigliare l’uso di antibiotici, con il dosaggio adattato al peso corporeo del paziente. Funzionava tramite un motore di inferenza piuttosto semplice e una base di conoscenze di circa 600 regole. Interrogava i medici ponendo una serie di semplici domande a cui si poteva rispondere con sì o no o attraverso risposte testuali. Alla fine, forniva una lista di batteri sospettati in ordine di probabilità diagnostica, la sua fiducia in ciascuna diagnosi, le ragioni alla base di ciascuna diagnosi – ossia, Mycin elencava anche le domande e le regole che l’avevano portato a classificare una diagnosi in un certo modo – e il trattamento farmacologico raccomandato. La ricerca condotta alla Stanford Medical School ha mostrato che Mycin ha ricevuto un tasso di accettabilità del piano di trattamento del 65% secondo un panel di otto specialisti indipendenti. Nonostante le potenzialità, non è mai stato utilizzato nella pratica clinica. Ciò è dovuto a questioni etiche e legali relative all’uso dei computer in medicina e alla responsabilità dei medici in caso di diagnosi errate.

Un inverno più freddo degli altri si ebbe nei primi anni ‘90 quando il Giappone chiuse il programma per il ‘Computer di quinta generazione’, iniziato nel 1982 e che si proponeva di creare una nuova generazione di computer che avrebbe iniziato una nuova era dell’informatica. Tali computer si sarebbero basati sulle idee del calcolo massivamente parallelo e della programmazione logica. L’obiettivo era quello di creare un computer ‘rivoluzionario’ con prestazioni simili a un supercomputer e fornire una piattaforma per lo sviluppo futuro dell’intelligenza artificiale. Tuttavia, il progetto era troppo futuristico per la sua epoca e le sue ambizioni eccessive ne hanno decretato il fallimento. Il termine ‘quinta generazione’ intendeva sottolineare il sistema come avanzato: nella storia dell’hardware informatico, c’erano state quattro ‘generazioni’ di computer. I computer basati su valvole a vuoto erano chiamati prima generazione; i transistor e i diodi, la seconda; i circuiti integrati, la terza; e quelli che utilizzavano microprocessori, la quarta. Mentre le generazioni precedenti si erano concentrate sull’aumento del numero di componenti in un singolo microprocessore, la quinta generazione, secondo la convinzione dell’epoca, avrebbe sfruttato un grande numero di microprocessori per aumentare le performance.

Dopo molti anni siamo entrati di buon diritto in una nuova estate dell’intelligenza artificiale che, a differenza delle precedenti, è qui per restare. L’attuale ondata è l’intelligenza artificiale basata sui dati. Superata ogni velleità di formalizzare accuratamente ogni aspetto della realtà in un insieme di regole, si ricorre oggi alle macchine stesse per distillare correlazioni riscontrabili nei dati caratteristici di un fenomeno e, sulla base di queste correlazioni, costruire dei modelli statistici utilizzabili per fare delle predizioni in momenti successivi. Questa metodica, in ossequio alla metafora dell’intelligenza, va sotto il nome di apprendimento automatico o ‘Machine Learning’ con cui si fornisce a un computer la capacità di ‘imparare’ e applicare modelli statistici non esplicitamente programmati. Wikipedia elenca 57 algoritmi.

Quando pensiamo a un computer, generalmente pensiamo a un sistema che riceve in input dati e programmi – scritti da umani – e che calcola un risultato. Con il Machine Learning le cose funzionano in modo diverso: si fissano alcuni parametri del sistema, si forniscono in input a un algoritmo di apprendimento automatico dei dati. Il computer distilla a partire dai dati un modello statistico. Una volta ottenuto tale modello statistico, questo può essere usato da un computer con dei nuovi dati per produrre predizioni. Va evidenziato che, nel caso degli algoritmi tradizionali, scrivevo che il computer calcola un risultato; e questo è deterministico: 3 x 4 è sempre uguale a 12.

Nel caso dell’intelligenza artificiale invece scrivo ‘produce predizioni’ per sottolineare la natura statistica del modello. Un esempio dall’esperienza comune aiuterà a chiarire: qualora vedessimo un cielo di colore rosso alla sera, ci sarà facile predire bel tempo per il giorno successivo. Questo perché, come noto, ‘rosso di sera bel tempo si spera’. Il proverbio è il frutto dell’osservazione di migliaia di casi in cui il cielo rosso la sera è correlato con il bel tempo del giorno successivo. Dai dati prodotti da queste osservazioni – il colore del cielo e il meteo del giorno successivo – i nostri antenati hanno distillato un modello statistico, il proverbio, che possiamo usare per fare nuove predizioni. I nostri antenati codificando le correlazioni osservate in un modello – pardon – proverbio, hanno fatto esattamente ciò che i moderni computer fanno con l’intelligenza artificiale. Possiamo pensare di fare lo stesso esercizio con le quotazioni immobiliari: dando in pasto a un computer i dati caratteristici di migliaia di appartamenti – metri quadri, classe energetica età – associati al loro prezzo, il computer potrà distillare le correlazioni e costruire un modello che leghi le caratteristiche degli appartamenti al loro prezzo. Il meccanismo è lo stesso: rosso di sera – le caratteristiche degli appartamenti – bel tempo si spera – il prezzo. Alla fine di questa fase di distillazione delle correlazioni, che gli informatici chiamiamo ‘apprendimento’ o ‘allenamento’, avremo un modello che ci consentirà di determinare – o meglio, di predire – il prezzo dell’appartamento: un ‘proverbio degli appartamenti’. Nota bene che non si tratta del prezzo ‘giusto’. Il prezzo giusto è quello che un cliente paga. Quello che il modello produce è un prezzo coerente con i prezzi rilevati per appartamenti con determinate caratteristiche.

Il computer non sa cosa sia un appartamento o cosa sia un prezzo. Non lo sa come un proverbio non sa cosa sia il cielo, il rosso o il meteo. Macina solamente simboli, trova correlazioni e, a fronte di tali correlazioni produce altri simboli. Siamo noi ad attribuire un significato ai dati in input e alle predizioni in output. La stessa cosa potremmo farla fornendo in input delle immagini di esami istologici – rosso di sera – correlati alla indicazione se sia o meno un tumore – il meteo. Dopo avere fornito in pasto decina di migliaia di dati otterremo un modello statistico, un ‘proverbio dei tumori’, che, a fronte di una nuova immagine ci può predire se – probabilmente – si tratti o meno di neoplasia. Il computer non sa cosa sia una immagine, cosa sia un tessuto, cosa sia una cellula, cosa sia un tumore. Semplicemente macina simboli e produce simboli. Siamo noi ad attribuire un significato ai dati in input e alle predizioni in output. Lo stesso possiamo fare con delle scene di guida, correlate all’angolo dello sterzo e alla velocità. Un simile sistema si troverà a predire, a fronte di scene già presenti nei dati su cui è stato allenato, il comportamento da tenere: frenare o accelerare, sterzare a destra o sinistra. Va da sé che in questo caso, se l’auto autonoma si troverà ad affrontare situazioni non presenti nei dati di addestramento, i programmatori prevederanno dei meccanismi di salvaguardia facendo arrestare l’auto. Questo comportamento è alla base delle proteste degli abitanti di San Francisco contro le auto autonome che non sono in grado di districarsi velocemente in caso di ingorghi e, più problematicamente, si bloccano in presenza di situazioni di emergenza intralciando i soccorsi. La protesta consiste nell’appoggiare sul cofano delle auto dei coni arancioni: le auto. Una simile situazione non è mai stata riscontrata nei dati su cui si sono basati i modelli per la guida autonoma. È comprensibile: nessuno aveva interesse ad appoggiare un cono arancione su un cofano di un’auto guidata da un umano.

Questo ci deve fare riflettere che una volta che attribuiamo a delle macchine una facoltà di essere agenti autonomi, questi si trovano a operare in ambienti che possono essere alterati: non è sufficiente che i dati siano stati raccolti in modo perfetto, che i modelli siano stati distillati in modo perfetto, che i modelli vengano eseguiti in modo perfetto. Bisogna anche che l’ambiente in cui gli agenti operano sia conforme a quello dell’allenamento. Per questo è ragionevole ritenere che, in tempi medi, le auto difficilmente opereranno diffusamente in autonomia in centri urbani caotici, alterabili ad esempio per una protesta o sabotaggio, ma che si vedranno prima operare in luoghi altamente controllati e zone protette, come ad esempio autostrade o corsie protette e monitorate.

Lo strumento tecnico con cui questi modelli vengono distillati è un costrutto matematico estremamente sofisticato che viene normalmente descritto, per analogia, simile al funzionamento delle scariche elettriche nei neuroni e pertanto chiamato ‘rete neurale’. Analogia – va detto – rispetto alla fisiologia del cervello che ipotizzavamo 60 anni fa, ma che oggi sappiamo essere un’interpretazione assai riduttiva della fisiologia del cervello. Che sia un fenomeno molto diverso lo dimostra anche il fatto che noi apprendiamo in modo assai diverso: a noi basta un esempio per imparare, mentre una macchina ha bisogno di molte migliaia di insiemi di dati per ‘imparare’. A noi basta vedere una sola volta un gatto, anche se gli manca una zampa o la coda, per imparare a riconoscere un gatto. A un computer devono essere forniti i dati che rappresentano molte migliaia di gatti.

Distillare questi modelli con il Machine Learning è una attività che richiede vaste quantità di dati e una quantità mostruosa di calcoli. Questo ci spiega perché ci siano voluti così tanti anni per rendere attuale un’idea che radica nel 1958, quando Rosenblatt la formulò per la prima volta con il nome ‘percettrone’. Solo oggi abbiamo la capacità di calcolo sufficiente e la possibilità di raccogliere e immagazzinare dati in tale quantità. Intelligenza artificiale, internet delle cose e big data sono tre facce dello stesso sviluppo dell’informatica.

Questo sviluppo ci consente di affrontare categorie di problemi differenti da quelli precedenti: prima potevamo affrontare problemi descrivibili solamente in termini procedurali, con una ricetta, un algoritmo, oggi possiamo fare a meno di scrivere questa procedura ma far ‘imparare’ il comportamento al computer dai dati. Per fare una analogia, una volta dovevamo descrivere passo a passo come cucinare un uovo al tegamino; oggi possiamo dire ‘guarda come fanno le mamme/mogli’. Possiamo così affrontare problemi di percezione e classificazione, sostanzialmente impossibili con le metodiche precedenti che ci consentono di realizzare nuove applicazioni: rilevamento di anomalie, riconoscimento del linguaggio, traduzione automatica, riconoscimento di immagini, eccetera. Come ogni tecnologia ne vanno capite potenzialità e limiti. Ad esempio, se un certo numero di mamme, anziché cucinare l’uovo al tegamino avessero preparato un chili piccante? Il modello risultante potrebbe generare effetti imprevisti!

La qualità dei dati di addestramento è fondamentale. E la loro alterazione – voluta o meno – è una vulnerabilità di cybersicurezza del sistema. È praticamente impossibile capire se un modello è ‘sano’ o se è stato alterato, vuoi in fase di allenamento fornendogli dati fuorvianti, vuoi in un momento successivo mediante un attacco informatico. Anche se i dati venissero raccolti in modo perfettamente adeguato e corretto, e anche se il modello fosse generato in modo perfetto, esso potrebbe generare degli effetti non desiderati perché i dati, al massimo, descrivono il mondo per quello che è, non per quello che noi vorremo che fosse.

Se una grande azienda usasse i dati dei salari delle proprie decine di migliaia di dipendenti per stabilire lo stipendio di neoassunti o in caso di promozioni, nella migliore delle ipotesi non farebbe altro che cristallizzare le differenze salariali tra uomini e donne. Sappiamo che – purtroppo – le donne hanno stipendi inferiori agli uomini, questo si troverebbe nei dati e questo verrebbe incorporato dal modello.

Ecco che vi è quindi un ruolo importante per i programmatori che devono ‘correggere’ i sistemi per allinearli ai valori della società in cui operano. Estremizzando per chiarire questo punto, nel nostro caso, la correzione dovrebbe perseguire la parità salariale; per i talebani, probabilmente, evitare che le donne lavorino. Non si ritenga che queste siano situazioni ipotetiche con scarsa rilevanza nelle applicazioni reali: in Spagna i sussidi per il caro-energia sono stati negati a gruppi di famiglie e gli sforzi di associazioni di consumatori per ottenere trasparenza sui dati e algoritmi utilizzati sono stati frustrati dal governo che ha opposto una questione di ‘sicurezza nazionale’ per poter aggirare gli obblighi europei di trasparenza. In Italia è stato riscontrato che i preventivatori di assicurazioni auto proponevano sistematicamente a extracomunitari importi assai più elevati di quanto facessero a europei.

In questi esempi non abbiamo ancora affrontato il tema dell’intelligenza artificiale generativa. Questo tipo di applicazioni è nata con le ‘reti generative avversarie’, una innovazione del 2014. In estrema sintesi si tratta di una coppia di reti neurali, un generatore e un discriminatore, che consentono di creare nuovi dati simili ai dati di addestramento. Il generatore è responsabile della creazione di nuovi dati, mentre il discriminatore è responsabile della determinazione se i dati corrispondono o meno ai dati di addestramento. Immaginiamo di addestrare il discriminatore con immagini di Van Gogh. A tutti noi, pensare ai dipinti di Van Gogh evoca le pennellate e circonvoluzioni che caratterizzano molti dipinti del pittore olandese. Queste caratteristiche tipiche non sono altro che specifiche correlazioni tra i valori dei pixel delle immagini. Dando in pasto una foto di un paesaggio a un discriminatore addestrato con i quadri di Van Gogh questo non riscontra nel paesaggio le correlazioni caratteristiche del pittore. Il discriminatore rimanda così l’immagine al generatore e questo inizia a introdurre dei pixel colorati nell’immagine del paesaggio. Il ping pong tra generatore e discriminatore prosegue molte migliaia di volte fino a quando il discriminatore riscontra nell’immagine del paesaggio così modificata le correlazioni caratteristiche dei dipinti di Van Gogh. Ecco che abbiamo reso il paesaggio nello stile di Van Gogh.

Le reti generative avversarie sono state utilizzate per generare diversi tipi di dati, tra cui immagini, audio, video e testo. Sono state utilizzate per creare immagini realistiche di persone, animali e oggetti, per generare audio che è indistinguibile dal suono reale e per generare video che sono indistinguibili da video reali. Sono state utilizzate anche per generare testo che noi interpretiamo come apparentemente frutto di creatività, come poesie, software brani musicali. Sono ancora una tecnologia relativamente nuova, ma hanno il potenziale di rivoluzionare metodiche precedenti in una varietà di applicazioni, tra cui la creazione di contenuti multimediali, la scoperta di farmaci e la sicurezza informatica.

Per quanto riguarda i testi, molti di noi hanno sperimentato grandi modelli linguistici – LLM, ‘Large Language Model’ – come Bard di Google o GPT4 di OpenAI. Decisamente ci sorprendono. Il loro funzionamento è simile a quello delle reti generative avversarie arricchite da diverse sofisticazioni specifiche. Quello che questi sistemi fanno è predire il prossimo di una sequenza di simboli. Ciascuno di noi è in grado di predire i simboli successivi in queste sequenze: ‘Una mela al giorno…’ , ‘Meglio tardi…’, ‘Rosso di sera…’, ‘Moglie…’. Abbiamo capito come una rete è in grado di predire simboli, abbiamo fatto questo semplice esercizio sui proverbi, ora ripetiamo l’esercizio su tutto ciò che è stato scritto nel mondo fino al 2021, aggiungiamo una funzione di somiglianza tra vari simboli e non scegliamo il simbolo successivo in assoluto più probabile ma uno molto probabile, quanto basta. Questo, in estrema sintesi e con qualche approssimazione, ci dà una idea del funzionamento di questi LLM.

Sembra incredibile che qualche meccanismo relativamente semplice sia in grado di produrre effetti così sofisticati. Il fatto è che noi non sappiamo, perché non sono state comunicate, le caratteristiche tecniche di GPT4 – un modello usato da ChatGPT – e quali siano i dati/testi su cui è stato allenato, sulla cui base sono state costruite le correlazioni. Secondo alcune stime, il sistema sarebbe formato da centinaia di migliaia di miliardi di variabili (!).

Gli LLM sono come una grande immagine compressa di tutto ciò che è stato scritto sino ai giorni nostri. Interrogati su questioni generali, visti da lontano, i testi generati ci appaiono stupefacenti; se andiamo a ingrandire, se facciamo uno zoom sui dettagli, producono dati errati, imprecisi. È una coperta corta: la stessa tecnica che li rende flessibili e in grado di adattarsi a situazioni diverse implica che zoomando sui dettagli si generino artefatti. Artefatti che, in ossequio alla metafora dell’intelligenza artificiale, vengono definite ‘allucinazioni’. Alcuni addetti ai lavori, sulla scorta dei comportamenti emergenti descritti dal premio Nobel Parisi, sostengono che GPT4 dimorerebbe comportamenti emergenti. Un comportamento emergente è definito da Wikipedia come «la situazione nella quale un sistema complesso esibisce proprietà macroscopiche ben definibili, difficilmente predicibili sulla base delle leggi che governano le sue componenti prese singolarmente, scaturendo dunque dalle interazioni lineari e non-lineari tra le componenti stesse». È stato un articolo di OpenAI, i produttori di ChatGPT e del modello GPT4, ad aver suggerito che GPT4 dimostrerebbe comportamenti emergenti, cosa che ha fatto sostenere a molti tecnici e, sulla scorta di questi, ad altri addetti ai lavori non tecnici – filosofi, sociologi, giuristi, eccetera – che stiamo assistendo a macchine che capiscono, imparano e creano.

Il problema fondamentale con tali affermazioni è che non sono fondate sul metodo scientifico; queste persone, tra cui conto qualche amico, hanno deciso di fare un atto di fede e di credere. Uno di loro mi ha proposto come evidenza di comportamento emergente la comprensione che la macchina avrebbe dimostrerebbe nell’affrontare certi problemi nel risolvere il seguente indovinello: un cacciatore va verso sud per un miglio, verso ovest per un miglio, verso nord per un miglio e si ritrova nel punto di partenza dove uccide un orso. Di che colore era l’orso? ChatGPT risponde correttamente che l’orso era bianco perché solo al polo nord quegli spostamenti del cacciatore lo riportano al punto di partenza e al polo nord gli orsi sono bianchi. Sarebbe un risultato certamente stupefacente, se fosse il prodotto di un ragionamento, ma se facciamo una semplice ricerca sul web troviamo molte decine di pagine, in ogni lingua, che descrivono l’indovinello e la sua soluzione.

Una dimostrazione scientifica richiede conoscenza e riproducibilità, non segreto e affermazioni apodittiche: non è possibile sostenere scientificamente che esistano dei comportamenti emergenti senza conoscenza dell’esperimento e sua riproducibilità. Mi sono interrogato a lungo sulla ragione per cui si stia diffondendo così ampiamente l’idea di comportamenti emergenti e con essa delle basi di una intelligenza artificiale pari o persino superiore agli umani. I sistemi di intelligenza artificiale generativa imparano e sono creativi in modo simile a una intelligenza umana? Dalla risposta a questa domanda discende la legittimazione in termini politici, prima ancora che giuridici, di una nuova possibilità di sfruttamento economico di tutti i libri e testi preesistenti. Quando un LLM produce un output, sta generando un prodotto nuovo, frutto di creatività come farebbe un uomo, o sta generando un’opera derivata da questi testi? Se la risposta è che la macchina non ‘impara’ e non ‘crea’, il suo output è banalmente un’opera derivante da testi esistenti, anche se in una accezione non precisamente considerata dall’attuale dottrina giuridica, concepita quando i LLM non esistevano. Anni fa ci fu un simile dibattito per stabilire se i ‘link’ e i brevi estratti sul web fossero o meno opere derivate. Dalla risposta dipendeva la possibilità per Google di offrire la ricerca senza dover corrispondere royalties ai siti indicizzati. La mia posizione fu che i link non erano un’opera derivata in quanto, conducendo visitatori ai siti interessati, erano un servizio nuovo per un pubblico diverso che non competeva nello sfruttamento economico con i titolari dei siti stessi e quindi non causava loro un danno, anzi. Questa, con alcune evoluzioni giuridiche successive, è stata la base di giganti economici quali Google e Facebook che non avrebbero potuto nascere se avessero dovuto pagare una ‘link tax’ per i contenuti da loro indicizzati e collegati.

Gli strumenti come ChatGPT producono sul mercato effetti assai diversi dai link: la risposta che forniscono non conduce l’utente ai testi originali ma ne diviene sostitutiva; il pubblico è lo stesso e c’è un’indubbia competizione economica. Un LLM, distillato a partire dalla quasi totalità di testi scritti sino ad oggi, è uno strato che li avvolge tutti e tende a divenire, secondo l’intenzione di OpenAI, l’unica interfaccia di accesso e sfruttamento economico delle informazioni ivi contenute.

Il Prof. Prosperetti ritiene prevedibile che questo diverrà presto un tema politico di confronto tra USA, dove vige la disciplina del ‘fair use’ – più permissiva rispetto di queste nuove forme di utilizzo – e l’Europa dove una simile disciplina non esiste. Non appare casuale il fatto che le aziende che producono questi modelli siano restie a informare la comunità scientifica su quali siano i testi che hanno usato per costruire i modelli: la trasparenza potrebbe favorire possibili riscontri di violazioni di copyright. Quando i grandi padri dell’Intelligenza artificiale parlano di ‘sistemi che sono generalmente più intelligenti degli esseri umani’ e che ‘sarebbe bello se potessimo convincere la gente che questi non sono pappagalli stocastici’ teniamo ben presente che non si tratta di affermazioni filosofiche ma che sullo sfondo ci sono aspetti assai più veniali, come lo sfruttamento futuro del patrimonio letterario prodotto sino ai giorni nostri.

Federico Faggin, il grande inventore, padre del microprocessore, fondatore di una delle prime aziende a sviluppare reti neurali, sta dedicando molti anni della sua vita a dimostrare scientificamente che le macchine non possono e non potranno capire e non potranno sviluppare coscienza. «Le macchine possono essere superiori a noi solo se noi ci consideriamo delle macchine» – dice Faggin (A.S 2022). È fondamentalmente corretto: la mia calcolatrice è superiore a me solo se io mi considero un risolutore di radici quadrate.

Scrive il Prof. Nardelli «ChatGPT esibisce una competenza simile a quella degli esseri umani sul livello sintattico ma è lontana anni luce dalla nostra competenza semantica; non ha alcuna comprensione del significato di ciò che sta facendo. Purtroppo, poiché ciò che fa lo esprime in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi. [e questo è un problema nostro di grande rilevanza sul piano sociale]» (Calamari, 2023). Il rischio maggiore è infatti che noi, inconsapevoli, riponiamo in essa fiducia eccessiva, non capendone i limiti. Non c’è quindi il paventato pericolo imminente che l’intelligenza artificiale distrugga l’umanità, a meno che qualche folle umano non vi affidi il lancio dell’arsenale nucleare.

La conoscenza di potenzialità e limiti di questi strumenti è importante per evitarne errori nell’utilizzo: alcuni giudici colombiani si sono fatti aiutare da ChatGPT per decidere delle sentenze. Spiega un articolo scientifico che i giudici non hanno usato il sistema in modo informato o responsabile, lo hanno usato come se fosse stato un oracolo: una fonte di conoscenza affidabile che non richiedeva alcun tipo di verifica. Sebbene i giudici siano stati trasparenti sul fatto di aver usato lo strumento e abbiano incluso le virgolette per distinguere il contenuto prodotto da ChatGPT, il loro uso non è stato informato né responsabile.

Se ChatGPT e altri LLM attualmente disponibili sono dimostrabilmente inaffidabili perché i loro risultati tendono a includere informazioni errate e false, i giudici impiegherebbero molto tempo per verificare la validità dei contenuti generati dall’Intelligenza artificiale, annullando così significativi ‘risparmi di tempo’. Come nel caso dell’intelligenza artificiale in altre aree, inseguendo in modo acritico e malinformato l’efficienza, i diritti fondamentali possono essere messi a rischio. Accanto alla narrazione della macchina super intelligente, tuttavia, OpenAI pubblica articoli più rappresentativi della tecnologia (OpenAI, 2023). Scrive OpenAI, che ChatGP

ha la tendenza ad ‘avere allucinazioni’, cioè a produrre contenuti senza senso o non veritieri in relazione a determinate fonti. Questa tendenza può essere particolarmente dannosa quando i modelli diventano sempre più convincenti e credibili, portando gli utenti a fare eccessivo affidamento su di essi. Controintuitivamente, le allucinazioni possono diventare più pericolose quando i modelli appaiono più veritieri, in quanto gli utenti si fidano del modello quando questo fornisce informazioni veritiere in aree in cui hanno una certa familiarità. Inoltre, man mano che questi modelli sono integrati nella società e utilizzati per automatizzare vari sistemi, questa tendenza all’allucinazione è uno dei fattori che può portare al degrado generale della qualità complessiva delle informazioni e ridurre ulteriormente la veridicità e la fiducia nelle informazioni liberamente disponibili

e ancora: «Usiamo il termine ‘allucinazioni’, anche se riconosciamo come questo inquadramento possa suggerire un’antropomorfizzazione, che a sua volta può portare a danni o a modelli mentali errati di come il modello apprende» (ibid.).

Iniziano a moltiplicarsi gli articoli scientifici che criticano questo atteggiamento semplicistico nei confronti dell’intelligenza umana portato da molti sostenitori delle super capacità dell’intelligenza artificiale. Un recente articolo sostiene che l’intelligenza artificiale stia deteriorando la nostra comprensione teorica della cognizione, piuttosto che farla progredire e migliorare:

Il campo contemporaneo dell’IA, tuttavia, ha preso la possibilità teorica di spiegare la cognizione umana come una forma di calcolo per implicare la fattibilità pratica di realizzare la cognizione umana (simile o di livello) in sistemi computazionali effettivi; e, il campo inquadra questa realizzazione come un’inevitabilità a breve termine. Tuttavia, come dimostriamo formalmente, la creazione di sistemi con cognizione umana (simile o di livello) è intrinsecamente intrattabile dal punto di vista computazionale. Ciò significa che qualsiasi sistema di intelligenza artificiale creato nel breve periodo è al massimo una chimera. Quando pensiamo che questi sistemi catturino qualcosa di profondo su di noi e sul nostro pensiero, induciamo immagini distorte e impoverite di noi stessi e della nostra cognizione. (van Rooij et al. 2023)

In definitiva, uno dei problemi maggiori derivante dalla rappresentazione che nell’immaginario collettivo si sta formando dell’intelligenza artificiale è proprio legato al suo nome e alla carente comprensione dei limiti della metafora. A margine di un convegno alla Pontificia Accademia delle Scienze, discutendo con alcuni scienziati di questo problema, proposi un acronimo diverso per descrivere la tecnologia, corrispondente a ciò che tenevo in mano al momento. La definizione che proposi era ‘Systematic Approaches to Learning Algorithms and Machine Inferences’ e l’acronimo che ne deriva è ‘SALAMI’. I salami sono prodotti derivati da pezzi di altra carne fatta a pezzi, sminuzzata e rimpastata producendo un oggetto diverso. Si trattava ovviamente di una battuta che catturava adeguatamente una dimensione importante del problema – tant’è che è stato persino citato in trasmissioni radio e televisive in USA, in articoli scientifici e qualcuno ha persino realizzato una componente aggiuntiva per il browser Chrome che sostituisce ogni occorrenza dei termini ‘artificial intelligence’ in una pagina web con il termine ‘salami’.

L’intelligenza artificiale non è l’alba di una super intelligenza o di un essere cibernetico; è un nuovo modo di produrre software, estremamente potente, che ci consente di fare nuove applicazioni. Anche riconducendo a dimensioni meno fantascientifiche le aspettative eccessive propagandate sui media, è una tecnologia che è qui per restare e che, come tutto il software, troverà spazio di applicazione in ogni attività umana.

Bibliografia

A.S, Comportamento emergente, in «Wikipedia». Link: https://it.wikipedia.org/wiki/Comportamento_emergente

A.S, Il fisico Faggin: le macchine non sono superiori a noi umani, in «Il Sole24 ore», 18/10/2022. Disponibile online: https://stream24.ilsole24ore.com/video/tecnologia/il-fisico-faggin-macchine-non-sono-superiori-noi-umani/AEuxPY9B

F. Rosenblatt, The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain, Cornell Aeronautical Laboratory, in «Psychological Review», v65, No. 6, 1958, pp. 386–408.

I. van Rooij, O. Guest, F. G. Adolfi, R. de Haan, A. Kolokolova, P. Rich, Reclaiming AI as a Theoretical Tool for Cognitive Science, in «PsyArXiv», 1/08/2023.

J. McCarthy, M.L. Minsky, N. Rochester, and C.E. Shannon. A proposal for the Dartmouth summer research project on artificial intelligence, 1955. Disponibile online: http://www-formal.stanford.edu/jmc/history/ dartmouth/dartmouth.html.

M. Calamari, Intelligenza Artificiale: GPT-4, orgasmi e Pappagalli Stocastici, in «ZEUS News», 20/03/2023. Disponibile online: https://www.zeusnews.it/n.php?c=29752

I commenti sono chiusi.