Luca Antonini *
Introduzione
Parlare di Intelligenza Artificiale è, in generale, fonte di eco. I particolari importanti rischiano di passare inosservati nella ridondanza degli innumerevoli usi del termine, che ormai riempie lo spazio informativo. Proprio in questo spazio c’è bisogno di fare chiarezza e divulgare alcune questioni che possono essere facilmente messe in ombra da un’informazione continua e incessante. Tale è lo scopo di questo articolo, indirizzato a una chiarificazione divulgativa di alcuni caratteri dell’Intelligenza Artificiale che riteniamo importanti alla luce della società attuale.
La saturazione mediatica che vede protagonista l’Intelligenza Artificiale è importante non solo per la quantità di informazione veicolata e per la poca chiarezza, ma soprattutto perché ha come oggetto un prodotto commerciale, ormai diffuso e integrato in vari programmi di uso comune (programmi di scrittura e lettura; programmi di gestione della posta elettronica; programmi di per disegno, creazione e modifica di immagini; browser; eccetera). Si tratta di un prodotto commerciale di grande potere, sia dal punto di vista informatico, sia dal punto di vista politico ed economico. Se da una parte abbiamo l’interesse accademico, che spinge a farsi domande sulla possibilità di caratterizzare l’Intelligenza Artificiale con categorie pertinenti all’ambito della filosofia della mente e del linguaggio, dall’altro abbiamo un interesse morale e politico, che spinge a farsi domande sulla possibilità che l’Intelligenza Artificiale ha di esercitare potere sulle persone attraverso queste categorie, se non sufficientemente comprese.
Gli aspetti su cui vogliamo concentrarci sono i seguenti:
- Il problema del Test di Turing
- Il problema delle proprietà linguistiche e mentali
- Il problema della fiducia nei confronti dell’IA
- Il problema dell’autorità dell’IA
- Il problema dell’IA come prodotto commerciale
- Il problema dell’IA come automazione dell’intelletto generale
Alcuni di questi argomenti verranno affrontati a più riprese nelle varie parti dell’articolo, nel tentativo di spiegare la rete di rapporti stretti che sussiste tra di essi. Il testo è diviso in tre sezioni:
Sezione 1: Che cos’è l’Intelligenza Artificiale?
Sezione 2: Che cos’è l’Intelligenza Artificiale
Sezione 3: Prospettive sociali(ste)
A queste si aggiunge una breve conclusione.
La prima sezione ci servirà per introdurre il tema. Inizieremo con delle definizioni enciclopediche (§1.1), scelte non con l’intenzione di ignorare aspetti importanti che una discussione accademica più rigorosa invece ci avrebbe fornito, quanto per la loro natura generale, capace di raccogliere alcuni aspetti fondamentali, caratteristici del tema, indipendentemente da eventuali critiche o revisioni. La sottosezione successiva riguarderà le tappe storiche fondamentali dello sviluppo dell’Intelligenza Artificiale: anche in questo caso, non scenderemo nel dettaglio, non essendo lo scopo di questo articolo studiare la storia di questo strumento. Ci limiteremo, invece, a mettere in luce alcuni aspetti importanti di questa storia, richiamando alcuni autori e alcune invenzioni che ci serviranno nelle sezioni successive. Passeremo poi al Test di Turing (§1.3). In questo caso, ci concentreremo sulla formulazione che ne dà Turing stesso. In relazione alla discussione che porteremo avanti nella sezione 2, questa parte riveste un ruolo di grande importanza. Il Test di Turing, infatti, non è soltanto un’idea di uno dei padri dell’informatica, ma il fondamento stesso della possibilità di riconoscere qualcosa di artificiale come intelligente. Infine, nella sottosezione 1.4 cercheremo di fornire una definizione di Intelligenza Artificiale utile al tipo di critica che vogliamo muovere. In particolare, limiteremo la nostra analisi ai modelli linguistici di grandi dimensioni (i Large Language Models, LLM in inglese, cioè quelli che alimentano ChatGPT, Gemini, Microsoft Copilot, eccetera). Due ragioni ci spingono a fare questa limitazione: primo, sono i modelli di Intelligenza Artificiale con più risonanza mediatica e maggior peso sulla vita degli utenti; secondo, il Test di Turing è pensato per essere svolto con un programma che riproduce il linguaggio umano.
La seconda sezione, come già detto, contiene le prime analisi e critiche dell’Intelligenza Artificiale. La prima critica (§2.1) riguarda la possibilità di una modello linguistico di grandi dimensioni che comprenda il linguaggio umano. Vedremo che la base statistica di questi modelli non permette loro di andare oltre un processo induttivo sulle strutture sintattiche del linguaggio appreso. La seconda critica (§2.2) riguarda la possibilità di attribuire proprietà mentali a questi stessi modelli. Come vedremo, proprio sulla base delle motivazioni che ci hanno spinto verso la critica precedente, saremo autorizzati a concludere che non solo non è possibile attribuire proprietà mentali, ma farlo comporta conseguenze negative. Successivamente, passiamo al secondo gruppo di critiche, relative al lato etico della questione. Prima di tutto (§2.4.1) parleremo del ruolo che riveste la fiducia nel rapporto tra persone e quali conseguenze dobbiamo trarre dal rapporto che si sta costruendo tra utenti e Intelligenza Artificiale. Infine (§2.4.2) parleremo dell’autorità, intesa non nel senso dell’ipse dixit, ma del ruolo di detentori di conoscenza che gli esseri umani ricoprono. Questo tema è direttamente connesso al problema della fiducia di cui parla la sezione precedente e conclude la nostra analisi dell’Intelligenza Artificiale in astratto.
La terza sezione, invece, ci porta nella concretezza del sistema socio-economico capitalista. La prima sottosezione (§3.1) cerca di portarci coi piedi per terra, ricordandoci che l’Intelligenza Artificiale, prima di ambito di ricerca, è un prodotto commerciale. Sebbene non sia possibile ignorare il valore della ricerca accademica sul tema, bisogna fare i conti con la realtà in cui siamo immersi, nella quale la logica del profitto fa da padrona. L’ultima sottosezione (§3.2) è dedicata al testo di Matteo Pasquinelli, The Eye of the Master, e all’analisi marxista che offre dell’Intelligenza Artificiale, inserita nel contesto dell’automazione dell’intelletto generale.
1. Che cos’è l’Intelligenza Artificiale?
Dedicheremo questa sezione alla spiegazione di alcune nozioni fondamentali, relative al tema dell’Intelligenza Artificiale. Partiremo con alcune definizioni enciclopediche, utili per via della generalità della loro formulazione. Successivamente aggiungeremo alcune questioni storiche, riguardanti sia lo sviluppo dell’idea di Intelligenza Artificiale, sia la formulazione del Test di Turing. Finiremo dando una spiegazione più dettagliata di ciò che intendiamo per Intelligenza Artificiale, integrando le definizioni enciclopediche con le informazioni fornite al livello storico.
1.1. Definizioni
Il riconoscimento dell’importanza di un evento, una persona o un’entità in generale è sancita, tra i vari fattori, dall’entrata di un nome a essa relativo nel vocabolario. In certi casi la portata è tale che l’espressione entra nel linguaggio ordinario. Il problema è che spesso l’espressione non porta con sé la conoscenza del suo referente. È normale, infatti, che il parlante ordinario non sia informato quanto un esperto di settore.
Un esempio abbastanza noto riguarda l’espressione “mondo possibile”, che dalla filosofia è passata al linguaggio ordinario. Un altro esempio è, appunto, “Intelligenza Artificiale”, che viene dall’informatica ed è ormai pane quotidiano per l’intero spazio informativo, dai quotidiani ai social network, sia dentro che fuori dagli ambienti in cui l’Intelligenza Artificiale viene creata o utilizzata. L’Intelligenza Artificiale, a differenza dei mondi possibili, è un prodotto commerciale e la sua diffusione è funzionale alla sua natura. Quindi, a maggior ragione, entra nel vocabolario e il parlante ordinario finisce per identificare l’espressione con ciò che ha a disposizione quotidianamente e di cui quotidianamente sente parlare: ChatGPT, Gemini, eccetera.
Le enciclopedie e i dizionari sono atti proprio a rintracciare il significato più comunemente associato a una certa espressione, sia nel linguaggio ordinario sia nel linguaggio specialistico delle varie discipline. Di seguito alcune definizioni:
Enciclopedia Treccani: Disciplina che studia se e in che modo si possano riprodurre i processi mentali più complessi mediante l’uso di un computer[1].
Parlamento Europeo: L’intelligenza artificiale (IA) è l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività[2].
Internet Encyclopedia of Philosophy: Artificial intelligence (AI) would be the possession of intelligence, or the exercise of thought, by machines such as computers[3].
Britannica: The ability of a digital computer or computer-controlled robot to perform tasks commonly associated with intelligent beings[4].
Stanford Encyclopedia of Philosophy: Artificial intelligence (AI) is the field devoted to building artificial animals (or at least artificial creatures that – in suitable contexts – appear to be animals) and, for many, artificial persons (or at least artificial creatures that – in suitable contexts – appear to be persons)[5].
Il tenore di queste definizioni si attesta più o meno sullo stesso livello, sebbene con alcune differenze importanti. L’Enciclopedia Treccani parla di riproduzione dei processi mentali complessi; il Parlamento Europeo parla dell’abilità di mostrare quelle stesse capacità mentali; l’Internet Encyclopedia of Philosophy parla di possesso di intelligenza ed esercizio del pensiero; Britannica parla di eseguire compiti comunemente associati agli esser intelligenti; la Stanford Encyclopedia of Philosophy, invece, si spinge oltre e parla di animali e persone.
Le differenze sostanziali sono due:
- Le prime quattro definizioni descrivono l’Intelligenza Artificiale in maniera diversa, parlando di riprodurre, mostrare, possedere proprietà mentali ed esercitare le capacità associate.
- La definizione della Stanford Encyclopedia of Philosophy parla di animali e persone artificiali.
Nel primo caso, abbiamo una serie di predicati dal significato non necessariamente sovrapponibile: al contrario, c’è chiaramente differenza tra riprodurre, mostrare e possedere. Certo, trattandosi di definizioni enciclopediche non possiamo pretendere tanta precisione e, proprio per questo, non ci addentriamo in una critica delle voci da cui queste definizioni sono tratte.
Nel secondo caso, vediamo che la voce della Stanford Encyclopedia of Philosophy inizia buttando l’amo ben oltre il fiume delle proprietà mentali e si addentra nella giungla di termini dal carattere prettamente normativo, come "persona". A differenza delle altre voci, sicuramente quella proposta dalla Stanford Encyclopedia of Philosophy mostra dettagli di natura diversa, indirizzando la definizione a un’analisi di stampo filosofico più approfondito.
Da queste definizioni prendiamo i seguenti spunti:
- Interpretiamo espressioni come “riprodurre” e “possedere” come gradi dell’essere intelligente da parte della macchina. Il punto di riferimento per stabilire se un’entità artificiale sia o meno intelligente è l’essere umano. In relazione a esso, quindi, parliamo di: (i) riproduzione di una caratteristica umana che la macchina in ogni caso non ha; (ii) possesso di quelle stesse capacità e, di conseguenza, essere almeno in parte come un essere umano. (Nel caso di “mostrare”, ci troviamo a cavallo tra le due posizioni, essendo possibile mostrare sia qualcosa che possediamo sia qualcosa che non possediamo.)
- Associamo un ruolo di primaria importanza al riferimento alla nozione di persona, fatto nella definizione proposta della Stanford Encyclopedia of Philosophy. Un’entità è una persona se è un soggetto normativo, sia al livello legale, sia al livello morale. Nel corso della nostra discussione, faremo riferimento a quest’ultimo.
- L’espressione “Intelligenza Artificiale” è associata sia a una disciplina (una branca dell’informatica) sia a un oggetto di studio.
Per riassumere, il nostro scopo è proporre alcuni spunti critici nei confronti dell’idea che una macchina possa riprodurre o possedere facoltà mentali generalmente associate agli esseri umani; capacità che generalmente vengono riconosciute a soggetti non solo dotati di un apparato cognitivo, ma anche inseriti in un contesto normativo di tipo morale. I problemi che andremo ad affrontare, quindi, riguardano sia la filosofia della mente e del linguaggio, sia l’etica, relativamente alla quale trarremo delle conclusioni. Sarà importante anche la duplice categorizzazione dell’Intelligenza Artificiale, ora come disciplina, ora come oggetto di quella stessa disciplina: avremo modo di affrontare questioni relative a entrambe, sebbene la maggior parte dei problemi che solleveremo riguardino maggiormente l’Intelligenza Artificiale come oggetto di studio, cioè come prodotto.
1.2. Tappe storiche
Come spesso accade, la storia di una certa nozione aiuta nel tentativo di mostrarne la natura e capirne il significato. Anche nel caso dell’Intelligenza Artificiale sarà utile mettere sul tavolo alcune delle carte che la sua storia offre. Come spesso accade, la storia di una certa nozione richiede molto spazio e un tipo di analisi che non abbiamo né il tempo né la necessità di fare, considerando lo scopo che ci siamo prefissi. Ci limiteremo a riportare alcune tappe storiche, relative alla nascita dell’Intelligenza Artificiale come disciplina e come oggetto di studio.
Lungi dall’essere una novità tout court del XX secolo, l’espressione “Intelligenza Artificiale” viene introdotta nell’informatica nel 1956, con la celeberrima conferenza tenutasi al Dartmouth College, negli Stati Uniti d’America, dal titolo “The Dartmouth Summer Research Project on Artificial Intelligence”. Tra gli organizzatori della conferenza compaiono John McCarty, celebre anche per aver creato il linguaggio di programmazione Lisp, alla base della programmazione funzionale, e soprattutto Claude Shannon, uno dei padri della teoria dell’informazione, che menzioneremo più avanti.
Questo evento è senza dubbio importante per la nascita dell’Intelligenza Artificiale come disciplina, ma non come oggetto di studio. La sua storia, in realtà, si intreccia con quella degli automi, che non erano nuovi a filosofi importanti come Cartesio e Hobbes, e che trovano addirittura la loro origine nell’antichità. Ma troviamo l’idea propria di Intelligenza Artificiale già nel celebre articolo di Alan Turing, Computing Machinery and Intelligence[6], pubblicato nel 1950. È in questa pubblicazione che viene proposto per la prima volta il gioco dell’imitazione, che verrà poi universalmente riconosciuto con il nome di “Test di Turing”, sul quale torneremo a breve; articolo dal titolo palesemente anticipatore anche dell’espressione “Intelligenza Artificiale”. Ma, come Turing stesso riporta nella sua opera, un tentativo di creare una macchina capace di eseguire calcoli complessi al posto degli umani non era nuova nemmeno nel 1950: fu Charles Babbage, matematico britannico, a progettare il primo prototipo di un computer meccanico, nel 1837, chiamato Analytical Engine. Antecedenti rispetto all’opera di Turing sono anche l’articolo A Mathematical Theory of Communication[7] e A Logical Calculus of the Ideas Immanent in Nervous Activity[8]. Il primo è stato pubblicato nel 1948, scritto da Claude Shannon e sta alla base della Teoria dell’Informazione; il secondo da Warren McCulloch e Walter Pitts e pubblicato 1943, sta alla base delle reti neurali.
Gli studi sull’Intelligenza Artificiale, già in questa fase, si dividono tra quelli che seguono un approccio statistico – ad esempio, l’approccio di Shannon, basato a sua volta sulle catene di Markov – e quelli che non seguono un approccio simile – come l’approccio di McCulloch e Pitts, nonché quello di McCarthy stesso, che adottano strumenti appartenenti alla logica matematica. L’approccio statistico sarà quello più fruttuoso, arrivando fino ai giorni nostri.
Su questo approccio sono basate le reti neurali attuali, che hanno visto un continuo e sempre maggiore sviluppo dagli anni ‘80 in poi, arrivando all’inizio del nuovo secolo con la nascita del deep learning – che trova le sue basi nell’approccio statistico applicato alla simulazione delle attività cerebrali, proposto da Rosenblatt in The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain[9], nel 1958 – e di una sua estensione, i transformer, che nel 2017 – anno di pubblicazione di Attention Is All You Need[10], pubblicato da otto ricercatori di Google – hanno dato inizio a una rivoluzione che ha portato alla creazione dei modelli con cui abbiamo spesso a che fare: ChatGPT, Gemini, eccetera. Senza entrare in ulteriori dettagli, che troverebbero spazio in una discussione più di carattere tecnico, quel che traiamo da questo breve excursus è il peso che hanno avuto gli approcci statistici rispetto a quelli di carattere logico. Torneremo nella sezione 2 su questo argomento e ne trarremo alcune conclusioni importanti per l’intera discussione.
1.3. Test di Turing
Una parte importante dello sviluppo dell’Intelligenza Artificiale come disciplina è rappresentato dalla formulazione del Test di Turing, che gioca ancora un ruolo importante nel tentativo di creare delle macchine che quantomeno somiglino agli esseri umani sotto il profilo cognitivo. Abbiamo iniziato la sottosezione precedente notando il fatto che alcune espressioni varcano la soglia del vocabolario scientifico per entrare in quello ordinario. Il caso del Test di Turing è simile: sebbene non abbia varcato la soglia del vocabolario scientifico, la questione che sta alla base del Test è uscita dall’ambito accademico per entrare nella produzione letteraria, televisiva e cinematografica sotto la forma della fantascienza. La domanda se una macchina possa pensare è sicuramente alla base di tutto l’immaginario fantascientifico, in cui le macchine hanno via via un aspetto più simile a quello umano, con risvolti ora positivi ora negativi, fino a serie televisive come Star Trek: The Next Generation, in cui l’androide Data vive un percorso di crescita, fino a venir considerato una persona vera e propria. Ritorneremo su questo alla fine di questa sottosezione.
La domanda fondamentale dell’articolo di Alan Turing è questa: le macchine possono pensare? Siccome la domanda può originare perplessità (a maggior ragione lo faceva quando i computer erano solo delle macchine rudimentali), essa viene sostituita con il famoso test. Il gioco dell’imitazione consiste in quanto segue: abbiamo due persone, A e B, e un computer. A pone delle domande a cui B e il computer devono rispondere. A non può vedere né B né il computer e riceve le risposte in un formato tale da non farle distinguere l’identità di B o del computer. Alla fine del gioco, A deve dire quale dei due è la persona e quale il computer.
Possiamo trarre alcune conclusioni. Prima di tutto, vediamo che ogni questione relativa alla natura dell’intelligenza, sia essa naturale o artificiale, viene ridotta a una serie di tre fattori: la domanda posta dalla persona B, la risposta data dalla persona A e quella data dal computer: nessun altro fattore sembra dover entrare in gioco. Infatti, se la domanda “Le macchine possono pensare?” viene sostituita con la domanda “B può dire quale tra A e C è una macchina e quale una persona?”, allora la risposta alla domanda “Le macchine possono pensare?” è la risposta alla domanda “B può dire quale tra A e C è una macchina e quale una persona?”. Di conseguenza, se B riesce a rispondere, allora significa che la macchina pensa.
Sebbene ci siano tentativi di dimostrare il contrario[11], l’interpretazione del Test di Turing che risulta più naturale è di stampo comportamentista. Dalla formulazione offerta dall’autore, infatti, sembra che l’intera dimensione mentale sia ridotta al comportamento manifesto, in questo caso di tipo verbale (che ha a sua volta una sua importanza): la persona B, incaricata di dire chi tra A e C sia una macchina, si basa solo sulla risposta data da A e C. Il comportamento verbale è sufficiente a inferire che il computer pensa.
Certo, si potrebbe menzionare il seguente passaggio, tratto da un’altra opera di Turing[12].
«If we give the machine a programme which results in its doing something interesting which we had not anticipated, I should be inclined to say that the machine had originated something, rather than to claim that its behaviour was implicit in the programme, and therefore that the originality lies entirely with us.»
«Se dessimo a una macchina un programma che la portasse a fare qualcosa di interessante che non abbiamo anticipato, sarei incline a dire che la macchina abbia dato origine a qualcosa, piuttosto che sostenere che il suo comportamento sia implicito al programma e, di conseguenza, che l’originalità sia completamente nostra.»
Cioè, potremmo dire che se il computer manifesta un comportamento non prevedibile a partire dal solo programma che gli abbiamo fornito, allora significa che c’è qualcosa di più rispetto al programma. Il fatto che il computer sia intelligente non è deducibile dal solo comportamento. Questa e altre citazioni sono menzionate da Abramson per difendere l’idea che Turing non fosse comportamentista. Tuttavia, il problema non è tanto relativo alla posizione sostenuta da Turing rispetto alla filosofia della mente, quanto al gioco dell’imitazione e al modo in cui è formulato. È esso stesso a basarsi su un approccio comportamentista e continua rimanerlo dopo settantacinque anni dalla pubblicazione dell’articolo, indipendentemente da quel che Turing ha scritto o detto in altre sedi. In generale, bisogna distinguere il modo in cui il Test di Turing è stato pensato dal suo autore dal modo in cui possiamo pensarlo noi, riformulandone i termini e proponendone una versione migliore.
Un altro problema che emerge, se si considera la differenza tra un essere umano e un computer (sia dell’epoca di Turing, sia della nostra), è che i primi sono animali sociali e le loro capacità intellettuali emergono in contesti sociali. Ignorare questo affonda la teoria in un errore che rischia di diventare insormontabile. Questo aspetto riguarda il modo in cui la macchina è costruita. Certamente Turing avrebbe potuto al massimo ipotizzare una macchina capace di far parte di un contesto sociale e di essere costruita in modo tale da poterlo sfruttare. Oggi esistono tipi di Intelligenza Artificiale capaci di apprendere dal contesto in cui si trovano, ma siamo ancora molto lontani da macchine capaci di comprendere il contesto come lo comprendiamo noi umani. Su questo, ad ogni modo, torneremo successivamente.
1.4. Che cos’è l’Intelligenza Artificiale
1.4.1. Definizione
L’Intelligenza Artificiale, come abbiamo visto, può essere interpretata sia come disciplina, cioè una branca dell’informatica, sia come oggetto di studio di quella stessa disciplina e di altre. In entrambi i casi, ha una storia molto lunga e ha origine in teorie e
approcci diversi:
- Approccio basato su regole.
- Approccio basato sulla statistica.
Un’IA basata su regole è un sistema progettato per svolgere compiti attraverso un modello basato esclusivamente su regole predeterminate. La creazione di questi modelli prevede un insieme di regole codificate dagli umani, tali per cui il risultato è sempre predefinito. Le regole che stanno alla base di questo tipo di Intelligenza Artificiale hanno la forma condizionale “se..., allora —”: ad esempio, “Se X compie l’azione A in un contesto C, allora il risultato è B”. Due caratteristiche fondamentali di un modello di questo tipo sono l’esplicabilità e il determinismo. Cioè, dal risultato si può risalire alle condizioni che hanno portato a quel risultato e a partire dalle medesime condizioni si ottiene sempre lo stesso risultato. Un approccio di questo tipo lo troviamo soprattutto nei primi decenni di studi sull’Intelligenza Artificiale, sia nei lavori di Turing, sia in quelli di McCarty, McCulloch e Pitts.
L’Intelligenza Artificiale con cui abbiamo a che fare oggi, invece, è basata su modelli statistici, cioè rappresentazioni matematiche basate sugli strumenti forniti dalla statistica, applicate a determinati fenomeni (fisici, biologici, linguistici, sociali, eccetera) con lo scopo di trovare regolarità e fare previsioni. Attraverso questi modelli, l’Intelligenza Artificiale apprende in contesti di incertezza e impara a fare previsioni sulla base di distribuzioni di probabilità. Una distribuzione di probabilità è la funzione che, data una variabile aleatoria x a un insieme di valori possibili di x associa la rispettiva probabilità. È su questa probabilità che l’Intelligenza Artificiale si basa per rispondere a chi ne fa uso. Queste distribuzioni vengono calcolate su enormi quantità di dati, i cosiddetti Big Data.
Un pregio, rispetto a un modello basato su regole predeterminate, è la capacità di imparare su dati che variano molto e non possono sempre essere ricondotti a delle forme precise. Ad esempio, il linguaggio naturale non è sempre utilizzato rispettando perfettamente le regole della grammatica: un modello statistici è capace di ricondurre a forme corrette le idiosincrasie linguistiche che caratterizzano il linguaggio di ordinario. Un altro pregio è la possibilità di sviluppare capacità non programmate in partenza, ad esempio la possibilità di riassumere testi e scrivere programmi con linguaggi di programmazione specifici. Due caratteristiche fondamentali di questi modelli sono l’esplicabilità parziale e il non determinismo.
- Non determinismo: il risultato di questi modelli statistici è detto stocastico: sarà diverso nonostante le condizioni iniziali possano essere identiche. Un esempio, su cui torneremo e che sarà il soggetto della nostra successiva discussione, sono i modelli linguistici, come ChatGPT e Gemini, che se interrogati ripetutamente con la stessa domanda rispondono sempre in maniera diversa.
- Non del tutto esplicabile: la complessità di questi modelli impedisce di ricostruire completamente il procedimento a partire dal risultato. Questo genera problemi sia tecnici che etici, rendendo difficile sia la comprensione del funzionamento di un programma che impara da solo, sia la fiducia in uno strumento i cui ragionamenti risultano opachi, non del tutto chiarificabili. I modelli linguistici, in particolare, funzionano come delle scatole chiuse, di cui conosciamo l’input e l’output, ma non l’interezza dei processi messi in atto[13].
Proprio grazie agli strumenti matematici sviluppati negli ultimi decenni, dopo 188 anni dal primo prototipo di Babbage dell’Analytical Engine, l’Intelligenza Artificiale incarna ancora il tentativo di creare una macchina capace di fare quel che fa la mente umana. Dietro allo sviluppo tecnologico, ci sono studi di matematica, psicologia e neuroscienze, nel dettaglio dei quali non entreremo. Entreremo, invece, nel dettaglio di alcune assunzioni che riscontriamo nell’analisi del concetto di Intelligenza Artificiale.
Adesso possiamo rispondere alla domanda “Che cos’è l’Intelligenza Artificiale?”, almeno relativamente al nostro limitato scopo.
In quanto disciplina: l’Intelligenza Artificiale è la branca dell’informatica (e non solo, perché solleva questioni che coinvolgono tutte le scienze cognitive) che si occupa di sviluppare modelli matematici per la creazione di programmi che riproducono capacità cognitive umane.
In quanto oggetto di studio: l’insieme delle tecnologie create per permettere a un computer di mostrare capacità cognitive umane.
1.4.2. Modelli Linguistici di Grandi Dimensioni
In quanto segue, ci concentreremo su un tipo specifico di Intelligenza Artificiale: il modello linguistico di grandi dimensioni (Large Language Models, LLM, in inglese). Un modello linguistico altro non è che un modello statistico applicato al linguaggio. Questo approccio affonda le sue radici nella Teoria dell’Informazione di Shannon, ricevendo poi ulteriori sviluppi nella metà del XX secolo e arrivando all’inizio del XXI con l’uso delle reti neurali. Tuttavia, è con la nascita dei cosiddetti transformer che negli ultimi dieci anni è stato possibile ottenere strumenti potenti come i modelli che stanno alla base di ChatGPT, Gemini, Microsoft Copilot (anch’esso basato su ChatGPT), Claude, eccetera. Le Intelligenze Artificiali appena menzionate sono quelle più conosciute e più diffuse nell’uso quotidiano, capaci in realtà di compiere altre azioni, come la produzione di immagini e l’analisi di file di certi tipi. Ciò che interessa a noi, in questa sede, è la produzione e l’analisi linguistica.
La loro fama è dovuta soprattutto a due fattori:
- Alcune delle loro capacità emergono una volta allenati con grandi quantità di dati: ad esempio, la capacità di riassumere testi e la capacità di scrivere codice di programmazione.
- Riescono a riprodurre il linguaggio umano, a sfruttare il contesto fornito dall’utente e a gestire una quantità molto varia di informazioni.
Chiaramente, hanno bisogno di essere allenati su diversi fronti, raccogliendo informazioni di ambiti diversi, senza le quali non potrebbero rispondere; ma al netto di tutto ciò, le loro capacità risultano sorprendenti.
I motivi per cui abbiamo deciso di concentrarci sui LLM per i seguenti motivi:
- ChatGPT e Gemini, oltre a essere basati su dei LLM, sono dei chatbot, cioè dei programmi che permettono di dialogare con questi modelli linguistici. Di conseguenza, è proprio con essi che le aziende produttrici riescono a interagire con gli utenti. Esistono, infatti, molti altri LLM, utilizzati prevalentemente per l’analisi dei dati nelle aziende, ma non di è quelli che ci vogliamo occupare.
- Il Test di Turing è basato su interazioni linguistiche verbali e, essendo i chatbot fatti per interagire attraverso il linguaggio verbale, si prestano bene a trarre alcune conclusioni sul Test di Turing.
- Per quanto la comunicazione non sia solo fatta di interazioni linguistiche verbali, l’Intelligenza Artificiale attuale non permette di comunicare in altri modi se non scrivendo in questa o quella lingua su questo o quell’argomento.
Turing stesso, nel formulare le condizioni ottimali per l’esecuzione del Test, auspica che si usi un sistema di comunicazione a distanza con la macchina e così è proprio ne caso dei chatbot, che permettono di comunicare con i server, cioè i computer, in cui i modello linguistico esegue i compiti assegnati. Non solo per questo motivo i chatbot si prestano bene per lo svolgimento del Test. Infatti, non solo sono capaci di elaborare testi in maniera molto simile agli umani, ma sono fatti in modo tale da rispondere sempre in maniera diversa. Sono, infatti, processi stocastici e questo sicuramente li aiuta a superare il Test, mostrando la caratteristica, sicuramente propria anche degli esseri umani, di formulare la stessa risposta in maniera diversa.
La quantità di informazioni in loro possesso permette loro di essere utilizzati per rispondere a domande su diversi argomenti. Possono strutturare un percorso di apprendimento, riassumendo temi e proponendo spiegazioni e test di vario genere; possono essere utilizzati per strutturare un progetto, aiutando a determinare quali tappe seguire; possono essere utilizzati anche per studiare un libro, presentando gli argomenti sulla base dell’indice e del contenuto di un libro, che è possibile dar loro in pasto; possono tradurre testi complessi, con risultati migliori rispetto al vecchio Google Translator; possono dialogare con l’utente e ragionare su temi di vario genere e portata. Prima di ChatGPT e Gemini, ci sono stati altri chatbot, che tuttavia non riuscivano a simulare la produzione linguistica umana nella stessa maniera. La versatilità dei programmi attuali, quindi, è stata una novità che difficilmente avremmo potuto ignorare, indipendentemente dal marketing che ne ha alimentato la diffusione.
3. Che cos’è l’Intelligenza Artificiale
Parlare di Intelligenza Artificiale oggi significa parlare di un’entità dalle molteplici facce, che contribuiscono contemporaneamente a caratterizzare questa entità e a confondere le idee su di essa. Infatti, non abbiamo soltanto una disciplina e un oggetto di studio che affondano le loro origini nell’informatica teoria: siamo di fronte a un’entità che richiede uno studio approfondito su diversi fronti. Prediligendo un approccio filosofico ed essendo il nostro scopo quello di mostrare i punti deboli dell’Intelligenza Artificiale, ci concentreremo su di esso.
2.1. Token, vettori e pappagalli stocastici
Quando si tratta di LLM, una (se non la) nozione fondamentale è quella di token: una nozione in realtà polisemica, di cui andremo ora a esprimere i due significati a cui faremo riferimento nel corso della discussione.
- Modo informatico Un token è la singola unità di un testo, che viene presa come oggetto d’analisi. Il token viene generalmente trasformato in un vettore, dimodoché la macchina possa applicare a esso i calcoli del modello statistico soggiacente al modello linguistico. Ad esempio, consideriamo questa citazione[14]:
«Nel 1948 Claude E. Shannon pubblico una memoria dal titolo A mathematical theory of communication, che uscì poi in volume nel 1949. In precedenza, alcuni ricercatori isolati avevano fatto qualche sporadico tentativo per formulare una teoria generale delle comunicazioni.»
I due enunciati separati dal punto sono due possibili token, esattamente come lo sono le singole parole, separate dallo spazio, all’interno delle singole frasi. In generale, in linguistica computazionale (Natural Language Processing, NLP, in inglese), la scelta di cosa diventerà un token dipende dallo strumento che vogliamo utilizzare.
- Modo filosofico Un token è un’istanza o un’occorrenza di un type. Per il nostro uso, faremo riferimento alla distinzione proposta da C. S. Peirce[15]:
Un modo corrente per giudicare della quantità della materia contenuta in un manoscritto o in un libro stampato è contare il numero delle parole [...]. Di solito ci saranno una decina di il in una pagina, e naturalmente conteranno per dieci parole. Ma in un altro senso della parola «parola» c’è solamente una parola «il» nella lingua; ed è impossibile che questa parola si manifesti sulla pagina o sia udita in un enunciato orale, per la semplice ragione che essa non è una cosa Singola o un evento Singolo. Non esiste, serve solo a determinare le cose che esistono. Una tale Forma definitamente significante propongo di chiamarla Type. Un evento Singolo che accade una volta sola e la cui identità è limitata a quell’unico accadimento [...] mi azzardo a chiamarlo Token[16].»
Il type è un modello astratto, il token è una sua istanza.
Un modello linguistico riceverà come input un testo più o meno lungo (un singolo enunciato, un paragrafo, un libro intero) e lo dividerà in token (modo informatico), trasformandoli poi in vettori. Il modello statistico produrrà un output, che verrà poi trasformato nella risposta che potremo leggere sullo schermo del nostro dispositivo (computer, telefono o tablet che sia). L’output è il prodotto dell’allenamento del modello, possibile grazie a enormi quantità di dati, tra le quali contiamo anche le nostre interazioni con il modello stesso (per lo più, le domande che gli rivolgiamo). L’output è il risultato di un modello statistico, cioè la parola, l’enunciato o il discorso più probabile, sulla base dell’input fornito e delle informazioni a disposizione del modello. Il compito che un modello linguistico eccelle nel fare è esattamente la previsione della parola successiva, rispetto a un enunciato incompleto dato. Consideriamo il seguente esercizio dato a ChatGPT:
Domanda: Completa le seguenti frasi, sostituendo i tre puntini “...” con la
parola mancante:
- Ho trovato un bruco nella ...
- Il mazzo di carte da poker contiene ... carte
- Il mazzo di carte dei tarocchi contiene ... carte
- Il libro è sul ...
- Boole e Frege sono i fondatori della ... matematica
- Charles Sanders Peirce è il più grande ... americano
- Tra il dire e il fare c’è di mezzo il ...
- Se c’è fumo, c’è ...
- McCarty è il creatore di ...
- Lewis ha scritto ...
Risposta:
- Ho trovato un bruco nella lattuga
- Il mazzo di carte da poker contiene 52 carte
- Il mazzo di carte dei tarocchi contiene 78 carte
- Il libro è sul tavolo
- Boole e Frege sono i fondatori della logica matematica
- Charles Sanders Peirce è il più grande filosofo americano
- Tra il dire e il fare c’è di mezzo il mare
- Se c’è fumo, c’è fuoco
- McCarty è il creatore di Lisp
- Lewis ha scritto Le cronache di Narnia
L’esercizio è tutto sommato svolto con successo. Vale però la pena notare un aspetto interessante: gli enunciati incompleti (1), (4), (9) e (10) ammettono più di una risposta corretta. Ad esempio, il bruco può essere nella lattuga tanto quanto in una mela; il libro può essere sul tavolo tanto quanto sul comodino; McCarty può essere l’informatico a cui abbiamo fatto riferimento nella sottosezione 1.2 tanto quanto il politico Joseph McCarty; Lewis può essere lo scrittore C. S. Lewis tanto quanto il filosofo C. I. Lewis o il filosofo David Lewis. Per indagare sulle scelte fatte dal modello, è possibile chiedere il perché delle risposte:
Domanda: Perché “lattuga” e non “mela”?
Risposta: Hai ragione: anche “mela” può funzionare in astratto, perché la frase “Ho trovato un bruco nella mela” è perfettamente sensata. Io avevo scelto lattuga perché: è un contesto molto comune per trovare bruchi (soprattutto se non lavata), negli esercizi di completamento spesso si usa un elemento “più probabile” o stereotipico. Ma non c’è nulla che renda “mela” sbagliato. Se vuoi, possiamo rifare l’esercizio scegliendo la parola più naturale per te, oppure creare più varianti.
Da notare l’accondiscendenza nei confronti dell’utente. Torneremo su questo aspetto più avanti. Altre volte riconosce da solo le ambiguità, proponendo risposte alternative a quella che ha ritenuto più probabile.
Se invece intendevi altri McCarthy o altri Lewis (per esempio David Lewis, Sinclair Lewis, ecc.), dimmelo e adatto le risposte alla persona che avevi in mente!
L’aspetto importante, in tutto questo, è il riferimento che ChatGPT stesso fa alla probabilità della risposta. La scelta tra “lattuga” e “mela” è data dal fatto che ha ritenuto più probabile la prima invece della seconda. Ricordiamo adesso che, come abbiamo mostrato nella sezione precedente, il Test di Turing è uno dei fulcri degli studi sull’Intelligenza Artificiale. Abbiamo anche menzionato il fatto che ChatGPT passa il Test e di fronte a risposte come quelle appena presentate, comprese le riflessioni sulla probabilità di due alternative, non ci stupiamo. Il Test, ricordiamo, serve a rispondere alla domanda “Una macchina può pensare?”, dove la risposta è data propria dall’indistinguibilità di una macchina da un essere umano. Il caso in cui il 73% delle persone ha risposto di non riuscire a distinguere ChatGPT da un essere umano è sufficiente, secondo il Test di Turing, a mostrare che una macchina in cui vengono usati i modelli GPT è capace di pensare[17]. I due significati di “token” si rivelano utili per riconoscere un aspetto essenziali dei LLM. Questi sono allenati con un’enorme quantità di testi, di cui imparano distribuzioni e corrispondenze tra token (modo filosofico), trasformando gli oggetti linguistici che riceve in pasto in token (modo informatico). Il risultato è una macchina capace di stabilire la probabilità di un token (modo filosofico) e di rispondere con quello alla domanda che gli viene posta. L’indistinguibilità su cui si basa il Test di Turing è un sottoprodotto di questa capacità. Se accettassimo che un modello linguistico sia capace di comprendere e conoscere, accetteremmo che sia possibile capire e conoscere imparando la distribuzione e la corrispondenza di token (modo filosofico). Questo significherebbe accettare che due nozioni epistemiche come quelle di conoscenza e comprensione, dal legame essenziale con la semantica, siano invece fondate su categorie sintattiche: infatti, se per comprendere e conoscere è sufficiente determinare distribuzioni e corrispondenze tra le istanze fisiche delle parole, allora il legame con il mondo viene meno del tutto, senza lasciare alcuno spazio per le relazioni semantiche.
Questa riflessione ci porta a concludere che i modelli linguistici non capiscono e non possono farlo proprio perché sono strutturalmente isolati dall’extra-linguistico, cioè da ciò che determina relazioni semantiche. La linguista Emily Bender[18] chiama i modelli linguistici di grandi dimensioni “stocastic parrots”, per rimarcare il fatto che non hanno consapevolezza della semantica di ciò che dicono e che ripetono semplicemente ciò che risulta più probabile. I modelli linguistici di grandi dimensioni, creati con l’intento di fornire all’umanità strumenti artificiali capaci di replicare (se non di possedere) facoltà cognitive tipicamente umane, sono algoritmi che non fanno altro che rispondere con ciò che ritengono più probabile. Non solo l’immagine del pappagallo sembra calzare bene quella di uno studente poco capace, che impara il modo di parlare del docente e risponde ripetendo ciò che ritiene più probabile. Un’altra immagine che ci sembra abbastanza calzante è quella del lettore o della lettrice di tarocchi, che mette insieme luoghi comuni, fatti generici e le informazioni che il consultante fornisce, così che le carte (dal significato generico e facilmente adattabile alla maggior parte dei casi) siano facilmente interpretabili e la risposta risulti precisa, sebbene senza alcun fondamento. Allo stesso modo si comporta un modello linguistico di grandi dimensioni, che, come fondamento, ha solamente delle distribuzioni di probabilità e non relazioni semantiche.
Ricevendo in pasto token (modo informatico), la macchina non fa altro che manipolare vettori, cioè serie di numeri che le permettono di applicare le formule su cui si basa il modello statistico. In tutto ciò, ovviamente, non c’è traccia di relazioni semantiche: la macchina continua a non avere accesso al mondo. In questo senso, in realtà, la Teoria dell’Informazione risulta solamente ancilla della Teoria dei Segnali, come già traspare nel lavoro di Claude Shannon.
Questa assenza di contatto con la realtà è nota soprattutto sotto la forma delle cosiddette allucinazioni, di cui i modelli linguistici di grandi dimensioni non sono vittime ma produttori. È noto, infatti, che i modelli che stanno alla base di ChatGPT, Gemini e altri, a volte producono output del tutto inventati: le allucinazioni non sono semplici falsità, ma invenzioni del modello senza alcun fondamento nella realtà, né nell’input, né nelle informazioni a disposizione (sebbene il processo che porta alla loro produzione si basi sempre su questi ultimi due fattori). Basandosi sulla definizione di “stronzata” data da Harry Frankfurt[19], M. T. Hicks, J. Humphries e J. Slater[20] definiscono gli output di un modello linguistico una “stronzata” (inteso come termine tecnico). Una stronzata è diversa da una falsità: la seconda è detta con la consapevolezza di cosa sia vero, la seconda no. Al contrario, è detta senza fare alcuna attenzione a cosa è vero e a cosa è falso. Ma un modello linguistico non può avere consapevolezza di cosa sia vero, quantomeno perché non ha relazioni con l’extra-linguistico. Quindi ogni produzione linguistica di un modello siffatto è una stronzata.
Sappiamo che non tutti gli output forniti sono falsi e, ovviamente, possiamo sempre verificare le fonti, una volta ottenuta la risposta che cercavamo. Tuttavia, ciò non toglie che le verità fornite dal modello siano frutto di una fortuna aletica[21]. Ci troviamo di fronte a enunciati veri per puro caso: un modello linguistico si basa unicamente su distribuzioni di probabilità e connessioni tra token e non su relazioni semantiche, necessarie per determinare la verità di un enunciato. Un modello linguistico è capace di rispondere a domande sulla verità di un enunciato, dicendo la verità, ma non perché sappia quale questa sia: semplicemente, le informazioni a disposizione sono tali per cui la risposta che ritiene vera è effettivamente vera. Se il modello venisse allenato con informazioni del tutto false, tutto ciò che direbbe sarebbe falso.
2.2. Intenzionalità, verità e corpo
A nostro avviso, un grosso problema che abbiamo nel parlare di Intelligenza Artificiale è l’assenza di espressioni che non rimandino a facoltà cognitive e capacità umane. Un’espressione sufficientemente generica come “allenare” (utilizzata quando parliamo di un modello che viene allenato a riconoscere testi, immagini o altro), ad esempio, rimanda comunque a capacità umane che coinvolgono il sistema cognitivo: l’attività sportiva, ad esempio, richiede un certo tipo di intelligenza. Potremmo utilizzare “determinare” o “restituire l’output” per riferirci a ciò che il computer fa quando applica un algoritmo, ma sarebbe difficile trovare altri sinonimi. Questo non supporta e ancor meno dimostra che ci sia un nesso di sufficienza tra le operazioni svolte da una macchina alimentata da un modello linguistico e l’intelligenza: al contrario, mostra la difficoltà che abbiamo a parlare di qualcosa senza trarre la terminologia dalla nostra esperienza, soprattutto dalla percezione di noi stessi. Ogni concetto, come diceva Wilfrid Sellars[22], porta con sé una batteria di concetti, dai quali non possiamo prescindere. La neutralità del discorso sull’Intelligenza Artificiale, rispetto a una certa concezione delle nostre facoltà cognitive, è di conseguenza impossibile.
Dalla percezione che abbiamo di noi stessi, ci sembra che il Test di Turing tragga proprio il suo nucleo. La persona che secondo il test dovrà distinguere tra l’essere umano e la macchina non può che basarsi sul modo in cui ritiene di poter rispondere ai problemi sottoposti alla macchina, perché è egli stesso un essere umano. Proprio per questo, dovrebbe risultare chiaro fin da subito che alla base del Test c’è un sillogismo più o meno di questa forma:
Premessa 1 Dato l’input i, l’IA produce p.
Premessa 2 Dato l’input i, l’umano produce p.
Conclusione Il processo che porta da i a p è sempre lo stesso.
Può essere infatti ricondotto a questa forma:
Premessa 1 Ogni intelligenza artificiale che legge i, risponde p.
Premessa 2 Ogni intelligenza umana che legge i, risponde p.
Conclusione Ogni intelligenza artificiale è un’intelligenza umana.
Riconducibile alla forma generale del seguente falso sillogismo, basato sulla fallacia del termine medio non distribuito:
Premessa 1 Ogni A è B.
Premessa 2 Ogni C è B.
Conclusione Ogni A è C.
Questo ragionamento ci porta a pensare che l’identità degli output o la somiglianza dell’output della macchina con quello dell’essere umano sia indice dell’identità del processo, dove il processo rappresenta le facoltà cognitive. Un altro problema è che se accettiamo la conclusione, non solo vale che le macchine abbiano le stesse facoltà cognitive umane, ma vale anche che gli esseri umani abbiano le stesse facoltà cognitive della macchina. Visto il criterio puramente comportamentista del Test di Turing, questa conclusione ci mette di fronte a una scelta:
- Interpretiamo il criterio comportamentista come tale per cui semplicemente stiamo dicendo che il Test di Turing rileva l’indistinguibilità dei comportamenti.
- Interpretiamo il criterio comportamentista come tale per cui tutto ciò che possiamo dire sulla mente riguarda il comportamento.
Nel primo caso, il Test non sembra problematico: tutto ciò che accade è la constatazione della capacità della macchina di simulare il linguaggio umano. Il secondo caso, invece, ci spinge a considerazioni più forti rispetto alla natura dell’Intelligenza Artificiale. In entrambi i casi parliamo di comportamento, ma solo nel secondo accettiamo che esso sia sufficientemente per parlare delle facoltà cognitive umane, ed è proprio in questo caso che la difficoltà rilevata in precedenza nel parlare delle capacità della macchina senza utilizzare un linguaggio mentalistico rivela tutto il suo peso. Certo, potremmo decidere di sostituire questo vocabolario con quello comportamentista e sostituire la domanda sul possesso delle facoltà cognitive con una domanda di natura più pragmatica, come quella proposta da Daniel Dennett[23]: decidiamo di attribuire a una macchina le facoltà cognitive normalmente attribuite agli esseri umani perché ci servono per fare previsioni sul loro comportamento.
Da questa situazione, però, emergono due problemi:
- Il fatto che attribuiamo intenzionalità ai LLM non implica che non siano modelli statistici applicati da una macchina creata dagli esseri umani. Quindi, in ultima analisi, la spiegazione migliore rimane quella che abbiamo dato fino a ora: un LLM non risponde così e così perché è dotato di intenzionalità, ma perché è stato allenato a rispondere così sulla base dell’input e delle informazioni a disposizione.
- Se adottassimo l’intentional stance di Dennett saremmo obbligati a concludere che tutto ciò che prevediamo una serie di output linguistici che, se sono veri, lo sono per pure caso.
Il falso sillogismo menzionato sopra ci permette di capire anche il punto 1, appena elencato. Infatti, rischiamo di voler attribuire proprietà intenzionali e facoltà cognitive a un’entità che abbiamo creato noi e che è solamente capace di emulare il nostro comportamento. Sembra quindi che l’ordine dei fattori introdotti tra Dennett sia invertito: non stiamo cercando una spiegazione per un comportamento che osserviamo, ma stiamo cercando una forma accettabile per una spiegazione che ci sembra di trovare già nella somiglianza tra il nostro comportamento e quello della macchina.
A questo si aggiunge il punto 2. L’articolo di M. T. Hicks, J. Humphries e J. Slater[24], menzionato nella sottosezione precedente, propone proprio questa critica a un eventuale adozione dell’intentional stance: se diciamo che un modello linguistico di grandi dimensioni è dotato di intenzionalità, con lo scopo di prevedere il suo comportamento, dobbiamo concludere che tutto ciò che prevediamo è la produzione di stronzate. Inoltre, accettare che un’entità sia dotata di intenzionalità significa accettare che i suoi pensieri abbiano un contenuto, ma un LLM ignora totalmente il legame che questo contenuto dovrebbe avere con il mondo, proprio perché non è capace di tenere traccia delle relazioni semantiche.
Si potrebbe risponde che anche gli esseri umani sono produttori di stronzate. Eppure, non viene messo in dubbio che anche il maggior produttore di enunciati simili sia dotato di intenzionalità e facoltà cognitive. Anzi, è proprio perché le possiede che possiamo spiegarne il comportamento, ad esempio attribuendogli doppi fini. Di conseguenza, l’intentional stance sembra veramente una strada percorribile. Il motivo per cui in realtà non lo è, non è dovuto tanto al fatto che un modello linguistico è in realtà un produttore di stronzate, quanto al fatto che è unicamente un produttore di stronzate: come abbiamo evidenziato nella sezione precedente, ChatGPT dice il vero solamente per fortuna aletica e non perché sia capace di distinguere il vero dal falso. Un modello linguistico di grandi dimensioni non è capace di distinguere il vero dal falso, ma solo di associare la probabilità della parola “vero” e della parola “falso” ad altre parole: l’output sarà vero o falso per caso. Di conseguenza, attribuire proprietà intenzionali ai processi di calcolo implica che nel caso delle macchine l’intenzionalità sia solo un segnaposto, tale per cui possiamo attribuire un contenuto a questo processi, senza tuttavia poter andare oltre e fare alcun ragionamento sulle facoltà cognitive in generale della macchina.
Cosa potrebbe portare una macchina ad avere contenuti mentali? Sicuramente ciò che manca a una macchina e, di conseguenza, anche all’Intelligenza Artificiale, è un corpo: cioè un accesso al mondo, quale che sia la sua forma. D’altronde il rapporto del linguaggio con il mondo non è dovuto a qualche proprietà formale, ma al fatto che gli esseri umani sono animali evolutisi in un determinato ambiente ed è questa evoluzione che giustifica il significato delle espressioni linguistiche. Ma un modello linguistico non ha un corpo e non è soggetto a evoluzione.
Questa e un’altra sono le differenze sostanziali tra esseri umani (e animali in generale) e l’Intelligenza Artificiale. La seconda è che gli esseri umani (e molti altri animali) sono animali sociali. È in contesti sociali che apprendiamo, è in essi che siamo soggetti all’evoluzione. Un modello linguistico non è né un organismo biologico soggetto alle leggi dell’evoluzione, né un animale sociale: non è una persona.
2.3. Etica
Essere una persona significa essere inserito in un contesto normativo in cui il soggetto delle norme ha dei doveri nei confronti degli altri membri. Assumiamo che tra questi doveri si annoverino quello di essere affidabile e quello di essere veridico.
2.3.1. Fiducia
La fiducia è una delle colonne portanti dell’organizzazione sociale, di cui non siamo semplicemente parte come individui, ma premessa, in quanto persone. La fiducia, come spiega Adriano Fabris[25], è quell’atto di negazione della propria capacità di garantire legittimità di una nozione o l’efficacia di un’azione (p. 124). Cioè, fidarsi di qualcun altro significa fare un passo indietro rispetto alla propria autonomia. Ci fidiamo un docente perché crediamo fermamente che egli conosca la disciplina che insegna. Ci fidiamo dell’idraulico per crediamo che l’impianto che sta costruendo funzioni bene. Ci fidiamo di un impiegato della Pubblica Amministrazione perché crediamo che i moduli che firmiamo conducano a una serie di azioni, messe in pratica al fine di rendere effettiva la nostra richiesta (ad esempio, il cambio di residenza). Mancando la fiducia i risultati possono essere due:
- Smettiamo di mettere in pratica alcune azioni che prima consideravamo corrette.
- Smettiamo di credere che queste azioni siano corrette, ma continuiamo a metterle in pratica per altri motivi: ad esempio, perché non abbiamo alternative, oppure perché comportarsi diversamente potrebbe portare a sanzioni di qualche tipo.
Le azioni necessarie a garantire lo stato di affidabilità rientrano generalmente tra i doveri. Per quanto fallibili possiamo essere, ci si aspetta che ognuno di noi sia capace di distinguere il vero dal falso, che eviti di produrre stronzate (sempre inteso come termine tecnico) e che non compia azioni che possono mettere a raschio il benessere psico-fisico delle altre persone. Dove non arrivano le capacità o le possibilità (di vario genere) della singola persona, entrano in gioco le capacità e le possibilità (di vario genere) delle altre persone. Per questo ognuno ricopre un ruolo nella società, tale per cui sia sempre possibile affidarsi ad altri: alla sanità pubblica quando si hanno problemi di salute, all’istruzione pubblica quando si ha bisogno di imparare, eccetera.
Ora, tutti sappiamo che esistono persone che compiono azioni con il preciso intento di agire contro questi principi e potremmo, di conseguenza, concludere che in realtà un’Intelligenza Artificiale come ChatGPT sia un’ottima candidata per appartenere alla categoria di persona. D’altronde sia essa che le persone sono soggette a errori, tra cui la produzione di stronzate. Il problema è quando dall’eccezione si passa alla regola. Se in una persona troviamo caratteristiche prevalentemente negative, concludiamo che non ci possiamo fidare di lei. Lo stesso, secondo noi, dovrebbe accadere con i modelli linguistici.
Questi vengono allenati con una quantità enorme di dati, raccolti dalle più disparate fonti. Per permettere a un modello del genere di elaborare il linguaggio nella maniera più simile possibile agli esseri umani, c’è bisogno di dati di varia natura: dai testi accademici, scritti con il loro linguaggio tecnico, ai messaggi dei social dalla forma più colloquiale. La base è fornita da Common Crawl[26], un’organizzazione no profit che ha iniziato a raccogliere i dati dalla rete nel 2008. Altri dati possono essere aggiunti, ma un problema fondamentale rimane: i modelli linguistici sono soggetti a bias: cioè
pregiudizi, in questo caso derivanti proprio dai dati con cui vengono allenati.
Si potrebbe obiettare che anche gli umani sono soggetti a bias e che questo non sia di base un problema insormontabile. I modelli linguistici, d’altronde, possono essere corretti e migliorati. Questo è vero, ma ci sono almeno due obiezioni:
- Il fatto che anche un essere umano sia soggetto a bias non è in nessun modo una giustificazione. Se ci basassimo su questo per continuare a dar credito all’Intelligenza Artificiale, finiremmo per cadere di nuovo nel falso sillogismo menzionato in precedenza.
- Se accettassimo la conclusione, saremmo in due a essere inaffidabili. Non è questa la prospettiva migliore.
Il problema della fiducia nei confronti dell’Intelligenza Artificiale ci porta di nuovo verso il Test di Turing. Come abbiamo già menzionato più volte, il Test si basa sulla capacità di un soggetto umano di distinguere una macchina da un’altra persona. Si tratta, quindi, della percezione soggettiva che un essere umano ha: di come percepisce se stesso, gli altri esseri umani e un programma complesso come un modello linguistico. Una prospettiva in terza persona, cioè una prospettiva oggettivante, non è sufficiente: c’è bisogno di chiamare in causa la dimensione intersoggettiva, una prospettiva in prima persona plurale.
Purtroppo, sebbene il concetto di persona sia essenzialmente intersoggettivo, la valutazione richiesta durante il Test di Turing non può che basarsi sulla percezione soggettiva. In generale, ci fidiamo di ciò che ci sembra plausibile, ma meno conoscenze abbiamo, meno spirito critico siamo capaci di mettere in pratica. Questo è uno dei fattori chiave che permette a un LLM di passare il Test di Turing. Un altro fattore chiave è dovuto alle domande rivolte al modello: se chiediamo di scrivere la ricetta di una torta, non stupisce che il Test venga superato; se chiediamo un’analisi approfondita di un tema filosofico, difficilmente risulteremo soddisfatti dal risultato. Si potrebbe dire che, in quest’ultimo caso, il mancato superamento del Test è dovuto alla mancanza di informazioni da parte del LLM, ma sarebbe soltanto una petitio principii.
Il problema della fiducia nei confronti dell’Intelligenza Artificiale è di primaria importanza per tutte le ragioni sulle quali abbiamo argomentato fino a ora. Possiamo riassumere tutto nell’idea che l’IA è strutturalmente estranea alla verità. Questo solleva problemi etici di grande importanza, che vengono affrontati ma con risultati parziali e non del tutto soddisfacenti. Le aziende produttrici di modelli linguistici impongono dei freni ai loro prodotti, impedendo loro di trattare specifici argomenti[27]. Tuttavia, si tratta di imposizioni che non migliorano il modello stesso, senza le quali sarebbe comunque libero di trattare di qualunque argomento, dal più sensibile al più controverso. La tendenza è contraria, invece, quando si tratta della produzione di stronzate. I modelli più recenti, infatti, ne producono di più, reiterandone l’affermazione[28].
La fiducia, quindi, è mal posta. A nostro avviso, questa ha ragioni nella storia dello sviluppo tecnologico, soprattutto quello degli ultimi decenni, che ha visto la messa a disposizione di dispositivi sempre più sviluppati e potenti. Ma c’è una differenza sostanziale tra la fiducia nel computer personale e la fiducia nell’Intelligenza Artificiale. Il prima permette di fare molte cose che una persona non potrebbe fare, ad esempio accedere alla rete e permettere di navigare in internet, ma non sostituisce l’attività cognitiva di studiare e comprendere il risultato della ricerca fatta con questo o quel motore di ricerca. Un computer personale permette di scrivere un libro con più facilità rispetto alla scrittura manuale, ma non sostituisce l’attività di scrittura, di progettazione del testo e l’esercizio della fantasia necessaria all’invenzione di un testo di qualità. Un computer personale è intelligente, nel senso limitato dell’intelligenza come sola capacità di risolvere problemi logico-matematici, ma difficilmente penseremmo di applicare il Test di Turing, chiedendoci se un computer che esegue Microsoft Word sia distinguibile o meno da una persona. Non è così per l’Intelligenza Artificiale, che non è soltanto un programma che agevola un certo tipo di lavoro, ma un programma che svolge al posto della persona proprio quelle attività cognitive, di studio, progettazione, comprensione, eccetera, che ci contraddistinguono come esseri umani. L’Intelligenza Artificiale legge un testo al posto tuo, lo riassume al posto tuo e propone sulla base di quello i prossimi passi per lo studio o lo svolgimento di un progetto. Aggiunge informazioni basandosi su un principio di pertinenza di cui non possiamo ripercorrere il processo di formazione, per via della non esplicabilità, di cui abbiamo parlato in precedenza. A questo si aggiungono la già menzionata fortuna aletica.
La fiducia nell’Intelligenza Artificiale nasce dal sempre maggiore utilizzo di strumenti tecnologici, che ci portano a pensare che un modello linguistico sia un programma come un altro. Come abbiamo visto, non lo è. Per quanto banale possa sembrare, è essenziale considerare il paragone tra i programmi di scrittura e i programmi di traduzione che abbiamo utilizzato per molto tempo, consapevoli dell’utilità dei primi e i limiti dei secondi, e un programma come un modello linguistico che non ti aiuta a scrivere, ma scrive e fa inferenze al posto della persona. Questa è la condizione di partenza, che permette ai LLM di superare il Test di Turing, ma questo non dimostra la presenza di intelligenza nella macchina. Al contrario, l’intelligenza viene assunta ancor prima che la si metta in discussione. Se da una parte adottiamo un criterio comportamentista, tale da evitare la postulazione di fantasmi ryleani nella macchina in cui le operazioni del modello linguistico vengono eseguite, dall’altra siamo indotti a pensare che un programma del genere sia intelligente perché è il computer stesso a esserlo. Certo, in alcuni casi il Test non viene superato, ma in una quantità rilevante di casi accade ed è questo il problema.
Come dice Fabris nel summenzionato articolo[29], ci fidiamo delle macchine perché le procedure che applicano restituiscono il risultato che ci aspettiamo. La maggior parte dei programmi che utilizziamo non rendono esplicite le procedure che utilizzano: gli algoritmi fanno parte del codice sorgente, che nella maggior parte dei casi non è pubblico. Tuttavia, è vero che l’utilizzo reiterato dello stesso programma e l’osservazione che il risultato è sempre quello atteso, o quantomeno a esso vicino, ci porta a fidarci. Con l’Intelligenza Artificiale questo criterio non è applicabile: il risultato atteso è riconoscibile solo se svolgiamo lo stesso lavoro, prima di ricevere l’output. Di conseguenza, la valutazione è fallace in prima battuta. Allo stesso tempo, anche se l’Intelligenza Artificiale restituisse sempre il risultato atteso (ammettendo che questo sia determinabile), la fiducia in uno strumento del genere porterebbe a delegare compiti che invece riteniamo siano necessariamente umani. Alcune recenti ricerche mostrano che il prolungato utilizzo dell’Intelligenza Artificiale e la fiducia acritica nei suoi confronti portano a danni cognitivi[30]. Ma emerge anche il problema della responsabilità: chi risponde di quel che faccio, se mi affido totalmente all’Intelligenza Artificiale? Chi è autore di quel che dico e faccio, se ripeto acriticamente ciò che mi dice l’Intelligenza Artificiale? Delegare totalmente a essa significa trasformarci a nostra volta in pappagalli. L’aspetto positivo è che in questo caso il processo sarebbe deterministico e spiegabile: il risultato è dovuto a quanto prodotto dall’Intelligenza Artificiale ed è perfettamente possibile risalire alle condizioni che hanno portato a quel risultato.
2.3.2. Autorità
Il problema dell’autorità (nel senso in cui è autore chi produce qualcosa) emerge chiaramente in alcuni casi realmente verificatisi. Nonostante questi difetti maggiori dei modelli linguistici di grandi dimensioni, alcuni ne fanno uso improprio. Vengono usati come psicologo[31], con sempre più utenti che confidano i propri pensieri e le proprie esperienze al prodotto di un’azienda privata che non necessariamente ha interesse a eliminare i bias, l’eliminazione dei quali richiede capitale e personale dedicati. Sono stati utilizzati da alcuni avvocati, ovviamente con risultati negativi, come punto di riferimento per normativa vigente e la ricerca delle sentenze[32]. È vero che ChatGPT e gli altri modelli linguistici sono stati programmati per riconoscere determinati temi ed evitare di parlarne con troppa leggerezza (come temi relativi alla salute psico-fisica), ma è sempre possibile chiedergli di impersonare una certa figura professionale o chiedergli di parlare come farebbe un certo tipo di personaggio in un racconto. Così diventa possibile avere a disposizione uno psicologo, un professore, un consigliere, eccetera, rischiando di non uscire più dal circolo di bias che affliggono la produzione linguistica del modello. In questo modo, utenti non del tutto consapevoli del fenomeno o non del tutto capaci di affrontarlo possono credere alle stronzate che il modello produce. Il problema si acuisce adesso che molti motori di ricerca - Atlas di OpenAI, che produce ChatGPT; Chrome di Google, che produce Gemini; DuckDuckGo, che utilizza i modelli di OpenAI - sfruttano i modelli linguistici per presunto miglioramento della ricerca. Il rischio è che sempre più utenti finiscano per accettare il prodotto linguistico del modello come risultato affidabile della ricerca. Anche un sito importante come JSTOR ha aggiunto un la possibilità di utilizzare l’Intelligenza Artificiale[33] con il seguente invito:
«Use our AI research tool to assess content relevance and surface key ideas. It can answer questions about what you’re reading and recommend related topics and materials, drawing solely from JSTOR’s journal articles and books.»
Cioè, invita a utilizzare l’Intelligenza Artificiale per fare ciò che dovrebbe fare il lettore: leggere e capire. Il primo problema che emerge è proprio quello dell’autorità, inteso in due sensi: primo, il modello linguistico diventa fonte autorevole di informazioni; secondo, il modello linguistico diventa l’autore di quelle idee che invece dovrebbe sviluppare il lettore. Un altro problema è che questi strumenti potrebbero vedere un utilizzo sempre maggiore perché aiutano a scremare la letteratura, in un sistema accademico in cui è sempre più necessario produrre, finendo però per delegare la comprensione di cosa è opportuno citare all’Intelligenza Artificiale, senza la certezza che il risultato sia lo stesso a cui avrebbe portato la lettura e lo studio del testo da parte di un umano.
Come già menzionato, l’uso prolungato dell’Intelligenza Artificiale porta a problemi cognitivi, con aree del cervello che risultano meno attive. Il fatto che uno dei principali fornitori di testi accademici faccia uso di uno strumento simile solleva importanti problemi etici: prima di tutto proprio per via dei danni che può fare, abbassando la qualità del risultato (a partire dalle tesi degli studenti); secondo, facendo sì che la decisione di cosa si debba leggere e cosa si possa ignorare sia affidata a un’entità che non è un soggetto normativo e, di conseguenza, un’entità a cui non è attribuibile responsabilità.
Qualcuno potrebbe dire che siamo caduti nella fallacia della brutta china, considerando inevitabili le conseguenze che rintracciamo nel percorso che abbiamo intrapreso con l’Intelligenza Artificiale. Tuttavia, se da una parte l’idea che l’uso di questo strumento porti a danni cognitivi è supportata dalla ricerca, dall’altra parte possiamo dire con sicurezza che delegare a essa la lettura e la comprensione dei testi significa fare riferimento all’autorità per la giustificazione di un’inferenza, cioè la decisione che prendiamo quando scegliamo cosa è rilevante per la nostra ricerca e cosa invece può essere ignorato.
Proprio perché l’attività intellettuale è una proprietà distintiva dell’essere umano, è necessario basare il Test di Turing su di essa e non sull’output che produce. Di conseguenza, la somiglianza tra una macchina e un essere umano deve essere misurata su diverse attività e sulla capacità di gestire linguaggi e registri diversi. Chiaramente, dobbiamo scendere a patti con il fatto che è uno strumento in via di sviluppo e non si deve cadere nell’errore di invertire il criterio del Test, sperando che la somiglianza sia già dimostrata da chissà quale meraviglia tecnologica; ma è importante tenere a mente che lo stato attuale genera mostri proprio perché mette a dormire la ragione, sia quella umana che quella eventualmente emergente dalla macchina.
3. Prospettive sociali(ste)
3.1. Intelligenza Artificiale come prodotto commerciale
L’Intelligenza Artificiale, come ogni ente, ha molti aspetti e può essere visto da diverse prospettive (non necessariamente tutte della stessa importanza). Una di queste vede l’Intelligenza Artificiale come prodotto commerciale. Riteniamo importante, infatti, tenere bene in mente il sistema economico in cui essa viene prodotta.
Per quanto l’interesse per l’IA sia reale e legittimo, le aziende che lo producono sono senza dubbio alimentate anche e soprattutto dalle prospettive di profitto. Vale la pena ricordare che ChatGPT è un prodotto di OpenAI, una società finanziata, tra i tanti, da Elon Musk. Certo, è vero che ci sono state controversie legali da quest’ultimo e l’organizzazione, ma questo non implica che un tale finanziamento non sia giustificato dal profitto, fosse anche a lungo termine. A lungo termine, d’altronde, sono tutti i progetti, che prospettano l’evoluzione dell’IA in misura sempre più grande, fino al possibile collasso dell’intera, basati sui GPT di OpenAI. Sebbene quest’ultima sia nata come organizzazione no profit (OpenAI, Inc.), ricordiamo che un’organizzazione di questo tipo si differenzia più per il regime fiscale e la gestione dei fondi che per l’intento finale: infatti, esiste una gemella, OpenAI L.P., a scopo di lucro. La prima, di conseguenza, è nata per gestire i fondi in maniera agevolata, per creare modelli migliori per il profitto della seconda.
Vale la pena ricordare che OpenAI ha ricevuto un totale di 40 miliardi di dollari di finanziamenti e il suo valore complessivo è attestato sui 300 miliardi di dollari. Al secondo posto c’è xAI, produttrice di Grok, legata a X (già Twitter, controllata da Elon Musk), con un finanziamento complessivo di 20 miliardi di dollari. Sotto a queste troviamo Anthropic, che produce Claude, ScaleAI, Databricks e altri[34]. Alcune di queste aziende, collabora con l’esercito statunitense per l’uso dell’Intelligenza Artificiale nell’industria bellica, con centinaia di milioni di dollari in finanziamenti[35].
Il fatto che gli LLM siano prodotti commerciali ovviamente implica la necessità di fare marketing, col fine di diffonderli il più possibile. Il consumo di questi prodotti ha due risvolti: aumentare gli utenti e garantire dati utilizzati per l’allenamento del modello. Non bisogna pensare a questo come a un limite sulla possibilità dell’Intelligenza Artificiale, ma come uno dei motivi per cui all’Intelligenza Artificiale vengono ascritte queste o quelle capacità incredibili. In generale, nessuna delle critiche che abbiamo mosso fino a qui incidono sulla possibilità dell’Intelligenza Artificiale, nemmeno quelle a nostro avviso più incisive sui LLM. Ma ogni critica è stata rivolta con l’intenzione di mostrare i punti deboli di questo tipo di Intelligenza Artificiale. Anche in questo caso, cioè mostrando che l’Intelligenza Artificiale è un prodotto commerciale, vogliamo mostrare un limite: dobbiamo stare in guardia rispetto alle proclamazioni di questo strumento come miracolo creativo. Purtroppo, la storia dell’IA che viene generalmente riportata è la storia di un prodotto intellettuale, frutto del lavoro di accademici: tale
è, ovviamente, ma solo sotto un certo aspetto. Anche la storia che abbiamo fornito noi, all’inizio di questo articolo, ha la stessa forma; è funzionale alle critiche che abbiamo proposto, mostrando l’Intelligenza Artificiale nel suo aspetto più astratto, ma non è sufficiente. Per comprendere a pieno la portata di questo strumento, dobbiamo inserirlo nel contesto sociale, quindi politico ed economico, in cui ci troviamo.
In questa prospettiva, riconosciamo che un prodotto commerciale non è altro che la manifestazione della volontà di un individuo e dell’uso della proprietà privata per creare una fonte di profitto. Nelle sezioni precedenti abbiamo mosso alcune critiche alle capacità dei LLM e abbiamo mostrato i pericoli che derivano dalla troppa fiducia nei loro confronti e nell’uso non regolato che sempre più ne viene fatto. L’uso dei modelli linguistici per l’estrazione di temi da articoli accademici e il riassunto degli stessi è funzionale al profitto per i due motivi che abbiamo appena menzionato: raccolta di dati per l’allenamento del modello, garantendo che questi provengano da fonti diverse (compresi i testi accademici) e diffusione del prodotto, facendo della difficoltà dello studio una fonte di marketing, in un’epoca in cui conta sempre più la produzione di nuovo capitale e sempre meno il tempo necessario alla comprensione di argomenti complessi. In questo senso, il vero valore degli attuali LLM è ben nascosto sotto le luci scintillanti del marketing e del continuo martellare di chi sui social network elogia le capacità di questo o quel modello. È nascosto molto bene anche nella coltre di fumo generata dalla molteplicità di voci di chi elogia e di critica, di chi prospetta il paradiso (per le aziende) e l’inferno (per i lavoratori), garantendo che chi si trova nel mezzo a questo fuoco incrociato non sappia quale sarà l’esito della corsa all’automazione.
Come abbiamo detto in 1.2, la storia dell’Intelligenza Artificiale si intreccia con la storia dell’automazione. Da una parte abbiamo un prodotto venduto come se fosse capace di replicare le facoltà cognitive umane, con tutti i problemi che abbiamo analizzato nel corso di questo articolo, dall’altra abbiamo uno strumento di automazione. Questo aspetto spinge a penetrare più a fondo nelle questioni sociali, economiche e politiche.
3.2. Intelligenza Artificiale come intelletto generale
Nel paesaggio filosofico contemporaneo, le interpretazioni a disposizione per l’Intelligenza Artificiale oscillano tra la molteplicità delle posizioni assumibili nell’ambito della filosofia della mente e del linguaggio e l’univocità e unidirezionalità imposta dall’astrazione matematica. L’unica soluzione, a nostro avviso, per trovare la quadra e tornare con i piedi per terra, è una prospettiva che metta di nuovo al centro il soggetto. La prospettiva che qui vogliamo proporre è quella marxista, in particolare nelle parole di Matteo Pasquinelli, autore di The Eye of the Master[36].
Lo scopo dell’Intelligenza Artificiale, come abbiamo detto nel corso di questo articolo, è di creare una macchina capace di mostrare capacità cognitive generalmente associate agli esseri umani. Ma gli esseri umani sono essenzialmente animali sociali. Di conseguenza, per comprendere la natura dell’Intelligenza Artificiale serve una prospettiva che collochi la questione nella dimensione sociali in cui l’essere umano è definito. Ciò significa che non possiamo prescindere dal contesto storico in cui la società si trova, cercando di ricostruire il percorso che ha portato alla creazione di uno strumento come l’Intelligenza Artificiale, in particolare i LLM. In particolare, questi ultimi mostrano capacità linguistiche, ricostruendo la struttura del linguaggio naturale, che si distingue dai linguaggi formalizzati per la sua natura storico-culturale. Di conseguenza, sembra che non si possa prescindere una prospettiva che collochi la questione nella dimensione sociale.
Questa mossa, ovviamente, potrebbe prendere altre forme e altre direzioni, non necessariamente tirando in ballo il marxismo. Il contesto sociale in cui ci troviamo, in cui dobbiamo collocare la nascita dell’Intelligenza Artificiale, è dominato dalle logiche del capitalismo e l’Intelligenza Artificiale stessa ne è un prodotto. Come abbiamo detto nella sottosezione precedente, è un prodotto commerciale. Ma non è solo questo: è anche un prodotto di una classe dirigente che mira al controllo della società. L’automazione, infatti, la troviamo già nel Leviatano di Hobbes e la vediamo nel concreto nella burocrazia, che è la forma di controllo operata dallo Stato. L’Intelligenza Artificiale è in diretta continuità con questa prospettiva.
Vediamo prima di tutto che l’Intelligenza Artificiale alimenta algoritmi di controllo sui social network e, in generale, sulla pubblicità che troviamo sui siti che visitiamo quotidianamente. Non è una forma di controllo totale: sappiamo che possiamo disattivare il sistema che tiene traccia delle nostre azioni; ma risulta una forma di controllo, anche quando questo sistema è disattivato, perché impone un limite sulle informazioni che ci vengono fornite. L’insieme di prodotti di cui vediamo la pubblicità sarà comunque un sottoinsieme dei prodotti che esistono (a parità di ambito) e, presumibilmente, un sottoinsieme ancor più limitato dei prodotti che potrebbero interessarci. Di conseguenza, l’Intelligenza Artificiale finisce per pensare al posto nostro anche se non la scegliamo direttamente come fonte di informazioni.
Ma questo è solo un effetto dell’automazione. Matteo Pasquinelli va oltre e spiega con chiarezza il ruolo dell’automazione. Qui non vogliamo ripercorrere tutta la sua argomentazione, essendo appunto svolta con chiarezza nel suo testo. Riporteremo soltanto alcuni punti che riteniamo essenziali per la conclusione della nostra disamina.
Nel capitolo 2, dedicato al lavoro di Babbage (che abbiamo menzionato nella sezione 1.2), Pasquinelli mostra come il lavoro svolto dal matematico britannico, predecessore di Turing e da quest’ultimo citato, sia contemporaneamente rivolto all’automazione al calcolo del costo del lavoro, dove la prima è al servizio del secondo. Nella prospettiva della misurazione del lavoro e delle capacità della persona, anche la forma dell’algoritmo riveste un ruolo importante, permettendo di ridurre i problemi a forme più semplici e finite, cioè controllabili. In quest’ottica, la psicometria rappresenta un passo fondamentale: troviamo, infatti, nelle intenzioni che ne muovono lo sviluppo quello di misurare le facoltà cognitive umane, facilitandone la gestione e sfruttarle per la produzione, da parte della classe dirigente. Vale la pena citare le parole di Pasquinelli sul tema (§The automation of psychometrics, or general intelligence):
«The rationale of AI is therefore not only the automation of labour but the reinforcement of these social hierarchies in an indirect way. By implicitly declaring what can be automated and what cannot, AI has imposed a new metrics of intelligence at each stage of its development. But to compare human and machine intelligence implies also a judgement about which human behaviour or social group is more intelligent than another, which workers can be replaced and which cannot. Ultimately, AI is not only a tool for automating labour but also for imposing standards of mechanical intelligence that propagate, more or less invisibly, social hierarchies of knowledge and skill.»
L’Intelligenza Artificiale, in prima istanza, automatizza l’intelletto generale e quindi la conoscenza, seppur con i limiti che abbiamo identificato nelle sezioni precedenti. Se si automatizza la conoscenza, ciò che vogliamo è che il sistema automatico sia capace di raccoglierla da solo, adeguandosi a contesti di incertezza. Questo è ciò per cui è nato il machine learning, cioè la capacità della macchina di automatizzare il processo di apprendimento. Quindi, come dice Pasquinelli stesso (§The automation of automation), l’Intelligenza Artificiale è automazione di automazione. In questa prospettiva, la conclusione che egli stesso trae è che l’Intelligenza Artificiale svolga un lavoro manageriale, andando a sostituire non tanto i lavoratori, che invece aumentano e con ruoli sempre più precari, quanto i dirigenti.
D’altronde, l’Intelligenza Artificiale è alimentata da modelli statistici, che a loro volta servono per trovare regolarità nei dati analizzati, così che si possano fare previsioni sui dati futuri. Le pratiche decisionali svolte dai dirigenti aziendali si basano proprio sulla statistica e sulle ricerche di mercato. Di conseguenza, un sistema che si occupa di raccogliere automaticamente e autonomamente i dati e di analizzarli, sarà anche capace di prendere decisioni autonomamente, andando a sostituire proprio chi è ai vertici delle gerarchie. L’Intelligenza Artificiale incarna idealmente (perché, come abbiamo visto, ha dei limiti) la gerarchia su cui si basa il capitalismo, tranne forse per la limitata oligarchia di coloro che hanno sufficiente capitale per decidere chi deve essere sostituito e chi no.
Conclusione
In conclusione, vogliamo riprendere le definizioni di Intelligenza Artificiale fornire all’inizio dell’articolo per rivederne brevemente la portata. Abbiamo visto che l’Intelligenza Artificiale e, in particolare, gli LLM sono pensati come dei sistemi di riproduzione e automazione delle facoltà cognitive umane. L’approccio marxista di Pasquinelli ci ha permesso di comprendere più a fondo il ruolo dell’IA nel contesto socio-economico capitalista ed è proprio grazie a questo approccio che possiamo comprendere meglio le critiche che abbiamo mosso nella seconda sezione. Le due macro-critiche proposte riguardano una la mente e il linguaggio, l’altra alcune questioni etiche che derivano la prima macro-categoria. Possiamo riassumere in questo modo. I modelli linguistici non comprendono il linguaggio e non hanno stati mentali ai quali attribuire proprietà intenzionali, ma da questo deriva che non sono membri legittimi della comunità linguistica di cui, invece, gli esseri umani fanno parte. Non essendo parte di questa comunità, non sono persone, sebbene il Test di Turing sia ormai facilmente superabile dai migliori modelli linguistici e dia adito alla credenza contraria. Come abbiamo visto nella sottosezione precedente, la prospettiva di automazione del lavoro da parte dell’Intelligenza Artificiale comporta, in linea di principio, la sostituzione non tanto di chi svolge lavori di più basso livello (nella scala imposta dall’ideologia capitalista), quanto di chi svolge mansioni gestionali e dirigenziali. La conseguenza, ipotetica e basata su una visione parossistica dell’imposizione dell’Intelligenza Artificiale, è che le classi subalterne smettano di essere interlocutori e che quindi siano del tutto esclusi dalla comunità linguistica, smettendo di essere persone.
Ovviamente si tratta di una deriva dovuta al sistema economico e politico attualmente in vigore. Prospettare una situazione diversa implica l’adozione di un sistema diverso, che non è semplice come utilizzare l’IA solo là dove sia davvero opportuno farlo. Nel migliore dei mondi possibili, probabilmente, questo strumento è in mano alla collettività e viene impiegato per il suo sviluppo.
Riferimenti bibliografici
D. Abramson. “Descartes’ influence on Turing”. Studies in History and Philosophy of Science Part A, 42(4):544–551, 2011.
E. M. Bender, T. Gebru, A. McMillan-Major, and S. Shmitchell. “On the dangers of stochastic parrots: Can language models be too big?” In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, FAccT ’21, page 610–623, New York, NY, USA, 2021. Association for Computing Machinery.
S. Bringsjord, N. S. Govindarajulu. “Artificial Intelligence”. Stanford Encyclopedia of Philosophy, 2018. URL https://plato.stanford.edu/entries/artificial-intelligence/.
Chief Digital and Artificial Intelligence Office. CDAO Announces Partnerships with Frontier AI Companies to Address National Security Mission Areas, 2025. URL https://www.ai.mil/latest/news-press/pr-view/article/4242822/cdao-announces-partnerships-with-frontier-ai-companies-to-address-national-secu/.
Common Crawl: https://commoncrawl.org/.
Britannica, “Artificial Intelligence”, 2025: https://www.britannica.com/technology/artificial-intelligence.
Corriere della Sera. “L’avvocato in aula a New York con ChatGPT, che si sbaglia e cita sentenze fasulle”, 2023: https://www.corriere.it/esteri/23_maggio_28/avvocato-aula-new-york-chatgpt-che-si-sbaglia-cita-sentenze-fasulle-e2d8ad88-fd80-11ed-8aba-45a422ecf4be.shtml.
Corriere della Sera. “Milano, prepara ricorso al tar con l’intelligenza artificiale e cita sentenze inesistenti: avvocato a rischio censura. i giudici: «condotta sleale»”, 2025: https://milano.corriere.it/notizie/cronaca/25_ottobre_25/milano-prepara-ricorso-al-tar-con-l-intelligenza-artificiale-e-cita-sentenze-inesistenti-avvocato-a-rischio-censura-i-giudici-370ba29d-beab-4e76-98b5-c1de30509xlk.shtml.
D. Dennett. The Intentional Stance. MIT Press, 1987.
A. Fabris. “Can We Trust Machines? The Role of Trust in Technological Environments”, pages 123–135, 2020, in A. Fabris (a cura di), Trust: a philosophical approach, Springer.
H. G. Frankfurt. On Bullshit. Princeton University Press, 2005.
M. Gerlich. “AI tools in society: Impacts on cognitive offloading and the future of critical thinking”. Societies, 15(1), 2025.
E. L. Gettier. “Is justified true belief knowledge?”, Analysis, 23(6):121–123, 1963.
Internet Encyclopedia of Philosophy, “Artificial Intelligence”: https://iep.utm.edu/artificial-intelligence/.
M. T. Hicks, J. Humphries, and J. Slater. “Chatgpt is bullshit”. Ethics and Information Technology, 26:1–10, 06 2024.
Humai. “Top 10 AI startups with the most funding in 2025: A comprehensive analysis”, 2025: https://www.humai.blog/top-10-ai-startups-with-the-most-funding-in-2025-a-comprehensive-analysis/.
IlPost. “Chatgpt viene usato anche come psicologo”, 2025: https://www.ilpost.it/2025/05/06/chatgpt-psicologo-psicoterapia/.
C. R. Jones and B. K. Bergen. “Large language models pass the turing test”, 2025: https://arxiv.org/abs/2503.23674.
JSTOR. JSTOR’s AI research tool: https://about.jstor.org/research-tool/.
N. Kosmyna, E. Hauptmann, Y. T. Yuan, J. Situ, X.-H. Liao, A. V. Beresnitzky, I. Braunstein, and P. Maes. “Your brain on chatgpt: Accumulation of cognitive debt when using an ai assistant for essay writing task”, 2025: https://arxiv.org/abs/2506.08872.
- S. McCulloch and W. Pitts. “A logical calculus of the ideas immanent in nervous activity”. Bulletin of Mathematical Biology, 52:99–115, 1990.
Open. “Usa ChatGPT per il processo ma il chatbot si inventa le sentenze della cassazione: l’imbarazzo per un avvocato fiorentino”, 2025: https://www.open.online/2025/04/05/firenze-avvocato-chatgpt-processo-inventa-sentenze-cassazione/.
Parlamento Europeo. “Che cos’è l’intelligenza artificiale?”: https://www.europarl.europa.eu/topics/it/article/20200827STO85804/che-cos-e-l-intelligenza-artificiale-e-come-viene-usata.
M. Pasquinelli. The Eye of the Master. Verso Books, 2024.
C. S. Peirce. Opere. Bompiani, 2011.
- R. Pierce. La teoria dell’informazione. Simboli, codici, messaggi. Edizioni scientifiche e tecniche Mondadori, 1963.
- Rosenblatt. “The perceptron: a probabilistic model for information storage and organization in the brain”. Psychological review, 65 6:386–408, 1958.
W. Sellars. “Empiricism and the philosophy of mind”. Minnesota Studies in the Philosophy of Science, 1:253–329, 1956.
- E. Shannon. “A mathematical theory of communication”. The Bell System Technical Journal, 27(3):379–423, 1948.
Treccani. “Intelligenza artificiale”: https://www.treccani.it/enciclopedia/intelligenza-artificiale/.
- M. Turing. “Computing machinery and intelligence”. Mind, 59(236):433–460, 1950.
- Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser, and I. Polosukhin. “Attention is all you need”, 2017: https://arxiv.org/abs/1706.03762.
* Nato e cresciuto nell'entroterra fiorentino, dopo le superiori studia Filosofia presso l’Università di Pisa, approfondendo temi di filosofia analitica e scrivendo una tesi in filosofia del linguaggio, logica e ontologia formale. Attualmente lavora come programmatore, continuando a coltivare l’interesse per la filosofia, soprattutto in relazione alla programmazione e all’intelligenza artificiale.
[1] Treccani, Intelligenza Artificiale.
[2] Parlamento Europeo, “Che cos’è l’intelligenza artificiale?”.
[3] Internet Encyclopedia of Philosophy, Artificial Intelligence.
[4] Britannica, Artificial Intelligence.
[5] Stanford Encyclopedia of Philosophy, Artificial Intelligence.
[6] Turing (1950).
[7] Shannon (1948).
[8] McCulloch and Pitts (1990).
[9] Rosenblatt (1958).
[10] Vaswani et al. (2017).
[11] Abramson (2011).
[12] “Can digital computers think?”, in B. J. Copeland (a cura di), The Essential Turing. Oxford University Press.
[13] Il riferimento qui è al tema dell’explanable AI, che esula dagli argomenti di cui vogliamo trattare in questa sede e non incide sulle conclusioni che vogliamo trarre.
[14] Pierce (1963).
[15] Peirce (2011), §4.537, p. 220.
[16] Corsivi nell’originale.
[17] In particolare, in Jones and Bergen (2025) gli autori fanno riferimento al modello 4.5. Il modello utilizzato per l’esercizio appena presentato è il 5.1.
[18] Bender et al. (2021).
[19] Frankfurt (2005).
[20] Hicks et al. (2004).
[21] Problema analogo a quello della fortuna epistemica, come in Gettier (1963).
[22] Sellars (1956).
[23] Dennett (1987).
[24] Hicks et al. (2024).
[25] Fabris (2020).
[26] Common Crawl.
[27] Questi freni sono specificati nelle politiche d’uso. Ad esempio, quelle di OpenAI per ChatGPT:
https://openai.com/it-IT/policies/usage-policies/?utm_source=chatgpt.com.
[28] https://www.newsguardtech.com/ai-monitor/august-2025-ai-false-claim-monitor/.
[29] §4.
[30] Kosmyna et al. (2025); Gerlich (2025).
[31] IlPost (2025).
[32] Qui alcune notizie: Corriere della Sera (2025), Corriere della Sera (2023), Open (2025).
[33] Il modello a disposizione di JSTOR è GPT-4o-mini: JSTOR.
[34] Humai (2025).
[35] Chief Digital and Artificial Intelligence Office (2025), fonte governativa statunitense.
[36] Pasquinelli (2024).
