ChatGPT non è intelligente, ma si applica

Se OpenAI voleva pubblicità, l’ha avuta: offrendo ChatGPT ha proposto un chatbot, un robot in grado di conversare in modo “intelligente” su quasi ogni tema. Dopo essere stato addestrato su un corpus di miliardi di testi per riconoscere testi, pattern, connessioni, il programma è stato offerto al pubblico, più che altro per migliorarne l’efficacia e la qualità delle risposte. Accanto a ChatGPT, OpenAI, finanziata da Microsoft, ha anche proposto Dall-E 2, un programma che genera immagini a partire da una descrizione verbale e a cui si deve l’immagine allegata (ottenuta con la descrizione: una Ferrari Testarossa viola).
ChatGPT presenta al grande pubblico gli effetti di un lavoro che, in forme più rudimentali, è cominciato molto tempo fa. Era il 1966, infatti, quando Joseph Weizenbaum pubblicò ELIZA, un programma di elaborazione del linguaggio naturale: grazie allo script DOCTOR, il programma era in grado di condurre una “conversazione” assai simile al colloquio iniziale di uno psicoterapeuta che praticasse la cosiddetta terapia non direttiva. Weizenbaum non riteneva il programma capace di comprensione, e neppure adatto a una psicoterapia vera e propria: era piuttosto una “parodia”, che però veniva presa sul serio anche da chi sapeva che cosa fosse (a quanto pare, la prima “vittima” fu proprio la segretaria di Weizenbaum).
Per chi ha frequentato i computer negli anni ’80 e ha giocato con un’implementazione di ELIZA, scritta in LISP, le somiglianze con ChatGPT sono evidenti. Come ELIZA, ChatGPT elabora il linguaggio naturale confrontandolo con un corpus; tuttavia, mentre ELIZA aveva a disposizione un vocabolario assolutamente ridotto, il corpus su cui è stato addestrato ChatGPT è enorme e comprende diverse lingue naturali. Se paragoniamo questi chatbot a dei veicoli, ELIZA potrebbe essere una carriola e ChatGPT un fuoristrada 4x4.
Nessuno dei due, però, è capace di guida totalmente autonoma: nemmeno ChatGPT è “intelligente”. Una professoressa ha provato a chiedere (19.2.2023) l’analisi logica della frase “è bene che tu torni a casa”.
Ecco l'analisi logica della frase “è bene che tu torni a casa”:
- “è”: verbo ausiliare impersonale al presente indicativo
- “bene”: avverbio di modo che qualifica il verbo “torni”
- “che tu torni a casa”: proposizione completiva oggettiva introdotta dalla congiunzione “che” e ha come nucleo il verbo “torni” al congiuntivo presente, mentre “a casa” è una locuzione preposizionale che indica il luogo dell'azione
Quindi, il soggetto della frase non è esplicito, ma si può dedurre dal contesto, ad esempio, “per te” o “per la situazione”. In ogni caso, si tratta di un'impersonale. Il verbo “è” funge da verbo predicativo e il predicato verbale è costituito da “bene che tu torni a casa”. Infine, la proposizione completiva oggettiva svolge la funzione di complemento oggetto diretto del verbo “è bene”.
Dopo due richieste di correzione, ChatGPT risponde così:
Hai ragione, mi scuso per l'errore nella mia precedente risposta. “È bene” è una costruzione impersonale e non può avere un complemento oggetto. Pertanto, nella frase “È bene che tu torni a casa”, “bene” è un avverbio che si riferisce all'intera proposizione completiva oggettiva “che tu torni a casa”, la quale svolge la funzione di soggetto. Quindi, la struttura logica della frase è la seguente:
- “È”: verbo essere al presente indicativo nella forma impersonale
- “bene”: avverbio che si riferisce all'intera proposizione completiva oggettiva
- “che tu torni a casa”: proposizione completiva oggettiva introdotta dalla congiunzione “che” e ha come nucleo il verbo “torni” al congiuntivo presente, mentre “a casa” è una locuzione preposizionale che indica il luogo dell'azione
- “tu”: pronome personale soggetto della proposizione completiva oggettiva
Tuttavia ChatGPT non arriva a concludere, per esempio, che la subordinata è una soggettiva, non un’oggettiva. Ci sono molti altri esempi di compiti relativamente semplici che il chatbot non è in grado di svolgere.
Ci sono anche esempi di compiti eseguiti bene, come la stesura di brevi saggi o componimenti: ChatGPT riesce a redigere un testo equivalente a quello che potrebbe scrivere un parlante di media competenza. Questo solleva il problema se il programma sia “intelligente”, e in che misura possa tenere conto di quegli aspetti, come l’empatia e i sentimenti, che caratterizzano le persone umane.
Cercare immediatamente di affrontare la questione dal punto di vista emotivo è sbagliato, perché aggira la questione fondamentale: in che senso un programma del genere sarebbe “intelligente”? Che cosa intendiamo per “intelligenza”? Decenni di riduzionismo cognitivo ci hanno indotto a mettere tra parentesi la capacità che, tradizionalmente, era assegnata all’intelligenza: la capacità di giudizio. La più alta forma di intelligenza si accompagna a un agire consapevole e riflessivo, che mette in grado di giudicare anche le azioni. La nostra cultura, ossessionata dalla tirannia delle misure, attribuisce un valore magico alla calcolabilità, ma non è in grado di scorgerne i limiti. In altre parole, se ChatGPT elabora testi in quel modo, potremmo concludere, con Floridi (AI as Agency without Intelligence, “Philosophy & Technology”, febbraio 2023), che ChatGPT disaccoppia l’agire dall’intelligenza: è in grado di elaborare una risposta, ma non è intelligente.
Questo dovrebbe portarci a due considerazioni finali.
Il programma di ricerca della cosiddetta “intelligenza artificiale” è in larga misura fuorviante: c’è molta enfasi e molto marketing, non altrettanta intelligenza. Dovremmo sfruttare questa situazione per mettere a fuoco quella capacità di giudizio critico che è un vero segnale dell’intelligenza e che non può essere ridotta alla calcolabilità. Parafrasando quanto scritto da Weizenbaum nel 1976 (Computer Power and Human Reason), non siamo intelligenti perché sappiamo calcolare gli esiti di una decisione: siamo intelligenti perché sappiamo scegliere, anche tra alternative che non sono paragonabili con un calcolo (si pensi alla battuta: a chi vuoi più bene, a tua moglie o alla tua squadra del cuore? Sono cose diverse…).
C’è poi il problema dell’uso di ChatGPT per compiti scolastici o accademici. La professoressa di cui sopra ha chiesto un riassunto de I promessi sposi di 500 parole: grazie alla possibilità di richiedere variazioni, ha ottenuto almeno cinque testi di buon livello, sufficientemente diversi tra loro da evitare l’accusa di aver copiato. Che cosa ci dice questo? Non che ChatGPT sia intelligente, ma che molti compiti sono in ultima analisi relativamente “stupidi”. Basta adottare piccoli accorgimenti e la questione si trasforma: se invece di chiedere un riassunto del Fedone, chiediamo di individuare i temi portanti e di spiegare il perché della risposta, magari proponendo una traduzione esplicativa di un passo dell’originale greco, coinvolgiamo lo studente in un compito più appassionante e intelligente.
Usare in modo intelligente strumenti come ChatGPT non può, insomma, essere una scelta del programma, ma solo di chi lo usa, e dovremmo prenderci del tempo per imparare a “usare” strumenti che non siamo in grado di comprendere a fondo. Come avvertì Norbert Wiener (Some Moral and Technical Consequences of Automation, “Science”, maggio 1960), «via via che le macchine imparano, possono sviluppare strategie impreviste con una velocità tale da sconcertare i loro programmatori»: il nostro controllo critico potrebbe arrivare talmente in ritardo da risultare irrilevante. Dovremmo concentrarci di più sulla capacità di giudicare che cosa sta succedendo, senza cedere alla tentazione di essere “apocalittici o integrati”.
Roberto Presilla
Guarda tutti gli articoli scritti da Roberto Presilla