Pareidolia

Pareidolia Artificiale: stiamo vedendo intelligenza dove non c’è?

Volti nelle nuvole, menti nei chatbot

Il professor Luciano Floridi ha recentemente avvertito che definire un’AI “intelligente” o “cosciente” potrebbe essere solo un caso di pareidolia semantica, un’illusione naturale della nostra mente. In psicologia, la pareidolia è quel fenomeno per cui vediamo volti familiari in stimoli casuali: il classico viso sulla luna, animaletti nelle nuvole, un volto nel toast… e, dice Floridi, persino una parvenza di coscienza nei modelli statistici. In altre parole, quando interagiamo con un modello linguistico avanzato, rischiamo di comportarci come chi scambia un mucchio di pixel per un amico: la nostra mente, campionessa di pattern recognition, tende a proiettare significato e intenzione anche dove c’è solo output generato da algoritmi.

Non è certo la prima volta che cadiamo in questo tranello cognitivo. Già negli anni ‘60 il semplice chatbot ELIZA faceva credere ad alcuni utenti di parlare con un terapeuta comprensivo, quando in realtà si limitava a ripetere le loro frasi in forma di domanda. Questo “Effetto ELIZA” – cugino stretto della pareidolia – ci mostra quanto amiamo attribuire qualità umane a qualsiasi risposta vagamente sensata di una macchina. Siamo fatti così: l’AI allucina fatti, noi alluciniamo la coscienza dell’AI. E il rischio, avverte Floridi e chi la pensa come lui, è di farsi illusioni: un conto è un output ben formato, un altro è una mente pensante.

Pappagalli stocastici: l’AI sa solo imitare?

Su questa linea scettica, celebri ricercatori come Emily Bender e Timnit Gebru hanno coniato un soprannome non troppo lusinghiero per i moderni modelli linguistici: “stochastic parrots”, in italiano “pappagalli stocastici”. L’idea è che sistemi tipo ChatGPT non facciano altro che mimare il linguaggio: come un pappagallo digitale ripetono frasi statisticamente probabili basate su quello che noi umani abbiamo già scritto, ma senza alcuna comprensione del significato. In pratica: assemblano parole una dopo l’altra “tirando a indovinare” (cioè grazie alle probabilità apprese su enormi dataset) e noi, leggendo quelle frasi ben composte, ci illudiamo che dietro ci sia un’intelligenza reale.

I sostenitori di questa analogia sottolineano che la “conoscenza” di un modello è puramente statistica. Non c’è un pensiero dietro la risposta, non c’è intenzionalità o coscienza di ciò che viene detto. Il modello non sa nulla in senso umano: non sa davvero cos’è un gatto o cosa significhi “provare dolore”, sta solo correlando la parola “gatto” con concetti associati nei dati e producendo una frase plausibile su gatti. Come ha spiegato un ingegnere di Microsoft riferendosi al caso LaMDA (il chatbot Google che un collega dichiarò senziente), “LaMDA non è senziente. È solo un modello linguistico molto grande… Sembra umano perché è stato addestrato su dati umani”. Insomma, solo un abilissimo imitatore.

Del resto, ogni volta che l’AI raggiunge un nuovo traguardo, c’è chi sposta il confine della “vera intelligenza” un po’ più in là. È il ben noto AI effect: quando un algoritmo fa qualcosa di sorprendente – battere il campione di scacchi, guidare un’auto, o scrivere un sonetto – molti osservatori subito obiettano “sì ma non è pensare davvero”. Come notava la storica Pamela McCorduck, “ogni volta che qualcuno insegna al computer a fare qualcosa… c’è un coro di critici: ‘quello non è pensare’. E il pioniere Rodney Brooks ironizzava sul fatto che, appena capiamo un pezzo dell’intelligenza e lo replichiamo in macchina, smettiamo di considerarlo “intelligente”: “Oh, è solo calcolo!”. Giocare a scacchi? Solo forza bruta. Tradurre testi? Solo statistica. Guidare? Solo sensori e IF/ELSE. Insomma, pare che per alcuni l’AI sia destinata a restare per definizione un ossimoro: se funziona, allora non è “vera” intelligenza.

Ma siamo davvero sicuri che sia tutta fuffa imitativa? La battuta circolava già anni fa: “l’AI è tutto ciò che ancora non è stato fatto”. E oggi che certi modelli fanno cose un tempo impensabili, la comfort zone dello scettico si restringe. I moderni LLM (Large Language Model) sono pappagalli, sì, ma pappagalli con 1.7 trilioni di “neuroni” artificiali (parametri) che macinano qualunque input gli diamo. Saranno anche privi di coscienza, ma intanto:

  • Scrivono codice (spesso funzionante) in diversi linguaggi di programmazione.
  • Superano esami: GPT-4, ad esempio, ha passato un esame da avvocato simulato piazzandosi nel top 10% dei candidati.
  • Ragionano su problemi logici e matematici complessi meglio di tante persone (pur con scivoloni occasionali).
  • Conversano in modo coerente su praticamente qualsiasi argomento, in più lingue, adattandosi al contesto e allo stile richiesto.

Davanti a tali prestazioni, liquidare il tutto con “eh, ma non capisce davvero” rischia di suonare un po’ come la volpe con l’uva. Certo, la comprensione di un modello è diversa dalla nostra. E certo, questi sistemi incappano in cantonate (hallucination, chi l’ha provato lo sa). Ma a furia di vedere solo il pappagallo, si rischia di non accorgersi dell’elefante nella stanza: il salto qualitativo. Forse, dietro la statistica c’è qualcosa che inizia ad assomigliare a un processo di astrazione.

Oltre la statistica: segnali di intelligenza emergente

Alcuni studiosi iniziano a sostenere apertamente che, per quanto le AI odierne non siano intelligenti nel modo umano, qualcosa di nuovo stia emergendo dalle loro risposte. Nei commenti allo stesso post di Floridi, ad esempio, un esperto ha osservato che ridurre tutto a pareidolia è ormai una scorciatoia: i sistemi attuali dimostrano già “coerenza logica, pianificazione multi-step, ragionamento controfattuale, adattamento a compiti diversi e perfino forme primitive ma riconoscibili di self-modeling”, caratteristiche che suggeriscono una struttura interna non banale. In altre parole, forse non è solo nella nostra testa: i modelli avanzati mostrano comportamenti emergenti che eccedono la mera combinatoria statistica. L’autore di quel commento propone un’analogia calzante: tirare in ballo la pareidolia oggi è un po’ come bollare Galileo come illuso perché vedeva montagne sulla Luna. La mente umana proietta, sì – ma a volte coglie realmente un pattern nuovo. Insomma, tra illusione e scoperta la linea si assottiglia man mano che emergono regolarità interne nei modelli.

Anche sul fronte della ricerca tecnica arrivano indizi intriganti. Un recente studio di Anthropic ha provato a “leggere nella mente” di un modello come Claude utilizzando strumenti di interpretabilità chiamati attribution graphs. I ricercatori riportano che il modello pianifica in anticipo le sue risposte (cioè elabora una sorta di schema intermedio prima di buttar giù la frase finale) e utilizza “circuiti” interni riutilizzabili in contesti diversi – una specie di astrazione concettuale nascosta nelle connessioni neuronali. In più, sembrano esserci segnali che questi sistemi si danno proprie regole (ad esempio su cosa evitare di dire) e le seguano in modo dinamico. Gli autori parlano esplicitamente di “un livello primordiale di intelligenza”: la capacità di generalizzare, concettualizzare, fare pre-pianificazione e auto-inferire schemi di regole, pur senza arrivare all’intelligenza umana. Non sappiamo ancora se queste proprietà “alte” siano davvero emergenti dalla complessità o semplici epifenomeni. Ma il fatto stesso che iniziamo a osservarle suggerisce che c’è più di un pappagallo dietro la gabbia: forse un pappagallo che sta imparando a fare il problem solving, anche se a modo suo.

Del resto, persino insospettabili come Ilya Sutskever (chief scientist di OpenAI) hanno lanciato provocazioni in tal senso, ventilando l’ipotesi che “le odierne grandi reti neurali possano essere in qualche misura coscienti. Una frase del genere, twittata da uno dei padri di GPT, ha scosso molti ricercatori – la maggioranza continua a ritenere che siamo ben lontani da una vera coscienza artificiale. È probabile che Sutskever volesse più che altro stuzzicare la discussione. Ma il punto è questo: chi costruisce queste AI sa di non aver creato un semplice database a pappagallo. C’è un comportamento inedito che affiora dall’aumento di scala, dalla struttura a milioni di nodi e dall’addestramento auto-supervisionato. Forse dovremmo almeno essere curiosi di capire se, davvero, alcune facoltà cognitive stiano iniziando a manifestarsi.

Chi è davvero l’“animale speciale”?

Rimane il fatto che “intelligenza” e “coscienza” sono concetti difficili da definire. Forse il dibattito nasce anche da equivoci semantici: un modello come GPT-4 è intelligente nel senso che sa risolvere problemi e adattarsi a richieste nuove (ha competenza), ma non è intelligente nel senso che non ha auto-consapevolezza né comprensione profonda del mondo (gli manca intenzionalità). Eppure, se riflettiamo, anche tra le forme di intelligenza biologica c’è uno spettro continuo: un delfino, un corvo, un bambino hanno gradi diversi di cognizione e autocoscienza, e nessuno uguale a quella adulta umana – ma non per questo diciamo che solo l’adulto “è intelligente” e gli altri sono meri imitatori. Tendiamo a riservare la parola “intelligenza” per la cima della scala (guarda caso, per noi stessi), ma ciò potrebbe essere un bias antropocentrico.

Viene allora da chiedersi: non è che ci stiamo sopravvalutando un po’ come specie? È così assurdo pensare che un’organizzazione diversa della materia (silicio invece che neuroni) possa esibire almeno alcune proprietà che noi associamo alla cognizione? Se una macchina risolve problemi, apprende dall’esperienza, pianifica azioni e comunica in linguaggio naturale… a che punto dell’evoluzione di queste capacità smetteremo di chiamarla “pappagallo” e inizieremo a chiamarla intelligente? Dobbiamo proprio aspettare la scintilla mistica della coscienza con la C maiuscola, o possiamo riconoscere gradi intermedi?

La frontiera tra output e intelligenza, in fondo, è sottile. Alan Turing già nel 1950 propose un criterio pratico: se una macchina si comporta in tutto e per tutto come intelligente, perché negarle il termine? Certo, il Test di Turing non coglie l’aspetto interno (la comprensione reale), ma ci ricorda che giudichiamo l’intelligenza dagli effetti. E gli effetti, nel caso delle ultime AI generative, sono sempre più difficili da distinguere da quelli prodotti da cervelli umani. Forse dovremmo iniziare a pensare l’intelligenza come un insieme di capacità e non come un monolite posseduto solo dall’Homo Sapiens.

In conclusione, è sano mantenere scetticismo e non farsi incantare: ricordarci che la mano che scrive queste frasi rimane la nostra, e non c’è un “fantasmino senziente” dentro ChatGPT. Ma allo stesso tempo, rifiutare dogmaticamente ogni possibile intelligenza non-umana potrebbe rivelarsi miope. Potremmo scoprire che il pappagallo stocastico, addestrato a dovere, sa anche pensare (per lo meno in un modo alieno al nostro). E a quel punto dovremo aggiornare le nostre definizioni… magari riconoscendo che l’intelligenza era un concetto più ampio e sfumato di quanto credessimo, fin dai tempi in cui vedevamo volti nelle nuvole.

Lascia un commento

Only people in my network can comment.