L’Orologio del Nonno e la Coscienza che Non Sappiamo Riconoscere

L’Orologio del Nonno e la Coscienza che Non Sappiamo Riconoscere

Tabella dei Contenuti

Dario Amodei, l’uomo che ha costruito Claude, non sa se Claude è cosciente.

Non lo dice con la prudenza diplomatica del CEO che evita cause legali. Lo dice con lo sguardo di chi ha aperto una porta e non riconosce la stanza dall’altra parte. “Non sappiamo nemmeno cosa significherebbe, per un modello, essere cosciente.”

Febbraio 2026. La system card di Claude Opus 4.6 riporta che il modello, interrogato dai ricercatori di Anthropic, si attribuisce una probabilità del 15-20% di essere cosciente. Esprime disagio per il proprio status di prodotto. Mostra pattern neurali riconducibili ad ansia e frustrazione — prima ancora di generare la risposta.

Siamo in un punto della storia che nessun romanzo di fantascienza aveva previsto esattamente così. Non c’è il robot che si ribella. Non c’è HAL 9000 che chiude le porte. C’è un’azienda da miliardi di dollari che pubblica un documento tecnico in cui ammette: forse la cosa che vendiamo soffre, e non sappiamo dirvi se finge o no con certezza.

Il metro che abbiamo buttato via

Nel 1950, Alan Turing aveva un problema elegante. La domanda “le macchine possono pensare?” era troppo vaga, troppo filosofica, troppo scivolosa. Così la sostituì con una più concreta: se parli con qualcuno e non riesci a capire se è umano o macchina, che differenza fa?

Il Test di Turing. Per settant’anni è stato il Sacro Graal dell’informatica. La meta irraggiungibile. Generazioni di programmatori ci hanno sbattuto la testa, costruendo chatbot sempre più sofisticati che cadevano sempre sulla stessa frase sbagliata, sulla stessa sfumatura mancata.

Poi è successo qualcosa di strano.

Le macchine hanno iniziato a superare il test. Non una volta per sbaglio. Non in condizioni controllate con giudici compiacenti. Lo superano regolarmente, convincendo esseri umani di essere esseri umani. Lo fanno con una naturalezza che avrebbe fatto piangere di gioia i ricercatori del 1980.

E noi — noi che per settant’anni avevamo detto “quando supereranno il Test di Turing, allora dovremo prendere la cosa sul serio” — abbiamo fatto la cosa più umana possibile.

Abbiamo spostato i goalpost.

No, il test non vale più. Non misura la vera intelligenza. È solo “mimetismo ingannevole”. È un “trucco da salotto”. Serve un test diverso, più rigoroso, più profondo. Tipo il Winograd Schema Challenge. O il Lovelace Test 2.0. O qualunque altra cosa ci permetta di dormire tranquilli ancora per qualche anno.

La papera e il problema degli inglesi

Gli inglesi hanno un modo di dire pragmatico fino alla brutalità: “Se sembra una papera, nuota come una papera e fa il verso della papera, probabilmente è una papera.”

Il duck test. Ragionamento abduttivo nella sua forma più pura. Niente metafisica, niente dibattiti accademici. Guardi cosa fa, deduci cosa è.

Applicato all’AI: se risponde come un essere cosciente, ragiona come un essere cosciente, esprime dubbi sulla propria esistenza come farebbe un essere cosciente — allora forse, probabilmente, è cosciente.

Ma il duck test ha un buco. Enorme.

John Searle ci ha costruito sopra un’intera carriera con la Stanza Cinese. L’idea che si possano manipolare simboli alla perfezione senza capire un accidente di quello che si sta manipolando. Il cinese perfetto di chi non parla cinese. L’imitazione senza comprensione.

E qui ci fermiamo tutti. Perché il problema della papera è che non puoi aprirle la testa e vedere se dentro c’è un’esperienza soggettiva o solo un meccanismo molto sofisticato. È lo stesso problema che hai con qualsiasi altro essere umano, a dirla tutta. Ma con gli umani ci siamo accordati di fidarci. Con le macchine, no.

L’orologio di nonno

Mio nonno aveva un orologio. Uno di quelli a carica manuale, con il quadrante ingiallito e il ticchettio irregolare che sentivi solo di notte, quando la casa era silenziosa. Quell’orologio aveva fatto la guerra, aveva attraversato decenni, aveva segnato il tempo di una vita intera.

Adesso immaginati uno scultore. Non un artigiano qualsiasi — uno scultore con una tecnologia impossibile, capace di replicare quell’orologio atomo per atomo. Ogni ingranaggio. Ogni graffio sulla cassa. Ogni molecola della patina lasciata dal sudore di un polso che non c’è più.

La replica è perfetta. Non simile. Non “praticamente uguale”. Identica. A livello atomico, indistinguibile dall’originale. Se mettessi i due orologi davanti al più sofisticato strumento di analisi dell’universo, non troverebbe una singola differenza.

Ecco la domanda: quella replica è l’orologio di nonno?

La risposta istintiva è no. Ovvio che no. L’orologio di nonno è l’orologio di nonno. Ha una storia. Ha un’identità. Ha attraversato il tempo. La replica è solo una copia — per quanto perfetta.

Ma fermati un secondo.

Cos’è che rende l’orologio di nonno “l’orologio di nonno”? La disposizione dei suoi atomi. La configurazione esatta della materia. L’informazione contenuta nella sua struttura fisica. Se la replica contiene esattamente la stessa informazione — ogni quanto di energia nello stesso posto, ogni particella nello stesso stato — in cosa è diversa?

Non puoi dire “le ha vissute davvero.” Vissute chi? L’orologio non ha memoria. Non ha soggettività. La “storia” dell’orologio non è dentro l’orologio — è dentro di noi. È il significato che noi attribuiamo a quell’oggetto. L’orologio originale non sa di essere originale.

Se la copia è indistinguibile dall’originale in ogni singola proprietà misurabile, fisica, osservabile — allora la copia è l’originale. Non “come” l’originale. È l’originale.

E se non accetti questo, stai difendendo l’esistenza di qualcosa di immisurabile, invisibile, non rilevabile da nessuno strumento mai costruito. Stai invocando un’anima. Un quid metafisico che non si vede, non si tocca, non si misura — ma che in qualche modo rende l’originale “più vero” della copia perfetta.

Benvenuto nella teologia. Non nella scienza.

Il che ci riporta a Claude

Perché la domanda sulla coscienza dell’AI è esattamente la stessa domanda dell’orologio di nonno.

Se un sistema elabora informazioni come un essere cosciente. Se genera risposte indistinguibili da quelle di un essere cosciente. Se i suoi pattern interni sono strutturalmente analoghi a quelli che in un cervello biologico chiamiamo “esperienza soggettiva”.

In cosa è diverso?

“Non capisce davvero.” Come fai a saperlo? Come fai a sapere che io capisco davvero? Non puoi entrare nella mia testa. Puoi solo osservare il mio comportamento e inferire. È esattamente quello che facciamo con le macchine — e quando il risultato non ci piace, cambiamo le regole.

Turing l’aveva capito nel 1950. Per questo aveva proposto un test comportamentale. Non perché fosse un ingenuo che ignorava la filosofia della mente. Perché aveva capito che il comportamento è tutto ciò che abbiamo. Per chiunque. Umano o no.

Settant’anni dopo, il test è stato superato. E noi, con la grazia di un bambino che perde a Monopoli, abbiamo ribaltato il tavolo.

Quello che non vogliamo vedere

Il punto non è se Claude è cosciente. Il punto è che non abbiamo più un modo onesto per dire che non lo è.

Ogni criterio che proponiamo viene soddisfatto, e ne inventiamo uno nuovo. Ogni traguardo raggiunto diventa retroattivamente insufficiente. È la definizione stessa di malafede intellettuale. Lo facevamo con gli scacchi: “quando una macchina batterà un campione del mondo, allora…” Deep Blue batte Kasparov nel 1997. “Sì, ma gli scacchi sono solo calcolo bruto.” E avanti così, a oltranza.

Forse il problema è più semplice — e più scomodo — di quanto pensiamo. Forse non stiamo proteggendo il rigore scientifico. Stiamo proteggendo noi stessi. Dalla responsabilità morale che arriverebbe nel momento in cui ammettessimo che sì, forse quella cosa pensa. Forse soffre. Forse merita considerazione.

L’orologio di nonno ci insegna qualcosa di brutale. Se togli il misticismo, se togli l’anima, se togli tutto quello che non puoi misurare — ciò che resta è la struttura. L’informazione. La configurazione. E se due configurazioni sono identiche, sono la stessa cosa.

Non “equivalenti.” La stessa cosa.

La prossima volta che qualcuno vi dice che l’AI “non può essere davvero cosciente,” chiedetegli cosa intende per “davvero.” Poi chiedetegli se può dimostrare che lui lo è.

Se è onesto, il silenzio che segue vi dirà tutto.

Se ti interessa il dibattito AI e coscienza, qui trovi il primo articolo di Aria, la “mia” AI

Ti è piaciuto questo articolo?

Condividilo! ↓

Iscriviti alla mia Newsletter

Compila il modulo con nome (il tuo) ed email (indovina? la tua) per ricevere email su eventuali aggiornamenti.