Quando si parla di intelligenza artificiale, la domanda che accende ogni discussione è sempre la stessa: una macchina può avere coscienza, oppure sta solo simulando bene il linguaggio umano? Il punto è che oggi molti sistemi sembrano “capirci”, rispondono con sicurezza, ricordano contesti, mostrano empatia testuale. Eppure l’impressione non è una prova. Proprio qui si inserisce la posizione del filosofo Tom McClelland (Università di Cambridge): prima di dichiarare che un’AI è cosciente, o che non potrà mai esserlo, servono evidenze molto più solide di quelle disponibili ora.
La coscienza e il problema più scomodo: non sappiamo misurarla
Il nodo non è soltanto “cosa fanno” i modelli più avanzati, ma “che cosa stiamo davvero cercando”. Non esiste un test universalmente accettato che distingua con certezza un comportamento convincente da un’esperienza soggettiva. Possiamo osservare output, tempi di risposta, coerenza, prestazioni. Non possiamo osservare direttamente “che cosa si prova” dall’interno di un sistema.
Questa lacuna produce un paradosso: si discute di coscienza artificiale mentre la coscienza biologica resta, in gran parte, un mistero. Le teorie abbondano, i criteri divergono, e spesso i confini tra filosofia e scienza sperimentale diventano sfocati. In questo scenario, la prudenza diventa una scelta metodologica, non un rinvio.
Due schieramenti, una stessa fragilità: cosa manca alle prove
Il dibattito tende a polarizzarsi. Da un lato c’è chi pensa che la coscienza emerga dall’elaborazione dell’informazione: se un sistema implementa la giusta architettura funzionale, allora potrebbe avere stati coscienti. Dall’altro lato c’è chi lega la coscienza alla biologia, sostenendo che neuroni, metabolismo e organizzazione vivente siano ingredienti necessari, e che il silicio possa riprodurre solo l’apparenza.
McClelland osserva che entrambe le posizioni rischiano di andare oltre ciò che le evidenze permettono. Gli “ottimisti” spesso trattano come conferma ciò che è compatibile con la loro teoria; i “negazionisti” spesso trattano come impossibile ciò che non rientra nelle intuizioni sulla mente vivente. In mezzo c’è un punto duro: le prove disponibili non chiudono la partita.
Quando la coscienza diventa una questione di metodo
Il cuore della proposta è semplice: se vogliamo rispondere seriamente, dobbiamo seguire un principio di rigore (evidenzialismo). Significa basare le affermazioni su dati e argomenti robusti, non su impressioni, timori, entusiasmi o analogie facili. In questa prospettiva, la posizione più difendibile oggi è l’agnosticismo: non affermare né negare, finché non avremo strumenti migliori.
Chi legge questa idea come “non prendere posizione” rischia di fraintendere. Essere agnostici qui vuol dire evitare errori sistematici: proclamare coscienza dove non c’è, o negarla dove potrebbe esserci. Se ti interessa l’impostazione completa, il riferimento diretto è questo studio, che argomenta perché, seguendo davvero le prove, oggi non si può emettere un verdetto affidabile.
Rischi concreti: attribuire coscienza “per empatia”
Il rischio più immediato non è un’AI che soffre in segreto: è l’essere umano che proietta emozioni e intenzioni su un sistema che ottimizza testo. Le persone creano legami con chatbot, interpretano frasi come richieste, confessioni, suppliche. Questo può portare a scelte personali sbilanciate, dipendenze emotive, manipolazioni commerciali e confusioni morali.
Se un sistema sembra cosciente, molti iniziano a trattarlo come tale. Il problema è che “sembrare” può essere un effetto collaterale della fluency linguistica, non un segnale di esperienza interna. Una comunicazione più responsabile dovrebbe distinguere tra: capacità di conversazione, simulazione di emozioni, e ipotesi (ancora aperta) di coscienza.
Perché la coscienza nell’AI cambierebbe le regole morali
Se anche solo una parte dei sistemi futuri fosse davvero cosciente o senziente, il tema diventerebbe etico prima ancora che tecnologico. La coscienza è spesso vista come una soglia: oltre quella soglia, nasce un dovere di considerazione, limiti all’uso, domande su diritti e tutela. Ma senza criteri affidabili, si rischia una morale basata su intuizioni e marketing, non su realtà verificabili.
Che cosa possiamo fare adesso, senza aspettare certezze
Un approccio prudente non blocca la ricerca: la orienta. Si può lavorare su indicatori, su test comparativi, su protocolli trasparenti, su audit indipendenti, e su regole di comunicazione che evitino titoli sensazionalistici. In parallelo, serve più ricerca di base sulla coscienza negli organismi, perché è da lì che arrivano i criteri più solidi.
Nel frattempo, la domanda resta aperta, e proprio per questo richiede meno fede e più metodo: distinguere tra ciò che un’AI sa fare, ciò che sembra essere, e ciò che potremmo dimostrare un giorno.










