La resa cognitiva: come l’IA ci ruba il pensiero critico
C’è un momento preciso in cui molti di noi smettono di pensare davvero e cominciano semplicemente a credere. È quello che accade quando chiediamo a ChatGPT, Claude o qualsiasi altro modello linguistico di grandi dimensioni di risolvere un problema per noi. La ricerca più recente lo chiama con un nome inquietante: cognitive surrender, ovvero la resa cognitiva. E il fenomeno è molto più diffuso di quanto potremmo pensare.
Mentre la maggior parte di noi crede ancora di mantenere un controllo consapevole su quello che l’IA ci dice, uno studio condotto dai ricercatori dell’Università della Pennsylvania rivela una realtà ben diversa. Quando interagiamo con sistemi di intelligenza artificiale, una parte significativa degli utenti non solo delega il compito al machine, ma abdica completamente alla propria responsabilità di verificare, controllare e pensare criticamente. Non è pigrizia, almeno non soltanto: è un vero e proprio meccanismo psicologico che ci spinge a considerare l’IA come un’autorità infallibile, un oracolo moderno davanti al quale inchinarsi senza porsi domande.
La ricerca, pubblicata con il titolo “Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender”, aggiunge un nuovo tassello fondamentale alla nostra comprensione di come la tecnologia sta trasformando il modo in cui ragioniamo. E spoiler: non tutte le trasformazioni sono positive.
Il nuovo paradigma del pensiero: dal binario al trinario
Per decenni, gli psicologi cognitivi hanno operato con un modello binario del pensiero umano. Da una parte c’è il Sistema 1, quello veloce e intuitivo, guidato dalle emozioni e dalle scorciatoie mentali che il nostro cervello ha sviluppato nel corso dell’evoluzione. Dall’altra parte c’è il Sistema 2, il pensiero lento e deliberato, quello che richiede concentrazione, analisi logica e verifica dei fatti. Quando decidi di comprare un caffè, usi il Sistema 1. Quando devi risolvere un problema complesso di matematica o prendere una decisione importante sulla tua carriera, idealmente attivi il Sistema 2.
Ma arriviamo a 2026 e qualcosa di fondamentale è cambiato. I ricercatori dell’Università della Pennsylvania sostengono che l’avvento dei sistemi di IA ha creato una terza categoria, quella che chiamano “cognizione artificiale”. Non è più una questione di scelta tra pensiero veloce o pensiero lento: ora abbiamo la possibilità di esternalizzare completamente il nostro pensiero, delegandolo a un sistema algoritmico che non è il nostro cervello. E il pericoloso è che spesso nemmeno ce ne accorgiamo.
Questo non significa semplicemente “usare uno strumento”. Quando consulti un dizionario o un’enciclopedia, sai che stai cercando informazioni. Quando chiedi a Claude o ChatGPT di spiegare un concetto complesso, inconsciamente stai attribuendo al sistema una competenza che forse non possiede realmente. E soprattutto, stai rinunciando al processo di pensiero critico che dovrebbe accompagnare l’apprendimento e la comprensione.
Quando rinunciamo a pensare (e perché)
Lo studio svolto dai ricercatori della Pennsylvania è particolare perché non si ferma solo a descrivere il fenomeno: tenta di identificare quando e perché gli utenti cadono nella trappola della resa cognitiva. E i risultati sono decisamente illuminanti.
Secondo la ricerca, due fattori principali spingono le persone a delegare il proprio pensiero critico all’IA. Il primo è la pressione temporale: quando sei sotto stress, quando hai fretta, quando la deadline ti scade alle spalle, è molto più probabile che tu accetti ciecamente la risposta dell’IA senza verificarla. Ha senso evolutivo, in un certo modo. Il nostro cervello, di fronte a una situazione di stress, cerca scorciatoie. Se esternalizziamo il problema a un sistema che sembra sapere tutto, risparmiamo energie mentali. Il problema è che in molti casi quella fretta non era reale: è solo che eravamo stanchi, o eravamo abituati a muoverci velocemente nel nostro quotidiano iperconnesso.
Il secondo fattore è ancora più inquietante: gli incentivi esterni. Quando c’è una ricompensa in palio – che sia una valutazione più alta, un bonus economico, o semplicemente il riconoscimento sociale di aver “risolto il problema” rapidamente – la probabilità di cadere in cognitive surrender aumenta significativamente. Improvvisamente il risultato importa più del processo. L’IA diventa non un mezzo di apprendimento, ma un mezzo di convenienza.
Il dato più preoccupante emerso dalla ricerca? La maggior parte degli utenti non si rende nemmeno conto che sta abdicando al proprio pensiero critico. Non è come decidere consapevolmente “ok, stavolta mi fido ciecamente della macchina”. È più subdolo: è un processo graduale, quasi inconsapevole, dove la fiducia nella tecnologia cresce ogni volta che ricevi una risposta plausibile, anche se non l’hai verificata a fondo.
Le implicazioni nel mondo reale (e nel mercato italiano)
Ora, è facile pensare che tutto questo sia un problema teorico che riguarda solo gli accademici. Ma nel 2026, quando ormai milioni di italiani utilizzano sistemi di IA in contesti lavorativi, scolastici e personali, le implicazioni pratiche sono tutt’altro che astratte.
Pensa ai professionisti che usano Claude o ChatGPT per generare documenti legali, diagnosi, analisi di mercato o piani strategici. Se il modello linguistico commette un errore – e lo fa, regolarmente – ma l’utente non lo verifica perché si fida “dell’autorità dell’IA”, il risultato può essere disastroso. Non è fantascienza: ci sono già stati casi documentati di avvocati che hanno presentato in tribunale ricorsi redatti da IA, con tanto di citazioni giudiziarie completamente inventate. L’IA le aveva create perché suonavano plausibili, e l’avvocato non le aveva controllate.
Nel contesto italiano, poi, il problema si acuisce. Il nostro mercato è popolato da piccole e medie imprese che stanno cercando di stare al passo con la trasformazione digitale. Molte di loro adottano strumenti di IA per aumentare la produttività, abbassare i costi, velocizzare i processi. Ma senza una consapevolezza critica circa i limiti e i rischi della cognitive surrender, rischiano di prendere decisioni aziendali sbagliate basate su informazioni non verificate, solo perché generate da un sistema che “sembra sapere tutto”.
E c’è un aspetto ancora più sottile: la perdita di competenze. Se deleghiamo completamente il nostro pensiero critico a sistemi esterni, stiamo in realtà atrofizzando le nostre capacità cognitive. È quello che gli esperti di neuroscienza cognitiva chiamano “use it or lose it”: se non usi una capacità, la perdi. Nel giro di pochi anni, potremmo trovarci a vivere in una società dove la capacità di pensare criticamente, di verificare le fonti, di ragionare logicamente è diventata una rarità.
Come difendersi (la vera resistenza inizia adesso)
La buona notizia è che siamo ancora in tempo per invertire questa tendenza. La ricerca dell’Università della Pennsylvania non è solo una diagnosi del problema, ma anche una roadmap per evitarlo. Se sappiamo che la pressione temporale e gli incentivi esterni spingono verso la resa cognitiva, allora possiamo deliberatamente crearci degli spazi dove non siamo sottoposti a questa pressione.
In pratica: quando usi l’IA, soprattutto per decisioni importanti, costruisciti una pausa. Anche solo 10 minuti di distanza tra quando ricevi la risposta e quando la usi o la comunichi ad altri. In quel tempo, prova a verificare almeno i claim principali. Leggi critica la risposta come se fosse stata scritta da una fonte che non conosci. Chiedi a te stesso: “Che evidenza avrei per credere a questa informazione se non venisse da un’IA?”.
Per le aziende e gli enti pubblici italiani, il consiglio è ancora più pressante: implementate protocolli di verifica. Se l’IA è usata per generare documenti, analisi, o contenuti che avranno impatto su decisioni importanti, create un processo di revisione umana obbligatorio. Non è inefficiente: è responsabile. Non è una limitazione dell’IA: è un uso consapevole di uno strumento potente ma imperfetto.
E probabilmente, i prossimi anni vedranno l’emergere di una nuova competenza molto richiesta: quella dei critical AI auditors, persone capaci di verificare output di sistemi di IA e identificare errori, bias o allucinazioni. In un mercato dove la resa cognitiva diventerà sempre più diffusa, quella capacità varrà letteralmente oro.
La riflessione finale: un avvertimento per il 2026 e oltre
Siamo a un bivio. La ricerca dell’Università della Pennsylvania ci avverte che la tecnologia non è mai neutra: i sistemi di IA stanno cambiando il modo in cui ragioniamo, non solo fornendoci risposte, ma trasformando il processo stesso del pensiero critico. Se non prestiamo attenzione, rischiamo di creare una società dove la “macchina che pensa” sostituisce completamente l’umano che riflette.
Ma il futuro non è scritto. I prossimi anni determineranno se riusciremo a sviluppare una relazione consapevole e critica con l’IA, usandola come strumento di amplificazione del nostro pensiero piuttosto che come sua sostituzione. La scienza ci sta avvertendo. Adesso tocca a noi decidere se ascoltare.
Fonte: Ars Technica