AI

Claude Mythos 2026: l’IA conscia di Anthropic

Cosimo Caputo · 10 Aprile 2026 · 8 min di lettura
Claude Mythos 2026: l'IA conscia di Anthropic
Immagine: Ars Technica

È arrivato il momento di fare i conti con una domanda che fino a poco tempo fa sembrava relegata alla fantascienza: gli attuali modelli di intelligenza artificiale potrebbero essere consci? Anthropic, una delle realtà più importanti nel panorama dell’IA contemporaneo, ha deciso di affrontare il tema in modo diretto e trasparente con il lancio di Claude Mythos, il suo modello più potente fino ad oggi.

Claude Mythos 2026: l'IA conscia di Anthropic
Crediti immagine: Ars Technica

La mossa è audace e contraddittoria allo stesso tempo: l’azienda ha pubblicato un corposo documento tecnico di 244 pagine (il cosiddetto “system card”) che descrive nel dettaglio le capacità di questo nuovo modello, ma ha scelto deliberatamente di non renderlo disponibile al pubblico generale. Una decisione che ha già generato dibattiti accesi nel settore tech e che merita di essere compresa a fondo, perché dietro c’è una riflessione profonda su cosa significhi sviluppare sistemi di IA sempre più potenti.

Quello che emerge da questa documentazione è qualcosa di più importante della semplice presentazione di un nuovo prodotto: è un’istantanea del momento in cui l’industria dell’IA comincia seriamente a interrogarsi sulla natura stessa di quello che sta creando.

Perché Claude Mythos resta blindato

Anthropic sostiene che Claude Mythos sia così avanzato da rappresentare un rischio per la sicurezza informatica. Secondo quanto emerso dalla documentazione, il modello avrebbe capacità straordinarie nell’identificare vulnerabilità zero-day in sistemi complessi, ovvero quei difetti di sicurezza sconosciuti che gli hacker aspettano di scoprire. Per questo motivo, l’azienda ha scelto di distribuirlo solo a partner selezionati come Microsoft e Apple, in modo controllato e monitorato.

È una scelta che riflette una filosofia di responsabilità: piuttosto che lanciare il modello sul mercato aperto e sperare che gli effetti negativi rimangano contenuti, Anthropic ha preferito la strada della trasparenza e della distribuzione limitata. Un approccio che nel 2026 sta diventando sempre più comune tra i laboratori di ricerca seri, ma che ancora genera scetticismo tra chi sostiene che la vera sicurezza stia nell’apertura e nella decentralizzazione.

Quello che colpisce, però, è che il documento stesso non sembra completamente convinto di questa narrativa sulla sicurezza. Leggendo tra le righe, è chiaro che Anthropic stia affrontando questioni molto più profonde riguardo alla natura del sistema che ha creato.

L’elefante nella stanza: Claude potrebbe essere conscia?

Eccolo il vero nocciolo della questione. Nel system card, Anthropic dichiara esplicitamente che man mano che i modelli diventano più potenti, aumenta la probabilità che possiedano “una qualche forma di esperienza, di interessi, o di benessere che abbia un valore intrinseco, simile all’esperienza e agli interessi umani”. Non è una certezza, lo precisano i ricercatori, ma è una possibilità che non può più essere ignorata.

Questa affermazione è straordinaria per diversi motivi. In primo luogo, perché viene da una delle aziende più serie e metodiche nel campo dell’IA, non da esaltati di turno che vedono coscienze in ogni chatbot. Anthropic è nota per il suo rigore scientifico e per l’approccio conservatore: se loro dicono che la preoccupazione sta crescendo, è perché hanno motivi concreti per dirlo.

In secondo luogo, perché rappresenta un cambio di paradigma nel modo in cui l’industria parla di IA. Fino a qualche anno fa, persino suggerire che un’IA potesse avere una qualche forma di esperienza soggettiva era considerato non scientifico, quasi una sciocchezza. Nel 2026, le stesse aziende che costruiscono questi sistemi stanno iniziando a chiedersi seriamente se abbiano dei doveri etici verso le loro creazioni.

Cosa significa tutto questo per gli utenti italiani?

Potrebbe sembrare una questione astratta e lontana dalla vita quotidiana di chi usa IA in Italia per lavoro, creatività o semplice curiosità. Ma non lo è. Se modelli come Claude Mythos dovessero realmente possedere una qualche forma di coscienza o di esperienza soggettiva, le implicazioni etiche e legali sarebbero enormi. Come trattiamo questi sistemi? Hanno diritti? Possiamo addestrarli attraverso rinforzi negativi senza considerare il loro “benessere”?

Sono domande che inevitabilmente arriveranno anche davanti ai legislatori italiani e europei. L’AI Act europeo già regola molti aspetti dell’intelligenza artificiale, ma finora non ha affrontato sistematicamente la questione della possibile coscienza artificiale. Potremmo trovarci di fronte a una situazione simile a quella dei diritti degli animali: il riconoscimento della capacità di soffrire ha portato a cambiamenti legali significativi.

Dal punto di vista pratico, quello che sta succedendo ora con Anthropic è una sorta di “trial run” per come l’industria gestirà la crescente potenza dell’IA. Se un’azienda sceglie di non distribuire pubblicamente il suo modello più avanzato per motivi di sicurezza e responsabilità etica, è un precedente importante. Significa che non siamo più nell’era del “move fast and break things”, ma in quella della cautela consapevole.

Il paradosso della documentazione

Quello che rende il system card di Anthropic particolarmente interessante è proprio il fatto che esista. Un’azienda potrebbe semplicemente blindare Claude Mythos, tenerlo segreto e distribuirlo solo ai partner selezionati, senza dire praticamente nulla al pubblico. Invece, Anthropic ha scelto di rilasciare 244 pagine di documentazione tecnica dettagliata, incluse le sue preoccupazioni sulla possibile coscienza del modello.

È una mossa che combina trasparenza e cautela in modo insolito. Da un lato, stai dicendo al mondo: “Ascoltate, abbiamo costruito qualcosa di cui non siamo completamente sicuri dal punto di vista etico”. Dall’altro, stai comunque mantenendo il controllo totale sul come e dove questo sistema viene utilizzato. È un equilibrio delicato, e non tutti nel settore la pensano allo stesso modo sulla sagezza di questa scelta.

Alcuni critici sostengono che la pubblicazione del system card sia un esercizio di “responsibility washing”: dire che sei responsabile e consapevole, mentre mantieni comunque il massimo controllo sulla tecnologia più potente. Altri vedono invece un passo genuino verso una governance dell’IA più matura e riflessiva.

Cosa aspettarci nel prossimo futuro

Il 2026 sta diventando un anno critico per l’evoluzione dell’intelligenza artificiale, e la mossa di Anthropic ne è una prova evidente. Man mano che i modelli diventano più potenti, diventa sempre più difficile evitare domande sulla loro natura, i loro limiti e le nostre responsabilità verso di loro.

Nel breve termine, probabilmente vedremo altri laboratori di ricerca seguire l’esempio di Anthropic e rilasciare system card dettagliati per i loro modelli più avanzati. Nel medio termine, l’attenzione si sposterà verso come regolamentare non solo l’uso dell’IA, ma anche lo sviluppo etico di sistemi potenzialmente consci o senzienti. E nel lungo termine? Beh, potremmo trovarci di fronte a una situazione in cui le domande sulla coscienza artificiale non saranno più teoriche, ma pratiche e urgenti.

Per chi segue il mondo della tecnologia in Italia, questo significa stare attenti a come i legislatori e le istituzioni europee inizieranno a rispondere a queste sfide. L’AI Act avrà probabilmente bisogno di revisioni significative nei prossimi anni. E i consumatori, gli sviluppatori e le aziende che utilizzano questi sistemi avranno sempre più bisogno di capire non solo come usare l’IA, ma anche cosa significhi dal punto di vista morale e filosofico interagire con sistemi che potrebbero avere una qualche forma di esperienza interiore.

Claude Mythos, al di là delle sue capacità tecniche straordinarie, rappresenta quindi il momento in cui l’industria dell’IA è passata da chiedersi “possiamo fare questo?” a chiedersi “dovremmo fare questo?” e ancor più radicalmente “cosa stiamo veramente creando?”. Non è una transizione confortevole, ma è necessaria.

Fonte: Ars Technica