Anthropic sfida gli hacker: il progetto con Apple e Google
Nel 2026, il fronte della sicurezza informatica nell’era dell’intelligenza artificiale si sta trasformando radicalmente. Anthropic, il laboratorio di ricerca che ha sviluppato Claude, ha annunciato una partnership senza precedenti: Project Glasswing, un’iniziativa che riunisce rivali storici come Apple e Google, insieme a più di 45 altre organizzazioni tra tech giants e istituzioni di ricerca. L’obiettivo è ambizioso e urgente: evitare che i sistemi di intelligenza artificiale sempre più sofisticati diventino armi nelle mani di hacker e criminali informatici.

La mossa rappresenta un cambio di paradigma significativo nel panorama tech globale. Mentre l’industria dell’IA procede a velocità folle nel rilascio di nuovi modelli, i rischi di sicurezza crescono in parallelo. Quello che rende Project Glasswing particolarmente interessante è l’utilizzo del nuovo Claude Mythos Preview, il modello più avanzato di Anthropic, come banco di prova per testare e sviluppare capacità difensive che proteggano tutti dai cyberattacchi alimentati dall’intelligenza artificiale.
Per l’Italia e l’Europa in generale, questa notizia arriva in un momento cruciale. Le aziende italiane stanno sempre più integrando sistemi di IA nelle loro infrastrutture critiche, dal banking alla sanità. Avere a disposizione strumenti e protocolli sviluppati dalle menti migliori della tecnologia globale potrebbe rappresentare una risorsa preziosa per difendere il tessuto economico nazionale da minacce sempre più sofisticate.
Perché questa alleanza cambia tutto
Fino a qualche anno fa, l’idea di vedere Apple, Google e decine di altre aziende competitor collaborare su un progetto di ricerca era praticamente impensabile. Ma l’intelligenza artificiale sta riscrivendo le regole del gioco. I rischi di sicurezza sono così potenzialmente devastanti da aver creato un’motivazione comune che supera la concorrenza commerciale.
Il problema è concreto: gli attuali modelli di AI generativa, se manipolati adeguatamente, potrebbero essere utilizzati per identificare vulnerabilità in sistemi critici, generare malware sofisticato o orchestrare attacchi sociali convincentissimi. Non è fantascienza, è una minaccia reale che i ricercatori di sicurezza stanno già osservando nei laboratori. Project Glasswing non è quindi una semplice iniziativa di ricerca accademica, ma una necessità strategica per l’intero ecosistema tecnologico mondiale.
La collaborazione include aziende di vari settori: hyperscaler cloud, produttori di hardware, software house, università prestigiose e persino organizzazioni di cybersecurity governative. Questa diversità è strategica perché porta prospettive diverse al tavolo. Chi gestisce infrastrutture cloud ha esigenze diverse da chi produce chip o da chi lavora nella ricerca pura. Mettere insieme tutte queste competenze crea un effetto moltiplicatore nella capacità di identificare e risolvere problemi di sicurezza dell’IA.
Claude Mythos Preview: il laboratorio di sicurezza del futuro
Il nuovo modello Claude Mythos Preview è stato specificamente selezionato per questo progetto non a caso. Rappresenta l’ultimo stato dell’arte in termini di capacità e potenza computazionale, il che lo rende perfetto per simulare scenari di attacco realistici e testare difese innovative. I ricercatori di Anthropic hanno progettato questo modello con una particolare attenzione ai meccanismi di sicurezza integrati, rendendolo un terreno di prova ideale per sviluppare capacità di cybersecurity basate sull’IA.
Come funziona concretamente? I partecipanti di Project Glasswing utilizzeranno Claude Mythos Preview per esplorare metodicamente come un modello di IA potrebbe essere orientato verso attività malevole, quali vulnerabilità potrebbe sfruttare e quali difese potrebbero essere implementate. È un approccio di “penetration testing” ma applicato all’intelligenza artificiale stessa. Questo tipo di ricerca è fondamentale perché aiuta a identificare i buchi di sicurezza prima che gli attori malevoli li scoprano.
Un aspetto particolarmente interessante è che Anthropic non sta utilizzando questo progetto solo come esercizio di relazioni pubbliche. L’azienda ha dimostrato una genuina dedizione ai temi di sicurezza dell’IA già nel passato, investendo risorse significative nella ricerca sulla “constitutional AI” e negli alignment dei modelli verso comportamenti sicuri e benefici. Con Project Glasswing, questa filosofia viene elevata a livello di collaborazione industriale su scala globale.
L’impatto sul mercato italiano e europeo
In Italia, il settore della cybersecurity è in forte crescita. Startup innovative e aziende consolidate stanno investendo miliardi per proteggere infrastrutture critiche da attacchi sempre più sofisticati. Project Glasswing potrebbe diventare una fonte di innovazione cruciale anche per le realtà italiane che operano in questo spazio. Le conoscenze sviluppate nel progetto verranno presumibilmente condivise (almeno parzialmente) con la comunità scientifica, creando opportunità di apprendimento e implementazione anche per le realtà locali.
L’Unione Europea ha già stabilito standard rigorosi per la sicurezza dell’IA attraverso l’AI Act. Project Glasswing rappresenta un’opportunità concreta per allineare il modo in cui la ricerca privata sviluppa protezioni con i requisiti normativi europei. Per le aziende italiane che devono conformarsi a questi standard, avere accesso ai risultati di questa ricerca potrebbe significare una riduzione significativa nei costi di implementazione delle misure di sicurezza richieste.
Inoltre, la partecipazione di organizzazioni europee al progetto (sebbene non specificamente italiane) garantisce che le esigenze e le prospettive del continente non vengono ignorate. La sicurezza dell’IA non è una questione solo americana; è veramente globale e richiede un coordinamento internazionale che Project Glasswing sta effettivamente creando.
Cosa aspettarsi nei prossimi mesi
Project Glasswing non è un’iniziativa monouso. Secondo le comunicazioni di Anthropic, il progetto è strutturato come un’attività continua con milestone ben definiti. Ci aspettiamo che nei prossimi trimestri vengano pubblicati white paper di ricerca con i risultati preliminari, framework di sicurezza riutilizzabili e linee guida pratiche per implementare le difese sviluppate.
Un elemento da tenere d’occhio è come questa collaborazione evolverà. Riuscirà a mantenere l’equilibrio tra il mantenimento della riservatezza su vulnerabilità critiche (per evitare che i dettagli diventino roadmap per gli attaccanti) e la trasparenza necessaria per far avanzare il settore nel suo complesso? Questo sarà uno dei grandi test di maturità per l’industria dell’IA nel 2026.
Per gli sviluppatori e i responsabili IT italiani, il messaggio è chiaro: il 2026 è l’anno in cui la sicurezza dell’IA non è più opzionale, ma essenziale. Le iniziative come Project Glasswing stanno creando le fondamenta per un ecosistema più sicuro. Restare aggiornati su questi sviluppi, comprendere i principi di sicurezza sottostanti e iniziare a integrarli nelle proprie strategie è ormai una necessità operativa, non solo una best practice.
La collaborazione tra rivali storici per affrontare una minaccia comune rappresenta anche un segnale incoraggiante: quando il rischio è sufficientemente grande, l’industria tech è in grado di mettersi insieme. Questo dovrebbe darci un po’ di fiducia nel fatto che, nonostante la velocità di sviluppo dell’IA sia talvolta vertiginosa, gli attori principali stanno comunque prestando seria attenzione alla sicurezza e alla responsabilità.
Fonte: Wired