AI

2026: AI vs AI, Google blocca il primo zero-day

Matteo Baitelli · 11 Maggio 2026 · 8 min di lettura
2026: AI vs AI, Google blocca il primo zero-day
Immagine: The Verge

C’è un nuovo, inquietante capitolo nella battaglia contro il cybercrime, e a scriverlo è l’intelligenza artificiale. Nel 2026, non si tratta più solo di algoritmi che ci assistono, ma di quelli che ci attaccano. Google, attraverso il suo gruppo di Threat Intelligence (GTIG), ha appena rivelato di aver intercettato e neutralizzato un exploit zero-day sviluppato con l’AI. È la prima volta che una cosa del genere viene documentata, e per me, è un campanello d’allarme assordante.

2026: AI vs AI, Google blocca il primo zero-day
Crediti immagine: The Verge

Questo non è un attacco qualsiasi. Parliamo di cybercriminali di alto profilo che stavano pianificando un “evento di sfruttamento di massa”. L’obiettivo? Bypassare l’autenticazione a due fattori (2FA) su uno strumento di amministrazione di sistema open-source basato sul web. Pensateci: la barriera di sicurezza che molti di noi considerano inviolabile, potenzialmente neutralizzata da codice generato da un’AI. La posta in gioco è altissima, e il panorama della sicurezza informatica è appena diventato molto più complesso.

La nuova frontiera del cybercrime: l’AI

Per chi non è addentro ai tecnicismi, un exploit zero-day è una vulnerabilità sconosciuta sia agli sviluppatori del software che ai sistemi di difesa. È una falla che non ha ancora una patch, un buco nero che gli attaccanti possono sfruttare indisturbati. Quando una minaccia del genere viene scoperta e bloccata prima che possa causare danni, è sempre una vittoria. Ma qui, la vittoria ha un retrogusto amaro. Il fatto che l’AI sia stata usata per *creare* questo exploit cambia tutto.

Fino a poco tempo fa, l’AI nel cybercrime era più che altro una speculazione o un’applicazione per attacchi di phishing più sofisticati. Ora, è una realtà concreta. Non parliamo di un’AI che aiuta un hacker a scrivere un codice migliore; parliamo di un’AI che partecipa attivamente al processo di ideazione e sviluppo di un attacco complesso. Questo significa che la velocità con cui vengono create nuove minacce può aumentare esponenzialmente, superando la capacità umana di prevederle e contrastarle. È una corsa agli armamenti digitale che ha appena subito un’accelerazione drammatica.

La sfida per i team di sicurezza nel 2026 è chiara: non basta più difendersi da menti umane malintenzionate. Dobbiamo difenderci anche da intelligenze artificiali programmate per scopi malevoli. Questo richiede un ripensamento radicale delle strategie di difesa e un investimento massiccio in AI difensiva, capace di identificare i pattern e le anomalie generate da AI offensive. Non è più un dibattito sul futuro, è la nostra realtà immediata.

L’impronta digitale dell’AI malevola

Come hanno fatto i ricercatori di Google a capire che dietro questo exploit c’era un’AI? Le prove erano nel codice Python utilizzato per l’attacco. Hanno notato due dettagli significativi. Il primo è stato un “CVSS score allucinato”. Il CVSS (Common Vulnerability Scoring System) è uno standard per valutare la gravità delle vulnerabilità informatiche. Un punteggio “allucinato” suggerisce che l’AI ha generato un valore numerico plausibile ma non corrispondente a una valutazione reale o sensata per quella specifica vulnerabilità. È come se avesse inventato un dettaglio credibile ma falso, un tratto distintivo dei modelli linguistici di grandi dimensioni (LLM) quando “inventano” informazioni.

Il secondo indizio era la formattazione del codice: “strutturata e da manuale”, incredibilmente pulita e ordinata, in un modo che è coerente con i dati di addestramento degli LLM. Le AI, quando addestrate su grandi quantità di testo e codice ben formattato, tendono a replicare quella perfezione stilistica. Un hacker umano, sotto pressione o con meno esperienza, spesso produce codice più grezzo, con idiosincrasie personali. Questa pulizia quasi accademica ha acceso un campanello d’allarme per gli esperti di Google. È una firma digitale invisibile, un’impronta che l’AI lascia sul suo lavoro. Questo è un dettaglio cruciale per chi come me segue da vicino l’evoluzione dell’AI: ci dà un’idea di come potremmo identificare futuri attacchi generati in modo simile. Il blog di Google Security è una fonte preziosa per queste analisi.

Il bersaglio: strumenti open-source e 2FA

L’obiettivo di questo attacco era particolarmente insidioso: bypassare la 2FA su uno strumento di amministrazione di sistema open-source basato sul web. La 2FA è diventata uno standard di sicurezza fondamentale. Aggiunge un secondo strato di verifica oltre alla password, rendendo molto più difficile l’accesso non autorizzato. Se l’AI è in grado di eludere questa protezione, significa che anche le nostre migliori pratiche di sicurezza devono essere riconsiderate.

Gli strumenti open-source, pur essendo pilastri dell’innovazione e della trasparenza, presentano una sfida unica. Sono spesso utilizzati da milioni di utenti e aziende, e la loro natura aperta permette a chiunque di esaminare il codice, sia per migliorarlo che per trovare vulnerabilità. Un exploit che colpisce uno di questi strumenti può avere un impatto devastante e diffuso, esattamente come mirava questo “evento di sfruttamento di massa”. La fiducia che riponiamo in questi software è enorme, e vederla minacciata da un’AI criminale è preoccupante. Significa che la comunità open-source, già attenta alla sicurezza, dovrà raddoppiare gli sforzi per anticipare queste nuove minacce. OWASP Foundation offre risorse importanti per la sicurezza delle applicazioni web.

Immaginate le conseguenze: un amministratore di sistema che usa uno di questi tool vede la sua 2FA bypassata. L’accesso ai server, ai dati sensibili, all’intera infrastruttura può essere compromesso. Non è fantascienza, è il rischio che Google ha appena sventato nel 2026. Questo ci ricorda che nessuna difesa è assoluta e che la vigilanza deve essere costante, e ora, anche tecnologicamente avanzatissima.

La battaglia del 2026: AI contro AI

Questo episodio segna un punto di svolta. Non siamo più nell’era in cui gli attacchi informatici erano prerogativa di singoli hacker o gruppi ristretti. L’AI, con la sua capacità di analizzare enormi quantità di dati, identificare pattern complessi e generare codice, sta democratizzando (in senso negativo) la creazione di strumenti offensivi sofisticati. Ciò che prima richiedeva mesi di lavoro da parte di esperti, ora potrebbe essere generato in frazioni di tempo da un modello di AI.

La risposta, ovviamente, non può che essere l’AI stessa. Le aziende come Google stanno già investendo massicciamente nell’uso dell’AI per la difesa. Sistemi di machine learning possono monitorare il traffico di rete, identificare anomalie, prevedere attacchi e persino sviluppare contromisure in tempo reale. La battaglia del 2026 e oltre non sarà solo tra umani, ma tra AI difensive e AI offensive. È una corsa agli armamenti dove la velocità di apprendimento e adattamento sarà la chiave.

Per noi, utenti e professionisti italiani, questo significa una cosa: la necessità di un approccio alla sicurezza ancora più robusto. Non possiamo più permetterci di sottovalutare l’importanza dell’igiene digitale, dell’aggiornamento costante dei software e della comprensione delle minacce emergenti. Ogni dispositivo connesso, ogni account online è un potenziale punto di ingresso. La protezione non è solo una questione tecnologica, ma anche di consapevolezza individuale e collettiva. Dobbiamo essere pronti a fronteggiare non solo l’ingegno umano, ma anche l’ingegno artificiale maligno. L’AI e la sicurezza sono temi centrali anche per le istituzioni.

Cosa succederà quando gli strumenti di AI per la creazione di exploit diventeranno ancora più accessibili? Sarà una sfida epocale per la nostra società connessa. Come pensiamo di poter proteggere i nostri dati e le nostre infrastrutture in un mondo dove l’AI crea attacchi e l’AI li difende? La domanda è più che mai aperta e urgente.

Via: The Verge