Perché le AI di Google perdono ai giochi più semplici
L’intelligenza artificiale di Google DeepMind ha conquistato il mondo battendo i campioni mondiali di scacchi e Go, ma c’è un problema: alcuni giochi semplicissimi la mandano completamente in tilt. Una scoperta che potrebbe cambiare il modo in cui sviluppiamo le AI del futuro.
Quello che sembrava il trionfo definitivo dell’intelligenza artificiale si è rivelato avere delle crepe inaspettate. Le serie Alpha di DeepMind – da AlphaGo ad AlphaChess – hanno dimostrato capacità straordinarie, imparando strategie complesse giocando milioni di partite contro se stesse. Eppure, ricercatori e appassionati hanno iniziato a identificare posizioni specifiche nel Go dove questi sistemi perdevano contro giocatori principianti, nonostante fossero in grado di sconfiggere facilmente altre AI dello stesso livello.
Non si tratta di una curiosità da laboratorio: capire questi punti ciechi è fondamentale mentre affidiamo alle AI decisioni sempre più critiche nella nostra vita quotidiana. Un nuovo studio pubblicato su Machine Learning ha identificato un’intera categoria di giochi dove il metodo di addestramento delle AI Alpha fallisce miseramente.
Il caso Nim: quando la semplicità batte l’intelligenza artificiale
Per dimostrare il problema, i ricercatori hanno scelto un gioco di una semplicità disarmante: Nim. Le regole sono elementari – due giocatori si alternano nel rimuovere fiammiferi da una piramide fino a quando uno rimane senza mosse legali. Qualsiasi bambino può imparare a giocare in pochi minuti, eppure le AI più sofisticate di Google faticano a padroneggiarlo.
Il paradosso è evidente: sistemi che hanno conquistato Go, un gioco con più configurazioni possibili degli atomi nell’universo osservabile, vengono sconfitti da un passatempo che si può improvvisare con dei fiammiferi su un tavolo. La chiave del problema sta nel metodo di addestramento chiamato self-play, dove l’AI impara giocando contro versioni di se stessa.
Questo approccio, che ha funzionato brillantemente per scacchi e Go, crea dei buchi nelle competenze dell’AI quando applicato a giochi con caratteristiche matematiche specifiche. Nel caso di Nim, esistono strategie vincenti deterministiche che l’AI dovrebbe teoricamente essere in grado di apprendere, ma il self-play la porta a sviluppare tattiche subottimali che diventano radicate nel suo “DNA” algoritmico.
Oltre i giochi: implicazioni per l’AI del futuro
La scoperta va ben oltre il mondo ludico e tocca questioni fondamentali sull’affidabilità dell’intelligenza artificiale. Se un sistema può avere punti ciechi così evidenti in contesti controllati come i giochi, cosa succede quando deve prendere decisioni in ambiti complessi come la medicina, la finanza o la guida autonoma?
I ricercatori hanno identificato che il problema emerge in giochi dove esistono strategie ottimali definite matematicamente ma dove il self-play può portare l’AI a convergere su equilibri subottimali. È come se l’intelligenza artificiale sviluppasse delle “cattive abitudini” giocando sempre contro avversari con gli stessi difetti, senza mai essere esposta a strategie davvero efficaci.
Questo fenomeno solleva interrogativi profondi sui metodi di addestramento attuali. Il self-play, considerato una delle innovazioni più brillanti di DeepMind, mostra i suoi limiti quando l’esplorazione dello spazio delle strategie possibili non è sufficientemente diversificata. L’AI rischia di rimanere intrappolata in quello che i ricercatori chiamano “local optima” – soluzioni che sembrano buone nel contesto limitato in cui sono state sviluppate, ma che crollano di fronte a approcci alternativi.
Ripensare l’addestramento delle AI
La buona notizia è che identificare questi failure mode apre la strada a miglioramenti significativi. I ricercatori stanno esplorando metodi di addestramento ibridi che combinano il self-play con l’esposizione a strategie diverse, includendo anche approcci “naïf” che potrebbero rivelare punti ciechi nascosti.
Per il mercato italiano e europeo dell’AI, queste scoperte assumono particolare rilevanza. Con il nuovo AI Act europeo che pone l’accento sulla trasparenza e affidabilità dei sistemi di intelligenza artificiale, comprendere e mitigare questi failure mode diventa non solo una questione tecnica, ma anche normativa.
Le aziende che sviluppano soluzioni AI dovranno sempre più dimostrare di aver testato i loro sistemi contro una varietà sufficientemente ampia di scenari, inclusi quelli che potrebbero sembrare “troppo semplici” per essere rilevanti. La lezione di Nim ci insegna che in campo AI, la semplicità può essere più insidiosa della complessità.
Mentre DeepMind e altri laboratori di ricerca lavorano per risolvere questi problemi, una cosa è chiara: l’intelligenza artificiale è ancora un campo in rapida evoluzione, dove ogni conquista rivela nuove sfide inaspettate. Forse è proprio questa capacità di sorprenderci – nel bene e nel male – a renderla così affascinante e al tempo stesso così importante da studiare a fondo.
Fonte: Ars Technica