AI

Multiverse Computing lancia i suoi modelli AI compressi

Daniele Messi · 19 Marzo 2026 · 5 min di lettura
Multiverse Computing lancia i suoi modelli AI compressi
Immagine: TechCrunch

Il mondo dell’intelligenza artificiale si arricchisce di una nuova proposta che potrebbe cambiare le carte in tavola per quanto riguarda l’accessibilità dei modelli AI più avanzati. Multiverse Computing, azienda specializzata in computing quantistico e ottimizzazione AI, ha fatto un passo decisivo verso la democratizzazione dell’intelligenza artificiale lanciando sia un’app dedicata che un’API per rendere i propri modelli compressi disponibili al grande pubblico.

La novità non è di poco conto: stiamo parlando di versioni ottimizzate dei modelli AI più prestigiosi del momento, inclusi quelli di OpenAI, Meta, DeepSeek e Mistral AI. Questi colossi dell’AI hanno sviluppato alcuni dei large language model più potenti oggi disponibili, ma spesso le loro dimensioni e i requisiti computazionali li rendono accessibili solo a chi dispone di infrastrutture costose e complesse.

L’approccio di Multiverse Computing promette di abbattere queste barriere, offrendo prestazioni comparabili con un footprint computazionale significativamente ridotto. Ma cosa significa realmente questa evoluzione per il mercato dell’AI e per gli sviluppatori italiani ed europei?

La rivoluzione della compressione AI

La compressione dei modelli AI rappresenta una delle sfide più affascinanti e complesse del settore. Mentre i modelli tradizionali possono richiedere centinaia di gigabyte di memoria e potenza di calcolo industriale, le tecniche di compressione sviluppate da Multiverse Computing puntano a mantenere l’efficacia riducendo drasticamente le risorse necessarie. Questo approccio non è solo una questione di ottimizzazione tecnica, ma una vera e propria filosofia che mira a rendere l’AI più sostenibile ed accessibile.

Il team di Multiverse Computing ha lavorato sui modelli di punta dell’industria, applicando tecniche avanzate di pruning, quantizzazione e distillazione. Il risultato sono versioni “snelle” che mantengono gran parte delle capacità originali ma possono girare su hardware consumer o su cloud con costi significativamente inferiori. Per il mercato italiano, questo significa che anche startup e PMI potrebbero finalmente accedere a tecnologie AI di livello enterprise senza dover sostenere investimenti proibitivi in infrastruttura.

L’aspetto più interessante è che questa compressione non avviene a scapito della qualità. I test preliminari suggeriscono che i modelli compressi mantengono performance molto vicine agli originali nella maggior parte dei task, dalla generazione di testo alla comprensione del linguaggio naturale, passando per applicazioni più specializzate come l’analisi di codice o la traduzione automatica.

App e API: l’AI compressa diventa mainstream

Il lancio simultaneo di un’applicazione consumer e di un’API professionale rappresenta una strategia ben calibrata per conquistare sia il mercato B2C che quello B2B. L’app sviluppata da Multiverse Computing funge da showcase delle capacità dei modelli compressi, permettendo agli utenti di sperimentare direttamente con interfacce intuitive e comprendere il potenziale della tecnologia. Si tratta di un approccio simile a quello adottato da ChatGPT nei suoi primi mesi di vita, quando la semplicità d’uso ha contribuito a far esplodere l’interesse del pubblico generale.

Dal lato enterprise, l’API rappresenta il vero game-changer. Gli sviluppatori possono ora integrare modelli AI avanzati nelle proprie applicazioni senza dover gestire l’hosting di modelli mastodontici o negoziare contratti enterprise con i grandi player del settore. Questo livello di accessibilità potrebbe scatenare una nuova ondata di innovazione, specialmente in Europa dove il tessuto imprenditoriale è caratterizzato da realtà più piccole e agili rispetto ai giganti della Silicon Valley.

Per il mercato italiano, le implicazioni sono particolarmente interessanti. Le nostre aziende, spesso caratterizzate da grande creatività ma risorse limitate, potrebbero finalmente competere ad armi pari con i colossi internazionali nell’implementazione di soluzioni AI avanzate. Dall’automazione dei processi aziendali allo sviluppo di chatbot sofisticati, passando per applicazioni di analisi dati e content generation, le possibilità sono virtualmente infinite.

Impatto sul futuro dell’AI accessibile

La mossa di Multiverse Computing si inserisce in un trend più ampio che vede l’industria dell’AI sempre più focalizzata sull’efficienza e la democratizzazione. Mentre i modelli diventano progressivamente più potenti, cresce anche la consapevolezza che le risorse computazionali non sono infinite e che la sostenibilità economica ed ambientale deve essere parte integrante dello sviluppo tecnologico.

Questo approccio potrebbe influenzare significativamente anche le strategie dei grandi player. Se i modelli compressi dimostrassero di poter offrire un rapporto prestazioni/costi superiore, potremmo assistere a un cambio di paradigma nell’intera industria, con maggiore focus sull’ottimizzazione piuttosto che sulla pura potenza bruta. In Italia, dove l’attenzione alla sostenibilità e all’efficienza energetica è particolarmente alta, questa filosofia potrebbe trovare terreno fertile.

Il successo di questa iniziativa dipenderà molto dalla capacità di Multiverse Computing di mantenere le promesse in termini di performance e di costruire un ecosistema di sviluppatori attorno alle proprie tecnologie. Tuttavia, i presupposti ci sono tutti per una rivoluzione che potrebbe finalmente portare l’AI avanzata fuori dai laboratori delle Big Tech e nelle mani di chiunque abbia un’idea innovativa da realizzare.

Fonte: TechCrunch