Perplexity, la modalità privata è una truffa
Nel 2026, il tema della privacy nelle applicazioni AI rimane uno dei più spinosi del panorama tech. E ora Perplexity, il motore di ricerca basato su intelligenza artificiale che sta guadagnando sempre più utenti, si trova al centro di una causa legale che mette in discussione l’integrità delle sue promesse di riservatezza. Una class action ha accusato l’azienda di vendere una “modalità incognito” che è poco più di una finzione, condividendo i dati sensibili degli utenti con giganti come Google e Meta senza il loro consenso.
La scoperta è particolarmente preoccupante perché colpisce tutti gli utenti, indipendentemente dal fatto che abbiano sottoscritto un account a pagamento o utilizzino la versione gratuita. E il peggio? I ricercatori che hanno analizzato il codice della piattaforma hanno trovato prove concrete che persino le conversazioni ritenute private venivano trasmesse integralmente a terzi. Questo non è un caso isolato di cattiva configurazione: sembra un meccanismo strutturale della piattaforma.
Come funziona il buco di privacy
Secondo quanto emerso dalla causa legale, il sistema di Perplexity opera in modo sistematico e persistente. Usando i developer tools del browser (strumenti che qualsiasi utente tecnico può utilizzare), è stato possibile tracciare esattamente quali dati vengono spediti dove. Ogni prompt iniziale viene condiviso, così come tutte le domande di follow-up che l’utente clicca per approfondire la ricerca.
Ma il meccanismo più inquietante riguarda gli utenti non iscritti. Quando questi ultimi inseriscono una domanda sulla piattaforma, il sistema genera un URL attraverso il quale l’intera conversazione può essere accessibile a chiunque abbia il link—inclusi rappresentanti di Google e Meta che, secondo la denuncia, ricevono sistematicamente questi indirizzi. Immaginate: state cercando informazioni sensibili su una condizione medica, un problema legale o un aspetto personale della vostra vita, e improvvisamente il vostro intero scambio con l’IA è raggiungibile da società di advertising interessate ai vostri dati comportamentali.
La questione diventa ancora più grave quando consideriamo il volume di informazioni in gioco. La causa sottolinea che enormi quantità di dati sensibili provenienti sia da utenti abbonati che non abbonati vengono regolarmente condivise. Non stiamo parlando di informazioni anonimizzate o aggregate: stiamo parlando di conversazioni intere, nel loro contesto completo.
La promessa tradita della modalità incognito
Uno degli aspetti più frustranti di questa vicenda è la questione della trust. Perplexity, come molti servizi moderni, ha implementato una “modalità incognito” che gli utenti si aspettavano funzionasse come quella dei browser web: proteggere la loro privacy durante la navigazione e le ricerche. È una promessa che risuona con chiunque sia preoccupato della propria privacy online, soprattutto in un’era dove le megacorporazioni sembrano controllare ogni angolo del nostro comportamento digitale.
Ma secondo la causa, questa promessa è rivelatasi completamente vuota. I dati venivano condivisi ugualmente, indipendentemente dalla modalità utilizzata. È come se Perplexity avesse apposto un lucchetto sulla porta della vostra casa, ma i costruttori tenessero una copia della chiave e la distribuissero liberamente a potenziali acquirenti.
Quello che fa veramente discutere è che questa non sembra essere un’eccezione o un bug dimenticato durante gli aggiornamenti. Le evidenze suggeriscono che il sistema è stato progettato intenzionalmente in questo modo. Perplexity potrebbe monetizzare i dati degli utenti, sia vendendo insights ai partner pubblicitari sia operando come fonte di training per algoritmi di IA di altre aziende. Nel 2026, dove il valore dei dati è diventato una commodity fondamentale, questa pratica rappresenta un modello di business attraente per molti player tech—ma eticamente discutibile.
Quale futuro per la privacy online?
Questa causa rappresenta un momento cruciale per la regolamentazione della privacy nel settore dell’IA. L’Europa, con il suo GDPR e le normative sempre più stringenti, ha tracciato una linea: il consenso informato non è negoziabile. Gli Stati Uniti, dove opera Perplexity, hanno invece un approccio più permissivo, ma anche lì la marea sta cambiando. Una causa di questa portata potrebbe catalizzare una reazione normativa più decisa.
Per gli utenti italiani, la situazione è ancora più complessa. Se utilizzate Perplexity, tecnicamente dovreste beneficiare della protezione del GDPR, il che significa che Perplexity non avrebbe il diritto di condividere i vostri dati senza consenso esplicito. Tuttavia, le violazioni della privacy da parte di servizi americani rimangono comuni, spesso perché le aziende americane ritengono il costo delle possibili sanzioni inferiore ai guadagni ottenuti dalla commercializzazione dei dati.
La vera lezione qui è semplice ma amara: non potete fidarvi ciecamente della volontà delle aziende tech di proteggere la vostra privacy, anche quando lo promettono esplicitamente. Dovete verificare, controllare, leggere le condizioni di servizio (sì, davvero) e considerare alternative che hanno modelli di business diversi. E quando utilizzate servizi di ricerca AI, ricordate sempre: se qualcosa è gratis, molto probabilmente il prodotto siete voi.
Nel frattempo, questa causa rappresenta un’opportunità per le autorità di protezione dei dati, non solo americane ma globali, di tracciare una linea definitiva su cosa è accettabile e cosa no nel trattamento dei dati degli utenti. Il 2026 potrebbe essere l’anno in cui il settore AI comincia a comprendere che la privacy non è una “feature opzionale”, ma un diritto fondamentale.
Fonte: Ars Technica