Alcune estensioni del browser, apparentemente innocue, sono state progettate per raccogliere informazioni sensibili dalle conversazioni degli utenti e venderle a società di marketing e data broker. A dirlo è un’indagine della società di sicurezza Koi, con sede a Tel Aviv, che ha sollevato un allarme significativo sulla privacy degli utenti che utilizzano chatbot AI come ChatGPT, Claude, Gemini, DeepSeek e Grok.
Estensioni malevole: quando la privacy diventa merce
Al centro dello scandalo c’è Urban VPN Proxy, un’estensione gratuita per Google Chrome che offriva servizi di VPN agli utenti. La particolarità, tutt’altro che innocua, emerge dagli script “executor” integrati nell’estensione: strumenti progettati per intercettare e registrare ogni interazione con i chatbot AI, incluse richieste su salute, dettagli finanziari, codici riservati e persino dilemmi personali. Le informazioni così raccolte non restano confinate all’uso interno dell’applicazione, ma vengono trasferite a società come BiScience, data broker che elaborano i dati e li rivendono per scopi di marketing.
Il meccanismo, come spiega il ricercatore di Koi Ian Dardikman, è semplice ma inquietante: gli script attivi nell’estensione estrapolano le conversazioni in background, indipendentemente dal fatto che la VPN sia in uso o meno. La raccolta è attivata di default e non esiste alcuna opzione per disabilitarla; l’unica soluzione per interrompere la fuga di informazioni è la completa disinstallazione dell’estensione. Finora, milioni di utenti ignari hanno visto le proprie interazioni con i chatbot passare a terzi, senza alcun consenso esplicito.
Secondo quanto riportato da Koi e testate internazionali, Urban VPN Proxy aveva accumulato 6 milioni di utenti, cifra significativa considerando che non si tratta dell’unica estensione coinvolta in questa pratica. Altre sette estensioni dello stesso fornitore, presenti sia su Chrome che su Edge, implementavano la stessa raccolta di dati tramite AI, e sei di esse erano contrassegnate come “In primo piano”, ricevendo il benestare di Google e Microsoft.
Questo marchio di affidabilità, che normalmente certifica un elevato standard di esperienza e design, ha agito paradossalmente da incentivo per la diffusione delle estensioni, contribuendo a raccogliere dati sensibili su scala massiccia.
La portata dell’operazione e il rischio sistemico: come proteggersi
La diffusione di questi strumenti rappresenta un cambiamento radicale nel trattamento della privacy online. Gli utenti, sia privati sia professionisti, si trovano improvvisamente soggetti a una sorveglianza informatica capillare, con dati che possono essere rivenduti a terzi senza possibilità di tracciamento. La combinazione tra il contenuto delle conversazioni e la profilazione commerciale apre scenari nuovi e potenzialmente pericolosi, in cui informazioni delicate possono entrare in circolazione senza alcun controllo da parte dei diretti interessati.
La fiducia nei chatbot AI, fino a oggi considerati ambienti relativamente sicuri e confidenziali, è quindi minata. La percezione di una “zona privata” viene infranta, e le aziende che utilizzano questi strumenti in ambiti sensibili — dal customer care all’assistenza sanitaria — potrebbero essere costrette a rivedere politiche interne, informative e procedure di controllo, per tutelare clienti e dipendenti.
La lezione principale emersa dal report di Koi è chiara: occorre prestare estrema attenzione alle estensioni installate sui browser, specialmente quelle che interagiscono con i chatbot AI. Gli utenti dovrebbero valutare con attenzione l’affidabilità delle fonti, monitorare le impostazioni di privacy e limitare le informazioni sensibili condivise durante le conversazioni.
Disinstallare le estensioni sospette rappresenta l’unico metodo certo per interrompere la raccolta indiscriminata dei dati, ma resta il rischio che tutte le conversazioni generate dall’estate 2025 siano già registrate e distribuite a data broker. In questo contesto, la consapevolezza e la vigilanza diventano strumenti fondamentali per preservare la propria privacy digitale.