Ci muoviamo in un ecosistema digitale in continua espansione. Navighiamo su internet, interagiamo con i nostri smartphone, guidiamo auto sempre più connesse e ci circondiamo di elettrodomestici intelligenti. Ogni singola interazione lascia una traccia, un minuscolo frammento di informazione che, sommato ad altri, compone un ritratto dettagliato di chi siamo: la nostra identità digitale.
Questa identità non è un semplice alias online. È un sofisticato aggregato di dati demografici, abitudini di consumo, interessi, opinioni politiche, relazioni sociali e persino il nostro stato d’animo, dedotto dalle parole che digitiamo o dalle espressioni che usiamo nelle videochiamate. Il problema è che questa preziosa costruzione non è interamente sotto il nostro controllo. Anzi, è diventata la merce più ambita in un mercato che genera miliardi di dollari all’anno: il mercato dei dati personali.
Il DATO: il nuovo oro nero del “capitalismo della sorveglianza”
Per anni abbiamo sentito dire che “i dati sono il nuovo petrolio”. Oggi, questa affermazione è più che mai vera. Aziende specializzate nella raccolta e nell’analisi dei dati, broker di informazioni, giganti della tecnologia e persino entità governative sono costantemente alla ricerca di questi preziosi frammenti. Ma a cosa servono?
L’obiettivo principale è la previsione dei comportamenti. Se un’azienda sa cosa abbiamo cercato online, quali prodotti abbiamo visualizzato, quali pagine abbiamo visitato e per quanto tempo, può prevedere con un’accuratezza sorprendente cosa potremmo voler acquistare in futuro. Questo si traduce in pubblicità mirate, offerte personalizzate e strategie di marketing sempre più raffinate.
Ma l’impatto va ben oltre gli acquisti. L’analisi dei dati può prevedere le nostre inclinazioni politiche, le nostre vulnerabilità emotive o persino le nostre propensioni al rischio. E se un comportamento può essere previsto, può anche essere influenzato. Questo ci porta direttamente al concetto di Capitalismo della Sorveglianza, coniato dalla studiosa Shoshana Zuboff. Non si tratta solo di marketing mirato; è un sistema economico in cui i nostri dati vengono estratti, analizzati e monetizzati per prevedere e modificare il nostro comportamento. Noi stiamo di fatto pagando per farci dominare, fornendo gratuitamente le informazioni che alimentano un’industria il cui scopo ultimo è quello di controllare le nostre scelte, dagli acquisti più banali alle decisioni politiche fondamentali.
L’influenza invisibile: dagli acquisti alle scelte politiche
Immaginate di navigare su un social media e di essere esposti a contenuti che, pur sembrando innocui, sono stati selezionati algoritmicamente per rafforzare determinate convinzioni o spingervi verso una specifica decisione. Questo non è fantascienza. Le tecniche di microtargeting sono diventate uno strumento potente per indirizzare messaggi specifici a segmenti di popolazione altamente definiti, con l’obiettivo di modellare opinioni e comportamenti.
Nel campo degli acquisti, questo si traduce in offerte irresistibili che sembrano “leggere il pensiero”, spingendoci a comprare prodotti che forse non avremmo considerato diversamente. Ma l’aspetto più preoccupante riguarda le scelte politiche. Scandali come quello di Cambridge Analytica hanno dimostrato come i dati personali possano essere utilizzati per manipolare le elezioni, diffondere disinformazione e polarizzare l’opinione pubblica, minando le basi stesse della democrazia.
Siamo noi il mercato
Il paradosso è che, in questa economia dei dati, acquisiti molto spesso inconsapevolmente, il mercato siamo noi. Non siamo più solo consumatori di servizi o prodotti digitali; siamo il prodotto stesso. Le nostre informazioni, le nostre abitudini, le nostre preferenze vengono monetizzate da un’industria che opera spesso nell’ombra, con regole ancora troppo flebili e un livello di consapevolezza pubblica ancora insufficiente.
La gratuità di molti servizi online è solo apparente. Il costo lo paghiamo con i nostri dati, cedendo fette sempre più ampie della nostra privacy in cambio di comodità e connettività.
Sharenting: la privacy dei minori in pericolo
Una delle manifestazioni più delicate e preoccupanti di questa economia dei dati è lo sharenting, un neologismo che fonde “sharing” (condivisione) e “parenting” (genitorialità). Si riferisce alla pratica, sempre più diffusa tra i genitori, di condividere foto e video dei propri figli minori sui social network come Facebook, Instagram o TikTok. Sebbene la motivazione sia spesso innocente, dettata dal desiderio di condividere momenti speciali, le ripercussioni sulla privacy e sicurezza dei minori possono essere devastanti.
Uno studio di Barclays ha previsto che, entro il 2030, la condivisione online sarà responsabile di due terzi delle frodi di identità online, con un costo che potrebbe superare i 667 milioni di sterline all’anno. A ciò si aggiunge una ricerca del Children’s Commissioner for England che rivela come, all’età di 13 anni, un bambino abbia già avuto in media 1.300 immagini condivise dai propri genitori o tutori. Dati sensibili come la data di nascita, la scuola frequentata o gli hobby, se pubblicati online, possono esporre i bambini a rischi futuri, rendendoli potenziali bersagli per truffatori o malintenzionati.
Meta AI: intelligenza artificiale e dati personali in Europa
Un’altra frontiera nella battaglia per la privacy è rappresentata dall’arrivo di Meta AI negli smartphone, anche in Unione Europea. Questo assistente virtuale, integrato direttamente in WhatsApp, Instagram e Facebook e alimentato dal large language model Llama 3.2, non può essere disinstallato e ha sollevato forti preoccupazioni in merito alla compatibilità con il GDPR (General Data Protection Regulation).
Meta ha annunciato l’intenzione di utilizzare i contenuti pubblici degli utenti europei maggiorenni di Facebook e Instagram (post, foto, didascalie, commenti, anche di profili privati se in gruppi aperti) per addestrare i suoi modelli di intelligenza artificiale. Sebbene sia possibile opporsi a questo utilizzo, l’onere ricade ancora una volta sull’utente, che deve attivarsi per negare il consenso tramite apposite procedure. Questa mossa riapre un dibattito acceso sull’uso dei dati online da parte delle big tech e sulla necessità di un maggiore controllo da parte degli utenti e delle autorità.
Fascicolo sanitario elettronico: un equilibrio precario tra servizio e privacy
Anche in un settore cruciale come la sanità, la gestione dei dati personali è al centro di un dibattito. Il Fascicolo Sanitario Elettronico (FSE), attivo dal 2012 e rafforzato durante la pandemia, raccoglie dati medici come cartelle cliniche e ricette, rendendoli più accessibili. Entro il 30 giugno 2024, i cittadini hanno la possibilità di rifiutare la trasmissione dei dati e delle informazioni antecedenti al 19 maggio 2020.
Questa data è significativa perché un decreto del secondo governo Conte ha stabilito che, dal 19 maggio 2020 in poi, tutti i dati sanitari sarebbero stati caricati automaticamente sul FSE, senza necessità di consenso esplicito. La possibilità di opporsi riguarda quindi solo i dati precedenti a tale data.
Tuttavia, si è creato un dibattito sulla reale portata di questa opposizione. Come chiarito da Christian Bernieri, data protection officer, l’opposizione riguarda solo le finalità non sanitarie, ovvero la condivisione dei dati con altri enti della Pubblica Amministrazione (come il Ministero delle Finanze per la spesa pubblica). Il personale sanitario, invece, avrà comunque accesso ai dati pertinenti per la cura, previo consenso specifico del cittadino.
Bernieri ha espresso preoccupazione per il rischio di hackeraggi, fughe di dati e abusi in un settore, quello sanitario, particolarmente colpito dagli attacchi informatici. Sebbene il FSE preveda misure di sicurezza e limitazioni (ad esempio, l’accesso negato a compagnie assicurative o datori di lavoro), il tema della sicurezza di un database così vasto e sensibile rimane prioritario. Se non ci si oppone entro il 30 giugno, i dati saranno utilizzati in forma anonima per calibrare la spesa sanitaria e migliorare la sanità pubblica.
L’intervento del Garante della Privacy ha ulteriormente evidenziato difformità e disomogeneità nell’applicazione del FSE tra le Regioni e le Province autonome. Diciotto regioni e due Province autonome hanno modificato il modello di informativa predisposto dal Ministero, compromettendo l’uniformità dei diritti e delle misure di tutela per i pazienti a livello nazionale. Queste violazioni potrebbero comportare sanzioni previste dal Regolamento europeo, sottolineando l’importanza di una gestione coerente e protetta dei dati sanitari.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE

Inaugurazione anno giudiziario, alla cerimonia del CNF anche Nordio
Al termine della cerimonia, presso la Basilica di Sant’Antonio in Laterano, sarà celebrata una Santa Messa in suffragio del Presidente Emerito del CNF, Guido Alpa

Accesso ai dati personali, sicurezza e privacy: cosa farà l’Europa?
L’epidemia da Coronavirus COVID-19 non ha solo esposto le debolezze dei sistemi sanitari nazionali e le inadeguatezze organizzative, ma sta anche creando difficoltà nella gestione…

Il Consiglio d’Europa tutela gli avvocati: nasce il primo trattato internazionale
Approvazione prevista per il 13 maggio: per entrare in vigore servirà la ratifica di almeno 8 Paesi