Il subconscio digitale e le merendine
Stavo in spiaggia, la scorsa estate, e c’erano milioni di piccoli sassi intorno a me. La spiaggia non era sabbiosa, sembrava fatta di ghiaia di fiume ma era il mar Tirreno. Ne ho presi in mano un po’, ho fantasticato fossero “dati anonimi”. Sassi come dati, non appartenenti né riferibili a nessuno. Mi sono chiesto se potessero avere comunque una qualche utilità, almeno in generale, presi tutti assieme; o se avessero, in ogni modo, qualche impatto su di me, inteso come singolo individuo, pur non essendo “sassi personali”. Tornerò tra qualche pagina su questa suggestione.
Voglio parlarvi, prima, di trattamenti, analisi e profilazioni di dati personali, cioè non anonimi, ovvero in qualche maniera riferibili, direttamente o indirettamente anche con l’aiuto di terze parti, a una persona fisica – per esempio a me o a un altro cittadino, utente o consumatore. Un dato personale è davvero qualsiasi elemento (materiale o immateriale) che possa essere riferito a un individuo. Un pacchetto di sigarette, trovato per terra, è un dato personale se riesco a ricondurlo al suo proprietario. Un numero, se collegabile a Tizio o Caio, è un dato personale. Un aggettivo – bello, brutto, simpatico, antipatico – è un dato personale (valutativo) se relativo a una persona fisica determinata. Qualsiasi coordinata (telefono, email ecc.), che ci permetta di raggiungere Tizio o Caio, è un dato personale.
In prospettiva noiosamente legalese, si intende per “trattamento di dati” qualsiasi operazione che ci faccia “toccare” più o meno metaforicamente dati personali: anche la mera conservazione di un dato (perfino contro la nostra volontà: ipotizziamo di ricevere un’email indesiderata nella nostra casella di posta, che contenga dati personali di terzi) costituisce un “trattamento di dati”. Il verbo “trattare”, insomma, è un po’ come “puffare”, un passepartout. Chiunque si ritrovi nel proprio perimetro/dominio, fisico o virtuale, dei dati riferibili ad altre persone, li sta trattando. Solo che alcuni soggetti coi dati del prossimo – e spesso anche coi propri – non sanno cosa diavolo farci, mentre altri ne fanno usi stupefacenti e meravigliosi (nel bene o nel male). Inoltre, per quanto il “trattamento” sia così esteso come concetto, è pur vero che ci sono tipi di specifici trattamenti – la profilazione è uno di questi, come ho cercato di cominciare a evidenziare nel precedente capitolo – più pericolosi per i diritti e le libertà fondamentali degli esseri umani.
Ora, la profilazione comportamentale dei giorni nostri – che aiuta a classificarci in categorie più generali ma anche, al contrario, a personalizzare i contenuti che ci vengono rivolti – ha tre caratteristiche cruciali: è Big, è generativa ed è silenziosa. I Big Data possono riassumersi grosso modo così, per giustificare l’aggettivo Big: sono un trattamento (analisi) di dati – anche personali, se del caso – che rispetta le cosiddette tre V: Volume, perché si trattano ingenti moli di dati; Varietà, perché questi dati vengono da fonti molto diverse (per esempio tanti sensori sparsi, tanti siti web, tanti cookie, tanti luoghi ecc.) e i dati stessi sono estremamente differenti e disparati fra loro; Velocità, perché si riesce a fare analisi rapidissime e praticamente in tempo reale di queste grosse quantità di informazioni varie. Per fare Big Data Analysis serve intelligenza, tanta intelligenza, e per questo si rivela certamente d’aiuto il paradigma del cloud computing e l’evoluzione dei sistemi informatici esperti, che crescono e migliorano autonomamente nella loro capacità di comprendere i dati, analizzarli, interpretarli e farne discendere conseguenze, decisioni, altri dati.
Già, perché la seconda caratteristica della profilazione 4.0 (l’essere generativa) comporta che essa dia vita anche a dati nuovi di zecca, che sono risultati inediti frutto delle elaborazioni precedenti.
La terza caratteristica, il silenzio, è insidiosa. Se io vi mandassi un’email di spam o vi telefonassi a casa all’ora di cena per fare promozione dei miei servizi, posso supporre che vi arrabbiereste: avreste tutte le ragioni per perdere le staffe, ma soprattutto, a guardare il bicchiere mezzo pieno addirittura in una molestia pubblicitaria, sareste fortunati. Non sono impazzito. Una telefonata di marketing dà fastidio come la puntura di una vespa (secondo me, anche leggendo certe sentenze di Cassazione, fa più male la puntura ma il paragone non cambia): di quel fastidio – e quindi di quel pessimo utilizzo dei vostri dati come il vostro numero di telefono, la vostra email – ci si accorge subito. E questa è una vera fortuna. È qualcosa che, a un certo punto, si scopre necessariamente, almeno a valle. Magari non conoscete le vicende a monte, i percorsi che hanno fatto i vostri dati, inseriti in chissà quali liste del mercato nero delle banche dati commerciali, ma alla fine diventate consapevoli del “maltrattamento” e potete provare a reagire, a difendervi. Nel silenzio, no. Tutto accade sopra e dietro di voi.
Ecco che, se mettiamo insieme i tre ingredienti (Big, generatività, silenzio) succede qualcosa di veramente impressionante. Non solo noi persone – soggetti passivi del trattamento dei nostri dati – non ci accorgiamo del fatto che stiamo venendo profilati e come e perché. Di più. Qualcuno – e questo qualcuno potrebbe essere un’impresa ma anche un network di mille imprese o uno, dieci, cento governi o uno o più robot – riesce a sapere di noi cose che nemmeno noi supponiamo esistere, e il motivo è semplice: quelle informazioni sono nate a nostra insaputa, generate altrove da noi. C’è chi conosce aspetti di noi che noi ignoriamo. C’è chi possiede informazioni che ci riguardano ma di cui non sospettiamo l’esistenza. Tantomeno ci immaginiamo i tipi di trattamenti che vengono fatti con queste informazioni (figurarsi, nemmeno pensiamo che esistano). E meno ancora pensiamo ai possibili effetti e impatti, sulle nostre piccole grandi vite, di questi trattamenti di dati fantasma. Eppure, effetti ci sono.
Essere inseriti in una lista di soggetti “anomali” o categorizzati tra coloro che votano a destra o sinistra, o tra quelli che amano il gelato alla nocciola, o tra gli spendaccioni, o tra i viaggiatori – e quindi ricevere o non ricevere contenuti, con offerte personalizzate – non è forse un effetto sulle nostre vite? Se poi gli impatti fossero ulteriori e più gravi, in termini di conseguenze sia legali (accertamenti fiscali, esclusione da gare, assegnazioni di beni o servizi a condizioni discriminatorie) sia reali (non si apre la porta, non ci fanno entrare in quel ristorante o locale notturno, non ci consentono di varcare una frontiera, non ci fanno salire sull’aereo), ne sentiremmo tutto il peso senza capire appieno i motivi che ci hanno portato fino a quel “fatto” rilevante per la nostra vita.
Parlo di “subconscio digitale” per definire tutto questo e non ho in mente solo Derrick de Kerckhove, il quale sembra farne una questione più che altro reputazionale. Certo, c’è indubbiamente un mondo sommerso di trattamenti automatizzati occulti di nostri dati (dati che conosciamo, o che dovremmo conoscere perché li abbiamo prodotti/rappresentati noi stessi all’esterno direttamente); ma c’è anche un universo di dati su di noi – derivati da noi o attribuiti arbitrariamente a noi – che, invece, non possiamo sapere e che altri sanno, con ricadute più o meno significative sulle nostre vite che non riusciamo a spiegarci pienamente. Quasi un esercizio di potere “trans-psichico”, per usare una chiave di lettura psicoanalitica, una sorta di controllo remoto di terze parti in grado di intervenire direttamente nel nostro Io e Super-Io inconsci, “riprogrammandoci”. Pensate al caso Cambridge Analytica e, più in generale, alla propaganda occulta, basata su monitoraggi e tracciamenti apparentemente innocui o perfino divertenti.
Gli effetti delle profilazioni comportamentali che personalizzano i contenuti e i servizi che ci vengono rivolti, peraltro, possono essere preoccupanti anche allo “stadio fisiologico”. Non mi riferisco, quindi, ai deprecabili casi di discriminazioni occulte, ingiustizie, violazioni. Parlo di profilazione e personalizzazione legittime, fatte a regola d’arte e nel rispetto delle leggi. La personalizzazione implica comunque che – conoscendoci bene e analizzando i nostri gesti quotidiani sempre più digitali e quindi tracciabili – i “titolari del trattamento dei dati” e gli altri soggetti/oggetti che hanno interessi in gioco volendo fare colpo su di noi (per esempio inserzionisti e terze parti varie) mirino a presentarci offerte e contenuti basati su chi siamo e su chi dovremmo diventare. Sì, perché la profilazione comportamentale intelligente non si limita a fotografare lo status quo di un individuo, ma include anche una carica predittiva secondo modelli statistici, per capire chi saremo o cosa faremo, verosimilmente, domani e dopodomani. Ciò vuol dire che ognuno di noi riceve di continuo sollecitazioni, contenuti, proposte che sono ritagliate e disegnate sulla base di chi già è, di ciò che già si aspetta, desidera, ama, preferisce, usa fare, leggere, comprare, mangiare. O, al più, di ciò che probabilmente desidererà, amerà, preferirà ecc. sulla base di ricorrenze statistiche maggioritarie.
Siamo posizionati costantemente davanti a uno “specchio delle nostre brame”, altro che selfie, convinti d’essere grandi esploratori dell’universo quando, alla fin fine, stiamo solo percorrendo come criceti inconsapevoli sentieri preconfezionati da altri. È evidente che un essere umano, se messo sempre e prevalentemente a confronto con se stesso e con quanto già vuole, si aspetta, preferisce, evolve più debolmente. Sono convinto – e si possono trovare interessanti letture specialistiche sul punto, sedimentate negli anni, così come validi spunti nei teorici del pensiero debole – che una persona diventi “grande” confrontandosi con l’altro da sé, con l’inaspettato, il sorprendente, con il diverso e persino con l’avverso. Senza esagerare, naturalmente, ma senza dissolversi e spegnersi nella nostra comfort zone. Lessi con curiosità e soddisfazione di alcuni tentativi di sviluppo di app, negli Stati Uniti, dedicate a mostrare contenuti opposti a quelli che si è abituati a cercare, scaricare o leggere mentre si naviga on line (immagino delle specie di widget che mostrano finestre di contenuti “avversi” o “sorprendenti” in qualche parte dello schermo, per spiazzarci dalle nostre consuetudini personali o per sviare il motore di ricerca su sentieri misteriosi).
Se c’è un effetto di rallentamento dell’evoluzione (mentale, intellettuale), dovuto al continuo specchiarci in chi già siamo, posso immaginare quanto queste conseguenze possano aggravarsi se il target è un bambino, ancora più vulnerabile e permeabile, ancora più bisognoso di confronti con l’altro da sé.
Potrei aggiungere un ulteriore carico di preoccupazioni, questa volta relative alle profilazioni e analisi fondate su dati anonimi (non personali, quindi non informazioni relative a persone identificate o identificabili) ma mi chiedo se sia il caso di farlo. Non vorrei stressare il lettore invece di compiacerlo (come farebbe un bot personalizzante pubblicitario). Ok, vi stresso. Ipotizziamo due scenari in cui entrano in gioco anche o solo dati anonimi.
Il primo scenario è quello della profilazione ibrida, sia con dati personali sia con dati anonimi. In sostanza, è pressoché uguale ai casi che ho presentato finora, con un ingrediente in più che aggrava la portata del meccanismo di “subconscio digitale”. Infatti, come accennavo, chi tratta i nostri dati, per prendere meglio la mira, può mettere nel cocktail non solo dati che abbiamo prodotto noi stessi e dati nuovi generati da altre elaborazioni, ma anche ulteriori informazioni del tutto anonime, non “nostre”. E, con questo cocktail, risultare ancora più efficace nel colpirci. Un esempio chiaro e tondo, senza perderci troppo tempo? Il meteo. Le condizioni e le previsioni meteorologiche non sono dati personali, ma di contesto ampio, e tuttavia, se combinate con la nostra geolocalizzazione e con il fatto che amiamo il gelato alla nocciola… si dimostreranno informazioni essenziali per sottoporci o meno, con successo, un banner pubblicitario sul nuovo gelato XXX in vendita in tutti i bar della provincia. Se è o sarà bel tempo nelle prossime 24 ore, è molto probabile che a te – consumatore-utente – venga voglia di mangiare una prelibatezza dolce e ghiacciata. Se piove, evitiamo di sprecare soldi in annunci promozionali, tanto non andrai al caffè né in spiaggia.
Il secondo scenario riguarda, invece, la Big Data Analysis operata solo con informazioni anonime o anonimizzate (ex dati personali sottoposti a un processo irreversibile per cui non possono più essere ricondotti ai singoli individui da cui furono tratti). Per cercare di mostrare quanto certe elaborazioni artificiali e intelligenti di dati anonimi possano comportare rischi per “noi umani”, ogni tanto faccio l’esempio della bomba atomica sulla città di Kyoto nella Seconda guerra mondiale. Normalmente, appena dico: «bomba atomica su Kyoto nella Seconda guerra mondiale» vedo facce perplesse o sconcertate, che si guardano tra loro e pensano: «Costui è un ignorante dei peggiori, le bombe colpirono Nagasaki e Hiroshima, come può non saperlo?». E infatti lo so. Ma so anche, perché l’ho letto su diverse fonti affidabili (il fact checking mi è tuttavia precluso nel dettaglio), che gli Stati Uniti nel 1945 avevano creato un “Target Committee” composto da generali e ufficiali dell’esercito e da scienziati di varie discipline, proprio per individuare le città perfette da bombardare con l’atomica in Giappone. Il Target Committee lavorò intensamente e come risultato stilò una lista di città-obiettivo: al primo posto c’era Kyoto. «Questo obiettivo è una zona industriale urbana con una popolazione di 1.000.000 di persone», si legge nei verbali del Target Committee. Kyoto aveva inoltre industrie importanti del Paese, oltre a essere il sito archeologico probabilmente più rilevante del Giappone. Il Target Committee prese anche in considerazione elementi psicologici, in particolare il fatto che a Kyoto c’erano parecchie università, una popolazione più colta e in grado di comprendere appieno il significato epocale e devastante della bomba atomica. Insomma, volevano colpire il Giappone al cuore e per farlo dovevano individuare le sedi in cui avrebbe generato più impatti, anche morali e culturali, la bomba.
Le ricostruzioni storiche vorrebbero che l’ordine di rimuovere Kyoto dalla lista degli obiettivi fosse arrivato – prima di passare dal presidente Truman – dal segretario della Guerra, Henry Stimson, preoccupato per la distruzione di un luogo così prezioso sul piano storico e archeologico (ma c’è chi sostiene che fosse spinto, in verità, da questioni più personali e sentimentali). Un’altra ricostruzione vede nell’archeologo Langdon Warner il vero “eroe” in grado di convincere gli Stati Uniti d’America a risparmiare Kyoto. Altri ancora ne fanno solo una questione di “opportunismo storico”, nel senso che il bombardamento di Kyoto con i suoi templi e tesori storici avrebbe reso più difficile la fase di ricostruzione e pacificazione postbellica, generando ancora più odio e rancori inestirpabili nella popolazione. Comunque, torniamo al Target Committee: quello che fecero, per arrivare a indicare Kyoto come primo obiettivo dell’atomica, non fu altro che un’analisi generale di dati anonimi, una Big Anonymous Data Analysis ante litteram. Se avessero avuto i social network per le mani, probabilmente avrebbero tratto dati statistici sui profili dei giapponesi iscritti al social network per arricchire la loro analisi. In ogni caso avrebbero valutato la mole e la qualità delle connessioni web dalle varie città giapponesi, e tanti altri elementi che nel 1945 non potevano avere o non esistevano, ma che oggi un Target Committee valuterebbe.
Mi capita di leggere studi e pareri di esperti e autorità per la protezione dei dati, in Europa e nel mondo, e noto spesso con un certo fastidio che, parlando di profilazioni e Big Data, essi sembrano angosciarsi solo per le eventualità che si elaborino in quel modo informazioni personali (riferibili a persone identificate o identificabili) o che si possa in qualche modo risalire, dai risultati aggregati, indietro fino ai singoli individui da cui furono tratti i dati. Ma gli impatti sugli esseri umani possono derivare anche da analisi automatizzate e intelligenti con dati anonimi, è chiarissimo: la decisione di sganciare una bomba sulla testa di una, due, dieci, mille o un milione di persone può bastare come esempio per dire che – se da un’elaborazione di dati anonimi si fa discendere una decisione così grave – la “personalità dei dati” è solo una parte del problema e neppure essen...