Abbiamo parlato dellâenorme volume di dati pronti a essere raccolti dalla vera internet delle cose, dei flussi torrenziali di zero e uno che scorrono in mezzo e tra i dispositivi in rete di tutto il mondo. Abbiamo visto come la fabbricazione digitale dei dispositivi possa trasformare i dati in oggetti materiali della piĂș straordinaria delicatezza e precisione, come il desiderio di rendere incorruttibili i dati condivisi fornisca alla blockchain il suo vero scopo e ragione di essere. Ma non ci siamo ancora fermati a riflettere su che cosa siano i dati.
Iniziamo con la considerazione che, qualunque serie di eventi la vita ci metta di fronte, abbiamo bisogno di situarci nel mondo, valutare le circostanze e le possibilitĂ che essi offrono di agire per uno scopo e poi decidere tra le opzioni che abbiamo a disposizione â e questo vale sia quando decidiamo con chi fare amicizia il primo giorno di asilo, quando scegliamo le sementi piĂș adatte da piantare nella parte in ombra del nostro orto collettivo o quando impegniamo un aereo da combattimento da un quarto di milione di dollari in uno scontro ravvicinato con un nemico altrettanto ben attrezzato. Un modo semplice di definire i dati potrebbe allora essere: fatti riguardanti il mondo, le persone, i luoghi, le cose e i fenomeni che insieme lo comprendono, che raccogliamo per intraprendere azioni basate su di essi.
Ma prima di agire sulla base di questa raccolta di fatti, abbiamo bisogno di capirne il senso. Un luogo comune della scienza dellâinformazione sostiene che dati, informazione, conoscenza e competenza formano un continuum coerente: a ogni stadio di questo continuum vengono applicate diverse procedure che trasformano i fatti che osserviamo in comprensione e consapevolezza. Questo modello contempla molte versioni, ma fondamentalmente tutte asseriscono che noi misuriamo il mondo per produrre dati, organizziamo i dati per produrre informazioni che abbiano senso e ci servano per agire, facciamo sintesi tra le informazioni e la nostra precedente esperienza del mondo per produrre conoscenza, e quindi â in qualche modo non specificato e probabilmente indescrivibile â arriviamo al punto in cui siamo in grado di mettere in pratica le cose che conosciamo con lâineffabile qualitĂ di equilibrato discernimento che chiamiamo saggezza.
Tutte le varie versioni di questo modello generalmente presuppongono che i dati in sĂ© siano neutrali e oggettivi. Ma tutte le volte che diciamo «dati» in realtĂ ci riferiamo a un sottoinsieme degli infiniti aspetti del mondo che sono stati catturati da uno strumento o da un processo di misurazione (in effetti, la parola francese per «sensore», capteur, rispecchia direttamente questa considerazione e alcuni dei piĂș sensibili osservatori della tecnologia di trattamento dellâinformazione hanno sostenuto che in inglese la parola «capta» sarebbe un modo piĂș accurato di descrivere una cosa che viene trattenuta)1. Per i nostri scopi Ăš di vitale importanza ricordare che i «dati grezzi» non esistono. Qualunque dato misuriamo e tratteniamo con i nostri sensori, cosĂ come con i sensi del nostro corpo, costituisce invariabilmente la selezione da un insieme molto piĂș ampio a nostra disposizione: la percezione stessa Ăš sempre giĂ un processo di editing e scelta.
Come abbiamo visto a proposito della blockchain, il modo convenzionale di estrarre informazioni utili da grandi insiemi di dati prevedeva di dare loro una struttura immagazzinandoli nelle celle collegate di un data base relazionale. Ad esempio, un data base del genere puĂČ registrare in modo sequenziale ogni account di Amazon, con celle che contengono il nome, il cognome, lâindirizzo di consegna, le varie carte di credito del titolare dellâaccount e cosĂ via. In questo caso, per recuperare le informazioni basta inviare al data base una richiesta strutturata e anche questo processo estremamente semplice Ăš nascosto dietro lâinterfaccia finale ancora piĂș semplice di un sito web rivolto ai consumatori: ad esempio, inviamo una richiesta di questo tipo tutte le volte che clicchiamo su un link che dice «Vedi il tuo ordine» o «Scegli unâopzione di pagamento».
Ma gestire flussi di cosiddetti big data â un neologismo di moda che semplicemente denota gli incredibili volumi, velocitĂ e varietĂ della produzione contemporanea di dati â porta queste tecniche convenzionali a un punto di rottura. La capacitĂ dâimmagazzinamento sufficiente a gestire lâenorme afflusso potrebbe semplicemente non essere disponibile. Riempire accuratamente un data base richiede un investimento significativo, e non sempre disponibile, di risorse e fatica. E, in ogni caso, non succede, nĂ© mai succederĂ , che la maggior parte dei dati mondiali â e praticamente tutto ciĂČ che ha a che fare con i sistemi che operano nello spazio fisico e nel tempo reale â risiedano nelle ordinate tabelle o nella nitida struttura cellulare di un data base. Quindi il modo nuovo di gestire queste situazioni Ăš cercare modelli emergenti in dati precedentemente non strutturati, come un grande insieme di testo, una serie di immagini o una trasmissione video in tempo reale: quando parliamo di big data, parliamo di questo. Questa procedura dâinterrogazione ha qualcosa di strano, quasi deleuziano: mentre sono risolti iterativamente a un grado di fedeltĂ sempre piĂș alto, gli stessi modelli iniziano a suggerire le domande che potrebbero essere poste2.
Il modo in cui queste correnti e questi flussi sono indotti a far emergere i modelli latenti al loro interno Ăš farli processare da uno o, piĂș probabilmente, da molti algoritmi.
Con la sua etimologia vagamente esotica e una sfortunata semi-omofonia con un concetto matematico a cui Ăš completamente estraneo, «algoritmo» Ăš una delle classiche parole che fanno in modo che le discussioni di tecnologia dellâinformazione siano avvolte da unâaura di inutile complessitĂ . Ma in questo caso non câĂš nulla di misterioso: il termine sta a significare solo un sistema di istruzioni strutturato, sequenziale e molto esplicito, una procedura per fare questo e questâaltro. Una ricetta ben descritta Ăš un algoritmo, cosĂ come lo Ăš il fatto di mettere in ordine alfabetico una lista di nomi.
Come forse a questo punto sospetterete, gli algoritmi sono ovunque sotto la superficie della vita contemporanea3: governano ciĂČ che raccomanderĂ un servizio streaming di film o di musica, il prezzo a cui un certo articolo verrĂ offerto sul mercato, dove un ristorante farĂ accomodare i suoi ospiti, quali potenziali partner appariranno su una app per appuntamenti e (se siete abbastanza sventati da usare un browser senza aver installato un programma per bloccare le pubblicitĂ ) quali pubblicitĂ vi verranno propinate. Nella societĂ contemporanea, unâenorme quantitĂ di potere materiale sta nelle mani degli autori di algoritmi: determinano la vostra affidabilitĂ creditizia e la possibilitĂ di ottenere una copertura assicurativa, stabiliscono la prioritĂ con la quale riceverete le cure nel caso di un incidente che coinvolga moltissime vittime (questâultimo esempio in genere implica il fatto di stabilire le condizioni di un paziente secondo una serie di procedure scritte su una tessera plastificata ed Ăš un modo eccellente per ricordarci che non necessariamente tutti gli algoritmi sono eseguiti da un software).
Gli algoritmi gestiscono anche processi che, in genere, non fanno ancora parte dellâesperienza quotidiana, ma ci sono sempre piĂș vicini: istruiscono un robot bipede a prendere un pacco senza perdere lâequilibrio, un drone a regolare la velocitĂ dei rotori per mantenere lâallineamento, unâautovettura autonoma a riconoscere gli ostacoli lungo la strada.
Data la vastitĂ del volume di dati che processano, i cambiamenti degli algoritmi piĂș diffusi possono avere conseguenze per lâintera societĂ : tutte le volte che Google cambia leggermente il suo algoritmo di ricerca o Facebook affina quello che usa per stabilire il posizionamento di una storia, certe proposte commerciali improvvisamente diventano fattibili mentre altre smettono di esserlo; andando piĂș in profonditĂ : certe prospettive sulla realtĂ diventano piĂș forti mentre altre si indeboliscono. Questi particolari affinamenti, dobbiamo essere chiari, sono fatti manualmente e sono sempre conseguenza della percezione di qualche vulnerabilitĂ o debolezza â nel caso di Google, che qualche content farms o altri siti di bassa qualitĂ giocando dâazzardo con il suo algoritmo salgano troppo nei risultati di ricerca, nel caso di Facebook lâaccusa che la scelta delle notizie piĂș importanti fosse troppo di sinistra. Ma non tutti gli aggiustamenti degli algoritmi sono manuali.
CiĂČ che collega tutte queste situazioni Ăš il loro dinamismo. Siccome le circostanze del mondo evolvono molto rapidamente, un algoritmo che ogni giorno deve affrontare le sfide della vita non si puĂČ permettere di essere statico e immutabile: costretto a trovare la propria strada in un ambiente operativo fondamentalmente imprevedibile e persino turbolento, un algoritmo, come ognuno di noi, sarĂ idealmente dotato della capacitĂ di imparare dalle proprie esperienze, trarre conclusioni generali da quello che gli Ăš capitato e sviluppare strategie di adattamento. Con il tempo, imparerĂ a riconoscere cosa distingue una buona performance da una performance cattiva e come aumentare le probabilitĂ di successo la prossima volta. AffinerĂ la sua capacitĂ di cogliere lâelemento saliente di ogni data situazione e agire di conseguenza. Questo processo si chiama «apprendimento automatico».
Che cosa distingue lâapprendimento automatico dallâapprendimento «profondo», come qualcuno vorrebbe che chiamassimo il processo grazie al quale una macchina sviluppa il discernimento? E perchĂ© sembra essere diventato cosĂ importante negli ultimi anni?
Allâinizio era il programma. Classicamente, usare i computer per risolvere problemi nel mondo reale significava scrivere programmi e questo a sua volta significava esprimere quei problemi in termini che potessero essere analizzati ed eseguiti da una macchina. La ricerca sullâintelligenza artificiale ha proseguito su questa linea per decenni, culminando nei cosiddetti sistemi esperti degli anni Ottanta che tentavano di astrarre lâesperienza accumulata da un medico diagnosta o da un avvocato per trasformarla in un processo decisionale ad albero costruito su una serie di espliciti passaggi logici «se-allora»4. Questi sistemi funzionavano, se si intende il termine in modo approssimativo, ma in realtĂ erano goffi e fragili, e fallivano completamente se incontravano situazioni che i programmatori non avevano previsto.
Inoltre, questâapproccio allâintelligenza artificiale nascondeva un problema ancora piĂș profondo. Molte delle cose che vorremmo che i sistemi algoritmici facciano per noi â riconoscere la calligrafia o il modo di parlare, identificare persone e altri oggetti allâinterno di un campo visivo, o riuscire nel continuo esercizio di identificazione che pensiamo sia il senso della visione stessa â sfuggono allâarticolazione esplicita e quindi allâespressione nella forma di un codice eseguibile. I nostri cervelli fanno queste cose banalmente e senza esserne consci, ma proprio per questa ragione, perchĂ© non possiamo ricostruire esplicitamente come arriviamo alle decisioni, in genere non siamo in grado di codificarle come istruzioni che i sistemi computazionali possano usare.
In altre parole, potremmo essere in grado di immaginare il sistema di principĂź che ci permette di isolare le cose che percepiamo nel nostro campo visivo e definirli «gatto», tazza» o «Ricky», ma sarebbe molto difficile rendere questi principĂź abbastanza concreti da saper parlare e comunicare con un sistema macchinico non troppo affezionato allâambiguitĂ . Inoltre siamo bravissimi a riconoscere lâidentitĂ delle cose anche dopo cambiamenti di stato relativamente profondi â riconosciamo ancora il gatto nella luce abbagliante, Ricky dopo che si Ăš fatto crescere la barba e persino la tazza andata in mille pezzi â e questo Ăš ancora piĂș difficile da spiegare. Noi facciamo queste cose senza alcuno sforzo discernibile, ma se i sistemi macchinici vogliono avere la minima speranza di riuscirci, devono essere dotati di una qualche capacitĂ dâacquisizione di conoscenza che non abbia bisogno di istruzioni esplicite.
Ed ecco la rete neurale â un modo di organizzare singole unitĂ di elaborazione in reti che simulano il modo in cui i neuroni sono interconnessi nel sistema nervoso centrale umano. Nelle sue linee generali, lâidea ha circolato nella scienza computazionale per decenni; i primi barlumi concettuali apparvero in una relazione del 1943 e il primo «perceptron» o neurone artificiale fu costruito come componente hardware a Cornell nel 19575. Per quanto abbiano dato frutti solo molto piĂș tardi, le reti neurali non sono state affatto un episodio intellettuale isolato â se non altro hanno costituito la base della ricerca sullâintelligenza artificiale per tutti gli anni Ottanta e alla fine degli anni Novanta sono state usate su larga scala in applicazioni commerciali come la lettura degli assegni â, ma il campo di ricerca non progrediva, lacerato da arcane dispute dottrinali e minato dalle severe limitazioni dellâhardware a disposizione. La scienza computazionale ha iniziato a produrre sistemi davvero in grado di imparare dallâesperienza solo nei primi anni di ...