Tecnologie radicali
eBook - ePub

Tecnologie radicali

Il progetto della vita quotidiana

Adam Greenfield, Chiara Veltri, Massimiliano Nicoli, Alessandro Manna, Maddalena Ferrara

Partager le livre
  1. 344 pages
  2. Italian
  3. ePUB (adapté aux mobiles)
  4. Disponible sur iOS et Android
eBook - ePub

Tecnologie radicali

Il progetto della vita quotidiana

Adam Greenfield, Chiara Veltri, Massimiliano Nicoli, Alessandro Manna, Maddalena Ferrara

DĂ©tails du livre
Aperçu du livre
Table des matiĂšres
Citations

À propos de ce livre

Dagli smartphone alla realtĂ  aumentata, dall'internet delle cose agli algoritmi, dalla stampante 3D alla criptovaluta, dai droni alle macchine senza conducente, non passa anno senza che un nuovo, rivoluzionario dispositivo non prometta di trasfigurare radicalmente le nostre vite, rendendo ogni aspetto della nostra interazione con la realtĂ  che ci circonda piĂč intelligente, piĂč facile e piĂč economico. Ma quali sono i reali costi da pagare per tale rivoluzione senza precedenti? In questa penetrante analisi della nostra EtĂ  dell'Informazione, Adam Greenfield, eminente studioso di nuove tecnologie, ci induce a riconsiderare il nostro rapporto con il multiforme e pervasivo universo della rete e della digitalizzazione della realtĂ . Dopo avere colonizzato la vita quotidiana, le tecnologie radicali stanno ora orientando e determinando le nostre opzioni per il futuro. Ma come agiscono? Quali le poste in gioco a livello sia sociale sia individuale? E chi trae realmente profitto dalla loro capillare diffusione? Rispondendo a tali domande, Greenfield traccia esemplarmente i contorni della crisi, inedita per dimensioni e natura, che dobbiamo affrontare.

Foire aux questions

Comment puis-je résilier mon abonnement ?
Il vous suffit de vous rendre dans la section compte dans paramĂštres et de cliquer sur « RĂ©silier l’abonnement ». C’est aussi simple que cela ! Une fois que vous aurez rĂ©siliĂ© votre abonnement, il restera actif pour le reste de la pĂ©riode pour laquelle vous avez payĂ©. DĂ©couvrez-en plus ici.
Puis-je / comment puis-je télécharger des livres ?
Pour le moment, tous nos livres en format ePub adaptĂ©s aux mobiles peuvent ĂȘtre tĂ©lĂ©chargĂ©s via l’application. La plupart de nos PDF sont Ă©galement disponibles en tĂ©lĂ©chargement et les autres seront tĂ©lĂ©chargeables trĂšs prochainement. DĂ©couvrez-en plus ici.
Quelle est la différence entre les formules tarifaires ?
Les deux abonnements vous donnent un accĂšs complet Ă  la bibliothĂšque et Ă  toutes les fonctionnalitĂ©s de Perlego. Les seules diffĂ©rences sont les tarifs ainsi que la pĂ©riode d’abonnement : avec l’abonnement annuel, vous Ă©conomiserez environ 30 % par rapport Ă  12 mois d’abonnement mensuel.
Qu’est-ce que Perlego ?
Nous sommes un service d’abonnement Ă  des ouvrages universitaires en ligne, oĂč vous pouvez accĂ©der Ă  toute une bibliothĂšque pour un prix infĂ©rieur Ă  celui d’un seul livre par mois. Avec plus d’un million de livres sur plus de 1 000 sujets, nous avons ce qu’il vous faut ! DĂ©couvrez-en plus ici.
Prenez-vous en charge la synthÚse vocale ?
Recherchez le symbole Écouter sur votre prochain livre pour voir si vous pouvez l’écouter. L’outil Écouter lit le texte Ă  haute voix pour vous, en surlignant le passage qui est en cours de lecture. Vous pouvez le mettre sur pause, l’accĂ©lĂ©rer ou le ralentir. DĂ©couvrez-en plus ici.
Est-ce que Tecnologie radicali est un PDF/ePUB en ligne ?
Oui, vous pouvez accĂ©der Ă  Tecnologie radicali par Adam Greenfield, Chiara Veltri, Massimiliano Nicoli, Alessandro Manna, Maddalena Ferrara en format PDF et/ou ePUB ainsi qu’à d’autres livres populaires dans Politics & International Relations et Social Policy. Nous disposons de plus d’un million d’ouvrages Ă  dĂ©couvrir dans notre catalogue.

Informations

Éditeur
EINAUDI
Année
2017
ISBN
9788858427460
Capitolo ottavo

Apprendimento automatico

La produzione algoritmica della conoscenza
Abbiamo parlato dell’enorme volume di dati pronti a essere raccolti dalla vera internet delle cose, dei flussi torrenziali di zero e uno che scorrono in mezzo e tra i dispositivi in rete di tutto il mondo. Abbiamo visto come la fabbricazione digitale dei dispositivi possa trasformare i dati in oggetti materiali della piĂș straordinaria delicatezza e precisione, come il desiderio di rendere incorruttibili i dati condivisi fornisca alla blockchain il suo vero scopo e ragione di essere. Ma non ci siamo ancora fermati a riflettere su che cosa siano i dati.
Iniziamo con la considerazione che, qualunque serie di eventi la vita ci metta di fronte, abbiamo bisogno di situarci nel mondo, valutare le circostanze e le possibilitĂ  che essi offrono di agire per uno scopo e poi decidere tra le opzioni che abbiamo a disposizione – e questo vale sia quando decidiamo con chi fare amicizia il primo giorno di asilo, quando scegliamo le sementi piĂș adatte da piantare nella parte in ombra del nostro orto collettivo o quando impegniamo un aereo da combattimento da un quarto di milione di dollari in uno scontro ravvicinato con un nemico altrettanto ben attrezzato. Un modo semplice di definire i dati potrebbe allora essere: fatti riguardanti il mondo, le persone, i luoghi, le cose e i fenomeni che insieme lo comprendono, che raccogliamo per intraprendere azioni basate su di essi.
Ma prima di agire sulla base di questa raccolta di fatti, abbiamo bisogno di capirne il senso. Un luogo comune della scienza dell’informazione sostiene che dati, informazione, conoscenza e competenza formano un continuum coerente: a ogni stadio di questo continuum vengono applicate diverse procedure che trasformano i fatti che osserviamo in comprensione e consapevolezza. Questo modello contempla molte versioni, ma fondamentalmente tutte asseriscono che noi misuriamo il mondo per produrre dati, organizziamo i dati per produrre informazioni che abbiano senso e ci servano per agire, facciamo sintesi tra le informazioni e la nostra precedente esperienza del mondo per produrre conoscenza, e quindi – in qualche modo non specificato e probabilmente indescrivibile – arriviamo al punto in cui siamo in grado di mettere in pratica le cose che conosciamo con l’ineffabile qualità di equilibrato discernimento che chiamiamo saggezza.
Tutte le varie versioni di questo modello generalmente presuppongono che i dati in sĂ© siano neutrali e oggettivi. Ma tutte le volte che diciamo «dati» in realtĂ  ci riferiamo a un sottoinsieme degli infiniti aspetti del mondo che sono stati catturati da uno strumento o da un processo di misurazione (in effetti, la parola francese per «sensore», capteur, rispecchia direttamente questa considerazione e alcuni dei piĂș sensibili osservatori della tecnologia di trattamento dell’informazione hanno sostenuto che in inglese la parola «capta» sarebbe un modo piĂș accurato di descrivere una cosa che viene trattenuta)1. Per i nostri scopi Ăš di vitale importanza ricordare che i «dati grezzi» non esistono. Qualunque dato misuriamo e tratteniamo con i nostri sensori, cosĂ­ come con i sensi del nostro corpo, costituisce invariabilmente la selezione da un insieme molto piĂș ampio a nostra disposizione: la percezione stessa Ăš sempre giĂ  un processo di editing e scelta.
Come abbiamo visto a proposito della blockchain, il modo convenzionale di estrarre informazioni utili da grandi insiemi di dati prevedeva di dare loro una struttura immagazzinandoli nelle celle collegate di un data base relazionale. Ad esempio, un data base del genere puĂČ registrare in modo sequenziale ogni account di Amazon, con celle che contengono il nome, il cognome, l’indirizzo di consegna, le varie carte di credito del titolare dell’account e cosĂ­ via. In questo caso, per recuperare le informazioni basta inviare al data base una richiesta strutturata e anche questo processo estremamente semplice Ăš nascosto dietro l’interfaccia finale ancora piĂș semplice di un sito web rivolto ai consumatori: ad esempio, inviamo una richiesta di questo tipo tutte le volte che clicchiamo su un link che dice «Vedi il tuo ordine» o «Scegli un’opzione di pagamento».
Ma gestire flussi di cosiddetti big data – un neologismo di moda che semplicemente denota gli incredibili volumi, velocitĂ  e varietĂ  della produzione contemporanea di dati – porta queste tecniche convenzionali a un punto di rottura. La capacitĂ  d’immagazzinamento sufficiente a gestire l’enorme afflusso potrebbe semplicemente non essere disponibile. Riempire accuratamente un data base richiede un investimento significativo, e non sempre disponibile, di risorse e fatica. E, in ogni caso, non succede, nĂ© mai succederĂ , che la maggior parte dei dati mondiali – e praticamente tutto ciĂČ che ha a che fare con i sistemi che operano nello spazio fisico e nel tempo reale – risiedano nelle ordinate tabelle o nella nitida struttura cellulare di un data base. Quindi il modo nuovo di gestire queste situazioni Ăš cercare modelli emergenti in dati precedentemente non strutturati, come un grande insieme di testo, una serie di immagini o una trasmissione video in tempo reale: quando parliamo di big data, parliamo di questo. Questa procedura d’interrogazione ha qualcosa di strano, quasi deleuziano: mentre sono risolti iterativamente a un grado di fedeltĂ  sempre piĂș alto, gli stessi modelli iniziano a suggerire le domande che potrebbero essere poste2.
Il modo in cui queste correnti e questi flussi sono indotti a far emergere i modelli latenti al loro interno Ăš farli processare da uno o, piĂș probabilmente, da molti algoritmi.
Con la sua etimologia vagamente esotica e una sfortunata semi-omofonia con un concetto matematico a cui Ăš completamente estraneo, «algoritmo» Ăš una delle classiche parole che fanno in modo che le discussioni di tecnologia dell’informazione siano avvolte da un’aura di inutile complessitĂ . Ma in questo caso non c’ù nulla di misterioso: il termine sta a significare solo un sistema di istruzioni strutturato, sequenziale e molto esplicito, una procedura per fare questo e quest’altro. Una ricetta ben descritta Ăš un algoritmo, cosĂ­ come lo Ăš il fatto di mettere in ordine alfabetico una lista di nomi.
Come forse a questo punto sospetterete, gli algoritmi sono ovunque sotto la superficie della vita contemporanea3: governano ciĂČ che raccomanderĂ  un servizio streaming di film o di musica, il prezzo a cui un certo articolo verrĂ  offerto sul mercato, dove un ristorante farĂ  accomodare i suoi ospiti, quali potenziali partner appariranno su una app per appuntamenti e (se siete abbastanza sventati da usare un browser senza aver installato un programma per bloccare le pubblicitĂ ) quali pubblicitĂ  vi verranno propinate. Nella societĂ  contemporanea, un’enorme quantitĂ  di potere materiale sta nelle mani degli autori di algoritmi: determinano la vostra affidabilitĂ  creditizia e la possibilitĂ  di ottenere una copertura assicurativa, stabiliscono la prioritĂ  con la quale riceverete le cure nel caso di un incidente che coinvolga moltissime vittime (quest’ultimo esempio in genere implica il fatto di stabilire le condizioni di un paziente secondo una serie di procedure scritte su una tessera plastificata ed Ăš un modo eccellente per ricordarci che non necessariamente tutti gli algoritmi sono eseguiti da un software).
Gli algoritmi gestiscono anche processi che, in genere, non fanno ancora parte dell’esperienza quotidiana, ma ci sono sempre piĂș vicini: istruiscono un robot bipede a prendere un pacco senza perdere l’equilibrio, un drone a regolare la velocitĂ  dei rotori per mantenere l’allineamento, un’autovettura autonoma a riconoscere gli ostacoli lungo la strada.
Data la vastitĂ  del volume di dati che processano, i cambiamenti degli algoritmi piĂș diffusi possono avere conseguenze per l’intera societĂ : tutte le volte che Google cambia leggermente il suo algoritmo di ricerca o Facebook affina quello che usa per stabilire il posizionamento di una storia, certe proposte commerciali improvvisamente diventano fattibili mentre altre smettono di esserlo; andando piĂș in profonditĂ : certe prospettive sulla realtĂ  diventano piĂș forti mentre altre si indeboliscono. Questi particolari affinamenti, dobbiamo essere chiari, sono fatti manualmente e sono sempre conseguenza della percezione di qualche vulnerabilitĂ  o debolezza – nel caso di Google, che qualche content farms o altri siti di bassa qualitĂ  giocando d’azzardo con il suo algoritmo salgano troppo nei risultati di ricerca, nel caso di Facebook l’accusa che la scelta delle notizie piĂș importanti fosse troppo di sinistra. Ma non tutti gli aggiustamenti degli algoritmi sono manuali.
CiĂČ che collega tutte queste situazioni Ăš il loro dinamismo. Siccome le circostanze del mondo evolvono molto rapidamente, un algoritmo che ogni giorno deve affrontare le sfide della vita non si puĂČ permettere di essere statico e immutabile: costretto a trovare la propria strada in un ambiente operativo fondamentalmente imprevedibile e persino turbolento, un algoritmo, come ognuno di noi, sarĂ  idealmente dotato della capacitĂ  di imparare dalle proprie esperienze, trarre conclusioni generali da quello che gli Ăš capitato e sviluppare strategie di adattamento. Con il tempo, imparerĂ  a riconoscere cosa distingue una buona performance da una performance cattiva e come aumentare le probabilitĂ  di successo la prossima volta. AffinerĂ  la sua capacitĂ  di cogliere l’elemento saliente di ogni data situazione e agire di conseguenza. Questo processo si chiama «apprendimento automatico».
Che cosa distingue l’apprendimento automatico dall’apprendimento «profondo», come qualcuno vorrebbe che chiamassimo il processo grazie al quale una macchina sviluppa il discernimento? E perchĂ© sembra essere diventato cosĂ­ importante negli ultimi anni?
All’inizio era il programma. Classicamente, usare i computer per risolvere problemi nel mondo reale significava scrivere programmi e questo a sua volta significava esprimere quei problemi in termini che potessero essere analizzati ed eseguiti da una macchina. La ricerca sull’intelligenza artificiale ha proseguito su questa linea per decenni, culminando nei cosiddetti sistemi esperti degli anni Ottanta che tentavano di astrarre l’esperienza accumulata da un medico diagnosta o da un avvocato per trasformarla in un processo decisionale ad albero costruito su una serie di espliciti passaggi logici «se-allora»4. Questi sistemi funzionavano, se si intende il termine in modo approssimativo, ma in realtĂ  erano goffi e fragili, e fallivano completamente se incontravano situazioni che i programmatori non avevano previsto.
Inoltre, quest’approccio all’intelligenza artificiale nascondeva un problema ancora piĂș profondo. Molte delle cose che vorremmo che i sistemi algoritmici facciano per noi – riconoscere la calligrafia o il modo di parlare, identificare persone e altri oggetti all’interno di un campo visivo, o riuscire nel continuo esercizio di identificazione che pensiamo sia il senso della visione stessa – sfuggono all’articolazione esplicita e quindi all’espressione nella forma di un codice eseguibile. I nostri cervelli fanno queste cose banalmente e senza esserne consci, ma proprio per questa ragione, perchĂ© non possiamo ricostruire esplicitamente come arriviamo alle decisioni, in genere non siamo in grado di codificarle come istruzioni che i sistemi computazionali possano usare.
In altre parole, potremmo essere in grado di immaginare il sistema di principĂź che ci permette di isolare le cose che percepiamo nel nostro campo visivo e definirli «gatto», tazza» o «Ricky», ma sarebbe molto difficile rendere questi principĂź abbastanza concreti da saper parlare e comunicare con un sistema macchinico non troppo affezionato all’ambiguitĂ . Inoltre siamo bravissimi a riconoscere l’identitĂ  delle cose anche dopo cambiamenti di stato relativamente profondi – riconosciamo ancora il gatto nella luce abbagliante, Ricky dopo che si Ăš fatto crescere la barba e persino la tazza andata in mille pezzi – e questo Ăš ancora piĂș difficile da spiegare. Noi facciamo queste cose senza alcuno sforzo discernibile, ma se i sistemi macchinici vogliono avere la minima speranza di riuscirci, devono essere dotati di una qualche capacitĂ  d’acquisizione di conoscenza che non abbia bisogno di istruzioni esplicite.
Ed ecco la rete neurale – un modo di organizzare singole unitĂ  di elaborazione in reti che simulano il modo in cui i neuroni sono interconnessi nel sistema nervoso centrale umano. Nelle sue linee generali, l’idea ha circolato nella scienza computazionale per decenni; i primi barlumi concettuali apparvero in una relazione del 1943 e il primo «perceptron» o neurone artificiale fu costruito come componente hardware a Cornell nel 19575. Per quanto abbiano dato frutti solo molto piĂș tardi, le reti neurali non sono state affatto un episodio intellettuale isolato – se non altro hanno costituito la base della ricerca sull’intelligenza artificiale per tutti gli anni Ottanta e alla fine degli anni Novanta sono state usate su larga scala in applicazioni commerciali come la lettura degli assegni –, ma il campo di ricerca non progrediva, lacerato da arcane dispute dottrinali e minato dalle severe limitazioni dell’hardware a disposizione. La scienza computazionale ha iniziato a produrre sistemi davvero in grado di imparare dall’esperienza solo nei primi anni di ...

Table des matiĂšres