Tecnologie radicali
eBook - ePub

Tecnologie radicali

Il progetto della vita quotidiana

Adam Greenfield, Chiara Veltri, Massimiliano Nicoli, Alessandro Manna, Maddalena Ferrara

Compartir libro
  1. 344 páginas
  2. Italian
  3. ePUB (apto para móviles)
  4. Disponible en iOS y Android
eBook - ePub

Tecnologie radicali

Il progetto della vita quotidiana

Adam Greenfield, Chiara Veltri, Massimiliano Nicoli, Alessandro Manna, Maddalena Ferrara

Detalles del libro
Vista previa del libro
Índice
Citas

Información del libro

Dagli smartphone alla realtà aumentata, dall'internet delle cose agli algoritmi, dalla stampante 3D alla criptovaluta, dai droni alle macchine senza conducente, non passa anno senza che un nuovo, rivoluzionario dispositivo non prometta di trasfigurare radicalmente le nostre vite, rendendo ogni aspetto della nostra interazione con la realtà che ci circonda più intelligente, più facile e più economico. Ma quali sono i reali costi da pagare per tale rivoluzione senza precedenti? In questa penetrante analisi della nostra Età dell'Informazione, Adam Greenfield, eminente studioso di nuove tecnologie, ci induce a riconsiderare il nostro rapporto con il multiforme e pervasivo universo della rete e della digitalizzazione della realtà. Dopo avere colonizzato la vita quotidiana, le tecnologie radicali stanno ora orientando e determinando le nostre opzioni per il futuro. Ma come agiscono? Quali le poste in gioco a livello sia sociale sia individuale? E chi trae realmente profitto dalla loro capillare diffusione? Rispondendo a tali domande, Greenfield traccia esemplarmente i contorni della crisi, inedita per dimensioni e natura, che dobbiamo affrontare.

Preguntas frecuentes

¿Cómo cancelo mi suscripción?
Simplemente, dirígete a la sección ajustes de la cuenta y haz clic en «Cancelar suscripción». Así de sencillo. Después de cancelar tu suscripción, esta permanecerá activa el tiempo restante que hayas pagado. Obtén más información aquí.
¿Cómo descargo los libros?
Por el momento, todos nuestros libros ePub adaptables a dispositivos móviles se pueden descargar a través de la aplicación. La mayor parte de nuestros PDF también se puede descargar y ya estamos trabajando para que el resto también sea descargable. Obtén más información aquí.
¿En qué se diferencian los planes de precios?
Ambos planes te permiten acceder por completo a la biblioteca y a todas las funciones de Perlego. Las únicas diferencias son el precio y el período de suscripción: con el plan anual ahorrarás en torno a un 30 % en comparación con 12 meses de un plan mensual.
¿Qué es Perlego?
Somos un servicio de suscripción de libros de texto en línea que te permite acceder a toda una biblioteca en línea por menos de lo que cuesta un libro al mes. Con más de un millón de libros sobre más de 1000 categorías, ¡tenemos todo lo que necesitas! Obtén más información aquí.
¿Perlego ofrece la función de texto a voz?
Busca el símbolo de lectura en voz alta en tu próximo libro para ver si puedes escucharlo. La herramienta de lectura en voz alta lee el texto en voz alta por ti, resaltando el texto a medida que se lee. Puedes pausarla, acelerarla y ralentizarla. Obtén más información aquí.
¿Es Tecnologie radicali un PDF/ePUB en línea?
Sí, puedes acceder a Tecnologie radicali de Adam Greenfield, Chiara Veltri, Massimiliano Nicoli, Alessandro Manna, Maddalena Ferrara en formato PDF o ePUB, así como a otros libros populares de Politics & International Relations y Social Policy. Tenemos más de un millón de libros disponibles en nuestro catálogo para que explores.

Información

Editorial
EINAUDI
Año
2017
ISBN
9788858427460
Capitolo ottavo

Apprendimento automatico

La produzione algoritmica della conoscenza
Abbiamo parlato dell’enorme volume di dati pronti a essere raccolti dalla vera internet delle cose, dei flussi torrenziali di zero e uno che scorrono in mezzo e tra i dispositivi in rete di tutto il mondo. Abbiamo visto come la fabbricazione digitale dei dispositivi possa trasformare i dati in oggetti materiali della piú straordinaria delicatezza e precisione, come il desiderio di rendere incorruttibili i dati condivisi fornisca alla blockchain il suo vero scopo e ragione di essere. Ma non ci siamo ancora fermati a riflettere su che cosa siano i dati.
Iniziamo con la considerazione che, qualunque serie di eventi la vita ci metta di fronte, abbiamo bisogno di situarci nel mondo, valutare le circostanze e le possibilità che essi offrono di agire per uno scopo e poi decidere tra le opzioni che abbiamo a disposizione – e questo vale sia quando decidiamo con chi fare amicizia il primo giorno di asilo, quando scegliamo le sementi piú adatte da piantare nella parte in ombra del nostro orto collettivo o quando impegniamo un aereo da combattimento da un quarto di milione di dollari in uno scontro ravvicinato con un nemico altrettanto ben attrezzato. Un modo semplice di definire i dati potrebbe allora essere: fatti riguardanti il mondo, le persone, i luoghi, le cose e i fenomeni che insieme lo comprendono, che raccogliamo per intraprendere azioni basate su di essi.
Ma prima di agire sulla base di questa raccolta di fatti, abbiamo bisogno di capirne il senso. Un luogo comune della scienza dell’informazione sostiene che dati, informazione, conoscenza e competenza formano un continuum coerente: a ogni stadio di questo continuum vengono applicate diverse procedure che trasformano i fatti che osserviamo in comprensione e consapevolezza. Questo modello contempla molte versioni, ma fondamentalmente tutte asseriscono che noi misuriamo il mondo per produrre dati, organizziamo i dati per produrre informazioni che abbiano senso e ci servano per agire, facciamo sintesi tra le informazioni e la nostra precedente esperienza del mondo per produrre conoscenza, e quindi – in qualche modo non specificato e probabilmente indescrivibile – arriviamo al punto in cui siamo in grado di mettere in pratica le cose che conosciamo con l’ineffabile qualità di equilibrato discernimento che chiamiamo saggezza.
Tutte le varie versioni di questo modello generalmente presuppongono che i dati in sé siano neutrali e oggettivi. Ma tutte le volte che diciamo «dati» in realtà ci riferiamo a un sottoinsieme degli infiniti aspetti del mondo che sono stati catturati da uno strumento o da un processo di misurazione (in effetti, la parola francese per «sensore», capteur, rispecchia direttamente questa considerazione e alcuni dei piú sensibili osservatori della tecnologia di trattamento dell’informazione hanno sostenuto che in inglese la parola «capta» sarebbe un modo piú accurato di descrivere una cosa che viene trattenuta)1. Per i nostri scopi è di vitale importanza ricordare che i «dati grezzi» non esistono. Qualunque dato misuriamo e tratteniamo con i nostri sensori, cosí come con i sensi del nostro corpo, costituisce invariabilmente la selezione da un insieme molto piú ampio a nostra disposizione: la percezione stessa è sempre già un processo di editing e scelta.
Come abbiamo visto a proposito della blockchain, il modo convenzionale di estrarre informazioni utili da grandi insiemi di dati prevedeva di dare loro una struttura immagazzinandoli nelle celle collegate di un data base relazionale. Ad esempio, un data base del genere può registrare in modo sequenziale ogni account di Amazon, con celle che contengono il nome, il cognome, l’indirizzo di consegna, le varie carte di credito del titolare dell’account e cosí via. In questo caso, per recuperare le informazioni basta inviare al data base una richiesta strutturata e anche questo processo estremamente semplice è nascosto dietro l’interfaccia finale ancora piú semplice di un sito web rivolto ai consumatori: ad esempio, inviamo una richiesta di questo tipo tutte le volte che clicchiamo su un link che dice «Vedi il tuo ordine» o «Scegli un’opzione di pagamento».
Ma gestire flussi di cosiddetti big data – un neologismo di moda che semplicemente denota gli incredibili volumi, velocità e varietà della produzione contemporanea di dati – porta queste tecniche convenzionali a un punto di rottura. La capacità d’immagazzinamento sufficiente a gestire l’enorme afflusso potrebbe semplicemente non essere disponibile. Riempire accuratamente un data base richiede un investimento significativo, e non sempre disponibile, di risorse e fatica. E, in ogni caso, non succede, né mai succederà, che la maggior parte dei dati mondiali – e praticamente tutto ciò che ha a che fare con i sistemi che operano nello spazio fisico e nel tempo reale – risiedano nelle ordinate tabelle o nella nitida struttura cellulare di un data base. Quindi il modo nuovo di gestire queste situazioni è cercare modelli emergenti in dati precedentemente non strutturati, come un grande insieme di testo, una serie di immagini o una trasmissione video in tempo reale: quando parliamo di big data, parliamo di questo. Questa procedura d’interrogazione ha qualcosa di strano, quasi deleuziano: mentre sono risolti iterativamente a un grado di fedeltà sempre piú alto, gli stessi modelli iniziano a suggerire le domande che potrebbero essere poste2.
Il modo in cui queste correnti e questi flussi sono indotti a far emergere i modelli latenti al loro interno è farli processare da uno o, piú probabilmente, da molti algoritmi.
Con la sua etimologia vagamente esotica e una sfortunata semi-omofonia con un concetto matematico a cui è completamente estraneo, «algoritmo» è una delle classiche parole che fanno in modo che le discussioni di tecnologia dell’informazione siano avvolte da un’aura di inutile complessità. Ma in questo caso non c’è nulla di misterioso: il termine sta a significare solo un sistema di istruzioni strutturato, sequenziale e molto esplicito, una procedura per fare questo e quest’altro. Una ricetta ben descritta è un algoritmo, cosí come lo è il fatto di mettere in ordine alfabetico una lista di nomi.
Come forse a questo punto sospetterete, gli algoritmi sono ovunque sotto la superficie della vita contemporanea3: governano ciò che raccomanderà un servizio streaming di film o di musica, il prezzo a cui un certo articolo verrà offerto sul mercato, dove un ristorante farà accomodare i suoi ospiti, quali potenziali partner appariranno su una app per appuntamenti e (se siete abbastanza sventati da usare un browser senza aver installato un programma per bloccare le pubblicità) quali pubblicità vi verranno propinate. Nella società contemporanea, un’enorme quantità di potere materiale sta nelle mani degli autori di algoritmi: determinano la vostra affidabilità creditizia e la possibilità di ottenere una copertura assicurativa, stabiliscono la priorità con la quale riceverete le cure nel caso di un incidente che coinvolga moltissime vittime (quest’ultimo esempio in genere implica il fatto di stabilire le condizioni di un paziente secondo una serie di procedure scritte su una tessera plastificata ed è un modo eccellente per ricordarci che non necessariamente tutti gli algoritmi sono eseguiti da un software).
Gli algoritmi gestiscono anche processi che, in genere, non fanno ancora parte dell’esperienza quotidiana, ma ci sono sempre piú vicini: istruiscono un robot bipede a prendere un pacco senza perdere l’equilibrio, un drone a regolare la velocità dei rotori per mantenere l’allineamento, un’autovettura autonoma a riconoscere gli ostacoli lungo la strada.
Data la vastità del volume di dati che processano, i cambiamenti degli algoritmi piú diffusi possono avere conseguenze per l’intera società: tutte le volte che Google cambia leggermente il suo algoritmo di ricerca o Facebook affina quello che usa per stabilire il posizionamento di una storia, certe proposte commerciali improvvisamente diventano fattibili mentre altre smettono di esserlo; andando piú in profondità: certe prospettive sulla realtà diventano piú forti mentre altre si indeboliscono. Questi particolari affinamenti, dobbiamo essere chiari, sono fatti manualmente e sono sempre conseguenza della percezione di qualche vulnerabilità o debolezza – nel caso di Google, che qualche content farms o altri siti di bassa qualità giocando d’azzardo con il suo algoritmo salgano troppo nei risultati di ricerca, nel caso di Facebook l’accusa che la scelta delle notizie piú importanti fosse troppo di sinistra. Ma non tutti gli aggiustamenti degli algoritmi sono manuali.
Ciò che collega tutte queste situazioni è il loro dinamismo. Siccome le circostanze del mondo evolvono molto rapidamente, un algoritmo che ogni giorno deve affrontare le sfide della vita non si può permettere di essere statico e immutabile: costretto a trovare la propria strada in un ambiente operativo fondamentalmente imprevedibile e persino turbolento, un algoritmo, come ognuno di noi, sarà idealmente dotato della capacità di imparare dalle proprie esperienze, trarre conclusioni generali da quello che gli è capitato e sviluppare strategie di adattamento. Con il tempo, imparerà a riconoscere cosa distingue una buona performance da una performance cattiva e come aumentare le probabilità di successo la prossima volta. Affinerà la sua capacità di cogliere l’elemento saliente di ogni data situazione e agire di conseguenza. Questo processo si chiama «apprendimento automatico».
Che cosa distingue l’apprendimento automatico dall’apprendimento «profondo», come qualcuno vorrebbe che chiamassimo il processo grazie al quale una macchina sviluppa il discernimento? E perché sembra essere diventato cosí importante negli ultimi anni?
All’inizio era il programma. Classicamente, usare i computer per risolvere problemi nel mondo reale significava scrivere programmi e questo a sua volta significava esprimere quei problemi in termini che potessero essere analizzati ed eseguiti da una macchina. La ricerca sull’intelligenza artificiale ha proseguito su questa linea per decenni, culminando nei cosiddetti sistemi esperti degli anni Ottanta che tentavano di astrarre l’esperienza accumulata da un medico diagnosta o da un avvocato per trasformarla in un processo decisionale ad albero costruito su una serie di espliciti passaggi logici «se-allora»4. Questi sistemi funzionavano, se si intende il termine in modo approssimativo, ma in realtà erano goffi e fragili, e fallivano completamente se incontravano situazioni che i programmatori non avevano previsto.
Inoltre, quest’approccio all’intelligenza artificiale nascondeva un problema ancora piú profondo. Molte delle cose che vorremmo che i sistemi algoritmici facciano per noi – riconoscere la calligrafia o il modo di parlare, identificare persone e altri oggetti all’interno di un campo visivo, o riuscire nel continuo esercizio di identificazione che pensiamo sia il senso della visione stessa – sfuggono all’articolazione esplicita e quindi all’espressione nella forma di un codice eseguibile. I nostri cervelli fanno queste cose banalmente e senza esserne consci, ma proprio per questa ragione, perché non possiamo ricostruire esplicitamente come arriviamo alle decisioni, in genere non siamo in grado di codificarle come istruzioni che i sistemi computazionali possano usare.
In altre parole, potremmo essere in grado di immaginare il sistema di principî che ci permette di isolare le cose che percepiamo nel nostro campo visivo e definirli «gatto», tazza» o «Ricky», ma sarebbe molto difficile rendere questi principî abbastanza concreti da saper parlare e comunicare con un sistema macchinico non troppo affezionato all’ambiguità. Inoltre siamo bravissimi a riconoscere l’identità delle cose anche dopo cambiamenti di stato relativamente profondi – riconosciamo ancora il gatto nella luce abbagliante, Ricky dopo che si è fatto crescere la barba e persino la tazza andata in mille pezzi – e questo è ancora piú difficile da spiegare. Noi facciamo queste cose senza alcuno sforzo discernibile, ma se i sistemi macchinici vogliono avere la minima speranza di riuscirci, devono essere dotati di una qualche capacità d’acquisizione di conoscenza che non abbia bisogno di istruzioni esplicite.
Ed ecco la rete neurale – un modo di organizzare singole unità di elaborazione in reti che simulano il modo in cui i neuroni sono interconnessi nel sistema nervoso centrale umano. Nelle sue linee generali, l’idea ha circolato nella scienza computazionale per decenni; i primi barlumi concettuali apparvero in una relazione del 1943 e il primo «perceptron» o neurone artificiale fu costruito come componente hardware a Cornell nel 19575. Per quanto abbiano dato frutti solo molto piú tardi, le reti neurali non sono state affatto un episodio intellettuale isolato – se non altro hanno costituito la base della ricerca sull’intelligenza artificiale per tutti gli anni Ottanta e alla fine degli anni Novanta sono state usate su larga scala in applicazioni commerciali come la lettura degli assegni –, ma il campo di ricerca non progrediva, lacerato da arcane dispute dottrinali e minato dalle severe limitazioni dell’hardware a disposizione. La scienza computazionale ha iniziato a produrre sistemi davvero in grado di imparare dall’esperienza solo nei primi anni di ...

Índice