Guerra digitale
eBook - ePub

Guerra digitale

Il 5G e lo scontro tra Stati Uniti e Cina per il dominio tecnologico

Francesca Balestrieri e Luca Balestrieri

Share book
  1. Italian
  2. ePUB (mobile friendly)
  3. Available on iOS & Android
eBook - ePub

Guerra digitale

Il 5G e lo scontro tra Stati Uniti e Cina per il dominio tecnologico

Francesca Balestrieri e Luca Balestrieri

Book details
Book preview
Table of contents
Citations

About This Book

Stati Uniti e Cina stanno combattendo una lotta senza esclusione di colpi per il controllo del 5G, la rete di telecomunicazioni ultraveloce e ultrapotente; e si affrontano, con altrettanta determinazione, per conquistare il primato nell'intelligenza artificiale e nella robotica. Stiamo precipitando in un secondo girone della rivoluzione digitale, che promette rivolgimenti rispetto ai quali i vent'anni alle nostre spalle sembreranno solo una pallida premessa; e per controllare le tecnologie e le industrie che sono la chiave di questo futuro è scoppiata una nuova guerra fredda tra l'America, che ha governato i decenni passati, e la Cina, che sta rivendicando la leadership per il domani. La posta in gioco è il comando tecnologico nel Ventunesimo secolo e – di fatto – il primato geopolitico. Un nuovo tipo di colonialismo ne è conseguenza: i territori e i loro abitanti diventano "miniere di dati", la materia prima da sfruttare per la supremazia nelle industrie del futuro. Tramontati gli anni della globalizzazione senza vincoli, la difesa della sovranità digitale s'impone per proteggere lo sviluppo dell'economia e la libertà degli individui.

Frequently asked questions

How do I cancel my subscription?
Simply head over to the account section in settings and click on “Cancel Subscription” - it’s as simple as that. After you cancel, your membership will stay active for the remainder of the time you’ve paid for. Learn more here.
Can/how do I download books?
At the moment all of our mobile-responsive ePub books are available to download via the app. Most of our PDFs are also available to download and we're working on making the final remaining ones downloadable now. Learn more here.
What is the difference between the pricing plans?
Both plans give you full access to the library and all of Perlego’s features. The only differences are the price and subscription period: With the annual plan you’ll save around 30% compared to 12 months on the monthly plan.
What is Perlego?
We are an online textbook subscription service, where you can get access to an entire online library for less than the price of a single book per month. With over 1 million books across 1000+ topics, we’ve got you covered! Learn more here.
Do you support text-to-speech?
Look out for the read-aloud symbol on your next book to see if you can listen to it. The read-aloud tool reads text aloud for you, highlighting the text as it is being read. You can pause it, speed it up and slow it down. Learn more here.
Is Guerra digitale an online PDF/ePUB?
Yes, you can access Guerra digitale by Francesca Balestrieri e Luca Balestrieri in PDF and/or ePUB format, as well as other popular books in Technik & Maschinenbau & Elektrotechnik & Telekommunikation. We have over one million books available in our catalogue for you to explore.

capitolo 1

La nuova fase della rivoluzione digitale
Ancora intenti a capire quanto radicali e profonde siano state le trasformazioni della vita quotidiana, del tessuto sociale e del mondo della produzione e del consumo negli ultimi trent’anni, ci scopriamo adesso – alle soglie degli anni Venti del XXI secolo – già trascinati nelle rapide di una seconda fase della rivoluzione digitale, le cui implicazioni si annunciano ancor più pervasive e radicali di quanto abbiamo visto finora. L’evoluzione diventa ancora una volta discontinua e la discontinuità costringe a una lotta per il potere – per un nuovo patto tra Stato e mercato, per un nuovo ordine internazionale.
La nuova fase della rivoluzione digitale, come la precedente, ha come innesco un’accelerazione delle tecnologie. Queste ultime nascono nell’asetticità dei laboratori, ma diventano forza concreta di trasformazione quando interagiscono con le scelte dei mercati mondiali e con le dinamiche della finanza, trascinate nel gioco delle strategie geopolitiche, nelle peculiari forme di distruzione creativa proprie dell’economia digitale.
Nel corso degli anni Dieci si sono avute rotture qualitative in molti settori delle tecnologie digitali, che si stanno alimentando a vicenda determinando un’accelerazione sistemica dell’innovazione. La chiave interpretativa del passaggio storico che stiamo vivendo è proprio questa dimensione di sistema della discontinuità tecnologica, fatta di strette interdipendenze: ad esempio, tra l’intelligenza artificiale e l’Internet of Things, o tra il 5G e la cognitive automation che ridisegna la robotica nelle fabbriche e più in generale nei processi produttivi.
Siamo dinanzi a una nuova convergenza, di portata simile a quella che alcuni decenni fa portò all’integrazione tra communication technology e computing dando vita a Internet. Gli elementi della nuova convergenza, nei quali si accumulano salti tecnologici, sono lo sviluppo dei supercomputer e dei computer quantistici, che promettono una potenza di calcolo su una scala radicalmente più elevata; le reti neurali e il deep learning, che spalancano nuovi orizzonti all’intelligenza artificiale; l’Internet of Things; la cognitive automation e le interfacce tra uomo e macchina; il 5G, che tutto connette e mette a sistema. Possiamo dare a quest’intreccio di tecnologie fortemente interdipendenti il nome di “cluster tecnologico secolare”, perché destinato a condizionare il XXI secolo come l’elettricità ha plasmato il secolo precedente e come Internet ha guidato il periodo di transizione tra i due millenni.
supercomputer e tecnologie quantistiche
All’origine, era il computer. Il big bang e la continua espansione dell’universo digitale nascono dalla tecnologia computazionale e dalla sua logica binaria, che ha reso possibile la successiva convergenza tra informatica e telecomunicazioni. Dagli anni Ottanta del XX secolo in poi, l’informazione sul mondo fisico e la conoscenza necessaria alle attività umane sono state codificate in bit e, sotto questa forma, scambiate e conservate; ma non serve avere un volume sempre più grande di bit se non si è poi in grado di elaborarli con crescente efficienza, misurata in termini di velocità e di economicità, in modo da generare valore e convenienza economica. Le tecnologie computazionali sono perciò il motore di ogni passaggio della trasformazione digitale. È qui dunque che dobbiamo cercare i primi indizi della discontinuità che si annuncia nel prossimo futuro.
Secondo la legge di Moore – che più che essere una legge è un’osservazione fatta nel 1965 dal cofondatore della Intel, Gordon Moore –1 il numero di transistor in un microchip è destinato a raddoppiare ogni uno-due anni circa. Questa tendenza esponenziale, cominciata alla fine degli anni Cinquanta con l’invenzione dei chip in silicone, è rallentata nel corso del tempo e sembrerebbe prossima a raggiungere il suo limite. La difficoltà nel realizzare un microchip non è solo disegnarne i circuiti ma anche, o forse soprattutto, realizzarlo concretamente, incidendone il disegno con tracciati di spessori incredibilmente piccoli. Negli anni Dieci del XXI secolo la crescita della capacità computazionale è comunque proseguita, portando il numero di transistor in una determinata superficie e la miniaturizzazione dei loro circuiti oltre la soglia al di là della quale cominciano ad apparire fenomeni quantistici. Il comportamento della materia nel cosiddetto “regime quantistico”, che inizia da 100 nanometri in giù (un nanometro corrisponde a un milionesimo di millimetro), diventa instabile, rendendo più sfidante l’ingegneria della miniaturizzazione dei circuiti. Alla fine degli anni Dieci, microchip con circuiti di 12-14 nanometri sono sul mercato e l’industria annuncia il passaggio dai laboratori alla produzione commerciale di circuiti di sette nanometri (il diametro di un atomo, per avere un termine di confronto, è circa un decimo di nanometro). Sebbene nei laboratori s’ipotizzino già fogli di grafene dello spessore di pochi atomi sui quali disegnare i microcircuiti, è comunque difficile che nel prossimo decennio la miniaturizzazione possa fare altri significativi balzi in avanti.
L’intuizione che ha portato nel recente passato a una vera e propria discontinuità è arrivata dal mondo dei videogiochi, per i quali da tempo l’industria ha dovuto elaborare un diverso approccio alla progettazione dei microprocessori. I videogiochi, infatti, richiedono ai microchip di svolgere un grande numero di operazioni in parallelo per la gestione delle immagini. Mentre l’approccio più tradizionale al disegno dei chip sviluppa le capacità delle CPU (Central Processing Unit) facendole alla fine evolvere in logica multicore, in cui diversi processori sono integrati a formare una singola unità, i videogiochi richiedono un diverso tipo di chip, detto GPU (Graphic Processing Unit), formato dall’integrazione di molti processori per svolgere in parallelo un grandissimo numero di calcoli, con un’efficienza nettamente superiore alle CPU quando si tratta di elaborare grandi volumi di dati. L’adozione dell’approccio GPU alla produzione di superchip è stata una delle condizioni dello sviluppo dell’intelligenza artificiale negli anni Dieci del XXI secolo, quest’ultima tanto più efficiente quanti più dati la alimentano.
Tutto questo può non bastare più per le prospettive degli anni Venti, soprattutto per dare ulteriore impulso alle capacità dell’intelligenza artificiale. La ricerca si è perciò indirizzata anche verso la realizzazione del “computer quantistico”, un’idea ormai vecchia di decenni ma che negli ultimi anni ha segnato passi avanti decisivi. Se da un lato, infatti, i fenomeni quantistici limitano il progresso dei chip classici, dall’altro possono essere sfruttati per progettare qualcosa di radicalmente diverso. I computer tradizionali si basano sui bit, i quali possiedono solo due possibili stati: 0 e 1. Il calcolo si sviluppa di conseguenza con logiche binarie. Il quantum computing, invece, si fonda sui quantum bit o qubit: questi, per il fenomeno quantistico della sovrapposizione di stati, sfuggono al vincolo binario e ammettono una contemporaneità di differenti combinazioni di 0 e 1. Inoltre, i qubit possono influenzarsi a vicenda anche se non fisicamente connessi, in un processo noto come entanglement. Il procedimento quantistico di calcolo, per questa sua intrinseca complessità, promette – almeno in teoria – la capacità di simulare processi e sistemi altrettanto complessi in maniera molto più efficiente rispetto al computing classico: ne possono scaturire risultati decisivi in campi diversissimi, dall’ingegneria molecolare alle analisi del clima alla gestione delle smart city.
Le aspettative relative alla potenza di calcolo di questo nuovo tipo di computer sono enormi. Infatti, in una macchina computazionale quantistica la potenza aumenta esponenzialmente con il numero di qubit gestiti dal sistema. Sulla carta, basterebbe un calcolatore con soli 50-60 qubit per surclassare, in termini di potenza, i supercomputer “tradizionali” più veloci attualmente esistenti al mondo.2 Con circa 300 qubit, la macchina potrebbe operare con una quantità di combinazioni contemporanee superiori al numero degli atomi presenti nell’universo: una potenza di calcolo inimmaginabile.
Sistemi a più di 50-60 qubit già esistono. Nel 2018 i ricercatori di Google hanno presentato Bristlecone,3 un processore a 72 qubit. Nello stesso anno, la startup statunitense Rigetti4 ha ideato un processore a 128 qubit. Potrebbe sembrare, a prima vista, che si sia vicini alla realizzazione della quantum supremacy, la tesi secondo la quale esisterebbero problemi che nella pratica solo i computer quantistici possono risolvere. Al momento però la questione è ancora aperta: sebbene, in termini di pura potenza di calcolo, gli attuali computer quantistici superino i supercomputer tradizionali, dal punto di vista dell’accuratezza la situazione è molto differente. I computer di questo nuovo tipo oggi esistenti sono troppo soggetti a rumore quantistico: in altre parole, riescono a eseguire una gigantesca mole di operazioni, ma non lo fanno in maniera precisa. Il problema sta nell’estrema fragilità dei qubit. Un processore quantistico, per funzionare correttamente, deve essere isolato dal resto dell’ambiente: Google, per esempio, per ottenere questa condizione ricrea temperature inferiori a quelle dello spazio profondo. Ogni cambiamento di temperatura, per quanto piccolo, o ogni minima variazione indesiderata dello stato delle particelle possono rendere instabile il sistema, causando errori di calcolo. Maggiore il numero di qubit, maggiore l’errore presente.
Non basta dunque il numero di qubit per misurare i progressi di questa nuova specie di calcolatori e la vicinanza o meno alla quantum supremacy. Per tale ragione, la ricerca oggi si focalizza nell’individuare soluzioni per la correzione di questo problema. Google è “cautamente ottimista”5 sul fatto che, grazie a Bristlecone, l’obiettivo sia a portata di mano.
Sempre che ne valga la pena. Uno degli esempi fino a poco tempo fa proposti per dimostrare la potenziale superiorità del quantum computing era un algoritmo – il migliore allora in circolazione – ideato specificamente per i computer quantistici con lo scopo di prevedere le preferenze del consumatore partendo dai prodotti già acquistati. Nel 2018, una studentessa diciottenne, Ewin Tang, che non a caso Forbes nel 2019 ha incluso tra gli under 30 più influenti al mondo,6 ha dimostrato l’esistenza di un algoritmo non quantistico altrettanto efficiente.7
Gli investimenti sul quantum computing sembrano comunque indicare che l’industria scommette con convinzione in questa direzione. A gennaio 2019, IBM ha annunciato il primo computer quantistico destinato al mercato, IBM Q System One: la sua capacità di calcolo sarà commercializzata tramite cloud a imprese e università. Google, da parte sua, investe nelle tecnologie quantistiche su una pluralità di terreni, dall’architettura dei microchip alle reti neurali,8 per assicurarsi il vantaggio tecnologico in un’area essenziale per la supremazia nell’intelligenza artificiale.
Va rilevato, per altro, che le tecnologie quantistiche non interessano solo il computing ma riguardano anche le comunicazioni. Nel 2017, con un balzo nella fantascienza, un satellite cinese ha utilizzato l’entanglement, ossia il fenomeno che fa interagire istantaneamente lo stato di due particelle separate anche da grande distanza, per trasmettere informazioni a una stazione a terra, ottenendo in tal modo un canale sicuro da intercettazioni o decrittazioni (l’esperimento ha coinvolto l’Austria quale partner della Cina).
Mentre da una parte si svolge una stretta competizione, soprattutto tra la Silicon Valley e la Cina, per il primato di realizzazione della quantum supremacy, dall’altra si gioca una partita parallela nell’ambito del supercomputing “tradizionale”. Due volte l’anno, il sito top500.org pubblica la lista dei 500 supercomputer più veloci al mondo. Nel secondo semestre del 2018, la lista è dominata dai supercomputer cinesi (in questo caso assommano al 45,4 per cento del totale) e statuniten...

Table of contents