capitolo 1
La nuova fase della rivoluzione digitale
Ancora intenti a capire quanto radicali e profonde siano state le trasformazioni della vita quotidiana, del tessuto sociale e del mondo della produzione e del consumo negli ultimi trentâanni, ci scopriamo adesso â alle soglie degli anni Venti del XXI secolo â giĂ trascinati nelle rapide di una seconda fase della rivoluzione digitale, le cui implicazioni si annunciano ancor piĂš pervasive e radicali di quanto abbiamo visto finora. Lâevoluzione diventa ancora una volta discontinua e la discontinuitĂ costringe a una lotta per il potere â per un nuovo patto tra Stato e mercato, per un nuovo ordine internazionale.
La nuova fase della rivoluzione digitale, come la precedente, ha come innesco unâaccelerazione delle tecnologie. Queste ultime nascono nellâasetticitĂ dei laboratori, ma diventano forza concreta di trasformazione quando interagiscono con le scelte dei mercati mondiali e con le dinamiche della finanza, trascinate nel gioco delle strategie geopolitiche, nelle peculiari forme di distruzione creativa proprie dellâeconomia digitale.
Nel corso degli anni Dieci si sono avute rotture qualitative in molti settori delle tecnologie digitali, che si stanno alimentando a vicenda determinando unâaccelerazione sistemica dellâinnovazione. La chiave interpretativa del passaggio storico che stiamo vivendo è proprio questa dimensione di sistema della discontinuitĂ tecnologica, fatta di strette interdipendenze: ad esempio, tra lâintelligenza artificiale e lâInternet of Things, o tra il 5G e la cognitive automation che ridisegna la robotica nelle fabbriche e piĂš in generale nei processi produttivi.
Siamo dinanzi a una nuova convergenza, di portata simile a quella che alcuni decenni fa portò allâintegrazione tra communication technology e computing dando vita a Internet. Gli elementi della nuova convergenza, nei quali si accumulano salti tecnologici, sono lo sviluppo dei supercomputer e dei computer quantistici, che promettono una potenza di calcolo su una scala radicalmente piĂš elevata; le reti neurali e il deep learning, che spalancano nuovi orizzonti allâintelligenza artificiale; lâInternet of Things; la cognitive automation e le interfacce tra uomo e macchina; il 5G, che tutto connette e mette a sistema. Possiamo dare a questâintreccio di tecnologie fortemente interdipendenti il nome di âcluster tecnologico secolareâ, perchĂŠ destinato a condizionare il XXI secolo come lâelettricitĂ ha plasmato il secolo precedente e come Internet ha guidato il periodo di transizione tra i due millenni.
supercomputer e tecnologie quantistiche
Allâorigine, era il computer. Il big bang e la continua espansione dellâuniverso digitale nascono dalla tecnologia computazionale e dalla sua logica binaria, che ha reso possibile la successiva convergenza tra informatica e telecomunicazioni. Dagli anni Ottanta del XX secolo in poi, lâinformazione sul mondo fisico e la conoscenza necessaria alle attivitĂ umane sono state codificate in bit e, sotto questa forma, scambiate e conservate; ma non serve avere un volume sempre piĂš grande di bit se non si è poi in grado di elaborarli con crescente efficienza, misurata in termini di velocitĂ e di economicitĂ , in modo da generare valore e convenienza economica. Le tecnologie computazionali sono perciò il motore di ogni passaggio della trasformazione digitale. Ă qui dunque che dobbiamo cercare i primi indizi della discontinuitĂ che si annuncia nel prossimo futuro.
Secondo la legge di Moore â che piĂš che essere una legge è unâosservazione fatta nel 1965 dal cofondatore della Intel, Gordon Moore â il numero di transistor in un microchip è destinato a raddoppiare ogni uno-due anni circa. Questa tendenza esponenziale, cominciata alla fine degli anni Cinquanta con lâinvenzione dei chip in silicone, è rallentata nel corso del tempo e sembrerebbe prossima a raggiungere il suo limite. La difficoltĂ nel realizzare un microchip non è solo disegnarne i circuiti ma anche, o forse soprattutto, realizzarlo concretamente, incidendone il disegno con tracciati di spessori incredibilmente piccoli. Negli anni Dieci del XXI secolo la crescita della capacitĂ computazionale è comunque proseguita, portando il numero di transistor in una determinata superficie e la miniaturizzazione dei loro circuiti oltre la soglia al di lĂ della quale cominciano ad apparire fenomeni quantistici. Il comportamento della materia nel cosiddetto âregime quantisticoâ, che inizia da 100 nanometri in giĂš (un nanometro corrisponde a un milionesimo di millimetro), diventa instabile, rendendo piĂš sfidante lâingegneria della miniaturizzazione dei circuiti. Alla fine degli anni Dieci, microchip con circuiti di 12-14 nanometri sono sul mercato e lâindustria annuncia il passaggio dai laboratori alla produzione commerciale di circuiti di sette nanometri (il diametro di un atomo, per avere un termine di confronto, è circa un decimo di nanometro). Sebbene nei laboratori sâipotizzino giĂ fogli di grafene dello spessore di pochi atomi sui quali disegnare i microcircuiti, è comunque difficile che nel prossimo decennio la miniaturizzazione possa fare altri significativi balzi in avanti.
Lâintuizione che ha portato nel recente passato a una vera e propria discontinuità è arrivata dal mondo dei videogiochi, per i quali da tempo lâindustria ha dovuto elaborare un diverso approccio alla progettazione dei microprocessori. I videogiochi, infatti, richiedono ai microchip di svolgere un grande numero di operazioni in parallelo per la gestione delle immagini. Mentre lâapproccio piĂš tradizionale al disegno dei chip sviluppa le capacitĂ delle CPU (Central Processing Unit) facendole alla fine evolvere in logica multicore, in cui diversi processori sono integrati a formare una singola unitĂ , i videogiochi richiedono un diverso tipo di chip, detto GPU (Graphic Processing Unit), formato dallâintegrazione di molti processori per svolgere in parallelo un grandissimo numero di calcoli, con unâefficienza nettamente superiore alle CPU quando si tratta di elaborare grandi volumi di dati. Lâadozione dellâapproccio GPU alla produzione di superchip è stata una delle condizioni dello sviluppo dellâintelligenza artificiale negli anni Dieci del XXI secolo, questâultima tanto piĂš efficiente quanti piĂš dati la alimentano.
Tutto questo può non bastare piĂš per le prospettive degli anni Venti, soprattutto per dare ulteriore impulso alle capacitĂ dellâintelligenza artificiale. La ricerca si è perciò indirizzata anche verso la realizzazione del âcomputer quantisticoâ, unâidea ormai vecchia di decenni ma che negli ultimi anni ha segnato passi avanti decisivi. Se da un lato, infatti, i fenomeni quantistici limitano il progresso dei chip classici, dallâaltro possono essere sfruttati per progettare qualcosa di radicalmente diverso. I computer tradizionali si basano sui bit, i quali possiedono solo due possibili stati: 0 e 1. Il calcolo si sviluppa di conseguenza con logiche binarie. Il quantum computing, invece, si fonda sui quantum bit o qubit: questi, per il fenomeno quantistico della sovrapposizione di stati, sfuggono al vincolo binario e ammettono una contemporaneitĂ di differenti combinazioni di 0 e 1. Inoltre, i qubit possono influenzarsi a vicenda anche se non fisicamente connessi, in un processo noto come entanglement. Il procedimento quantistico di calcolo, per questa sua intrinseca complessitĂ , promette â almeno in teoria â la capacitĂ di simulare processi e sistemi altrettanto complessi in maniera molto piĂš efficiente rispetto al computing classico: ne possono scaturire risultati decisivi in campi diversissimi, dallâingegneria molecolare alle analisi del clima alla gestione delle smart city.
Le aspettative relative alla potenza di calcolo di questo nuovo tipo di computer sono enormi. Infatti, in una macchina computazionale quantistica la potenza aumenta esponenzialmente con il numero di qubit gestiti dal sistema. Sulla carta, basterebbe un calcolatore con soli 50-60 qubit per surclassare, in termini di potenza, i supercomputer âtradizionaliâ piĂš veloci attualmente esistenti al mondo. Con circa 300 qubit, la macchina potrebbe operare con una quantitĂ di combinazioni contemporanee superiori al numero degli atomi presenti nellâuniverso: una potenza di calcolo inimmaginabile.
Sistemi a piĂš di 50-60 qubit giĂ esistono. Nel 2018 i ricercatori di Google hanno presentato Bristlecone, un processore a 72 qubit. Nello stesso anno, la startup statunitense Rigetti ha ideato un processore a 128 qubit. Potrebbe sembrare, a prima vista, che si sia vicini alla realizzazione della quantum supremacy, la tesi secondo la quale esisterebbero problemi che nella pratica solo i computer quantistici possono risolvere. Al momento però la questione è ancora aperta: sebbene, in termini di pura potenza di calcolo, gli attuali computer quantistici superino i supercomputer tradizionali, dal punto di vista dellâaccuratezza la situazione è molto differente. I computer di questo nuovo tipo oggi esistenti sono troppo soggetti a rumore quantistico: in altre parole, riescono a eseguire una gigantesca mole di operazioni, ma non lo fanno in maniera precisa. Il problema sta nellâestrema fragilitĂ dei qubit. Un processore quantistico, per funzionare correttamente, deve essere isolato dal resto dellâambiente: Google, per esempio, per ottenere questa condizione ricrea temperature inferiori a quelle dello spazio profondo. Ogni cambiamento di temperatura, per quanto piccolo, o ogni minima variazione indesiderata dello stato delle particelle possono rendere instabile il sistema, causando errori di calcolo. Maggiore il numero di qubit, maggiore lâerrore presente.
Non basta dunque il numero di qubit per misurare i progressi di questa nuova specie di calcolatori e la vicinanza o meno alla quantum supremacy. Per tale ragione, la ricerca oggi si focalizza nellâindividuare soluzioni per la correzione di questo problema. Google è âcautamente ottimistaâ sul fatto che, grazie a Bristlecone, lâobiettivo sia a portata di mano.
Sempre che ne valga la pena. Uno degli esempi fino a poco tempo fa proposti per dimostrare la potenziale superioritĂ del quantum computing era un algoritmo â il migliore allora in circolazione â ideato specificamente per i computer quantistici con lo scopo di prevedere le preferenze del consumatore partendo dai prodotti giĂ acquistati. Nel 2018, una studentessa diciottenne, Ewin Tang, che non a caso Forbes nel 2019 ha incluso tra gli under 30 piĂš influenti al mondo, ha dimostrato lâesistenza di un algoritmo non quantistico altrettanto efficiente.
Gli investimenti sul quantum computing sembrano comunque indicare che lâindustria scommette con convinzione in questa direzione. A gennaio 2019, IBM ha annunciato il primo computer quantistico destinato al mercato, IBM Q System One: la sua capacitĂ di calcolo sarĂ commercializzata tramite cloud a imprese e universitĂ . Google, da parte sua, investe nelle tecnologie quantistiche su una pluralitĂ di terreni, dallâarchitettura dei microchip alle reti neurali, per assicurarsi il vantaggio tecnologico in unâarea essenziale per la supremazia nellâintelligenza artificiale.
Va rilevato, per altro, che le tecnologie quantistiche non interessano solo il computing ma riguardano anche le comunicazioni. Nel 2017, con un balzo nella fantascienza, un satellite cinese ha utilizzato lâentanglement, ossia il fenomeno che fa interagire istantaneamente lo stato di due particelle separate anche da grande distanza, per trasmettere informazioni a una stazione a terra, ottenendo in tal modo un canale sicuro da intercettazioni o decrittazioni (lâesperimento ha coinvolto lâAustria quale partner della Cina).
Mentre da una parte si svolge una stretta competizione, soprattutto tra la Silicon Valley e la Cina, per il primato di realizzazione della quantum supremacy, dallâaltra si gioca una partita parallela nellâambito del supercomputing âtradizionaleâ. Due volte lâanno, il sito top500.org pubblica la lista dei 500 supercomputer piĂš veloci al mondo. Nel secondo semestre del 2018, la lista è dominata dai supercomputer cinesi (in questo caso assommano al 45,4 per cento del totale) e statuniten...