È veramente in corso la grande mutazione antropologica? Esistono i «nativi digitali»?
Arriviamo agli aspetti spinosi della faccenda. Mi si potrebbe obiettare: «Ti preoccupi della gestione dell’attenzione, ma non vedi quello che sta succedendo. Il multitasking, il fare tante cose insieme, è ormai perfettamente integrato nei comportamenti. Chi è nato con internet e i videogiochi sa benissimo dividersi tra molti canali. La scuola deve solo adattarsi a questa Grande Mutazione Antropologica in corso. Sei un gutenberghiano, alla meglio un “immigrante” digitale, cerca di adattarti allo stile di pensiero dei Nativi Digitali».
Si odono in effetti svariati riferimenti a una pretesa «mutazione antropologica» legata all’uso massiccio delle nuove tecnologie fin dall’infanzia. Si parla di «nativi digitali», che sarebbero in grado di navigare in modo assolutamente fluido in una costante forma di dispersione. Ora, fermi tutti! Non ci sono affatto dei dati chiari che confermino queste asserzioni. Le persone, è vero, sono sempre più costrette a vivere e a lavorare in questo modo, ma non è detto che lo facciano bene. E la vita dei bambini è sempre più colonizzata da televisione e videogiochi, ma non è detto che la mente possa veramente essere educata alla dispersione (né tanto meno che lo debba essere). In effetti, la mente subisce la dispersione, e non c’è niente di cui rallegrarsi in questo. Se non esiste un dato sulla «mutazione antropologica», il problema che la scuola deve affrontare non è quello di adattarsi a fantomatici nuovi tipi di intelligenza, ma di fare in modo che l’intelligenza e la cultura possano sbocciare e svilupparsi in un contesto in cui la dispersione rende difficile questa missione.
L’etichetta «nativi digitali» è stata resa popolare, anzi popolarissima, da Marc Prensky in un articolo eponimo pubblicato nel 2001. Nel 2010 è stata ripresa da Paolo Ferri, docente all’Università Milano Bicocca, il cui libro dallo stesso titolo ha avuto una certa eco in Italia. Li scelgo come obiettivo tra i molti testi che sono usciti negli ultimi anni perché mi sembrano assai indicativi di un certo modo – nel quale non mi riconosco affatto – di creare dibattiti e tendenze in modo ansiogeno. Anticipo quello che argomento nelle pagine che seguono: la maggior parte delle tesi-chiave di Prensky e di Ferri non hanno un vero e proprio supporto empirico o concettuale. Ovvero, nell’ordine:
– non c’è una popolazione di «nativi» digitali se non in un senso assai blando e poco interessante del termine «nativi»;
– non abbiamo alcuna ragione di pensare che esista un’intelligenza digitale specifica;
– quindi non dobbiamo misurarci con i problemi presunti di una popolazione di persone che avrebbe addirittura un’intelligenza diversa dalla nostra (gli alieni non sono tra noi);
– gli effetti migliorativi dei gadget elettronici sulle prestazioni scolastiche sono assai dubbi;
– quindi non dobbiamo popolare la scuola di gadget elettronici per rincorrere il sogno di inesistenti effetti pedagogici;
– il multitasking non è un nuovo modo di agire e di pensare, ma un’imposizione subita, causata da cattivo design e inerzia e, quindi,
– va combattuto, non dato per scontato.
Rimbocchiamoci le maniche. Tanto per cominciare, il termine «nativi» – digitali o altro – è enormemente ambiguo. In ambito cognitivo si parla di «nativi» ricalcando l’inglese che dice «native speaker» per «parlante madrelingua». Sappiamo che i madrelingua – ovvero tutti quelli che sanno parlare – acquisiscono da piccoli la padronanza della loro lingua madre e raggiungono livelli di competenza che chi impara la stessa lingua in un periodo successivo alla finestra di apprendimento non potrà mai esibire. (Vivo da molti anni in Francia, ma la pronuncia del mio francese è decisamente inferiore a quella delle mie figlie, che ci hanno frequentato la scuola a partire dalla materna.) Ora, l’analogia nativista dell’apprendimento del linguaggio con le competenze di manipolazione di interfacce digitali è del tutto fuori luogo, finché non si dimostra che si tratta di un tipo di competenza simile alla competenza linguistica. Per esempio, un uso irresponsabile dell’analogia ci obbligherebbe a dire che ci sono dei «lettori nativi» o «nativi letterari», se si vuol parlare dei bambini che imparano a leggere a partire dai quattro o cinque anni. Ma la competenza lettoria non è affatto come la competenza verbale orale, e infatti si può imparare a leggere anche molto tardi nella vita (e per esempio la mia capacità acquisita da adulto di leggere il francese è per il momento superiore a quella delle mie figlie). Per poter usare l’etichetta di «nativo» in modo sensato bisogna prima poter dire se i cosiddetti nativi digitali sono come i madrelingua o non invece come i «nativi letterari», e l’ipotesi più semplice è che siano come i secondi. In tal caso non c’è niente per cui agitarsi.
Perché non esiste un’intelligenza digitale come cosa a se stante? Per la stessa ragione per cui non esiste un’intelligenza specifica alla lettura, alla gastronomia o al ciclismo. D’accordo, si può parlare, se proprio vi va, di intelligenza ciclistica, ma a questo punto la tesi dell’intelligenza diventa banale. Tutto quello che impariamo, e addirittura tutto quello cui siamo abituati, diventerebbe un tipo di intelligenza. Mi spiego. Ferri, seguendo una proposta assai controversa di Howard Gardner, docente di Educazione e Cognizione a Harvard, elenca alcuni criteri che una qualsiasi manifestazione umana dovrebbe soddisfare per essere considerata una forma di intelligenza a sé stante, e cerca di dimostrare che, per l’appunto, esisterebbe un’intelligenza specificamente digitale. I criteri vanno dalla prova di obiettività (rilevamento tramite neuroimmagini di un’attività cerebrale specifica) alla plausibilità filogenetica, dall’esistenza di almeno due sottodominî alla presenza di un sistema di notazione particolare (come capiterebbe con le note per la musica), dall’esistenza di gradi di competenza (principiante, esperto ecc.) all’interferenza con altre intelligenze, alla possibilità di misura. Oggi le critiche a Gardner non mancano; ma anche accettando l’idea che non ci sia un’intelligenza generale, è soprattutto l’uso molto disinvolto di questi criteri per dimostrare a tutti i costi l’esistenza di una forma di intelligenza digitale a renderci dubbiosi. Per esempio, lo stesso Ferri scrive, a proposito del primo criterio (quello biologico), che i dati non sono interpretabili, salvo poi interpretarli comunque come prove a favore di una marcatura neurale dell’uso costante dei media digitali. Pensateci un attimo: se anche dimostrassimo che c’è un correlato biologico del teneri i bambini per cinque anni in una stanza dipinta di bianco, rispetto a quelli che crescono in un mondo colorato, non è che ci precipiteremmo a parlare di intelligenza albica. La discussione di altri criteri lascia altrettanto perplessi: un antesignano filogenetico dell’intelligenza digitale sarebbe la suzione (un meccanismo di «aperto/chiuso»); la codifica simbolica specifica sarebbe provata dall’uso di simboli come «@»; i putativi sottodominî («minimizzare la quantità delle informazioni, utilizzare le informazioni ricavate dall’ambiente esterno e adattare rapidamente il sistema senso-percettivo alle necessità dell’interfaccia digitale») sono estremamente generici e sembrano corrispondere alla vecchia e ben nota capacità di esplorare un ambiente, e non si vede nulla di nuovo se non il fatto che oggi si esplorano metaforicamente anche ambienti digitali. Si noterà che giunti a questo punto della discussione Ferri parla degli altri criteri dando per scontato ormai che esista l’intelligenza digitale.
Non è difficile capire quello che sta succedendo qui: Ferri e prima di lui Prensky (e in parte Gardner) prendono per intelligenza il semplice aver imparato a saper fare certe cose, se non l’essersi abituati a oggetti che le fanno per voi. Sarebbe solo una noiosa questione terminologica se dietro le parole non spuntassero dei fantasmi di teoria usati per giustificare posizioni pesantemente normative.
A questo punto dobbiamo andare a guardare in che cosa consisterebbe il «saper fare» digitale. Scopriamo che si tratta della
abilità cognitiva di utilizzare l’alternativa «sì/no», «azione/inazione» all’interno del nuovo spazio digitale dello schermo che è diventato la tecnologia caratterizzante della trasmissione del sapere. Per esempio... la possibilità di attivare o non attivare un link ipertestuale all’interno di una pagina web, o la possibilità, più complessa dal punto di vista cognitivo, di tracciare un percorso intenzionale tra i link, cioè di seguire attraverso una decisione specifica questo o quel link in una pagina Internet o un determinato percorso di gioco in una consolle.
Datemi un pizzicotto, per favore. Se questa è l’intelligenza di cui stiamo parlando, è il momento di rivedere al ribasso tutte le nostre ambizioni educative. Se invece questo è un semplice «saper fare» tra i mille su cui basare i percorsi di apprendimento, stiamo facendo molto rumore per nulla. Se, infatti, si trova qui qualcosa di cognitivamente definito, non c’è niente di più che la capacità di prendere decisioni contestuali con l’aiuto della memoria e del linguaggio: come detto prima, niente di specifico, è una capacità generale, più o meno declinabile all’ambiente dello schermo tattile o della tastiera.
Ancora un elemento di contesto. Ferri fa gran caso del fatto che «oggi ogni cittadino del mondo ha accesso, almeno potenzialmente, a centinaia di milioni di gigabyte di informazione attraverso Internet, o meglio a tutta la conoscenza del mondo». Compare un’altra parola da ponderare attentamente, la parola «conoscenza». Si dovrebbero distinguere chiaramente, e non confondere tra di loro, l’accesso all’informazione e l’accesso alla conoscenza. Nessuno nega che si abbia accesso all’informazione. Invece la frase «accesso alla conoscenza» non ha alcun significato, se ...