1. LA TEORIA DEL BLENDING CONCETTUALE
1.1. Forma e processo
Un monaco buddhista all’alba lascia il suo monastero e sale lungo un sentiero fino ad un tempio sulla cima di un monte, che raggiunge al tramonto; lì si ferma a meditare per alcuni giorni fino a che una successiva alba si rimette in cammino per la discesa dalla montagna, che completa al tramonto lungo lo stesso sentiero dell’andata […]. Indovinello: c’è un luogo sul sentiero in cui il monaco si trova esattamente alla stessa ora nei due distinti giorni di viaggio?
Questo famoso indovinello, tratto da Koestler 1964 e la cui soluzione vedremo tra poche pagine, è citato ed utilizzato come esempio in un volume di riconosciuta importanza teorica per le sue implicazioni in relazione al pensiero umano, soprattutto a certe sue modalità tipiche della comprensione e del pensiero creativo. Mi riferisco al volume di Giles Fauconnier e Marc Turner del 2002, The Way We Think: Conceptual Blending and the Mind’s Hidden Complexities.
Di strutturazione manualistica, il corposo volume intendeva porsi come punto di svolta negli studi sul particolare set di processi della mente umana che gli autori, riprendendo studi allora recenti o recentissimi di filosofia e teoria della mente, le teorie cognitive a base neuroscientifica, ma anche alcuni risultati della linguistica computazionale, denominano conceptual blending (già tradotto in italiano con ‘amalgama concettuale’ in Casonato et al., ma preferisco usare blending concettuale o semplicemente blending). Il volume è suddiviso in due parti: la prima è una descrizione del modello teorico, la seconda contiene numerosi esempi di applicazioni con le relative analisi. Ogni capitolo segue una rigorosa articolazione discorsiva, che riprende e approfondisce gli elementi teorici presentati, il più delle volte improntata al seguente iter:
- presentazione del ‘caso’ (esempi soprattutto linguistici di natura eterogenea: titoli di giornali, frasi di senso comune, conversazioni, citazioni);
- descrizione e mappatura concettuale delle sue caratteristiche;
- discussione su base induttiva delle regole che lo governano;
- approfondimento delle categorie e degli elementi resi visibili dal caso;
- tentativo di risposta anticipata ad alcune questioni sollevate dalla trattazione (quest’ultimo segmento indicato, in ogni capitolo, dalla dicitura Zoom Out).
Raccogliendo e proseguendo la celebrata tradizione di studi di linguistica cognitivista che si originò negli Stati Uniti a partire dalla semantica generativo-trasformazionale di Noam Chomsky per ramificarsi successivamente in modo così complesso e stimolante (dalla saldatura con gli studi sull’intelligenza artificiale alle teorie della metafora e degli spazi mentali), e in particolare prendendo le mosse dai lavori di Lakoff e Johnson (1980), gli autori presentano un’estesa riflessione sui modelli di pensiero dominanti nel ventesimo secolo, da essi denominato The Age of Form.
La tesi di fondo è che gli approcci di natura formale abbiano prevalso in ogni campo del sapere umano, dalla matematica alla musica, dalla tecnologia alla filosofia e alla linguistica, a scapito della ricerca dei ‘significati’ e dei processi che la mente attua per costruirli; processi perlopiù invisibili e inconsapevoli perché quasi sempre messi in atto al di sotto dell’orizzonte della coscienza. Tale attenzione alla forma (espressa efficacemente nella sorprendente analogia con l’armatura di Achille)
ha prodotto e continua a produrre straordinari progressi in tutti i settori.
Essa ha conferito all’umanità strumenti estremamente potenti con cui interpretare e manipolare la realtà , cioè i sistemi, l’analisi quantitativa, i modelli teorici e di previsione; inducendoci però a credere che le forme fossero l’essenza pura, il ‘peso sgocciolato’ delle cose, la sostanza ultima del mondo, e distogliendo la nostra attenzione dai modi con cui i significati si costituiscono prima di riversarsi nelle forme stesse.
Si cita il famoso caso del computer Eliza, che ha ‘imparato’ a conversare: è cioè in grado di sostenere conversazioni di una certa durata con esseri umani, lasciando loro la sensazione che un evento che in realtà riproduce soltanto la forma della conversazione sia la conversazione stessa. Più volte nominato nel corso del volume, questo effetto Eliza ci fa vivere nell’illusione che i significati siano in qualche modo inerenti alle forme, da esse emergenti perché in esse presenti o, addirittura, che i significati siano altre forme.
Intento di molti studiosi nei campi più disparati è oggi portare luce proprio in quello che gli approcci formali tenderebbero a dare per scontato: l’infinitamente complessa e inconscia interazione dei processi mentali (ovvero le tre I della mente umana: Identità , Integrazione, Immaginazione) che conducono alla costruzione dei significati, cioè il guerriero dentro l’armatura.
Grazie a cosa percepiamo la tazza, il suo colore, contenuto, aroma, peso e consistenza come uno, se a questa identità corrispondono processi neuronali differenti ma agenti in parallelo collocati in aree diverse del cervello? Cosa ci fa dire che la stringa di algoritmi su base 0 e 1 ricevuta via Internet sul nostro computer è la fotografia di un amico lontano? Queste sofisticatissime costruzioni di senso hanno avuto necessità di evolvere nel cervello della specie per milioni di anni, seguiti da altri anni di apprendimento per ogni singolo cervello individuale. Anche solamente aprire una porta ed uscire da una stanza (da qualsiasi stanza), per noi banale, diventa un problema di elevata complessità se tentiamo di istruire un robot a farlo.
Le rigorose e affidabili relazioni tra significato e forma proprie dei linguaggi artificiali non bastano più, come hanno dolorosamente scoperto logici, studiosi di linguistica e semantica, psicologi cognitivi, ingegneri e matematici; anche il ‘primario’ e ‘immediato’ concetto di identità (A=B) nasconde infinite pieghe di complessità concettuale: processi differenti in aree diverse del nostro cervello costituiscono una configurazione neuronale che ci porta a percepire e concettualizzare reti anche molto estese di dati come uno (la forma della tazza, il colore, l’aroma, il ricordo di un caffè bevuto con qualcuno). Il fenomeno prende oggi il nome-ombrello di binding ed è studiato come problema di ordine superiore.
In questa luce, alcuni processi mentali che ‘il secolo della forma’ aveva liquidato come scarsamente affidabili e poco rigorosi hanno riacquisito centralità e importanza: tra questi il pensiero analogico, la metonimia, la metafora, la narratività , le immagini mentali, che studiati più a fondo dispiegano il loro status di strumenti di pensiero «intricati, potenti e fondamentali» (Fauconnier e Turner, 14). Tra questi, gli autori annoverano il blending.
1.2. Il blending concettuale
Ma veniamo al blending, fenomeno-chiave dei processi di integrazione e fondamento dell’immaginazione: secondo gli autori, la sostanza del pensiero creativo. Grossolanamente definibile come la facoltà che ci permette di prendere in esame insieme cose che non necessariamente presentano analogie o identità e che riconosciamo abitualmente come diverse, ci colloca in una dimensione di pensiero in cui emerge una nuova categoria di senso, un nuovo significato o classe di significati.
Consiste, in breve, nella co-attivazione di due spazi mentali (input spaces) che proiettano alcuni loro elementi costitutivi e caratteristici (così come configurati in un terzo spazio detto generic space in cui tali elementi siano presenti come item di categorie astratte) a mappare un quarto spazio ‘ibrido’ (blended space) che seleziona gli elementi più vantaggiosi di ciascuno, e crea grazie ad essi una struttura di senso emergente e del tutto nuova, non coincidente con nessuno degli input di partenza. Le opposizioni e differenze tra elementi di questi spazi non sono dimenticate, al contrario restano attive e finalizzate alla costruzione della rete di integrazione concettuale, che contiene quindi sia dati esperienziali che controfattuali.
La contiguità con i...