Cap. 16 "UNA MODERNA ILLUSIONE PARANOIDE"

Parlando del cervello, non possiamo fare a meno di citare il pensiero di uno dei protagonisti delle moderne neuroscienze, Paul D. MacLean, (Paul D. MacLean, The Triune Brain in Evolution, Springer, 1990.) approfittando di una chiara sintesi fatta da Guido Brunetti. Tutta la concezione di MacLean poggia sulla tesi che il cervello sia una struttura trinitaria, nel senso che consta di tre formazioni sovrapposte: il cervello rettiliano, il cervello limbico o mammaliano, e il neocervello.

“Il cervello rettiliano, così chiamato perché il suo aspetto è simile a quello del cervello di un rettile, rappresenta la parte più antica del cervello, essendosi evoluta più di 500 milioni di anni fa, ed è legata all’aggressività, alla violenza e alle pulsioni distruttive e autodistruttive.
Il secondo cervello avrebbe fatto la sua comparsa da 300 a 200 milioni di anni fa. Il neo-cervello invece apparve circa 200 milioni di anni fa ed è ciò che ci dà la nostra peculiare qualità umana, quella che ci permette di capire, ricordare, comunicare, creare.
Il neocervello serve a elaborare idee nuove, soluzioni intelligenti e creatività. È questo il cervello propriamente umano, mentre gli altri due sono definiti cervelli “animali”. Poiché l’Homo sapiens si caratterizza per lo sviluppo della mente e per la nascita della coscienza, questo evento lo si fa generalmente risalire intorno a 250.000 anni fa.” (Guido Brunetti, Neuroscienze.net, 11 gennaio 2013.)


Davvero risibile, quindi, anche solo immaginare — come sostengono alcuni — che il cervello dei nostri ragazzi si stia adeguando e modificando grazie allo sviluppo delle tecnologie avvenuto negli ultimi vent’anni. In realtà sta reagendo come meglio può alle violente accelerazioni e allo stress cui viene sottoposto, e già cominciano a vedersi gli effetti dei primi danni, come una palese destrutturazione del pensiero, un impoverimento complessivo del linguaggio e della scrittura.
Diceva il grande linguista Ludwig Wittgenstein: “Poiché il linguaggio è il mezzo con cui l’io si relaziona con la realtà, se è corrotto il tuo linguaggio, significa che è corrotto il tuo rapporto con la realtà”. L’aforisma mette in luce il difficile momento che stanno vivendo i giovani di questa generazione formata di nativi digitali e di millennial: credono di essere al centro della realtà perché sono continuamente connessi, ma di fatto sono sempre altrove e costantemente distratti, perciò, in ultima analisi, sono fuori dalla realtà. Il linguaggio smozzicato e destrutturato di molti di loro lo dimostra.
Nel mio corso di Comunicazione Sociale, su cinquanta ore, dieci sono dedicate alla teoria; le altre quaranta sono impiegate in un laboratorio in cui gli studenti (insieme a me, al mio più giovane collega Roberto Bernocchi, e ai due creativi Alberto Favret e Alessandro Rea) si impegnano a individuare il tema di una campagna sociale, la progettano, la sviluppano e la realizzano seguendo passo passo insieme a noi il percorso che si fa abitualmente nel mondo professionale. Se a questo aggiungiamo i colloqui per le tesi e gli esami, il tempo passato ogni anno insieme agli studenti ventiduenni mi dà l’opportunità di conoscere da vicino il loro modo di pensare, le loro abitudini, il loro approccio alla vita. Così ho potuto riscontrare in maniera incontrovertibile, a partire da almeno dieci anni a questa parte, l’emergere di quel linguaggio sempre più spesso approssimativo e destrutturato cui ho appena accennato. Discutendo con loro e interrogandoli agli esami, ho avuto l’impressione che il cervello di molti di loro assomigli al manto di un leopardo, con macchie e grumi di conoscenze scollegati tra loro.
Questi problemi emergono poi in forma lampante al momento delle tesi, che sono quasi sempre di tipo descrittivo, e confezionate con il sistematico impiego di un “copia e incolla” di fonti recuperate sulla rete. “Figuratevi se non approvo che consultiate e citiate così tante fonti” ripeto fino alla noia, “ma se citate tanti autori, dovete spiegare perché la fonte A è in sintonia con la fonte B, e perché la fonte C sembra non concordare, mentre la D supporta le tesi di A e B. ‘Tesi’ infatti significa dimostrazione di un enunciato o di un assunto, con una serie di argomentazioni a sostegno, non un elenco di testi incollati l’uno all’altro, assemblati anche nell’illusione che noi docenti non ci accorgiamo che non li avete scritti voi”. Dato che bene o male in mezzo a questi studenti si trovano i futuri dirigenti di domani, ho cominciato a preoccuparmi e volerci vedere chiaro. In fondo, mi sono detto, sono un professore a contratto, perciò occorre sentire il parere di chi ha molta più esperienza di me, e questo lavoro lo fa di mestiere da una vita. Così ho cominciato a interrogare docenti e accademici di lungo corso che frequentano assieme a me i seminari dell’istituto Aspen. E ho scoperto che il fenomeno è generalizzato, in tutte le facoltà e in tutte le discipline. Le università più avanzate, come la Bocconi, si sono addirittura dotate da tempo di un sofisticato software che rileva all’istante tutti i “furti” dalla rete non dichiarati e annegati nel testo delle tesi.
Al di là del problema delle tesi copia-incolla, da questa indagine sul campo è emersa una sempre più diffusa incapacità di sintetizzare i concetti appresi riproponendoli in un più ampio contesto, un costante rifugiarsi nel ripetere a memoria il testo dei libri senza sforzarsi di sviluppare ragionamenti propri e senza cercare di applicare un proprio senso critico, e addirittura un uso piuttosto scorretto della lingua italiana, il che — per le facoltà di comunicazione — è oggettivamente un fatto alquanto preoccupante.
Ecco perché ho cominciato a lanciare sistematicamente l’allarme sul “pensiero destrutturato degli studenti” in ogni occasione possibile: seminari, articoli, lezioni, incontri pubblici con insegnati e genitori. Ho cominciato a sottolineare la relazione che intercorre tra il sovraccarico di stimoli cui i giovani sono esposti fin da bambini — a causa di un abuso dei nuovi mezzi di comunicazione — e il loro linguaggio frammentato, figlio di un’attenzione altrettanto frammentata. Ho reso evidente questo problema diffondendo a ogni piè sospinto la parlante fotografia della nativa digitale multitasking corredata dalla didascalia “Attenzione all’era della costante attenzione parziale”. Un’era in cui vengono violate impunemente diverse leggi, da quella dell’entropia a quelle che regolano i meccanismi di apprendimento, un’era, inoltre, nella quale si rischia di trasformare in generatori di patologia gli straordinari mezzi di comunicazione di cui disponiamo.
Mentre stavo per essere lapidato e additato al pubblico ludibrio dagli entusiasti delle magnifiche sorti e progressive dei nuovi mezzi di comunicazione, i quali mi consideravano un barboso “laudator temporis acti”, hanno cominciato a comparire sempre più spesso libri, saggi, articoli di neurologi, sociologi, ricercatori sociali e illustri docenti, che su base non più solamente empirica e intuitiva, giungevano alle mie stesse conclusioni, avvalorando la forte preoccupazione già espressa da Martin Heidegger negli anni Cinquanta:

“La rivoluzione della tecnica che ci sta travolgendo nell’era atomica potrebbe riuscire ad avvincere, incantare, stregare l’uomo, così che un giorno il pensiero calcolante potrebbe essere l’unico ad avere ancora un valore.”

La citazione è contenuta nel best-seller Internet ci rende stupidi?, del giornalista Nicholas Carr, che è stato il primo a lanciare l’allarme a livello planetario:

“L’avanzata tumultuosa della tecnologia potrebbe rischiare di sommergere quei raffinati pensieri, emozioni e percezioni, che nascono unicamente dalla contemplazione e dalla riflessione.” (Nicholas G. Carr, The Shallows: What Internet is Doing to Our Brain, W.W. Norton, 2010; tr. it. Internet ci rende stupidi? Come la rete sta cambiando il nostro cervello, Cortina Raffaello, 2010, p. 262.)

Non si può certo negare che il vertiginoso sviluppo dei mezzi e delle tecnologie di comunicazione degli ultimi vent’anni ci abbia messo a disposizione una quantità impressionante di strumenti capaci di aumentare le nostre conoscenze e le nostre informazioni, ovunque ci troviamo e in qualsiasi momento. E questo è un fatto di cui sarebbe sciocco non apprezzare la portata. Ma altrettanto sciocco sarebbe ignorare che l’uso errato e compulsivo di questi mezzi può generare effetti collaterali anche gravi, come quelli rilevati in parecchi studenti. In campo clinico, il “sovraccarico di informazioni” oggi viene indicato addirittura come uno dei fattori scatenanti le sindromi da stress correlate alla IAS (Internet Addiction Syndrome). Ci rendiamo ora conto di quanto sia stato profetico il mio mentore Ira Carlin, quando oltre venti anni fa mi ripeteva: “Con la mente sempre fissa sull’informazione, la nostra attenzione svanisce. Dedichiamo sempre meno tempo a un numero sempre maggiore di singoli pezzi di media, e così finiamo per collezionare frammenti.”
Senza volerci addentrare nel campo di patologie specifiche (ma è assai significativo che il DSM, Manual of Mental Disorders, la bibbia degli psichiatri di tutto il mondo, abbia classificato la IAS tra le sindromi patologiche accertate e definite) è opportuno concentrarci sulla causa che sta generando il problema riscontrato: un’illusione di tipo chiaramente paranoide riguardo alla possibilità per il cervello umano di svolgere funzioni in modalità multitasking, come fa abitualmente un computer. Oramai una mole di studi scientifici dimostra — anche con l’uso di avanzate tecniche di imaging diagnostico come quelli di Jon Hamilton, pubblicati su Science — che le aree destinate a immagazzinare i ricordi (che inoltre sono frutto di complesse interazioni tra meccanismi biochimici, elettrici, emotivi e altro ancora) possono consentire al cervello di eseguire adeguatamente, a livello conscio, un numero limitato di operazioni contemporaneamente, pena l’esclusione dal proprio orizzonte cognitivo di altre relegate in buffer estremamente volatili, tanto per usare un linguaggio informatico.
Lo sapevano già gli antichi romani, e infatti i decurioni e i centurioni avevano il compito di controllare un numero massimo di 10 soldati, o cavalieri, o manipoli. Sapevano già, cioè, che il sistema mente-cervello funziona a tre diversi livelli, come ricordato in precedenza: il conscio, che consente di fare una sola operazione alla volta, il pre-conscio, che consente di fare un massimo di dieci operazioni, in genere quelle automatiche (pensiamo alla guida dell’auto: girare il volante, schiacciare frizione e freno mettendo la freccia e guardando il contachilometri,… in pratica come tenere sott’occhio dieci soldati!), e l’inconscio, che può fare un numero infinito di operazioni. Antichi Romani a parte, il dato è confermato dai ricercatori di oggi. Afferma Bruce Lipton:

“La mente cosciente opera con un processore da 40 bit, il che significa che può interpretare
ed elaborare 40 bit di stimoli nervosi - un bit è uno stimolo nervoso - al secondo. 
Il che significa che entrano 40 stimoli al secondo e la mente cosciente li discerne e li capisce. 
La mente subconscia in quello stesso secondo sta elaborando 40 milioni di bit”. 
"The Biology of Belief: Unleashing the Power of Consciousness, Matter and Miracles" (N.d.T.: Biologia delle Credenze: Liberare il Potere della Consapevolezza, della Materia e dei Miracoli) (2005: Mountain of Love/Elite Books).

Ma il dato più clamoroso è che noi siamo in grado di elaborare coscientemente 40 stimoli al secondo mentre ne riceviamo 11 milioni al secondo: ecco spiegato il famoso sovraccarico. Tentare di violare i principi e i meccanismi che regolano da milioni di anni il sistema mente-cervello, quindi, non è niente altro che un’inutile e pericolosa attività da apprendisti stregoni. Ed è irrilevante l’obiezione di chi sostiene che le insospettate potenzialità della plasticità neuronale si sposano con i nuovi media, conferendo ai giovani capacità sconosciute ai loro padri. Illustri neurologi smentiscono tale abbaglio; la plasticità neuronale è tutt’altra faccenda, e — anzi — arriva a costituire addirittura parte del problema, perché invece di aiutare a sviluppare nuove capacità, spinge il cervello ad adattarsi passivamente svolgendo meno compiti di prima. Ne dà un’idea convincente Nicholas Carr raccontando di uno scambio epistolare tra il compositore Koselitz e il suo amico Nietzsche. Il musicista faceva notare al famoso filosofo che il suo linguaggio scritto si era fatto più conciso e telegrafico da quando aveva cominciato a usare la macchina da scrivere:

« Forse attraverso questo strumento finirai per darti un nuovo idioma” scriveva Koselitz, citando la sua personale esperienza “i miei pensieri in musica e in lingua spesso dipendono dalla qualità della penna e della carta”. “Hai ragione” replicò Nietzsche “i nostri strumenti di scrittura hanno un ruolo nella formazione dei nostri pensieri.». (Nicholas Carr, op. cit., p. 34.)

Il gesuita John Culkin, professore di Comunicazione alla Fordham University di New York, amico e ispiratore di McLuhan, in un articolo sulla Saturday Review del 18 marzo 1967 coniava un aforisma spesso erroneamente attribuito allo stesso McLuhan:

“Noi plasmiamo i nostri strumenti e quindi i nostri strumenti plasmano noi”.

Sul tema del multitasking è rilevante il pensiero di Earl Miller, neuroscienziato del MIT di Boston:

“Il nostro cervello non è strutturato per la modalità multitasking. Quando le persone credono di usare questa modalità, in realtà non fanno altro che passare molto rapidamente da un compito all’altro, costringendo il cervello a subire un vero e proprio costo in termini cognitivi.” (Observer Business & Tech, magazine online 2-2-16.)

Secondo Larry Kim, fondatore dell’agenzia digitale WordStream, l’attività multitasking incoraggia le cattive abitudini del cervello:

“Quando completiamo un’operazione anche molto piccola (inviare una mail, rispondere a un messaggio di testo, pubblicare un tweet), il cervello riceve un gradevole schizzo di dopamina, che potremmo definire l’ormone della gratificazione. I nostri cervelli amano gli schizzi di dopamina, e così siamo incoraggiati a fare continui passaggi tra tanti piccoli compiti, perché ci danno una gratificazione immediata. Questo però crea un circolo vizioso che ci fa sentire come se stessimo realizzando una quantità di compiti importanti, mentre in realtà stiamo facendo ben poco. Diventando multitasking-dipendenti, poi, rendiamo più difficile organizzare i pensieri e filtrare le informazioni irrilevanti, e riduciamo l’efficienza e la qualità del nostro lavoro.” (Larry Kim, “Multitasking Is Killing Your Brain”, magazine online Inc., 15 luglio 2015.)

Dopo aver condotto otto edizioni del reality show L’isola dei famosi, nel 2016 l’anchor-woman Simona Ventura vi ha partecipato come concorrente. Queste le sue dichiarazioni al Corriere della Sera del 24 aprile 2016 dopo essere stata eliminata dal televoto:

“Cosa le è mancato di più in questi 34 giorni? Mi sono mancati il caffè, la mia famiglia e, all’inizio, lo smartphone. Ma adesso sono felice di essere uscita dal tunnel della dipendenza da cellulare. Voglio mantenere questa disintossicazione anche se, come personaggio pubblico, non posso stare fuori dai social network. Però la vita va vissuta, non guardata”.

Prendiamo ora in considerazione un altro problema legato all’uso precoce del computer da parte di bimbi sempre più piccoli, che vengono così sempre meno impegnati ad apprendere la scrittura a mano. Un testo fondamentale che tratta questo tema con grande chiarezza e competenza è Demenza Digitale [*BIBLIO*] (Manfred Spitzer, Demenza digitale. Come la nuova tecnologia ci rende stupidi, Corbaccio, 2013.) scritto da Manfred Spitzer, uno dei più rinomati studiosi tedeschi, oggi direttore della Clinica Psichiatrica e del Centro per le Neuroscienze e l’Apprendimento dell’Università di Ulm. Assieme a lui, un numero sempre maggiore di illuminati neuroscienziati ha cominciato a lanciare un grido d’allarme, e oramai non si contano più le università che pubblicano su questo tema ricerche che non lasciano adito a interpretazioni. Spiegando la questione con parole semplici, avviene che quando da bambini cominciamo a scrivere con grande sforzo le prime lettere dell’alfabeto sulle pagine del quaderno di prima elementare, alcuni neuroni facciano partire dall’emisfero del cervello preposto a questo compito degli impulsi che attraverso il braccio arrivano alle dita le quali, inconsapevolmente, nel disegnare le lettere applicano la proporzione aurea studiata da chi ha disegnato i caratteri, magari alcuni secoli prima. In quel momento, nuovi impulsi partono dalle dita e ritornano al cervello attraverso i nervi del braccio, fornendo ad altri neuroni vicini ai primi le informazioni sensoriali legate a come sono state disegnate le lettere. In questo modo si formerà un ricordo complessivo e articolato, supportato da diversi neuroni collegati tra loro, che conterrà sia l’informazione data alla mano con il compito da svolgere, sia l’informazione di ritorno di come la mano lo ha svolto.
Ma se noi mettiamo troppo precocemente le dita sulla tastiera del computer, ci priviamo volontariamente di una parte importante di informazioni sensoriali, in quanto i tasti delle pur diverse lettere sono tutti quadrati e tutti uguali, il che ridurrà l’area e il numero dei neuroni impegnati a creare un ricordo costruito anche con le informazioni di ritorno dalle dita. Con inevitabili ripercussioni poi sullo sviluppo del linguaggio. A questo proposito, la giornalista Patrizia Caiffa, esperta di questioni sociali e culturali, ha pubblicato un interessante servizio:

“Le nuove generazioni di ‘nativi digitali’ non sapranno più scrivere a mano, in corsivo? Le loro dita, anziché stringere una penna, strisceranno solo sugli schermi del tablet o al massimo picchietteranno su tastiere? E quali sarebbero i rischi della perdita di questa competenza, per le nostre società? […] È di un paio di mesi fa la notizia, rilanciata in questi giorni, che la Finlandia avrebbe intenzione di abolire l’uso della scrittura manuale nelle scuole a partire dal 2016, rimpiazzandola con tablet e PC, per stare al passo con i tempi. Per tutta reazione, negli Stati Uniti, si celebra ora il ‘National handwriting day’, la Giornata nazionale per il recupero della scrittura manuale. […] Perché non tutti lo sanno, ma nel Paese che aspira a essere il faro delle avanguardie nel mondo, milioni di bambini non sanno più scrivere in corsivo.” (SIR, settimanale online, 23 gennaio 2015.)

La giornalista cita in merito anche il pensiero del grafologo Claudio Garibaldi, membro dell’Advisory Board dell’ International Graphological Colloquium:

“Sulla spinta di istanze egualitarie in una società multirazziale, nella maggior parte delle scuole statunitensi non si insegna più a scrivere con le lettere collegate una all’altra, personalizzando la grafia, ma solo in stampatello. Alcuni Stati americani, come la California, stanno facendo resistenza; altri dietrofront. Il fatto è che dall’inizio della rivoluzione digitale a oggi, molti studi e ricerche stanno dimostrando gli effetti nefasti di un uso eccessivo della tecnologia per il cervello umano, soprattutto quello dei ‘nativi digitali’ nati dopo il 2000, che non sanno come si viveva prima e stanno rischiando situazioni di declino mentale. Tant’è che tra le giovani generazioni yankee la scrittura a mano sta tornando di moda, come un vezzo vintage.” (Ibid.)

Alla stessa fonte dobbiamo la citazione di un altro interessante parere, quello di Daniela Mennichelli, grafologa collaboratrice dell’Istituto Grafologico Internazionale Moretti di Urbino, intitolato all’iniziatore della grafologia in Italia, il frate francescano Girolamo Moretti:

“Non si tratta di fare una battaglia di retroguardia contro il digitale, ma la ‘battaglia delle battaglie’ contro lo spappolamento della capacità critica dei futuri cittadini. Bisogna fare una rivoluzione culturale altrimenti rischiamo di perdere una capacità antropologica: scrivere a mano accende molte più aree del cervello, aiuta a sviluppare il pensiero associativo e a costruire una memoria interna, favorisce la capacità di introspezione e concentrazione, aiuta ad adattarsi a circostanze diverse. È un gesto unico e assolutamente personale, utile per la costruzione della propria identità. […] Oggi c’è una eccessiva velocizzazione dei tempi di apprendimento. Si richiedono al bambino prestazioni veloci che, secondo la sua normale crescita psicomotoria, non può fare prima dei 9 anni. Per imparare a scrivere c’è bisogno di fasi, è come imparare a camminare. Se non si rispettano queste fasi arrivano le mancanze. Non a caso stanno aumentando moltissimo anche tra noi le ‘disgrafie’, ossia lo scrivere male, che ha conseguenze anche sull’autostima dei bambini.” (Ibid.)

Alice Vigna ha descritto in un articolo gli esperimenti condotti da Karin James dell’Università di Bloomington, nell’Indiana. Secondo la professoressa James:

“Negli adulti le zone del cervello che si attivano leggendo sono le stesse che vediamo accendersi nei bambini quando osservano una singola lettera che hanno imparato a scrivere a mano; nei piccoli che sanno solo digitarla su tastiera ciò non accade.” (Corriere della Sera, 12 febbraio 2015.)

Alice Vigna ha spiegato che la scrittura su un foglio “insegna” a leggere meglio, perché contribuisce a rinforzare le aree del cervello dove si riconosce la forma delle lettere o in cui si associano i suoni alle parole. E ha sottolineato che la conferma arriva dalla Cina, dove si utilizza sempre di più il sistema ‘pinyin’ di trascrizione del cinese sulle tastiere QWERTY: abbandonando gli ideogrammi scritti a mano, le diagnosi di dislessia e altre difficoltà di lettura sono in continua crescita. Ancora Karin James:

“Digitare una lettera non permette di comprenderne davvero la forma e le possibili variazioni che non ne alterano il significato, come invece accade quando si impara a scriverla a mano.” (Ibid.)

Come ho già detto, fino a poco tempo fa i mass media tessevano a ogni piè sospinto le lodi dello sviluppo tecnologico e informatico. Quasi a pentirsi di questo eccessivo entusiasmo (che tra l’altro è stato la principale causa della Bolla di Internet) ora non passa settimana senza che, soprattutto dai quotidiani, vengano lanciati allarmi sugli effetti dell’eccesso di virtualità e dell’essere sempre connessi. Sarà una banalità, ma anche in questo caso ‘in medio stat virtus’: come potremmo rinunciare a innovazioni tecnologiche che ci hanno facilitato enormemente nello studio, nel lavoro, nello svago, nelle relazioni sociali e nei comportamenti d’acquisto? Il tema vero è non abusarne, non diventarne schiavi, evitando che si trasformino in protesi della nostra mente e del nostro corpo, come peraltro era stato predetto da molti autori di fantascienza. Purtroppo, come al solito, soprattutto il sistema della scuola è in ritardo, con ministri, sottosegretari, provveditori, presidi che invece inneggiano al precoce uso del computer, dei tablet, delle lavagne luminose in classe. Ben venga, soprattutto per loro, l’accorato appello lanciato da Guido Ceronetti dalle pagine del Corriere della Sera nel febbraio del 2013:

“Oggi l’estensione del predomino elettronico è capillarmente quella del pianeta insieme ai suoi satelliti artificiali, e in questo Maelström di Poe vorticano tutto ciò che è stampa, lettura, scrittura, lavoro di mani, apprendimento, percezione. La risposta dei cerebri stressati è da un lato pecorile acquiescenza, dall’altro l’illimitatezza delle depressioni. Urge riappropriarsi della scrittura manuale, della lettera imbucabile, dell’alfabeto e dei suoi caratteri — prodigio della creatività umana — del calcolo eseguito mentalmente. Nell’insegnamento elementare la comunicazione elettronica deve essere bandita, il riappropriarsi della scrittura vera deve partire di là.”

Ceronetti è in totale sintonia con il commediografo Richard Foreman, le cui affermazioni sono riportate nel libro di Carr:

“Vedo diffondersi la sostituzione di una cultura personale faticosamente basata sulla costruzione interiore […] vedo la sostituzione di questa densa complessità interiore con un nuovo tipo di sé, che si sviluppa sotto la pressione del sovraccarico informativo e della tecnologia dell’istantaneamente disponibile. Se veniamo svuotati del repertorio interiore del nostro patrimonio culturale, rischiamo di diventare pancake people (persone frittella), distese, sottili, come la vasta rete di informazioni cui accediamo con un semplice click.” (Nicholas G. Carr, op.cit., p. 233.)

Alcuni mesi dopo, il 28 settembre 2013, Susanna Tamaro riprendeva sul Corriere della Sera un concetto simile in un articolo dal titolo “Siamo Pinocchi connessi e infelici in un moderno mondo dei balocchi”:

“L’irrompere nelle nostre vite della grande rete mediatica — cioè questo universo in cui le parole e le immagini scorrono ininterrottamente senza conoscere limiti né frontiere e nel quale gli esseri umani sono avvolti fin dai primi istanti della vita — ha creato un mutamento antropologico e culturale di cui è difficile scorgere l’evoluzione. […] È evidente che tutto questo comunicare, alla fine, non è altro che un mare di chiacchiere, una lastra di ghiaccio sottile posta a tutela delle acque torbidamente profonde che comunque esistono in ogni vita. Chiacchiero, chiacchiero, chiacchiero. E chiacchierando, mi distraggo. Distrazione! Grande amica dei manipolatori del pensiero.”

Torniamo per un momento sul sito Internet Livestats: scopriremo le centinaia di migliaia di tweet inviati ogni giorno, i miliardi di email inviate e di video postati su YouTube per renderci conto di quanto siano elevate le possibilità di venire distratti. Lo stesso McLuhan, ne Gli strumenti del comunicare, mentre da un lato inneggiava allo sviluppo delle nuove tecnologie, dall’altro aveva la lucidità di affermare che esse avrebbero anche potuto indebolirci, giungendo a intorpidire proprio quelle parti del corpo che intendevano ampliare, in particolare “addormentando le nostre capacità più naturali e più intime, quelle del ragionamento, della memoria e dell’emozione”. (Marshall McLuhan, Gli strumenti del comunicar,. Il Saggiatore, 2008.)
Guardiamo nuovamente la foto di copertina di questo saggio: è evidente che dedicando una minima porzione della sua attenzione a molteplici attività di carattere emotivo/cognitivo (gioco, emozione, informazione), il nostro soggetto tenderà a incamerare frammenti di realtà. E quando si troverà nella necessità di doverli rielaborare, inevitabilmente ricostruirà nel migliore dei casi un quadro composto da frammenti. Nel peggiore dei casi, si ritroverà con un groviglio destrutturato di pensieri sparsi, senza poter esercitare alcun senso critico, che è per sua natura frutto di una vera e propria ginnastica di concentrazione, nella fattispecie assai poco presente. È quindi stupefacente che proprio sulla copertina datata 2 giugno 2009 di Wired, la rivista che più di ogni altra ha promosso la cultura del web, Brandon Keim abbia scritto: “Il sovraccarico digitale sta friggendo i nostri cervelli”. Il che è tutto dire. In più, anche la celebre columnist americana Maggie Johnson ribadisce gli effetti dei “costi di commutazione” del sovraccarico di informazioni sui nostri processi cognitivi:

“Il cervello impiega tempo per cambiare i propri obiettivi, per ricordare le regole necessarie a svolgere il nuovo compito, e bloccare le interferenze cognitive dell’attività precedente ancora molto vivida.” (Maggie Johnson, Distracted: The Erosion of Attention and the Coming Dark Age, Prometheus Books, 2008.)

Ne è convinto anche il ricercatore Torkel Klingberg (Torkel Klingberg, The Overflowing Brain. Information Overload and The Limits of Working Memory, Oxford University Press, 2009.) secondo il quale un alto carico cognitivo aumenta la distrazione, sicché diventa sempre più alto il rischio di non sapere più distinguere le informazioni rilevanti da quelle che non lo sono, di non sapere più distinguere il segnale dal rumore.
Gli entusiasti dell’innovazione tecnologica a ogni costo dovrebbero essere meno idealisti o ideologici e riconoscere, come ha fatto Patricia Greenfield, insigne psicologa dell’età evolutiva, docente all’UCLA:

“Ogni medium sviluppa abilità cognitive sempre a scapito di altre (riecco il tema dell’entropia), per cui c’è da chiedersi se le nuove potenzialità di intelligenza visivo-spaziale valgano il prezzo dell’indebolimento dell’elaborazione profonda, che è alla base dell’acquisizione attenta di conoscenze, dell’analisi induttiva, del pensiero critico, dell’immaginazione e della riflessione.” (UCLA Newsroom, 27 gennaio 2009.)

Se l’illusione paranoide di perseguire il multitasking umano si fonde poi con l’eccesso di virtualità e l’abuso della connessione a oltranza, uno dei principali risultati è proprio quel linguaggio smozzicato, frammentato e corrotto che riscontriamo nel crescente numero di studenti cui ho accennato. Il che ci fa affacciare sulla soglia del già citato abisso previsto da Wittgenstein. Davvero amaro paradosso: credendo di impadronirsi del mondo e della sua realtà essendo continuamente connesse, le giovani generazioni dei millennial rischiano di finire fuori dalla realtà, incapaci di decodificarla e interpretarla. Ecco perché è corretto parlare della patologica presunzione di possedere il mondo, a dispetto delle errate convinzioni sull’accresciuta plasticità neuronale dei nativi digitali.
Non bastassero le sempre più approfondite ricerche in proposito, come ignorare la profonda sapienza indiana e zen, che da millenni dimostra come la concentrazione e la meditazione siano la chiave per arrivare alla saggezza, alla verità, alla capacità di analizzare lucidamente la realtà, ma anche — più semplicemente — alla tranquillità, all’eliminazione dello stress, e persino alla cura delle malattie psicosomatiche? Ma queste potrebbero essere considerate opinabili teorie.
E quindi, cosa ci può essere di più incontrovertibile dell’amaro rendiconto del mio vecchio amico Ludovico Peregrini (il noto “Signor No” di Rischiatutto) che mi ha confidato durante una cena l’esperienza del casting per la ricerca dei concorrenti del nuovo Rischiatutto: “Abbiamo scoperto con sorpresa che ai concorrenti giovani non puoi fare nessuna domanda riguardo ad eventi più indietro del 2000: oltre quella data, per il passato non sono in grado di ricordare quasi più nulla”.
LibroAC