La lingua bistabile. La scoperta di Mario Lucidi

Appunti provvisori, parziali (e non pubblicabili, nel 1989)

 

 

1 - La scoperta di Lucidi.

Qualunque analisi sul linguaggio umano non può che iniziare da un raffronto tra i due canali, ottico e acustico, che lo veicolano. Un testo scritto (a mano, a stampa o con qualsiasi altro mezzo) consta di una sequenza di elementi distinti o discreti: le lettere dell'alfabeto, gli spazi tra le parole, la punteggiatura, ecc.[1]; in un testo orale invece, di norma, si ha un segnale continuo, cioè analogico[2], la cui continuità - si badi - non consiste semplicemente nella sparizione delle pause tra le parole, ma nel fatto ben più grave, e per certi aspetti misterioso, di un complicato "impastamento", diciamo così, tra i fonemi che si susseguono nella catena acustica. Anche nel caso della scrittura si ha una estensione unidirezionale, ovviamente non nel tempo, ma nello spazio (la riga di scrittura), ma tale carattere lineare del significante comunemente non è preso nella dovuta considerazione perchè ritenuto troppo ovvio, mentre invece tutto il meccanismo della lingua ne dipende[3]. La catena grafica è divisibile ed analizzabile con estrema facilità, ma quella acustica non sempre è segmentabile, se non a livello percettivo e quindi soggettivo, per l'accennata compenetrazione del continuum fonico. Questa differenza basilare, di palese ed esclusiva natura linguistica, è sotto o mal valutata nelle altre scienze che indirettamente si occupano del linguaggio (teoria dell'informazione, neurofisiologia, foniatria, ecc.), col risultato che i vari (e veri) problemi della lingua, anche se (e forse perché!) affrontati interdisciplinarmente, si presentano di non facile soluzione. Frutti certamente più cospicui potrebbero invece essere raccolti se la questione fosse lasciata, senza dannose ingerenze o interferenze esterne, ai legittimi titolari della problematica in oggetto: i linguisti. Costoro invece, paradossalmente, o ignorano l'argomento, essendo loro bastevole l'analizzabilità del segno linguistico "scritto" di cui hanno quotidiana esperienza, oppure lo liquidano con le "difficilmente dissociabili - e nefaste, a dir loro - sinestesie audiografiche cui ha dato vita un'abitudine secolare nella nostra cultura occidentale a base alfabetica"[4], quelle rare volte che, uscendo dal sicuro porto della carta stampata, si avventurano a riconsiderare il segno linguistico nel suo primordiale aspetto fonetico. Un'“avventura" del genere, per tanti versi eccezionale, è stata però affrontata e vissuta da due geniali linguisti: Ferdinand De Saussure e Mario Lucidi[5].

Già all'inizio del secolo il padre della linguistica moderna aveva avuto piena coscienza del fenomeno descritto:

Nous ne parlons pas par signes isolès, mais par groupes de signes, par masses organisèes, qui sont elles-mèmes des signes (CLG 177)

e ne aveva dato una spiegazione durante le sue famose lezioni ginevrine. Poiché il suo pensiero si è diffuso per il mondo ed è giunto a noi in modo anomalo, perché - com'è noto - non fu Saussure a scrivere il "Cours" che porta il suo nome, ma alcuni suoi benemeriti allievi che raccolsero i loro appunti dopo la morte del Maestro, si attribuiscono comunemente ad errori di tali trascrizioni e all'imprecisione dei ricordi la poca chiarezza del passo menzionato e, più in generale, le infinite contraddizioni che pervadono da cima a fondo quel libro "orale", non scritto, che è il Cours. E' stato Lucidi, in tempi a noi più vicini, a far luce non solo su questo aspetto apparentemente marginale[6], ma soprattutto a capire appieno il pensiero di Saussure e a cominciare a dare una forma compiuta e lucida alle geniali intuizioni del Maestro. Per quanto riguarda il fenomeno da cui abbiamo preso le mosse, solo Lucidi nell'elaborare la teoria generale del segno (e nel trasmetterla man mano ai suoi meno benemeriti, anche se più numerosi, allievi) ha avuto ben saldo, come punto di riferimento, che:

la frase non è un complesso di segni, ma un segno complesso.

Ma eccettuati questi due grandi, i linguisti, come accennato, si limitano ad una grossolana e intuitiva analisi "ad orecchio" della lingua viva, riservando tutti gli studi alla parola scritta. In tale ambito i loro sforzi sono stati coronati da successi rilevanti o addirittura basilari, come nel caso del riconoscimento dei due livelli del linguaggio. È un dato ormai unanimamente acquisito, benché a volte sottovalutato dagli stessi addetti ai lavori, che il linguaggio umano, pur nella sua estrema variabilità, si articola sempre su due livelli ben distinti: la parola e la frase. Anzi alcuni linguisti, per evitare le confusioni derivanti dall'errata e radicata sensazione che alle parole sia insito un significato, adottano il termine "iposema" introdotto da Lucidi per designare la parola, riservando il termine "sema" alla frase, l'unica entità linguistica realmente significativa. L'equivalenza morfologica tra parola e frase aveva abbagliato infatti, per secoli, anche i linguisti più competenti, specialmente a causa dell'illusione grafica creata dal sintagma nei suoi due funzionamenti complementari (e, si badi, autoescludentesi, cioè bistabili) come parola o come frase monoverba. La lunga e sofferta acquisizione della predetta discriminazione concettuale ha ormai spianato la strada verso ulteriori e più significative conquiste, per cui possono e debbono avere una risposta i seguenti interrogativi: quando ci si libererà dalla trappola percettiva dell'illusione fonica simile a quella grafica? Quando arriverà la linguistica a capire che i due livelli della scrittura dovrebbero ritrovarsi, e a maggior ragione, anche nella lingua viva, come ha scoperto Lucidi? E non potrebbe il canale acustico addirittura consentire il rilievo oggettivo, impossibile in quello ottico, di questi due stati della lingua?

 

2 - Il problema della ridondanza.

Il recente impulso alla ricerca sul "parlato" non viene dai linguisti, com’è facile arguire, ma dai tecnici delle comunicazioni elettriche. Pressati dall'esigenza di ottimizzare il rendimento delle trasmissioni, ad esempio telefoniche, costoro cercano una codifica sempre più efficiente del segnale e, a tal fine, lo sottopongono ad una dettagliatissima analisi strumentale. Grazie a queste "vivisezioni" il flusso sonoro è risultato essere non solo di natura continua, ma di una complessità estrema. Nella catena fonica i fonemi non si trovano allineati in bella fila come i grafemi della scrittura, ma sono incastrati l'un l'altro al punto che la loro compenetrazione e coarticolazione ne pregiudica la segmentabilità e, in molti casi, anche la riconoscibilità. Oltre a ciò è l'enorme numero di variabili che intervengono nella fonazione (durata, intensità, pitch, armoniche, formanti, ecc.) che ne rende oltremodo difficoltosa (e spesso soltanto estrinseca) l'analisi e che, privilegiando l'asse, per dir così, paradigmatico, ne mette a volte in ombra quello sintagmatico/temporale, con effetti depistanti per la ricerca. Non c'è da stupirsi quindi che gli ingegneri delle comunicazioni, senza la guida illuminata del linguista, rimangano preda dei capricci della prosodia e non riescano a vedere tra gli infiniti apparenti livelli dei loro segnali proprio quei due, veramente essenziali, di cui abbiamo dedotto ed anticipato l'esistenza. Ciò nonostante il loro lavoro non si può considerare sterile, perché sono stati raggiunti ottimi risultati, almeno riguardo al già accennato obiettivo pratico primario: la riduzione della famosa "ridondanza" del segnale, la principale spina nel fianco nelle comunicazioni elettriche. Tale parametro nella teoria della lingua svolge un ruolo essenziale, che però non può essere precisato senza prima sgomberare il campo dalle confusioni sulle sue accezioni[7].

Cominciamo con il punto di vista degli ingegneri delle telecomunicazioni e semplifichiamo il problema scegliendo come esempio un Compact Disk. Come capacità massima questo può contenere, indifferentemente, una conferenza, poniamo di un'ora, oppure un'intera enciclopedia di migliaia di pagine. Nel primo caso, chiaramente, il canale sensoriale naturale dell'“utente” delle informazioni è quello acustico, mentre nel secondo caso è quello ottico. Nulla tuttavia impedisce che l'enciclopedia invece di essere letta su video, possa venire ascoltata tramite un sintetizzatore vocale, cosa del resto già attuata per permettere ai ciechi l'accesso alle banche dati.

In questo caso il raffronto fra i due tipi di memorizzazione, analogica quella della conferenza e digitale quella dell'enciclopedia, è legittimo ed analogo a quello tra il numero dei caratteri del testo scritto della conferenza, poniamo qualche decina di migliaia di bytes, e il numero dei caratteri dell'enciclopedia, anche centinaia di milioni di bytes.

E' facile rendersi conto, anche sulla scorta dei dati orientativi forniti, che la "lettura" sintetizzata dell'intera enciclopedia dovrebbe durare non meno di 1.000 ore. Ne consegue che l'efficienza del Compact Disk è di gran lunga maggiore quando i dati sono memorizzati in forma alfabetica, cioè discreta o digitale, piuttosto che in forma analogica o continua[8]. Gli ingegneri considerano questo divario un enorme spreco, una ridondanza pura che cercano di eliminare, o comunque diminuire, "compattando" il più possibile il segnale fonico, mediante riduzioni della larghezza di banda, segmentazioni, elaborazioni matematiche del segnale, ecc. L'ideale per loro sarebbe riuscire a convertire o codificare un messaggio orale nel suo corrispondente scritto, discriminando i fonemi del parlato continuo e convertendoli nei relativi grafemi, ma in queste operazioni, tipiche della cosiddetta "analisi vocale", sono ben lungi dal raggiungere i successi della "sintesi vocale"[9]. Anche con le tecniche più avanzate i risultati possono essere solo parziali[10], non soltanto per problemi estrinseci di ingegnerizzazione (costi, bilancio tra guadagno nella velocità di trasmissione e perdita di tempo per la codifica, intellegibilità, ecc.), ma soprattutto, come vedremo, per l'intrinseca insopprimibilità della ridondanza e l'inevitabile "impastamento fonematico" già accennato[11].

Vediamo ora il punto di vista dei linguisti. La loro preoccupazione non è economica, ma quella di diminuire l'ambiguità del linguaggio, per cui sono indotti a considerare la ridondanza in sensi diversi, o limitativi, rispetto a quello degli ingegneri: la vedono come prolissità, o come una protezione dai disturbi del canale di trasmissione, o anche, qualche rara volta, come ricchezza semantica. Se poi, come uomini di "lettere", hanno la tendenza professionale a privilegiare la scrittura, non lo fanno certo per ridurre la ridondanza, ma semmai, al contrario, per aumentarla, perché sanno che anche un testo scritto possiede ridondanze, e di vari tipi[12]. Ne segue che per loro la parola ridondanza ha un significato fluttuante, e non potrebbe essere altrimenti perché in campo umanistico, come si usa dire, ogni definizione è una forzatura. Ma questa diffusa opinione, se è valida per la lingua comune e per la letteratura in generale, non può essere accettata in un documento che aspira ad essere scientifico, e quindi neanche in un trattato di linguistica, che, per esser tale, dovrebbe far precedere le descrizioni dei fatti di lingua da puntuali definizioni di tipo matematico; e soprattutto, come ha acutamente evidenziato Lucidi[13], non dovrebbe gabellare per definizioni quelle che sono soltanto delle descrizioni. In linea con questa primaria esigenza e in attesa di una rigorosa definizione, invitiamo i lettori a non lasciarsi sviare dalle proprie valutazioni, anche se inconsce, sulla ridondanza.

 

3 - Un mistero dell'orecchio umano.

Benché l'orecchio umano sia notoriamente considerato un organo sensoriale raffinatissimo, più dell'occhio, vi sono casi in cui la sua sensibilità è di gran lunga inferiore a quella di un comune microfono. Il più eclatante è il mancato apprezzamento della ridondanza o, se si preferisce, la sua soppressione percettiva, tanto che è tale fenomeno a legittimare i tagli e gli sfrondamenti sul segnale elettrico già accennati. Stranamente infatti l'orecchio non percepisce alcuna differenza sostanziale tra voce naturale e sintetica, malgrado il molto maggiore (di alcuni ordini di grandezza) contenuto di "informazione"  della prima rispetto alla seconda e questo stato di cose, che sembra avallare la diffusa opinione dell'inutilità della ridondanza, è in contrasto con il buon senso di chi intuisce in essa una ricchezza semantica. Il problema, come già sottolineato, è centrale e lo restituiremo ai suoi veri termini dopo aver rapidamente passato in rassegna altri, non meno notori, casi di insensibilità uditiva.

Già dal IV secolo d.C. si è persa la percezione della quantità sillabica e gli scolari, ad es. di Agostino, non hanno orecchie che per l'intensità; nel passaggio dal mondo greco a quello latino si è avuta l'inversione di arsi (tempo debole del piede nella metrica greca) e tesi (tempo forte); moltissimi italiani non sanno distinguere le vocali aperte dalle chiuse; tutti, tranne i ciechi che ne hanno bisogno per orientarsi, sopprimiamo inconsciamente echi e microechi (ad esempio percepiamo in modo quasi identico una parola pronunciata all'aperto e al chiuso, malgrado la molto più fitta composizione spettrale); tutti coloro che negli anni '50 ebbero il privilegio di conoscere Lucidi non riuscivano a percepire le sfumature tonali da lui scoperte (ad esempio i famosi "tredici/sedici medici"), malgrado quasi tutti fossero certi della sua responsabilità e genialità; nessuno ha preso sul serio il mio Tototono e le mie crittofonie; E. A. Poe scrive che su niente sono state scritte tante sciocchezze come sulle sillabe brevi e lunghe (x), e il Fraccarolo è della stessa opinione (x).

Un paragone può aiutare a capire quest’insensibilità dell'orecchio: la difficile distinzione tra il regime laminare e quello turbolento dei fluidi (liquidi e gas) e la brusca inversione tra questi due stati.

A fronte di questa insensibilità, l'orecchio mostra dei virtuosismi altrettanto strani. Nei vecchi fonografi meccanici, a causa dell'inerzia degli stili, veniva registrato solo il profilo, la sagoma, l'inviluppo del segnale e una cosa analoga avviene tuttora per le colonne sonore ottiche dei film: malgrado ciò l'orecchio riesce ad integrare i dettagli e la ridondanza tagliati da questi mezzi di registrazione a "bassa fedeltà", che si possono avvicinare ad una sorta di "scrittura con la bocca" (donde il nome di grammofono). A questo proposito Arthur L. Winfree, biologo dell'Università dell'Arizona, pioniere di un nuovo approccio allo studio della fibrillazione, ci può dare i suggerimenti giusti per penetrare i misteri della lingua: "La tendenza tradizionale (della scienza) è di usare tutte le conoscenze che abbiamo per realizzare il modello più realistico, dopodiché vi perdete senza speranza nella foresta dei dettagli. Invece potete provare a selezionare pochi particolari che ritenete decisivi. Ne verrà fuori una 'caricatura' del cuore, ma questi modelli supersemplificati possono al momento buono mostrarci cose davvero fondamentali" (descrive il cuore come un complesso dinamico, mai fermo; la fibrillazione un sacco di vermi; dettagli estremamente complicati; le dinamiche di questi ritmi sono molto più ricche di quanto si possa ipotizzare; sequenze di Fibonacci nei battici ectopici, ecc.)[14].

 

4 - Alfabeti e analfabeti.

Il parlato può essere prodotto in questi modi principali:

   1) detto da un nativo alfabetizzato;

   2) detto da uno straniero dopo un sufficiente training linguistico;

   3) letto dal nativo o dallo straniero di cui sopra;

   4) detto da un nativo o da uno straniero analfabeta;

   5) sintetizzato elettronicamente dal corrispondente testo scritto;

   6) ricostruito artificialmente dopo compressioni del testo orale;

   7) ripetuto "a pappagallo" da animali parlanti, ventriloqui, ecc.

Tralasciando, per il momento, l'analisi degli ultimi due casi (e di quelli assimilabili), limitiamo il confronto fra i primi quattro che, accomunati dal fatto di essere tutti compresi dal parlatore, possiamo considerare equivalenti, almeno in prima approssimazione, e il quinto caso della voce sintetica o artificiale. Ebbene, nel primo gruppo (voce naturale) abbiamo infallantemente quel carattere di continuità, impastamento, ridondanza, ecc. di cui abbiamo parlato; nella voce sintetica invece ritroviamo il carattere discreto, digitale, alfabetico, compatto, ecc. dello scritto, perché la macchina si limita, essenzialmente, a convertire i singoli grafemi nei corrispondenti fonemi, a tradurre gli spazi tra le parole in brevi pause e a creare una prosodia artificiale[15] sulla base della punteggiatura del testo scritto.

La drastica differenza tra questi due tipi di linguaggio non deve apparire saputa o banale, perché le sue implicazioni sono enormi e perché con essa si può spiegare la scoperta di Lucidi in base alla quale nel flusso naturale del linguaggio, che è quello acustico, vi sono entrambi i tipi di parlato descritti: la lingua naturale include, per così dire, quella artificiale. Per discutere tale scoperta invitiamo il lettore a pensare alla lingua parlata in una comunità di analfabeti o dai bambini non ancora scolarizzati, cioè a quella lingua nativa, naturale, materna non (ancora) "contaminata", per dir così, dalla scrittura e dalla lettura[16]. Questa restrizione, d'altra parte, non pregiudica l'estensione dei risultati a cui perverremo perché la lingua dei cosiddetti analfabeti non è soltanto perfettamente "compatibile", ma è "identica" a quella degli alfabetizzati.

Gli strutturalisti, prima di analizzare le infra e sovrastrutture della lingua, rese necessarie da quella manzoniana preziosa "birberia" che è il leggere e scrivere, non dovrebbero dimenticare, perché troppo ovvio, che la lingua è un edificio a base alfabetica e che tali fondamenta le hanno anche i cosiddetti analfabeti. Questo termine poi è improprio e certamente fuorviante perché chi non sa leggere e scrivere sa tuttavia comunicare benissimo in lingua, in quanto alfabetizzato spontaneamente dalla natura. A rigore non è la natura in sé che alfabetizza, ma il gruppo sociale (la madre, nel senso proprio e la madre terra). L'alfabeto infatti - giova ricordarlo - è prima di tutto fonetico, e tale rimane a prescindere dal fatto che venga utilizzato o meno per quello scopo secondario che è la scrittura e a prescindere anche dal fatto che l'illetterato non sia consapevole degli artifici linguistici pur operanti nel suo cervello. L'inconfutabile prova di questo stato di cose è il fatto che l'"analfabeta" e il "fanciullino" parlano, capiscono, si fanno capire, ricordano: le potenzialità della loro lingua (materna) sono equipollenti (e in certi casi maggiori) a quelle degli alfabetizzati che (o quando) non si servono della scrittura, e sarebbero del tutto identiche se non intervenissero fattori estrinseci di abitudine, necessità pratiche, barriere sociali, ecc.[17].

Prima di essere il formidabile strumento della parola e della scrittura, l'alfabeto è però il formidabile strumento della memorizzazione, e questo a prescindere dal fatto che il supporto di questa memoria sia un foglio di carta, una lapide, un floppy disk o la rete neuronale del nostro cervello.

Anche la natura infatti ha dovuto affrontare il problema degli ingegneri delle telecomunicazioni, la memorizzazione e la trasmissione efficiente della parola, o per meglio dire del pensiero, e lo ha risolto con quella codificazione efficientissima che è l'alfabeto. E che questa scelta della natura sia stata (e sia) ottimale, e la più "naturale" possibile, lo si constata proprio per l'illusione percettiva di cui abbiamo accennato[18]. Quando pronunciamo qualcosa, infatti, sia il parlatore che l'ascoltatore, normalmente, non sanno (più) discriminare se si tratta di una espressione acustica, ana o pre-alfabetica, o della sua traduzione nel codice alfabetico, nel qual caso è più esatto parlare di "impressione acustica", nel senso tipografico, o meglio tipo-fonico, del termine[19]. Se la natura avesse scelto una codifica con un numero di simboli inferiore o superiore alla ventina di quelli dei vari alfabeti (casi limite: a base 2 come nei computer e a base teoricamente infinita come negli ideogrammi) il fluire dell'esprimere e la comprensione sarebbero stati più problematici, come provano i fallimenti delle lingue artificiali, delle innaturali stenofonie numerali[20], delle lingue ultralessicologiche[21], ecc.

 

5 - Elogio della sinestesia audiografica.

L'unico inconveniente, peraltro discutibile, di questa ottimizzazione naturale della "codifica dei pensieri" è (stata) la perdita non solo della consapevolezza dei due tipi di pronuncia (espressiva e impressiva), ma anche della soglia tra i corrispondenti stati di attività e di riposo del cervello umano. Il trompe-l'oreille mimetizza anche il salto neuronale tra l'attività primaria, creatrice dell'uomo, che è quella espressiva, e la fase secondaria di relè, nella quale il cervello si riposa sostituendo la dispendiosa espressività linguistica con la sua vicaria artificiale, cioè con la pronuncia "scritta", impressiva, timbrata, molto più economica. Del resto la differenza, e la confusione, tra le due pronunce trova un'eco perfetta nella già segnalata impropria discriminazione o denominazione tra analfabeti ed alfabetizzati. Come i primi non possono non servirsi dell'alfabeto, così i secondi non possono esprimersi solo alfabeticamente: sarebbero macchine, sintetizzatori vocali, libri (stampati?). E così come alfabeti e analfabeti convivono in una data comunità linguistica, analogamente in un singolo parlante convivono, e di norma si alternano, le pronunce ana- e alfabetiche. Come esempio si può portare la semplice frase apparentemente tautologica con cui una mamma gatto istruisce, in una nota favola, il suo micetto[22]: "Un topo è un topo!". Ebbene, il primo “topo” è alfabetico; il secondo analfabetico, nel senso descritto (e che preciseremo meglio nel prosieguo).

A causa della provvidenziale sinestesia audiografica noi non distinguiamo nel canale acustico quelle parole (estense) che pronunciamo fonematicamente, cioè come se le scrivessimo con la bocca, da quelle altre (intense) che pronunciamo "naturalmente", col risultato che il flusso sonoro, composto da estense e intense alternate, non ci appare discontinuo.

Il suono non è solo il vettore dell'idea, ma è l'idea stessa: nel caso dell'idea semplice (una parola) non c'è nessuna complicazione: se io dico "cavallo" il suono è specchio fedele dell'idea, anzi è l'idea stessa se contemporaneamente essa esisteva nella mia mente; può darsi però che nella mia mente (per pigrizia istituzionalizzata, come vedremo) non vi sia l'idea di cavallo, ma la codifica dell'idea di cavallo e in tal caso io, fedelmente, pronuncio un "cavallo" codificato. In altri termini, oltre a confondere pronuncia real time (live, dal vivo) e pronuncia, per così dire, in differita (in codice, perché quello che è "depositato" in memoria lo può essere solo nel sistema/codice a base alfabetica) confondiamo (in buona fede!) anche il pensiero vero con quello iposemico, "fantoccio".

Qualunque memorizzazione per essere efficiente deve essere digitale, quindi di tipo ottico/alfabetico.

La memoria acustica analogica o per campionamento non esiste.

La sinestesia si spiega perchè i due canali si compenetrano:

intensa = canale acustico   -  estensa = canale ottico (pseudoacustico)

In realtà l'unico canale vero, coincidente col pensiero, è l'acustico.

 

6 - L'iposema di Lucidi.

Vedere i suoi scritti, chiarissimi e misconosciuti, in particolare quella nota "non notata" (veto di Pagliaro).

Vedere bene anche Saussure, che è stato (l'unico?) maestro di Lucidi.

L'estrema funzionalità dell'alfabeto è dovuta anche alla sua matematicità, al fatto che i suoi simboli possiedono quell'ordine alfabetico senza il quale la memorizzazione e il ritrovamento delle informazioni sarebbero impossibili: basti pensare, come esempio eclatante, alla guida telefonica.

Un’interiezione è una parola allo stato nativo, ana-grammata, che viene prima della lingua, che non è stata ancora ipo-grammata nella scrittura, nella composizione, nella consecutività lineare e temporale. Essa è fuori dal tempo[23]. Essa non è ancora nella lingua (Lucidi).

Una formula è, all'opposto, quanto di più artificiale vi possa essere (con le riserve testé avanzate circa la naturalità di questa artificialità).

Un numero composto è memorizzato, "consolidato" dalla scrittura (cfr. Saussure, solidarietà sintagmatica, meccanismo della lingua, ecc.); un numero primo è detto non mnemonicamente, ma in tempo reale.

 

7- La doppia modulazione.

Si fa risalire ad Helmholtz la nota "credenza" che l'orecchio sia insensibile alla fase (cfr. Ferrero). Alcuni studiosi però (anche Barducci) pensano che la fase sia utile e porti "notizie". In effetti gli esperimenti hanno mostrato che variazioni statiche di fase pur facendo molto cambiare la forma d'onda del segnale, ne lasciano inalterato lo spettro di frequenza, l'unico su cui appuntano l'attenzione i fonetisti (Ibba). È da presumere pertanto che anche variazioni dinamiche della fase non siano, almeno apparentemente, apprezzate dal nostro orecchio: questo spiega la sua insensibilità alla ridondanza[24].

Un ottimo punto di partenza per la spiegazione dei misteri dell'orecchio e della voce umana è un'analogia radiotecnica. Già un secolo fa Calzecchi Onesti paragonava la trasmissione della voce nell'aria con la trasmissione delle onde radio nell'etere: perché ci stupiamo (o stupivamo) della seconda e non della prima? Le vocali (e quando mancano, come nella voce bisbigliata, basta la sola aria) costituiscono una portante (o meglio una sottoportante) che subisce una prima modulazione per opera delle consonanti: si ottiene così la "parola" (livello basso del linguaggio), la voce alfabetica, iposemica, fonematica, scritta. Fuori dalla frase (livello alto del linguaggio) tale catena fonica non è semantica, non porta informazione o messaggio. Per avere significato, per elevare l'iposema a sema, occorre una seconda modulazione: questa è data dal corredo prosodico, dall'intenzionalità del parlante e si ha solo nelle parole (o solo nelle sillabe, specie in poesia) intense.

La voce sintetica che abbiamo analizzato[25], paragonabile allo scritto, costituisce solo la sottoportante del messaggio, non porta informazione in modo diretto, consente solo all'ascoltatore/lettore di operare lui la seconda modulazione, cioè in pratica di attribuirle il significato.

Le due modulazioni sono simultaneamente di ampiezza, frequenza e fase, ed essendo della stessa natura, non sono facilmente distinguibili. Dalla radiofonia è noto che la modulazione di fase si riduce ad una modulazione di frequenza, con la genesi di bande di frequenza laterali che "riempiono" lo spettro. La cosiddetta dinamica del segnale non è altro che la variazione dinamica della fase.

Quel misterioso impastamento su cui abbiamo insistito è dovuto a questa seconda modulazione (sul fonato semplice, di prima modulazione o articolazione) che equivale ad una ridondanza di fase/frequenza, cioè di timbro, e che, al contempo, è la spia che una parola con questa vividezza di timbro, è in realtà una frase monoverba, cioè una parola intensa, capita; l'estensa è invece solo ipocapita (tenuta del timbro).

Alta fedeltà semantica: l'intensa esprime la coerente fedeltà dei prosodemi al valore del sema (x): quindi rappresenta la parola pensata, vera; l'estensa quella falsa, è non va pensata come una mutilazione dell'intensa/ridondante, ma come qualcosa di non sovrabbondante, sufficiente, bastevole, sobrio, parco pacato, morbido.

Idea di abbrivio, laminarità, quiescenza, riposo, FLUENZA.

Le estense foniche hanno solo il timbro (fonale!), mentre le intense hanno una modulazione di timbro, cioè la famosa ridondanza. Non percepiamo la differenza tra la modulazione semplice e quella composta perché entrambe si riducono a modulazioni di fase, e l'orecchio, è insensibile alla fase.

 

8 - La scrittura e la lettura.

Niente è più sensato sulla scrittura e sulla lettura di queste parole: Le parole, dette o scritte, devono stare in fila... La necessità di comunicare fa violenza alla complessità e alla tortuosità del nostro pensiero... L'arte dello scrivere consiste essenzialmente nell'imporre ad un materiale più o meno recalcitrante (...) un ordinamento lineare, mentre l'arte del leggere sta nella capacità di ricostruire una struttura pluridimensionale sulla base di quella lineare, e un buon scrittore presenta il suo materiale in modo da facilitare questa ricostruzione... Più un autore lavora attorno alla sua opera, più ha probabilità di compiere un miracolo simile nella mente dei suoi lettori... A questi ultimi, comunque, è dovuta l'altra metà del miracolo[26].

Elogio della ridondanza e della sua contropartita: la fluenza.

La ridondanza non va vista come qualcosa di concitato, eccitato, bensì di produttivo, attivo, significativo; la fluenza è ancora più preziosa: la linearità della scrittura, infatti, grazie agli incastri e ai rimandi sequenziali, consente al lettore la seconda modulazione (movimenti balistici degli occhi?), normalmente - salvo inevitabili perturbazioni del sistema - identica al pensiero che lo scrittore ha trasmesso, VIA FILO potremmo dire, nel suo scritto lineare.

La scrittura è una prima modulazione, ma è anche la portante della seconda modulazione. Con Lucidi potremmo definirla il vettore, le ali su cui si librano i nostri pensieri[27]. Dal punto di vista grafico questa modulazione è irrappresentabile[28] e ci si limita all'espediente dei segni diacritici (punti, virgole, virgolette, vari tipi di accenti, umlaut, cediglie, ecc.). Tale seconda modulazione è proprio la prosodia, quella che dà, che è il significato! Quando leggiamo è il lettore stesso che opera questa seconda modulazione portatrice di senso, unicamente sulla base dei dati della prima modulazione, quella degli incastri iposemici fornitigli dalla catena (concatenamenti, solidarietà sintagmatica) grafica.

Correlazioni tra parola e musica (Lucidi); Musica = scienza bene modulandi.

 

9 - Formazione delle parole

Studio della nomenclatura. Perché alcune parole sono estense? Perché si sono consolidate nella memoria collettiva, nel deposito/lingua (Saussure)

 

10 - Verifiche sperimentali.

Esperimenti di lettura/non lettura e simili. Corpus lucidiano.

 

11 - Verifiche strumentali.

Definizione di leggibilità acustica: è leggibile ciò che è scritto in sequenza, senza eccessi di ghirigori. La firma non è scrittura.

L'“eccesso” di modulazione dell'intensa, che nello scritto costituirebbe una saturazione irrappresentabile, può essere rivelato strumentalmente.

 

12 - Effetto Lucidi o effetto relè.

Teoria della repetibilità.

La seconda modulazione deve essere operata al momento, real time, non è né memorizzabile, né riportabile (repetibile).

L'effetto Lucidi si spiega abbastanza bene: riferire = scrivere = togliere l'impaccio della seconda modulazione (ridondanza prosodica), ma – com’è intuibile - la ridondanza estromessa dalla porta rientra dalla finestra.

 

13 - Biografia scientifica di Lucidi

File interviste (vedi AG 4). Lucidi ha "potuto" capire perché non leggeva. La lettura silente è una conquista seriore della civiltà, la vera comunicazione avveniva ad alta voce e quindi facendosi leggere il testo egli riusciva a capire la prosodia e di conseguenza il significato (anche Sciascia una volta capì un passo di Verga pronunciandolo a voce alta).

Lucidi non descrisse l'intensa con la mia doppia modulazione: disse solo che essa presentava un'articolazione più energica dell'estensa.

Lucidi ha strenuamente sostenuto che il segno linguistico non è un segno ciò equivale a dire che il "segnale" audio (almeno quello dell'estensa o della voce sintetica) non è "segnale", ma solo la portante del segnale.



[1] Al momento ogni altra considerazione sulla struttura del testo scritto potrebbe rivelarsi fuorviante.

[2] Si pensi, per esempio, ai microsolchi dei dischi fonografici.

[3] F. De Saussure, CLG 103 e 170.

[4] W. Belardi, prefazione (pag. XI) a M. Lucidi, "Saggi linguistici", Istituto Universitario Orientale, Napoli 1966.

[5] M. Lucidi (1913 - 1961), glottologo all'Università di Roma. Vedi AG 4.

[6] cfr. M. Lucidi, op. cit., p. 172

[7] Per mettere in grado il lettore di acquisire "in proprio", per dir così, la scoperta di Lucidi, cioé l'esistenza dei due livelli bistabili del linguaggio umano, si userà una terminologia poco specialistica e si schematizzeranno al massimo le nozioni tecniche e le dimostrazioni necessarie. Questa scelta, dettata unicamente da ragioni pratiche, se da un lato faciliterà la lettura ed estenderà il "pubblico" del presente scritto, dall'altro potrebbe penalizzare lo specialista che, infastidito da qualche apparente banalità o da qualche inevitabile svista, dovesse snobbare la lettura o, peggio, non dovesse profondervi quell'impegno non solo richiesto dalla novità o dall’eventuale difficoltà del testo, ma teorizzato, come si vedrà nel prosieguo, nel testo medesimo.

[8] Il termine "digitale" può creare confusione. Infatti la memorizzazione della conferenza è anch'essa in forma digitale, e precisamente binaria, essendo ottenuta per "campionamento" del segnale analogico. Nel presente testo, tuttavia, "digitale" è usato unicamente nel senso di "alfabetico".

[9] Si pensi, oltre alla sintesi vocale da computer già menzionata, alla lettura automatica di documenti dattiloscritti.

[10] Per esempio la dettatura automatica o il comando vocale dei computer, in cui però è indispensabile che il parlatore si esprima, potremmo dire, come un libro stampato!

[11] Le più ardite e avveniristiche linee di ricerca di analisi vocale, basate ad esempio sull'uso di Vocoder evoluti, stimano, come frontiera assolutamente invalicabile, una compressione (compattamento) non inferiore a due o tre volte il corrispondente testo scritto.

[12] Vedi, per esempio, T. De Mauro, "Tra Thamus e Theuth. Uso scritto e parlato dei segni linguistici" in "Senso e significato", Adriatica, Bari 1971, dove sono anche menzionate alcune idee di Lucidi.

[13] op. cit., pag. 34.

[14] Tuttoscienze, supplemento de La Stampa 3.12.86.

[15] Mediante controlli di durata, intensità e melodia del segnale.

[16] Un lettore ideale dovrebbe mettersi nei panni dell'analfabeta, trascendendo il fatto contingente di star leggendo e di saper leggere!

[17] Solo degli animali si può dire che sono realmente analfabeti, perchè sono costretti a esprimersi e a ricordare in modo rudimentale.

[18] Vedi § 1 e 3.

[19] L'impressione acustica è analizzata in CLG 63 e 64. Vedi infra.

[20] Da Leibniz a Tullio Bosco.

[21] F. De Saussure, CLG 183.

[22] Che le domandava cos’era un “topo”.

[23] vedi J. Starobinski – Le parole sotto le parole. pag. 42

[24] vedi § 3.

[25] vedi § 2.

[26] G. G. Neill Wright. The art of studying (nel capitolo The web of thought).

[27] op. cit. pag. 16.

[28] Occorrerebbe una folla di segni diacritici, cfr. Lucidi, poesia di Trilussa; Belardi; Saussure (CLG 57 e anche prima).