Appunti provvisori, parziali (e non pubblicabili,
nel 1989)
1 - La scoperta di
Lucidi.
Qualunque
analisi sul linguaggio umano non può che iniziare da un raffronto tra i due canali,
ottico e acustico, che lo veicolano. Un testo scritto (a mano, a stampa o con
qualsiasi altro mezzo) consta di una sequenza di elementi distinti o discreti:
le lettere dell'alfabeto, gli spazi tra le parole, la punteggiatura, ecc.[1];
in un testo orale invece, di norma, si ha un segnale continuo, cioè analogico[2],
la cui continuità - si badi - non consiste semplicemente nella sparizione delle
pause tra le parole, ma nel fatto ben più grave, e per certi aspetti
misterioso, di un complicato "impastamento", diciamo così, tra i
fonemi che si susseguono nella catena acustica. Anche nel caso della scrittura
si ha una estensione unidirezionale, ovviamente non nel tempo, ma nello spazio
(la riga di scrittura), ma tale carattere
lineare del significante comunemente non è preso nella dovuta
considerazione perchè ritenuto troppo ovvio, mentre invece tutto il meccanismo
della lingua ne dipende[3].
La catena grafica è divisibile ed analizzabile con estrema facilità, ma quella
acustica non sempre è segmentabile, se non a livello percettivo e quindi
soggettivo, per l'accennata compenetrazione del continuum fonico. Questa
differenza basilare, di palese ed esclusiva natura linguistica, è sotto o mal
valutata nelle altre scienze che indirettamente si occupano del linguaggio (teoria
dell'informazione, neurofisiologia, foniatria, ecc.), col risultato che i vari
(e veri) problemi della lingua, anche se (e forse perché!) affrontati
interdisciplinarmente, si presentano di non facile soluzione. Frutti certamente
più cospicui potrebbero invece essere raccolti se la questione fosse lasciata,
senza dannose ingerenze o interferenze esterne, ai legittimi titolari della
problematica in oggetto: i linguisti. Costoro invece, paradossalmente, o
ignorano l'argomento, essendo loro bastevole l'analizzabilità del segno
linguistico "scritto" di cui hanno quotidiana esperienza, oppure lo
liquidano con le "difficilmente dissociabili - e nefaste, a dir loro -
sinestesie audiografiche cui ha dato vita un'abitudine secolare nella nostra
cultura occidentale a base alfabetica"[4],
quelle rare volte che, uscendo dal sicuro porto della carta stampata, si
avventurano a riconsiderare il segno linguistico nel suo primordiale aspetto
fonetico. Un'“avventura" del genere, per tanti versi eccezionale, è stata
però affrontata e vissuta da due geniali linguisti: Ferdinand De Saussure e Mario
Lucidi[5].
Già
all'inizio del secolo il padre della linguistica moderna aveva avuto piena
coscienza del fenomeno descritto:
Nous ne parlons pas par
signes isolès, mais par groupes de signes, par masses organisèes, qui sont
elles-mèmes des signes (CLG 177)
e ne aveva dato una spiegazione durante
le sue famose lezioni ginevrine. Poiché il suo pensiero si è diffuso per il
mondo ed è giunto a noi in modo anomalo, perché - com'è noto - non fu Saussure
a scrivere il "Cours" che porta il suo nome, ma alcuni suoi
benemeriti allievi che raccolsero i loro appunti dopo la morte del Maestro, si
attribuiscono comunemente ad errori di tali trascrizioni e all'imprecisione dei
ricordi la poca chiarezza del passo menzionato e, più in generale, le infinite
contraddizioni che pervadono da cima a fondo quel libro "orale", non
scritto, che è il Cours. E' stato Lucidi, in tempi a noi più vicini, a far luce
non solo su questo aspetto apparentemente marginale[6],
ma soprattutto a capire appieno il pensiero di Saussure e a cominciare a dare
una forma compiuta e lucida alle geniali intuizioni del Maestro. Per quanto
riguarda il fenomeno da cui abbiamo preso le mosse, solo Lucidi nell'elaborare
la teoria generale del segno (e nel trasmetterla man mano ai suoi meno
benemeriti, anche se più numerosi, allievi) ha avuto ben saldo, come punto di
riferimento, che:
la frase non è un
complesso di segni, ma un segno complesso.
Ma
eccettuati questi due grandi, i linguisti, come accennato, si limitano ad una
grossolana e intuitiva analisi "ad orecchio" della lingua viva,
riservando tutti gli studi alla parola scritta. In tale ambito i loro sforzi
sono stati coronati da successi rilevanti o addirittura basilari, come nel caso
del riconoscimento dei due livelli del linguaggio. È un dato ormai unanimamente
acquisito, benché a volte sottovalutato dagli stessi addetti ai lavori, che il
linguaggio umano, pur nella sua estrema variabilità, si articola sempre su due
livelli ben distinti: la parola e la
frase. Anzi alcuni linguisti, per evitare le confusioni derivanti
dall'errata e radicata sensazione che alle parole sia insito un significato,
adottano il termine "iposema" introdotto da Lucidi per
designare la parola, riservando il termine "sema" alla frase, l'unica
entità linguistica realmente significativa. L'equivalenza morfologica tra
parola e frase aveva abbagliato infatti, per secoli, anche i linguisti più
competenti, specialmente a causa dell'illusione
grafica creata dal sintagma nei suoi due funzionamenti complementari (e, si
badi, autoescludentesi, cioè bistabili)
come parola o come frase monoverba. La lunga e sofferta acquisizione della
predetta discriminazione concettuale ha ormai spianato la strada verso
ulteriori e più significative conquiste, per cui possono e debbono avere una
risposta i seguenti interrogativi: quando ci si libererà dalla trappola
percettiva dell'illusione fonica
simile a quella grafica? Quando arriverà la linguistica a capire che i due
livelli della scrittura dovrebbero ritrovarsi, e a maggior ragione, anche nella
lingua viva, come ha scoperto Lucidi? E non potrebbe il canale acustico
addirittura consentire il rilievo oggettivo, impossibile in quello ottico, di
questi due stati della lingua?
2 - Il problema della
ridondanza.
Il
recente impulso alla ricerca sul "parlato" non viene dai linguisti,
com’è facile arguire, ma dai tecnici delle comunicazioni elettriche. Pressati
dall'esigenza di ottimizzare il rendimento delle trasmissioni, ad esempio
telefoniche, costoro cercano una codifica sempre più efficiente del segnale e,
a tal fine, lo sottopongono ad una dettagliatissima analisi strumentale. Grazie
a queste "vivisezioni" il flusso sonoro è risultato essere non solo
di natura continua, ma di una complessità
estrema. Nella catena fonica i fonemi non si trovano allineati in bella fila
come i grafemi della scrittura, ma sono incastrati l'un l'altro al punto che la
loro compenetrazione e coarticolazione ne pregiudica la segmentabilità e, in
molti casi, anche la riconoscibilità. Oltre a ciò è l'enorme numero di
variabili che intervengono nella fonazione (durata, intensità, pitch,
armoniche, formanti, ecc.) che ne rende oltremodo difficoltosa (e spesso
soltanto estrinseca) l'analisi e che, privilegiando l'asse, per dir così,
paradigmatico, ne mette a volte in ombra quello sintagmatico/temporale, con
effetti depistanti per la ricerca. Non c'è da stupirsi quindi che gli ingegneri
delle comunicazioni, senza la guida illuminata del linguista, rimangano preda
dei capricci della prosodia e non riescano a vedere tra gli infiniti apparenti
livelli dei loro segnali proprio quei due, veramente essenziali, di cui abbiamo
dedotto ed anticipato l'esistenza. Ciò nonostante il loro lavoro non si può
considerare sterile, perché sono stati raggiunti ottimi risultati, almeno
riguardo al già accennato obiettivo pratico primario: la riduzione della famosa
"ridondanza" del segnale, la principale spina nel fianco nelle
comunicazioni elettriche. Tale parametro nella teoria della lingua svolge un
ruolo essenziale, che però non può essere precisato senza prima sgomberare il
campo dalle confusioni sulle sue accezioni[7].
Cominciamo
con il punto di vista degli ingegneri delle telecomunicazioni e semplifichiamo
il problema scegliendo come esempio un Compact
Disk. Come capacità massima questo può contenere, indifferentemente, una
conferenza, poniamo di un'ora, oppure un'intera enciclopedia di migliaia di
pagine. Nel primo caso, chiaramente, il canale sensoriale naturale
dell'“utente” delle informazioni è quello acustico, mentre nel secondo caso è
quello ottico. Nulla tuttavia impedisce che l'enciclopedia invece di essere
letta su video, possa venire ascoltata tramite un sintetizzatore vocale, cosa
del resto già attuata per permettere ai ciechi l'accesso alle banche dati.
In
questo caso il raffronto fra i due tipi di memorizzazione, analogica quella
della conferenza e digitale quella dell'enciclopedia, è legittimo ed analogo a
quello tra il numero dei caratteri del testo scritto della conferenza, poniamo
qualche decina di migliaia di bytes,
e il numero dei caratteri dell'enciclopedia, anche centinaia di milioni di bytes.
E'
facile rendersi conto, anche sulla scorta dei dati orientativi forniti, che la
"lettura" sintetizzata dell'intera enciclopedia dovrebbe durare non
meno di 1.000 ore. Ne consegue che l'efficienza del Compact Disk è di gran
lunga maggiore quando i dati sono memorizzati in forma alfabetica, cioè
discreta o digitale, piuttosto che in forma analogica o continua[8].
Gli ingegneri considerano questo divario un enorme spreco, una ridondanza pura
che cercano di eliminare, o comunque diminuire, "compattando" il più
possibile il segnale fonico, mediante riduzioni della larghezza di banda,
segmentazioni, elaborazioni matematiche del segnale, ecc. L'ideale per loro
sarebbe riuscire a convertire o codificare un messaggio orale nel suo
corrispondente scritto, discriminando i fonemi del parlato continuo e
convertendoli nei relativi grafemi, ma in queste operazioni, tipiche della
cosiddetta "analisi vocale", sono ben lungi dal raggiungere i
successi della "sintesi vocale"[9].
Anche con le tecniche più avanzate i risultati possono essere solo parziali[10],
non soltanto per problemi estrinseci di ingegnerizzazione (costi, bilancio tra
guadagno nella velocità di trasmissione e perdita di tempo per la codifica,
intellegibilità, ecc.), ma soprattutto, come vedremo, per l'intrinseca insopprimibilità della ridondanza e l'inevitabile "impastamento
fonematico" già accennato[11].
Vediamo
ora il punto di vista dei linguisti. La loro preoccupazione non è economica, ma
quella di diminuire l'ambiguità del linguaggio, per cui sono indotti a
considerare la ridondanza in sensi diversi, o limitativi, rispetto a quello
degli ingegneri: la vedono come prolissità, o come una protezione dai disturbi
del canale di trasmissione, o anche, qualche rara volta, come ricchezza
semantica. Se poi, come uomini di "lettere", hanno la tendenza
professionale a privilegiare la scrittura, non lo fanno certo per ridurre la
ridondanza, ma semmai, al contrario, per aumentarla, perché sanno che anche un
testo scritto possiede ridondanze, e di vari tipi[12].
Ne segue che per loro la parola ridondanza ha un significato fluttuante, e non
potrebbe essere altrimenti perché in campo umanistico, come si usa dire, ogni
definizione è una forzatura. Ma questa diffusa opinione, se è valida per la
lingua comune e per la letteratura in generale, non può essere accettata in un
documento che aspira ad essere scientifico, e quindi neanche in un trattato di
linguistica, che, per esser tale, dovrebbe far precedere le descrizioni dei fatti di lingua da
puntuali definizioni di tipo
matematico; e soprattutto, come ha acutamente evidenziato Lucidi[13],
non dovrebbe gabellare per definizioni quelle che sono soltanto delle descrizioni.
In linea con questa primaria esigenza e in attesa di una rigorosa definizione,
invitiamo i lettori a non lasciarsi sviare dalle proprie valutazioni, anche se
inconsce, sulla ridondanza.
3 - Un mistero
dell'orecchio umano.
Benché
l'orecchio umano sia notoriamente considerato un organo sensoriale
raffinatissimo, più dell'occhio, vi sono casi in cui la sua sensibilità è di
gran lunga inferiore a quella di un comune microfono. Il più eclatante è il
mancato apprezzamento della ridondanza o, se si preferisce, la sua soppressione
percettiva, tanto che è tale fenomeno a legittimare i tagli e gli sfrondamenti
sul segnale elettrico già accennati. Stranamente infatti l'orecchio non
percepisce alcuna differenza sostanziale tra voce naturale e sintetica, malgrado
il molto maggiore (di alcuni ordini di grandezza) contenuto di
"informazione" della prima
rispetto alla seconda e questo stato di cose, che sembra avallare la diffusa
opinione dell'inutilità della ridondanza, è in contrasto con il buon senso di
chi intuisce in essa una ricchezza semantica. Il problema, come già
sottolineato, è centrale e lo restituiremo ai suoi veri termini dopo aver
rapidamente passato in rassegna altri, non meno notori, casi di insensibilità
uditiva.
Già
dal IV secolo d.C. si è persa la percezione della quantità sillabica e gli
scolari, ad es. di Agostino, non hanno orecchie che per l'intensità; nel
passaggio dal mondo greco a quello latino si è avuta l'inversione di arsi
(tempo debole del piede nella metrica greca) e tesi (tempo forte); moltissimi
italiani non sanno distinguere le vocali aperte dalle chiuse; tutti, tranne i
ciechi che ne hanno bisogno per orientarsi, sopprimiamo inconsciamente echi e
microechi (ad esempio percepiamo in modo quasi identico una parola pronunciata
all'aperto e al chiuso, malgrado la molto più fitta composizione spettrale);
tutti coloro che negli anni '50 ebbero il privilegio di conoscere Lucidi non
riuscivano a percepire le sfumature tonali da lui scoperte (ad esempio i famosi
"tredici/sedici medici"), malgrado quasi tutti fossero certi della
sua responsabilità e genialità; nessuno ha preso sul serio il mio Tototono e le mie crittofonie; E. A. Poe scrive
che su niente sono state scritte tante sciocchezze come sulle sillabe brevi e
lunghe (x), e il Fraccarolo è della stessa opinione (x).
Un paragone può aiutare a capire quest’insensibilità dell'orecchio: la difficile distinzione tra il regime laminare e quello turbolento dei fluidi (liquidi e gas) e la brusca inversione tra questi due stati.
A
fronte di questa insensibilità, l'orecchio mostra dei virtuosismi altrettanto
strani. Nei vecchi fonografi meccanici, a causa dell'inerzia degli stili,
veniva registrato solo il profilo, la sagoma, l'inviluppo del segnale e una
cosa analoga avviene tuttora per le colonne sonore ottiche dei film: malgrado
ciò l'orecchio riesce ad integrare i dettagli e la ridondanza tagliati da
questi mezzi di registrazione a "bassa fedeltà", che si possono
avvicinare ad una sorta di "scrittura con la bocca" (donde il nome di
grammofono). A questo proposito Arthur L. Winfree, biologo dell'Università
dell'Arizona, pioniere di un nuovo approccio allo studio della fibrillazione,
ci può dare i suggerimenti giusti per penetrare i misteri della lingua: "La
tendenza tradizionale (della scienza) è di usare tutte le conoscenze che
abbiamo per realizzare il modello più realistico, dopodiché vi perdete senza
speranza nella foresta dei dettagli. Invece potete provare a selezionare pochi
particolari che ritenete decisivi. Ne verrà fuori una 'caricatura' del cuore,
ma questi modelli supersemplificati possono al momento buono mostrarci cose
davvero fondamentali" (descrive il cuore come un complesso dinamico,
mai fermo; la fibrillazione un sacco di vermi; dettagli estremamente
complicati; le dinamiche di questi ritmi sono molto più ricche di quanto si
possa ipotizzare; sequenze di Fibonacci nei battici ectopici, ecc.)[14].
4 - Alfabeti e
analfabeti.
Il parlato può essere prodotto in questi modi principali:
1) detto da un
nativo alfabetizzato;
2) detto da uno
straniero dopo un sufficiente training linguistico;
3) letto dal
nativo o dallo straniero di cui sopra;
4) detto da un
nativo o da uno straniero analfabeta;
5) sintetizzato
elettronicamente dal corrispondente testo scritto;
6) ricostruito
artificialmente dopo compressioni del testo orale;
7) ripetuto
"a pappagallo" da animali parlanti, ventriloqui, ecc.
Tralasciando,
per il momento, l'analisi degli ultimi due casi (e di quelli assimilabili),
limitiamo il confronto fra i primi quattro che, accomunati dal fatto di essere
tutti compresi dal parlatore,
possiamo considerare equivalenti, almeno in prima approssimazione, e il quinto
caso della voce sintetica o artificiale. Ebbene, nel primo gruppo (voce
naturale) abbiamo infallantemente quel carattere di continuità, impastamento,
ridondanza, ecc. di cui abbiamo parlato; nella voce sintetica invece ritroviamo
il carattere discreto, digitale, alfabetico, compatto, ecc. dello scritto,
perché la macchina si limita, essenzialmente, a convertire i singoli grafemi
nei corrispondenti fonemi, a tradurre gli spazi tra le parole in brevi pause e
a creare una prosodia artificiale[15]
sulla base della punteggiatura del testo scritto.
La
drastica differenza tra questi due tipi di linguaggio non deve apparire saputa
o banale, perché le sue implicazioni sono enormi e perché con essa si può
spiegare la scoperta di Lucidi in base alla quale nel flusso naturale del linguaggio, che è quello
acustico, vi sono entrambi i tipi di
parlato descritti: la lingua naturale
include, per così dire, quella artificiale. Per discutere tale scoperta
invitiamo il lettore a pensare alla lingua parlata in una comunità di
analfabeti o dai bambini non ancora scolarizzati, cioè a quella lingua nativa, naturale, materna non (ancora)
"contaminata", per dir così, dalla scrittura e dalla lettura[16].
Questa restrizione, d'altra parte, non pregiudica l'estensione dei risultati a
cui perverremo perché la lingua dei cosiddetti analfabeti non è soltanto
perfettamente "compatibile", ma è "identica" a quella degli
alfabetizzati.
Gli
strutturalisti, prima di analizzare le infra e sovrastrutture della lingua,
rese necessarie da quella manzoniana preziosa "birberia" che è il
leggere e scrivere, non dovrebbero dimenticare, perché troppo ovvio, che la
lingua è un edificio a base alfabetica
e che tali fondamenta le hanno anche i cosiddetti analfabeti. Questo termine
poi è improprio e certamente fuorviante perché chi non sa leggere e scrivere sa
tuttavia comunicare benissimo in lingua, in quanto alfabetizzato spontaneamente dalla natura. A rigore non è la natura
in sé che alfabetizza, ma il gruppo sociale (la madre, nel senso proprio e la
madre terra). L'alfabeto infatti - giova ricordarlo - è prima di tutto
fonetico, e tale rimane a prescindere dal fatto che venga utilizzato o meno per
quello scopo secondario che è la scrittura e a prescindere anche dal fatto che
l'illetterato non sia consapevole degli artifici linguistici pur operanti nel
suo cervello. L'inconfutabile prova di questo stato di cose è il fatto che
l'"analfabeta" e il "fanciullino" parlano, capiscono, si
fanno capire, ricordano: le potenzialità della loro lingua (materna) sono
equipollenti (e in certi casi maggiori) a quelle degli alfabetizzati che (o
quando) non si servono della scrittura, e sarebbero del tutto identiche se non
intervenissero fattori estrinseci di abitudine, necessità pratiche, barriere
sociali, ecc.[17].
Prima
di essere il formidabile strumento della parola e della scrittura, l'alfabeto è
però il formidabile strumento della memorizzazione, e questo a prescindere dal
fatto che il supporto di questa memoria sia un foglio di carta, una lapide, un
floppy disk o la rete neuronale del nostro cervello.
Anche
la natura infatti ha dovuto affrontare il problema degli ingegneri delle
telecomunicazioni, la memorizzazione e la trasmissione efficiente della parola,
o per meglio dire del pensiero, e lo ha risolto con quella codificazione
efficientissima che è l'alfabeto. E che questa scelta della natura sia stata (e
sia) ottimale, e la più "naturale" possibile, lo si constata proprio
per l'illusione percettiva di cui abbiamo accennato[18].
Quando pronunciamo qualcosa, infatti, sia il parlatore che l'ascoltatore,
normalmente, non sanno (più) discriminare se si tratta di una espressione acustica, ana o
pre-alfabetica, o della sua traduzione nel codice alfabetico, nel qual caso è
più esatto parlare di "impressione
acustica", nel senso tipografico, o meglio tipo-fonico, del termine[19].
Se la natura avesse scelto una codifica con un numero di simboli inferiore o
superiore alla ventina di quelli dei vari alfabeti (casi limite: a base 2 come
nei computer e a base teoricamente infinita come negli ideogrammi) il fluire
dell'esprimere e la comprensione sarebbero stati più problematici, come provano
i fallimenti delle lingue artificiali, delle innaturali stenofonie numerali[20],
delle lingue ultralessicologiche[21],
ecc.
5 - Elogio della
sinestesia audiografica.
L'unico
inconveniente, peraltro discutibile, di questa ottimizzazione naturale della
"codifica dei pensieri" è (stata) la perdita non solo della
consapevolezza dei due tipi di pronuncia (espressiva e impressiva), ma anche
della soglia tra i corrispondenti stati di attività e di riposo del cervello
umano. Il trompe-l'oreille mimetizza anche il salto neuronale tra l'attività
primaria, creatrice dell'uomo, che è quella espressiva, e la fase secondaria di
relè, nella quale il cervello
si riposa sostituendo la dispendiosa espressività linguistica con la sua
vicaria artificiale, cioè con la pronuncia "scritta", impressiva,
timbrata, molto più economica. Del resto la differenza, e la
confusione, tra le due pronunce trova un'eco perfetta nella già segnalata
impropria discriminazione o denominazione tra analfabeti ed alfabetizzati. Come
i primi non possono non servirsi dell'alfabeto, così i secondi non possono
esprimersi solo alfabeticamente: sarebbero macchine, sintetizzatori vocali,
libri (stampati?). E così come alfabeti e analfabeti convivono in una data
comunità linguistica, analogamente in un singolo parlante convivono, e di norma
si alternano, le pronunce ana- e alfabetiche. Come esempio si può portare la
semplice frase apparentemente tautologica con cui una mamma gatto istruisce, in
una nota favola, il suo micetto[22]:
"Un topo è un topo!".
Ebbene, il primo “topo” è alfabetico; il secondo analfabetico, nel senso
descritto (e che preciseremo meglio nel prosieguo).
A
causa della provvidenziale sinestesia audiografica noi non distinguiamo nel
canale acustico quelle parole (estense) che pronunciamo fonematicamente, cioè
come se le scrivessimo con la bocca, da quelle altre (intense) che pronunciamo
"naturalmente", col risultato che il flusso sonoro, composto da
estense e intense alternate, non ci appare discontinuo.
Il
suono non è solo il vettore dell'idea, ma è l'idea stessa: nel caso dell'idea
semplice (una parola) non c'è nessuna complicazione: se io dico
"cavallo" il suono è specchio fedele dell'idea, anzi è l'idea stessa
se contemporaneamente essa esisteva
nella mia mente; può darsi però che nella mia mente (per pigrizia
istituzionalizzata, come vedremo) non vi
sia l'idea di cavallo, ma la codifica dell'idea di cavallo e in tal caso
io, fedelmente, pronuncio un "cavallo" codificato. In altri termini,
oltre a confondere pronuncia real time (live, dal vivo) e pronuncia, per così
dire, in differita (in codice, perché quello che è "depositato" in
memoria lo può essere solo nel sistema/codice a base alfabetica) confondiamo
(in buona fede!) anche il pensiero vero con quello iposemico,
"fantoccio".
Qualunque
memorizzazione per essere efficiente deve essere digitale, quindi di tipo
ottico/alfabetico.
La memoria acustica
analogica o per campionamento non esiste.
La
sinestesia si spiega perchè i due canali si compenetrano:
intensa
= canale acustico
- estensa = canale ottico
(pseudoacustico)
In
realtà l'unico canale vero, coincidente col pensiero, è l'acustico.
6 - L'iposema di
Lucidi.
Vedere
i suoi scritti, chiarissimi e misconosciuti, in particolare quella nota
"non notata" (veto di Pagliaro).
Vedere
bene anche Saussure, che è stato (l'unico?) maestro di Lucidi.
L'estrema
funzionalità dell'alfabeto è dovuta anche alla sua matematicità, al fatto che i
suoi simboli possiedono quell'ordine
alfabetico senza il quale la memorizzazione e il ritrovamento delle
informazioni sarebbero impossibili: basti pensare, come esempio eclatante, alla
guida telefonica.
Un’interiezione
è una parola allo stato nativo, ana-grammata, che viene prima della lingua, che
non è stata ancora ipo-grammata nella scrittura, nella composizione, nella
consecutività lineare e temporale. Essa è fuori dal tempo[23].
Essa non è ancora nella lingua (Lucidi).
Una formula è, all'opposto, quanto di più artificiale vi possa essere (con le riserve testé avanzate circa la naturalità di questa artificialità).
Un
numero composto è memorizzato, "consolidato" dalla scrittura (cfr.
Saussure, solidarietà sintagmatica, meccanismo della lingua, ecc.); un numero
primo è detto non mnemonicamente, ma in tempo reale.
7- La doppia
modulazione.
Si
fa risalire ad Helmholtz la nota "credenza" che l'orecchio sia
insensibile alla fase (cfr. Ferrero). Alcuni studiosi però (anche Barducci)
pensano che la fase sia utile e porti "notizie". In effetti gli
esperimenti hanno mostrato che variazioni statiche
di fase pur facendo molto cambiare la forma d'onda del segnale, ne lasciano
inalterato lo spettro di frequenza, l'unico su cui appuntano l'attenzione i
fonetisti (Ibba). È da presumere pertanto che anche variazioni dinamiche della fase non siano, almeno apparentemente,
apprezzate dal nostro orecchio: questo spiega la sua insensibilità alla
ridondanza[24].
Un
ottimo punto di partenza per la spiegazione dei misteri dell'orecchio e della
voce umana è un'analogia radiotecnica. Già un secolo fa Calzecchi Onesti
paragonava la trasmissione della voce nell'aria con la trasmissione delle onde
radio nell'etere: perché ci stupiamo (o stupivamo) della seconda e non della
prima? Le vocali (e quando mancano, come nella voce bisbigliata, basta la sola
aria) costituiscono una portante (o meglio una sottoportante) che subisce una prima modulazione per opera delle
consonanti: si ottiene così la "parola" (livello basso del
linguaggio), la voce alfabetica, iposemica, fonematica, scritta. Fuori dalla
frase (livello alto del linguaggio) tale catena fonica non è semantica, non
porta informazione o messaggio. Per avere significato, per elevare l'iposema a
sema, occorre una seconda
modulazione: questa è data dal corredo prosodico, dall'intenzionalità del
parlante e si ha solo nelle parole (o solo nelle sillabe, specie in poesia)
intense.
La
voce sintetica che abbiamo analizzato[25],
paragonabile allo scritto, costituisce solo la sottoportante del messaggio, non
porta informazione in modo diretto, consente solo all'ascoltatore/lettore di
operare lui la seconda modulazione, cioè in pratica di attribuirle il
significato.
Le
due modulazioni sono simultaneamente di ampiezza, frequenza e fase, ed essendo
della stessa natura, non sono facilmente distinguibili. Dalla radiofonia è noto
che la modulazione di fase si riduce ad una modulazione di frequenza, con la
genesi di bande di frequenza laterali che "riempiono" lo spettro. La
cosiddetta dinamica del segnale non è altro che la variazione dinamica della
fase.
Quel
misterioso impastamento su cui abbiamo insistito è dovuto a questa seconda
modulazione (sul fonato semplice, di prima modulazione o articolazione)
che equivale ad una ridondanza di fase/frequenza, cioè di timbro, e che, al
contempo, è la spia che una parola con questa vividezza di timbro, è in realtà
una frase monoverba, cioè una parola intensa, capita; l'estensa è
invece solo ipocapita (tenuta del timbro).
Alta fedeltà semantica:
l'intensa esprime la coerente fedeltà dei prosodemi al valore del sema (x):
quindi rappresenta la parola pensata, vera; l'estensa quella falsa, è non va
pensata come una mutilazione dell'intensa/ridondante, ma come qualcosa di non
sovrabbondante, sufficiente, bastevole, sobrio, parco pacato, morbido.
Idea
di abbrivio, laminarità, quiescenza, riposo, FLUENZA.
Le
estense foniche hanno solo il timbro (fonale!), mentre le intense hanno
una modulazione
di timbro, cioè la famosa ridondanza. Non percepiamo la differenza tra
la modulazione semplice e quella composta perché entrambe si riducono a
modulazioni di fase, e l'orecchio, è insensibile alla fase.
8 - La scrittura e la
lettura.
Niente
è più sensato sulla scrittura e sulla lettura di queste parole: Le parole, dette o scritte, devono stare in fila...
La necessità di comunicare fa violenza alla complessità
e alla tortuosità del nostro pensiero... L'arte dello scrivere consiste
essenzialmente nell'imporre ad un materiale più o meno recalcitrante (...) un
ordinamento lineare, mentre l'arte del leggere sta nella capacità di ricostruire
una struttura pluridimensionale sulla base di quella lineare, e un buon
scrittore presenta il suo materiale in modo da facilitare questa
ricostruzione... Più un autore lavora attorno alla sua opera, più ha
probabilità di compiere un miracolo
simile nella mente dei suoi lettori... A questi ultimi, comunque, è dovuta l'altra metà del miracolo[26].
Elogio
della ridondanza e della sua contropartita: la fluenza.
La
ridondanza non va vista come qualcosa di concitato, eccitato, bensì di
produttivo, attivo, significativo; la fluenza è ancora più preziosa: la
linearità della scrittura, infatti, grazie agli incastri e ai rimandi
sequenziali, consente al lettore la seconda modulazione (movimenti balistici
degli occhi?), normalmente - salvo inevitabili perturbazioni del sistema -
identica al pensiero che lo scrittore ha trasmesso, VIA FILO potremmo dire,
nel suo scritto lineare.
La
scrittura è una prima modulazione, ma è anche la portante della seconda
modulazione. Con Lucidi potremmo definirla il vettore, le ali su cui si librano
i nostri pensieri[27].
Dal punto di vista grafico questa modulazione è irrappresentabile[28]
e ci si limita all'espediente dei segni diacritici (punti, virgole,
virgolette, vari tipi di accenti, umlaut, cediglie, ecc.). Tale seconda
modulazione è proprio la prosodia, quella che dà, che è il significato! Quando
leggiamo è il lettore stesso che opera questa seconda modulazione portatrice di
senso, unicamente sulla base dei dati della prima modulazione, quella degli
incastri iposemici fornitigli dalla catena (concatenamenti, solidarietà
sintagmatica) grafica.
Correlazioni
tra parola e musica (Lucidi); Musica = scienza bene modulandi.
9 - Formazione delle
parole
Studio
della nomenclatura. Perché alcune parole sono estense? Perché si sono
consolidate nella memoria collettiva, nel deposito/lingua (Saussure)
10 - Verifiche
sperimentali.
Esperimenti
di lettura/non lettura e simili. Corpus lucidiano.
11 - Verifiche
strumentali.
Definizione
di leggibilità
acustica: è leggibile ciò che è scritto in sequenza, senza eccessi di
ghirigori. La firma non è scrittura.
L'“eccesso”
di modulazione dell'intensa, che nello scritto costituirebbe una saturazione
irrappresentabile, può essere rivelato strumentalmente.
12 - Effetto Lucidi o
effetto relè.
Teoria
della repetibilità.
La
seconda modulazione deve essere operata al momento, real time, non è né
memorizzabile, né riportabile (repetibile).
L'effetto
Lucidi si spiega abbastanza bene: riferire = scrivere = togliere l'impaccio
della seconda modulazione (ridondanza prosodica), ma – com’è intuibile - la
ridondanza estromessa dalla porta rientra dalla finestra.
13 - Biografia
scientifica di Lucidi
File
interviste (vedi AG 4). Lucidi ha
"potuto" capire perché non leggeva. La lettura silente è una
conquista seriore della civiltà, la vera comunicazione avveniva ad alta voce e
quindi facendosi leggere il testo egli riusciva a capire la prosodia e di
conseguenza il significato (anche Sciascia una volta capì un passo di Verga
pronunciandolo a voce alta).
Lucidi
non descrisse l'intensa con la mia doppia modulazione: disse solo
che essa presentava un'articolazione più energica dell'estensa.
Lucidi ha strenuamente sostenuto che il segno linguistico
non è un segno ciò equivale a dire che il "segnale" audio (almeno
quello dell'estensa o della voce sintetica) non è
"segnale", ma solo la portante del segnale.
[1] Al momento ogni altra considerazione sulla struttura del testo scritto potrebbe rivelarsi fuorviante.
[2] Si pensi, per esempio, ai microsolchi dei dischi fonografici.
[3] F. De Saussure, CLG 103 e 170.
[4] W. Belardi, prefazione (pag. XI) a M. Lucidi, "Saggi linguistici", Istituto Universitario Orientale, Napoli 1966.
[6] cfr. M. Lucidi, op. cit., p. 172
[7] Per mettere in grado il lettore di acquisire "in proprio", per dir così, la scoperta di Lucidi, cioé l'esistenza dei due livelli bistabili del linguaggio umano, si userà una terminologia poco specialistica e si schematizzeranno al massimo le nozioni tecniche e le dimostrazioni necessarie. Questa scelta, dettata unicamente da ragioni pratiche, se da un lato faciliterà la lettura ed estenderà il "pubblico" del presente scritto, dall'altro potrebbe penalizzare lo specialista che, infastidito da qualche apparente banalità o da qualche inevitabile svista, dovesse snobbare la lettura o, peggio, non dovesse profondervi quell'impegno non solo richiesto dalla novità o dall’eventuale difficoltà del testo, ma teorizzato, come si vedrà nel prosieguo, nel testo medesimo.
[8] Il termine "digitale" può creare confusione. Infatti la memorizzazione della conferenza è anch'essa in forma digitale, e precisamente binaria, essendo ottenuta per "campionamento" del segnale analogico. Nel presente testo, tuttavia, "digitale" è usato unicamente nel senso di "alfabetico".
[9] Si pensi, oltre alla sintesi vocale da computer già menzionata, alla lettura automatica di documenti dattiloscritti.
[10] Per esempio la dettatura automatica o il comando vocale dei computer, in cui però è indispensabile che il parlatore si esprima, potremmo dire, come un libro stampato!
[11] Le più ardite e avveniristiche linee di ricerca di analisi vocale, basate ad esempio sull'uso di Vocoder evoluti, stimano, come frontiera assolutamente invalicabile, una compressione (compattamento) non inferiore a due o tre volte il corrispondente testo scritto.
[12] Vedi, per esempio, T. De Mauro, "Tra Thamus e Theuth. Uso scritto e parlato dei segni linguistici" in "Senso e significato", Adriatica, Bari 1971, dove sono anche menzionate alcune idee di Lucidi.
[13] op. cit., pag. 34.
[14] Tuttoscienze, supplemento de La Stampa 3.12.86.
[15] Mediante controlli di durata, intensità e melodia del segnale.
[16] Un lettore ideale dovrebbe mettersi nei panni dell'analfabeta, trascendendo il fatto contingente di star leggendo e di saper leggere!
[17] Solo degli animali si può dire che sono realmente analfabeti, perchè sono costretti a esprimersi e a ricordare in modo rudimentale.
[18] Vedi § 1 e 3.
[19] L'impressione acustica è analizzata in CLG 63 e 64. Vedi infra.
[20] Da Leibniz a Tullio Bosco.
[21] F. De Saussure, CLG 183.
[22] Che le domandava cos’era un
“topo”.
[23] vedi J. Starobinski –
Le parole sotto le parole. pag. 42
[24] vedi § 3.
[25] vedi § 2.
[26] G. G. Neill Wright. The art of studying
(nel capitolo The web of thought).
[27] op. cit. pag. 16.
[28] Occorrerebbe una folla di segni diacritici, cfr. Lucidi, poesia di Trilussa; Belardi; Saussure (CLG 57 e anche prima).