Riproduzione ed ascolto dei suoni

riproduzione-suoni-AR88-2Tempo fa mi venne richiesto di descrivere, sulle pagine della rivista, l’interazione che ha luogo tra un altoparlante ed il pannello che lo sostiene, con particolare attenzione alle modificazioni della risposta provocate da fenomeni di diffrazione sul perimetro del pannello stesso. Mentre il lavoro si stava sviluppando, veniva formandosi la convinzione che il momento più importante del discorso, ovvero la discussione sugli effetti di tali modificazioni sull’ascolto, avrebbe presupposto un certo grado di conoscenza sul modo di elaborare le informazioni acustiche da parte del nostro senso dell’udito.

Venivano nello stesso tempo alla mente altri fenomeni analoghi, collegati alla ripresa e alla riproduzione dei suoni, che potevano anch’essi venire discussi in relazione ai loro effetti sull’ascolto.

Il lavoro iniziale sui pannelli è così diventato una parte di un discorso più ampio, avente come linea conduttrice la percezione e la ricostruzione della spazialità degli eventi sonori. Il discorso si articolerà in più puntate: nella prima, su questo numero, verranno presentati rapidamente i meccanismi del nostro senso dell’udito che governano l’aspetto spaziale della percezione sonora; nella seconda si parlerà delle caratteristiche dei microfoni e delle principali tecniche di ripresa del suono, nelle successive esamineremo vari fenomeni riguardanti la ripresa e la riproduzione dei suoni, accomunati dal fatto di avere relazioni, evidenti o nascoste, con i meccanismi di cui sopra.

1 – Riproduzione della musica ed alta fedeltà

Sin dagli inizi della loro presenza su questa terra, gli uomini si sono serviti del senso dell’udito per ricevere messaggi e segni, prodotti sotto forma di onde acustiche, dai loro simili e dall’ambiente circostante.

Nel corso del processo evolutivo, il senso dell’udito ha via via perfezionato la propria capacità di analisi degli eventi acustici, estraendone ed interpretandone quelle qualità legate in qualche maniera alla sopravvivenza ed alla conservazione della specie. Un esempio spesso riportato per illustrare meglio questo concetto ha per protagonista un uomo delle caverne che, in mezzo alla foresta, tra i rumori dei propri passi, dell’acqua che scorre, delle foglie, percepisce il rumore prodotto da un animale, suo predatore naturale.

In pochi istanti l’uomo riconosce il rumore, lo isola dal resto, per concentrarsi meglio su di esso, ne distingue la direzione di provenienza ed  approssimativamente anche la distanza, per mettersi infine in salvo con una rapida fuga dalla parte opposta. Possiamo senz’altro giudicare questa storia
come verosimile, per aver vissuto esperienze analoghe, anche se non così drammatiche; il sistema orecchie-cervello è infatti in grado di analizzare le grandezze che caratterizzano le onde acustiche e la loro propagazione (ampiezza, frequenza, composizione armonica, tempi di arrivo), per poi elaborarle, secondo modalità in parte ancora sconosciute, e ricavarne tutte le informazioni utili che dall’evento sonoro possono essere dedotte.

Siamo tutti in grado di individuare il punto in cui è caduta una monetina, seguendo il rumore dei rimbalzi, o figurarci la vastità di un ambiente, dal modo in cui i suoni vivengono diffusi, o riconoscere non solo l’identità di una persona, ma anche il suo stato d’animo, ascoltandone la voce, tanto per fare qualche esempio.
Di tutti gli eventi che fanno parte delle nostre esperienze sonore, ci interessano qui in particolar modo quelli legati all’ascolto della musica: questa attività, a mio modo di vedere, è una particolare forma di comunicazione tra musicisti (compositori ed esecutori) ed ascoltatori, con i primi che trasmettono gli ineffabili moti dell’animo umano agli altri, i quali ricevono traendone piacere ed emozioni.

Tutto per mezzo dei suoni, da quelli prodotti dai musicisti con altezze, intensità, timbri e tempi secondo le indicazioni delle partiture o di un direttore, fino agli echi, ai riverberi ed ai rumori, in dipendenza dalle caratteristiche dell’ambiente nel quale l’esecuzione ha luogo, dalle posizioni spaziali degli ascoltatori e dei musicisti, dalla presenza stessa del pubblico.

Sarebbe bello mantenere l’equilibrio di un tale impasto sonoro anche dòpo l’esecuzione originale, in una eventuale sua registrazione destinata ad essere riproposta in altri luoghi ed in momenti successivi, per rendere possibile lo stesso genere di comunicazione con altri ascoltatori.

È infatti nostro desiderio, nell’accingerci all’ascolto dei nostri dischi, che tutto quanto si risolva in qualcosa di più che una secca ripetizione delle parti  strumentali e vocali, quasi come se, volendo analizzare un brano  musicale, ce ne procurassimo lo spartito per eseguirlo al pianoforte.

Gradiremmo invece avere la sensazione di assistere ad uno spettacolo, di immergerci nell’atmosfera dell’esecuzione originale, percepire la spazialità di quella chiesa o di quella piazza o di quella sala da concerto.

Affrontare i problemi della riproduzione della musica tenendo presenti i concetti appena espressi, significa superare la convinzione che, per garantire un risultato corretto, sia sufficiente la perfezione delle apparecchiature usate nella ripresa e nella riproduzione dei suoni.
Curve di risposta piatte, basse distorsioni e rumori di fondo, tecniche digitali, permettono l’esatta riproduzione delle estensioni, dei timbri e delle dinamiche delle sorgenti sonore udibili; esistono però altre caratteristiche dei suoni naturali che vengono utilizzate dal nostro senso dell’udito per estrarre quelle informazioni legate soprattutto alla dimensione spaziale dell’evento sonoro: è proprio la comprensione di queste relazioni, a mio parere, la chiave per progredire verso il traguardo, forse non raggiungibile in pieno, di una riproduzione sonora che sia in grado di dare le stesse sensazioni dell’evento originale.

Nelle pagine che seguono verranno esposte rapidamente alcune idee, che stanno alla base delle teorie sul funzionamento del nostro senso dell’udito. Occorre tener presente che molti fenomeni rimangono ancora senza una spiegazione soddisfacente, mentre su altri gli studiosi si trovano in disaccordo sulle  interpretazioni e sulle spiegazioni: il campo è pertanto ancora aperto alla discussione di vecchie e nuove ipotesi ed alla sperimentazione.

2 – Localizzazione di sorgenti sonore

Intendiamo per localizzazione la capacità posseduta da un ascoltatore di individuare la posizione della sorgente del suono che sta ascoltando. Prendendo come riferimento la propria posizione, l’ascoltatore determina completamente quella della sorgente sonora con tre dati: distanza, angolo di azimut (sul piano orizzontale) ed angolo di elevazione (sul piano verticale). Il nostro senso dell’udito ricava queste tre informazioni indipendentemente ciascuna dalle altre, in modi che ora esamineremo più in dettaglio.
— LOCALIZZAZIONE
SUL PIANO ORIZZONTALE
Per riconoscere la direzione di provenienza di un suono sul piano orizzontale, il nostro senso dell’udito riconosce ed elabora le differenze nei segnali captati dalle orecchie destra e sinistra, che sono di varia natura:

a) Differenze di tempo di arrivo – Se la sorgente non si trova esattamente sul piano mediano, ossia quel piano perpendicolare alla congiungente le orecchie ed equidistante da esse, le orecchie vengono a trovarsi a distanze diverse dalla sorgente stessa; di conseguenza l’orecchio più lontano riceverà lo stimolo in ritardo, rispetto a quello più vicino, di un tempo pari al rapporto tra la differenza dei due percorsi e la velocità del suono.

Il massimo ritardo si ha quando la sorgente si trova sul prolungamento della linea con giungente le orecchie, e corrisponde, date le dimensioni medie della nostra testa, a circa 700 microsecondi. Quando la sorgente sonora è situata sul piano mediano, il suono emesso raggiunge le due orecchie contemporaneamente.

b) Differenze di fase — In presenza di suoni periodici, ogni differenza nel tempo di arrivo alle orecchie produce una differenza di fase: il sistema uditivo è in grado di riconoscerla e di usarla per determinare la direzione di provenienza del suono, limitatamente però a quelle frequenze basse, per le quali la lunghezza d’onda è maggiore della distanza che separa le orecchie.

Questo si verifica all’incirca fino alla frequenza di 0,7 kHz; alle frequenze superiori l’informazione riguardante la fase non rimane legata in maniera  inequivocabile al tempo di ritardo, e non viene elaborata.

c) Differenze di intensità — A partire dalla frequenza di 0,7 kHz circa, la testa inizia a comportarsi come un ostacolo alla propagazione delle onde sonore, determinando una differenza nei livelli di pressione acustica alle due orecchie.

La pressione all’orecchio più vicino alla sorgente aumenta, rispetto a quella che si avrebbe in campo libero, mentre all’altro orecchio diminuisce, trovandosi quest’ultimo in zona di ombra acustica.
Gli andamenti di queste variazioni di pressione, in funzione dell’angolo di azimut e della frequenza, non seguono una legge semplice e si mantengono abbastanza simili da un individuo all’altro. Nel caso dell’ascolto di un evento sonoro naturale, i tre effetti appena descritti hanno luogo contemporaneamente: oltre ad esaminare le differenze di livello nei segnali che arrivano alle due orecchie, alle basse frequenze il nostro senso dell’udito opera una analisi della fase, mentre nel caso di suoni transitori diventa importante anche l’elaborazione delle differenze nei tempi di arrivo.

Esperimenti condotti presentando alle due orecchie suoni prodotti ed elaborati artificialmente, in cui le differenze appena descritte sono presenti una sola alla volta, hanno mostrato che anche in queste condizioni il senso dell’udito riesce ad estrarre una informazione direzionale: mentre con segnali semplici le differenze di intensità vengono elaborate facilmente, nel caso delle differenze nei tempi di arrivo le sensazioni provate non risultano proporzionali agli stimoli ricevuti (1) (2).

Se poi alle due orecchie vengono presentati segnali con caratteristiche contradditorie, come ad esempio una intensità superiore ed un arrivo in ritardo ad un orecchio rispetto all’altro, il senso dell’udito non riesce a collocare correttamente la sorgente sonora nello spazio.

In queste situazioni il suono Sembra provenire non da un punto individuabile con precisione, ma da una zona molto ampia, o addirittura può sembrare che venga generato all’interno della testa.

— LOCALIZZAZIONE
SUL PIANO VERTICALE

Una sorgente situata sul piano mediano produce segnali identici alle due orecchie, qualunque sia la sua elevazione; in pratica, nell’ascolto dal vivo, sappiamo riconoscere benissimo se una sorgente sonora si trova di fronte, sopra o dietro la nostra testa, a prescindere dalla sua collocazione sul piano orizzontale.
Le ipotesi più accreditate, avanzate per spiegare questa capacità del nostro senso dell’udito, indicano come principali responsabili le modificazioni attuate dai nostri padiglioni auricolari sulle onde sonore in arrivo (3) (4) (5).

Questo fatto può essere compreso meglio considerando la conformazione del nostro orecchio esterno: al di là delle piccole differenze di forma e dimensioni riscontrabili da individuo a individuo, possiamo notare che l’apertura del condotto uditivo è circondata da una cavità (concha), di forma pressoché semicircolare, delimitata da un rilievo cartilaginoso (anti-helix).

Il condotto uditivo non si apre in mezzo alla concha, ma è piuttosto decentrato verso il basso, trovandosi così a distanze diverse da ogni punto del rilievo cartilaginoso. In questo modo entrano nel condotto uditivo due onde sonore, una diretta ed una riflessa, quest’ultima ritardata di un tempo che dipende dalla direzione di provenienza (fig. 1).

Figura 1 Sorgenti sonore di diversa elevazione determinano riflessioni sull'anti-helìx con ritardi variabili.

Figura 1 – Sorgenti sonore di diversa elevazione determinano riflessioni sull’anti-helix con ritardi variabili.

Questo ritardo è una funzione monotona dell’angolo di elevazione, e varia tra circa 100 microsecondi per una sorgente al di sopra della nostra testa, e circa 300 microsecondi per una al di sotto.

Che il meccanismo della localizzazione sul piano verticale sfrutti la conformazione dell’orecchio esterno è stato verificato da un esperimento condotto da Mark e Robert Gardner, dei Beli Laboratories (6), consistente nell’occlusione di tutte le cavità del padiglione auricolare, escluso ovviamente il condotto uditivo.

La perdita di accuratezza nella localizzazione verticale subita dall’ascoltatore è risultata proporzionale alla percentuale di cavità del padiglione occlusa.

Con questo stesso meccanismo si possono localizzare sorgenti sonore anche sul piano orizzontale: osservando la fig. 2 si può vedere come una variazione dell’azimut di una sorgente determini anch’essa una riflessione ritardata da parte del padiglione.

Figura 2 - Sorgenti di azimut differente producono anch'esse riflessioni con ritardi variabili.

Figura 2 – Sorgenti di azimut differente producono anch’esse riflessioni con ritardi variabili.

I ritardi in questo caso sono minori, e variano dai 20 ai 100 microsecondi; in condizioni favorevoli la localizzazione di sorgenti sonore sul piano orizzontale è dunque possibile anche con un solo orecchio.

— DISTANZA

In questo caso sono importanti sia i ritardi con cui giungono alle orecchie i suoni provenienti direttamente dalla sorgente sonora e quelli che hanno subito una o più riflessioni, da parte degli oggetti presenti nel luogo in cui l’evento sonoro si svolge, sia i rapporti di energia tra suoni diretti e riverberazione.

Mentre questi ultimi ci danno la sensazione di distanza dalla sorgente, l’insieme dei ritardi con cui giungono le riflessioni ci permette di ricostruire la collocazione della stessa in rapporto all’ambiente ed agli oggetti in esso presenti (7) (8).

Questo comporta una estrema difficoltà, per il nostro senso dell’udito, nell’operare in uno spazio aperto, dove mancano quegli oggetti 0 quelle strutture in grado di riflettere le onde sonore.

In un ambiente chiuso invece, le informazioni contenute nella sequenza di arrivo delle riflessioni sono tali da consentire, in condizioni favorevoli, di localizzare agevolmente una sorgente sonora anche con un solo orecchio. In conclusione, la localizzazione delle sorgenti sonore non è mai completamente distinta dalla percezione delle qualità spaziali dell’ambiente; un ruolo estremamente importante è ricoperto dalla elaborazione delle informazioni contenute nei ritardi con cui giungono alle orecchie, rispetto al suono diretto, tutte le riflessioni prodotte da oggetti situati nelle vicinanze della sorgente, nell’ambiente di ascolto e dall’ascoltatore stesso, in particolare dai suoi padiglioni auricolari.

3 – Effetto di precedenza

L’effetto di precedenza è una teoria sulla capacità, da parte del nostro senso dell’udito, di estrarre informazioni utili dalla elaborazione di una grande quantità di suoni diretti e riflessioni che gli si presentano in maniera apparentemente caotica.

È stato descritto per la prima volta da Haas nel 1951, e fino ad oggi, a parte una certa elasticità richiesta nell’interpretazione di alcuni casi particolari, non è mai stato contraddetto dai fatti nella sua sostanza. I concetti che stanno alla base dell’effetto di precedenza possono essere così riassunti:

  1. Quando noi ascoltiamo suoni prodotti in un ambiente da una sorgente sonora, le nostre orecchie ricevono suoni diretti insieme a suoni riflessi sulle pareti e sugli oggetti presenti nelle vicinanze.
    Il nostro sistema uditivo è in grado di riconoscere la parentela tra le riflessioni ed i suoni diretti che le hanno generate, per elaborare il tutto ed estrarre le informazioni sulla localizzazione della sorgente sonora e sull’ambiente stesso.
  2. Le riflessioni che arrivano entro 40 miflisecondi di ritardo (le cosiddette «prime riflessioni») dal suono diretto vengono fuse in una sensazione di evento sonoro unico, avente luogo all’istante di arrivo del suono diretto; come direzione di provenienza viene percepita quella del suono diretto, mentre il volume sonoro risente anche del contributo delle prime riflessioni.
    Le prime riflessioni possono essere più forti di suoni diretti, ed insieme ad esse possono arrivare altri suoni diretti, seguiti dalle loro riflessioni, senza che per questo derivi confusione o ambiguità per il sistema uditivo.
  3. Le riflessioni che arrivano con un ritardo dal suono diretto compreso tra 100 e 200 millisecondi possono o non possono venire fuse insieme alle prime riflessioni; in ogni caso il loro effetto è quello di confondere la chiarezza della percezione, costruita sull’elaborazione delle prime riflessioni.
  4. Le riflessioni che arrivano con un ritardo superiore a 250 ms vengono percepite come eco separata.

È molto importante, a mio parere, rendersi conto della fusione tra suono diretto e prime riflessioni, che veicolano ognuna una informazione spaziale particolare, in una unica sensazione completa; noi udiamo non tanto ciò che arriva alle nostre orecchie, ma il risultato della elaborazione che su quei dati il nostro cervello esegue e porta a termine in circa 40 millisecondi.

La posizione della sorgente sonora viene estratta dalle caratteristiche del suono diretto (per il piano orizzontale) e dalle sue riflessioni sul padiglione auricolare (per l’elevazione): la localizzazione della sorgente non viene disturbata dall’arrivo, da diverse direzioni dello spazio, di tutte le successive prime riflessioni.
Queste ultime contribuiscono a determinare il volume sonoro percepito e, in dipendenza dei loro tempi di arrivo, le caratteristiche spaziali dell’ambiente di ascolto.

La comprensione di questi concetti è di grande importanza nello studio dell’acustica delle sale da concerto e delle sale di controllo delle registrazioni. Le qualità delle migliori sale da concerto, considerate tali sia per l’equilibrio dei suoni destinati all’uditorio, sia per le caratteristiche acustiche sul palco degli esecutori, trovano piena spiegazione nell’effetto di precedenza.

Una abbondanza di prime riflessioni sul palco aiuta innanzitutto la comunicazione e l’affiatamento tra i musicisti durante l’esecuzione (pensiamo all’uso dei monitor «spia» per la musica amplificata elettricamente), inoltre produce sonorità gradevoli per gli ascoltatori, specialmente se mancano le riflessioni nell’intervallo 50-250 ms, che abbiamo visto essere portatrici di confusione (7) (8) (9).

Le stesse idee hanno portato allo sviluppo della tecnica LEDE (Live End-Dead End) nella costruzione delle sale per il controllo delle registrazioni: qui il concetto di base è l’eliminazione delle prime riflessioni (Dead End) in maniera che l’udito possa esaminare gli effetti dei suoni e delle riflessioni registrate nell’ambiente originale, senza che l’ambiente nel quale viene condotto il riascolto vi sovrapponga le proprie (10).

4 – Riproduzione attraverso altoparlanti ed in un ambiente diverso dall’originale

Le nostre esperienze di ascolto di suoni riprodotti hanno luogo generalmente in un ambiente domestico, con i suoni provenienti da due diffusori acustici, piazzati in maniera da formare all’incirca un triangolo equilatero con un vertice nella posizione dell’ascoltatore. I segnali inviati ai due diffusori non sono identici, ma presentano quelle diversità che dovrebbero rendere, per quanto possibile, le caratteristiche spaziali del suono originale.

Tali diversità consistono in differenze di intensità, di tempo e di spettro, e dipendono dalle tecniche usate per la ripresa sonora e da eventuali successive elaborazioni.

Una prima importante differenza che un sistema così concepito presenta rispetto alla realtà è il fatto che i suoni provengono da due soli punti, anziché da tutto lo spazio.

L’impressione che il suono provenga da zone diverse da quelle occupate dagli altoparlanti viene prodotta dalle caratteristiche dei segnali emessi; si cerca pertanto di ricostruire, in prossimità delle orecchie dell’ascoltatore, le differenze di intensità e tempi di arrivo presenti nell’ascolto dal vivo, per ottenere
una localizzazione sufficientemente precisa nel piano orizzontale.

In generale possiamo dire che, per farci localizzare una sorgente sonora virtuale in un qualsiasi punto compreso tra i due diffusori, questi dovranno emettere segnali di intensità diversi, maggiore nel diffusore che si trova dalla stessa parte della sorgente virtuale, e tanto più maggiore quanto più la posizione della sorgente virtuale deve spostarsi dal centro. Come casi estremi avremo che, con il segnale proveniente da uno soltanto dei due diffusori, localizzeremo la sorgente virtuale nella posizione dello stesso diffusore; con un segnale proveniente in ugual misura dai due diffusori, la sorgente virtuale apparirà situata al centro, tra i due diffusori.

Tutto ciò nell’ipotesi che la posizione dell’ascoltatore sia equidistante dai due diffusori, in maniera che non vengano introdotte anche differenze nei tempi di arrivo. Nel caso contrario, per la verità molto frequente, nascono complicazioni a non finire che possono compromettere la possibilità di un ascolto di qualità accettabile.

Spostando il punto di ascolto dalla posizione centrale, i suoni diretti non arrivano più contemporaneamente alle orecchie, e quello in ritardo può venire interpretato come prima riflessione del suono emesso dal diffusore più vicino: scompare così la possibilità di produrre sorgenti virtuali in posizioni diverse
da quelle occupate dagli altoparlanti.

Questo effetto in pratica può venire compensato con un aumento del livello del diffusore più lontano; anche se le cose sembrano in qualche maniera riaggiustarsi, rimane comunque una sensazione di ascolto innaturale, perché prodotta da suoni inviati alle orecchie in una forma che non trova corrispondenza nella realtà (1).

Una seconda differenza con l’ascolto dal vivo consiste nel fatto che per una sorgente reale ogni suono, diretto o riflesso, arriva una sola volta ad ogni orecchio, mentre nella riproduzione con due diffusori ogni orecchio riceve prima il suono emesso dal diffusore più vicino, successivamente quello emesso dal diffusore della parte opposta.

Esiste così una specie di «diafonia interaurale», limitata alla gamma delle frequenze basse (per frequenze superiori a circa 700 Hz la testa rappresenta un ostacolo opaco), della quale occorre tenere conto.

Vedremo più avanti che alcune tecniche di ripresa dei suoni basano proprio su questa particolarità della riproduzione l’accuratezza della localizzazione, mentre altre tecniche richiedono una correzione di questo effetto.

Infine, la terza differenza con l’ascolto dal vivo: l’ambiente di ascolto sovrappone le proprie riflessioni a quelle dell’ambiente originale, presenti nella registrazione.
Tralasciamo la condizione ideale del riascolto in camera anecoica, anche perché impraticabile dalla quasi totalità degli appassionati di alta fedeltà, e torniamo al concetto LEDE, già accennato in precedenza.

L’idea fondamentale è l’eliminazione delle prime riflessioni dovute all’ambiente di ascolto, ottenuta rendendo completamente fonoassorbenti le superfici che si trovano tra i diffusori e la zona d’ascolto (Dead End), e facendo in modo che le rimanenti superfici riflettenti (Live End) diffondano il suono omogeneamente, sia nello spazio, sia come distribuzione temporale.

La sensazione sarà in questo caso simile a quella dell’ascolto dal vivo, non da una poltrona in platea, ma da un palco affacciato sul luogo dell’esecuzione che si prolunga alle spalle dell’ascoltatore con le proprietà acustiche della sala di ascolto.

Tra parentesi, anche l’allestimento di un ambiente LEDE è impegnativo e costoso per un normale appassionato di musica riprodotta. Un sistema più economico per ridurre l’influenza delle riflessioni dell’ambiente consiste nell’ascolto da distanza ravvicinata, reso alla portata di tutti dalla disponibilità di diffusori acustici dalle dimensioni ridottissime (i cosiddetti «minidiffusori») e di ottima qualità. Sistemando i diffusori lontano da superfici riflettenti e costruendo un triangolo d’ascolto pressoché equilatero, dal lato di circa 70 – 80 centimetri, con due vertici occupati dai diffusori ed uno dall’ascoltatore, si ottiene una situazione in cui i suoni diretti (e le prime riflessioni registrate) prevalgono sulle riflessioni dell’ambiente di ascolto, proprio come per le misure sugli altoparlanti eseguite in campo vicino. Lo svantaggio di un arrangiamento del genere è che, essendo la posizione dell’ascoltatore obbligata, l’esperienza di ascolto non può essere condivisa in pieno da altre persone. Abbiamo finora dato per scontato che le registrazioni contengano inalterati i rapporti temporali tra suoni diretti e riflessioni presenti nell’evento sonoro originale; in realtà, nelle registrazioni commerciali, questo è vero solo in un numero limitato di casi.

In genere si tende a produrre registrazioni con suoni ambientali pressoché assenti, o introdotti artificialmente. La riproduzione di queste registrazioni si arricchisce ovviamente delle prime riflessioni prodotte dall’ambiente di ascolto, e la sensazione corrispondente è quella di presenza degli esecutori nello stesso ambiente; tale sensazione in alcuni casi, per esecuzioni con organico limitatissimo, può anche risultare piacevole, ma risulta del tutto fuori luogo con complessi orchestrali, le cui esecuzioni devono necessariamente venire arricchite dall’acustica di sale ad hoc.

di Carlo Zuccati


Bibliografia

  1. LeakeyD.M. «Some measurements on thè effects of interchannel intensity and time differences in two channel sound systems» Journal of the Acoustic Society of America, Vol. 31, n. 7 pp. 977-986 (luglio 1959).
  2. Roffler S.K. Butler R.A. «Factors that influence the localization of sound in the vertical piane» Journal of the Acoustic Society of America, Vol. 43, n. 6 pp. 1255-1259 (1968).
  3. Yost W.A. «Lateral position of sinusoids presented with interaural intensive and temporal differences» Journal of the Acoustic Society of America, Vol. 70, n. 2 pp. 397-409 (agosto 1981).
  4. Wright D., Hebrank J., Wilson B. «Pinna reflections as cues for localization» Journal of the Acoustic Society of America, Vol. 56, n. 3 pp. 957-962  (settembre 1974)
  5. Hebrank J., Wright D. «Spectral cues used in the localization of sound sources on thè median piane» Journal of the Acoustic Society of America, Vol. 56, n. 6 pp. 1829-1834 (dicembre 1974).
  6. Gardner M.B., Gardner R.S. «Problem of localization in the median piane: effect of pinnae cavity occlusion» Journal of the Acoustic Society of America, Vol. 53, n. 2 pp. 400-408 (1973).
  7. Pierce J.B. – «La scienza del suono» (cap. 10) Nicola Zanichelli Editore Spa, Bologna 1987. (Orig. The science of musical sound – Scientific American Books, Ine, New York 1983).
  8. Benade A.H. – «From instrument to ear in a room: direct or via recording» Journal of the audio engineering society, Vol. 33 n. 4 (aprile 1985).
  9. Shankland R.S. – «Acoustical designing for performers» Journal of the Acoustic Society of America, Vol. 65, n. 1 pp. 140-144 (gennaio 1979).
  10. DavisD., DavisC. «The LEDE™» concept for the contrai of the acoustic and psychoacoustic parameters in recording contrai rooms» Journal of the audio engineering society, Vol. 28 n. 9 (settembre 1980).

 

da AUDIOreview n. 88 novembre 1988

Author: Redazione

Share This Post On

Submit a Comment