05.03.2013 Views

Il suono : generalità - Istituto Istruzione Superiore Maserati

Il suono : generalità - Istituto Istruzione Superiore Maserati

Il suono : generalità - Istituto Istruzione Superiore Maserati

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Il</strong> <strong>suono</strong> : <strong>generalità</strong><br />

<strong>Il</strong> <strong>suono</strong> (dal latino sonus) è la sensazione data dalla vibrazione di un corpo in oscillazione. Tale<br />

vibrazione, che si propaga nell'aria o in un altro mezzo elastico, raggiunge l'orecchio che, tramite un<br />

complesso meccanismo interno, è responsabile della creazione di una sensazione "uditiva"<br />

direttamente correlata alla natura della vibrazione.<br />

<strong>Il</strong> termine Vibrazione si riferisce in particolare ad una oscillazione meccanica attorno ad un punto<br />

d'equilibrio. L'oscillazione può essere periodica come il moto di un pendolo oppure casuale<br />

come il movimento di una gomma su di una strada asfaltata.<br />

Le vibrazioni rappresentano un fenomeno desiderato in molti casi. Ad esempio nel funzionamento<br />

del diapason, e di molti strumenti musicali, o nei coni degli speaker, necessari per il corretto<br />

funzionamento dei vari oggetti che li utilizzano.<br />

Più spesso, però, le vibrazioni non sono desiderate; possono disperdere energia e creare suoni e<br />

rumori indesiderati. Ad esempio, nel funzionamento dei motori e delle automobili in generale..<br />

Gli studi sul <strong>suono</strong> e sulle varie vibrazioni sono strettamente collegati. I Suoni, onde di pressione,<br />

sono generati da strutture vibranti (ad esempio le corde vocali) e le onde di pressione possono<br />

generare vibrazione di strutture. Quindi, quando si prova a ridurre un rumore, il problema è ridurre<br />

la vibrazione che lo provoca<br />

Come tutte le onde, anche quelle sonore sono caratterizzate da una frequenza (che nel caso del<br />

<strong>suono</strong> è in diretta, ma non esclusiva, relazione con la percezione dell'altezza) e un'intensità<br />

(che è in diretta, ma non esclusiva, relazione con il cosiddetto "volume" del <strong>suono</strong>). Inoltre,<br />

caratteristica saliente delle onde sonore è la forma d'onda stessa, che rende in gran parte<br />

ragione delle differenze cosiddette di timbro che si percepiscono tra diverse tipologie di <strong>suono</strong>.<br />

Onda sonora<br />

Per la fisica, il <strong>suono</strong> è un'oscillazione (un movimento nello spazio) compiuta dalle particelle<br />

(atomi e molecole) in un mezzo. Le oscillazioni sono spostamenti delle particelle, intorno alla<br />

posizione di riposo e lungo la direzione di propagazione dell'onda, provocati da movimenti<br />

vibratori, provenienti da un determinato oggetto, chiamato sorgente del <strong>suono</strong>, il quale trasmette il<br />

proprio movimento alle particelle adiacenti, grazie alle proprietà meccaniche del mezzo; le<br />

particelle a loro volta, iniziando ad oscillare, trasmettono il movimento alle altre particelle vicine e<br />

queste a loro volta ad altre ancora; in questo modo, un semplice movimento vibratorio si propaga<br />

meccanicamente dando vita all'onda sonora ( o onda acustica), che si definisce pertanto onda<br />

longitudinale.<br />

<strong>Il</strong> periodo (graficamente il segmento tra<br />

due creste) è il tempo impiegato dalla<br />

particella per tornare nello stesso punto<br />

dopo aver cominciato lo spostamento<br />

(indica cioè la durata di una oscillazione<br />

completa). La distanza dalla cresta<br />

all'asse delle ascisse indica, invece,<br />

l'ampiezza del movimento, in altre parole<br />

la distanza massima percorsa dalla<br />

particella dalla sua posizione di riposo<br />

durante l'oscillazione. Tuttavia,<br />

nonostante che il periodo e l'ampiezza<br />

sono due grandezze che da sole sarebbero sufficienti per descrivere le caratteristiche di un'onda, non<br />

1


sono frequentemente utilizzate, perlomeno non in forma pura, quando si sta trattando di un'onda<br />

sonora si preferisce, infatti, usare altre grandezze da queste derivate. Dal numero di periodi fatti in<br />

un secondo si ottiene la frequenza, misurata in hertz, che indica il numero d'oscillazioni compiute<br />

dalla particella in un secondo. Dall'ampiezza dell'onda, invece, otteniamo l'intensità, che nel caso<br />

dell'onda sonora è intesa come pressione esercitata dalla stessa su una superficie, se, infatti,<br />

l'ampiezza è misura lo spazio, tanto più sarà estesa, tanto maggiore sarà la pressione esercitata sulle<br />

particelle vicine e dunque pure la forza esercitata contro un ostacolo; la misura d'intensità delle<br />

onde sonore sono i decibel.<br />

Tipologie di onde sonore<br />

Esistono tre diverse tipologie di onde sonore e ognuna è identificabile da un particolare andamento<br />

grafico<br />

Le onde semplici: onde dal tracciato regolare: i picchi sono speculari alle valli e assume la<br />

caratteristica forma di sinusoide. Le principali caratteristiche sono appunto il grafico sinusoidale<br />

e la periodicità.<br />

Le onde complesse: sono sempre onde dal tracciato regolare, in quanto i picchi sono<br />

speculari alle valli, ma la loro forma risulta più complessa della precedente, perché presenta<br />

diverse anomalie nelle curve. Le caratteristiche sono: la periodicità e il grafico non sinusoidale.<br />

Le onde aperiodiche: sono onde non regolari: il tracciato ha forma caotica e zizzagante.<br />

Sono caratterizzate dall'assoluta irregolarità del grafico e dall'aperiodicità; sono tracciati<br />

caratteristici dei rumori.<br />

Per una descrizione delle onde semplici i parametri di frequenza e d'ampiezza sono sufficienti,<br />

mentre le onde aperiodiche, a causa della loro aperiodicità, non possono essere descritte da<br />

alcun parametro. Invece nella descrizione delle onde complesse sono sì utili sia la frequenza<br />

che l'ampiezza, ma date le anomalie del tracciato, questi due semplici parametri da soli non<br />

sono sufficientemente esaurienti, in quanto bisogna ricorrere alla scomposizione dell'onda<br />

fondamentale in una serie d'onde semplici, che sono invece analizzabili con le normali<br />

grandezze. Le onde semplici o formanti, ottenute dalla scomposizione di un'onda complessa,<br />

sono dette armoniche e nel loro insieme costituiscono, quello che è chiamato spettro dell'onda<br />

sonora. Una caratteristica molto importante delle armoniche è che le loro frequenze corrispondono<br />

sempre a multipli interi della frequenza dell'onda complessa, e sono indicate con f0, f1, f2, ecc. con il<br />

pedice che corrisponde al rapporto tra la frequenza dell'onda fondamentale e quella dell'armonica<br />

<strong>Il</strong> decibel (dB)<br />

<strong>Il</strong> decibel è la misura più usata in acustica, esso esprime secondo una scala logaritmica in base<br />

10, il rapporto fra due grandezze omogenee, che nel caso del <strong>suono</strong> sono l’intensità sonora.<br />

Ricordiamo che per definizione il logaritmo di un certo numero in una certa base, è l’esponente che<br />

occorre dare a quella base per ottenere il numero dato. Ad esempio il logaritmo in base 10 di 100 è<br />

2. Infatti 10 2 = 100.<br />

<strong>Il</strong> decibel è 10 volte il logaritmo in base 10 del rapporto di due grandezze omogenee.<br />

Supponiamo di voler esprimere in decibel la differenza fra due potenze: w1 e w2.<br />

dB = 10 Log10 (w1/ w2) dove w2 è la grandezza di riferimento<br />

Notiamo quindi che affinché la precedente espressione abbia senso occorre che esistano entrambe le<br />

grandezze w1 e w2 ed in particolare che sia w2 ≠ 0. Notiamo anche che non ha importanza di che<br />

tipo siano le grandezze w1 e w2 , occorre solo che siano omogenee, ossia dello stesso tipo.<br />

Qualche esempio pratico:<br />

2


w1=2 w2 3 dB<br />

w1=10 w2 10 dB<br />

w1=100 w2 20 dB (10log100=10*2)<br />

w1=1000 w2 30 dB (10log1000=10*3=30)<br />

w1=1/2 w2 -0,3 dB<br />

w1=1/10 w2 -10 dB<br />

w1=1/100 w2 -20 dB<br />

w1=1/100 w2 -30 dB<br />

Come abbiamo visto il<br />

decibel si può considerare<br />

una misura relativa, non<br />

dipende infatti da una<br />

sola grandezza ma dal<br />

rapporto di due<br />

grandezze omogenee.<br />

Tuttavia ci sono certi casi<br />

in cui tale misura si può<br />

immaginare assoluta.<br />

Questo avviene quando al<br />

denominatore si pone una<br />

misura stabilita per<br />

convenzione internazionale. Un esempio di misura assoluta in decibel è quella dell’intensità<br />

sonora, che convenzionalmente è espressa in riferimento alla soglia di udibilità.<br />

Propagazione del <strong>suono</strong>Abbiamo detto che il <strong>suono</strong> si propaga nei<br />

mezzi elastici, fra questi ovviamente l’aria. Per capire come questo<br />

avvenga in pratica consideriamo la struttura dell’aria. Questa è<br />

formata da tante molecole unite fra di loro da legami elastici.<br />

Possiamo immaginare le molecole di aria come sfere unite ad altre<br />

sfere tramite molle. Quando un corpo vibra, comunica il suo<br />

movimento alla prima molecola d’aria, (la prima sfera nel modello).<br />

Questa molecola spostandosi in avanti “spinge” la molecola<br />

successiva, la quale “spinge” quella a sua volta successiva, e così<br />

via. Un attimo dopo i legami elastici, (le molle nel modello),<br />

“richiamano” indietro la molecola nella sua posizione iniziale di equilibrio. Per effetto della forza<br />

d’inerzia la molecola supera il punto centrale di equilibrio, raggiungendo una posizione quasi<br />

speculare al punto di massima escursione in<br />

avanti. Questi movimenti si trasmettono alle<br />

molecole contigue in un certo tempo. Per<br />

effetto di tali movimenti avremo delle zone in<br />

cui vi è compressione dell’aria, e delle altre in<br />

cui vi è rarefazione.<br />

Queste diverse zone si ripeteranno a partire<br />

dalla sorgente, nel senso di propagazione del<br />

<strong>suono</strong>. Questo effetto prende il nome di onda<br />

longitudinale.<br />

Si chiama onda longitudinale quella in cui la direzione dell’oscillazione e quella della propagazione<br />

coincidono.<br />

3


Le onde si dicono quindi trasversali o longitudinali a seconda che la direzione di oscillazione<br />

sia parallela o perpendicolare rispetto alla direzione di propagazione. Un'onda longitudinale<br />

può essere solo meccanica: essa risulta infatti da successive compressioni (stati di densità e<br />

pressione massimi) e rarefazioni (stati di densità e pressione minimi) del mezzo. Le onde sonore ne<br />

sono un esempio tipico.<br />

Esempi di onde trasversali sono invece quelle che si propagano lungo una corda tesa o le onde<br />

elettromagnetiche, come la luce, i raggi X, o le onde radio.<br />

Data una sorgente di <strong>suono</strong>, questo si propaga allo stesso modo in tutte le direzioni. Possiamo<br />

dire che si propaga secondo fronti d’onda sferici. La superficie del fronte d’onda aumenta in<br />

proporzione col quadrato della distanza dalla sorgente. Di conseguenza l’energia che possiede il<br />

fronte d’onda si distribuisce su tutta la superficie, per cui su una singola unità di superficie<br />

avremo un’energia che decresce proporzionalmente al quadrato della distanza. Volendo<br />

esprimere in decibel questa variazione:<br />

• Raddoppiando la distanza, l’intensità sonora<br />

decresce di 6 dB<br />

• Decuplicando la distanza, l’intensità sonora<br />

decresce di 20 dB<br />

Quindi se ad esempio misuriamo un intensità di<br />

100 dB ad un metro da un diffusore acustico:<br />

• A due metri avremo 94 dB<br />

• A dieci metri avremo 80 dB<br />

Si nota quindi come il fattore distanza sia molto<br />

rilevante nell’attenuazione dell’intensità<br />

acustica.<br />

Velocità del <strong>suono</strong><br />

<strong>Il</strong> <strong>suono</strong> si propaga ad una velocità che dipende dalla natura<br />

del mezzo elastico in cui si diffonde. Inoltre tale velocità è<br />

influenzata, sebbene in misura minore, dalla temperatura,<br />

dalla pressione edall’umidità. In tabella la velocità del<br />

<strong>suono</strong> in alcuni mezzi.<br />

Lunghezza d’onda<br />

Un’altra grandezza importante legata alla<br />

propagazione del <strong>suono</strong> è la lunghezza<br />

d’onda. La lunghezza d'onda è la distanza<br />

tra due creste successive per le onde<br />

trasversali, e la distanza tra due<br />

compressioni successive o due rarefazioni<br />

successive per le onde longitudinali<br />

La lunghezza d’onda si misura in metri ed è<br />

funzione della frequenza e della velocità di<br />

propagazione secondo la formula:<br />

λ = v / f oppure λ = v * T<br />

(λ = lunghezza d’onda, v = velocità di propagazione, f = frequenza, T=periodo)<br />

Riproduciamo una tabella che mostra la lunghezza d’onda in aria libera, per alcune frequenze<br />

udibili.<br />

4


Capacità dell’udito umano<br />

Abbiamo fin qui esaminato il <strong>suono</strong> e la sua propagazione secondo dei principi fisici, definendone<br />

alcune grandezze fondamentali quali la frequenza e l’intensità. La domanda che ci poniamo ora è:<br />

Quali suoni sono in grado di essere percepiti dal nostro orecchio?<br />

La capacità dell’udito umano varia fortemente da individuo a individuo, e decade nelle prestazioni<br />

con l’aumentare dell’età. Appositi studi fonometrici hanno stabilito che mediamente l’uomo è in<br />

grado di udire suoni la cui frequenza è compresa dai 20 ai 20.000 Hz<br />

Tale gamma di suoni è chiamata gamma udibile. I suoni la cui frequenza è al di sotto dei 20<br />

Hz sono chiamati infrasuoni (o gamma subsonica). I suoni la cui frequenza eccede i 20.000 Hz<br />

sono chiamati ultrasuoni.<br />

Alcuni animali hanno una gamma udibile maggiore di quella dell’uomo, in particolare per quanto<br />

riguarda il limite superiore. Vi sono ad esempio alcuni ultrasuoni che possono essere uditi dai cani<br />

ma non dall’uomo.<br />

Se consideriamo i suoni compresi nella gamma udibile, ci accorgiamo che all’aumentare della<br />

frequenza, non aumenta linearmente la sensazione dell’altezza del <strong>suono</strong>. Per esempio fra un <strong>suono</strong><br />

a 20 Hz e un <strong>suono</strong> a 30 Hz, ad una differenza di 10 Hz corrisponde una chiara differenza<br />

nell’altezza del <strong>suono</strong> udito. Fra un <strong>suono</strong> di 6.000 Hz ed uno di 6.010 Hz, pur con una differenza<br />

sempre di 10 Hz, non corrisponde nessuna differenza udibile nell’altezza del <strong>suono</strong>. Dobbiamo<br />

quindi considerare la gamma udibile non come linearmente correlata alla sensazione dell’altezza dei<br />

suoni.<br />

L’acustica musicale ci suggerisce il modo di stabilire una relazione diretta fra frequenza e<br />

sensazione di altezza dei suoni. Musicalmente infatti la gamma udibile è divisa in un certo numero<br />

di ottave ed ogni ottava in un certo numero di note (12 nella scala temperata occidentale). È a tutti<br />

chiara l’affinità sonora che vi è fra le note corrispondenti di ottave diverse, ad esempio il do della<br />

prima ottava con il do della seconda. Possiamo in definitiva dire che la suddivisione della gamma<br />

udibile in ottave e note musicali, dal punto di vista dell’altezza del <strong>suono</strong>, soddisfa pienamente la<br />

nostra esigenza di avere intervalli di frequenze che rappresentino in qualunque punto della gamma,<br />

la stessa differenza come risultato sonoro.<br />

Presupposto fondamentale della divisione dei suoni in ottave e in note è che: data una nota<br />

appartenente ad un’ottava, la corrispondente nota appartenente all’ottava successiva avrà una<br />

frequenza doppia. Se, secondo le convenzioni internazionali, il la centrale ha frequenza di 440 Hz, il<br />

la dell’ottava successiva avrà frequenza di 880 Hz, e quello della seguente 1760 Hz.<br />

Possiamo finalmente dividere la nostra gamma udibile in un modo aderente alla sensazione che noi<br />

abbiamo dell’altezza dei suoni. Le ottave standardizzate internazionali hanno le seguenti estensioni:<br />

1. da 16 a 32 Hz<br />

2. da 32 a 64 Hz<br />

3. da 64 a 125 Hz<br />

4. da 125 a 250 Hz<br />

5. da 250 a 500 Hz<br />

6. da 500 Hz a 1 KHz<br />

7. da 1 Khz a 2 Khz<br />

5


8. da 2 Khz a 4 Khz<br />

9. da 4 Khz a 8 Khz<br />

10. da 8 Khz a 16 Khz<br />

La sensibilità del nostro orecchio<br />

non è costante per tutte le<br />

frequenze. <strong>Il</strong> digramma delle curve<br />

ipsofoniche rappresenta il variare<br />

della sensibilità a in funzione della<br />

frequenza. La linea tratteggiata<br />

rappresenta la soglia di udibilità,<br />

quindi possiamo osservare per<br />

esempio, che un <strong>suono</strong> avente una<br />

frequenza di 31,5 Hz ed<br />

un’intensità di 30 decibel non<br />

viene percepito dall’orecchio<br />

umano. Le curve del disegno<br />

uniscono i punti in cui alle varie<br />

frequenze la sensazione<br />

dell’intensità de <strong>suono</strong> sono uguali,<br />

ad esempio se un <strong>suono</strong> a 1000 Hz<br />

di intensità 20 dB mi produce una<br />

certa sensazione, per avere quella<br />

stessa sensazione a 63 Hz avrò<br />

bisogno di circa 45 dB.<br />

Fase di un <strong>suono</strong><br />

Due suoni possono differire oltre che per la frequenza, l’intensità e la<br />

composizione delle armoniche anche per il momento in cui vengono<br />

emessi. In genere si parla di fase quando questo tempo è minore del<br />

periodo, ossia del tempo necessario a compiere un ciclo completo. La<br />

differenza di tempo fra due suoni (figura a lato) dipende dal cosiddetto<br />

angolo di fase. La funzione che esprime una rappresentazione<br />

sinusoidale è :<br />

I = I0 sin (ωt + φ)<br />

La grandezza φ rappresenta appunto l’angolo di fase. Esprimere la fase<br />

come un angolo ci permette di prescindere da altre grandezze, tipo la<br />

frequenza, che definiscono il nostro <strong>suono</strong>. Infatti qualunque sia la<br />

frequenza, un angolo di fase pari a π/2 corrisponde a ¼ del periodo, un<br />

angolo di fase π corrisponde a metà del periodo, un angolo di fase 3/2 π<br />

corrisponde a ¾ del periodo, e un angolo di fase di 2 π all’intero<br />

periodo. É facilmente osservabile che il <strong>suono</strong> risultante fra due suoni<br />

uguali in tutto fuorché nella fase, è molto diverso dai suoni originari, in<br />

particolare nella composizione delle armoniche. Un caso<br />

particolarmente significativo si ha quando la differenza di fase fra i due<br />

suoni è pari a π/2. Si dice che i due suoni sono in opposizione di fase, o<br />

in controfase. <strong>Il</strong> <strong>suono</strong> risultante dalla somma di due suoni in controfase<br />

ha intensità nulla. Due suoni in controfase si cancellano vicendevolmente.<br />

6


Sintesi e analisi di Fourier<br />

L’uso di una serie di onde sinusoidali per rappresentare qualunque forma d’onda periodica fu<br />

scoperta dal fisico francese Jean Baptiste Joseph Fourier all’inizio del diciannovesimo secolo. Egli<br />

dimostrò matematicamente che una forma d’onda periodica può essere rappresentata come somma<br />

di onde sinusoidali con fasi, frequenze e ampiezze massime appropriate. <strong>Il</strong> metodo dell’analisi e<br />

della sintesi di Fourier prese il nome da lui.<br />

Secondo il teorema di Fourier, una qualunque funzione periodica s(t) di periodo T e frequenza<br />

fondamentale f0=1/T è pari alla somma di infinite cosinusoidi di frequenze multiple intere di f0,<br />

con ampiezze e fasi opportune più un termine costante:<br />

( π θ ) ( π θ ) ( π θ )<br />

s( t) = A + A cos 2 f t + + A cos 4 f t + + A cos 6 f t + + ... =<br />

0 1 0 1 2 0 2 3 0 3<br />

+∞<br />

∑<br />

( π θ )<br />

= A + A cos 2 kf t +<br />

0 k 0 k<br />

k = 1<br />

La costante A0 è detta componente continua o valor medio del segnale, il termine<br />

( π θ )<br />

A cos 2 f t + è detto prima armonica o armonica fondamentale, gli altri termini sono detti<br />

1 0 1<br />

armoniche secondarie.<br />

L’esempio grafico mostrato nella Figura 5 può aiutare a capire la sintesi di Fourier.<br />

Figura 5 Tre<br />

onde sinusoidali<br />

vengono sommate a<br />

ogni istante di tempo<br />

per creare una nuova<br />

forma d’onda. La<br />

seconda onda<br />

sinusoidale ha una<br />

frequenza tre volte<br />

superiore a quella<br />

della prima e<br />

FIG. 5<br />

un’ampiezza<br />

massima pari a un<br />

terzo di quella della<br />

prima. La terza onda<br />

sinusoidale ha una<br />

frequenza cinque<br />

volte superiore a<br />

quella della prima e un’ampiezza massima pari a un quinto di quella della prima. Poiché le onde<br />

sinusoidali aggiunte hanno frequenze armoniche via via più alte, l’onda risultante è molto simile a<br />

un’onda quadra.<br />

7


Iniziamo con un’onda sinusoidale a una frequenza fondamentale f, poi aggiungiamo una seconda<br />

onda sinusoidale a una frequenza di 3f e con un’ampiezza massima pari a un terzo di quella della<br />

fondamentale. La terza armonica evidenzia i picchi positivi e negativi di quella fondamentale e la<br />

forma d’onda risultante inizia ad assomigliare a un’onda quadra. Aggiungiamo poi una quinta<br />

armonica a una frequenza di 5f e con un’ampiezza massima di un quinto di quella fondamentale.<br />

Ciò squadra ancor di più gli angoli rendendo il risultato ancor più simile a un’onda quadra. <strong>Il</strong><br />

processo può continuare aggiungendo armoniche dispari con ampiezze massime inversamente<br />

proporzionali al numero delle armoniche. Con un numero infinito di armoniche si ottiene un’onda<br />

quadra perfetta tranne le improvvise discontinuità degli angoli; questo effetto è chiamato fenomeno<br />

di Gibbs.<br />

L’analisi di Fourier può essere applicata a qualsiasi forma d’onda periodica per determinare le<br />

frequenze armoniche esatte, le fasi e le ampiezze massime corrispondenti per ricreare o sintetizzare<br />

un segnale periodico.<br />

Spettro<br />

Consideriamo un’onda sinusoidale alla frequenza f e alla massima ampiezza A. Presupponiamo che<br />

non abbia alcun cambio di fase per un certo periodo di tempo. Potremmo disegnare la forma d’onda<br />

precisamente in funzione del tempo, ma questa operazione sarebbe noiosa perché tutti ora<br />

conosciamo l’aspetto di un’onda sinusoidale. Ciò che è interessante di un’onda sinusoidale sono la<br />

sua esatta frequenza e la sua massima ampiezza corrispondente e sono proprio questi dati a<br />

distinguere un’onda sinusoidale da un’altra. Vediamo ora un grafico che mostra l’ampiezza<br />

massima A dell’onda sinusoidale lungo l’asse delle y e la sua frequenza F lungo l’asse delle x<br />

(Figura 6). Nella figura una singola onda sinusoidale viene rappresentata come una linea verticale<br />

posta alla frequenza f e con una lunghezza pari alla massima ampiezza A.<br />

Figura 6 Possiamo rappresentare un’onda sinusoidale graficamente nel dominio del tempo<br />

disegnando la sua forma effettiva. Alternativamente possiamo rappresentarla nel dominio della<br />

frequenza come una linea verticale posta alla sua frequenza e con una lunghezza pari all’ampiezza<br />

massima.<br />

8


Grazie alla serie di Fourier una funzione periodica può essere rappresentata nel dominio della<br />

frequenza, poiché infatti le armoniche sono cosinusoidi, a ciascuna armonica corrisponde un<br />

impulso alla frequenza relativa kf0 di altezza Ak nello spettro di ampiezza e un impulso alla<br />

frequenza relativa di altezza θk nello spettro di fase. Di conseguenza questi spettri avranno<br />

l’aspetto di una serie di impulsi in generale distanziati di f0 (spettro a righe):<br />

Questa rappresentazione è chiamata spettro dell’onda sinusoidale. Dal principio dell’analisi e della<br />

sintesi di Fourier sappiamo che qualsiasi forma d’onda può essere rappresentata come la somma di<br />

molte onde sinusoidali. Lo spettro di una forma d’onda, quindi, rappresenta i vari componenti in<br />

frequenza insieme alle loro corrispondenti ampiezze massime. <strong>Il</strong> grafico nel dominio del tempo<br />

mostra la forma d’onda effettiva. Lo spettro nel dominio della frequenza mostra le ampiezze<br />

massime dei vari componenti sinusoidali della forma d’onda.<br />

Un segnale periodico ha uno spettro che consiste solo nei componenti ai multipli armonici della<br />

fondamentale. (In realtà non esiste un segnale perfettamente periodico, perché dovrebbe continuare<br />

per sempre). I segnali reali sono più complessi e terminano dopo un determinato periodo, alcuni<br />

sono periodici solo in un intervallo di tempo breve, altri non hanno alcun modello ripetitivo. I<br />

segnali reali hanno quindi spettri omogenei con molti componenti in frequenza.<br />

ESEMPI<br />

Un tipo molto importante di segnale periodico è la cosinusoide la cui espressione più generale è:<br />

9


( π θ )<br />

s( t) = Acos 2 f t +<br />

0<br />

dove A è l’ampiezza, f0 la frequenza, θ la fase; questi tre parametri caratterizzano completamente<br />

una cosinusoide.<br />

Nell’esempio in figura risultano essere A=5, f0=2 e θ=-π/4<br />

In questo caso s( t) 5cos ( 4 t ) π<br />

= π −<br />

Rappresentazione nel dominio della frequenza<br />

4<br />

Poiché una cosinusoide nel dominio del tempo t è completamente caratterizzata dai tre parametri<br />

di ampiezza A, frequenza f0 e fase θ, è possibile rappresentare la stessa cosinusoide nel dominio<br />

della frequenza f con un doppio grafico in ampiezza e fase, cioè con un impulso sulla frequenza f0<br />

di altezza A sul diagramma di ampiezza e un impulso sulla frequenza f0 di altezza θ sul<br />

diagramma di fase.<br />

Prendiamo come esempio la prima cosinusoide che abbiamo visto:<br />

s( t) 5cos ( 4 t<br />

4)<br />

π<br />

= π − i cui parametri risultano A=5, f0=2 e θ=-π/4<br />

Nel dominio della frequenza possiamo rappresentarla così:<br />

I due diagrammi vengono chiamati spettro di ampiezza e spettro di fase.<br />

10


Esempio: onda quadra<br />

La componente continua risulta pari a ½, mentre tutte le armoniche pari risultano avere ampiezza<br />

nulla (questo a causa della simmetria della forma d’onda).<br />

Le prime dieci armoniche dell’onda quadra sono mostrate in figura:<br />

Nella figura successiva sono mostrate le somme parziali delle armoniche partendo da quella<br />

fondamentale più la componente continua, via via che si aggiungono altre armoniche<br />

sommandosi a quella fondamentale queste modellano e aggiustano le armoniche precedenti con il<br />

risultato di approssimarsi complesivamente all'onda quadra. Tale obbiettivo lo si può raggiungere<br />

anche sommando un numero finito e ridotto di armoniche poichè le armoniche di ordine k,<br />

all'aumentare di k, contano sempre meno.<br />

11


<strong>Il</strong> <strong>suono</strong> digitale : tecnica PCM (PULSE CODE MODULATIN)<br />

La caratteristica fondamentale del <strong>suono</strong> analogico è la riproduzione, attraverso uno strumento<br />

elettrico o elettronico (come il microfono o la chitarra elettrica) del segnale sonoro secondo un<br />

"tempo continuo". Cosa significa? Se ad esempio percuotiamo la corda di una chitarra acustica, lo<br />

strumento musicale produce delle "vibrazioni" che generano delle variazioni di "pressione" dell'aria<br />

che circola fuori e dentro la cassa acustica. Queste variazioni di pressione si propagano fino a<br />

raggiungere l'orecchio. <strong>Il</strong> <strong>suono</strong> viene riconosciuto dal cervello come un segnale che si riproduce<br />

continuamente nel tempo fino a che le variazioni di pressione non cessano con il cessare delle<br />

vibrazioni. La chitarra elettrica (che è uno strumento analogico) sfrutta lo stesso principio di quella<br />

acustica con la differenza che le vibrazioni generano una variazione di "tensione" piuttosto che di<br />

pressione; in questo caso, nella variazione da 1 a 2 volt, la tensione può assumere infiniti stadi<br />

intermedi.<br />

Per trasformare un segnale analogico in un <strong>suono</strong> digitale è necessaria una scheda di acquisizione<br />

sonora. Essa avrà la funzione di "campionare" cioè<br />

suddividere in tante parti il <strong>suono</strong> analogico<br />

acquisito. L'operazione è quella di trasformare un<br />

segnale continuo nel tempo in una sequenza di 0 e 1<br />

che sono gli stadi caratteristici dell'informazione<br />

binaria che determinano il segnale discreto.<br />

Così si presenta graficamente la digitalizzazione del<br />

segnale analogico:<br />

L'onda sinusoidale rappresenta il segnale analogico<br />

(segnale tempo continuo); il <strong>suono</strong> digitale è<br />

rappresentato dagli scalini (segnale discreto).<br />

12


<strong>Il</strong> numero dei campioni audio acquisiti per ogni secondo si chiama "frequenza di<br />

campionamento" e si misura in Hz. I valori assunti dalle schede di acquisizione audio semi<br />

professionali sono i seguenti: 11,025 kHz; 22,050 kHz; 44,1 kHz; 48 kHz. Aumentando la<br />

frequenza, il numero dei campioni acquisiti sarà maggiore e quindi migliore sarà la qualità<br />

dell'audio.<br />

La frequenza di campionamento descrive quindi il numero di volte che un segnale audio in<br />

ingresso è misurato o "campionato" in un dato periodo di tempo. E' tipicamente indicata in<br />

kilohertz (kHz, migliaia di cicli per secondo) e per registrare in "CD-quality" audio, è richiesta una<br />

frequenza di campionamento di 44.1kHz.<br />

Un altro parametro che contribuisce a migliorare la qualità dell'audio digitale è la profondità<br />

di bit o “risoluzione”. Rappresenta il numero di bit che si utilizzano per rappresentare il<br />

segnale analogico. Anche la risoluzione assume diversi valori: principalmente 8 e 16 bit (con le<br />

schede di acquisizione audio di medio livello). Ovviamente, aumentando la risoluzione, il <strong>suono</strong><br />

acquisito risulterà più ricco di dettagli, perché a parità di variazione di ampiezza con 8 bit posso<br />

rappresentare 256 livelli analogici (2 8 ) , con 16 bit ne rappresento 65536 (2 16 ).<br />

La profondità di bit determina quindi l'accuratezza con quale è effettuata ciascuna<br />

misurazione o campione. Quando in un sistema PCM di audio digitale il convertitore A-D misura<br />

un segnale in ingresso e memorizza la misurazione come un numero, questo numero è rappresentato<br />

come una serie di 0 e 1, anche noti come numeri binari. La profondità di bit, perciò, si riferisce alla<br />

lunghezza delle parole binarie (cioè sequenze di 0 e 1) usate per descrivere ciascun campione del<br />

segnale d'ingresso preso dal convertitore A-D. Parole più lunghe permettono la rappresentazione di<br />

una serie più ampia di numeri, e quindi misurazioni più accurate e riproduzioni più fedeli di un<br />

segnale (maggior dinamica e minor distorsione). In un sistema a 16-bit, ciascun campione è<br />

rappresentato come una parola binaria lunga 16 cifre. Poichè ciascuna di queste 16 cifre può essere<br />

uno 0 o un 1, sono possibili 65.536 (2 16 ) valori per ciascun campione.<br />

13


In conclusione, la qualità complessiva dell'audio dipende dai due fattori (frequenza di<br />

campionamento e risoluzione) nel loro insieme. Nella tabella che segue possiamo vedere in pratica<br />

alcune differenze di qualità dell'audio:<br />

Frequenza<br />

(kHz)<br />

Risoluzione<br />

(bit)<br />

Qualità<br />

11,025 8 Telefono<br />

11,025 16 Tv<br />

22,050 16 Audiocassetta<br />

44,1 16 CD audio<br />

48 16 Registratore DAT<br />

<strong>Il</strong> nome generico per il sistema di registrazione digitale descritto precedentemente è Pulse Code<br />

Modulation (PCM), ed è usato in tutti i moderni campionatori, registratori digitali ed<br />

interfacce audio per computer. Per ottenere una riproduzione fedele di un segnale audio, la<br />

codifica PCM mira ad effettuare un'accurata lettura della forma d'onda del segnale.<br />

CONVERTITORE ANALOGICO DIGITALE<br />

<strong>Il</strong> dispositivo elettronico che ci permette di convertire un segnale analogico di una certa ampiezza<br />

nel corrispondente segnale digitale, rappresentato da un numero di n bit, si chiama convertitore<br />

analogico-digitale.<br />

Parametri importanti di un ADC sono il quanto, la tensione di fondo scala e il numero di bit<br />

(vedi da pag 194 a pag 201 del testo di Elettronica e telecomunicazioni). <strong>Il</strong> numero N che<br />

memorizza in calcolatore e l’ampiezza Vi del segnale analogico sono proporzionali attraverso il<br />

quanto Q<br />

Vi=Q*N dove Q=Vfs/2 n<br />

Teorema di Shannon<br />

La correlazione tra frequenza di campionamento e risposta in frequenza è data dal "Teorema di<br />

Shannon-Nyquist", secondo il quale, perché un segnale sia accuratamente riprodotto da PCM,<br />

devono essere presi almeno due campioni di ciascun ciclo di forma d'onda. Questo significa che la<br />

frequenza di campionamento deve essere almeno doppia della frequenza massima che si vuole<br />

digitalizzare<br />

fcamp>=fMAX<br />

In pratica perciò, la frequenza più alta che può essere accuratamente registrata è la metà della<br />

frequenza di campionamento usata. Questo è conosciuto come il Limite di Nyquist. Un "CDquality"<br />

convenzionale ottenuto dal tradizionale sistema di registrazione digitale, usa una<br />

frequenza di campionamento di 44.1 kHz, e quindi può solo riprodurre frequenze fino a 22.05<br />

kHz. Tutte le frequenze sopra questo limite sono scartate. Questo non è generalmente considerato<br />

14


un problema, dal momento che le ricerche hanno mostrato che la maggior parte degli esseri umani<br />

sono capace di udire poco o nulla sopra quella frequenza. Però, se la frequenza di campionamento è<br />

ridotta a 22.05 kHz, tutte le frequenze oltre 11.025 kHz saranno scartate, e questo comporterà una<br />

degradazione ben udibile nella qualità del <strong>suono</strong>. Molti strumenti musicali producono frequenze<br />

oltre questo intervallo, e le registrazioni fatte con una frequenza di campionamento ridotta possono<br />

restituire immagini sonore scarse per brillantezza e chiarezza.<br />

Provate a registrare un <strong>suono</strong> col microfono inserito nella scheda audio del vostro computer e poi<br />

cambiate i parametri, riprendendoli dalla tabella, e salvateli con nomi diversi. Potrete verificare la<br />

diversa qualità del <strong>suono</strong>, ma vedrete anche che le dimensioni dei file crescono con l'aumentare<br />

della qualità.<br />

Dimensione dei file audio<br />

Lo spazio che un file audio occupa su un disco rigido aumenta con l'aumentare della risoluzione e<br />

della frequenza di campionamento. Nella tabella sotto possiamo vedere come le dimensioni dello<br />

stesso frammento audio stereo, della durata di dieci secondi, variano con i diversi valori della<br />

frequenza e della risoluzione.<br />

Frequenza (kHz) Risoluzione (bit) Spazio occupato<br />

11,025 8 386 KB<br />

22,050 8 579 KB<br />

22, 050 16 1,1 MB<br />

44,1 16 1,8 MB<br />

Se vogliamo sapere quanto spazio occupa un file audio possiamo fare un calcolo<br />

approssimativo utilizzando la formula:<br />

dimensione del file = durata in secondi x numero di canali x frequenza di campionamento x<br />

risoluzione / 8.<br />

Per fare un esempio pratico, un minuto di un file audio stereo della qualità di un CD occupa 60 x 2<br />

x 44,1 x 16/8 = 10,6 MB.<br />

<strong>Il</strong> fatto che un file audio possa occupare tanto spazio fino a qualche anno fa poneva dei problemi per<br />

la sua registrazione e l'elaborazione. Oggi però la disponibilità a basso costo di hard disk capaci e<br />

veloci e di memoria RAM adeguata, insieme alla velocità crescente dei processori, rendono<br />

possibili queste operazioni praticamente a tutti con una buona qualità sonora. Ma ci sono ancora dei<br />

casi in cui la dimensione del file audio può essere un problema: se vogliamo inserire dei suoni nel<br />

sito internet della scuola, se vogliamo spedirli o renderli scaricabili, vista la velocità della maggior<br />

parte dei modem, ci vorrebbe troppo tempo. Per ovviare a questo problema dobbiamo ricorrere ai<br />

metodi che ci permettono di diminuire le dimensioni del file audio.<br />

15


Per rendere più maneggevoli i file audio, è necessario ridurre la loro dimensione, e ci sono<br />

vari modi per farlo.<br />

Un metodo è ridurre la frequenza di campionamento: se è dimezzata (22.05 k Hz invece di<br />

44.01 kHz), viene considerata la metà delle misurazioni del segnale in ingresso, e così è prodotta<br />

solo la metà dei dati (un altro modo è una registrazione monofonica, che dimezza ulteriormente la<br />

quantità di dati necessaria). Tuttavia, queste scelte hanno alcuni seri effetti collaterali sulla qualità<br />

del <strong>suono</strong>.<br />

<strong>Il</strong> range della voce umana varia dai 500 Hz ai 2 kHz. L'orecchio umano percepisce le frequenze che<br />

vanno dai 20 Hz ai 20 kHz, ed è più sensibile tra i 2 e i 4 kHz.<br />

<strong>Il</strong> range dinamico, ossia l'intervallo dal <strong>suono</strong> più basso al più alto percepibile, è di 96 dB<br />

(Decibel).<br />

In generale, frequenze di campionamento di 11025 Hz sono adatte per la registrazione del parlato,<br />

22050 Hz per ottenere una qualità tipo radio (o dei vecchi dischi 78 giri caratterizzati da risposta in<br />

frequenza tra 50-8000 kHz), mentre 44100 Hz per registrazioni di qualità CD.<br />

Ridurre a metà (da 44.1 a 22.05 kHz) la frequenza di campionamento comporta una perdita di<br />

risoluzione, e quindi una minore fedeltà durante la riproduzione. Sarebbe un'esagerazione dire che<br />

la qualità del <strong>suono</strong> è ridotta a metà, ma la registrazione è comunque in alcuni punti meno accurata<br />

per la metà. In particolare, la risposta in frequenza del sistema di registrazione è dimezzata. In<br />

effetti questo comporta che molte delle altre frequenze contente nel <strong>suono</strong> originale sono perdute e<br />

con esse molte armoniche, portando a registrazioni scarse per brillantezza e chiarezza.<br />

Un metodo alternativo di ridurre la dimensione di un file audio è ridurre la profondità di bit<br />

del sistema di registrazione usato per crearli. Per esempio, un campionamento a 8-bit può essere<br />

usato invece di uno a 16-bit. Proprio come la riduzione della frequenza di campionamento, questo<br />

ha indubbiamente l'effetto desiderato di ridurre l'ammontare di dati generati per fare una<br />

registrazione. Se ciascun campione del segnale in ingresso è memorizzato come un 8-bit piuttosto<br />

che un 16-bit di parola binaria, allora la registrazione produce solo un byte per campione piuttosto<br />

che due. Questo virtualmente raddoppia la capacità del mezzo del supporto di memorizzazione<br />

usato, in quanto dimezza realmente la grandezza dei file.<br />

Una riduzione nella profondità di bit, però comporta alcuni effetti indesiderabili per la qualità del<br />

<strong>suono</strong>. Come abbiamo visto, un sistema a 16-bit permette 65.536 o (2 16 ) valori possibili per ciascun<br />

campione preso. Si potrebbe pensare che un sistema a 8-bit permetta esattamente la metà della<br />

risoluzione audio, ma questo sarebbe ottimistico: una parola bianaria di 8-bit ha in effetti solo 256<br />

(2 8 ) valori possibili. Ciò comporta un campionamento notevolmente meno accurato del segnale in<br />

ingresso, e, per conseguenza, registrazioni di qualità inferiore. Questo comporta una riduzione nel<br />

rapporto segnale/disturbo del sistema, e conduce a registrazioni che producono un <strong>suono</strong> aspro,<br />

innaturale e con scarsa dinamica.<br />

A dispetto dei problemi inerenti la riduzione nella frequenza di campionamento e la<br />

profondità di bit del PCM audio, questi metodi sono usati spesso in applicazioni dove la<br />

qualità del <strong>suono</strong> è considerata un minore priorità rispetto alla conservazione delle risorse del<br />

sistema (per esempio, in commenti parlati, un campiionamento a 8 bit e 22.05 kHz è del tutto<br />

accettabile).<br />

Compressione audio digitale<br />

La compressione audio è una tecnica che permette di ridurre le dimensioni di un file audio o la<br />

banda passante richiesta per una trasmissione audio, anche di molto.<br />

16


Un file è una sequenza di cifre binarie (bit) utilizzata come veicolo di informazione. Comprimere<br />

significa ridurre il numero delle cifre (dei bit) che costituiscono la sequenza mantenendo<br />

l'informazione inalterata o in un intorno dell'informazione originaria (ossia facendo in modo che la<br />

nuova informazione approssimi quella precedente).<br />

I motivi della compressione sono:<br />

• occupare minor spazio in fase di immagazzinamento<br />

• impiegare minor tempo in fase di trasferimento dati.<br />

<strong>Il</strong> costo è l'aumento dei tempi di lettura/scrittura legati rispettivamente a tempi di<br />

decompressione/compressione. Nel caso di file audio si ha un costo anche in termini di qualità<br />

dell'audio.<br />

Per ottenere un file compresso occorre usare un programma che si chiama encoder, come si<br />

vede dalla figura seguente (il discorso è analogo per il file video).<br />

La chiave della codifica audio è il cosiddetto effetto di masking. Esso è dovuto alle caratteristiche<br />

dell'orecchio umano, per il quale un tono forte ad una determinata frequenza nasconde toni più<br />

deboli che si trovano nelle sue vicinanze, i quali, anche se effettivamente presenti, non vengono<br />

percepiti.<br />

Per tornare al file non compresso c’è un decoder, che utilizza le informazioni salvate<br />

dall’encoder per rifare il procedimento inverso.<br />

L'uscita del codificatore deve essere tale da poter essere interpretata dal decodificatore, cioè deve<br />

rispettare una ben precisa sintassi.<br />

I file di tipo .WAV o .AIFF (Machintosh) non sono compressi<br />

Esistono due tipi di compressione:<br />

• con perdita (lossy): quando l'informazione contenuta nel file compresso è minore di<br />

quella contenuta nel file di origine<br />

• senza perdita (lossless): quando l'informazione contenuta nel file compresso è identica a<br />

quella contenuta nel file di origine<br />

La prima permette compressioni maggiori, ma a scapito della qualità sonora.<br />

Usando un algoritmo di compressione senza perdita, dal risultato della compressione si può<br />

riottenere tutta l'informazione originaria. In questo caso la riduzione massima generalmente<br />

ottenibile, utilizzando algoritmi studiati appositamente per l'audio è all'incirca del 60%, ma solo<br />

con alcuni tipi di <strong>suono</strong>.<br />

17


Dal risultato della compressione audio con perdita non si può più ottenere un <strong>suono</strong> identico<br />

all'originale ma la riduzione ottenibile è molto spinta: con rapporti di compressione di 10 a 1, il<br />

risultato è quasi indistinguibile dall'originale ma ci si può spingere anche oltre a discapito della<br />

qualità.<br />

Gli studi di psicoacustica (la psicoacustica è lo studio della percezione soggettiva umana dei suoni,<br />

più precisamente è lo studio della psicologia della percezione acustica) hanno permesso di<br />

accertare che l'uomo non è sensibile nello stesso modo a tutte le frequenze e che un <strong>suono</strong> ad alta<br />

intensità ne maschera uno con frequenza vicina ma intensità più bassa. Sfruttando queste ed altre<br />

considerazioni, si può pensare di eliminare l'informazione che non verrebbe comunque percepita ed<br />

ottenere quindi un buon rapporto di compressione.<br />

Occorre distinguere fra segnali vocali e segnali musicali.<br />

Per i segnali musicali lo standard è il CD audio con una frequenza di campionamento di 44,1<br />

KHz e una profondità di bit di 16<br />

Esempi di compressori sono:<br />

• MP3 (MPEG-1 Layer III) è stato introdotto negli anni '80 ed è il più popolare. Essendo il più<br />

antico, è anche il meno efficiente e spesso il peggiore in termini di qualità.<br />

• Windows Media Audio (WMA) è molto diffuso sui sistemi Windows.<br />

• VORBIS è un codec più efficiente dell'mp3 ed è open source (ossia liberamente distribuibile<br />

e modificabile)<br />

• AAC è stato reso popolare dalla Apple. Apple's (iTunes Music Store)<br />

Per i segnali vocali lo standard è il sistema telefonico con una frequenza di campionamento di<br />

8 KHz e una profondità di bit di 8<br />

<strong>Il</strong> Global System for Mobile Communications (GSM) è attualmente lo standard di telefonia<br />

mobile più diffuso del mondo. Utilizza un bitrate di 9,6Kbit/sec con un tasso di compressione di<br />

1:14<br />

Bitrate<br />

I file multimediali sono per loro natura connessi al tempo che scorre. In altri termini ad ogni<br />

secondo è associato un certo contenuto informativo e quindi una certa sequenza di cifre binarie. <strong>Il</strong><br />

numero di cifre binarie che compongono queste sequenze è detto bitrate. In altre parole il bitrate è<br />

il numero di cifre binarie impiegate per immagazzinare un secondo di informazione. Questo<br />

può essere costante per tutta la durata del file o variare all'interno di esso. Ad esempio i cd musicali<br />

vengono campionati (registrati) ad una frequenza pari a 44,1KHz. Da ciò deriva che ad ogni<br />

secondo si hanno 44.100 valori registrati dall'ipotetico microfono che vanno poi moltiplicati per i 2<br />

canali del <strong>suono</strong> stereo che vanno a loro volta moltiplicati per 16 (poiché la registrazione avviene a<br />

16 bit) Quindi avremo:<br />

Bitrate= 44,1 x 2 x16= 1411kbit/sec=1,4Mbit/sec<br />

Questo significa che lo spazio necessario per registrare un minuto di audio è<br />

Bitrate x 60= 84 Mbit<br />

Per trovarlo in byte divido per 8 quindi ottengo circa 10 MByte<br />

La compressione, diminuendo la lunghezza globale del file, diminuirà di conseguenza la lunghezza<br />

media delle sottosequenze ossia diminuirà il bitrate medio. <strong>Il</strong> bitrate medio diventa dunque in<br />

questi casi l'indice dell'entità della compressione. Ad esempio se il file di origine possedesse un<br />

bitrate di 1411 Kbit/s e il file compresso possedesse un bitrate medio di 320 Kbit/s, allora avremmo<br />

18


idotto di un fattore pari a circa 4.5. (rapporto fra il bitrate del file non compresso e quello del file<br />

compresso).<br />

Moving Picture Experts Group : MPEG<br />

<strong>Il</strong> Moving Picture Experts Group, in sigla MPEG, nome ufficiale ISO/IEC JTC 1/SC 29/WG 11<br />

(titolo: "Coding of moving pictures and audio"), è un comitato tecnico congiunto delle<br />

organizzazioni internazionali ISO e IEC incaricato di definire degli standard per la rappresentazione<br />

in forma digitale di audio, video e altri tipi di contenuti multimediali, in grado di soddisfare<br />

un'ampia varietà di applicazioni.<br />

L'ISO, o Organizzazione internazionale per le standardizzazioni (in italiano, International Organization for<br />

Standardization in inglese, è la più importante organizzazione a livello mondiale per la definizione di standard<br />

industriali e commerciali. Suoi membri sono gli organismi nazionali di standardizzazione di 157 Paesi del mondo.<br />

Le norme ISO vengono recepite, armonizzate e diffuse in Italia dall'UNI (Ente nazionale italiano di unificazione), il<br />

membro che partecipa in rappresentanza dell'Italia all'attività normativa dell'ISO.<br />

La IEC, o Commissione Elettrotecnica Internazionale in italiano, International Electrotechnical Commission in inglese,<br />

è un'organizzazione internazionale per la definizione di standard in materia di elettricità, elettronica e tecnologie<br />

correlate. Molti dei suoi standard sono definiti in collaborazione con l'ISO (Organizzazione Internazionale per le<br />

Standardizzazioni).<br />

Questa commissione è formata da rappresentanti dei corpi di standardizzazione nazionali riconosciuti.<br />

<strong>Il</strong> comitato è stato costituito nel gennaio 1988 e normalmente si riunisce una media di quattro volte<br />

all'anno. Alla prima riunione hanno partecipato 25 membri. Attualmente alle riunioni vi partecipano<br />

oltre 350 membri in rappresentanza di più di 200 aziende e organizzazioni appartenenti a circa 20<br />

nazioni del mondo.<br />

Attualmente gli standard definiti dall'MPEG sono tra i più universalmente utilizzati.<br />

L'MPEG ha definito i seguenti standard:<br />

Nome comune Nome ISO Titolo ISO<br />

MPEG-1 ISO/IEC 11172<br />

Coding of moving pictures and associated audio at up to about 1.5<br />

Mbit/s<br />

MPEG-2 ISO/IEC 13818 Generic coding of moving pictures and associated audio<br />

MPEG-4 ISO/IEC 14496 Coding of audio-visual objects<br />

MPEG-7 ISO/IEC 15938 Multimedia Content Description Interface<br />

MPEG-21 ISO/IEC 21000 Multimedia Framework<br />

L'MPEG-1 è utilizzato nel Video CD (un formato a bassa qualità, analoga al sistema VHS).<br />

L'MPEG-2 è utilizzato nella televisione digitale satellitare, nel DVD-Video, nella televisione<br />

19


digitale terrestre ed ha una qualità superiore all'MPEG-1 ma richiede per contro una maggior<br />

quantità di risorse hardware.<br />

L'MPEG-4 è un'estensione dell'MPEG-1 in grado di gestire flussi audio/video eterogenei,<br />

contenuti 3D, flussi video a basso bitrate e diritti digitali.<br />

L'MPEG-21 è nato per sviluppare una piattaforma comune per le future applicazioni<br />

multimediali.<br />

Uno standard abbandonado è invece l'MPEG-3, inizialmente sviluppato per l'HDTV in seguito si<br />

è scoperto che l'MPEG-2 era sufficiente per tale applicazione.<br />

MP3 (è il layer 3 dell’MPEG-1) è il compressore più utilizzato in assoluto nella codifica<br />

musicale. E’ un algoritmo di compressione audio di tipo lossy in grado di ridurre drasticamente la<br />

quantità di dati richiesti per memorizzare un <strong>suono</strong>, rimanendo comunque una riproduzione fedele<br />

del file originale non compresso.<br />

Per l'MPEG-1 layer 3 i bitrate (MP3) disponibili sono: 32, 40, 48, 64, 80, 96, 112, 128, 160, 192,<br />

224, 256 e 320 kbit/s ( 103 bits per secondo ), e le frequenze campionate disponibili sono 32, 44.1<br />

e 48 Khz. La frequenza di campionamento a 44.1 kHz è quasi sempre utilizzata per i CD<br />

audio, mentre i 128 Kbit/s come una sorta di bitrate standard "abbastanza buono". L'MPEG-2<br />

e l'MPEG-2.5 (non-ufficiale) contemplano un numero maggiore di bitrate: 8, 16, 24, 32, 40, 48, 56,<br />

64, 80, 96, 112, 128, 144 e 160 kbit/s<br />

Gli algoritmi<br />

Gli algoritmi sviluppati dal gruppo MPEG sono tutti algoritmi a perdita di informazione<br />

(lossy).<br />

Elaborare il segnale nel dominio delle frequenze offre anche altri vantaggi. <strong>Il</strong> nostro orecchio non è<br />

uno strumento lineare, cioè non percepisce tutti i suoni e soprattutto non li percepisce tutti nello<br />

stesso modo. Da qui l'idea di eliminare tutte quelle componenti frequenziali che non possiamo<br />

udire. Questa è ovviamente una tecnica lossy: il <strong>suono</strong> compresso sarà diverso da quello<br />

originale ma i nostri sensi non riusciranno a percepirne la differenza. Si rende quindi<br />

necessario uno studio sul modello percettivo, cioè sulla percezione umana del <strong>suono</strong>. La banda di<br />

frequenze udibili va dai 16 Hz fino a 20 kHz. Nel modello MPEG-1 il primo taglio in frequenza<br />

viene effettuato eliminando le frequenze troppo basse o troppo alte. Affinché un <strong>suono</strong> sia<br />

percepibile deve essere sufficientemente forte, cioè deve esercitare un livello minimo di pressione<br />

sulla membrana del timpano dell'orecchio, tuttavia tale soglia non è costante ma, varia in funzione<br />

della frequenza.<br />

In figura è riportato un grafico qualitativo che mostra quale deve essere la pressione minima<br />

che un <strong>suono</strong> deve avere per poter essere percepito. Nelle ascisse (in scala logaritmica) ci sono le<br />

frequenze, mentre nelle ordinate ci sono i livelli di pressione sonora (in dB). Tutti i suoni che si<br />

trovano nella zona grigia possono essere eliminati.<br />

20


A questo va aggiunto che la percettività del <strong>suono</strong> non è costante nel tempo, ma varia in funzione di<br />

ciò che ascoltiamo. In pratica un tono forte copre i suoni d'intensità minore, non solo ad una<br />

determinata frequenza ma anche in quelle vicine, infatti come tutti i sensori, l'orecchio non ha tempi<br />

di reazione nulli cioè impiega un certo tempo per adattarsi alle nuove condizioni e soprattutto<br />

impiega tempo a tornare in quiete dopo una sollecitazione. Affinché un <strong>suono</strong> sia percepito è<br />

dunque necessario che si mantenga per un certo tempo senza disturbi. MPEG-1, in<br />

considerazione dei fattori sopra citati, filtra il <strong>suono</strong> digitale eliminando la parte<br />

dell'informazione che per l'orecchio umano è ininfluente.<br />

21

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!