Tanto spazio risparmiato

Settembre 2008. Viene spontaneo pensare che il video e l’audio digitali siano garanzia di elevatissima qualità di visione e d’ascolto. Le potenzialità ci sono.
Ma per svariati motivi, assistiamo a un’ampia variazione dei livelli qualitativi. Alla base di questi risultati troviamo svariati parametri e altrettante precise motivazioni d’impiego di un parametro anziché di un altro: soprattutto per quanto concerne la compressione.

Un video in formato digitale può occupare quantità di spazio differenti in base alla risoluzione e alla compressione con cui è registrato e trasmesso.

Ciò che incide fortemente, in ogni circostanza, è la compressione: parametro importantissimo anche nell’ambito delle trasmissioni televisive via satellite.

Si sente spesso dire con un po’ di faciloneria che: “per impiegare meno banda (per ragioni economiche) un certo canale trasmette i segnali digitali troppo compressi e lo schermo si riempie di pixel”.

La compressione, tecnica comune sia al video sia all’audio, è un procedimento con cui vengono rimossi più o meno particolari, stimati come non visibili e non udibili dall’uomo.
Così facendo, è possibile “risparmiare” occupazione di banda in registrazione e in trasmissione.

Se questo è abbastanza comprensibile nel settore dell’Home Video (un DVD ha uno spazio disponibile di circa 9 Gbyte), nel campo delle trasmissioni televisive satellitari tale risparmio è ancora più importante. In questo tipo di trasmissioni, infatti, bisogna tenere presente proprio del concetto di “banda”.

All’interno di uno spazio virtuale
La banda è uno spazio virtuale, più o meno ampio, che le emittenti hanno a disposizione per trasmettere le proprie immagini e i suoni.
Tale spazio però è molto “costoso” e più la banda è larga più l’emittente dovrà “sborsare” per trasmettere i propri contenuti audio e video, attraverso il transponder di un satellite.

Questo il motivo per cui le varie emittenti hanno iniziato a comprimere le trasmissioni, allo scopo di ottenere banda a sufficienza per inserire altri contenuti come l’audio in lingua originale e/o i sottotitoli.

In base alla larghezza di banda, quindi, un’emittente è costretta a comprimere le proprie trasmissioni in maniera più o meno pesante, con conseguenze anche vistose per quanto riguarda la qualità delle immagini.

Il sistema di compressione è un insieme di regole a cui devono sottostare i vari algoritmi attraverso cui le immagini vengono “filtrate”e private di tutto ciò che l’essere umano non è in grado di vedere e sentire. Dunque, un algoritmo di compressione può essere impostato in modo tale da lasciare un numero più o meno grande di dettagli, andando a incidere direttamente sulla dimensione totale del brano o delle immagini.

Sgradevoli artefatti
Oltre a ciò, un processo di compressione elevata genera immagini che presentano difetti eclatanti sotto forma di “quadrettoni” visibili o aloni che si manifestano prevalentemente negli sfondi caratterizzati da tinte omogenee, nelle sfumature di esse e, in particolare, nelle scene più concitate.

Questi disturbi vengono tecnicamente chiamati artefatti e non sono quindi il risultato di una cattiva trasmissione ma di una compressione troppo spinta che va a penalizzare la qualità delle immagini che rimangono “pixelate” anche sui più moderni televisori.
Lo spettatore rimane deluso e talvolta, impropriamente, ne attribuisce la responsabilità alla marca o al modello del televisore.

I commercianti privi di scrupoli ne approfittano e indirizzano le loro “demo” dei prodotti scientemente su canali più o meno compressi per affibbiare svantaggi e vantaggi a questo o quel prodotto.
Non bisogna perciò farsi ingannare e pretendere di effettuare il confronto con lo stesso canale, con lo stesso segnale all’ingresso del televisore e con il menu delle regolazioni video almeno in condizioni standard così come settate dal costruttore all’origine.

Tre codec pronti a tutto
In materia di standardizzazione, i protocolli principali e i loro codec (da COder/DECoder, ossia codificatore/decodificatore), sono tre e sono stati tutti implementati dal Moving Picture Experts Group (Mpeg), un gruppo che opera in seno all’organizzazione internazionale per la standardizzazione (ISO).

Il primo protocollo a essere stato codificato è stato l’Mpeg-1 a cui sono poi seguiti Mpeg-2 e Mpeg-4.
Il protocollo Mpeg-1, caratterizzato da una qualità simile a quella del VHS, è stato poi adottato come standard per la realizzazione di Video-CD. Per quanto riguarda l’audio è presente un codec a tre livelli di complessità. Di questi tre livelli il più conosciuto è il terzo, Mpeg-1 Audio Layer 3 o “Mp3”, divenuto poi lo standard oggi popolarissimo per la compressione audio.

Mpeg-2, seppur con qualche modifica, è il protocollo adottato dalle major cinematografiche per la codifica dei DVD. L’Mpeg-2 è considerato ideale anche per la trasmissione dei programmi televisivi sia via etere sia via satellite e infatti viene utilizzato sia nel digitale terrestre (DVB-T) sia nel satellitare (DVB-S). Negli Stati Uniti è lo standard più utilizzato nella trasmissione di programmi via cavo.

Protocolli assai flessibili
L’ultimo protocollo di compressione, più in auge attualmente, è l’Mpeg-4. Ha dato il via alla diffusione di DivX, Xvid e H.264, i sistemi più efficaci per assicurare un’elevata qualità delle immagini in pochissimo spazio di memoria o di “banda”.

Ultimamente il codec Mpeg-4 è stato implementato con il supporto per l’audio multicanale rendendolo, quindi, ideale per la trasmissione via satellite. Svariati set top box di ultima generazione sono già dotati di decodificatore Mpeg-4 compatibile comunque anche con l’Mpeg-2. Il ricevitore SKY HD è fra questi.

L’Alta Definizione necessita di appositi decoder in grado di decomprimere in modo appropriato le immagini compresse e trasferirle altrettanto velocemente ai televisori HD, gli unici in grado di visualizzare le immagini così codificate.

In ogni caso, il problema principale da risolvere, è sempre e solo quello relativo alla larghezza di banda di chi fornisce il servizio, che deve trovare il giusto equilibrio tra qualità e compressione delle immagini.

La larghezza di banda
Per capire cosa s’intenda per larghezza di banda parlando di un segnale audio o video digitale, è necessario introdurre il concetto di bitrate, un’unità dl misura già utilizzata sia nel settore delle telecomunicazioni sia in quello informatico per indicare la quantità di “bit” (un set di 8 bit equivale a un carattere, un numero o un simbolo nel sistema binario tuttora più diffuso) trasmessi o elaborati in un intervallo temporale fisso come, per esempio, un secondo.

La larghezza di banda, quindi, viene calcolata in bit al secondo. Più è larga la banda più informazioni sono trasmesse allo stesso tempo.
Nel settore dei multimedia, infatti, il bitrate indica la quantità di informazioni trasmesse, registrate o riprodotte in un secondo. Nello standard Mpeg-2, utilizzato nelle trasmissioni digitali satellitari e nei DVD, il bitrate varia dai 4 ai 10 Mbit/s (megabit al secondo – milioni di bps).
Più il valore è alto, più l’immagine sarà ricca di dettagli e meglio definita. Per le trasmissioni in Alta Definizione il valore sale fino a 20 Mbit/s.

Nel campo dell’audio il bitrate indica uno dei più importanti parametri di qualità della registrazione digitale.
Per esempio, la qualità non eccellente di una trasmissione radiofonica offre un bitrate che varia dai 32 ai 96 kbit/s (kilobit ai secondo – migliaia di bps).
La riproduzione è considerata qualitativamente accettabile con bitrate compresi in un intervallo tra i 128 e i 192 kbit/s, mentre con valori ancora più elevati (fino a 320 kbit/s) è considerata buona, cioè pari a quella espressa da un CD.

Interlacciato o progressivo?
Un’altra importante caratteristica del segnale video è il frame-rate, termine con cui s’intende la capacità di un dispositivo di produrre o registrare immagini fisse sequenziali in un determinato periodo di tempo: i cosiddetti frame o quadri corrispondenti, per capirci, ai singoli fotogrammi (fermi) di una pellicola cinematografica.
Anche in questo caso l’unità di tempo scelta è il secondo.

Nel settore delle trasmissioni televisive sono presenti tre principali formati a cui sono legati determinati valori di frame-rate. 60i (interlacciato) è lo standard utilizzato per anni dalle televisioni di tutto il mondo per riprodurre le immagini provenienti da dirette televisive, registrazioni o DVD.

Le trasmissioni 60i sono tuttora utilizzate negli Stati Uniti, mentre in Europa e in Australia si utilizza un formato caratterizzato da un valore leggermente inferiore: 50i.

Nelle modalità interlacciate, dove l’immagine è riprodotta a righe alterne, il frame-rate è pari alla metà del valore indicato.
Per fare un esempio, nelle trasmissioni europee dove si impiega il 50i, il frame-rate è di 25 quadri al secondo. 30p (progressivo) è un formato non interlacciato che produce immagini caratterizzate da un frame-rate costante di 30 quadri al secondo.

24p (progressivo) è anch’esso un formato non interlacciato che permette di realizzare immagini con la stessa qualità espressa dalle cineprese utilizzate nel mondo del cinema.

Immagini divise trasmesse al meglio
L’interlacciamento è un sistema di scansione di immagini video che prevede la divisione delle linee di scansione in due parti, dette campi o semiquadri, suddivisi in linee pari e dispari.

Questa tecnica permette una qualità di trasmissione migliore senza bisogno di aumentare la larghezza di banda.
Un televisore in standard PAL, per esempio, visualizza 50 semiquadri al secondo (25 pari e 25 dispari). Un quadro completo, quindi, viene tracciato 25 volte al secondo.

Nonostante le dichiarazioni di molti produttori di abbandonare la scansione interlacciata, questa tecnica rimane di largo utilizzo ed è prevista nei nuovi standard televisivi, come DV, DVB, comprese le estensioni per l’Alta Definizione.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome