definizione di codifica digitale

Home » Blog » Physical » Telecomunicazioni » Telematica » definizione di codifica digitale

definizione di codifica digitale

10.04 2020 | by massimiliano

Definizione di codifica digitale   La trasmissione di informazione codificata in forma digitale richiede di associare ai bit determinati valori […]



Definizione di codifica digitale

 

La trasmissione di informazione codificata in forma digitale richiede di associare ai bit determinati valori compresi tra zero ed uno oltre a garantire una corretta sincronizzazione del ricevitore con il trasmettitore permettendo di ridurre la banda necessaria alla trasmissione e quindi la banda passante richiesta al mezzo di comunicazione.

 

Una caratteristica importante delle tecniche di codifica è il numero di variazioni del segnale necessarie per codificare un bit; questo determina a partire dalla velocità di trasmissione dei bit, misurata in bit/secondo, la frequenza con cui varia il segnale, misurata in hertz (pulsazioni al secondo) che deve rientrare all’interno della banda passante del canale trasmissivo.

 

Tale frequenza rappresenta il valore minimo di banda passante che il mezzo trasmissivo può offrire, in quanto qualsiasi segnale non sinusoidale (come l’onda quadra generata nella trasmissione dei segnali digitali), è composto oltre che dalla fondamentale, anche da un numero in teoria infinito di armoniche (segnali sinusoidali a frequenza multipla della fondamentale).

 

La distorsione del segnale è minore quante più armoniche sono trasmesse con attenuazione trascurabile.

Torna in alto