Os 16 bits da codificação são o que se chama de profundidade de bits, e essa quantidade é que limita a relação sinal-ruído, a dinâmica e a resolução do sinal reconstruído. Para entender isso, imagine que quanto menos bits se usar, maiores vão ser os espaçamentos entre os diversos níveis do sinal. Por exemplo, se usarmos 1 bit somente, teremos uma resolução de 2 níveis (0 e 1). Se utilizarmos dois bits, temos quatro níveis e assim sucessivamente. O interessante é que dessa relação se conclui que com oito bits teremos 256 diferentes níveis e com 16 bits 65.536 níveis. A resolução é dada pelo máximo sinal de saída que no caso do CD é de 2V, dividida pelo número de níveis. Nota-se que com oito bits a resolução digital seria de 8 mV ou quase 0.40% para cada bit, o que é pouco. A relação sinal-ruído é deteriorada conforme diminuímos a quantidade de bits, e para oito bits teremos uma relação sinal-ruído de aproximadamente 48 dB, o que está num nível abaixo da relação sinal-ruído dos toca-discos e dos tape-decks da época da criação do padrão.
Os 16 bits são uma escolha bastante lógica em função da utilização otimizada de bytes (um byte é uma palavra de oito bits, neste caso), e permite uma relação sinal-ruído teórica de 96 dB, o que é um valor bastante superior a qualquer tecnologia da época, e uma resolução de 0,0015% para cada bit, o que é bom. Na realidade, toca-CD´s da época eram limitados tecnicamente a 13 ou 14 bits, o que dá uma relação sinal-ruído de 78 dB ou 84 dB respectivamente, mas que já os faziam ficar superiores aos melhores produtos analógicos de então.
Interessante notar que o número de bits não tem impacto na resposta em frequência. A resposta em frequência é limitada pela taxa de amostragem, no caso do CD de 44.1 kHz. Isso é dado por um teorema de amostragem de sinais de Nyquist-Shannon que, em linhas gerais, diz que o sinal, se amostrado com uma frequência de no mínimo duas vezes sua frequência máxima, pode ser perfeitamente reconstruído (note-se que há restrições para se obter esse resultado na vida real, mas elas estão fora do escopo de nosso artigo).
A próxima pergunta é: por que se usa 44.1 KHz e não 40KHz ou mesmo 44kHz? Porque essa era uma das duas frequências que acomodavam os 20kHz da banda de áudio dentro do teorema de Nyquist-Shannon e apresentava compatibilidade com os sistemas de armazenamento analógicos da época, que utilizavam equipamentos de vídeo para gravação.
Dessa forma surgiu um padrão de áudio digital que pode chegar a uma relação sinal-ruído máxima de 96 dB e a uma resposta em frequência de até 22kHz, que era muito acima do que existia na época. O grande problema é que a taxa de bits era de 16*44.100*2, pois o sistema era estéreo e continha 2 canais. Dessa conta básica, chegamos a uma taxa de 1.411.200 bits por segundo, o que fazia com que um trecho de um minuto de música gravada com qualidade de CD (sem compressão) tenha 84 Mbits de tamanho ou aproximadamente 10,6 Mbytes. Isso somente considerando a música em si, sem contar os bits adicionais inseridos pelo sistema para controle e redundância dentro do pacote de dados.
Muito boa a matéria, a revista Antena é e sobre foi um importante incentivo para novos técnicos em eletrônica. Fornecendo informações, circuitos, e novidades. Felizmente aínda podemos contar com está publicação, mesmo que na forma digital.
Seria bom esclarecer que o uso de de 13 ou 14 bits para o sinal musical e não os 16 (2 bytes) se deviam/devem exatamente ao fato de que esses 2 o 3 bits são usados para correção de erros (não só de leitura, mas devido a defeitos no próprio disco óptico).
O número 44.100, que às vezes parece mágico, cabalístico ou “misterioso”, guarda algumas curiosidades, como a de ser aproximadamente o dobro da maior freqüência já percebida por pessoas com audição excepcional, ser um quadrado perfeito (pois 210 x 210 = 44.100) e associado aos 2 canais estéreo, com resolução de 16 bits, implicar uma capacidade de armazenamento de cerca de 74 minutos para o disco óptico de 12 com de diâmetro que seria usado para gravação. Esse tempo era o que o maestro Herbert von Karajan (um dos maiores entusiastas das gravações sonoras em formato digital) havia estabelecido para uma das sinfonias de Beethoven ( salvo engano a nona), que poderia ser gravada e ouvida sem interrupção.
Outro aspecto importante: os melhores gravadores analógicos, quando bem calibrados, com fitas de boa qualidade, em velocidade mais alta, eram capazes de registrar freqüências sonoras de até 22 kHz; logo, o uso de taxa de amostragem de 44.100, atenderia ao critério de Nyquist, garantindo que as freqüências musicais mais altas pudessem ser registradas e reproduzidas.
Em relação à faixa de freqüências que podiam/podem ser gravadas num disco pelo processo de microssulcos , ela pode ir de 5Hz a 45 kHz, portanto bem maior do que a de um CD, na época considerado a “novidade e qualidade definitiva para a música gravada”. Naquele início da década de 1980 fazia quase 40 anos que Philips, Sony e outras empresas, assim como universidades e centros de pesquisa, investiam, tempo, esforços e recursos, com o fim de obter uma forma de registro do som que permitisse sua gravação e reprodução com alta fidelidade, sem desgaste do suporte (daí o uso de discos ópticos ). Portanto havia necessidade de se lançar comercialmente reprodutores de CD e estimular a indústria fonográfica a migrar para o formato digital.
A questão mais central da migração analógico=>digital – para registro e reprodução da música – é que os equipamentos e técnicas digitais permitem a obtenção de ótima qualidade a preços que hoje são muito menores, além de os equipamentos serem mais robustos e fáceis de operar, por parte dos usuários. Ou seja: um equipamento digital com o mesmo desempenho de um analógico custa bem menos e requer menos manutenção.