Código é uma representação simbólica de repertório próprio ou resultado de um processo decodificação, podendo ser entendido como o ponto de partida do qual é elaborada e decifrada uma mensagem. Situa-se como elemento da informação entre os níveis desemiótica, ou seja, do significado comum a todos os sistemas simbólicos e cuja interpretação menos depende do sistema no qual foi escrito; e dacomunicação, sistema de receptores/emissores e fontes de informação. Nesse contexto geral, código também é a ferramenta criada para manter a máxima eficiência da transmissão de informação segundo determinadas propriedades matemáticas.[1]
Pode-se associar qualquerconjunto finito de símbolos de formabiunívoca a equivalentes emcódigos binários (0's e 1's) e assim tratar cada símbolo como uma sequência de escolhas do emissor e como uma quantidade que pode ser mensurada embits. Parasinais analógicos, é necessário primeiro fazer suadiscretização. Feito isso, o código detém as seguintes propriedades:
Seja um dicionário de uma fonte emissora com símbolos na qual cada símbolo possui uma probabilidade de ocorrência e seja uma mensagem qualquer contendo símbolos produzida por essa fonte.
Se a mensagem for convertida para código binário, como frequentemente requer oprocessamento digital de sinais e utilizando algum processo como código de Huffman ou de Shannon-Fano, obtemos um novo dicionário, associando cada símbolo original a uma sequência de números binários.
Define-se a quantidade de informação de um símbolo por com a exceção particular de que se, então (nota-se que o mesmo ocorre se, ou seja, símbolos que sempre ou nunca ocorrem não carregam informação nova alguma). A escolha da base 2 para o logaritmo é devido à relação entre o dicionário e um conjunto de códigos binários e aunidade de medida é o bit.
Para a mensagem, tem-se que, considerando nosomatório todas as repetições de símbolos.
Entropia é uma medida da informação média contida numa mensagem. Para, define-se entropia como aesperança da quantidade de informação de uma mensagem produzida por essa fonte, ou seja,, de unidade em bits. Vê-se que qualquer produzida por não interfere no valor de uma vez que os valores tenham sido determinados. Para uma mensagem, tem-se que.
Se passarmos a utilizar como dicionário para a mensagem, uma mensagem possui o tamanho, em que é simplesmente a quantidade de caracteres binários de. A partir disso, define-se tamanho médio da mensagem de, também uma esperança, por e a eficiência de codificação por, adimensional (apesar da unidade da entropia).