Movatterモバイル変換


[0]ホーム

URL:


Ir para o conteúdo
Wikipédia
Busca

Código (comunicação)

Origem: Wikipédia, a enciclopédia livre.

Código é uma representação simbólica de repertório próprio ou resultado de um processo decodificação, podendo ser entendido como o ponto de partida do qual é elaborada e decifrada uma mensagem. Situa-se como elemento da informação entre os níveis desemiótica, ou seja, do significado comum a todos os sistemas simbólicos e cuja interpretação menos depende do sistema no qual foi escrito; e dacomunicação, sistema de receptores/emissores e fontes de informação. Nesse contexto geral, código também é a ferramenta criada para manter a máxima eficiência da transmissão de informação segundo determinadas propriedades matemáticas.[1]

Propriedades matemáticas do código[2][3]

[editar |editar código]

Pode-se associar qualquerconjunto finito de símbolos de formabiunívoca a equivalentes emcódigos binários (0's e 1's) e assim tratar cada símbolo como uma sequência de escolhas do emissor e como uma quantidade que pode ser mensurada embits. Parasinais analógicos, é necessário primeiro fazer suadiscretização. Feito isso, o código detém as seguintes propriedades:

SejaD={s1,s2,...sn}{\displaystyle D=\{s_{1},s_{2},...s_{n}\}} um dicionário de uma fonte emissoraF{\displaystyle F} comn{\displaystyle n} símbolos na qual cada símbolo possui uma probabilidadeP(si){\displaystyle P(s_{i})} de ocorrência e sejaM{\displaystyle M} uma mensagem qualquer contendom{\displaystyle m} símbolos produzida por essa fonte.

Se a mensagem for convertida para código binário, como frequentemente requer oprocessamento digital de sinais e utilizando algum processo como código de Huffman ou de Shannon-Fano, obtemos um novo dicionárioD={s1,s2,...sn}{\displaystyle D^{*}=\{s_{1}^{*},s_{2}^{*},...s_{n}^{*}\}}, associando cada símbolo originalsi{\displaystyle s_{i}} a uma sequência de números bináriossi{\displaystyle s_{i}^{*}}.

Quantidade de informação

[editar |editar código]

Define-se a quantidade de informação de um símbolo porI(si)=log2(1P(si))=log2(P(si)){\displaystyle I(s_{i})=\log _{2}\left({\frac {1}{P(s_{i})}}\right)=-\log _{2}(P(s_{i}))} com a exceção particular de que seP(si)=0{\displaystyle P(s_{i})=0}, entãoI(si)=0{\displaystyle I(s_{i})=0} (nota-se que o mesmo ocorre seP(si)=1{\displaystyle P(s_{i})=1}, ou seja, símbolos que sempre ou nunca ocorrem não carregam informação nova alguma). A escolha da base 2 para o logaritmo é devido à relação entre o dicionário e um conjunto de códigos binários e aunidade de medida é o bit.

Para a mensagem, tem-se queI(M)=siMI(si)=siMlog2(P(si)){\displaystyle I(M)=\sum _{s_{i}\in {M}}I(s_{i})=-\sum _{s_{i}\in {M}}\log _{2}(P(s_{i}))}, considerando nosomatório todas as repetições de símbolos.

Entropia

[editar |editar código]
Ver artigo principal:Entropia da informação

Entropia é uma medida da informação média contida numa mensagem. ParaF{\displaystyle F}, define-se entropia como aesperança da quantidade de informação de uma mensagem produzida por essa fonte, ou seja,H(F)=E[I(si)]=i=1nP(si)log2(P(si)){\displaystyle H(F)=E[I(s_{i})]=-\sum _{i=1}^{n}P(s_{i})\log _{2}(P(s_{i}))}, de unidade em bits. Vê-se que qualquerM{\displaystyle M} produzida porF{\displaystyle F} não interfere no valor deH(F){\displaystyle H(F)} uma vez que os valoresP(si){\displaystyle P(s_{i})} tenham sido determinados. Para uma mensagem, tem-se queH(M)=E[I(M)]=E[siMI(si)]=siME[I(si)]=mH(F){\displaystyle H(M)=E[I(M)]=E[\sum _{s_{i}\in {M}}I(s_{i})]=\sum _{s_{i}\in {M}}E[I(s_{i})]=mH(F)}.

Tamanho de mensagem codificada, tamanho médio e eficiência de codificação

[editar |editar código]

Se passarmos a utilizarD{\displaystyle D^{*}} como dicionário para a mensagem, uma mensagemM{\displaystyle M^{*}} possui o tamanhoL(M)=siML(si){\displaystyle L(M)=\sum _{s_{i}\in {M}}L(s_{i}^{*})}, em queL(si){\displaystyle L(s_{i}^{*})} é simplesmente a quantidade de caracteres binários desi{\displaystyle s_{i}^{*}}. A partir disso, define-se tamanho médio da mensagem deF{\displaystyle F}, também uma esperança, porL¯(F)=i=1nP(si)L(si){\displaystyle {\bar {L}}(F)=\sum _{i=1}^{n}P(s_{i})L(s_{i}^{*})} e a eficiência de codificação porη=H(F)L¯(F){\displaystyle \eta ={\frac {H(F)}{{\bar {L}}(F)}}}, adimensional (apesar da unidade da entropia).

Referências

  1. Coelho Netto, J. Teixeira (1983).Semiótica, informação e comunicação. São Paulo: Perspectiva 
  2. Pierce, J. R (1980).An Introduction to Information Theory. New York: Dover Publications 
  3. «Information and Entropy». Massachussets Institute of Technology OpenCourseWare - MIT OCW. Consultado em 11 de fevereiro de 2017 
Obtida de "https://pt.wikipedia.org/w/index.php?title=Código_(comunicação)&oldid=69070113"
Categorias:

[8]ページ先頭

©2009-2025 Movatter.jp