Movatterモバイル変換


[0]ホーム

URL:


Vai al contenuto
WikipediaL'enciclopedia libera
Ricerca

Entropia condizionale

Da Wikipedia, l'enciclopedia libera.
Pagine da unire
Questa pagina sull'argomento Matematica sembra trattare argomenti unificabili alla paginaEntropia (teoria dell'informazione).

Puoi contribuireunendo i contenuti in una pagina unica. Commenta la procedura di unione usandoquesta pagina di discussione. Segui i suggerimenti delprogetto di riferimento.

Nellateoria dell'informazione l'entropia condizionale è una misura della quantità di informazione necessaria per descrivere il valore di una variabile aleatoriaX{\displaystyle \mathrm {X} } noto il valore di un'altra variabile aleatoriaY{\displaystyle Y}. Nella trasmissione attraverso un canale di comunicazione rappresenta la quantità rimanente di incertezza del valore all'ingresso al canale dopo che è stato osservato il valore di uscita. L'entropia diX{\displaystyle X} condizionata daY{\displaystyle Y} si definisce comeH(X|Y){\displaystyle H(X|Y)}.

Definizione

[modifica |modifica wikitesto]

SeH(X|Y=yk){\displaystyle H(X|Y=y_{k})} è l'entropia della variabileX{\displaystyle X} condizionata dalla variabileY{\displaystyle Y} che assume un certo valoreyk{\displaystyle y_{k}}, alloraH(X|Y){\displaystyle H(X|Y)} è il risultato della media pesata diH(X|Y=yk){\displaystyle H(X|Y=y_{k})} su tutti i possibili valoriyk{\displaystyle y_{k}} che laY{\displaystyle Y} può assumere.

Dato un alfabeto di simboli in ingressoX={x0,x1,...,xJ1}{\displaystyle X={\{x_{0},x_{1},...,x_{J-1}}\}}, un alfabeto di simboli in uscitaY={y0,y1,...yK1}{\displaystyle Y={\{y_{0},y_{1},...y_{K-1}}\}} con probabilitàp(y0),...,p(yK1){\displaystyle p(y_{0}),...,p(y_{K-1})} l'entropia condizionale si definisce come:

H(X|Y){\displaystyle H(X|Y)}{\displaystyle \equiv }k=0K1H(X|Y=yk)p(yk){\displaystyle \sum _{k=0}^{K-1}H(X|Y=y_{k})p(y_{k})}

=k=0K1j=0J1p(xj|yk)p(yk)log2[1p(xj|yk)]{\displaystyle =\sum _{k=0}^{K-1}\sum _{j=0}^{J-1}p(x_{j}|y_{k})p(y_{k})log_{2}\left[{\frac {1}{p(x_{j}|y_{k})}}\right]}

=k=0K1j=0J1p(xj,yk)log2[1p(xj|yk)]{\displaystyle =\sum _{k=0}^{K-1}\sum _{j=0}^{J-1}p(x_{j},y_{k})log_{2}\left[{\frac {1}{p(x_{j}|y_{k})}}\right]}

dove nell'ultima espressione si è utilizzata la relazione tra probabilità congiunta e condizionata:p(xj,yk)=p(xj|yk)p(yk){\displaystyle p(x_{j},y_{k})=p(x_{j}|y_{k})p(y_{k})}.

Bibliografia

[modifica |modifica wikitesto]
  Portale Informatica: accedi alle voci di Wikipedia che trattano di informatica
Estratto da "https://it.wikipedia.org/w/index.php?title=Entropia_condizionale&oldid=140480765"
Categoria:
Categorie nascoste:

[8]ページ先頭

©2009-2025 Movatter.jp