Nellateoria dell'informazione l'entropia condizionale è una misura della quantità di informazione necessaria per descrivere il valore di una variabile aleatoria
noto il valore di un'altra variabile aleatoria
. Nella trasmissione attraverso un canale di comunicazione rappresenta la quantità rimanente di incertezza del valore all'ingresso al canale dopo che è stato osservato il valore di uscita. L'entropia di
condizionata da
si definisce come
.
Se
è l'entropia della variabile
condizionata dalla variabile
che assume un certo valore
, allora
è il risultato della media pesata di
su tutti i possibili valori
che la
può assumere.
Dato un alfabeto di simboli in ingresso
, un alfabeto di simboli in uscita
con probabilità
l'entropia condizionale si definisce come:



![{\displaystyle =\sum _{k=0}^{K-1}\sum _{j=0}^{J-1}p(x_{j}|y_{k})p(y_{k})log_{2}\left[{\frac {1}{p(x_{j}|y_{k})}}\right]}](/image.pl?url=https%3a%2f%2fwikimedia.org%2fapi%2frest_v1%2fmedia%2fmath%2frender%2fsvg%2f7bf4a974fcc6cc175af0b4baff52f8b50ff72c9b&f=jpg&w=240)
![{\displaystyle =\sum _{k=0}^{K-1}\sum _{j=0}^{J-1}p(x_{j},y_{k})log_{2}\left[{\frac {1}{p(x_{j}|y_{k})}}\right]}](/image.pl?url=https%3a%2f%2fwikimedia.org%2fapi%2frest_v1%2fmedia%2fmath%2frender%2fsvg%2f950784cdd25da3934f88e678fe84a5fb14d634d5&f=jpg&w=240)
dove nell'ultima espressione si è utilizzata la relazione tra probabilità congiunta e condizionata:
.