En espérant que quelqu'un puisse me donner des pointeurs avec ce problème d'entropie.Aide mutuelle de calcul des informations/entropie
Dites X est choisi au hasard à partir de la distribution entière uniforme 0-32 (inclusivement).
Je calcule l'entropie, H (X) = 32 bits, car chaque Xi a une probabilité égale de se produire.
Maintenant, disons que le pseudocode suivant s'exécute.
int r = rand (0,1); // un nombre aléatoire 0 ou 1
r = r * 33 + X;
Comment trouver l'information mutuelle entre les deux variables r et X? L'information mutuelle est définie comme I (X; Y) = H (X) - H (X | Y) mais je ne comprends pas vraiment comment appliquer l'entropie conditionnelle H (X | Y) à ce problème.
Merci