pen icon Colloque
quote

Condition suffisante pour que l'entropie différentielle soit finie

MB

Membre a labase

M. Blais

Résumé du colloque

La quantité d'information de Shannon fut d'abord définie pour des variables prenant un nombre fini de valeurs. Nous avons dans un travail précédent donné une condition suffisante pour que la généralisation naturelle de la quantité d'information de Shannon dans le cas dénombrable soit finie. Dans le cas de R, une généralisation possible est donnée par l'entropie différentielle, ou, ce qui est la même chose, par la divergence par rapport à la mesure de Lebesgue. Nous étendons ici ce cas notre condition: Soit X une variable aléatoire à valeurs dans R, dont la mesure de probabilité X est absolument continue par rapport à la mesure de Lebesgue m. Si pour un α < 0, le moment d'ordre α de X est fini, alors h(X) = -D(X; m) < ∞.

Contexte

news icon Thème du colloque :
Mathématique et informatique
host icon Hôte : Université de Sherbrooke

Découvrez d'autres communications scientifiques

news icon

Titre du colloque :

Mathématique et informatique

Autres communications du même congressiste :

news icon

Thème du colloque :

Mathématique et informatique