Veuillez choisir le dossier dans lequel vous souhaitez ajouter ce contenu :
Résumé du colloque
La quantité d'information de Shannon fut d'abord définie pour des variables prenant un nombre fini de valeurs. Nous avons dans un travail précédent donné une condition suffisante pour que la généralisation naturelle de la quantité d'information de Shannon dans le cas dénombrable soit finie. Dans le cas de R, une généralisation possible est donnée par l'entropie différentielle, ou, ce qui est la même chose, par la divergence par rapport à la mesure de Lebesgue. Nous étendons ici ce cas notre condition: Soit X une variable aléatoire à valeurs dans R, dont la mesure de probabilité X est absolument continue par rapport à la mesure de Lebesgue m. Si pour un α < 0, le moment d'ordre α de X est fini, alors h(X) = -D(X; m) < ∞.
Vous devez être connecté pour ajouter un élément à vos favoris.
Veuillez vous connecter ou créer un compte pour continuer.
Outils de citation
Citer cet article :
MLA
APA
Chicago
Ajouter un dossier
Vous pouvez ajouter vos contenus préférés à des dossiers organisés. Une fois le dossier créé,
vous pouvez ajouter un article ou un contenu de la liste ou de la vue détaillée au dossier sélectionné dans la liste.