Les probabilités de demain 2016

Collection Les probabilités de demain 2016

Organisateur(s)
Date(s) 29/03/2024
00:00:00 / 00:00:00
13 17

Variations sur l'information : catégories, cohomologie, entropie

De Juan-Pablo Vigneaux

L'entropie d'une variable aléatoire discrète, introduit par Shannon et généralisé par Kolmogorov, Sinai et autres, satisfait l'identité 0=H(Y|X)-H(XY)+H(X). On verra que, si on considère une catégorie S de “observables” et un topos de Grothendieck associé à ce catégorie (les préfaisceaux sur S), l'égalité ci-dessus s'interprète au niveau cohomologique comme une condition de cocycle. Sous certaines hypothèses, l'entropie apparaît comme le générateur du premier groupe de “cohomologie de l'information”, introduit par Benenquin-Baudot l'année dernière. On parlera de cette approximation catégorique aux probabilités classiques et quantiques; quelques constructions de Gromov seront aussi mentionnés.

Informations sur la vidéo

  • Date de captation 17/05/2016
  • Date de publication 22/05/2016
  • Institut IHES
  • Format MP4

Dernières questions liées sur MathOverflow

Pour poser une question, votre compte Carmin.tv doit être connecté à mathoverflow

Poser une question sur MathOverflow




Inscrivez-vous

  • Mettez des vidéos en favori
  • Ajoutez des vidéos à regarder plus tard &
    conservez votre historique de consultation
  • Commentez avec la communauté
    scientifique
  • Recevez des notifications de mise à jour
    de vos sujets favoris
Donner son avis