Les probabilités de demain 2016

Collection Les probabilités de demain 2016

Organizer(s)
Date(s) 29/04/2024
00:00:00 / 00:00:00
13 17

Variations sur l'information : catégories, cohomologie, entropie

By Juan-Pablo Vigneaux

L'entropie d'une variable aléatoire discrète, introduit par Shannon et généralisé par Kolmogorov, Sinai et autres, satisfait l'identité 0=H(Y|X)-H(XY)+H(X). On verra que, si on considère une catégorie S de “observables” et un topos de Grothendieck associé à ce catégorie (les préfaisceaux sur S), l'égalité ci-dessus s'interprète au niveau cohomologique comme une condition de cocycle. Sous certaines hypothèses, l'entropie apparaît comme le générateur du premier groupe de “cohomologie de l'information”, introduit par Benenquin-Baudot l'année dernière. On parlera de cette approximation catégorique aux probabilités classiques et quantiques; quelques constructions de Gromov seront aussi mentionnés.

Information about the video

  • Date of recording 17/05/2016
  • Date of publication 22/05/2016
  • Institution IHES
  • Format MP4

Last related questions on MathOverflow

You have to connect your Carmin.tv account with mathoverflow to add question

Ask a question on MathOverflow




Register

  • Bookmark videos
  • Add videos to see later &
    keep your browsing history
  • Comment with the scientific
    community
  • Get notification updates
    for your favorite subjects
Give feedback