Shannon 100

Collection Shannon 100

Organizer(s)
Date(s) 04/05/2024
00:00:00 / 00:00:00
9 15

Information, simplicité et pertinence

By Jean Louis Dessalles

Claude Shannon fonda la notion d’information sur l’idée de surprise, mesurée comme l’inverse de la probabilité (en bits). Sa définition a permis la révolution des télécommunications numériques. En revanche, l’extension de la notion d’information à des domaines comme la biologie ou la communication humaine s’est révélée problématique. La probabilité n’est pas toujours calculable, ni même définissable. Son remplacement par la complexité de Kolmogorov s’est révélé utile pour aborder les domaines structurés. Toutefois, cela conduit à considérer que les objets aléatoires sont maximalement informatifs. Or pour un biologiste, un ADN aléatoire ne contient aucune information. Je propose de rester fidèle à l’hypothèse de base de Shannon et de définir l’information pertinente à partir de la surprise. La surprise est définie comme un décalage de la complexité de Kolmogorov (en ressources limitées). Cette définition se révèle utile pour étendre la notion d’information à des observateurs non-humains (par ex. en biologie). Elle est aussi essentielle pour définir la notion de pertinence et pour faire des prédictions concernant la communication humaine.

Information about the video

  • Date of publication 07/11/2016
  • Institution IHP
  • Format MP4

Domain(s)

Last related questions on MathOverflow

You have to connect your Carmin.tv account with mathoverflow to add question

Ask a question on MathOverflow




Register

  • Bookmark videos
  • Add videos to see later &
    keep your browsing history
  • Comment with the scientific
    community
  • Get notification updates
    for your favorite subjects
Give feedback