Entropie, compression et statistique
Claude Shannon est l'inventeur de la théorie de l'information. Il a introduit la notion d'entropie comme mesure de l'information contenue dans un message vu comme provenant d'une source stochastique et démontré son lien avec les possibilités de compression de ce message. Le lien avec les méthodes statistiques est profond et la théorie de l'information a été source d'inspiration pour les théoriciens des statistiques. La compression de sources dont le nombre de valeurs possibles est grand peut être comprise comme un problème de statistique adaptative. Quelques résultats récents de codage adaptatif seront présentés.