Information, simplicité et pertinence
Claude Shannon fonda la notion d’information sur l’idée de surprise, mesurée comme l’inverse de la probabilité (en bits). Sa définition a permis la révolution des télécommunications numériques. En revanche, l’extension de la notion d’information à des domaines comme la biologie ou la communication humaine s’est révélée problématique. La probabilité n’est pas toujours calculable, ni même définissable. Son remplacement par la complexité de Kolmogorov s’est révélé utile pour aborder les domaines structurés. Toutefois, cela conduit à considérer que les objets aléatoires sont maximalement informatifs. Or pour un biologiste, un ADN aléatoire ne contient aucune information. Je propose de rester fidèle à l’hypothèse de base de Shannon et de définir l’information pertinente à partir de la surprise. La surprise est définie comme un décalage de la complexité de Kolmogorov (en ressources limitées). Cette définition se révèle utile pour étendre la notion d’information à des observateurs non-humains (par ex. en biologie). Elle est aussi essentielle pour définir la notion de pertinence et pour faire des prédictions concernant la communication humaine.