[MATHS-INFO] Un peu de lecture sur l'entropie
Dans la première épreuve du concours blanc, le deuxième exercice portait sur la notion d'entropie d'une variable aléatoire. Plus précisément, on parle d'entropie de Shannon.
L'entropie est une notion un peu compliquée en probabilités. Issue historiquement de la physique (plus précisément de la thermodynamique et de l'étude du mouvement de particules), elle est encore au coeur de beaucoup de sujets de recherche. L'entropie dite de Shannon est liée à cette notion "physique" d'entropie, mais est plus récente et provient de la théorie de l'information. Elle est notamment utilisée dans l'étude de l'évolution des marchés.
Voici quelques lectures en Anglais (ça fait de l'entraînement!) qui pourraient vous intéresser.