Bonjour,
J'essaye d'étudier la performance d'un outil de prévision qui me de donne la probabilité avant un événement d'avoir un état 1, 2,3,4 avec les états 1, 2,3 et 4 qui forment un système complet d'évènement. On ne peut avoir que un des états actif, les autres inactifs.
Exemple : à 20h il y aura l'état de pluie , pas l'état de soleil, pas l'état de neige, pas l'état de grêle. ( L' outil n'est pas météorologique mais c'est pour mieux me faire comprendre )
Pour cela je dispose de 17 000 lignes excel où l'outil a déterminé les probabilités et le résultat réel. ( exemple : 33 % de pluie, 32% de soleil, 33% de neige, 2% de grêle résultat : pluie donc (1,0,0,0))
J'ai pensé dans un premier temps à regrouper les quadruplets avec le même P(x1) (par exemple 0.20) et regarder si on a bien 20% de cas 1 et faire de même avec les P(x2), P(x3), P(x4).
L'objectif final est de pouvoir afficher lorsque l'outil donne des probabilités un intervalle de confiance à 95 ou 99% englobant la probabilité réelle au vue de la performance de l'outil dans le passé.
Peut-être pourrait-on pour chaque valeur de probabilité faire une approximation de loi de gauss...
Si quelqu'un aurait des pistes je lui en serai grandement reconnaissant.
Cordialement
(PS : le sujet étant vraiment à cheval sur stats/proba je pense l'avoir mis au bon endroit mais n'hésitez pas à le déplacer)