Bonjour,
Je suis nouveau sur le forum, et je n'ai pas l'habitude de poster... Avant de poser ma question, je donne brièvement mon avis sur plusieurs points.

La théorie des probabilités est une théorie mathématique qui a mis beaucoup de temps à trouver ses fondements. Tout d'abord, la loi des grands nombres fut considérée comme l'axiome principal, et les probabilités simplement comme les fréquences limites d'apparition d'un événement dans le temps. C'est l'approche fréquentiste enseignée en collège et lycée (grace entre autre au statisticien Dacunha Castelle), la fréquence d'apparition d'une des faces du dé converge vers 1/6 pour un dé équilibré. Cela tout le monde le conçoit.

Hilbert a posé dans un de ses problèmes, la question de l'existence d'un système d'axiomes validant l'existence même des probabilités en terme de domaine mathématique.

Kolmogorov reprit l'ensemble de la théorie dans le langage de la théorie de la mesure, et en particulier avec la mesure de Lebesgue. La définition d'une probabilité prend alors un sens mathématique, il s'agit d'une mesure de masse totale 1. Le langage de la théorie de la mesure, telle que le presque partout, les tribus, les problèmes de mesurabilité s'applique maintenant alors aux probabilités.
Cependant la théorie des probabilité n'est pas un sous domaine de la théorie de la mesure, des concepts comme l'indépendance, le conditionnement n'existe pas tel quel en théorie de la mesure ou en analyse fonctionnelle.

On parle d'expérience aléatoire, de presque sûr, n'y a t'il pas une étape "philosophique" à passer avant de voir utiliser ces concepts mathématiques dans divers modèles.

Si la première approche est plus facile à appréhender, on a le probléme de la limite, la fréquence limite apporte quelle information dans l'expérience? faut il faire 5, 10000 expériences. Les lois plus fines permettent de répondre au sujet de la vitesse de convergence, mais les expériences ne sont pas toutes "répétables", la notion de probabilité dans l'approche fréquentiste n'a de sens que pour les expériences qui peuvent se répéter. Ainsi, si l'on considére un événement d'occurence unique, on ne peut pas lui donner de probabilité. Ce probléme n'apparait pas dans la théorie de Kolmogorov et est remplacé par les problèmes de mesurabilité, c'est encore plus difficile de le concevoir.

Aujourd'hui plus que jamais, la théorie des probabilité est utilisée dans de nombreux domaines, en particulier pour modéliser des situations. Sans faire une énumération trop longue, nous pouvons citer la finance, et en particulier la gestion de portefeuille et le risk management; l'épidémiologie où l'on modélise différentes maladies à l'aide des modèles SIR par exemple, l'assurance etc.

Dés que le mathématicien entre dans la modélisation n'adopte t'il pas une approche fréquentiste de façon sous-jacente ? Je demande par là quelle interprétation est donnée aux probabilités déterminées par le modèle? Celle de fréquence ?

Quelques exemples:

Le risk manager évalue plusieurs mesures de risque pour les portefeuilles de gérant, citons par exemple la value-at-risk à 90% il s'agit d'estimer la perte qu'on est sur de dépasser à 90 %. Les méthodes d'estimation d'un tel quantile sont nombreuses, mais elles ne donnent pas les mêmes estimations! Elles sont toutes basées sur des calculs statistiques annualisés des performances précédentes. Comment le risk manager interpréte t'il la notion de probabilité ? Suppose t'il que l'événement posséde dés le départ une probabilité qu'il lui faut juste estimer ? Comment juger une estimation? Le back Testing est il suffisant ?

Ce métier n'est pas clair sur ces objectifs comme le souligne d'ailleurs Nassim Nicholas Taleb dans son livre le hasard sauvage.

Le Priceur d'option :
Usager du calcul stochastique, les modèles en jeu ne me choquent en aucun point, la théorie financière fait apparaître d'elle même les martingales avec la notion d'absence d'opportunité d'arbitrage... Les questions de l'aléatoire sont toujours là, mais il ne s'agit pas directement de mesures de risque.
La médecine:

L'épidémiologie présente plein de problème intéressants. On tombe sur des théorèmes stochastiques intéressants : Si R0 est inférieur ou égale à 1, il n'y a pas épidémie presque surement..., sinon il y a épidémie avec probabilité >0. (valant....) Comment est comprise cette probabilité ? dans le modèle si on considère n épidémies identiques (et indépendantes) on verra cette probabilité apparaitre en fréquence (loi de grands nombres), mais dans la réalité l'épidémie est unique, il n'y en a pas réellement d'identique. ?
Que veux dire ici le presque sur? Comment le conçoit on dans le domaine réel? Juge t'on que tous les événements négligeables sont invisibles dans le monde réel? Et que ce passe t'il quand nous changeons de probabilité, ou de tribu (ce qui arrive régulièrement en probabilité, sous telle probabilité, telle processus est une martingale...)?

L'assureur, pour rédiger un contrat demande plusieurs informations, âge, expérience, homme, femme, profession, ... Il forme ainsi des catégories et calcule le risque d'accident de la catégorie à laquelle vous appartenez. Essaye t'il d'estimer ainsi votre risque individuel ? A t'il seulement un sens ? N'y a t'il pas discrimination à identifier quelqu'un à la catégorie donnée?


Beaucoup de textes existent au sujet de l'interprétation des probabilités, mais il s'agit pour la plupart de textes antérieurs à la théorie moderne, et ancrés dans un contexte historique trés riches. Il faut pour lire le traité de Keynes, ou de Laplace comprendre le contexte historique, et ce n'est pas une mince affaire.

Le métier de Risk Manager quantitatif m'attire dans le sens où, il est à la frontière des mathématiques (analyse fonctionnelle, probabilités ...) et de l'expérience réelle.

Désolé de trop écrire....
Merci pour vos réactions...