Introduction aux lois de probabilité et moments
Ah ! Que seraient les statistiques sans les lois de probabilité ? Un squelette duquel on aurait retiré les os ? Il est bien dommage que, telles qu’elles sont introduites dans les programmes de lycée, elles ne présentent pas un intérêt qui incite à s’aventurer dans les études de statistiques. D’ailleurs, que vient faire l’aléatoire dans un programme de mathématiques où tout est déterminisme ?
Si vous ignorez tout du sujet, rendez-vous en page initiation aux probabilités (niveau classe de seconde) et en page d'exercices d'initiation. Sinon, je vous rappelle qu'une loi de probabilité formalise une distribution de probabilités associées à une variable aléatoire (v.a.) X, discrète ou continue, dans un espace probabilisé. Il convient donc d'abord de déterminer les valeurs xi pouvant être prises par X puis leur affecter des probabilités pi = P(X = xi).
La loi la plus simple est la loi uniforme Elle est soit discrète soit continue. Tous les événements sont équiprobables. Ainsi, pour un tirage à pile ou face, il y a 50 % de chances de tomber sur pile. Cette loi n’est pas additive et si l'on lance deux fois la pièce (tirages indépendants), la nouvelle loi de probabilité montre une distributiontriangulaire :
Il existe une infinité de lois discrètes. Soit elles modélisent des jeux de hasard et sont établies mathématiquement, soit elles reposent sur des observations (les annales du bac regorgent de ces lois empiriques). Souvent, on CROISE des issues élémentaires et l'on représente les différents événements par un arbre ou par un tableau, du moins lorsque le nombre de valeurs pouvant être prises par la v.a. n'est pas trop élevé.
Mais la plupart du temps on rattache une distribution observée sur un échantillon (appelée distribution d'échantillonnage) à une distribution THÉORIQUE supposée proche de celle de la population. Ce modèle permet alors de nombreuses possibilités statistiques (estimation d’intervalles de confiance, traitements divers utilisant les paramètres de ces lois, etc.). On s’assure de la bonne adéquation entre l'échantillon et la loi théorique par des tests non paramétriques.
Quelques lois discrètes
Les événements sont dénombrables et on représente leurs probabilités par des graphiques en bâtons (voir exemples en pages loi binomiale ou loi de Poisson). Les fonctions de répartition, qui représentent les cumuls de ces probabilités, sont donc des fonctions positives en escaliers et « plafonnent » à F(x) = 1.
La loi de Bernoulli : elle sert à modéliser la situation d’une simple alternative (oui / non, actif / inactif…).
La loi binomiale : elle modélise une suite de lois de Bernoulli, c’est-à-dire d’alternatives binaires dont la probabilité p reste constante au fil des épreuves.
La loi hypergéométrique : contrairement à la précédente, un « individu » ne peut être observé deux fois. La probabilité n’est donc pas constante au fur et à mesure des réalisations d'épreuves.
La loi de Poisson : c’est celle des événements rares. Et plus ceux-ci deviennent fréquents, plus la loi de Poisson ressemble à une loi normale.
Lois continues
Bien que dans le domaine économique les observations soient toujours discrètes, et donc représentables par des diagrammes en bâtons, il est fréquent de « lisser » ceux-ci, surtout s’ils sont nombreux, en les résumant par une fonction continue dès lors que la v.a observée est continue. Par exemple, l’âge en est une, mais mesurée de façon discrète puis agrégée en tranches d’âges, avant que sa répartition dans la population fasse l’objet d’une approximation par une loi continue par un juste retour des choses…
L’équivalent du diagramme en bâton est ici une densité de probabilités. Ce site en regorge (voir les pages correspondant aux lois listées ci-dessous). Dans la mesure où l’on observe une répartition de probabilités, l’intégrale d’une fonction de densité (expression de la fonction de répartition) est égale à 1.
La fonction de densité est donc la dérivée d’une fonction de répartition qui admet unelimite en 1 lorsque x tend vers l’infini et qui représente le cumul des probabilités.
La loi normale (de Gauss) : c’est la loi de probabilité la plus célèbre. Elle peut être purement descriptive, résumant au mieux la distribution d’une population à l’aide de deux paramètres (moyenne et écart-type) ou être utilisée en statistique inférentielle en se fondant sur le théorème central-limite. On emploie alors une version centrée et réduite, c’est-à-dire d’espérance nulle et d’écart-type égal à 1.
La loi log-normale : c’est le logarithme népérien de la v.a. qui suit une loi normale.
La loi du khi² : c’est la loi que suit la somme des carrés de v.a indépendantes qui suivent chacune une loi normale centrée réduite. Elle ne sert pas à décrire directement une population ou des probabilités d’apparition de phénomènes mais elle est utilisée dans le cadre de plusieurs tests.
La loi de Fisher : elle est issue de la précédente dans la mesure où c’est la loi que suit le quotient de deux v.a indépendantes distribuées selon la loi du χ² et divisées par leur nombre de degrés de liberté. Cette loi est utilisée en statistique inférentielle.
La loi de Student : encore une loi réservée à la statistique inférentielle. Un type particulier (à 1 degré de liberté) est la loi de Cauchy, véritable trou noir des lois de probabilité puisqu'elle ne possède ni espérance ni variance.
La loi de Weibull : cette loi modélise quant à elle des événements réels, en l'occurrence des durées de vie d'appareils. En général, ceux-ci s'usent mais cette loi permet aussi d'envisager une bonification ou une absence d'usure. Dans ce cas particulier d'un composant ne vieillissant pas et qui lâche sans crier gare, on utilise une forme particulière de la loi de Weibull, la loi exponentielle, qui intervient également dans les processus de Poisson.
La loi gamma : elle intervient aussi dans les processus poissonniens et dans le domaine de la fiabilité. Mais cette fois-ci, on admet l'usure avant la panne...
La loi bêta : elle est par exemple employée pour définir un intervalle de confiance lorsque des tirages ont déjà été effectués dans le cadre d'une problématique modélisée par une loi binomiale. La loi de l'arc-sinus en est une forme particulière.
La loi de Gumbel permet de modéliser la distribution de valeurs extrêmes.
Les moments
Ils caractérisent une loi de façon synthétique.
Rappelons le concept d’ESPÉRANCE : c’est une moyenne pondérée par des probabilités.
Un moment d’ordre n est l’espérance d’une v.a à la puissance n. C’est pourquoi on appelle parfois l’espérance moment d’ordre 1.
Un moment CENTRÉ d’ordre n est l’espérance de l’écart entre les valeurs prises par la v.a et leur espérance, à la puissance n. La variance est donc le moment centré d’ordre 2.
Lorsqu’on évoque les deux premiers moments d’une distribution, il s’agit donc de l’espérance et de la variance.
Le moment centré d’ordre 3 permet le calcul du coefficient d’asymétrie (skewness) et celui d’ordre 4 permet le calcul du coefficient d’aplatissement (kurtosis). Il s'agit de moments centrés et réduits.
En économie, finance et gestion, on ne s’intéresse pas aux moments d’ordre plus élevé.
ليست هناك تعليقات:
إرسال تعليق