الأحد، 16 ديسمبر 2012

Exercices corrigés de probabilités et statistique


Exercices corrigés de probabilités et statistique



Université Paris 1 Panthéon-Sorbonne
Cours de deuxième année de licence de sciences économiques
Fabrice Rossi



Table des matières
Table des matières iii
1 Dénombrement et équiprobabilité 1
2 Conditionnement et indépendance 9
3 Variables aléatoires discrètes 17
4 Lois discrètes classiques 21
5 Lois continues classiques 27
6 Variable fonction d’une autre variable 33
7 Couples de variables aléatoires 39
Évolutions de ce document 47





http://apiacoa.org/publications/teaching/statistics/exercices.pdf

Introduction aux lois de probabilité et moments


Introduction aux lois de probabilité et moments

Ah ! Que seraient les statistiques sans les lois de probabilité ? Un squelette duquel on aurait retiré les os ? Il est bien dommage que, telles qu’elles sont introduites dans les programmes de lycée, elles ne présentent pas un intérêt qui incite à s’aventurer dans les études de statistiques. D’ailleurs, que vient faire l’aléatoire dans un programme de mathématiques où tout est déterminisme ?
Si vous ignorez tout du sujet, rendez-vous en page initiation aux probabilités (niveau classe de seconde) et en page d'exercices d'initiation. Sinon, je vous rappelle qu'une loi de probabilité formalise une distribution de probabilités associées à une variable aléatoire (v.a.) X, discrète ou continue, dans un espace probabilisé. Il convient donc d'abord de déterminer les valeurs xi pouvant être prises par X puis leur affecter des probabilités pi = P(X = xi).
La loi la plus simple est la loi uniforme Elle est soit discrète soit continue. Tous les événements sont équiprobables. Ainsi, pour un tirage à pile ou face, il y a 50 % de chances de tomber sur pile. Cette loi n’est pas additive et si l'on lance deux fois la pièce (tirages indépendants), la nouvelle loi de probabilité montre une distributiontriangulaire :
pile ou face
Il existe une infinité de lois discrètes. Soit elles modélisent des jeux de hasard et sont établies mathématiquement, soit elles reposent sur des observations (les annales du bac regorgent de ces lois empiriques).  Souvent, on CROISE des issues élémentaires et l'on représente les différents événements par un arbre ou par un tableau, du moins lorsque le nombre de valeurs pouvant être prises par la v.a. n'est pas trop élevé.
Mais la plupart du temps on rattache une distribution observée sur un échantillon (appelée distribution d'échantillonnage) à une distribution THÉORIQUE supposée proche de celle de la population. Ce modèle permet alors de nombreuses possibilités statistiques (estimation d’intervalles de confiance, traitements divers utilisant les paramètres de ces lois, etc.). On s’assure de la bonne adéquation entre l'échantillon et la loi théorique par des tests non paramétriques.
Quelques lois discrètes
Les événements sont dénombrables et on représente leurs probabilités par des graphiques en bâtons (voir exemples en pages loi binomiale ou loi de Poisson). Les fonctions de répartition, qui représentent les cumuls de ces probabilités, sont donc des fonctions positives en escaliers et « plafonnent » à F(x) = 1.
La loi de Bernoulli : elle sert à modéliser la situation d’une simple alternative (oui / non, actif / inactif…).
La loi binomiale : elle modélise une suite de lois de Bernoulli, c’est-à-dire d’alternatives binaires dont la probabilité p reste constante au fil des épreuves.
La loi hypergéométrique : contrairement à la précédente, un « individu » ne peut être observé deux fois. La probabilité n’est donc pas constante au fur et à mesure des réalisations d'épreuves.
La loi de Poisson : c’est celle des événements rares. Et plus ceux-ci deviennent fréquents, plus la loi de Poisson ressemble à une loi normale.
Lois continues
Bien que dans le domaine économique les observations soient toujours discrètes, et donc représentables par des diagrammes en bâtons, il est fréquent de « lisser » ceux-ci, surtout s’ils sont nombreux, en les résumant par une fonction continue dès lors que la v.a observée est continue. Par exemple, l’âge en est une, mais mesurée de façon discrète puis agrégée en tranches d’âges, avant que sa répartition dans la population fasse l’objet d’une approximation par une loi continue par un juste retour des choses…
L’équivalent du diagramme en bâton est ici une densité de probabilités. Ce site en regorge (voir les pages correspondant aux lois listées ci-dessous). Dans la mesure où l’on observe une répartition de probabilités, l’intégrale d’une fonction de densité (expression de la fonction de répartition) est égale à 1.
La fonction de densité est donc la dérivée d’une fonction de répartition qui admet unelimite en 1 lorsque x tend vers l’infini et qui représente le cumul des probabilités.
La loi normale (de Gauss) : c’est la loi de probabilité la plus célèbre. Elle peut être purement descriptive, résumant au mieux la distribution d’une population à l’aide de deux paramètres (moyenne et écart-type) ou être utilisée en statistique inférentielle en se fondant sur le théorème central-limite. On emploie alors une version centrée et réduite, c’est-à-dire d’espérance nulle et d’écart-type égal à 1.
La loi log-normale : c’est le logarithme népérien de la v.a. qui suit une loi normale.
La loi du khi² : c’est la loi que suit la somme des carrés de v.a indépendantes qui suivent chacune une loi normale centrée réduite. Elle ne sert pas à décrire directement une population ou des probabilités d’apparition de phénomènes mais elle est utilisée dans le cadre de plusieurs tests.
La loi de Fisher : elle est issue de la précédente dans la mesure où c’est la loi que suit le quotient de deux v.a indépendantes distribuées selon la loi du χ² et divisées par leur nombre de degrés de liberté. Cette loi est utilisée en statistique inférentielle.
La loi de Student : encore une loi réservée à la statistique inférentielle. Un type particulier (à 1 degré de liberté) est la loi de Cauchy, véritable trou noir des lois de probabilité puisqu'elle ne possède ni espérance ni variance.
La loi de Weibull : cette loi modélise quant à elle des événements réels, en l'occurrence des durées de vie d'appareils. En général, ceux-ci s'usent mais cette loi permet aussi d'envisager une bonification ou une absence d'usure. Dans ce cas particulier d'un composant ne vieillissant pas et qui lâche sans crier gare, on utilise une forme particulière de la loi de Weibull, la loi exponentielle, qui intervient également dans les processus de Poisson.
La loi gamma : elle intervient aussi dans les processus poissonniens et dans le domaine de la fiabilité. Mais cette fois-ci, on admet l'usure avant la panne...
La loi bêta : elle est par exemple employée pour définir un intervalle de confiance lorsque des tirages ont déjà été effectués dans le cadre d'une problématique modélisée par une loi binomiale. La loi de l'arc-sinus en est une forme particulière.
La loi de Gumbel permet de modéliser la distribution de valeurs extrêmes.
Les moments
Ils caractérisent une loi de façon synthétique.
Rappelons le concept d’ESPÉRANCE : c’est une moyenne pondérée par des probabilités.
Un moment d’ordre n est l’espérance d’une v.a à la puissance n. C’est pourquoi on appelle parfois l’espérance moment d’ordre 1.
Un moment CENTRÉ d’ordre n est l’espérance de l’écart entre les valeurs prises par la v.a  et leur espérance, à la puissance n. La variance est donc le moment centré d’ordre 2.
Lorsqu’on évoque les deux premiers moments d’une distribution, il s’agit donc de l’espérance et de la variance.
Le moment centré d’ordre 3 permet le calcul du coefficient d’asymétrie (skewness) et celui d’ordre 4 permet le calcul du coefficient d’aplatissement (kurtosis). Il s'agit de moments centrés et réduits.
En économie, finance et gestion, on ne s’intéresse pas aux moments d’ordre plus élevé.

Généralités sur la loi de Poisson


Généralités sur la loi de Poisson

Discrète mais bien connue, la loi de Poisson est une loi de probabilité qui s’applique aux événements rares : contrôles qualité (y compris révision comptable), probabilités de défaut de crédit, accidents...
La distribution de Poisson est construite avec un seul paramètre, lambda (λ), qui est à la fois la moyenne et la variance. On peut présenter cette distribution comme étant une approximation d’une loi binomiale lorsque l’effectif n tend vers l’infini (en pratique, plusieurs dizaines) et la probabilité d'occurrence p tend vers zéro (en pratique, < 0,1). Le produit np tend alors vers λ. Le kurtosis est égal à 1 / λ.
La variable aléatoire X prend des valeurs positives entières (par exemple des unités de temps 1, 2, 3…).
Loi de Poisson
Comme on peut le voir sur les exemples ci-dessous, cette loi est asymétrique mais le devient de moins en moins au fur et à mesure que λ augmente (Cf. graphiques ci-dessous réalisés sur Gretl).
Pour λ = 0,8 :
distribution de Poisson lambda = 0,8
Pour λ = 2 :
distribution de Poisson lambda = 2
Pour λ = 8 :
distribution de Poisson lambda = 8
Voir aussi la page traitant du théorème de la limite centrée. Les valeurs sont généralement tabulées jusqu’à λ = 18. Au-delà, on se simplifie la vie en utilisant la loi normale.
Précisons que la somme de deux variables de Poisson indépendantes est égale à une variable de Poisson (et réciproquement, une variable peut être décomposée en plusieurs variables indépendantes).
Enfin, la loi de Poisson est utilisée dans le cadre des processus de Poisson.
Exemple 1
2 % des dossiers de crédit arrivent au service contentieux un an après leur signature. Soit un lot de 100 dossiers. Quelle est la probabilité qu’aucun dossier ne devienne contentieux à un an (c’est-à-dire = 0) ?
On a = 0,02, = 100 et np = 2. Les conditions de convergence de la loi binomiale vers la loi de Poisson sont réunies. On avait d’ailleurs facilement deviné que λ était égal à 2…
Première façon de calculer, avec la formule :
exemple formule de Poisson
Deuxième façon, avec la table dont voici un extrait :
Extrait table de Poisson
Troisième façon, un peu plus moderne, avec Excel. On tape dans une cellule =LOI.POISSON(0 ;2 ;FAUX). Le premier argument est x, le deuxième est λ et le troisième signifie qu’on ne souhaite pas de cumul.
Exemple 2
Une société constate en moyenne trois accidents du travail par an. L’effectif total est relativement élevé, aussi considère-t-on que le nombre d’accidents suit une loi de Poisson. Quelle est la probabilité que plus de quatre accidents surviennent dans l’année ?
On sait que λ = 3. On peut s’amuser à additionner les nombres relevés sur la table ci-dessus à partir de = 5. On trouve 0,1847.
Ce résultat est aussi obtenu en se fatiguant moins : si l’on utilise la fonction statistique d’Excel, on s’intéresse cette fois-ci à un cumul. LOI.POISSON(4;3;VRAI) donne 0,8153. Comme on cherche les valeurs au-delà de 4, notre probabilité est de 1  0,8153 = 0,1847.
D'autres exemples figurent en pages loi binomiale et absentéisme. Voir aussi la pagegestion des stocks et loi de Poisson.

Lois de Bernoulli et binomiale



 SOURCE: http://www.jybaudot.fr/Probas/binomiale.html Lois de Bernoulli et binomiale

Bienheureuse loi binomiale, qui montre tout l'intérêt de l'analyse combinatoire dans le cadre d'une loi de probabilité… Pour l’introduire, il est habituel d’évoquer préalablement la loi de Bernoulli. C'est d'ailleurs ainsi que la loi binomiale est abordée en classe de première. Si précisément vous êtes lycéen(ne), quelques passages de cette page risquent d'être franchement hors programme mais dans l'ensemble vous devriez y trouver de quoi balayer vos incertitudes, surtout si vous en complétez la lecture par celle de la page loi binomiale à la calculatrice...
La loi de Bernoulli
Il s’agit d’une loi discrète fort simple. Une variable aléatoire (v.a.) ne peut prendre que deux valeurs, 0 (échec) et 1 (succès). Au départ, il s'agit d'un choix arbitraire. Il faut juste définir ce qui sera considéré comme succès. Au sens probabiliste, le succès est une réponse positive à une question qui n'implique aucun jugement de valeur. Si l'on cherche des appareils en panne, alors le fait de trouver un appareil qui fonctionne est assimilé à un échec...
Cette v.a. binaire est parfois nommée variable de Bernoulli. À titre d'exemple, la réponse oui / non à une enquête est une variable de Bernoulli.
Par convention, on note p la probabilité que cette variable prenne la valeur 1 (donc, succès). C'est l’espérance mathématique de la loi. On peut écrire P(X = 1) = p. Évidemment, la probabilité d’obtenir 0 est 1 – p. Si par exemple on cherche l'espérance d'obtenir un six sur le lancer d'un dé, alors p = 1 / 6 (une chance sur six). La probabilité de rater le six est 5 / 6.
Et croyez-moi ou non, la variance est égale à p(1 – p).
La loi binomiale
Supposons que l’on réitère n fois la même épreuve de Bernoulli de façon indépendante, donc avec chaque fois cette même probabilité de succès p, alors nous sommes en présence d’une loi binomiale. S'il n'y a pas indépendance, c'est en revanche et sous certaines conditions la loi hypergéométrique qui est employée.
Ces deux paramètres n et p suffisent pour caractériser une loi de probabilité binomiale. Pour exprimer le fait que la v.a. X suive une loi binomiale de paramètres n et p, on écrit :
notation
La formule déterminant la probabilité que la v.a. prenne la valeur k est la suivante :
loi binomiale
Espérance et variance sont les mêmes que pour la loi de Bernoulli, mais multipliées parn. Si vous cherchez le mode, c'est la valeur entière comprise entre np – (1 – p) et np + p. Le skewness est égal à 0 (voir aussi la page kurtosis).
Je ne prendrai pas pour exemple des tirages de boules dans une urne. Question de principe. Nous ne sommes pas dans un désert de créativité ici…
Donc, autre exemple. Une machine-outil produit 1,2 % de pièces défectueuses. On contrôle quarante pièces prises au hasard (sachant qu'après inspection une pièce est remise avec les autres et peut éventuellement être revérifiée). Quelle est la probabilité de contrôler deux pièces défectueuses ? On a = 40, p = 0,012 et k = 2.
exemple
Un arbre de probabilité permettrait de retrouver ce résultat mais, avec 40 tirages, il serait particulièrement énorme et son bénéfice pédagogique assez maigre... On s'en passera.
Soit dit en passant, la valeur de la combinaison (premier terme de la multiplication ci-dessus, parfois nommé coefficient binomial) peut être retrouvée par le triangle de Pascalpuisque cette loi n'est ni plus ni moins qu'une application du binôme de Newton, comme son nom l'indique. La combinaison permet de déterminer le nombre de branches de l'arbre pondéré qui satisfont à la condition X = k.
Sur un lot contrôlé, nul besoin d'être agrégé de maths pour deviner l'espérance du nombre de pièces défectueuses, soit 40 × 0,012 = 0,48 pièce.
Bref, si n est grand, c'est-à-dire au moins une trentaine d'observations, et si p n'est pas trop proche de 0 ou de 1, la loi binomiale converge vers une loi normale d'espérance np.Son écart-type est la racine carrée de npq. C'est une application du théorème de limite centrée. Une illustration se trouve en page seuil de rentabilité probabilisé.
L'approximation est réalisable par une loi de Poisson si p est petit (np devient alors le paramètre lambda de cette loi). C’est manifestement le cas de l’exemple ci-dessus. Reprenons la formule de la loi de Poisson, où np = 0,48 :
loi de Poisson
Au niveau de précision choisi, les résultats sont donc identiques.
Ajoutons que si l'exemple choisit consistait à trouver un nombre précis de pièces, il est fréquent qu'une recherche porte sur un INTERVALLE (par exemple, AU MOINS deux pièces défectueuses). On peut alors additionner les probabilités mais c'est juste une technique que des enseignants retors réservent à leurs étudiants. On peut aussi utiliser une table de probabilités cumulées mais on ne la trouve pas partout. Il est possible d'obtenir une réponse avec une calculatrice mais la solution la plus simple est de disposer d'un tableur.
La probabilité de 0,071 ci-dessus est obtenue immédiatement avec Excel ou le classeur d'OpenOffice : =LOI.BINOMIALE(2;40;0,012;0). Pour un exemple avec Excel et des probabilités cumulées, voir en bas de la page test des signes.
Un tableur est l'outil idéal pour créer en quelques clics une table de loi binomiale ou un graphique représentatif. À titre d'exemple, le graphique en bâton ci-dessous montre les probabilité pour chaque X = k de la loi binomiale (100 ; 0,5). Accessoirement, ce type de graphique permet de visualiser divers intervalles de confiance...
loi binomiale (100 ; 0,5)