MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori

Σχετικά έγγραφα
1 Maximum a posteriori. 2 Estimation de densité. 3 lancers = observations : {Pile,Pile,Pile} = résultat à l encontre du bon sens

COURBES EN POLAIRE. I - Définition

La Déduction naturelle

Logique Propositionnelle. Cédric Lhoussaine. Janvier 2012

Θέμα εργασίας: Η διάκριση των εξουσιών

ΚΕ-ΓΛΩ-21 Αξιολόγηση δεξιοτήτων επικοινωνίας στις ξένες γλώσσες. KE-GLO-21 Évaluation des compétences de communication en langue étrangère

X x C(t) description lagrangienne ( X , t t t X x description eulérienne X x 1 1 v x t

ΤΕΧΝΙΤΗΣ ΠΕΤΡΑΣ. Ήπειρος (Ελλάδα)

TD 1 Transformation de Laplace

Plasticité/viscoplasticité 3D

Τεχνικές του δράματος και Διδακτική των ζωντανών γλωσσών. Η συμβολή τους στη διαμόρφωση διαπολιτισμικής συνείδησης

Corrigé exercices série #1 sur la théorie des Portefeuilles, le CAPM et l APT

Βασιλική Σαμπάνη Μαντάμ Μποβαρύ: Αναπαραστάσεις φύλου και σεξουαλικότητας

[ ] ( ) ( ) ( ) Problème 1

Η ΕΝΕΡΓΕΙΑΚΗ ΣΗΜΑΝΣΗ ΚΑΙ ERP

Επιτραπέζιος Η/Υ K30AM / K30AM-J Εγχειρίδιο χρήστη

Réseau de diffraction

Επιτραπέζιος Η/Υ ASUS M12AD and M52AD Εγχειρίδιο χρήστη

ΕΞΕΤΑΣΤΕΑ ΥΛΗ ΣΤΑ ΓΑΛΛΙΚΑ

Planches pour la correction PI

Υ-ΓΛΩ 12 Φωνητική-Φωνολογία με εφαρμογές στη Γαλλική γλώσσα. Y-GLO-12 Phonétique-Phonologie Applications à la langue française

ΒΙΟΓΡΑΦΙΚΟ ΣΗΜΕΙΩΜΑ. Διεύθυνση εργασίας: Πανεπιστήμιο Κρήτης Τηλ. εργ.: Ηράκλειο - Κρήτης Fax.:

Business Order. Order - Placing. Order - Confirming. Formal, tentative

Immigration Documents

ΔΙΔΑΚΤΙΚΗ ΤΩΝ ΞΕΝΩΝ ΓΛΩΣΣΩΝ

Photoionization / Mass Spectrometry Detection for Kinetic Studies of Neutral Neutral Reactions at low Temperature: Development of a new apparatus

ΥΠΟΥΡΓΕΙΟ ΠΑΙΔΕΙΑΣ, ΔΙΑ ΒΙΟΥ ΜΑΘΗΣΗΣ ΚΑΙ ΘΡΗΣΚΕΥΜΑΤΩΝ. (Σχολείο).

Session novembre 2009

Lycée Palissy Agen France Istituto Statale di Istruzione Superiore "Malignani Cervignano Italie

Très formel, le destinataire a un titre particulier qui doit être utilisé à la place de son nom

A8-0176/54. Κείµενο που προτείνει η Επιτροπή. επίπεδα.

Introduction à l analyse numérique

Zakelijke correspondentie Bestelling


ΔΙΔΑΚΤΙΚΗ ΤΩΝ ΞΕΝΩΝ ΓΛΩΣΣΩΝ

Φλώρα Στάμου, Τριαντάφυλλος Τρανός, Σωφρόνης Χατζησαββίδης

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Transformations d Arbres XML avec des Modèles Probabilistes pour l Annotation

Radio détection des rayons cosmiques d ultra-haute énergie : mise en oeuvre et analyse des données d un réseau de stations autonomes.

Θεσµοί και Ιδεολογία στη νεοελληνική κοινωνία 15 ος - 19 ος αι.

Montage - Raccordement Implantation EURO-RELAIS MINI & BOX. Mini & Box

Mécanique Analytique et CFAO. Travaux pratiques de mécanique analytique. Simulation en temps réel du mouvement d un pendule double

ΔΙΔΑΚΤΙΚΗ ΤΩΝ ΞΕΝΩΝ ΓΛΩΣΣΩΝ

TABLE DES MATIÈRES. 1. Formules d addition Formules du double d un angle Formules de Simpson... 7

Votre système de traite vous parle, écoutez-le!

ΥΠΟΥΡΓΕΙΟ ΠΑΙΔΕΙΑΣ, ΔΙΑ ΒΙΟΥ ΜΑΘΗΣΗΣ ΚΑΙ ΘΡΗΣΚΕΥΜΑΤΩΝ. (Σχολείο).

Module #8b Transformation des contraintes et des déformations 2D-3D : Cercle de Mohr

M14/1/AYMGR/HP1/GRE/TZ0/XX

ΠΕΡΙΕΧΟΜΕΝΑ ΜΕΡΟΣ ΠΡΩΤΟ ΜΙΑ ΕΥΡΕΙΑ ΠΡΟΣΕΓΓΙΣΗ ΤΗΣ ΚΑΤΟΧΥΡΩΣΗΣ ΤΩΝ ΠΟΛΙΤΙΚΩΝ ΔΙΚΑΙΩΜΑΤΩΝ ΤΙΤΛΟΣ ΠΡΩΤΟΣ ΦΟΡΕΙΣ ΤΩΝ ΠΟΛΙΤΙΚΩΝ ΔΙΚΑΙΩΜΑΤΩΝ

Personnel Lettre. Lettre - Adresse

ΤΟ ΜΑΡΙΑΝΟ ΕΚΠΑΙΔΕΥΤΙΚΟ ΥΦΟΣ

Vous pouvez me montrer où c'est sur le plan? Vous pouvez me montrer où c'est sur le plan? Παράκληση για ένδειξη συγκεκριμένης τοποθεσίας σε χάρτη

DOCUMENT DE RECHERCHE EPEE

NIVEAUX C1&C2 sur l échelle proposée par le Conseil de l Europe

Personnel Lettre. Lettre - Adresse. Κυρ. Ιωάννου Οδ. Δωριέων 34 Τ.Κ 8068, Λάρνακα

Corrigé de la seconde épreuve de l agrégation interne de mathématiques Février Transformée de Laplace et théorème d Ikehara

I Polynômes d Hermite

Υ-ΓΛΩ 12 Φωνητική-Φωνολογία με εφαρμογές στη Γαλλική γλώσσα. Y-GLO-12 Phonétique-Phonologie Applications à la langue française

ΑΝΑΚΟΙΝΩΣΗ ΠΡΟΣ ΤΑ ΜΕΛΗ

ΜΕΤΑΦΡΑΣΤΙΚΕΣ ΔΟΚΙΜΕΣ ΚΑΙ ΠΡΟΫΠΟΘΕΣΕΙΣ ΣΤΑ ΟΡΙΑ ΤΟΥ ΝΕΟΕΛΛΗΝΙΚΟΥ ΔΙΑΦΩΤΙΣΜΟΥ

Jeux d inondation dans les graphes

226HS75S 226HS99S. Εγχειρίδιο χειριστή. Ελληνικά ΠΡΟΗΙΔΟΠΟΙΗΣΗ

Mohamed-Salem Louly. To cite this version: HAL Id: tel

ΑΝΝΑ ΤΑΜΠΑΚΗ. Ιστορία και θεωρία της µετάφρασης 18 ος αιώνας Ο Διαφωτισµός

Plutarque : Vie de Solon, 19 Le constituant (594)

Θα ήθελα να κλείσω τον τραπεζικό μου λογαριασμό.

Spectres de diffusion Raman induits par les intéractions pour les bandes v2 et v3 de la molécule CO2 en gaz pur et en mélange avec de l argon

Mission d entreprises Françaises sur le salon ENERGY PHOTOVOLTAIC 2010

STE 127 Assistance administrative mutuelle en matière fiscale (Annexe A), état au 28.VIII Impôt sur le chiffre d affaires des micro

Pourriez-vous confirmer Μπορείτε la date παρακαλώ d'expédition να επιβε et le prix par fax? αποστολής και την τιμή με Votre commande sera que possible

Plan. Analyse tensorielle. Principe méthodologique. Tenseurs. Scalaires constante numérique, 0, dτ, champ scalaire. Vecteurs contravariants

Εγχειρίδιο: Γκούσιος Χ., Βλάχου Μ., Le français sur objectifs spécifiques: Les voyages d un diplomate

Les Mondes Fantastiques Melun Ville d Europe 2016

ΕΘΝΙΚΗ ΣΧΟΛΗ ΗΜΟΣΙΑΣ ΙΟΙΚΗΣΗΣ ΙE ΕΚΠΑΙ ΕΥΤΙΚΗ ΣΕΙΡΑ ΤΜΗΜΑ ΠΕΡΙΦΕΡΕΙΑΚΗΣ ΙΟΙΚΗΣΗΣ ΤΕΛΙΚΗ ΕΡΓΑΣΙΑ

Émergence des représentations perceptives de la parole : Des transformations verbales sensorielles à des éléments de modélisation computationnelle

Structures de régularité et mécanique statistique

Dramaturgie française contemporaine

Modélisation de la réaction d alkylation du motif zinc-thiolate

Σύντομη ιστορική αναδρομή στο εργατικό κίνημα του Κεμπέκ

Μεταπτυχιακές σπουδές στη Γαλλία

Η ΠΡΟΣΦΟΡΑ TOT Γ. ΔΡΟΣΙΝΗ ΣΤΗΝ ΑΝΑΝΕΩΣΗ TOT ΝΕΟΕΛΛΗΝΙΚΟΤ ΑΦΗΓΗΜΑΤΙΚΟΤ ΛΟΓΟΤ

Μετανάστευση Στέγαση. Στέγαση - Ενοικίαση. Θα ήθελα να ενοικιάσω ένα. Για να δηλώσετε ότι θέλετε να ενοικιάσετε κάτι.

INTRODUCTION A LA STATISTIQUE

Introduction à la théorie du contrôle

Πολλά έχουν γραφτεί και ειπωθεί σχετικά με. Développement de votre ouverture pour décrire précisément de quoi traite votre thèse

ΤΑ ΝΕΑ ΜΑΣ!!!! Ο Αγιασμός στην Αδαμάντιο Σχολή. Επίσκεψη των προνηπίων στο Κτήμα Γεροβασιλείου

QUALITES DE VOL DES AVIONS

Ηαχόρταγη μικρή κάμπια. La chenille qui fait des trous. Ηαχόρταγη μικρή κάμπια. La chenille qui fait des trous

Τίτλοι Σπουδών. Επιστηµονικές Εργασίες

Philologie et dialectologie grecques Philologie et dialectologie grecques Conférences de l année

ΕΦΑΡΜΟΓΗ APPLICAZIONE APPLICATION APPLICATION. Sublime Colours 2,5L (10-12m2/L) Esencia 25 ml 100 ml. Damasco 2,5L (6-8m2/L)

Πού μπορώ να βρω τη φόρμα για ; Où se trouve le formulaire pour? Για να ρωτήσετε που μπορείτε να βρείτε μια φόρμα


Leçon 3. L'article défini (singulier) L'article indéfini La déclinaison des substantifs (singulier)

2.3. Ο ΦΥΓΙΚΟΣ ΡΕΑΛΙΣΜΟΣ ΤΟΥ M. PROUST ΚΑΙ Η ΑΙΣΘΗΤΙΚΗ ΤΩΝ «ΑΝΑΜΕΤΡΗΣΕΩΝ»

ΓΑΛΛΙΚΗ ΟΡΟΛΟΓΙΑ Α ΣΑΞΗ ΚΟΜΜΩΣΙΚΗ ΕΠΑΝΑΛΗΠΣΙΚΕ ΑΚΗΕΙ

Monsieur Pierre Fabre Président Fondateur

Bayesian statistics. DS GA 1002 Probability and Statistics for Data Science.

Η ΖΩΓΡΑΦΙΚΗ ΤΗΣ ΡΟΥΛΗΣ ΜΠΟΥΑ ΧΑΡΑΚΤΗΡΙΖΕΤΑΙ ΑΠΟ ΜΙΑ ΠΡΟΣΠΑΘΕΙΑ ΑΠΟΔΟΣΗΣ Σ ΤΑ ΕΡΓΑ ΑΥΤΗΣ ΤΗΣ ΕΝΟΤΗΤΑΣ ΠΟΥ ΣΤΟ ΣΥΝΟΛΟ ΤΟΥΣ ΕΙΝΑΙ ΕΡΓΑ ΜΕΣΑΙΩΝ ΚΑΙ ΜΙΚΡΩΝ

Dramaturgie française contemporaine

Transcript:

MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori Christophe Gonzales LIP6 Université Paris 6, France

Plan du cours n 3 MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 2/50 1 Vraisemblance et prise de décision 2 Estimation par maximum de vraisemblance 3 Estimation par maximum a posteriori

Vraisemblance d un échantillon : loi discrète connue MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 3/50 Échantillon x = (x 1,..., x n ) de taille n Échantillon = les x i = réalisations de variables aléatoires X i Échantillon i.i.d. = les X i sont mutuellement indépendants n = P(X 1 = x 1,..., X n = x n ) = P(X i = x i ) l hypothèse i.i.d est essentielle! Vraisemblance d un échantillon dans le cas discret L(x) = Vraisemblance de l échantillon L(x) = proba d obtenir cet échantillon sachant la loi P n L(x) = P(x 1,..., x n ) = P(x i )

Vraisemblance d un échantillon : loi discrète connue pièce de monnaie : P(Pile) = 0, 75 et P(Face) = 0, 25 jet de la pièce = expérience de Bernoulli = hypothèse i.i.d. vérifiée échantillon 1 : P P F F P P F P P P 7 3 = L(x) = P(Pile) P(Face) = 0, 75 7 0, 25 3 0, 002086 échantillon 2 : F F P P F F P F F F 3 7 = L(x) = P(Pile) P(Face) = 0, 75 3 0, 25 7 0, 000026 MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 4/50

Prévention des risques d inondation (1/4) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 5/50 Plan de prévention des risques d inondations (PPR-I) : photos satellite SPOT5 = zones susceptibles d être inondées 3 catégories de parcelles : 1 inondables (PI) 2 partiellement inondables (PPI) 3 non inondables (NI)

Prévention des risques d inondation (2/4) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 6/50 images en teintes de gris proba d obtenir un niveau de gris n dépend du type de zone : P(n PI) = N (µ 1, σ 2 1 ) µ 1 = 100 σ 1 = 20 P(n PPI) = N (µ 2, σ 2 2 ) µ 2 = 85 σ 2 = 5 nouvelle image envoyée par SPOT5 : zone Z : niveau de gris = n = 80 Problème : zone Z = PI ou PPI?

Prévention des risques d inondation (3/4) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 7/50 2 hypothèses : Problème : zone Z = PI ou PPI? 1 θ 1 = Z est de type PI 2 θ 2 = Z est de type PPI Idée : calcul du max de vraisemblance d obtenir la zone Z sous θ 1 ou sous θ 2 L(x, θ 1 ) = p(80 PI), avec p fct de densité de P(n PI) = N (µ 1, σ 2 1 ) Rappel : la fonction de densité de N (µ, σ 2 ) est : { p(x) = 1 exp 1 ( ) } x µ 2 2π.σ 2 σ

Prévention des risques d inondation (4/4) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 8/50 Problème : zone Z = PI ou PPI? P(n PI) = N (µ 1, σ 2 1 ) = N (100, 202 ) L(x, θ 1 ) = p(80 PI) { 1 = exp 1 2π 20 2 = 1 20 exp { 1 } 2π 2 0, 0121 ( 80 100 ) 2 } 20 P(n PPI) = N (µ 2, σ 2 2 ) = N (85, 52 ) L(x, θ 2 ) = p(80 PPI) = 1 2π 5 exp { 1 2 ( 80 85 ) 2 } 5 0, 0484 Max de vraisemblance = PPI plus probable

Apprentissage par vraisemblance : le cas discret MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 9/50 Paramètre à estimer : Θ Exemple 1 : X {pile,face} pile face P(X) = θ 1 θ 2 = Θ = {θ 1, θ 2 } Exemple 2 : recommandations : r A {1, 2, 3}, r B {a, b} a b 1 θ 1 θ 2 P(r A, r B ) = 2 θ 3 θ 4 = Θ = {θ 1,..., θ 6 } 3 θ 5 θ 6

Apprentissage par vraisemblance : le cas discret MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 10/50 Paramètre à estimer : Θ Échantillon x = (x 1,..., x n ) de taille n Échantillon = les x i = réalisations de variables aléatoires X i Échantillon i.i.d. = les X i sont mutuellement indépendants n = P(X 1 = x 1,..., X n = x n Θ = θ) = P(X i = x i Θ = θ) Vraisemblance d un échantillon dans le cas discret L(x, θ) = Vraisemblance de l échantillon L(x, θ) = proba d obtenir cet échantillon sachant que Θ = θ n L(x, θ) = P(x 1,..., x n Θ = θ) = P(x i Θ = θ)

Vraisemblance d un échantillon : le cas continu MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 11/50 Paramètre à estimer : Θ Échantillon x = (x 1,..., x n ) de taille n Échantillon i.i.d. = les X i sont mutuellement indépendants p : fonction de densité n = p(x 1 = x 1,..., X n = x n Θ = θ) = p(x i = x i Θ = θ) Vraisemblance d un échantillon dans le cas continu L(x, θ) = Vraisemblance de l échantillon n L(x, θ) = p(x 1,..., x n Θ = θ) = p(x i Θ = θ)

Apprentissage de Θ par vraisemblance MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 12/50 pièce de monnaie : P(Pile) = θ 1 =??? et P(Face) = θ 2 =??? paramètre Θ = proba de Pile = θ 1 =??? échantillon : P P F F P P F P P P 7 3 = L(x, Θ) = P(Pile Θ) P(Face Θ) θ 1 = 0, 75 = L(x, θ 1 ) = 0, 75 7 0, 25 3 0, 002086 θ 2 = 0, 5 = L(x, θ 2 ) = 0, 5 7 0, 5 3 0, 000976 θ 3 = 0, 25 = L(x, θ 3 ) = 0, 25 7 0, 75 3 0, 000026 = θ 1 plus vraisemblable que θ 2 ou θ 3

Apprentissage de Θ par vraisemblance MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 13/50 L(x, θ) L(x, θ) = θ 7 (1 θ) 3 θ 0 0, 7 1 solution optimale : θ = 0, 7

Estimateur du maximum de vraisemblance MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 14/50 Estimateur du maximum de vraisemblance X : variable aléatoire sur la population X suit une loi de proba de paramètre Θ inconnu Θ : ensemble des valeurs possibles pour Θ x : échantillon i.i.d. T = f (X) = estimateur du maximum de vraisemblance défini par x t = f (x) = Argmax L(x, θ) θ Θ = t = valeur θ de Θ pour laquelle la proba d observer x était la plus grande

Calcul du maximum de vraisemblance Problème : comment calculer le maximum de vraisemblance? Argmax θ Θ L(x, θ) = Argmax θ Θ P(x 1,..., x n θ) = Argmax θ Θ Certaines conditions de concavité et de dérivabilité L(x, θ) = Argmax L(x, θ) obtenu lorsque = 0 θ Θ θ Argmax θ Θ L(x, θ) = Argmax ln L(x, θ) = Argmax θ Θ θ Θ n P(x i θ) n ln P(x i θ) Argmax ln L(x, θ) = log vraisemblance θ Θ = Argmax L(x, θ) obtenu lorsque θ Θ n ln P(x i θ) θ MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 15/50 = 0

Max de vraisemblance et loi binomiale pièce de monnaie X {0, 1}, 0 Face, 1 Pile X B(1, p) = P(X = x p) = p x (1 p) 1 x n lancers de la pièce = observations x = {x 1,..., x n } n n P(x p) = P(x i p) = p x i (1 p) 1 x i Problème : à partir de x, peut-on raisonnablement déduire p? maximum de vraisemblance : n ln P(x p) = [x i ln p + (1 x i ) ln(1 p)] ln P(x p) p n x i n n x i 1 p = 1 = 0 = p ML = 1 x i p n MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 16/50 n

Max de vraisemblance et loi normale (1/2) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 17/50 X N (µ, σ 2 ) ; on suppose σ = 1 paramètre Θ = espérance µ loi normale = vraisemblance : n n [ 1 L(x, θ) = p(x i θ) = exp { 12 }] (x i θ) 2 2π L(x, θ) ln L(x, θ) = 0 = 0 θ θ ln L(x, θ) = n 2 ln 2π 1 n (x i θ) 2 2 L(x, θ) θ = 0 n (x i θ) = 0 θ = 1 n n x i = x Estimateur du maximum de vraisemblance : X

Max de vraisemblance et loi normale (2/2) X N (µ, σ 2 ) paramètre Θ = (µ, σ 2 ) Log vraisemblance : ln L(x, θ) = n 2 ln 2π n 2 ln σ2 1 2σ 2 Maximum de vraisemblance = L(x, θ) µ n (x i µ) 2 = 0 et L(x, θ) = 1 n µ σ 2 (x i µ) = 0 = µ = 1 n L(x, θ) σ 2 = n 1 2 σ 2 + 1 n 2σ 4 (x i µ) 2 = 0 = σ 2 = 1 n L(x, θ) σ 2 = 0 n x i = x Estimateurs du maximum de vraisemblance : X et S 2 n n (x i x) 2 = sn 2 estimateur de la variance biaisé : variance non corrigée MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 18/50

Problème d ajustement (1/6) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 19/50 données estimation t = sin(2πx) x 11 Observations (x 1, t 1 ). (x 10, t 10 ) = courbe sin(2πx) = estimation de t 11 = reconnaissance de la courbe verte

Problème d ajustement (2/6) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 20/50 Idée : estimer la courbe verte par un polynôme : M y(x, w) = w 0 + w 1 x + w 2 x 2 + + w M x M = w j x j j=0

Problème d ajustement (3/6) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 21/50 Idée : les ordonnées des points bleus sont distribuées selon une loi normale autour de y(x, w) : = P(t x, w, σ 2 ) = N (t y(x, w), σ 2 ) Problème : comment trouver w et σ 2? = par maximum de vraisemblance

Problème d ajustement (4/6) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 22/50 P(t x, w, σ 2 ) = N (t y(x, w), σ 2 ) observations {(x i, t i ), i = 1,..., n} t = {t 1,..., t n } ; x = {x 1,..., x n } observations = échantillon i.i.d = P(t x, w, σ 2 ) = = n P(t i x i, w, σ 2 ) n N (t i y(x i, w), σ 2 ) Max de vraisemblance = calculer la log-vraisemblance : ln p(t x, w, σ 2 ) = 1 n 2σ 2 [y(x i, w) t i ] 2 + n 2 ln 1 σ 2 n 2 ln(2π)

Problème d ajustement (5/6) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 23/50 ln p(t x, w, σ 2 ) = 1 2σ 2 n [y(x i, w) t i ] 2 + n 2 ln 1 σ 2 n 2 ln(2π) Maximum de log-vraisemblance = trouver w ML et σ 2 ML qui maximisent ln p(t x, w, σ 2 ) maximiser par rapport à w ML minimiser n [y(x i, w) t i ] 2 = Moindres carrés

Problème d ajustement (6/6) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 24/50 ln p(t x, w, σ 2 ) = 1 2σ 2 n [y(x i, w) t i ] 2 + n 2 ln 1 σ 2 n 2 ln(2π) maximiser ln p(t x, w, σ 2 ) par rapport à σ 2 = ln p(t x, w, σ2 ) σ 2 = 0 ln p(t x, w, σ 2 ) σ 2 = 1 2σ 4 = σ 2 = 1 n n [y(x i, w) t i ] 2 n 2σ 4 σ2 = 0 n [y(x i, w) t i ] 2 σ 2 ML = 1 n n [y(x i, w ML ) t i ] 2

Retour sur la loi binomiale MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 25/50 p ML = 1 n n x i 3 lancers = observations : {Pile,Pile,Pile} Maximum de vraisemblance = p ML = 1 = on considère que tout lancer de la pièce devrait tomber sur Pile = résultat à l encontre du bon sens = autre estimateur : maximum a posteriori

Le modèle bayésien (1/4) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 26/50 Maximum a posteriori = modèle bayésien Modèle bayésien événements : parties de X Θ, où : X = l espace des observations (échantillons) x de taille n Θ = espace des paramètres θ famille des événements dotée d une loi de proba Π cas discret : Π déterminée par les probas des événements élémentaires π(x, θ) cas continu : Π déterminée par la densité jointe π(x, θ) Max de vraisemblance : π(x θ) au lieu de π(x, θ) = π(x θ)π(θ)

Le modèle bayésien (2/4) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 27/50 Le cas discret : π(x, θ) = Π(X = x, Θ = θ), où X, Θ variables aléatoires π(x) = Π(X = x) = Π(X = x, Θ = θ) = π(x, θ) θ Θ θ Θ π(θ) = Π(Θ = θ) = x X Π(X = x, Θ = θ) = x X π(x, θ) π(x θ) = Π(X = x Θ = θ) = π(θ x) = Π(Θ = θ X = x) = π(x, θ) π(θ) π(x, θ) π(x) Probabilités a priori et a posteriori π(θ) = probabilité a priori de θ π(θ x) = probabilité a posteriori de θ

Le modèle bayésien (3/4) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 28/50 Le cas continu : π(x) = Π(X = x) = π(θ) = Π(Θ = θ) = π(x θ) = π(θ x) = π(x, θ) π(θ) π(x, θ) π(x) x X θ Θ Π(X = x, Θ = θ)dθ = Π(X = x, Θ = θ)dx = x X θ Θ π(x, θ)dθ π(x, θ)dx

Le modèle bayésien (4/4) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 29/50 Probabilités a priori et a posteriori π(θ) = probabilité a priori de Θ = idée que l on se fait de Θ avant observation π(θ x) = probabilité a posteriori de Θ = idée que l on se fait de Θ après observation Formule de Bayes : π(θ x) = π(x θ)π(θ) π(x) cas discret : π(θ x) = π(x θ)π(θ) π(x θ)π(θ) = π(x, θ) θ Θ θ Θ π(x θ)π(θ) cas continu : π(θ x) = π(x θ)π(θ) π(x θ)π(θ) = θ Θ π(x, θ)dθ θ Θ π(x θ)π(θ)dθ Rappel : π(x θ) = vraisemblance de l échantillon = L(x, θ)

Maximum a posteriori MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 30/50 Maximum a posteriori (MAP) T estimateur du maximum a posteriori de Θ : défini par x t = Argmax π(θ x) θ Θ échantillon i.i.d de n observations X = (X 1,..., X n ) = x = (x 1,..., x n ) observation de X L(x, θ)π(θ) cas discret : π(θ x) = L(x, θ)π(θ) θ Θ L(x, θ)π(θ) cas continu : π(θ x) = θ Θ L(x, θ)π(θ)dθ n échantillon i.i.d = π(x θ) = L(x, θ) = P(x i θ) n p(x i θ) (discret) (continu)

MAP : retour sur la pièce de monnaie (1/6) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 31/50 pièce de monnaie = X {0, 1} 0 Face 1 Pile X B(1, θ) = P(X = x θ) = θ x (1 θ) 1 x échantillon x de 3 lancers = {Pile,Pile,Pile} Max de vraisemblance = θ ML = 1 = tous les lancers devraient tomber sur Pile Modèle bayésien : Θ = {θ 1 = 1, θ 2 = 2/3, θ 3 = 1/2, θ 4 = 1/3} Info a priori : π(θ 1 ) = 1 32, π(θ 2) = 1 4, π(θ 3) = 1 2, π(θ 4) = 7 32 Problème : quelle est la valeur du maximum a posteriori?

MAP : retour sur la pièce de monnaie (2/6) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 32/50 Modèle bayésien : Θ = {θ 1 = 1, θ 2 = 2/3, θ 3 = 1/2, θ 4 = 1/3} L(x, θ 1 ) = π(x θ 1 ) = L(x, θ 2 ) = π(x θ 2 ) = L(x, θ 3 ) = π(x θ 3 ) = L(x, θ 4 ) = π(x θ 4 ) = 3 P(x i θ 1 ) = 1 3 0 0 = 1 3 P(x i θ 2 ) = 2 3 3 P(x i θ 3 ) = 1 2 3 P(x i θ 4 ) = 1 3 3 3 3 ( 1 2 ) 0 = 2 3 0, 296 3 3 ( 1 1 ) 0 = 1 3 0, 125 2 2 ( 1 1 ) 0 = 1 3 0, 037 3 3

MAP : retour sur la pièce de monnaie (3/6) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 33/50 Info a priori : π(θ 1 ) = 1 32, π(θ 2) = 1 4, π(θ 3) = 1 2, π(θ 4) = 7 32 π(θ 1 x) = L(x, θ 1)π(θ 1 ) 1 1 = 0, 03125 L(x, θ)π(θ) 32 θ Θ π(θ 2 x) = L(x, θ 2)π(θ 2 ) θ Θ L(x, θ)π(θ) 2 3 1 0, 074 3 4 π(θ 3 x) = L(x, θ 3)π(θ 3 ) θ Θ L(x, θ)π(θ) 1 3 1 = 0, 0625 2 2 π(θ 4 x) = L(x, θ 4)π(θ 4 ) θ Θ L(x, θ)π(θ) 1 3 7 0, 008 3 32 Max a posteriori : Θ = θ 2 = X B(1, θ 2 ) = B(1, 2/3) probabilité que la pièce tombe sur Face 0

MAP : retour sur la pièce de monnaie (4/6) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 34/50 Modèle bayésien : Θ [0, 1] Info a priori : Θ loi normale tronquée (µ = 1/2, σ = 1/4) : ( ( ) ) 2 1 1 densité : π(θ) = 0,9544 exp 1 θ µ 2πσ 2 σ si θ [0, 1] 0 sinon π(θ) 1,6 1 0 1 θ

MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 35/50 MAP : retour sur la pièce de monnaie (5/6) π(θ x) = L(x, θ)π(θ) θ Θ L(x, θ )π(θ ) L(x, θ)π(θ) = θ3 π(θ) ( ( ) ) 2 θ 3 1 1 0,9544 exp 1 θ µ 2πσ 2 σ si θ [0, 1] 0 sinon π(θ) 0.5 0 1 θ solution optimale : θ = 0, 75

MAP : retour sur la pièce de monnaie (6/6) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 36/50 π(θ x) θ 3 1 1 0,9544 exp 2πσ = log π(θ x) = 3 log θ 1 2 = = log π(θ x) θ log π(θ x) θ = θ = 0, 75 = 3 θ θ µ σ 2 ( 1 2 ( ) ) 2 θ µ σ pour θ [0, 1] ( ) θ µ 2 + constante σ = 0 θ 2 µθ 3σ 2 = 0

MAP et les lois conjuguées MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 37/50 calcul de la distribution a posteriori : π(θ x) = π(x θ)π(θ) θ Θ π(x θ)π(θ)dθ = si π(x θ)π(θ) complexe analytiquement alors calcul de l intégrale compliqué Lois conjuguées π(θ) : loi a priori π(x θ) : fonction de vraisemblance π(θ x) : distribution a posteriori π(θ) et π(x θ) sont conjuguées si π(θ x) appartient à la même famille de lois que π(θ)

Lois conjuguées : exemple de la pièce de monnaie MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 38/50 pièce de monnaie = X {0, 1} : 0 X B(1, θ) = vraisemblance d un échantillon : π(x θ) = θ x (1 θ) n x, avec x = #(x i = 1) = loi binomiale Distribution de probabilité Beta Loi Beta : Beta(θ, a, b) = avec Γ(x) = Espérance = + 0 a a + b t x 1 e t dt Γ(a + b) Γ(a)Γ(b) θa 1 (1 θ) b 1 Variance = = loi Beta et loi binomiales conjuguées 1 ab (a + b) 2 (a + b + 1)

Lois conjuguées : loi binomiale et loi Beta MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 39/50 loi a priori : π(θ) = Beta(θ, a, b) = Γ(a + b) Γ(a)Γ(b) θa 1 (1 θ) b 1 fonction de vraisemblance : π(x θ) = θ x (1 θ) n x, avec x = #(x i = 1) loi a posteriori : π(θ x) = π(x θ)π(θ) π(x θ)π(θ) π(x θ)π(θ) θ Θ loi a posteriori : π(θ x) θ x+a 1 (1 θ) b+n x 1 = π(θ x) Beta(θ, x + a, b + n x)

Comparaison MAP maximum de vraisemblance MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 40/50 pièce de monnaie = X {0, 1} : 0 Max de vraisemblance : π(x θ) = θ x (1 θ) n x = Beta(θ, x + 1, n x + 1) Max a posteriori : 1 π(θ x) θ x+a 1 (1 θ) b+n x 1 = Beta(θ, x + a, n x + b) = Max de vraisemblance Max a posteriori avec a = 1 et b = 1 Or Beta(θ, 1, 1) = Γ(a+b) Γ(a)Γ(b) = constante Max de vraisemblance Max a posteriori avec a priori uniforme n + = max de vraisemblance max a posteriori = l a priori devient négligeable

La loi Beta MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 41/50

Loi normale et loi conjuguée fonction de vraisemblance = loi normale, σ 2 connue = loi a priori conjuguée : loi Γ La loi Γ X Γ(x, k, θ) fonction de densité de la loi Γ : Γ(k) = + 0 f (x, k, θ) = x k 1 e x/θ θ k Γ(k) t k 1 e t dt E(X) = kθ, V (X) = kθ 2 x, k, θ > 0 Lorsque k entier : Γ(x, k, θ) = loi de k variables indépendantes suivant une loi exponentielle d espérance θ Familles de lois conjuguées : http ://en.wikipedia.org/wiki/conjugate prior MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 42/50

Loi Gamma MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 43/50

Prévention des risques d inondation (1/3) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 44/50 Plan de prévention des risques d inondations (PPR-I) : photos satellite SPOT5 = zones susceptibles d être inondées 3 catégories de parcelles : 1 inondables (PI) 2 partiellement inondables (PPI) 3 non inondables (NI)

Prévention des risques d inondation (2/3) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 45/50 images en teintes de gris proba d obtenir un niveau de gris n dépend du type de zone : P(n PI) = N (100, 20 2 ) P(n PPI) = N (85, 5 2 ) nouvelle image envoyée par SPOT5 : zone Z : niveau de gris = n = 80 Connaissance a priori : 60% de PI, 10% de PPI, 30% de NI Problème : zone Z = PI ou PPI?

Prévention des risques d inondation (3/3) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 46/50 2 hypothèses : Problème : zone Z = PI ou PPI? 1 θ 1 = Z est de type PI 2 θ 2 = Z est de type PPI Idée : calcul du MAP d obtenir la zone Z sous θ 1 ou sous θ 2 π(θ 1 x) = L(x, θ 1)π(θ 1 ) θ Θ L(x, θ)π(θ) π(θ 2 x) = L(x, θ 2)π(θ 2 ) θ Θ L(x, θ)π(θ) Rappel cours 4 : L(x, θ 1 ) 0, 0121 L(x, θ 2 ) 0, 0484 a priori : π(θ 1 ) = 0, 6 π(θ 2 ) = 0, 1 π(θ 1 x) = 0, 0121 0, 6 θ Θ L(x, θ)π(θ) π(θ 2 x) = 0, 0484 0, 1 L(x, θ)π(θ) θ Θ MAP = parcelle inondable (PI)

Analyse d un trafic réseau (1/4) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 47/50 Réseau informatique : transfert de paquets Problème : analyse des paquets perdus sur un sous-réseau X : variable aléatoire nombre de paquets envoyés jusqu à bonne réception X loi géométrique : P(X = n) = (1 p) n 1 p p : probabilité qu un paquet soit correctement transmis

Analyse d un trafic réseau (2/4) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 48/50 observation de 7 réalisations de X : 2 3 8 3 4 7 8 Estimation de p? 1 estimation par max de vraisemblance 2 estimation par MAP

Analyse d un trafic réseau (3/4) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 49/50 1 estimation par max de vraisemblance 2 3 8 3 4 7 8 vraisemblance : L(x, θ) = 7 P(x i θ) θ = estimation de p observations = L(x, θ) = (1 θ) 28 θ 7 = ln L(x, θ) = 28 ln(1 θ) + 7 ln θ = ln L(x, θ) θ = 28 1 θ + 7 θ = 7 35θ p(1 θ) = maximum de vraisemblance = θ = 0, 2

Analyse d un trafic réseau (4/4) MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori 50/50 2 estimation par max de vraisemblance 2 3 8 3 4 7 8 A priori : π(θ) = Beta(θ, 2, 15) = Argmax θ π(θ x) = Argmax θ L(x, θ)π(θ) = θ MAP = 0, 16 Γ(17) Γ(2)Γ(15) θ1 (1 θ) 14 = Argmax θ [(1 θ) 28 θ 7 ] [(1 θ) 14 θ] = Argmax θ (1 θ) 42 θ 8 = Argmax θ 42 ln(1 θ) + 8 ln θ