1 Maximum a posteriori. 2 Estimation de densité. 3 lancers = observations : {Pile,Pile,Pile} = résultat à l encontre du bon sens

Σχετικά έγγραφα
MAPSI cours 3 : Maximum de vraisemblance Maximum a posteriori

COURBES EN POLAIRE. I - Définition

La Déduction naturelle

Θέμα εργασίας: Η διάκριση των εξουσιών

ΚΕ-ΓΛΩ-21 Αξιολόγηση δεξιοτήτων επικοινωνίας στις ξένες γλώσσες. KE-GLO-21 Évaluation des compétences de communication en langue étrangère

Η ΕΝΕΡΓΕΙΑΚΗ ΣΗΜΑΝΣΗ ΚΑΙ ERP

Corrigé exercices série #1 sur la théorie des Portefeuilles, le CAPM et l APT

Logique Propositionnelle. Cédric Lhoussaine. Janvier 2012

X x C(t) description lagrangienne ( X , t t t X x description eulérienne X x 1 1 v x t

Τεχνικές του δράματος και Διδακτική των ζωντανών γλωσσών. Η συμβολή τους στη διαμόρφωση διαπολιτισμικής συνείδησης

TD 1 Transformation de Laplace

Planches pour la correction PI

ΤΕΧΝΙΤΗΣ ΠΕΤΡΑΣ. Ήπειρος (Ελλάδα)

Βασιλική Σαμπάνη Μαντάμ Μποβαρύ: Αναπαραστάσεις φύλου και σεξουαλικότητας

ΒΙΟΓΡΑΦΙΚΟ ΣΗΜΕΙΩΜΑ. Διεύθυνση εργασίας: Πανεπιστήμιο Κρήτης Τηλ. εργ.: Ηράκλειο - Κρήτης Fax.:

Υ-ΓΛΩ 12 Φωνητική-Φωνολογία με εφαρμογές στη Γαλλική γλώσσα. Y-GLO-12 Phonétique-Phonologie Applications à la langue française

Επιτραπέζιος Η/Υ K30AM / K30AM-J Εγχειρίδιο χρήστη

ΥΠΟΥΡΓΕΙΟ ΠΑΙΔΕΙΑΣ, ΔΙΑ ΒΙΟΥ ΜΑΘΗΣΗΣ ΚΑΙ ΘΡΗΣΚΕΥΜΑΤΩΝ. (Σχολείο).

Réseau de diffraction

[ ] ( ) ( ) ( ) Problème 1

Επιτραπέζιος Η/Υ ASUS M12AD and M52AD Εγχειρίδιο χρήστη

ΕΞΕΤΑΣΤΕΑ ΥΛΗ ΣΤΑ ΓΑΛΛΙΚΑ

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

ΔΙΔΑΚΤΙΚΗ ΤΩΝ ΞΕΝΩΝ ΓΛΩΣΣΩΝ


Φλώρα Στάμου, Τριαντάφυλλος Τρανός, Σωφρόνης Χατζησαββίδης

Transformations d Arbres XML avec des Modèles Probabilistes pour l Annotation

Vous pouvez me montrer où c'est sur le plan? Vous pouvez me montrer où c'est sur le plan? Παράκληση για ένδειξη συγκεκριμένης τοποθεσίας σε χάρτη

ΔΙΔΑΚΤΙΚΗ ΤΩΝ ΞΕΝΩΝ ΓΛΩΣΣΩΝ

Introduction à l analyse numérique

Très formel, le destinataire a un titre particulier qui doit être utilisé à la place de son nom

Plutarque : Vie de Solon, 19 Le constituant (594)

Session novembre 2009

Business Order. Order - Placing. Order - Confirming. Formal, tentative

ΠΕΡΙΕΧΟΜΕΝΑ ΜΕΡΟΣ ΠΡΩΤΟ ΜΙΑ ΕΥΡΕΙΑ ΠΡΟΣΕΓΓΙΣΗ ΤΗΣ ΚΑΤΟΧΥΡΩΣΗΣ ΤΩΝ ΠΟΛΙΤΙΚΩΝ ΔΙΚΑΙΩΜΑΤΩΝ ΤΙΤΛΟΣ ΠΡΩΤΟΣ ΦΟΡΕΙΣ ΤΩΝ ΠΟΛΙΤΙΚΩΝ ΔΙΚΑΙΩΜΑΤΩΝ

Immigration Documents

Photoionization / Mass Spectrometry Detection for Kinetic Studies of Neutral Neutral Reactions at low Temperature: Development of a new apparatus

ΔΙΔΑΚΤΙΚΗ ΤΩΝ ΞΕΝΩΝ ΓΛΩΣΣΩΝ

Mécanique Analytique et CFAO. Travaux pratiques de mécanique analytique. Simulation en temps réel du mouvement d un pendule double

Plasticité/viscoplasticité 3D

ΥΠΟΥΡΓΕΙΟ ΠΑΙΔΕΙΑΣ, ΔΙΑ ΒΙΟΥ ΜΑΘΗΣΗΣ ΚΑΙ ΘΡΗΣΚΕΥΜΑΤΩΝ. (Σχολείο).

Spectres de diffusion Raman induits par les intéractions pour les bandes v2 et v3 de la molécule CO2 en gaz pur et en mélange avec de l argon

Lycée Palissy Agen France Istituto Statale di Istruzione Superiore "Malignani Cervignano Italie

Zakelijke correspondentie Bestelling

Mission d entreprises Françaises sur le salon ENERGY PHOTOVOLTAIC 2010

NIVEAUX C1&C2 sur l échelle proposée par le Conseil de l Europe

Θεσµοί και Ιδεολογία στη νεοελληνική κοινωνία 15 ος - 19 ος αι.

Mohamed-Salem Louly. To cite this version: HAL Id: tel

Corrigé de la seconde épreuve de l agrégation interne de mathématiques Février Transformée de Laplace et théorème d Ikehara

DOCUMENT DE RECHERCHE EPEE

M14/1/AYMGR/HP1/GRE/TZ0/XX

Personnel Lettre. Lettre - Adresse

226HS75S 226HS99S. Εγχειρίδιο χειριστή. Ελληνικά ΠΡΟΗΙΔΟΠΟΙΗΣΗ

TABLE DES MATIÈRES. 1. Formules d addition Formules du double d un angle Formules de Simpson... 7

Module #8b Transformation des contraintes et des déformations 2D-3D : Cercle de Mohr

Structures de régularité et mécanique statistique

Jeux d inondation dans les graphes

I Polynômes d Hermite

Personnel Lettre. Lettre - Adresse. Κυρ. Ιωάννου Οδ. Δωριέων 34 Τ.Κ 8068, Λάρνακα

ΤΟ ΜΑΡΙΑΝΟ ΕΚΠΑΙΔΕΥΤΙΚΟ ΥΦΟΣ

Τίτλοι Σπουδών. Επιστηµονικές Εργασίες

Θα ήθελα να κλείσω τον τραπεζικό μου λογαριασμό.

A8-0176/54. Κείµενο που προτείνει η Επιτροπή. επίπεδα.

Radio détection des rayons cosmiques d ultra-haute énergie : mise en oeuvre et analyse des données d un réseau de stations autonomes.

Ηαχόρταγη μικρή κάμπια. La chenille qui fait des trous. Ηαχόρταγη μικρή κάμπια. La chenille qui fait des trous

Émergence des représentations perceptives de la parole : Des transformations verbales sensorielles à des éléments de modélisation computationnelle

ΜΕΤΑΦΡΑΣΤΙΚΕΣ ΔΟΚΙΜΕΣ ΚΑΙ ΠΡΟΫΠΟΘΕΣΕΙΣ ΣΤΑ ΟΡΙΑ ΤΟΥ ΝΕΟΕΛΛΗΝΙΚΟΥ ΔΙΑΦΩΤΙΣΜΟΥ

Votre système de traite vous parle, écoutez-le!

STE 127 Assistance administrative mutuelle en matière fiscale (Annexe A), état au 28.VIII Impôt sur le chiffre d affaires des micro

Dramaturgie française contemporaine

Υ-ΓΛΩ 12 Φωνητική-Φωνολογία με εφαρμογές στη Γαλλική γλώσσα. Y-GLO-12 Phonétique-Phonologie Applications à la langue française

C'est drôle de faire la cuisine!

Oxana Zaika ~ Τιµοκατάλογος

Η ΖΩΓΡΑΦΙΚΗ ΤΗΣ ΡΟΥΛΗΣ ΜΠΟΥΑ ΧΑΡΑΚΤΗΡΙΖΕΤΑΙ ΑΠΟ ΜΙΑ ΠΡΟΣΠΑΘΕΙΑ ΑΠΟΔΟΣΗΣ Σ ΤΑ ΕΡΓΑ ΑΥΤΗΣ ΤΗΣ ΕΝΟΤΗΤΑΣ ΠΟΥ ΣΤΟ ΣΥΝΟΛΟ ΤΟΥΣ ΕΙΝΑΙ ΕΡΓΑ ΜΕΣΑΙΩΝ ΚΑΙ ΜΙΚΡΩΝ

ΑΝΑΚΟΙΝΩΣΗ ΠΡΟΣ ΤΑ ΜΕΛΗ

Les Mondes Fantastiques Melun Ville d Europe 2016

Η ΠΡΟΣΦΟΡΑ TOT Γ. ΔΡΟΣΙΝΗ ΣΤΗΝ ΑΝΑΝΕΩΣΗ TOT ΝΕΟΕΛΛΗΝΙΚΟΤ ΑΦΗΓΗΜΑΤΙΚΟΤ ΛΟΓΟΤ

ΕΘΝΙΚΗ ΣΧΟΛΗ ΗΜΟΣΙΑΣ ΙΟΙΚΗΣΗΣ ΙE ΕΚΠΑΙ ΕΥΤΙΚΗ ΣΕΙΡΑ ΤΜΗΜΑ ΠΕΡΙΦΕΡΕΙΑΚΗΣ ΙΟΙΚΗΣΗΣ ΤΕΛΙΚΗ ΕΡΓΑΣΙΑ

Εγχειρίδιο: Γκούσιος Χ., Βλάχου Μ., Le français sur objectifs spécifiques: Les voyages d un diplomate

Υ-ΓΛΩ 12 Φωνητική-Φωνολογία με εφαρμογές στη Γαλλική γλώσσα. Y-GLO-12 Phonétique-Phonologie Applications à la langue française

ΤΑ ΝΕΑ ΜΑΣ!!!! Ο Αγιασμός στην Αδαμάντιο Σχολή. Επίσκεψη των προνηπίων στο Κτήμα Γεροβασιλείου

Montage - Raccordement Implantation EURO-RELAIS MINI & BOX. Mini & Box

2.3. Ο ΦΥΓΙΚΟΣ ΡΕΑΛΙΣΜΟΣ ΤΟΥ M. PROUST ΚΑΙ Η ΑΙΣΘΗΤΙΚΗ ΤΩΝ «ΑΝΑΜΕΤΡΗΣΕΩΝ»

Architectural Profiles. Aρχιτεκτονικά Profiles

Μεταπτυχιακές σπουδές στη Γαλλία

INTRODUCTION A LA STATISTIQUE

Κ Ε Φ Α Λ Α Ι Ο 14 ΕΚΤΙΜΗΣΗ ΤΩΝ ΔΡΑΣΕΩΝ ΕΠΙ ΤΗΣ ΣΙΔΗΡΟΔΡΟΜΙΚΗΣ ΓΡΑΜΜΗΣ ΩΣ ΦΟΡΤΙΩΝ ΣΧΕΔΙΑΣΜΟΥ

Tarif professionnel HT de référence 2015

Σύντομη ιστορική αναδρομή στο εργατικό κίνημα του Κεμπέκ

Forêts aléatoires : aspects théoriques, sélection de variables et applications

Session mai 2014 ATTENTION CERTIFICATION EN LANGUE FRANÇAISE. NIVEAUX B1&B2 sur l échelle proposée par le Conseil de l Europe

ΑΝΝΑ ΤΑΜΠΑΚΗ. Ιστορία και θεωρία της µετάφρασης 18 ος αιώνας Ο Διαφωτισµός

UNITÉ 1 AU CAFÉ COURS DE LANGUE FRANÇAISE NIVEAU I - DÉBUTANTS, FAUX DÉBUTANTS UNIVERSITÉ DE PATRAS CENTRE D ENSEIGNEMENT DE LANGUES ÉTRANGÈRES

Πού μπορώ να βρω τη φόρμα για ; Où se trouve le formulaire pour? Για να ρωτήσετε που μπορείτε να βρείτε μια φόρμα

Pourriez-vous confirmer Μπορείτε la date παρακαλώ d'expédition να επιβε et le prix par fax? αποστολής και την τιμή με Votre commande sera que possible

Philologie et dialectologie grecques Philologie et dialectologie grecques Conférences de l année

I. ΠΡΟΛΟΓΟΣ II. ΕΙΣΑΓΩΓΗ Πίνακας ΜΕΡΟΣ Α' ΓΕΝΙΚΗ ΔΙΑΡΘΡΩΣΗ ΤΟΥ ΣΧΟΛΙΚΟΥ ΠΛΗ ΘΥΣΜΟΥ

ΓΑΛΛΙΚΗ ΟΡΟΛΟΓΙΑ Α ΣΑΞΗ ΚΟΜΜΩΣΙΚΗ ΕΠΑΝΑΛΗΠΣΙΚΕ ΑΚΗΕΙ

ΕΦΑΡΜΟΓΗ APPLICAZIONE APPLICATION APPLICATION. Sublime Colours 2,5L (10-12m2/L) Esencia 25 ml 100 ml. Damasco 2,5L (6-8m2/L)

Vers un assistant à la preuve en langue naturelle

Transcript:

Plan du cours n 5 RFIDEC cours 5: MAP et apprentissage non paramétrique Christophe Gonzales 1 Maximum a posteriori 2 Estimation de densité LIP6 Université Paris 6, France Max de vraisemblance et loi binomiale (1/2) pièce de monnaie X {0, 1}, 0 Face, 1 Pile X B(1, p) = P(X = x p) = p x (1 p) 1 x n lancers de la pièce = observations x = {x 1,..., x n } n n P(x p) = P(x i p) = p x i (1 p) 1 x i Problème : à partir de x, peut-on raisonnablement déduire p? maximum de vraisemblance : n ln P(x p) = [x i ln p + (1 x i ) ln(1 p)] ln P(x p) p n x i n n x i 1 p = 1 = 0 = p ML = 1 x i p n RFIDEC cours 5: MAP et apprentissage non paramétrique /2 n RFIDEC cours 5: MAP et apprentissage non paramétrique 2/2 Max de vraisemblance et loi binomiale (2/2) p ML = 1 n lancers = observations : {Pile,Pile,Pile} Maximum de vraisemblance = p ML = 1 = on considère que tout lancer de la pièce devrait tomber sur Pile = résultat à l encontre du bon sens = autre estimateur : maximum a posteriori RFIDEC cours 5: MAP et apprentissage non paramétrique 4/2 n x i

En route vers le maximum a posteriori Le modèle bayésien (1/4) Maximum a posteriori = modèle bayésien Modèle bayésien événements : parties de X Θ, où : X = l espace des observations (échantillons) x de taille n Θ = espace des paramètres θ famille des événements dotée d une loi de proba Π cas discret : Π déterminée par les probas des événements élémentaires cas continu : Π déterminée par la densité jointe Max de vraisemblance : π(x θ) au lieu de = π(x θ)π(θ) RFIDEC cours 5: MAP et apprentissage non paramétrique 5/2 Le modèle bayésien (2/4) RFIDEC cours 5: MAP et apprentissage non paramétrique 6/2 Le modèle bayésien (/4) Le cas discret : = Π(X = x, θ = θ), où X, θ variables aléatoires π(x) = Π(X = x) = π(θ) = Π(θ = θ) = x X π(x θ) = Π(X = x θ = θ) = π(θ x) = Π(θ = θ X = x) = Π(X = x, θ = θ) = Π(X = x, θ = θ) = x X π(θ) π(x) Probabilités a priori et a posteriori π(θ) = probabilité a priori de θ π(θ x) = probabilité a posteriori de θ RFIDEC cours 5: MAP et apprentissage non paramétrique 7/2 Le cas continu : π(x) = Π(X = x) = π(θ) = Π(θ = θ) = π(x θ) = π(θ x) = π(θ) π(x) x X Π(X = x, θ = θ)dθ = Π(X = x, θ = θ)dx = x X dθ dx RFIDEC cours 5: MAP et apprentissage non paramétrique 8/2

Le modèle bayésien (4/4) Probabilités a priori et a posteriori π(θ) = probabilité a priori de θ = idée que l on se fait de θ avant observation π(θ x) = probabilité a posteriori de θ = idée que l on se fait de θ après observation Formule de Bayes : π(θ x) = π(x θ)π(θ) π(x) cas discret : π(θ x) = π(x θ)π(θ) π(x θ)π(θ) = π(x θ)π(θ) cas continu : π(θ x) = π(x θ)π(θ) π(x θ)π(θ) = dθ π(x θ)π(θ)dθ Rappel : π(x θ) = vraisemblance de l échantillon = L(x, θ) RFIDEC cours 5: MAP et apprentissage non paramétrique 9/2 MAP : retour sur la pièce de monnaie (1/2) Maximum a posteriori Maximum a posteriori (MAP) T estimateur du maximum a posteriori de θ : défini par x t = Argmax π(θ x) échantillon i.i.d de n observations X = (X 1,..., X n ) = x = (x 1,..., x n ) observation de X cas discret : π(θ x) = cas continu : π(θ x) = dθ n échantillon i.i.d = π(x θ) = L(x, θ) = P(x i θ) n p(x i θ) (discret) (continu) RFIDEC cours 5: MAP et apprentissage non paramétrique 10/2 MAP : retour sur la pièce de monnaie (2/2) pièce de monnaie = X {0, 1} 0 Face 1 Pile X B(1, θ) = P(X = x θ) = θ x (1 θ) 1 x échantillon x de lancers = {Pile,Pile,Pile} Max de vraisemblance = θ ML = 1 = tous les lancers devraient tomber sur Pile Modèle bayésien : Θ = {θ 1, θ 2 } θ 1 = biais en faveur de Pile, θ 2 = biais en faveur de Face Info a priori : π(θ 1 ) = 2, π(θ 2) = 1 Problème : quelle est la valeur du maximum a posteriori? RFIDEC cours 5: MAP et apprentissage non paramétrique 11/2 Info a priori : π(θ 1 ) = 2, π(θ 2) = 1 L(x, θ 1 ) = π(x θ 1 ) = P(x i θ 1 ) = 2 L(x, θ 2 ) = π(x θ 2 ) = P(x i θ 2 ) = 1 π(θ 1 x) = L(x, θ 1)π(θ 1 ) = 2 ( 1 2 ( 1 1 2 2 2 + 1 π(θ 2 x) = L(x, θ 2)π(θ 2 ) 0, 059 1 ) 0 = 2 0, 296 ) 0 = 1 0, 07 0, 941 Max a posteriori : θ = θ 1 = X B(1, θ 1 ) = B(1, 0.941) probabilité que la pièce tombe sur Face 0 RFIDEC cours 5: MAP et apprentissage non paramétrique 12/2

MAP et les lois conjuguées π(x θ)π(θ) calcul de la distribution a posteriori : π(θ x) = π(x θ)π(θ)dθ = si π(x θ)π(θ) complexe analytiquement alors calcul de l intégrale compliqué Lois conjuguées π(θ) : loi a priori π(x θ) : fonction de vraisemblance π(θ x) : distribution a posteriori π(θ) et π(x θ) sont conjuguées si π(θ x) appartient à la même famille de lois que π(θ) Lois conjuguées : exemple de la pièce de monnaie pièce de monnaie = X {0, 1} : 0 X B(1, θ) = vraisemblance d un échantillon : π(x θ) = θ x (1 θ) n x, avec x = #(x i = 1) = loi binomiale Distribution de probabilité Beta Loi Beta : Beta(θ, a, b) = avec Γ(x) = Espérance = + 0 a a + b t x 1 e t dt Γ(a + b) Γ(a)Γ(b) θa 1 (1 θ) b 1 Variance = 1 ab (a + b) 2 (a + b + 1) RFIDEC cours 5: MAP et apprentissage non paramétrique 1/2 Lois conjuguées : loi binomiale et loi Beta loi a priori : π(θ) = Beta(θ, a, b) = Γ(a + b) Γ(a)Γ(b) θa 1 (1 θ) b 1 fonction de vraisemblance : π(x θ) = θ x (1 θ) n x, avec x = #(x i = 1) loi a posteriori : π(θ x) = π(x θ)π(θ) π(x θ)π(θ) π(x θ)π(θ) loi a posteriori : π(θ x) θ x+a 1 (1 θ) b+n x 1 = π(θ x) Beta(θ, x + a, b + n x) RFIDEC cours 5: MAP et apprentissage non paramétrique 15/2 = loi Beta et loi binomiales conjuguées RFIDEC cours 5: MAP et apprentissage non paramétrique 14/2 Comparaison MAP maximum de vraisemblance pièce de monnaie = X {0, 1} : 0 Max de vraisemblance : π(x θ) = θ x (1 θ) n x = Beta(θ, x + 1, n x + 1) Max a posteriori : 1 π(θ x) θ x+a 1 (1 θ) b+n x 1 = Beta(θ, x + a, n x + b) = Max de vraisemblance Max a posteriori avec a = 1 et b = 1 Or Beta(θ, 1, 1) = Γ(a+b) Γ(a)Γ(b) = constante Max de vraisemblance Max a posteriori avec a priori uniforme n + = max de vraisemblance max a posteriori = l a priori devient négligeable RFIDEC cours 5: MAP et apprentissage non paramétrique 16/2

La loi Beta Loi normale et loi conjuguée fonction de vraisemblance = loi normale, σ 2 connue = loi a priori conjuguée : loi Γ La loi Γ X Γ(x, k, θ) fonction de densité de la loi Γ : Γ(k) = + 0 f (x, k, θ) = x k 1 e x/θ θ k Γ(k) t k 1 e t dt E(X) = kθ, V (X) = kθ 2 x, k, θ > 0 RFIDEC cours 5: MAP et apprentissage non paramétrique 17/2 Loi Gamma Lorsque k entier : Γ(x, k, θ) = loi de k variables indépendantes suivant une loi exponentielle d espérance θ Familles de lois conjuguées : http ://en.wikipedia.org/wiki/conjugate prior RFIDEC cours 5: MAP et apprentissage non paramétrique 18/2 Prévention des risques d inondation (1/) Plan de prévention des risques d inondations (PPR-I) : photos satellite SPOT5 = zones susceptibles d être inondées catégories de parcelles : 1 inondables (PI) 2 partiellement inondables (PPI) non inondables (NI) RFIDEC cours 5: MAP et apprentissage non paramétrique 19/2 RFIDEC cours 5: MAP et apprentissage non paramétrique 20/2

Prévention des risques d inondation (2/) images en teintes de gris proba d obtenir un niveau de gris n dépend du type de zone : P(n PI) = N (100, 20 2 ) P(n PPI) = N (85, 5 2 ) nouvelle image envoyée par SPOT5 : zone Z : niveau de gris = n = 80 Connaissance a priori : 60% de PI, 10% de PPI, 0% de NI Problème : zone Z = PI ou PPI? RFIDEC cours 5: MAP et apprentissage non paramétrique 21/2 Analyse d un trafic réseau (1/4) Prévention des risques d inondation (/) 2 hypothèses : Problème : zone Z = PI ou PPI? 1 θ 1 = Z est de type PI 2 θ 2 = Z est de type PPI Idée : calcul du MAP d obtenir la zone Z sous θ 1 ou sous θ 2 π(θ 1 x) = L(x, θ 1)π(θ 1 ) π(θ 2 x) = L(x, θ 2)π(θ 2 ) Rappel cours 4 : L(x, θ 1 ) 0, 0121 L(x, θ 2 ) 0, 0484 a priori : π(θ 1 ) = 0, 6 π(θ 2 ) = 0, 1 π(θ 1 x) = 0, 0121 0, 6 π(θ 2 x) = 0, 0484 0, 1 MAP = parcelle inondable (PI) RFIDEC cours 5: MAP et apprentissage non paramétrique 22/2 Analyse d un trafic réseau (2/4) Réseau informatique : transfert de paquets observation de 7 réalisations de X : 2 8 4 7 8 Estimation de p? Problème : analyse des paquets perdus sur un sous-réseau X : variable aléatoire nombre de paquets envoyés jusqu à bonne réception X loi géométrique : P(X = n) = (1 p) n 1 p p : probabilité qu un paquet soit correctement transmis RFIDEC cours 5: MAP et apprentissage non paramétrique 2/2 1 estimation par max de vraisemblance 2 estimation par MAP RFIDEC cours 5: MAP et apprentissage non paramétrique 24/2

Analyse d un trafic réseau (/4) Analyse d un trafic réseau (4/4) 1 estimation par max de vraisemblance 2 8 4 7 8 vraisemblance : L(x, θ) = 7 P(x i θ) θ = estimation de p observations = L(x, θ) = (1 θ) 28 θ 7 = ln L(x, θ) = 28 ln(1 θ) + 7 ln θ = ln L(x, θ) θ = 28 1 θ + 7 θ = 7 5θ p(1 θ) = maximum de vraisemblance = θ = 0, 2 2 estimation par max de vraisemblance 2 8 4 7 8 A priori : π(θ) = Beta(θ, 2, 15) = Argmax θ π(θ x) = Argmax θ = θ MAP = 0, 16 Γ(17) Γ(2)Γ(15) θ1 (1 θ) 14 = Argmax θ [(1 θ) 28 θ 7 ] [(1 θ) 14 θ] = Argmax θ (1 θ) 42 θ 8 = Argmax θ 42 ln(1 θ) + 8 ln θ RFIDEC cours 5: MAP et apprentissage non paramétrique 25/2 RFIDEC cours 5: MAP et apprentissage non paramétrique 26/2 En route vers le non paramétrique jusqu à maintenant : estimations des paramètres des densités : max de vraisemblance max a posteriori f (x) 2 Estimation de densité = estimation de µ, σ 2 x µ σ µ µ + σ = statistique paramétrique = connaissance de la famille de lois a priori Que faire si aucune loi a priori évidente? = statistique non paramétrique RFIDEC cours 5: MAP et apprentissage non paramétrique 27/2 RFIDEC cours 5: MAP et apprentissage non paramétrique 28/2

Estimation de densité : idée naïve X : variable aléatoire {x 1,..., x n } : les classes de X échantillon de taille n = n i individus dans la classe x i Densité histogramme des valeurs observées Estimation de densité : la fenêtre mobile (1/2) Idée de la fenêtre mobile X : variable aléatoire x valeur de X, I x = [x h 2, x + h 2 [ = classe de longueur h densité estimée : ˆf (x) = 1 n #x i : x h 2 x i < x + h 2 densité Problème : fonction de densité très irrégulière RFIDEC cours 5: MAP et apprentissage non paramétrique 29/2 Estimation de densité : la fenêtre mobile (2/2) densité estimée : ˆf (x) = 1 n #x i : x h 2 x i < x + h 2 = ˆf (x) = 1 n ( ) x xi K n h où K = fonction indicatrice de l intervalle [ 1 2, 1 2[ : { 0 si u 1 K (u) = 2 ou u < 1 2 1 si 1 2 u < 1 2 Estimation de densité par la méthode du noyau X : variable aléatoire x valeur de X, I x = [x h 2, x + h 2 [ = classe de longueur h densité estimée : ˆf (x) = 1 n ( ) x xi K n h avec K = fonction continue = noyau RFIDEC cours 5: MAP et apprentissage non paramétrique 1/2 Problème : fonction de densité encore trop irrégulière RFIDEC cours 5: MAP et apprentissage non paramétrique 0/2 Estimation de densité par la méthode du noyau ˆf (x) = 1 n n ( ) x xi K h noyaux fréquemment utilisés : noyau gaussien : K (u) = 1 2π e u2 2 ( ) noyau d Epanechnikov : K (u) = 4 1 u2 5 5 pour u < 5 constante h = constante de lissage { h petit = ˆf très irrégulière h grand = ˆf très (trop) lisse h souvent défini empiriquement RFIDEC cours 5: MAP et apprentissage non paramétrique 2/2