Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπισ τήμιο Κρήτης 11 Μαρτίου /24

Σχετικά έγγραφα
Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπισ τήμιο Κρήτης 22 Μαΐου /32

Η ΙΣΧΥΣ ΕΝΟΣ ΕΛΕΓΧΟΥ. (Power of a Test) ΚΕΦΑΛΑΙΟ 21

Ανάλυση Δεδομένων με χρήση του Στατιστικού Πακέτου R

Έλεγχος υποθέσεων και διαστήματα εμπιστοσύνης

ΕΡΓΑΣΤΗΡΙΟ ΣΤΑΤΙΣΤΙΚΗΣ

Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπισ τήμιο Κρήτης 2 Μαΐου /23

Κεφάλαιο 9. Έλεγχοι υποθέσεων

Κεφάλαιο 9. Έλεγχοι υποθέσεων

ΠΕΡΙΓΡΑΦΙΚΗ και ΕΠΑΓΩΓΙΚΗ ΣΤΑΤΙΣΤΙΚΗ

Έλεγχος Υποθέσεων. Δρ. Αθανάσιος Δαγούμας, Επ. Καθηγητής Οικονομικής της Ενέργειας & των Φυσικών Πόρων, Πανεπιστήμιο Πειραιώς

5.1 Ο ΕΛΕΓΧΟΣ SMIRNOV

ΕΛΕΓΧΟΙ ΥΠΟΘΕΣΕΩΝ ΚΕΦΑΛΑΙΟ 17

6 ο ΜΑΘΗΜΑ Έλεγχοι Υποθέσεων

Μέρος IV. Ελεγχοι Υποθέσεων (Hypothesis Testing)

Στατιστικός έλεγχος υποθέσεων (Μέρος 1 ο )

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Κλωνάρης Στάθης. ΠΜΣ: Οργάνωση & Διοίκηση Επιχειρήσεων Τροφίμων και Γεωργίας

Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπισ τήμιο Κρήτης 14 Μαρτίου /34

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

5. Έλεγχοι Υποθέσεων

Στατιστική Ι. Ενότητα 9: Κατανομή t-έλεγχος Υποθέσεων. Δρ. Γεώργιος Κοντέος Τμήμα Διοίκησης Επιχειρήσεων Γρεβενών

Σ ΤΑΤ Ι Σ Τ Ι Κ Η ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Έλεγχος Υποθέσεων (Hypothesis Testing)

Ιατρικά Μαθηματικά & Βιοστατιστική

ΑΝΑΛΥΣΗ ΔΙΑΚΥΜΑΝΣΗΣ. Επικ. Καθ. Στέλιος Ζήμερας. Τμήμα Μαθηματικών Κατεύθυνση Στατιστικής και Αναλογιστικά Χρηματοοικονομικά Μαθηματικά

Στατιστικός έλεγχος υποθέσεων (Μέρος 1 ο ) 24/2/2017

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΣΤΑΤΙΣΤΙΚΗ ΤΩΝ ΕΠΙΧΕΙΡΗΣΕΩΝ. Κεφάλαιο 8. Συνεχείς Κατανομές Πιθανοτήτων Η Κανονική Κατανομή

ΕΙΣΑΓΩΓΗ ΣΤΗ ΣΤΑΤΙΣΤΙΚΗ

Σ ΤΑΤ Ι Σ Τ Ι Κ Η. Statisticum collegium iv

ΤΕΙ Αθήνας Μεθοδολογία της έρευνας και Ιατρική στατιστική

Στατιστική Επιχειρήσεων ΙΙ

Στατιστική Ι (ΨΥΧ-1202) Διάλεξη 7. Στατιστικός έλεγχος υποθέσεων

Μαθηματικά Και Στατιστική Στη Βιολογία

2.5.1 ΕΚΤΙΜΗΣΗ ΠΟΣΟΣΤΙΑΙΩΝ ΣΗΜΕΙΩΝ ΜΙΑΣ ΚΑΤΑΝΟΜΗΣ

ΕΙΔΙΚΑ ΘΕΜΑΤΑ ΣΤΗΝ ΣΤΑΤΙΣΤΙΚΗ ΕΡΓΑΣΤΗΡΙΟ (SPSS)

Είδη Μεταβλητών Κλίμακα Μέτρησης Οι τεχνικές της Περιγραφικής στατιστικής ανάλογα με την κλίμακα μέτρησης Οι τελεστές Π και Σ

Διαδικασία Ελέγχου Μηδενικών Υποθέσεων

ΕΛΕΓΧΟΣ ΣΤΑΤΙΣΤΙΚΩΝ ΥΠΟΘΕΣΕΩΝ. Επαγωγική στατιστική (Στατιστική Συμπερασματολογία) Εκτιμητική Έλεγχος Στατιστικών Υποθέσεων

Ενότητα 3. Έλεγχος υπόθεσης. Σύγκριση μέσων τιμών

ΤΕΙ ΔΥΤΙΚΗΣ ΜΑΚΕΔΟΝΙΑΣ Μεταπτυχιακό Τραπεζικής & Χρηματοοικονομικής

Εφαρμοσμένη Στατιστική

Διάλεξη 1 Βασικές έννοιες

Σύγκριση μέσου όρου πληθυσμού με τιμή ελέγχου. One-Sample t-test

8. Ελεγχος Υποθεσεων. Μαθηματικά και Στατιστικη στην Βιολογια ΧΕΙΜΕΡΙΝΟ ΕΞΑΜΗΝΟ (1 ο ) Τμημα Βιολογιας Αριστοτελειο Πανεπιστημιο Θεσσαλονικης

Ασκήσεις Εξετάσεων. Μεταπτυχιακό Πρόγραμμα Σπουδών στη. Διοίκηση των Επιχειρήσεων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

F x h F x f x h f x g x h g x h h h. lim lim lim f x

Ανάλυση Δεδοµένων µε χρήση του Στατιστικού Πακέτου R

Δειγματοληπτικές κατανομές

Περιγραφική Ανάλυση ποσοτικών μεταβλητών

Ενότητα 2: Έλεγχοι Υποθέσεων Διαστήματα Εμπιστοσύνης

Κεφάλαιο 11 Εισαγωγή στον Έλεγχο Υποθέσεων

ΜΑΘΗΜΑΤΙΚΑ & ΣΤΟΙΧΕΙΑ ΣΤΑΤΙΣΤΙΚΗΣ ΓΕΝΙΚΗΣ ΠΑΙ ΕΙΑΣ 2010 ΕΚΦΩΝΗΣΕΙΣ

Εργαστήριο Μαθηματικών & Στατιστικής 2η Πρόοδος στο Μάθημα Στατιστική 28/01/2011 (Για τα Τμήματα Ε.Τ.Τ. και Γ.Β.) 1ο Θέμα [40] α) στ) 2ο Θέμα [40]

Έλεγχοι Υποθέσεων. Χρήση της Στατιστικής. Η λογική του Ελέγχου Υπόθεσης Ο Έλεγχος Υπόθεσης 7-2

Διερευνητική Ανάλυση Δεδομένων Exploratory Data Analysis


Γ. Πειραματισμός - Βιομετρία

Είδη Μεταβλητών. κλίµακα µέτρησης

Έλεγχος υποθέσεων Ι z-test & t-test

ΜΑΘΗΜΑΤΙΚΑ ΚΑΙ ΣΤΟΙΧΕΙΑ ΣΤΑΤΙΣΤΙΚΗΣ ΓΕΝΙΚΗΣ ΠΑΙΔΕΙΑΣ Γ ΛΥΚΕΙΟΥ

ΔΙΕΡΕΥΝΗΣΗ ΚΛΙΜΑΤΙΚΩΝ ΑΛΛΑΓΩΝ ΓΙΑ ΤΟ ΝΗΣΙ ΤΗΣ ΝΑΞΟΥ

Ανάλυση διακύμανσης (Μέρος 1 ο ) 17/3/2017

Διερευνητική Ανάλυση Δεδομένων Exploratory Data Analysis

ΕΙΔΙΚΑ ΘΕΜΑΤΑ ΔΙΑΧΕΙΡΙΣΗΣ ΚΙΝΔΥΝΟΥ. Συσχέτιση (Correlation) - Copulas

ΠΕΡΙΓΡΑΦΙΚΗ και ΕΠΑΓΩΓΙΚΗ ΣΤΑΤΙΣΤΙΚΗ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Για το δείγμα από την παραγωγή της εταιρείας τροφίμων δίνεται επίσης ότι, = 1.3 και για το δείγμα από το συνεταιρισμό ότι, x

Στατιστική Συμπερασματολογία

Κεφάλαιο 5. Βασικές έννοιες ελέγχων υποθέσεων και έλεγχοι κανονικότητας

2.5 ΕΛΕΓΧΟΣ ΠΟΣΟΣΤΙΑΙΩΝ ΣΗΜΕΙΩΝ ΜΙΑΣ ΚΑΤΑΝΟΜΗΣ (The Quantile Test)

X = = 81 9 = 9

ΚΑΤΑΝΟΜΈΣ. 8.1 Εισαγωγή. 8.2 Κατανομές Συχνοτήτων (Frequency Distributions) ΚΕΦΑΛΑΙΟ

ΣΤΑΤΙΣΤΙΚΗ ΕΠΙΧΕΙΡΗΣΕΩΝ ΕΙΔΙΚΑ ΘΕΜΑΤΑ. Κεφάλαιο 12. Εκτίμηση των παραμέτρων ενός πληθυσμού

ΠΑΝΕΠΙΣΤΗΜΙΑΚΑ ΦΡΟΝΤΙΣΤΗΡΙΑ ΚΟΛΛΙΝΤΖΑ. Ερωτήσεις πολλαπλής επιλογής. Συντάκτης: Δημήτριος Κρέτσης

ΠΟΛΛΑΠΛΗ ΠΑΛΙΝΔΡΟΜΗΣΗ: ΑΣΚΗΣΕΙΣ

Στατιστική Ι. Ενότητα 1: Στατιστική Ι (1/4) Αναπλ. Καθηγητής Νικόλαος Σαριαννίδης Τμήμα Διοίκησης Επιχειρήσεων (Κοζάνη)

ΠΕΡΙΕΧΟΜΕΝΑ ΜΕΡΟΣ ΠΡΩΤΟ: ΠΙΘΑΝΟΤΗΤΕΣ 11 ΚΕΦΑΛΑΙΟ 1 ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ ΠΙΘΑΝΟΤΗΤΑΣ 13

Μέρος Β /Στατιστική. Μέρος Β. Στατιστική. Γεωπονικό Πανεπιστήμιο Αθηνών Εργαστήριο Μαθηματικών&Στατιστικής/Γ. Παπαδόπουλος (

Ενδεικτικές ασκήσεις ΔΙΠ 50

Σ ΤΑΤ Ι Σ Τ Ι Κ Η. Statisticum collegium Iii

Κεφ. Ιο ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ ΘΕΩΡΙΑΣ ΠΙΘΑΝΟΤΗΤΩΝ

Ανάλυση Δεδοµένων µε χρήση του Στατιστικού Πακέτου R

Περιπτώσεις που η στατιστική συνάρτηση ελέγχου είναι η Ζ: 1. Η σ είναι γνωστή και ο πληθυσμός κανονικός.

Α Ν Ω Τ Α Τ Ο Σ Υ Μ Β Ο Υ Λ Ι Ο Ε Π Ι Λ Ο Γ Η Σ Π Ρ Ο Σ Ω Π Ι Κ Ο Υ Ε Ρ Ω Τ Η Μ Α Τ Ο Λ Ο Γ Ι Ο

Μεθοδολογία των επιστημών του Ανθρώπου : Στατιστική Εργαστήριο 6 :

Αναλυτική Στατιστική

Μαντζούνη, Πιπερίγκου, Χατζή. ΒΙΟΣΤΑΤΙΣΤΙΚΗ Εργαστήριο 5 ο

Δειγματοληψία. Πρέπει να γνωρίζουμε πως πήραμε το δείγμα Το πλήθος n ij των παρατηρήσεων σε κάθε κελί είναι τ.μ. με μ ij συμβολίζουμε την μέση τιμή:

Στατιστική Συμπερασματολογία

Δειγματοληψία. Πρέπει να γνωρίζουμε πως πήραμε το δείγμα Το πλήθος n ij των παρατηρήσεων σε κάθε κελί είναι τ.μ. με μ ij συμβολίζουμε την μέση τιμή:

Κλωνάρης Στάθης. ΠΜΣ: Οργάνωση & Διοίκηση Επιχειρήσεων Τροφίμων και Γεωργίας

Start Random numbers Distributions p-value Confidence interval.

ΠΕΡΙΕΧΟΜΕΝΑ ΚΕΦΑΛΑΙΟ 3 ΔΕΣΜΕΥΜΕΝΗ ΠΙΘΑΝΟΤΗΤΑ, ΟΛΙΚΗ ΠΙΘΑΝΟΤΗΤΑ ΘΕΩΡΗΜΑ BAYES, ΑΝΕΞΑΡΤΗΣΙΑ ΚΑΙ ΣΥΝΑΦΕΙΣ ΕΝΝΟΙΕΣ 71

4 o Μάθημα Διάστημα Εμπιστοσύνης του Μέσου

4.3.3 Ο Έλεγχος των Shapiro-Wilk για την Κανονική Κατανομή

Περιεχόμενα της Ενότητας. Συνεχείς Τυχαίες Μεταβλητές. Συνεχείς Κατανομές Πιθανότητας. Συνεχείς Κατανομές Πιθανότητας.

Ανάλυση Διασποράς Ανάλυση Διασποράς διακύμανση κατά παράγοντες διακύμανση σφάλματος Παράδειγμα 1: Ισομεγέθη δείγματα

Transcript:

Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπιστήμιο Κρήτης 11 Μαρτίου 2017 1/24

Εισαγωγή. Εστω ότι X 1, X 2,..., X n είναι ένα τυχαίο δείγμα παρατηρήσεων μιας τυχαίας μεταβλητής X. Μας ενδιαφέρει να ελέγξουμε κατά πόσον οι τιμές αυτές αποτελούν ένδειξη ότι η τυχαία μεταβλητή X ακολουθεί μία συγκεκριμένη κατανομή, π.χ. μία ομοιόμορφη κατανομή στο διάστημα μεταξύ 0 και 1 ή μεταξύ 0 και 10, ή μία κανονική κατανομή με μέση τιμή 20 και τυπική απόκλιση 2.7. Εναλλακτικά, θα μπορούσαμε να ενδιαφερόμαστε να εξετάσουμε ένα πολύ γενικότερο ερώτημα όπως: «είναι εύλογο να υποθέσουμε ότι τα δεδομένα αυτά έχουν προέλθει από μια κανονική κατανομή με άγνωστη μέση τιμή και διασπορά;» Παρόλο που ο έλεγχος δείγματος μπορεί να αφορά οποιαδήποτε κατανομή, στην πράξη πιο σύνηθες είναι ο έλεγχος για κανονική κατανομή. Στη συνέχεια θα δούμε γραφικούς ελέγχους κανονικότητας καθώς και τις βασικές αρχές ελέγχου στατιστικών υποθέσεων οι οποίες χρησιμοποιούνται: Για έλεγχο ότι η τ.μ. X προέρχεται από συγκεκριμένη κατανομή, Γενικότερα, για έλεγχο οποιασδήποτε στατιστικής υπόθεσης θέλουμε να επαληθεύσουμε μέσω των διαθέσιμων δεδομένων. 2/24

x 20 40 60 80 100 1:100 Γραφικές μέθοδοι επαλήθευσης τυχαιότητας. Πρακτικά, πριν από κάθε έλεγχο έχει νόημα να εξετάσουμε αν το διαθέσιμο δείγμα X 1, X 2,..., X n είναι τυχαίο (αν είναι προϊόν κάποιας συστηματικής διαδικασίας δεν έχει νόημα να κοιτάμε αν ταιριάζει σε κάποια κατανομή). Ο έλεγχος τυχαιότητας γίνεται με μια απλή γραφική παράσταση της μορφής (i, X i ), i = 1, 2,..., n. Αν στην γραφική παράσταση δεν διακρίνεται κάποιο σχήμα (κάποια πατέντα, κάποια συστηματική τάση των δεδομένων) τότε μπορούμε να υποθέσουμε ότι το δείγμα μας είναι τυχαίο οπότε έχει νόημα να ψάξουμε να βρούμε κάποια κατανομή. Για παράδειγμα, για ένα δείγμα από την τυπική κανονική 100 παρατηρήσεων: x<-rnorm(100) plot(1:100, x) η γραφική παράσταση (δίπλα εικόνα) δείχνει ότι η κατανομή των σημείων στο χώρο του γραφήματος είναι εντελώς τυχαία. 0 Ο συγκεκριμένος τρόπος είναι ένας απλός πρακτικός τρόπος επαλήθευσης τυχαιότητας. 2 1 0 1 2 3/24

3 2 1 0 1 2 3 seq( 3.3, 3.3, length = 100) 2 1 0 1 2 3 seq( 3.3, 3.3, length = 100) Γραφική μέθοδος επαλήθευσης συγκεκριμένης κατανομής. Ενας πρώτος έλεγχος για έλεγχο προέλευσης δείγματος X 1, X 2,..., X n από οποιαδήποτε κατανομή είναι να δούμε αν η γραφική παράσταση (i, X (i) ), i = 1, 2,..., n ταιριάζει στο σχήμα της κατανομής. Οι παρατηρήσεις X (i), i = 1, 2,..., n είναι το διατεταγμένο κατ αύξουσα σειρά δείγμα X 1, X 2,..., X n. Για παράδειγμα, για ένα δείγμα από την τυπική κανονική 100 παρατηρήσεων, η γραφική x<-rnorm(100) y<-sort(x) #sort sample in ascending order plot(seq(-3.3, 3.3, length =100), dnorm(y)) παράσταση (δίπλα) δείχνει ότι η κατανομή των σημείων μοιάζει με αυτή της κανονικής. Αν χρησιμοποιήσουμε λάθος κατανομή, π.χ. x<-rnorm(100) y<-sort(x) #sort sample in ascending order plot(seq(-3.3, 3.3, length =100), dexp(y)) το αποτέλεσμα δεν θα ταιριάζει σε κάποιο γνωστό σχήμα 3 κατανομής. Δοκιμάστε τα παραπάνω με μέγεθος δείγματος 1000. Τι παρατηρείτε; dnorm(y) dexp(y) 0.0 0.1 0.2 0.3 0.4 0.0 0.2 0.4 0.6 0.8 1.0 4/24

Γραφικοί έλεγχοι q-q plot και p-p plot. Ο προηγούμενος τρόπος παρόλο που χρησιμοποιείται συχνά στην πράξη (γιατί είναι πολύ εύκολο να υλοποιηθεί): Υποθέτει ότι ξέρουμε τις παραμέτρους της κατανομής που ελέγχουμε ή τις έχουμε εκτιμήσει (π.χ. με μέγιστη πιθανοφάνεια). Είναι ισοδύναμος τρόπος με το ιστόγραμμα, μόνο που για το ιστόγραμμα δεν χρειάζεται να ξέρουμε τις παραμέτρους της κατανομής. Δεν έχει καμία επιστημονική βάση - δεν στηρίζεται σε κάποια αποδεδειγμένη μέθοδο (θεώρημα ή ιδιότητα): μπορεί απλά να τύχει να ταιριάζει το δείγμα με την συγκεκριμένη κατανομή. Μία μέθοδος που προσφέρει σχετική ασφάλεια για έλεγχο δείγματος είναι το λεγόμενο q-q (quantile quantile) plot το οποίο απεικονίζει τα ποσοστημόρια (quantiles) του δείγματος (υπολογισμένα εμπειρικά) σε σχέση με τα ποσοστημόρια (υπολογισμένα θεωρητικά) της επιλεγμένης κατανομής, σαν σημεία στο επίπεδο (x, y). Ιδιας λογικής είναι και το p-p (probability probability) plot το οποίο απεικονίζει την εμπειρική α.σ.κ. του δείγματος σε σχέση με την θεωρητική α.σ.κ. 5/24

2 1 0 1 2 Theoretical Quantiles Κατασκευή q-q plot. Για να κατασκευάσουμε το q-q plot για δεδομένο δείγμα X 1, X 2,..., X n 1. Υπολογίζουμε τα εμπειρικά ποσοστιαία σημεία (σελίδα 39 διαφάνειες πρώτης εβδομάδας) - τα σημεία αυτά είναι οι τεταγμένες (y) του γραφήματος. 2. Υπολογίζουμε τα ποσοστιαία σημεία της κατανομής που θεωρούμε ότι προέρχεται το δείγμα. Προκύπτουν από τη λύση της F(ξ p ; θ) = p ως προς ξ p - αυτά τα σημεία είναι οι τετμημένες (x) του γραφήματος. 3. Το ζητούμενο γράφημα προκύπτει από τα ζεύγη (x = ξ p, y). Το δύσκολο κομμάτι είναι η λύση της F(ξ p ; θ) = p η οποία απαιτεί αντιστροφή της F κάτι το οποίο δεν είναι πάντα εφικτό αναλυτικά. Για δείγμα 100 παρατηρήσεων από N(0, 1), x<-rnorm(100) qqnorm(y, main = "Normal Q-Q Plot", xlab = " Theoretical Quantiles", ylab = "Sample Quantiles", plot.it = TRUE) qqline(x, distribution = function(p) qnorm(p), prob = c(0.1, 0.6), col = 2) Για σύγκριση δείγματος με άλλες κατανομές προτιμάται η χρήση της qqplot του πακέτου car Sample Quantiles 2 1 0 1 2 Normal Q Q Plot 6/24

0.0 0.2 0.4 0.6 0.8 1.0 y Κατασκευή p-p plot. Για να κατασκευάσουμε το p-p plot για δεδομένο δείγμα X 1, X 2,..., X n σχηματίζουμε τα ζεύγη (ˆF(x), F(x; θ)) όπου n ˆF(x) = n 1 1 {Xi x} (1) είναι η εμπειρική α.σ.κ (παρατηρείστε ότι δεν χρειάζεται να κάνουμε καμία υπόθεση για να την υπολογίσουμε) και F(x; θ) είναι η υποτιθέμενη θεωρητική α.σ.κ. i=1 Για δείγμα 100 παρατηρήσεων από N(0, 1), ppplot.das(rnorm(100), pdist = pnorm, xlab = NULL, ylab = "Probability", line = TRUE, lwd = 2, pch = 3, cex = 0.7) όπου η εντολή ppplot.das είναι διαθέσιμη από το πακέτο StatDA Από το γράφημα βλέπουμε ότι η σχηματιζόμενη γραφική παράσταση είναι σχεδόν (πολύ κοντά) ευθεία το οποίο είναι ένδειξη ότι το δείγμα προέρχεται από την κατανομή που προσδιορίσαμε. Και πάλι όμως, τόσο το q-q plot όσο και το p-p plot δεν είναι αποδείξεις ότι το δείγμα προέρχεται από την συγκεκριμένη κατανομή. Probability 0.0 0.2 0.4 0.6 0.8 1.0 7/24

Βασικές αρχές ελέγχου στατιστικών υποθέσεων. Ο λόγος είναι ότι απλά μπορεί να τύχει το συγκεκριμένο δείγμα να ικανοποιεί τη συνθήκη που ελέγχουμε (δηλ. μπορεί να τύχει να φαίνονται ίσα ενώ να μην είναι πραγματικά). Για να είμαστε σε θέση να ελέγξουμε υποθέσεις για την άγνωστη κατανομή πιθανότητας μιας τ.μ. με βάση ένα δείγμα χρειαζόμαστε μιας διαδικασία που θα αναφέρεται σε όλα ποσοστιαία σημεία / πιθανότητες και όχι μόνο σε αυτά που διαλέξαμε για τις γρ. παραστάσεις των q-q plot και p-p plot. Με άλλα λόγια, χρειαζόμαστε διαδικασίες σχεδιασμένες να απαντήσουν στο ερώτημα: αποτελούν οι παρατηρήσεις μας ένα δείγμα από κάποια συγκεκριμένη κατανομή; Αυτό απαντάται χρησιμοποιώντας κάποια ικανή και αναγκαία συνθήκη (η οποία απορρέει από κάποια χαρακτηριστική ιδιότητα της κατανομής) Το δείγμα χρησιμοποιείται για την επιβεβαίωση της ικανής και αναγκαίας συνθήκης. Η ικανή και αναγκαία συνθήκη συνήθως μεταφράζεται σε κάποια στατιστική συνάρτηση: τη συνάρτηση ελέγχου της υπόθεσης μας. 8/24

Βασικές αρχές ελέγχου στατιστικών υποθέσεων. Αυτές οι διαδικασίες είναι μέρος γενικότερου κομματιού της στατιστικής που λέγεται έλεγχος υποθέσεων και έχουν τα εξής χαρακτηριστικά: 1. Σχηματίζουμε τη μηδενική υπόθεση, (H 0 ), η οποία εκφράζει την εικασία που θέλουμε να ελέγξουμε: π.χ. για να ελέγξουμε ότι το δείγμα μας προέρχεται από την τυπική κανονική κατανομή θα είχαμε H 0 : F(x) = F(x; 0, 1) όπου F(x; 0, 1) η α.σ.κ της N(0, 1). 2. Σχηματίζουμε την εναλλακτική υπόθεση, (H 1 ) η οποία εκφράζει την περίπτωση που η H 0 δεν ισχύει. Η H 1 μπορεί να περιέχει όλες της εναλλακτικές καταστάσεις της H 0, π.χ.: H 1 : F(x) F(x; 0, 1) η μόνο κάποιες συγκεκριμένες, π.χ. H 1 : F(x) = F(x; 1, 2) 3. Σχηματίζουμε μία στατιστική συνάρτηση, βάση κάποιας χαρακτηριστικής ιδιότητας της υπόθεσης που θέλουμε να ελέγξουμε. 4. Οταν ισχύει η H 0, θα επαληθεύεται η ιδιότητα και βάση αυτού μπορούμε να συμπεράνουμε με πιο πολύ σιγουριά (και πάλι όχι 100%) αν ισχύει η υπόθεση μας. Είναι σημαντικό να τονίσουμε εδώ ότι και πάλι δεν θα έχουμε 100% σιγουριά στο αποτέλεσμα. Οι στατιστικοί έλεγχου υποθέσεων βασίζονται στο λεγόμενο επίπεδο σημαντικότητας βάση του οποίου καθορίζεται η αποδοχή ή απόρριψη της υπόθεσης που ελέγχουμε. 9/24

Επίπεδο σημαντικότητας. Για να έχει νόημα ο στατιστικός έλεγχος υποθέσεων που διεξάγουμε θα πρέπει το στατιστικό τεστ, όταν επαναλαμβάνεται με τυχαία δείγματα κάτω από τις ίδιες συνθήκες να αποτυπώνει την πραγματικότητα (απόρριψη ή αποδοχή της H 0, αναλόγως με την πραγματικότητα) ένα `μεγάλο ποσοστό φορών. Αυτό το ποσοστό φορών είναι το επίπεδο σημαντικότητας και καθορίζεται από την πιθανότητα η στατιστική συνάρτηση ελέγχου του τεστ να πάρει τιμές έτσι ώστε το τεστ να επαληθεύεται πολλές φόρες. Στη γενική περίπτωση, αν η κατανομή της στατιστικής συνάρτησης T(X) υπό την H 0 έχει ποσοστιαία σημεία q α, q α (δηλαδή στο διάστημα ( q α, q α ) πε- 2 2 2 2 ρικλείεται το 100(1 α)% των τιμών της T(X)) τότε ισχύει 1 α = P( q α 2 < T(X) < q α 2 ) 3 Test statistic distribution 0.0 0.1 0.2 0.3 0.4 Test Statistic Distribution a 2 a 2 q a 2 q a 2 2 1 0 1 2 3 x 10/24

Κρίσιμη περιοχή. Οπως φάνηκε και από το σχήμα, οι τιμές q α, q α καθορίζουν την 2 2 κρίσιμη περιοχή του τεστ (οι περιοχές με το μπλε χρώμα). Οταν η στατιστική συνάρτηση παίρνει τιμές εκεί, τότε η H 0 απορρίπτεται. Αντίθετα, το διάστημα ( q α, q α ) καθορίζει την περιοχή αποδοχής - 2 2 όταν η T(X) πάρει τιμές σε αυτό το διάστημα τότε η H 0 γίνεται αποδεκτή. Από τα παραπάνω φαίνεται ότι το α είναι το ποσοστό των απορρίψεων της H 0 (δεδομένου ότι αυτή είναι αληθής) που είμαστε διατεθειμένοι να ανεχθούμε. Η στατιστική συνάρτηση T(X) είναι τ.μ. με γνωστή κατανομή όταν η H 0 είναι αληθής. Οι H 0, H 1 διατυπώνονται με βάση τις στατιστικές παραμέτρους του μοντέλου που υιοθετείται για την ανάλυση των δεδομένων και μπορεί να είναι απλές, σύνθετες, μονόπλευρες η δίπλευρες Η μορφή της H 1 καθορίζει της θέση της κρίσιμης περιοχής στον άξονα των x. 11/24

Κρίσιμη περιοχή. Αν είναι δεξιόπλευρη (π.χ. H 0 : θ = θ 0, H 1 : θ > θ 0 ) τότε η κρίσιμη περιοχή είναι της μορφής [q α, + ). Αν είναι αριστερόπλευρη (π.χ. H 0 : θ = θ 0, H 1 : θ < θ 0 ) τότε η κρίσιμη περιοχή είναι της μορφής (, q α ]. Αν είναι διπλευρη (π.χ. H 0 : θ = θ 0, H 1 : θ θ 0 ) τότε η κρίσιμη περιοχή είναι της μορφής (, q α 2 ] [q α 2, + ). Τα ποσοστιαία σημεία q α, q α/2 κ.λ.π. υπολογίζονται από την κατανομή της T(X) όταν αληθεύει η H 0 Δεν υπάρχει θεωρία που να μας εξασφαλίζει 100% αν απορρίπτουμε σωστά η λάθος μια στατιστική υπόθεση. Οταν απορρίπτουμε λανθασμένα την H 0 τότε το σφάλμα που κάνουμε έχει πιθανότητα μικρότερη ή ίση του α το οποίο το καθορίζουμε εμείς και έχει μικρή τιμή (1%, 5%, 10%). Για να κάνουμε σωστά έναν έλεγχο τα βασικά βήματα είναι να καθορίσουμε σωστά την περιοχή απόρριψης / αποδοχής και να υπολογίσουμε σωστά την τιμή της στατιστικής συνάρτησης. 12/24

Τύποι σφαλμάτων κατά τον στατιστικών υποθέσεων. Στον στατιστικό έλεγχο υποθέσεων μπορεί να συμβούν τα εξής δύο ειδών σφάλματα: 1. Σφάλμα τύπου Ι: Απόρριψη της μηδενικής υπόθεσης ενώ αυτή είναι σωστή: α = P( απόρριψης της H 0 H 0 αληθής ) 2. Σφάλμα τύπου ΙΙ: Αποδοχή της μηδενικής υπόθεσης H 0 ενώ αυτή είναι λανθασμένη: β = P( αποδοχή της H 0 H 0 είναι λάθος) Ισχύς του στατιστικού τεστ είναι η πιθανότητα απόρριψης της H 0 ενώ αυτή είναι λάθος, γ = 1 β = P( απόρριψη της H 0 H 0 είναι λάθος) Το επίπεδο σημαντικότητας ενός ελέγχου είναι η πιθανότητα να παρατηρηθεί τιμή του στατιστικού μεγαλύτερη από αυτή που έδωσε το δείγμα των παρατηρήσεων p value = P(T(X) πιο ακραία από την T(x) H 0 ) = P(T(X) > T(x) H 0 ) = 1 F T H0 (x). 13/24

Απόρριψη και αποδοχή στατιστικών υποθέσεων. Η στατιστική συνάρτηση είναι τυχαία μεταβλητή και ως τυχαία μεταβλητή έχει κάποια κατανομή. Η πιθανότητα του p value είναι η πιθανότητα η στατιστική συνάρτηση T(X 1,..., X n ) να λάβει μια ακραία τιμή, όταν η H 0 είναι αληθινή. Test statistic distribution 0.0 0.1 0.2 0.3 0.4 p value P(T(X 1,, X n) > T(x) H 0) 3 2 1 0 1 2 3 Διαισθητικά, αν το p value είναι «κοντά» στο 0 τότε συμπεραίνουμε ότι είναι «απίθανο», δεδομένης της H 0, να εμφανιστεί το συγκεκριμένο δείγμα X 1, X 2,..., X n, και όπως είναι φυσικό φτάνουμε στο συμπέρασμα ότι μάλλον δεν πρέπει να ισχύει η H 0. Για «μικρό» λοιπόν p value είναι λογικό να απορρίπτουμε την H 0. x Ορισμός Η τιμή p value είναι το μικρότερο επίπεδο σημαντικότητας, α, στο οποίο η αρχική υπόθεση μπορεί να απορριφθεί. 14/24

Απόρριψη και αποδοχή στατιστικών υποθέσεων. Προσοχή: Θα πρέπει να τονισθεί ότι η p value δεν είναι η πιθανότητα ότι η H 0 είναι σωστή. Στην κλασική στατιστική θεωρία δεν υπάρχει τρόπος να προσδιορίσουμε την πιθανότητα να είναι σωστή η μηδενική υπόθεση. Αυτό γιατί σε κάθε έλεγχο υπόθεσης, η H 0 θα είναι πάντα ή σωστή ή λάθος. Ερμηνεία του p value Αυτό που παρέχει η τιμή p value είναι η πιθανότητα να παρατηρηθεί τιμή / δείγμα πιο ακραίο σε σχέση με αυτό που έχουμε διαθέσιμο 15/24

Ελεγχος κανονικότητας με το τεστ του Kolmogorov Το τεστ του Kolmogorov βασίζεται στη σύγκριση της αθροιστικής συνάρτησης κατανομής F(x) με την αντίστοιχη εμπειρική συνάρτηση κατανομής που ορίστηκε στην (1). Εάν η διαφορά των 2 συναρτήσεων είναι μεγάλη, αυτό είναι ένδειξη για να απορρίψουμε την μηδενική υπόθεση και να συμπεράνουμε ότι η πραγματική, αλλά άγνωστη συνάρτηση κατανομής F(x) δεν ορίζεται από την μηδενική υπόθεση. Εννοείται πως εφόσον μας ενδιαφέρει να ελέγξουμε αν το δείγμα προέρχεται από κανονική κατανομή, ως F(x) = Φ(x) θεωρούμε την α.σ.κ. της N(0, 1). Το ερώτημα που προκύπτει για να ορίσουμε πλήρως το τεστ είναι πως θα καθορίσουμε αν η απόσταση είναι μεγάλη η μικρή. Αυτό που βολεύει είναι το κατώτερο άνω φράγμα (sup) οπότε ο ορισμός του τεστ είναι: D n = sup F(x) ˆF(x) (2) x Σημαντική παρατήρηση: το συγκεκριμένο τεστ υποθέτει ότι καμία παράμετρος της κατανομής δεν εκτιμάται από τα δεδομένα, αντίθετα τις θεωρεί δεδομένες. 16/24

Ελεγχος κανονικότητας με το τεστ του Kolmogorov Το τεστ βασίζεται στη μέγιστη διαφορά μεταξύ θεωρητικής και εμπειρικής α.σ.κ υπολογισμένη σε κάθε σημείο x του πεδίου ορισμού της κατανομής που ελέγχουμε. Προφανώς, μεγάλη διαφορά των 2 κατανομών σημαίνει απόκλιση από την κατανομή που ελέγχουμε. 2 f(x) 0.0 0.2 0.4 0.6 0.8 1.0 ecdf(rnorm(50)) 1 0 1 2 3 Ο έλεγχος H 0 : F(x) = Φ(x) έναντι της H 1 : F(x) Φ(x), για δείγμα X 1,..., X n στην R γίνεται με την: as<-ks.test(rnorm(50), "pnorm") as One-sample Kolmogorov-Smirnov test data: rnorm(50) D = 0.14407, p-value = 0.2275 alternative hypothesis: two-sided Ερμηνεία: Η τιμή D που επιστρέφει η R είναι η τιμή της στατιστικής συνάρτησης (2) για το συγκεκριμένο δείγμα. Βάσει της τιμής p-value πρέπει να απορρίψουμε η να δεχθούμε την H 0 ; x 17/24

Γενικότερη χρήση του Kolmogorov τεστ. Τι γίνεται όταν το δείγμα δεν είναι όντως από την κατανομή που ελέγχουμε; Π.χ. για δείγμα 50 παρατηρήσεων από την εκθετική κατανομή, x.in <- rexp(50) as<-ks.test(x.in, "pnorm") as One-sample Kolmogorov-Smirnov test data: x.in D = 0.53684, p-value = 5.396e-14 alternative hypothesis: two-sided f(x) 0.0 0.2 0.4 0.6 0.8 1.0 ecdf(x.in) 0 1 2 3 4 Εδώ η τιμή p-value είναι ουσιαστικά 0, το οποίο δείχνει ότι το δείγμα όντως δεν προέρχεται από την κανονική. Το ίδιο φαίνεται και από τη γρ. παράσταση όπου ξεκάθαρα η απόσταση της θεωρητικής α.σ.κ της Ν(0, 1) και της ˆF(x) (βλέπε σχέση (1)) είναι πολύ μεγάλη. Άσκηση: Χρησιμοποιείστε το τεστ του Kolmogorov για να ελέγξετε την υπόθεση (H 0 ) ότι τα δεδομένα προέρχονται από την εκθετική κατανομή x 18/24

Γενικότερη χρήση του Kolmogorov τεστ. Εξ ορισμού, το τεστ του Kolmogorov μπορεί να χρησιμοποιηθεί για έλεγχο προέλευσης δείγματος από οποιαδήποτε κατανομή αρκεί αυτή να είναι συνεχής. Παρατηρείστε ότι προκειμένου να εφαρμόσουμε το τεστ δεν χρειάζεται να υποθέσουμε κάτι άλλο για τα διαθέσιμα δεδομένα, Αυτό σημαίνει ότι το τεστ είναι πολύ γενικό, άρα και ευρέως διαδεδομένο στη χρήση του. Τι γίνεται όμως όταν οι παράμετροι της κατανομής του δείγματος είναι άγνωστοι και πρέπει να εκτιμηθούν; Σε αυτή την περίπτωση, ναι μεν η τιμή του στατιστικού D n εξακολουθεί να ισχύει, αλλά επειδή έχει αλλάξει η κατανομή του, η p-value που υπολογίζουμε δεν έχει καμία πρακτική αξία (δεν μπορεί να χρησιμοποιηθεί για έλεγχο). Το επόμενο τεστ (το τεστ του Lilliefors) απευθύνεται σε περιπτώσεις όπου οι παράμετροι της κατανομής που ελέγχουμε εκτιμώνται από τα δεδομένα. 19/24

Το τεστ του Lilliefors. Εστω δείγμα X 1,..., X n από άγνωστη κατανομή F(x). Για να ελέγξουμε αν το δείγμα προέρχεται από την κανονική κατανομή, εκτιμάμε τη μέση τιμή και διακύμανση της κατανομής του δείγματος από τις σχέσεις n n X = n 1 2 X i, s = (n 1) 1 (X i X) i=1 i=1 1 2 Υπολογίζουμε τις `κανονικοποιημένες τιμές του δείγματος Z i = X i X, i = 1, 2,..., n s Βάση των Zi, i = 1, 2,..., n, υπολογίζουμε την εμπειρική α.σ.κ από την (1), έστω ˆF(x) και μετά την L = sup Φ(x) ˆF(x) (3) x που είναι και η στατιστική συνάρτηση του τεστ. 20/24

Το τεστ του Lilliefors. Για τον υπολογισμό του τεστ υπάρχει η έτοιμη συνάρτηση lillie.test() του πακέτου nortest. ecdf(xin) xin<-rnorm(100, mean = 5, sd = 3) tst<-lillie.test(xin) Lilliefors (Kolmogorov-Smirnov) normality test data: xin D = 0.055925, p-value = 0.6185 f(x) 0.0 0.2 0.4 0.6 0.8 1.0 5 0 5 10 15 Οπως και στην περίπτωση του Kolmogorov τεστ, έτσι και εδώ η μηδενική υπόθεση είναι ότι τα δεδομένα έρχονται από την υποτιθέμενη κατανομή (για το παρόν τεστ αυτή είναι η κανονική) και η εναλλακτική ότι τα δεδομένα δεν προέρχονται από την κανονική. Οπως φαίνεται από την p-value αλλά και από την γραφική παράσταση της κατανομής των δεδομένων η H 0 γίνεται αποδεκτή. Προσοχή: Σε αυτό το τεστ δεν υπάρχει η επιλογή να προσδιορίσουμε άλλη κατανομή ( Φ(x)) για την εναλλακτική υπόθεση. x 21/24

Το τεστ των Shapiro-Wilk. Με δεδομένο δείγμα X 1,..., X n από άγνωστη κατανομή F(x), ένα ακόμα τεστ για έλεγχο κανονικότητας δείγματος είναι το τεστ των Shapiro-Wilk με στατιστική συνάρτηση { } n i=1 a 2 ix (i) W = n i=1 (X i X) 2 (4) όπου X (i) είναι η i-στή διατεταγμένη παρατήρηση, δηλ. η i-στή μικρότερη παρατήρηση του δείγματος. m T V 1 (a 1,..., a n ) = (m T V 1 V 1 m) 1/2 όπου (m 1,..., m n ) είναι οι αναμενόμενες τιμές των διατεταγμένων παρατηρήσεων και V είναι ο πίνακας συνδιακύμανσης τους. Η εντολή shapiro.test() κάνει τον πιο πάνω υπολογισμό αυτόματα και επίσης υπολογίζει την αντίστοιχη p-value. > shapiro.test(rnorm(100, mean = 5, sd = 3)) Shapiro-Wilk normality test data: rnorm(100, mean = 5, sd = 3) W = 0.98294, p-value = 0.2236 22/24

Το τεστ των Anderson-Darling. Τα 2 πρώτα τεστ που είδαμε βασίζονται στην απόσταση της δειγματικής κατανομής των δεδομένων και της κατανομής που υποθέτουμε στη μηδενική υπόθεση. Συνολικά το εμβαδόν της απόστασης μεταξύ των 2 συναρτήσεων είναι: + (ˆF(x) F(x)) 2 df(x) όπου η κάθε παρατήρηση είναι ζυγισμένη με την αντίστοιχη συνάρτηση πυκνότητας της. Μπορούμε να ελέγξουμε ακόμα περισσότερο την επιρροή κάθε παρατήρησης στην παραπάνω συνάρτηση ορίζοντας A = n + (ˆF(x) F(x)) 2 F(x)(1 F(x)) df(x) δηλαδή το κάθε σημείο έχει βάρος f(x)(f(x)(1 F(x)) 1 ) ώστε παρατηρήσεις στα άκρα να έχουν πιο μεγάλο βάρος. Μία πιο χρήσιμη στην πράξη έκδοση του στατιστικού είναι η n A 2 2i 1 { = n ln(f(x(i) )) + ln(1 F(X (n+1 i) )) } n i=1 23/24

Το τεστ των Anderson-Darling. Οπως και για τα προηγούμενα τεστ, η R έχει έτοιμη συνάρτηση, την ad.test() του πακέτου nortest που αυτοματοποιεί τους υπολογισμούς: Παρατήρηση 1. > ad.test(rnorm(100, mean = 5, sd = 3)) Anderson-Darling normality test data: rnorm(100, mean = 5, sd = 3) A = 0.22351, p-value = 0.8208 Η κατανομή της στατιστικής συνάρτησης επηρεάζεται από την κατανομή που ελέγχουμε. Παρατήρηση 2. Το τεστ των Anderson-Darling θεωρείται πιο ισχυρό σε σχέση με τα προηγούμενα για την ανίχνευση της πραγματικότητας. Αν ελέγξουμε π.χ. για εκθετική κατανομή, βλέπουμε ότι τεστ ανιχνεύει (βάση του αποτελέσματος) ότι η προέλευση του δείγματος δεν είναι η κανονική. > ad.test(rexp(100)) Anderson-Darling normality test data: rexp(100) A = 5.0986, p-value = 1.086e-12 24/24