ΕΙΣΑΓΩΓΙΚΟ - ΠΡΟΠΑΡΑΣΚΕΥΑΣΤΙΚΟ ΜΑΘΗΜΑ ΣΤΑΤΙΣΤΙΚΗ II. Μία περίληψη του εξαµηνιαίου µαθήµατος ΣΤΑΤΙΣΤΙΚΗ II - ΕΛΕΓΧΟΣ ΥΠΟΘΕΣΕΩΝ

Σχετικά έγγραφα
A(θ) = n log θ B(x ) = 0. T (x ) = x i. Γ(n)θ n =

1. Εισαγωγή Ο έλεγχος υποθέσεων αναφέρεται στις ιδιότητες µιας άγνωστης παραµέτρους του πληθυσµού: Ο κατηγορούµενος είναι αθώος

ΕΛΕΓΧΟΙ ΠΡΟΣΑΡΜΟΓΗΣ & ΥΠΟΘΕΣΕΩΝ

Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπισ τήμιο Κρήτης 22 Μαΐου /32

(X1 X 2 ) 2}. ( ) f 1 (x i ; θ) = θ x i. (1 θ) n x i. x i log. i=1. i=1 t2 i

Κεφάλαιο 9. Έλεγχοι υποθέσεων

ΕΙΣΑΓΩΓΗ. Μη Παραµετρική Στατιστική, Κ. Πετρόπουλος. Τµήµα Μαθηµατικών, Πανεπιστήµιο Πατρών

Κεφάλαιο 9. Έλεγχοι υποθέσεων

Η ΙΣΧΥΣ ΕΝΟΣ ΕΛΕΓΧΟΥ. (Power of a Test) ΚΕΦΑΛΑΙΟ 21

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΕΙΣΑΓΩΓΗ ΣΤΗ ΣΤΑΤΙΣΤΙΚΗ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Στατιστική Συμπερασματολογία

6 ο ΜΑΘΗΜΑ Έλεγχοι Υποθέσεων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Στατιστική για Πολιτικούς Μηχανικούς Λυμένες ασκήσεις μέρους Β

Ανάλυση Δεδοµένων µε χρήση του Στατιστικού Πακέτου R

Σηµειώσεις στις σειρές

Ασκήσεις για το µάθηµα «Ανάλυση Ι και Εφαρµογές» (ε) Κάθε συγκλίνουσα ακολουθία άρρητων αριθµών συγκλίνει σε άρρητο αριθµό.

Στατιστική Επιχειρήσεων ΙΙ

Έλεγχος Υποθέσεων. Δρ. Αθανάσιος Δαγούμας, Επ. Καθηγητής Οικονομικής της Ενέργειας & των Φυσικών Πόρων, Πανεπιστήμιο Πειραιώς

2.5 ΕΛΕΓΧΟΣ ΠΟΣΟΣΤΙΑΙΩΝ ΣΗΜΕΙΩΝ ΜΙΑΣ ΚΑΤΑΝΟΜΗΣ (The Quantile Test)

2.6 ΟΡΙΑ ΑΝΟΧΗΣ. πληθυσµού µε πιθανότητα τουλάχιστον ίση µε 100(1 α)%. Το. X ονοµάζεται κάτω όριο ανοχής ενώ το πάνω όριο ανοχής.

Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπισ τήμιο Κρήτης 14 Μαρτίου /34

n + 1 X(1 + X). ) = X i i=1 i=1

ΕΛΕΓΧΟΙ ΥΠΟΘΕΣΕΩΝ ΚΕΦΑΛΑΙΟ 17

Στατιστική Συμπερασματολογία

ΕΛΕΓΧΟΣ ΣΤΑΤΙΣΤΙΚΩΝ ΥΠΟΘΕΣΕΩΝ

εξαρτάται από το θ και για αυτό γράφουµε την σ.π.π. στην εξής µορφή: ( θ, + ) θ θ n 2n (θ,+ ) 1, 0, x θ.

2.5.1 ΕΚΤΙΜΗΣΗ ΠΟΣΟΣΤΙΑΙΩΝ ΣΗΜΕΙΩΝ ΜΙΑΣ ΚΑΤΑΝΟΜΗΣ

Σ ΤΑΤ Ι Σ Τ Ι Κ Η ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Στατιστική Ι. Ενότητα 9: Κατανομή t-έλεγχος Υποθέσεων. Δρ. Γεώργιος Κοντέος Τμήμα Διοίκησης Επιχειρήσεων Γρεβενών

f (x) = l R, τότε f (x 0 ) = l. = lim (0) = lim f(x) = f(x) f(0) = xf (ξ x ). = l. Εστω ε > 0. Αφού lim f (x) = l R, υπάρχει δ > 0

3. Οριακά θεωρήµατα. Κεντρικό Οριακό Θεώρηµα (Κ.Ο.Θ.)

Οι θεµελιώδεις έννοιες που απαιτούνται στη Επαγωγική Στατιστική (Εκτιµητική, ιαστήµατα Εµπιστοσύνης και Έλεγχοι Υποθέσεων) είναι:

Ακρότατα υπό συνθήκη και οι πολλαπλασιαστές του Lagrange

Στατιστικός έλεγχος υποθέσεων (Μέρος 1 ο )

Σ ΤΑΤ Ι Σ Τ Ι Κ Η. Statisticum collegium iv

ΑΣΚΗΣΕΙΣ ΣΤΟΥΣ ΕΛΕΓΧΟΥΣ ΥΠΟΘΕΣΕΩΝ

Στατιστική Συμπερασματολογία

5.1 Ο ΕΛΕΓΧΟΣ SMIRNOV

Στατιστική. Εκτιμητική

Στατιστική για Χημικούς Μηχανικούς Έλεγχος στατιστικών υποθέσεων. Κουγιουμτζής Δημήτριος Τμήμα Χημικών Μηχανικών

Στατιστική Συμπερασματολογία

2. Στοιχεία Πολυδιάστατων Κατανοµών

ΑΝΑΛΥΣΗ ΔΙΑΚΥΜΑΝΣΗΣ. Επικ. Καθ. Στέλιος Ζήμερας. Τμήμα Μαθηματικών Κατεύθυνση Στατιστικής και Αναλογιστικά Χρηματοοικονομικά Μαθηματικά

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΕΛΕΓΧΟΣ ΣΤΑΤΙΣΤΙΚΩΝ ΥΠΟΘΕΣΕΩΝ. Επαγωγική στατιστική (Στατιστική Συμπερασματολογία) Εκτιμητική Έλεγχος Στατιστικών Υποθέσεων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Μέθοδος μέγιστης πιθανοφάνειας

Έλεγχος υποθέσεων και διαστήματα εμπιστοσύνης

Σ ΤΑΤ Ι Σ Τ Ι Κ Η. Statisticum collegium Iii

Έλεγχος Υποθέσεων (Hypothesis Testing)

Κεφάλαιο 10 Εισαγωγή στην Εκτίμηση

ΛΥΣΕΙΣ ΑΣΚΗΣΕΩΝ

Κεφάλαιο 2 ΕΚΤΙΜΗΣΗ ΠΑΡΑΜΕΤΡΩΝ. 2.1 Σηµειακή Εκτίµηση. ˆθ παίρνει διαφορετικές τιµές, δηλαδή η ˆθ είναι η ίδια τ.µ. µε κάποια κατανοµή κι έχει µέση

Ασκήσεις για το µάθηµα «Ανάλυση Ι και Εφαρµογές»

1 Ορισµός ακολουθίας πραγµατικών αριθµών

MEΤΑΣΧΗΜΑΤΙΣΜΟΙ ΤΗΣ ΜΟΡΦΗΣ Y= g( X1, X2,..., Xn)

Εργαστήριο Μαθηματικών & Στατιστικής 2η Πρόοδος στο Μάθημα Στατιστική 28/01/2011 (Για τα Τμήματα Ε.Τ.Τ. και Γ.Β.) 1ο Θέμα [40] α) στ) 2ο Θέμα [40]

< 1 για κάθε k N, τότε η σειρά a k συγκλίνει. +, τότε η η σειρά a k αποκλίνει.

ΑΛΓΕΒΡΙΚΕΣ ΟΜΕΣ Ι. Ασκησεις - Φυλλαδιο 2

Στατιστικός έλεγχος υποθέσεων (Μέρος 1 ο ) 24/2/2017

Κεφάλαιο 11 Εισαγωγή στον Έλεγχο Υποθέσεων

1 Οι πραγµατικοί αριθµοί

1 Οι πραγµατικοί αριθµοί

Α Ν Ω Τ Α Τ Ο Σ Υ Μ Β Ο Υ Λ Ι Ο Ε Π Ι Λ Ο Γ Η Σ Π Ρ Ο Σ Ω Π Ι Κ Ο Υ Ε Ρ Ω Τ Η Μ Α Τ Ο Λ Ο Γ Ι Ο

ΜΑΘΗΜΑΤΙΚΑ ΚΑΙ ΣΤΟΙΧΕΙΑ ΣΤΑΤΙΣΤΙΚΗΣ Γ' ΛΥΚΕΙΟΥ ΓΕΝΙΚΗΣ ΠΑΙ ΕΙΑΣ 2006 ΕΚΦΩΝΗΣΕΙΣ

ΘΕΩΡΙΑ ΑΡΙΘΜΩΝ Ασκησεις - Φυλλαδιο 9

ΑΠΟ ΤΟ ΔΕΙΓΜΑ ΣΤΟΝ ΠΛΗΘΥΣΜΟ

όπου D(f ) = (, 0) (0, + ) = R {0}. Είναι Σχήµα 10: Η γραφική παράσταση της συνάρτησης f (x) = 1/x.

Γ. Πειραματισμός - Βιομετρία

ΣΕΙΡΕΣ TAYLOR. Στην Ενότητα αυτή θα ασχοληθούµε µε την προσέγγιση συναρτήσεων µέσω πολυωνύµων. Πολυώνυµο είναι κάθε συνάρτηση της µορφής:

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπισ τήμιο Κρήτης 13 Μαρτίου /31

Αρµονική Ανάλυση. Ενότητα: L p Σύγκλιση. Απόστολος Γιαννόπουλος. Τµήµα Μαθηµατικών

ΤΕΣΤ ΣΤΑΤΙΣΤΙΚΗΣ ΕΦΑΡΜΟΣΜΕΝΗΣ ΣΤΑΤΙΣΤΙΚΗΣ ΓΕΩΡΓΙΚΟΥ ΠΕΙΡΑΜΑΤΙΣΜΟΥ. Τεστ 1 ο Κατανοµή Συχνοτήτων (50 βαθµοί)

4 o Μάθημα Διάστημα Εμπιστοσύνης του Μέσου

ΤΕΙ Αθήνας Μεθοδολογία της έρευνας και Ιατρική στατιστική

ΣΤΑΤΙΣΤΙΚΗ ΣΥΜΠΕΡΑΣΜΑΤΟΛΟΓΙΑ

Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπισ τήμιο Κρήτης 2 Μαΐου /23

4 o Μάθημα Διάστημα Εμπιστοσύνης του Μέσου

Απλή Γραμμική Παλινδρόμηση και Συσχέτιση 19/5/2017

Σχολικός Σύµβουλος ΠΕ03

Θα λύσετε ένα από τα έξι πακέτα ασκήσεων που ακολουθούν, τα οποία είναι αριθµηµένα από 0 έως5. Ο κάθε φοιτητής βρίσκει το πακέτο που του αντιστοιχεί

X = = 81 9 = 9

στατιστική θεωρεία της δειγµατοληψίας

ΗΜΟΚΡΙΤΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΡΑΚΗΣ ΤΜΗΜΑ ΑΓΡΟΤΙΚΗΣ ΑΝΑΠΤΥΞΗΣ Θεόδωρος Χ. Κουτρουµ ανίδης Αναπληρωτής Καθηγητής ΠΘ ΕΦΑΡΜΟΣΜΕΝΗ ΟΙΚΟΝΟΜΙΚΗ ΣΤΑΤΙΣΤΙΚΗ

Γραµµική Αλγεβρα Ι. Ενότητα: ιανυσµατικοί χώροι. Ευάγγελος Ράπτης. Τµήµα Μαθηµατικών

ροµολόγηση πακέτων σε δίκτυα υπολογιστών

Ανάλυση διακύμανσης (Μέρος 1 ο ) 17/3/2017

Κεφάλαιο 6 Παράγωγος

ΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ Ι Συμπληρωματικές Σημειώσεις Δημήτριος Παντελής

5.1 Συναρτήσεις δύο ή περισσοτέρων µεταβλητών

6.3 Ο ΑΜΦΙΠΛΕΥΡΟΣ ΕΛΕΓΧΟΣ SMIRNOV ΓΙΑ k ΑΝΕΞΑΡΤΗΤΑ ΔΕΙΓΜΑΤΑ

3. Κατανομές πιθανότητας

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΚΡΥΠΤΟΛΟΓΙΑ ΣΗΜΕΙΩΣΕΙΣ #6 ΘΕΟ ΟΥΛΟΣ ΓΑΡΕΦΑΛΑΚΗΣ

ΠΕΡΙΓΡΑΦΙΚΗ και ΕΠΑΓΩΓΙΚΗ ΣΤΑΤΙΣΤΙΚΗ

3. ΠΑΡΑΜΕΤΡΟΙ ΚΑΤΑΝΟΜΩΝ

ΑΣΚΗΣΕΙΣ ΣΤΗΝ ΕΚΤΙΜΗΤΙΚΗ

Transcript:

ΕΙΣΑΓΩΓΙΚΟ - ΠΡΟΠΑΡΑΣΚΕΥΑΣΤΙΚΟ ΜΑΘΗΜΑ ΣΤΑΤΙΣΤΙΚΗ II Μία περίληψη του εξαµηνιαίου µαθήµατος ΣΤΑΤΙΣΤΙΚΗ II - ΕΛΕΓΧΟΣ ΥΠΟΘΕΣΕΩΝ Γιώργος Ηλιόπουλος (Αλλά όλοι τα ίδια ϑα σας έλεγαν)

Η Στατιστική χρησιµοποιείται από όλους ανεξαιρέτως τους κλάδους στους οποίους εµφανίζονται ποσοτικά δεδοµένα, δηλαδή µετρήσεις ποσοτήτων. Κάθε εφαρµογή καταλήγει µε έναν ή περισσότερους ελέγχους υποθέσεων. Οι έλεγχοι υποθέσεων είναι ο τρόπος µε τον οποίο η Στατιστική απαντάει σε επιστηµονικά ερωτήµατα και µας οδηγεί σε αποφάσεις που σχετίζονται µε αυτά.

Ορισµός. Μία στατιστική υπόθεση είναι ένας ισχυρισµός για την κατανοµή ενός πληθυσµού. Μία τέτοια υπόθεση (ισχυρισµός) µπορεί να αναφέρεται (α) σε ένα ή περισσότερα στοιχεία της κατανοµής του πληθυσµού, π.χ. «η µέση τιµή του πληθυσµού είναι µεγαλύτερη από 10» «οι διασπορές δύο υποοµάδων του πληθυσµού είναι ίσες» «δύο διαφορετικές κατηγοριοποιήσεις του πληθυσµού είναι ανεξάρτητες» (ϐ) στην ίδια την κατανοµή του πληθυσµού, π.χ. «η κατανοµή του πληθυσµού είναι κανονική» «οι κατανοµές δύο υποοµάδων του πληθυσµού διαφέρουν»

Παράδειγµα Η συσκευασία ενός αναψυκτικού προβλέπεται ότι πρέπει να περιέχει κατά µέσο όρο 500ml. Η οµάδα ελέγχου ποιότητας της γραµµής παραγωγής ϑέλει να ξέρει αν στις συσκευασίες που παράγονται αυτό είναι όντως αληθές. Συµβολίζοντας µε µ την µέση ποσότητα αναψυκτικού σε µία συσκευασία που παράγεται υπό τις παρούσες συνθήκες, η οµάδα ϑέλει να ξέρει αν µ = 500 ή µ 500. Είναι αυτές οι δύο στατιστικές υποθέσεις; Θυµηθείτε πώς ξεκινήσαµε: Ορισµός. Μία στατιστική υπόθεση είναι ένας ισχυρισµός για την κατανοµή ενός πληθυσµού. Για ποιον πληθυσµό µιλάµε και για ποια κατανοµή;

Παράδειγµα (συνέχεια) Ο πληθυσµός Το σύνολο των συσκευασιών του αναψυκτικού που παράγονται (ή µπορεί να παραχθούν) υπό τις παρούσες συνθήκες. Η κατανοµή Υποθέστε ότι συγκεντρώνουµε όλες τις συσκευασίες που παράγονται (ή µπο- ϱεί να παραχθούν) υπό τις παρούσες συνθήκες και για κάθε µία απ αυτές καταγράφουµε το ακριβές περιεχόµενό της σε ml. Η κατανοµή για την οποία µιλάµε είναι η κατανοµή όλων αυτών των τιµών. Α, και ο µέσος όρος όλων αυτών των τιµών είναι το µ για το οποίο ενδιαφέρεται η οµάδα. Ζήσε Μάη µου... Η µήπως όχι;

Παράδειγµα (συνέχεια) Ο πληθυσµός Το σύνολο των συσκευασιών του αναψυκτικού που παράγονται (ή µπορεί να παραχθούν) υπό τις παρούσες συνθήκες. Η κατανοµή Υποθέστε ότι συγκεντρώνουµε όλες τις συσκευασίες που παράγονται (ή µπο- ϱεί να παραχθούν) υπό τις παρούσες συνθήκες και για κάθε µία απ αυτές καταγράφουµε το ακριβές περιεχόµενό της σε ml. Η κατανοµή για την οποία µιλάµε είναι η κατανοµή όλων αυτών των τιµών. Α, και ο µέσος όρος όλων αυτών των τιµών είναι το µ για το οποίο ενδιαφέρεται η οµάδα. Ζήσε Μάη µου... Η µήπως όχι;

Παράδειγµα (συνέχεια) Ο πληθυσµός Το σύνολο των συσκευασιών του αναψυκτικού που παράγονται (ή µπορεί να παραχθούν) υπό τις παρούσες συνθήκες. Η κατανοµή Υποθέστε ότι συγκεντρώνουµε όλες τις συσκευασίες που παράγονται (ή µπο- ϱεί να παραχθούν) υπό τις παρούσες συνθήκες και για κάθε µία απ αυτές καταγράφουµε το ακριβές περιεχόµενό της σε ml. Η κατανοµή για την οποία µιλάµε είναι η κατανοµή όλων αυτών των τιµών. Α, και ο µέσος όρος όλων αυτών των τιµών είναι το µ για το οποίο ενδιαφέρεται η οµάδα. Ζήσε Μάη µου... Η µήπως όχι;

Παράδειγµα (συνέχεια) Το δείγµα (ποιο;) Η οµάδα δεν έχει άλλη λύση παρά να µετρήσει το περιεχόµενο µερικών µόνο συσκευασιών. Επιλέγει λοιπόν τυχαία n = 10 συσκευασίες έστω x 1,...,x 10 τα περιεχόµενα αυτών (σε ml). Παρατηρεί ότι οι τιµές αυτές δεν είναι όλες ίσες µεταξύ τους και ότι ο µέσος όρος τους είναι x = ni=1 x i n = x 1 + + x 10 10 = 499.3 ml. Βλέπει ότι ο µέσος όρος των περιεχοµένων των δέκα τυχαία επιλεγµένων συσκευασιών διαφέρει από την «επιθυµητή» τιµή 500. Είναι αυτό το γεγονός αρκετό έτσι ώστε να αποφασίσει ότι µ 500;

Παράδειγµα (συνέχεια) Προσέξτε το εξής: Η τιµή 499.3 προέκυψε από τις δέκα µόνο συσκευασίες που επελέγησαν. Αν αντί µίας από αυτές είχε επιλεγεί κάποια άλλη, κατά πάσα πιθανότητα ϑα προέκυπτε ένας άλλος µέσος όρος, π.χ. 499.4. Καταλαβαίνετε ότι το 499.3 είναι ο µέσος όρος των περιεχοµένων αυτής της συγκεκριµένης δεκάδας και ότι αν αντί αυτής είχε επιλεγεί κάποια άλλη ϑα παίρναµε (κατά πάσα πιθανότητα) έναν άλλον αριθµό που µπορεί να ήταν µικρότερος, ίσος ή και µεγαλύτερος από το «επιθυµητό» 500. Το µ όµως είναι το µέσο περιεχόµενο όλων των συσκευασιών που µπορούν να παραχθούν υπό τις παρούσες συνθήκες: Είναι η µέση τιµή της κατανοµής όλων των περιεχοµένων. Για εκείνο µας ενδιαφέρει να µάθουµε αν είναι ίσο ή όχι µε 500.

Παράδειγµα (συνέχεια) Τι σχέση έχει το 499.3 µε το µ; Από τα ϐασικά της Εκτιµητικής (αλλά και ϐάσει της λογικής του µέσου σκεπτόµενου ανθρώπου), το 499.3 µπορεί να χρησιµοποιηθεί ως εκτίµηση (προσέγγιση, µαντεψιά) του µ. Αν λοιπόν η οµάδα κρίνει ότι η εκτίµηση 499.3 είναι αρκετά «κοντά» στο επι- ϑυµητό 500 τότε ϑα πρέπει να πάρει απόφαση υπέρ της υπόθεσης µ = 500. Αν, αντιθέτως, ϑεωρήσει ότι είναι «µακριά» από αυτό τότε ϑα πρέπει να πάρει απόφαση υπέρ της υπόθεσης µ 500. Πώς ϑα κρίνει η οµάδα αν το 499.3 είναι κοντά στο 500 ή µακριά από αυτό;

Παράδειγµα (συνέχεια) Εστω P η κατανοµή του περιεχόµενου των συσκευασιών. Σηµείωση: Αυτό σηµαίνει ότι αν X είναι το περιεχόµενο µιας τυχαία επιλεγµένης συσκευασίας τότε σε οποιοδήποτε «καλό» υποσύνολο B των πραγµατικών αριθµών αντιστοιχίζεται ο αριθµός P(B) = P(X B) = P(το περιεχόµενο µιας τυχαία επιλεγµένης συσκευασίας ανήκει στο σύνολο B). Η οµάδα ϑεωρεί τις δέκα παρατηρηθείσες τιµές x 1,...,x 10 ως τιµές που πήραν αντίστοιχες ανεξάρτητες τυχαίες µεταβλητές X 1,...,X 10 µε X i P. Η τιµή x = 499.3 είναι η τιµή που πήρε η τυχαία µεταβλητή X = 10 i=1 X i/10 που έχει την κατανοµή του µέσου όρου (δειγµατικού µέσου) δέκα ανεξάρτητων τυχαίων µεταβλητών από την κατανοµή P. Το µ είναι η µέση τιµή της κατανοµής P, δηλαδή E(X i ) = µ, i = 1,...,10. Θυµηθείτε επίσης ότι E( X) = µ.

Παράδειγµα (συνέχεια) Προκειµένου να διευκολύνουµε τη συζήτηση αλλά και την κατανόηση των εννοιών που ϑα ακολουθήσουν ϑα κάνουµε ακόµη µία ϕανταστική «υπόθεση» (παραδοχή): Η κατανοµή P των συσκευασιών είναι κανονική µε γνωστή διασπορά σ 2 = 1. Σηµείωση: Αυτό είναι (κυριολεκτικά) µεγαλύτερη επιστηµονική ϕαντασία απ ό,τι το παράδειγµα. Αυτό σηµαίνει ότι τα δεδοµένα µας x 1,...,x 10 είναι τιµές που πήραν τυχαίες µεταβλητές X 1,...,X 10 που προέρχονται από κανονική κατανοµή N(µ, 1). Επειδή, όπως γνωρίζουµε, αν X 1,...,X n είναι τυχαίο δείγµα από κανονική κατανοµή N(µ,σ 2 ) τότε X = n i=1 X i /n N(µ,σ 2 /n), η τιµή x = 499.3 είναι η τιµή που πήρε µία τυχαία µεταβλητή µε κατανοµή N(µ, 1/10).

Παράδειγµα (συνέχεια) Ξέρουµε επίσης ότι αν X N(µ,σ 2 ) τότε X µ N(0, 1) (τυποποίηση). σ Εποµένως, αφού X N(µ,σ 2 X µ /n), ϑα ισχύει σ/ N(0, 1). n Στην περίπτωσή µας όπου X N(µ, 1/10), έχουµε X µ 1/ 10 N(0, 1). Το τελευταίο ισχύει οποιαδήποτε τιµή κι αν έχει το µ, είτε ισούται µε το «επιθυ- µητό» 500 είτε όχι. ηλαδή, αν µ = 500 τότε 10( X 500) N(0, 1), αν µ = 490 τότε 10( X 490) N(0, 1) κλπ.

Παράδειγµα (συνέχεια) Οπως είδαµε η οµάδα ϑέλει να επιλέξει µεταξύ των (στατιστικών) υποθέσεων µ = 500 και µ 500. Εάν ισχύει η πρώτη τότε η διαδικασία εµφιάλωσης των αναψυκτικών λειτουργεί όπως προβλέπεται, όλα δουλεύουν ϱολόι, δεν συµβαίνει τίποτα ασυνήθιστο. Αυτή η υπόθεση (εδώ αλλά και σχεδόν σε κάθε πρόβληµα) καλείται µηδενική υπόθεση και παραδοσιακά συµβολίζεται µε H 0 (null hypothesis). Η δεύτερη υπόθεση, αυτή που έρχεται να αµφισβητήσει την µηδενική και που δηλώνει ότι συµβαίνει κάτι, καλείται εναλλακτική υπόθεση και κλασσικοί συµβολισµοί της είναι H 1, H a κ.α. (alternative hypothesis). Το πρόβληµα της οµάδας µεταφράζεται στο πρόβληµα ελέγχου υποθέσεων H 0 : µ = 500 κατά H 1 : µ 500.

Παράδειγµα (συνέχεια) Η οµάδα καλείται να αποφασίσει είτε υπέρ της H 0 είτε υπέρ της H 1. εδοµένου ότι η H 0 είναι η υπόθεση η οποία εφ όσον ισχύει δεν χρειάζεται να προβούµε σε καµµία ενέργεια, αντιµετωπίζεται ως υπόθεση «ϐάσης» που έρχεται να την αµφισβητήσει η εναλλακτική υπόθεση H 1. Αν η απόφαση είναι υπέρ της H 0 τότε λέµε ότι αποδεχόµαστε την H 0. Αν η απόφαση είναι υπέρ της H 1 τότε λέµε ότι απορρίπτουµε την H 0. Σηµείωση: Στο ϑέµα της αποδοχής της H 0 ϑα επανέλθουµε αργότερα προς το παρόν ϑα λέµε έτσι την απόφαση υπέρ της.

Παράδειγµα (συνέχεια) Υπάρχει περίπτωση η οµάδα να αποφασίσει λανθασµένα υπέρ της µίας ή της άλλης υπόθεσης. Αν αποφασίσει υπέρ της H 1 (δηλαδή απορρίψει την H 0 ) ενώ στην πραγµατικότητα ισχύει η H 0 τότε λέµε ότι διέπραξε σφάλµα τύπου I. Αν αποφασίσει υπέρ της H 0 (δηλαδή αποδεχθεί την H 0 ) ενώ στην πραγµατικότητα ισχύει η H 1 τότε λέµε ότι διέπραξε σφάλµα τύπου II. Απόφαση Πραγµατικότητα H 0 H 1 H 0 σφάλµα τύπου I H 1 σφάλµα τύπου II

Παράδειγµα (συνέχεια) Πώς ϑα πάρει την απόφασή της η οµάδα; Θυµηθείτε πως συνέλεξε δεδοµένα, δέκα συσκευασίες, στις οποίες υπολόγισε x = 499.3. Αυτή είναι η τιµή που πήρε η τυχαία µεταβλητή X που έχει κατανοµή N(µ, 1/10). ΑΝ ισχύει η H 0 : µ = 500 τότε (και µόνον τότε) 10( X 500) N(0, 1), εποµένως η τιµή z = 10(499.3 500) 2.214 ϑα είναι τιµή που πήρε µία τυπική κανονική τυχαία µεταβλητή. Ερώτηση: Περιµένουµε κάτι τέτοιο από µία τέτοια τυχαία µεταβλητή; Απάντηση: Μα τι λες; Οι κανονικές τυχαίες µεταβλητές παίρνουν τιµές σε όλο το R. Γιατί να µην περιµένουµε κάτι τέτοιο;

Παράδειγµα (συνέχεια) Στο παρακάτω γράφηµα ϐλέπουµε την πυκνότητα πιθανότητας της τυπικής κανονικής κατανοµής και την τιµή z = 2.214 που πήρε η 10( X 500). z = 2.214 0 Η τιµή δεν είναι τόσο πολύ «ακραία» αλλά ούτε είναι και από τις πιο «κεντρικές».

Παράδειγµα (συνέχεια) Λέγαµε πριν ότι ϑα αποφασίσουµε υπέρ ή κατά της H 0 ϐάσει του πόσο κοντά ή µακριά ϑεωρούµε την τιµή του x στο 500. Αφού µιλάµε για «κοντά» και «µακριά» χρειαζόµαστε ένα µέτρο απόστασης. Ας ϑεωρήσουµε ως µέτρο την απόλυτη απόκλιση x 500 ή, ακόµη καλύτερα, την T(x ) T(x 1,...,x 10 ) = 10 x 500. Προφανώς, όσο αποµακρύνεται η τιµή x από το 500 (είτε προς τα δεξιά είτε προς τα αριστερά) τόσο µεγαλώνει αυτή η ποσότητα. Θα πρέπει τώρα να καθορίσουµε ένα «κατώφλι» C > 0 τέτοιο ώστε αν T(x ) > C να απορρίψουµε την H 0 κανόνας απόρριψης αν T(x ) C να αποδεχθούµε την H 0.

Παράδειγµα (συνέχεια) Πώς ϑα καθορίσουµε το «κατώφλι» C και κατ επέκταση τον κανόνα απόρριψης T(x ) = 10 x 500 > C ; Παρατηρήστε ότι αν επιλέξουµε µικρό C ϑα απορρίψουµε ευκολότερα την H 0 ενώ αν επιλέξουµε µεγάλο C ϑα την απορρίψουµε δυσκολότερα. Οµως... αν η H 0 είναι εύκολο να απορριφθεί τότε είναι πολύ πιθανό να υποπέσουµε σε σφάλµα τύπου I (απόρριψη της H 0 ενώ είναι αληθής) αν η H 0 είναι δύσκολο να απορριφθεί τότε είναι πολύ πιθανό να υποπέσουµε σε σφάλµα τύπου II (αποδοχή της H 0 ενώ είναι ψευδής). Το ιδανικό ϑα ήταν να είναι µικρές οι πιθανότητες και των δύο σφαλµάτων! Οπως ενδεχοµένως να ϕαντάζεστε, αυτό δεν είναι και τόσο απλό...

Παράδειγµα (συνέχεια) Η µεθοδολογία που ακολουθείται για την επιλογή του «κατωφλιού» C είναι η ακόλουθη: Επιλέγουµε έναν µικρό αριθµό α (0, 1) και διαλέγουµε το C έτσι ώστε η πιθανότητα σφάλµατος τύπου I να µην υπερβαίνει αυτό το α. Εδώ, σφάλµα τύπου I ϑα κάνουµε αν T(x ) = 10 x 500 > C ενώ ισχύει η µηδενική υπόθεση, εποµένως το C ϑα επιλεγεί έτσι ώστε P H0 { 10 X 500 > C } α. Ο αριθµός α καλείται επίπεδο σηµαντικότητας. Η υπόθεση H 0 καθορίζει πλήρως την κατανοµή (κανονική µε µέση τιµή 500 και διασπορά 1) εποµένως εδώ το «µικρότερο ή ίσο» είναι περιττό: το C µπορεί να επιλεγεί έτσι ώστε η παραπάνω πιθανότητα να είναι ακριβώς ίση µε α.

Παράδειγµα (συνέχεια) Ας ϐρούµε λοιπόν το C. Εχουµε { } α = P µ=500 10 X 500 > C = P( Z > C) = P(Z < C ή Z > C) = P(Z < C) + P(Z > C) = 2 P(Z > C) εποµένως το C είναι ο (µοναδικός) αριθµός για τον οποίον ισχύει P(Z > C) = α/2. α/2 0 z α/2 z α/2 Ετσι, ο κανόνας απόρριψης της H 0 γίνεται T(X ) = 10 X 500 > z α/2.

Παρένθεση Το σύµβολο z α/2 διαβάζεται «(α/2)-ποσοστιαίο σηµείο της τυπικής κανονικής κατανοµής». Γενικά, το α-ποσοστιαίο σηµείο της τυπικής κανονικής κατανοµής είναι ο (µοναδικός) αριθµός z α για τον οποίον ισχύει P(Z > z α ) = α, όπου Z N(0, 1). Λόγω της συχνότατης χρήσης της τυπικής κανονικής κατανοµής, οι στατιστικοί γνωρίζουν απ έξω τα ποσοστιαία σηµεία που χρησιµοποιούνται συχνότερα: z 0.1 1.28, z 0.05 1.64, z 0.025 1.96, z 0.01 2.33, z 0.005 2.58. Το ποσοστιαίο σηµείο z α είναι γνησίως ϕθίνουσα συνάρτηση του α. (Λογικό.) Κλείνει η παρένθεση

Παράδειγµα (συνέχεια) Τι συµβαίνει µε την πιθανότητα σφάλµατος τύπου II; Στο παράδειγµά µας που αποδεχόµαστε την H 0 όταν T(X ) z α/2 µπορούµε να την υπολογίσουµε ακριβώς. Για οποιοδήποτε µ 500 έχουµε P µ { 10 X 500 zα/2 } = P µ { zα/2 10( X 500) z α/2 } = P µ { zα/2 10( X µ) + 10(µ 500) z α/2 } = P µ { zα/2 10(µ 500) 10( X µ) z α/2 10(µ 500) } = P { z α/2 10(µ 500) Z z α/2 10(µ 500) } = Φ ( z α/2 10(µ 500) ) Φ ( z α/2 10(µ 500) ), όπου Φ είναι η συνάρτηση κατανοµής της τυπικής κανονικής κατανοµής.

Παράδειγµα (συνέχεια) Πιο ενδιαφέρουσα έννοια από την πιθανότητα σφάλµατος τύπου II είναι η ισχύς. Η ισχύς του ελέγχου σε ένα σηµείο µ της εναλλακτικής υπόθεσης (δηλαδή µ 500) είναι η πιθανότητα απόρριψης της H 0 όταν η µέση τιµή είναι ίση µε αυτό το µ. Με άλλα λόγια, ισούται µε τη συµπληρωµατική της πιθανότητας σφάλµατος τύπου II. Στην περίπτωσή µας, η ισχύς του ελέγχου σε ένα σηµείο µ 500 ισούται µε 1 { Φ ( z α/2 10(µ 500) ) Φ ( z α/2 10(µ 500) ) }. Γενικά, ϑέλουµε µία διαδικασία ελέγχου ( ένας έλεγχος) να έχει µεγάλη ισχύ σε οτιδήποτε συµπεριλαµβάνεται στην εναλλακτική υπόθεση προκειµένου να έχει την ικανότητα να απορρίπτει την µηδενική όταν αυτή δεν ισχύει.

Παράδειγµα (συνέχεια) Η επιλογή του επιπέδου σηµαντικότητας α είναι γενικά αυθαίρετη. ( εν προκύπτει από κάποιον κανόνα.) Γενικά, η πιο κλασσική επιλογή για το α είναι το 0.05 (5%), πράγµα που σηµαίνει ότι επιτρέπουµε 5 στις 100 ϕορές (1 στις 20) να κάνουµε σφάλµα τύπου I. Για α = 0.05 έχουµε z α/2 = z 0.025 1.96. εύτερη στη σειρά επιλογή είναι το 0.01 (1%) µε αυτό είµαστε πιο ελαστικοί µε την H 0 και προκειµένου να την απορρίψουµε χρειαζόµαστε µεγαλύτερη απόκλιση από αυτήν. Για α = 0.01 έχουµε z α/2 = z 0.005 2.58. Τέλος, αν ϑέλουµε να είµαστε αυστηροί µε την H 0 επιλέγουµε α = 0.1 (10%). Τότε z α/2 = z 0.05 1.64.

Παράδειγµα (συνέχεια) Στο παράδειγµά µας, η οµάδα ελέγχου παρατήρησε x = 499.3 και εποµένως T(x ) = 10 x 500 = 10 499.3 500 = 2.214. Στο κλασσικό επίπεδο σηµαντικότητας 5%, ο κανόνας απόρριψης είναι T(x ) > z 0.025 1.96. Επειδή 2.214 > 1.96, η µηδενική υπόθεση απορρίπτεται σε αυτό το επίπεδο σηµαντικότητας. Το πρακτικό συµπέρασµα είναι ότι η µέση περιεκτικότητα των αναψυκτικών υπό τις παρούσες συνθήκες δεν είναι η προβλεπόµενη (δηλαδή το 500) και ως εκ τούτου ϑα πρέπει να γίνουν οι κατάλληλες ϱυθµίσεις στην διαδικασία για να επανέλθει στα ϕυσιολογικά επίπεδα.

Παράδειγµα (συνέχεια) Τι ϑα συνέβαινε αν είχαµε επιλέξει α = 0.01; Επειδή z α/2 = z 0.005 2.58, ο κανόνας απόρριψης γίνεται T(x ) > 2.58. Επειδή T(x ) = 2.214 2.58, η µηδενική υπόθεση γίνεται αποδεκτή σε αυτό το επίπεδο σηµαντικότητας. Το συµπέρασµα τώρα είναι ότι η µέση περιεκτικότητα των αναψυκτικών υπό τις παρούσες συνθήκες δεν έχει διαφοροποιηθεί από την προβλεπόµενη (το 500) και όλα ϐαίνουν καλώς. Σηµείωση: Οι περισσότεροι χρήστες της Στατιστικής σπάνια λένε ότι η µηδενική υπόθεση γίνεται αποδεκτή. Οταν αποτυγχάνουν να την απορρίψουν ϑεωρούν ότι δεν έχουν επαρκή στοιχεία για να το κάνουν αυτό µια και τα δεδοµένα δεν υποδεικνύουν στατιστικώς σηµαντική απόκλιση από την µηδενική υπόθεση.

Παράδειγµα (συνέχεια) Γενικά ισχύουν τα εξής: Απόρριψη της H 0 σε µικρό επίπεδο σηµαντικότητας µας κάνει να αισθανόµαστε περισσότερο ϐέβαιοι για την H 1. Αποδοχή (µη απόρριψη) της H 0 σε µεγάλο επίπεδο σηµαντικότητας µας υποδεικνύει ότι η πραγµατικότητα δεν αποκλίνει πολύ από αυτό που ισχυρίζεται αυτή. Προσέξτε όµως: Σπάνια µία µηδενική υπόθεση ισχύει. Εποµένως, ακόµη κι αν δεν «καταφέρουµε» την απορρίψουµε, δεν ισχυριζόµαστε ποτέ ότι είναι αληθής, ανεξάρτητα από το αν λέµε «την αποδεχόµαστε» ή «δεν την απορρίπτουµε». Αρα: Αποδοχή (µη απόρριψη) της H 0 δεν συνεπάγεται ότι αυτή είναι αληθής.

Παράδειγµα (συνέχεια) Επίπεδο σηµαντικότητας: α = 0.05 Κανόνας απόρριψης: T(x ) = 10 x 500 > z α/2 = z 0.025 1.96 Ισοδύναµα: z = 10( x 500) > 1.96 ή < 1.96 (z πέφτει στην κρίσιµη περιοχή) Το z πήρε τιµή 2.214 και έπεσε στη κρίσιµη περιοχή: Η H 0 απορρίπτεται. 2.214 0 1.96 1.96 Αφού η H 0 απορρίπτεται στο 5% ϑα απορρίπτεται και σε οποιοδήποτε µεγαλύτερο επίπεδο σηµαντικότητας µια και ϑα διευρυνθεί η κρίσιµη περιοχή.

Παράδειγµα (συνέχεια) Επίπεδο σηµαντικότητας: α = 0.10 Κανόνας απόρριψης: T(x ) = 10 x 500 > z α/2 = z 0.05 1.64 Ισοδύναµα: z = 10( x 500) > 1.64 ή < 1.64 (z πέφτει στην κρίσιµη περιοχή) Το z πήρε τιµή 2.214 και έπεσε στη κρίσιµη περιοχή: Η H 0 απορρίπτεται. 2.214 0 1.64 1.64 Αφού η H 0 απορρίπτεται στο 5% ϑα απορρίπτεται και σε οποιοδήποτε µεγαλύτερο επίπεδο σηµαντικότητας µια και ϑα διευρυνθεί η κρίσιµη περιοχή.

Παράδειγµα (συνέχεια) Επίπεδο σηµαντικότητας: α = 0.05 Κανόνας απόρριψης: T(x ) = 10 x 500 > z α/2 = z 0.025 1.96 Ισοδύναµα: z = 10( x 500) > 1.96 ή < 1.96 (z πέφτει στην κρίσιµη περιοχή) Το z πήρε τιµή 2.214 και έπεσε στη κρίσιµη περιοχή: Η H 0 απορρίπτεται. 2.214 0 1.96 1.96 Αφού η H 0 απορρίπτεται στο 5% ϑα απορρίπτεται και σε οποιοδήποτε µεγαλύτερο επίπεδο σηµαντικότητας µια και ϑα διευρυνθεί η κρίσιµη περιοχή.

Παράδειγµα (συνέχεια) Επίπεδο σηµαντικότητας: α = 0.04 Κανόνας απόρριψης: T(x ) = 10 x 500 > z α/2 = z 0.02 2.05 Ισοδύναµα: z = 10( x 500) > 2.05 ή < 2.05 (z πέφτει στην κρίσιµη περιοχή) Το z πήρε τιµή 2.214 και έπεσε στη κρίσιµη περιοχή: Η H 0 απορρίπτεται. 2.214 0 2.05 2.05 Αφού η H 0 απορρίπτεται στο 5% ϑα απορρίπτεται και σε οποιοδήποτε µεγαλύτερο επίπεδο σηµαντικότητας µια και ϑα διευρυνθεί η κρίσιµη περιοχή.

Παράδειγµα (συνέχεια) Επίπεδο σηµαντικότητας: α = 0.03 Κανόνας απόρριψης: T(x ) = 10 x 500 > z α/2 = z 0.015 2.17 Ισοδύναµα: z = 10( x 500) > 2.17 ή < 2.17 (z πέφτει στην κρίσιµη περιοχή) Το z πήρε τιµή 2.214 και έπεσε στη κρίσιµη περιοχή: Η H 0 απορρίπτεται. 2.214 0 2.17 2.17 Αφού η H 0 απορρίπτεται στο 5% ϑα απορρίπτεται και σε οποιοδήποτε µεγαλύτερο επίπεδο σηµαντικότητας µια και ϑα διευρυνθεί η κρίσιµη περιοχή.

Παράδειγµα (συνέχεια) Επίπεδο σηµαντικότητας: α = 0.0268 Κανόνας απόρριψης: T(x ) = 10 x 500 > z α/2 = z 0.0134 2.214 Ισοδύναµα: z = 10( x 500) > 2.214 ή < 2.214 (z πέφτει στην κρίσιµη περιοχή) Το z πήρε τιµή 2.214 και συνέπεσε µε το «όριο»! 2.214 0 2.214 2.214 Αυτό το «οριακό» επίπεδο σηµαντικότητας, το «ελάχιστο επίπεδο σηµαντικότητας για το οποίο η H 0 απορρίπτεται» καλείται τιµή p (p-value).

Παράδειγµα (συνέχεια) Η οµάδα συνέλεξε δεδοµένα, υπολόγισε την συνάρτηση T στην οποία ϐασί- Ϲεται ο έλεγχος και παρατήρησε τιµή p = 0.0268. Η αναφορά αυτής της τιµής µας πληροφορεί ότι η H 0 απορρίπτεται σε κάθε επίπεδο σηµαντικότητας α > 0.0268 η H 0 δεν απορρίπτεται σε κάθε επίπεδο σηµαντικότητας α < 0.0268. Προφανώς, η αναφορά της τιµής p παρέχει περισσότερη πληροφορία από το αν απορρίφθηκε ή όχι η H 0 σε ένα δεδοµένο επίπεδο σηµαντικότητας. Βάσει αυτής, ο κάθε ένας µπορεί να πάρει απόφαση για την απόρριψη ή µη της H 0 σε οποιοδήποτε επίπεδο σηµαντικότητας επιθυµεί.

Παράδειγµα (συνέχεια) Θα κλείσουµε το παράδειγµα δίνοντας κάποιους τελευταίους ορισµούς. Η µηδενική υπόθεση ισχυρίζεται ότι µ = 500. εδοµένης της παραδοχής τού ότι η κατανοµή του πληθυσµού είναι κανονική µε γνωστή διασπορά σ 2 = 1, η µηδενική υπόθεση ισχυρίζεται ότι ο πληθυσµός (των περεχοµένων των αναψυκτικών) ακολουθεί κανονική κατανοµή N(500, 1). Λόγω του ότι η υπόθεση ισχυρίζεται ότι η κατανοµή είναι µία και µοναδική, λέµε ότι πρόκειται για µία απλή υπόθεση. Η εναλλακτική υπόθεση ισχυρίζεται ότι µ 500. Αυτή ισχυρίζεται ότι ο πληθυσµός ακολουθεί κανονική κατανοµή µε µέση τιµή οτιδήποτε διαφορετικό του 500 και διασπορά σ 2 = 1. Λόγω του ότι το σύνολο των «υποψηφίων» κατανο- µών υπό την εναλλακτική υπόθεση περιέχει περισσότερες από µία κατανοµές, λέµε ότι πρόκειται για µία σύνθετη υπόθεση.

Το γενικό πρόβληµα Ορισµοί Εστω P η κατανοµή του υπό µελέτη πληθυσµού. Η γενική µορφή ενός προ- ϐλήµατος ελέγχου υποθέσεων είναι H 0 : P P 0 κατά H 1 : P P 1 όπου P 0, P 1 οικογένειες κατανοµών µε P 0 P 1 =. Στο προηγούµενο παράδειγµα είχαµε P 0 = {N(µ, 1)} και P 1 = {N(µ, 1); µ 500}. Συνήθως η οικογένεια P 0 είναι «απλούστερη» της οικογένειας P 1.

H 0 : P P 0 κατά H 1 : P P 1 ; P 0 P 1 =. Συχνά, η κατανοµή του πληθυσµού ϑεωρείται µέλος κάποιας παραµετρικής οικογένειας κατανοµών {P θ ; θ Θ}, δηλαδή ενός συνόλου κατανοµών που εξαρτώνται και καθορίζονται από µία άγνωστη παράµετρο θ µε τιµές σε ένα σύνολο Θ R k, k 1. Τότε η µορφή του προβλήµατος απλοποιείται σε H 0 : θ Θ 0 κατά H 1 : θ Θ 1. όπου Θ 0, Θ 1 υποσύνολα του Θ µε Θ 0 Θ 1 =. Πιο πριν είχαµε την οικογένεια {N(θ, 1); θ R} και Θ 0 = {500}, Θ 1 = R\{500}. Η παραµετρική µορφή του προβλήµατος είναι ειδική έκφραση της προηγού- µενης (που είναι γενικότερη). Πράγµατι, ϑέτοντας P 0 = {P θ ; θ Θ 0 }, P 1 = {P θ ; θ Θ 1 } παίρνουµε την αρχική, γενική µορφή.

H 0 : P P 0 κατά H 1 : P P 1 ; P 0 P 1 =. H 0 : θ Θ 0 κατά H 1 : θ Θ 1 ; Θ 0 Θ 1 =. Μία υπόθεση καλείται απλή αν το αντίστοιχο σύνολο P i (το P 0 για την H 0 ή το P 1 για την H 1 ) είναι µονοσύνολο, διαφορετικά καλείται σύνθετη. Παράδειγµα (συνέχεια) Θεωρήστε πάλι το προηγούµενο παράδειγµα µε µία παραλλαγή: η διασπορά σ 2 της κανονικής κατανοµής του πληθυσµού είναι άγνωστη. Θεωρούµε ξανά το πρόβληµα ελέγχου H 0 : µ = 500 κατά H 1 : µ 500. Τώρα η H 0 δεν είναι απλή: Εδώ, P 0 = {N(500,σ 2 ); σ 2 (0, )} ή, ισοδύναµα, Θ 0 = {500} (0, ).

Εχοντας συλλέξει δεδοµένα X από τον πληθυσµό µε την κατανοµή P καθορί- Ϲουµε (ϑα συζητήσουµε αργότερα πώς) έναν κανόνα απόρριψης της H 0 της µορφής A 1. Με άλλα λόγια, αν παρατηρήσουµε τα δεδοµένα µας στο X σύνολο A 1 απορρίπτουµε την H 0 και αποφασίζουµε υπέρ της H 1. Σχεδόν σε όλες τις περιπτώσεις, το σύνολο A 1 συµπίπτει µε το σύνολο «µεγάλων» τιµών µίας στατιστικής συνάρτησης T = ): A 1 = {x ; T(x ) > C}. T(X Το σύνολο A 1 ή, ισοδύναµα, το σύνολο τιµών (C, ) για την T, καλείται κρίσιµη περιοχή. Πιο πριν είχαµε την κρίσιµη περιοχή (C, ) για την ) = T(X 10 X 500 αλλά για την γραφική αναπαράσταση ήταν πιο ϐολικό να ϑεωρήσουµε ως κρίσιµη περιοχή την (, C) (C, ) για την Z = 10 ( X 500). Οι δύο εκφράσεις της κρίσιµης περιοχής A 1 ήταν ϕυσικά ισοδύναµες µια και T = Z.

H 0 : P P 0 κατά H 1 : P P 1 ; P 0 P 1 =. H 0 : θ Θ 0 κατά H 1 : θ Θ 1 ; Θ 0 Θ 1 =. Η απόρριψη της H 0 όταν είναι αληθής καλείται σφάλµα τύπου I. Η πιθανότητα σφάλµατος τύπου I είναι, γενικά, συνάρτηση της P για P P 0, ή, αντίστοιχα, του θ για θ Θ 0. P P A 1 ), P P 0 ή P θ A 1 ), θ Θ 0. (X (X Η κρίσιµη περιοχή A 1 καθορίζεται από το επίπεδο σηµαντικότητας. Αυτό είναι ένας αριθµός α που επιλέγεται αυθαίρετα από τον ερευνητή προκειµένου να ϕράξει άνω την πιθανότητα σφάλµατος τύπου I. Εποµένως, το σύνολο A 1 επιλέγεται έτσι ώστε P P (X A 1 ) α, P P 0 ή P θ (X A 1 ) α, θ Θ 0.

H 0 : P P 0 κατά H 1 : P P 1 ; P 0 P 1 =. H 0 : θ Θ 0 κατά H 1 : θ Θ 1 ; Θ 0 Θ 1 =. Η αποδοχή (µη απόρριψη) της H 0 όταν είναι ψευδής καλείται σφάλµα τύπου II. Η πιθανότητα σφάλµατος τύπου II είναι, γενικά, συνάρτηση της P για P P 1, ή, αντίστοιχα, του θ για θ Θ 1. P P / A 1 ), P P 1 ή P θ / A 1 ), θ Θ 1. (X (X Η ισχύς του ελέγχου για µία κατανοµή P P 1 ή κάποιο σηµείο θ Θ 1 είναι η αντίστοιχη πιθανότητα απόρριψης της H 0 : P P (X A 1 ), P P 1 ή P θ (X A 1 ), θ Θ 1. Η συνάρτηση ισχύος του ελέγχου είναι η πιθανότητα απόρριψης της H 0 ως συνάρτηση της P P 0 P 1 ή του θ Θ 0 Θ 1.

Παράδειγµα (συνέχεια) 1 0.8 0.6 0.4 0.2 498 500 502 504 Μ Η συνάρτηση ισχύος του ελέγχου του παραδείγµατος όταν α = 0.05. Παρατηρούµε ότι όσο αποµακρύνεται το µ από την τιµή 500, η πιθανότητα απόρριψης αυξάνεται. Σε απόσταση µίας τυπικής απόκλισης από το 500 έχει προσεγγίσει ήδη την µονάδα. Η ελάχιστη τιµή της είναι 0.05 (δηλαδή το α) και επιτυγχάνεται για µ = 500.

H 0 : P P 0 κατά H 1 : P P 1 ; P 0 P 1 =. H 0 : θ Θ 0 κατά H 1 : θ Θ 1 ; Θ 0 Θ 1 =. Το µέγεθος του ελέγχου είναι η «µέγιστη» τιµή της πιθανότητας σφάλµατος τύπου I: sup P P A 1 ) ή sup P θ A 1 ). P P 0 (X θ Θ 0 (X Προφανώς, το µέγεθος είναι µικρότερο ή ίσο του επιπέδου σηµαντικότητας α. Κατά την κατασκευή ενός ελέγχου η επιλογή της κρίσιµης περιοχής A 1 γίνεται έτσι ώστε να συµπίπτουν αυτές οι δύο ποσότητες. Γι αυτό συχνά οι δύο όροι σηµαίνουν το ίδιο πράγµα. Για έναν έλεγχο του οποίου το µέγεθος συµπίπτει µε το επίπεδο σηµαντικότητας λέµε ότι είναι ακριβής, αν όχι λέµε ότι είναι συντηρητικός. Οι συντηρητικοί έλεγχοι γενικά δεν έχουν µεγάλη ισχύ. Συνήθως, όταν η κατανοµή του πληθυσµού είναι συνεχής το µέγεθος συµπίπτει µε το επίπεδο σηµαντικότητας. Σε διαφορετική περίπτωση αυτό γενικά δεν ισχύει αλλά µπορούµε να κάνουµε ένα «κόλπο» (ϑα το δούµε µετά) ώστε να συµπέσουν οι δύο ποσότητες.

H 0 : P P 0 κατά H 1 : P P 1 ; P 0 P 1 =. H 0 : θ Θ 0 κατά H 1 : θ Θ 1 ; Θ 0 Θ 1 =. Αν η ισχύς του ελέγχου είναι σε κάθε περίπτωση (δηλαδή για κάθε P P 1 ή θ Θ 1 ) µεγαλύτερη ή ίση του µεγέθους του τότε ο έλεγχος καλείται αµερόληπτος. Εποµένως, ένας έλεγχος καλείται αµερόληπτος αν (και αντίστοιχα µε τα θ). sup P P 0 P P (X A 1 ) inf P P 1 P P (X A 1 ) Η αµεροληψία είναι προφανώς µία επιθυµητή ιδιότητα: Θέλουµε να απορρίπτουµε την µηδενική ευκολότερα όταν δεν ισχύει παρά όταν ισχύει! Ασκηση: είξτε στο παράδειγµα ότι για δεδοµένο α η συνάρτηση ισχύος ελαχιστοποιείται στο µ = 500 και ότι σε εκείνο το σηµείο ισούται µε α. Είναι λοιπόν ο έλεγχος αµερόληπτος;

H 0 : P P 0 κατά H 1 : P P 1 ; P 0 P 1 =. H 0 : θ Θ 0 κατά H 1 : θ Θ 1 ; Θ 0 Θ 1 =. Ενας έλεγχος λέγεται οµοιόµορφα ισχυρότατος µεγέθους α αν έχει µέγεθος α και για κάθε P P 1 (ή θ Θ 1 ) η ισχύς του (η πιθανότητα να απορρίψει την H 0 ) είναι µεγαλύτερη ή ίση από οποιουδήποτε άλλου ελέγχου που έχει µέγεθος µικρότερο ή ίσο του α. Προφανώς, ένας οµοιόµορφα ισχυρότατος έλεγχος είναι ϐέλτιστος και πρέπει να προτιµηθεί όλων των άλλων. υστυχώς όµως τέτοιοι έλεγχοι υπάρχουν µόνο σε πολύ ειδικές περιπτώσεις.

H 0 : P P 0 κατά H 1 : P P 1 ; P 0 P 1 =. H 0 : θ Θ 0 κατά H 1 : θ Θ 1 ; Θ 0 Θ 1 =. Εστω x τα παρατηρηθέντα δεδοµένα. Ακολουθούν τρεις ισοδύναµοι ορισµοί: 1. Το ελάχιστο επίπεδο σηµαντικότητας για το οποίο απορρίπτεται η µηδενική υπόθεση ϐάσει των παρατηρηθέντων δεδοµένων καλείται τιµή p (p-value, significance value, significance probability). 2. Το µέγιστο επίπεδο σηµαντικότητας για το οποίο δεν απορρίπτεται η µηδενική υπόθεση ϐάσει των παρατηρηθέντων δεδοµένων καλείται τιµή p. 3. Αν η H 0 απορρίπτεται για µεγάλες τιµές της T = T(X ) τότε τιµή p = sup P P 0 P P {T(X ) > T(x )} ή sup θ Θ 0 P θ {T(X ) > T(x )}.

H 0 : P P 0 κατά H 1 : P P 1 ; P 0 P 1 =. H 0 : θ Θ 0 κατά H 1 : θ Θ 1 ; Θ 0 Θ 1 =. Ο τρίτος ορισµός τιµή p = sup P P 0 P P {T(X ) > T(x )} ή sup θ Θ 0 P θ {T(X ) > T(x )}. µπορεί να ϕαίνεται περίπλοκος αλλά στην πραγµατικότητα είναι ο απλούστε- ϱος. Στις περισσότερες εφαρµογές οδηγούµαστε ουσιαστικά σε µία και µόνον µία κατανοµή για την T ανεξάρτητα από το ποια είναι η P της µηδενικής υπόθεσης και ως εκ τούτου τιµή p = P H0 {T(X ) > T(x )}. Ο ορισµός αυτός είναι επίσης ο πιο πρακτικός γιατί µας παρέχει έναν τρόπο υπολογισµού της τιµής p.

Παράδειγµα (συνέχεια) Στο παράδειγµά µας υπολογίσαµε T(x ) = 10 x 500 = 2.214. Οταν ισχύει η µηδενική υπόθεση H 0 : µ = 500 έχουµε 10 ( X 500) N(0, 1) και έτσι η στατιστική συνάρτηση T = ) = T(X 10 X 500 έχει την κατανοµή της απόλυτης τιµής µίας τυπικής κανονικής τυχαίας µεταβλητής. Εποµένως, τιµή p = P H0 ) > T(x )} = P µ=500 ) > 2.214} {T(X {T(X = P( Z > 2.214) = P(Z > 2.214 ή Z < 2.214) = P(Z > 2.214) + P(Z < 2.214) = 0.0134 + 0.0134 = 0.0268. Θυµηθείτε ότι αυτό ήταν εκείνο το «οριακό» επίπεδο σηµαντικότητας.

ΠΡΟΣΟΧΗ ΠΡΟΣΟΧΗ! (αλλά πολλή προσοχή προσοχή!) Ναι µεν η τιµή p ισούται συχνά µε µία πιθανότητα και το µέγεθός της µας ϐοηθάει να αποφασίσουµε είτε κατά είτε υπέρ της H 0, αλλά σε καµµία περίπτωση δεν παριστάνει την «πιθανότητα να είναι αληθής η µηδενική υπόθεση». Στην πραγµατικότητα η ϕράση στα εισαγωγικά δεν έχει κανένα νόηµα µια που η αλήθεια ή το ψεύδος της µηδενικής υπόθεσης δεν προκύπτει ως αποτέλεσµα κάποιου τυχαίου πειράµατος και εποµένως δεν γίνεται να του αντιστοιχιστεί πιθανότητα.

Εστω S το σύνολο τιµών των δεδοµένων X (το «στήριγµα»). Ως µαθηµατικό αντικείµενο, ένας έλεγχος (ή ελεγχοσυνάρτηση) είναι µία συνάρτηση ϕ : S [0, 1] που η τιµή της δηλώνει την πιθανότητα µε την οποία ϑα απορρίψουµε την H 0. Στο παράδειγµά µας και σε επίπεδο σηµαντικότητας α, η H 0 απορρίπτεται αν 10 X 500 > z α/2. Μαθηµατικά, αυτός ο έλεγχος εκφράζεται ως ϕ(x ) = 1, αν 10 X 500 > z α/2 0, αν 10 X 500 z α/2 µια που στην πρώτη περίπτωση η H 0 απορρίπτεται πάντα (απορρίπτεται µε πιθανότητα ίση µε τη µονάδα) ενώ στη δεύτερη δεν απορρίπτεται («απορρίπτεται» µε πιθανότητα ίση µε µηδέν). Η παραπάνω ελεγχοσυνάρτηση παίρνει µόνο τις τιµές 0 και 1 κάτι που συµβαίνει και στην πλειοψηφία των εφαρµογών. Αν µία ελεγχοσυνάρτηση παίρνει και ενδιάµεσες τιµές τότε ο αντίστοιχος έλεγχος καλείται τυχαιοποιηµένος.

Μπορεί να δειχθεί ότι η πιθανότητα ένας έλεγχος να απόρριψει την H 0 ισούται µε τη µέση τιµή της αντίστοιχης ελεγχοσυνάρτησης: P P (απόρριψη H 0 ) = E P {ϕ(x )}, P (και αντίστοιχα µε τα θ). Ως εκ τούτου, το µέγεθος ενός ελέγχου (η «µέγιστη» πιθανότητα απόρριψης της H 0 για P P 0 ) ισούται µε sup E P )} ή sup E θ )}. P P 0 {ϕ(x θ Θ 0 {ϕ(x Παράδειγµα (συνέχεια) Στο παράδειγµά µας έχουµε ϕ(x ) = Εποµένως, 1, αν 10 X 500 > z α/2 0, αν 10 X 500 z α/2 E µ=500 {ϕ(x )} = 1 P µ=500 {ϕ(x ) = 1} + 0 P µ=500 {ϕ(x ) = 0} = P µ=500 {ϕ(x ) = 1} = P µ=500 { 10 X 500 > z α/2 } = α.

Το Θεµελιώδες Λήµµα των Neyman-Pearson Θεωρήστε το πρόβληµα ελέγχου υποθέσεων H 0 : P = P 0 κατά H 1 : P = P 1. Παρατηρήστε ότι και οι δύο υποθέσεις είναι απλές (δηλώνουν ακριβώς από µία κατανοµή). Εστω δεδοµένα που υπό την H i έχουν από κοινού πυκνότητα πιθανότητας X f i, i = 1, 2. Τότε, για οποιοδήποτε α (0, 1) υπάρχουν µοναδικές σταθερές C > 0 και γ [0, 1) έτσι ώστε ο έλεγχος 1, αν f 1 )/f 0 ) > C (X (X ) = γ, αν f 1 )/f 0 ) = C ϕ(x (X (X 0, αν f 1 )/f 0 ) < C (X (X να είναι (οµοιόµορφα) ισχυρότατος µεγέθους α. Παρατηρήστε ότι η απόφαση λαµβάνεται µε ϐάση τον λόγο f 1 )/f 0 ) των δύο πυκνοτήτων. (X (X

Παράδειγµα Εστω = (X 1,...,X 15 ) τυχαίο δείγµα από κατανοµή Bernoulli µε πιθανότητα X επιτυχίας θ Θ = (0, 1). Ας υποθέσουµε ότι έχουµε το πρόβληµα ελέγχου H 0 : θ = 1/2 κατά H 1 : θ = 2/3. Θα κατασκευάσουµε τον ισχυρότατο έλεγχο µεγέθους α = 0.05. Χωρίς να είναι απαραίτητο, ϑα προτιµήσω να το πάω πιο γενικά και ϑα κάνω αντικαταστάσεις όταν χρειαστεί. Θα ϑεωρήσω ότι το δείγµα µου είναι µεγέ- ϑους n (που στο πρόβληµα είναι 15) και ότι έχω το πρόβληµα ελέγχου H 0 : θ = θ 0 κατά H 1 : θ = θ 1. µε 0 < θ 0 < θ 1 < 1 (όπως είναι οι τιµές στο αρχικό πρόβληµα).

Παράδειγµα (συνέχεια) Η από κοινού πυκνότητα των δεδοµένων υπό την H j είναι f(x ;θ j ) = θ xi j (1 θ j ) n x i, x 1,...,x n {0, 1}, και υπολογίζουµε εύκολα ότι για x 1,...,x n {0, 1}, ( ) f(x ;θ 1 ) 1 n { } x θ1 θ1 f(x ;θ 0 ) = /(1 θ 1 ) i. 1 θ 0 θ 0 /(1 θ 0 ) Σύµφωνα µε το Θεµελιώδες Λήµµα, ο έλεγχος ϑα έχει τη µορφή ϕ(x ) = 1, αν ;θ 1 ;θ 0 ) > C f(x )/f(x γ, αν ;θ 1 ;θ 0 ) = C f(x )/f(x 0, αν ;θ 1 ;θ 0 ) < C f(x )/f(x

Παράδειγµα (συνέχεια) Παρατηρήστε ότι για οποιοδήποτε C > 0, ( ) f(x ;θ 1 ) 1 n { } x θ1 θ1 f(x ;θ 0 ) = /(1 θ 1 ) i > C 1 θ 0 θ 0 /(1 θ 0 ) ( ) 1 θ1 n log + { } θ1 /(1 θ x 1 θ i log 1 ) > log C { 0 ( θ 0 /(1 )}/ θ 0 ) { } 1 θ1 θ1 /(1 θ xi > log C n log log 1 ) 1 θ 0 θ 0 /(1 θ 0 ) = C (ας πούµε). Στην µετάβαση από την δεύτερη στην τρίτη γραµµή η ϕορά της ανισότητας δεν αλλάζει γιατί θ 1 > θ 0 θ 1/(1 θ 1 ) θ 0 /(1 θ 0 ) > 1 log { } θ1 /(1 θ 1 ) θ 0 /(1 θ 0 ) > 0.

Παράδειγµα (συνέχεια) f(x ;θ 1) Αφού f(x ;θ 0 ) > C x i > C, ο έλεγχος παίρνει την ισοδύναµη µορφή 1, αν X i > C ) = γ, αν ϕ(x X i = C 0, αν X i < C και µένει ο προσδιορισµός των C και γ. Πριν προχωρήσουµε, να παρατηρήσουµε ότι η µορφή του ελέγχου είναι πολύ ϕυσιολογική: Η εναλλακτική υπόθεση ισχυρίζεται ότι η πιθανότητα επιτυχίας είναι µεγαλύτερη απ ό,τι λέει η µηδενική. (Είναι θ 1 > θ 0.) Εποµένως είναι λογικό η µηδενική να απορριφθεί εφ όσον παρατηρήσουµε «πολλές» επιτυχίες. (Θυµηθείτε ότι το X i παριστάνει τον συνολικό αριθµό επιτυχιών.)

Παράδειγµα (συνέχεια) Ζητάµε τον έλεγχο µεγέθους α = 0.05. Εποµένως ϑα πρέπει 0.05 = E θ0 {ϕ(x )} = 1 P θ0 {ϕ(x ) = 1} + γ P θ0 {ϕ(x ) = γ} + 0 P θ0 {ϕ(x ) = 0} = P θ=1/2 { 15 i=1 X i > C } + γp θ=1/2 { 15 i=1 X i = C }. Υπολογίζουµε: C 15 14 13 12 11 10 P θ=1/2 { 15 i=1 X i > C } 0.00003.00049.00369.01758.05923 P θ=1/2 { 15 i=1 X i = C }.00003.00046.00320.01389.04166.09164 Παρατηρήστε ότι το C ϑα πρέπει να είναι µεγαλύτερο από 10. Πράγµατι, η πρώτη πιθανότητα στο C = 10 είναι ήδη µεγαλύτερη από 0.05 οπότε είναι αδύνατον να ϐρούµε γ > 0 για να µας ϐγει το αποτέλεσµα.

Παράδειγµα (συνέχεια) 0.05 = P θ=1/2 { 15 i=1 X i > C } + γp θ=1/2 { 15 i=1 X i = C }. C 15 14 13 12 11 10 P θ=1/2 { 15 i=1 X i > C } 0.00003.00049.00369.01758.05923 P θ=1/2 { 15 i=1 X i = C }.00003.00046.00320.01389.04166.09164 Επίσης, το C δεν µπορεί να είναι 12 ή µεγαλύτερο. Η τιµή της πρώτης πιθανότητας στο C = 12 είναι αρκετά µικρή και ϐλέποντας και την τιµή της δεύτερης, προκειµένου να µας ϐγει το αποτέλεσµα ϑα χρειαστούµε γ > 1. Εποµένως η µοναδική τιµή για το C που µπορεί να δώσει το επιθυµητό αποτέλεσµα είναι το 11. Τότε η παραπάνω εξίσωση γίνεται 0.05 = 0.01758 + 0.04166γ που δίνει γ =.7782.

Παράδειγµα (συνέχεια) Εποµένως, ο ισχυρότατος έλεγχος µεγέθους α = 0.05 για το πρόβληµα H 0 : θ = 1/2 κατά H 1 : θ = 2/3 1, αν X i > 11 όταν έχουµε n = 15 παρατηρήσεις είναι ο ) =.7782, αν ϕ(x X i = 11 0, αν X i < 11 Ας υποθέσουµε τώρα ότι πήραµε τις παρατηρήσεις µας και ϐρήκαµε 15 i=1 x i = 12 (12 από τα 15 πειράµατα ήταν επιτυχηµένα). Τότε απορρίπτουµε την H 0 σε επίπεδο σηµαντικότητας 5% και αποφασίζουµε υπέρ της εναλλακτικής, δηλαδή ότι θ = 2/3. Το ίδιο ϑα κάναµε και αν είχαµε παρατηρήσει 13, 14 ή 15 επιτυχίες. Αν αντιθέτως παρατηρούσαµε 10 επιτυχίες ή λιγότερες ϑα αποφασίζαµε ότι θ = 1/2. Τέλος, αν παρατηρούσαµε ακριβώς 11 επιτυχίες ϑα έπρεπε να πάρουµε µία τυχαία απόφαση: Με πιθανότητα 0.7782 ϑα απορρίπταµε την H 0 ενώ µε πιθανότητα 1 0.7782 = 0.2218 ϑα την αποδεχόµασταν.

Ελεγχοι για τις παραµέτρους κανονικών πληθυσµών Η κανονική κατανοµή παίζει κεντρικό ϱόλο στις Πιθανότητες και τη Στατιστική. Η κανονική κατανοµή δεν είναι τίποτε άλλο παρά ένα µαθηµατικό µοντέλο στην πραγµατικότητα κανονικοί πληθυσµοί δεν υπάρχουν. Παρ όλ αυτά, το γεγονός ότι συχνά µπορούµε να κατασκευάσουµε ακριβείς ελέγχους µε ιδιότητες που µπορούν να µελετηθούν εύκολα, µας κάνει να υποθέτουµε κανονικότητα σε πάρα πολλές περιπτώσεις. Επίσης, λόγω του Κεντρικού Οριακού Θεωρήµατος (είτε του κλασσικού είτε πιο γενικών αποτελεσµάτων) οι κατανοµές των εκτιµητών διαφόρων παραµέτρων είναι για µεγάλα δείγµατα κατά προσέγγιση κανονικές, και εποµένως έλεγχοι για αυτές τις παραµέτρους ουσιαστικά γίνονται σαν να ήταν µέσες τιµές κανονικών πληθυσµών.

Ελεγχοι για τη µέση τιµή κανονικής κατανοµής µε γνωστή διασπορά Εστω = (X 1,...,X n ) τυχαίο δείγµα από κανονική κατανοµή N(µ,σ X 2 ) όπου µ R άγνωστο και σ > 0 γνωστό. Για δεδοµένο µ 0 R ϑεωρούµε το πρόβληµα ελέγχου H 0 : µ µ 0 κατά H 1 : µ > µ 0. Μια σειρά προτάσεων εξασφαλίζει ότι για το συγκεκριµένο πρόβληµα, η κατασκευή του ελέγχου συµπίπτει µε εκείνη για το απλούστερο πρόβληµα H 0 : µ = µ 0 κατά H 1 : µ = µ 1, όπου µ 1 > µ 0 αλλά και για τα προβλήµατα H 0 : µ µ 0 κατά H 1 : µ = µ 1, όπου µ 1 > µ 0 και H 0 : µ = µ 0 κατά H 1 : µ > µ 0.

Αν επαναλάβετε τη διαδικασία του προηγούµενου παραδείγµατος ϑα καταλήξετε ότι για επίπεδο σηµαντικότητας (µέγεθος) α, η ελεγχοσυνάρτηση είναι ϕ(x ) = 1, αν n( X µ 0 )/σ > z α 0, αν n( X µ 0 )/σ z α Η κρίσιµη περιοχή εδώ είναι A 1 = {x : n( x µ0 )/σ > z α }: α 0 z α Η πιθανότητα σφάλµατος τύπου I όταν ισχύει µ = µ 0 (δηλαδή η «δεύτερη» H 0 ) ισούται µε α: Επειδή X N(µ,σ 2 /n) και n( X µ)/σ N(0, 1), όταν µ = µ 0 έχουµε P µ=µ0 { n( X µ0 ) σ > z α } = P(Z > z α ) = α

Το α είναι η µέγιστη τιµή της πιθανότητας σφάλµατος τύπου I (το µέγεθος) και για την αρχική µηδενική υπόθεση H 0 : µ µ 0. Πράγµατι, για µ < µ 0 έχουµε { } { } n( X µ0 ) n( X µ) n(µ0 µ) P µ > z α = P µ > z α + < α. σ σ σ Η πιθανότητα είναι µικρότερη του α γιατί z α + n(µ 0 µ)/σ > z α. Η ισχύς του ελέγχου σε κάποιο µ > µ 0 είναι { } { n( X µ0 ) n( X µ) P > z α = P σ σ > z α + } n(µ0 µ) σ > α. Η πιθανότητα είναι µεγαλύτερη του α γιατί τώρα z α + n(µ 0 µ)/σ < z α. Η συνάρτηση ισχύος του ελέγχου είναι η { π(µ) = P Z > z α + } n(µ0 µ) σ ( = 1 Φ z α + n(µ0 µ) Ασκηση: ιαπιστώστε ότι η ισχύς είναι γνησίως αύξουσα συνάρτηση του µ. Συµπεράνατε ότι όσο πιο µακριά είναι το µ από το µ 0 (όπως περιγράφει η H 1 ), τόσο πιθανότερο είναι να απορριφθεί η H 0. σ ).

Για παρατηρηθέντα δεδοµένα x, η τιµή p ισούται µε την πιθανότητα P µ=µ0 { n( X µ0 ) σ > } n( x µ0 ) σ { = P Z > } n( x µ0 ) µια και η µηδενική απορρίπτεται για µεγάλες τιµές της T(X ) = n( X µ 0 )/σ η οποία όταν παρατηρήσουµε x παίρνει τιµή T(x ) = n( x µ 0 )/σ. σ (1) Θα ϑυµάστε ότι προηγουµένως όρισα την τιµή p ως sup θ Θ 0 P θ {T(X ) > T(x )}. είτε γιατί ισούται µε αυτό η πιθανότητα στην (1): Στο πρόβληµά µας έχουµε Θ 0 = (,µ 0 ] µια και η µηδενική λέει ότι µ µ 0. Για οποιοδήποτε µ < µ 0 έχουµε { } { } n( X µ0 ) n( x µ0 ) n( X µ) n( x µ) P µ > = P µ > σ σ σ σ (προσθαφαιρώντας n(µ 0 µ)/σ στα δύο µέλη της ανισότητας) { } { } n( x µ) n( x µ0 ) = P Z > < P Z > = τιµή p σ σ γιατί n( x µ)/σ > n( x µ 0 ).

Παράδειγµα 1 Σε τυχαίο δείγµα n = 15 παρατηρήσεων από την N(µ, σ 2 = 4) παρατηρήσαµε x = 11. Να πραγµατοποιηθεί σε επίπεδο σηµαντικότητας α = 0.1 ο έλεγχος H 0 : µ 10 κατά H 1 : µ > 10 Ο κανόνας απόρριψης είναι T(X ) = 15( X 10)/2 > z 0.1 1.28. Υπολογίζουµε T(x ) = 15( x 10)/2 = 15(11 10)/2 = 1.936. α = 0.1 p = 0.0264 0 1.28 1.936 0 1.936 Επειδή 1.936 > 1.28, το T(x ) πέφτει στην κρίσιµη περιοχή και η µηδενική απορρίπτεται σε επίπεδο σηµαντικότητας 10%. Σε αυτό το επίπεδο σηµαντικότητας συµπεραίνουµε ότι η µέση τιµή της κατανοµής είναι µεγαλύτερη από 10. Η τιµή p ισούται µε την P µ=µ0 {T(X ) > 1.936} = P(Z > 1.936) 0.0264. Βάσει αυτής ϐλέπουµε ότι η H 0 ϑα απορριπτόταν σε οποιοδήποτε επίπεδο σηµαντικότητας µεγαλύτερο του 0.0264 και ϑα γινόταν δεκτή σε οποιοδήποτε επίπεδο σηµαντικότητας µικρότερο του 0.0264.

Παράδειγµα 2 Σε τυχαίο δείγµα n = 20 παρατηρήσεων από την N(µ, σ 2 = 10) παρατηρήσαµε x = 49.5. Να πραγµατοποιηθεί σε επίπεδο σηµαντικότητας α = 0.05 ο έλεγχος H 0 : µ 50 κατά H 1 : µ > 50 Ο κανόνας απόρριψης είναι T(X ) = 20( X 50)/ 10 > z 0.05 1.64. Υπολογίζουµε T(x ) = 20( x 50)/ 10 = 20(49.5 50)/ 10 = 0.707. α = 0.05 p = 0.760 0.707 0 1.64 0.707 0 Επειδή 0.707 1.64, το T(x ) δεν πέφτει στην κρίσιµη περιοχή και η µηδενική δεν απορρίπτεται σε επίπεδο σηµαντικότητας 5%. Σε αυτό το επίπεδο σηµαντικότητας συµπεραίνουµε ότι η µέση τιµή της κατανοµής δεν είναι µεγαλύτερη από 50. Η τιµή p ισούται µε την P µ=µ0 {T(X ) > 0.707} = P(Z > 0.707) 0.760. Βάσει αυτής ϐλέπουµε ότι η H 0 δε ϑα απορριπτόταν σε οποιοδήποτε «λογικό» επίπεδο σηµαντικότητας.

Ελεγχοι για τη µέση τιµή κανονικής κατανοµής µε γνωστή διασπορά (2) Εστω πάλι = (X 1,...,X n ) τυχαίο δείγµα από κανονική κατανοµή N(µ,σ X 2 ) όπου µ R άγνωστο και σ > 0 γνωστό. Για δεδοµένο µ 0 R ϑεωρούµε το πρόβληµα ελέγχου H 0 : µ µ 0 κατά H 1 : µ<µ 0. Οµοια µε προηγουµένως, µια σειρά προτάσεων εξασφαλίζει ότι για το συγκεκριµένο πρόβληµα, η κατασκευή του ελέγχου συµπίπτει µε εκείνη για τα προβλήµατα H 0 : µ = µ 0 κατά H 1 : µ = µ 1, όπου µ 1 < µ 0, H 0 : µ µ 0 κατά H 1 : µ = µ 1, όπου µ 1 < µ 0 και H 0 : µ = µ 0 κατά H 1 : µ < µ 0.

Αν κατασκευάσετε τον έλεγχο από την αρχή ϑα καταλήξετε ότι για επίπεδο σηµαντικότητας (µέγεθος) α, η ελεγχοσυνάρτηση είναι ϕ(x ) = 1, αν n( X µ 0 )/σ < z α 0, αν n( X µ 0 )/σ z α δηλαδή η κρίσιµη περιοχή είναι A 1 = {x : n( x µ0 )/σ < z α }: α z α 0 Για τα παρατηρηθέντα δεδοµένα x, η τιµή p ισούται µε P µ0 { n( X µ0 ) σ < } n( x µ0 ) σ { = P Z < n( x µ0 ) σ }.

Βλέπουµε εδώ ότι η µηδενική απορρίπτεται για µικρές τιµές του T(X ) = n( X µ 0 )/σ αντί για µεγάλες. Αυτό δεν σηµαίνει ότι ο έλεγχος είναι πολύ διαφορετικός: Θέτοντας T = T, η συνθήκη απόρριψης γίνεται T > z α, δηλαδή µπορούµε να πούµε ότι απορρίπτουµε για µεγάλες τιµές της T αντί για µικρές της T. Προσέξτε επίσης ότι, όταν µ = µ 0, ισχύει T N(0, 1) (όπως και η T). Εστω µ = µ, X = (X1,...,X n) = ( X 1,..., X n ), X = X και µ 0 = µ 0. Επειδή X N(µ, σ 2 ) X N(µ,σ 2 ) το πρόβληµα µετασχηµατίζεται στο H0 : µ µ 0 κατά H1 : µ > µ 0 που είναι ακριβώς το πρόβληµα που αναλύσαµε πριν λίγο. Για εκείνο είδαµε ότι η ελεγχοσυάρτηση είναι ) = ϕ(x 1, αν 0, αν n( X µ 0) σ n( X µ 0) σ > z α z α n( X + µ0 ) σ n( X + µ 0 ) σ n( X µ0 ) > z α < z α σ n( X µ 0 ) z α z α σ Βλέπουµε λοιπόν ότι στην πραγµατικότητα τα δύο προβλήµατα δεν διαφέρουν.

Παράδειγµα Σε τυχαίο δείγµα n = 16 παρατηρήσεων από την N(µ, σ 2 = 9) παρατηρήσαµε x = 2.5. Να πραγµατοποιηθεί σε επίπεδο σηµαντικότητας α = 0.05 ο έλεγχος H 0 : µ 4.5 κατά H 1 : µ < 4.5. Ο κανόνας απόρριψης είναι T(X ) = 16( X 4.5)/ 9 < z 0.05 1.64. Υπολογίζουµε T(x ) = 16( x 4.5)/ 9 = 4(2.5 4.5)/3 = 1.6. 0.05 p = 0.055 1.64 1.6 0 1.6 0 Επειδή 1.6 1.64, το T(x ) πέφτει εκτός κρίσιµης περιοχής και η µηδενική δεν απορρίπτεται σε επίπεδο σηµαντικότητας 5%. Σε αυτό το επίπεδο σηµαντικότητας δεν µπορούµε να συµπεράνουµε ότι η µέση τιµή της κατανοµής είναι µκρότερη από 4.5. Η τιµή p ισούται µε την P µ=µ0 {T(X ) < 1.6} = P(Z < 1.6) 0.055. Βάσει αυτής ϐλέπουµε ότι η H 0 ϑα απορριπτόταν σε οποιοδήποτε επίπεδο σηµαντικότητας µεγαλύτερο του 0.055 και ϑα γινόταν δεκτή σε οποιοδήποτε επίπεδο σηµαντικότητας µικρότερο του 0.055.

Ελεγχοι για τη µέση τιµή κανονικής κατανοµής µε γνωστή διασπορά (3) Εστω πάλι X = (X 1,...,X n ) τυχαίο δείγµα από κανονική κατανοµή N(µ,σ 2 ) όπου µ R άγνωστο και σ > 0 γνωστό. Για δεδοµένο µ 0 R ϑεωρούµε το πρόβληµα ελέγχου H 0 : µ = µ 0 κατά H 1 : µ µ 0. Αυτό είναι το πρόβληµα που αντιµετώπιζε στο πρώτο παράδειγµά µας η οµάδα ποιοτικού ελέγχου για την µέση περιεκτικότητα στις συσκευασίες των αναψυκτικών. Για επίπεδο σηµαντικότητας α η «κατάλληλη» ελεγχοσυνάρτηση είναι ϕ(x ) = 1, αν n X µ 0 /σ > z α/2 0, αν n X µ 0 /σ z α/2 Η αντίστοιχη κρίσιµη περιοχή είναι A 1 = {x : n x µ0 /σ > z α/2 }: Να σηµειωθεί ότι ο έλεγχος δεν προκύπτει µε τη µεθοδολογία των προηγούµενων περιπτώσεων και δεν είναι οµοιόµορφα ισχυρότατος έλεγχος µεγέθους α.

Ελεγχοι γενικευµένου λόγου πιθανοφανειών Εστω X = (X 1,...,X n ) ακολουθεί κατανοµή µε πυκνότητα πιθανότητας f(x ;θ) όπου θ Θ R k, k 1, είναι µία άγνωστη παράµετρος. Θεω- ϱούµε το πρόβληµα ελέγχου H 0 : θ Θ 0 κατά H 1 : θ Θ 1 όπου Θ 0, Θ 1 είναι ξένα µεταξύ τους υποσύνολα του Θ (δηλαδή Θ 0 Θ 1 = Θ). Το Θεµελιώδες Λήµµα των Neyman-Pearson µάς εξασφαλίζει ότι όταν τα Θ 0 και Θ 1 είναι µονοσύνολα, Θ 0 = {θ 0 }, Θ 1 = {θ 1 }, τότε για κάθε α (0, 1) υπάρχει ισχυρότατος έλεγχος µεγέθους α. Οπως είδαµε νωρίτερα, αυτός ϐασίζεται στον λόγο f(x ;θ 1 )/f(x ;θ 0 ). Σηµειώστε ότι για παρατηρηθέν x, ο λόγος f(x ;θ 1 )/f(x ;θ 0 ) είναι ο λόγος των πιθανοφανειών του θ στα σηµεία θ 1 και θ 0.

H 0 : θ Θ 0 κατά H 1 : θ Θ 1 Σε περιπτώσεις που τα σύνολα Θ 0, Θ 1 είναι πιο περίπλοκα, οµοιόµορφα ισχυ- ϱότατοι έλεγχοι (δηλαδή ισχυρότατοι θ Θ 1 ) δεν υπάρχουν. Εν τούτοις, προπαθώντας να επεκτείνουµε το Θεµελιώδες Λήµµα, έχει λογική να ϐασίσουµε τον έλεγχο σε λόγο πιθανοφανειών. Επειδή τα Θ 0, Θ 1 δεν είναι µονοσύνολα (γενικά), ϑεωρούµε τον λόγο των µέγιστων πιθανοφανειών max θ Θ1 L(θ x ) (2) max θ Θ0 L(θ x ) Ως γνωστόν, η πιθανοφάνεια L(θ x ) δεν είναι τίποτε άλλο από την f(x ;θ) ϑεωρούµενη ως συνάρτηση του θ (για σταθερό και ίσο µε το παρατηρηθέν). x «Μεγάλες» τιµές του παραπάνω λόγου µάς υποδεικνύουν ότι η H 1 είναι πιο κοντά στην πραγµατικότητα απ ό,τι η H 0.

Στις πιο ϐασικές εφαρµογές ο παραµετρικός χώρος Θ είναι ανοικτό υποσύνολο του R k, k 1 (δηλαδή δεν περιέχεται σε αυτό το «σύνορό» του, π.χ. (0, ), R (0, ), R k κλπ.) και το Θ 1 είναι το συµπληρωµατικό του Θ 0, δηλαδή Θ 1 = Θ\Θ 0. Τότε προφανώς για κάθε x, max θ Θ1 L(θ x ) max θ Θ0 L(θ x ) = max θ Θ L(θ x ) max θ Θ0 L(θ x ) 1. Εστω ˆθ 0, ˆθ οι εκτιµητές µέγιστης πιθανοφάνειας (ΕΜΠ) του θ όταν θ Θ0, θ Θ αντίστοιχα. Τότε max θ Θ ) L(θ X max θ Θ0 ) = L(ˆθ X ) L(ˆθ L(θ X 0 ). (3) X Στις πιο ϐασικές εφαρµογές αναφερόµαστε στο τελευταίο κλάσµα ως γενικευµένο λόγο πι- ϑανοφανειών. Γενικά όµως, ως γενικευµένο λόγο πιθανοφανειών συνήθως χρησιµοποιούµε αντί του (2) ή του (3) το κλάσµα max θ Θ0 Θ 1 L(θ x ) max θ Θ0 L(θ x ).

Παράδειγµα Εστω X = (X 1,...,X n ) τυχαίο δείγµα από κανονική κατανοµή N(µ,σ 2 ) όπου µ R άγνωστο και σ > 0 γνωστό. Για δεδοµένο µ 0 R ϑεωρούµε το πρόβληµα ελέγχου H 0 : µ = µ 0 κατά H 1 : µ µ 0. Στη γενική περίπτωση (µ R), ο ΕΜΠ του µ είναι ο ˆµ = X. Υπό την H 0 έχουµε µόνο ένα υποψήφιο σηµείο, εποµένως ˆµ 0 µ 0. Για δεδοµένο x, ο γενικευµένος λόγος πιθανοφανειών γίνεται L(ˆµ x ) L(ˆµ 0 x ) = (σ 2π) n exp{ (x i x) 2 /(2σ 2 { )} n( x (σ µ0 2π) n exp{ (x i µ 0 ) 2 /(2σ 2 )} = exp ) 2 } 2σ 2. Είναι λοιπόν ϕανερό ότι ο λόγος παίρνει µεγάλες τιµές για µεγάλες τιµές του T(x ) = n x µ 0 /σ οπότε ο έλεγχός µας είναι λογικό να ϐασίζεται σε αυτήν την ποσότητα. (Σε αυτήν τον ϐασίσαµε προηγουµένως.)

Παράδειγµα (πολύ σηµαντικό) Εστω = (X 1,...,X n ), n 2, τυχαίο δείγµα από κανονική κατανοµή X N(µ,σ 2 ) όπου µ R, σ 2 > 0 άγνωστα και τα δύο. Εδώ έχουµε θ = (µ,σ 2 ) Θ = R (0, ). Για δεδοµένο µ 0 R ϑεωρούµε το πρόβληµα ελέγχου H 0 : µ = µ 0 κατά H 1 : µ µ 0. Να σηµειωθεί ότι εδώ Θ 0 = {µ 0 } (0, ). Οταν θ Θ, ο ΕΜΠ του θ είναι ο ˆθ = (ˆµ, ˆσ 2 ) = ( X, n i=1 (X i X) 2 /n). (Ο λόγος που απαιτούµε n 2 είναι για να έχει νόηµα ο εκτιµητής της διασποράς.) Υπό την H 0 ο ΕΜΠ του θ είναι ˆθ 0 = (ˆµ 0, ˆσ 0 2 ) = (µ 0, n i=1 (X i µ 0 ) 2 /n).

ˆθ(x ) = ( x, n i=1 (x i x) 2 /n) και ˆθ0 (x ) = (µ 0, n i=1 (x i µ 0 ) 2 /n) Για δεδοµένο x, ο γενικευµένος λόγος πιθανοφανειών γίνεται L(ˆθ x ) L(ˆθ 0 x ) = (ˆσ 2π) n exp{ (x i x) 2 /(2ˆσ 2 )} (ˆσ 0 2π) n exp{ (x i µ 0 ) 2 /(2ˆσ 0 2)} = (ˆσ 2) n/2 0 ˆσ 2. Εποµένως, ο γενικευµένος λόγος πιθανοφανειών παίρνει µεγάλες τιµές όταν ο λόγος ˆσ 2 0 /ˆσ2 παίρνει µεγάλες τιµές. Μεγάλες τιµές του λόγου των δύο εκτιµητών της διασποράς υποδεικνύουν ότι µ µ 0. Πράγ- µατι, ο ˆσ 2 0 παριστάνει τη συνολική απόσταση των παρατηρηθέντων x i από την τιµή µ 0 ενώ ο ˆσ 2 από την τιµή x που ούτως ή άλλως περιµένουµε να είναι «κοντά» στο πραγµατικό µ. Χρησιµοποιώντας την ταυτότητα (x i µ 0 ) 2 = (x i x) 2 + n( x µ 0 ) 2, ϐλέπουµε ότι ˆσ 2 0 ˆσ 2 = (xi x) 2 + n( x µ 0 ) 2 (xi x) 2 = 1 + n( x µ 0) 2 (xi x) 2.

ˆσ 0 2 ˆσ 2 = = 1 + n( x µ 0) 2 (xi x) 2. Εποµένως, µεγάλες τιµές του λόγου ˆσ 2 0 /ˆσ2 αντιστοιχούν σε µεγάλες τιµές του n( x µ 0 ) 2 / (x i x) 2, ή, ισοδύναµα, του n x µ0 T(x ) = s όπου s η τιµή που πήρε η τετραγωνική ϱίζα της δειγµατικής διασποράς S 2 = (Xi X) 2 /(n 1). Αν X = (X 1,...,X n ) είναι τυχαίο δείγµα από N(µ,σ 2 ) η τυχαία µεταβλητή n( X µ)/s ακολουθεί κατανοµή t µε n 1 ϐαθµούς ελευθερίας (tn 1 ). Εποµένως, υπό την H 0 : µ = µ 0 και για οποιαδήποτε τιµή του σ 2, n ( X µ0 ) t S n 1.

Για επίπεδο σηµαντικότητας α, η κρίσιµη περιοχή είναι A 1 = {x : T(x ) = n x µ 0 /s > t n 1,α/2 } ενώ για παρατηρηθέν x η τιµή p είναι P θ=(µ0,σ 2 ) { n X µ0 S > } n x µ0 s { = P t n 1 > όπου t n 1 συµβολίζει εδώ µία τυχαία µεταβλητή µε κατανοµή t n 1. } n x µ0 s α/2 α/2 t n 1,α/2 0 t n 1,α/2 T(x ) 0 T(x ) Για οικονοµία χώρου στο εξής δεν ϑα αναφέροµαι άλλο σε ελεγχοσυναρτήσεις. Μια και η κατανοµή της T(X ) στην οποία ϑα ϐασίζεται ο (εκάστοτε) έλεγχος ϑα είναι (ή ϑα ϑεωρείται) συνεχής, η αντίστοιχη ελεγχοσυνάρτηση ϕ(x ) ϑα παίρνει τιµές 1 όταν η T είναι στην κρίσιµη περιοχή και 0 διαφορετικά.

Παράδειγµα (επιστροφή στην αρχή) Ας ϑεωρήσουµε πάλι το παράδειγµα µε τις συσκευασίες των αναψυκτικών µε µία παραλλαγή: Θα υποθέσουµε ότι η διασπορά της κανονικής κατανοµής σ 2 είναι άγνωστη. Θυµίζω ότι η οµάδα ελέγχου είχε το πρόβληµα µ = 500 κατά µ 500. Βασιζόµενοι στις n = 10 παρατηρήσεις, η οµάδα ελέγχου είχε υπολογίσει x = 499.3. Προκειµένου να πραγµατοποιήσει τον έλεγχο πρέπει να εκτιµήσει και τη διασπορά. Γι αυτό υπολογίζει s 2 = οπότε s = 1.8 1.34 ml. (xi x) 2 n 1 = 1.8 (ml 2 )

n = 10, x = 499.3, s = 1.34, µ 0 = 500 Για επίπεδο σηµαντικότητας 5% η κρίσιµη περιοχή είναι A 1 = {x : 10 x 500 /s > t9,0.025 }. Υπολογίζουµε 10(499.3 500)/1.34 = 1.652 και t 9,0.025 = 2.26. Επειδή T(x ) = 1.652 = 1.652 2.26 δεν πέφτει στην κρίσιµη περιοχή, η H 0 δεν απορρίπτεται σε επίπεδο σηµαντικότητας α = 0.05. Σε αυτό το επίπεδο σηµαντικότητας δεν διαπιστώνεται στατιστικά σηµαντική απόκλιση των δεδοµένων από τη µηδενική υπόθεση. 0.025 0.025.06646.06646 2.26 1.652 0 2.26 1.652 0 1.652 Η τιµή p ισούται µε P( t 9 > 1.652 ) = 2 P(t 9 > 1.652) = 0.1329. Ως εκ τούτου, η H 0 δεν ϑα απορριπτόταν σε επίπεδο σηµαντικότητας µικρότερο του 0.1329 ενώ ϑα απορριπτόταν σε κάθε επίπεδο σηµαντικότητας µεγαλύτερο του 0.1329.

Εστω πάλι X = (X 1,...,X n ) τυχαίο δείγµα από N(µ,σ 2 ) µε θ = (µ,σ 2 ). Σχετικά µε το προηγούµενο είναι τα προβλήµατα ελέγχων H 0 : µ = µ 0 (ή και µ µ 0 ) κατά H 1 : µ > µ 0 και H 0 : µ = µ 0 (ή και µ µ 0 ) κατά H 1 : µ < µ 0 Οπως και ο έλεγχος που είδαµε προηγουµένως, έτσι κι αυτοί ϐασίζονται στην στατιστική συνάρτηση n ( X µ 0 )/S. Παρατηρήστε ότι αυτός είναι ένας λογικός εκτιµητής του n (µ µ 0 )/σ. Στον προηγούµενο έλεγχο όπου η εναλλακτική ισχυριζόταν πως µ µ 0 0, η µηδενική απορριπτόταν όταν η παραπάνω συνάρτηση είχε µεγάλη απόλυτη τιµή, αν δηλαδή έπαιρνε τιµές µακριά από το µηδέν. Εδώ, στην πρώτη περίπτωση η H 0 απορρίπτεται αν η συνάρτηση πάρει µεγάλη τιµή (αφού H 1 : µ µ 0 > 0) ενώ στη δεύτερη αν πάρει µικρή τιµή (αφού H 1 : µ µ 0 < 0).

Οι διάφοροι έλεγχοι για την µέση κανονικής κατανοµής συνοψίζονται στους δύο ακόλουθους πίνακες: Οταν η διασπορά σ 2 είναι γνωστή H 0 H 1 Κανόνας απόρριψης µ = µ 0 µ µ 0 X µ0 σ/ n µ = µ 0 (µ µ 0 ) µ = µ 0 (µ µ 0 ) σε ε.σ. α > z α/2 τιµή p για δεδοµένα x { P Z > x µ 0 σ/ n { X µ0 µ > µ 0 σ/ n > z α P Z > x µ } 0 σ/ n { X µ0 µ < µ 0 σ/ n < z α P Z < x µ } 0 σ/ n }

Οταν η διασπορά σ 2 είναι άγνωστη H 0 H 1 Κανόνας απόρριψης µ = µ 0 µ µ 0 X µ0 S/ n µ = µ 0 (µ µ 0 ) µ = µ 0 (µ µ 0 ) σε ε.σ. α τιµή p για δεδοµένα x > t n 1,α/2 { t P n 1 > x µ 0 s/ n { X µ0 µ > µ 0 S/ n > t n 1,α P t n 1 > x µ } 0 s/ n { X µ0 µ < µ 0 S/ n < t n 1,α P t n 1 < x µ } 0 s/ n Σηµείωση: Οταν η εναλλακτική υπόθεση έχει τη µορφή β > β 0 ή β < β 0 (όπου β είναι κάποια παράµετρος), τότε λέµε ότι ο έλεγχος είναι µονόπλευρος, ακριβώς γιατί η εναλλακτική υπόθεση ισχυρίζεται ότι η παράµετρος ϐρίσκεται από τη µία πλευρά της δεδοµένης ποσότητας β 0. Αν όµως η εναλλακτική έχει την µορφή β β 0 τότε λέµε ότι ο έλεγχος είναι δίπλευρος. Η τιµή p για µονόπλευρους ελέγχους υπολογίζεται από την µία ουρά της κατανοµής υπό την H 0 (ανάλογα µε τη ϕορά της ανισότητας) ενώ για δίπλευρους από το άθροισµα των δύο ουρών. }