Ενότητα 3: Έλεγχοι καλής προσαρµογής (Goodness of fit tests)



Σχετικά έγγραφα
Ενότητα 2: Έλεγχοι υποθέσεων για µέσες τιµες πληθυσµών (T-tests) µέσω SPSS

Ενότητα 4: Πίνακες συνάφειας (Contingency tables)

Για να ελέγξουµε αν η κατανοµή µιας µεταβλητής είναι συµβατή µε την κανονική εφαρµόζουµε το test Kolmogorov-Smirnov.

2. Στοιχεία Πολυδιάστατων Κατανοµών

3. Οριακά θεωρήµατα. Κεντρικό Οριακό Θεώρηµα (Κ.Ο.Θ.)

Δειγματοληψία. Πρέπει να γνωρίζουμε πως πήραμε το δείγμα Το πλήθος n ij των παρατηρήσεων σε κάθε κελί είναι τ.μ. με μ ij συμβολίζουμε την μέση τιμή:

Ανάλυση Δεδοµένων µε χρήση του Στατιστικού Πακέτου R

2.6 ΟΡΙΑ ΑΝΟΧΗΣ. πληθυσµού µε πιθανότητα τουλάχιστον ίση µε 100(1 α)%. Το. X ονοµάζεται κάτω όριο ανοχής ενώ το πάνω όριο ανοχής.

ΚΕΦΑΛΑΙΟ 7. Εκτίμηση χαρακτηριστικών ελέγχων υποθέσεων

Δειγματοληψία. Πρέπει να γνωρίζουμε πως πήραμε το δείγμα Το πλήθος n ij των παρατηρήσεων σε κάθε κελί είναι τ.μ. με μ ij συμβολίζουμε την μέση τιμή:

MEΤΑΣΧΗΜΑΤΙΣΜΟΙ ΤΗΣ ΜΟΡΦΗΣ Y= g( X1, X2,..., Xn)

ΕΙΣΑΓΩΓΗ. Μη Παραµετρική Στατιστική, Κ. Πετρόπουλος. Τµήµα Μαθηµατικών, Πανεπιστήµιο Πατρών

ΕΡΓΑΣΤΗΡΙΟ ΣΤΑΤΙΣΤΙΚΗΣ

Μαντζούνη, Πιπερίγκου, Χατζή. ΒΙΟΣΤΑΤΙΣΤΙΚΗ Εργαστήριο 5 ο

Μενύχτα, Πιπερίγκου, Σαββάτης. ΒΙΟΣΤΑΤΙΣΤΙΚΗ Εργαστήριο 5 ο

Μέθοδος μέγιστης πιθανοφάνειας

1. Εισαγωγή Ο έλεγχος υποθέσεων αναφέρεται στις ιδιότητες µιας άγνωστης παραµέτρους του πληθυσµού: Ο κατηγορούµενος είναι αθώος

Εισαγωγή στη Μη Παραμετρική Στατιστική

1991 US Social Survey.sav

ΕΛΕΓΧΟΙ ΠΡΟΣΑΡΜΟΓΗΣ & ΥΠΟΘΕΣΕΩΝ


2.5.1 ΕΚΤΙΜΗΣΗ ΠΟΣΟΣΤΙΑΙΩΝ ΣΗΜΕΙΩΝ ΜΙΑΣ ΚΑΤΑΝΟΜΗΣ

ΑΣΚΗΣΗ 7 (ΛΥΣΗ) Στο αρχείο του SPSS θα υπάρχουν οι µεταβλητές,

) = a ο αριθµός των µηχανών n ο αριθµός των δειγµάτων που παίρνω από κάθε µηχανή

Στατιστική και Θεωρία Πιθανοτήτων (ΓΓ04) ΑΝΤΩΝΙΟΣ ΧΡ. ΜΠΟΥΡΑΣ Εαρινό Εξάμηνο

ΑΣΚΗΣΕΙΣ ΣΤΟΥΣ ΕΛΕΓΧΟΥΣ ΥΠΟΘΕΣΕΩΝ

Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπισ τήμιο Κρήτης 2 Μαΐου /23

ΛΥΣΕΙΣ ΑΣΚΗΣΕΩΝ

Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπισ τήμιο Κρήτης 14 Μαρτίου /34

Στατιστική για Πολιτικούς Μηχανικούς Λυμένες ασκήσεις μέρους Β

Κεφάλαιο 16. Σύγκριση συχνοτήτων κατηγοριών: το στατιστικό κριτήριο χ 2. Προϋποθέσεις για τη χρήση του τεστ. ιαφορές ή συσχέτιση.

Ανάλυση Δεδοµένων µε χρήση του Στατιστικού Πακέτου R

3.4.1 Ο Συντελεστής ρ του Spearman

Συνάφεια μεταξύ ποιοτικών μεταβλητών. Εκδ. #3,

εξαρτάται από το θ και για αυτό γράφουµε την σ.π.π. στην εξής µορφή: ( θ, + ) θ θ n 2n (θ,+ ) 1, 0, x θ.

Σηµειώσεις στις σειρές

Μέθοδος μέγιστης πιθανοφάνειας

Εισαγωγή στη θεωρία ακραίων τιμών

τη µέθοδο της µαθηµατικής επαγωγής για να αποδείξουµε τη Ϲητούµενη ισότητα.

5.1 Ο ΕΛΕΓΧΟΣ SMIRNOV

Οι θεµελιώδεις έννοιες που απαιτούνται στη Επαγωγική Στατιστική (Εκτιµητική, ιαστήµατα Εµπιστοσύνης και Έλεγχοι Υποθέσεων) είναι:

3. Κατανομές πιθανότητας

ΚΕΦΑΛΑΙΟ 8. Εισαγωγή στη Μέθοδο Bootstrap

Αρµονική Ανάλυση. Ενότητα: L p Σύγκλιση. Απόστολος Γιαννόπουλος. Τµήµα Μαθηµατικών

Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπισ τήμιο Κρήτης 22 Μαΐου /32

ΚΟΙΝΩΝΙΟΒΙΟΛΟΓΙΑ, ΝΕΥΡΟΕΠΙΣΤΗΜΕΣ ΚΑΙ ΕΚΠΑΙΔΕΥΣΗ

ΣΗΜΕΙΩΣΕΙΣ ΣΤΑΤΙΣΤΙΚΗΣ ΠΡΟΓΡΑΜΜΑ ΜΕΤΑΠΤΥΧΙΑΚΩΝ ΣΠΟΥ ΩΝ «ΦΡΟΝΤΙ Α ΣΤΟ ΣΑΚΧΑΡΩ Η ΙΑΒΗΤΗ» 2 ο Μάθηµα

2.5 ΕΛΕΓΧΟΣ ΠΟΣΟΣΤΙΑΙΩΝ ΣΗΜΕΙΩΝ ΜΙΑΣ ΚΑΤΑΝΟΜΗΣ (The Quantile Test)

ΤΕΣΤ ΣΤΑΤΙΣΤΙΚΗΣ ΕΦΑΡΜΟΣΜΕΝΗΣ ΣΤΑΤΙΣΤΙΚΗΣ ΓΕΩΡΓΙΚΟΥ ΠΕΙΡΑΜΑΤΙΣΜΟΥ. Τεστ 1 ο Κατανοµή Συχνοτήτων (50 βαθµοί)

Σύγκριση μέσου όρου πληθυσμού με τιμή ελέγχου. One-Sample t-test

ΑΝΑΛΥΣΗ ΔΙΑΚΥΜΑΝΣΗΣ. Επικ. Καθ. Στέλιος Ζήμερας. Τμήμα Μαθηματικών Κατεύθυνση Στατιστικής και Αναλογιστικά Χρηματοοικονομικά Μαθηματικά

5. Έλεγχοι Υποθέσεων

Ασκήσεις Εξετάσεων. Μεταπτυχιακό Πρόγραμμα Σπουδών στη. Διοίκηση των Επιχειρήσεων

ONE WAY ANOVA. .Π.Μ.Σ. Μαθηµατικά των Υπολογιστών & των αποφάσεων. Πάτρα, 11 Ιανουαρίου 2011

Στόχος µαθήµατος: Παράδειγµα 1: µελέτη ασθενών-µαρτύρων ΒΙΟΣΤΑΤΙΣΤΙΚΗ ΙΙ

Πίνακας κατανοµής συχνοτήτων και αθροιστικών συχνοτήτων. Σχετ.

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΑΝΑΛΥΣΗ Ε ΟΜΕΝΩΝ 1. ΕΙ Η Ε ΟΜΕΝΩΝ, ΣΥΛΛΟΓΗ, ΚΩ ΙΚΟΠΟΙΗΣΗ ΚΑΙ ΕΙΣΑΓΩΓΗ

Μεθοδολογία των επιστημών του Ανθρώπου: Στατιστική Ι

ΕΡΩΤΗΣΕΙΣ ΣΩΣΤΟΥ ΛΑΘΟΥΣ ΣΤΑ ΜΑΘΗΜΑΤΙΚΑ ΤΗΣ Γ ΓΕΝΙΚΗΣ ΙΑΦΟΡΙΚΟΣ ΛΟΓΙΣΜΟΣ

Στατιστική. Εκτιμητική

Στατιστική Συμπερασματολογία

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Απαραμετρική Στατιστική. Έλεγχοι για k 2 ανεξάρτητους πληθυσμούς

ΣΗΜΕΙΩΣΕΙΣ ΣΤΑΤΙΣΤΙΚΗΣ ΠΡΟΓΡΑΜΜΑ ΜΕΤΑΠΤΥΧΙΑΚΩΝ ΣΠΟΥ ΩΝ «ΦΡΟΝΤΙ Α ΣΤΟ ΣΑΚΧΑΡΩ Η ΙΑΒΗΤΗ» ΑΝΑΛΥΤΙΚΗ ΣΤΑΤΙΣΤΙΚΗ

Είδη Μεταβλητών. κλίµακα µέτρησης

Κατανοµές. Η κατανοµή (distribution) µιας µεταβλητής (variable) φαίνεται από το σχήµα του ιστογράµµατος (histogram).

ΗΜΟΚΡΙΤΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΡΑΚΗΣ ΤΜΗΜΑ ΑΓΡΟΤΙΚΗΣ ΑΝΑΠΤΥΞΗΣ Θεόδωρος Χ. Κουτρουµ ανίδης Αναπληρωτής Καθηγητής ΠΘ ΕΦΑΡΜΟΣΜΕΝΗ ΟΙΚΟΝΟΜΙΚΗ ΣΤΑΤΙΣΤΙΚΗ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΜΑΘΗΜΑΤΙΚΑ ΓΕΝΙΚΗΣ ΠΑΙ ΕΙΑΣ

ΕΚΤΙΜΗΤΙΚΗ: ΔΙΑΣΤΗΜΑΤΑ ΕΜΠΙΣΤΟΣΥΝΗΣ

ΕΛΕΓΧΟΣ ΣΤΑΤΙΣΤΙΚΩΝ ΥΠΟΘΕΣΕΩΝ

Έλεγχος ύπαρξης στατιστικά σημαντικών διαφορών μεταξύ δύο εξαρτημένων δειγμάτων, που δεν ακολουθούν την κανονική κατανομή (Wilcoxon test)

α) t-test µε ίσες διακυµάνσεις β) ανάλυση διακύµανσης µε έναν παράγοντα Έλεγχος t δύο δειγμάτων με υποτιθέμενες ίσες διακυμάνσεις

Αριθµητική Ανάλυση. Ενότητα 5 Προσέγγιση Συναρτήσεων. Ν. Μ. Μισυρλής. Τµήµα Πληροφορικής και Τηλεπικοινωνιών,

ΑΝΑΛΥΣΗ ΔΙΑΚΥΜΑΝΣΗΣ. Επικ. Καθ. Στέλιος Ζήμερας. Τμήμα Μαθηματικών Κατεύθυνση Στατιστικής και Αναλογιστικά Χρηματοοικονομικά Μαθηματικά

Έλεγχος υποθέσεων και διαστήματα εμπιστοσύνης

Ασκήσεις για το µάθηµα «Ανάλυση Ι και Εφαρµογές» (ε) Κάθε συγκλίνουσα ακολουθία άρρητων αριθµών συγκλίνει σε άρρητο αριθµό.

Εισαγωγή στη Στατιστική

Στατιστική Συμπερασματολογία

ΔΕΣΜΕΥΜΕΝΕΣ Ή ΥΠΟ ΣΥΝΘΗΚΗ ΠΙΘΑΝΟΤΗΤΕΣ

Αριθµητική Παραγώγιση και Ολοκλήρωση

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

x y max(x))

3. ΠΑΡΑΜΕΤΡΟΙ ΚΑΤΑΝΟΜΩΝ

Ποιο από τα δύο τµήµατα είχε καλύτερη επίδοση; επ. Κωνσταντίνος Π. Χρήστου

Έλεγχος καλής προσαρμογής για μια ποιοτική μεταβλητή (Nonparametric Tests Chi-Square)

Ελλιπή δεδομένα. Εδώ έχουμε Στον πίνακα που ακολουθεί δίνεται η κατά ηλικία κατανομή 1275 ατόμων

ΘΕΜΑΤΑ ΕΞΕΤΑΣΗΣ ΚΑΙ ΑΠΑΝΤΗΣΕΙΣ ΕΞΕΤΑΣΤΙΚΗ ΠΕΡΙΟ ΟΣ:

6.3 Ο ΑΜΦΙΠΛΕΥΡΟΣ ΕΛΕΓΧΟΣ SMIRNOV ΓΙΑ k ΑΝΕΞΑΡΤΗΤΑ ΔΕΙΓΜΑΤΑ

ΕΙΣΑΓΩΓΗ Η μελέτη διαφόρων στοχαστικών φαινομένων μπορεί γενικά να γίνει χρησιμοποιώντας

11 Το ολοκλήρωµα Riemann

Στατιστικός έλεγχος υποθέσεων (Μέρος 1 ο )

ΚΑΤΑΝΟΜΈΣ. 8.1 Εισαγωγή. 8.2 Κατανομές Συχνοτήτων (Frequency Distributions) ΚΕΦΑΛΑΙΟ

Είδη Μεταβλητών Κλίμακα Μέτρησης Οι τεχνικές της Περιγραφικής στατιστικής ανάλογα με την κλίμακα μέτρησης Οι τελεστές Π και Σ

ΕΛΕΓΧΟΙ ΥΠΟΘΕΣΕΩΝ ΚΕΦΑΛΑΙΟ 17

3.4.2 Ο Συντελεστής Συσχέτισης τ Του Kendall

ΑΝΑΛΥΣΗ ΠΑΛΙΝΔΡΟΜΗΣΗΣ,

Transcript:

Ενότητα 3: Έλεγχοι καλής προσαρµογής (Goodess of ft tests) Ένα σηµαντικό πρόβληµα στην στατιστική είναι η εξεύρεση πληροφορίας σχετικά µε την µορφή της κατανοµής από την οποία προέρχεται ένα τυχαίο δείγµα. Είναι π.χ. γνωστό ότι οι περισσότεροι έλεγχοι γίνονται µε την προϋπόθεση ότι (υπό την Η ) το τυχαίο δείγµα προέρχεται από µια συγκεκριµένη κατανοµή. Μια τέτοια περίπτωση είναι τα t-tests που εξετάσαµε σε προηγούµενη ενότητα και τα οποία, ιδιαίτερα για µικρά δείγµατα, προϋποθέτουν ότι το δείγµα προέρχεται από κανονικό πληθυσµό (υπό την Η ). Εάν το τυχαίο δείγµα δεν προέρχεται από την κατανοµή κάτω από την οποία έχει κατασκευασθεί κάποιος έλεγχος τότε προφανώς το αντίστοιχο p-value που λαµβάνεται δεν είναι ακριβές (και εποµένως η πιθανότητα σφάλµατος τύπου Ι δεν είναι ακριβώς a). Συνεπώς είναι αρκετά χρήσιµη η δυνατότητα να ελέγχουµε αν κάποια δεδοµένα προέρχονται από µια συγκεκριµένη κατανοµή ή όχι. Έλεγχοι αυτής της µορφής καλούνται «έλεγχοι καλής προσαρµογής» των δεδοµένων σε µια συγκεκριµένη κατανοµή και έχουν προταθεί αρκετοί. Σε αυτήν την ενότητα αρχικά θα εξετάσουµε κάποιους «εµπειρικούς» ελέγχους οι οποίοι γίνονται µέσω κάποιων γραφηµάτων (P-P και Q-Q plots) ώστε να πάρουµε µια πρώτη εποπτική εικόνα για τα δεδοµένα (τα γραφήµατα αυτά δεν οδηγούν µε σχετική «ασφάλεια» σε κάποια απόφαση) ενώ στη συνέχεια θα περάσουµε στους πιο ση- µαντικούς ελέγχους καλής προσαρµογής: το χι-τετράγωνο τεστ καλής προσαρµογής και το Kolmogorv-Smrov τεστ. Τέλος, ένα ενδιαφέρον παρεµφερές πρόβληµα αφορά δύο δείγµατα και τον έλεγχο της υπόθεσης ότι τα δείγµατα αυτά προέρχονται από τον ίδιο πληθυσµό (δηλαδή από την ίδια κατανοµή). Για τον έλεγχο αυτό παρουσιάζονται εν συντοµία τρία απαραµετρικά τεστ, το Kolmogorov- Smrov για δυο δείγµατα, το το Wald-Wolfowtz τέστ των ροών και το Ma-Whtey U τέστ. 3.. P-P Plot και Q-Q Plot Τα P-P Plot και Q-Q plot (probablty-probablty plot και Quatle-Quatle plot) είναι δύο γραφήµατα τα οποία µας βοηθούν να ελέγξουµε αν κάποια δεδοµένα προέρχονται από κάποια συγκεκριµένη κατανοµή (π.χ. κανονική). Τα γραφήµατα αυτά βασίζονται στην ακόλουθη παρατήρηση: Αν Χ,Χ,,Χ είναι ένα τυχαίο δείγµα (ανεξ. τ.µ.) από µια (συνεχή) κατανοµή µε σ.κ. F τότε οι νέες τ.µ. Υ = F(X ), Υ = F(X ),, Υ = F(X ) είναι και αυτές ανεξάρτητες και ακολουθούν την οµοιόµορφη U(,) κατανοµή διότι P(F(X) x) = P(X F - (x)) = F(F - (x)) = x, x [,]. Είναι εύκολο να αποδειχθεί ότι αν Υ,Υ,,Υ ~ U(,) τότε κάθε µια από τις διατεταγµένες τ.µ. Υ (),Υ (),,Υ () ακολουθεί την κατανοµή βήτα και συγκεκριµένα Υ () ~ Beta(, +) µε Ε(Y () ) = /(+). Εποµένως, για µεγάλο θα ισχύει προσεγγιστικά ότι, για =,,,, Y( ) = F ) ή ισοδύναµα X ( ) F ( ) (διότι και V(Y () ) ) + + Με άλλα λόγια, αν Χ ~ F περιµένουµε ότι τα σηµεία του επιπέδου ή ισοδύναµα τα σηµεία του επιπέδου ( F ), + ), =,,,, F ( + )), =,,, θα βρίσκονται «κοντά» στην διαγώνιο (x = y) που περνά από την αρχή των αξόνων. Το P-P plot ακριβώς είναι το γράφηµα των πρώτων σηµείων (µαζί µε τη διαγώνιο) ενώ το Q-Q Plot είναι το γράφηµα των δεύτερων σηµείων (µαζί µε τη διαγώνιο). Και στα δύο γραφήµατα, αν τα σηµεία βρίσκονται «κοντά» στη διαγώνιο (και «τυχαία» γύρω από αυτήν) τότε µπορεί να θεωρηθεί ότι τα Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 5

δεδοµένα προέρχονται από την F. Ενδέχεται να µην είναι γνωστές όλες οι παράµετροι της κατανο- µής F (π.χ. µπορεί να είναι κανονική µε άγνωστο µ, σ ). Σε αυτή την περίπτωση οι άγνωστοι παράµετροι εκτιµώνται από τα δεδοµένα. Όπως υπονοήθηκε και στην εισαγωγή της ενότητας αυτής, ο έλεγχος µέσω των παραπάνω γραφηµάτων δεν µπορεί να είναι αξιόπιστος διότι δεν βασίζεται σε κάποιο στατιστικό κριτήριο που µας οδηγεί σε σωστή απόφαση π.χ. στο a % των περιπτώσεων. Συνήθως γίνεται για να πάρουµε µια πρώτη εποπτική εικόνα και για να δούµε αν υπάρχουν κάποιες έκτροπες, σε σχέση µε τις ανα- µενόµενες υπό την F, παρατηρήσεις. Είναι προφανές ότι, εκτός της κανονικής, µπορούµε γραφικά να ελέγξουµε την καλή προσαρµογή των δεδοµένων και σε άλλες κατανοµές (αλλάζουµε την Test dstrbuto). Εφαρµογή. Να ελεγχθεί γραφικά (µέσω P-P plot ή Q-Q plot) αν οι παρατηρήσεις του δείκτη χοληστερίνης (µεταβλητή chol εφαρµογής Ενότητας ) προέρχονται από την κανονική κατανοµή. Ανοίγουµε την ανάλυση Graphs/P-P και επιλέγοντας την µεταβλητή chol (6 παρατηρήσεις) λαµβάνουµε το γράφηµα στα δεξιά (ως proporto estmato formula επιλέγουµε την Va der Waerde s (=r/(+)) η οποία συµφωνεί µε την προηγηθείσα ανάλυση θεωρώντας ότι θα πρέπει r F ( r) ) + (κάποιοι άλλοι ερευνητές παραθέτοντας κάποια δικαιολόγηση έχουν προτείνει την r 3/ 8 r / απεικόνιση των σηµείων ( F ( r ) ), + / 4) (Blom s) ή των ( F ( r) ), ) (Rakt) κ.ο.κ.). Για µέτρια ή µεγάλα δείγµατα δεν υπάρχει ουσιαστική διαφορά οποιαδήποτε proporto estmato formula και αν επιλέξουµε., Normal P-P Plot of CHOL,75 Expected Cum Prob,5,5,,,5,5,75, Observed Cum Prob Φαίνεται ότι τα 6 σηµεία του επιπέδου δεν «απέχουν» πολύ από την διαγώνιο, ούτε φαίνονται κάποιες «έκτροπες» παρατηρήσεις. Εποµένως, τουλάχιστον γραφικά, δεν φαίνεται να υπάρχει επαρκής λόγος ώστε να µην θεωρήσουµε τα δεδοµένα ως κανονικά (για να είµαστε πιο ακριβείς θα πρέπει να προχωρήσουµε και σε έλεγχο µε δεδοµένο ε.σ. a, π.χ. χ ή K-S που θα εξετάσουµε παρακάτω). Αξίζει να παρατηρήσουµε ότι αν υπήρχαν κάποιες έκτροπες παρατηρήσεις (παρατηρήσεις αρκετά «αποµακρυσµένες» από την διαγώνιο) τότε θα έπρεπε αυτές να επανεξεταστούν λεπτοµερέστερα ώστε να βεβαιωθούµε ότι δεν ισχύουν κάποιες ειδικές συνθήκες για αυτές ή ότι δεν έχουν περαστεί λάθος στο SPSS. Το Q-Q plot λαµβάνεται µε παρόµοιο τρόπο: Ανοίγουµε την ανάλυση Graphs/Q-Q και επιλέγοντας την µεταβλητή chol λαµβάνουµε το γράφηµα στα δεξιά: Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 6

4 Normal Q-Q Plot of CHOL 3 Expected Normal Value 3 4 Observed Value To εµπειρικό αυτό τεστ είναι ισοδύναµο µε το προηγούµενο και εποµένως δεν περιµένουµε να δού- µε κάτι διαφορετικό. Και εδώ φαίνεται ότι τα 6 σηµεία του επιπέδου δεν «απέχουν» πολύ από την διαγώνιο και εποµένως δεν υπάρχει επαρκής λόγος ώστε απορρίψουµε ότι τα δεδοµένα είναι κανονικά. 3.. Ο έλεγχος χ (χι-τετράγωνο) καλής προσαρµογής Επιθυµούµε και πάλι να ελέγξουµε αν κάποιες παρατηρήσεις ενός τ.δ. Χ, Χ,, Χ προέρχονται από µια συγκεκριµένη κατανοµή µε σ.κ. F. O Pearso, ήδη από τις αρχές του προηγούµενου αιώνα (9), πρότεινε για το σκοπό αυτό τη χρήση µιας στατιστικής συνάρτησης η οποία, υπό την Η : X ~ F, ακολουθεί (προσεγγιστικά) κατανοµή χ (µε κάποιους β.ε.) ενώ όταν δεν ισχύει η Η λαµβάνει «µεγάλες» τιµές. Πριν δούµε ποια είναι η µορφή αυτής της στατιστικής συνάρτησης στο συγκεκριµένο πρόβληµα, αξίζει να θυµηθούµε ένα σηµαντικό θεωρητικό αποτέλεσµα το οποίο αφορά την πολυωνυµική κατανοµή και αποτελεί την βάση του χ ελέγχου καλής προσαρµογής. Ε- πίσης αποτελεί την βάση και για άλλους ελέγχους που θα εξετάσουµε σε επόµενες ενότητες (π.χ. χ έλεγχοι για πίνακες συνάφειας). Πρόταση. Αν το τυχαίο διάνυσµα N = (N,N,...,N k ) ακολουθεί πολυωνυµική κατανοµή µε k παραµέτρους και p,p,...,p k (µε = p = ) τότε η στατιστική συνάρτηση k ( N p ) T =, p ακολουθεί ασυµπτωτικά ( ) κατανοµή χ (χι-τετράγωνο µε k βαθµούς ελευθερίας). k Έστω τώρα Χ,Χ,,Χ ένα τυχαίο δείγµα και έστω ότι επιθυµούµε να ελέγξουµε την Η : X ~ F. Προκειµένου να χρησιµοποιήσουµε το αποτέλεσµα της παραπάνω πρότασης εργαζόµαστε ως εξής: διαµερίζουµε το πεδίο τιµών των Χ (υπό την Η ) σε k σύνολα Α, Α,, Α k (συνήθως έτσι ώστε στο κάθε σύνολο να αναµένονται τουλάχιστον 5 παρατηρήσεις). Στη συνέχεια θεωρούµε τις τ.µ. N = πλήθος των Χ,Χ,,Χ που ανήκουν στο σύνολο Α, =,,,. Είναι προφανές ότι όταν ισχύει η υπόθεση Η : X ~ F τότε το τυχαίο διάνυσµα (Ν,Ν,,Ν k ) ακολουθεί πολυωνυµική κατανοµή µε παραµέτρους και p,p,...,p k όπου p = P A / H : X ~ F ), =,,...,. Εποµένως, υπό την Η, η στατιστική συνάρτηση Η πολυωνυµική κατανοµή είναι η από κοινού κατανοµή του πλήθους των επιτυχιών ου -είδους, ου -είδους,...,k-είδους σε µία ακολουθία ανεξάρτητων και ισόνοµων δοκιµών µε k δυνατά είδη επιτυχιών (πιθ. επιτ. -είδους = p ) Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 7

T (X) = k ( N p ) p ακολουθεί προσεγγιστικά κατανοµή χ µε k β.ε. ενώ υπό την Η : X ~ G F θα λαµβάνει «µεγάλες» τιµές. Το τελευταίο συµβαίνει διότι, το p είναι το αναµενόµενο πλήθος παρατηρήσεων στο Α υπό την Η (Ε(Ν ) = p = P(Χ A / H )) και εποµένως όταν δεν ισχύει η Η κάθε Ν (παρατηρούµενη συχνότητα) θα διαφέρει αρκετά από το p (αναµενόµενη συχνότητα υπό την H ). Άρα, µε βάση την παραπάνω στατιστική συνάρτηση µπορούµε να κατασκευάσουµε έναν έλεγχο για την υπόθεση Η : X ~ F. Συγκεκριµένα θα απορρίπτουµε την Η (σε ε.σ. a περίπου) ό- ταν, µε βάση τις παρατηρήσεις x, x,, x, T ( x ) > c = χ ( ) : άνω a-σηµείο της k a χ k µε αντίστοιχο (προσεγγιστικό) p-value p value = P( T ) > T ( x)) = F ( T ( x)). χ Παρατήρηση. (έλεγχος χ όταν υπάρχουν άγνωστες παράµετροι). Παραπάνω προφανώς θεωρήσαµε ότι τα p είναι γνωστά (καθορίζονται πλήρως από την κατανοµή F ). Υπάρχουν όµως περιπτώσεις όπου τα p δεν είναι απολύτως γνωστά, αλλά εξαρτώνται από κάποιες άγνωστες παραµέτρους, δηλαδή p = p (θ) µε θ = (θ,θ,...,θ r ) άγνωστο. Η περίπτωση αυτή εµφανίζεται π.χ. κατά τον έλεγχο καλής προσαρµογής δεδοµένων σε µία γνωστή κατανοµή (π.χ. κανονική) µε άγνωστες όµως παραµέτρους (π.χ. µ, σ, δηλ. p = p (µ,σ)) ή π.χ. κατά τον έλεγχο ανεξαρτησίας σε πίνακες συνάφειας (χρησιµοποιώντας το χι-τετράγωνο τεστ). Στην περίπτωση αυτή χρησιµοποιούµε την τροποποιηµένη στατιστική συνάρτηση k ( N p ( θ)) T ) =, p ( θ) όπου θ είναι η εκτίµηση του θ από τα δεδοµένα. Τώρα, υπό την Η, αποδεικνύεται ότι η T ακολουθεί ασυµπτωτικά χι-τετράγωνο κατανοµή µε k r βαθµούς ελευθερίας, όπου r είναι το πλήθος των παραµέτρων που χρειάστηκε να εκτιµηθούν από τα δεδοµένα (αρκεί να χρησιµοποιηθούν οι εκτιµήτριες µέγιστης πιθανοφάνειας των παραµέτρων από τα οµαδοποιηµένα στις k κλάσεις δεδοµένα). Εποµένως τώρα, απορρίπτουµε την H σε ε.σ. a (περίπου) όταν T ( x ) > χk r ( a) µε αντί- στοιχο (προσεγγιστικό) p-value p value P T ( X) T ( x) H ) = F ( T ( )) ( k r k x. χ Παρατήρηση. Ο έλεγχος χ τις περισσότερες φορές δεν είναι ο καλύτερος έλεγχος καλής προσαρµογής για συνεχή δεδοµένα διότι προϋποθέτει οµαδοποίηση των δεδοµένων (διαµερίζουµε το πεδίο τιµών των παρατηρήσεων σε k σύνολα Α,Α,,Α k ) µε συνέπεια την απώλεια πληροφορίας (επίσης η διαµέριση είναι τις περισσότερες φορές αυθαίρετη). Σε αυτήν την περίπτωση (δεδοµένα από συνεχή κατανοµή) συνήθως προτιµάται ο έλεγχος Kolmogorov-Smrov (K-S) ο οποίος βασίζεται στην εµπειρική συνάρτηση κατανοµής του δείγµατος και δεν προϋποθέτει κάποια οµαδοποίηση των δεδοµένων. Ο έλεγχος χ προτιµάται όταν έχουµε κατηγορικά δεδοµένα που παίρνουν τι- µές σε ένα πεπερασµένο σύνολο (βλ. εφαρµογή παρακάτω). Για τους παραπάνω λόγους το SPSS δεν δίνει µεγάλο βάρος στους ελέγχους καλής προσαρ- µογής µέσω του χ τεστ. Συγκεκριµένα, µε το SPSS είναι δυνατός µόνο ο έλεγχος προσαρµογής κάποιων παρατηρήσεων σε µια διακριτή κατανοµή η οποία λαµβάνει k τιµές, ενώ οι πιθανότητες p, =,,, k θα πρέπει να δοθούν από τον χρήστη του προγράµµατος. Παρόλα αυτά µπορούµε µε έµµεσο τρόπο να πραγµατοποιήσουµε χ έλεγχο καλής προσαρµογής για οποιαδήποτε διακριτή (βλ. Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 8

εφαρµ. 4) ή συνεχή κατανοµή (βλ. εφαρµογές 3, 5) αφού κάνουµε µόνοι µας οµαδοποίηση και υπολογισµό των p (π.χ. χρησιµοποιώντας τις εντολές compute ή recode του SPSS). Εφαρµογή. Ρίχνοντας ένα ζάρι φορές καταγράφουµε τα εξής αποτελέσµατα: τo εµφανίστηκε 8 φορές, το εµφανίστηκε φορές, το 3 εµφανίστηκε 3 φορές το 4 εµφανίστηκε φορές, το 5 εµφανίστηκε 7 φορές, το 6 εµφανίστηκε φορές Να ελέγξετε (ε.σ. 5%) αν το ζάρι αυτό είναι αµερόληπτο. Αρχικά εισάγουµε τα δεδοµένα στο SPSS. Κανονικά θα πρέπει να εισάγουµε αποτελέσµατα, τα 8 από τα οποία θα είναι, τα επόµενα να είναι κ.ο.κ. (δηλ cases γραµµές µε µία µεταβλητή στήλη). Έχουµε δει όµως ότι σε τέτοιες περιπτώσεις (όπου έχουµε επαναλήψεις γραµµών) είναι ισοδύναµο αλλά αρκετά βολικότερο να χρησιµοποιούµε βάρη. Εισάγουµε εποµένως µία µεταβλητή apot µε τα αποτελέσµατα,, 3, 4, 5, 6 και µία άλλη µεταβλητή w (βάρη) τις αντίστοιχες εµφανίσεις 8,, 3,, 7, και επιλέγουµε ata/weght cases/weght cases by w. Για το χ τεστ θα χρησιµοποιήσουµε 6 κλάσεις, τις προφανείς: A = {}, A = {},,A 6 = {6}. Στη συνέχεια επιλέγουµε Aalyze/No parametrc tests/ch-square/test varable lst: apot. Επίσης θα πρέπει να εισάγουµε τις αναµενόµενες πιθανότητες p, p,,p k (εδώ k=6) υπό την H στο πεδίο expected values. Επειδή όπως εδώ p = p = = p 6 = /6 (Η : αµερόληπτο ζάρι) µπορούµε πολύ απλά να επιλέξουµε να είναι all categores equal (είναι η default επιλογή). Από την α- νάλυση αυτή λαµβάνουµε τους πίνακες APOT Observed N Expected N Resdual 8, -,,, 3 3,, 4,, 5 7, -3, 6, -8, Total Test Statstcs RESULTS Ch-Square 9, df 5 Asymp. Sg.,5 cells (,%) have expected frequeces less tha 5. The mmum expected cell frequecy s,. Ο πρώτος πίνακας απεικονίζει τις παρατηρούµενες και τις αναµενόµενες συχνότητες σε κάθε ένα από τα 6 σύνολα Α ={},,Α 6 ={6} (κατηγορίες ή κελιά) ενώ ο δεύτερος πίνακας δίνει την τιµή της στατιστικής συνάρτησης δείγµα, T ( x) = 9. (β.ε. = k =5) και το αντίστοιχο p-value =.5. Το p-value δεν είναι µικρότερο του a = 5% οπότε, µε βάση τις αυτές παρατηρήσεις, δεν µπορούµε να απορρίψουµε ότι το ζάρι είναι αµερόληπτο. Εφαρµογή 3. Να ελέγξετε (ε.σ. 5%) αν οι παρακάτω 45 παρατηρήσεις προέρχονται από την ο- µοιόµορφη κατανοµή στο (,)...6.38.38.56.44.44.6.77.7.8.38.34.46.44.53.75.7.4.4.8.3.43.4.56.6.98.4..36.54.48.4.79.66.85.6.6..5.5.43.7.78.86 Εισάγουµε τα δεδοµένα στο SPSS: 45 cases (γραµµές) µε µία µεταβλητή (στήλη) µε όνοµα data (στο SPSS µερικές φορές, π.χ. σε ελληνικά wdows, ως υποδιαστολή θεωρείται το «,» αντί του «.»). Τώρα τα δεδοµένα δεν µπορούν να θεωρηθούν κατηγορικά (όπως στην προηγ. εφαρµογή) ώστε να εφαρµόσουµε απευθείας το χ τεστ, αλλά θα πρέπει να τα «οµαδοποιήσουµε». Για να έ- χουµε τουλάχιστον 5 αναµενόµενες παρατηρήσεις σε κάθε κελί θα χρησιµοποιήσουµε 8 κλάσεις, τις Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 9

A = [,/8), A = [/8,/8),, A 8 = [7/8,). Κατασκευάζουµε µία νέα µεταβλητή η οποία δείχνει τις κλάσεις µε Trasform/compute: categ = Truc(data*8) και εφαρµόζουµε το χ τεστ σε αυτή την µεταβλητή: επιλέγουµε Aalyze/No parametrc tests/ch-square/test varable lst: categ. Όπως και στην προηγούµενη εφαρµογή, οι αναµενόµενες πιθανότητες p, p,,p k (εδώ k = 8) υπό την H : Χ ~ οµοιόµορφη κατανοµή (,) είναι ό- λες ίσες (µε /8 διότι και τα A έχουν πλάτος /8). Και έτσι µπορούµε πολύ απλά να επιλέξουµε all categores equal. Λαµβάνουµε τους πίνακες CATEG Observed N Expected N Resdual 4 5,65 -,65 6 5,65,375 5 5,65 -,65 3 5,65 6,375 4 8 5,65,375 5 3 5,65 -,65 6 6 5,65,375 7 5,65-4,65 Total 45 Test Statstcs CAT Ch-Square 3,844 df 7 Asymp. Sg.,54 cells (,%) have expected frequeces less tha 5. The mmum expected cell frequecy s 5,6. Η τιµή της στατιστικής συνάρτησης δείγµα είναι 8.844 µε αντίστοιχο p-value =.54. Το p- value δεν είναι µικρότερο του a = 5% οπότε δεν µπορούµε να απορρίψουµε ότι τα δεδοµένα προέρχονται από την οµοιόµορφη. Όπως έχει αναφερθεί και παραπάνω, σε αυτή την περίπτωση (συνεχής κατανοµή) είναι ίσως προτιµότερο να κάνουµε τεστ καλής προσαρµογής χρησιµοποιώντας το Kolmogorov Smrov τεστ που θα εξετάσουµε σε επόµενη παράγραφο. Εφαρµογή 4. Να ελέγξετε αν τα παρακάτω 3 δεδοµένα προέρχονται από την κατανοµή Posso µε λ = 3 (ε.σ. 5%). 5 3 4 4 4 3 3 3 3 4 3 5 3 7 Πως θα ελέγχαµε αν τα δεδοµένα προέρχονται από την Posso (µε άγνωστο λ); Εισάγουµε τα δεδοµένα στο SPSS: 3 cases (γραµµές) µε µία µεταβλητή (στήλη) µε όνοµα data. Σε αυτή την περίπτωση τα δεδοµένα µπορούν µεν να θεωρηθούν κατηγορικά αλλά το πλήθος των κατηγοριών δεν είναι πεπερασµένο (µια τ.µ. που ακολουθεί την Posso µπορεί να πάρει τιµές στο {,,, }). Για το λόγο αυτό θα πρέπει να «ενώσουµε» κάποια δυνατά αποτελέσµατα σε κλάσεις (έτσι ώστε και οι αναµενόµενες συχνότητες σε αυτές τις κλάσεις να είναι τουλάχιστον 5). Παρατηρούµε ότι αν X ~ Posso(λ = 3) θα είναι x λ λ P( X = x) = e, x =,,, x! και εποµένως, x P(X x) P(X = x) P(X = x).498.498.49.99.494 4.48.43.4 6.7 3.647.4 6.7 4.853.68 5.4 5.96.8 3. 6.9665.54.5 Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 3

Ο παραπάνω πίνακας µπορεί πολύ εύκολα να κατασκευασθεί χρησιµοποιώντας το SPSS. Αρχικά φτιάχνουµε µόνοι µας την µεταβλητή x (µε τιµές,,,3,4,5,6). Στη συνέχεια κατασκευάζουµε την αθροιστική συνάρτηση κατανοµής P(X x) της Posso(λ=3) µέσω της Trasform/compute: cdfp = CF.POISSON(x,3). Η επόµενη στήλη µπορεί τώρα να ληφθεί από την cdfp µέσω της εντολής Trasform/create tme seres εισάγοντας στο πεδίο ew varable την cdfp µε Fucto:dfferece (order ). Η διαδικασία αυτή κατασκευάζει µια νέα µεταβλητή, την cdf_ η οποία απαρτίζεται από τις διαφορες των διαδοχικών τιµών της cdfp δηλ. τις P(X = x). Τέλος, η στήλη µε τις τιµές P(X = x) µπορεί να ληφθεί από την Trasform/compute, π.χ. expval = 3*cdf_. Από τον παραπάνω πίνακα παρατηρούµε ότι µπορούµε να χρησιµοποιήσουµε τα σύνολα (κλάσεις ή κατηγορίες) Α ={,}, Α ={}, Α 3 ={3}, Α 4 ={4}, A 5 ={5,6, } (για να έχουµε αναµενό- µενες συχνότητες σε όλες τις κλάσεις τουλάχιστον 5) µε αντίστοιχες αναµενόµενες πιθανότητες p : p = P(X ).99, p = P(X = ).4, p 3 = P(X = 3).4, p 4 = P(X = 4).68, p 5 = P(X 5).853 =.847 Στη συνέχεια θα πρέπει να κατασκευάζουµε µία νέα µεταβλητή categ η οποία δείχνει τις παραπάνω κλάσεις (µπορεί να γίνει µε τον γνωστό τρόπο χρησιµοποιώντας Trasform/recode) και εφαρµόζουµε το χ τεστ σε αυτή την µεταβλητή. Επιλέγουµε Aalyze/No parametrc tests/ch-square/test varable lst: categ. Σε αυτή όµως την περίπτωση δεν επιλέγουµε all categores equal αλλά περνάµε τις παραπάνω αναµενόµενες πιθανότητες.99,.4,.4,.68,.85 (τις εισάγουµε µε add µε αυτή την σειρά). Λαµβάνουµε τους πίνακες CATEG Observed N Expected N Resdual 8 6,, 8 6,7,3 3 7 6,7,3 4 4 5, -, 5 3 5,5 -,5 Total 3 Test Statstcs CATEG Ch-Square,33 df 4 Asymp. Sg.,675 cells (,%) have expected frequeces less tha 5. The mmum expected cell frequecy s 5,. Η τιµή της στατιστικής συνάρτησης στο δείγµα είναι.33 (4 β.ε.) µε αντίστοιχο p-value =.675. Άρα δεν µπορούµε να απορρίψουµε ότι τα δεδοµένα προέρχονται από την Posso (λ = 3). Τέλος, εάν έπρεπε να ελέγξουµε αν τα δεδοµένα προέρχονται από κάποια Posso (δηλ, Posso µε άγνωστο λ) τότε σύµφωνα µε την Παρατήρηση της Παραγράφου 3. θα έπρεπε να κάνουµε όλα τα παραπάνω αυτή τη φορά χρησιµοποιώντας την εκτίµηση του λ από το δείγµα και όχι το λ = 3. Σε αυτή την περίπτωση χάνουµε έναν β.ε. (διότι κάναµε εκτίµηση µιας παραµέτρου) και θα πρέπει να βρούµε µόνοι µας το p-value (το SPSS θα µας δώσει την τιµή της στατιστικής συνάρτησης ch-square αλλά το p-value που θα λάβουµε θα αντιστοιχεί σε 4 β.ε. και εποµένως θα είναι µεγαλύτερο του p-value που αντιστοιχεί σε 3 β.ε.). Το p-value µπορεί να υπολογιστεί π.χ. από το compute : pvalue = CF.CHISQ(ch-square,3). Εφαρµογή 5. Να ελέγξετε αν οι παρακάτω παρατηρήσεις προέρχονται από την κανονική κατανοµή µε µέση τιµή και διασπορά 65 (ε.σ. 5%). 98.47 95.53 6.67 6. 94.84 6.79 3.59 99.57 94.56.66 4.8 9.5 3.95.77 7.9 5.8 4.4 76.89 98.34 98. 95.7 99.8 4.59.44 87.5 97.59 7.6 98.9 96.79 9.8 7.68 7.3 98.8.99 5.9 97.69 9.3 4.37 9.9 7.63 Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 3

Όπως και στην εφαρµογή 3, θα ήταν ίσως προτιµότερο να κάνουµε το τεστ καλής προσαρ- µογής χρησιµοποιώντας το Kolmogorov Smrov τεστ που θα εξετάσουµε σε επόµενη παράγραφο. Είναι ενδιαφέρον όµως να δούµε πως µπορούµε να χρησιµοποιήσουµε το χ τεστ για έλεγχο καλής προσαρµογής. Προφανώς θα πρέπει και πάλι να οµαδοποιήσουµε τα δεδοµένα για να χρησι- µοποιήσουµε το χ τεστ. Η οµαδοποίηση θα πρέπει να γίνει έτσι ώστε σε κάθε κλάση η αναµενόµενη συχνότητα να είναι 5. Μπορούµε να ορίσουµε µόνοι µας τις κλάσεις, να δηµιουργήσουµε µια νέα µεταβλητή που να δείχνει τις κλάσεις και στην συνέχεια να υπολογίσουµε τις αναµενόµενες πιθανότητες p και να τις εισάγουµε στην ανάλυση του SPSS (όπως στην Εφαρµογή 4). Για να γλιτώσουµε όµως τον υπολογισµό των p (κάτι όχι τόσο εύκολο) µπορούµε να κάνουµε κάτι απλούστερο. Αντί να ελέγξουµε αν οι παραπάνω παρατηρήσεις X,X,,X προέρχονται από την N(,65), µπορούµε ισοδύναµα να ελέγξουµε αν οι µετασχηµατισµένες παρατηρήσεις Y = F(X ), Y = F(X ), Y = F(X ) προέρχονται από την οµοιόµορφη στο (,), όπου F είναι η σ.κ. της N(,65) (στην παρ. 3.. είδαµε ότι αν X ~ F:συνεχής τότε η τ.µ. Y = F(X) ~ Οµοιόµορφη στο (,)). Τις νέες παρατηρήσεις Y, Y,, Y µπορούµε να τις κατασκευάσουµε χρησιµοποιώντας την εντολή Trasform / compute Υ = CF.NORMAL(X,,SQRT(65)). Ο έλεγχος αν οι τ.µ. Y, Y,, Y προέρχονται από την οµοιόµορφη στο (,) γίνεται όµοια µε την Εφαρµογή 3. Αν π.χ. χρησι- µοποιήσουµε 8 κλάσεις βρίσκουµε p-value =.89 και εποµένως δεν απορρίπτουµε ότι τα δεδοµένα προέρχονται από την Ν(,65). 3.3. Το κριτήριο Kolmogorov-Smrov (K-S) για ένα δείγµα Το κριτήριο K-S χρησιµοποιείται και αυτό για το έλεγχο καλής προσαρµογής ενός τυχαίου δείγµατος σε µία δεδοµένη συνεχή κατανοµή (Η : X ~ F ). Το κριτήριο K-S βασίζεται στην διαφορά της εµπειρικής συνάρτηση κατανοµής (που προέρχεται από το δείγµα) και της αναµενόµενης F (υπό την Η ). Πιο συγκεκριµένα, αν Χ,Χ,...,Χ είναι ένα τ.δ., η εµπειρική συνάρτηση κατανοµής (ΕΣΚ) του δείγµατος αυτού είναι #{ X x} F ( x) = I( X x) =, (όπου Ι(X x) = ή ανάλογα µε το αν X x ή όχι) η οποία ως γνωστό αποτελεί εκτίµηση της συνάρτησης κατανοµής των X διότι (από το νόµο των µεγάλων αριθµών, θέτοντας Y = Ι(X x)) F ( x) = I( X x) = Y E( Y ) = P( Y = ) + P( Y = ) = P( Y = ) = P( X x) = Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 3 F( x) για κάθε x. Εποµένως, υπό την Η, η ΕΣΚ θα πρέπει να είναι «κοντά» στην F. Αντίθετα, αν δεν ισχύει η Η αναµένουµε σηµαντική απόκλιση της ΕΣΚ από την F. Για να κατασκευάσουµε έναν έλεγχο µε βάση αυτόν τον συλλογισµό, θα πρέπει να ορίσουµε µία «απόσταση» µεταξύ των δύο κατανοµών (της ΕΣΚ και της F ) και να απορρίπτουµε την Η όταν αυτή η απόσταση γίνεται «µεγάλη». Σχετικά έχουµε τον επόµενο ορισµό. Ορισµός. Αν F, G είναι δύο συναρτήσεις κατανοµής στον R, τότε η ποσότητα d K ( F, G) = sup{ F( x) G( x) } x R καλείται απόσταση Kolmogorov µεταξύ της F και της G. Σύµφωνα µε τα παραπάνω, θα απορρίπτουµε την Η : X ~ F όταν η στατιστική συνάρτηση = d K ( F, F ) = sup{ F ( x) F ( x) }, x R λαµβάνει «ασυνήθιστα» µεγάλες τιµές, δηλαδή όταν > c. Το κριτήριο αυτό είναι γνωστό ως κριτήριο Kolmogorov Smrov (και η στατιστική συνάρτηση καλείται ελεγχοσυνάρτηση Kolmogorov Smrov). Προκειµένου να χρησιµοποιήσουµε το συγκεκριµένο κριτήριο θα πρέπει

να προσδιορίσουµε την κατανοµή της τ.µ. κάτω από την Η έτσι ώστε να υπολογίσουµε το c (για δεδοµένο επίπεδο σηµαντικότητας a) και το p-value ενός δείγµατος. Σε αυτό το σηµείο ίσως κάποιος αναλογιστεί ότι το κριτήριο αυτό έχει ένα σοβαρό µειονέκτηµα: η κατανοµή της θα πρέπει να εξαρτάται από την F (την κατανοµή από την οποία προέρχεται το δείγµα, υπό την H ) και εποµένως θα πρέπει να βρούµε την κατανοµή της για κάθε διαφορετική κατανοµή F. Ευτυχώς, αντίθετα µε αυτό που θα περίµενε κανείς, αποδεικνύεται ότι η κατανοµή της στατιστικής συνάρτησης δεν εξαρτάται από την F! Το γεγονός αυτό µας δίνει την δυνατότητα να χρησιµοποιήσουµε το κριτήριο αυτό οποιαδήποτε και αν είναι η κατανοµή από την οποία προέρχεται το δείγµα (υπό την Η ). Τέτοιοι έλεγχοι καλούνται απαραµετρικοί έλεγχοι (η κατανοµή της στατιστικής συνάρτησης που χρησιµοποιούµε και εποµένως η κρίσιµη περιοχή και το p-value δεν εξαρτώνται από την κατανοµή του δείγµατος υπό την H ). Το χ τεστ, το Kolmogorov Smrov τεστ καθώς και τα τεστ που θα εξετάσουµε στη συνέχεια στην ενότητα αυτή είναι απαρα- µετρικά. Πριν προχωρήσουµε, έχει ενδιαφέρον να δούµε γιατί η κατανοµή του δεν εξαρτάται από την F. Ξεκινάµε αναζητώντας µία απλούστερη έκφραση της τ.µ. ώστε να υπολογίζεται εύκολα από το τ.δ. Χ, Χ,..., Χ αλλά και να φαίνεται αµεσότερα η εξάρτησή της από τα Χ. Έστω Χ (), Χ (),...,Χ () οι διατεταγµένες τιµές των Χ, Χ,...,Χ (Χ () < Χ () <... < Χ () ). Παρατηρούµε ότι η εµπειρική συνάρτηση κατανοµής γράφεται ως εξής:, x < X () /, X () x < X () F ( x) = /, X () x < X (3) M /, X ( ) x δηλαδή είναι σταθερή στα διαστήµατα [X (-), X () ) ενώ παρουσιάζει άλµατα ύψους / στα σηµεία Χ (),...,Χ (). Εφόσον τώρα η F είναι αύξουσα συνάρτηση, η µέγιστη τιµή της F (x) F (x) θα λαµβάνεται πάνω σε κάποιο από τα σηµεία Χ (),..., Χ (). ηλαδή, + = sup { F ( x) F ( x)} = max { F ) F )} = max { F )}. x R,,...,,,..., Αυτό µπορεί να φανεί και από το παρακάτω σχήµα ( = 7): F F / X () X () X (3 )... Όµοια, το supremum της F (x) F (x) θα είναι = sup { F ( x) F ( x)} = max { F ) F )} = max { F ) } x R,,...,,,...,. Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 33

(όπου F(x ) = lm t x F(t)) και τελικά, { + } = sup{ F ( x) F ( x) } = max, = max F ( ) ), F ), =,,...,. x R Παρατηρούµε τώρα ότι οι τ.µ. U = F (X ),,,, είναι ανεξάρτητες και ακολουθούν την ο- µοιόµορφη στο (,) κατανοµή (βλ. και παρ. 3.) και εποµένως οι τ.µ. U () = F (X () ) µπορεί να θεωρηθεί ότι αποτελούν ένα διατεταγµένο δείγµα από την οµοιόµορφη στο (,) κατανοµή. Συνεπώς, οποιαδήποτε και αν είναι η F, η έχει ίδια κατανοµή (υπό την Η ) µε την τ.µ. max U ( ), U, =,,...,, όπου U,U,,U είναι ανεξάρτητες τ.µ. από την U(,) η οποία προφανώς δεν εξαρτάται από την F. Εποµένως, θα απορρίπτουµε την Η όταν > c (a), = όπου (a) είναι το άνω a-σηµείο της κατανοµής της τ.µ. (το οποίο δεν εξαρτάται από την F ). Η ακριβής κατανοµή της τ.µ. είναι δύσκολο να υπολογιστεί και για αυτό έχουν κατασκευαστεί πίνακες µε τα άνω a-σηµεία της. Αποδεικνύεται όµως ότι η κατανοµή της τ.µ. Ζ = (καλείται και Kolmogorov-Smrov Z) έχει ασυµπτωτικά (υπό την Η και για συνεχή σ.κ. F ) τη συνάρτηση κατανοµής, z P ( Z z) = P( z) ( ) e για κάθε z, και εποµένως το p-value ενός δείγµατος που έδωσε = d θα είναι (ασυµπτωτικά) p value = P( > d / H ) = P( < d) Παρατήρηση. Παραπάνω εξετάσαµε τον έλεγχο της υπόθεσης Η : X ~ F όπου η F ήταν πλήρως καθορισµένη. Συνηθέστερη όµως περίπτωση είναι να γνωρίζουµε την οικογένεια στην οποία ανήκει η F µε άγνωστες όµως παραµέτρους θ (π.χ. κανονική µε άγνωστα µ, σ). Στην περίπτωση αυτή συνήθως εκτιµούµε τις παραµέτρους θ από τα δεδοµένα και χρησιµοποιούµε την ίδια στατιστική συνάρτηση ( θ) = sup{ F ( x) F ( x; θ) }, x R όπου F ( x; θ) είναι η σ.κ. που προκύπτει αν θεωρήσουµε ότι οι άγνωστες παράµετροι της F έχουν εκτιµηθεί από τα δεδοµένα. Το αντίστοιχο p-value είναι περίπου ίσο (για µεγάλα δείγµατα) µε αυτό που θα προέκυπτε αγνοώντας το γεγονός της εκτίµησης του θ, δηλαδή, ( ) p value = Pr( ( θ ) d / H ) P( d / H ), e d και έτσι µπορούµε να χρησιµοποιήσουµε και πάλι την ασυµπτωτική κατανοµή της 3.. Για ορισµένες κατανοµές (π.χ. κανονική µε άγνωστες παραµέτρους) συνήθως χρησιµοποιείται µία τροποποίηση του K-S τεστ (π.χ. Lllefors K-S). 3 Στην πραγµατικότητα, η συγκεκριµένη προσεγγιστική τιµή του p-value είναι µεγαλύτερη από την αντίστοιχη ακριβή τιµή. Αυτό είναι διαισθητικά προφανές, διότι η ( F x; θ) θα ταιριάζει περισσότερο στα δεδοµένα από την F ( x; θ) (ακριβώς διότι χρησιµοποιούµε τις παραµέτρους που ταιριάζουν περισσότερο στα δεδοµένα) µε αποτέλεσµα να λαµβάνουµε µεγαλύτερο p-value. Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 34

Εφαρµογή 6. Να ελέγξετε αν οι παρακάτω παρατηρήσεις (είναι ίδιες µε της Εφαρµογής 5) προέρχονται από την κανονική κατανοµή (ε.σ. 5%). 98.47 95.53 6.67 6. 94.84 6.79 3.59 99.57 94.56.66 4.8 9.5 3.95.77 7.9 5.8 4.4 76.89 98.34 98. 95.7 99.8 4.59.44 87.5 97.59 7.6 98.9 96.79 9.8 7.68 7.3 98.8.99 5.9 97.69 9.3 4.37 9.9 7.63 Εισάγουµε τα δεδοµένα στο SPSS (4 περιπτώσεις cases µε µια µεταβλητή: data). Στη συνέχεια επιλέγουµε Aalyze/o parametrc tests/ sample K-S/test varable: data, test dstrbuto: Normal. Λαµβάνεται ο πίνακας: Από τον πίνακα αυτό βλέπουµε ότι και Oe-Sample Kolmogorov-Smrov Test ATA N 4 Normal Parameters a,b Mea,335 Std. evato 7,868 Most Extreme ffereces Absolute,84 Postve,84 Negatve -,7 Kolmogorov-Smrov Z,534 Asymp. Sg. (-taled),938 a Test dstrbuto s Normal, b Calculated from data. + + =.84, =.7, = max{, } =.84, Ζ =.534 (.534) p value ( ) e.938 από όπου δεν µπορούµε να απορρίψουµε ότι τα δεδοµένα προέρχονται από την κανονική. Είναι σε αυτό το σηµείο ενδιαφέρον να παρατηρήσουµε ότι ο ίδιος έλεγχος µέσω του χ τεστ έδωσε p-value=.89 (βλ. Eφαρµογή 5). Η µεγάλη αυτή διαφορά οφείλεται στο γεγονός ότι στην Eφαρµογή 5 ελέγξαµε αν το δείγµα προέρχεται από την Ν(,65) ενώ τώρα οι παράµετροι της κανονικής κατανοµής δεν είχαν καθοριστεί και για αυτό εκτιµήθηκαν από το δείγµα. Είναι εύκολο να δούµε ότι X =.335, S = 7.868 και εποµένως τώρα ουσιαστικά ελέγχθηκε η υπό- θεση Η : X ~ N(,335, 7.868 ). Εάν είχαµε ελέγξει την ίδια υπόθεση µε το χ τεστ (µε την ίδια διαδικασία που περιγράφηκε στην Εφαρµογή 5) τότε θα βρίσκαµε ότι p-value =.934. 3.4. Το κριτήριο Kolmogorov-Smrov (K-S) για δύο δείγµατα Το κριτήριο K-S µπορεί να τροποποιηθεί ώστε να χρησιµοποιηθεί για να ελέγξουµε αν δύο δείγµατα προέρχονται από την ίδια κατανοµή. Συγκεκριµένα, έστω Χ, Χ,,Χ m και Υ,Y,,Y δύο τυχαία δείγµατα από τις κατανοµές F και G αντίστοιχα και έστω ότι επιθυµούµε να ελέγξουµε την υπόθεση H : F = G έναντι της H : F G Όπως και στο K-S για ένα δείγµα, θα χρησιµοποιήσουµε τις εµπειρικές συναρτήσεις κατανοµής των δύο δειγµάτων. Αυτή την φορά δεν θα τις συγκρίνουµε µε κάποια θεωρητική κατανοµή, αλλά µεταξύ τους. Θέτουµε m, = d K ( F m, G ) = sup{ Fm ( x) G ( x x R Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 35 ) }

Όπως και στην περίπτωση του ενός δείγµατος, υπό την H : F = G, η κατανοµή του m, δεν εξαρτάται από την κοινή κατανοµή των Χ, Y ενώ υπό την Η : F G, η m, λαµβάνει µεγάλες τιµές. Εποµένως θα απορρίπτουµε την Η όταν > c ( ) : άνω a-σηµείο της κατανοµής της τ.µ. m, (a) m, = m, a Η ακριβής κατανοµή της τ.µ. m, είναι δύσκολο να υπολογιστεί και για αυτό έχουν κατασκευαστεί πίνακες µε τα άνω a-σηµεία της. Αποδεικνύεται όµως ότι (υπό την Η και για συνεχείς F, G), όπως και στην περίπτωση του ενός δείγµατος, m z P ( m, z) ( ) e για κάθε z, m + και εποµένως το p-value ενός δείγµατος που έδωσε m, = d θα είναι (ασυµπτωτικά) p value = P(, m > d / H ) = P( m m +, m < m d) m + ( ) e m d m+. 3.5. Το Wald-Wolfowtz τέστ των ροών (rus test) Έστω και πάλι ότι έχουµε Χ, Χ,,Χ m και Υ,Y,,Y δύο τυχαία δείγµατα από τις κατανο- µές F και G αντίστοιχα και έστω ότι επιθυµούµε να ελέγξουµε την υπόθεση H : F = G έναντι της H : F G Εκτός από το K-S τεστ, για τον έλεγχο αυτό έχουν προταθεί και άλλα τεστ όπως το τεστ των ροών (Wald-Wolfowtz rus τεστ) που θα περιγράψουµε εν συντοµία στη συνέχεια. Θεωρούµε τα δύο παραπάνω δείγµατα ως ένα δείγµα +m παρατηρήσεων και στη συνέχεια διατάσσουµε (από την µικρότερη προς την µεγαλύτερη) τις παρατηρήσεις στο κοινό αυτό δείγµα. Για παράδειγµα αν το πρώτο δείγµα είναι το.5,.4,., 4.6,.8 και το δεύτερο δείγµα είναι το.5, 3.4,.,.6,.8, 5. τότε λαµβάνουµε το διατεταγµένο δείγµα.,.8,.,.5,.6,.8,.4,.5, 3.4, 4.6, 5. Αν στην παραπάνω ακολουθία συµβολίσουµε µε Χ τις παρατηρήσεις από το ο δείγµα και µε Υ τις παρατηρήσεις από το ο δείγµα τότε λαµβάνουµε την ακολουθία συµβόλων Υ, Χ, Χ, Χ, Υ, Υ, Χ, Υ, Υ, Χ, Υ Κάτω από την H, οι +m παρατηρήσεις προέρχονται από την ίδια κατανοµή και εποµένως οι παρατηρήσεις από το ο και το ο δείγµα θα πρέπει να βρεθούν σε «τυχαίες» θέσεις στο διατεταγµένο από κοινού δείγµα. Αντίθετα υπό την H θα πρέπει να διαφαίνονται κάποιες συγκεντρώσεις των µεν ή των δε (π.χ. Χ,Χ,Χ,Χ,Υ,Χ,Υ,Υ,Υ,Υ,Υ). Μια στατιστική συνάρτηση που κατά κάποιο τρόπο εκφράζει το πόσο τυχαία βρίσκονται οι παρατηρήσεις από το ο και το ο δείγµα στο διατεταγµένο από κοινού είναι η R = πλήθος από οµάδες συνεχόµενων όµοιων συµβόλων Χ ή Υ (πλήθος «ροών») (στην ακολουθία συµβόλων που δείχνει τις θέσεις των Χ, Y στο διατεταγµένο από κοινού δείγµα). Στο παραπάνω παράδειγµα οι ροές οµοίων συµβόλων είναι R = 7: (Y), (XXX), (YY), (X), (YY), (X), (Y) (ενώ στην ακολουθία Χ,Χ,Χ,Χ,Υ,Χ,Υ,Υ,Υ,Υ,Υ υπάρχουν µόνο R = 4 ροές). Είναι προφανές ότι όταν ισχύει η Η η R θα λαµβάνει µικρές τιµές. Εποµένως θα απορρίπτουµε την Η όταν R < c. Για να βρεθεί το p-value που αντιστοιχεί στο συγκεκριµένο κριτήριο θα πρέπει να γνωρίζουµε την κατανοµή της R υπό την H (οι +m τ.µ. ακολουθούν την ίδια κατανοµή). Η κατανοµή αυτή µπορεί να εκφρασθεί αναλυτικά αλλά έχει σύνθετη µορφή και για αυτό συνήθως χρησιµοποιούµε το γεγονός ότι ασυµπτωτικά (πρακτικά m, > ), Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 36

Z = R m ( + ) m + ~ N(,) ( m, m(m m ) H ( m+ ) ( m+ ) ) Με βάση το παραπάνω (αν r είναι το πλήθος ροών στο δείγµα), p-value = Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 37 m r ( + ) m+ P ( R < r) Φ ( ). m m m ( m+ ) ( m+ ) (Σε περίπτωση που υπάρχουν ίσες παρατηρήσεις στο από κοινού δείγµα, τις διατάσσουµε έτσι ώστε να προκύψει ο µεγαλύτερος δυνατός αριθµός ροών). Παρατήρηση. (Έλεγχος τυχαιότητας µε βάση το πλήθος των ροών). Αξίζει να σηµειωθεί ότι το πλήθος των ροών µπορεί να χρησιµοποιηθεί και για ελέγχους τυχαιότητας. Συγκεκριµένα, έστω ότι έχουµε ένα δείγµα Χ,Χ,,Χ και θέλουµε να ελέγξουµε αν οι Χ αποτελούν τυχαίο δείγµα από κάποια F (δηλ. είναι ανεξάρτητες τ.µ. από την F). Παρατηρούµε ότι αν π.χ. P(X = ) = P(X = ) =.5 (δηλ F ~ Beroull(.5)) τότε µια πραγµατοποίηση της µορφής,,,,,,,,,, ή της µορφής,,,,,,,,,, θα µας γεννούσε υποψίες (για την «τυχαιότητα» µε την οποία παράγονται οι ακολουθίες). Στην περίπτωση που οι Χ,Χ,,Χ προέρχονται από µια F που δεν είναι δίτιµη, τότε µπορούµε να θέσουµε ίσες µε τις παρατηρήσεις που είναι κάτω του δειγµατικού µέσου (ή κάτω της δειγµατικής διάµεσου) και µε τις υπόλοιπες (αν κάποιες είναι ίσες µε το µέσο εξαιρούνται από την ανάλυση) και να πάρουµε µια ανάλογη µε το παραπάνω παράδειγµα ακολουθία από,. Το πλήθος των ροών R µπορεί και εδώ να χρησιµοποιηθεί αναλογιζόµενοι ότι ασυνήθιστα µεγάλες ή µικρές τιµές του R οδηγούν στο συµπέρασµα ότι το δείγµα δεν πρέπει να είναι τυχαίο (ανεξ. ισόνοµες τ.µ.). Εποµένως θα απορρίπτεται η Η : το δείγµα είναι τυχαίο όταν R < c ή R > c. Χρησιµοποιώντας το παραπάνω ασυµπτωτικό αποτέλεσµα, το αντίστοιχο p-value θα είναι (τώρα ο έλεγχος είναι αµφίπλευρος) p-value ( Φ r m ( + ) m+ m(m m ) ( m+ ) ( m+ ) όπου m, είναι το πλήθος από, αντίστοιχα στο δείγµα. Προφανώς θα µπορούσε κανείς εδώ αντί για αµφίπλευρο έλεγχο να απορρίπτει µόνο όταν R < c (π.χ. έχοντας ως εναλλακτική την θετική ε- ξάρτηση µεταξύ των παρατηρήσεων) ή όταν R > c (π.χ. έχοντας ως εναλλακτική την αρνητική ε- ξάρτηση µεταξύ των παρατηρήσεων) Όπως ίσως µπορεί κανείς να φαντασθεί, υπάρχουν πολλά διαφορετικά (απαραµετρικά) κριτήρια που θα µπορούσαν να χρησιµοποιηθούν για έναν έλεγχο τυχαιότητας ή για τον έλεγχο ισότητας των κατανοµών δύο δειγµάτων (πράγµατι στην βιβλιογραφία έχουν προταθεί απαραµετρικά κριτήρια που βασίζονται π.χ. στην µεγαλύτερη ροή, σε ανοδικές ροές, στους βαθµούς (raks) των παρατηρήσεων κ.α.). Το κάθε ένα από αυτά τα τεστ είναι «ευαίσθητο» σε διαφορετικού είδους ε- ναλλακτική υπόθεση. Το τεστ των ροών που εξετάσαµε παραπάνω αν και δεν είναι το πιο ισχυρό, είναι το πιο απλό και το πιο γενικό (όσον αφορά την εναλλακτική υπόθεση) τεστ αυτής της µορφής. Στη συνέχεια θα δούµε ακόµη ένα τεστ που βασίζεται περίπου στην ίδια ιδέα (διάταξη του από κοινού δείγµατος των X, Y ). ).

3.6. Το Ma-Whtey U τεστ Και αυτό το τεστ χρησιµοποιείται για τον έλεγχο ισότητας των κατανοµών δύο δειγµάτων. Έστω και πάλι ότι έχουµε Χ, Χ,,Χ m και Υ,Y,,Y δύο τυχαία δείγµατα από τις κατανοµές F και G αντίστοιχα και έστω ότι επιθυµούµε να ελέγξουµε την υπόθεση H : F = G έναντι της H : F G Ενώνουµε όπως και την περίπτωση του Wald-Wolfowtz rus τεστ τα δύο παραπάνω δείγµατα σε ένα δείγµα +m παρατηρήσεων και στη συνέχεια διατάσσουµε (από την µικρότερη προς την µεγαλύτερη) τις παρατηρήσεις στο κοινό αυτό δείγµα. Αυτή τη φορά όµως δεν µετράµε το πλήθος των ροών, αλλά το πλήθος από τα Υ που είναι µικρότερα του X συν το πλήθος από τα Υ που είναι µικρότερα του X κ.ο.κ. στο διατεταγµένο από κοινού δείγµα. Χρησιµοποιώντας το ίδιο παράδειγµα µε την προηγούµενη παράγραφο, αν το πρώτο δείγµα είναι το.5,.4,., 4.6,.8 και το δεύτερο είναι το.5, 3.4,.,.6,.8, 5. τότε λαµβάνουµε το διατεταγµένο δείγµα.,.8,.,.5,.6,.8,.4,.5, 3.4, 4.6, 5. Τώρα βλέπουµε ότι το.8, το. και το.5 είναι µεγαλύτερο από ένα Υ (το.), το.4 είναι µεγαλύτερο από τρία Υ (τα.,.6,.8), και το 4.6 είναι µεγαλύτερο από πέντε X. Άρα εδώ, U = + + +3 + 5 = Θα απορρίπτεται η H : F = G έναντι της H : F G όταν το U είναι αδικαιολόγητα µικρό ή µεγάλο (U < c ή U > c ). Η κατανοµή της τ.µ. U µπορεί να παρασταθεί αναλυτικά (κάτω από την H ) αλλά και πάλι δεν έχει απλή µορφή. Αποδεικνύεται ότι, ασυµπτωτικά, U m / Z = ~ N(,) ( m, ) m( m + + ) / H και εποµένως (για µεγάλα m, ) αν z είναι η τιµή της παραπάνω στατιστικής συνάρτησης στο δείγ- µα, u m / P Z > z Φ z = Φ ( ) /. m m + + p-value = ( ) ( ( ) ( ) Το τεστ αυτό είναι σε αρκετές περιπτώσεις πιο ισχυρό από το τεστ των ροών διότι χρησιµοποιεί περισσότερη πληροφορία από το δείγµα. Εφαρµογή 7. Να ελέγξετε αν οι παρατηρήσεις.,.,.,.8,.,.8, 3.4 και.7,.9,., 5., 6.9, 7., 7.8, 9. προέρχονται από την ίδια κατανοµή. Εισάγουµε τα δεδοµένα σε µία στήλη του SPSS µε όνοµα π.χ. a (µία στήλη µε 7+8 = 5 παρατηρήσεις). Όπως και στα t-tests για δυο ανεξάρτητα δείγµατα χρησιµοποιούµε και µια βοηθητική µεταβλητή, την g η οποία λαµβάνει τις τιµές,,,,,,,,,,,,,, «δείχνοντας» το group που ανήκει κάθε παρατήρηση. Στη συνέχεια εκτελούµε Aalyze/No parametrc tests/ depedet samples, test varable: a, groupg varable: g, Test type: Kolmogorov-Smrov Z, Ma-Whtey U, Wald Wolfowtz rus test (δηλ. επιλέγουµε και τα τρία παραπάνω τεστ). Λαµβάνoνται οι πίνακες: Ma-Whtey Test Test Statstcs b A Ma-Whtey U 9, Wlcoxo W 37, Z -,99 Asymp. Sg. (-taled),8 Exact Sg. [*(-taled Sg.)],9 a Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 38

a Not corrected for tes, b Groupg Varable: G Two-Sample Kolmogorov-Smrov Test Test Statstcs A Most Extreme ffereces Absolute,65 Postve, Negatve -,65 Kolmogorov-Smrov Z,8 Asymp. Sg. (-taled),8 Wald-Wolfowtz Test Test Statstcs b,c Number of Z Exact Sg. (-taled) Rus A Exact Number of Rus 8 a,,54 a No ter-group tes ecoutered, b Wald-Wolfowtz Test, c Groupg Varable: G Από το Ma-Whtey τεστ απορρίπτουµε ότι τα δείγµατα προέρχονται από τον ίδιο πληθυσµό (σε ε.σ. 5%) διότι το p-value=.9 ενώ τα άλλα δύο τεστ δεν κατάφεραν µε βάση το συγκεκριµένο δείγµα να εντοπίσουν διαφορά στις κατανοµές των δυο δειγµάτων (p-values:.8 και.54). Εφαρµογή 8. Από ένα πείραµα λαµβάνονται κατά σειρά οι επόµενες παρατηρήσεις,, 4, 9,,, 8, 4, 7, 3,,. Οι παρατηρήσεις αυτές µπορεί να αποτελούν τυχαίο δείγµα; (δηλ. µπορεί να πρόκειται για πραγµατοποίηση ανεξάρτητων τ.µ. από µια κοινή κατανοµή;) Εισάγουµε τα δεδοµένα σε µια µεταβλητή, έστω x. Θα χρησιµοποιήσουµε το rus τεστ για το έλεγχο τυχαιότητας του δείγµατος (βλ. παρατήρηση στην Παράγραφο 3.5). Επιλέγουµε Aalyze/No parametrc tests/rus, test varable:x, cut pot: meda (οι παρατηρήσεις πάνω από την διάµεσο θεωρούνται και αυτές κάτω από την διάµεσο ). Λαµβάνεται ο πίνακας Rus Test X Test Value a 4, Cases < Test Value 5 Cases >= Test Value 7 Total Cases Number of Rus 3 Z -,8 Asymp. Sg. (-taled),37 a Meda από όπου βλέπουµε ότι βρέθηκαν 5 παρατηρήσεις µικρότερες και 7 παρατηρήσεις µεγαλύτερες ή ίσες της (δειγµατικής) διαµέσου (=4), ενώ ο αριθµός των ροών ήταν µόλις 3. Το αντίστοιχο p-value είναι.37, δηλαδή m r ( m+ + ) +.5 p-value ( Φ ).37 ( ) ( = 5, m = 7, r = 3) m m m ( m+ ) ( m+ ) (χρησιµ. διόρθωση συνέχειας) και εποµένως απορρίπτουµε (σε ε.σ. 5%) ότι οι παραπάνω παρατηρήσεις αποτελούν τυχαίο δείγµα από µία κατανοµή (πράγµατι, βλέπουµε ότι οι τιµές των παρατηρήσεων αρχικά αυξάνονται και µετά µειώνονται κάτι που, όπως φάνηκε από το p-value, σπάνια συµβαίνει «τυχαία»). Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 39