Ενότητα : Έλεγχοι υποθέσεων για µέσες τιµες πληθυσµών (T-tests) µέσω SPSS.. Έλεγχος υποθέσεων για το µέσο µ ενός πληθυσµού Έστω ότι θέλουµε να ελέγξουµε αν ο µέσος µ ενός κανονικού πληθυσµού (µε άγνωστή διασπορά σ ) είναι ίσος µε µ ή είναι διάφορος του µ, δηλαδή έχουµε την υπόθεση H : µ = µ έναντι της H : µ µ. Με βάση ένα τυχαίο δείγµα Χ,Χ,,Χ ~ Ν(µ,σ ) από τον πληθυσµό αυτό είναι γνωστό ότι χρησι- µοποιούµε την στατιστική συνάρτηση (από το κριτήριο του γενικ. λόγου πιθανοφανειών) X µ T X ) = S / ( ~ H t, X = X, S = ( X X ) = = η οποία, όταν ισχύει η H, ακολουθεί κατανοµή t -, δηλ. studet µε βαθµούς ελευθερίας, ενώ όταν ισχύει η Η λαµβάνει «µεγάλες» (αρνητικές ή θετικές) τιµές. Εναλλακτικά µπορούµε να χρησι- µοποιήσουµε τη στατιστική συνάρτηση Τ(Χ) η οποία, υπό την Η, λαµβάνει «µεγάλες» θετικές τι- µές. Απορρίπτουµε την Η (σε ε.σ. a) όταν T ( x ) > c = t ( a / ) : άνω a/-σηµείο της κατανοµής studet µε β.ε. Το p-value των τιµών ενός δείγµατος x είναι x µ x µ x µ p value = P( T ( X ) > T ( x) / H ) = P( T ( X) / H ) = Ft ( ) s / s / s / όπου F t είναι η σ.κ. της κατανοµής studet µε β.ε. Σχηµατικά: σ.π.π. της t - p-value (H : µ µ ) T(x) T(x) Ο παραπάνω έλεγχος µπορεί να γίνει ακόµη και όταν ο πληθυσµός δεν είναι κανονικός αλλά το δείγµα είναι αρκετά µεγάλο (συνήθως >3 ή καλύτερα >). Αυτό δικαιολογείται από το γεγονός ότι η Τ(Χ) ακολουθεί ασυµπτωτικά ( ) τυπική κανονική κατανοµή (από το Κ.Ο.Θ. και το γεγονός ότι S σ µε πιθ. ) ενώ ως γνωστό και η κατανοµή studet συγκλίνει στην N(,). Ιδιαίτερα, µπορούµε να χρησιµοποιήσουµε τα παραπάνω και για έλεγχο ποσοστών θεωρώντας ή τις τιµές του τυχαίου δείγµατος (ώστε ο µέσος του πληθυσµού να είναι το ποσοστό που µας ενδιαφέρει). Ο έλεγχος που προκύπτει είναι ισοδύναµος (για µεγάλο ) µε τον γνωστό έλεγχο για το ποσοστό ενός πληθυσµού. Εάν θέλαµε να κάνουµε µονόπλευρο έλεγχο µε εναλλακτική Η : µ > µ θα έπρεπε να πάρουµε x µ pvalue /, T ( x) p value = P( T ( X) > T ( x) / H ) = ( ) = > F t s / pvalue /, T ( x) < όπου p-value είναι το p-value του δίπλευρου ελέγχου. Ανάλογα εργαζόµαστε αν είχαµε Η : µ < µ : Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 7
x µ pvalue /, T ( x) < p value = P( T ( X) < T ( x) / H ) = Ft ( ) = s / pvalue /, T ( x) τα παραπάνω είναι εύκολο να επαληθευτούν και γραφικά, π.χ. για Η : µ > µ : < H : µ > µ και T(x) H : µ > µ και T(x) < p-value p-value > p-value p-value > T(x) T(x) Εφαρµογή. Στον παρακάτω πίνακα δίνονται τα ύψη 6 τυχαία επιλεγµένων ανδρών από µία περιοχή Α. 7, 73,9 75, 74,9 74,8 7,4 74,8 7,5 7,3 78, 76, 66,7 74, 79, 79,5 7,8 75, 77,3 73,9 7,3 74, 74, 76, 79, 69,4 73,6 74,9 7,6 75,3 78, 69,6 69,6 79, 74, 74, 76, 74, 7,4 74,3 7,5 77,4 7, 79,9 78, 74, 78,4 75, 73,6 74,4 77, 77, 79, 75, 8, 74, 76,7 7, 7,3 75,9 7,9 Επιθυµούµε να ελέγξουµε αν το µέσο ύψος µ του πληθυσµού από τον οποίο προέρχεται το παραπάνω δείγµα είναι ίσο µε µ =74. Λύση: Περνάµε τα παραπάνω δεδοµένα στο SPSS σε µία στήλη (µεταβλητή heght) 6 γραµµών (6 cases) - Από την διαδικασία Aalyze/Compare Meas/Oe-Sample T Test επιλέγουµε Test varable: heght, test value: 74 και λαµβάνουµε δύο πίνακες: Oe-Sample Statstcs N Mea Std. Devato Std. Error Mea HEIGHT 6 74,668 3,7,39 Σύµφωνα µε τον παραπάνω πίνακα = 6, x =74.668, s = 3.7, s / µε και τον πίνακα Oe-Sample Test Test Value = 74 t df Sg. (- taled) Mea Dfferece =.39. Επίσης λαµβάνου- 95% Cofdece Iterval of the Dfferece Lower Upper HEIGHT,76 59,9,668 -,,448 Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 8
x µ σύµφωνα µε τον οποίο, T ( x ) = =. 76, β.ε. = = 59, s / x p-value (sg. value) = ( ) = F (.76) 59 t.9 59 s / (µπορούµε να το επαληθεύσουµε από Trasform/compute: pvalue = *( CDF.T(.76,59))). Επίσης, x µ.668, και ένα δ.ε. 95% για τη διαφορά µ µ είναι το F t µ ( ) s s ( x µ t ( a / ), x µ + t ( a / )) (.,.448). Χονδρικά µπορούµε να πούµε ότι η πιθανότητα να εµφανιστεί το παραπάνω δείγµα ενώ µ = 74 είναι.9. Εποµένως, δεν µπορούµε να απορρίψουµε την Η : µ = µ = 74 σε ε.σ. 5% διότι το p-value είναι.9 >.5 (αν όµως πάρουµε ε.σ. % θα πρέπει να απορρίψουµε την Η ). Εάν είχαµε ως εναλλακτική υπόθεση την Η : µ > µ θα έπρεπε να πάρουµε p value > = pvalue / =.9/ =.455 (διότι T (x) >) ενώ αν Η : µ < µ τότε p value < = pvalue / =.9/ =. 9545... Έλεγχος υποθέσεων για τη διαφορά µ µ των µέσων δυο ανεξάρτητων πληθυσµών Έστω τώρα ότι θέλουµε να ελέγξουµε αν ο µέσος µ ενός κανονικού πληθυσµού (µε άγνωστη διασπορά σ ) είναι ίσος µε τον µέσο µ ενός άλλου κανονικού πληθυσµού (µε άγνωστη διασπορά σ ), έχουµε δηλαδή την υπόθεση H : µ µ = έναντι της H : µ µ. Με βάση δυο ανεξάρτητα τυχαία δείγµατα Χ,Χ,, X ~ Ν(µ, τους δύο αυτούς πληθυσµούς διακρίνουµε δύο περιπτώσεις: σ ) και Υ,Υ,, Y ~ Ν(µ, σ ) από (a) Οι δυο πληθυσµοί είναι οµοσκεδαστικοί ( σ = σ ). Κάτω από αυτή την συνθήκη, χρησιµοποιού- µε τη στατιστική συνάρτηση T ( X, Y) = ~ H, σ= σ t + ( ) S + ( ) S + X Y + η οποία υπό την Η : µ = µ ακολουθεί κατανοµή t + δηλ. studet µε + βαθµούς ελευθερίας, ενώ όταν ισχύει η Η λαµβάνει «µεγάλες» (αρνητικές ή θετικές) τιµές. Και εδώ, µπορούµε ισοδύναµα να χρησιµοποιήσουµε τη στατιστική συνάρτηση Τ(Χ,Υ) η οποία, υπό την Η, λαµβάνει «µεγάλες» θετικές τιµές. Απορρίπτουµε την Η (σε ε.σ. a) όταν + T ( x, y) > c = t ( / ) : άνω a/-σηµείο της κατανοµής studet µε + β.ε. a Το p-value των τιµών ενός ζεύγους δειγµάτων x, y είναι p value = P( T ( X, Y) > T ( x, y) / H ) = t + ( F ( T ( x, ) ) ) y Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 9
όπου F είναι η σ.κ. της κατανοµής studet µε t + β.ε. + (a) Οι δυο πληθυσµοί δεν είναι (ή δεν γνωστό αν είναι) οµοσκεδαστικοί. Χωρίς την συνθήκη της οµοσκεδαστικότητας, χρησιµοποιούµε τη στατιστική συνάρτηση X Y T ( X, Y) = ~ t H v S S + η οποία υπό την Η : µ = µ αποδεικνύεται ότι προσεγγιστικά ακολουθεί κατανοµή t v ενώ όταν ισχύει η Η λαµβάνει «µεγάλες» (θετικές ή αρνητικές) τιµές. Οι βαθµοί ελευθερίας ν εξαρτώνται από τα σ, σ και εποµένως είναι και αυτοί άγνωστοι. Αποδεικνύεται όµως ότι µπορούν να εκτιµηθούν από την στατιστική συνάρτηση S S ( + ) v =. 4 4 S S + ( ) ( ) Και εδώ, µπορούµε να χρησιµοποιήσουµε τη στατιστική συνάρτηση Τ (Χ,Υ) η οποία, υπό την Η, λαµβάνει «µεγάλες» θετικές τιµές. Απορρίπτουµε την Η (σε ε.σ. προσεγγιστικά a) όταν T ( x, y) > c = t ( a / ) : άνω a/-σηµείο της κατανοµής studet µε v β.ε. v Το (προσεγγιστικό) p-value των τιµών ενός δείγµατος x, y εδώ είναι όπου p value = P( T ( X, Y) > T ( x, y) / H ) = ( Ft T ( x, y) ) v F t v είναι η σ.κ. της κατανοµής studet µε v β.ε. Όπως και σε προηγούµενη περίπτωση, οι παραπάνω έλεγχοι µπορεί να γίνουν ακόµη και ό- ταν οι δύο πληθυσµοί δεν είναι κανονικοί αλλά τα δείγµατα είναι αρκετά µεγάλα (συνήθως > 3 ή καλύτερα >). Ιδιαίτερα, µπορούµε να χρησιµοποιήσουµε τα παραπάνω και για έλεγχο ποσοστών p = p θεωρώντας ή τις τιµές του τυχαίου δείγµατος, Εάν θέλαµε να κάνουµε µονόπλευρο έλεγχο µε εναλλακτική Η : µ > µ ή Η : µ < µ εργαζό- µαστε όπως και στην Παράγραφο.. Εφαρµογή. Μαζί µε τα δεδοµένα της εφαρµογής παραπάνω (ύψη 6 τυχαία επιλεγµένων ανδρών από µία περιοχή Α), δίνονται και τα ύψη 4 τυχαία επιλεγµένων ανδρών από µία περιοχή Β. 76,6 77,7 8,7 78,7 8,3 78, 7, 74,9 77,5 78,5 75,7 77,6 75,7 7,4 78,4 7, 66,8 77,7 75, 79, 8,6 7,7 77,7 7,8 7, 78,6 76,4 77, 77,6 75,7 78,4 75,5 75, 78,9 76, 75,3 73,8 8,9 73, 77,4 Επιθυµούµε να ελέγξουµε αν το µέσο ύψος µ του πληθυσµού στην περιοχή Α είναι διαφορετικό από το µέσο ύψος µ του πληθυσµού στην περιοχή Β. Λύση: Προφανώς τα δύο δείγµατα είναι ανεξάρτητα και εφαρµόζουµε την µεθοδολογία που περιγράφηκε παραπάνω. Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα»
- Εισάγουµε τα παραπάνω δεδοµένα στο SPSS στην ίδια στήλη (µεταβλητή heght) που είχαµε εισάγει τις 6 πρώτες παρατηρήσεις και έτσι τώρα η µεταβλητή heght έχει παρατηρήσεις (γραµµές), οι 6 πρώτες αφορούν την περιοχή Α και οι 4 τελευταίες την περιοχή Β. Για να δηλώσουµε ποιες παρατηρήσεις αφορούν ποια περιοχή χρησιµοποιούµε και µια βοηθητική µεταβλητή area η οποία στην -γραµµή παίρνει την τιµή ή ανάλογα µε το αν η -παρατήρηση της heght προέρχεται από την περιοχή Α ή την Β. - Από την διαδικασία Aalyze/Compare Meas/Idepedet-Samples T Test επιλέγουµε Test varable: heght, groupg varable: area (Defe groups:, ) και λαµβάνουµε δύο πίνακες: Group Statstcs AREA N Mea Std. Devato Std. Error Mea HEIGHT, 6 74,668 3,7,39, 4 76,3 3,384,535 Σύµφωνα µε τον παραπάνω πίνακα = 6, x =74.668, s = 3.7, s / =.39, = 4, y =76.3, s = 3.384, s / =.535 Τα µέσα ύψη στα δείγµατα από τους δύο πληθυσµούς είναι 74.668 και 76.3 αντίστοιχα και α- ποµένει να εξετάσουµε αν η διαφορά που έχουν είναι στατιστικά σηµαντική. Αυτό θα γίνει χρησιµοποιώντας τον επόµενο πίνακα: HEIGHT Equal varaces assumed Equal varaces ot assumed Levee's Test for Equalty of Varaces Idepedet Samples Test t-test for Equalty of Meas F Sg. t df Sg. (- taled) Mea Dfferece Std. Error Dfferece 95% Cofdece Iterval of the Dfferece Lower Upper,3,578 -,553 98, -,65,647 -,935 -,368 -,495 77,6,5 -,65,66 -,969 -,333 Ο πίνακας αυτός περιέχει και τις δύο περιπτώσεις που εξετάσαµε παραπάνω (οµοσκεδαστικότητα, µη οµοσκεδαστικότητα). Πριν προχωρήσουµε σε µια από τις δύο θα πρέπει να ελέγξουµε αν οι διασπορές στους δυο πληθυσµούς είναι ίσες. Αυτό γίνεται χρησιµοποιώντας το γνωστό ως Levee τεστ το οποίο θα περιγράψουµε λεπτοµερέστερα σε επόµενο µάθηµα (βασίζεται στη θεωρία ανάλυσης διασποράς, ANOVA). Αρκεί προς το παρόν να γνωρίζουµε ότι το τεστ αυτό χρησιµοποιεί µια στατιστική συνάρτηση των x, y η οποία όταν σ = σ ακολουθεί κατανοµή F, + (F-rato ή Sedecor µε και + β.ε.) ενώ όταν σ σ λαµβάνει «µεγάλες» (θετικές) τιµές. Στη συγκεκριµένη εφαρµογή η συνάρτηση αυτή λαµβάνει την τιµή.3 µε αντίστοιχο p-value =.578 (= (.3) ) και εποµένως δεχόµαστε (.578 >.5) ότι οι διασπορές είναι ίσες. F F, 98 Συνεχίζουµε λοιπόν µε την πρώτη γραµµή της ανάλυσης που αφορά equal varaces και έχουµε, x y T ( x, y) = =.553, β.ε. = 98, p-value (sg. value)., ( ) s + ( ) s + + x y =.65, η εκτιµηµένη τυπική απόκλιση της X Y είναι.647 ( =.65/.553: είναι ο παρονοµαστής του παραπάνω κλάσµατος που εκφράζει την T(x,y)) ενώ τέλος ένα δ.ε. για τη διαφορά µ µ (σ.ε. 95%) είναι το (.65 ±.647 t 98 (.5/)) = (.935,.368). Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα»
Με βάση λοιπόν το p-value απορρίπτουµε την Η : µ µ = σε ε.σ. a =.5 (. <.5). ηλαδή φαίνεται ότι υπάρχει διαφορά στα µέσα ύψη των δυο πληθυσµών (η διαφορά στα µέσα ύψη των δύο δειγµάτων κρίνεται στατιστικά σηµαντική). Η απόρριψη αυτή (σε ε.σ..5 και για τη δίπλευρη εναλλακτική υπόθεση) θα µπορούσε ισοδύναµα να γίνει χρησιµοποιώντας το δ.ε. συντελεστού a = 95% για το µ µ που περιλαµβάνεται στον παραπάνω πίνακα (διότι δεν περιέχει το ). Προφανώς, εάν στο τεστ οµοσκεδαστικότητας (Levee) βρίσκαµε p-value <.5 (ή. α- νάλογα µε το ε.σ. που έχουµε θέσει) τότε θα προχωρούσαµε µε βάση την δεύτερη γραµµή (equal varaces ot assumed) η οποία περιέχει αντίστοιχες (µε την πρώτη γραµµή) ποσότητες. Εάν είχαµε ως εναλλακτική υπόθεση την Η : µ µ < θα έπρεπε να πάρουµε p value < = pvalue / =./ =.6 (διότι T (x) < ) ενώ αν Η : µ µ > τότε p value > = pvalue / =./ =. 994..3. Έλεγχος υποθέσεων για τη διαφορά των µέσων για ζευγαρωτές παρατηρήσεις (σ άγνωστο) Έστω (Χ,Υ ), (Χ,Υ ),, (Χ,Υ ) ανεξάρτητα ζεύγη τυχαίων µεταβλητών (το ζεύγος (Χ,Υ ) είναι ανεξάρτητο από τα υπόλοιπα ζεύγη (Χ,Υ ),,(Χ,Υ ), το ζεύγος (Χ,Υ ) είναι ανεξ. από τα υπόλοιπα ζεύγη κ.ο.κ.). Επίσης, το (Χ,Υ ) ακολουθεί διδιάστατη κανονική µε Ε(Χ ) = µ, Ε(Y ) = µ +δ, V(X ) = σ, V(Υ ) = σ, Corr(X,Y ) = ρ, =,,,. Επιθυµούµε να ελέγξουµε αν η διαφορά δ = E(Y ) E(X ) µεταξύ των µέσων των X και των Υ είναι µηδενική (θεωρώντας άγνωστες τις παραµέτρους σ, σ, ρ). Η συγκεκριµένη περίπτωση είναι διαφορετική από αυτήν της προηγούµενης παραγράφου (ακόµη και αν µ = µ) διότι εδώ τα τυχαία δείγµατα Χ,Χ,,Χ και Υ,Υ,,Υ δεν είναι ανεξάρτητα (Corr(X,Y ) = ρ). Η περίπτωση αυτή εµφανίζεται π.χ. όταν µελετάται η επίδραση κάποιας «θεραπείας» σε άτοµα. Συνήθως τα Χ, Υ εκφράζουν την τιµή ενός µιας µεταβλητής που αφορά το -άτοµο «πριν» (Χ ) και «µετά» (Y ) την επίδραση της θεραπείας. Ένα άλλο παράδειγµα όπου εφαρµόζεται είναι στις λεγόµενες case-cotrol έρευνες στις οποίες εφαρµόζεται µια θεραπεία σε ασθενείς (cases). Για να ελεγχθεί η επίδραση της θεραπείας επιλέγονται και άλλα άτοµα (άτοµα ελέγχου - cotrols) τα ο- ποία δεν έχουν ακολουθήσει την συγκεκριµένη θεραπεία ή λαµβάνουν placebo (π.χ. λαµβάνουν ένα ανενεργό σκεύασµα ίδιο στη µορφή µε αυτό που έλαβαν οι ασθενείς ώστε να εξαλειφθεί η επίδραση ψυχολογικών παραγόντων). Η επιλογή γίνεται έτσι ώστε ο -ασθενής να έχει τα ίδια χαρακτηριστικά (π.χ. ηλικία, φύλο, περιβάλλον, κατάσταση υγείας κ.ο.κ.) µε το -άτοµο ελέγχου, =,,,. Σε αυτή την περίπτωση η Χ εκφράζει την τιµή της µεταβλητής που µας ενδιαφέρει στον -ασθενή (µετά την θεραπεία) ενώ η Y εκφράζει την τιµή της ίδιας µεταβλητής στο -άτοµο ελέγχου. Κάτω από τις παραπάνω υποθέσεις, οι διαφορές Ζ = Υ X είναι ανεξάρτητες και ακολουθούν την κανονική κατανοµή µε µέση τιµή δ και (άγνωστη) διασπορά σ ( = σ + σ + ρσσ ). Εποµένως, ισοδύναµα µπορούµε να ελέγξουµε αν η µέση τιµή δ των Z είναι ίση µε µ = (Η : δ =, Η : δ ). Αυτό γίνεται εύκολα χρησιµοποιώντας την µεθοδολογία που αναπτύχθηκε στην Παράγραφο.. (έλεγχος υποθέσεων για το µέσο µ ενός πληθυσµού). Συγκεκριµένα, χρησιµοποιούµε την στατιστική συνάρτηση T Z ) = S Z ( ~ H Z /, Z = Z, SZ = ( Z Z = ) = t η οποία, όταν ισχύει η H : δ =, ακολουθεί κατανοµή t -, δηλ. studet µε βαθµούς ελευθερίας, ενώ όταν ισχύει η Η : δ λαµβάνει «µεγάλες» (θετικές ή αρνητικές) τιµές. Απορρίπτουµε την Η όταν T ( z ) > c = t ( a / ) : άνω a/-σηµείο της κατανοµής studet µε β.ε. Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα»
ενώ το p-value των τιµών ενός δείγµατος z (όµοια µε παραπάνω) είναι z p value = Ft ( ) sz / όπου F t είναι η σ.κ. της κατανοµής studet µε β.ε. Όπως και παραπάνω, ο συγκεκριµένος έλεγχος µπορεί να γίνει ακόµη και όταν ο πληθυσµός δεν είναι κανονικός αλλά το δείγµα είναι αρκετά µεγάλο (συνήθως >3 ή καλύτερα >). Εάν θέλαµε να κάνουµε µονόπλευρο έλεγχο µε εναλλακτική Η : µ > µ ή Η : µ < µ εργαζό- µαστε όπως και στην Παράγραφο.. Εφαρµογή 3. Για τον έλεγχο της αποτελεσµατικότητας ενός σκευάσµατος που καταπολεµά την παχυσαρκία, χορηγήθηκε συγκεκριµένη ποσότητά του σε κατάλληλα πειραµατόζωα. Σε καθένα από αυτά καταγράφηκε το βάρος του αµέσως πριν και µια εβδοµάδα µετά την χορήγηση του σκευάσµατος. Καταγράφηκαν τα παρακάτω σωµατικά βάρη (σε kgr): 3 4 5 6 7 8 9 3 4 5 6 7 8 9 Πριν 8,3 8,7 89,6 85, 83,3 8,5 8,6 8,9 69,5 8, 77,3 8,8 7,5 84,7 75,4 8,9 79,8 8 94,3 77 Μετά 8,8 8, 84, 8, 75,8 8,6 76, 79,9 7,9 8, 8 83,3 7 75,5 7,4 79,9 79 8,7 9,9 76,3 Υπάρχει θετική µέση επίδραση του συγκεκριµένου σκευάσµατος (σε ε.σ. 5%) στο βάρος των πειρα- µατόζωων; Λύση: Περνάµε τα παραπάνω δεδοµένα στο SPSS σε δύο στήλες (µεταβλητές weght_b, weght_a) γραµµών ( cases) - Ένας απλός τρόπος να κάνουµε τον παραπάνω έλεγχο είναι να δηµιουργήσουµε (µέσω Trasform / Compute) µια νέα µεταβλητή z = weght_b weght_a και να προχωρήσουµε στον έλεγχο του µέσου για την µεταβλητή αυτή (βλ. Παρ..: Aalyze/Compare Meas/Oe-Sample T Test, Test varable: z, test value: ). - Στο SPSS, η ίδια διαδικασία µπορεί να γίνει και µέσα από µια εξειδικευµένη για την περίπτωση αυτή επιλογή, από την Aalyze/Compare Meas/Pared-Samples T Test. Επιλέγουµε pared varables: weght_b--weght_a και λαµβάνουµε τρεις πίνακες: Πίνακας. Pared Samples Statstcs Mea N Std. Devato Std. Error Mea Par WEIGHT_B 8,97 5,56,3 WEIGHT_A 79,85 5,8, Στον πίνακα αυτόν απεικονίζονται οι δειγµατικοί µέσοι ( x, y ), οι δειγµατικές τυπικές αποκλίσεις (s X, s Y ) και οι δειγµατικές τυπικές αποκλίσεις των µέσων ( s /, s ). X Y / Πίνακας. Pared Samples Correlatos N Correlato Sg. Par WEIGHT_B & WEIGHT_A,84, Στον δεύτερο αυτό πίνακα εµφανίζεται ο δειγµατικός συντελεστής συσχέτισης (του Pearso s) R = R( X, Y) = Cov( X, Y ) V ( X ) V ( Y ) S XY = S S X Y = ( = = X ( X X ) X )( Y = Y ) ( Y Y ) ο οποίος ως γνωστό εκτιµά τον (πληθυσµιακό) συντελεστή συσχέτισης ρ(χ,υ ). Ο συντελεστής συσχέτισης είναι ένας δείκτης της γραµµικής εξάρτησης µεταξύ των Χ, Y ο οποίος λαµβάνει τιµές στο Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 3
διάστηµα [-,]. Όταν οι Χ, Υ είναι ασυσχέτιστες (ρ = ), αποδεικνύεται ότι η στατιστική συνάρτηση R T X, Y) = ~ t ( ρ = R ακολουθεί κατανοµή studet µε β.ε. Ενώ όταν ρ τότε η T (X,Y) λαµβάνει τιµές «µακριά» από το (θετικές ή αρνητικές). Εποµένως, απορρίπτουµε την H : ρ = έναντι της Η : ρ όταν T ( x, y) > t ( a / ) : άνω a/-σηµείο της t - µε αντίστοιχο p-value r p value = P( T ( X, Y) > T ( x, y) / H ) = ( Ft ( )). r Για τα συγκεκριµένα δεδοµένα φαίνεται ότι ο δειγµατικός συντελεστής συσχέτισης µεταξύ των X, Y είναι r =.84 (= R(x,y)) µε αντίστοιχο p-value σχεδόν (στον πίνακα του SPSS αναγράφεται. αλλά κάνοντας διπλό κλικ επάνω του εµφανίζεται ο αριθµός 7,9-6 ). Εποµένως στην εφαρ- µογή αυτή απορρίπτουµε ότι τα X, Y είναι ασυσχέτιστα. Ο έλεγχος αυτός περιλαµβάνεται στην συγκεκριµένη ανάλυση διότι αν δεχθούµε ότι τα X, Y είναι ασυσχέτιστα, και µ = µ, τότε θα µπορούσα- µε να ακολουθήσουµε τη διαδικασία που αφορά µέσους ανεξάρτητων δειγµάτων (βλ. Παρ..). Ο συγκεκριµένος έλεγχος για την συσχέτιση µεταξύ των X, Y θα µπορούσε να γίνει και µέσω της διαδικασίας Aalyze/Correlate/Bvarate (Pearso Correlato Coeffcet). Τέλος, επανερχόµενοι στον έλεγχο της υπόθεσης Η : δ =, Η : δ, λαµβάνεται και ο ο πιο σηµαντικός για τη συγκεκριµένη ανάλυση πίνακας: Πίνακας 3. Pared Samples Test Pared Dffereces t df Sg. (-taled) Mea Std. Devato Mea of the Dfferece Std. Error 95% Cofdece Iterval Lower Upper Par WEIGHT_B - WEIGHT_A,785 3,55,75,38 3,6,53 9, Ο τελευταίος αυτός πίνακας περιλαµβάνει τις τιµές sz sz z z =.785, sz = 3.55, =.75, ( z ± t ( a / )) = (.38,3.6), T ( z ) = =.53, sz / και p-value (sg. value) z = Ft ( ) = ( F t (.53)). 9 sz / Μπορούµε να πούµε ότι η πιθανότητα να εµφανιστεί το παραπάνω δείγµα ενώ ισχύει η Η : δ = Ε(Χ) Ε(Υ) = (µηδενική µέση επίδραση του σκευάσµατος) είναι. (για Η : δ ). Εποµένως, απορρίπτουµε την Η : δ = σε ε.σ. 5% (. <.5). Εάν είχαµε ως εναλλακτική υπόθεση την Η : δ > Ε(Χ) > Ε(Υ) θα έπρεπε να πάρουµε p value > = pvalue / =./ =. (διότι T(z) >). Boutskas M.V. (4), Σηµειώσεις µαθήµατος «Στατιστικά Προγράµµατα» 4