Sfera incertitudinii
|
|
- Ê Καψής
- 7 χρόνια πριν
- Προβολές:
Transcript
1 Liviu JALB! Octavian ST!N!"IL! Sfera incertitudinii Statistic# aplicat# Funda%ia Floarea Darurilor Bucure$ti, 2017
2 Tehnoredactare: Igor Bectora!, Lumini"a C#t#nu!, M#d#lina Florescu Funda"ia Floarea Darurilor, Bucure!ti, 2017 Tip#rit la TIPRO SRL în 500 exemplare ISBN
3
4
5 CUPRINS Mai întâi să vezi sfârșitul lucrurilor și apoi să te apuci de ele. ESOP PREFAȚĂ PARTEA I: CEVA TEORIE Capitolul 1: DATE STATISTICE; EXTRAGERE ȘI REPREZENTARE 1.1. Introducere pag Experimente statistice, date, evenimente pag Stabilitatea statistică a evenimentelor pag Reprezentarea datelor pag Indicatori semnificativi ai datelor statistice (experimentale) pag Întrebări de control și exerciții la Capitolul 1 pag. 41 Capitolul 2: BESTIAR DE PROBABILITĂȚI (DESCRIEREA COMPORTĂRII ALEATOARE) 2.1. Limbajul evenimentelor și probabilităților pag Câmp discret de probabilități pag Câmp oarecare de probabilități pag Variabile aleatoare (v.a.) pag Funcții de repartiție și densități de probabilitate pag Întrebări de control și exerciții la Capitolul 2 pag. 99 $5
6 Capitolul 3: LEGI TEORETICE DE REPARTIȚIE 3.1. Legea binomială a lui Bernoulli pag Legea evenimentelor rare a lui Poisson pag Legea repartiției geometrice pag Legea uniformă pag Legea exponențială pag Legea normală (a lui Gauss) pag Vectori aleatori pag Întrebări de control la Capitolul 3 pag.150 Capitolul 4: CELE DOUĂ MIRACOLE, AL LUI GAUSS ȘI AL LUI PEARSON 4.1. Introducere pag Enunțul riguros și enunțul popular al teoremei limită centrală (TLC) pag Miracolul lui Gauss pag Estimatori și intervale de încredere pag Miracolul lui Pearson; legea chi pătrat și testul de potrivire pag Întrebări de control și exerciții la Capitolul 4 pag.197 Capitolul 5: TESTAREA IPOTEZELOR STATISTICE 5.1. Introducere pag Algoritmul de testare a ipotezelor relativ la medii pag Putere de testare pag Testarea diferențelor mediilor a două eșantioane independente. pag Testarea dispersiilor (testul chi pătrat) pag.220 $6
7 5.6. Sinteză privind testele relativ la medii, pag.223 diferențe de medii și dispersii 5.7. Testarea proporției unei populații pag Testul Fisher de analiză dispersională pag Întrebări de control și exerciții la Capitolul 5 pag.228 Capitolul 6: REGRESIE ȘI CORELAȚIE 6.1. Introducere pag Dreapta de regresie Gauss pag Corelație pag Regresie liniară statistică pag Matrice de corelație, matrice de covarianță pag Exerciții la Capitolul 6 pag. 256 PARTEA a II-a DEZVOLTĂRI ȘI APLICAȚII DIVERSE Capitolul 7: SEMNALE ALEATOARE ȘI SISTEME DE COMUNICAȚIE 7.1. Introducere pag Semnale deterministice, sisteme intrare/ieșire (i/o), semnale aleatoare pag Densitate spectrală de putere pag Serii de timp pag Lanțuri Markov pag Linii și rețele de telecomunicații pag.325 $7
8 Capitolul 8: APLICAȚII ÎN INGINERIE ȘI FIZICĂ 8.1. Erori și incertitudini pag Controlul statistic al calității ( CSC) pag Fizică și Statistică pag.371 Capitolul 9 : APLICAȚII ÎN STATISTICA SOCIALĂ Sondaje de opinie pag Statistică de consum și Elemente de Algebră financiară pag Econometrie pag Clasificarea statistică a datelor și recunoașterea formelor pag.425 Anexe Indice de nume Bibliografie pag.457 pag.463 pag.481 8
9
10
11 PREFAȚĂ Cele mai multe cărți de Statistică sunt scrise fie de matematicieni pur sânge (orientați pe rigoarea expunerii și demonstrații complete ), fie de utilizatori specializați (care își reprezintă și își supraapreciază domeniul, economico financiar, sociologic, ingineresc, biologic etc., fără o viziune mai largă). Există însă un câmp relativ liber între rigoarea matematică și concretețea nesistematică, acoperind esența gândirii statistice și asimilarea diverselor tehnici. Cartea de față pornește de la observații simple, larg accesibile, din viața noastră reală, încercând o abordare a unui domeniu contraintuitiv, fără a cădea în prețiozitate. Autorii au convingerea că briciul lui Occam 1 va rade excesele de exprimare sau considerațiile superflue. Nu ascundem că dorim să fie asimilată ca o carte de cultură într-un sens mai larg. Admitem, pe de-o parte, că aprofundarea cu zel ineficient a matematicii sau fizicii poate fi un viciu, dar faptul că în era ingineriei genetice și a tehnologiilor nanometrice o mare parte din populație crede în ghicitoare, își consultă cu sârg horoscopul, joacă la loterie conform visului din noaptea precedentă, este o nereușită, dacă nu chiar o rușine, pentru specia umană. Din păcate, Statistica îi ajută sau îi amăgește și pe nefericiți! Există încă unii sceptici sau tradiționaliști care instigă cercetătorii să folosească doar modele deterministe, bazate pe certitudini și precizie. Aceștia consideră că variabilitatea datelor experimentale derivă din lipsa de acuratețe a măsurătorilor sau din nepriceperea experimentatorului. În realitate, caracterul aleator al datelor este inerent și obiectiv, acceptabil în cadrul unor toleranțe admise în funcție de context, impuse de maeștrii domeniului. 1 Briciul lui Occam (Occam s razor) este un principiu atribuit călugărului franciscan și logicianului din sec. al XIVlea, William de Occam. Pluralitas non est ponenda sine neccesitate. Poate fi considerat o continuare a ideii lui Aristotel că Natura funcționează pe cel mai scurt drum posibil. Mulți oameni de știință au abordat sau reinventat acest principiu, de exemplu Leibniz în identitatea observabilelor sau Newton în limitarea numărului de cauze la cele adevărate și suficiente pentru explicare. În fizică, principiul bărbierește conceptele metafizice, exemplul canonic fiind cel al lui Einstein care, spre deosebire de Lorentz, deși a folosit aceleași ecuații de transformare, a eliminat necesitatea existenței eterului din explicația contracției lungimilor și întârzierii ceasurilor, briciul lui Occam funcționând cu folos. Sau, cum se spune astăzi, keep it simple!. $11
12 Termenul de statistică provine din latinescul status, care înseamnă stare; orice informație numerică sau alfanumerică bine interpretată reflectă starea de lucruri dintr-un domeniu, grup de oameni sau chiar a unei țări întregi. Toate țările au servicii naționale care decelează diversele tendințe, folosind indicatori numerici sau calitativi, capabili să sprijine luarea deciziilor politice, cu diminuarea riscurilor. Tehnologiile informatice au adus noi disponibilități, contribuind la o viteză crescută de prelucrare a datelor, prin reprezentarea grafică a acestora și prin progresul realizat în manipularea acelor date. În țările avansate, indicatorii statistici dintr-un domeniu nu se substituie deciziilor specialiștilor sau oamenilor politici responsabili, ci însoțesc analizele și interpretările acestora. Fundamentarea Statisticii este legată de numele lui Gauss, Pearson, Kolmogorov, Fisher, ș.a. Începuturile Statisticii se plasează pe vremea copilului Isus, când se făcea recensământul noilor-născuți. Mai târziu, în Anglia medievală, se înregistrau riguros născuții și morții, iar după 1800, în universități, Statistica a început să fie studiată legată de Comerț și numită Fizică socială. Abia în 1885 a avut loc primul Congres Internațional de Statistică, după care amestecul ideologiilor, propagandei și minciunii statistice instituționalizate a condus la izolare, frânând colaborarea științifică sinceră. În România, după 1920, există o școală de Teoria probabilităților și statistică, legată de numele acad. O. Onicescu, Gh. Mihoc și M. Iosifescu. În ultimul secol, s-a creat Homo Statisticus, prezent practic în toate domeniile cunoașterii și acțiunii. Pentru specialiștii de azi, Statistica reprezintă logica și cuantificarea incertitudinii și precizăm în ce sens. Să ne imaginăm că programăm un robot care să aprindă lumina în cameră. În pofida marilor progrese ale tehnologiilor $12
13 informatice, este necesar un set mare de instrucțiuni și detalii prin care robotul înțelege ce caută, unde poate fi găsit întrerupătorul, cum să îl acționeze (să-l pornească sau să-l oprească, să-l regleze, să știe că s-a aprins lumina etc.). Încă și mai mult, o mică modificare a întrerupătorului schimbă setul de date. Este clar că nu ne permitem o astfel de reprogramare permanentă a creierului. Toate acestea au condus la crearea de modele/ șabloane, ceea ce a redus masiv numărul de transformări ale intrărilor, senzorilor și creării de scurtături. Studiul modelelor teoretice, inclusiv al legilor de repartiție a fenomenelor aleatoare, a însemnat un mare progres. Se poate spune că scopul declarat sau nu al Statisticii îl constituie creșterea calității produselor și serviciilor. În contextul actual, un Manual modern de Statistică, dincolo de rețetarele ad-hoc, este necesar. Abordarea științifică a oricărei probleme începe cu formularea ei corectă, cu explicitarea parametrilor care descriu problema, continuă cu elaborarea unui model de lucru, cu extragerea de date semnificative și urmărirea variației și corelației parametrilor esențiali. În toate aceste etape, statisticianul își are un loc bine determinat și, adeseori, el este aceeași persoană cu cercetătorul însuși. Autorii au o mare experiență în predarea și utilizarea metodelor statistice, îndeosebi în inginerie și economie, participând totodată la mai multe seminarii științifice și contracte cu deschideri spre sociologie sau aplicații industriale. Dar ce contează mai mult este dorința noastră de a comunica sistematic și selectiv rezultatele teoretice importante și exemplele sugestive întâlnite, într-un limbaj direct, aproape colocvial și de dialog aparent cu cititorul prezumtiv. Cel mai dificil lucru cu care ne-am confruntat au fost subtilitățile de Teoria probabilităților, care nu pot fi evitate în Statistica avansată, în Mecanica statistică, Teoria $13
14 fiabilității sau studiul semnalelor aleatoare (procese stochastice, zgomote, vibrații etc.). Am încercat să descriem cât mai clar fiecare tehnică sau procedură, urmată de exemple tratate până la capăt. Firul logic al cărții, ca și abordarea intuitivă, motivațională, a diverselor concepte legate de logica incertitudinii, le datorăm și cursului Stat 110 de la MIT, din anul 2013, al profesorului Joe Blitzstein, căruia îi mulțumim aici încă o dată. Fiecare capitol este însoțit de un sumar de termeni și formule utile, cu luare aminte. În plus, cele mai multe exerciții sunt rezolvate, fiind prelungiri numerice ale teoriei. În principiu, cititorului i se cer cunoașterea matematicii de liceu și un minim de voință personală, plus ceva cultură generală. Cartea are două părți: una care cuprinde rezultatele teoretice de bază, ilustrate prin exemple și comentarii, inclusiv unele mici note istorice și o parte secundă, care prezintă metode statistice la lucru, în câteva domenii semnificative. Statistica are aplicații care ating universalul și nu a fost ușoară selecția unor subiecte de interes, în condițiile unor competențe inerent limitate. Autorii, decembrie 2016 $14
15
16
17 Măsurați tot ce poate fi măsurat și faceți nemăsurabilul măsurabil. G. GALILEI PARTEA I: CEVA TEORIE CAPITOLUL 1: DATE STATISTICE; EXTRAGERE ȘI REPREZENTARE 1.1. Introducere Metodele statistice se referă în principal la culegere, prelucrare și interpretare a celor mai diverse seturi de date. Se vorbește de gândirea geometrică sau de gândirea algoritmică, ale căror virtuți nu le mai discutăm. În ultimul timp, s-a impus gândirea statistică, adică înțelegerea unor concepte fundamentale ca: - extragerea de date semnificative dintr-un domeniu sau altul; - analiza critică a acelor date, în evoluția lor dinamică; - stabilitatea statistică a proceselor și fenomenelor studiate; - extragerea unor parametri esențiali care descriu procesele și fenomenele studiate; - corelația dintre acești parametri; - elaborarea unor indicatori sintetici obiectivi, independenți de politica vreunui grup social sau economic; - estimarea riscului în cazul unei decizii sau a alteia; - estimarea, chiar și ochiometrică, a probabilității de a se întâmpla ceva etc. Fiecare din aceste concepte va fi dezvoltat în cele ce urmează. Mai înainte, indicăm câteva subiecte cotidiene, la care este așteptat răspunsul statisticienilor: $17
18 2 Mark Twain spunea că: faptele sunt chestii încăpățânate, statistica este mult mai flexibilă. - știrile meteorologice pe termen scurt sau mediu; - rezultatele prelucrării (sau/și manipulării, după caz) ale sondajelor de opinie; - evoluția nivelului de trai al unor categorii de populație; - numărul de emigranți/imigranți din țară sau din oraș; - situația șomajului, a sănătății publice etc. Există multe alte subiecte locale, legate de activitatea primăriilor, starea drumurilor, educația, situația unor intreprinderi, rezultatele din sport, cultură etc. La astfel de subiecte nu statistica are primul cuvânt (dar nici ultimul!), iar anuarele statistice nu sunt cele mai citite cărți. Metodele statistice au un grad mare de generalitate, fiind aplicabile, cu adaptările necesare, multor domenii (așa cum am mai spus și cum vom vedea). Pentru unii, statistica servește minciunilor oficiale 2, menite să ne convingă de progres socio economic; pentru alții, ea este un domeniu misterios, legat de ceva aritmetică și logică tautologică, dacă nu comandată. Și, totuși, gândirea statistică dă roade, însoțește competența profesional decizională și disciplinează grupuri sociale, având ca finalitate creșterea calității vieții Experimente statistice, date, evenimente Noțiunea de experiment este atât de generală încât o considerăm noțiune primară, ce nu trebuie definită, fiind luată cu înțelesul ei din limba vorbită. Experimentele statistice sunt observații sau studii asupra unor porțiuni de realitate, care pot genera diverse evenimente. Viața cotidiană acasă, la serviciu, pe stradă, în lume etc. oferă numeroase experimente, unele repetabile și altele organizate de noi sau de alții. Exemple de experimente statistice: Aruncarea unui zar sau a unei monede, Aruncarea a două zaruri, Prezentarea la un $18
19 - examen, Măsurarea înălțimilor unui grup de elevi, Măsurarea producției de zahăr a unei fabrici într-o zi, Măsurarea duratelor dintre mutările de șah sau de snooker, Starea înarmărilor în lume, etc. Fiecare experiment (statistic) pune în evidență o mulțime, sau cum se mai spune, un câmp de evenimente o altă noțiune primară. Exemple: 1) Fie $ = experimentul aruncării cu un zar. Apariția ε 1 fiecăreia din cele 6 fețe este un eveniment, dar se pot considera și alte evenimente: fața este un număr par,... un număr impar,... un număr strict mai mic decât 5 etc. 2) $ = prezentarea la un concurs de matematică. Se pot ε 2 produce diverse evenimente: A = toți candidații iau note peste 6, B = promovează doar fetele, C = promovează doar 3 candidați din cei 20 de participanți etc. 3) $ = producerea de sârmă metalică având grosimea ε 3 ideală de 10 microni, la un atelier, într-o zi. Iată două evenimente posibile: A = toate sârmele produse au între 9,8 și 10,2 microni; B = sârmele cu grosimea $ 9,9 reprezintă 97% din total etc. Definiția 1.1: Fie $ ε un experiment (desfășurat în anumite condiții) și X o mărime asociată cu $ ε. Se numește populație (colectivitate) statistică orice șir (de regulă finit) de date, adică valorile observate sau măsurate ale lui X. Uneori prin populație se înțelege mărimea X însăși și se mai spune că avem o selecție de valori. Un eșantion ($ mostră sau probă) este o parte din acea populație. Un eșantion reprezentativ al unei populații X este unul ales la întâmplare, după nicio regulă care ar putea altera caracterul aleator al selecției. $19
20 Reținem că datele sunt informații numerice sau calitative (observate sau măsurate) relativ la o populație aflată în investigație. Exemple: 1) Putem vorbi de populația X a urșilor din munții Retezat; un eșantion al lui X este format de urșii aflați într-o rezervație de acolo. 2) Dacă X este populația automobilelor înregistrate în sectorul 1 din București, un eșantion este format de cele cu cilindreea peste 2000 cm 3. 3) Din populația de votanți din București, cea formată numai din studenți nu este un eșantion statistic reprezentativ. Așadar, populație eșantion și eșantion eșantion reprezentativ; este necesar un fler special pentru a extrage un eșantion reprezentativ dintr-o populație. Datele pot fi discrete ( pe sărite ) sau continuale (valori dintr-un interval). De exemplu, fețele unui zar sunt discrete, dar temperaturile pacienților internați într-un spital, nu. De regulă, datele discrete sunt rezultatul unor numărări și cele continuale rezultatul unor măsurători. De exemplu, după 3,12 nu urmează 3,13. Dar după 4 urmează 5. Numerele reale nu au un succesor! Întrebare: Numărul de bacterii dintr-o populație bacteriană este discret sau continual? Răspunsul nu este imediat și se poate înlocui numărul cu cantitatea de bacterii. Notă: Dăm un exemplu tipic privind rolul statisticianului. Presupunem că un laborator de chimie a realizat un nou tip de cauciuc artificial și se pune problema producției de serie. Sunt necesare câteva etape: - crearea unui pilot industrial (care să lucreze în condiții realiste, de exemplu cu materii prime impure), necesar și $20
21 pentru precizarea parametrilor de lucru temperatură, presiuni, fluxuri; - cercetătorul chimist nu poate prelimina cu precizie condițiile de funcționare și atunci inginerul planifică pe pilot experimente apropiate de viitoarea funcționare; pentru aceasta, se realizează un model asupra modului cum temperatura, presiunea și fluxurile pot influența produsul final. Se realizează estimarea modelului propus și se stabilesc parametri esențiali ai procesului prin testarea ipotezelor; - conducerea și optimizarea producției, până ce cauciucul produs îndeplinește standardele de calitate impuse. Fără a se substitui cercetării sau controlului funcționării instalațiilor industriale, gândirea statistică este prezentă în diversele etape planificare, extragere de date experimentale, estimare, testarea ipotezelor, controlul de calitate etc. Un fenomen statistic semnificativ îl constituie variabilitatea parametrilor tehnici și implicit sursa acesteia, cu decelarea indicatorilor statistici care să redea esența și limitele de acceptare a valorilor rezultate Stabilitatea statistică a evenimentelor Considerăm un experiment $ ε și ne fixăm asupra unui singur eveniment A care poate avea loc ( se poate produce) sau nu în cursul acelui experiment. Presupunem că într-o primă serie de $ n 1 repetări ale lui $ ε, evenimentul A are loc de $ k 1 ori. Raportul $ f 1 = k 1 se numește frecvența lui A în prima serie de repetări. n 1 Facem încă o serie de $ repetări ale lui $ ε și presupunem că A se n 2 repetă de $ k 2 ori; notăm cu $ f 2 = k 2 frecvența lui A în cea de a n 2 $21
22 - doua serie și continuăm. Se obțin numere $ f 1, f 2, f 3,...f n,... din intervalul [0,1]. Definiția 1.2: Se spune că evenimentul A are stabilitate statistică dacă șirul ( $ ),n 1 are o limită. Limita $ lim se f n f n n 3 În practică, este dificilă sau chiar imposibilă exprimarea explicită a lui fn. Definiția 1.2 are rolul de a fixa ideile. numește probabilitatea (ideală) a lui A, notată cu P(A). 3 Evenimentele se clasifică în trei categorii: - evenimente cu frecvență constantă (fn = constant); acestea nu îl interesează pe statistician. Aici intră rezolvarea de ecuații, memorarea de formule, calcul de integrale, calcul de rezistențe mecanice sau electrice, raționamentele deterministice din fizică, inginerie, genetică, finanțe etc; - evenimente cu frecvență rea și cu instabilitate statistică; aici sunt cuprinse catastrofele, cutremurele sau evenimentele oculte, toate acestea nefiind studiate de statisticienii profesioniști; - evenimente cu frecvență neconstantă, dar cu stabilitate statistică, acestea fiind obiectul predilect al statisticii matematice. Stabilitatea statistică a unui eveniment nu înseamnă reproducerea lui identică la orice repetare a experimentului care l-a generat; așadar, nu o frecvență constantă, ci o apropiere între ele a frecvențelor rezultate prin repetare! Stabilitatea statistică nu se poate demonstra teoretic, ci este un element de înțelegere a fenomenului studiat, pe baza recomandărilor maeștrilor domeniului; pe scurt, intuiție și fler. Din acest moment, vom considera că măsurătorile sau observațiile diverselor mărimi fizice, economice, tehnice, medicale, financiare etc. reprezintă evenimente cu stabilitate statistică. Adeseori, experimentele constau în urmărirea unor anumite mărimi sau parametri X ai unui utilaj, dispozitiv de $22
23 măsură, obiect, corp uman etc., pe un anumit interval I. Valorile $ x 1, x 2,..., x N ale populației X sunt numere reale, rezultate la anumite momente aleatoare $ t1,t2,...,tn din I sau, după caz, valori luate în N puncte de observație. Se scrie { } X x 1, x 2,..., x N și se spune că avem o selecție de N date (valori ale lui X). Extrăgând n din aceste valori cu n << N, se spune că avem un eșantion de date. Datele trebuie să fie corecte, semnificative, utile și supuse unui scop. Datele se obțin fie din cunoaștere retro (de exemplu, date meteorologice, istorice sau cele extrase din Anuare statistice), dar și prin experiment planificat. Cu puțină imaginație, puteți singuri să generați multe șiruri de date statistice oferite de mediul înconjurător temperaturi, umidități, lungimi, grosimi, sume de bani etc. Experimentele de măsurare a unor mărimi, dimineața și seara, se consideră diferite. Exemple: 1) Măsurând temperaturile din sala de sport din 15 în 15 minute între orele 9 și 12, se obține o selecție de N=12 date. Considerând doar temperaturile fix la orele 9, 10, 11, 12, obținem un eșantion al lor. În acest caz, nu putem vorbi de frecvențe. În mod similar, pentru un control de calitate la automobilele aflate pe o linie de asamblare, nu se pot alege 10 automobile realizate în primele ore căci s-ar ignora calitatea celor produse mai târziu și eșantionul extras nu ar fi reprezentativ. 2) Într-un atelier mecanic se produc sârme metalice de diverse lungimi, având grosimea teoretică teoretică de 10 $ µm (microni). La un control riguros, din sutele sau miile de sârme produse s-au extras serii și s-au constatat următoarele grosimi: Prima serie: 9,8; 10,0; 10,1; 9,9; A doua serie: 10,1 ; 9,7 ; 9,8 ; 9,9; 23 (1)
24 Seria a treia: 9,9; 10,1; 9,9; 9,8; 10,2; Seria a patra: 9,8; 9,7; 9,9;10,2; 10,1; 9,9 $ µm. Întrebare: Se putea aștepta cineva ca toate sârmele extrase să aibă exact grosimea de 10$ µm? (Poate doar folosind tehnologii speciale, foarte scumpe). Diferențele sunt inerente, căci depind de neuniformitatea temperaturilor din jur, de vibrațiile utilajelor sau instrumentelor de măsură etc. Variabilitatea datelor rezultate este un fapt obiectiv, iar caracterul aleator și imprevizibil al lor depinde de mulți factori independenți. Apare o altă întrebare: care este plaja de grosimi acceptabile? Aici răspunsul nu-l poate da statisticianul, ci inginerul tehnolog. Dacă plaja admisă de valori este: 9, ,1m, acestea se numesc toleranțe (sau limite de specificație). Statisticianul analizează datele anterioare și le compară cu toleranțele admise; el decide cât de mari trebuie să fie eșantioanele extrase și sugerează semnale privind controlul și modalitățile de creștere a calității sârmelor produse. În prima serie, toate sârmele se află în plaja admisă; în a doua, 3 și în a 4 a, 5. Atunci frecvențele sârmelor admise în cele patru serii sunt $ f 1 = 4 și $. Se poate 4 = 1; f = = 0,75; f = = 0,8 f = ,83 considera că aceste frecvențe sunt apropiate de 0,8. Experimentul statistic respectiv este precar și doar printr-o aproximare grosieră, se poate considera că pentru evenimentul A = sârmă admisibilă, avem P(A) 0, Reprezentarea datelor Am prezentat câteva modalități de extragere de date statistice de tipul (1) și pasul următor este acela de a le reprezenta $24
25 convenabil %i a le transforma în informa'ii. Mul'i ingineri, fizicieni, biologi, economi%ti %i al'i cercet&tori sunt obi%nui'i cu grafice, regiuni ha%urate ( boxplots ), structuri arborescente, histograme 5 (mai ales în cazul unor seturi mari de date, cu $ N! 1). Toat& lumea cunoa%te dictonul: A picture is worth a thousands numbers! Actualmente, exist& mijloace automate de extragere (prin senzori specializa'i) %i reprezentare de date (prin programe soft) în diverse domenii concrete. Reprezent$rile arborescente (r&d&cini ramuri frunze) se realizeaz& cu o pierdere minim& din informa'ia original&. Datele numerice se grupeaz& de la sine, de îndat& ce sunt ordonate convenabil. D&m un exemplu simplu. Exemplu: La fabricarea unor cilindri de aluminiu, specifica'iile tehnice cer ca diametrul exterior s& fie de 0,200 mm. S-au luat la întâmplare 12 cilindri (deci un e%antion reprezentativ) %i s-au constatat urm&toarele diametre: 0,223; 0,193; 0,226; 0,201; 0,204; 0,228; 0,215; 0,224; 0,226; 0,212; 0,197; 0,207. Se observ& c& valoarea cea mai mic& este 0,193 %i cea mai mare 0,228. O grupare posibil& este cea ob'inut& considerând datele care au acelea%i prime dou& zecimale (acestea formând ramurile ), urmând ca a treia zecimal& s& constituie frunzele. A%adar, ramurile sunt: 0,19; 0,20; 0,21; 0,22. Pentru ramura 0,19 avem dou& frunze 0,193 %i 0,197. Apoi ramura 0,20 are trei frunze etc. Figura 1.1. $25
26 A'adar, cele 12 date ini&iale pot fi reprezentate arborescent ca în figura 1.1. Cele 4 ramuri au respectiv 2, 3, 2, 5 frunze. Acelea'i date au alt% modalitate grafic%, mai pu&in precis%, indicat% în figura 1.2. Aceasta arat% c% dou% din cele 12 date încep cu 0,19; apoi trei date încep cu 0,20; dou% încep cu 0,21 'i 5 încep cu 0,22. Pentru o vizualizare mai bun%, se unesc bulinele respective printr-o linie poligonal%. Figura 1.2 Reprezentarea datelor calitative se realizeaz% prin bare verticale 'i prin sectoare de cerc. Exemplu: Dup% culoarea ochilor, s-a constatat c%, statistic, din 25 de persoane, 15 au ochii verde-c%prui, 6 alba'tri, 2 c%pruicenu'iu, 1 verzi 'i 1 negri. Aceast% afirma&ie poate fi reprezentat%, ca în figura 1.3 a) prin bare verticale cu lungimile propor&ionale cu numerele respective, sau ca în figura 1.3 b) prin sectoare de cerc cu ariile propor&ionale cu acele numere. Sectorul ochilor verde-c%prui are unghiul la centru de m%sur% 15 $! 360 = 216 ; cei 6 cu ochi alba'tri ocup% un sector cu unghiul 25 26
27 unghiul la centru 2! 360 " etc. 6! 360 " ; pentru ochii cenu%iu-c&prui, Figura 1.3 a), b) Histograme 4 { } Consider&m o popula'ie statistic& X! x 1, x 2,..., x n deci o selec'ie de n date numerice, ob'inute prin m&surarea unor m&rimi de care depinde evolu'ia unor procese sau fenomene. Not&m m $ = min x k %i $ M = max x k, valorile extreme ale k k datelor. Diferen'a M m se nume%te amplitudinea selec%iei. Este x k util s& organiz&m datele $ în subgrupe ob'inute prin divizarea intervalului [m, M] în subintervale având aceea%i lungime h, numit& pasul de histogram$. Statisticienii recomand& valoarea $ h = M! m. (2) 1+ log 2 n Se consider& apoi subintervalele (numite celule) ale intervalului [m, M]; anume, 4 Termenul de histogram& este sugerat de Biologie ( histos, 'esut celular, în grece%te). Histograma este un grafic al distribu'iei datelor numerice, anume distribu' i a d e probabilitate fa'& de frecven'a apari'iilor. A fost inventat de Karl Pearson, matematician englez, creditat ca fiind printre întemeietorii statisticii matematice. El a f&cut parte dintre precursorii lui Einstein prin evocarea transportului cu viteza luminii, a antimateriei %i a celei de-a patra dimensiuni a spa'iului. Printre elevii s& i remarcabili s-a aflat %i matematicianul român, Nicolae Georgescu - Roegen, întemeietorul economiei ecologice, the most able and imaginative economist of the 20th century, dup& p&rerea unora dintre colegii s&i de la Vanderbilt University - SUA. -vezi %i nota 21. $27
28 I 1 = [ m, m + h); I 2 = [ m + h, m + 2h);... I r = [ m + (r 1)h, M ], ultimul fiind închis. Numărul r de celule este cel mai mare întreg, astfel încât $ m + rh M, deci $ r = M m. Conform (2), $. h r = 1+ [ log 2 n] Notăm cu $ numărul acelor date $ situate în intervalul n 1 $ I 1, $ n 2 = numărul datelor $ x k situate în $ I 2 etc. Histograma asociată datelor x1 $,..., xn este reuniunea dreptunghiurilor $ D k = I k I 2 (produs cartezian, pentru $ 1 k r ). Moda selecției X este celula $ având cel mai mare $ (deci dreptunghiul cel mai înalt). Așadar, datele inițiale $ x 1,..., x n se regrupează în r celule, cu posibilitate de vizualizare. Anume, se alege un sistem ortogonal de axe xoy, cu intervalul [m, M] plasat pe axa Ox, cu originea O în punctul m. Pe intervalul $ se construiește dreptunghiul hașurat având înălțimea $ și baza de lungime h; pe $ I 2 se construiește dreptunghiul hașurat cu înălțimea $ n 2 și baza h etc. Dacă două dreptunghiuri au aceeași înălțime și nu sunt alăturate, se spune că selecția este bimodală. ALGORITMUL 1 (de construcție a histogramelor) Date inițiale: $ x 1,..., x n (în număr de n). Pasul 1. Se calculează m, M, h dat de (2) și $ (partea întreagă). Pasul 2. Se determină intervalele $ I 1, I 2,..., I r și numerele $ n 1,n 2,...,n k (atâtea cât numărul r de celule). Pasul 3. Histograma este reuniunea dreptunghiurilor hașurate $ D k = I k [ 0,n k ], 1 k r. I k n 1 x k I 1 n k r = 1+ [ log2 n ] $28
29 Exemple: 1) S& presupunem c& într-un laborator de cercetare %i produc'ie lucreaz& 10 salaria'i %i c& într-un anumit trimestru, ace%tia %i-au realizat sarcinile în procentele urm&toare: 101, 113, 85, 106, 127, 95, 98, 112, 117, 96 [%]. Construim histograma asociat& acestor date folosind algoritmul anterior. 127! 85 A%adar, n=10; m=85, M=127 deci h $ =. 1+ log 2 10 " 9,7 Apoi $, deci cele 10 date se grupeaz& în 4 celule, plasate în urm&toarele intervale de valori: $ I 1 = 85;94,7, o singur& dat&, anume 85 este situat& în $ deci $ n 1 = 1. r = 1+ [ log 2 10]= 4 [ ) I 1 [ ) I 2 $ I 2 = 94,7;104,4, datele situate în $ sunt 95, 96, 98 deci $ $ $ n 2 = 3. I 3 = 104,4;114,1, cu %i în fine,, [ ) n 3 = 4 I 4 = [ 114,1;127) cu $ n 4 = 2. Histograma corespunz&toare este indicat& în Figura 1.4. $29
30 Întrebare: Ce concluzii rezult% din vizualizarea histogramei anterioare? R%spuns: Se observ% c% în primele dou% celule se afl% salaria&ii care nu 'i-au îndeplinit sarcinile, iar moda este, adic% aceea de a realiza sarcinile între 104,4 'i 114,1% 'i doar 4 salaria&i sunt la mod%. Bineîn&eles, nu rezult% nimic despre profitul atelierului. Dac% se consider% mijloacele laturilor de sus ale dreptunghiurilor histogramei 'i dac% se unesc aceste mijloace prin arce de curb%, se ob&ine o curb% clopot (care este aproape normal%, conform figurii 1.5). În figura 1.5 am indicat câteva tipuri de curbe întâlnite în statistic%: a) aproape normal%; b) deplasat%; c) uniform%; d) exponen&ial% descresc%toare. I 3 Figura 1.5 2) Pentru controlul temperaturii unui proces, un cercet%tor a decis s% foloseasc% dou% termometre: unul -$ computer 'i altul -$ t 2, cuplat la un, aflat la vedere. În mod normal, la orice moment, cele dou% termometre ar trebui s% arate la fel. Cercet%torul a notat temperaturile în 8 momente de timp 'i a ob&inut urm%toarele date : t1 84,2 84,4 84,1 84,5 84,3 84,3 84,3 84,3 t2 84,6 84,7 84,5 84,6 84,7 84,7 84,6 84,7 t 1 30
31 Histogramele corespunzând datelor indicate de termometrele $ t 1, $ t 2 sunt redate în figura 1.6. Se observ& diferen'e mari între cele dou& histograme. Figura 1.6 Ele descriu de fapt plaje diferite de temperatur&, dificil de comparat. În aceast& situa'ie, histogramele nu sunt recomandate %i exist& alte modalit&'i de reprezentare. De exemplu, în figura 1.7, punctele îngro%ate arat& de câte ori sunt atinse temperaturile %i se vizualizeaz& mai bine c& termometrul $ arat& în mod sistematic temperaturi mai mari decât $. t 1 De fapt, cea mai mare semnifica'ie o au diferen'ele temperaturilor respective, în cele 8 momente de m&surare (anume 0,4; 0,3; 0,4; 0,1; 0,4; 0,4; 0,3; 0,4); se observ& c& în 5 momente, exist& aceea%i diferen'& de temperatur& %i cercet&torul trebuie s& g&seasc& explica'ia pentru cel de al patrulea moment. t 2 Figura 1.7 $31
32 Not%: Exist% 'i alte modalit%&i de reprezentare a datelor 'i utilizatorii trebuie s% aib% cultur% 'i imagina&ie. D%m înc% un exemplu semnificativ. Analizând situa&ia demografic% a dou% ora'e! 1,! 2 având aproximativ acela'i num%r de familii, s-a constatat c% num%rul de copii repartizat pe familii arat% astfel: f%r% cu 1 cu 2 3 copii 4 copii copii copil copii! 1! Aceste date sunt vizualizate pe acela'i desen în figura 1.8, unde pe axa orizontal% figur%m num%rul de copii 'i pe vertical% num%rul corespunz%tor de familii. Se observ% c% bulinele (care corespund ora'ului $ ) au o distribu&ie aproape normal%, dar stelu&ele * (care corespund ora'ului $! 2 ) sunt departe de o distribu&ie normal%. Cauzele nu sunt analizate, ci doar semnalate de statisticieni!! 1 32 Figura 1.8
33 Notă: Etapele prelucrării oricărui set de date semnificative cuprind: colectarea datelor, gruparea și înregistrarea lor, apoi analiza (pe baza recomandărilor specialiștilor) și în faza mai avansată a prelucrării, interpretarea și propunerea unor decizii. Statistica descriptivă și afișările grafice constituie o bază intuitivă puternică pentru studiul diverselor date statistice. Dar acestea sunt insuficiente, iar pentru valori mari ale lui n, sunt necesari indicatori sintetici cantitativi care să indice media ($ centrul) acestora, dispersia lor ($ gradul de împrăștiere în jurul mediei), anumite simetrii, apropierea de normalitate, peak urile ($ vârfurile, valorile cele mai mari), precum și intrușii ($ datele care contrastează cu celelalte, obținute prin erori de transmisie sau șocuri de măsurare). Toate acestea necesită ceva mai multă matematică și nu ca un scop în sine! 1.5. Indicatori semnificativi ai datelor statistice (experimentale) Auzim foarte des de prețuri medii, salarii medii, abateri de la normalitate, împrăștieri ale loviturilor etc. De regulă, datele statistice brute sunt stufoase, plicticoase și pot ascunde esența informației cuprinse în ele. S-a impus atunci extragerea de informații sintetice din aceste date, care să concentreze totul în câteva numere și care, uneori, se transformă în instrument de decizie economică sau chiar politică. { } Considerăm o selecție de date $ X x 1, x 2,..., x n asociate unei populații. Am definit valori extreme și amplitudinea selecției și acum avansăm... Definiția 1.3: Media selecției este numărul $33
34 $ X = 1 x k = x + x x 1 2 n, (3) k n n adică media aritmetică a celor n date. Mai general, pentru orice întreg $ q 0, se definește media de ordin q a selecției, prin X q = x q 1 + x q q x n n 1 q (4) Așadar, $ X1 = X (media aritmetică); $ X 2 este numită media pătratică, iar $ este media armonică. Dacă toate $ sunt strict pozitive, atunci $ este bine definit și pentru orice q real nenul. În acest caz, se definește și media geometrică $ X 0 = lim. Se poate arăta că $ X 0 = q x 1 x 2...x q și că $ X 1 X 0 X1 X 2. Mediile au un rol indicator numeric sintetic, concentrând informația ascunsă în datele $ x k. Valorile $ x 1, x 2,..., x n se plasează de o parte și de alta a mediei $ X = X1, care apare astfel ca un centru al selecției. x k X 1 Definiția 1.4: Dacă $ X x 1, x 2,..., x n este o selecție de date statistice și $ c! este o constantă nenulă, atunci se pot considera selecția deplasată $ X + c x 1 + c, x 2 + c,..., x n + c și selecția multiplicată $ cx cx 1,cx 2,...,cx n. { } Dacă Y$ y 1, y 2,..., y p q 0 X q { } { } este o altă selecție de date, atunci se consideră selecția X + Y de np date $ x i + y j 1 i n, 1 j p. PROPOZIȚIA 1.1: Au loc relațiile X + c = X + c, cx = cx, X + Y = X + Y. Demonstrația este imediată. De exemplu, X q { } $34
35 X + Y = 1 x 1 + y 1 np x 1 + y p = 1 np p x x 1 n + x 2 + y 1 + n y y p x n + y p = = 1 ( n x x 1 n ) + 1 ( p y y 1 p ) = X + Y. = Definiția 1.5: Momentul de ordin q ($ q 1 întreg) al { } v q = 1 n x 1 selecției X$ x 1, x 2,..., x este $ q n + x q q x n, deci $ v 1 = X. Dispersia selecției este: $ DX = v 2 ( v 1 ) 2 = x x x n x + x x 1 2 n. (5) n n Considerând selecția $ X q x q 1, x q q 2,..., x n, rezultă că $. Media X$ se mai numește speranța matematică a selecției X și se mai notează cu MX sau EX (E$ expectation, sau, simplu, media). Dispersia DX se mai numește varianța selecției și se mai notează cu VarX. Interpretare mecanică 5 { } v q = X q Presupunând că în punctele de abscise $ 1 pe o axă sunt dispuse mase egale între ele (cu valoarea $ ), atunci n $ X este tocmai abscisa centrului de greutate G al acestui sistem de puncte materiale, iar dispersia DX este numeric egală cu momentul de inerție al sistemului în raport cu G. X { x 1, x 2,..., x n } PROPOZIȚIA 1.2: Pentru orice selecție, are loc relația DX = 1 2n 2 i, j ( x i x j ) 2 2 (6) 5 Conceptul matematic de moment este înrudit cu cel din fizică (impuls), și este o măsură cantitativă a formei unei mulțimi de puncte. Se folosește în mecanică și statistică. Dacă punctele reprezintă masă, atunci momentul de ordin zero este chiar masa totală, momentul de prim ordin împărțit la masa totală este centrul de masă, iar momentul de ordin doi este inerția rotațională. Dacă punctele reprezintă densitatea de probabilitate, atunci momentul de ordin zero este probabilitatea totală (=1), momentul de ordin unu este media, iar cel d e o r d i n d o i e s t e dispersia (=varianța). $35
36 $ În plus, $ DX 0 și avem DX = 0 $! toate datele $ x k sunt egale între ele. Demonstrație: Conform (5), DX = 1 2 x k 1 x n n 2 k = 1 n 1 n 2 x x n 2 Pe de altă parte, 1 2n 2 deci (6). Restul este evident. 2 = 1 n x 2 2 ( n x n ) x x n 2 x i x j i, j i< j 2 1 ( x i x j ) = = 1 x 2 2 n 2 i + x j n 2 COROLAR: În analogie cu propoziția 1.1, D(X+c)=DX și $ D cx. (7) Demonstrație: Conform (6), i< j 2 Definiția 1.6: Dacă $ X x 1, x 2,..., x n este o selecție de date, atunci X$ X x 1 X, x 2 X,..., x n X este numită centrata lui X. Numărul real și pozitiv $ σ = DX se numește abaterea medie pătratică (incertitudinea sau, echivalent, deviația standard) a selecției, iar selecția X X $ x X 1 se numește normata lui X. σ σ, x X 2,..., x X n σ σ $36. ( x i x j ) 2 = i< j x i x j i< j = i< j = 1 (n 1)(x 2 n x 2 n ) 2 x i x j D(X + c) = 1 2n 2 D( cx) = 1 2n 2 i, j i, j = c 2 DX 2 ( x i + c) x j + c = DX 2 ( cx i cx j ) = c 2 DX { } { } și =
37 PROPOZIȚIA 1.3: Pentru orice selecție X, avem = 0, M( X X) 2 = DX $ M X X și dacă X este normată, atunci $ M X X și $. σ = 0 D X X σ = 1 Demonstrație: Conform propoziției 1.1, M X X Apoi, $ M X X și σ = 1 σ M X X Exemplu: Fie selecția $ DX și normata lui X. = MX X = X X = 0 2 = M( X 2 2XX + X 2 ) = M( X 2 ) 2XMX + X 2 = = M( X 2 ) X 2 = v 2 ( v 1 ) 2 = DX. M X X D X X σ = 1 σ D X X 2 Avem $ v 1 = 1 și $ și = 0 = 1 σ DX = 1 2 σ σ 2 = 1 2. X { 1,5,6,8}. Determinăm MX, = 5 v 2 = deci MX = 5 și $ DX = v 2 v 1. Apoi $ și 1 normata lui X, adică $ ( va fi $, σ X X ) 4 2,55,0, 1 2,55, 3 2,55 adică { 1,57; 0; 0,39; 1,18}. Notă: Cu notații transparente, reținem că: X = x; DX= ( x X) n n. = 31,5 2 = 6,5 σ = DX 2,55 În Statistica teoretică se introduc și alți indicatori sintetici; de exemplu: $37
38 - pentru o selecție X$ x 1, x 2,..., x n, $, alături de - { } n 3 abaterea medie pătratică $ σ, se utilizează încă un indicator, numit abatere medie eșantionară s$ 3, definit prin 2 $ s 2 = 1. Motivația introducerii lui s este legată n 1 M X X de conceptul de estimator nedeplasat, studiat ulterior în Capitolul 4. coeficientul de omogenitate $ ω = σ. O selecție de valori X pozitive se consideră omogenă dacă $ ω < momentul centrat de ordin q ($ q 1 întreg), $ (notat și - $ µ ( q) ) = momentul de ordin q al centratei $ X X. ( ) 2 1/2 = DX Așadar,$ µ 1 = 0 și $ µ 2 = M X X. coeficientul de asimetrie $ A = µ 3 și coeficientul de exces (numit și de aplatizare) $ E = 3+ µ 4. Să așezăm datele x$ k ale unei selecții X în ordine ( crescătoare, cu renumerotare: $ x 1) x ( 2)... x ( n). Se definește: - mediana $ X! a selecției; anume, dacă n este impar, atunci $ X! = x ( k) cu k $ = n +1 (deci $ X! este valoarea așezată la 2 x mijloc!), iar dacă n este par (n = 2k), atunci $ X! ( k) + x ( k+1) =. 2 Exemplu: Pentru selecția $ X 1,7,3,4,6, avem n=5 și $ X! = x ( 3 ) = 4. Iar pentru selecția $ X 3,4;2,7;6,1;5 avem n=4 σ 3 σ 4 { } { } µ q $38
39 $ și $ x X! ( 2) + x ( 3) = 2 = 3, = 4,2 ; media acestei selecții este = 4,3 $ X = 1 3,4 + 2,7 + 6, Un alt indicator statistic îl constituie cvartilele. Definiția 1.7: Fie selecția $ X x 1, x 2,..., x n dispuse crescător astfel: $ cu datele. Definim numărul Dacă L este întreg, prima cvartilă a selecției este, prin definiție, Q$ 1 = x L x ( 1) x ( 2)... x ( n) n + 3, pentru n impar 4 L = n + 2, pentru n par 4 { } (adică a L a dată din stânga), iar a treia cvartilă este $ Q 3 = x n+1 L (deci a L a dată, numărată de la coadă). Dacă L nu este întreg, notăm k $ = L 1 2 și definim Q 3 = 1 ( 2 x n k ) $ Q 1 = 1 și $. 2 x ( k) + x ( k+1) + x ( n+1 k ) Exemplu: Definiția 1.7 pare complicată și este util să o { } ilustrăm. Fie selecția X$ 6,2, 4,5, 3,8 deci n=7 și x (1) = 2, x (2) = 3, x (3) = 4, x (4) = 5, x (5) = 5, x (6) = 6, x (7) = 8. Atunci L = 2,5 și $ k = L 1. 2 = 2 = Ca atare, $ Q 1 = 1 și 2 x ( 2) + x ( 3) = = 5,5 $ Q 1 = 1. 2 x ( 5) + x ( 6) = 3,5 Notă: Mediana și cvartilele sunt indicatori care nu depind de intruși (date care apar ca erori accidentale de măsurare). $39
40 Intru'ii pot modifica media, dispersia unei selec&ii 'i pentru valori mici ale lui n, pot compromite omogenitatea selec&iei. Exemplu: Relu%m defini&ia de la începutul subparagrafului 1.4, relativ la cei 12 cilindri de aluminiu; în acest caz, media este X = 0,213 'i: x (1) = 0,193, x (2) = 0,197, x (3) = 0,201, x (4) = 0,204, x (5) = 0,207, x (6) = 0,212, x (7) = 0,215, x (8) = 0,223, x (9) = 0,224, x (10) = 0,226, x (11) = 0,226, x (12) = 0,228. x Atunci mediana este X! ( 6) + x ( 7) 0, ,215 $ = = = 0, Apoi L = = 3, 5 'i k = 3; 4 Q 1 = 1 ( 2 x(3) + x (4) )= 1 ( 0,201+ 0,204 ) 2 = 0,2025 'i Q 3 = 1 ( 2 x(9) + x (10) )= 1 ( 0, ,226 ) 2 = 0,225. O reprezentare sugestiv% a m%rimilor X, X!, Q 1, Q 3 este fig Figura 1.9 Unii statisticieni recomand% s% se calculeze pasul p = Q 3! Q 1 'i s% se considere urm%toarele intervale închise 40 [ ] F ext = [ Q 1! 2 p, Q p] F int = Q 1! p,q 3 + p 'i,
41 numite respectiv fereastra interioară și exterioară ale selecției. Datele cuprinse în Fint sunt considerate indiscutabil bune, iar cele de dinafara Fext indiscutabil eronate (intruși). În cazul anterior, p=0,225 0,2025=0,0125 deci Fint = [0,1900; 0,2375] și Fext = [0,1775; 0,2500]. Vom prezenta în continuare elemente de calcul al probabilităților 6, începând cu conceptul esențial de variabilă aleatoare și continuând cu câteva distribuții standard de valori, care corespund evoluției unor procese și fenomene reale Întrebări de control și exerciții la Capitolul 1 Întrebări de control 1. Ce sunt experimentele statistice? 2. Faceți distincția între populație (statistică), eșantion și eșantion reprezentativ? Aveți două exemple la îndemână? 3. Ce puteți spune despre datele experimentale și cum se clasifică? 4. Puteți explica stabilitatea statistică a evenimentelor? 5. Indicați câteva modalități de reprezentare a datelor. 6. Sunt utile histogramele? Ce înseamnă date statistice repartizate aproape normal? 7. Care este rostul indicatorilor numerici sintetici? 8. Ce interpretare aveți pentru medii și dispersii? Ce alte nume mai poartă? 9. În ce constă gândirea statistică? 6 Până pe la 1950 se considera că media, dispersia, cvartilele, histogramele etc. erau suficiente pentru a reprezenta și interpreta datele statistice experimentale. În cazul unei distribuții normale a datelor, acest fapt este apropiat de adevăr (conform teoremei limită centrală TLC). Dar există multe alte distribuții ale datelor rezultate din descrierea diverselor fenomene, a căror înțelegere și prelucrare necesită cunoștințe mai adânci de Teoria probabilităților, pe care Statistica nu le poate înlocui. Sumar de formule Trebuie reținute cu precădere: 1. Algoritmul de construcție al histogramelor. $41
42 $ 1. Calculul mediei X$ și dispersiei DX $ : X = 1 x și n 2 $ DX : X = 1 x X, cu notații transparente. n 1 2. Centrata $ X X a unei selecții X și normata $. σ X X EXERCIȚII la Capitolul 1 1. Să se calculeze media și dispersia pentru următorul șir de date: $ X 4,2;2,4;3,3;4;5,1. R: N=5; $ X = 3,8 ; $ DX = v 2 X 2, unde $ v 2 = 15,26, deci DX=0,82. Totdeauna % DX În cei 8 ani de depresiune economică din perioada în SUA, numărul de ore de muncă pe săptămână a fost succesiv de 45, 43, 41, 39, 38, 37, 40, 39. Care sunt media și dispersia acestor date? R: Media este 40,3 și dispersia 2, Fie $ X { 3,9,10,5}, Y { 5,6,3}. Să se calculeze MX, MY, R:$ M(X 2Y) și $ M X Y. M( X 2Y ) 2,58 și $ M X Y. { } X Y = X + ( Y ) { 2, 3, 0, 4, 3, 6, 5, 4, 7, 0, 1, 2} 3,08 4. Să se determine normata selecției de date $ X 1,2,3,4. 5. Să se calculeze $ σ și s pentru $ X 3,6,7,4. n R: $ σ 1,58; s=σ. n 1 1,82 { } { } $42
43 6. Salariile lunare a 8 angaja'i ai unui laborator din Bucure%ti, în Euro au fost: 500, 600, 625, 550, 700, 450, 425, 450. S& se determine media, histograma, moda %i mediana. 7. S & se construiasc& histograma pentru selec' ia $ X! 4,5,8,6, 7,6,10, 7,8, 4,9 %i s& se determine media, mediana %i fereastra interioar& a datelor. R: n = 11; m = 4, M = 10; h $! 1,3; r = 4. Apoi, Histograma: { } [ ) n 1 = 3 I 2 = [ 5,3;6,6) n 2 = 2 I 1 = 4;5,3 I 3 = 6,6;7,9, ;, ; [ ) n 3 = 2 I 4 = [ 7,9;10) n 4 = 4, $ ; $, $. Figura 1.10 Apoi X! 6, 7; X! = 7; L = 3, 5; k = 3; Q 1 = 1 ( 2 x(3) + x (4) )= 1 ( )= 5,5; Q 3 = 1 ( 2 x(8) + x (9) )= 1 ( )= 8; %i Fint = [3; 10,5]. 8. S& se arate c& minimul expresiei $ f t este atins pentru $ t = X. n ()=" ( x k! t ) k=1 2 $43
44
45 Nimic nu îți dă certitudinea, cu excepția adevărului și nimic nu îți dă odihnă în afara căutării adevărului. B. PASCAL CAPITOLUL 2: BESTIAR DE PROBABILITĂȚI, DESCRIEREA COMPORTĂRII ALEATOARE 2.1. Limbajul evenimentelor și probabilităților În termeni prozaici, pentru 3 kg fructe a 2,5 lei/kg, plătim 7,5 lei și tot astfel calculăm pentru diverse alte mărfuri. Acesta este un fenomen deterministic, măsurabil cu precizie. Dar dacă întrebăm câte kg de fructe (sau de alte mărfuri) se vor vinde luna viitoare și cât vor costa, nimeni nu știe răspunsul, deoarece este vorba de un fenomen aleator. În Capitolul 1, am expus câteva modalități de reprezentare a datelor statistice, ca și de determinare a unor indicatori sintetici medie, momente, dispersie, mediană, cvartile etc. - pentru selecțiile de date. Vom da însă exemple care vor arăta că sunt necesare concepte și instrumente ceva mai subtile pentru descrierea evoluției unor fenomene și procese întâlnite în diversele situații reale. Prin aceste exemple, vom face accesibile câteva rezultate semnificative din Teoria Probabilităților (pe scurt, T.P.), unde sunt studiate modele de sisteme afectate de întâmplare, bazate pe evaluări, predicții, analiza pieței, extragere de mostre (eșantioane) semnificative etc. T.P. este o creație deopotrivă a unor mari cercetători ai naturii, mari matematicieni ale căror nume și contribuții le vom întâlni în această carte (P. Fermat, B. Pascal, Jacob Bernoulli, Chr. Huygens, S. Poisson, P. Laplace, K.F. Gauss, K. Pearson, A.N. Kolmogorov), dar și a unor mari $45
46 cartofori și jucători la ruletă. Până în 1800, T.P. era privită ca o descriere haotică a jocurilor de noroc, dar acum este o disciplină științifică respectată, indispensabilă Fizicii, Economiei, Mecanicii cuantice, Geneticii, Ingineriei de proces, Sociologiei, Controlului calității produselor și al armelor etc. În plus, legile statisticii sunt mai stabile decât cele ale multor altor domenii! Statisticienii utilizează diverse evenimente semnificative, prezentate ca mulțimi măsurabile prin probabilitățile lor, ca măsuri ale incertitudinii; apoi studiază variabilele aleatoare (v.a.), ca mărimi fizice, tehnice, economice, sociologice etc. măsurabile prin probabilitățile ca valorile lor să se plaseze în diverse intervale și legile teoretice de probabilitate care permit descrierea unor evoluții standard. De asemenea, din selecții convenabile de valori, se pot determina intervale de încredere ale unor indicatori sintetici, analize de corelație, control statistic etc. Așa cum vom vedea, Gauss și Pearson au descoperit, între altele, două miracole statistice, anume teorema limită centrală (TLC) și testul de potrivire, ambele constituind un fel de perle ale coroanei. Limbajul evenimentelor și probabilităților lor a cuprins întreaga cunoaștere științifică, economico financiară, tehnologică, sociologică sau artistică, mai ales după asocierea cu computerele și tehnologiile informatice. Fiecare domeniu de specialitate și-a creat propriul său limbaj, deci o colecție de termeni, de rezultate teoretice (inclusiv principii de bază), formule fundamentale, poante, aplicații, corelații etc. În mod similar, în limbajul T.P. vom întâlni multe afirmații de tipul: - probabilitatea de a obține, cu un singur buletin Pronosport, 13 rezultate exacte, este 3-13 (este chiar așa!); $46
47 - similar, pentru a obține la LOTO, 6 din 49, probabilitatea este 6 1 C avem 42% șanse ca TAROM să încheie un contract pe 5 ani cu compania LUFTHANSA (sau echivalent, probabilitatea acestui eveniment este 0,42); - probabilitatea de respingere a unui lot de piese este 0,04 etc. Pentru a ordona ideile și a ajunge în mod sistematic și riguros la astfel de afirmații, avem nevoie de crearea unui cadru teoretic accesibil, datorat maeștrilor domeniului, în care să avem încredere, deoarece a fost testat anterior cu succes și nu este o construcție fantezistă a autorilor. Atenție! Nu există probabilități în general, ci numai probabilități ale unor evenimente care pot apărea sau nu, în cursul unor experimente! Considerăm un experiment notat simbolic cu $ ε. În cursul acestui experiment, se obțin ($ se produc sau au loc) diverse evenimente posibile notate A, B, C,..., la care se adaugă evenimentul imposibil $ φ și evenimentul sigur 1? Atenție! pot exista mai multe evenimente imposibile, dar toate se identifică cu $. Similar pentru 1. Se pot considera (sau construi) alte evenimente: de exemplu $ A A = CA = A C, opusul lui A, care constă în faptul că A nu are loc. Se notează cu Ev($ ε ) mulțimea tuturor evenimentelor care se pot produce în cursul experimentului $ ε. Dacă A, B$ Ev($ ε ), atunci se pot defini $ A B A și B (constând în faptul că A și B au loc sau se produc simultan); $ A B A sau B (se produc sau A sau B sau amândouă); $47
48 A \ B = evenimentul c" A are loc!i B, nu. Atunci $! reprezint" orice eveniment care nu poate avea loc etc. Dac" A, B! Ev(! ), atunci se spune c" A implic" B!i se scrie A! B ; dac" din faptul c" A are loc, rezult" c"!i B are loc (se mai scrie echivalent $ A! B ). Dou" evenimente se consider" egale (! echivalente) dac" fiecare îl implic" pe cel"lalt. De exemplu, $ A \ B = A! B!i $ A \ B = A! B. Evenimentele A, B se numesc incompatibile dac" nu au loc simultan ($ A! B este evenimentul imposibil, adic" $ A! B " # ). Se poate ar"ta c" mul#imea Ev($! ) este o latice boolean" (sau echivalent, algebr" Boole, chestie de defini#ii!)!i calculul cu evenimente este absolut similar calculului cu submul#imi ale unei mul#imi totale, relativ la intersec#ii, reuniuni, complementare, incluziuni etc. Ca atare, limbajul opera#iilor cu mul#imi este utilizat în descrierea opera#iilor cu evenimente. Figura 2.1 aminte!te de diagramele Euler Venn. Figura 2.1 Evenimentul A este identificat cu evenimentul punct situat în dreptunghiul ha!urat A etc. Reamintim formulele lui de Morgan: $ A! B = A " B, A " B = A! B, 48
49 care pot fi demonstrate pe cazul evenimentelor din figura 2.1 și extinse la orice alte evenimente. Definiția 2.1: Ev($ ε ) se numește câmpul de evenimente asociat experimentului $ ε. Fiecare experiment are propriul său câmp de evenimente. [A nu se confunda cu noțiunea de câmp de vectori sau câmp de tensori] Câmp discret de probabilități Se poate modifica punctul de vedere anterior, introducând un concept care nu depinde de experimente. Definiția 2.2: Se numește câmp discret de probabilități orice pereche (K, P) formată din: - o mulțime finită sau numărabilă K, ale cărei submulțimi se numesc evenimente; - o aplicație $ P :P(K) 0,1 care asociază oricărui eveniment $ A K, probabilitatea sa P(A), (numită axiomatică), care este un număr real din intervalul [0, 1]. Evenimentele punctuale {$ ω }, cu $ ω K, se numesc elementare. Evident, A=$ ω. Evenimentul sigur este K (notat uneori cu 1) și cel imposibil este $. În continuarea definiției 2.2, se presupune că: $ P K și $ ; pentru orice eveniment A, $ P A. [ ] ω A { } = 1 P( A) = 1! A = ω A = P { ω} Acesta este conceptul modern, axiomatic, care oferă cadrul definirii riguroase a probabilităților. Nu ar fi un viciu dacă acest limbaj ar fi însușit de utilizatorii Statisticii matematice. Rămâne ca pentru fiecare experiment concret $ ε, utilizatorii să deceleze evenimentele respective și modul cum se pot estima probabilitățile lor. Din păcate, nu există formule sau scheme de-a $49
50 gata, dar exemplele date în continuare vor putea fi considerate suficiente. Propoziția următoare concentrează principalele proprietăți ale probabilităților. PROPOZIȚIA 2.1: Fie (K, P) un câmp discret de probabilități. a) Dacă evenimentele A și B sunt incompatibile (adică $ A B = ) atunci $ P A B ( aditivitate ); (1) mai general, dacă $ A 1, A 2,..., A n sunt evenimente două câte două incompatibile, atunci = P( A) + P( B) = P( A 1 ) + P( A 2 ) P( A n ) $ P A 1 A 2...A n (1 ) b) Dacă $ A B (adică A implică B), atunci = P( B) P( A) P( A) P( B) $ P B \ A și $ (2) c) Pentru orice eveniment A, avem = 1 P A $ P A ; (3) d) Pentru orice două evenimente A, B, = P( A) + P( B) P( A B) P A B (formula lui Poincaré); (4) P( A) + P( B) în particular, $ P A B ( subaditivitate ). Demonstrație: a) Conform definiției 2.2 P( A B) = ω A BP ω + ω BP ({ ω} ) = P A ({ }) = ω A + P( B). P ω ({ }) + Apoi aplicăm inducția după n. b) Avem $ B = ( B \ A) A și cum evenimentele $ B \ A, A sunt = P( B \ A) + P( A) incompatibile, rezultă că $ P B deci $50
51 = P( B) P( A) $ P B \ A. Apoi, deoarece orice probabilitate este $ 0, avem $ P B \ A deci $. a) Avem $ A = K \ A deci $ P A. b) Are loc relația A$ B = ( A \ ( A B) ) B și conform aditivității, $ P A B și aplicăm b). COROLAR: a) Dacă $ P A, atunci $ P A ; (5) b) Pentru orice două evenimente A, B avem $ deci $ P A \ B (6) Definiția 2.3: Fie (K, P) un câmp discret de probabilități. Pentru orice două evenimente A, B cu P(B) 0 (adică B nu este evenimentul imposibil), se definește probabilitatea lui A condiționată de B 0 P( B) P( A) 0 = p = P K = P A \ ( A B) = 1 p P( A) = 1 P( A) + P B = P( A) P( A B) = P A B P A B P( B) A \ B = A \ ( A B) numită echivalent probabilitatea lui A, după ce B a avut loc. Definiția 2.4: Două evenimente A, B se numesc independente dacă $ P( A B) = P( A) P( B). (8) Mai general, evenimentele A$ 1, A 2,..., A n se numesc independente în totalitate, dacă sunt mutual independente (adică două câte două) și în plus P( A 1 A 2... A n ) = P( A 1 ) P( A 2 )...P ( A n ). PROPOZIȚIA 2.2: Fie A, B două evenimente cu probabilitate nenulă. (7) $51
52 $ a) A, B sunt independente! $ P A B, adică B nu influențează A; b) Dacă (A, B) sunt independente, atunci la fel sunt$ A, B ; ( A, B) $ A, B și $. Demonstrație: a) C o n f o r m ( 7 ), r e l a ț i a P$ A B revine la P A B $ = P( A) adică (8). P B cf.(6) = b) P( A B) = P B / A! P B P A cf.(5)! = P( B) P ( A ). deci $ A și B sunt independente etc. = P A = P A P B cf.(5) = Exemplu: La fabricarea unor aparate, s-a constatat că întrun lot 1,5% au defecte de fabricație și 3% au defecte de montaj. Care este probabilitatea ca alegând la întâmplare un aparat din acel lot, acesta să fie fără defect? Răspuns: Dacă defectele nu sunt independente, nu putem avansa în rezolvare. În caz de independență, notăm cu A= defectul de fabricație și B= defectul de montaj. Atunci defectul aparatului are probabilitatea: cf.(4) = p = P A B! P A cf.(8) + P( B) P( A B) = deci 4,4 %. Notă importantă: Iată cum se deduce din definiția 2.2 conceptul clasic ( naiv ) de probabilitate a unui eveniment $ A K. Numărul cazurilor posibile este numărul tuturor evenimentelor elementare, presupuse egal probabile, deci $52 = 0, ,03 0,015x0,03 0,044!!
53 = P( A) P( K ) = P{ ω} ω A { } P A ω K P ω De exemplu, pentru un zar perfect (nemăsluit), probabilitatea oricăreia din cele 6 fețe (fiecare privită ca 1 eveniment elementar) este $. 6 = numarul cazurilor când A are loc numarul cazurilor posibile Apoi, dacă P(B) 0, probabilitatea ca A să aibă loc, după ce ω A B ω B { } { } P ω B a avut loc, este $ și împărțind sus și jos cu P ω numărul cazurilor posibile, rezultă formula (7). Exemple: 1) Doi tenismeni t și t de valoare egală, joacă între ei n seturi și determinăm probabilitatea ca t să câștige m seturi ($ m n ). Soluție: Vom numi eveniment elementar orice șir $ ω = a 1 a 2...a n, unde fiecare $ a k B, B={0,1}; anume $ a k = 0 dacă t pierde setul k și a dacă t câștigă setul k. Așadar B n k = 1 ω, și mulțimea K B n are 2 n elemente. Deoarece t, t au aceeași valoare, probabilitatea fiecărui eveniment elementar ({ }) = 1 2 n $ P ω. Notăm cu A evenimentul t câștigă m seturi ; el se realizează în $ cazuri (atâtea cât numărul cuvintelor binare cu n C n m = C m n biți care au m de 1 ). Așadar, $ P A. Ca o curiozitate, este mai ușor de câștigat 2 seturi din 3 2 C decât 3 din 5 (deoarece $ 3, $ și $ ). 2 = 3 3 C = > n $53
54 $ Din acest exemplu, se observă dificultatea de a crea modelul matematic adaptat definiției 2.2. Nu vom insista asupra acestui aspect, ci vom aborda doar probleme instructive și esențiale de T.P. 2) Să presupunem că doi trăgători t, t trag independent asupra aceleiași ținte. Ei lovesc separat ținta cu probabilitățile p și p. Cu ce probabilitate ar lovi ei ținta dacă ar trage simultan? Soluție: Aici formalizarea ($ modelul matematic ) este mai simplă. Fie A= țintă atinsă de t și B= țintă atinsă de t. Atunci $ P A și $ p, deci țintă atinsă dacă t și t trag = p P( B) = simultan =$ A B și cf.(4) cf.(8)!! P( A B) = P( A) + P( B) P( A B) = p + p' pp'. 3) Să presupunem că o societate încheie contracte, în mod independent cu alte trei societăți A, B, C, cu probabilitățile $ p 1, p 2, p 3. Care este probabilitatea să încheie cel puțin un contract? Soluție: Notând tot cu A evenimentul contract încheiat cu A etc, avem de calculat $ P A B C. Aici aplicăm o poantă! Anume, aplicăm formula lui de Morgan: $ A B C = A B C, deci = 1 P A B C = 1 ( 1 p 1 )( 1 p 2 )( 1 p 3 ) P A B C = 1 P A P( B) P C = 4) O familie are 5 copii trei băieți și două fete. Care este probabilitatea ca primii doi născuți să fie fete? Soluție: Etichetăm fetele cu 1, 2 și băieții cu 3, 4, 5. Ordinea nașterilor este o permutare a numerelor 1, 2, 3, 4, 5 (de exemplu, înseamnă că primul născut este copilul 2, apoi 4 etc.). Numărul acestor permutări este 5! Atunci probabilitatea $54
55 cerută este $ p = 2!3!. Altfel. Există $ grupe de câte doi 5! = 1 2 C 5 10 copii (care diferă între ele prin conținut). Doar într-una din grupe, cele două fete sunt cele mai în vârstă deci$ p = 1 2. C 5 5) O urnă conține a bile albe și b bile negre ($ a,b 2 ). Să se determine probabilitatea $ ca extrăgând două bile succesive, fără întoarcere: a) cel puțin una să fie neagră; b) și probabilitatea $ ca prima să fie neagră, după ce a doua a fost albă. p 2 Soluție: a) Fie $ =evenimentul prima bilă extrasă este albă și $ A 2 = a doua bilă extrasă este albă. Atunci $ A 1 A 2 = evenimentul ambele bile extrase sunt albe. Avem:. și etc. 6) Se împart câte 5 cărți de poker dintr-un pachet de 52 cărți. Să se determine probabilitatea de obținere a unei culori (toate cele 5 cărți să fie în suită, cu excepția chintei roiale As Popă Damă Valet 10). Soluție: Avem 4 tipuri de cărți treflă, pică, caro, cupă, de câte 13 cărți (anume 2, 3, 4,..., 10, A, V, D, P). Există $ moduri de a alege cărți în suită, exceptând cvinta roială, deci probabilitatea cerută este $ 4 C A1 p 1 P( A 1 A 2 ) = P( A 1 ) P( A 2 A 1 ) = a p 1 = P( A 1 A 2 ) = 1 P( A 1 A 2 ) a + b a 1 a + b 1 b) p 2 = P( A 1 A 2 ) = 1 P( A 1 A 2 ) = 1 P A A 1 2 / C 52 P A 2 Notă: Atragem atenția asupra unor fapte ceva mai subtile, unele chiar surprinzătoare. 5 C 13 $55
56 1. Atenție! evenimente incompatibile evenimente independente. De exemplu, A și $ A sunt incompatibile, dar sunt dependente! Apoi există evenimente independente, compatibile. 2. Să presupunem că au loc simultan două turnee de tenis în orașele Ω $ și $ Ω. Presupunem apoi că dacă un tenismen t 3 participă la primul turneu, l-ar câștiga cu probabilitatea $ și, dacă 4 ar participa la celălalt, l-ar câștiga cu probablitatea $. Care este probabilitatea ca t să câștige cel puțin unul din cele două turnee? Să notăm cu A (respectiv cu B) evenimentul t câștigă turneul din orașul Ω $ (respectiv pe cel din Ω$ ). Trebuie să P( A) = 3 4 = 4 5 calculăm $ P A B, știind că $ și $ P B. Deoarece A și B sunt incompatibile (căci t nu poate participa la două turnee c a r e a u l o c s i m u l t a n! ), r e z u l t ă c o n f o r m ( 1 ) c ă = P( A) + P( B) = = 1,55(!) $ P A B. Se ajunge astfel la un rezultat paradoxal, anume o probabilitate strict mai mare decât 1. Explicația nu este chiar simplă... Este vorba de experimente distincte: $ ε = participarea lui t la turneul din orașul $ Ω și $ ε = participarea lui t la turneul din orașul $ Ω. Dar atunci câmpurile respective de probabilități sunt și ele distincte, anume (K, P) și (K, P ). Înseamnă că informațiile = 3 4 = 4 5 anterioare sunt $ P A și $ P B și nu se poate aplica formula (1). Ar fi necesar de imaginat un alt câmp de probabilități care să se refere la ambele turnee deopotrivă, dar asta este cu totul altceva... Acest exemplu arată rostul noțiunii de câmp de probabilități. Adeseori în practică se întâlnesc procese simultane $56 4 5
57 sau dispozitive care funcționează simultan și acestea trebuie analizate în contextul unor câmpuri diferite de probabilități. Dăm încă un exemplu sperietoare pentru studenți Să presupunem că pentru a absolvi o facultate, un student trebuie să promoveze 40 de examene independente. Presupunem că studentul învață pentru fiecare examen 95 % din materie (ce-i poți reproșa?). Care este probabilitatea ca studentul să absolve facultatea? Să notăm cu $ A 1, A 2,..., A 4 evenimentele care constau în = 95 promovarea celor 40 de examene, deci P$ A k,1 k Evenimentul B= absolvirea facultății constă în promovarea tuturor celor 40 de examene, deci $ B = A 1 A 2... A 40. Atunci $ P( A 1 ) P( A 2 )... P( A 40 ), deci $ P B ,13 = 95 Incredibil! Deci învățând 95% din materie la fiecare exemen, studentul are șansa de 13% de a absolvi facultatea. În realitate, ipoteza de independență nu se realizează în cazul examenelor și în plus, studenții au și alte mijloace de descurcăreală. În T.P., discuția asupra independenței sau dependenței evenimentelor a condus la diverse dezvoltări. De exemplu, teoria lanțurilor Markov și a proceselor de învățare este legată tocmai de studiul unor relații de interdependență a evenimentelor. Nu întâmplător se spune că studiul acestor dependențe și condiționalități reprezintă sufletul T.P. și al Statisticii. Iată încă un exemplu care ne pune pe gânduri: Fie A=evenimentul America (de Nord) este bogată și B=evenimentul Universitățile americane sunt bogate ; ce legătură este între probabilitățile condiționate $ P A B și $? 40 P( B A) $57
58 7 Formula lui Bayes permite calculul probabilității, numită aposteriorică; ea este tocmai probabilitatea realizării ipotezei, după ce evenimentul A s-a produs (adică a avut loc). Thomas Bayes ( ) a fost un matematician englez și preot prezbiterian, autor a doar două lucrări una de matematică și alta de teologie. El privea probabilitatea ca o credință parțială, fiind precursor al noțiunii de utilitate a unui eveniment, privită ca probabilitatea înmulțită cu răsplata primită după ce evenimentul a avut loc. Astfel de întrebări se pot pune în toate situațiile cauză efect. Formula probabilității totale și formula lui Bayes 7 Stabilim acum două rezultate clasice ale T.P. care se aplică în multe situații. Definiția 2.5: Fie (K, P) un câmp discret de probabilitate și $ H 1,..., H n K evenimente două câte două incompatibile astfel încât K $ = H 1... H n. Un astfel de sistem de evenimente { } $ H 1,..., H n se numește sistem exhaustiv (sau complet) de ipoteze; unul și numai unul din evenimentele $ { } are loc. PROPOZIȚIA 2.3: Fie $ H 1,..., H n un sistem exhaustiv de ipoteze. Atunci pentru orice eveniment $ A au loc relațiile următoare n = P( H k ) P A k=1 P( A H k ) H k (9) (formula probabilității totale); Și pentru orice $ 1 i n P( A H P( H i A) i ) P( H i ) = n P( H k ) P A H k k=1 (10) (formula lui Bayes a probabilității inverse). Demonstrația: este simplă n a) Avem $ A = A K = A H k A H k. Atunci$ P A $ P( A H k ) = P( H k ) P A H k, conform (7)., aplicând aditivitatea. Dar b) Avem $ P( H i A) cf =.(7) P( H i A) cf.(7) P( A H i ) P( H i ) = și înlocuim P A P A P(A) conform (9). n = P( A H k ) k=1 n ( k=1 ) = k=1 $58
59 Exemple: 1) O persoan! porne"te ( la întâmplare, blindly ) din punctul O spre punctul S (figura 2.2). Determin!m probabilitatea s! ajung! în S dup! ce a trecut prin punctele intermediare I 1, I 2..., I 3. Figura 2.2 Fie A evenimentul persoana ajunge în S "i $ evenimentul persoana trece prin $ I k,$ 1! k! 3. A"adar, = P( B 2 ) = P( B 3 ) = 1 3 $ P B 1 "i P$ A B 1 (probabilitatea de a ajunge în S dup! ce a trecut prin $ ); = 1 P( A B 3 ) = 1 4 apoi $ P A B 2 "i $. = 1 2 Conform formulei probabilit!#ii totale (9), 3 = P( B k ) P A k=1 I 1 = 1 3! "P A B k # & $ % 4 ' ( = ) Presupunem c! sistemul de detec#ie al unui radar poate gre"i asupra unei #inte (de exemplu, un avion inamic) cu probabilitatea 0,05, iar prezen#a real! a #intei este detectat! de sistem cu probabilitatea 0,9. Presupunem de asemenea c! probabilitatea apari#iei unei #inte în zona sistemului este 0,25 "i B k $59
60 determinăm probabilitatea unei alarme false, de îndată ce sistemul primește un semnal relativ la prezența unei ținte. Să notăm cu $ H 1 ipoteza prezenței reale a țintei, cu$ H 2 ipoteza absenței țintei și cu A evenimentul care constă în detecția unui semnal relativ la prezența unei ținte. Atunci: $ P( H 1 ) = 0,25; P( H 2 ) = 1 P( H 1 ) = 0,75; P A H 1 și = 0,05 $ P A H 2. Conform formulei (10) a lui Bayes, probabilitatea cerută 0,75 0,05 este $ P( H 2 A) =. 0,25 0,9 + 0,75 0,05 0,143 3) Presupunem că există exact trei fabrici de rulmenți $ F 1,F 2,F 3 și acestea realizează respectiv 30, 25 și 45 la sută din producția țării. La fabrica $ F1 merg la rebut 1%, la $ F2 1,5% și la F 3 $ 2% din rulmenții produși. Un client a cumpărat un rulment stricat. Care este probabilitatea ca acesta să provină de la $ F1? Pentru soluție, fie A= cumpărat rulment rebut și $ = rulment produs de $ F k, $ 1 k 3. Atunci $ P H 1 și $. Apoi, $ P A H 1 și $, deci conform (9), = 0,30; P( H 2 ) = 0,25; P( H 3 ) = 0,45 cf. Atunci $ P( H 1 A) = ( 10 ) 0,01 0,30 0,19. 0,016 = 0,9; = 0,01; P( A H 2 ) = 0,015 P( A H 3 ) = 0,02 = 0,30 0,01+ 0,25 0, ,45 0,02 0,016 P A H k Câmp oarecare de probabilități Introducem acum un concept mai general decât cel din paragraful 2.2. De fapt, este vorba de definiția axiomatică a $60
61 probabilităților, datorată matematicianului rus A. Kolmogorov 8, într-un memoriu științific publicat în Definiția 2.6: Fie $ Ω o mulțime nevidă, nu neapărat finită sau numărabilă. Fie apoi o colecție K de submulțimi $ A Ω, numite evenimente, cu următoarele trei proprietăți: 1) $, Ω$ aparțin colecției K ($ este evenimentul imposibil și $ Ω cel sigur); 2) Dacă $ A K, atunci $ A = Ω \ A aparține lui K; 3) Pentru orice șir ( $ ),n 1 de evenimente, reuniunea A n $ n 1 A n aparține de asemenea colecției K (deci este un 8 A. N. K o l m o g o r o v ( ) a fost un mare matematician rus, unul din fondatorii T.P. moderne și teoriei proceselor aleatoare, dar și cu contribuții adânci în Mecanică și studiul complexității algoritmilor. A rezolvat câteva probleme puse de H i l b e r t. Î n t i m p u l războiului, a aplicat Statistica la apărarea antiaeriană și, după război, s-a ocupat de pregătirea tinerilor olimpici din țara sa. eveniment). [Cu titlu de informație, în Matematică o astfel de colecție de submulțimi se numește $ σ algebră pe $ Ω ]. Definiția se completează postulând că se consideră o aplicație P:$ K [ 0,1], A P( A), numită luarea probabilității, având următoarele două proprietăți: = 0 P( Ω) = 1 4) $ P și $ ; 5) Dacă ( $ ),n 1 sunt evenimente (din K, două câte A n n 1 două incompatibile, adică disjuncte), atunci seria $ P A n este convergentă și suma ei este probabilitatea reuniunii, adică = P( A n ) P n 1 A n n 1 (11) (aditivitatea numărabilă). Un triplet ($ Ω, K, P)cu proprietățile 1 5 se numește câmp de probabilități (sau câmp de evenimente, după unii autori). Așadar, probabilitatea P(A) nu mai este câtul dintre numărul cazurilor favorabile și cel al celor posibile, ca în cazul discret, ci este un număr din intervalul [0, 1], definit în funcție de context; totul este să îndeplinească axiomele. $61
62 Înainte de a da exemple de câmpuri de probabilități, prezentăm câteva consecințe. PROPOZIȚIA 2.4: Fie ($ Ω, K, P), un câmp de probabilități în sensul definiției 2.6. a) Dacă $ A, B K, atunci $ A B, A B, A \ B aparțin de asemenea lui K; b) Dacă ( $ ),n 1 este un șir de evenimente (din K), atunci $ n 1 A n K. Demonstrație: a) Avem $ A B = n 1 A n unde $ A 1 = A, A 2 = B și $ A n = pentru $ n 3. Aplicând proprietatea 3) din definiția 2.6, rezultă că $ A B K. Apoi $ A B = A B și $ aparțin de asemenea colecției K a evenimentelor. b) Aplicăm formula lui de Morgan: $ n 1 A n = n 1 A n. Exemple de câmpuri de probabilități: 1) Orice câmp discret de probabilități (K, P) conform definiției 2.2 este câmp de probabilități și în sensul definiției 2.6, luând $ Ω = K și K = P K A n, mulțimea părților lui K. Toate proprietățile din propozițiile se extind la câmpuri oarecare de probabilități. Apar unele aspecte specifice. De exemplu, dacă $ A K și P(A)=0, nu rezultă că A este imposibil (A se zice aproape imposibil); similar, dacă P(A)=1, se spune că A este aproape sigur. De asemenea, dacă $ ω Ω, nu rezultă că$ ω K. Dacă ar rezulta, atunci se spune că ($,K,P) este un câmp complet de probabilități. A \ B = A B { } Ω $62
63 Dăm, în continuare, două exemple care justifică generalizarea: 2) Fie $ Ω =intervalul [0, 1]. Se consideră colecția de părți K ale lui Ω$ care conține $, Ω$, mulțimile finite, toate subintervalele, reuniunile finite sau numărabile de intervale, intersecțiile finite sau numărabile ale acestora, complementarele lor etc. Se poate arăta că acestea nu epuizează totuși părțile lui $ Ω ω Ω P( ω ) = 0 deci K$ P Ω. În plus, pentru orice $, definim $ și pentru orice subinterval [ $ a,b] Ω, punem P([a,b])=b a, adică lungimea acelui subinterval; similar, P((a,b))=b a. Mai general, pentru orice eveniment $ M K, se definește probabilitatea sa, punând P(M)=inf$ P I n, unde $ I n sunt intervale mărginite, n 1 astfel încât $ M n 1 I n. Se verifică proprietățile 1 5 care asigură că tripletul ($ Ω, K, P) este un câmp complet de probabilități. Acesta este un exemplu standard de câmp nediscret. Mulțimile M$ K se mai numesc măsurabile Lebesgue, iar probabilitatea P(M) măsura Lebesgue a mulțimii M. Acest exemplu se extinde la cubul unitate din $! n, n 1. Dar nu intrăm în astfel de rafinamente, care își au loc în Teoria măsurii. Se mai spune că T.P. este un caz special al Teoriei măsurii (pentru spații cu măsură finită). 3) Fie acum $ Ω! 2 o mulțime fixată având aria finită Ω nenulă, notată $ A Ω ; de exemplu, $ este un dreptunghi sau un poligon convex. Considerăm colecția K a tuturor părților $ A Ω, care au o arie finită și nenulă și pentru orice $ A K, definim aria A P(A)=$. Tripletul ($ Ω, K, P) astfel obținut se numește ca aria Ω $63
64 câmp de probabilit"!i geometrice pe K. Acest exemplu se extinde la volume din $! 3 sau la hipervolume în $! 3, n! 3. D"m acum solu#ia a dou" probleme celebre de T.P. problema lui Buffon a acului!i problema întâlnirii. Problema lui Buffon. Se consider" în plan o re#ea de drepte paralele echidistante (la distan#" a)!i se arunc" la a întâmplare un ac de lungime. S" se determine probabilitatea 2 ca acul s" întâlneasc" una din dreptele re#elei ; figura Marele statistician englez Pearson a realizat de arunc"ri ale unui ac cu lungimea de 2 cm deasupra unei re#ele plane de drepte paralele echidistante la 4 cm; acul a întâlnit de 4762 câte una din dreptele re#elei! Doar un englez putea avea o astfel de r"bdare. Probabilitatea euristic" cerut" este p=0,317. Dar cu aceast" ocazie, comparând rezultatul teoretic anterior cu acesta, Pearson a calculat prin experiment statistic valoarea lui " cu dou" zecimale exacte. Mare surpriz"! Figura 2.3 Solu#ie. Fie AB o pozi#ie favorabil" a acului!i C mijlocul acului. Not"m cu x distan#a de la C la cea mai apropiat" dreapt" din re#ea!i cu $! m"sura unghiului de înclinare a acului în raport cu dreptele re#elei. M"rimile x!i! sunt evident independente!i [ ]! "[ 0,# ] determin" pozi#ia acului 9. Evident, x! 0,a!i, iar condi#ia ca acul s" intersecteze una din dreptele re#elei este ca $ x! C C" (m"s$ B C! C = " ). Dar $ C C! = BC sin" = a. În planul 4 4 sin" $ variabilelor $!!i x, considerând dreptunghiul $! = [ 0," ]# 0, a ' % & 2 ( ) 64
65 $ eveniment sigur "i, ha"urând ca în figura 2.4 mul#imea % $ A = &(!, x) "# x $ a, care corespunde evenimentului ' 4 sin! ( ) * Figura 2.4 acul întâlne"te una din dreptele re#elei, rezult! c! probabilitatea aria A cerut! este p=$ ; aria!! a dar aria A este $! sin"d" = a "i aria $! = "a 1, deci p=$ ! Problema întâlnirii. Dou! persoane A "i B au decis s! se întâlneasc! între orele 0 "i 1 într-un anumit loc, sosind în mod independent. În plus, ele au convenit ca primul venit s!-l a"tepte pe cel!lalt 15 minute (deh, sfertul academic! 10 ) "i dac! acesta nu vine, s! plece. Care este probabilitatea ca persoanele respective s! se întâlneasc!? Solu#ie. Not!m cu x (respectiv y) momentul sosirii primului venit (respectiv a celuilalt). A"adar, 0! x! 1, 0! y! 1. Not!m $! = [ 0,1]" 0,1 "i fie $ =colec#ia submul#imilor lui $ [ ] K! care au arie. Atunci evenimentul I= întâlnirea celor dou! persoane va fi, cu nota#iile respective: % I = & x, y '!" x # y $ 1 4 ( ). * 10 Sfertul academic dateaz! din timpul când ora de începere a cursurilor era anun#at! de clopotul bisericii. &i atunci studen#ii aveau 15 min. pentru a ajunge în clas!. Mul#imea I este cea ha"urat! în figura 2.5. $65
66 Figura 2.5 A!adar, I este por#iunea din p"tratul! $ situat" între 1 1 dreptele de ecua#ie y=x $!i y=x+$. Evident, aria I = 1$! 2($ )=$!i aria $ =1, deci probabilitatea cerut" 2! 3 4! 3 7! este p= =0, Ambele probleme au apelat la câmpuri de probabilit"#i geometrice. A!a cum teoria chibritului este la care cap"t are chibritul fosforul, tot a!a, aceast" problem" a întâlnirii ne aminte!te de acel îndr"gostit care a declarat c" avea întâlnire la ora 6, o a!teapt" pân" la ora 7!i dac" fata nu vine, la ora 8 va pleca! Paradoxul lui Bertrand Determin"m probabilitatea ca într-un cerc C(O, R), o coard" aleas" la întâmplare s" aib" lungimea mai mare decât $ R 3 =! 3. Prima solu#ie. Fix"m un cap"t (A) al coardei, cel"lalt fiind punctul B (figura 2.6, a). Ducem tangenta în A la cerc!i cele dou" 66
67 coarde AP, AQ cu lungimea R 3. Atunci arcul PBQ are m!sura , deci probabilitatea c!utat! este. 360 = 1 3 Figura 2.6 Solu#ia secund!. Toate coardele de lungime $ R 3 sunt tangente la cercul C( 0, R ) "i cele mai lungi au mijlocul M situat 2 în interiorul acestui cerc, deci probabilitatea cerut! este raportul 1 ariilor celor dou! cercuri, adic! $. 4 Întrebare: Cum se explic! acest rezultat contradictoriu? R: Difer! câmpurile de probabilit!#i care corespund celor dou! experimente! APLICA"IE: (bile, urne, jocuri) În câte moduri se pot distribui dou! bile b1, b2 în trei urne u1, u2, u3? Dar trei bile b1, b2, b3 în dou! urne? Generalizare. R: În urm!toarele "i respectiv 2 3 moduri. Anume 3 2 u1 u2 u3 u1 u2 b1 b2 - b1b2b3 - b2 b1 - - b1b2b3 b1 - b2 b2b3 b1 11 Primele probleme de probabilit!#i au fost formulate dup! 1600, mai ales legate de zaruri, rulete, c!r#i de joc. Francezii P. Fermat ( ) " i B. Pascal ( ) au corespondat în acea perioad! pe aceste subiecte "i au dat r!spunsul la urm!toarea întrebare pus! de un aristocrat, cartofor al vremii cavalerul de Médé: dac! doi juc!tori sunt for#a#i s! întrerup! o partid! de table la scorul 2 1 (deci înainte de 3 2), cum trebuie s!- "i împart! câ"tigul? A fost primul exemplu de estimare a "anselor "i de probabilit!#i aplicate. Cele mai importante rezultate teoretice le dator! m lui Jacob Bernoulli ( ), profesor la Universitatea din Basel. A fost deturnat de la Teologie de G. Leibniz, a scris cartea Art of Conjecture (1713), este autorul celebrei teoreme a numerelor mari (primul rezultat privind convergen#a "irurilor de variabile aleatoare), ca "i cel care a descoperit reparti#ia binomial!. $67
68 Francezul P. Laplace ( ) a elaborat, inspirat de englezul Th. B a y e s, p r i m a monografie de T.P., intitulată Théorie ana lytique des probabilités (1812) și, împreună cu marele K. F. Gauss ( ), a descoperit repartiția normală. Lui Laplace îi datorăm definiția clasică a probabilităților (pentru câmpuri discrete de evenimente) și faptul că a aplicat probabilitățile și în alte domenii, altele decât jocurile de hazard. Abia în 1933, A.N. Kolmogorov ( ) a stabilit definiția axiomatică a probabilităților și a deschis un câmp vast de cercetare. Astfel, s-au dezvoltat teoria proceselor aleatoare (stohastice), teoria informației sau studiul firelor de așteptare (cozilor), fără a mai vorbi de Mecanica statistică și cuantică, toate acestea fiind benefice și surse pentru T.P. b2 - b1 b3b1 b2 - b1 b2 b1b2 b3 - b2 b1 b1 b2b3 b1b2 - - b2 b3b1 - b1b2 - b3 b1b2 - - b1b2 În general, n bile b 1,b 2,,b n se distribuie ( se repartizează) în r urne U 1, U 2,,U r în funcții sunt f : b 1,b 2,...,b n. moduri, exact câte Dacă aceste moduri sunt egal probabile, atunci probabilitatea oricărei repartiții este $. 2. Presupunem că avem $ n 1 obiecte de tipul 1, $ n 2 obiecte de tipul 2,, $ obiecte de tipul r, deci numărul lor total este $ n = n 1 + n n r. Dacă toate aceste n obiecte ar fi distincte, atunci numărul permutărilor lor ar fi n! Dar dacă unele permutări coincid, socotind obiectele de același tip ca identice ($ indiscernabile), care este numărul permutărilor distincte? n! R: $. n 1!n 2!...n r! [De exemplu, cuvântul capac are 5 litere și cu literele 5! c, a, p se pot forma $ permutări distincte]. 2!2!1! = 30 Așadar, dacă avem n obiecte și r urne U1, U2,,Ur, atunci numărul de moduri de a plasa n 1 obiecte în U1, n 2 în U2, n 2 în n! $ U r ( n = n 1 + n n r ) este $. n 1!n 2!...n r! r n { } { U 1,U 2,...,U r } n r r n $68
69 Dacă aceste repartiții sunt egal probabile, atunci 1 probabilitatea fiecăreia este $. r n! n n 1!n 2!...n r! 3. În câte moduri două bile identice pot fi plasate în două urne? Dar 3 bile în 3 urne? Dar 4 în 2 urne? Generalizare: În câte moduri n bile identice pot fi plasate în r urne (bilele fiind indiscernabile)? Soluție: U1 U2 U1 U2 U3 U1 U2 $ B B B B B - BBBB BB - B BB - B BBB - BB B - BB BB BB BB B - BBB B BB - B BBBB - BB B - B BB BBB _ - - BBB BBB Așadar, răspunsurile băbești sunt 3, 10 și respectiv 5; Fie n obiecte repartizate în două urne în n+1 moduri. Înainte de a considera cazul general, cu r 3 urne, începem cu un exemplu concret : în câte moduri, r=3 copii care au cules n=10 mere își pot împărți merele (unde nu contează culoarea, calitatea, mărimea)? Facem un artificiu spectaculos! Să adăugăm 2 pere, să amestecăm cele 12 fructe și să le grupăm câte 10 (două grupe 10 diferind prin conținutul lor), deci numărul grupelor este $. Fiecare astfel de grupă este asociată cu o repartizare a merelor. $69 C 12
70 Primul copil ia toate merele până la prima pară, al doilea ia merele situate între prima și a doua pară, iar al treilea copil ia merele de după a treia pară. Este posibil ca unul sau chiar doi copii să nu ia nimic. De exemplu, dacă o pară apare la începutul grupei, primul nu ia nimic; dacă perele sunt alăturate, al doilea nu ia nimic și, în fine, dacă o pară apare la sfârșit, al treilea copil nu 10 2 ia nimic. Ca atare, copiii își împart merele în $ =$ =66 moduri. În cazul general, celor n bile identice ( mere ) le adăugăm r 1 pere și cele n+r 1 fructe se grupează câte n, fiind repartizate în cele r urne. Atunci cele n bile indiscernabile pot fi n r 1 repartizate în $ C n+r 1 = C n+r 1 moduri. APLICAȚIE: (în Fizica statistică) Repartizarea (plasarea) de bile în urne este utilă în studiul repartiției particulelor fizice (molecule, atomi, electroni, suspensii etc.). Exemplu: Ce parte (câte) din moleculele unui gaz au viteze care corespund unei anumite temperaturi? În acest caz, cele n molecule ( bile ) sunt repartizate pe r temperaturi ( urne), corespunzând temperaturilor $ T 1,T 2,...,T 3. În cazul statisticii Maxwell Boltzmann, particulele sunt considerate discernabile. Știm că n particule distincte se pot repartiza în r celule ( urne ) în $ moduri. Pentru o energie totală dată, toate aceste moduri sunt egal probabile. Dar fotonii, nucleele atomice și atomii cu număr par de particule elementare sunt repartizați după statistica Bose Einstein. În acest caz, particulele sunt indiscernabile (precum merele din exemplul anterior) și este important câte particule de același tip se află într-o celulă sau alta. Așadar avem $ r n moduri de repartizare, egal probabile. C 12 C 12 r 1 C n+r 1 $70
71 În fine, alte particule (precum electronii, protonii și neutronii) urmează o altă statistică, purtând numele Fermi Dirac. Aici, o urnă conține cel mult o particulă și există $ repartiții distincte egal probabile. Un concept fundamental în T.P. și în Statistică este cel de variabilă aleatoare. Practic, toate mărimile fizice, tehnice, economice etc. sunt variabile aleatoare. C n r 2.4. Variabile aleatoare (v.a.) Presupunem fixat un câmp ($ Ω, K, P). Definiția 2.7: O mărime X cu valori reale se numește variabilă aleatoare (v.a.), dacă pentru orice număr real c se poate calcula sau estima probabilitatea $ P X c, adică X să ia valori sub pragul c. Aceasta este o definiție lucrativă, mai puțin riguroasă. Definiția formală este așa: pentru un câmp de probabilități ($ Ω, K,P), o variabilă aleatoare este o funcție $ X :Ω! cu p r o p r i e t a t e a c ă p e n t r u o r i c e c r e a l, m u l ț i m e a { c} $ ω Ω X ω K. Cu definiția 2.7 se justifică ușor că toate mărimile măsurabile uzuale lungimi, temperaturi, umidități, tensiuni electrice, impedanțe, concentrații, dobânzi etc.- sunt v.a. De exemplu, temperatura din această cameră între orele 10 și 11 este o v.a., deoarece pentru diversele valori c=16,3; 18; 19,2; etc. se pot estima prin metode statistice probabilitățile ca temperatura să fie $ 16,3 sau $ 18 etc. (se măsoară temperaturile la momente aleatoare și se face media). De asemenea, durata zborului unui avion de cursă București München este o v.a., ale cărei valori depind de condiții meteo sau de unele neprevăzute. $71
72 12 Aici termenul de c o n t i n u u n u a r e legătură cu cel din analiza matematică. Există și v.a. cu valori alfanumerice sau vagi (de exemplu, mic, scump, coșul zilnic etc.). Dar numai cu definiția matematică formală se pot stabili riguros diversele proprietăți ale v.a. Definiția 2.8: Se numește vector aleator n dimensional orice set X $ = X 1, X 2,..., X n având cele n componente $ X 1, X 2,..., X n v.a. De asemenea, o mărime Y+iZ cu valori complexe este o v.a. dacă Y și Z sunt v.a. reale. Variabilele aleatoare se clasifică în principal în: discrete (dacă au un număr finit sau numărabil de valori pe sărite ) și continue ( continuale) dacă iau valori la rând într-un interval 12. Orice v.a. discretă X este descrisă printr-o matrice cu două linii, numită matrice de repartiție, de forma X a a... a n p 1 p 2... p n..., unde pe linia întâi sunt explicitate valorile ei, presupuse distincte, iar pe linia secundă, probabilitățile cu care sunt luate aceste valori. Așadar, p$ k = P( X = a k ) pentru k$ 1. Evenimentele $ H k = { X = a k }, k 1 formează un sistem exhaustiv de ipoteze ($ Ω = k H k și $ H k sunt mutual incompatibile), deci, conform (9), = P( H k ) $ P Ω P Ω H k, adică $. Reținem că k p k = 1 k k 0 p k 1 și p k = 1 (12) Exemple: 1) Suma S a numerelor indicate de două zaruri corecte este o v.a. discretă având matricea de repartiție S $72
73 Jucătorii de table știu asta! În mod similar, cel mai mare număr indicat M (dintre cele două), este o v.a. discretă având matricea de repartiție M Verificați în fiecare caz relația (12). 2) Să presupunem că un SRL este pe cale să încheie contracte (independente) cu alte trei societăți A, B, C; dar acestea nu sunt sigure (în lipsa parandărăt! 13 ), ci se vor încheia cu probabilitățile $ p 1, p 2, p 3. Numărul Z al contractelor pe care SRL le poate încheia este o v.a. cu 4 valori posibile 0, 1, 2, 3. Matricea ei de repartiție este Z 1 p ( 1 p 2 )( 1 p 3 ) p 1 ( 1 p 2 )( 1 p 3 ) p 1 p 1 ( 1 p 3 ) p 1 p 2 p 3 Într-adevăr, P(Z=0) este probabilitatea să nu se încheie nici un contract; dar cu notații transparente, $ Z = 0, deci { } = A B C P( Z=0)=P( A) P( B) P C = ( )( 1 P( B) ) 1 P C = 1 P A ( ). 13 Para-ndărăt își are originea în jocul de barbut. Para îndărăt înseamnă, mai mult sau mai puțin, cu banii la ultima (i.e. banii jos la ultima aruncare a zarurilor ). Expresia a căpătat o extindere nedorită în lumea contractelor comerciale cu statul, când funcționarii publici pretindeau un procent oarecare din contract îndărat, pentru favorul de a fi dat contractul (para fiind denumirea originară a banilor otomani în circulație la noi și, ulterior, denumirea în jargon a dolarilor - ziși și parai -. Apoi, {Z=1}=$( A B C) ( B C A) C A B { } = A B C și $ Z = 3 etc. 3) Pentru ingineri, economiști, medici, și nu numai, cel mai important exemplu de v.a. nediscretă îl reprezintă momentul T de defectare a unui dispozitiv sau obiectiv aflat în [ ) supraveghere, pe un anumit interval de timp $ t 0,. Faptul că T este o v.a. rezultă din convingerea că pentru orice moment c, se $73
74 poate estima probabilitatea ca defectarea să aibă loc înainte de acel moment. Întrebare: Cum se poate face o astfel de estimare? R: Pe baza datelor statistice de observare, deci din cunoașterea istoriei și evoluțiilor anterioare ale obiectivelor similare sau din... fler. T.P. are un pronunțat caracter experimental, în care se împletesc cunoștințele teoretice cu informațiile extrase ad hoc. Studiul momentelor de defectare, în diverse ipostaze, este făcut într-un capitol separat al Statisticii, numit Teoria fiabilității ($ siguranța în funcționare ). 4) Un alt exemplu de v.a. continuală îl constituie d= diametrul unui lot de piese cilindrice (tuburi ceramice, piulițe, țevi etc.); multe alte mărimi au o comportare aleatoare similară, datorită condițiilor variate de temperatură, umiditate, vibrație a mașinilor care au produs acele piese etc. Iar mărimile de tipul diametrului iau valori în anumite intervale de toleranță și nu pe sărite. 5) Dăm și un exemplu de vector aleator. Să considerăm într-un plan (raportat la un reper ortonormal xoy) un punct variabil M(u, v), în care ambele coordonate u, v sunt variabile aleatoare. Atunci punctul M însuși este considerat o entitate aleatoare, care poate fi identificată cu vectorul aleator OM! $!!! ".! Notând cu i $,! j versorii axelor Ox, Oy, atunci $ OM!!!! " = u i " + v " j. Acest exemplu, este utilizat în Analiza statistică de corelație, unde se studiază o legătură specifică, anume corelația între variabile aleatoare (de tipul șomaj inflație, preț calitate, învățare medie de absolvire etc.). $74
75 $ Notă: Există multe alte variabile aleatoare cu valori alfanumerice. De exemplu, X= grupa sanguină este o v.a. cu valorile A, B, AB și 0. Toate disciplinele nematematice oferă multiple astfel de exemple, cărora li se aplică Statistica și T.P. prin simple manevre de notație și de nominalizare. În cele ce urmează, subînțelegem că este fixat un câmp de probabilități ($ Ω, K, P). Operații cu v.a. reale Dacă X și Y sunt v.a., atunci folosind definiția formală 2.7, se poate arăta că suma X+Y, produsul XY, pătratul $, multiplicata kx (k$! ), modulul $ X, max(x, Y), min(x, Y) sunt de asemenea v.a. Să presupunem că X și Y sunt v.a. discrete, definite prin matricile lor de repartiție X a a p 1 p 2..., Y b b q 1 q a i + b j... Atunci X+Y$,... r ij... X 2 X Y X... a i + b j... ka... r ij..., kx 1 ka 2... p 1 p 2..., a 1 a 2..., max X,Y p 1 p max(a i + b j ) t ij.... Atenție! valorile oricărei v.a. trebuie să fie distincte. De e x e m p l u, r$ 12 = P X + Y = a 1 + b 2 poate fi diferită de + P( Y = b 2 ) $ P X = a 1. $75
76 Definiția 2.9: V.a. X, Y se numesc independente dacă pentru orice numere reale a, b, evenimentele {X=a}, {Y=b} sunt independente, adică $ P( X = a,y = b) = P( X = a) P( Y = b) Exemplu: Dacă! X și Y! sunt independente, atunci X + Y XY ,, X Y 2 1 max( X,Y ), ,, min X,Y PROPOZIȚIA 2.5: Pentru orice v.a. X și orice număr real c, notăm $ I c = X c și $. Atunci $ și $ sunt evenimente (adică aparțin colecției K) și aceeași proprietate o au mulțimile { $ X > c}, { X c}, { a X < b}, { a < X b}, { a X b}, pentru orice a, b reale. Demonstrație: Avem I$ c = ω Ω X ω deci $ I c K, deoarece X este v.a. și aplicăm definiția 2.7 (formală). Apoi $ { } J c = { X < c} I c J c n 1,c 1 n =,c { c}, deci $76
77 { } = { ω Ω X ( ω ) (,c) } = = X 1,c 1 n n 1 = X 1,c 1 n 1 n = I n 1 c 1 n J c = ω Ω X ( ω ) c și, ca atare, J$ c K, conform proprietății 3) din definiția axiomatică 2.6. { } = I c { X c} = J c În mod similar, $ X c (complementara) și $ (aparțin lui $ K, conform proprietății 2) din definiția 2.6. În fine, { a X < b} = J b \ J a,{ a < X b} = I b \ I a, a X b și aplicăm propoziția 2.4. Caracteristici statistice teoretice ale v.a. discrete În paragraful 1.5 am prezentat principalii indicatori sintetici semnificativi ai datelor statistice și proprietățile lor (propozițiile 1.1, 1.2). V.a. discrete generalizează selecțiile de valori ale datelor statistice și atunci vom extinde aceste considerații la cazul mai general, adăugând noi indicatori (de exemplu covarianța a două v.a.). Definiția 2.10: Se spune că o v.a. discretă $ X a 1 a 2... a n... cu valori reale are medie și p 1 p 2... p n... 2 dispersie dacă seriile $ p n și $ a n p n sunt convergente. n 1 a n În acest caz, se definesc: Media: $ X = MX = a n p n, n=1 { } = I b \ J a Momentul de ordin doi: $ M X 2 și n 1 2 = a n n=1 p n $77
78 Dispersia: DX = M( X 2 ) MX 2 2 = a n p n a n n=1 ( p n=1 n ) 2 (13) Dacă X are doar un număr finit de valori, atunci X are totdeauna medie și dispersie, iar sumele anterioare sunt finite. Exemple: 1) Fie! X 1 0. Atunci p q = 1 p MX = 1 p + 0 q = p, M X 2 = p, DX = p p 2 = pq ) Pentru $ X avem X = = 2, M ( X 2 ) = = 19 2 și DX = 5,5. 3) Iată un exemplu de v.a. X, Y astfel încât $ X 10Y și P{X<Y} 0,9. Considerăm $ X și $. 0,9 0,1 Y 10 1 Avem $ X = 100 și Y $ = 10 și P(X<Y)=1, căci pentru orice eveniment elementar $ ω, $ X ω cu probabilitatea 0,9. 4) Există v.a. discrete care nu au medie (deci nici dispersie); de exemplu, X$ n! $ fiind divergentă. n 1 2 n < Y ( ω ) 1! 2!... n! n, seria $78
79 $ $ $ APLICAȚIE: (Urne speciale de joc) Mașinile de joc slot machines sunt niște urne dinamice, care își modifică mereu conținutul, construite pentru cei dispuși să-și piardă banii cu un foarte mic efort mintal. Într-una din variante, jetonul de 5 lei (sau 1 EURO, după caz) este introdus de client într-o fantă ($ slot), provocând rotirea a trei bobine I, II, III, care se opresc aleator după mișcarea manetei. Pe fiecare bobină există 20 de desene egal probabile. De exemplu, pe bobina I se află 2 cherries ($ cireșe), 5 oranges ($ portocale), 5 plums, 2 bells, 2 melons, 3 bars și 1 jackpot ( 7 ). Similar pentru celelalte două bobine, conform tabelului următor: I II III Cherries Oranges Plums Beles Melons Bars Total Clientul câștigă ceva doar dacă cele trei bobine arată pe linie desene identice, deci în 7 situații. Presupunem că sumele câștigate pentru cele 7 situații sunt 1, 2, 3, 4, 5, 6, 100 (în jetoane); așadar, obținerea a 3 cherries 2 are probabilitatea, pentru 3 bars, = și pentru 3 Jackpots, X = câștigul net al clientului la fiecare $79
80 joc ($ jeton+mișcarea manetei) este o v.a. discretă, având următoarea matrice de repartiție: X Câștigul mediu al clientului la un singur joc este (în jetoane): 1 ( ) ,775 3 Așadar, după 100 de jocuri, clientul pierde, în medie, echivalentul a 77 de jetoane (adică echivalentul a peste 350 de lei), fără a mai socoti timpul! Notă importantă: Există o legătură strânsă între media și dispersia unei v.a. pe de-o parte și media și dispersia unei selecții de date statistice, pe de-altă parte. Să presupunem că pentru o v.a. X se consideră o selecție de valori ale ei (nu toate) și care, în plus, sunt egal probabile. Fie X $ = { x 1, x 2,..., x n } această selecție, 1 valorile respective fiind luate cu probabilitatea $. Așadar, n 1 P(X=xk)=$ pentru 1 k n. În acest mod, se pune în evidență o n v. a. d i s c r e t ă a v â n d m a t r i c e a d e r e p a r t i ț i e x 1 x 2... x n $ X n n n n A p l i c â n d f o r m u l e l e ( 1 3 ), r e z u l t ă $ MX = 1 tocmai media $ a selecției, dată de n x n x n x = X n formula (3) din Capitolul 1: similar, conform (13), $80
81 n 2 = $ DX = 1 2 x k X dispersia selecției, dată de formula (5) k=1 n din Capitolul 1. Ne aflăm într-un moment important. Dacă în studiul comportării unei mărimi X asimilate cu o v.a., se extrage un eșantion reprezentativ $!X de valori, atunci calculând media, dispersia (și alți indicatori) ai v.a. discrete $!X, se obțin informații (aproximative) relativ la X, numite indicatori empirici. Acesta este unul din secretele Statisticii, precum și modul de prelucrare a v.a. prin selecții de valori ale lor și calculul unor medii, dispersii, abateri eșantionare empirice, așa cum vom vedea. În orice caz, folosirea v.a. este mai generală decât apelul la selecții de valori. Se poate arăta că pentru orice v.a. X există un șir de selecții $!X n ale ei care converge în probabilitate către X (în sensul că pentru orice $ ε > 0,lim X! n X ε ). n P În cele ce urmează, vom considera doar v.a. discrete X, Y, având medie și dispersie. PROPOZIȚIA 2.6: Au loc următoarele proprietăți: 1) M(X + Y) =MX + MY și M(kX) = k MX; 2) D(kX) = k 2 DX; 3) DX = M(X - MX) 2 și, în particular, DX 0; 4) M(X + c) = MX + c și D(X + c) = DX, pentru orice c real. Demonstrație: Conform (13), media MX este suma produselor valorilor lui X cu probabilitățile cu care sunt luate aceste valori, adică MX $ = X ω P ω, unde $ sunt evenimentele elementare respective. ω = 0 ω Ω $81
82 $ $ $ 1) M(X + Y ) = X + Y M(kX) = 3) Notăm MX = m, deci $ X MX și $ M (X MX) 2 = M (X 2 ) 2mMX + m 2 = M (X 2 ) m 2 = DX etc. Propoziția 2.6 se extinde și la v.a. continuale. COROLAR 1: Dacă X ia valorile $ cu probabilitățile $ p k, atunci $ DX = a k MX p k. COROLAR 2: Fie X o v.a. discretă având media m și abaterea medie pătratică $ σ > 0 $ DX = σ 2. Atunci v.a.. $ X = X m este normată (adică MZ = 0 și DZ = 1). σ Demonstrație: ( ω ) P( ω ) = ω + Y ( ω ) P( ω ) = X ω = = X ( ω ) P ( ω ) + Y ( ω ) P ω ω ω ω kx ( ω ) P ω ω M( X MX ) 2 = M X 2 = kx = MX + MY Definiția 2.11: Covarianța lui X și Y este numărul real cov(x, Y) = M((X MX) (Y MY)). ω 2mMX + m 2 = m 2 = DX etc. = M X 2 2) D( kx) = M( kx) 2 M( kx) = k 2 MX 2 k 2 ( MX ) 2 = k 2 DX ( ω ) P ω 2 = M( k 2 X 2 ) k 2 MX 2 = ( X m) 2 = X 2 2mX + m 2 MZ = DZ = k 2 a k 1 σ M(X m) = 1 (MX m) = 0; σ 1 σ D(X m) = 1 DX = σ = kmx 2 = $82
83 $ $ Așadar, cov(x, Y) = M(XY YMX XMY + (MX)(MY) M(XY) (MX)(MY) (MX)(MY) + (MX)(MY) deci cov(x, Y) = M(XY) (MX)(MY) și cov(x, X) = DX. (14) PROPOZIȚIA 2.7: Are loc relația D(X + Y) = DX + DY + 2cov(X, Y). (15) Demonstrație: Conform propoziției 2.6,3), avem D(X+Y) = M ((X + Y M (X + Y ) 2 ) = M ((X MX) + (Y MY )) 2 = DX + DY + 2cov(X,Y ). Prin teoremă înțelegem un rezultat teoretic de primă importanță (nu că altele ar fi de neglijat!). Acum dăm prima teoremă a T.P. TEOREMA 2.8: Fie X, Y două v.a. discrete independente. Atunci a) M(XY)=(MX)(MY), adică media produsului este egală cu produsul mediilor; b) cov(x, Y) = 0; c) D(X+Y) = DX+DY. Teorema se extinde și la cazul v.a. continuale. Demonstrația punctului a) nu este chiar banală. Avem: M XY Y ( ω )P( ω ), unde * este efectuată după acei $ ω pentru care $ X ω și $ Y ω. Atunci! = prop.2.6. M ((X MX) 2 + (Y MY ) 2 + 2(X MX)(Y MY )) = M (X MX) 2 + M (Y MY ) 2 + 2M (X MX)(Y MY ) = Y ( ω )P ω = X ( ω ) = b j M XY ω * = a i b j P( ω ) ω ai, b j * = X ω * = a i b j P ω a i,b j ω = a i. a i,b j ω $83
84 Dar $ * ω P ω = P( X = a i,y = b j ) = P( X = a i ) P( Y = b j ), ultima relație rezultând din ipoteza de independență, aplicând definiția 2.9. Așadar, M( XY ) = a i b j P( X = a i ) Y = b j a i,b j = a i P i ( X = a i ) b j P b) rezultă direct din a), aplicând formula (14). c) rezultă direct din relația (15) și din b). Teorema 2.8 se extinde, prin inducție, la orice număr finit de v.a. discrete, două câte două independente. Întrebare: Prin ce diferă dependența a două mărimi deterministice X, Y de cea a doua v.a.? R: În cazul deterministic, dacă se cunosc valorile unei mărimi X, atunci se determină cu precizie valorile lui Y (de exemplu, $ Y = X 2 sau $ X 2 = Y 2 + Y etc). În cazul v.a. dependența este de natură statistică; anume, cunoscând valorile lui X, se poate determina legea de repartiție a valorilor lui Y. Ca și în cazul selecțiilor de date statistice experimentale, se pot defini și alte caracteristici ale v.a. discrete momente, momente centrate, coeficient de asimetrie, de exces. Astfel, în condiții ușor de explicitat, momentul de ordin q, q>0 este $ υ q = M X q, m o m e n t u l c e n t r a t d e o r d i n q, a n u m e $ µ ( q) = M X MX, coeficientul de asimetrie $, coeficientul de exces $ E = 3+ µ 4 /σ 4 etc. j = ( X = b j ) = MX MY. ( q ) A = µ 3 /σ 3 $84
85 2.5. Funcții de repartiție și densități de probabilitate Introducem două instrumente teoretice puternice, anume funcțiile de repartiție și funcțiile densitate, care permit descrierea comportării majorității fenomenelor cu caracter aleator. Din nou, fixăm un câmp de probabilități ($ Ω, K, P). Definiția 2.12: Funcția de repartiție (distribuție cumulativă) a unei v.a. oarecare (discretă sau continuală) X este funcția reală $ F X :! [ 0,1], F X ( t) = P( X t) (16) Așadar, oricărui număr real t, i se asociază probabilitatea ca valorile lui X să fie cel mult egale cu t. Atenție! Menționăm că v.a. distincte pot avea aceeași funcție de repartiție! Din punct de vedere statistic, cele două v.a. au comportare similară sau identică. Proprietățile principale ale funcției de repartiție sunt cuprinse în TEOREMA 2.9: F X a) Funcția $ este monoton crescătoare; b) $ și $ (17) F X F X = 0 F X ( + ) = 1 c) $ este continuă la dreapta în orice punct a, adică: lim t a $ F X a + 0 t. Demonstrație: t>a F X = F X ( a) a) Dacă t $ < t, atunci evenimentul {$ X t } implică F X ( ) {$ X t } și, ca atare, P(X t) P(X $ t ' ) deci $ F X t t. b) Trebuie demonstrat că $ lim t și $ t. F X t = 0 lim = 0 F X ( + ) = 1 F X t + = 1 Intuitiv, este clar că $ P X și $. Demonstrația riguroasă necesită raționamente de Analiză matematică nebanale și preferăm să o omitem aici. $85
86 $ Aten#ie! V.a. X nu este definit" explicit, adic" nu se vede. De altfel, nu se traseaz" grafice pentru v.a. Dar pentru orice v.a. X, func#ia $ are un grafic; anume, relativ la un reper ortonormal xoy, acest grafic are ecua#ia $ y = F X t!i asimptotele y=0 (spre ))!i y=1 (spre +)). Graficul lui $ arat" ca în figura 2.7; a) sau b). F X F X Figura 2.7 Cunoa!terea func#iei reale $ permite ob#inerea de informa#ii de tip statistic relativ la comportarea lui X. Anume, are loc urm"torul rezultat important: TEOREMA 2.10: Fie $ F :!! 0,1 func#ia de reparti#ie a unei v.a. X oarecare. Pentru orice numere reale a<b, avem: a) P(X > a)=1 F(a), P(X<a)=F(a 0)!i P(X ' a)=1 F(a 0); (18) b) P(a < X ( b)=f(b) F(a), P(a<X<b)=F(b 0) F(a), P(a ( X <b)=f(b 0) F(a 0)!i P(a ( X (b)=f(b) F(a 0). (19) 86 F X [ ]
87 Schița demonstrației: { X > a} = { X a} Apoi, {a < X b} = {X b}\{x a}, deci:, deci P(X >a)=1 P(X a)=1 F(a) etc. P(a < X b) = P(X b) P(X a) = F(b) F(a), aplicând faptul că P(B \ A) = P(B) P(A), dacă A implică B etc. Exemple: 1) Considerăm v.a. discretă $ X 0 1 2, unde p 0 p 1 p 2 k $ 0 p k 1 și $ p k = 1. Pentru orice $ a!, explicităm $ F X a. Anume, $ a pentru a<0; $ dacă 0 a < 1; F X = 0 F X ( a) = p 0 = p 0 + p 1 F X ( a) = 1 $ a pentru 1 a < 2 și $ pentru a 2. F X Dacă I=[ 1,1], atunci = P( X = 0) + P( X = 1) = p 0 + p 1 P X I 5 7 2) Fie X$ 1 2. Atunci F(x)=0, dacă x<5, F(x)=$, dacă 5 x < 7 și F(x) = 1, dacă x 7. Graficul funcției 3 de repartiție a unei v.a. discrete este o funcție în scară. 3) Să presupunem că pentru o v.a. X, funcția de repartiție $ F = F X are graficul din figura 2.8. Ne propunem să calculăm $ P X 1 și $. Avem $ (căci 2 P X 2 > 1 9 P X 1 2 = F 1 2 = 1 2 pentru 0 t 1, avem F(t)=t). Apoi = P( X a). $87
88 ! P X 2 > 1 $ " # 9% & = 1' P (! X 2 ) 1 $ " # 9 % & = 1' P! ' 1 3 ) X ) 1 $! " # 3 % & =! *! 1 $ 1' F " # 3% & ' F! ' 1 $ -, " # 3 % & / +. = 1' = 2 3. cf.(19) = cf.(19) $ Figura 2.8 4) Fie X o v.a. discret" cu valorile 1, 2,..., n,... S" se arate # " n=0( ) c" $ MX = 1! F X n. = P( X > n) Solu#ie: Avem $ 1! F X n deci: " # n=0( 1! F X ( n) ) = P X > 0 + P( X > 1) + P( X > 2) +... = + P( X = 2) + P( X = 3) P( X = 4) P( X = 3) +... = $% P X = 1 & ' + $% P X = 2 & ' + + $% P X = 3 & ' +... = # = MX. " = P( X = 1) + 2P( X = 2) + 3P ( X = 3) +... = kp( X = k) Se presupune c" seriile respective sunt convergente. Ca func#ie monoton", func#ia de reparti#ie $ F = F X a unei v.a. are un num"r finit sau num"rabil de puncte de discontinuitate. În aplica#iile curente, func#iile de reparti#ie sunt de clas" C 1 pe por#iuni; de exemplu, în cazul v.a. discrete, func#iile de reparti#ie sunt func#ii în scar". (Reamintim c" o func#ie m"rginit" F este de clas" C 1 pe por#iuni, pe un interval I = [a, b], dac" exist" un num"r finit de puncte $ a = t 0 < t 1 <... < t n = b astfel încât pe subintervalele $ ( t k,t k+1 ),0! k! n "1, F este derivabil", cu derivata continu"). 88 n=1
89 $ Definiția 2.13: Se spune că o v.a. oarecare X are densitatea de probabilitate $ p :!! dacă funcția de repartiție F = F X este de clasă C 1 pe porțiuni și $ t! unde F este derivabilă. probabilitate $ în punctele Proprietățile densităților de probabilitate sunt dispuse în TEOREMA 2.11: Fie X o v.a. având densitatea de p = F X. Atunci: a) p(t) 0 pentru punctele t unde $ FX este derivabilă; b) pentru orice $ x!, F X (20) c) p t dt = 1 (21) d) pentru orice numere reale a < b, avem b P(a < X b) = P(a X b) =P(a < X < b) =$ p( t)dt (22) e) pentru orice t unde $ este derivabilă, Demonstrație: x ( X) = p( t) dt F X. (23) a) Deoarece $ este monoton crescătoare (vezi teorema 2.9), derivata ei este pozitivă, deci p(t) 0. b) Ambii membri ai relației (20) au aceeași derivată și aceeași limită spre, deci coincid. = F ( t) c) Conform (20) și (17), $ p t dt = F. d) P a < X b e) $ p t, ultima h F t + h X h P t < X t + h p t 1 p( t) = lim h 0 h P( t < X t + h) F X cf.(19) = = lim h 0 1! FX b = 1 F X ( a) == F X ( t) b a = b F ' X ( F ( t) ) X = lim h 0 1 a a b ( x)dt = p( t) dt a $89
90 egalitate rezultând din prima rela#ie (19). Not" important": Graficul densit"#ii de probabilitate p a unei v.a. X are ecua#ia y = p(t)!i arat" ca în figura 2.9; a) sau b). Mai general, se numesc func!ii densitate (sau func#ii-clopot ) acele func#ii pozitive, continue pe por#iuni p $ :!!!!i pentru care " $ # p t dt = 1. Graficele arat" ca ni!te clopote deasupra axei!" orizontale. Figura 2.9 Pentru orice a<b, aria mul#imii {a(t(b, y( p(t)}, ha!urat" în fig. 2.9,a) este numeric egal" cu probabilitatea ca v.a. X s" aib" valorile cuprinse în intervalul [a, b]; acest fapt rezult" direct din rela#ia (22), care este o consecin#" direct" a formulei clasice Leibniz Newton. Paradoxul probabilit!"ii nule Fie X o v.a. continual" cu valori reale!i a un num"r real fixat. 90
91 Întrebare: Care este probabilitatea $ P X = a? R: Dacă $ P X = a 0, atunci suma $ ar fi infinită, adică P$ X!! Iar dacă $ =0, atunci $ P( X = a) = 0, deci P$ ( X! ) = 0. Am ajuns la această a! concluzie paradoxală, deoarece am considerat sume nenumărabile. Pentru a preîntâmpina astfel de situații, în T.P. se lucrează doar cu sume finite sau numărabile și cu probabilități de tipul $ P X I, cu I interval de lungime nenulă. Noțiunile de funcție de repartiție și densitate de probabilitate se extind la vectori aleatori și sunt folosite în Fizica statistică. Dacă X $ = X 1,..., X n este un vector aleator n dimensional, având componentele $ v.a., funcția sa de repartiție este: $ F X :! n 0,1, unde $. Dacă $ X 1,..., X n sunt independente două câte două și în totalitate, atunci $ F X ( t 1,...,t n ) = F X1 ( t 1 )...F Xn ( t n ). Apoi, densitatea de probabilitate (numită comună) $ p :! n! are valori pozitive și pentru orice submulțime $ B! n având hipervolum, $ P X B dt 1...dt n și p t 1,...,t n dt! n 1...dt n = 1. a! P( X = a) = P( X = a) Caracteristici statistice teoretice ale unei v.a. oarecare În definiția 2.10 am dat caracteristicile statistice ale v.a. discrete, definite prin matricea lor de repartiție. Folosind densitățile de probabilitate, acestea se extind la v.a. oarecare cu valori reale. X k [ ] F X ( t 1,...t n ) = P( X 1 t 1,..., X n t n ) = p( t 1,...,t n ) B $91
92 Definiția 2.14: Fie X o v.a. cu densitatea de probabilitate $ p :!!. Se definesc: - media - dispersia % MX = tp( t)dt (24) DX = ( t MX ) 2 p t dt (25) în ipoteza că integralele respective sunt convergente (adică au valori finite), - abaterea medie pătratică $ σ = DX ; - momentul de ordin q 1, $ υ q = t q p( t)dt ; - momentul centrat de ordin q 1, µ q = t MX q p( t)dt - dacă $ f :!! este o funcție continuă, atunci media lui f (X) este: = f ( t) Mf X. (26) Exemple: 1) O v.a. X are densitatea de probabilitate $ p :!!, $ p x dacă x $ [0, 1] și nulă în rest. Determinăm $ MX și DX. Mai întâi punem condiția ca p( x)dx = 1 și a >0. 1 Așadar, $ ax dx = 1 deci a = 2. Atunci $92 0 = ax p( t)dt MX = xp x dx = 2 x 2 dx = MX 2 = x 2 1 p( x)dx = 2 x 3 dx = 1, DX = = 1 18
93 2) Fie p(x) = c(3x x 2 ) dacă x [0, 3] și nulă în rest. Să se determine constanta c astfel încât funcția p să fie densitatea de probabilitate a unei v.a. X și apoi să se afle P(2 < X < 4). 3 2 D e o a r e c e, $ c( 3x x 2 )dx = 1 rezultă c = $ și = p( x) $ P 2 < X < 4 dx = 2 3x x 2 etc. 2 9 dx 2 4 Definiția 2.15: Dacă X și Y sunt două v.a. oarecare, având medie și dispersie, atunci se definește covarianța lui X, Y prin cov(x, Y) = M(XY) (MX)(MY). Dacă, în plus, X și Y nu sunt constante (adică au dispersii nenule), se definește coeficientul de corelație al v.a. 14 X, Y, ca fiind ρ XY = DX DY cov X,Y cov X,Y = σ X σ Y. (27) 14 datorat lui K. Pearson Se extind propozițiile , folosind definițiile și câteva proprietăți standard ale integralelor. De exemplu, M(aX+b)=aMX+b; D(aX+b)=a 2 DX și, dacă X este o v.a. cu media m și dispersia $ σ 2 σ > 0, atunci $ Z = X m este o v.a. normată, adică MZ=0 și DZ=1. σ Apoi, cov(x+c,y)=cov(x, Y) și cov(ax, by) = abcov(x, Y) etc. Proprietățile coeficienților de corelație sunt cuprinse în PROPOZIȚIA 2.12: Fie X, Y v.a. având medie și dispersie. cov X, X 1) $ ρ XX = = 1; DX 2) $ ρ XY = ρ YX și dacă X, Y sunt independente, atunci $ ρ XY = 0 ; $93
94 $ $ 3) dacă U, V sunt normatele lui X și respectiv Y, atunci ρ XY = cov( U,V ); 4) 1 ρ XY 1. (28) Demonstrație: 1), 2) sunt evidente. 3) Avem cov(x a, Y b)=cov(x, Y) pentru orice a, b reale deci = cov X MX cov U,V σ X MY,Y σy = = 1 cov( X MX,Y MY ) = σ X σ Y = 1 σ X σ Y cov X,Y cf.(27)! = ρ XY. 4) Conform relației (15), avem D(U + V) = DU + DV + 2cov(U, V) deci DU + DV + 2cov(U, V) 0, adică 1+1+2cov(U, V) 0, deci cov(u, V) 1, așadar, după (3), $ ρ XY 1. Apoi D(U V) = DU + DV 2cov(U, V), deci DU + DV 2cov(U, V) 0, de unde cov(u, V) 1 deci $ ρ XY 1. Notă importantă: Dacă X, Y sunt mărimi aleatoare măsurate într-o unitate de măsură u (de exemplu, cm) atunci MX σ X și $ sunt exprimate în aceeași unitate, dar DX și cov(x, Y) sunt măsurate în unități pătratice. Coeficientul de corelație este însă adimensional. Exemplu: 1) Fie v.a. X, Y cu Y = ax+b ($ a,b! constante și a 0). Determinăm coeficientul de corelație $ ρ X,Y. $94
95 $ Notăm MX = m și Dx = $ σ 2. Atunci $ MY = am + b și MX 2 M X 2 DY=$ a 2 σ 2. Apoi $ σ 2 = M X 2, deci $ și = a( σ 2 + m 2 ) + bm = M ax 2 + bx $ M XY. Ca atare, = M( XY ) ( MX )( MY ) ρ XY DX DY + bm m am + b = a σ 2 + m 2 σ a σ = = aσ 2 a σ 2 = a a. = σ 2 + m 2 2) Se aruncă două zaruri corecte și fie X, Y numerele indicate de fețele lor, cu DX = DY. a) Să se calculeze cov(x + Y, X Y); b) Sunt X + Y și X Y v.a. independente? Soluție: a) cov(x+y, X Y)=M(X 2 Y 2 ) (MX) 2 +(MY) 2 =DX DY=0. b) Presupunem că X+Y=12 deci X=6, Y=6, adică X Y=0. Așadar, X+Y, X Y nu sunt independente, căci informația despre X+Y a influențat X Y. În încheierea acestui capitol, stabilim două rezultate teoretice, care sunt importante și ca fapte de cultură. TEOREMA 2.13: (inegalitatea lui Cebâșev) 15. Fie X o v.a. având medie și dispersie. Atunci pentru orice $ k!, k > 0, avem P( X MX k) 1 k DX 2 Demonstrație: Cazul X = v.a. discretă: = P{ω Ω. (29) Avem P$ X MX k există i, astfel încât * = a i a i MX k} = P( X = a i ) $ X ω și $, iar suma se face după acei indici i pentru care $ a i MX k. Atunci i 15 Cebâșev Pafnutie a f o s t u n m a r e m a t e m a t i c i a n r u s, , cu lucrări r e m a r c a b i l e î n probabilități, statistică, mecanică și teoria numerelor. El este considerat unul dintre părinții fondatori ai matematicii rusești. Dintre studenții săi, d e v e n i ț i u l t e r i o r matematicieni celebri, îi amintim pe Aleksandr Liapunov și pe Andrei Markov. $95
96 $ DX = $ I Cazul X = v.a. continuală: Avem că DX =!. 2 ( a i MX ) P X = ai DX = k 2 ( a i MX ) 2 i k 2 COROLAR 1: Pentru orice a > 0, rezultă $ P X MX aσ (30) Demonstrație. Înlocuim k = a! σ în relația (29), ținând cont σ 2 COROLAR 2: Fie $ un șir de v.a. având medie și dispersie, astfel încât lim $ Dη n = 0. Atunci pentru n!, $ η n Mη n tinde către zero în probabilitate. P X = a i. ( t MX ) 2 p t dt t MX p( t) dt = k 2 P( X MX k). t MX k 1 a 2 n η n P( X = a i ) Demonstrație: În general, se spune că un șir de v.a. $ tinde către o v.a. X în probabilitate, dacă pentru orice $ ε > 0, avem $ lim P X n X ε. Î n c a z u l c o r o l a r u l u i 2, a v e m n = 0 1 $ 0 P η n Mη n ε și aplicăm celebra lemă a ε Dη 2 n cleștelui. TEOREMA 2.14 (legea lui Bernoulli a numerelor mari). Fie ( $ X n ),n 1 un șir de v.a. independente, cu medie și dispersie, având toate aceeași medie m=m$,n 1 și dispersiile egal majorate (în sensul că există C>0, astfel încât există D pentru i t MX k( ) 2 p t X n dt Xn $96
97 X orice n 1). În aceste condiții, media aritmetică, $ X n tinde n în probabilitate către m. Demonstrație: Pentru orice i 1 avem $ MX i = m și $ D X i C. Notăm $ η n = X X 1 n, deci $ Mη n = 1 n n MX MX 1 n și $ Dη n = 1 n D X X 2 1 n = 1 ( DX n DX n ), c o n f o r m teoremei 2.8c). Așadar, $ 0 Dη n 1, deci $ n Cn = C lim Dη 2 n = 0 n n și, aplicând corolarul 2 al teoremei 2.13, $ η n m tinde în probabilitate către zero (pentru $ n ), deci $ tinde către m. Notă: Denumirea de numere mari provine de la interpretarea arhaică a tinderii lui n spre infinit. Legea lui Bernoulli arată că pentru un număr suficient de mare de v.a., media lor teoretică m se aproximează cu media lor empirică (determinată prin eșantioane reprezentative). APLICAȚIE: Presupunem că efectuăm serii de experimente $ ε 1,ε 2,...,ε n... independente, în urma cărora apar doar două evenimente posibile A și A$ și P(A)=p. De exemplu, evenimentele sunt de tipul 0/1, DA/NU, Adevărat/Fals etc. Pentru orice n 1, considerăm v.a. X n = 1, când la experimentul ε n apare A 0, când la experimentul ε n apare A Matricea de repartiție a acestei v.a. discrete este 1 0 $, deci $ și $. p 1 p MX n = p DX n = p p 2 η n $97
98 X Conform legii lui Bernoulli, rezultă că $ X n n converge în probabilitate către p. Pe de-altă parte, suma $ X X n este tocmai numărul de apariții ale evenimentului A X Xn după primele n experimente, deci $ este frecvența $ f n a n lui A. Ca atare, am arătat că, pentru $ n, $ X X 1 n tinde (în n probabilitate) către numărul p=p(a). Acesta este, conform definiției 1.2, un rezultat de stabilitate statistică și arată legătura între definiția axiomatică a probabilității și definiția empirică (câtul dintre numărul cazurilor favorabile și a celor posibile). Povestea lui G. Mendel ( ) Înainte de a prezenta pe scurt ce datorăm părintelui Geneticii, începem cu un exemplu prozaic. Aruncând o monedă, apare stema (S) sau banul (B). După prima aruncare avem S sau B. După a doua aruncare sunt posibile 4 secvențe de lungime 2: SS, SB, BS, BB. După a treia aruncare, sunt posibile 8 secvențe de lungime 3, anume SSS, SSB, SBS, SBB, BSS, BSB, BBS, BBB etc. Aruncarea monedei este un experiment Bernoulli (având doar două rezultate succes și insucces ), cu probabilitatea de succes (de ex. S), p=1/2. Repetând de n ori experimentul, numărul de succese este o v.a. cu (n+1) valori, n repartizată Bernoulli, $ X, unde $ p. De ex., pentru n=3, p p... p 1 2 n k = C k n 2 n probabilitatea a exact două succese este $ p 2 = C , așa cum am văzut mai sus. Cine ar fi crezut că o schemă similară a descoperit Mendel studiind mecanismul transmiterii de caractere în cazul plantelor? El provenea dintr-o familie de țărani grădinari, a învățat la un colegiu din Brno Slovacia, apoi a absolvit Universitatea din Viena, după care a predat Matematica și Științele naturii, fiind și călugăr catolic. În 1856 a început să facă experimente cu plante, urmărind 29000(!) de plante de mazăre, studiind caracteristicile lor, introducând aleatorismul în Genetică și stabilind legile de bază ale eredității: unitatea caracterelor, dominanța și segregarea. Mendel a arătat că fiecare caracter genetic (de exemplu, culoarea florilor de mazăre) este controlat de $98
99 două gene aflate în organism. Anume, prin încrucișarea a doi indivizi, descendentul rezultat primește pentru fiecare caracter câte o genă de la fiecare din părinți una dominantă și alta recesivă. Astfel, când culoarea roșie pură (R) încrucișată cu albul pur (A) produce culoarea roșie, acest urmaș roșu are o genă R (dominantă) și una A (recesivă). Orice plantă care conține una din perechile (R, R), (R, A) sau (A, R) va produce urmaș roșu și numai (A, A) va produce alb. Așadar, probabilitatea de a apărea culoarea roșie este 3/4 și cea albă 1/4 etc. Abia după 1900, lucrările lui Mendel (publicate în 1865) au fost luate în seamă de comunitatea științifică, iar în fosta Uniune Sovietică sau în România, abia după 1970, întârziind cu un secol dezvoltarea Geneticii în aceste țări. Trebuie adăugat ca la moartea lui Mendel, succesorul său, o nulitate anonimă, a avut grijă să-i ardă manuscrisele! În fine, adăugăm că în ultimii ani, matematicienii și statisticienii au descoperit o clasă nouă de proceduri de calcul, numite algoritmi genetici, inspirați tocmai din operatorii mendelieni Întrebări de control și exerciții la Capitolul 2 1. Ce este un câmp de evenimente? Dar un câmp de probabilități 2. Care este diferența între evenimente incompatibile și unele mutual independente? 3. Reamintiți definiția clasică și cea axiomatică a probabilității. Cine au fost autorii? 4. Cum justificați utilitatea conceptului de Câmp de probabilități? 5. Ce sunt v.a.? Dați exemple și o clasificare. 6. Ce sunt vectorii aleatori? Dați exemple. 7. Care este definiția funcției de repartiție a unei v.a.? Dar a densității de probabilitate? 8. Se spune că evenimentele și v.a. sunt măsurabile. Știți în ce sens? Sumar de formule Cu notații transparente, reamintim câteva formule și concepte de reținut: $99
100 1. 2. P( A) = 1 P( A);P( A B) = P( A) + P( B) P A B = P A B P A B P( B) ;. 3. Formula probabilității totale; 4. Formula lui Bayes; 5. Definiția $ X,DX,υ q,σ,s pentru v.a. discrete; 6. Definiția cov(x, Y) și a coeficientului de corelație; 7. Cum se exprimă P(a < X b) cu ajutorul funcției de repartiție și cu ajutorul densității de probabilitate; 8. Definiția $ X,DX,υ q,µ q și covarianței pentru v.a. continuale ; 9. Inegalitatea lui Cebâșev; 10.Legea lui Bernoulli; în ce sens ea se numește legea numerelor mari? Exerciții la Capitolul 2 1. Care este probabilitatea p ca alegând la întâmplare un număr N de 3 cifre, suma cifrelor sale să fie 15 și una din cifre 0? R: N $ = abc ; necesar a 6. Aplicând definiția clasică a probabilității, $ p = Care este probabilitatea ca alegând un număr cuprins între 10 și 70, cubul lui să se termine cu 28? R: ab $ = 10a + b și cubul său este de forma $ M10 + b 3. În mod necesar b$ 3 se termină cu 8, deci b=2. Atunci $ ab = 10a + 2 și 3 = M a + 8 $ ab. Singurele valori acceptabile sunt a=1 2 și a=6, adică numerele 12 și 62. Probabilitatea cerută este $. 61 $100
101 3. Dacă se aruncă o monedă corectă de două ori, care este probabilitatea să apară de două ori stema? 1 R: $ Într-o partidă de tenis între doi jucători egali, A, B jocul se întrerupe la scorul de 2 1 pentru A și se joacă 3 seturi din 5. Care este probabilitatea ca jucătorul A să câștige? 3 R: $ (În cele două seturi amânate pot apărea situațiile AA, AB, 4 BA și BB și în 3 din ele, A câștigă partida). 5. Dacă se aruncă două zaruri corecte, ce este mai probabilă: suma 6 sau 7 a fețelor? R: Suma Fie A, B două evenimente independente, cu P(A)=p și P(B)=q. p 2 = P A \ A B Să se determine $ p 1 = P A B și $. R : p$ 1 = P( A) + P( B) P( A) P( B) căci și A$, B sunt independente. Apoi $ P A. Deoarece $, rezultă 7. Se aruncă două zaruri nemăsluite. Care este probabilitatea ca fie suma fețelor să fie 8, fie să dăm o dublă? R: Fie A=evenimentul suma 8 și B= dublă. Atunci $. = 1 p A B A p 2 = P( A) P( A B) = p pq P( A) = 5 36 = 6 36 = 1 36 și $ P B și $ P A B deci P( A B) = P( A) + P( B) P( A B) = , Ce este mai probabil: să apară fața 6 dacă se aruncă de 4 ori un zar sau dubla 6 6 dacă se aruncă două zaruri de 24 de ori? $101
102 R: Fie A=evenimentul fața 6. Atunci $ A = apariția uneia din fețele 1, 2,..., 5 deci $ P A = 5 6. Dacă aruncăm zarul de 4 ori, atunci probabilitatea să nu apară 6 este 5 $ 6 4. Ca atare, prima probabilitate este $ p 1 = ,518. Dacă se aruncă două zaruri, există 36 perechi dintre care 35 sunt diferite de (6, 6). Aruncând de 24 de ori cele două zaruri, probabilitatea să 35 nu apară (6, 6) este $ $ p 2 = ,491, iar probabilitatea cerută este; 16 Așa au gândit Fermat și Pascal la o problemă care le-a fost pusă de cavalerul de Méré. Notă: Așadar, $ p 1 > p 2. Rezultatul este de necrezut și ne biciuiește intuiția Într-o urnă se află a bile albe și b bile roșii (a 2, b 2). Să se determine următoarele probabilități: a) de a extrage o bilă albă (respectiv roșie); b) ca extrăgând deodată două bile, acestea să fie albe (respectiv roșii); c) ca extrăgând deodată două bile, acestea să aibă aceeași culoare (respectiv culori diferite); d) ca extrăgând o bilă albă, pusă de-o parte, bila următoare extrasă să fie roșie; e) ca extrăgând o bilă și punând-o la loc ( extragere cu întoarcerea bilei ), ambele bile să fie albe. [Toate extragerile sunt independente]. 2 2 a R: a) $ b) $ ; c) $ ; a + b ; b a + b ; C a C ; b C 2 2 a + C b ab ; C a+b C a+b C a+b C a+b $102
103 b a d) $ ; e) $. a + b 1 a + b a 1 a + b Într-o urnă se află m bile albe și n bile roșii (m 2, n 3). Se extrag din urnă 5 bile. Care este probabilitatea ca două din ele să fie albe și trei roșii? C 2 3 R: $ m C n. [Numărul cazurilor posibile este egal cu numărul 5 C m+n grupelor de 5 bile dintre cele m+n, două grupe diferind prin conținutul lor. Numărul cazurilor favorabile este cât al perechilor 2 3 (A, R) unde A parcurge $ C m valori și R parcurge $ C n valori]. 11. Dintr-o urnă cu m bile albe și n bile roșii se extrag direct k bile. Să se arate că probabilitatea ca p dintre bile să fie albe și q C p q roșii (0 p m, 0 q n, p + q = k) este egală cu $ m C n. k C m+n APLICAȚIE la jocul LOTO 6 din 49 R: Este o generalizare directă a exercițiului 10. În cazul jocului 6 din 49, m=6, n=43, și p (respectiv q) este numărul variantelor câștigătoare (respectiv necâștigătoare). De exemplu, probabilitatea C 6 0 de a avea 6 numere câștigătoare este $ 6 C 43 = Într-o urnă se află 9 bile: 2 albastre, 3 roșii și 4 albe. Se extrag 3 bile (aleator și în mod independent). Să se determine probabilitatea ca aceste bile să fie toate albe, în următoarele două situații: a) se extrage o bilă, se notează culoarea și se aruncă înapoi în urnă etc; b) se extrage o bilă, se notează culoarea și se pune de-o parte; apoi se extrage o altă bilă etc. C 49 C 49 $103
104 4 R: a) $ ; b) Fie $ = evenimentul bilă albă la ,088 A 1 prima extragere, $ A 2 = bilă albă la extragerea secundă și $ A 3 = bilă albă la extragerea a treia. Aceste evenimente nu sunt independente. Probabilitatea cerută este = P A 1 A 2 A 3 $ = P( A 1 ) P( A 2 A 1 ) P( A 3 A 1 A 2 ) = ,048 Există și alte raționamente. 13. Într-un bloc de chiriași singles se află 10 bărbați și 15 femei. Dintre aceștia, 4 bărbați și 9 femei au serviciu și toți ceilalți sunt studenți. Alegând la întâmplare un chiriaș, să se determine următoarele probabilități: a) acesta să fie student; b) să fie femeie; c) student și femeie; d) bărbat, după ce s-a constatat că este angajat; e) studentă, dintre femei; f) femeie dintre studenți R: a) $ ; b) $ ; c) $ ; d) $ ; e) $ ; f) $ Un zar corect este aruncat la întâmplare ($ aleator) pe un plan orizontal și cade pe una din fețe. Să se indice un câmp discret de probabilități asociat acestui experiment. R: Fie K={1, 2,..., 6}; pentru orice $ ω K, definim probabilitatea = 1 6 $ P ω. Evenimentele sunt submulțimile lui K și pentru orice ω A = P( ω ) eveniment $ A K, $ P A. Perechea (K, P) este un câmp discret de probabilități, conform def Considerăm următoarele trei experimente și sisteme de evenimente: a) ε 1 = tragerea la țintă; H1=țintă atinsă; H2=țintă neatinsă; $104
105 c) ε 2 = transmisia a 7 mesaje codificate; în cel de-al n lea mesaj (1 n 7); H n =existența unor erori d) Fixăm T > 0 și notăm cu $ ε 3 = observarea funcționării unui dispozitiv începând cu momentul t=0. Fie $ H 1 = defectarea lui la un moment din intervalul [0,T]; $ H 2 = defectarea lui la un moment t > T; $ H 3 = defectarea la un moment t 0. Care din cele trei sisteme de evenimente este complet (exhaustiv)? R: a) {$ H 1,$ H 2 } este complet; b) {$ H 1,...,$ H n } nu este complet deoarece evenimentele $ nu sunt incompatibile două câte două; c) {$ H 1,$ H 2 } este complet, dar {$ H 1,$ H 2, $ H 3 } nu. 16. Presupunem că o mașină are n piese de schimb (presupuse independente și vitale), cu aceeași probabilitate p de funcționare (pe un anumit interval de timp). Ce este de preferat: să avem o mașină de rezervă sau un set complet de piese de schimb? R: Presupunem că un sistem S este legarea în serie a două subsisteme S$ 1, S 2. Fie A=evenimentul S funcționează și evenimentul $ A k =,,S k funcționează (k=1, 2). Atunci $ A = A 1 A 2 deci P$ A = P A 1 P A 2 aceeași probabilitate p, atunci $. Dacă subsistemele funcționează cu paralel a subsistemelor $ S 1, S 2, atunci $ A = A 1 A 2 și. Dacă S este legarea în O mașină este legarea în serie a n piese deci P(A)=$. Dublarea mașinii înseamnă legarea în paralel a două mașini și probabilitatea de funcționare va fi $ ϕ 1 = 2 p n p 2n. Dublarea unei piese conduce la probabilitatea de funcționare $ 2 p p 2, iar doilea $105 H n P( A) = p 2 P( A) = P( A 1 ) + P( A 2 ) P( A 1 A 2 ) = 2 p p 2. p n
106 $ dublarea tuturor pieselor conduce la probabilitatea de funcționare ϕ 2 = (2 p p 2 ) n. Se demonstrează cu metode de Analiză matematică că există inegalitatea ϕ 1 < ϕ 2. Așadar, este de preferat să avem piese de schimb! Dar și mai scump! 17. Trei evenimente A, B, C au respectiv probabilitățile $ p 1, p 2, p 3 și sunt independente două câte două și în totalitate. Să se calculeze q 1 = P( A B), q 2 = P( A B C), q 3 = P( A B C). R: q 1 = P( A) + P( B) P( A B) = 1 p 1 + p 2 1 p 1 q 2 = p 1 p 2 p 3 ; + P( C) P C ( A B) + P( B) P( A B) + P( C) P C q 3 = P A B =P A 18. Un dispozitiv are 4 noduri $, care lucrează independent. Fie $ probabilitatea ca nodul $ să funcționeze neîntrerupt (1 k 4). Să se determine probabilitățile următoarelor evenimente: A=toate nodurile funcționează; B=primul nod nu funcționează, dar celelalte da; C=cel puțin un nod nu funcționează. P(C)=1 P(A). = =p 1 + p 2 + p 3 p 1 p 2 p 1 p 3 p 2 p 3 + p 1 p 2 p 3 R: P$ A ; $ ; $ și 19. Un atelier confecționează un anumit tip de piesă și probabilitatea ca o piesă să fie defectă este p. p 2 = 1 p 1 + p 1 p 2 ; P A B = a) Presupunem că piesele sunt supuse la două controale și că $106 p k primul control detectează defectul cu probabilitatea $ N k N k = p 1 p 2 p 3 p 4 P( B) = (1 p 1 )p 2 p 3 p 4 C = A p 1, iar al
107 cu probabilitatea $. Care este probabilitatea ca piesa să fie rebutată? Dar rebutată după al doilea control? e) Presupunem că piesele sunt controlate de un singur controlor, care elimină fiecare piesă defectă cu probabilitatea $ (iar dacă piesa este bună, o trimite la vânzare). Presupunem de asemenea că la control poate fi rebutată o piesă bună cu probabilitatea q. Să se calculeze probabilitatea ca după control, o piesă aleasă la întâmplare să fie: 1) rebutată; 2) rebutată din greșeală; 3) trimisă la vânzare cu defect. b) $ p 2 ( 1 p 2 ) p 2 R: a) $ p 1 1 p 1 ; p 1 p 1. 1) pp 1 + ( 1 p)q; 2) ( 1 p)q; 3) p( 1 p 1 ) 20. Un dispozitiv poate funcționa în două regimuri, cu 3 2 probabilitățile $ și, respectiv, $. Probabilitatea defectării sale în primul regim este $ și în al doilea regim $. Să se 20 2 determine probabilitatea p a defectării dispozitivului. R: Aplicând formula probabilității totale (propoziția 2.3), p = = 0,23 p Într-un atelier se fabrică un anumit tip de piese, iar probabilitatea ca o piesă să fie defectă este p. Fiecare piesă este controlată de unul din doi controlori, care detectează defectul cu probabilitățile $ p 1,$ p 2. Dacă produsul nu a fost declarat rebut în atelier, el ajunge la CTC ( serviciul de control tehnic al calității), unde defectul este detectat cu probabilitatea q. Să se determine următoarele trei probabilități pentru o piesă luată la întâmplare: a) piesa să fie declarată rebut; b) declarată rebut în atelier; c) declarată rebut de CTC. $107
108 R: Notăm A, B, C cele trei evenimente. Evident $ A = B C și $ B C =. Ca o piesă să fie rebutată, ea trebuie să fie defectă și apoi defectul să fie detectat. Folosind formula probabilității totale, rezultă că probabilitatea detectării defectului este 1 $ și, ca atare, P(B) =$. 2 p + p 1 ( 1 2 ) 2 p ( p + p 1 2 ) Apoi P(C) =$ p 1 1 și P(A)=P(B)+P(C). 2 p + p ( 1 2 ) 22. O grupă de studenți cuprinde a studenți foarte buni, b studenți buni și c studenți modest pregătiți. Studenții foarte buni pot primi la examen numai 10, cei buni primesc cu probabilități egale note 7 și cei modest pregătiți pot obține cu probabilități egale note între 1 și 8. Un student fiind examinat la întâmplare, care este probabilitatea ca acesta să ia o notă bună? R: Fie $ H 1 (respectiv $ H 2,$ H 3 ) examinarea unui student foarte bun (respectiv bun și modest pregătit). Atunci a P( H 1 ) =,,. a + b + c P H b c ( 2 ) = P( H 3 ) = a + b + c a + b + c Probabilitatea cerută este $ P( H 1 ) 1+ P( H 2 ) 1+ P( H 3 ) 2 a + b + c. 8 = 4 a + b + c 23. Un aparat poate fi procurat de la 3 depozite: două depozite au 45 aparate fără defect și 5 cu defecte, iar unul are 92 de aparate fără defect și 8 cu defecte. Care este probabilitatea ca un aparat cu defect să provină de la un depozit din primele două? R: Fie A = evenimentul aparat cu defect, $ = aparat de la un depozit din cele două și $ A 2 depozit. Folosim formula lui Bayes: A 1 = aparat provenit de la ultimul $108
109 P( A 1 A) = P( A A 1 ) P( A 1 ) P( A 1 A) P( A 1 ) + A A 2 ) P A Pe Internet se primește un flux de mesaje independente și presupunem că probabilitatea de a primi n mesaje într-un anumit interval de timp de durată t este $ t n 1. Să se determine probabilitatea ca într-un interval de timp de durată 2t să primească m mesaje. R: Dividem intervalul de durată 2t în două subintervale $, $ având aceeași lungime. Fie $ = evenimentul care constă în I 2 faptul că în $ se primesc exact j mesaje (j=0, 1,..., m). Atunci I 1 $ P(H j ) = p j (t),0 j m. Pentru ca în intervalul de durată 2t să se primească m chemări, este necesar ca în primul să se primească j mesaje și în al doilea m j mesaje. Atunci probabilitatea cerută este m p j=0 j ( t) p m j t. 25.O v.a. discretă X are o repartiție de tipul a) Să se determine matricele de repartiție pentru X+3, 2X și $. b) Să se calculeze MX, DX și $. = R: a)$ X ; $ 2X ; 0,5 0,2 0, 3 0,5 0,2 0, 3 H j X ,5 0,2 0, 3. υ 3 p n = 5 11 X 2 I 1 X ,5 0,2 0, 3. $109
110 b) MX = 0,1;$ υ 2 = 1,7 ; DX = 1,69 și $ υ 3 = 1, Fie a>0. O v.a. X are densitatea de probabilitate $ p :!!, p x, dacă 0 x < a și p(x)=0 în rest. a Să se determine MX, DX și P(X > $ ). 2 R: p este continuă pe porțiuni, p 0 și $ p( x)dx = 1. Apoi, $ X = xp( x)dx = 2 a x 1 x etc; $ și a a dx DX = ( x X) 2 0 p( x)dx Fie v.a. discrete $ X 1 1 1, $ Y 3 1. Să se calculeze MX, MY, DX și cov(x+y, X), dacă X și Y sunt independente. și cov(x+y, X) = $ M X 2 + XY MX = DX. 28. Fie h > 0 constant. O v.a. X are densitatea de probabilitate de forma $ p :!!, p x, dacă x! și $ pentru x< 0. Să se calculeze A, MX, DX și probabilitatea P(X $ µ ), unde $ µ este abscisa modei lui X (adică a punctului de maxim al lui p). = 2 a 1 x a P X > a 2 = P a 2 < X < = a p( x) dx = R: MX=$, DX=! M( X 2 ) ( MX ) 2 = 5 16, MY =$ 3 9 = MX + MY = Axe h2 x 2 0 p( x) = 0 $110
111 $ R: Din condiția p 0 și $ p( x)dx = 1, rezultă $ A = 2h 2. Rezultă MX $ = π 2h, DX = 4 π 4h,µ = 1 2 h 2, (din condiția ca p ( x) = 0 1/h 2 = 2h 2 xe h2 x 2 dx 0,39 P X µ ) și Într-o variantă simplificată de loterie, presupunem că trebuie ghicite 3 numere dintre 0, 1,..., 9. Presupunem apoi că un bilet LOTO costă 5 lei și câștigătorul primește 1200 de lei. Care este câștigul mediu? 1 R: Probabilitatea de a alege corect este $, iar 1 $ incorect. Fie X v.a. care reprezintă câștigul pentru un singur bilet; X are matricea de repartiție$ X. Câștigul 1 mediu este MX $ = Pentru n bilete = 3,8 lei jucate, loteria câștigă 3,8n lei. Ne putem imagina cât câștigă Statul din loterie: la 1 milion de bilete, câștigă aproape 4 milioane de lei! 29. O v.a. X are DX = 2. Să se estimeze $ P X X. R: Se presupune că X are medie și dispersie. Conform inegalității lui Cebâșev, $ P X X DX = Fie X, Y v.a. independente peste același câmp de probabilități și a$! f i x a t. D a c ă p$ 1 = P( X = a), p 2 = P( Y = a) și ( = a) q 1 = P min( X,Y ) = a $ p 3 = P max X,Y, să se afle $ și q 2 = P( X a si Y a ) $111
112 R: Fie A={X=a}, B={Y=a}, C={max(X,Y)=a} și D={min(X,Y)= a}. Atunci $ A B = C D și $ A B = C D deci $ P(A B) = P(C D) = P(A) + P(B) P(A B) și $ P(D) = P(A) + P(B) P(C) deci: $ q 1 = p 1 + p 2 p 3 și $ q 2 = P( X a) P( Y a) = ( 1 p 1 )( 1 p 2 ) 32. Să se arate că dacă X este o v.a. cu valori 0, atunci pentru 1 a MX orice a> 0, $ P X a (inegalitatea lui Markov). P( X a) = R: Dacă X este discretă, atunci $ * =$ P( { ω Ω i a.î. X ( ω ) = a i, a i a} ) = P X = a i unde suma se face după acei i astfel încât $ a i a. Apoi MX = a i i * a i P X = a i i * a P( X = a i ) P X = a i i i = a P( X a). = 1, X ( ω ) a Dacă X este continuală, fie $ I ω deci ai X; 0, X ( ω ) < a ( a) MX așadar, M(aI) MX adică $ a P X ω. 33. În intervalul de timp (0, 1), se transmit de la o stație radio două semnale de durată d, cu $ d < 1. Fiecare din ele începe în 2 orice moment din intervalul (0, 1 d). Dacă semnalele se suprapun chiar și parțial, atunci ele se acoperă, deci sunt distorsionate și nu pot fi recepționate. Să se determine probabilitatea ca semnalele să fie recepționate fără distorsiuni. R: Fie x, y momentele de începere a transmisiei celor două semnale. Semnalele sunt nedistorsionate $! x y > d. Fie $112 { } Ω = ( 1 d, 1 d) ( 1 d, 1 d) = ( x, y) 0 < x, y < d și
113 M = {( x, y)!" x # y > d}; M =M 1 $ M 2. 2 aria M 1! 2d Atunci probabilitatea cerut! este p= = ; figura aria! 1! d 2 Figura Pe ecranul circular, cu centrul în O "i raz! R, al unui radiolocator, apare reprezentarea punctual! a unui obiect zbur!tor care ocup! o pozi#ie aleatoare în limitele ecranului. S! se determine probabilitatea ca distan#a OP s! fie cel mult R $ (figura 2.11). 3 Figura 2.11 R: Fie $! interiorul ecranului "i M discul cu centrul în O R "i raz!. Atunci probabilitatea cerut! este p = 3 aria M aria! =! R2 9 /! R2 = Problema chibritului. Un chibrit de lungime! este rupt în trei buc!#i de lungimi aleatoare x, y, z. S! se determine Not!m $113
114 probabilitatea ca aceste buc"#i s" poat" fi lungimile laturilor unui triunghi. R: A!adar, x > 0, y > 0, z > 0, x + y + z=!. Atunci z =! - x - y deci x + y <!. Condi#ia ca x, y,! - x - y s" fie lungimile laturilor unui triunghi este ca fiecare s" fie strict mai mic" decât suma celorlalte dou", adic" $ 0 < x <!!i $. 2, 0 < y <! x + y >! 2 2 { x > 0, y > 0, x + y <!} Not"m $! = x, y!i! M = " x, y # 0 < x <! 2, 0 < y <! 2, x + y >! 2 $ %. & aria M Probabilitatea cerut" este p=$ (figura 2.12). aria! = 1 4 Figura Fie un gaz monoatomic având n molecule de mas" m!i aflat în echilibru termodinamic. Fie $! k,1 " k " n, vectorii vitez" ai moleculelor!i E $ = m energia cinetic" total". 2! ! n Starea gazului este exprimat" prin vectorul 3n dimensional $ S! 1x,! 1y,! 1z,...,! nx,! ny,! nz al componentelor vectorilor vitez". Deoarece $! ! 2 n = 2E m, rezult" c" punctul S se afl" pe hipersfera $! :" 2 1x +" 2 1y +" 2 1z +...+" 2 nz = 2E. m 114
115 $ R 2 = 2E. Să se determine probabilitatea ca pentru A>0 dat, m toate componentele $ ν 1x,ν 1y,ν 1z,...,ν nx,ν ny,ν nz să fie cel mult egale cu A. R: Notăm { } M = S 0 υ 1x A, 0 υ 1y A, 0 υ 1z A,...,0 υ nx A Această mulțime M este o hiperzonă sferică a lui Ω$. Probabilitatea cerută este A R = 3n 3 dx $ p = vol M 2 x 2 0 ; x = Rt etc. R vol Ω R 2 x 2 R 3n 3 dx Notă: Geometria n dimensională poate părea o fantezie matematică. Dar nu este așa! Iată un exemplu deosebit de sugestiv: Să considerăm două bile concentrice din $! n având centrul în origine, cu razele r<r. Volumele lor sunt $ v = c n r n și n 2 π $ V = c n R n, iar $ c n =. În aceste condiții avem: Γ n pentru n=1, $ c 1 = 2, bila de rază r este ( r, r), cu lungimea ( hipervolumul 1D ) egală cu 2. - pentru n=2, $ c 2 = π, bila 2D este discul de arie $ πr 2, iar apoi $ c 2 = 4π 4π și volumul este $, așa cum ne așteptam. 3 3 r 3. V v C a a t a r e, $ V = c n Rn c n r n c n R n = 1 r R n ș i p e n t r u n r V v $ n,. Așadar, $ deci $ în spațiul R 0 V 0 V V v $115
116 $! n de dimensiune mare. Ca atare, volumul bilei mari este concentrat spre frontieră ($ coajă). Nu cumva din acest motiv, schimbul de căldură dintre corpuri se realizează prin frontieră și tot astfel, sarcinile electrice se concentrează la suprafața conductorilor? $116
117 Există minciuni, minciuni blestemate și minciuni statistice. B. DISRAELI (prim ministru englez) CAPITOLUL 3: LEGI TEORETICE DE REPARTIȚIE În acest capitol, prezentăm câteva legi teoretice de repartiție (# distribuție) a unor v.a. Există multe fenomene întâlnite în practică, supuse unor astfel de legi, în sensul că diversele selecții de date experimentale, presupuse eșantioane reprezentative, sunt organizate similar cu cele câteva modele teoretice standard. Statisticianul sau utilizatorul responsabil al metodelor statistice trebuie să cunoască bine aceste modele și să urmeze recomandările specialiștilor. În fața unor selecții de date statistice, el trebuie să calculeze setul principalelor caracteristici statistice empirice (conform definițiilor ) și să le compare cu setul corespunzător rezultat din aplicarea unor legi teoretice, înainte de luarea deciziei statistice. Vom presupune fixat (și subînțeles) un câmp de probabilități (# Ω, K, P) Legea binomială a lui Bernoulli Fixăm o v.a. discretă X având matricea de repartiție X n p 0 p 1 p 2... p n. Pentru o astfel de v.a., conform definițiilor 1.3 și 1.5, #117
118 n n! MX = kp k, ν = k 2 p k și! DX = ν 2 ( MX ) 2 (1) Să considerăm funcția auxiliară! ϕ u și înlocuind u=1, rezultă! ϕ 1, iar! ϕ 1 k=1 p k. Așadar, conform (1),, și. Atunci Definiția 3.1: Fie p! (0, 1) un număr real fixat, q=1 p și n 1 un număr natural fixat. Se spune că X este repartizată binomial ( Bernoulli) cu parametrul p și cu n+1 valori, dacă X are matricea de repartiție unde! p k = C k n p k q n k ; 0 k n. Se mai scrie atunci că! X B p, n., TEOREMA 3.1: Dacă! X B p, n, atunci (2) MX = np și DX = npq. (3) Demonstrație: În acest caz, p! k = C k n p k q n k deci! ϕ u = pu + q, conform formulei binomului lui Newton. k=0 k=1 Așadar,! ϕ u,! ϕ u, deci! ϕ 1 și! ϕ 1. k=0 n! ϕ ( u) = kp k u k 1 și! ϕ u n = k 2 k MX = ϕ 1 DX = ϕ 1 n = ( pu) k q n k k=0 n = p k u k k=0 n = k( k 1) p k u k 2 k=1 n = kp k k=1 υ 2 = ϕ ( 1) + ϕ ( 1) + ϕ ( 1) ϕ ( 1) 2 X n p 0 p 1 p 2... p n n = n( pu + q) n 1 p = n( n 1) ( pu + q) n 2 p 2 = np = n( n 1) p 2!118
119 # DX = n n 1 Aplicând (2), rezultă că MX=# ϕ 1 și Fără a mai da detalii, avem următorul set de caracteristici statistice pentru orice v.a.: = np p 2 + np n 2 p 2 = np ( n 1) p +1 np = np( 1 p) = npq. Media #υ 1 = MX Momentul #υ 2 Dispersia DX Coeficient asimetrie, A Coef. exces (aplatizare), E Np n 2 p 2 + npq npq q p npq 1 6 pq # 3+ npq (4) Definiția 3.2: Se numește experiment Bernoulli (dichotomic) orice experiment # ε în care apar numai două evenimente semnificative, A și # A, unde probabilitatea P(A)=p (0 < p < 1) este nemodificată prin repetarea experimentului. Într-un experiment Bernoulli, singurele evenimente sunt #, A, A și evenimentul sigur 1, cu probabilitățile respective 0, p, q, 1. Exemple: 1) În practică se întâlnesc multe experimente Bernoulli având ca rezultate: da/nu, succes/insucces, alb/negru, câștig/ pierdere, 1/0, funcționează/nu funcționează etc. 2) Aruncarea cu o monedă corectă este un experiment Bernoulli, luând A= stema și # A = banul. În acest caz, # p = 1 și 2 # q = 1. Aruncarea cu zarul nu este experiment Bernoulli. 2 Considerăm un singur experiment Bernoulli # ε și asimilăm evenimentul A cu succesul. Câmpul discret de probabilități asociat, conform definiției 2.2, poate fi identificat cu codul binar { } B = {0,1} și succesul este evenimentul A = {1}. Atunci # A = 0 și #119
120 fie p=p(1) deci P(0)=q=1 p. Experimentul! ε constă în alegerea unuia din cei doi biți 0, 1. Repetăm! ε de n ori (sau echivalent, efectuăm n experimente Bernoulli independente). Atunci se obține un alt experiment, având câmpul (B n, P), unde evenimentele elementare! ω = a 1,a 2,...,a n sunt cuvintele binare cu n biți, în număr de 2 n. Numărul de succese s ω este acum numărul de componente (biți) ale lui! ω egale cu 1. Deoarece P(1)=p și P 1 (0)=q, în ω, vom avea s( ω ) componente egale cu 1 și n s( ω ) componente egale cu 0. Experimentele fiind independente, rezultă că probabilitatea lui! ω este egală cu produsul probabilităților componentelor 17, deci { } P( ω ) = p s( ω ) p n s( ω ) (5) 17 Am notat cu același P probabilitatea în cazul unui singur experiment sau în cazul repetării acestuia. Fixând n și repetând de n ori experimentul Bernoulli, numărul de succese s este exact numărul de cuvinte de n biți! ω care au unele componente egale cu 1; astfel! s ω înseamnă că! ω are exact r componente egale cu 1 și numărul acelor! ω cu această proprietate este!. C n r = r TEOREMA 3.2: Fie s = numărul de succese (în repetarea de n ori a unui experiment Bernoulli). Acesta este o v.a. discretă, având matricea de repartiție s n p 0 p 1 p 2... p n, = C n r p r q n r, 0 r n s B p,n unde! p r = P s = r, deci!. Demonstrație: Pentru 0 r n, P(s = r) = P( ω s( ω ) = r) = P( ω ) = ω,s( ω )=r = p s( ω ) q n s( ω ) = p r q n r. ω,s( ω )=r ω,s( ω )=r!120
121 = r r Dar există # C n evenimente elementare # ω B n, astfel încât # s ω (adică, cuvinte de n biți care au câte r componente egale cu 1). Atunci P(s=r)=# C k n p k q n k. Reamintim că p este probabilitatea ca într-un singur experiment Bernoulli să apară bitul 1 (adică să avem succes). COROLAR 1: Pentru orice numere întregi a, b, astfel k încât 0 a < b n, avem # P(a s b) =# C n p k q n k. Demonstrație: Evenimentul # a s b este diferența evenimentelor {s b} și {s a 1}, deci P(a s b) = P(s b) P(s a 1). Dar {s b} este reuniunea evenimentelor {s = 0}, {s = 1},..., {s = b}, incompatibile două câte două, deci b = C k # P s b. r=0 n p k q n k COROLAR 2: Pentru n, p fixate, numărul M cel mai probabil de succese satisface inegalitățile np q M np + p. (6) Demonstrație: Trebuie determinat acel M, astfel încât # p M p M +1 și # p M p M 1 ; se folosește formula # p k = C k n p k q n k etc. Exemple: 1) Fie # ε = experimentul Bernoulli care constă în jucarea unui set de tenis între doi jucători t, t de valoare egală. Fie A evenimentul setul este câștigat de t ; atunci P(A) =#. Dacă se joacă n seturi (adică # ε se repetă de n ori), atunci evenimentul t câștigă k seturi (independente) are probabilitatea # p k = C k n p k q n k k 1 1 = C n. 2 2 = C k n 2, 0 k n n 2) Presupunem că într-o fabrică de cărămizi se realizează trei tipuri de produse: cărămizi foarte bune, cărămizi știrbite și k b r=a { } n k 1 2 #121
122 rebuturi (ultimele două se numesc neconforme). Să presupunem că 5% din cărămizi sunt neconforme. a) Care este probabilitatea ca, dintr-un lot de 25 de cărămizi luate la întâmplare, să existe două neconforme? b) Care este numărul mediu de cărămizi neconforme dintr-un lot de 1000 de cărămizi? R: a) Fie s=numărul de cărămizi conforme (le numim succese ). Pentru n=25 și p=0,95, avem P(s=23)=! b) Pentru n! = 1000, numărul mediu de cărămizi foarte bune este Ms = np = 950 deci numărul celor neconforme ar fi 50. 3) Să se determine probabilitatea de a obține de cel puțin două ori fața 6 dacă se aruncă un zar de 4 ori. R: Aruncările repetate sunt un experiment Bernoulli cu n = 1 4, p =! iar probabilitatea de a obține de r ori fața 6 este 6! p r = Cr n( 1 ) r ( 5, conform teoremei 3.2. În exemplul nostru, 6 6 )n r trebuie calculat! p 2 + p 3 + p 4 = 1 p 0 p 1. 4) Să presupunem că probabilitatea confecționării pe o mașină unealtă a unei piese corecte este 0,92. Care este cel mai probabil număr M de piese defecte printre 20 luate la întâmplare? R: Să definim drept succes confecționarea unei piese defecte, deci p = 0,08 și q = 0,92. Folosind formula (6) pentru n=20, rezultă C , ,05 2 0,23.! 20 0,08 0,92 M 20 0,08 + 0,08, deci 0,68 M 1,68 și, ca atare, M = ) S-a constatat că! din producția de piese a unui atelier 15 nu satisface standardele cerute. La un control de calitate s-au!122
123 selecționat 100 de piese la întâmplare. Care este numărul cel mai probabil de piese corecte din acea selecție? Care este probabilitatea de a atinge exact acel număr? 14 1 R: În acest caz, n = 100, p = # și q =#. Folosind (6), se obține M=94. Probabilitatea ca din 100 de piese să avem 94 corecte este, conform teoremei 3.2, ! # p 94 = C = C 100 = !94! Vom vedea ulterior un calcul aproximativ al lui # p 94, folosind legea lui Gauss. În calculul factorialelor, se recomandă următoarea formulă aproximativă a lui Stirling: # n! n n e n 2πn, pentru orice n 1. Câtul celor doi membri tinde către 1 pentru # n. De exemplu, 4!# 23,5 (nu 24) și eroarea relativă 24 23,5 # este egală cu 2,1%; iar 10! # cu Stirling, iar 24 exact, , cu eroarea relativă 0,8%. Pentru 20! eroarea relativă este 0,4% etc. Astfel de date pot fi utilizate pentru a vă testa calculatorul personal! 6) Să se determine probabilitatea ca: a) aruncând o monedă de 5 ori să cadă stema de 3 ori; b) aruncând un zar de 6 ori să apară de două ori fața 2. R: a) X = stema (# succesul), # X B 1 și k=3, deci 2, # p 3 = C = #123
124 2 1 5 b) X = fața 2 ;! X B 1 și! p 6 = C 6. 6, ,201 7) Mihai aruncă o monedă corectă de n ori și Tudor de n+1 ori (aruncări independente). Fie X (respectiv Y) numărul de succese ( steme ) obținute. Notăm U = min(x, Y), V = max(x, Y). Să se determine: a)! U+V în funcție de n; b) P(X<Y). R: a) Avem! și! V = 1 2 X + Y + X Y, deci U+V = X+Y. Atunci U+V=U+V! = X+Y = X+Y=np + n +1 (căci X,! Y B 1 și! p = 1 ). 2, n 2 U = 1 ( 2 X + Y X Y ) 2 4 p = 2n +1 2 b) Apoi n! X B 1 deci P(X<Y)=P(n X<n+1 Y)= 2, n P(Y < X +1)=P(Y X ). D a r P ( Y X )=1 P(X<Y), d e c i 1 P(X<Y)=1 P(X<Y) și P(X<Y)=!. 2 8) Considerăm n experimente Bernoulli independente, cu 1 probabilitatea de succes!. Spunem că avem o suită de succese 2 de lungime k (1 k n) dacă se realizează k succese consecutive, precedate și succedate de insucces. Să se determine media numărului de suite de succes. X r R: Fie! =numărul suitelor de succese în experimentul r. Avem de calculat M! X n. Avem M! X =! 1 1 și pentru r 2, diferența 2! X r X r 1 va fi egală cu 1, dacă la cel de-al (r 1) lea experiment!124
125 # # avem insucces, iar în al r lea avem succes și 0 în caz contrar. Atunci = 1 4 M# X r X r 1, deci MX n = MX n = MX + 1 n 2 2 =... = MX + n = n Legea evenimentelor rare a lui Poisson Definiția 3.3: Fie # λ > 0 un număr real fixat. Se spune că o v.a. discretă X este repartizată Poisson cu parametrul # λ, dacă v.a. are valori naturale cu matricea de repartiție n... # X, unde p 0 p 1... p n... # p k = λ k. Se mai scrie că #. k! e λ,k 0 X P λ TEOREMA 3.3: Dacă # X P λ, atunci MX =# λ și DX = # λ. (7) Demonstrație: Considerăm funcția auxiliară ϕ u (Am folosit faptul că # e x = ). Atunci # ϕ ( u) = e λ( u 1) λ și k=0 k! = e λ u 1 # ϕ u λ 2, deci # ϕ 1 și # ϕ 1. Aplicând formulele (2), rezultă MX = # λ și DX = # λ 2 + λ λ 2 = λ. v.a. # X P λ. λ k = k=0 k! e λ u k = k=0 = p k u k k λu = e λ k=0 k! = e λ x k e λu = e λ( u 1). = λ = λ 2 Avem următorul set de caracteristici statistice pentru orice #125
126 !! v 1! v 2 DX A E ( aplatizare)! λ λ + λ 2! λ 1 λ 3+ 1 λ (8) Notă: Legea Poisson de repartiție a valorilor unei v.a. X se mai numește legea evenimentelor rare, deoarece probabilitățile! = P(X = n) tind către zero pentru! n. p n Exemple: 1) Studiile de securitate au arătat că siguranța instalațiilor energetice nucleare depinde în mod sensibil de fiabilitatea pompelor. Notând X = numărul de defecte la pompe, pe o perioadă de 10 ani, s-a constatat că X este repartizat Poisson și că numărul mediu de defecte este 0,6. Care este probabilitatea să existe cel puțin un defect? R: Parametrul este! λ = MX = 0,6. Atunci P(X 1)=1 P(X=0) =! 1 p 0 = 1 e 0,6 0,45. 2) Probabilitatea de a produce un șurub defect într-un anumit atelier este p = 0,01. Care este probabilitatea ca un lot de n = 100 de șuruburi să conțină cel puțin două defecte? R: Folosirea repartiției Bernoulli conduce la calcule laborioase. Dar evenimentul șurub defect este rar și poate fi considerat de tip Poisson, cu parametrul! λ = np = 1. Atunci probabilitatea a k defecte este! p k = λ k. Avem de estimat k! e λ,k 0 p 2 + p 3 + p p 100 = 1 p 0 p 1 = 1 e 1 λe 1 = 1 2 e 0,26. Notă istorică: Repetările unor experimente independente Bernoulli!, având aceeași probabilitate de succes p, se mai numesc scheme Bernoulli. Numele Bernoulli îl poartă mai mulți matematicieni elvețieni: Jacob a fost unul din fondatorii T.P. și autorul primului manual de Analiză matematică (atribuit marchizului de!126 ε
127 # # l Hospital); Daniel fondator al Hidrodinamicii etc. Poisson a pus problema de a repeta experimente independente Bernoulli cu parametri # p 1, p 2,..., p n,..., din ce în ce mai mici, astfel încât # lim p n = 0 n, deci cu probabilitate de succes din ce în ce mai mică. În acest caz, se spune că se modelează evenimente rare ; de exemplu, bruiaje naturale la stații telefonice, număr de clienți așezați la cozi ( fire de așteptare ), naștere de gemeni, explozii catastrofale etc. În acest caz, se spune că repetările respective urmează schema Poisson. Denis Poisson este și autorul unor teoreme importante de Analiză matematică și Mecanică cerească. Rezultatul principal îl constituie PROPOZIȚIA 3.3 : Presupunem că se efectuează serii independente de experimente Bernoulli cu parametri # p 1, p 2,..., p n,... astfel încât # lim p n = 0 și # lim n p = λ (cu # λ > 0 n ). n n s n Notăm cu # numărul de succese la experimentul n. Atunci pentru orice k 0 avem lim P s n = k n = λ k k! e λ. (9) Demonstrație: Notăm np # n λ = α n = 0. A t u n c i p# n = λ și n + α n n P( s n = k) = C k n p k n ( 1 p n ) n k = n n 1 Așadar # p n = 1, (10) k! C D n n unde λ C n = n( n 1)... ( n k +1) n + α n n... ( n k +1 ) λ n k n + α k n n 1 λ n α n n # = 1 1 și # n 1 2 n... 1 k 1 n λ k 1+ α n n D n = 1 λ n α n n k = n ( n 1 )... n k +1 k n k n k ( λ + α n ) k = n k #127
128 Deoarece limα n = 0, rezultă că lim 1+ α n și. n n λ = 1 limc n = λ k n k În fine, lim D n = lim 1 λ n n n α n n n k = e λ (nedeterminare de tipul 1 ). Atunci din (10) rezultă 1 lim P s n = k n = lim n k! C D = λ k n n k! e λ. COROLAR: Experimentele Bernoulli rare (probabilitate din ce în ce mai mică) tind să urmeze legea Poisson de repartiție cu parametrul! λ = lim. Ca atare, numărul de succese este o v.a. X, astfel încât λ k P(X=k) =!, adică! X P λ. k! e λ Exemple: 1) Presupunem că la 100 de convorbiri telefonice au loc în medie 40 de bruiaje naturale aleatoare (neforțate). Care este probabilitatea de a avea o convorbire fără bruiaje? Dar una cu cel puțin două bruiaje? R: Fie X=numărul de bruiaje. Aplicăm schema Poisson, deci! X P λ cu! λ = MX (conform (7)), așadar! λ = 100. Atunci, 40 = 2,5 2,5 k pentru orice k 0, P(X = k) =!. Într-o convorbire fără bruiaje avem X=0, deci P(X=0)=! p 0 = e 2,5 0,082 ;!128 n np n k! e 2,5 apoi, P(X 2) = 1 P(X<2) = 1 (P(X=0)+P(X=1)) =! 1 e 2,5 2,5 e 2,5 = 1 3,5 e 2,5 0,713. 2) Fie! X P λ. Să se determine M! e X.
129 R: # M e X = e k e λ λ k k=0 k! = e λ k=0 ( λe) k k! = e λ e λe = e λ e Legea repartiției geometrice Definiția 3.4: O v.a. discretă X se numește repartizată geometric cu parametrul p (0 < p < 1), dacă are matricea de repartiție n... # X ; p pq pq 2... pq n 1... Se mai scrie # X G p. Denumirea geometrică amintește de progresiile geometrice. PROPOZIȚIA 3.4. Dacă # X G p, atunci 1 1 p MX=# și DX =#. (11) p p 2 Demonstrație:# MX = p + 2 pq + 3pq npq n = = p( 1+ 2q + 3q nq n ). Notăm S # = q + q q n +... q având rația q, 0 <q<1), deci S =#. 1 q (o progresie geometrică Atunci 1+ # 2q + 3q nq n = S q 1 = ( 1 q) 2, deci p MX=#. Înmulțind apoi cu q relația anterioară, ( 1 q) = p 2 p = 1 2 p q rezultă q # + 2q 2 + 3q nq n +... = și, prin derivare, 1 q 2 # q q n 2 q n = 1+ q. 1 q 3 #129
130 ! Așadar, ν 2 = M X 2 = 1p pq pq n 2 pq n = p 1+ q = p q q n 2 q n = 1+ q ( 1 q) = 1+ q 3 p 2 În fine, DX =! v 2 MX 1. p = q 2 p = 1 p 2 Fie! ε un experiment Bernoulli, în care succesul este un eveniment A care apare cu probabilitatea P(A)=p. Să notăm cu X=numărul de repetări independente ale lui! ε, până ce apare evenimentul A. Atunci P(X=1)=p și P(X=2) este probabilitatea ca în prima serie să apară! A și, în a doua, A; apoi {X=3} înseamnă succesiunea! A,! A, A etc. Așadar, P(X=2) = pq, P(X=3) =! q 2 p etc., deci! X G p. Așadar, prin repartiția geometrică se modelează numărul de încercări independente până se obține un succes. Exemplu: 1) Aruncăm o monedă corectă și fie X=numărul de aruncări până ce apare stema Atunci P(X=1)=!, P(X = 2)=!,..., P(X=n)=! etc. și X n 1 este o v.a. discretă repartizată geometric, cu parametrul p =!. 2 2) Numărul de cicluri de încărcare ale unei baterii până ce bateria se strică este o v.a. repartizată geometric (aici succesul este stricarea!). În mod similar este numărul de probe inspectate până ce se determină prima probă neconformă cu standardul. Repartiția hipergeometrică Considerăm o urnă având N bile (șuruburi, obiecte etc.) cu N 2, dintre care M sunt albe (șuruburi fără defecte!), iar celelalte N M negre (cu defecte). Probabilitatea de a extrage o bilă albă!130 p 2 p 2
131 # M ( șurub fără defect ) este p=# și a uneia negre este N # q = N M = 1 p. Probabilitatea de a extrage, la întâmplare, N simultan, m bile albe în n extrageri independente este # C m n p m 1 p Dar, extragând bile cu întoarcere, probabilitatea de a obține m bile albe din n extrageri (cu extrageri una după alta, neindependente, cu reținerea culorii) este [Într-adevăr, există # moduri de a extrage n bile din totalul de N; apoi # este numărul de moduri de a extrage m bile albe din n m cele M și, similar, # este numărul de moduri de a extrage n m bile din cele N M, ultimele două moduri împerechindu-se]. Fie X=numărul de bile albe (respectiv șuruburi fără defect) care pot apărea din cele n extrageri cu întoarcere. Se obține astfel o v.a. discretă cu valorile posibile 0, 1,..., n și matricea de repartiție n m, pentru 0 n m. p m = C m n m M C N M, 0 m n. n C N C M m m... n # X, p 0 p 1... p m... p n unde P(X=m)=# p m C N n C N M. Această lege de repartiție este numită n hipergeometrică. Se poate arăta că MX=# și că dacă N, M, N M N M sunt mari în comparație cu n, repartiția hipergeometrică se M apropie de cea binomială cu p =#. N Exemple: 1) Repartiția hipergeometrică modelează numărul m de succese (# bile albe sau șuruburi fără defect) din #131
132 n încercări, atunci când într-o populație de N bile, există M bile albe. De exemplu, dacă dintr-un lot de N piese, M au defect și se extrag la întâmplare n piese, probabilitatea ca m din acestea să fie defecte este! 2) Într-o urnă cu 10 șuruburi, 7 sunt fără defect și extragem două șuruburi deci N=10, M=3, n=2 deci probabilitatea a m bile fără defecte este! p m = C m 2 m 3 C 7 cu 0 m 2 (în cazul m întoarcerii) și în cazul extragerii deodată, este! 3 7 C ) Cea mai importantă aplicație a repartiției hipergeometrice o constituie loteria 6 din 49. Dintr-o urnă de N=49 bile (! numere de la 1 la 49) se extrag n=6 bile care vor fi câștigătoare. Probabilitatea ca r alte bile din cele N să fie printre C r 6 r cele câștigătoare este! 6 C De exemplu,! p 6 = 1 (deci pentru a avea 6 rezultate corecte trebuie jucate 14 milioane de buletine!). p m = C m n m M C N M. n C N C 49 2 C 10 Similar,! p 5 = și! p etc. 6 4 = C 49 Notă: Modelul urnei poate fi folosit și în prezentarea legii binomiale. Anume, avem o urnă cu bile albe și bile negre, notăm cu p probabilitatea de a extrage o bilă albă. După ce se extrage o bilă și se notează culoarea ei, aceasta se aruncă la loc în urnă. Se repetă experimentul de n ori și se notează cu s numărul final de bile albe. Atunci! s B p,n. Din cauza acestei interpretări, schema C 49 Bernoulli se mai numește schema bilei întoarse. m 6 C 49 2 m !132
133 # În continuare, prezentăm alte trei legi teoretice de repartiție, anume pentru v.a. continuale (deci cu valori în anumite intervale). Ca limbaj mai lejer, în loc de a spune că o v.a. este repartizată conform legii L, se mai spune că ea ascultă sau se supune legii L Legea uniformă Definiția 3.5: Se spune că o v.a. X este repartizată uniform într-un interval [a, b], dacă are densitatea de probabilitate 1 # p :!!, p( t) = b a, t [ a,b ]. 0, altminteri Se observă că p 0 și că # p( t)dt = 1. Se scrie # X U a,b. Graficul funcției p este indicat în figura 3.1. Aria de subgrafic este egală cu 1. [ ] Figura 3.1 PROPOZIȚIA 3.5: Dacă # X U a,b, atunci [ ] 2 a + b b a MX= # și DX=#. (12) 2 12 Demonstrație: Conform definiției 2.13, #133
134 ! b 1 MX=! tp( t)dt = t dt = 1 și a b a b a t 2 = b + a 2 a 2 DX=! ( t MX ) 2 ( t)dt = 1 b t a + b, b a 2 dt = b a a 12 b Utilizarea numerelor aleatoare în diverse situații poartă numele de tehnici Monte Carlo, numele unuia din cele trei orașe ale statului Monaco, aflat la țărmul Mării Mediterane la frontieră cu Franța. Celebrul Cazinou a fost construit în 1866, fiind frecventat de diverși aventurieri, jucători tensionați, drogați și cu banii luați. Ruletele de cazinou sunt, de fapt, generatoare de numere aleatoare. John von Neumann a studiat mișcarea particulelor în reacțiile nucleare, folosind numere aleatoare și tot el a fost cel care a dat numele de metode Monte Carlo, celor folosite în simularea multor procese, inclusiv în cele de tip random walks. după un calcul simplu. APLICAȚIE (tehnici Monte Carlo 19 ) Se numește șir de numere aleatoare, repartizat uniform în intervalul [a, b], orice șir! x 1, x 2,...x n,... de valori ale unei v.a.! X U [ a,b]. Dacă! f : a,b este o funcție continuă, atunci conform formulei (26) din Capitolul 2. Dar f(x) este o v.a. și! f ( x 1 ), f ( x 2 ),..., f ( x n ) este o selecție de valori ale lui f(x). Ca atare, Mf(X)! 1 n f x 1. Așadar, se obține o formulă de calcul al unor integrale definite prin metode probabiliste. Anume, [ ]! f ( t)dt = b a f t b! f ( t) dt b a f ( x 1 ) + f ( x 2 ) f ( x n ) (13) a n, unde! x 1, x 2,..., x n sunt numere aleatoare din [a, b]. Calculatoarele moderne au încorporate generatoare de numere aleatoare (nu neapărat repartizate uniform). De asemenea, există tabele de numere aleatoare repartizate uniform în intervalul [0, 1]. Folosind aplicația bijectivă! u :[ 0,1] [ a,b], u( x) = a + ( b a)x, se obțin imediat numere aleatoare repartizate uniform într-un inteval oarecare [a, b]. Sau, altfel, dacă avem integrala I! = b a + f ( x 2 ) f ( x n ) p( t)dt = ( b a)mf ( X), f ( t)dt, se face 1 substituția t=a+x(b a) și atunci I=(b a)! f ( a + x( b a) )dx etc.!134 0 b a
135 # 3 dt Exemplu: Calculăm # I = ; făcând substituția t=x+2 2 lnt 1 dx rezultă # I = și accesând o secvență de 5 numere 0 ln x + 2 aleatoare # x 1, x 2,..., x 5 rezultă # I ln( x 1 + 2) ln( x 5 + 2) Integrala I nu poate fi calculată cu formula Leibniz Newton. Tehnicile Monte Carlo sunt folosite și în alte aplicații, de exemplu în simulări pe calculator. Dăm încă o aplicație. Fie un dreptunghi D=[a, b]x[c, d] și f(x, y), # f : D! fiind o funcție continuă, iar dacă # este un șir de puncte aleatoare, uniform repartizate în D, atunci are loc formula aproximativă: # f ( x, y) dxdy aria D ( f ( P, D n 2 1 ) + f ( P 2 ) f ( P n )) cu # n 1 convenabil ales. P k 3.5. Legea exponențială Definiția 3.6: Fie # λ > 0 fixat. Se spune că o v.a. continuală X este repartizată exponențial cu parametrul # λ, dacă are densitatea de probabilitate de forma p :!!, p t = 0, t 0. λe λt, t > 0 Se scrie # X E λ. Se observă că p 0 și # p t dt = 1. Graficul lui p este indicat în figura 3.2. TEOREMA 3.6: Dacă # X E λ, atunci # MX = 1 și # DX = 1. (14) λ λ 2 #135
136 !! Figura 3.2 Demonstrație: Conform definiției 2.13, MX = și integrând prin părți, rezultă că! MX = 1. Apoi λ! DX = t 1, λ p ( t )dt = λ t 1 λ e λt dt = 1 λ 2 după două integrări prin părți. APLICAȚIE: (la studiul fiabilității dispozitivelor) Considerăm un dispozitiv care intră în funcțiune la momentul t = 0 și iese din funcțiune, defectându-se, la un moment aleator! τ τ > 0 tp( t)dt = t λe λt dt. Aceasta este una din cele mai importante variabile aleatoare din inginerie, dar și din studiul organismelor vii sau sociale. Media (statistică) a momentelor de primă defectare a dispozitivelor de tip, începând cu momentul t = 0, este numită timpul mediu de bună funcționare a lui, notat TMBF( ). Notăm cu F funcția de repartiție a lui! τ, deci, pentru orice! t!, F( t) = P( τ t); fie G( t) = P( τ > t) = 1 F( t). Facem ipoteza că există o constantă! λ > 0, astfel încât probabilitatea ca momentul! τ să fie situat în intervalul de timp [t, t+h], h>0, de îndată ce! τ este posterior lui t, este de forma α h! P( τ [ t,t + h] τ > t) = λh + α ( h), unde lim! = 0 (se mai h 0 h scrie! α h pentru! ). 2 Aplicând formula (7) din Capitolul 2, rezultă!136 = 0( h) h 0 2
137 # # α h # P( τ [ t,t + h] τ > t) = λh + α ( h), unde lim # = 0 (se mai h 0 h = 0( h) h 0 scrie # α h pentru # ). Aplicând formula (7) din Capitolul 2, rezultă P( A B) = P( B) P A B # P( τ > t + h) = P( τ > t) P τ > t + h τ > t, de unde G(t + h) = # G( t) 1 λh α h 1 h G t + h G( t), deci La limită, pentru # h 0, rezultă # G t. Atunci G t # = λ și, prin integrare, ln # G( t) = λt + ln C, deci G t # G t, cu C constantă arbitrară. Înlocuind t=0, rezultă C=G(0)=1 F(0)=1 P#. Dar P# =0, căci defectarea lui nu poate fi anterioară momentului t=0. Ca atare, C=1 și # G t, pentru t 0. = λg t Așadar, # F t și # p t 1 e λt, t > 0 TEOREMA 3.7: În condițiile indicate, momentul # τ al primei defectări a dispozitivului este repartizat exponențial 1 #( τ E λ ), unde parametrul # λ este tocmai # λ =. TMBF Δ Am văzut la teorema 3.6 că dacă X este o v.a. repartizată 1 exponențial cu parametrul # λ, atunci MX =# deci # λ = 1. În λ MX cazul dispozitivelor de tip, pentru a determina TMBF( ) și # λ, se urmăresc N dispozitive identice, începând cu momentul t=0; #137 α ( h) h. = Ce λt ( τ 0) ( τ 0) = e λt = 0, t < 0 = λg( t) = F ( t) = 0, t < 0. λe λt, t > 0
138 !! Exemplu: Presupunem că TMBF( )=1000 ore și ne propunem să determinăm probabilitatea ca dispozitivul să funcționeze cel puțin 200 ore. Așadar, notând cu! τ momentul primei defectări, avem! λ = 1 ș i p r o b a b i l i t a t e a c e r u t ă e s t e Mτ = P( τ > 200) = 1 P( τ 200) = 1 F( 200) = e λ 200 = e 0,2 0,82 Notă: Statisticienii specializați în fiabilitate (! siguranța în funcționare) recomandă ca în locul repartiției exponențiale, să se utilizeze legea lui Weibull, care este caracterizată prin funcția de 1 exp λt repartiție! F :!!, F( t) ( ( = )β ), t > 0, 0, t 0 depinzând de parametrii! λ > 0, β >0. Pentru! β = 1 se regăsește repartiția exponențială. Reamintim că în Analiza Matematică se introduce o funcție specială, tabelată funcția % Γ ( gamma ), definită prin = x a 1 e x! Γ α dx (pentru orice! α > 0 ); proprietățile ei principale sunt:! Γ( 1) = 1, Γ( n) = ( n 1)! pentru orice n 1 natural, π! Γ( α ) Γ( 1 α ) =, (pentru orice 0<! α <1) și sinπα! Γ 1. 2 = π Se poate arăta că dacă X este o v.a. supusă legii lui Weibull, atunci!138 0 Γ( α +1) = αγ( α )! MX = 1 și!. λ Γ β +1 β DX = 1 Γ β + 2 λ 2 β β +1 Γ2 β.
139 # # Γ 1. 2 = π Se poate arăta că dacă X este o v.a. supusă legii lui Weibull, atunci # MX = 1 și #. λ Γ β +1 β DX = 1 Γ β + 2 λ 2 β β +1 Γ2 β Exemplu: S-a constatat că pentru # λ = 0,4 și # β = 2, legea lui Weibull modelează rezistența X la rupere a fibrelor de carbon care au lungimea de 50 mm și diametrul de 8 microni. Specificațiile sugerează că 99% din fibrele de carbon trebuie să aibă rezistența la rupere de minim 1,2 GPa (gigapascali). Ne propunem să determinăm rezistența medie MX și probabilitatea p ca rezistența la rupere să fie 1,2 Gpa. Avem MX = 1 λ Γ β +1 β = 5 2 Γ 3 2 = 5 2 Γ = Γ 1 2 = 5 4 π ; Apoi, p=p(x 1,2)=1 P(X<1,2)= =1 F(1,2)=# e ( 0,4 1,2)2 = e 0,23 0,79. Completare la 3.5. Legea exponențială (lipsa de memorie) Distribuția (# legea) exponențială depinde de un parametru, în mod clasic notat cu λ, pe care îl putem numi rată, rata la care apar evenimentele. Conform definiției 3.6., funcția de repartiție a unei v.a. # X E λ (notată și Expo(λ)) este # F(x) = λe λx dx = 1 e λx, pentru # x 0 și F(x)=0 pentru x<0, ne vom întreba de ce este această distribuție așa de importantă încât să ne ocupăm de ea. Înainte de a da un răspuns, să caracterizăm mai complet distribuția exponențială, calculându-i media și dispersia. x 0 #139
140 !! Observație: Dacă punem Y = λx, atunci Y Expo(1) E1, unde cu X și Y am notat v.a., iar cu Expo(1), am notat exponențiala cu rata λ=1; evident, F(y)=0 pentru y>0 și! F Y (y) = P(Y y) = P(X y. λ ) = F ( y X λ ) = 1 e y, y 0 Media lui Y = momentul de ordin 1 al lui Y este: Y=! M (Y ) = ye λx dy = ye y 0 + e y dy = 1. 0 Dispersia lui Y = momentul de ordin 2 al lui Y este! Var(Y ) = M (Y 2 ) (MY ) 2 = y 2 e y dy 1 = 1. Acum, este simplu să calculăm pentru x, dacă ne întoarcem la expresia generală. Deci! X = Y și λ M (X) = M (Y λ ) = 1 λ M (Y ) = 1 λ 0 0 Var(X) = Var( Y λ ) = 1 λ 2 Var(Y ) = 1 λ 2 Acum putem să dăm răspunsul întrebării precedente: pentru ce este importantă distribuția exponențială? Anume, pentru proprietatea lipsei memoriei. Ce înseamnă aceasta? Înseamnă că oricât am aștepta, după orice timp t este ca și când am lua-o, proaspăt, de la zero cu așteptarea (dacă, de exemplu, parametrul ar fi timpul de așteptare). Să ne imaginăm că așteptăm un apel telefonic începând cu ora H. Telefonul poate veni oricând în timpul ulterior lui H, considerat continuu. Presupunem că timpul, oricât am aștepta, nu ne dă niciun progres al situației față de momentul anterior. Acest lucru se poate scrie matematic ca o ecuație: P(X s + t X s) = P(X t)!140
141 # # # Să ne imaginăm că așteptăm un apel telefonic începând cu ora H. Telefonul poate veni oricând în timpul ulterior lui H, considerat continuu. Presupunem că timpul, oricât am aștepta, nu ne dă niciun progres al situației față de momentul anterior. Acest lucru se poate scrie matematic ca o ecuație: P(X s + t X s) = P(X t) (fie s = așteptarea în minute, în care nu s-a primit telefonul și t=așteptarea în plus, după s minute această așteptare se face ca și cum am fi început așteptarea exact la t = 0). Să demonstrăm acum că X ~ Expo(λ) validează ecuația de mai sus. P(X s) = 1 F(X) = P(X s) # P(X s) se mai numește funcție de supraviețuire (dacă ar fi durata de viață, ar însemna probabilitatea de a trăi mai mult de s secunde) = este o funcție importantă în biostatistică, electronică - timpul de bună funcționare etc. Deci în cazul nostru, în care # F(X) = 1 e λs, avem P(X s) = 1 (1 e λs ) = e λs Atunci, cu definiția probabilității condiționate, P(X s + t, X s) # P(X s + t X s) = ; P(X s) dar P(X # s + t, X s) = P(X s + t), căci avem o informație redundantă în paranteză, întotdeauna s # + t s, deoarece # s, t 0. Așadar, avem (s+t ) P(X s + t) e λ # = = e λt, iar # e λt = P(X t) P(X s) e λs c.c.t.d (= ceea ce trebuia demonstrat), anume că exponențiala este lipsită de memorie. Aceasta este caracteristica distribuției exponențiale lipsa de memorie. #141
142 Este vorba de o medie condiționată care, de fapt, este tot o medie, numai că folosește probabilitatea condiționată în locul probabilităților simple. Înțelesul relației este că! E(X a X > a) este media unei exponențiale proaspete, (fără memorie), căci, după ce am așteptat a minute, așteptarea începe din nou. De aici putem calcula simplu (fără integrale, doar pe baza acestei observații fundamentale, lipsa memoriei exponențialei) că! E(X X > a) = a + 1. λ Din caracteristica exponențialei ne putem da seama și de domeniul ei de aplicabilitate. Lipsa de memorie înseamnă că această distribuție poate fi folosită în probleme în care nu se pot face progrese parțiale (de exemplu, momentele de gândire urmate de Evrika sau A-ha, asta era! ). Să demonstrăm acum că exponențiala este singura distribuție fără memorie în domeniul continuu (așa cum distribuția geometrică este singura fără memorie în domeniul discret; exponențiala este analogul continuu al acesteia). Teoremă Dacă X este v.a. continuă, pozitivă (de tip supraviețuire, durată de viață, etc.), cu proprietatea distribuției sale de a fi fără memorie, atunci distribuția sa este X! Expo (λ) pentru un λ oarecare. Demonstrație: Fie F funcția de repartiție (CDF-ul) a lui X, și fie! G(x) = P(X > x) = 1 F(x), pentru! x 0. Proprietatea lipsei de memorie se scrie! G(s + t) = G(s)G(t). Această ecuație nu se rezolvă pentru s sau t, ci pentru G; trebuie să găsim o funcție, de aceea se numește ecuația se numește funcțională.!142
143 # Fie F funcția de repartiție (CDF-ul) a lui X, și fie # G(x) = P(X > x) = 1 F(x), pentru # x 0. Proprietatea lipsei de memorie se scrie # G(s + t) = G(s)G(t). Această ecuație nu se rezolvă pentru s sau t, ci pentru G; trebuie să găsim o funcție, de aceea se numește ecuația se numește funcțională. Să arătăm că pentru G, doar exponențiala satisface această ecuație. Încercăm să rezolvăm o astfel de ecuație funcțională, învățând câte ceva despre comportamentul lui G, folosind ceea ce se cheamă în fizică ansatz 20. De exemplu, să vedem ce se întâmplă dacă s=t: # s = t G(2t) = (G(t)) 2, interesant de știut! Încercăm acum G(3t) # G(3t) = G(2t + t) = G(2t)G(t) = (G(t)) 3, grozav! 20 Ansatz este un termen preluat din fizică, ce înseamnă ghicire educată ce va fi ulterior verificată. Termenul, din germană, înseamnă de fapt abordare, încercare. apoi, # G(kt) = (G(t)) k, pentru #( ) k! +. Cu aceste lucruri folositoare, căutăm sa aflăm ce se întâmplă cu G(t/2). G( t 2 ) = (G(t))1/2, G( t 3 ) = (G(t))1/3,... G( t k ) = (G(t))1/k Deci ea este valabilă și pentru inversele lui # k! +. Atunci, pentru # t!, adică # t = m, avem #. n, m,n! + G( m t) = (G(t))m/n n Dar, dacă avem un număr real, îl putem trata întotdeauna ca pe o limită de numere raționale (de exemplu π = limita șirului 3; 3,1; 3,14 ). De aceea luăm limita șirurilor # limg( m t) = lim(g(t))m/n și cum G(t) = continuă, rezultă că n # G(xt) = (G(t)) x. Suntem aproape de final. Trebuie doar să punem t=1 în ecuația noastră și obținem #143
144 ! G(x) = 1 F(x) = e λx. Aceasta este funcția de repartiție a exponențialei! F(x) = 1 e λx, așadar, distribuția exponențială este singura distribuție continuă fără memorie q.e.d. (=quod erat demonstrandum) Legea normală (a lui Gauss) Aceasta este cea mai importantă lege teoretică de repartiție, al cărei studiu este un subiect central al T.P. și al Statisticii. Definiția 3.7: Se spune că o v.a. X este repartizată normal (este gaussiană) cu parametri m și! σ > 0, dacă X are densitatea de probabilitate Se scrie! X N m,σ. (15) Avem p(t) 0 pentru orice! t!, funcția p este continuă și, în plus,! p t dt = 1. Într-adevăr, făcând schimbarea de variabilă t m=! σu 2, rezultă! p t dt = 1 e u2 du = 1, π ținând cont de o integrală improprie celebră, anume! e u2 du = π. p :!!, p( t) = σ 1 2π e ( t m) 2 2σ 2!144
145 # Așadar, funcția p satisface condițiile unei densități de probabilitate. Graficul lui p este indicat în figura 3.3, unde recunoaștem celebrul clopot al lui Gauss centrat pe verticala t = m. MX = = Figura 3.3. TEOREMA 3.8: Dacă # X N m,σ, atunci MX = M și DX = #. (16) Demonstrație: Conform definiției 2.13 și punând t=m# +σu 2, rezultă # dt = σ 2du, apoi Integrala secundă este nulă (deoarece integrantul este funcție impară) și ca atare, # MX = m e u2 du = m etc. π Parametrii m și σ# din definiția 3.7 a densității de probabilitate a legii normale au o interpretare importantă, anume ei reprezintă media și abaterea medie pătratică a v.a. în cauză. Vom vedea că, de îndată ce se cunosc sau sunt estimate valorile lui m și # σ, atunci se pot deduce multe alte informații statistice. Se poate de asemenea arăta că # µ ( 3) = 0, µ ( 4) = 3σ 4 și A=0, E = 0. σ 2 1 t e ( t m) 2 1 2σ 2 dt = m +σu 2 σ 2π σ 2π e u2 σ 2 du = 1 me u2 π du + 1 π σ 2 du ue u2 #145
146 COROLAR: Dacă! X N m,σ și! (cu! constante reale), atunci Y! N αm + β, σ α normata! Y = X m aparține clasei N(0, 1). σ Demonstrație: Avem! MY = M α X + β și! DY = D α X + β. În cazul normatei, media este 0 și dispersia 1.. În particular, De asemenea, se poate arăta că dacă! X 1 N m 1,σ 1 și! X 2 N m 2,σ 2 sunt două v.a. gaussiene independente, atunci! X 1 + X 2 N m 1 + m 2, σ σ 2 și, mai general, orice combinație liniară de v.a. gaussiene independente este de asemenea gaussiană. În cazul când! X 1 N 0,1, se spune că X este normală normată; în acest caz, densitatea de probabilitate a lui X este = 1 2 t 2π e 2! p t și, conform formulei (20) din Capitolul 2, funcția de repartiție a lui X este: Y = α X + β α,β = αmx + β = αm + β = D( α X) = α 2 DX = α 2 σ 2 x = p( t) e t 2! Φ :!!,Φ x dt = π dt x Figura 3.4!146
147 Aceasta este o funcție celebră, numită funcția Laplace, notată de regulă cu # Φ. Graficul ei este indicat în figura 3.4. [Vom lămuri în Capitolul 8 legătura lui # Φ cu erorile de calcul]. TEOREMA 3.9: (proprietățile funcției # Φ ): a) Pentru orice x#!, Φ x 2 dt este funcția de repartiție a oricărei v.a. # X N(0,1); b) # Φ x este egală cu aria hașurată (în figura 3.5), cuprinsă între graficul # y = 1 2 t și axa Ot, până în punctul de abscisă x; 2π e 2 c) Pentru orice x 0, # Φ x ; d) # Φ și #. Demonstrație: a) Am repetat definiția. = 1 2π b) Rezultă direct din expresia ariei printr-o integrală. c) Clopotul lui Gauss normat este simetric față de Oy și în plus, aria dintre clopot și axa Ot este egală cu 1. Atunci # Φ x este egală cu aria nehașurată, adică # 1 Φ x. e t 2 d) Înlocuind x=0 în c), rezultă # Φ 0, deci #. x = 1 Φ( x) = 0, Φ( ) = 1 Φ( 0) = 1 2 = 1 Φ( 0) Φ( 0) = 1 2 Figura 3.5 #147
148 ! Valorile lui! Φ sunt tabelate; este suficient să cunoaștem valorile lui! Φ x pentru x>0, apoi se aplică c). Vom vedea că funcția! Φ este legată de celebra teoremă limită centrală (TLC) și de multiplele consecințe ale acesteia. În Capitolul următor, vom descrie și alte legi teoretice de repartiție, utilizate curent în Statistica aplicată Vectori aleatori În unele situații, trebuie studiate perechi, triplete sau chiar sisteme ordonate de n v.a. (peste același câmp de probabilități (! Ω, P)). În acest mod, se ajunge la vectori aleatori (definiția 2.8). Exemplu: Să determinăm probabilitatea de a avea la PRONOSPORT 13 rezultate exacte; apoi 12, 11 etc. Un buletin PRONOSPORT este un vector aleator cu 13 componente, X k { 1, X,2} ( a 1,...,a 13 )! X = X 1, X 2,..., X 13, unde fiecare!. Fie a=! buletinul oficial corect. Probabilitatea de a obține 13 exacte este P(X=a)= independente = = P X 1 = a 1, X 2 = a 2,..., X 13 = a 13 P( X 1 = a 1 ) P( X 2 = a 2 )... P ( X 13 = a ) = Probabilitatea de a avea 12 exacte este = și pentru k exacte, C 13 3! 13 = P( X 1 a 1, X 2 = a 2,..., X 13 = a 13 ) + P( X 1 = a 1, X 2 a 2,..., X 13 = a 13 ) +... = = k 2 13 k k 1 3. În = ( 2 3 )13 fine pentru 0 exacte, P X 1 a 1, X 2 a 2,..., X 13 a 13.!148
149 # # Este mai ușor să faci 0 rezultate exacte, decât treisprezece exacte! Pentru simplificare, vom considera cazul n=2 al vectorilor aleatori 2D, v = (X, Y) unde X, Y sunt v.a. Geometric, aceștia se identifică cu punctele aleatoare într-un plan. Definiția 3.8: Funcția de repartiție F# υ :! 2! a vectorului aleator v=(x, Y) este definită prin # x, y. F υ Densitatea de probabilitate a lui v este funcția # p υ :! 2! definită prin p υ dacă limita există. Evident # p υ 0 și, pentru orice mulțime măsurabilă, # K!, P ( X,Y ) K dx dy și # ( x, y)dxdy = 1. Similar, # F υ este mărginită și 0 # F υ x, y 1, pentru orice # x, y. Apoi # este monoton crescătoare în fiecare argument. = P( X x,y y) ( x, y) = Atenție: Nu au sens funcțiile monotone de două variabile, deoarece # nu este mulțime ordonată. Definiția 3.9: Vectorul aleator v=(x,y) se numește gaussian (# normal 2D), dacă există constante reale a, b, astfel încât densitatea # să fie lim 1 h 0 hk P( x X x + h, y Y y + k) k 0 = p υ x, y! 2 F υ p υ! 2 p υ ( x, y) = K 1 2πσ X σ Y 1 r 2 eg x,y! 2 p υ #149
150 ! = unde! G x, y r 2 cov X,Y și r! = ρ XY = (coeficientul de corelație a v.a. X, Y, σ X σ Y conform definiției 2.14). Dacă X, Y sunt independente, atunci cov(x,y)=0 (teorema 2.8); reciproca nu are loc în general. Dar dacă vectorul v=(x,y) este gaussian și cov(x,y)=0, rezultă că X, Y sunt independente; 1 într-adevăr, r=0 și,! p υ ( x, y) = e G ( x,y) unde 2πσ X σ Y 2 G(x, y) =! 1 x a + y b 2 deci! și 2 2 σ X σ p υ ( x, y) = p X ( x) p Y ( y) Y X, Y sunt independente. Exemplu: Presupunem că un punct aleator (X, Y) din 1 1 ( planul xoy este gaussian, cu r = 0 și! 2σ p x, y 2 x2 +y 2 ). Calculăm probabilitatea ca punctul să cadă în coroana circulară! a 2 x 2 + y 2 b 2 (unde 0<a<b). Trecând la coordonate polare, probabilitatea cerută este P = a 2 x 2 +y 2 b 2 = 1 σ 2 b a ρe ( x a) 2 2r x a 2 σ X σ X σ Y 2 p( x, y)dx dy = ρ 2 2σ 2 dρ = e a 2 2σ 2 2π 0 e ( y b) = 1 2πσ 2 b 2 2σ 2 e 2πσ 2 e 2 2 σ Y + y b 1 2σ 2 p2 ρdρ = 3.8. Întrebări de control la Capitolul 3 1. Ce sunt legile teoretice de repartiție a valorilor unor v.a.? 2. Care este utilitatea acestor legi? 3. Care este legea evenimentelor rare?!150
151 4. Puteți da exemple unde legea repartiției geometrice este utilizată? 5. Numere aleatoare și metode Monte Carlo. 6. Funcția # Φ, proprietățile și rostul ei. Sumar de formule 1. Legea lui Bernoulli pentru # X B p,n ; MX și DX. 2. Ce înseamnă experimente Bernoulli? P λ 3. Legea lui Poisson # ; MX și DX. 4. Legea repartiției geometrice. 5. Legea uniformă; exemple. 6. Legea exponențială; MX, DX. Aplicații la TMBF. 7. Legea normală Gauss; MX = m, DX = # 8. Definiția funcției # Φ ca funcția de repartiție a unei v.a. normale din clasa N(0, 1). σ 2 EXERCIȚII la Capitolul 3 O pereche de tineri căsătoriți își propun să aibă 5 copii. Care este probabilitatea p ca să aibă cel puțin 4 băieți? R: X=numărul de băieți ( succes ), deci 1 # X B 1 p k = C k n p k q n k (cu p=#, n=5 și 0 k 5). Atunci. 2, # p = p 4 + p 5 = C C ,1875 Se trag trei lovituri (independente) la o țintă, cu probabilitatea de a atinge ținta ( succesul ) p = 0,4. Pentru v.a. X=numărul de succese, să se determine MX, DX, # σ, µ 3 și A. R: Așadar, # X B 0,4;3 și matricea ei de repartiție este #151
152 ! X ,216 0, 432 0,288 0,064 [! p k = C k 3 0,4 k 0,6 3 k ]. D u p ă c a l c u l e, M X =1,2; MX! DX = M X 2 ;!. µ ( 3) = 0 1,2 A = 0,144 ; 0,848 0, ,72 σ = DX 0, ,216 + ( 1 1,2 ) 3 0, ,288 + ( 3 1,2 ) 3 0,064 0, ,2 Aruncăm o monedă corectă de trei ori succesiv (aruncări independente). Să se indice matricea de repartiție a numărului de steme ( succese ). R: Notăm cu X acest număr deci X! B 1 și fie 2 ;3! p k = P(X=k) pentru 0 k 3. Atunci! p k = C k ! X k 1 2 = 1, deci 2 C k k 3 Aruncăm un zar corect de patru ori și numim succes apariția feței 1. Să se determine probabilitatea obținerii a două succese. Dar pentru a obține minimum două succese? 3 k R: Fie X = numărul de succese deci! X B 1 și P(X = k) = 6 ;4!152 k 4 k =! C k Atunci!. 6 6 p 2 = C ,12 4
153 # # Apoi: # p 2 + p 3 + p 4 = 1 p 0 p 1 etc. Presupunem că X este o v.a. repartizată Poisson cu parametrul # λ = 2. Să se determine probabilitatea P(X<# X ). =# R: Avem # X = λ (conform teoremei 3.3) deci P ( X < 2)= P( X = 0) + P( X = 1) = 1 e λ = e k=0 k! 1! = 3 e 0,41 2 Numărul mediu de solicitări de taxiuri la un dispecerat este de trei pe minut. Să se determine probabilitățile ca în 2 minute să vină: a) 4 solicitări; b) cel mult 3 solicitări; c) cel puțin 4 solicitări. R: Numărul de solicitări X este o v.a. cu valori 0, 1, 2,... și se recomandă a fi considerată ca repartizată Poisson. Probabilitatea ca în t minute să apară k solicitări este = tλ # p k t e λt, unde # λ = MX=3. k! Atunci probabilitățile cerute sunt: c) # p 2 k 4. Presupunem că se fac încercări independente de a pune în funcțiune un motor și că fiecare încercare este reușită cu probabilitatea p=0,6. Dacă pentru fiecare încercare se consumă timpul T, să se determine matricea de repartiție a timpului X necesar pentru pornirea motorului, cât și media acestuia. k p 2 ( 4) = 6 4! e 6 0,135; λ k b) p 2 ( k < 4) = p 2 ( 3) + p 2 ( 2) + p 2 ( 1) + p 2 ( 0) = 6 3 e 6 3! + 62 e 6 2! + 6 e 6 1! + e 6 0,153; = 1 p 2 ( k 3) 0,847 #153
154 R: Fie N=numărul de încercări (repartizat geometric!). Atunci X = NT deci T 2T 3T... MT...! X, unde q=1 p=0,4. p pq pq 2... pq m 1... Atunci MX = M(NT) = T! M(N) =T! 1. p = T 1 0,6 1,67T O v.a. X este repartizată exponențial cu parametrul! λ. Să se determine probabilitatea ca valorile lui X să fie mai mici decât media MX. R: Densitatea de probabilitate a lui X este! p :!!! p x și conform teoremei 3.6, λe λx, când x > 0 = 0, când x MX =!. Avem de calculat P(X! ) = λ λ 1 =! λ λ p x dx = λ e λx dx = 1 1. e 0, Fie X perioada (aleatoare) în zile, dintre două opriri accidentale, ale unui dispozitiv; X este repartizată exponențial 1 cu media MX=!, unde! λ este rata accidentelor (adică λ numărul de accidente pe zi). Pentru 0<a<b date, să se calculeze P(a<X<b) și P(X>b). Apoi pentru! λ = 1 20, să se calculeze și să se interpreteze P(X > 80). = λe λx, x 0 R: Densitatea de probabilitate este! p x! și p(x)=0 pentru x<0. Atunci P(a<X< b)=! λe λx dx = e λa e λb. Apoi P(X>b)=P (b<x< )=! e λb. În cazul! λ = 1, rezultă 20 b a!154
155 # P(X>80)=# e 4 0,018, deci există șanse mici ca dispozitivul să nu se oprească timp de 80 de zile la rând. În funcționarea unui dispozitiv apar defecțiuni la anumite momente aleatoare. Presupunem că durata T de funcționare a dispozitivului de la pornire (la momentul t=0) până la prima defecțiune este repartizată exponențial cu parametrul # λ. La apariția defecțiunii, dispozitivul intră în reparație și reparația durează timpul # t 0. Să se determine densitatea de probabilitate și funcția de repartiție a intervalului de timp X dintre două defecțiuni vecine, precum și MX, DX. ( R: X=T+# t 0 ; # p X ( t) = λe λ t t 0 ), t t 0. 0, t < t 0 t # F X ( t) = p X ( t) dt = 1 e λ t t0,t t0. 0,t < t 0 Apoi # MX = 1 λ + t, DX = 1 0 λ. 2 În teoria fiabilității unor sisteme tehnice, se recomandă ca funcția de repartiție a duratei T de funcționare fără întrerupere a unui dispozitiv să fie de forma: = 1 e α xβ, x 0 F( x) = 0 # F :!!, F x ; # pentru x > 0, cu # α,β constante. Să se calculeze MX și DX, cu funcția F. R: Aceasta este legea Weibull (pentru # β =1 regăsim repartiția exponențială). Densitatea de probabilitate este αβt β 1 e αt β, t > 0 p(t)=# ; MX=# αβ t β e αt β dt și punem 0 0, t < 0 αt β = u MX = α 1 β 1 β u 0 e u du = α β Γ 1+ 1 β 1 #155
156 Apoi, M! X 2 e αt β dt etc. Bateriile Li/SO4 încep să se deterioreze încă din stoc. Se recomandă distribuția Weibull cu! α = 0,1 și! β = 2 pentru a modela timpul X (exprimat în luni) de stocare, astfel încât bateriile să devină inacceptabile. Să se determine probabilitatea ca o baterie aleasă la întâmplare să devină inacceptabilă între 12 și 18 luni, precum și numărul mediu de luni în care o baterie devine inacceptabilă. MX =! 10 R: P(12 X 18)=F(18) F(12), unde! F x ; apoi, α 1 β Γ 1+ 1 luni. β = 10 Γ 3 2 = 10 2 π 2,8 Se consideră funcția! f :! 2!, f ( x, y) = c, x2 + y 2 r 2. 0, x 2 + y 2 > r 2 Să se determine constanta c astfel încât f să fie o densitate de probabilitate. = αβt β+1 R: Condiția este f(x,y) 0 pentru orice! x, y și! cdx dy = 1 Așadar, c > 0 și! cdx dy = 1, deci! 2! c πr 2 = 1 și! c = 1. πr 2 Notă: Dacă X este o v.a. 2D (adică un vector aleator! X 1, X 2 ), având f ca densitate de probabilitate, atunci pentru orice mulțime plană măsurabilă (! având arie)!! 2, avem: ( Δ) = f ( x, y) P! X 1, X 2 dxdy. Funcția de repartiție corespunzătoare este 0 Δ! F :! 2!, F x, y dy. = 1 e x 2! 2 x 2 +y 2 r 2 x y = dx f ( x, y)!156
157 Un punct aleator M(X, Y, Z) este repartizat uniform în bila unitate B=#. Să se determine densitatea comună de probabilitate a coordonatelor X, Y, Z. R: Pentru orice submulțime măsurabilă A (# având volum), conținută în B, probabilitatea ca punctul M să aparțină lui A este proporțională cu volumul, adică P(M# A )=c# vol A, c=constantă. În particular, pentru A=B, rezultă 1=c# vol B, adică 1=# c 4π și c# = π Densitatea comună de probabilitate cerută este # f x, y,z, dacă # x 2 + y 2 + z 2 1 și nulă în rest. 4π Să se arate că dacă # X N m,σ, atunci P(a X b)=# Φ b m. σ Φ a m σ 1 b R: Avem P(a X b)=# e 2σ 2, conform σ 2π dx a teoremei 3.9, a). {( x, y,z)! 3 x 2 + y 2 + z 2 1} = 3 Facem apoi schimbarea de variabilă x=m+# σt. Se spune că un punct aleator M(X, Y), cu X, Y v.a. independente, urmează legea normală, dacă densitatea de probabilitatea comună a coordonatelor este de forma 1 # f ( x, y) = e E, unde E = #( x m x ) 2 + y m y. 2πσ x σ y Atunci probabilitatea ca punctul M să aparțină dreptunghiului =[a, b]# [c, d] este: b d # p = f ( x, y)dx dy = dx f ( x, y)dy. Δ a) Să se arate că a c 2σ x 2 ( x m) 2 2 2σ y 2 #157
158 !!! p = Φ b m x σ x Φ a m x σ x Φ d m y σ y Φ c m y σ. y b) Să se determine concret p, dacă = [1, 3]! [3, 6];! m x = 2;! σ x = 0,6; m y = 3 ;! σ y = 0,4. R: a) Așadar,! p = = σ x 1 2π b e a 1 b d dx e 2πσ x σ a c y ( x m x ) 2 2σ x 2 dx 1 σ x 2π ( x m x ) 2 2 2σ x b)! p = Φ 3 2 0,6 Φ 1 2 0,6 Φ 6 3 0,4 Φ 3 3 0,4 = e [! Φ (1,67)-! Φ (-1,67)]! [! Φ (7,5)-! Φ (0)]= e ( y m y ) 2 2σ y 2 =(2! Φ (1,67)-1)! (1-0,5)! 0,45. c d ( y m y ) 2 2 2σ y dy = dy = = Φ b m x σ x Φ a m x σ x Φ d m y σ y Φ c m y σ. y!158
159 Să nu crezi în minuni, dar să te bazezi pe ele ZICALĂ STUDENȚEASCĂ CAPITOLUL 4: CELE DOUĂ MIRACOLE ALE LUI GAUSS ȘI PEARSON 4.1. Introducere Pentru multe fenomene (sau procese) întâlnite în practică, descrise prin mărimi fizice, tehnice, chimice, economice, medicale, financiare, sociale etc., variația lor aleatoare este datorată influenței multor factori care acționează independent unul de altul. În acest caz, statisticienii recomandă ca astfel de mărimi să fie considerate ca repartizate normal; rămâne să fie calculați parametri m, # σ etc. respectivi. Exemple: 1) Diametrul D al unui lot de piese circulare sau cilindrice este o v.a. ale cărei valori sunt datorate unor fluctuații de temperatură, umiditate, presiune, câmp magnetic, deformații interne, vibrații ale mașinilor care execută acele piese etc. Conform cu recomandarea menționată, D este o v.a. repartizată normal. 2) Similar cu exemplul anterior, lungimea unui lot de bare metalice, grosimea unui lot de plăci, masa unui balot de bumbac, umiditatea unui vagon de cărbune sau cereale etc., toate acestea pot fi asimilate cu v.a. repartizate normal. 3) Pentru un lot de candidați la un examen (în facultate, la BAC, capacitate, admitere etc.), examenul se consideră normal dacă nota obținută și care variază de la un candidat la altul, este o v.a. repartizată normal, cu valori în intervalul [1, 10], care #159
160 $ $ urmeaz! ( ascult! ) de o lege de tipul clopotului lui Gauss; de exemplu, la BAC, media tuturor candida"ilor trebuie s! fie situat! în jurul notei 7. De exemplu, la un examen real de Matematici speciale din 1985, studen"ii anului II B Automatic!, în num!r de 107, au ob"inut: 4 note de 10, 17 note de 9 (17/9), 22/8, 28/7, 15/6, 9/5, 8/4, 4/3. A#adar, v.a. discret! X (=nota) a avut matricea de reparti"ie # & X! % 4 (. " 0,04 0,07 0,08 0,14 0,26 0,21 0,16 0,04 $ % 104 ' ( Media a fost MX$! 6,98 #i $! " 1,71. O reprezentare grafic! a notelor este indicat! în figura 4.1,a). Se observ! c! anvelopa acestor date este aproape normal!. 21 Baboi - personaj real al preg!titorilor de alegerilor de dinainte de 1944, unul care lua ciomege pe spinare f!r! s! crâcneasc!, adus în folclorul urban de N.Or!#!nescu, un satirist de mare for"!, pe nedrept uitat. Printre altele, acest Or!#enescu este na#ul multor vorbe de duh din localuri, cum ar fi bateria de vin #i faptul c! nu se cerea "uic!, ci se spunea d!-mi o idee! Figura 4.1 Dar un examen în care notele ar fi reprezentate ca în figura 4.1,b) poate fi numit pomana lui Baboi 21 ; disciplina respectiv! trebuie exclus! din curicul! sau profesorul în cauz! schimbat. 160
161 # 4) Aruncând de n=5 ori o moned! f!r! defect (sau, echivalent, 5 monede identice simultan), probabilitatea stemei (#! succesul) la o singur! aruncare fiind # p = 1, probabilitatea 2 teoretic! a o b " inerii stemei de k ori este 5!k = 1 32 C 5 # p k = C k 5 p k k 1! p 0 " k " 5. Figurând punctele # M k k, p k, se ob"ine figura 4.2. Num!rul X al succeselor este o v.a. repartizat! Bernoulli, având matricea de reparti"ie " % # X! $ '. # $ & ' Figura 4.2 Din nou, anvelopa punctelor # aminte$te de o func"ie clopot. M k 5) O alt! surs! de date statistice o constituie cea care realizeaz! m!sur!tori $i care, în mod inerent, nu pot fi precise (în afara situa"iilor speciale când costul acelor m!sur!tori ar fi prohibitiv!); acele m!sur!tori ar prezenta erori la stânga $i la dreapta valorii precise sau abateri de la medii. Recomandarea statisticienilor, de la Gauss citire, este ca aceste erori s! fie asimilate cu valori ale unor v.a. repartizate normal. #161
162 $ A fost meritul lui Laplace și îndeosebi al lui Gauss de a fi descâlcit multitudinea de exemple de tipul anterior și a fi extras esența științifică, Teorema Limită Centrală (TLC), îmbrăcată într-un miracol Enunțul riguros și enunțul popular al TLC Fixăm un câmp de probabilități ($ Ω,K,P) și fie $ X 1, X 2,..., X n,... un șir de v.a. având medie și dispersie. Notăm $ m n = MX n și $ σ n = DX n și $ µ (3) 3 n = M X n m n momentul centrat de ordin 3 al lui $ (definiția 2.13). Definiția 4.1. Se spune că șirul ( $ Xn ), n 1 satisface condiția lui Liapunov dacă Exemplu. Dacă toate v.a. au aceeași funcție de repartiție, deci aceleași caracteristici statistice, X n n (3) n lim( µ k n k=1 ) σ k=1 k 3 2 = 0 (3) $ m = MX n, σ = DX n, µ = µ n n 1, atunci n = nµ, σ k = nσ n (3) µ k=1 k k=1 nµ iar relația (1) devine $ lim n nσ nσ = 0 și este evident îndeplinită. = (1) Considerăm acum suprapunerea $ S n = X 1 + X X n și normata ei $ Z n = S MS n n. DS n Conform corolarului 2 al propoziției 2.6, MZ $ n = 0 și $ DZ n = 1, pentru orice n 1. $162
163 Dăm acum enunțul următoarei teoreme fundamentale: TEOREMA 4.1 (teorema limită centrală TLC, a lui Gauss): Fie (Xn), n 1 un șir de v.a. independente având medie și dispersie și satisfăcând condiția lui Liapunov (1). Atunci pentru orice numere reale a < b, avem = 1 2π lim P a Z n b n e t 2 2 dt. (2) Demonstrația este tehnică și nebanală, folosind instrumentul transformării Fourier. [Ca un fapt remarcabil, funcția = e t 2 # 2 g t este un vector propriu al operatorului Fourier]. Demonstrația poate fi găsită în [13] sau [17]. COROLAR 1. În condițiile teoremei 4.1, # lim P a Z n b. n = Φ( b) Φ( a) 2 Este suficient să amintim că p# t este densitatea de probabilitate a unei v.a. din clasa N(0, 1) și că # σ este funcția ei de repartiție. Să presupunem acum că toate v.a. # X n sunt independente, având aceeași medie m și aceeași dispersie # σ 2. Atunci pentru suma (# suprapunerea ) # S n = X X n, avem MS # n = nm și # DS n = nσ 2. Atunci # Z n = S nm n deci # S n = nm + Z n σ n. σ n COROLAR 2. Pentru $ n 1, S n se aproximează cu o v.a. din clasa N(# nm,σ n ). Demonstrație. Conform (2), # Z n se aproximează (pentru $ n 1 ) cu o v.a. din clasa N(0, 1). Dar în general, dacă # X N m,σ și dacă # constante, atunci Y = α X + β, cu α, β b a = 1 t 2 2π e #163
164 $ Y N αm + β, α σ, conform corolarului teoremei 3.8. Rămâne să aplicăm acest fapt pentru $ S n = Z n σ n + nm. COROLAR 3 (teorema lui Moivre Laplace). Se consideră n repetări independente Bernoulli cu parametrul p și fie $ numărul de succese în cadrul acestor repetări (probabilitatea de S n Sn succes fiind p). Atunci $ np, (q=1 p) se aproximează cu o v.a. npq din clasa N(0, 1). Demonstrație: Pentru orice k 1, considerăm v.a. discretă ce ia valoarea 1 dacă la repetarea k a existat succes și valoarea 0 în 1 0 caz contrar. Așadar, $ X k are matricea de repartiție $. Atunci p q MX k 2 = p p 2 = pq 2 $ MX k = p și DX $ k = M X k. Toate v.a. $ X k,k 1 sunt independente, având aceeași medie p și aceeași dispersie pq. Pe de altă parte, suma $ X X n este egală cu $ (căci este o sumă de numere egale cu 1, de câte ori există succes). Așadar, $ MS n = np și $ DS n = npq deci $ Z n = S np n. npq S n Rămâne să aplicăm TLC. Reținem că pentru orice a < b pentru $ n 1, avem P a S np n npq b Φ b Φ( a) (3) Exemple 1) De câte ori trebuie aruncată o monedă astfel încât, cu probabilitatea 0,7, abaterea frecvenței numărului de succese de la probabilitatea teoretică de apariție a stemei să fie cel mult 0,05? $164
165 Răspuns. Fie A=evenimentul repetat al apariției stemei, 1 1 deci P(A) =# ; așadar, p=q=$. 2 2 Dacă b > 0 și a= b, relația (3) devine # P b S np n, npq b Φ( b) Φ( b) deci # P S np n. npq b 2Φ( b) 1 2Φ b 1 Așadar # P S n np b npq sau echivalent, P S n n p b pq n 2Φ b 1. Înlocuim # b pq n = 0,05, de unde rezultă n = 111 ori. 2) Se aruncă de 288 de ori o pereche de zaruri nemăsluite. Cu ce probabilitate se obține 6 6 de un număr de ori cuprins între 8 și 10? Soluție. Fie A=evenimentul repetat 6 6 ; P(A)=# 1 p =#, # și n = 288. Atunci #. 36 q = 35 np 2,79 36 Relația (3) devine # P a S 8 n 2,79 b Φ b, deci, deci P(8 + 2,79a S# n 8 + 2,79b). Punem condițiile: 8+2,79a=8 și 8+2,79b=10 și rezultă a=0, iar b# 0,72. Ca atare P(8 # Sn 10) Φ( 0) # Φ 0,72 =0,764 0,5=0,264. Notă Vom vedea în partea a II a a cărții modul cum se aplică teorema Moivre Laplace la sondaje de opinie Φ( a) #165
166 22 Gauss ținea mult la reputația sa. De aceea se ferea să publice primul gând care-i trecea prin minte. Astfel se face că nu avea încredere nici măcar în comunitatea matematică, pe care nu o credea în stare să-i accepte rezultatele. În 1831, el începe să-și compună Meditațiile, în care planificase să sintetizeze descoperirile sale asupra geometriei ne-euclidiene (Euclid era, în acel moment, rege în matematică și chiar în filosofie). Dar, înainte de aceasta, Gauss scrisese unui prieten de încredere, F r i e d e r i c h B e s s e l, următoarele Va lua mult timp până când o să-mi fac publice ideile pe această temă ( g e o m e t r i a neeuclidiană). De fapt, n u c r e d c ă s e v a întâmpla pe durata vieții mele, deoarece mi-e teamă de țipetele beoțienilor, dacă aș spune vederile mele. Beoțienii erau un trib din Grecia antică, zona centrală care, deși dăduseră personalități ca P i n d a r, H e s i o d, Epaminonda, Plutarch, fuseseră portretizați de atenieni drept proști, căci tâmpenia beoțiană care a decretat pacea perpetuă a ruinat orașul cu festinurile sale. De atunci, Beoțian a rămas să fie sinonim cu incult, profan, tâmpit. continuare: " Φ z Extragem din tabela funcției $ Φ o linie de valori folosită în z 0 1 1,96 2 2,17 2, ,504 0,841 0,975 0,977 0,985 0,995 0, Enunțul popular al TLC Din teorema 4.1 și din corolarul ei reținem că mărimile aleatoare, obținute prin suprapunerea mai multor cauze aleatoare independente, se comportă ca v.a. repartizate normal. Fie X o astfel de mărime. În practică se consideră serii de valori ale lui X și se calculează mediile și dispersiile empirice ale acestor serii, apoi se estimează MX = m, DX = ". Așadar, prin aproximație, $ X N m,σ, deci $ aparține clasei N(0, 1). Atunci, funcția de repartiție a v.a. Z este $ Φ și ca atare, conform teoremei 2.10, b), pentru orice a < b din $!, P( a < Z < b) = P(a Z b)$ Φ b (4) 4.3. Miracolul lui Gauss 22 Titlul acestui paragraf este ușor propagandistic, dorind să atragă atenția mai mult. De fapt, el cuprinde toate formulele importante (4) (12) de mai jos, legate mai mult sau mai puțin direct de repartiția normală. Un prim rezultat spectaculos îl constituie: TEOREMA 4.2. Dacă $ X N m,σ și A < B sunt fixate, atunci are loc următoarea formulă fundamentală P( A X B) Φ B m σ Φ A m σ Φ 2 Z = X m Φ( a) σ (5) $166
167 # Demonstrație: Din relația # Z = X m, rezultă X = m +$ σ Z σ { } = A m și #{ A X B} = A m +σ Z B aplicând formula (4), rezultă (5). COROLAR 1 (regula celor 3# σ )., apoi, Dacă # X N m,σ, atunci #. Așadar, este aproape sigur că valorile lui X sunt cuprinse în intervalul # m 3σ, m + 3σ. Demonstrație: Probabilitatea cerută este σ Z B m σ 0,997 P X ( m 3σ,m + 3σ ) cf.(5) = P m 3σ < X < m + 3σ cf.(5) =! m + 3σ m Φ σ Φ m 3σ m σ = = Φ 3 Φ( 3) = Φ( 3) 1 Φ( 3) 1 0,997, = 2Φ 3! = conform tabelei de date. Formula (5) se extinde și pentru A= sau B= +, ținând cont că # Φ și #. = 0 Φ ( + ) = 1 COROLAR 2. Dacă # X N m,σ, atunci cf.(5) P(X A) = P( < X A)# =! A m Φ, (6) σ P(B < X) = P(B < X < + )=1 Φ B m (6 ) σ Exemple 1) Presupunem că dimensiunea admisibilă a diametrului d al unor tuburi cilindrice este cuprinsă în intervalul de toleranță [10, 12] mm și că,pentru un lot de piese diametrul mediu (calculat empiric, pe baza unor serii de măsurători #167
168 $ independente) este m=11,4 mm, cu abaterea pătratică medie $ σ 0,7mm. Ne propunem să estimăm probabilitatea ca în acel lot să existe piese rebut. Considerăm v.a. d$ N m,σ ; evenimentul există piese rebut este $ { d < 10} { d > 12} și probabilitatea lui este, conform corolarului 2 al teoremei 4.2, folosind tabela de valori ale lui $ Φ din Anexă. 2) Fie $ X N 50, , ,4 Φ 0,7 + Φ 0,7 = = Φ 2 + Φ( 0,857) 0,827 Determinăm A astfel încât P(40 X A) = 0,8. Atunci, $ Φ A , deci 10 Φ 10 = 0,8 Φ A = 1,8 Φ 1 0,959 și din tabela lui $ Φ, $ A 50 1,7, așadar $ A ) Presupunem că bilele de rulmenți, de diametru d, sunt selectate astfel: dacă o bilă nu trece printr-un inel de diametru $ dar trece prin altul de diametru $ D 2 D 2 > D 1, atunci bila se consideră bună. Probabilitatea ca o bilă aleasă la întâmplare să fie bună este P$ ( D 1 < d < D 2 ) Φ D m 2, în ipoteza σ σ D m 1 σ σ că $ d N m,σ, iar m și $ se determină prin experiment statistic, luând câteva eșantioane de bile și aplicând formulele empirice. 4) Câtul intelectual IQ ( intelligence quotient ). Pentru depistarea tinerilor supradotați, odată cu vârsta lor reală $168 D 1
169 v r biologic!, se determin! $i vârsta mental!, în urma unor teste de aptitudine $i performan"!. Se define$te v.a. X = IQ, prin v r IQ = #!100. v m Printr-o conven"ie impus! de psihologi, IQ! N(100, 16). a) S! se calculeze # p 1 = P IQ! 80,120 $i #. b) Dintr-un lot mare de tineri, s! se determine procentele de retarda"i (defini"i prin IQ < 68) $i de supradota"i (IQ > 132). c) S! se reprezinte grafic curba clopot pentru IQ, cu punctele semnificative. R!spuns: Apoi # p 2 = 2! 1. P IQ < 68 b) # # 132!100& $i P# ( IQ > 132) = 1! ", deci 2,3 % dintre $ % 16 ' ( = 0,023 tineri sunt la extremit!"i. [Testul IQ este discutabil.] c) Aria de sub clopot este = 1. Conform a), 68 % din popula"ie are IQ între 84 $i 116 (aria ha$urat! fiind de 0,68). v m ( [ ]) p 2 = P( IQ![ 84,116] ) # 120 "100& # p 1 =! a) # $ % 16 ' ( "! $ % =! 1,25 80 " & ' ( = "!("1,25) = 2! ( 1,15) "1 ) 0,79! " "1 # 0,68 $ % & = 1# " 2 68 # ' ( ) = " #2 =! 1# 0,977 = 0,023 Figura 4.3. #169
170 Notă istorică Este important să amintim modul cum Gauss a ajuns la faimosul lui clopot. Au existat multe elemente euristice, așa cum vom vedea în paragraful 8.3, ca teorema Moivre Laplace într-o formă apropiată celei din corolarul 3 al TLC, dar Gauss a avut viziunea generală și un ansamblu de aplicații ale TLC. În măsurarea unei mărimi cu valoarea cea mai probabilă m, se fac observații independente și se obțin valorile $ x 1,..., x n, considerate ca v.a. având aceeași repartiție, cu densitatea de probabilitate p(x) necunoscută. Gauss a presupus că această funcție este de forma g(x m), iar densitatea comună de probabilitate este $ p( x 1 )...p( x n ) = g( x 1 m)...g( x n m). Apoi, el a aplicat principiul verosimilității maxime, conform căreia valoarea cea mai verosimilă a lui m este cea pentru care densitatea comună de probabilitate este maximă. Gauss a dedus că funcția g este de tipul $ g( x) = c e ax 2, cu c și a constante reale și a<0. Notând a $ = 1 și punând condiția ca $ p ( x ) dx = g( x m), 2σ 2 dx = rezultă $ c =, deci $ p( x) =, adică tocmai densitatea de σ 2π σ 2π e 2σ 2 probabilitate a unei v.a. din clasa N(m,$ σ ). ( x m) 2 1 ( x 2σ Apoi $ p( x 1 )...p( x n ) = 2 1 m) ( x n m) 2 și maximul este atins σ 2π n e odată cu minimul sumei $ x k m, deci pentru $ m = x x 1 n = x. k=1 n Legea normală și Fizica Subliniem două momente semnificative. 1) În 1859 Maxwell a arătat că vectorul viteză $ ν ( ν 1,ν 2,ν 3 ) al moleculelor unui gaz are cele trei componente $ ν k v.a. independente repartizate normal, iar densitatea comună de probabilitate este de forma $ p x 2 + y 2 + z 2. n 1 2 2) În 1905, Einstein a arătat că în mișcarea browniană, schimbarea poziției unei particule în orice direcție, pe o durată t, urmează o lege normală cu media nulă și dispersia proporțională $170
171 cu t, raportul de propor"ionalitate fiind tocmai coeficientul de difuzie. Experimentul lui Galton Statisticianul englez a propus un experiment material care justific! TLC, considerând o tabl! flip flop, pe care sunt înfipte rânduri orizontale de cuie (prezentate ca puncte bold negre în fig. 4.8). Tabla este rezemat! $i, printr-o pâlnie p, sunt lansate de sus bile sferice având acela$i diametru d. Distan"a dintre oricare dou! cuie vecine pe aceea$i orizontal! este d (d pu"in mai mare decât d). Orice bil! se love$te de primul cui, apoi rico$eaz! într-unul din cele dou! cuie din rândul urm!tor etc. La marginea inferioar! a tabelei se realizeaz! compartimente identice separate (coloane de bile), dup! toate ciocnirile posibile (în figura 4.4 num!rul coloanelor este 8). # Figura 4.4. Alegem ca ax! Ox muchia inferioar! a tabelei $i O mijlocul acesteia; apoi Oy este ax! de simetrie $i lu!m ca unitate de m!sur! d. Urm!rim traiectoria unei bile oarecare lansate prin pâlnia p. Not!m cu # deplasarea pe orizontal! a bilei între prima! 1!2 $i a doua ciocnire de cuie, cu # deplasarea pe orizontal! dup! ciocnirea cu cuiele din al doilea rând pân! la ciocnirea cu cele din al 3 lea rând etc. Not!m cu #! deplasarea total! (pe orizontal!) #171
172 23 Deși oamenii de știință nu acceptă clasamente și ierarhii profesionale, Karl Friedrich Gauss ( ) este considerat un monument al Matematicii și Fizicii. Este dificil de comparat excelența în domenii diferite, pentru că s-ar ajunge repede la dileme de tipul: ce este mai important, metrul sau kilogramul? Adevărul este că se poate vorbi de matematica până la Gauss și după el, așa cum tot astfel, despre Newton, Hilbert sau Grothendieck. Copil minune, Gauss l-a uimit pe învățător când, la 9 ani, la școala primară din Braunschweig, a calculat în câteva secunde suma primelor 100 de numere naturale S= , observând că 100+1=99+2= și deci 2S=101x100. Elev de liceu fiind, a descoperit legea resturilor pătratice și faptul că poligonul regulat convex cu 17 laturi se poate înscrie în cerc cu rigla și compasul. Mai târziu, a descoperit și dezvoltat Metoda celor mai mici pătrate, Teoria e r o r i l o r, T e o r i a suprafețelor ( teorema egregium și studiul curburii). Tot el a condus observații geodezice și astronomice, a construit (împreună cu Weber) p r i m u l t e l e g r a f electromagnetic, a stabilit formula flux divergență, a măsurat lungimea meridianului pământesc, arătând că Pământul este un geoid (și nu o sferă). după trecerea printre toate rândurile de cuie, deci $ ξ = ξ 1 + ξ ξ n, dacă n este numărul rândurilor de cuie; în figura 4.4, n=8. Fiecare dintre mărimile ξk $ este o v.a. având 1 valorile 1 și 1, cu probabilitățile $ ; așadar, matricea de 2, 1 2 repartiție a lor este 1 1 ξ k 1 1, cu Mξ k = 0 și Dξ k = Conform TLC, pentru $ n 1, ξ se apropie de o v.a. din clasa N(0, $ n ), cu media 0 și dispersia $ σ 2 = n. Lansând succesiv M bile prin pâlnia p, numărul bilelor care se adună în coloana de 1 abscisă x va fi $ M σ 2π e. Curba y = g(x) care înfășoară toate bilele în secțiune, pentru n$ 1, este de forma $ y = Ae kx2, adică tocmai un clopot Gauss. x 2 2σ 2 = M 2πn e x2 2n S-a justificat astfel prin experiment direct miracolul lui Gauss Estimatori și intervale de încredere Statistici și estimatori Dintr-o populație statistică X de volum N (având deci N elemente salariați, piese, dispozitive, temperaturi, diametre, votanți, momente semnificative în derularea unui proces, dar și un set de valori ale unei v.a. etc.) este necesară extragerea unor eșantioane aleatoare ($ la întâmplare) reprezentative, de n elemente, cu n$ N, având șanse egale de a fi extrase. În N practică, se recomandă n 30 și n $. 3 $172
173 Exemplu: Se alcătuiește o listă # x 1, x 2,..., x N a populației inițiale și se aleg n numere naturale aleatoare # k 1,k 2,...,k n cuprinse între 1 și N; un eșantion aleator reprezentativ va fi # x k1, x k2,..., x kn. În toate exemplele anterioare, studiul comportării populațiilor este legat de anumite v.a. asociate, iar densitățile de probabilitate respective depind de anumiți parametri; de exemplu m, # σ, în cazul v.a. din clasa N(m, # σ ) sau # λ în cazul unei repartiții Poisson etc. Definiția 4.2. Prin statistică a unei populații se înțelege orice mărime semnificativă, care poate fi exprimată printr-o funcție # f x 1, x 2,..., x n de valorile unui eșantion reprezentativ # x 1, x 2,..., x n al acelei populații. Se numește estimator al unui parametru, orice statistică ce aproximează acel parametru. Exemple: 1) Considerăm populația diametrelor unui lot de bile de rulmenți și un eșantion reprezentativ d# 1,...,d n ; atunci media Celebritatea i-au adus-o îndeosebi cartea Disquisitiones arithmeticae și teorema limită centrală TLC. În teza sa de doctorat a dat 5 demonstrații (dintre care una greșită) ale teoremei fundamentale a algebrei ( o r i c e p o l i n o m c u coeficienți complecși de grad cel puțin 1 are cel p u ț i n o r ă d ă c i n ă complexă ). Este de-acum stabilit că descoperise geometria neeuclidiană înaintea lui Lobacevski și Bolyai, dar s-a temut de țipetele beoțienilor. Știa totul!... Cu puțin timp înainte de moarte, Gauss l-a condus la doctorat pe B.Riemann, căruia i-a predat ștafeta creației de vârf. # d = d d 1 n este o statistică a acelei populații și la fel este n abaterea medie eșantionară s. 2) Compania de telecomunicații poate avea în vedere populația tuturor celor N abonați; se obține un eșantion reprezentativ luând pe sărite, din 20 în 20, lista abonaților. Presupunem că se studiază ca v.a. semnificativă Y=gradul de satisfacție al abonaților față de serviciile aduse de companie (cu note între 1 și 5). Media empirică a răspunsurilor abonaților din eșantionul ales este un estimator al mediei pentru întreaga populație. Reținem astfel perechile următoare: - populația X de volum N vs. eșantion reprezentativ # x 1,..., x n ; #173
174 - parametrul! asociat unei statistici vs. estimator ˆ! = ˆ! ( x 1,..., x n ) ; de exemplu $! =m (media MX a popula"iei X) #i media empiric! $! = x x 1 n, notat! cu $ x, a e#antionului sau n $! = " = DX vs. $ ˆ! = s, abaterea medie e#antionar!, conform 1.5. În figura 4.5 red!m sugestiv aceste no"iuni. M!rimile $ x 1,..., x n, ca #i $ ˆ! x1,..., x n, sunt la rândul lor v.a. #i dac! m!sur!torile sunt independente, realizate cu acurate"e #i precizie rezonabile, ele pot fi considerate v.a. repartizate la fel. Un scop declarat al Statisticii aplicate const! în elaborarea unor statistici semnificative, de tipul $ x,s, ˆ! etc. cu ob"inerea unor estimatori cât mai buni, care pot reda tendin"ele urm!rite #i în plus, se pot indica intervale de încredere de tipul $ " ˆ! 1, ˆ! 2 $ # % pentru parametrul $!, cu estimarea probabilit!"ilor ca valorile lui $! s! apar"in! acelui interval. Figura 4.5 Defini"ia 4.3. Fie o popula"ie statistic! de volum N #i un parametru! asociat (de tipul m,! etc.). Fie x 1,..., x n un e#antion reprezentativ ($ n! N ) al acelei popula"ii. Un estimator 174
175 ˆ! ( x 1,..., x n ) al lui! se nume$te centrat sau nedeplasat ( unbiased ) dac! # M! ˆ =!. Dintre doi estimatori nedeplasa"i # ˆ!, ˆ! 1 ai aceluia$i parametru, se consider! c! este mai precis cel care are o dispersie mai mic!; în figura 4.5, # $i # sunt estimatori nedeplasa"i pentru!, dar # ˆ! este mai precis. ˆ! ˆ!1 Figura 4.6. Fie X o v.a. cu valori reale (relativ la un câmp fixat de probabilit!"i), cu media teoretic! m=mx $i dispersia DX= #! 2! > 0. Orice set de valori ale lui X formeaz! o popula"ie statistic!; vom considera un e$antion de valori # x 1,..., x n ale lui X, cu n % 2, ob"inute prin m!sur!tori independente, care pot fi asimilate cu v.a. urmând (#! ascultând) aceea$i lege de reparti"ie ca $i X. TEOREMA 4.3. Fie x # = x,..., x 1 n media empiric! a n e$antionului ales $i s 2 = 1 n!1 " n k=1 abaterea medie e$antionar!). Atunci = DX ( x k! x ) 2 (unde s > 0 este # Mx = m $i # M s 2 = DX ; (7) Dx = 1 n! 2 =! n deci! x. (8) Demonstra"ie: #175
176 $ $ $ Avem $ Mx = 1 ( n Mx Mx 1 n ) = 1 ( n nmx ) = MX. Apoi M( s 2 ) = 1 n 1 M ( x 2 k k 2x x k k + nx 2 )= = 1 n 1 M ( x 2 nx 2 k k )= 1 n 1 M ( x 2 k k ) n n 1 M x 2 Dar M$ x 2 = 1 n 2 M x k 2 = 1 n M x 2 k k = M ( X 2 ) k i< j n 2 M x i x j 2 Apoi $ M x k și, din ipoteza de independență,. = M x i $ M x i, x j M x j 2, deci $ M x 2 MX. n Ca atare, = MX = 1 n M ( X 2 ) + n 1 M( s 2 ) = n n 1 M ( X 2 ) n = M( X 2 ) MX n 1 2 = DX Am demonstrat relațiile (7). În fine, 2 Dx = D x x 1 n n = 1 n D x x 2 1 n 1 n M ( X 2 ) + n n 1 MX = 2 = = 1 ( Dx n Dx n ) = 1 ( n σ σ 2 ) = 2 = 1 ( nσ 2 ) = σ 2 n 2 n = Dx = σ n deci $ σ x. $176
177 Atenție! Se mai notează # în loc de # σ x ; pentru valori mai mari ale lui n, (de exemplu, n 30) se poate folosi și formula = s n # σ x. σ x Așadar, media # x a eșantionului este o v.a. care furnizează informație prin măsurători, deci prin experiment direct, asupra mediei teoretice MX. Ca atare, # x este un estimator pentru m=mx. În mod similar, dispersia eșantionară # este un estimator pentru dispersia teoretică DX. Dar, mai mult, are loc următorul COROLAR. În condițiile teoremei 4.3, x# este un estimator centrat pentru m=mx, iar # este un estimator centrat pentru DX. TEOREMA 4.4. Fie X o v.a. cu media teoretică m și abaterea medie pătratică teoretică # σ = DX. Dacă # x 1,..., x n este o selecție de valori ale lui X, ele însele v.a. independente și având aceeași repartiție cu cea a lui X, atunci pentru # n 1 suficient de mare, media selecției este o v.a. normală, anume x N m, σ (9) n Demonstrație: Faptul că # x este o v.a. repartizată normal (pentru # n ) rezultă din corolarul teoremei 4.1 TLC. În acest corolar, suma # S n este o v.a. normal repartizată, deci # x = 1 va n S n avea aceeași proprietate. Apoi Mx # = m și Dx # = σ 2, conform n s teoremei 4.3, de unde rezultă (9). Pentru n 30, # x N m,. n s 2 s 2 #177
178 De reținut: Media $ x a unui eșantion de volum n extras dintr-o populație statistică este distribuită normal, cu media egală s cu media m a populației și cu abaterea medie eșantionară $. n COROLAR: În condițiile teoremei 4.4, pentru orice a < b, avem $ P( a x b) Φ b m. (10) σ n Φ a m σ n Demonstrație: Aplicăm relația (5) din teorema 4.2. Notă Cu notațiile din teorema 4.3, rezultă = M n 1 = n 1 $ M σ 2, conform (7). Ca n s2 = n 1 n M s2 n DX DX σ 2 = 1 n k 2 atare M$ σ 2, deci $ x k x este un estimator (deplasat!) pentru dispersia DX. Din acest motiv, documentele STAS (standarde de stat) recomandă folosirea lui s și nu a lui $ σ, în calcule statistice. Statisticienii recomandă, de asemenea, folosirea formulei N (10) pentru n 30 și n $. 3 Dacă n<30, se recomandă o corecție, anume să se σ înlocuiască $ cu $. n σn N n N 1 APLICAȚIE: (studiu de caz) Într-un lot de 160 de recruți, masele lor au variat între 52 și 94 kg. Presupunem că m=61,2 kg și s=6,7 kg, iar histograma respectivă este cea din figura 4.7 (departe de a fi normală). $178
179 Figura 4.7 Not!m cu X popula"ia statistic! a maselor celor 160 de recru"i (deci N=160). Extr!gând un e$antion de n=36 de recru"i, s-au ob"inut valorile M(# x )=62,3 $i s(# x )=1,2. A$adar, # M x $i #, confirmând formulele (7) $i (8). Dac! s-ar sn = 6,7 6! 1,1 reface histograma pentru # x, s-ar observa c! aceasta este aproape normal!! Ne propunem s! estim!m câteva probabilit!"i: # = probabilitatea ca, alegând la întâmplare un recrut, p 1 acesta s! cânt!reasc! între 57 $i 62 kg. # = probabilitatea ca extr!gând un alt e$antion de 36 de p 2 recru"i din cei 160, media maselor acestora s! fie între 55 $i 65 kg. # = probabilitatea ca extr!gând un e$antion de 81 de p 3 recru"i din cei 160, media maselor s! fie % 60 kg. Iat! r!spunsurile corecte : - probabilitatea # nu poate fi estimat!, deoarece v.a. X=masa recru"ilor nu este repartizat! normal! Ca atare, cunoa$terea lui m $i #! nu este suficient!. p 2 p 1 - # = probabilitatea poate fi estimat! folosind formula (10), deoarece # x este normal!! Aici m = 61,2, deci! m #179
180 $ 62 61, ,2 p 2 = Φ $ 6,7 6 Φ 6,7 6 Φ 0,72 - pentru n = 81, p 3 = P 60 x < deci 95 % din eșantionul respectiv au peste 60 kg. Acest studiu poate fi adaptat la multe situații similare. Intervale de încredere În unele calcule aproximative, alături de valori calculate punctual, se recomandă aritmetica de interval. Exemplu: Presupunem că se știe că a" 1,1;1,2 și $ b 2,1;2,3. Atunci $, iar $. Dacă $ a 1 și $, atunci $, iar 2 ; 1 2 b 1; 3 2 a + b 1 2 ;2 $ ab 3. 4 ; 3 4 Φ( 3,76) 0,764 = 1 Φ 60 61,2 6,7 9 1 Φ 1,61 0,95 [ ] [ ] a + b [ 3,2;3,5 ] ab [ 2,31;2,76] În Statistica aplicată, se consideră în locul unor estimatori punctuali ($ valoare unică), anumite intervale, neunice, numite de încredere, în care se găsesc, cu anumite probabilități controlate, unii parametri estimați. De exemplu, în locul afirmației vârsta medie a unui eșantion de populație studențească este de 23 de ani, se preferă informația vârsta medie respectivă este situată în intervalul [20, 25], cu probabilitatea 0,9. Definiția 4.4. Se numește interval de încredere pentru un parametru $ θ asociat unei populații statistice, orice interval I pentru care se poate estima probabilitatea ca $ θ I. Mai precis, - dacă $ α 0,1 și $, (11) P( θ I ) 1 α, $180
181 atunci se mai spune că I este un interval de încredere pentru % θ cu coeficient 1 % α [în exprimare echivalentă, cu coeficient de încredere #( 1 α ) 100 sau cu eroare sub # α 100% ]. De exemplu, dacă # α = 0,01 și # P θ I, atunci I este un interval de încredere pentru # θ cu coeficient 0,99 și eroare sub 1%. Notă: De regulă, dacă I=[a, b], capetele a, b sunt estimatori punctuali limitativi # ˆθ 1, ˆθ 2 pentru # θ. Ca terminologie, numărul # α se mai numește prag de semnificație. În acest paragraf, vom indica modul de construcție a unor intervale de încredere pentru parametri statistici mai des întâlniți medii, abateri medii, dispersii, diferențe etc. Intervale de încredere pentru media m Fie X o v.a. (nu neapărat normală), cu media m=mx și # σ = DX necunoscute. Dăm următorul ALGORITM: (numit Testul! ) 0,99 Pasul 1. Se consideră un eșantion de valori independente # x 1,..., x n ale lui X. Pasul 2. Se calculează # x și s [Dacă # σ ar fi cunoscut, nu s-ar mai calcula s]. Pasul 3. Pentru # α 0,1 prescris, se determină din tabela de valori a lui # Φ acel # z α > 0 astfel încât # Φ z α. Pasul 4. Un interval de încredere I pentru m, cu eroare sub s # α 100 %, este cel de capete # x ± z α [Dacă # σ ar fi cunoscut, n s-ar utiliza # σ în locul lui s]. z α = 1 α 2 #181
182 $ Justificare: = P x z α P m I! x + z α = Φ s cf.(10) sn m x + z s! α n = cf.(10) s n m s x z α n Φ n m s n. Dar $ m x și $ s σ, deci = Φ( z α ) Φ( z α ) = Φ( z α ) 1 Φ( z α ) $ P m I adică $ = 2Φ z α. (11) 1 = 1 α 1 = 2 1 α 2 Exemple: 1) Presupunem că n=100, $ x =22,5 și s=4,2. Determinăm un interval de încredere pentru m cu eroare sub 5%. Pașii 1 și 2 sunt deja parcurși și, pentru $ α =0,05, se determină acel = 1 0,05 $ z α din tabela lui $ Φ, astfel încât $ Φ z α, deci 2 = 0,975 $ =1,96. Conform pasului 4, intervalul I cerut are capetele z α 4,2 $ 22,5 ±1,96, adică I=[21,68; 23,32]. Dacă se dorea eroare 100 sub 3%, atunci am fi avut $ α = 0,03 și $ z α = 2,17, deci intervalul de încredere ar fi avut capetele 22,5 $ ± 2,17 4,2 100, adică I=[21,59; 23,41], ceva mai larg. 2) Pe un sondaj realizat pe 80 de pensionari din Chitila, s-a constatat că pensia medie este 1600 lei, cu $ σ 500 lei. Stabilim un interval de 99% încredere pentru pensia medie a tuturor pensionarilor din Chitila. $182
183 Aici n=80, # x =1600, s=500 și # α =0,001, deci intervalul cerut are capetele # 1600 ± 2,58 500, așadar [1455,8; 1744,2]. 80 3) Dintr-un eșantion de 270 piese produse de un atelier, s-a constatat că 146 aveau un defect ascuns. Să se determine, cu 95% încredere, proporția pieselor cu defect. Soluție: Fie X=numărul pieselor cu defect. Această v.a. este repartizată binomial cu parametrul # p = ,54 Apoi MX=np și DX=npq. Notăm Z= proporția celor cu defect, deci Z # = X 1 (unde n=270). Atunci MZ=# MX=p și n n # DZ = 1 pq pq DX =, iar # σ 2 z =. Pentru 95% încredere, n n n # =1,96 și proporția cerută este cuprinsă în intervalul de capete z α 0,54 0,46 # p ±1,96σ z = 0,54 ±1,96, adică [0,48; 0,60]. 270 Așadar, proporția pieselor cu defect a fost cuprinsă între 48 % și 60 %. Notă: Se observă că intervalul de încredere are lungimea 1 Φ # 2Φ z α, dar cum funcția # este crescătoare, acest interval z α este cu atât mai întins cu cât # este mai mare, adică cu cât eroarea este mai mică. Se pune problema să găsim valoarea lui n fără a modifica eroarea (nici coeficientul de încredere). Un răspuns de tipul: alegem n cât mai mare este inacceptabil! Notăm # E = z α σ (eventual folosind s în loc de # σ ), n numită eroarea de estimare, deci #183
184 $ n = z 2 α σ 2. (12) Există situații când E este cunoscută apriori. De exemplu, pentru X= vârsta studenților dintr-o facultate, se cunosc $ m 22,3 ani și $ σ = 3,8 ani; luând un eșantion de 80 de studenți, avem σ $ și $. Pentru o eroare de 3%, $ ani n 0,42 E 0,42 z α z α = 2,17 și $ E 0,9 ani. E 2 Exemple: 1) Vrem să stabilim înălțimea medie a unei populații de studenți, cu eroare sub 0,7 cm și cu 95 % încredere. Există o informație (cunoscută din istoria măsurării înălțimii oamenilor), anume $ σ =6 cm. În acest caz, $ z α = 1,96 și $ n = 1, date. Este, 0,7 2 deci necesar un eșantion de 282 studenți. 2) Un inspector financiar (ANAF) cere unui SRL să genereze un interval de 97% încredere, cu eroare ±0,1 milioane lei pentru media profitului pe anii anteriori; presupunem că se cunoaște că $ σ =0,15 milioane lei. În acest caz, $ =2,17; E=0,5, deci, conform formulei (12), z α $ n = 2,172 0, date. 0,1 2 Intervalul cerut are capetele $ x ± 2,17 0,15, unde $ x este 11 profitul mediu rezultat din eșantionare. Intervalul de încredere pentru! σ s σ Pentru n 30, $ este un bun estimator pentru $ ; în n n ipoteza că populația inițială este aproape normală, se poate arăta $184
185 că un interval de încredere cu eroare # α 100% pentru # σ este cel s având capetele # s ± z α. 2n Exemplu: Presupunem că n=40 și s=1,2 și determinăm un interval de încredere pentru # σ cu coeficientul 0,99. În acest caz, # s 2n 0,13, z α = 2,58 capetele # 1,2 ± 2,58 0,13, deci este [0,87; 1,53]. ; intervalul cerut are Interval de încredere pentru diferența mediilor Considerăm două v.a. independente # X 1 și # X 2, cu mediile # m 1 = MX 1, m 2 = MX 2 și abaterile medii pătratice # σ 1 = DX 1, σ 2 = DX 2. Considerăm de asemenea # n1 eșantioane pentru # X1 și # n2 pentru # X 2, cu mediile empirice respective # x 1 și # x 2. Fie # Z = x 1 x 2, diferența mediilor; aceasta este o v.a. cu media # m = MZ = Mx 1 Mx 2 = MX 1 MX 2 = m 1 m 2 și dispersia + D( x 2 ) = 1 σ n 1 n σ # DZ = D x 1 (conform formulei (8)). Notăm # σ = DZ, deci pentru orice numere reale a<b, similar cu (10), avem # P( a x 1 x 2 b) Φ b m + m 1 2 (13) σ Φ a m + m 1 2 σ Exemplu: Media notelor obținute de studenții unei facultăți F1 a fost 7,6, cu dispersia 0,5; iar media studenților unei facultăți F2 a fost 7,4 cu dispersia 0,4. Se consideră câte un eșantion de 25 de studenți de la F1 și F2. Estimăm probabilitatea ca media eșantionului din F1 să fie mai mică decât media eșantionului din F2. #185
186 $ $ Not!m cu X 1 (respectiv X 2 )= nota studen"ilor din F1 (respectiv F2), rezult! m 1 =7,6; m 2 =7,4. Apoi n 1 =25, n 2 =25; $! 1 = 0,5 # i! $ 2 = 0,4, deci m $ = m 1! m 2 =!0,4 # i 1 2 " $! = 1! %! 2. Ca atare, conform (13), # $ n 1 n 2 & ' ( 0,19 P( x 1! x 2 ) = P ("# < x 1 " x 2! 0) $ % & ' ( 0 " 7,6 + 7,4 ). 0,19 * + $ 0, Miracolul lui Pearson: legea hi p!trat #i testul de potrivire Începem cu prezentarea unei noi legi teoretice de reparti"ie, legate de legea normal!. Defini"ia 4.5. Fie $ X 1,..., X n v.a. independente din clasa N(0, 1), adic! repartizate normal #i normate. Printr-o conven"ie impus! de mae#trii statisticieni, se spune c! o v.a. $! n > 0, astfel încât $! 2 n = X X n! " hi urmeaz! legea hi p!trat a lui Pearson cu n grade de libertate. Not!: Func"ia de reparti"ie pentru v.a. $ este tabelat!. Evident, M! 2 n = n #i D! 2 n = n. Pentru n>30, reparti"ia lui $ se apropie de reparti"ia normal!; figura 4.8.! n 2! n Figura
187 TEOREMA 4.5. Fie X o v.a. și # x 1, x 2,..., x r o selecție de valori ale ei, luate cu probabilitățile # p 1, p 2,..., p r. Presupunem apoi că într-o selecție de volum n, valorile # apar de # ori (1 k r). Atunci v.a. # χ > 0, definită prin χ 2 = r k=1 ( f k np k ) 2 np k, (14) urmează legea hi pătrat cu r grade de libertate. Demonstrația este tehnică și poate fi găsită în [18]. Exemple: 1) Într-o anumită zi, la o oră de vârf ( prime time ), s-au sondat audiențele a 4 canale TV, să zicem PROTV, ANTENA 3, B1TV, TVR1 și s-au constatat următoarele procente: 30%, 25%, 20%, 25%. După două zile, s-a făcut un sondaj printre 500 telespectatori, care, desigur, nu și-au modificat simpatiile între timp. Dar după un alt sondaj făcut după un an, printre alți 500 de telespectatori, s-au obținut numerele # f 1, f 2, f 3, f 4 de telespectatori care au urmărit cele 4 canale TV. Întrebare: a apărut sau nu o modificare semnificativă în repartizarea simpatiilor telespectatorilor? Altfel spus, se mai potrivesc datele estimate (sau sperate) inițial cu cele observate (măsurate) după un an? 2) Un mare comerciant dorește să vadă dacă un anumit produs se vinde sau nu la fel în 5 din magazinele sale. Prin experiment statistic, el a constatat că în 3 luni s-au realizat vânzări de # f 1, f 2, f 3, f 4, f 5 milioane lei. Întrebare: Este această informație suficientă pentru a decide că există mari diferențe între cele 5 magazine? 3) Cea mai importantă problemă pe care o vom aborda în continuare este următoarea: fiind dată o selecție de date statistice experimentale # x 1, x 2,..., x r, în ce măsură aceasta se potrivește, #187 x k f k
188 24 Karl Pearson ( ) a fost un mare m a t e m a t i c i a n ș i biostatistician englez. El a pus bazele biometricii (fondator al revistei Biometrika în 1911), meteorologiei statistice și darwinismului social. A introdus la Universitatea College London, pe care o absolvise, disciplina Statistică matematică. Ca o curiozitate, a studiat Dreptul roman și a fost expert în Literatura germană; în plus, a descoperit că studenții germani și englezi sunt slab dezvoltați fizic, introducând parametri biometrici, încă actuali. L-a cunoscut pe Sir Francis Galton, văr al lui Darwin și a devenit un liber cugetător. În 1920 a refuzat Order of British Empire și titlul de cavaler, după ce militase pentru drepturile politice ale femeilor și ale raselor considerate inferioare. A u r ă m a s c e l e b r e determinările sale biometrice și abordările sale în teoria deciziilor statistice. Pearson a introdus histogramele, coeficientul de corelație și legătura cu curbele de r e g r e s i e, s t a b i l i n d rezultate importante r e l a t i v l a t e s t a r e a ipotezelor statistice. Dar peste toate, el a descoperit legea hi pătrat și testul de potrivire a unor selecții de date cu legile teoretice de repartiție, apreciat (alături de TLC) ca al doilea miracol al Statisticii. (vezi și nota 4). adică este supusă uneia din legile de repartiție teoretice cunoscute? Astfel de probleme se întâlnesc în multe situații practice, justificând eticheta de miracol dată legii hi pătrat. Pentru rezolvare, se aplică ALGORITMUL: (numit Testul hi pătrat de potrivire, al lui Pearson 24 ) Pasul 1. Se fixează o selecție $ x 1, x 2,..., x r de valori ale unei v.a. X și se estimează probabilitățile cu care aceste valori sunt luate. Pasul 2. Se observă (sau se măsoară) numărul aparițiilor $ ale valorii $, pentru 1 k r. f k x k Pasul 3. Se calculează suma $ χ 2 r f = k np k. k=1 np k Cu notații sugestive, $ χ 2 = ( O E) 2 E 2, unde O reprezintă datele măsurate (sau observate) și E datele estimate (sau sperate). Pasul 4. Se fixează un nivel de semnificație $ α 0,1 și, din tabela de valori ale repartiției hi pătrat, se extrage valoarea $ χ 2 corespunzătoare nivelului $ α și valorii r 1 (r fiind numărul gradelor de libertate; dar se cunoaște o mărime semnificativă: anume n). Pasul 5. Dacă $ χ 2 2 < χ α, atunci se acceptă ipoteza că $ p k f k pentru 1 k 2 (la nivelul de semnificație $ α prescris); n altminteri, această ipoteză este respinsă. Exemple: Reluăm mai întâi cele două exemple anterioare. 1) În cazul audiențelor TV, X= setul canalelor TV; r=4 (cele 4 canale urmărite) și probabilitățile cu care sunt alese cele 4 $188
189 # canale # p 1 =0,3 (# 30 %); # p 2 =0,25; # p 3 =0,2 și # p 4 =0,25. Au fost chestionați 500 de telespectatori, deci datele estimate sau sperate (E) sunt # np 1 = 500 0,3 = 150; np 3 = 100 și # np 2, np 4 = 125. După un an, s-a realizat alt sondaj (pe alți 500 de telespectatori) și s-au obținut următoarele date măsurate sau observate (O): # f 1 =142, # f 2 =138, # f 3 =115, # f 4 =112. Am parcurs astfel primii doi pași ai testului hi pătrat. La pasul 3, calculăm suma χ 2 = 2 + ( ) ( )2 5, La pasul 4, alegem nivelul de semnificație # α = 0,1 (deci 1% eroare) și din tabela ce corespunde valorii r 1=3 și nivelului 2 # α, avem # χ 0,1 = 6,251; numărul gradelor de libertate scade cu 1, deoarece se cunoaște n. Deoarece # χ 2 2 < χ 0,1, rezultă că în suma (14), diferențele # f k np k sunt mici, deci # p k f k, adică are loc o n ( f k ) p k potrivire între datele măsurate # și cele estimate #. Dacă la pasul 4 am fi ales nivelul # α = 0,2 (2% eroare), 2 atunci din tabelă ar fi rezultat # χ 0,2 = 4,642 și # χ 2 2 > χ 0,2, deci la acest nivel, ipoteza de potrivire nu s-ar fi confirmat, așadar ar fi apărut o modificare în opinia telespectatorilor. 2) În exemplul secund, presupunem că în cele 3 luni de control la cele 5 magazine, s-au realizat vânzări de 32, 45, 47, 27, și 48 milioane lei. 1 Media vânzărilor este # ( ). 5 39,8 În cazul unor vânzări la fel, ar înseamna o repartiție #189
190 uniformă a câștigurilor, deci ar fi trebuit să se vândă la fiecare din cele 5 magazine produse de 41,2 milioane lei; acesta este setul estimat (E). Cel dat în enunț este setul observat (O). În acest caz, χ 2 = ( 32 39,8 )2 + ( 45 39,8 )2 + ( 47 39,8 )2 + 39,8 39,8 39,8 $ , ( 48 39,8 )2 9,31. 39,8 39,8 Deoarece se cunoaște media repartiției, statisticienii recomandă să se considere că au rămas r 1=4 grade de libertat și, 2 la nivel de semnificație $ α = 0,1, din tabelă rezultă $ χ 0,1 = 9,448 ; ca atare, ipoteza de potrivire nu se verifică. Concluzia este că există diferențe mari între cele 5 magazine. Așa cum am spus, cea mai importantă aplicație a testului Pearson este potrivirea unor selecții de date cu o selecție rezultată dintr-o lege teoretică de repartiție. Exemplul 2) este unul de potrivire (sau nepotrivire) cu repartiția uniformă. În continuare dăm alte două exemple. Se recomandă gruparea datelor în r grupe, apoi se estimează media sau alți parametri și se generează același număr de date, dar repartizate conform legii alese; aplicând testul de potrivire, se poate decide dacă cele două șiruri de date (E) și (O) sunt sau nu apropiate. 3) (Potrivire cu repartiția binomială.) Presupunem că o reclamă a fost difuzată în mass media. Dintr-un eșantion de 800 de persoane, au fost 434 care nu au auzit sau văzut reclama; 329 au auzit o dată, 35 de două ori și 2 de 3 ori. Ne propunem să verificăm la nivel de semnificație $ α = 0,05 (deci 5% eroare) dacă numărul respectiv, X (=de ori când persoanele au aflat de reclamă) este sau nu repartizat binomial cu parametrul p=0,2. Dacă v.a. X este repartizată binomial, atunci are matricea de repartiție $190
191 # # X p 0 p 1 p 2 p 3 unde # p k = C k 3 p k 1 p. Așadar, # ; # p 1 = 3p 1 p ; # și #. Din eșantionul de n=800 de persoane, setul estimat (E) era # np 0 = 409,6; np 1 = 307,2; np 2 = 76,8 și np # 3 = 6,4, în timp ce setul observat a fost # f 0 =434; # f 1 =329; # f 2 =35; # f 3 =2. Conform (14), avem Dar # 3 k ; 0 k 3 p 0 = 0,8 3 = 0,512 2 = 0,384 p 2 = 3p 2 ( 1 p) = 0,096 p 3 = 0,008 χ 2 = ( ,6 )2 409, , ,4 76,8 6,4 2 χ 0, , ,2 2 28,77. = 7,815 și ipoteza de potrivire se respinge. Deci datele respective nu urmează legea binomială. 4) (Potrivire cu repartiția normală.) Presupunem că timpul mediu de asamblare (în minute) pentru un eșantion de 300 aparate electronice a fost m=84 minute, cu abatere medie pătratică # σ =3 minute. S-a observat că aceste 300 de aparate au fost repartizate astfel: pentru 8 aparate au fost necesare sub 78 minute, pentru 39 între 78 și 81 minute, pentru 103 între 81 și 84; pentru 100 între 84 și 87; pentru 42 aparate între 87 și 90 minute și pentru 8 aparate, peste 90 minute. Să se testeze la nivel 1% de semnificație dacă datele anterioare sunt sau nu repartizate normal. Soluție: Așadar, avem r=6 grupe. Fie v.a. X=timpul de asamblare. În cazul că X ar fi normal repartizată, am avea # X N(84; 6) Atunci # p 1 = P( X < 78) = Φ ; 3 = Φ( 2) 0,023 #191
192 $ $ = Φ $ p 2 = P 78 X 81 $ p 3 = P 81 < X 84, $, $ și $ p 6 0, Φ ,136 0,341 p 4 0,341 p 5 0,136 Înmulțind aceste probabilități cu n=300, se obține setul de date estimate (E), anume: 6,9; 40,8; 102,3; 102,3; 40,8; 6,9. Datele observate (O) sunt: 8; 39; 103; 100; 42; 8. Aplicând formula (14), avem χ 2 = ( 8 6,9)2 + 6, , ,3 ( 39 40,8 )2 40,8 ( 42 40,8 )2 40,8 + ( ,3) ,3 + ( 8 6,9)2 6,9 0,52. Deoarece am utilizat trei măsuri ale eșantionului, anume n, m, $ σ, numărul de grade de libertate este r 3=3. Pentru un nivel de semnificație $ α =0,1 (adică eroare 1%) din tabelă, avem $ χ 2 α = 6,251. Deoarece $ χ 2 2 < χ α, rezultă că ipoteza de normalitate 25 Ea aparține statisticianului englez Gosset, care a publicat-o în 1908, pe vremea studenției sale, sub pseudonimul STUDENT. se acceptă. Definiția 4.6. Fie $ Y, X 1,..., X n v.a. independente din clasa N(0, 1). Legea de repartiție a v.a. t n = Y 1 n χ 2 n se numește legea Student cu n grade de libertate 25. Pentru n>100, repartiția Student se apropie de repartiția normală. În practică, ea se recomandă mai ales pentru n<30. Specialiștii statisticieni au stabilit tabela de valori ale repartiției Student. Un alt rezultat fundamental al Statisticii teoretice și aplicative îl constituie $192
193 TEOREMA 4.6. Fie X o v.a. cu media m=mx și dispersia DX=# σ 2 σ > 0. Dacă # este o selecție de valori x 1, x 2,..., x n x independente ale lui X cu media empirică # și abaterea eșantionară # s 2 s > 0, atunci v.a. ( x m) n s (15) urmează legea Student cu n 1 grade de libertate. Demonstrație Are loc relația n x m # = 1 (. s σ x m) n 1 σ 2 s2 1 Dar v.a. Z =# ( este repartizată normal cu media 0 și σ x m) n dispersia 1 (deoarece MZ=0 și # DZ = n, σ D( x m) = n 2 σ D( x ) = conform (8)). Pe de-altă parte #. σ 2 s2 = 1 n x k x k=1 n 1 σ Dar v.a. X# k = x x k N( 0,1) și doar n 1 sunt σ 1 independente (deoarece # X k = 0 ); rezultă că v.a. # are 1 aceeași repartiție cu #. n 1 χ 2 n 1 k 2 σ 2 s2 Așadar, conform definiției 4.6, raportul # t n = Y 1 σ 2 s2 = ( x m) n s va avea repartiția Student cu n-1 grade de libertate. Folosind această teoremă, se pot construi intervale de încredere pentru media și dispersia unor v.a., mai precise decât cele date anterior în paragraful 4.4. #193
194 Pentru orice nivel de semnificație, se poate determina, din tabela de valori a repartiției Student, acel prag $ n = 1 α t n 1 = x m, astfel încât $ P t n 1 t α. Înlocuind $, rezultă direct că s $ P x m < st α, adică am obținut următorul: n = 1 α COROLAR 1: Intervalul de capete $ x ± s este un n t α interval de încredere pentru m=mx, cu coeficientul 1 $ α (adică eroare sub $ α 100 %). ( n 1)s 2 2 Am văzut că v.a. $ are repartiția lui $. Atunci, σ 2 pentru $ α 0,1 dat, determinăm numerele $ și $ astfel încât P$ x 1 α t α χ n 1 x 1 ( α ) x 2 ( α ) ( χ 2 n 1 x 2 ( α )) = 1 α ; aceste numere nu sunt unice. De aceea, folosind tabela lui $ χ 2, se pun condițiile ( ) = α $ P χ n 1 x 1 α și P$ χ n 1 x 2 α. Înlocuind aici s2 2 $ χ n 1 = n 1, rezultă că $ P n 1 σ 2 n 1, σ 2 α α = 1 α așadar următorul: ( n 1)s 2 COROLAR 2: Intervalul de capete $ α este un interval de încredere pentru DX, cu coeficientul 1 $ α (eroare sub $ α 100%). În analogie cu testul $ ( ) = α 2 s2 x 2 s2 x 1, prezentăm testul t al lui Student, privind intervale de încredere pentru medii. z α x 2 s 2, n 1 ( α ) x 1 $194
195 # # ALGORITM: ( testul t ) Fie X o v.a. cu media teoretică MX=m și dispersia # DX = σ 2. Fie # x 1, x 2,..., x n o selecție de valori independente ale lui X. k Pasul 1. Se calculează # x = 1 x k și n s = 1 n 1 k ( x k x ) 2 Pasul 2. Pentru # α 0,1 prescris, se determină din tabela Student cu n 1 grade de libertate, coeficientul # t α = t n 1,α. s Pasul 3. Intervalul de capete # x ± t α este de încredere n pentru media m, cu coeficientul de încredere. Exemple 1) Fie X= nota obținută la un examen, la un an de studii; pe un eșantion de n=6 note s-au obținut următoarele note: 7, 10, 5, 9, 8, 6. Să se determine un interval de încredere 98% pentru media lui X. # x = 1 și # ,50 1 α s = 1 5 0,52 + 2, ,5 2 +1, ,5 2 +1,5 2 1,87. Intervalul cerut este intervalul de capete 7,5 ±3,365# 1, ) O populație X are dispersia 0,35. Se cere un interval de 95% încredere pentru media lui X, știind că un eșantion al acelei populații a dat următoarele valori: 21,7 (de 3 ori); 22,3 (de 4 ori); 23,0 (de două ori). 3 21, , Soluție: # x = 22,6 ; # α = 0,05 ; #195
196 n 1 = 8 și, din tabela Student, t α 1,860. Intervalul cerut I are capetele 22,26 ± 1,860 0,35, deci I = [21,89; 22,63]. 9 3) Urmărind valorile unui anumit indicator de calitate c, s-au obținut următoarele 6 date: 1,12; 1,14; 1,14; 1,15; 1,12; 1,17. Să se determine un interval de încredere 99,9% pentru media lui c (deci cu eroare sub 1 ). Răspuns: Din tabela Student, pentru $ α = 0,001, rezultă $ t α = 5,893. Dar $ x = 1 1,12 +1, ,17 6 și $ s = 1 5 k ( x k x ) 2 = 1, ,019. Intervalul cerut are capetele: 0,019 $ x ± t α = 1,14 ± 5,893 = 1,14 ± 0,046, cu [1,09; 1,19]. sn 6 4) Durata de funcționare a unor lămpi de iluminat este o v.a. X cu parametri m și $ σ necunoscuți. Pentru estimarea lor, s-a realizat un experiment cu n=16 lămpi, obținând $ x = 3000 ore și s=20 ore. Ne propunem să determinăm un interval cu eroare sub 5% (deci cu coeficient de încredere 95%) pentru m, aplicând testul t și apoi testul $ z α. α Pentru n 1=15 și $ =0,05, tabela repartiției Student dă $ t α =2,131 și intervalul cerut are capetele 3000 $ ± 2,131 20, 16 deci [2989; 3011]. Conform testului $, intervalul de încredere va s avea capetele x $ ± z α, unde z$ α este ales astfel încât n = 0,975 z α = 1,96 $ Φ z α, iar $ ; rezultă intervalul [2990; 3010]. z α $196
197 # Notă Testul t este mai bun decât testul #. Pentru n 30 cele două teste dau rezultate apropiate. Dar pentru valori mai mici ale lui n (adică ale volumului eșantionului), specialiștii recomandă testul t. z α # 4.6. Întrebări de control la Capitolul 4 1. Enunțul popular al TLC. 2. Ce sunt statisticile și estimatorii? 3. Dar estimatorii centrați (# nedeplasați); exemple. 4. Ce sunt intervalele de încredere pentru parametrii statistici? 5. De ce miracole? 6. Explicați de ce x are comportare normală, chiar dacă populația mare nu are. 7. Ce înseamnă test de potrivire? 8. Explicați rostul testelor # și t. 9. Legea hi pătrat. z α Sumar de formule 1. Formula (5): P( A X B) = P( A < X < B) Φ B m 2. Regula lui 3# σ. 3. Formulele (7) și (8). 4. Formula (9) # x N m,σ n sau #. # 5. Formula (10). 6. Enunțul testului. 7. Enunțul testului hi pătrat. 8. Enunțul testului t. σ Φ A m σ x N( m,s n ) z α. #197
198 $ $ $ Exerciții la Capitolul 4 1. Fie X$ N(500,50). Folosind tabela lui Φ$, să se calculeze $ p 1 = P(X > 600) și $ p 2 = P(480 X 520). apoi Soluție Se folosesc formulele (5), (6), (6 ). Așadar, 1 Φ P X > 600 p 2 = Φ = Φ 0, Inegalitățile <, sau, > conduc la același rezultat, deoarece $ Φ este funcție continuă. 2. Fie % X N 0,1. Să se calculeze $ = P(X 1,96); $ $ p 2 = P(X > 2,33); $ p 3 = P(1 < X 1,96). Răspuns $ p 1 = 0,975; p 2 = 0,010; p 3 = 0, Fie Y$ N 0,2. Să se calculeze $ și $ p 2 = P Y 3 Y 4. Soluție Φ 1 Φ( 0,4) = 2Φ 0,4 p 1 = P 3 Y 3 = 2Φ 1,5 = 1 Φ 2 = Φ 0,4 și $ p 2 = P Y 3. P Y 4 0,977 0,886 = 1 0,977 = 0,023 Φ( 0,4) = 1 = 2 0,655 1 = 0,310 p 1 p 1 = P Y 3 = Φ Un atelier fabrică bile de rulmenți. Diametrul nominal al bilelor este $ =5 mm și abaterea medie a bilei de diametru d de la d 0 $ d 0 este v.a. $ X = d d 0. Aceasta are media 0 și dispersia 1 2 0, ,866 = 0,866 2 Φ = ; $198
199 # # σ 2 = 1. La CTC (# controlul tehnic de calitate), se elimină 400 bilele având abaterea mai mare de 0,1 mm. Ce procent de bile se elimină? Soluție: Așadar, # X N(0; 0,05) și Se elimină bilele cu # d d 0 > 0,1 și probabilitatea eliminării este 1 0,954# 0,046. Ca atare, se elimină 0,046# 100%=4,6% din bile. 5. O uzină produce țevi cilindrice cu diametrul nominal d = 10 mm; mai precis, d# N(10; 0,4). La un control CTC, se acceptă doar țevile cu d cuprins între 9,3 și 10,7. Să se determine procentul țevilor rebutate. Răspuns: P(rebut)=# 1 P d m 0,7, 0,4 1 0,08 deci circa 8 % sunt rebuturi. probabilități: = P 0,1 X 0,1 P d d 0 0,1 = = Φ 0,1 0 0,05 Φ 0,1 0 0,05 = 2Φ 2 1 0,954 = 1 2Φ 0,7 6. Dacă X$ N# m,σ, să se estimeze următoarele p 2 = P( m + 2σ < X < m + 3σ ) # p 1 = P m < X < m +σ și #. Răspuns: # p 1 0,341; p 2 0, Statisticienii de la o firmă de asigurări declară că primesc în medie 300 de reclamații pe an. Considerând că v.a. X= numărul de reclamații pe an este repartizată Poisson, să se estimeze probabilitatea să se primească cel puțin 340 de reclamații pe an. #199
200 $ $ $ $ $ Soluție: Așadar, parametrul repartiției Poisson respective este λ =MX=300 și σ = DX = 300. Asimilând repartiția cu una normală din clasa N(300, 300 ), rezultă că P( X 340) 1 Φ ,1 8. Aproximarea legii binomiale cu o lege normală. Fie$ X B p,n deci MX=np și $ DX = npq deci $ X N np, npq. Dacă k este un număr natural fixat și n > k, atunci P X k 1 2,k P X = k k + 1 Φ 2 np k 1 npq Φ 2 np npq iar P(X k) = $ Φ k np. npq 9. Aproximarea legii Poisson cu o lege normală. Fie $ X P λ cu $ λ 5. Avem MX =$ λ, DX =$ λ și asimilăm k! $ X N λ, λ. Pentru $ fixat, P X k 1 2,k P X = k $ etc. k + 1 Φ 2 λ k 1 λ Φ 2 λ λ Notă Fixăm n 2 întreg și fie S o v.a. repartizată Poisson, cu media $ λ = n. Atunci S aparține clasei N(n, " n ) deci $200
201 P n 1 2 < S < n # P S = n și cum # σ = DS = n, rezultă că e ( x n) 2 1 n+ # P( S = n) 1 2 2n = dx. 2πn n 1 2 = nn e n Pe de altă parte, # P S = n (conform definiției 3.3 n! din Capitolul 3), iar integrala tinde către 1 (căci integrandul tinde către 1 pentru # n, iar intervalul de intergrare are lungimea 1). n n e n 1 La limită, rezultă că #, deci n! # n n e n 2πn. n! 2πn Surpriză! Am demonstrat astfel formula lui Stirling. 10. Legea log normală. Dacă X# N(# m,σ ), atunci se spune că v.a. Y este repartizată după legea log normală. Să se calculeze MY și DY. Soluție: Dacă X$ N(0,1), atunci # MY = 1 e t e t 2 2 dt = 1 și 2π e t π dt = e = 1 2π # M Y 2 e 2t e t 2 2 dt = e. 1 = σ 2π 2 n+ 1 e n În cazul X$ N(# m,σ ) și # Y = e X, rezultă MY =# e m+σ 2 și DY =# e 2m+2σ 2 e 2m+σ Diametrul d al unei particule în nm ( nanometri ) este repartizat după o lege log normală, cu m=2 și # σ = 2. Să se determine P(d > 20). Răspuns: ( x n) 2 2σ 2 dx #201
202 $ $ P( d > 0) = P( e X > 20) = P( x > ln20) = $ = 1 Φ ln = 1 Φ 0, Fie X" N($ m,σ ) și $ x 1, x 2,..., x n o selecție de valori ale lui X" n 1, cu media empirică $. Să se arate că, pentru orice $ ε > 0, P( x m < ε ) 2Φ ε n. σ 1 Soluție: Fie S$ n = x 1 + x x n, deci MS $ n = m și $ DS n = nσ 2. N o t â n d Z$ n = S MS n n = S MS n n, r e z u l t ă MS n σ n următoarea egalitatea de evenimente: 0,230 x = 1 ( n x + x x 1 2 n ) { x m < ε} = S n n m < ε = S MS < nε n n = Z n < ε n = ε n σ σ < Z < ε n n σ { } = Aplicând formula (5) și faptul că $ Z n N 0,1, rezultă că Φ ε n P x m < ε σ Φ ε n σ = 2Φ ε n σ 1 Notă: Pentru $ ε = 3σ n, rezultă că P x m < 3σ n 2Φ 3 1 0,997. De asemenea, $202
203 # # P( x m ε ) = 1 P( x m < ε ) = # = 1 2Φ ε n σ 1 = 2Φ ε n σ Pentru # n, se regăsește legea numerelor mari studenți au dat un examen normal, unde nota a fost o v.a. # X N 7; 1,5. Câți studenți au avut media între 6 și 8? Soluție: P 6 X 8 1,5 Φ 6 7 1,5 = = Φ( 0,67) Φ( 0,67) = 2Φ( 0,67) 1 = = 2 0,749 1 = 0,498 Φ 8 7 Numărul cerut este 110# 0, 498 =55 studenți. 14. Un motociclist face în medie m=1200 km/lună, cu # σ =150 km/lună. Care este procentul de motocicliști care parcurg între 1100 și 1500 km/lună? Răspuns: Distanța parcursă este D$ (1200; 1500) deci Φ P 1100 < D < Ca atare, procentul cerut este 72,6%. 15. Considerând greutățile corporale ( masele ) ale populației de 350 de studenți dintr-o facultate, s-a constatat că media teoretică este m=70 kg și # σ =10 kg. Să se determine probabilitățile următoare: a) # = ca media greutăților să fie cuprinsă între 65 și 80 kg; b) # = ca extrăgând un eșantion de 36 de studenți, media eșantionului să fie sub 68 kg. Soluție: Φ = Φ( 2) Φ( 0,67) Φ( 2) + Φ( 0,67) 1 0,726 p 1 p = #203
204 a) Nu se poate da răspuns, deoarece nu se știe dacă populația este repartizată normal. b) n=36, m=70, $ σ =10, deci $ σ x = σ ; n = , conform formulei (9), $ P( x 68) Φ. 1,67 = 0, Înălțimile unei populații de elevi de gimnaziu au media m=140 cm și $ σ =5,6 cm. a) Care este probabilitatea ca un elev ales la întâmplare să aibă înălțimea de 150 cm? b) Extrăgând un eșantion de 49 de elevi, care este probabilitatea ca un elev ales la întâmplare, din acel eșantion, să aibă înălțimea de peste 150 cm? Răspuns: a) Nu se poate decide. b) Cu notații transparente $ P( x 150) = 1 Φ. Dar nu este imposibil! 5,6 49 = Fie o populație statistică având 3n elemente, media m și dispersia $ σ 2. Pentru un eșantion de volum n, cu media $ x și abaterea eșantionară s, care este probabilitatea ca $ x să fie cuprinsă între valorile a și 2a? R. $ P( a x 2a) Φ 2a m. σ n Φ a m σ n 18. Un eșantion de 36 studenți dintr-o facultate are vârsta medie de 23,7 ani, cu s=3,6 ani. Să se indice un interval de 90% încredere ($ eroare sub 10%) pentru vârsta medie a tuturor studenților. $204
205 Soluție: Așadar, n=36; m=23,7 și # α =0,1 și din tabelă se caută # z α astfel încât Φ# z α ; anume, #. deci este [22,7; 24,7]. 19. Într-un test de memorie cu 20 de itemuri (# subiecte), la care au participat peste 100 de studenți, s-a observat că pe un eșantion de 9 studenți, aceștia și-au amintit respectiv 10, 12, 20, 6, 12, 10, 9, 14, 7 itemuri. Dacă # σ =2,8, să se determine un interval de 99% încredere pentru media itemurilor reținute de studenți. Soluție: n= 9; # σ x = σ. Apoi # = 0,01 (1% n = 2,8 9 = 0,93 α eroare) și # Φ z α = 0,495 ; din tabelă, rezultă că # z α = 2,58 2 și intervalul cerut are capetele x # ± z α # x = = 1 α 2 = 0,95 z α = 1,66 s Intervalul cerut are capetele # x ± z α, adică 23,7 ± 1,66# 3,6 n 6 = 1 α 11,11, u n d e Rezultă intervalul [8,71; 13,51]. 20. Pentru vârstele unui eșantion de 64 membri ai unui ONG, media și abaterea eșantionară (# deviația standard) sunt # x =38,2 și respectiv s=3,4 ani. a) Să se determine un interval de 98% încredere pentru media m a membrilor acelui ONG; b) Cât de mare trebuie să fie eșantionul dacă dorim încredere 95% pentru m, cu eroare sub 6 luni. Răspuns: a) 1 # α = 0,98, deci # α =0,02 și # Φ( z α ) = 0,49 ; # z α =2,33. Intervalul cerut are capetele 38,2 ± 2,33# 3,4. 8 s n #205
206 b) Conform formulei (12), $ n = 1,962 3, membri. 0, În procesul de fabricație a bilelor de rulmenți, diametrul bilelor are abaterea medie pătratică $ σ =0,02 mm. Ce eșantion să alegem dacă dorim ca diametrele să fie în limite de ± 0,01 mm cu încredere 99%? R: $ σ x = σ și punem condiția ca$. n = 0,02 2,58 σ x 0,01 n Așadar,$ 2,58 0,02 0,01, deci $ n 5,16 și n 27. n Se putea aplica și formula (12): $ n = 2,582 0, , Deviația standard pentru IQ este s=15 puncte. Cât de mare trebuie să fie un eșantion dintr-o populație de punctaje IQ pentru un interval de 99% încredere pentru a estima punctajul mediu IQ în limitele unei erori de 4 puncte? R: z=2,58 ; $ σ 15; E=4 și aplicăm formula (12). 23. Fie o populație statistică cu $ σ =7,4 și un eșantion extras având n=49 elemente, cu media eșantionului $ x =66. Folosind testele $ și t, să se determine un interval de 68% încredere pentru media m a acelei populații. Soluție: $ α =0,32; Φ$ z α și $, deci intervalul cerut are capetele 66 ± 0,99$ z α = 0,34 z α = 0,99 7,4 7. În cazul testului t, intervalul cerut are capetele $ 66 ± t α 7,4, unde $ t α se ia din tabela 7 Student (care nu este prea accesibilă pentru $ α =0,32!). 24. Pentru un eșantion de volum n=25 al unei populații statistice s-au obținut următoarele rezultate: $ x =3,04 și s=0,16. $206
207 Să se determine un interval de 99% încredere pentru media populației. s R: 3,04 # ± t α și din tabela cu # α =0,1 și n 1=24, n rezultă # =2,49. Intervalul cerut este [2,96; 3,12]. t α 25. La un concurs sportiv, doi concurenți A, B au primit următoarele punctaje de la cei 5 arbitri: A: 254, 257, 232, 245, 241; B: 230, 243, 220, 257; 235. Să se determine clasificarea celor doi concurenți și probabilitatea ca aceasta să fie corectă. Soluție: Mediile obținute de cei doi concurenți sunt # x = 245,8 pentru A și # y = 237 pentru B, deci A ar fi înaintea lui B. Conform formulei (13) 0 245, # P( x y ) = P( x y 0) 1 Φ, unde σ # σ 2 = 1 σ 2 x σ y. Considerăm eșantioane cu n# 1 = n 2 = 25 și n 1 n 2 # σ x = σ y = 20 deci # σ 2 = 32. Atunci P# x y 0, 4 2 = Φ( 1,56) 0,941 = 1 Φ 8,8 deci clasificarea propusă este corectă cu probabilitatea peste 0,94. #207
208
209 Motto: Nu putem prezice ce se va întâmpla într-o situație sau alta, dar putem analiza consecințele unei ipoteze și estima probabilitatea unor evenimente. R. FEYNMAN CAPITOLUL 5: TESTAREA IPOTEZELOR STATISTICE 5.1. Introducere Toate deciziile responsabile economice, financiare, inginerești, medicale etc. se bazează pe cunoașterea experienței anterioare, pe observații și măsurători obiective sau pe cerințele participării la progres. Același lucru se întâmplă, la o altă scară, în luarea deciziei individuale de a cumpăra un anumit produs (calculator, figider, automobil etc.), de a administra un medicament sau a adopta o strategie sau alta de marketing. De regulă, se localizează o anumită populație statistică (de produse, aparate, persoane, indicatori de calitate etc.) și se formulează o anumită ipoteză statistică relativ la acea populație. Cel mai adesea, astfel de ipoteze se referă la valoarea unor parametri de tipul mediei sau dispersiei. Ipotezele pot fi acceptate sau respinse, dar nu la modul absolut, ci cu un anumit risc și cu o estimare a gradului de (in)certitudine a corectitudinii deciziei. Spre deosebire de teoremele matematice al căror adevăr nu se pune la vot, adevărul statistic (numit și validare) este nuanțat. Acceptarea unei ipoteze statistice nu înseamnă că ea este adevărată, ci că nu există motive de respingere. Testele statistice sunt proceduri de validare sau invalidare a unor ipoteze statistice, cu un anumit grad de!209
210 siguranță, pe baza unor eșantioane din populația analizată. Rezultatul testelor este folosit la luarea deciziilor finale, unde de regulă, Statistica este doar o componentă. Exemple: 1) Presupunem că în timp ce urmărim un film la TV, apare anunțul Publicitate, unde se derulează diverse reclame. Una din reclame afirmă că o anumită firmă vinde un aparat ce funcționează în medie m=200 ore fără întrerupere. Un inspector de la OPC ( Oficiul de protecție a consumatorului ) este solicitat să testeze această afirmație, care se referă la populația X a aparatelor în cauză. Întrebare: Cum va proceda acel inspector? R: Eliminând reacțiile nepotrivite, Statistica recomandă inspectorului să urmărească un eșantion aleator (reprezentativ), de volum n, din aparatele populației X, înregistrând timpii x 1,..., x n scurși până la prima lor defectare. Apoi trebuie prelucrate aceste date. Să presupunem că a reieșit un timp mediu (TMBF) x = x 1,..., x n n de 193 de ore. Dacă ar fi rezultat firmei respective. Dar pentru x 193, nu s-ar fi reproșat nimic <193, se pune problema avertizării consumatorilor. Avertizarea trebuie să fie impersonală și bazată pe date statistice verificabile, pe argumente. Unii pot pune la îndoială concluzia (ajungând chiar la procese în instanță), alții mai comozi declară: ce mi-s 200, ce mi-s 193 (dar dacă x 180?) etc. Se pune atunci altă întrebare: unde să se tragă linia, pentru a decide că reclama în discuție este mincinoasă? Se pot formula ipoteze de tipul: m = x, m < x, m > x sau m x și altele. În general, trebuie să se realizeze o demarcație între acceptarea și respingerea ipotezei. x!210
211 Se începe cu o afirmație, în jurul căreia se poartă discuția, numită așa cum au decis maeștrii statisticieni, ipoteza nulă și notată cu H 0. Despre H 0 nu se știe apriori dacă este adevărată sau falsă, iar eșantionul ales are rostul de a valida sau nu această ipoteză. Se notează cu o ipoteză alternativă; se recomandă ca H 1 să fie în sensul respingerii lui H 0. De regulă, ipoteza H 0 este de tipul unei egalități, iar H 1 de tipul unei inegalități. În cazul concret considerat, ipoteza nulă este H 0 : m = 200 ore (deci că firma are dreptate), iar alternativa este H 1 : m < 190 ore (dar nu m > 200, căci ar fi o ipoteză de sprijin pentru validarea acceptării declarației firmei). 2) Un pacient a declarat că el a consumat în medie 2000 calorii/zi. Dar un dietetician îl suspectează de a fi consumat mai mult și face un test întins pe două săptămâni: H 0 H 1 : m = 2000 calorii : m > 2150 calorii. Dacă media eșantionului este mai mare de 2150 calorii/ zi, cu ce risc va respinge dieteticianul afirmația pacientului? Astfel de exemple și întrebări se pun în legătură cu testarea oricărei ipoteze statistice, pentru orice indicatori de calitate legați de produse, persoane, concurenți, progres etc. În acest capitol, vom prezenta câteva proceduri/testări de ipoteze statistice (însoțite de exemple semnificative), având un câmp larg de aplicabilitate, stimulând sau depinzând de cultura, aptitudinile, imaginația cercetătorilor din diverse domenii. Notă: Dacă ipoteza H 0 este respinsă, se spune că datele sprijină ipoteza alternativă. Iar dacă H 0 nu este respinsă, datele nu sprijină alternativa.!211 H 1
212 5.2. Algoritmul de testare a ipotezelor relativ la medii Presupunem că se studiază o populație X de N elemente ( N 1) și că se formulează o ipoteză (afirmație, declarație) relativ la această populație; mai precis, relativ la un parametru privind repartiția elementelor lui X. Parametrul poate fi media m, abaterea medie pătratică σ, dispersia eșantionară s 2 etc. O ipoteză nulă poate fi de forma: H 0 :θ = θ 0, adică θ ia o valoare prescrisă θ 0. Ca ipoteze alternative, se formulează de regulă una din următoarele trei: unilaterală stângă θ < θ 0, unilaterală dreaptă θ > θ 0 și una bilaterală ( θ θ 0 ). În cazul când populația are o densitate de probabilitate p(x, θ ), depinzând de parametrul θ (de exemplu, parametrul λ din cazul repartiției exponențiale sau m, σ în cazul repartiției normale) și dacă considera ca ipoteză nulă θ = θ 0, dacă θ 1 = θ 0., atunci se poate H 0 :θ I ; este inclus aici și cazul ALGORITMUL de testare (relativ la medii) Pasul 1: Se formulează ipoteza nulă o ipoteză alternativă. Pasul 2: Se alege un eșantion aleator și încă volum n N ) și se calculează media empirică x. Utilizarea (de eșantioanelor aleatorii (reprezentative) este motivată de raportul H 1 aplicarea TLC, care asigură că x (teorema 4.4). Pasul 3: Dacă se cunoaște iar dacă nu se cunoaște (numit și z scorul), [ ] I = θ 0,θ 1 este o v.a. repartizată normal σ, atunci s calculează sau dacă volumul n este mic (n<30), atunci se calculează raportul Student!212 z = x m σ / n σ θ H 0 : m = m 0 x 1,..., x n
213 t = x m s / n (t scorul). Pasul 4: Se fixează un nivel de semnificație se determină din tabelă z α > 0, respectiv t α,n 1 > 0 (ca în paragraful 4.4). Pasul 5 (Decizia): - În cazul unilateral, stânga, se respinge dacă z< z α (respectiv t < t α,n 1 ) (1) - În cazul unilateral dreapta, se respinge H 0 dacă z > z α (respectiv t > t α,n 1 ). - În cazul bilateral, se respinge H 0 dacă z < z α /2 sau z > (respectiv t< ). (2) z α /2 Notă: Dacă [u, v] este un interval de încredere pentru media m, cu eroare t α /2,n 1 H 0 α ( 0,1) α %, atunci capetele intervalului sunt și x ± z α σ n (respectiv x ± t α σ n ); în cazul unilateral stânga, valoarea u se numește critică și intervalul (, u) regiunea critică și ipoteza unilateral dreapta, H 0 H 0 se respinge dacă m < u. În cazul se respinge dacă m > v și în cazul bilateral se respinge dacă m u,v, adică m < u sau m >v. H 0 [ ] Cazurile cele mai întâlnite sunt α = 0,01 (eroare 1%), când z α = 2,58; α = 0,03 (eroare 3%) cu z α = 2,17 și α = 0,05 (eroare 5%) cu z α = 1,96. Valorile t α,n depind și de n. Exemple: 1) Reluăm exemplul 1) din paragraful 5.1 ( H 0 : m = 200, H 1 : m 193). Presupunem că inspectorul OPC a înregistrat următoarele date: n = 16, x =190, σ = 25. Pentru nivelul α =0,05 avem z α =1,96 și z scorul este z =. 25 / 16 = 1,6!213
214 Condiția de respingere (1) (adică 1,6< 1,96 ) nu este îndeplinită deci nu există motive pentru respingerea ipotezei. H 0 Intervalul de încredere pentru media m are capetele x ± z α σ n deci este [177,7; 202,2] și ipoteza H 0 nu se respinge, deoarece m nu aparține regiunii critice (, 177,7). 2) La negocierile dintre patronate și sindicatele din industria alimentară, președintele sindicatului afirmă că salariul mediu lunar brut al muncitorilor este de 1400 de lei. Patronatul susține că nu este așa și solicită un arbitru imparțial, care a realizat un sondaj pe 200 de muncitori și a rezultat un salariu mediu de 1360, cu σ = 170. Se poate afirma pentru 3% eroare că salariul respectiv este diferit de 1400 de lei? R: : m = 1400 H 0 H 1 : m < 1400 Așadar, n = 200 x =1360, σ = 120. Atunci z scorul este z =. Pentru = 0,03 avem = 2,17 și 170 / 200 3,32 α z α condiția (1) de respingere a lui este respinsă. este îndeplinită, deci ipoteza 3) La un chioșc alimentar se vindeau în medie 76 de chifle cu șnițel pe zi. Dar proprietarul crede că vânzările au scăzut și a înregistrat vânzările în 10 zile alese aleator, înregistrând următoarele date: 75, 83, 81, 85, 78, 76, 75, 77, 82, 75. Sunt aceste date suficiente, la nivel de eroare 3%, pentru a valida bănuiala proprietarului? R: : m = 76 H 1 H 0 : m > 76 Apoi n = 10 (deci se aplică t scorul): x = 1 ( ) și s 3,6. Atunci 10 78,8!214 H 0
215 78,6 76 t =. Pentru = 0,05 și n 1=9, din tabelă rezultă 3,6 / 10 2,46 α t α,9 1,83. Condiția de respingere (2) (adică t > t α,9 ) este îndeplinită și ca atare, proprietarul nu are dreptate. 4) Un constructor de automobile declară că a vândut în anul 2015, în medie, 48 de automobile/lună dealer. Un inspector de fisc vrea să testeze valabilitatea acestei declarații și controlează documentele a 25 de dealeri. Ce concluzie a tras inspectorul dacă a înregistrat următoarele date: x = 49; s= 48, la α = 5% eroare? H 0 R: : m = 48 H 1 : m > n = 25; α = 0,05; t scorul este t =. Din tabelă, 4 / 25 = 1,25 t α,25 1,708. Deoarece 1,25<1,708, condiția de respingere a ipotezei H 0 nu este îndeplinită și constructorul nu are motive de respingere și, ca atare, acceptă ipoteza H 1. 5) Într-un ghid studențesc se afirmă că studenții din Politehnică au, în medie, 28 ore/săptămână. Un director din Ministerul Învățământului vrea să valideze afirmația din ghid la nivel de semnificație α = 0,01. Extrage un eșantion aleator de 20 studenți din diverse facultăți și ani de studii; a obținut valoarea s = 6 ore/săptămână. Care sunt valorile critice? H 0 R: : m = 28 H 1 : m 28 Așadar, n=20; α = 0,01. Valorile critice sunt 28 ± 2,58 6 / 20 adică 24,54 și 31,46. 6) Presupunem că media teoretică a diametrelor unor piese circulare este m = 120 mm; pe un eșantion aleator cu 20 de piese, s-a constatat că x = 123 mm și s = 7,9 mm. Testăm, cu nivelul de încredere 95% dacă s-a respectat media teoretică.!215
216 R: : m = 120 H 1 : m > 120 (în sensul respingerii lui H 0 ). Așadar, n = 20, x =123, s = 7,9 și calculăm t = ,9 / 20 1,698 Din tabela Student pentru α =0,05 și n 1=19, rezultă t α,n 1 1,729. Deoarece nu se îndeplinește condiția de respingere a lui (anume t > t α,n 1 ), rezultă că H 0 se acceptă la acest nivel. Dar la nivel 10% (adică α = 0,1) am avea t α,n 1 =1,328 și H 0 s-ar respinge. H 0 7) Considerăm următorul test bilateral H 0 H 1 Avem : m = 244 : m 244; α = 0,01 și n = 5. Luăm un eșantion pentru care x = 246,8 și s = 5,263. Atunci (x m) t = n s 1,19. Cum t α /2 = t 0,005 4,604 și cum nu avem 1,19 > 4,604, rezultă că nu putem respinge ipoteza nulă. De altfel, un interval de 99% încredere are capetele = adică [236,0; 257,6] și acest interval conține x. Notă: În testarea ipotezelor statistice, apar și erori de decizie, de două tipuri: - eroarea de tipul I este cea comisă la respingerea greșită a ipotezei nule, atunci când aceasta este adevărată; - eroarea de tipul II, la acceptarea (greșită) a ipotezei nule, atunci când aceasta este falsă. ( 246,8 244 ) 5 5,263 x ± t α /2 sn H 0 = 46,8 ± 4,604 5, Puterea de testare Între două teste având același nivel de semnificație, se alege cel care are probabilitatea de eroare mai mică.!216
217 Definiția 5.1: Puterea de testare P a unei ipoteze este probabilitatea condiționată de a respinge ipoteza nulă, de îndată ce ipoteza alternativă este adevărată. Așadar, P = P( H 0 respinsă H 1 adevărată) (3) Pentru determinarea puterii de testare a unei ipoteze relativ la medie este necesară indicarea nivelului de semnificație α, explicitarea lui H 1 și o valoare critică ce poate fi estimată cu probabilitate mai mare dacă H 1 este adevărată. Presupunem și fie m 1 H 0 : m = m 0 H 1 : m > m 0 o valoare a lui m pe care dorim s-o detectăm cu o putere P prescrisă. Așadar, respingem H 0 z depășește valoarea critică pătratică σ / x m 0. σ / n > z α, adică Atunci puterea testului este dacă valoarea Y a raportului P =P x m 0. σ / n > z m = m α 1 = P x > m + z α 0 α n m = m 1 Sub ipoteza alternativă, x are media m 1 și abaterea medie n deci P = P x m 1 > m 0 m 1 + z α σ n = z α = P x m 1 σ / n > m m 0 1 σ / n + z α = z > z α m m 1 0 σ / n și notăm δ = m m 1 0 x m ; în ipoteza H, 1 1 urmează o repartiție σ / n σ / n normală cu media δ și abaterea medie pătratică σ / n. Am demonstrat astfel PROPOZIȚIA 5.1: Are loc relația P =P( z > z α δ )!217
218 x m Reținem că dacă 0, atunci se respinge. σ / n > z α H 0 Dacă ipoteza nulă este adevărată, atunci cu probabilitatea α. În mod similar, puterea testului H 0 : m = m 0 H 1 : m < m 0 este P =P z < z α δ, unde. De asemenea, în cazul bilateral H 0 : m = m 0 H 1 : m m 0 puterea este P =P z < z α /2 δ + P. este respinsă Exemplu: S-a urmărit procesul de umplere a unor sticle de detergent lichid care nominal conțin câte 246 g; din istoria procesului, s-a constatat că σ = 1,65 g. Atenție! În multe procese, dispersia este mai stabilă decât media! Pentru a se asigura că nu se depășește nivelul maxim de umplere, s-a decis ca media de umplere să fie 260 g. Operatorii care monitorizează procesul cântăresc cu precizie eșantioane de 5 sticle pe zi. Luând δ < 0 m 0 = 260 și presupunând că se pune doar problema depășirii nivelului maxim (care trebuie respins), testul este H 0 : m = 260 ( z > z α /2 δ ) H 1 : m > 260 Alegând 1% eroare deci α =0,01 și z α = 2,57 și calculând z scorul, avem Z = x m ; σ / n = x 260 1,65 / 5 H 0!218
219 Ipoteza H 0 se respinge dacă z > z α. Nu cunoaștem x și s-a considerat un eșantion aleator de volum 5, obținându-se valorile: 263,9; 266,2; 266,3; 266,8; 265,0 deci ipoteza x = 1 ( 263, , ,0 ) ,64 265, Ca atare, z = 7,64. Deoarece 7,64 > 2,57, 1,65 / 5 H 0 t scorul lui Student. se respinge. Aceeași concluzie se obținea și folosind Ne propunem acum să determinăm probabilitatea ca testul să respingă ipoteza nulă dacă media ar fi 261,5 (în urma unui alt eșantion de 5 sticle). În acest caz, aplicând propoziția 5.1, avem δ = m 1 m 0 σ / n Conform propoziției 5.1, Dar v.a. z scor aparține clasei N(0, 1) deci P =1 Φ 0,54 = 261, ,65 / n 2,03. ( z > 2,57 2,03) = P( z > 0,54) P =P z > z α δ =P. = 1 ( 0,5 + 0,016) = 0,484 Așadar, se respinge ipoteza nulă cu probabilitate 0,48. independente 5.4. Testarea diferențelor mediilor a două eșantioane Considerăm două populații independente cu mediile teoretice m 1, m 2 ; se iau eșantioane ale acelor populații de n 1 elemente (cu media x 1 și abaterea medie pătratică σ 1 ) și respectiv n 2, x 2, σ 2. Fixăm un nivel de semnificație α 0,1. Atunci M x 1 x 2 și D + σ 2. n 1 Apar, pentru unilaterale și una bilaterală = m 1 m 2 x 1 x 2 d 0 = σ 2 1 fixat, trei perechi de ipoteze două 2 n 2!219
220 a) H 0 : m 1 m 2 = d 0 b) H 0 : m 1 m 2 = d 0 c) H 0 : m 1 m 2 = d 0 H 1 : m 1 m 2 < d 0 H 1 : m 1 m 2 > d 0 H 1 : m 1 m 2 d 0. Fără a intra în detalii teoretice, se calculează t scorul t = x 1 x 2 d 0 1/2!s =!s 1/ n 1 +1/ n 2 unde ( n 1 1)s 2 2 1/2 1 + ( n 1 1)s 2, (4) n 1 + n 2 2 care este repartizat Student cu grade de libertate. În cazul a), ipoteza nulă H 0 se respinge dacă t < t α ; în cazul b), se respinge dacă t > și în ultimul caz, se respinge H 0 dacă t > t α /2. Exemplu: Presupunem că d 0 = 0, α = 0,05, n 1 = 10 și n 2 = 10. Din tabelă, t 18;0,025 2,101; s 2 2 = 51,696. Suntem în cazul c) și dacă x 1 = 1391,50 ; s 2 1 = 28,409 ; x 2 = 1398,65 ; s 2 2 = 51,696, atunci!s 2 = Atunci t = H 0 n 1 + n , , Deoarece 2,526 > 2,101, se poate respinge H 0. t α 40,053 deci!s 6,33. x 1 x 2.!s ( 1/ n 1 +1/ n 2 ) 1391, ,65 1/2 1/2 2,526 6,33 ( 1/10 +1/10) 5.5. Testarea dispersiilor (testul hi pătrat) Presupunem că avem un eșantion aleator x 1,..., x n dintr-o populație repartizată normal cu media m și dispersia σ 2. Știm că ( n 1)s 2 v.a. Y = are o distribuție hi pătrat cu n 1 grade de σ 2 libertate (vezi demonstrația teoremei 4.6). Pentru α 0,1 dat, din tabela hi pătrat cu n 1 grade de libertate, se determină 2 P χ ( 1 α )/2 ( n 1)s2 2 χ. σ 2 α /2 = 1 α!220
221 Exemplu: Pentru a cumpăra 10 km cablu de calitate, specificația producătorului este ca rezistența la rupere să fie = 200 kg. Se decide să nu se cumpere cablul dacă m < 200. Avem deci ipotezele H 0 : m = 200 H 1 : m < 200. Așadar, dacă ipoteza H 0 este adevărată, aceasta va fi acceptată (altmiteri, va fi respinsă și acceptată ipoteza alternativă H 1 ). Verificarea acestei ipoteze se poate face doar prin eșantioane (este imposibilă testarea unei populații întregi!) și ne mulțumim cu a calcula probabilitatea unei decizii greșite. Fie α = nivelul de semnificație, adică probabilitatea de a respinge ipoteza nulă, atunci când aceasta este adevărată! Alegem un eșantion de 20 bucăți de cablu cu rezistențele la rupere x 1,...x 20 kg; presupunem că rezistența medie de rupere a fost x = 196 kg, cu s = 5 kg. V.a. t = x m 0 este repartizată s / n Student cu n 1 = 19 grade de libertate t = ; 5 / 20 3,57 presupunând α = 0,05 rezultă din tabelă t 0,05;19 1,729. Rezultă că ipoteza H 0 este respinsă căci t > 1,729. De aici rezultă m 0 H 0 P ( n 1)s2 σ 2 n χ α /2 s2 χ ( 1 α )/2 = 1 α (5) Totodată, avem un interval de ( 1 α ) 100% încredere ( n 1)s 2 ( n 1)s 2 pentru dispersia σ 2, anume, 2 2, conform χ α /2 χ ( 1 α )/2 corolarului 2 al teoremei 4.6. Putem prezenta acest rezultat sub forma testării de ipoteze. Anume, există trei perechi de ipoteze: a) H 0 : σ 2 2 = σ 0 b) H 0 : σ 2 2 = σ 0 c) H 0 : σ 2 2 = σ 0!221
222 Calculăm H 1 : σ 2 2 < σ 0 H 1 : σ 2 2 > σ 0 H 1 : σ 2 2 σ 0. χ 2 = ( n 1)s2. În cazul a), se respinge ipoteza H 2 0 σ 0 dacă χ 2 2 < χ 1 α ; în cazul b) se respinge, H 0 dacă χ 2 2 > χ α și în cazul c, respingem H 0 dacă χ 2 2 > χ α /2 sau χ 2 2 < χ 1 α. Exemple: 1) Presupunem un eșantion de volum n=15 dintr-o populație repartizată normal, cu dispersia eșantionară s 2 = 13. Testăm următoarea situație: H 0 : σ 2 = 10 H 1 : σ 2 > 10, la un nivel de semnificație α = 0,05. Dacă ipoteza nulă este adevărată, atunci v.a. Y = n 1 = ( 15 1) s2. σ 2 10 = 1,4s2 Urmează repartiția hi pătrat cu 14 grade de libertate. = 1 α = 0,95 P Y c. Din tabela repartiției hi pătrat, c =23,68; în cazul eșantionului extras, s 2 = 13 deci Y= 18,2 și cum 18,2< 23,68, se acceptă ipoteza nulă. 2) O secție de vopsitorie utilizează o mare cantitate de dioxid de titan TiO2 (un pigment alb). Conform standardelor, se măsoară albeața acestui pigment, utilizând o scală 0 30, unde nivelul 30 înseamnă alb perfect. Dar la un moment dat, secția și-a schimbat furnizorul și noul furnizor afirmă că dioxidul de titan livrat are nivelul mediu 25, cu o dispersie de 0,4. Cei din secția de vopsitorie se îndoiesc de această dispersie mică și planifică un experiment pe 10 eșantioane, cerând testarea ipotezei relativ la dispersie, cu nivel de semnificație α = 0,05 (eroare 5%). Întrebare: Cum trebuie procedat? R: Se fixează ipotezele: H 0 : σ 2 = 0,4 H 1 : σ 2 0,4, s2 /2!222
223 !!!!! În acest caz bilateral, se respinge ipoteza H 0 dacă χ 2 2 > χ 0,05 (cu 9 grade de libertate) deci conform tabelei, χ 2 > 16,92. Presupunem că în cele 10 eșantioane, nivelele de albeață măsurate sunt: 24, 25, 27, 25, 26, 26, 24, 25, 26, 25 deci atunci s2 s 2 = 9 și χ 2 = n 1 = 9 0,9 = 20,25. Așadar, se poate respinge σ 2 0,4 ipoteza H 0, deoarece 20,25 > 16,92. Dealtfel, un interval de 95% încredere pentru σ 2 este dat de relația (10) și după calcule, acesta este [0,43; 3,00], iar 0,4 nu intră în acest interval Sinteză privind testele relativ la medii, diferențe de medii și dispersii Iată un tabel cu rezultatele principale din acest capitol. Ipoteza! cunoscut σ m 1 m 2 = d 0! necunoscute σ 1,σ 2 m = m 0! necunoscut σ m = m 0 m 1 m 2 = d 0! cunoscute σ 1,σ 2 σ 2 = σ 0 2 Ipoteza alternativă m < m 0 m > m 0 m m 0 m < m 0 m > m 0 m m 0 m 1 m 2 < d 0 m 1 m 2 > d 0 m 1 m 2 d 0 m 1 m 2 < d 0 m 1 m 2 > d 0 m 1 m 2 d 0 σ 2 < σ 0 2 σ 2 > σ 0 2 σ 2 σ 0 2 Testul statistic! z = x m 0 σ / n!t = x m 0 s / n x z = 1 x 2 d 0 ( σ 2 1 / n 1 +σ 2 2 / n 2 ) 1/2 t scorul dat de relația (4)! χ 2 = ( n 1)s2 2 σ 0 Regiunea critică (pt. respingerea lui) z < z α z > z α z > z α /2 t < t α t > t α t > t α /2 z < z α z > z α z > z α /2 t < t α t > t α t > t α /2 χ 2 2 < χ 1 α χ 2 > χ α 2 χ 2 2 < χ ( 1 α )/2 sau χ 2 2 > χ α /2!223
224 Reamintim că dacă α 0, 1, atunci și și 2 z α > 0 ϕ ( z α ) = 1 2 α dacă α 1, atunci și. 2,1 z α < 0 ϕ ( z α ) = α 1 2 Apoi t α > 0 este ales din tabela repartiției Student: = α P t n 1 t α Testarea proporției unei populații În experimentele Bernoulli (cu două rezultate), presupunem că se testează dacă proporțiile a două mari colectivități sunt sau nu egale. Se consideră eșantioane de volume n 1 și n 2 respectiv, obținându-se rezultatele x 1, x 2. Proporțiile estimate sunt ˆp 1 = x 1 n 1, ˆp 2 = x 2 n 2. Calculând ˆp ( 1 ˆp ) z = ˆp 1 ˆp 2, unde ˆp = x + x 1 2, n 1 + n 2 probabilitatea ca ipoteza H 0 : p 1 = p 2 să fie adevărată este egală cu 2Φ( z) 1. Exemplu: Proprietarul unei firme de taxiuri vrea să știe dacă există vreo diferență între proporția de șoferi (ai firmei) cu vârsta sub 25 de ani și al celor de peste 25 de ani, implicați în accidente auto. A realizat un experiment statistic, din care a rezultat că 100 de șoferi tineri au avut 48 de accidente și 150 șoferi maturi 63 accidente. Ca atare, a formulat următorul test: H 0 : p 1 = p 2 H 1 : p 1 p n 1 n 2 1 2!224
225 Avem ˆp 1 = 48 deci ; 100 = 0,48, ˆp = = 0,42 ˆp = ,44 1 ca atare, z = ( 0,48 0,42) 0,44 0, ,94 Așadar, ipoteza este validă cu probabilitatea Deci, în proporție de 65% cele două categorii de șoferi sunt comparabile în materie de accidente auto. Presupunem că se testează o anumită caracteristică a unei populații statistice X. Se extrage un eșantion din acea populație, notând N numărul de observații făcute asupra caracteristicii respective; fie p proporția (necunoscută) a populației care îndeplinește acea caracteristică. Atunci N este o v.a. din clasa B(n, p), adică are o repartiție binomială cu parametrii n și p, cu media np și dispersia σ 2 = np 1 p. Conform TLC, pentru valori mari ale lui n (n > 30), v.a.. aparține clasei N(0, 1). Formulăm atunci ipoteza H 0 : p = p 0 H 1 : p p 0. Prelucrând datele eșantionului și fixând un nivel de N np semnificație α ( 0,1), se calculează valoarea z = 0 a np 0 ( 1 p 0 ) v.a. Z. Dacă H 0 2Φ( 0,94) 1 = 2( 0,5 + 0,326 1) = 0,652. Z = N np np 1 p z z α /2,z α /2 x 1,...x n, atunci se acceptă ipoteza nulă Testul lui Fisher de analiză dispersională Considerăm următoarele eșantioane de volum 5 pentru două populații distincte: X 1 = {10,1; 10,8; 9,7; 9,3; 10,1}, cu!225
226 medie 10; = {14,9; 14,2; 15,3; 15,4; 15,2} cu media 15. Avem motive să credem că populațiile inițiale au medii inegale. Să presupunem acum că media 10; = { 4; 82; 0; 15; 12}, cu media 15. = {2; 25; 14; 3; 40}, cu În acest caz, nu avem nici un motiv să afirmăm ceva despre mediile populațiilor inițiale. În primul caz, diferențele dintre mediile sunt mari în comparație cu variațiile interne, în timp ce în cazul secund, diferențele dintre mediile variațiile (dispersiile) interne. sunt mici în comparație cu Vom considera k populații cu eșantioane de volum n și formulăm ipoteza nulă : mediile populațiilor sunt egale între ele. Definiția 5.2: Testul Fisher este raportul, al pătratelor dispersiilor BG = between groups și WG = within the groups ( dintre grupuri și dinlăuntrul grupurilor ). ipoteza H 0 Y 1 Y 2 2 F = SD BG Dacă valoarea lui F depășește un anumit prag critic, atunci H 0 2 / SD WG este respinsă. Exemplu: Presupunem că un comis-voiajor merge cu mașina și încearcă pe n=5 trasee, k=4 tipuri de benzi A, B, C, D, notând câți litri de benzină consumă la fiecare 100 km. Datele sunt concentrate în tabelul următor: X 2,Y 2 X 2 X 1,Y 1 n/k A B C D 1 9 8,5 10, ,5 11 8,5 3 9, , , ,5 10 9,5 8!226
227 Comis voiajorul dorește să vadă dacă tipul de benzină are sau nu influență asupra consumului. s B 2 2 Avem x A = 9,8; x B = 9,2; x C = 10,5; x D = 8,6 iar s A = 0,58; 2 = 1,08; = 0,63; = 1,42. Conform definiției 4.2, este media pătratelor deviațiilor standard, deci 2 Apoi = n s 2, unde s 2 este abaterea eșantionară pentru mediile x A, x B, x C, x D deci Așadar, F = 3,31. 0,93 3,56 3,31 și testul Fisher are valoarea Dacă populațiile sunt repartizate normal și dacă F > 3,2, atunci conform tabelei repartiției F se respinge ipoteza nulă cu eroare sub 5%, iar dacă F > 5,3, atunci se respinge cu eroare sub 1%. În cazul exemplului, avem 3,56 > 3,2 deci ipoteza respinge cu o eroare sub 5% (adică se poate considera că tipul de benzină contează, deoarece mediile celor 4 populații nu sunt aceleași). s C 2 2 SD WG Revenim la cazul general, relativ la k populații. TESTUL FISHER Extrăgând câte un eșantion de volum n din fiecare, se testează ipoteza nulă s D 2 = 1 ( 0,58 +1,08 + 0,63+1,42 ). 4 0,93 SD BG s 2 = 1 ( 9,8 9,525 3 ) ,6 9,525 2 SD BG = 2 H 0 : m 1 = m 2 =... = m k în modul următor: Pasul 1: Se calculează mediile, x 1, x 2,...x k, dispersiile eșantionare s 2 1,s 2 2 2,...,s k, ca și media generală µ = x + x x 1 2 k ; k Pasul 2: Se calculează dispersia eșantionară SD WG 0,663. H 0 H 0 se!227
228 F cr k ( n 1) ; 2 Pasul 3: Se calculează SD WG = 1, ; k s s k = n s 2 Pasul 4: Se evaluează raportul ; Pasul 5: Din tabela repartiției F se caută valoarea critică (care depinde de eroarea prescrisă), la intersecția liniei și a coloanei k 1. Dacă F > F cr, atunci se respinge H 0. Acest test face parte din Capitolul de Statistică aplicată numit Analiză dispersională ( ANOVA Analysis of variance ). Exemplu: Numărul de case vândute de 15 agenți imobiliari, care lucrează sub 3 tipuri de contracte, a fost următorul: s 2 = 1 ( k 1 x µ 1 ) x k µ 2 F = SD BG 2 / SD WG - pentru salariați: 4, 7, 8, 5, pentru angajați sezonieri: 7, 2, 4, 5, 7 SD BG - pentru pensionari competenți: 7, 9, 6, 6,7. Așadar, k = 3 și n = 5. Avem x 1 = 6, x 2 = 5, x 3 = 7. Întrebare: Sunt semnificative diferențele dintre aceste medii? R: Aplicăm testul lui Fisher. Avem s 2 1 = 2,5, s 2 2 = 4,5, s 3 2 = 1,5 µ = 6 s 2 = 1 2 deci SD WG = 1 2,5 + 4,5 +1,5. Apoi,, și 3 2 SD BG = n s 2 = 5. Așadar, F = 5. 2,83 1,76 Pentru eroare 5%, valoarea critică este 3,2 deci nu avem motive suficiente să respingem ipoteza între medii nu sunt semnificative. H 0. Ca atare, diferențele 5.9. Întrebări de control la Capitolul 5 1. Ce este un test statistic?!228
229 2. În ce constă testarea unei ipoteze statistice? 3. Ce este nivelul de semnificație? 4. Ce tipuri de erori se pot face la testarea unei ipoteze statistice? 5. Ce înseamnă puterea de testare a unei ipoteze? 6. Rezultatul unui test este probabilitatea p a unei erori dacă ipoteza H 0 este respinsă. Ce se poate spune dacă p < 0,01? Dar dacă p > 0,05? Sumar de formule 1. Algoritmi de testare relativ la medii. 2. Testele z și t pentru medii. 3. Testarea dispersiilor 4. Testul Fisher Exerciții la Capitolul 5 1. Printr-un proces nou de producere de pietre prețioase artificiale, s-au produs 6 pietre de 0,43; 0,52; 0,46; 0,49; 0,60 și 0,56 carate. Să se determine un interval de 90% încredere pentru media caratelor și să se testeze cu nivelul de semnificație 5% ipoteza că media caratelor produse este 0,44. R: Așadar, n = 6; x = 1 0,43+ 0, ,56 și 6 s = 1 5 k ( x k x ) 2 0,063. Atunci σ x s și n = 0,026 aplicăm testul t: t = x m 0,51 0,44 = 2,71. σ x 0,026 Avem ipotezele: H 0 H 1 : m = 0,44 : m > 0,44. 1/2 0,51!229
230 Pentru nivelul 5%, α =0,05 și n 1=5 deci =2,015, conform tabelei. Deoarece t > t α, ipoteza H 0 se respinge. Intervalul de încredere pentru medie are capetele 0,51 ± 0,026 0, Un pacient afirmă că el consumă doar 2000 calorii, dar un dietetician crede că pacientul consumă mai mult și planifică să-și urmărească pacientul pentru 35 de zile și să respingă afirmația dacă media este de peste 2100 calorii pe zi. Presupunând că σ =350 calorii/zi, care este decizia dieteticianului cu eroare de 5%? Dar pentru o eroare de 10%? R: : m = 2000 H 1 H 0 : m > 2000 z scorul este. Pentru nivelul de semnificație α = 0,05, z α = 1,65. Deoarece nu avem z > z α, nu există motive pentru respingerea ipotezei. Pentru 10%, z α = 1,28 deci z > z α și ca atare, H 0 se respinge. 3. În Ghidul studenților de la o facultate se afirmă că studenții au în medie 30 ore/săptămână. Un lider studențesc testează această afirmație la nivelul de semnificație 1%. Presupunând că σ =8 ore/săptămână și că se realizează un eșantion de 100 de studenți, care este valoarea critică a numărului de ore? H 0 R: : m = 30 H 1 : m 30 ; z = σ / n 8 Apoi α = 0,01 și z α /2 = 2,58. Apoi σ x = și 100 = 0,8 x m aplicăm testul z = = x 30. Respingerea lui H 0 (adică σ x 0,8 t α = ,9 1,56 H 0 a afirmației din Ghid) are loc dacă fie x > 32,06, fie x < 27,94. x 30 > 0,8 2,58, adică!230
231 4. Oficiul OPC de protecție a consumatorului afirmă că plata orară medie pentru reparația unui automobil este de 280 lei, cu σ = 35 lei. Să se testeze ipoteza m = 280 contra alternativei m 280, cu nivelul de semnificație 0,05 dacă pentru un eșantion aleator de 36 de automobile, plata medie a fost de 310 lei. Indicație: H 0 : m = 280 H 1 : m 280 ; Apoi α =0,05 deci =1,96 și regiunea critică de respingere a lui H 0 este z > 1,96. Dar z = x m = deci este respinsă. σ / n 35 / 36 5,14 H 0 5. Un eșantion de 50 jucători de baschet are înălțimea medie de 197 cm cu σ = 49 cm. Indică acest fapt că înălțimea medie a jucătorilor de baschet este mai mare ca 195 cm (pentru un nivel de semnificație 0,01)? Indicație : m = 195 H 1 : m > 195; Apoi α = 0,01 și = 2,33, iar regiunea critică este z > z α H 0.Dar ipoteza.. Așadar, se respinge 6. O populație normală are σ = 5. Pentru a testa ipoteza m = 50 contra alternativei m > 50, se utilizează un eșantion de n = 36 elemente. Regiunea critică este > 51,8. Să se determine probabilitatea de a deduce că m > 50 când de fapt m = 50. R: x este o v.a. normală cu media 50 și abaterea medie pătratică. H 0 z = x m σ / n H 0 : m = 50 z α z α = ,9 / 50 2,89 x!231
232 H 1 : m > 50; Avem P m > 50 m = 50 ( respinsă adevărată)= 7. Un director afirmă că bărbații și femeile așteaptă timpi egali pentru a fi promovați. O salariată crede că femeile sunt dezavantajate. Datele arată că în ultimii ani, 5 bărbați promovați au așteptat 8, 7, 10, 5 și 7 ani, în timp ce 4 femei au așteptat 9, 5, 12 și 8 ani până la promovare. Ce concluzie se poate trage cu nivel de semnificație 10%? Soluție: H 0 : m 1 m 2 = 0 H 1 : m 1 m 2 < 0 ; Apoi, α =0,01; n 1 = 5 ; x 1 = 1 și s 2 1 = 1,82. De asemenea, n 2 = 4, și x 2 = 8,4 și s 2 1 = 2,89. Aplicând formula (4), avem!s. ( 5 1) 1, ( 4 1)2, n 1 +1/ n 2 = și = P H 0 H 0 = P z > P x > 51,8 m = 50 t = 0,70. Apoi din tabelă pentru n = 18 și α =0,1, rezultă t α = 1,33. Deoarece nu avem t < t α rezultă că ipoteza nu poate fi respinsă cu eroare de 10%. 8. Distribuția (repartiția) celor 4 grupe de sânge uman O, A, B, AB în România este astfel: 52,8 50 0,833 = P( z > 2,16) = 1 Φ( 2,16) = 0,015 7,4 8,5 0 1,57 H 0 O A B AB = 7, % 40 % 11 % 4 % ,57!232
233 Un spital din Iași dorește o bancă bună de rezerve de sânge și este interesat să se compare cu distribuția națională anterioară. Pe un eșantion de 120 de persoane din Iași s-au obținut 41, 59, 17 și 3. Ce concluzie rezultă la nivel de semnificație 5%? R: Datele observate (O) sunt : 41, 59, 17, 3 și cele estimate (E) sunt cele date în tabelă, dar înmulțite cu sunt: 54; 48; 13,2; 4,8. Atunci χ 2 = 2 χ 0,05 H 0 sânge. ( ) ( ) ( 13,2 17 )2 13, = 1,2 + ( 4,8 3)2 4,8 deci 7,42 Pentru r 1=3 și nivel de semnificație 5% avem α =0,05 și = 7,815. Așadar, nu există rațiuni să respingem ipoteza a potrivirii, deci spitalul din Iași nu are o bancă bună de!233
234
235 Ejusdem farinae PROVERB LATIN CAPITOLUL 6: REGRESIE ȘI CORELAȚIE 6.1. Introducere Până acum am studiat diverse caracteristici statistice ale unei singure v.a. Sunt multe situații concrete, unde trebuie luate decizii statistice bazate pe relațiile dintre două sau mai multe mărimi. Studiul regresiei este utilizat pentru a compara mărimi corelabile și a descoperi relații calitative între ele. De exemplu, preț/calitate, profitul unei societăți comerciale/reclamă, rezultate la examene/număr de ore de studiu, prețul caselor/zona unde sunt amplasate; vârsta unui automobil/prețul de vânzare. Pe scurt, relația cerere/ofertă în cele mai diverse ipostaze. În acest capitol, vom studia dependența între mărimi X, Y în sens statistic, ca v.a. și nu funcțional (de tipul! Y = X 2, X 2 + Y 3 + Y = 0 etc.). Exemplu: Calitatea aerului respirat este esențială pentru funcționarea sistemelor circulator și respirator ale populației dintr-o zonă sau alta. S-au măsurat cantitățile zilnice de particule aflate în suspensie, măsurate în µg/m 3, în centrul unui oraș, într-un anumit interval de timp %[ t 0, t 1 ]. În același interval de timp, s-a considerat numărul de internări zilnice în spital. Pentru exemplificare, presupunem că timp de T=6 zile, datele respective au fost 30, 35, 40, 46, 38, 35 [µg/m 3 ]; 120, 160, 250, 300, 170, 180 internări. Acestea pot fi prezentate grafic ca în figura 6.1. %235
236 ! Figura 6.1. Se pun întrebări de tipul: care sunt tendințele de evoluție, dacă există sau nu vreo corelare între cele două mărimi cantitatea de suspensii în aer și numărul de internări, interpretarea datelor, extinderea studiului spre alte noxe etc Dreapta de regresie Gauss Fie X, Y două v.a. și n perechi de valori! x 1,..., x n (pentru X) și! y 1,..., y n (pentru Y). Putem presupune! x 1 < x 2 <... < x n. În acest mod, se evidențiază n puncte! M 1 ( x 1, y 1 ),..., M ( x n, y n ) din! 2 planul! raportat la un reper ortonormal xoy. Se mai spune că aceste puncte determină un nor de date, ca în figura 6.2.!236
237 % Figura 6.2. Totodată, se poate pune în evidență o tabelă de date, de tipul x y x 1 x 2 y 1 y x n y n (1) Fie % x = 1 ( mediile empirice n x x 1 n ), y= 1 ( n y y 1 n ) ale datelor respective și punctul mediu % µ = x, y. Ecuația unei drepte (neverticale) trecând prin punctul mediu % µ este de forma % y y = m x x, unde m este coeficientul ei unghiular ( slope); m=tg% α, unde % α este panta, adică unghiul dintre dreaptă și semiaxa pozitivă Ox. În general, punctele % M 1,..., M n n u s u n t c o l i n i a r e, a s t f e l c ă m ă r i m i l e % ε k = y k y m x k x nu pot fi simultan nule, pentru toți % 1 k n. Relațiile % ε k =0, % 1 k n formează un sistem liniar de n ecuații și o necunoscută (anume m) și în general, acest sistem este incompatibil. Gauss a avut ideea de a pune condiția ca toate mărimile % să fie simultan mici (și nu simultan nule). Condiția Gauss ca un set de mărimi să fie simultan mici este ca suma pătratelor lor să fie minimă; suma simplă nu este bună (de exemplu, 101, 99, 1 au suma mică, dar termenii nu sunt mici) și nici luarea sumei %237 ε k
238 ! modulelor nu este bună, deoarece funcția! f x nu este derivabilă. Condiția lui Gauss stă la baza metodei celor mai mici pătrate (mcmmp). PROPOZIȚIA 6.1. Expresia are un minim absolut pentru n 2 n 2! E( m) = ε k = y k y m x k x (2) m = k k k=1 x k y k nxy 2 x k 2 n x Demonstrație: Condiția necesară de extrem de! n deci! 2 y k y mx k + mx x k + x. k=1 Așadar, 2 x k k y k + y x k + m k x k k mx x k k + +x y k k nxy mx x k k + mn( x ) 2 = 0. Înlocuind! x k = nx și! y k = ny, rezultă formula (3). Deoarece expresia (1) este de tipul! am 2 + bm + c, cu a>0, punctul de extrem este de minim absolut. k Se poate arăta ușor că ( x k x ) y k y m = k x k x k 2 = x k=1( ) k = 0 (3) E '( m) = 0. (3 ) 26 Dreapta ar putea fi numită și dreapta de progresie sau dreapta de tendință. Definiția 6.1: Dreapta trecând prin punctul mediu!( x, y ) și având coeficientul unghiular (3) se numește dreapta de regresie 24 (a lui Gauss) asociată tabelei (1). COROLAR: Ecuația dreptei de regresie pentru tabela (1) este cu m dat de (3).!238! y y = m x x, (4)
239 Notă: În general, o relație statistică între două v.a. se numește regresie, spre deosebire de relațiile algebrice sau funcționale. Pe baza regresiei, se pot prezice valori ale uneia din v.a. cunoscând-o pe cealaltă. Determinarea dreptei de regresie se mai numește regresie liniară între v.a. X și Y. Vom vedea în Capitolul 9 rolul pe care regresia îl are în Econometrie. Interpretarea coeficientului unghiular este directă: conform (4), % m = y' x, deci m este viteza (% rata) de variație a lui y în raport cu x. Dacă avem două mărimi aflate în dependență, de tipul x 1,..., x n % y = f x și dacă se consideră valori % pentru x și % y k = f ( x k ), 1 k n, atunci se obține o tabelă de tipul (1). De exemplu, dacă o dreaptă y=ax+b (cu % a, b! nedeterminați a= slope și b= intercept ) nu trece simultan prin toate punctele ε k = y k ax k b % M k x k, y k, adică nu toate expresiile % sunt nule, ea poate media printre aceste n puncte, în sensul că suma 2 k ε k % este minimă (condiția lui Gauss). Așadar, expresia E% a, b să fie E minimă. Condiția de minim este % a = k ( y k ax k b), de unde % y k ax k b x k = 0 ș i % y k ax k b = 0, a d i c ă k 2 % x k y k a x k b x k = 0,% y k a x k nb = 0. k k k Din acest sistem liniar în a și b, rezultă k k ( k y k ) 2 k k = 0, E b = 0 k % a = n x y x k k k și % b = y ax. (5) n x 2 k x k k k 2 %239
240 Ecuația dreptei de regresie : y=ax+b devine! y = ax + y ax, regăsind ecuația (4), unde a coincide cu m (așa cum se verifică ușor). Se pot studia și regresii neliniare ( curbe de regresie ). De exemplu, se poate pune problema determinării unei curbe! y = f x, a, b, c cu parametri reali a, b, c, care să medieze printre punctele! M k numerele! ε k = y k f a, b, c, x k ( x k, y k ), 1 k n. Condiția lui Gauss este ca, să fie simultan mici (1 k n), = y k f ( a, b, c, x k ) k adică funcția E! a, b, c să fie E minimă. Condiția necesară este ca!,!,!, deci a = 0 E b = 0 E c = 0 trei ecuații cu trei necunoscute a, b, c. Se pot de asemenea studia regresii multiple, între trei sau mai multe v.a., ceea ce ar conduce la cuburi de date. Multe legi fizice au fost stabilite apelând la curbe de regresie neprobabiliste. Exemple: 1) Profitul anual Y al unei întreprinderi este legat de valoarea X a activelor sale; alegând 5 întreprinderi ipotetice rentabile, s-au constatat următoarele date (în milioane de lei): x (activele) y (profitul anual) Ne propunem să determinăm dreapta de regresie asociată. = 30 y = 1 5 = 3 Avem! x = și! Apoi! x k y k = = 530 ; k 2! x k = = 5500, k 2!240
241 % deci, aplicând (3), % m = = Dreapta de regresie este : y 3=% ( ; fig x 30) Figura 6.3 2) Considerăm seturile de date: x 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 y Folosind programul Excel Trandline, dreapta de regresie corespunzătoare are ecuația y= 83,6x+1317,6. Calculele de mână nu sunt recomandabile aici. 3) Pentru studiul efectului unui medicament, se injectează aleator, cu diferite doze (X) șoricei și se urmărește numărul de zile de supraviețuire (Y) a lor. Datele experimentale sunt: Doza X Nr. zile Y 8 7,9 8,8 9,1 9,7 9,5 Modelul regresiei liniare (y=ax+b) conduce la dreapta y=1,03x+6,78 și modelul regresiei neliniare logaritmice (y=a lnx+b) conduce la curba de ecuație y=2,44 ln x+7,71. Se observă că în exemplul 1 și figura 6.3, dreapta % Δ : y = 2 mediază printre punctele % ; pe 25 x + 3 M k, 1 k 5 5 %241
242 unele le lasă la stânga, pe altele la dreapta. Expresia k 2! s 2 R = 1 y k ax k b se numește dispersie reziduală. n 27 Termenul regresie este opus celui de progresie sau avansare; pe baza unor informații retro, se obține o relație stabilă între mărimile procesate, care permite unele predicții viitoare pe termen scurt sau mediu. Exemplu: Veniturile unui SRL, după primele trei trimestre ale anului 2015 au fost: 0,80; 0,83; 0,84 milioane lei. Ce se prezice pentru trimestrul 4? R: Considerăm tabela și determinăm dreapta de regresie 27 :y=ax+b, punând condiția ca expresia 3 = ( y k ax k b ) k=1! E a, b să fie minimă ,80 0,83 0,84 Introducând datele, se obține! E = 13a 2 + 3b 2 +12ab 9,94a 4,94b + 2,03. E Rezolvând sistemul!,!, rezultă a=0,03; b=0,76. a = 0 E b = 0 Deci : y=0,03x+0,76. Venitul prezis pentru trimestrul IV se obține înlocuind x=4 și este y=0,88 milioane lei Corelație Dacă regresia este legată de predicția unei v.a. în funcție de alta, corelația exprimă legătura de asociere între două sau mai multe v.a. Dreapta de regresie asociată unei tabele de date (1) exprimă o legătură între două v.a. X, Y, dar nu de tip cauză efect, ci prin eșantioane de valori aleatoare! x k, y k, 1! k n. Norul de puncte! M k, 1 k n, dă o primă indicație vizuală, intuitivă; astfel, dacă punctele respective sunt grupate, situate într-o bandă subțire în jurul dreptei de regresie, atunci se consideră că între X!242
243 % și Y există o relație puternică; din motive de simetrie, aceasta este numită corelație. Indicatorul cantitativ este dat în definiția care urmează: Definiția 6.2: Se numește coeficient Pearson de corelație % (notat și % coeficientul de covarianță a v.a. discrete r XY x 1 x 1... x 1 y 1 y 1... y 1 %!X 1 1, n n... 1 n, Y! 1 1 n n... 1 n adică % r XY = cov X,! Y! (6) σ ( X! ) σ ( Y! ). Dar r xy cov! X,! Y = M ( X! Y! ) M X! = 1 x k k y k 1 n n k k x k k = 1 n x n 2 k y k x k M Y! 1 n k y k ( y k ) k = = = cov ( X,! X! ) = 1 n x 2 n 2 k x k și % D X! etc. Ca atare, k n x k y k x k % r xy = (7) n x 2 k ( k x k ) k n y 2 k ( k y k ) k Proprietățile coeficientului de corelație au fost concentrate în propoziția 2.12 din Capitolul 2 (într-un caz mai general, al v.a. oarecare unde era notat cu % ρ XY k k 2 k ( y k ) k ). Reamintim că dacă X, Y sunt v.a. independente, atunci %!X, Y! sunt la fel, deci % r xy = 0. Apoi r% xy = r yx, % r x a, y b = r xy și r% xy este adimensional, cu valori cuprinse între 1 și 1. %243
244 PROPOZIȚIA 6.2. Pentru orice tabelă de date (1), legătura dintre coeficientul unghiular m al dreptei de regresie și corelație este:! m = r xy σ Y! (8) σ X! r xy În particular,! are același semn cu m. Demonstrație: Conform (3 ), m = k ( x k x ) ( y k y ) = M ( X X! )( Y Y! ) ( x k x ) 2 D! = X k ", deci (8) = cov ( X,! Y! ) ( Y ) σ X! σ ( X! )σ ( Y! ) σ ( Y! ) σ ( X! ) = r σ ( Y! ) xy σ ( X! ) Exemple: 1) În cazul exemplului din paragraful 6.2 cu regresia profitului r e l a t i v l a a c t i v e l e u n e i î n t r e p r i n d e r i, a v e m 2! x k y k = 530, x k = 150, y k = 15, x k = 55, x = 30 și k! y = 3, deci, conform (7),. 2 = cov! X,! k! r xy = k 1 2 ( ) = 0,8 1 2 Pe de altă parte, m=0,08,! σ X!,! σ ( Y! ) 2 = M! 2 ( Y 2 ) 9 = 2, iar (8) devine 0,08! = 0,8 și se 200 confirmă. 2) Între v.a. X=deficitul de atenție și Y=tulburările emoționale, există o corelație semnificativă exprimată prin coeficientul Pearson r=0,8. S-a realizat un experiment pe un lot de 30 de k 2 = M ( X! 2 ) 30 2 = 200!244
245 subiecți și s-au obținut rezultatele: n=30, % X = 20, % σ X ; = 4 % Y = 16, % σ Y. Să se determine ecuația dreptei de regresie. R: :y=ax+b unde % a = m = r σ Y, conform (8). σ X Așadar, % a = 0,8 4 = 0,64 și % b = Y ax = 16 0,64 20 = 3,2. 5 Deci ecuația dreptei este y=0,64x+3,2. Notă: Reținem că pentru dreapta de regresie (y=ax+b) avem a=m (dat de (8)) și % b = Y ax, unde % X și % Y sunt mediile empirice respective. 3) Pentru două seturi de date (array 1, array 2) reprezentând valorile a două v.a. X, Y, se poate apela la programul Excel, folosind funcția CORREL(X, Y). Acest program folosește formula (7) sub forma sugestivă x x CORREL% ( X, Y ) =. x x = 5 Interpretarea dreptei de regresie împreună cu cea a coeficientului Pearson de corelație Se pornește de la o tabelă de date de tipul (1), angajând valorile unor eșantioane de același volum n a două mărimi (asimilate cu v.a. X, Y). Dreapta de regresie arată tendința de aglomerare sau de dispersare. Dacă r=! este apropiat de 0 (zero), atunci v.a. X și Y r xy sunt necorelate (iar dacă sunt repartizate normal, ele sunt independente). Dacă r% 1 sau r% 1, atunci punctele % M k, 1 k n sunt aproape coliniare, situate în lungul dreptei. Dacă % r 1, atunci m>0 și este crescătoare (SV NE (% Sud Vest Nord Est)); în acest caz, dacă valorile % cresc, atunci și % ( y y ) ( 2 ) 1 2 ( y y ) x k y k %245
246 ! cresc. Iar dacă r este apropiat de 1, atunci m<0 și este descrescătoare (NV SE); în acest caz, dacă valorile! descresc, atunci! descresc. y k În cazul când r este apropiat de +1 (respectiv 1), se spune că între X și Y există o corelație perfectă pozitivă (respectiv negativă). Dacă r! 0, se poate decide absența corelării. De exemplu, nu există nici o corelație între ridichile de lună și galoșii de gumă. Există unele reguli empirice de interpretare a coeficienților! r = r xy de corelație, de tipul următor: - dacă r" [ 0,25; +0,25], corelația este aproape inexistentă; - dacă r" [ 0,50; 0,25]! [0,25; 0,50], corelația este slabă; - dacă r" [ 0,75; 0,50]! [0,50; 0,75], corelația este moderată; - dacă r" [ 1; 0,75]! [0,75; 1], corelația este puternică. În figura 6.4 indicăm sugestiv diversele situații: x k Figura 6.4 Notă: Se pot studia și corelații neliniare (legate nu de drepte ci de curbe de regresie); dacă r este apropiat de zero, ar putea să existe o anumită corelație între cele două mărimi X, Y (dar nu de natură liniară!). Un alt tip de corelație, numită în ordine (sau în rang), se obține dispunând datele (1) în ordine crescătoare:! x p1, x p2,..., x pn n D = ( p k q ) k=1 k și! y q1, y q2,..., y qn n 2. Notăm!, reținând!246 2
247 % doar indicii de ordine și nu valorile. Se definește atunci 6D coeficientul de corelație Spearman % r S = 1. n n 2 1 Se poate arăta că % 1 r S 1. Dacă % r S 1 atunci există o corelație bună în ordine, între datele x și y. De exemplu, se constată astfel de corelații bune Spearman între notele elevilor la Filozofie și Istorie (sau la Matematică și Muzică) etc. Exemple: 1) Încă din faza prenatală, copiilor li se fac măsurători specifice; de exemplu, se măsoară lungimea în cm a femurului ( osul coapsei, de la șold la genunchi) și a humerusului ( osul brațului superior de la cot la umăr). Cu date aflate pe Internet, pentru 5 copii luați la întâmplare, s-au constatat următoarele dimensiuni S-a calculat coeficientul de corelație Pearson % al acestor date experimentale (eșantioane de valori ale v.a. X=lungimea femurului și Y=lungimea humerusului). Aplicăm formula (7). Numărătorul fracției este Numitorul este produsul dintre mărimea % n x 2 k x k = și 2 % n y 2 k y k = Deci % r xy. 59,03 71,06 0,994 femur humerus n y k x k x k k ( y k ) = k k k k 2 k 2 k r xy (% x k ) (% y k ) = , ,06. %247
248 Deci există o corelație aproape perfectă între X și Y, dovedind normalitatea relativă a celor două v.a. Se pot face de asemenea corelații cu modele standard. 2) S-a studiat corelația dintre X=stilul caligrafic de scriere și Y=nivelul de creativitate (acordându-se note între 1 și 10). S-au ales 6 subiecți (eșantion reprezentativ) și s-au obținut rezultatele: X Y = = 72 R:! cov X, Y ; ,2 = ! σ X ; ,3 = ! σ Y ; 72! r xy. 10,2 10,3 0,69 Așadar, avem o corelație negativă, deci pe scurt, cei inventivi scriu urât! Dar invers, nu prea 6.4. Regresie liniară statistică Începem cu o digresiune matematică. Dacă H este un spațiu Hilbert relativ la un produs scalar! u, ν și L este un subspațiu liniar închis, atunci o teoremă a lui Riesz arată că pentru orice! y H există și este unic un punct! y L L, astfel încât! y y L L și pentru orice! v L, y y L y v. Acest element! este numit proiecția ortogonală a lui y pe subspațiul L. y L! u, ν!248
249 % % Figura 6.5. Reamintim că L% 2 Ω este un spațiu Hilbert relativ la produsul scalar % X, Y = M X Y. Fixăm o v.a. % și notăm cu L subspațiul liniar generat de 1 și X (funcția constantă 1 privită ca v.a.); așadar, % L = ax + b a, b!. Definiția 6.3: Pentru orice v.a. % Y H, proiecția ortogonală a lui Y pe L se numește regresia liniară statistică (sau predictorul liniar) al lui Y relativ la X, notat % Yˆ ; Y % ˆ este unicul vector din L, cu proprietatea că Y! Yˆ este ortogonal pe vectorii 1 și X. (figura 6.5) PROPOZIȚIA 6.3. Are loc relația % Y ˆ = ax + b, unde a=m și % b = MY m MX, (9) unde m este dat de relația (8). Demonstrație: Avem de arătat că % Y Y ˆ 1 și % Y Y ˆ X adică % Y Y ˆ, 1 = 0 și % Y Y ˆ, X = 0, deci M% Y Y ˆ și % M ( Y Yˆ ) X. și = 0 Într-adevăr, = MY M ˆ M Y ˆ Y MY mmx M MY mmx X L 2 ( Ω) { } Y = MY M ax + b = 0 = MY amx bm = = MY mmx MY + mmx = 0 %249
250 M( ( Y Yˆ ) X) = M XY X ax + b! ( ) = M( XY ) am X 2! cf.(9) bmx = cf. (9)! = M( XY ) m M X 2 ( MY mmx ) MX = cf.(8) m DX = =cov X, Y cf.(8)! = cov X, Y! cov X, Y rxy σ ( Y ) cf.(8) σ ( X) DX = cov X, Y σ ( X) σ ( Y ) σ ( Y ) σ ( X) σ X 2 = 0.! Notă: Sunt situații când o anumită mărime (fizică sau economică) este modelată de o v.a. Y care nu poate fi măsurată direct și se pune problema găsirii unei alte v.a. X corelabilă cu Y și măsurabilă (de exemplu, Y este numărul de internări și X=cantitățile de particule de poluanți; Y=valoarea activelor unei întreprinderi și X=profitul realizat etc.) Regresia liniară! Yˆ are proprietatea că realizează distanța minimă între Y și subspațiul L, în sensul că! =minim. Conform (9), rezultă Y! = mx + MY m MX + MY! Y ˆ = m X MX., deci Considerând selecții de valori x! k, y k 1 k n pentru v.a. X și Y respective, dreapta de regresie! y y = m x x din planul xoy, cu m dat de (3) sau (8), are proprietatea că în vecinătatea ei sunt concentrate punctele norului de date 1 k n! M k x k, y k. Y ˆ Y Regresia liniară se poate extinde la cazul când pentru o v.a. Y găsim mai multe v.a. observabile! X 1,..., X n care generează un subspațiu liniar L al spațiului Hilbert! L 2 ( Ω), astfel încât regresia (predictorul) să fie o combinație liniară a v.a. 1,! X 1,..., X n.!250
251 6.5. Matrice de corelație, matrice de covarianță Fixăm un câmp de probabilitate (% Ω, K, P); se presupune că variabilele aleatoare considerate au medie și dispersie deci sunt din spațiul % L 2 Ω. Definiția 6.4: Se consideră doi vectori linie aleatori % X = X 1,..., X m și!. Matricea de corelație asociată este matricea % R XY = ( M( X i Y j )); 1 < i < m, 1 < j < n. (10) În cazul când Y=X, matricea % se notează % și este numită matricea de autocorelație a vectorului X. Așadar, % R X = ( M( X i X j )); 1 i, j < n=m( X T X) (11) este o matrice pătratică de ordin n. Media unei matrice de v.a. este prin definiție matricea mediilor. Exemplu: 2 X Dacă % X = ( X 1, X 2 ), atunci % X T 1 X 1 X 2 X = și 2 X 2 X 1 X 2 R X % =media acestei matrice, adică matricea mediilor % R X = m m 11 12, unde %. m 12 m 22 m ij = M X i X j autocorelație). Y = ( Y 1,..., Y n ) PROPOZIȚIA 6.3. (proprietățile matricei de Fie % X = X 1,..., X n un vector aleator n dimensional. 1) Matricea % este simetrică; R X R XX 2) Forma pătratică asociată matricei RX % este pozitiv semidefinită (adică are valori 0); 3) Dacă A este o matrice constantă de ordin n și % Y = X A, atunci % R Y = A T R X A. %251 R X
252 ! simetrică. Demonstrație: 1) Este suficient de observat că matricea! X T X este 2) Pentru orice vector constant! λ 1,..., λ n, avem M( X i X j )λ i λ j = M λ i X i j i R Y = M Y T Y 3)! = A T M( X T X) A = A T R X A. Definiția 6.5: Fiind dați vectorii aleatori! X = X 1,..., X m,! Y = Y 1,..., Y m, matricea de covarianță asociată lor este! K XY = ( cov( X i, X j )); 1 i m, 1 j n, (12) unde! cov X i, X j Y j MY j. În cazul când Y=X, matricea K! X = K XX se numește matricea de autocovarianță a lui X. Considerând vectorul medie! MX = MX 1,..., MX n rezultă! K X = R X MX și! K X = M X T X. Dacă MX=0, atunci! K X = R X. PROPOZIȚIA 6.4. (proprietățile matricei de autocovarianță) Fie! X = X 1,..., X n (un vector aleator n dimensional. 1) Matricea! este pătratică de ordin n, simetrică și pozitiv semi definită; 2) Dacă cele n componente ale vectorului X sunt necorelate (și în particular independente), atunci! este o matrice diagonală;!252! n = ( i ) j λ j X j 2 0. = M i λ i X i = M( A T X T X A) = = M X i MX i K X ( MX T ) MX K X
253 % 3) Dacă % A M n! este o matrice constantă și Y=X! A+C (unde C este un vector constant n dimensional), atunci % K Y = A T K X A. Demonstrație: 1) % K X = R X MX și aplicăm propoziția ) Evident. De exemplu, dacă X % = X1, X2, atunci % K X = σ σ 11 12, unde % și dacă % sunt σ 21 σ 22 σ ij = cov X i, X j necorelate, atunci % K X = DX DX 2 3) Procedăm ca în propoziția 6.3. Exemplu: Un vector X aleator 2D are realizările% % X 2 = ( 3, 1), % X 3 = ( 0, 2) și % X 4 = 1, 1. Să se determine %. Avem % µ = MX = 1 și 4 X + X + X + X ( ) = 3 4, 1 % µ T µ = Apoi și % K X = Notă: X 1, X 2 X 1 = ( 1, 2), K X M( X T X) = 1 ( 4 X1T X 1 + X T 2 X 2 + X T 3 X 3 + X T 4 X 4 ) = Unii autori înlocuiesc elementele % σ ij cu % ρ ij = coeficienții Pearson de corelație între vectorii % X i și % X j ; % ρ ij =. σ ii σ jj σ ij %253
254 Aceștia sunt adimensionali și cuprinși între 1 și 1, iar! ρ ii = 1, pentru orice! i = 1, n. De asemenea, în unele texte, vectorii aleatori sunt vectori coloană și trebuie ușor modificate diversele formule. Fie Y,! X 1,..., X n v.a. din! L 2 Ω și L subspațiul liniar generat de! X 1,..., X n. Regresia liniară (predictorul) lui Y relativ la! X 1,..., X n este acea v.a.! Y ˆ L, de forma Y! ˆ = a1 X a n X n = Y ˆ astfel încât distanța! d Y, Y ˆ Y să fie minimă. Conform teoremei lui Riesz, coeficienții a! 1,..., a n se determină din condiția ca Y" Y ˆ X j pentru 1! j n, deci! Y Y ˆ, X j = 0, = 0 M ˆ adică M! ( Y Yˆ ) X j. Așadar,! ( Y X j ) = M( X j Y ), adică n n! M( a i X i sau!. i=1 ) X j = M( X j Y ) M( X i X j ) a i=1 i = M( X j Y ) Acesta este un sistem liniar de ecuații cu necunoscuta T vectorul coloană a! = a 1,..., a n și forma sa matriceală este T! R X a = R XY, unde! X = X 1,..., X n. Matricea de autocorelație R X! este simetrică, nesingulară (cu excepția unui caz de degenerare ce poate fi omis) deci! a = RX 1 R XY și! Y ˆ = a T X T = R T XY R 1 X X T = R YX R 1 X X T. (13) Exemplu: Să presupunem că se fac două măsurători ale unei mărimi fizice Y, rezultatele! X 1 și! X 2 fiind independente de Y, conținând erori! ε 1, ε 2 presupuse independente, de tipul unui zgomot alb 2 gaussian cu media 0 și dispersia! σ. 1 Presupunem apoi că! Y N 0, σ.!254
255 ! % Așadar, % X 1 = Y + Z 1, X 2 = Y + Z 2 și % X = X 1, X 2. Conform ipotezei, % R YX = M( YX 1 ), M( YX 2 ). Dar M% YX 1 M X 1 și %, deci % R YX = σ 2 σ 2. Apoi și conform (13), % ˆ X Y = σ X 2. 2σ 2 2 +σ 1 APLICAȚIE: (la filtrarea Wiener) Presupunem că un vector coloană aleator n dimensional Z este suma unui vector de date X cu un vector zgomot W deci Z=X+W. Un filtru Wiener este, în esență, o matrice pătratică % A M n! astfel încât %, în sensul minimizării erorii medii pătratice % ε = M X AZ 2. Presupunem în plus că MX=0 și MW=0 deci MZ=0 și că zgomotul și datele sunt necorelate, adică % M X W T = M Y 2 M X 1 R X = M X 1 X 2 M X 1 X 2. Atunci Punând condiția necesară de minim % A ε = 0 și ținând cont că % Z T A T AZ și %, rezultă A % A M Z Z T. T = σ 2 M( YX 2 ) = σ 2 M X 2 2 AZ X = M( W X T ) = 0 = σ 2 2 +σ 1 σ 2 σ 2 σ 2 2 +σ 1 ε = M( ( X AZ ) T ( X AZ )) = M X T Z T A T = M X 2 2M( Z T A T X). + M Z T A T AZ (( X AZ )) = = 2A Z Z T A ( Z T A T X) = X Z T = M( X Z T ) = K X + K W Deoarece Z=X+W, rezultă M% Z Z T și = K X A K X + K W = K X % M X Z T deci %, de unde se obține matricea filtru A. %255
256 6.6. Întrebări de control la Capitolul 6 1. În ce constă metoda MCMMP pentru a studia mărimi simultan mici? 2. Fiind dat un nor de puncte în plan, care este ideea dreptei de regresie asociate? 3. Se spune că dreapta de regresie sau curbele similare permit prognoze. În ce sens? 4. Dați exemple de perechi de entități corelabile. 5. Ce este coeficientul de corelație al lui Pearson? 6. Interpretarea coeficientului de corelație. 7. Ce înseamnă corelație moderată între două v.a.? Sumar de formule 1. Dacă y=ax+b este dreapta de regresie, necunoscutele nu sunt x, y, ci a, b; formula (5) pentru calculul coeficienților a, b este esențială. 2. Formula (7) pentru calculul coeficientului de corelație. r xy De reținut și relația dintre m și!. Exerciții la Capitolul 6 1. Au fost testate eșantioane de apă dintr-o piscină, pentru a măsura în ppm reziduurile de clor la diverse ore după tratare; s- a obținut următorul set de date: x [ore] y 1,9 1,8 1,4 0,8 0,7 [ppm] Să se determine o predicție după 11 și după 12 ore. Care este coeficientul de corelație? R: Dreapta de regresie este y= 0,17x+2,3. După 11 ore, y=0,43 ppm. Apoi! r xy = 0,97, ceea ce arată o corelație foarte!256
257 strânsă negativă; deci pe măsură ce orele se scurg, concentrația de clor scade sensibil. 2. Pentru sumele cheltuite cu reclamele (x) și vânzările realizate (y) în mii lei, pentru 6 întreprinderi, s-au obținut următoarele date: x 2,3 5,7 4,8 7,3 5,9 6,2 y Să se determine dreapta de regresie. Se pot prezice vânzările pentru o sumă de 8000 lei cheltuiți cu reclamele? R: % x = 5,37; y = 98,83 și m=7,29. Dreapta de regresie are ecuația y=7,29x+59,68. Pentru x=8, rezultă % y 118 mii lei. 3. Vârstele în ani (x) și salariile anuale (y) în mii de USD pentru 4 dintre directorii IBM sunt: x y Să se determine dreapta de regresie și să se prognozeze salariul unui director de 57 ani (în ipoteza că regresia este liniară). R: x % = 45; y = 62,5 și m=2,548. Ecuația dreptei de regresie este y=62,5+2,548(x 45). Un director de 57 ani va primi y=62,5+2,548% 12 [mii USD/an]. 4. O companie de asigurări face o inspecție asupra a 15 agenți de asigurare. Numărul mediu de minute dedicate în medie fiecărui client potențial (x) și numărul de polițe de asigurare vândute săptămânal (y) sunt notate pentru fiecare agent, obținându-se următoarele date: x y %257
258 ! Să se determine dreapta de regresie. Câte polițe de asigurare va vinde un agent care dedică 24 minute pe client? Care este semnificația lui m? R: Dreapta de regresie este y 12=0,549(x 25). Pentru x=24, rezultă y=12 0,549! 11,45 polițe/săptămână. Avem y=m x și m=0,549 are următoarea semnificație: orice minut adițional dedicat produce în medie 0,549 polițe vândute în plus. 5. În studiul deficitului de ozon s-a realizat un experiment care a arătat fluorescența laser (y) pentru diverse presiuni parțiale (x) ale ozonului. S-au obținut următoarele date: Să se determine ecuația dreptei de regresie corespunzătoare. Să se determine pentru ce x avem y = Să se calculeze! în cazul datelor din exercițiul 4. R: n=15,! x k = 375, x = 25; y k = 180, y = 12, 2 2! x k = 9639, x k y k = 4645, y k = Atunci ,78 Atunci! r 0,88 deci există o corelație puternică pozitivă între timpii dedicați de agenți clienților și polițele de asigurare încheiate. r 2 = x y 1,5 3 4,2 7,5 9,8 12 r xy ( ) ( ) = Să se calculeze! pentru tabela r xy x y R:! x k = 58,8; x = 65,3; σ x 23,6. Apoi! y k = 607; y = 67,4 și! σ y 19,9. În final, 2!258
259 n xy x r = n x 2 ( x % ) n y 2 y 9 42, = 9 43, % deci r 0, Notele la Algebră și Geometrie pentru 8 elevi de clasa a IX a au fost următoarele: A G Care este coeficientul % ( )( y) = 1 2 ( 9 44, ), 1 2 r AG? Ce deducție se poate face? %259
260
261 PARTEA A II A DEZVOLTĂRI ȘI APLICAȚII DIVERSE În această parte, avem în vedere mai multe prelungiri ale primei părți, unde T.P. și Statistica sunt nu numai aplicate ci, eventual, subînțelese. Multe discipline științifice sunt interesate să controleze incertitudinile și să-și întărească achizițiile, legându-le de diverse segmente ale vieții economico sociale, îndeosebi acolo unde raționamentele nu sunt încastrate în structuri rigide; în particular, inferența statistică se referă la obținerea de informații privind caracteristicile diverselor populații statistice aflate în evoluție. Este impresionantă gama de aplicații ale T.P. și Statisticii în cele mai variate domenii, pe care le-am grupat în 3 capitole, fiecare generând de fapt discipline științifice noi, cu metode specifice. Nu intrăm în detaliile acestor discipline, pe care le stăpânim doar parțial, mulțumindu-ne cu un survol peste o lume plină de splendori intelectuale, cu trimiteri la texte de aprofundare. Doar prima parte a cărții are caracterul unui manual (carte de învățătură), adunând acum într-un mod sistematic unele rezultate remarcabile și informații diverse, creând totodată o punte între fundamente teoretice și zone mai puțin accesibile publicului, ale cunoașterii și acțiunii. În Capitolul 7, prezentăm Semnalele aleatoare, Seriile de timp, Lanțurile Markov și Liniile și rețelele de telecomunicații în partea lor formală, neinginerească, cuprinzând concepte esențiale pentru transmiterea de date și pentru tehnologiile informatice. Semnalele aleatoare sunt de fapt denumirea inginerească a Proceselor stocastice, întâlnite în multe abordări și investigații. $261
262 Capitolul 8 cuprinde câteva aplicații în Inginerie și Fizică, începând cu probleme legate de erorile în măsurători și controlul statistic al calității în diverse sectoare ale vieții economico ociale, continuând cu calitatea diverselor produse, utilaje, servicii etc. Am adoptat un limbaj mai direct, fără multă formalizare, reluând unele considerații de statistică aplicată și completări ale textului teoretic din prima parte a cărții. Ultimul capitol se referă la Aplicații în Statistica socială și cuprinde paragrafe referitoare la Sondajele de opinie, Statistica de consum, Econometrie (ca modelare economico matematică extinsă), Recunoașterea formelor și Clasificarea datelor ( Clustering ). Fiecare din aceste subiecte poate face obiectul unei cărți substanțiale, dar ne-am mulțumit cu a arăta modul cum T.P. și Statistica își dovedesc atât importanța de sine, cât și vocația imperialistă de a penetra alte domenii, înnobilându-le și îmbogățindu-le. $262
263 CAPITOLUL 7: SEMNALE ALEATOARE ȘI SISTEME DE COMUNICAȚIE 7.1. Introducere Studiul și practica multor domenii ale științei și tehnicii arată rolul metodelor de prelucrare a datelor numerice, alfanumerice ($ nenumerice) și, mai ales, a celor statistice. Nevoia de a aplica probabilitățile derivă din caracterul intrinsec aleator al datelor și nu din insuficiența cunoștințelor noastre sau defectelor instrumentelor de măsură. De exemplu, se spune de obicei că voltajul dintr-o rețea electrică are valorile situate în intervalul [218 1,5; 218+1,5] cu probabilitatea 0,95 ($ 5% eroare). O astfel de descriere este opusă celei care afirmă că voltajul are valoarea 220 V și mai mult, ea este mai precisă (!), ținând cont de fluctuațiile inerente ale tensiunii electrice în rețea. Performanța ($ calitatea) diverselor sisteme este direct legată de calitatea măsurătorilor și prelucrărilor acestora, cu aplicarea metodelor statistice adecvate controlului incertitudinii. Semnalele sunt de regulă clasificate în: deterministice și aleatoare. De exemplu, curentul dintr-un circuit electronic poate fi considerat ca deterministic, dependent de tensiunea la bornele circuitului. Dar zgomotul termic dintr-o rezistență poate fi studiat doar cu metode probabilistice. În Telecomunicații, semnalele au în mod inerent o parte utilă și una nedorită, care merită tot respectul, deși este numită pejorativ zgomot. În ultimă analiză, în natură există doar semnale aleatoare, iar cele deterministice sunt studiate mai ales din rațiuni didactice simplificatoare. $263
264 Celelalte paragrafe ale capitolului sunt strâns legate de lumea semnalelor și sistemelor de transmisie a semnalelor. Mobilitatea factorului uman și transmiterea informației scrise sau orale au modificat viața pe Pământ. Revoluția digitală a adus o mare abundență de informații și tehnici de prelucrare a lor, fiind necesară o regândire a bazelor lor teoretice. Și totdeauna când vorbim de sinteze teoretice, esențializare și fixare a unor concepte fundamentale, ajungem la matematică Semnale deterministice, sisteme intrare ieșire (i / o), semnale aleatoare Noțiunea de semnal este foarte generală și este dificil de cuprins într-o definiție; semnalele acustice, optice, impulsurile, curentul electric, vocea umană, muzica sunt semnale și, în mod similar, vorbim de unde seismice, unde electromagnetice, semnale nervoase, radar, sonar, unde gravitaționale etc. Semnalele sunt purtătoare de informație atât în domeniul timp (amplitudine, energie, putere) precum și în domeniul frecvență (densitate spectrală, bandă de frecvență etc.). Un rol important revine diverselor prelucrări ale semnalelor stocare, transmitere, detecție, filtrare, separarea semnalului util de zgomot, recunoaștere, clasificare ș.a. Dar semnalele își modifică în timp comportarea și ele trebuie studiate ca familii de v.a. indexate după diverse momente de timp; așa sunt traiectoriile particulelor în mișcare haotică, particulele de apă din valurile mării, diversele vibrații, zgomot termic etc. Acestea au impus conceptul de semnal aleator ($ proces aleator sau stocastic). $264
265 Fie T$! o mulțime timp ordonată ( ) și având un cel mai mic element $ t 0, ale cărei elemente se numesc momente; $ T este fie discretă (cu elementele pe sărite), fie continuală ( interval ). Exemple: { } Fixând T > 0, mulțimea T $ = 0, T, 2T,..., nt,... este prototip de timp discret, ca și T $ =!. În cazul T $ = 0, sau [a, b], timpul este continual, iar dacă $ T = t 0 < t 1 <... < t N [ ) { }, se spune că timpul este finit. Definiția 7.1: Se numește semnal deterministic orice t T funcție s:$ T! sau ". Așadar, oricărui moment $ i se asociază un număr s(t) numit eșantionul semnalului s la momentul t. În cazul când T$ este discret, semnalele se numesc discrete ($ digitale), iar dacă $ T este continual, se obțin semnale continuale ( analogice). Se notează cu Sd mulțimea semnalelor discrete. Definiția anterioară nu cuprinde impulsurile și nici semnalele 2D sau 3D, identificate cu imaginile. Exemple: = Acos( ωt +ϕ) 1) Un semnal sinusoidal s$ t, cu amplitudinea A>0, pulsația $ ω > 0 și faza $ ϕ, este continual și 2π periodic(de perioadă principală $ ). ω 2) Treapta unitate $ u :!! este un semnal continual (definit prin u(t)=1 dacă t 0 și u(t)=0 dacă t<0), dar este discontinuu în t=0. Treapta unitate discretă u$ z :! " este definită prin $ n dacă n 0 și $, dacă n<0. u d [ ] = 1 u d [ n] = 0 $265
266 3) Pentru orice k!! fixat, se poate considera impulsul unitar discret $! k aplicat la momentul k, definit prin $! k n dac# n=k "i $! k n pentru n!k. Orice semnal discret $ [ ] = 1 [ ] = 0 s :!! "! k este o combina!ie de impulsuri unitare, anume: $ s = s( k)! k. De exemplu, semnalul discret y $ = 2! 1 +! 2! 3! 3 +! 4 este reprezentat în figura 7.1. Figura 7.1 Sisteme intrare ie"ire (i/o) Conceptul de semnal este strâns legat de cel de sistem i/o. În descrierea "i studiul acestora, se pun probleme de evolu!ie în timp, de r#spuns la diversele intr#ri (! comenzi sau excita!ii), de optimizare în raport cu anumite criterii de performan!# "i identificare etc. O clas# important# de sisteme i/o o constituie cele în care intr#rile "i ie"irile sunt semnale sau seturi de semnale (ca în cazul sistemelor multivariabile). Nu vorbim aici de sisteme sociale ca: sistem de înv#!#mânt, sanitar, ideologic, economic etc. Sisteme i/o discrete ($! filtre digitale) sunt de fapt operatori $! :S d " S d, x n 266 [ ] " y[ n] ; iar sistemele continuale
267 y( t) ($ filtre analogice) sunt operatori Φ $ : x t între două clase de semnale continuale. O altă clasificare a sistemelor i/o este dată de răspunsul lor la diverse semnale de intrare. Astfel, se studiază sistemele liniare sau cele invariante în timp sau cauzale. Unele proprietăți ale sistemelor țin de structura lor internă; de exemplu, controlabilitatea sau stabilitatea. Ca purtătoare de informație, semnalele se corelează cu canalele de transmisie; tripletul informație$ semnal$ sistem formează entități inseparabile. Semnale aleatoare (! s.a.), funcția de covarianță Dacă $ Ω, K, P este un câmp de probabilități, se notează cu $ L 2 Ω mulțimea v.a. relativ la acest câmp cu valori reale (și în unele aplicații, complexe), având medie și dispersie. $ L 2 Ω este un spațiu vectorial relativ la $ și chiar un X + Y, λx spațiu Hilbert relativ la produsul scalar $ X,Y = M XY. Definiția 7.2: Dacă T$ este o mulțime timp, se numește semnal aleator ($ s.a.) orice aplicație $ X :T L 2 Ω, care asociază oricărui moment t$ $ T o v.a. X$ t = X t, numită eșantionul aleator al semnalului X la momentul t. Semnalele aleatoare discrete (când $ T este finit sau discret) se mai numesc lanțuri de v.a. Așadar, un s.a. este o familie $ X = X t ; t T de v.a. din $ L 2 Ω, adică având medie și dispersie, familia fiind indexată după momente de timp din $ T. Se mai notează $ Atenție! În T.P., în loc de semnal aleator se spune proces aleator sau echivalent, proces stocastic X = ( X t ) t T $267
268 $ ( stochos =a gre"i, în grece"te). Am ales terminologia adaptat# ingineriei sistemelor de comunica!ie. Dac# $ X = X t ; t!t este un s.a., atunci pentru orice num#r finit de momente t 1,..., t p!t se ob!ine un vector aleator ( ) p dimensional $ X ( t 1 ),..., X t p "i pentru orice eveniment elementar $!!" se define"te un semnal deterministic $ T!!, t! X t!, numit realizare a lui X. În figura 7.2 sunt indicate trei realiz#ri "i e"antioanele lor la dou# momente fixate $ t, t 1. Figura 7.2. Exemple: 1) Dac# A,!,! sunt v.a. cu A>0,! >0, atunci se poate considera s.a. sinusoidal $ X t = Acos (!t +" ); t!!. 2) Zgomotul termic într-o rezisten!# electric#, orice semnal vocal, orice semnal corupt de zgomot sunt s.a. 1D. Valurile m#rii sunt s.a. 3D. 3) Se nume"te proces aleator Poisson cu parametrul! (! > 0) un s.a. X = X ( t); t! 0,", astfel încât X(0)=0 "i ( [ )) pentru orice momente 0! t 1 < t 2 <... < t n, v. a. X ( t 1 ), X ( t 2 )! X ( t 1 ),..., X ( t n )! X ( t n!1 ) 268 sunt independente "i în
269 plus, pentru orice momente 0 s<t, v.a. X(t) X(s) este repartizată Poisson cu parametrul $ λ t s λ k P(X(t) X(s) = k))=$. k! ( t s)k λ t s e, adică pentru orice întreg k 0, Notă: Dacă X(t)=numărul de mesaje e mail primite până la momentul t la un receptor, atunci se recomandă ca ( [ )) $ X = X ( t); t 0, să fie asimilat cu un proces Poisson. 4) Se numește proces Gauss Wiener orice s.a. ( [ )) $ W ( t); t 0,, astfel încât W(0)=0 și pentru orice momente $ t 1 < t 2 <... < t n, v.a. W$ ( t 1 ), W t 2 W t 1,..., W t n sunt independente, iar în plus, pentru orice 0 s<t, v.a. W(t) W(s) este repartizată normal cu media 0 și dispersia $ σ 2 t s, $ σ > 0 fiind constant. Notă: Se recomandă să considerăm că pozițiile W(t), la orice moment t, ale unei particule supuse mișcării browniene pe o axă fixată, determină un proces Gauss Wiener. Există multe alte semnale aleatoare remarcabile lanțuri Markov, semnale staționare, martingale etc. Definiția 7.3: Fie $ X = X t ; t T un s.a. cu $. Se definesc, pentru orice $ t T $, media $ M t, dispersia $ D t și abaterea medie pătratică $ ale s.a. X. Apoi, pentru orice momente $ t, s T, se definește covarianța $ t, s M( s) (1) (În cazul când v.a. $ au valori complexe, se definește $ t, s. Totodată, se definesc funcția de K X covarianță K=$ a s.a. X și coeficientul de corelație W ( t n 1 ) X t L 2 ( Ω) = M( X t ) = D( X t ) σ ( t) = D( t) K X = cov( X t, X s ) = M( X t X s ) M t = cov X t, X s K X X t $269
270 = r( X t, X s ) = K ( t, s) X $ r X t, s (2) σ ( t) σ ( s) Conform propoziției 2.12 din Cap. 2, rezultă $ t, s, deci $ K( t, s) σ ( t) σ ( s), pentru orice $ t, s T. Notă: Dacă eșantioanele $ X t, X s sunt independente, atunci $ t, s și în general, $ are valorile în intervalul r X = 0 r X ( t, s) [ 1, 1]. Cu cât este mai slabă legătura dintre v.a. $ X t, X s, cu atât mai mică este valoarea lui $ t, s. PROPOZIȚIA 7.1: (proprietățile funcției de covarianță). Cu notații transparente, pentru un s.a. X și pentru orice $ t, s T : a)$ K t, s M( s) și $ K( t, t) = D( t) ; b) $ K t, s ; c) Dacă $ f t este un semnal deterministic, atunci $ K X+ f = K X ; d) Pentru orice momente $ t 1, t 2,..., t n T și pentru orice constante reale $ c 1,..., c n, avem $ c p c q K t p, t q 0. Demonstrația punctelor a, b, c rezultă direct din definiții. Pentru a demonstra d), notăm $ z = c k X t k și suma dublă din enunț este tocmai cov(z, z) = Dz și Dz 0. r X = M( X t X s ) M t = K( s, t) p q Definiția 7.4: Dacă $ X = X t ; t T este un s.a. cu valori în L$ 2 Ω, atunci pentru orice $ se notează $ t, s. Funcția R = $ se numește funcția de R X autocorelare ($ autocorelație) a lui X. Așadar, pentru orice t, s, K(t, s) = R(t, s) M(t).M(s). $270 t, s T = M( X t X s ) R X k r X 1
271 $ $ $ Notă: Dacă pentru s.a. X, Y se cunosc mediile, funcția de covarianță sau valorile $, atunci se pot obține informații statistice pentru Z=X+Y și pentru combinații liniare. Exemple: 1) Fie $ f k :T! semnale deterministice și $ α k L 2 Ω, 1 k n. Fie m$ k = Mα k și d$ k = Dα k, presupunând că $ α k sunt necorelate două câte două. Atunci, pentru s.a. X(t) =$ a k f k ( t) și pentru orice $ t, s T, avem M(t) =$ m k f k t și 2) Fie s.a. sinusoidal X$ t = Acos( αt +ϕ); t! cu $ A, α, ϕ v.a. independente din $ L 2 Ω și $ repartizată uniform în intervalul [0, 2π); densitatea de probabilitate a lui $ ϕ este = 1 $ p x dacă x$ 0, 2π ș i n u l ă î n r e s t. A t u n c i 2π $ X t = Acosαt cosϕ Asinαt sinϕ. D a r $ Mcosϕ = p ( x ) cos x dx = 1 2π cos x dx = și 2π 0 0 similar, $ Msinϕ = 0. Ca atare, $ MX t = 0 pentru orice $ t!. Apoi K XY K( t, s) = cov( X t X s ) = ( t) f p f q s p q K t, s k ( t, s) = cov( X t,y s ) cov α p,α q [ ) k = d p f p t ϕ = cov( X t, X s ) = M( X t X s ) = = f q s p. = M A 2 cos( αt +ϕ)cos( αs +ϕ) = 1 2 M ( A2 ) M cosα ( t s) + cos( αt + αs + 2ϕ ). $271
272 $ Notând cu q(x), x&0 densitatea de probabilitate a v.a. (nul# " în rest), rezult# Mcos! ( t! s) = # q( x) cos( t! s)xdx. Apoi M$ cos2! "i M$, deci K(t, s)= = 1. 2 M # ( A2 )! $ q( x)cos( t " s) xdx Se observ# c# pentru orice t, s,!!!, "i D(t) = K(t, t) #. 3) Pentru un proces Poisson, cu nota!ii transparente, avem, deci M(t)=$ M X t "i dac# s't, atunci: deoarece v.a. $ X t! X s "i $ X s sunt independente. Apoi, dac# s>t, atunci K(t, s)=$!t deci K(t, s)=$! min(t, s) pentru orice $ t, s! 0,". Cu un ra!ionament similar, pentru un proces Gauss Wiener, avem M$ ( W t ) = 0 "i K(t, s)=$! 2 min(t, s), oricare ar fi $ t, s! 0,". 0 = 0 ( sin2! ) = 0 K( t +!,s +! ) = K( t,s) = 1 2 M A2 P( X t = k) =! k t k k! e!!t 4) Se consider# un circuit electronic având voltajul aleator V(t), t&0 din figura 7.3. Alegem un pas de e"antionare T>0 "i aproxim#m V cu semnalul X(t)=V(0) dac# t! T,2T. 0 =!t K( t, s) = cov( X t, X s ) = cov( X s, X t ) + cov( X t! X s, X s ) = DX s + 0 [ ) [ ) [ ) 272 Figura 7.3
273 $ $ X(t)=V(T) dacă t$ T,2T ; X(t)=V(2T) dacă $ etc. Considerăm semnalul dreptunghiular definit prin d(t)=1 dacă [ ] X t $ t 0, T și 0 în rest. Atunci $ = V ( nt ) d( t nt ). Se pot explicita M(t) și K(t, s). 5) Un loc aparte îl are semnalul $ ζ = ε ( t), t! numit zgomot alb. Acesta este caracterizat prin faptul că media este nulă și orice două eșantioane distincte sunt necorelate. Așadar, pentru orice $ t, s!, M(t) = 0 și $ t, s, unde I este intensitatea zgomotului și $ δ este funcția Dirac. Notă: Se observă că în exemplele 2 și 5 avem $ M t + τ și $ K(t, s) pentru orice $. Dar în exemplele 1 și 4, nu. Calculul statistic aproximativ al lui M(t) și K(t, s) Fixăm un s.a. $ X = X t ;t T cu toate $ și două momente t, s din $ T. Notăm cu $ densitatea de probabilitatea a v.a. X$ t și cu p$ ts densitatea comună de probabilitate a vectorului aleator 2D definit de perechea $ Xt, Xs. Atunci D t [ ) t [ 2T,3T ) K ζ = Iδ ( t s) n 0 $ M t dx 1 N X k t ; k=1 N = M( t) K( t + τ, s + τ ) = t, s, τ = x p t ( x) = x M( t) K t, s = x M( t)! 2 X t L 2 ( Ω) unde $ X 1,..., X n sunt realizări ale s.a. X și N suficient de mare. 2 pt ( x)dx 1 N ( y M( s) ) p ts t 1 N X k ( t) M( t) X k s N k=1 p t N ( X k ( t) M( t) ) 2 k=1 dxdy ( M( s) ) ; $273
274 Aceste formule permit evaluarea empirică a caracteristicilor statistice respective ale s.a. Semnale aleatoare staționare ( invariante în timp) Dacă parametrii unui fenomen sau ai unui proces temperatură, densitate, umiditate, mediul electromagnetic, compoziția chimică a unei rezistențe electrice etc. - nu se modifică în timp, atunci aceeași proprietate o au și parametrii statistici corespunzători. Există fenomene și procese în care caracteristicile la momente de timp t și $ t + τ depind numai de $ τ (nu și de t); se spune atunci că ele sunt staționare, nu constante. Presupunem în continuare că $ T =! sau ". Definiția 7.5: Un s.a. X $ = X t ;t T cu toate $ X t L 2 Ω se numește staționar (invariant în timp) dacă pentru orice momente avem MX# t + τ M(t) și $ (3) PROPOZIȚIA 7.2. Dacă X este un s.a. staționar, atunci: a) media M(t) este constantă: b) pentru orice $ t, s T, $ cov X t+s, X s nu depinde de s. Demonstrație: a) Înlocuind $ τ = s în prima relație (3), rezultă că M(t)=M(X0)=M(0) pentru orice t. b) Înlocuind $ τ = s în relația secundă (3), rezultă K(t s, 0)=K(t, s) și înlocuind t cu s+t, K(t, 0)=K(s+t, s) deci nu depinde de s și în particular este egală cu $ cov X t, X 0. Definiția 7.6: Funcția de covarianță de o singură variabilă a unui s.a. staționar X este $ K :T!, K t. = K( t + τ, s + τ ) = K( t, s) = K X ( t, 0) = K X ( t, 0) PROPOZIȚIA 7.3: Fie X un s.a. staționar și fixăm orice $ t T. Atunci $274
275 $ a) K(0) = D(t), deci dispersia D(t) este constantă; b) K( t) = K(t), deci K este funcție pară; K( 0) c) $ K t. Demonstrație: a) Avem K(t s)=$ K X t s, 0, ultima relație rezultând din (3) pentru $ τ = s. Așadar, $ t, s și pentru s=t, rezultă K X $ t, s, adică D(t) = K(0). K X = K( 0) b) Conform definiției 7.6, K X ( t) = K X t, 0 c) $ K t. Dar $ și $ σ 2 0 = D t. = K( t s) cf.(3) = = K t = K X 0, t $ Exemple: 1) Orice s.a. constant X =$ α cu α L 2 Ω este staționar și M(t) = M$ α, D(t) = D$ α pentru orice $ t T. 2) Pentru s.a. sinusoidal $ X t = Acos( αt +ϕ) considerat anterior, am văzut că M(t)=0 și $ K X ( t, s) = 1, 2 M ( A2 ) q( x)cos( t s) xdx unde q(x) este densitatea de probabilitate a v.a. $ α. Așadar, $ t, s pentru orice $, deci $ X = X t ;t! este staționar. În plus, = K X ( t, s)! K X t + t, 0 + t = = K( t, 0) σ t σ 0 σ t = σ 0 = K( 0) K X $ $ K X ( t) = 1. 2 M ( A2 ) q( x)costx dx 0 = K X ( t + τ, s + τ ) τ 0 $275
276 3) Procesele Poisson și Gauss Wiener nu sunt staționare, dar zgomotul alb $ ζ este staționar și funcția sa de covarianță este = Iδ ( t) $ K t. 4) Fie s.a. V $ = V t ;t!, unde $ descriu fluctuațiile voltajului într-un circuit electronic. Ca model, $ V t = e iω kt, unde $ ω k = ω k,ma k = 0 și $ M A p A q pentru orice k, p, q. Atunci $ și $ t, s. Așadar, V este un semnal K V aleator staționar. În plus, D(t) =$ V t n A k= n k = c p δ pq MV t = 0 = M V t V s n = c k e iω k t s k= n $ c k sunt proporționali cu puterile medii care ajung pe oscilațiile armonice cu frecvența $ ω k și amplitudinea $ Ak. Notă: Zgomotul atmosferei terestre pe banda de frecvență sub 30 khz este datorat descărcării fulgerelor. Efectul acestui zgomot într-un receptor radio se poate modela printr-un s.a. de forma V$ t, unde N(t)=numărul de descărcări primite în intervalul [0, t], $ sunt momentele de descărcare, $ K V h=răspunsul receptorului la o descărcare. y k n ( t, t) = c k. Coeficienții k= n N( t) = y k h( t T k ) k=1 T k =puterea descărcării și Ergodicitate [ ) Dacă T $ = 0, și X este un s.a. staționar cu media m, atunci, pentru orice T>0, se poate defini v.a. $ η T = 1 X t dt. T 0 T Avem $ Mη T = 1. T M X tdt = 1 MX t 0 T dt = 1 0 T mt = m T T $276
277 $ Dac! T =!, atunci se define#te! T = 1 X t, cu T " dt!t /2 acela#i rezultat. Defini"ia 7.7. S.a. sta"ionar X se nume#te ergodic, dac! lim D! T. T!0 = 0 fiecare v.a. În acest caz, considerând un #ir de momente T n! ",!( T n ) are media m #i dispersiile tind c!tre 0. În figura 7.4 este redat! ideea ergodicit!"ii. La diverse momente $ T 1, $ T 2,..., T n $,... sunt identificate prin buline negre realiz!ri ale lui $!( T 1 ),!( T 2 ),...,!( T n ),... care oscileaz! în jurul mediei m, cu dispersii din ce în ce mai mici. T /2 Figura 7.4 Not!: Se poate ar!ta c! dac! lim K u u!0 = 0, atunci X este ergodic. Deci pentru T suficient de mare, rezult! T = x( t) m!! T = 1 X t " 0, unde $ este o singur! T " dt X t! 0 0 realizare a s.a. X. Proprietatea esen"ial! a ergodicit!"ii const! în calculul caracteristicilor statistice ale unui s.a. ergodic utilizând o singur! realizare a acelui semnal, urm!rit! un timp T suficient de mare. În particular, $277
278 T $ K t 0 ( x( t) m) ( x( t t 0 ) m)dt ; 1 T 0 T $ R t 0 x( t) ( x( t t 0 ))dt. 1 T Densitate spectrală de putere Sunt necesare câteva reamintiri relativ la Analiza Fourier a semnalelor deterministice. În dezvoltarea acestui domeniu au existat câteva momente istorice semnificative: - descoperirea seriilor trigonometrice și a transformării Fourier ca subiect matematic (în jurul lui 1770); - descoperirea transformării Fourier discrete și a algoritmului FFT de către Gauss (1810); - aplicarea după 1930 a transformării Fourier la Analiza timp frecvență (T/F) a sistemelor dinamice; - intrarea în era digitală (după 1980). Fie u(t) un semnal periodic de perioadă T, cu pulsația $ ω = 2π și frecvența $ f = 1 (în Hz); așadar, $ ω = 2π f. T T 2 P e n t r u u,v $ L 0,T [ ] s e d e f i n e s c p r o d u s u l s c a l a r $ u,v = 1 T u( t)v ( t) și norma $. Pentru $ se T dt u = u,u 1/2 n! 0 consideră armonica $ t și atunci $ $, 2 $ t și $. Dacă $, se definesc coeficienții e n Fourier $ c n = u,e n = 1 u t. T e inωt dt, n! 0 e n = 1 e n = e n u L 0,T T = e inωt e n,e m = δ mn Teorema Fourier Dirichlet de convergență punctuală arată că pentru orice $ t!, seria $ c n e n ( t) este convergentă, cu n! [ ] $278
279 1 suma $ 2 u t 0 ( + u( t + 0) ) u = cnen, iar teorema Fourier Hilbert de convergență în medie arată că $ n!, în sensul că $ lim u N c e n n = 0. N n= N Orice semnal periodic (în anumite condiții, de regulă îndeplinite!) se descompune ca sumă ($ suprapunere) de armonici și are loc fenomenul matematico informatic de conversie analogic digitală: $ u( t),t! c n ;n!. Șirul $ se numește spectrul frecvențial discret al semnalului periodic u(t); desigur, $ lim c n = 0. n Pentru studiul semnalelor neperiodice, instrumentul matematic îl constituie transformarea Fourier. Dacă u$ t, adică $ u t dt <, atunci integrala improprie $ u t e iωt dt este absolut convergentă și valoarea ei este funcția = u( t) $ û f e 2πift dt, numită transformata Fourier a lui u(t), = F u( t) { } û f $ û f. Atunci $ este spectrul frecvențial continual al semnalului u(t). O proprietate remarcabilă este formula de inversare = û( f ) Fourier: $ u t e 2πift df, pentru orice $ t!, care permite recuperarea semnalului u(t) din cunoașterea spectrului său frecvențial. Dacă $ u, v L 1 L 2, atunci se definește convoluția $ h = u *v prin $ h( t) = u( t z)v( z) dz, $ u v L 1 = û ˆv și $ F u *v. ( c n ) = F u L 1 $279
280 Dacă u,v $ L 1 L 2, atunci se definesc: produsul scalar $ u,v = u( t)v ( t)dt, n o r m a $ u = u,u 1/2 și energia = u,u = u( t) 2 dt = u 2 $ E u. Reamintim de asemenea inegalitatea lui Schwartz $ u,v 2 E( u) E( v), relația lui Parseval $ û, ˆv = 2π u,v și = 2πE( u) teorema energiei $ E û. Semnalele din $ se mai numesc semnale de energie L 2 finită. Operatorul Fourier $ F :L 2 L 2,u t este o izometrie liniară care stabilește legătura T/F (timp-frecvență). Notă: O insuficiență a Analizei clasice Fourier o constituie faptul că integralele anterioare sunt slab convergente și că există semnale importante care nu au spectru. Aceasta a justificat extinderea la distribuții și dezvoltarea Analizei Fourier spre studiul undinelor ($ wavelets ). Aspectele numerice sunt abordate folosind transformarea Fourier discretă și algoritmul FFT. Iar pentru studiul imaginilor, cu aplicații în Tomografie, Computer Vision, Robotică etc. s-au dezvoltat transformările Fourier 2D, 3D și Radon. Un rol deosebit îl are următoarea teoremă de eșantionare a lui Shannon: Teoremă: Fie $ u L 2 un semnal de energie finită și B>0, = 0 f B astfel încât $ û f pentru $. 2π = B π Fie $ S t sa Bt, unde am notat $, t 0 și t sa(0)=1. Atunci pentru orice $ t!! 1 2π û( f ) sa( t) = sint $280
281 $ u ( t ) = π B u nπ B. n! S t nπ B Așadar, semnalul continual u(t), având banda de frecvență B, este bine determinat prin cunoașterea eșantioanelor u$ nπ, $ B n! care tind spre zero pentru $ n sau $ n. Teorema lui Shannon se extinde și la semnale aleatoare. 2 Exemplu: Fie $ u( t) = e t, deci $ û( f ) = (conform 1+ 4π 2 f 2 tabelei de transformate Fourier). Luând B=20π [Hz], pentru $ f 10, û f este neglijabil și semnalul u este bine descris prin eșantioanele $ u n, în număr finit. 20 { } Fie acum $ X = X t ;t! un s.a. staționar, cu valori reale. Am definit anterior (definiția 1.4) funcția de autocorelație $ R = R X :!!, prin $ R t care de fapt nu depinde de $ τ. Înlocuind $ τ = t, rezultă R(t)= $ M( X t X 0 ) ; apoi facem $ τ = 0 și rezultă R(t) = M$ ( X 0 X t ). 2 Așadar, R( t) = R(t) și R(0) =$ M X 0. Apoi $ R t pentru orice $. Dacă X este ergodic, atunci alegând o singură realizare x(t) 1 T /2 2 a lui X, rezultă $ R( 0) = lim x t. T T dt T /2 Aceasta se numește puterea medie a semnalului X deci T /2 2 $ R 0 x t dt, pentru T>0 suficient de mare. = 1 T T /2 Energia semnalului x(t) este! E = = M( X τ X t+τ ) R( 0) t! x( t) 2 dt $281
282 $ Func!ia R este m#rginit#, par# "i are maximul absolut pentru t=0; graficul ei arat# ca în figura 7.5. X = X t ;t!! Figura 7.5 Defini!ia 7.8: Densitatea spectral$ a unui s.a. sta!ionar { } autocorela!ie, anume P ( f )! P X ( f ) = F R( t) este transformata Fourier a func!iei de PROPOZI"IA 7.4 (propriet#!ile densit#!ii de putere). " a) R( t) = # P ( f )e 2!ift d f pentru orice f!! ;!" b) P f pentru orice ; " c) P ( f ) = 2 R( t)!cos2! ft dt. Demonstra!ie: a) rezult# direct din formula de inversare Fourier. b) Func!ia R este par# deci P f. c) Avem $ P f $ # $cos2!dt "i R(t) este par#. Exemplu: # { } = R t $ e "2!ift dt, f %! "# = P (! f ) f!! # 0 # # P ( f ) = $ R( t)! ( cos2! ft " isin2! ft)dt = $ R( t)!cos2! ft, "# = P (! f ) " = R( t)!" "# (4) 282
283 $ Am definit zgomotul alb ca fiind un semnal aleator $ ζ cu media nulă și orice două eșantioane distincte necorelate. În plus, $ t, deci K ζ = R ζ ( t) = Iδ ( t) $ t =I (căci $ ). P ζ = F R ζ ( t) { } = I F δ t Așadar, densitatea spectrală de putere a zgomotului alb este constantă în toată banda de frecvențe. Pentru n suficient de mare, un semnal pentru care $ R t este o aproximare bună a zgomotului alb cu intensitatea I (deoarece $ lim = δ t, în sensul teoriei distribuțiilor. n n 2 e n t Sisteme liniare i/o ( filtre) Definiția 7.9: Dacă E, F sunt spații de semnale (de exemplu, $ L 1 sau $ L 2 ), un sistem liniar i/o ($ filtru liniar) este un operator liniar! y( t) $ L : E F, x t, { } F { δ } = 1 = ni 2 e n t prin care oricărei intrări x(t) îi corespunde o ieșire y(t). În loc de L(x(t)) se scrie Lx(t). Sistemul L se numește invariant în timp ($ staționar), dacă ori de câte ori y(t)=lx(t), rezultă că = L x( t τ ) τ $ y t τ pentru orice $ real. Dacă L este continuu și invariant în timp, atunci el este de tip convoluție, în sensul că există un semnal G(t), numit funcția Green a sistemului, astfel încât y$ ( t) = G( t) x( t). Dacă G(t)=0 pentru t<0, filtrul se numește cauzal. Extinzând spațiile de semnale pentru a include distribuții, se poate arăta că $ G = Lδ și, din acest motiv, G se mai numește răspunsul impuls al filtrului L. Definiția 7.10: Transformata Fourier = F G( t) H f { } Ĝ f se numește funcția de transfer a filtrului L. $283
284 Din relația $ y( t) = G( t) x( t), rezultă $ ŷ( f ) = Ĝ ( f ) ˆx ( f ), deci = ŷ( f ) $ H f (5) ˆx f adică raportul dintre transformatele Fourier ale ieșirii și intrării (presupus independent de intrare). PROPOZIȚIA 7.5: Cunoașterea funcției de transfer H(f) determină cunoașterea comportării filtrului L. Demonstrație: Pentru orice intrare x(t), se calculează $ ˆx ( f ) = F x( t) și apoi $ = H ( f ) ˆx ( f ), conform (5). { } ŷ f Cunoscând $ ŷ f, se deduce ieșirea $. Invers, pentru orice ieșire y(t), se determină ŷ$ f și apoi = ŷ( f ) $ ˆx f, conform (5), de unde se deduce intrarea H f corespunzătoare x(t). O problemă importantă este aceea de a stabili legătura între caracteristicile statistice ale ieșirilor și intrărilor medii, dispersii, funcții de autocorelație, densități spectrale etc. Printre altele, în acest mod, se obțin soluții pentru separarea semnalului util de zgomot și alte probleme care asigură calitatea canalelor ($ filtrelor) de telecomunicații. Din formula de filtrare $ x( t) = x( s) δ ( t s)ds (adică $ x = x δ ), rezultă y(t) $ = Lx(t) = G( t, s) x( s)ds și, notând = Lδ ( t s) $ G t,s, se obține relația integrală $ y( t) = G( t,s)x( s)ds. { } y( t) = F 1 ŷ( f ) $284
285 Dac! sistemul L este în repaus pân! la momentul t=0 #i dac! G(t, s)=0 pentru s>t, atunci deduc rela"iile: t $ My( t) =! G( t,s) Mx( s)ds #i 0 t = G t,s t t $ K y =!! G( t,u) G( s,v) K x ( u,v)dudv. 0 0 #i se În cazul când filtrul L este liniar, invariant în timp #i cauzal, notând G(t)=G(t, 0), rezult! c! $ y( t) = G( t)! x( t) #i rela"ia dintre func"iile de autocorela"ie ale intr!rii #i ie#irii este: $ ( t) = G (!t)"g( t)"r x ( t). R y Aplicând aici transformarea Fourier #i "inând cont c! $ F G (!t)! = H ( f ) #i c! $ z! z = z 2 pentru orice $ z!!, { } = Ĝ f se deduce urm!toarea rela"ie fundamental! pentru filtrele de tip convolu"ie: $ ( f ) = H ( f ) 2! P x ( f ), f "! (6) P y între puterile intr!rii #i ie#irii. Nu mai d!m detalii. APLICA#IE: S! consider!m un circuit electronic RC ca în figura 7.6. Notând cu y(t) voltajul ie#ire, rezult! x(t)=ri(t)+y(t), unde i( t) = Cy! t y t RC! + y( t) = x( t) #i, ca atare, $ y t.! 0 x( s)ds Figura 7.6 $285
286 Aplicând transformarea Fourier, rezultă relația + ŷ( f ) = ˆx ( f ) $ RC 2πif ŷ f, de unde deducem funcția de transfer a circuitului $ H f tabelul cu transformate Fourier, se obține = F 1 H ( f ). De aici și din $ RC G t, dacă t 0 și nul dacă t<0. Produsul RC se numește constanta de timp a circuitului. Notând 1 $ f 0 =, rezultă $ H ( f ) 2 1 =. 2π RC 1+ ( f / f 0 ) 2 Schimbăm unghiul de vedere și privim circuitul ca un sistem i/o $ x t.! y( t) Aplicând relația (6), rezultă raportul funcțiilor de putere $ r = P y ( f ). P x ( f ) = H ( f ) 2 1 = 1+ ( f / f 0 ) 2 Măsura în decibeli a acestui raport este db= -$ 10log f / f 0. Evident, db $ f =0 = 0, db $ = 10log 5 f = f0 /2 10 și 4 0,97 $ db f = f0 = 10log ,01. Așadar, componenta în frecvență a ieșirii la $ f = f 0 este atenuată la 3 db în comparație cu cea de la f=0. Din acest motiv, se spune că banda de frecvență $ f 0, f 0 este banda 3 db. [ ] Circuitul anterior este un exemplu de filtru trece jos. Denumirea se justifică prin aceea că pentru $ f f 0, $ H( f ) este neglijabil și la fel este $ = ŷ( f ) ˆx ( f ) = 1 { } = 1 RC e ( ) 2 ŷ( f ) t 1+ 2π RCif. Practic, frecvențele care contează $286
287 sunt cele joase, cuprinse în banda $ f 0, f 0. De aceea, $ se $ R y t și puterea ieșirii va fi 2RC e $ P = R y y 0. 2RC Notă: Astfel de considerații sunt utilizate curent în studiul sistemelor de telecomunicații. De exemplu, canalul de transmisie este privit ca un sistem i/o, $ x t, unde 0<A<1 și $ τ este întârzierea semnalului. Trecând la domeniul frecvență, adică aplicând transformarea Fourier, rezultă relația $ ŷ( f ) = Aˆx ( f )e 2πiτ f, iar funcția de transfer a canalului este $ H c f. ˆx f [ ] f 0 numește frecvența de tăiere. În fine, să asimilăm intrarea x(t) cu un s.a. ergodic, cu densitatea spectrală aproape constantă P $ x ( f ) D 0. Atunci $ P y ( f ) = D 0 H ( f ) = D 0, unde $ f deci 1+ ( f / f 0 ) 2 0 = 2π RC { } = D 0 = F 1 P y ( f ) = D 0 = ŷ( f ) = Ae 2πiτ f 1 RC t! y( t) = Ax( t τ ) Cum întârzierea $ τ nu este constantă, apar distorsiuni... Ne oprim aici și trimitem la cursuri de specialitate Serii de timp Metode elementare de prelucrare a s.t. Intuitiv, o serie de timp ($ serie temporală, pe scurt, s.t.) este orice set de măsurători generate secvențial în timp, ale unor mărimi; așadar, un șir de date numerice (1D, 2D sau 3D) sau nenumerice, indexate după momente crescătoare de timp, notate 1, 2,..., n,... Exemple: $287
288 1) Valoarea zilnic#, timp de o lun#, a leului la cursul de schimb valutar lei/euro. 2) Num#rul trimestrial de pasageri la TAROM pe ultimii 4 ani. 3) Cantit#!ile medii zilnice de ploaie (! /m 2. zi) dintr-o anumit# zon#. 4) Num#rul anual de emigran!i/imigran!i în România pe timp de 10 ani. 5) Num#rul de "omeri estimat trimestrial timp de 4 ani. 6) Calitatea aerului atmosferic este esen!ial# pentru func!ionarea sistemelor circulator "i respirator ale popula!iei. S-au m#surat cantit#!ile medii zilnice de particule în suspensie, în [$ µ g/ m 3 ] din centrul Bucure"tiului, pentru o perioad# de timp T. Ca exemplu concret, se presupune c# în T=8 zile consecutive, cantit#!ile medii au fost: 35, 40, 38, 36, 30, 33, 50, 55. Aceste date pot fi reprezentate în figura 7.7. $ $ Figura 7.7 Astfel de exemple pot continua nedefinit, din Biologie, Industrie, Comer!-Marketing, Finan!e, Transport, Ecologie etc., unde se impune monitorizarea evolu!iei în timp a diverselor sisteme, a fluctua!iilor pre!urilor la materii prime, a PIB ului diverselor!#ri, recoltei, produc!iei industriale etc. Defini!ia final#, care nu pare complet nou#, este urm#toarea: 288
289 Definiția 7.11: O serie de timp (s.t.), { } X ( X t ;t 1 întreg) $ X X 1, X 2,..., X n,..., sau pe scurt $, este un lanț de v.a. cu valori reale. Așadar, o s.t. este un proces aleator în timp discret. O problemă principală a constituie alegerea modelelor teoretice și concordanța acestora cu realitatea datelor statistice măsurate. Printre modelele teoretice de prelucrare a datelor, indicăm: mediere ($ netezire a datelor), modele Holt Winters ($ netezire cu parametri și sezonalitate), analiză de corelație în domeniul timp, analiză spectrală (de tip frecvențial Fourier), identificare a sistemelor, modele AR, MA, ARMA, (Box Jenkins) etc. Utilizatorul poate alege modelul cel mai adecvat, care să-i permită să deceleze structura internă a datelor tendințe, periodicități ($ ciclicități), particularități sezonale. Datele pot fi asimilate cu v.a. supuse sau nu unor legi de repartiție, care pot să aparțină unor familii (modele parametrice). O idee fundamentală în teorie și practică este aceea a T t descompunerii unei s.t. $ X X t ;t T în trendul ei $, efectele ciclice $ C t, efectele sezonale $ I t și cele reziduale $ ζ t ($ zgomot alb): $ X t = T t + C t + I t +ζ t, t T. Scopul unor astfel de modele și prelucrări îl constituie obținerea unor predicții și sprijinirea unor decizii ale factorilor decizionali. Se subînțelege că modelele trebuie să fie fezabile, executabile, având un număr restrâns de parametri esențiali, compatibile cu legile omologate, fie ele legi fizice, economice sau sociale. În continuare, vom prezenta câteva modele, care s-au dezvoltat dincolo de tipurile de date care le-au generat inițial. $289
290 $ a) Metoda mediilor mi!c$toare ( moving averages ) Consider#m o s.t. X! X t ; t " 1, "i fix#m N & 2 întreg. Vom determina la fiecare moment t & N media celor mai recente N date; anume, M t = 1 ( N X + X X t t!1 t!n+1) Înlocuind $ X 1, X 2,... cu $ M N, M N+1,... (cu N 1 mai pu!ine!), se ob!ine un alt "ir de date care nu altereaz# informa!ia, dar acestea sunt mai pu!ine, au o dispersie mai mic# "i realizeaz# astfel o anumit# netezire. Exemplu: Presupunem c# profitul brut anual al unei Societ#!i Comerciale, în milioane euro, în cincinalul , a fost X! (4,1; 5,5; 4,3; 4,4; 5,0). Dup# un calcul simplu, MX=4,66 "i! ( MX 2 )! 0,27 $ DX = M X 2. Aceste 5 date sunt reprezentate în figura 7.8 "i se pot trage unele concluzii. Indicatorii MX "i DX se refer# la m#sur#tori trecute "i nu permit predic!ii. (7) Figura 7.8 Fie N=2 "i calcul#m $ pentru t&2; anume, conform (7), M t = 1 2 = 4,8 M = 1 3 ( 2 X + X 3 2 ) $ M 2 = 1 ; $ 2 X + X 2 1 5,5 + 4,1 = 4,9 M = 1 4 ( 2 X + X 4 3) = 1 2 $ = 1 4,3+ 5,5 ; $ 4,4 + 4,3 =4,35, 2 $ M 5 = 4,7. Aceste date, cu una mai pu!in decât ($ ), sunt asociate 290 X t
291 aceeași v.a. X=profitul brut: X! {4,8; 4,9; 4,35; 4,7}; în acest caz, MX! 4,69 și DX! 0,05. Să luăm acum N=3; conform (7), pentru t 3 avem = 1 3 4,63 $ M 3 = 1 ; 3 X + X + X ,3+ 5,5 + 4,1 4,73 M 5 = 4,57 $ M 4 = 1 și $ și în acest caz, 3 X + X + X X! {4,63; 4,73; 4,57} cu MX! 4,64 și DX! 0,03. Avantajele metodei sunt: - datele s-au redus ca număr și s-au mai omogenizat; - media nu s-a modificat mult, dar dispersia a scăzut; - s-a acordat mai multă atenție datelor recente (de exemplu, profitul brut al ultimilor ani). Prin această metodă nu se obțin indicații privind tendința ; cel mult predicții grosiere, de tipul $ X 6 M 5. b) Metoda netezirii simple Ideea acestei metode constă în a acorda ponderi mai mari datelor recente. Anume, se fixează o constantă $ α 0,1, numită constantă de netezire și pornind de la s.t. $ X = X t ; t 1, se construiește o nouă s.t. Y $ = Y t ; t 2, de aceeași lungime, în modul următor: $ Y 2 = X 1, $ Y 3 = α X 2 + ( 1 α )Y 2,...,Y t = α X t 1 + ( 1 α )Y t 1,... Relația $ Y t = α X t 1 + ( 1 α )Y t 1, t 3 (8) se numește formula de predicție cu parametrul $ α, iar $ se numește predicția datelor $ la momentul t+1. PROPOZIȚIA 7.6: Pentru orice t 3, X t t 2 k 1 $ Y t = α 1 α Xt k + 1 α (9) k=1 Demonstrația: rezultă prin inducție după t. t 2 Y 2 Y t $291
292 $ $ Exemplu: 4 4 Y 2 1) $ Y 6 = α ( 1 α = k=1 )k 1 X 6 k + 1 α = α X α X 4 + ( 1 α ) 2 X 3 + ( 1 α ) 3 X 2. + ( 1 α )4 Y 2 2, α ( 1 α ) 3, ( 1 α ) 4 Coeficienții α, $ α 1 α se numesc ponderi și suma lor este egală cu 1. Afirmația este mai generală. Pentru $ α =0,9, ponderile sunt mici, iar pentru $ α =0,1 sunt sensibil mai mari. În predicția $, mărimile $ mai recente au ponderi mai mari. 2) Reluăm exemplul anterior X# (4,1; 5,5; 4,3; 4,4; 5,0), cu $ α =0,1. Conform (8) și (9), avem Y$ 2 = X 1 = 4,1 ; $ Y 3 = α X 2 + ( 1 α )Y 2 = 0,1 5,5 + 0,9 4,1 = 4,24 ; Y 4 = α X 3 + α ( 1 α ) X 2 + ( 1 α ) 2 Y 2 = 0,1 4,3+ 0,09 5,5 + 0,9 2 4,1 4,25 X 3 + α ( 1 α ) 2 X 2 + ( 1 α ) 3 Y 2 4,26 $ Y 5 = α X 4 + α 1 α și $ $ Y 6 4,33. Așadar, netezirea cu ponderea $ α =0,1 a condus de la setul X la setul Y# 4,1; 4,24; 4,25; 4,26; 4,33. Netezirea cu ponderea $ α =0,9 conduce la setul # Y 4,1; 5,36; 4,41; 4,40; 4,9 și se observă că ultimele date (cele recente) au un rol mai mare în cazul $ α =0,9. Notă: Se mențin avantajele metodei a) a mediilor mișcătoare. În plus, există o procedură, numită algoritmul Marquardt, care permite să se determine o valoare optimă a constantei α, în modul următor: fiind dată s.t. $ X = X t ; t 1, se construiește s.t. $ Y t ; t 2 definită de (8) și se pune condiția ca dispersia acestui șir de date să fie minimă, folosind metoda celor mai mici pătrate. Dar numai cu utilizarea calculatorului! Formula (8) se scrie Y t X t $292
293 $ Y t+1 = α X t + ( 1 α )Y t = Y t + α ( X t Y t ),t 2. Diferența $ ε t = X t Y t se numește eroarea actuală de predicție la momentul t. Așadar, are loc formula $ Y t+1 = Y t + αε t, (10) care spune că orice predicție viitoare $ Yt+1 se obține din cea actuală $, la care se adaugă o anumită ajustare a erorii actuale. Vom extinde acest model la modelul autoregresiv AR(1). Dacă s.t. X are lungimea n ($ conține n date $ X 1,..., X n ), atunci se mai spune că X se referă la n perioade de timp ani, luni, zile. Formula (8) se poate extinde dincolo de perioada n, ceea ce permite predicții. De regulă, se îngheață ultima dată $ și se calculează câțiva pași: $ Y n+1 = α X n + ( 1 α )Y n, $ Y n+2 = α X n + ( 1 α )Y n+1 etc. Nu există argumente pentru a considera că metoda netezirii simple redă vreo tendință. c) Netezirea dublă sau triplă Netezirea dublă ($ cu doi parametri) urmărește mai bine datele. Se pornește de la o s.t. $ X X t ; t 1, se introduc doi parametri $ α 0,1 și $ și relații de recurență de forma unde Y t β ( 0,1] $ Y 1 = X 1, Y t = α X t + 1 α, (11) $ a t = β Y t Y t 1 a t 1, t 2 (12) Mărimea $ se numește factor de trend. Pentru a t + 1 β inițializare, specialiștii au propus trei variante: $ a 1 = X 2 X 1, a 1 = 1 și $, 3 X X 4 1 n 1 X X n 1 X n ( Y t 1 + a t 1 ) a 1 = 1 $293
294 X n unde $ este ultima valoare luată în considerație. Prin relația (11) se ajustează predicția anterioară Yt 1 $ și trendul perioadei anterioare $ a t 1, iar relația (12) actualizează trendul. În cazul $ β = 1, rezultă $ a t = ΔY t = Y t Y t 1. Notă: Valorile optime pentru $ α,β se pot determina folosind algoritmul Marquardt, punând condiția ca dispersia șirului de date $ Y 2,...,Y n să aibă dispersia minimă. Suma $ P t+1 = Y t + a t se numește predicție pentru perioada următoare, iar $ P t+2 = Y t + 2a t, predicția peste două perioade. Holt și Winters au introdus netezirea triplă, prin care datele indică atât trendul cât și un element nou sezonalitatea. Datele inițiale sunt $ u 1,u 2,...u t,... și în locul relațiilor (11), (12) se propun relațiile următoare: + ( 1 α )( v t 1 + a t 1 ) $ v 1 = u 1 ; v t = α u t / I t 1 (13) + 1 β $ a t = β v t v t 1 a t 1, pentru t 2; (14) + 1 δ $ I t = δ u t / v t I t 1, pentru t L+1. (15) Datele $ reprezintă măsurători/observații, $ -observația u t netezită și $ - indexul sezonal pentru t. Constantele $ α, β, δ, cu I t valori cuprinse între 0 și 1, se determină punând din nou condiția ca dispersia datelor $ să fie minimă. v t Relația (13) se numește netezirea globală, iar (14) și (15) netezirea trendului și cea sezonală. Pentru inițializarea algoritmului, sunt necesare L date sezonale, cu care se determină I t L indicii sezonali $. Se estimează apoi factorul de trend $ de la o perioadă la alta. Specialiștii recomandă să se ia $ a 1 = 1 u L+1 u 1 + u u L u u 2 L L. L L L L v t a t $294
295 P t+m Predicția $ cu m perioade înainte (m 1) este dată de / I t L+m relația $ P t+m = v t + ma t. Exemplu: Punem într-un tabel vânzările trimestriale (în mil. euro) ale unei societăți comerciale, între anii : Anul Trim. I Trim. II Trim. III Trim IV Total pe an 2013 (notat 1) Un sezon are un anumit număr de perioade. De exemplu, anul are 12 luni (sau 4 trimestre perioade). Pentru o perioadă i, notăm! 2014 (2) (3) Media pe coloane 336,7 301,7 328,3 363, M i =media pe trimestre pe cei trei ani. D e e x e m p l u, M$ I = , 3 $ M II = 301,7 $ M III = 328,3 și $ M IV 363,3. Media generală este 336,7 332,5 $ M = 1 336, , ,3+ 363,3 mil. euro. 4 Cei 4 indici sezonali sunt: $ I 1 = 336,7 ; $ ; 332,5 1,01 I = 301, ,5 0,91 $ I 3 = 328,3 și $. 332,5 0,99 I 1,09 4 Pe de altă parte, dreapta de regresie pentru tabela $ are ecuația y=75x Pentru a obține o predicție pentru vânzările din anul 2016, înlocuim x=4 și obținem y=1480 mil. euro. Media vânzărilor pe trimestrele din anul 2016 $295
296 1480 ar fi $ 370 pentru trimestrul II înmulțim aceasta cu indicele 4 senzonal I$ 2 deci 370 $ 0, și pe trimestrul IV, $ 370 1, mil. euro. Notă: În prelucrarea s.t. și a comportării succesiunilor de date înregistrate la momente sau perioade succesive, există și alte abordări modele liniare sau neliniare, metoda spectrală, s.t. ca ieșiri ale unor filtre digitale etc. Sezonalitatea revine la detecția unor periodicități ($ ciclități); de exemplu, în cazul recoltelor sau turismului; apoi la librăriile studențești, vânzările se întețesc în sesiune, iar în supermarketuri, vânzările cresc în trimestrul IV și scad în trimestrele I și II. d) Modele liniare ale s.t. Definiția 7.12: O s.t. $ X X t ; t! urmează un model autoregresiv de ordin p (p 1 întreg) dacă există constante reale astfel încât pentru orice t, $ X t = a 1 X t a p X t p + ε t, (16) unde $ ζ = ε t ; t! este un zgomot alb gaussian cu media 0 și dispersia $ σ 2. Se mai scrie $ X AR(p); starea curentă $ X t depinde liniar și explicit de stările trecute, iar $ reprezintă erori reziduale. Așadar, $ ζ este un semnal aleator cu media M(t)=0 și dispersia D(t)=$ σ 2, constantă; în plus, $ cov ε t,ε s pentru orice t s, adică orice două eșantioane distincte sunt necorelate. Exemple: 1 ) F i e p = 2 ș i X$ t = 1,6X t 1 0,9X t 2 + ε t, u n d e $ ζ = ε t ; t! este un zgomot alb gaussian cu media 0 și $ σ = 0,4. Dacă $ X 0 = 0,8 și $ X 1 = 0,6, atunci $ X 2 = 1,6 1,6 0,9 0,8 + ε 2 = 0,24 + ε 2 ; $296 ε t = 0
297 $ $ $ X 3 = 1,6!0,24 " 0,9!0,6 +! 3 # X 4 =!0,47 +! 4 " etc. Aceste date sunt reprezentate grafic în figura 7.9. Figura 7.9. Spre deosebire de datele statistice studiate în capitolul 1, aici datele sunt determinate nu prin m!sur!tori curente ci sunt generate recursiv printr-un model teoretic. Un punct esen"ial în aplicarea s.t. îl constituie potrivirea modelelor teoretice cu seturile concrete de date rezultate din m!sur!tori. 2) Presupunem c! p=1 #i c! $ X t = ax t!1 +! t, unde $ a < 1. Avem X t = a ax t!2 +! t!1! t + a! t!1 + a 2! t!2 + a 3! t!3... $ =! 2. 1! a 2 +! t =! t + a! t!1 + a 2 X t!2 = 2 Rezult! MX t = 0 #i DX t = M X t = M (! t + a! t!1 + a 2! t!2 +...) 2 = M(! 2 t + a 2! t!1 + a 4! 2 t! a! t! t!1 + 2a 2 2! t! t!2 +...) = M (! t ) + a 2 2 M (! t!1 ) + a 4 2 M (! t!2 ) acov (! t,! t!1 ) + 2a 2 cov (! t,! t!2 ) +... =! 2 + a 2! 2 + a 4! = M( X t! X t+k ) = M a r! t!r, a s! t+k!s " r " s Apoi $ cov X t, X t+k $ = $297
298 $ = σ 2 independent de t. 1 a a k 2 Reamintim că un s.a. $ X = Xt ;t! se numește staționar dacă $ M X t nu depinde de t și de asemenea, autocovarianța $ cov X t, X t+k este independentă de t; presupunând că $ nu sunt constante, deci $ γ 0 = DX t 0, se poate defini funcția de autocorelație (numită și funcția ACF) $ ACF :! ", ACF k (17) Așadar, $ ρ 0 = 1 și $ ρ k = ρ k pentru k 0. Exemplu: Densitatea $ a unei populații în ziua a 7 a depinde de cea din ziua a 6 a, care depinde de cea din ziua a 5 a etc. Autocorelația $ măsoară legătura dintre măsurătorile făcute după k pași, adică după o anumită decalare de timp. În practică, notând $ X = MX t, $ ρ k X t X X t+k X, pentru o s.t. de lungime n. Se știe că 1 $ decalajul k crește, $ scade. = γ k X t X t ρ k n t=1 γ k ρ k = γ k /γ 0 n / X t X 2 t=1 1 și pe măsură ce PROPOZIȚIA 7.7: Orice s.t. X# AR(p) este un semnal aleator staționar. În plus, pentru orice k 1, $ ρ k = a 1 ρ k 1 + a 2 ρ k a p ρ k p (18) (relațiile Yule Walker). Demonstrație: Ca ilustrare, considerăm doar cazul p=1. Am văzut că $ MX t = 0 pentru orice t și că $ γ k = σ 2 sunt 1 a a k ρ k $298
299 $ independente de t. Așadar, $ γ k = a 1 γ k 1 pentru k 1 și $ γ 0 = σ a 1 (pentru $ a 1 ±1 ). Atunci $ ρ k = a 1 ρ k 1 deci (18). Notă: Relațiile (18) sunt relații liniare în p pași. Soluția generală este de forma $ ρ k = c 1 ω k k c p ω p unde $ ω 1,..., ω 2 sunt soluțiile (presupuse distincte!) ale ecuației caracteristice $ ω p a 1 ω p 1 a 2 ω p 2... a p = 0. Constantele c$ 1,..., c p se determină din condiția $ ρ 0 = 1 și din ecuațiile pentru k = 1, 2,..., p 1. O condiție naturală este lim $ γ k = 0 (ținând cont că pentru k $ k, corelația încetează). Definiția 7.13: O s.t. $ X = X t ; t! urmează un model de medii mișcătoare de ordin q (q 1 întreg) dacă există constante $ b 1,..., b k, astfel încât pentru orice t, $ X t = b 1 ε t b q ε t q + ε t = b s ε t s b 0 = 1 ; $ ζ = ε t ; t! este un zgomot alb gaussian cu media 0 și dispersia $ σ 2. Se mai scrie $ X MA q. În majoritatea situațiilor, q=1 sau q=2. PROPOZIȚIA 7.8: O r i c e s. t. X $ = X t ; t!, $ X MA q, este un s.a. staționar și în plus, $ γ k = 0 pentru $ k > q, apoi q k $ γ k = σ 2 b s b s+k pentru $ k q. (19) s=0 Demonstrație: Tot ca ilustrare, considerăm doar cazul q=1 deci $ X t = b 1 ε t 1 + ε t. Evident, M$ X t pentru orice $ și γ 0 = cov( X t, X t ) = cov( b 1 ε t 1 + ε t, b 1 ε t 1 + ε t ) = + D( ε t ) = σ 2 b $ = b 2 1 D ε t 1 ; apoi, $ q s=0 = 0 t! γ 1 = cov X t, X t+1 = $299
300 $ = b 1 σ 2 γ 2 = cov( X t, X t+2 ) = $ = cov b 1 ε t 1 + ε t, b 1 ε t + ε t+1 ; $ = 0 $ = cov b 1 ε t 1 + ε t, b 1 ε t+1 + ε t+2 etc. Covarianța se comportă ca un produs scalar. Dăm acum o extindere a ambelor tipuri anterioare de s.t. Definiția 7.14: Fixăm întregi p 1, q 1. O s.t. $ X = X t ; t! este un model ARMA dacă pentru orice t, $ X t = a 1 X t a p X t p + b 1 ε t b q ε t q + ε t (20) Se scrie X# ARMA(p, q). Aceste tipuri de s.t. (și totodată procese aleatoare) au fost introduse și studiate de Box și Jenkins. Exemplu: Fie $ X t = ax t 1 + ε t și Y$ t = X t + η t, unde ($ ε t ) și ($ η t ) sunt zgomote independente. Notând Z$ t = Y t ay t 1, rezultă a( X t 1 + η t 1 ) = X t ax t 1 + η t aη t 1 ( X t ) ( Z t ) $ Z t = X t + η t. Evident, $ AR(1); apoi $ este un s.a. staționar și = 0 ( Z t ) MA( 1) $ cov Z t,z t+k p e n t r u k 2. A ș a d a r, $ și ARMA( 1, 1) Y t $. În studiul s.t., un rol deosebit îl are operatorul backshift % B : X t X t 1 (operatorul de întârziere cu un tact) Operatorul compus B$ k = B! B!...! B (de k ori) are proprietatea că $ B k X t = X t k pentru orice $ k!. Bineînțeles, B$ 0 = I (aplicația identică). Pentru orice polinom = c 0 z r + c 1 z r c r P z cu coeficienți reali sau complecși, se poate asocia operatorul $300 = c 0 B r + c 1 B r c r I $ P B. Exemple: = 3z 2 + z + 8, P( B) = 3B 2 + B + 8I 1) Pentru $ P z și
301 $ P( B) : X t! 3X t 2 + X t 1 + 8X t 2) Pentru polinomul 1 z, operatorul asociat este =I B deci ΔX $ t = X t X t 1. Acesta este numit operatorul diferență. Evident, $ Δ 2 = I B deci $. Considerând polinoamele P$ z și = 1 b 1 z... b q z q $ Q z, relația (20) se scrie sub formă echivalentă operațională astfel: $ P( B) X t = Q( B)ε t, pentru orice $ t! (21) Notă: Modelele ARMA constituie o familie de modele parametrice (cu parametri a$ i, b j ). O subclasă importantă a modelelor ARMA o constituie cele staționare, numite modele Box Jenkins. O extindere utilă este următoarea: o s.t. $ Y t ; t! se numește proces ARIMA (p, d, q) integrat dacă s.t. d Y t $ X t = I B e s t e A R M A ( p, q ), a d i c ă P ( B ) $ ( I B) d Y t = Q( B)ε t. Identificarea modelelor MA și AR Fie $ X 1,..., X n o secvență de lungime n a unei s.t.($ ) staționare neconstante. Se pot considera estimatorii: - media $ X = 1 n X ; t=1 t 2 = I 2B + B 2 Δ 2 X t = X t 2X t 1 + X t 2 - autocovarianța $ c ; k = ˆ γ k = 1 X t X X t k X n - autocorelația $ ˆρ k = ˆ γ k / ˆ. = 1 a 1 z... a p z p X t n γ 0 n t=k+1 O problemă principală a s.t. este cea a identificării unor modele ARMA sau ARIMA. Un instrument util îl constituie corelogramele, adică graficele funcțiilor $ k! γ k. $301
302 $ Astfel, am văzut în propoziția 7.8 că pentru $ X MA(q) avem $ ρ k = 0 pentru $ k > q. Deci un sindrom pentru o s.t. să fie modelată MA(q) este ca $ să fie aproape de zero, începând de la un anumit rang. Pentru o s.t. AR(p),$ descrește exponențial, ceea ce este mai ρ k dificil de văzut pe o corelogramă. Presupunem că bănuim că X ar k fi AR(k), cu X$ i = a jk X t j + ε t și $ ε t independentă de $ X 1,..., X t 1. Având datele $ X 1,..., X n, estimările lui $ a 1k,..., a kk se obțin folosind metoda celor mai mici pătrate, ceea ce revine la rezolvarea sistemului $ ˆ γ j =. Dacă X ar fi AR(p), atunci $ a kk = 0 pentru k > p și un sindrom pentru X să fie AR(p) este ca estimatorii $ să fie apropiate de zero pentru k > p. Exemplu: O societate comercială a înregistrat vânzările pe ultimele 6 l u n i ș i a o b ț i n u t u r m ă t o a r e l e d a t e î n m i i e u r o : În ipoteza că această s.t. $ este staționară, se poate presupune că X$ A R ( 1 ) a r f i u n m o d e l a c c e p t a b i l, c u. $ X t = a + bx t 1 + ε t, b 1, 1. Aplicând metoda celor mai mici pătrate, se obțin estimările $ â 13,2 și $ ˆb 0,74. ρ k j=1 a kk k â p=1 pk ˆ γ j p, 1 j k X 1 = 50,8; X 2 = 50,3; X 3 = 50,2; X 4 = 48,7; X 5 = 50,1; X 6 = 49,2. X t Astfel, valoarea prezisă pentru următoarea lună este $ X 7 13,2 + 0,79 49,2 49,6 mil. euro. e) Metoda spectrală în studiul s.t. Analiza spectrală de frecvență permite, între altele, separarea semnalului util de zgomot și calculul coeficienților de corelație. Am definit în 7.3 densitatea spectrală $ X f a unui $302
303 semnal aleator staționar $ X = X t ;t! în timp continuu, ca fiind transformata Fourier a funcției R(t) de autocorelație. În mod similar, dacă $ X = X t ;t! este o s.t. staționară, cu funcția de covarianță k $! γ k = cov( X n, X n+k ), k!, atunci se poate defini densitatea spectrală discretă: k = P X ( f ) = γ k e 2πikf $ ˆX f (care este funcție pară, deoarece 1/2 $ γ k = γ k pentru k$! ). Atunci $ γ k = P X ( f )e 2πikf df = k 2 $ = γ γ k cos2πkf, k!. Exemple: 1) Dacă X este un zgomot alb gaussian din clasa γ 0 = σ 2 γ k = 0 P X f $ N 0,σ 2, atunci $ și $ pentru k 1, deci $, constantă în toate frecvențele. 2) Dacă $ X MA(1), $ X t = aε t 1 + ε t, atunci în propoziția 7.8 am văzut că $ γ 0 = ( 1+ a 2 )σ 2, $ γ 1 = aσ 2 și $ γ k = 0 pentru k 2. Atunci $ f. P X = σ 2 1+ a 2 + 2acos2π f Fiecărei s.t. staționare $ X = X t ;t! i se poate asocia = X t e transformata Fourier $ ˆX f 2πitf. Dacă $ ;t! este un șir de constante reale astfel încât a t $ <, atunci se poate considera operatorul liniar a k t L: $ X t! Y t, unde $ Y t = a k X t k. Se obține astfel un filtru digital, liniar și invariant în timp (în plus cauzal, dacă $ a k = 0 pentru k < 0). Avem $ Yˆ ( f ) = a k ˆXt k ( f ) = a k e 2πikf, d e o a r e c e k $ ( f ) = ˆX ( f )e 2πikf. În analogie cu definiția 7.10, se definește ˆX t k t k k 1/2 ˆX f = σ 2 $303
304 $ $ f u n c ț i a d e t r a n s f e r a f i l t r u l u i L, c a f i i n d k = ˆ / ˆX ( f ) = a k e 2πikf $ H f Y f ; în plus, are loc relația: $ f, similară cu (6). P Y = H ( f ) 2 P X ( f ) Exemple: 1) Fie $ X AR(1), $ X t = 1. Netezim ($ ) cu cele 2 X + ε t 1 t X t mai recente N=2 medii, trecând la Y$ t = 1 2 X + X t t 1. Se obține astfel un filtru liniar cu $ a 0 = 1, $ a 1 = 1 și $ a k = 0 pentru k cos2π f Atunci $ H f ( 1+ e 2πif ) și $ H ( f ) =. 2 4σ Apoi $ P X ( f ) 2 = și $ P Y ( f ) = P X ( f ) cos 2 π f. 5 4 cos 2π f 2 ) F i e X$ A R M A ( 1, 2 ), u n d e P ( z )=1 az și $ Q z (cf. relației (21)). Atunci $ Scriind R$ z și identificând coeficienții, rezultă $ c 0 = 1, c n = a n + a n 1 b 1 + a n 2 b 2 pentru n 2. Din relația $ P( B) X t = Q( B)ε t, rezultă $ X t = R( B)ε = c n ε t n. Atunci = 1 2 = 1+ b 1 z + b 2 z 2 R( z) = Q( z) P( z) = 1 = ( 1+ b 1 z + b 2 z 2 ) 1 az = 1+ b z + b 1 2 z2 γ k = cov X t, X t+k ( 1+ az + a 2 z ) n 0 = c n z n n 0 = cov c n ε t n, c m ε t+k m = n 0 m 0 $ = c n c m cov ε t n,ε t+k m = σ 2 c n c n+k. n,m n 0 Ne oprim aici. Teoria seriilor de timp este amplă, având multe aplicații și ramificații: s.t. neliniare, serii spațio temporale, $304.
305 haos, identificarea sistemelor dinamice, prelucrarea semnalelor (modulație digitală) etc Lanțuri Markov 28 Există multe sisteme care își modifică starea la momente discrete de timp (notate simbolic 0, 1, 2,..., m,...), nu neapărat echidistante, numite pași. Vom presupune că stările posibile sunt în număr finit și că modificările ($ tranzițiile de la o stare la alta) au loc cu diverse probabilități și cu anumite dependențe. Un loc aparte revine dependenței de tip markovian, care constituie prima abatere de la ipoteza de independență. Lanțurile Markov au fost descoperite în 1906 de matematicianul rus Andrei Markov, cu scopul de a arăta că în legea Bernoulli a numerelor mari nu este necesar ca v.a. să fie independente; studiul lor a fost foarte productiv și stimulator. Definiția 7.15: Un vector $ u = u 1,...,u n se numește! n uk 0 28 M a r k o v, A n d r e i, , m a r e matematician rus cu contribuții fundamentale în procesele stochastice. În 1912 i-a luat apărarea lui Tolstoi care fusese excomunicat de biserica rusă, el însuși fiind ulterior excomunicat. vector de probabilitate, dacă toate componentele au $ și $ = 1. O matrice pătratică $ P = ( p ij ); 1 i, j n se numește k u k stocastică, dacă fiecare linie a lui P este un vector de probabilitate. Exemple: 0 1 1) Matricele $ și $ 1/ 2 1/ 2 $ sunt stocastice. 2) Dacă P și P 1 M n! sunt stocastice, atunci produsul P! și orice putere $ (r 1) sunt la fel. P 1 P r / 6 1/ 2 1/ 3 2 / 3 0 1/ 3 $305
306 3) Ar#t#m cum pot ap#rea matrice stocastice. Fix#m un câmp de probabilitate ($!,$ K,P) "i presupunem c# o particul# se afl# într-unul din punctele mul!imii S={0, 1, 2, 3}, pe o ax# "i sare aleator doar câte un pas la dreapta (cu probabilitatea p) sau la stânga, cu probabilitatea q=1 p. Asimil#m S cu o mul!ime de st#ri. Ajungând în starea 0, particula sare doar la dreapta "i din punctul 3, sare doar la stânga (fig. 7.10). Not#m cu $ X m pozi!ia ($! starea din S), unde se afl# particula dup# m salturi ($! pa"i la momentul m) "i fie i, j!s $ p ij = P X m+1 = j X m = i pentru $. $ $ Figura 7.10 A"adar, $ este probabilitatea ca particula s# treac# la p ij momentul m+1 în starea j, dac# la momentul m se afla în starea i. De exemplu, $ p 23 = p, p 01 = q, p 22 = 0. A"adar, matricea ( p ij ) P = P =$ ; 0 ' i, j ' 3 este $! # # # # " # q 0 p 0 0 q 0 p $ & & & & % & "i evident, P este stocastic#. În plus, probabilit#!ile $ nu depind de m, adic# sunt acelea"i la orice moment ($! sunt sta!ionare). Defini!ia 7.16: Fix#m o mul!ime finit# de n st#ri S={1, 2,..., n}, un vector de probabilit#!i u = u 1,...,u n 306 p ij "i o
307 $ matrice stocastică $ P = p ij. Un șir $, m 0 de v.a., cu valori în S, se numește lanț Markov omogen ($ staționar) dacă: 1) pentru orice $ i S, P X 0 = i (22) 2) pentru orice $ i, j S, oricare ar fi m și stările i, j, $ i 0, $ i 1,...,$ i m 1 S. (23) A ș a d a r, p r o b a b i l i t a t e a c o n d i ț i o n a t ă $ p ij = P X m+1 = j X m = i nu depinde de momentul m și nici de stările anterioare la momentele m 1,..., 1, 0. Faptul că $ X p = i înseamnă că la momentul p, lanțul se află în starea i. Lanțul se mai notează (S, P,u). Vectorul u se numește distribuția inițială a lanțului; conform (22), componenta $ u k a lui u este probabilitatea ca $ X 0 să fie în starea k, iar $ este numită probabilitatea de tranziție ($ trecere) din starea j în starea i, independent de momentul când are loc tranziția. Notă: Așadar, un lanț Markov este un proces aleator ($ s.a.) în timp discret. În T.P. se studiază și procese Markov în timp continuu. Dacă v.a. $ X 0, X 1,..., X m,... ar fi independente, atunci pentru orice i, j, m avem $ M n (!) X m = u i ; p ij = P( X m+1 = j X m = i) = P( X m+1 = j X m = i, X m 1 = i 1,..., X 0 = i 0 ), p ij p ij = P( X m+1 = j). Condiția (23) de dependență markoviană se citește astfel: starea la orice moment m+1 depinde doar de starea la momentul imediat anterior m și nu de stările la momentele m 1, m 2,... Acest fapt se întâmplă în cazul multor sisteme tehnice. Dar viața omului, privită ca un lanț de v.a. și stări la diverse vârste 0, 1, 2,..., 30,... nu este un lanț $307
308 Markov, deoaece starea la 30 de ani nu depinde doar de starea la 29 de ani! Exemple: a) În exemplul 3) anterior, avem un lanț Markov omogen ($ ), m 0 cu 4 stări S={0, 1, 2, 3}, cu o distribuție inițială u= X m P( X 0 = k) = u k $ u 0, u 1, u 2, u 3, astfel încât $, 0 k 3 și am indicat matricea $ P M 4 (!) a probabilităților de tranziție. b) trei copii 1, 2, 3 își aruncă unul altuia mingea astfel: copilul 1 o aruncă doar lui 2 și 2 doar lui 3, iar copilul 3 o aruncă în mod egal copiilor 1 sau 2. Fie $ =copilul care pregătește aruncarea a n a. Avem astfel un lanț Markov omogen cu 3 stări S={1, 2, 3}, cu matricea de trecere $ P = / 2 1/ 2 0 c) Două persoane A și B încep un joc având la începutul jocului k euro și respectiv N k euro. La fiecare partidă, A câștigă 1 euro cu probabilitatea p sau pierde 1 euro cu probabilitatea q=1 p, partidele fiind independente. Atunci capitalul celor doi jucători va varia și jocul contină până când A sau B dau faliment. Care sunt probabilitățile ca A sau B să se ruineze și care este durata medie a jocului? Ne punem în poziția lui A și notăm cu $ capitalul lui A după jocul n ($ la momentul n). Jocul se încheie dacă $ X n = 0 (ruina lui A) sau când $ X n = N. Se obține un lanț Markov cu spațiul stărilor S={0, 1,...,N}, care pleacă din starea k și are matricea de tranziție $ P M N+1 (!) următoare: X n X n $308
309 $! # # # P = # # # " # q 0 p q 0 p q 0 p $ & & & & & & % & St!rile 0 #i N sunt absorbante, în sensul c! odat! atinse, nu mai pot fi p!r!site. d) Consider!m un sistem de comunica"ie numeric! transmi"ând bi"i, 0 #i 1. Fiecare bit trece prin diverse blocuri #i presupunem c! bitul de la intrare se reg!se#te la ie#ire cu 1 probabilitatea q=1 p (unde 0<p<$ ). Fie! X 0 bitul de intrare în 2 primul bloc #i $ X n n! 1 bitul de ie#ire din blocul al n lea al ( X n ) n!0 sistemului. 'irul $ este un lan" Markov omogen, cu dou! st!ri S={0, 1} #i matricea de tranzi"ie este " 1! p p % $ P = $ '. # p 1! p & Oric!rui lan" Markov i se poate asocia un graf orientat având ca vârfuri st!rile #i ca arce tranzi"iile directe de st!ri; arcele sunt etichetate cu probabilit!"ile respective de trecere. Exemple: 1) Relu!m exemplele date anterior. Grafurile asociate sunt redate în figura Figura $309
310 $! 1/ / 3 $ 2) Presupunem c# P = # &. # & " % Atunci, graful asociat este redat în figura Figura Probabilit#!ile $ se refer# la tranzi!iile directe de stare. Se pot considera modific#ri de st#ri în r pa"i cu r&1. Not#m pentru orice $ i, j!s "i r&1, independent de momentul m. Not#m $ p ij p r ij = P( X m+r = j X m = i) = P( X r = j X 0 = i) p i ( m) = P X m = i (24), probabilitatea ca sistemul (lan!ul) s# se afle în starea i la momentul m. Evenimentele { X m = i }, pentru 1'i'n, formeaz# un sistem complet de ipoteze "i conform formulei probabilit#!ii totale (propozi!ia 2.3. din Capitolul 2), $ P( X m = j) = " P( X m = j X m!1 = i) #P( X m!1 = i), i deci avem rela!ia de recuren!#: $ p j ( m) =! p i ( m "1)# p. (25) i ij În particular, P$ ( X 1 = j) =! P( X 0 = i) " p ij =! u i " p ij. A"adar, cunoscând vectorul de distribu!ie a probabilit#!ilor st#rilor ini!iale $ u = u 1,..., u n "i matricea P, se determin# vectorul i i 310
311 $ $ probabilităților stărilor la momentul următor; anume, acest vector este tocmai produsul de matrici u! P. PROPOZIȚIA 7.9: Fixăm un lanț Markov (S, P, u). a) Pentru orice $ r 1, $ P r r = ( p ij ); 1 i, j n. b) Produsul u$ P r (matrice 1 $ n ) este tocmai vectorul având componenta k egală cu probabilitatea ca lanțul să se afle în starea k după r pași. Demonstrație: a) Relația (25) arată că $ p r ij = pentru orice $ i, j S și r 1. Aceasta arată că matricea $ p ij este produsul matricei $ cu matricea P. Aplicăm inducția după r. b) Se aplică inducția după r, folosind relația (25). Notă: Cunoscând probabilitățile stărilor inițiale și probabilitățile tranzițiilor directe, se pot determina alte probabilități legate de stările sistemului. De exemplu, $ P( X 3 = j, X 1 = k) = P( X 3 = j, X 1 = k) P( X 1 = k). Dar P X 3 = j X 1 = k $ = p 32 P X 2 = i. =$ Mai general, $ P X 0 = i 0, X 1 = i i,..., X n = i n = deci ( p ij ) r 1 = P( X 3 = j X 2 = i, X 1 = k) P( X 0 = i 0 ) P( X 1 = i 1 X 0 = i 0 )...P X n = i n X n 1 = i n 1 P( X 0 = i 0, X 1 = i i,..., X n = i n ) = P X 0 = i 0 și $ P X 1 = i 1,..., X n = i n X 0 = i 0. k p ik r 1 p kj r P( X 2 = i) = p i0 i 1 p i1 i 2... p in 1 i n = p i0 i 1 p i1 i 2... p in 1 i n Reținem că dacă la un moment m (considerat inițial), vectorul distribuție a probabilităților stărilor este $ u ( 0) = ( u 1,...,u n ), $311
312 atunci, după un pas (adică la momentul m+1), distribuția probabilităților stărilor va fi $ $ = u ( 1) P = u ( 0) P 2 etc. u 2 ; iar după doi pași, PROPOZIȚIA 7.10: Au loc relațiile Chapman Kolmogorov: $ p r+s ij = p r s ik p kj, (26) pentru orice 1 i, j n și r 1, s 1. Demonstrație: Este suficient de explicitat formula $ P r+s = P r P s. Definiția 7.17: Un lanț Markov omogen (S, P, u) se numește ergodic, dacă pentru orice distribuție inițială u și orice stare $ i S, există limita $ p i = lim P X m = i. n k=1 m În acest caz, vectorul-linie n dimensional $ p = p 1,...p n, cu $ p p n = 1, se numește distribuția staționară a lanțului. Se poate arăta că dacă există k 1, astfel încât toate elementele puterii $ P k să fie nenule (adică $ p k ij 0 pentru orice $ i, j S ), atunci lanțul este ergodic. În plus, are loc relația $ p P = p (27) și în plus, matricea $ P = lim P k are toate liniile identice cu p. k u 1 = u 0 P Relația (27) arată că p este un vector propriu la stânga al matricei P, cu valoarea proprie 1. Exemple: 0 1 1) Un lanț Markov omogen cu $ P = este 1/ 2 1/ 2 ergodic, deoarece $ are toate elementele nenule; scriind $ p = p 1, p 2, avem $312 P 2
313 0 1 $ p 1 + p 2 = 1 și $ ( p 1, p 2 ), 1/ 2 1/ 2 = ( p, p 1 2 ) deci p$ 1 = 1 3, p = Distribuția staționară este vectorul $ p = 1. Așadar, după un număr indefinit de pași, 3, 2 3 probabilitățile celor două stări sunt $ p 1 = 1 și $ p 2 = Totodată, $ P 1/ 3 2 / 3 =. 1/ 3 2 / 3 2) În cazul exemplului anterior cu sistemul de comunicație care transmite biții 0 și 1, am văzut că 1 p p α $ P = ; atunci P$ n n β n =, unde p 1 p β n α n $ α n = 1 și $. Așadar, lanțul este ( p)n β n = ( p)n ergodic și în plus, vectorul π=$ p 1, p 2 al distribuției staționare verifică relațiile $ π P = π și $ p 1 + p 2 = 1. După calcule, rezultă $ π = 1, deci pentru $, un bit care intră în sistem, iese 0 2, 1 2 n 1 sau 1 cu aceeași probabilitate (egală cu $ ). 2 0,1 0,2 0, 7 3) Fie $ P = 0,5 0 0,5. 0 0,2 0,8 $313
314 Vectorul distribuție staționară $ p = p 1, p 2, p 3 satisface relația matriceală p$ P = p, la care se adaugă relația $ p 1 + p 2 + p 3 = 1. După calcule, rezultă $ p = 5 / 54, 1/ 6, 20 / 27. Lanțurile Markov sunt procese aleatoare în timp discret. În T.P. se studiază și procesele Markov în timp continual. Pentru orice moment prezent $ τ, se pot considera trecutul (t<# τ ) și viitorul (t>$ τ ). Un proces aleator X $ = ( X t ), t! este un proces Markov, dacă pentru orice $ τ!, determinarea viitorului $, t> $ τ depinde de prezentul $ X τ și nu de trecutul $ X t,t < τ. Mai precis, pentru orice șir de momente $ t 1 < t 2 <... < t n, șirul de v.a. $ X ( t n ), n 1 este un lanț Markov. Lanțurile și procesele Markov sunt utilizate în modelarea dinamicii unor sisteme fizice sau biologice, a automatelor probabiliste, sistemelor/liniilor de așteptare sau în procese de învățare. O contribuție recunoscută în studiul lanțurilor Markov au avut-o academicienii români Octav Onicescu, Gh. Mihoc și M. Iosifescu. X t Completare la paragraful 7.5. Mersul la întâmplare Lanțurile Markov amintesc de sistemele fără memorie, cu comportare incontrolabilă. De exemplu, o particulă trece dintro stare într-alta fără să știe pe unde a trecut. Dacă toate probabilitățile de tranziție a stărilor sunt nenule, atunci se ajunge de oriunde, oriunde. În acest caz. se poate arăta că lanțul Markov este ergodic (ireductibil, cu o terminologie mai veche) și că are o distribuție staționară de probabilitate a stărilor. În Fizică, aceasta se numește distribuție de echilibru. $314
315 Un lanț Markov se numește reversibil, dacă există o distribuție de stări $ s = (s 1,...,s n ), astfel încât $ s i q ij = s j q ji, pentru oricare stări i, j. Atunci $ s i q ij = s j q ji = s j q ji, deci $ i i pentru orice j, adică sp=s. Ca atare, s este staționară. Dar, în Logică, o implicație $ a b este echivalentă cu $ non b non a. deci lipsa staționarității implică lipsa reversibilității. Extrapolând, în Fizică nu se acceptă stări staționare, deci nici reversibilitate. Presupune, că o particulă se poate deplasa pe o axă 1D, ocupând doar pozițiile 0, 1, 2,, l. Dacă stările 0 și l sunt absorbante (adică de acolo particula nu mai iese!) și în rest particula face un salt de o unitate spre stânga sau spre dreapta, atunci se spune că particula realizează mersul la întâmplare. Această noțiune se extinde la rețele 2D sau 3D, cu noduri de coordonate întregi. Un exemple de mers la întâmplare este cel din problema falimentării jucătorului, unde evoluția capitalului oricărui jucător este similară mișcării particulei, iar falimentul înseamnă atingerea unei stări absorbante. Mersul la întâmplare se leagă de problema formulată în exemplul c) de la definiția 7.16, numită falimentul jucătorului (gambler s ruin problem). Problema aceasta spune că avem un jucător care joacă un joc în care, de fiecare dată (la fiecare mână, extragere, pariu etc), poate să piardă sau să câștige 1 euro. Deci la fiecare pariu se câștigă 1 euro cu probabilitatea p sau se pierde 1 euro cu probabilitatea (1-p). Presupunem că jocul se joacă până când jucătorul câștigă un euro în plus față de suma cu care a venit la joc, sau pierde toți banii cu care a venit. Câștigă încă m sau pierde n (=banii cu care a venit; nu se poate împrumuta acest lucru putând duce la falimentul său). i i s i q ij = s j $315
316 $ Vom analiza jocul numit ruletă în care există 36 poziții notate de la 1 la 36, cu imparele roșii şi cu parele negre; de asemenea, mai există două poziții de culoare verde, numite zero şi dublu zero. În total 38 de poziții, într-una dintre acestea poate să cadă bila la o rotație a ruletei. Se pariază pe impare/roșu sau pare/negru. Așadar posibilitatea de a câștiga este p = = 9 = 0,473 = 47,3% 19 Adică, este aproape corect ; nu este chiar 50%-50%, căci și cazinoul trebuie să câștige bani pentru personal, întreținere etc (incorectitudinea este mică, ce înseamnă 3 cenți la un euro?, nu pare prea mult, nu!). Să vedem însă unde duce această mică incorectitudine, polarizare (biased) a rezultatelor în favoarea cazinoului. Jucătorul știe așadar, că sorții îi sunt un pic defavorabili, dar acceptă acest lucru, vine cu n euro și se așteaptă să câștige m. Fie n =1000 și m =100 în cazul nostru. Pare evident, de bun simț, că este mai probabil să câștige 100, decât să piardă 1000, cu așa o mică polarizare la început (49,7% în favoarea jucătorului); este un joc aproape corect. Culmea este că, făcând calculele, obținem aproape cu siguranță că jucătorul devine falit, oricâți bani ar avea în buzunare! Vom demonstra că probabilitatea de a câștiga 100 euro înainte de a pierde 100 milioane euro este 1 $ P(castig 100)!!! Deci, nu e practic nici-o șansă ca jucătorul să plece acasă fericit. Ca să vedem de ce probabilitatea de a câștiga este atât de mică trebuie să studiem ceea ce se numește mersul la întâmplare, un procedeu de estimare a rezultatului probabilistic $316
317 foarte folosit în multe aplica"ii importante, (de exemplu, în realizarea algoritmilor de c!utare pe Google). Studiul se face pe falimentul juc!torului care este mersul la întâmplare unidimensional (cel mai simplu caz). Fie atunci diagrama în care în sus înseamn! câ#tig de 1 euro (+1) #i în jos înseamn! pierdere de 1 euro (-1). Probabilitatea de a o apuca în sus este p #i este independent! de orice s-ar fi întâmplat mai înainte. Deci, este un joc f!r! memorie. Pariul, la un moment dat, este complet independent de oricare alt pariu (eveniment) de la alt moment dat. Adic!, probabilitatea de a merge în sus = p #i în jos = 1 p, reciproc independente de mi#carea precedent!. Faptul c! aceste dou! probabilit!"i sunt reciproc independente se nume#te martingal% (neformalizat!). Dac! p)1/2 se spune c! mersul la întâmplare este polarizat (ceea ce se întâmpl! la cazinou, unde este polarizat în favoarea casei). Altfel, p =1/2, nepolarizat. În jocul nostru avem limite, nu putem pierde mai mult de n=1000, cu cât am venit (deci nu coborâm mai jos de zero, c!ci nu putem s! ne împrumut!m) #i ne-am hot!rât c! ne retragem la n+m= , ne oprim din joc #i ne întoarcem acas! ferici"i. Acestea sunt limitele. Vrem s! calcul!m probabilitatea la a atinge limita zero (limita de jos). Definim evenimentele: $317
318 $ $ $ W* = ating (n+m) înainte de a atinge 0; D = numărul de euro la început, în cazul nostru = n; Xn = probabilitatea ca să luăm 100 euro în plus, având n=1000 euro la început. Vrem să calculăm Xn, X n = P(W * D = n). Spațiul de eșantionare, în acest caz, poate fi foarte mare, căci este vorba de toate evenimentele (pariurile) ce pot avea loc până când se atinge una din limite (poate fi infinit, pot să joc la infinit). De aceea vom folosi o formulă de recurență; anume: X n = 0, daca n = 0 $ X n = 1, daca n = T, cu T=m+n. X n = px n+1 + (1 p)x n 1, daca 0<n < T Demonstrație: Fie X0=probabilitatea P(W * D = 0) ; evident, dacă avem zero euro începem direct faliți, deci nu există nici-o șansă de câștig; XT=probabilitatea P(W * D = T ) ; evident că dacă avem 1100 ne-am atins scopul (limita de sus) fără să jucăm. Cazul interesant este însă următorul: 0<n<T, cu Xn=probabilitatea P(W * D = n). De aici lucrurile se despart în două, în analiza noastră, în funcție de ce se întâmplă la primul pariu (câștig pierd). În consecință, definim E=evenimentul de a câștiga primul pariu și Ē=evenimentul de a pierde primul pariu. Atunci, cu formula probabilităților totale, putem să rescriem astfel: X n = P(W *, E D = n) + P(W *, E D = n) Cu definiția probabilităților condiționate avem: = P(E D = n)p(w * E, D = n) + P(E D = n)p(w * E, D = n). Analizăm expresia și obținem: $ P(E D = n) = p, $318 fara memorie P(W * E, D = n) = P(W * D = n +1) = Xn+1
319 $ $ P(E D = n) = 1 p, P(W * E martingala, D = n) = P(W * D = n 1) = Xn 1 Și atunci avem: $ X n = px n+1 + (1 p)x n 1. Deci avem o recurență pentru Xn. Cum poate depinde Xn de Xn+1 într-o relație de recurență? Nu se poate, așa că trebuie să rescriem ecuația astfel: px n+1 X n + (1 p)x n 1 = 0, cu X0 =0 și XT =1. Aceasta este o recurență liniară și omogenă, cu X0 și XT condiții la capete. Atașăm ecuația caracteristică a acesteia și-i aflăm rădăcinile: pr 2 r + (1 p) = 0 $ 1± 1 4 p(1 p) 1± (1 2 p), cu $ r 1 = 1 p, r 2 = 1. r 1,2 = = 2 p 2 p Rădăcinile sunt diferite, în afara cazului când p=0,5 ceea ce ar însemna probabilitatea de câștig=0%, adică un joc nepolarizat în favoarea cuiva, perfect corect. Analizăm cazul în care p 1/2. Avem $ X n = A( 1 p, cu A, B = constante. p )n + B(1) n Punem condiții la capete pentru a obține A și B: X0=A+B=0, deci A=-B și apoi Deci $ A = în formula pentru Xn, ( 1 p p )n 1 $ X n =. ( 1 p p )T 1 1 ( 1 p, B = p )T 1 X T = A( 1 p p )T A = 1 1 ( 1 p p )T 1, și introducând-le $319
320 Dacă avem p<1/2, adică (1-p)/p>1 și T=n+m, atunci, numărătorul este întotdeauna mai mic decât numitorul, deci p p $ X n (. În acest fel, am demonstrat 1 p )T n = ( 1 p )m Teorema: p Dacă p<1/2, atunci P (câștig m înainte de a pierde n) $ (. 1 p )m Exemplu: Pentru ruletă p=9/19, deci p/(1-p)=9/10, cu m =100 și n =1000, probabilitatea de a câștiga este P (câștig 100 având 1000) $ ( 9 1, rezultatul anunțat. 10 )100 < Observație: Vedem de ce răspunsul nu se schimbă în cazul în care venim la joc cu un milion în loc de o mie. Pentru că probabilitatea nu depinde de n =banii cu care am venit, ci numai de m, cât vrem să câștigăm. Exemplu: Dar dacă m =1000 și n =1000, avem $ P = ( )1000 < Chiar și pentru a câștiga m =10, avem $ P ( )10 < 0,35 = 35% Așadar, poți veni la cazinou cu zeci de milioane, dacă pariezi de fiecare data câte un euro și vrei să pleci când ai câștigat în plus 10 euro față de milioanele pe care le-ai adus, probabilitatea este totuși atât de mică, 35%. Adică este de două ori mai probabil să pierzi milioane decât să câștigi 10 euro! Și este un joc aproape corect. Atât de contraintuitivă este probabilitatea. (Șocant!) Ce se întâmplă însă dacă avem un joc perfect corect? Răspunsul va fi foarte diferit (și poate de aici vine intuiția noastră, bunul nostru simț). Atunci când p=1/2, avem două rădăcini egale ale ecuației caracteristice, r1=r2=1, deci $ X n = (An + B)(1) n = o polinomială. Cu A și B obținute din condițiile la capdte, X0=B=0, XT=AT+B=AT=1, deci A=1/T. $320
321 Rezult! c! X n = n. T = n n + m Teorem! Dac! p=1/2 (joc corect), atunci P (câ#tig m înainte de a pierde n) = X n = n. T = n n + m 1000 Exemplu: m =100, n =1000, rezult! X n =, = jocul corect se potrive#te intui"iei noastre. Problema este c!, de#i jocul corect este atât de aproape de jocul real (pu"in incorect), totu#i probabilitatea variaz! atât de mult. Aceasta ne arat! c! exist% o discontinuitate care se datoreaz! (din punct de vedere matematic) faptului c! r!d!cinile ecua"iei caracteristice nu mai sunt egale, ceea ce schimb% caracterul solu&iilor. De ce se întâmpl! astfel? Putem s! desen!m calitativ cele 2 situa"ii Mersul la întâmplare (nepolarizat) linia de baz! este constant!, jocul este corect Mersul la întâmplare (polarizat) linia de baz! scade liniar, deoarece jocul este pu"in incorect, ne a#tept!m s! pierdem câte pu"in de fiecare dat! coliziune $321
322 Linia de bază este driftul (deriva) mișcării, iar linia continuă este balansul mișcării. Aici driftul este (1-2p). Dar în mersul nepolarizat driftul este zero. Driftul ponderează balansul mișcării. Prin urmare, driftul ia fața balansului, balansul este mult mai mic decât pierderea prin drift. De aceea devine atât de probabil de a pierde. Balansul este același în ambele cazuri, dar driftul face diferența. După x pași, driftul (pierderea) este (1-2p)x. Media pierderii este 1(1 p) 1(p) =(1-2p), adică pierd 1 cu probabilitatea 1 p și câștig 1 cu probabilitatea p (câștigul apare cu minus pentru că aflu media pierderii), media pierderii =(1-2p). Balansul este proporțional cu $ x (nu se demonstrează), deci x îl domină pe $ x și astfel driftul domină balansul mișcării. Am demonstrat așadar că, în cazul unui joc puțin incorect nu putem câștiga, nu putem pleca acasă fericiți. Dar este oare sigur că vom pierde? Ce s-ar întâmpla totuși dacă nici nu am câștiga (n-avem cum, s-a demonstrat), dar nici nu am pierde? Desigur, nu am pleca acasă. De ce? Pentru că jocul ar continua la infinit. Oare? Nu. Jocul nu poate continua la infinit! Se poate demonstra că jocul trebuie să aibă un sfârșit (nefericit pentru noi, și astfel putem da în filosofie!), dar este demonstrat matematic (cu teoria măsurii) că probabilitatea de a câștiga fiind sigur zero, cu probabilitate 1 jocul se va sfârși (intuitiv, dacă adunăm dintre eșantioane, adică dintre rezultatele fiecărui joc, pe cele care reprezintă pierderea, suma acestora va domina). Atunci, cât de mult se poate juca? (înainte de a atinge una dintre limite). Teoremă: Fie S = numărul de pași până când atingem una din limite și $322
323 $ $ $ $ E n = E(S D = n) = media numărului de pași. Atunci E n = 0, daca n = 0; E n = 0, daca n = T si E n = 1+ pe n+1 + (1 p)e n 1, daca 0<n < T Demonstrația se face exact ca cea precedentă, cu diferențele: - condiția pe frontieră la n = T - ecuația recursivă nu mai este omogenă. Deci pe n+1 E n + (1 p)e n 1 = 1, cu E0=0 și ET=0. Rezolvarea se face în modul clasic, prin rezolvarea ecuației caracteristice omogene cu E$ n = A( 1 p, pentru p )n + B $ p 1 și adăugarea unei soluții particulare. 2 Prima ghicire va fi ceva ce seamănă cu -1, adică En =a. Verificând vedem că nu se poate. Atunci încercăm ceva mai bun, En =an+b. Acesta se potrivește și obținem (după calcule relativ simple): a = p, b = 0 Deci soluția generală este $ E n = A( 1 p n = soluția omogenă+soluția p )n + B p particulară. Verificăm condițiile la limită și obținem A, B, apoi soluția generală devine: n E n = 1 2 p T 1 2 p ( 1 p p )n 1 ( 1 p p )T 1 Aceasta este valoarea medie a numărului de pași pe care îi facem până atingem una din limite. Exemplu m =100, n =1000, T =1100, p = 9/19 (ruleta), $323
324 $ E n = ,56! 18999,44, adică trece mult timp până când pierdem 100 euro, câte unul de fiecare dată. Observație n 1) Vedem cât de mult contează driftul în En. 1 2 p 2) Dacă m, T și En este proporțional cu n 1 2 p (driftul domină). Ce înseamnă m, ce fel de joc este acesta? Este jocul care se joacă până când pierdem totul. n 3) Dar când p=1/2 (jocul corect) $ E n = 1 2 p Se pare că jocul durează la infinit. Deci p=1/2 și soluția omogenă este En=An+B(1) n, cu soluția particulară En=an+b care nu funcționează în acest caz. Încercând însă En=an 2 +bn+c, aceasta merge și deci soluția generală este (în acest caz): $ E n = An + B n 2, cu condiții la capete ce determină B=0 și AT-T 2 =0, adică A=T și apoi En=Tn-n 2. Dar T = n+m (limita superioară), deci En=(n+m)n-n 2 =nm. Așadar, numărul mediu de pași este nm când p=1/2. Înseamnă că dacă m= (vrem să câștigăm o infinitate), putem juca la infinit. Dar înseamnă asta că jucând la infinit nu vom falimenta niciodată? Corolar Pleacă atât timp cât ești în avantaj! Dacă pornim cu n euro, avem un joc corect, p=1/2 și jucăm până când falimentăm, probabilitatea de a falimenta, jucând la infinit, este egală cu 1 (după un timp infinit sigur pierdem). Demonstrație: (prin reducere la absurd) Presupunem că există un număr n cu care putem începe și $ ε > 0, astfel încât P(de a deveni falit) $ 1 ε. Adică, pentru orice număr, P(pierdem n înainte de a câștiga m) $ 1 ε. m Dar P(pierdem n înainte de a câștiga m) = $. m + n $324
325 $ m Atunci #i, calculând, rezult! m + n! 1"! (!)m, m(1"!)(n + m) = n + m "!n "!m,(!)m, m # ( 1"!,! )n ceea ce nu este adev!rat, deoarece n este fixat. Contradic"ie. Jucând la infinit, cu siguran*! (P=1) faliment!m. Chiar #i dac! jocul este corect, trebuie s! pleci de la masa de joc atâta vreme cât e#ti în avantaj, altfel oricum vei deveni falit. Oricum, balansul va duce în final la coliziune Linii $i re&ele de telecomunica&ii Introducere Studiul liniilor de a#teptare, al sistemelor de servire (! cozi) #i al re"elelor, se refer! la pachete de date, mesaje, clien"i etc., descriind caracteristicile statistice semnificative, ca #i efectele congestiei #i ale altor pierderi în sisteme reale supuse unor fluxuri aleatoare de pachete sau mesaje. Teoria firelor de a#teptare s-a desprins ca o disciplin! de sine st!t!toare a T.P. #i Statisticii matematice. În Telecomunica"ii, s-a dezvoltat o analiz! $325
326 concretă a unor linii de așteptare și servire, făcând ipoteze rezonabile, confirmate în practică. Modelul cel mai simplu îl constituie șirul de mesaje care așteaptă la un server, în care există 3 elemente principale: traficul de intrare, linia de transmisie și disciplina serviciilor. În privința traficului de intrare, importante sunt: numărul de mesaje și rata sosirii lor; într-un model teoretic omologat (definiția 3.3), probabilitatea $ T a k sosiri în T secunde, este exprimată prin p k k = λt legea Poisson: $ p k T e λt, k 0, unde $ λ are următoarea k! semnificație: numărul mediu de sosiri în intervalul T de timp este $ λt ; dacă T este dat în s, atunci $ λ se exprimă în [număr mesaje/s] și se numește rata traficului. Notând F(t) =probabilitatea ca timpul dintre două sosiri să fie t, atunci F(t)=1 $, dacă t 0 și F(t) =0 dacă t<0. Așadar, F este funcția de repartiție a duratei dintre sosiri, aceasta fiind o v.a. repartizată exponențial cu parametrul $ λ. Media și dispersia duratelor dintre sosiri sunt, conform teoremei 3.6 din Capitolul 3, $ T a = 1/ λ și $ σ 2 a = 1. (28) λ 2 Caracteristica principală a unui server este durata cerută pentru servire, care este o v.a. $ η cu funcția de repartiție = P( η t) η $ H t. Dacă $ este repartizată exponențial cu parametrul $ µ, atunci timpul mediu de servire este $ T s = Mη = 1/ µ. În privința disciplinei de servire, există mai multe variante: fiecare server se oferă unui singur client, multiservere sau linii de transmisie cu servere intermitente etc. e λt $326
327 Exemplu: Pentru mesaje există diverse buffere ($ memorii intermediare care stochează temporar mesaje). De asemenea, există diverse reguli de ordonare și prioritate pe linia de așteptare și servire FIFO, FIFS, LIFO. Statisticianul englez Kendall a introdus o clasificare a sistemelor de servire cu pierderi (dacă nu găsesc servere libere), fără pierdere, cu prioritate etc. și, totodată, a propus o notare sugestivă, unanim acceptată: - A/B/s/m; aici s = numărul serverelor, m = numărul locurilor de așteptare (de exemplu, m = 0 înseamnă servire imediată și m = așteptare nedefinită), A se referă la fluxul de mesaje și B la durata de servire; - M/M/1 înseamnă că fluxul de mesaje este un lanț Markov, cu sosiri repartizate Poisson, cu durate de servire independente, repartizate exponențial și un singur server; - M/G/2 se referă la o linie de așteptare și servire cu sosiri Poisson, cu două servere, dar duratele de servire nu sunt neapărat repartizate exponențial. Există și alte modele teoretice de linii de așteptare și servire, cu sau fără pierderi, cu mesaje anulate controlat și alte discipline de servire. Un moment important l-a constituit crearea și studiul sistematic al rețelelor de linii interconectate în noduri; acestea cuprind rețelele de comunicație, de calculatoare, sistemele de comandă, care au declanșat revoluția Internetului. Mărimi care descriu performanța liniilor de transmisie Considerăm un sistem M/M/1 de servire, notat S, cu fluxuri Poisson de sosire și cu durate de servire repartizate exponențial, sistemul fiind pregătit să opereze imediat. De exemplu, dacă în 30s sosesc în medie 17 mesaje, atunci raportul $327
328 $ λ = 17 / 30 este rata traficului. Notând cu $ ξ durata dintre sosiri, media duratelor dintre sosiri este T$ a = Mξ = 1/ λ. Am notat cu $ T s = Mη timpul mediu de servire și $ µ = 1/ T s. Definiția 7.18: Se numește intensitatea traficului raportul adimensional $ u = T s / T a = λt s, (29) ca o măsură a congestiei. Condiția u<1 asigură stabilitatea unei linii cu un singur server. Dacă u>1, adică T$ s > T a, atunci apare congestia; dacă ar exista c servere (cu c 2), atunci timpul mediu de servire pe unitatea de timp ar fi u/c și congestia ar fi înlăturată. Într-un interval de timp T, sosesc în medie $ λ T mesaje, fiecare cu timpul mediu de servire $. T s Exemplu: Parametrul u este un raport între încărcarea și capacitatea sistemului S; el indică numărul minim de servere necesare pentru a face față fluxului de mesaje. De exemplu, dacă T$ s = 20 s și $ T a = 12 s, atunci u $ = 20 /12 1,67 și arată că sunt necesare minim două servere. În general, unitățile de date prelucrate de computere se exprimă în biți, iar capacitatea în bps ($ biți/s). O linie de transmisie pentru pachete de date de 100 biți, transmise la o capacitate c=500 bps, are o rată de servire $ µ = = 5 Notă: Dacă $ λ =rata traficului de mesaje servite, adică $ λ = λ / c (c fiind numărul serverelor), atunci se poate introduce și mărimea $ ρ = λ T s = λ / µ (30) numită și coeficientul de utilizare a serverului. De regulă, $ λ λ deci $ ρ u. În cazul unui singur server, $ ρ = u. $328
329 Există alte două mărimi semnificative legate de repartițiile numărului N de mesaje aflate în sistem la orice moment și ale duratei de așteptare a mesajelor în sistem: $ L q = media M(N) a numărului N și $ σ 2 L q dispersia lui N; $ L w = media numărului de mesaje aflate pe linia de așteptare fără servire și $ σ 2 = L w dispersia acestui număr. De asemenea, se consideră v.a. $ ξ = timpul total de așteptare a unui mesaj în sistemul S și $ η = timpul pe linia de așteptare fără servire. Notând cu Q(t) (respectiv W(t)) funcția de repartiție a lui $ ξ (respectiv $ η ), se notează ( T q ) = D $ T q = M ξ, σ 2 ξ ; T w = M η,σ 2 η (31) Independent de disciplina liniei, are loc următorul rezultat clasic, folosit deseori: PROPOZIȚIA 7.11: Într-un interval fixat de timp, notând cu $ L numărul mediu de mesaje și cu W$ timpul mediu de așteptare, are loc următoarea egalitate: $ L = λw (relația lui Little). (32) Demonstrație: Fie L(t) =numărul de mesaje aflate în sistem la momentul t; A(t) (respectiv B(t)) = numărul de mesaje sosite (respectiv plecate) până la momentul t și W$ k = timpul pe care mesajul k îl petrece în sistem. Atunci considerând continue funcțiile L, A, B, rezultă: 1 t A t B t $ L = lim L s și $, t ds t lim = lim = λ 0 t t t t rata de servire. Dar pentru orice t, B( t) $ W t A( t). k=1 k L( s) ds W k=1 k Împărțind cu t, rezultă 0 = D T w $329
330 t B t $ 1 B t B( t) k=1 W k 1 t t 0 L( s) ds A t t. Pentru t$, ambele extremități tind către λw $ și rămâne să aplicăm lema cleștelui. APLICAȚIE: Studiem performanța pentru un sistem de așteptare și servire S, având un singur server, cu sosiri aleatoare independente, repartizate Poisson și cu durate de servire aleatoare, repartizate exponențial, cu disciplina FIFO. În acest caz, se pot da rezultate explicite, care modelează acceptabil multe situații concrete. Fie $ λ =rata fluxului de intrare (număr de mesaje pe secundă) și $ T = probabilitatea sosirii a k mesaje în orice p k [ ] interval de timp $ τ, τ + T având durata T; așadar, k = λt $ p k T e λt, k 0. Media numărului de sosiri este $ λt, iar k! dispersia este tot $ λt (conform teoremei 3.3 din Cap. 3). D a c ă nu există pierderi în sistem, atunci rata numărului de mesaje care părăsesc sistemul S este egală tot cu $ λ. Fie t$ 0,t 1,...,t f momentele de sosire a mesajelor în intervalul T și $ ξ =perioada dintre două sosiri generice (fig. 7.13). Probabilitatea a cel puțin o sosire în intervalul T considerat este p k=1 k $ T, deci$ deci $ este repartizată exponențial cu parametrul $ λ, cu media și dispersia date de formula (28). 1 A t A( t) k=1 W k = 1 p 0 ( T ) = 1 e λt P( ξ T ) = 1 e λt ξ $330
331 Not!m! k în sistem s! fie egal cu k. Atunci Figura 7.13 = probabilitatea ca num!rul N de mesaje aflate! k =! 0! "T s k =! 0 u k, (33) unde $!T s = u este intensitatea traficului, iar $! k = probabilitatea s! nu existe mesaje în sistem. De fapt, num!rul N de mesaje aflate în sistem este o v.a. repartizat! geometric (conform defini"iei 3.4), cu matricea de reparti"ie " k... % $ N! $.! 0! 1...! k... ' # & Presupunând c! u<1 #i scriind c!! k = 1 #i conform! (33),! 0 " u k = 1 deci!. Ca atare, u=1 este k=0 0 = 1! u! 0 probabilitatea ca sistemul considerat s! lucreze. A#adar, u $ =! (coeficientul de utilizare a serverului). Cu aceste preg!tiri, se pot calcula explicit m%rimile statistice definite anterior. Astfel, L q = M N " k=0!!! " k" k #i k=0 " = ( 1# ")$ k=0 1#! = k! k =! 0! $331
332 = D N $ σ 2 ρ L q = k 2 π. k=0 k L q 1 ρ Numărul mediu de mesaje pe linia de așteptare este $ L w = ( k 1)π k =, k=1 1 ρ iar dispersia este = ( k 1) 2 2 = 2 $ σ 2 L w π, după k=1 k L w 1 ρ calcule. Notă: Timpul mediu pe linia de așteptare este mai scurt decât mărimea medie, deoarece $ L q = L w + ρ. În teoria liniilor de așteptare, se arată că T s $ T w = deci $ T q = T w T s = ρt s. (34) 1 ρ 1 ρ Totodată, rezultă relațiile $ T q = 1 și $. (35) λ L q T w = 1 λ L w Teoria liniilor de așteptare este mult mai dezvoltată și am dorit doar să prezentăm câteva aspecte semnificative. Exemple: 1) Presupunem că la o stație Internet sosesc 6 mesaje/ minut și că lungimea mesajelor este o v.a. repartizată exponențial cu media 240 caractere, iar viteza liniei de transmisie este de 40 caractere/s. Ne propunem să determinăm timpul mediu $ de așteptare și numărul mediu $ de mesaje aflate în așteptare. L w ρ 2 2 = ρ 2 1+ ρ ρ 2 2 Așadar, $ λ =6 mesaje/minut =0,1 mesaj/s. Timpul mediu de servire este $ T s = 240 / 40 = 6 s și coeficientul de utilizare a liniei este, conform relației (29), $ ρ = λt s = 0,6. T q $332
333 Conform formulei (34), rezultă T$ q = ρt s și 1 ρ = 0,6 6 = 9 s 0,4 $ L w = ρ 2 mesaje. 1 ρ = 0,62 1 0,6 = 0,9 În unele situații, este utilă o informație statistică de tipul următor: pentru 0<r 100, se notează cu M(r)=numărul maxim de mesaje aflate pe linie r% din timp. r Așadar, $ deci $, de unde 100 = M( r) ( 1 ρ) r ρ k k=0 100 = 1 ( ρ1+m r) $ M( r) = ln ρ ln100 r 100 Pentru r=97, rezultă 1 $ M ( 97) = 1+ ln0,03 5,86. ln0,6 Așadar, maximum 6 mesaje se află pe linie 97% din timp și, ca atare, dacă se adoptă criteriul 97%, un buffer trebuie să stocheze cel puțin 6 mesaje. 2) Presupunem că o firmă de consultanță are un terminal online conectat la un SCC (sistem central de calcul) timp de 8 ore/ zi. Ingineri ai firmei, aflați pe teren, trimit la firmă mesaje conținând calcule de rutină, cu rata de sosire de 15 mesaje/zi, a căror durată medie de servire la SCC este $ =20 minute. Așadar, terminalul are un coeficient de utilizare cf.( 29)! $ ρ = u = λ Ts = 15 apoi = 0,625 cf.34! ρ Ts 0, $ T q = = 33,33 (timpul mediu de așteptare) și 1 ρ 0,375 T s $333
334 cf.34! T $ T w = s ; acesta este timpul mediu petrecut la firmă, 1 ρ 53,33 așteptare + servire. 15 Pe de-altă parte, $ λ =15 mesaje/8ore=$ mesaje/minut = 1 32 Numărul mediu de mesaje în așteptare (identificate cu inginerii aflați pe teren), va fi, conform relației lui Little, cf.( 8)! $ L q = λ Tq = 1 33,33 1,04 ; apoi numărul de mesaje aflate la 32 firmă este $ L w = λ T w 1,67. Desigur, inginerii sunt nemulțumiți cu durata prea mare de așteptare pentru a folosi terminalul. O întrebare firească: ce se întâmplă dacă se mai ia un terminal (adică pe o linie M/M/2)? Se poate arăta că în acest caz, $ coboară sub 4 minute. Dacă în locul unei linii M/M/2, traficul ar fi desfăcut în două linii M/M/1 distribuite, fiecare cu $ 0,31 20 rezulta că $ T q minute. 1 0,31 8,98 0,31, ar Așadar, este de preferat un sistem M/M/2 decât un sistem M/M/1 dublat! Mărimi care descriu performanța rețelelor de telecomunicații Există multe modele teoretice de linii de așteptare și servire, cu sau fără pierderi, cu diverse discipline de servire, cu linii ciclice de servire etc. Un pas crucial l-a constituit trecerea la rețele de linii interconectate, cuprinzând rețelele de telecomunicații, Internetul, rețelele de calculatoare de proces sau sistemele de calcul ca rețele T q ρ = 0,625 2 $334
335 de procesoare. Studiul acestor re"ele este corelat cu globalizarea #i cu marile progrese tehnologice legate de informatizarea lumii. Defini"ia 7.19: O re&ea de a$teptare este un graf atributat R = N, A,!,!, unde N=mul"imea nodurilor, A=mul"imea arcelor, $! =fluxul de date (mesaje, pachete, comenzi, informa"ii etc.) transmise prin arce #i $! =disciplina transmisiei #i facilit!"ile de servire în noduri #i pe arce. Problema principal% a oric!rei re"ele este cea a definirii unui proces aleator care s! descrie func"ionarea re"elei #i care s! permit! estimarea unor m!rimi caracteristice, de tipul celor prezentate anterior în cazul liniilor de comunica"ie, dar incluzând momentele de comutare #i comportarea de echilibru. Re"elele pot fi deschise dac! datele! $ provin #i din exterior sau închis dac! fluxul de date! circul! în re"ea. Spre deosebire de cazul liniilor simple de a#teptare, în nodurile unei re"ele ca în figura 7.14 au loc descompunerea fluxului de date (ca în nodul, cu probabilitatea p), n 1 n3 compunerea fluxurilor (ca în nodul $ ), crearea unor leg!ri în serie (precum tandemul n 4! n 5! n 6 ) etc. Figura 7.14 Cazul general este dificil de studiat; s-au ob"inut rezultate îndeosebi pentru fluxuri Poisson #i cu durate de servire repartizate exponen"ial. $335
336 Pentru accesul în rețelele de telecomunicați, există diverse protocoale ($ convenții standard pentru comunicație inteligentă), cu cerințe specifice, într-o formă acceptată, corectă, recognoscibilă și prelucrabilă. De asemenea, se precizează formatul utilizatorului și al destinatarului, codurile, protocoalele de servici etc. Un pachet de date transmis printr-o rețea de la un utilizator A la altul B constă din informația trimisă, la care se adaugă informațiile de control la diverse nivele. De exemplu, nivelul transport utilizează serviciile rețelei pentru transferul de date între A și B, iar nivelul de prezentare transformă sintaxa informației transmise. Rețele Jackson Considerăm o rețea deschisă cu N noduri ($ vârfuri) de servire $ n 1,n 2,...,n N cu durate de servire repartizate exponențial. Presupunem că nodul nk $ conține $ sk servere, fiecare cu timpul mediu de servire $ (1 k N). Mesajele (pachetele, clienții, cererile etc.) sosesc din exterior în fiecare nod $, în flux Poisson cu rata medie $ număr de mesaje pe secundă); pot sosi și mesaje λ k T sk din alte noduri interne. De îndată ce mesajul este procesat în nodul $ n k, el pleacă instantaneu sau în nodul $ n j, cu probabilitatea $ p kj, nk sau părăsește rețeaua cu probabilitatea 1 $ N p j=1 kj. Disciplina de servire este FIFO. Notăm cu $ rata totală a traficului sosit în n k nodul $ atât din interior, cât și din exterior (1 k N). În figura 7.15 am indicat un singur nod. a k $336
337 Figura 7.15 Atunci pentru orice k are loc rela"ia N! k = " k +! p kj! j, $ 1! k! N. (36) Se ob"ine astfel un sistem de ecua"ii liniare, numite ecua&iile de bilan& ale traficului, cu N ecua"ii #i N necunoscute! k $. j=1 Acest sistem se poate scrie ca o singur! ecua"ie matriceal!, anume = " $ A =! + A " P, adic! $ A I N! P (37)! = (! 1,...,! N )! unde $ A =! 1,...,! N #i $ sunt matrice 1$ N (adic! vectori linie N dimenionali), iar P $ = ( p ij ); 1! i, j! N este matricea p!tratic! de ordin N a probabilit!"ilor men"ionate. Not!: Interpretarea ecua"iei de bilan" (36) este urm!toarea: suma ratei de intrare $! k cu cea a ratei totale a transferurilor interne în nodul $ n k este egal! cu rata de echilibru! k a fluxului prin nodul n k. Este plauzibil c! dac! intensitatea de trafic $ în fiecare nod este subunitar! (pentru 1%k%N), atunci re"eaua este în echilibru.! k $337
338 PROPOZIȚIA 7.12: Dacă lim $ P n = 0, atunci ecuația n (37) are soluție unică, pentru orice vector linie $ Λ al ratelor de trafic din exteriorul rețelei. Demonstrație: Dacă $ β este o valoare proprie a matricei P cu vectorul propriu x 0, atunci, din relația Px=$ βx, rezultă că pentru orice n natural, $ P n x = β n x. Deoarece $ lim P n = 0, rezultă n că $ lim β n = 0, deci, în mod necesar, $ β < 1. n Dar matricea $ I N P are toate valorile proprii de forma 1 $ β și acestea rezultă nenule. Ca atare, matricea I$ N P este 1 nesingulară și din relația (37), rezultă că $ A = Λ I N P, soluție unică. În fine, enunțăm fără demonstrație un rezultat clasic, ce a declanșat multe cercetări în teoria rețelelor de așteptare. Dăm înainte o ultimă definiție. Definiția 7.20: Vectorul linie A se numește rata de utilizare (sau echivalent, throughput ul) rețelei. La fiecare moment de timp t, se definește starea rețelei ca c i t fiind vectorul $ C( t) = c 1 ( t),c 2 ( t),...,c N ( t) unde $ = numărul de clienți (mesaje, cereri, date,...) aflați în nodul $ la momentul t, incluzând pe cei aflați la servire. Jackson a demonstrat în 1957 că, într-o rețea ca mai sus, fiecare nod $ este un multiserver independent, cu intrarea Poisson $ și orice nod poate fi analizat separat, urmând ca α k n k rezultatele să fie unificate și globalizate prin metode statistice standard. Mai mult, congestiile din rețea rezultă din însumarea congestiilor în fiecare nod. n i $338
339 Teorema lui Jackson are următorul enunț: Familia C(t), t 0 de vectori aleatori formează un proces Markov staționar și fiecare linie a rețelei este de tipul M/M/s (multiserver independent). În plus, dacă $ lim P n = 0, atunci probabilitatea P(C) n ca rețeaua să fie staționară în starea $ C = c 1,c 2,...,c N are forma produs, în sensul că P(C) $ = ψ 1 ( c 1 ) ψ 2 ( c 2 )...ψ N c N, unde $ = probabilitatea de a avea mesaje pe o linie M/M/$, unde $ este numărul de servere în nodul $ n k, 1 k N n. În cazul câte unui singur server în fiecare nod (adică $ =1 cu rata de servire $ µ k ), $ ψ k c k și $, pentru 1 k N. Există diverse generalizări ale acestei teoreme, datorate lui Kelly, Basket și Gelenbe. Pe de altă parte, Gordon, Newell și Buzer au inițiat studiul rețelelor închise și al distribuțiilor de probabilitate a stărilor sub forma produs. Estimarea timpului de parcurgere a unei rețele Notăm cu M(T) timpul mediu de întârziere produs de un flux de mesaje cu durate de servire repartizate exponențial, de la o sursă S la o destinație D. Ne propunem să estimăm M(T), fără a lua în considerare controlul congestiei. Presupunem că sosirile la sursa S sunt repartizate Poisson cu media. 1 Din formula (32) a lui Little, rezultă M(T)=$ γ M C 1 N $ M( c k ), unde $ γ =rata netă de sosire în rețea și k=1 γ M(C)=numărul mediu de mesaje (clienți) în rețea, iar $ M c k =numărul mediu de clienți în nodul $. ψ k ( c k ) s k s k c = ρ k k ( 1 ρ k ) ρ k = α k / µ k n k s k = $339
340 =! k T k T k = 1/ µ k ( 1!! k ) Dar M c k, unde, conform formulei (34); înlocuind $! k = " k / µ k, rezult# T$ k = 1/ µ k!! k. A"adar, am demonstrat PROPOZI"IA În condi!iile anterioare, 1 N " M(T) = " k (38) k=1! µ k! " k Exemplu: Consider#m re!eaua din figura În nodurile n 1,n 2,n 3 intr# = 6 mesaje/s. $ Figura 7.16.inând cont de probabilit#!ile de trecere de la un nod la altul, în $ n 2 intr# $ 2! 1 mesaje/s "i în $ intr# " % # $ 2& ' = 11 n ! 3 mesaje/s. Dac# rata de servire este $ mesaje/s, 4 = 7 µ k = 4 2 atunci timpii de întârziere vor fi: între n 1 "i n 2 direct: T d 12 = s; 4!1/ 2 " 0,29 1 între n 1 "i n 2, via n 3 : T 3 12 = s; 4! 3 / ! 7 / 2 " 2,40
341 - 1 între $ n 1 și $ n 4, via $ n 3 : $ T 3 14 = s etc. 4 3 / / 3 2,60 Notă: Există și alte metode pentru a estima timpul Tij $ scurs pentru transferul unui mesaj de la un nod $ la un alt nod n j $ (de fapt durata dintre momentul când mesajul sosește în $ și cel când mesajul sosește în $ pentru prima dată). Pentru o rețea $ R cu N noduri, notăm cu M$ =timpul mediu de așteptare și servire a unui mesaj în nodul $ n k. Considerăm matricea pătratică R $ = ( pij ); 0 i, j N, unde $ p ij = probabilitatea ca un mesaj plecat din nodul $ să ajungă în $ n j ; $ n 0 este un nod absorbant (unde intră mesajele care ies din rețea și nu mai ies afară); avem p$ 00 = 1 și N p j=1 ij $ p i0 = 1. Pentru o clasă de servicii, este importantă problema determinării timpului mediu M$. Matricea R este stocastică și este matricea probabilităților de tranziție ale unui lanț Markov cu spațiul stărilor {0, 1,..., N}, unde 0 este stare absorbantă; tocmai folosind rezultate din teoria lanțurilor Markov, se pot estima timpii $ T ij n j T k ( T ij ).Am prezentat câteva rezultate teoretice privind rețelele de comunicații, fără a intra în detalii legate de logistica și organizarea lor informatică. Un subiect fierbinte îl constituie cel legat de congestia rețelelor, inerent creșterii numărului de mesaje și depășirii capacităților de transport, când ruterele nu mai fac față, se pot pierde mesaje și se compromite performanța. Dar ne oprim aici. n i n i n i $341
342
343 Motto: Our present understanding of the laws of physics, with their extreme precision and universality, is only possible in mathematical terms. Sir Michael ATIYAH CAPITOLUL 8: APLICAȚII ÎN INGINERIE ȘI FIZICĂ 8.1. Erori și incertitudini Măsurători În Grecia antică a existat un tâlhar sadic pe nume Procust care, ajuns la putere, a introdus un sistem simplificat de pedepsire: își întindea victimele pe un pat de fier și le tăia sau întindea picioarele ca să aibă lungimea cât a patului. A creat unul din primele exemple de standardizare! În Evul Mediu au existat regi care s-au mulțumit să introducă unități de măsură inspirate din propriile lor însușiri fizice cot, nas, gambă etc. Mari cercetători au descoperit în timp mărimi noi, unități de măsură și legi, care au condus la lărgirea cunoașterii despre realitatea înconjurătoare; acestea l-au făcut, în jurul anului 1800, pe Napoleon să afirme că Războaiele vin și trec, dar sistemul metric va rămâne! Au trebuit cu adevărat să treacă anii și abia în 1970 să se adopte sistemul SI, care încă nu este unanim acceptat, îndeosebi din cauza șovinismului de mare putere. Au dispărut și întrebările deplasate de tipul: ce este mai important, metrul sau kilogramul? Obiectul tipic pentru măsurători îl constituie mărimile, adică proprietățile exprimabile cantitativ ( numere concrete ). Mărimile au denumiri, notații standardizate și unități de măsură. Sistemul SI are 7 mărimi fundamentale (lungimea = m, $343
344 masa = kg, timpul = s, intensitatea curentului electric = amper, temperatura = kelvin etc.) și un mare număr de mărimi și unități derivate. Atenție! Reținem că a măsura înseamnă a compara o mărime cu unitatea de măsură respectivă. Teoria măsurătorilor ($ Metrologia) diferă de Teoria măsurii! Erori absolute În cursul oricărei măsurători apar factori perturbatori intrinseci, care conduc la apariția erorilor. Nici o măsurătoare nu oferă o precizie absolută și, prin repetare, se obțin rezultate diferite. Acuratețea unui experiment este doar o condiție pentru a apropia rezultatul unei măsurători de o valoare teoretică prescrisă. Erorile pot fi experimentale (grosiere, sistematice sau aleatoare) sau de calcul numeric (de metodă sau de rotunjire). Se acceptă că eroarea este o greșeală sau abatere de la precizie, în timp ce incertitudinea înseamnă îndoială, lipsă de siguranță sau nuanțare. Amintim că dacă x este un număr real fixat și $ x este o valoare aproximativă a sa, atunci se spune că are loc formula aproximativă $ x x, (1) x x cu eroarea absolută $ x x și eroarea relativă $, dacă x $ x 0. De regulă, $ x este un număr rațional. Eroarea absolută se extinde și la numere complexe sau matrice, înlocuind modulul cu norma. Exemplu: Dacă x=π și $ x = 3,14, atunci eroarea absolută în formula $ π 3,14 este 0,0159 și cea relativă 0,00051 (chiar și acestea nu sunt exacte). $344
345 $ Fixând $ ε > 0, dacă $ x x ε atunci se spune că $ x este o [ ] $ ε aproximare a lui x; în acest caz, $ x x ε, x + ε, adică x este aproximat și prin lipsă și prin adaos. Incertitudinea de măsurare a lui x este un interval I, astfel încât să putem estima probabilitatea P($ x I ). Astfel, dacă o bară are lungimea măsurată $ l =150 cm, [ ] cu eroarea absolută 1%, atunci l$ 148,5; 151,5. Dar dacă spunem că lungimea barei este situată în acest interval cu probabilitatea $ α = 0,97, atunci se spune că incertitudinea ($ gradul de eroare (1 $ α )$ 100%) este 3%. Notă: Înlocuirea lui x cu! x, fără un control al erorii, este comodă, dar poate conduce la rezultate incorecte, îndeosebi în calcule lungi unde apare fenomenul de propagare a erorilor. În ultimul timp, controlul acestui fenomen este studiat într-un nou domeniu al Analizei numerice, numit Analiză de interval, care extinde ideea intervalelor de încredere studiate în Capitolul 4. Reamintim evaluarea erorilor de trunchiere a datelor numerice (sau statistice) introduse în calculator. Fie $ q 2 un întreg fixat ($ bază de numerație) și $ x > 0 fixat. De regulă, q=10, 2 sau 8. Scrierea în baza q este de forma $ x = a n q n = a m... a 0, a 1 a 2..., cu toți a$ n cifre în baza q, n m adică $ 0 a n q 1. În cazul reprezentării cu virgulă fixă, se fixează u locuri pentru partea întreagă [x] și v locuri la partea zecimală. Dacă $ m < u, atunci numărul x este înlocuit cu trunchierea lui $ x = a u+1 a u+2... a 0, a 1 a 2... a v și eroarea absolută este 1 x x = a v+1 q + a 1 v+1 v ( q 1 v+2 q ) 1 q v+1 v+2 q = 1 q v. În cadrul registrului (u, v), numărul maxim care poate fi introdus în calculator este cel cu toate cifrele egale cu q 1. $345
346 $ Acesta este = q u q v M = ( q 1) q u 1 + q u q q v și numerele admise sunt cele cuprinse în intervalul [ M, M]. În cazul reprezentării cu virgulă mobilă, numărul $ x > 0 se scrie sub forma standard " x = a q b, cu condiția de normare 1 $ (care face ca a și b să fie unic determinați de x). q a 1 Fixând u' $ locuri pentru mantisa a și $ v' locuri pentru exponentul întreg b, numerele admise sunt cele cuprinse în intervalul $ [ M ', M '], unde $ M ' = ( q 1) ( q 1 + q q u' ) q E, iar = q v' 1 1+ q q v' 1 $ E = q 1, deci $ M ' = ( 1 q u' ) q E. Se pot alege $ u', v', u, v astfel încât $ M M '. Exemple: 1) Fie q=10; u=2, v=3, u' $ =3, $ v' =2. Dacă x=23,756478, atunci reprezentarea lui x în virgulă fixă este $ x =23,7564 și cea în virgulă mobilă este $ x = 0, ) Fie q=8; u=3, v=4, $ u' =3, $ v' =3 și x=121, (scris în baza 8). Atunci $ x = 121,4040 (în virgulă fixă) și $ x = 0, (în virgulă mobilă). Orice calcul numeric aproximativ este efectuat în virgulă mobilă, mai ales în situații când se operează cu numere foarte mari (de exemplu, matrice rare, calcul în timp real, grafică pe calculator etc.). Densitatea de probabilitate a erorilor Cele mai multe erori aleatoare sunt independente între ele și, în calcule lungi, efectul propagării lor poate fi asimilat cu $346
347 $ efectul cumulat al unor v.a. independente având aceeași repartiție. Ca atare, aplicând TLC (teorema 4.2 a lui Gauss), valorile măsurate ale oricărei mărimi X se distribuie aleator la stânga și la dreapta mediei m după legea normală ( clopotul lui Gauss ), adică $ X N m, σ. Valoarea mediei m=mx se aplică folosind legea numerelor mari, $ m x x 1 n, unde $ x k sunt rezultatele a n măsurători n independente ale mărimii X. O formulă fundamentală în Teoria erorilor este $ P a X b. σ Φ a m σ Φ b m Dar adeseori se folosește funcția erorilor ( error = 2 π x e t 2 0 function ) erf:! $!, erf$ x dt, sau funcția complementară a erorilor erfc(x)=1 erf(x). Legătura cu funcția $ Φ este ușor de stabilit (prin calcul pur matematic): 1 Φ x erf(x)=$ 2Φ x 2 și $. (2) 2 Funcția Φ$ este tocmai funcția de repartiție a unei v.a. $ X N 0, 1. Dacă $, atunci pentru orice $, P X a. (3) Φ a σ = 2Φ a a σ 1 = erf σ 2 Așadar, are loc: PROPOZIȚIA 8.1. Probabilitatea ca eroarea unei singure măsurători a unei v.a. X$ N 0, σ să fie cuprinsă între a toleranțele a și a este egală cu erf$. σ 2 $347 = erf x X N( 0, σ ) a > 0 = Φ a σ
348 $ Aceast" propozi#ie este util" pentru a determina bit error rate într-un sistem digital de comunica#ie. Graficul lui erf este o sigmoid", ca în figura 8.1. Valorile lui erf se ob#in folosind formula (2)!i tabela lui!. Figura 8.1. Propagarea erorilor Pentru o m"rime x!i o! aproximare x, rezult" c"!x " x # x $!. Dac" y este o alt" m"rime!i y$ este o $! ' aproximare a ei, atunci $!y " y # y $! '. Considerând suma s=x+y!i diferen#a d=x y, avem!s $ = x + y " x + y, deci!s "! +! '!i, similar,!d "! +! '. Apoi, pentru produsul p=xy, avem p+#p=(x+#x)(y+#y)=xy+x#y+y#x+(%x)(#y)!i ultimul termen poate fi neglijat, deci %p=x#y+y#x, deci!p x!y + y!x $ = =!x. Astfel, p xy x +!y y $ xy! xy = ( x! x )y + x ( y! y ) " x! x # y + x # y! y, deci produsul x $! y este o c aproximare a lui xy, unde c =! y + x!! '. 348
349 În mod similar, dacă $ q = x Δq, atunci $ și dacă y q = Δx x + Δy y $ u = xα y β Δu, atunci $ etc. u = α Δx x + β Δy y + γ Δz y z γ Cunoașterea modului de propagare a erorilor permite identificarea unor surse de erori. Exemple: 1) Avem $ 2 1,414 și $ 3 1,732 cu erori absolute de 1 cel mult $. Atunci $ ,732 +1,414 = 3,146, cu eroarea absolută cel mult $. 10 < Similar, $ 3 2 1,732 1,414 = 0,318, cu eroare absolută cel 2 mult $, iar $ 3 2 1,732 1,414 2,449, cu eroarea 10 3 absolută $ c 1 1 1,732 +1, , < ) Pentru a măsura impulsul unui mobil, p=mv, trebuie să măsurăm separat masa m și viteza v. Similar, considerând un pendul matematic și folosind formula lui Galilei $ T = 2π l g, din care deducem $ g=4π 2 l T 2, este suficient să măsurăm lungimea $ l și perioada T a oscilațiilor pentru a deduce experimental g. Presupunem că am măsurat $ l 1,1 m, cu o eroare absolută 2 cm și T! 1,9 s, cu eroare absolută 0,1 s. Atunci Δg $. Așadar g = Δ 4π 2 + Δl 4π 2 l + 2 ΔT T = 0 + 0,02 1, ,1 1,9 0,1234 eroarea relativă este de 12,3%. Dar $ g = 4π 2 l T 2 12,029, deci g 12,029 0,1234 1,484 m/s 2. Deci, intervalul de încredere este [10,545; 13,513], prea grosier în raport cu valoarea teoretică $349
350 g 9,81 m/s 2. Prin urmare, măsurătorile trebuie reluate (mărind T, lungind firul etc.). Notă: Acuratețea și precizia măsurătorilor diverselor mărimi au un caracter istoric. De exemplu, în cazul metrului, iată câteva date semnificative: În 1791 s-a măsurat lungimea meridianului pământesc, cu eroarea absolută $ ε 0,06 mm. În 1889 s-a realizat o bară prototip, cu $ ε 0,002 mm ; în 1983, folosind lungimea de undă a kriptonului, $ ε mm și în 2015, cu ajutorul laserului, $ ε mm. Se știe că între fizicienii teoreticieni și experimentatori există o concurență extraordinară; unii știu să citească în ecuații și formule, alții în aparate existente sau construite ad-hoc. De exemplu, Hertz a știut să citească în ecuațiile lui Maxwell, dar a realizat și un experiment crucial legat de oscilatorul care îi poartă numele, prin care a generat unde electromagnetice, deschizând era telecomunicațiilor. Exemplele sunt numeroase (Michelson Morley, Le Verrier, Becquerel, Eddington) și încheiem cu experimentul care a contribuit la gloria lui Einstein. Explicând mișcarea browniană pe baza Teoriei cinetico moleculare, Einstein a arătat că mișcarea haotică a unor granule de polen în apă este datorată coliziunii acestora cu moleculele apei. Fizicienii nu au crezut acest fapt, deoarece granulele păreau niște bolovani (de $ 10 4 ori mai mari) în raport cu moleculele. Dar Einstein a arătat că mișcarea în zig-zag a granulelor de polen este rezultatul fluctuațiilor statistice ale unor grupuri de molecule. Mai mult, a prezis că la 17 C proiecțiile pe o dreaptă ale granulelor se deplasează cu 6 $ µ m/minut, rezultat confirmat experimental de J. Perrin. Acest rezultat al Statisticii a declanșat totodată teoria proceselor Gauss Wiener. $350
351 Mai târziu, același Einstein a greșit, introducând alături de constantele fizice fundamentale c, G, e, NA, h,..., constanta cosmologică, rămasă ca ipoteză neconfirmată. Metrologia - știință și artă a măsurătorilor în cele mai diverse domenii - joacă un rol decisiv în asigurarea calității produselor și serviciilor, dar și a mediului. Acest fapt dă încredere celor implicați în creșterea calității vieții, prin dictonul: Trust in numbers! 8.2. Controlul statistic al calității (' CSC) Introducere Controlul statistic este un domeniu multi și interdisciplinar, care se referă la toate sectoarele vieții social economice, începând cu calitatea diverselor produse, utilaje, proiecte, servicii etc. Asigurarea calității și competitivității este o datorie și un exercițiu de supraviețuire, angajând mari eforturi intelectuale, financiare, logistice ($ de organizare) și morale. Un rol important revine controlului statistic al calității ($ CSC), la care ne vom referi cu precădere în acest paragraf. Calitatea unui produs sau serviciu este ansamblul însușirilor lui, cuprinzând valorile parametrilor tehnico economici, de utilitate, de întreținere și exploatare. Calitatea este strâns legată de corelarea fundamentală cerere/ofertă și de stoparea oricărei imposturi, prin control preventiv și protecția consumatorului, în condițiile resurselor limitate. Nu trebuie uitat dictonul: Ce-i mult nu-i bun! și reversul ce-i bun nu-i mult!. Calitate și fiabilitate Definirea standardelor de calitate nu o stabilește statisticianul, ci, de regulă, inginerul tehnolog sau merceologul, adeseori sub presiunea pieței și concurenței. Metodele CSC au variat în timp: la început, controlul s-a făcut ochiometric, apoi $351
352 $ prin control, din trei în patru, la momente aleatoare de timp, f"r" preven#ie sau control total la cantit"#i mici etc. În ultimul timp, s-a trecut la control prin selec#ii aleatoare de e!antioane, cu testarea ipotezelor, iar în v"mi sau aeroporturi, s-au atins standarde înalte ale controlului, prin utilizarea noilor tehnologii informatice. Dup" 1990, controlul modern se realizeaz" prin coordonare!i conformitate cu modelele. S-a dus!i la noi vremea lui noi producem!i tot noi control"m, cu rezultatele ei dezastruoase, ca!i vremea minciunilor statistice. S-a intrat într-o perioad" când este la fel de important s" vinzi pe cât este s" produci, într-o competi#ie dinamic"!i nemiloas", când problema calit"#ii se pune dramatic, într-un ciclu în care fiecare din noi este deopotriv" consumator!i produc"tor. În anii trecu#i, se lucra 1 dimensional, punând pe o ax" ce se produce!i, pe alt" ax" separat", ce se vinde (într-un anumit sector!i într-o anumit" perioad"). A!a s-a ajuns la stahanovism!i la stocuri necontrolate. Economi!tii moderni au introdus modelul 2D, folosind dou" axe: $ produce)!i $ O v O p - axa vânz"rii (ce se vinde). - axa produc#iei (ce se Figura 8.2 Este clar c" $ p > 0, v > 0, deci perechile (u, v) se afl" în cadranul întâi. 352
353 Deoarece nu poți vinde mai mult decât produci, rezultă că { } $ v < p și domeniul admisibil este $ Δ = (p, v) 0 < v < p ; fig Considerând punctele A, $ B, C Δ cu AB $! Ov și $ BC! Op, este clar că este mai favorabilă poziția A decât poziția B (scriem A$ B ) și similar, B$ C. Pozițiile A și D sunt incomparabile (dacă dreapta AD nu trece prin O) și este o artă a merceologului să găsească drumul optim de la A la D. Economia modernă a elaborat diverse modele multidimensionale consistente, a căror cunoaștere este necesară, dar insuficientă. Statistica matematică reprezintă baza teoretică pentru elaborarea unor indicatori sintetici ai calității produselor, pentru compararea obiectivă a produsului cu modelul și pentru luarea deciziei de acceptare sau respingere. Orice proces de producție, ca și orice fenomen comercial sau din sfera serviciilor, depinde nu numai de factori deterministici, ci și de factori aleatori cu stabilitate statistică. Este esențial de cunoscut legile de repartiție ale acestor factori, de calculat (sau de înțeles) sensul mediilor sau dispersiilor indicatorilor de calitate, care trebuie comparate cu cele ale modelelor. În plus, în inginerie trebuie respectate specificațiile și toleranțele admisibile. Fie c o mărime tehnică, fizică sau economică, exprimată numeric și reprezentând un indicator de calitate. Exemple: 1) Mărimea c poate fi o lungime, o grosime, un gabarit, o durată de funcționare, diametrul unui lot de piese cilindrice etc. 2) Dar c poate fi o culoare (dintr-un set de 64 de culori sau nuanțe), un nivel estetic sau gustativ, o notă la un concurs sau examen etc. În inginerie, cea mai importantă v.a. o constituie durata de funcționare a unui sistem (calculator, unealtă, mașină $353
354 complex", ansamblu de utilaje etc.). Studiul acestei v.a. se realizeaz" în Teoria fiabilit"#ii. Dup" cum calitatea unui produs este dat" de conformitatea lui cu specifica#iile din model, tot astfel, fiabilitatea unui produs este capacitatea lui de a r"mâne în cadrul standardelor de calitate în timpul utiliz"rii. A!adar, fiabilitatea unui sistem înseamn" siguran#a în func#ionare, cu men#inerea calit"#ii. Defini#ia 8.1: Fie S un sistem complex (dispozitiv, utilaj,...) a c"rui evolu#ie este urm"rit" pe un interval de timp I începând cu un moment $. Coeficientul de fiabilitate $! S este t 0 probabilitatea ca sistemul S s" func#ioneze pe intervalul de timp I. S" presupunem c" sistemul S este alc"tuit din n subsisteme care opereaz" independent S$ 1,..., S n. Între sistemul S!i subsistemele $ S 1,..., S n, pot exista diverse tipuri de leg"tur": - în serie (! cascad"): S func#ioneaz"! toate subsistemele S 1,..., S n func#ioneaz" simultan (figura 8.3); - în paralel: S func#ioneaz"! cel pu#in unul din subsistemele S k func#ioneaz" (figura 8.4); - mixte (figura 8.5). Figura
355 Figura 8.4 Figura 8.5 A k Leg#tura în serie Not!m A=evenimentul S func#ioneaz! pe intervalul I "i $ =evenimentul $ func#ioneaz! pe I (1&k&n). A"adar, S k A = A 1!...! A n "i, conform independen#ei,, adic!! ( S) =! ( S 1 )...! ( S n ). (4) P( A) = P( A 1 )... P A n Aceea"i formul! este valabil! în cazul p!str!rii unui secret în lan#ul de persoane care comunic! între ele. Leg#tura în paralel În acest caz, cu nota#iile anterioare, A = A 1!...! A n, deci trecând la evenimente contrare A $ = A 1!...! A n, deci P( A) = P( A 1 )... P( A n ) = ( 1! P( A 1 ))...( 1! P( A n )). Ca atare, 1!! ( S) = ( 1!! ( S 1 ))... ( 1!! ( S n )). (5) Leg#tura mixt# ( =! ( S 1 ) 1! 1!! ( S 2 ) 1!! ( S 3 În cazul figurii 8.5,! S " $ # %. Fie D un dispozitiv oarecare "i $! momentul (aleator!) al primei defect!ri a dispozitivului D, începând din momentul ini#ial t=! t 0. A"adar, la momentul $! dispozitivul iese din func#iune. $355
356 $ Am văzut în Capitolul 3, teorema 3.7, că v.a. $ τ este repartizată exponențial, cu un parametru $ λ > 0 și că M$ τ = 1, $. λ Dτ = 1 λ 2 Media M$ τ se numește timpul (durata) mediu de bună funcționare a dispozitivului D, notat TMBF(D). În practică, acest timp se estimează luând în observație n$ n 1 dispozitive independente, de același tip cu D (sau pe D singur, de n ori), determinând momentele $ τ 1,..., τ n ale primei defectări în fiecare τ caz și TMBF(D)=$ τ n. n PROPOZIȚIA 8.2. Momentul primei defectări a lui D este o v.a. repartizată exponențial, cu parametrul 1 $ λ = TMBF D. (6) Dacă D este un dispozitiv complex, obținut prin legarea în serie a n subsisteme $ D 1,..., D n independente, atunci momentul defectării lui D este dat de formula: TMBF(D)=$ TMBF D 1. (7) Demonstrație: Formula (6) a fost stabilită în teorema 3.7 din Capitolul 3. Fie $ τ 1,..., τ n momentele primei defectări pentru $ D 1,..., D n respectiv. Acestea sunt v.a. repartizate exponențial, cu parametri $ λ 1,..., λ n ; λ k = τ k $ τ =min($ τ 1,..., τ n ), deci pentru orice t>0, ( TMBF ( D n ) ) Momentul defectării lui D este indep. P( τ t) = 1 P( τ > t) = 1 P( τ 1 > t 1,..., τ n > t) =! = 1 P ( τ1 > t)... P( τ n > t). indep.! $356
357 Dar în paragraful 3.5 din Capitolul 3 am stabilit că funcția de repartiție a v.a. $ τ k este $ F k ( t) = 1 e λ kt pentru t 0 și $ ( t) = 0 pentru t <0. = 1 P( τ k t) = 1 F k ( t) = e λ kt Așadar $ P τ k > t deci = 1 e λ 1t... e λ nt t $ P τ t = 1 e λ λ n. Dacă t 0, atunci evident = 0 τ $ P τ t. Așadar, $ este o v.a. repartizată exponențial, cu parametrul $ λ λ n = τ τ n și rezultă formula (7). Exemple: 1) Presupunem că un aparat D are n=50 componente independente, fiecare având TMBF de 10 ani$ ore. Atunci 50 TMBF(D)=$ ore. Această durată pare = 1600 inadmisibil de mică, dar în practică, se aplică legături între componente și tehnici de fiabilitate care permit lungirea timpilor de fiabilitate. 2) În unele considerații, se admite că dacă la momentul t=0 intră în funcțiune un dispozitiv D ca mai sus, atunci momentul $ τ al primei defectări a lui D este o v.a. repartizată Weibull, cu parametri $ λ > 0, β > 0 și funcția de repartiție = 1 exp ( λx) β $ F x, pentru x>0 și F(x)=0, x<0; în acest caz, TMBF(D) = M$ τ = 1. De exemplu, probabilitatea ca D λ F β +1 β să nu se defecteze pe un interval [0, T] este 1 = 1 P( τ T ) = 1 F( T ) = exp ( λx) β $ P τ > T. În cazul legării în paralel a celor n subsisteme $ D 1,..., D n ale dispozitivului D, pentru orice $ t > 0 are loc următoarea relație între evenimente: $357 F k
358 $ $ { τ t} = { τ 1 t}... { τ n t}, deoarece defectarea lui D are loc înaintea momentului t dacă și numai dacă toate subsistemele $ D k se defectează înaintea momentului t. Atunci pentru funcția de repartiție avem F τ ( t) = P( τ t) = P( τ 1 t)... P( τ n t) = $ (8) = 1 e λ 1t În cazul n=2, rezultă... 1 e λ nt TMBF( D) = TMBF( D 1 ) + TMBF( D 2 ) TMBF( D 1 ) 1 + TMBF( D 2 ) 1 Indicatorii de calitate ca v.a. Fie c un indicator de calitate (pentru un produs, un dispozitiv, un utilaj etc.), privit ca v.a. Pentru orice număr real x, $ x este probabilitatea ca valoarea indicatorului c să F c = P( c x) fie situată sub pragul numeric x. Această funcție $ 1 F c :! [ 0, 1] este funcția de repartiție a lui c, numită și funcția de distribuție cumulativă. Indicatorul c nu se vede și în practică, funcția $ se determină cu aproximație din estimări statistice anterioare sau pe baza unor argumente teoretice. Cunoscând funcția F$ c, se pot determina diverse informații privind distribuția valorilor indicatorului c. De exemplu, dacă după un experiment statistic, indicatorul c are valorile discrete $ c 1, c 2,..., c n dispuse crescător, cu probabilitățile (frecvențele) $ p 1, p 2,..., p n, atunci c se poate asimila cu o v.a. discretă cu matricea de repartiție $ c c c... c 1 2 n. p 1 p 2... p n, 0 p 1, p k k k = 1 = 0 În acest caz, dacă $ x < c 1, atunci $ F c x ; apoi, pentru $ c 1 x < c 2, F c x și pentru $, etc. Dacă indicatorul c ia valori continuale (adică într-un $358 = p 1 c 2 x < c 3, F c ( x) = p 1 + p 2 F c.
359 $ interval), atunci pentru orice x < y, avem, conform teoremei 2.10 din Capitolul 2: P( c > x) = 1 F c ( x), P( c x) = 1 F c ( x 0), P( x < c y) = F c ( y) F c ( x), P( x c y) = F c ( y) F c ( x 0) O altă entitate asociată unui indicator de calitate c o constituie densitatea lui de probabilitate $ p c :!!, definită prin 1 = F c '( x) = lim h 0 ( ) $ p c x. Graficul de ecuație h P c x, x + h $ y = p c x este o funcție clopot, situat deasupra axei Ox, cu aria dintre grafic și axa Ox egală cu 1. Pentru orice $ α < β (inclusiv pentru $ α = sau $ β = + ), are loc relația fundamentală ( [ ]) = p c β $ P c α, β ( x)dx (9) conform teoremei 2.11, d) din Capitolul 2. Cunoașterea funcției p c $ permite estimarea diverselor probabilități referitoare la plasarea indicatorului de calitate c într-un interval sau altul; funcția p este numită și distribuția de probabilitate (PDF, în engleză). Exemplu: T i T s Fie $, respectiv $, toleranțele admise (inferioară și superioară) pentru valorile unui indicator c de calitate. Presupunem cunoscută funcția $ p c și notăm cu $ A 1, A 2, A 3 ariile cuprinse între curba densitate $ y = p c x și axa Ox; figura 8.6. α $359
360 Figura 8.6 Probabilitatea de respingere a produsului respectiv din cauza nerespect"rii toleran#ei inferioare este T i = P (!" < c < T i ) = p c ( x) $ P c < T i # dx = A 1. (10) În mod similar, probabilitatea respingerii din cauza nerespect"rii toleran#ei superioare este! $ P c > T s " ( x)dx = A 3. (11) Bineîn#eles, A$ 1 + A 2 + A 3 = 1!i A$ 2 = P T i! c! T s este probabilitatea de acceptare a produsului (din punctul de vedere al indicatorului c). Defini#ia 8.2: Ariile $ A 1!i $ A 2 sunt în general mici!i suma lor se nume!te frac!iunea defectiv"! = A1 + A3 (pentru indicatorul c). Formulele (10)!i (11) pot fi utilizate chiar!i în cazul când func#ia $ este dat" tabelat, fiind numit" probability mass function (PMF, func#ia distribu#ie de probabilitate pentru v.a. discrete, în literatura englez"). Doar în cazul reparti#iilor teoretice studiate în Capitolul 3, func#ia este dat" printr-o expresie analitic" depinzând de anumi#i parametri. De asemenea, media,!" = P( T s < c <!) = p c p c p c T s 360
361 dispersia, momentele centrate ale lui c se pot calcula empiric, așa cum am văzut în Capitolul 1. Dacă Mc=m și Dc=$ σ 2 σ > 0, atunci $ se σ numește normatul indicatorului c; $ Mc = 0, Dc = 1. În CSC cea mai utilizată repartiție teoretică o constituie repartiția normală; dacă c$ N m, σ, atunci curba densitate $ y = p c x este clopotul lui Gauss. Mulți indicatori de calitate Reamintim că dacă c$ N m, σ c = c m depind de mulți factori aleatori independenți și conform TCL, ei respectă legea normală, cu grosul valorilor concentrate în jurul mediei (de exemplu în intervalul [ $ m 3σ, m + 3σ ], cu regula 3$ σ ; corolarul 3 al teoremei 4.2 din Capitolul 4)., atunci pentru orice $ α < β, are loc formula fundamentală: $ P( α < c < β ) = P( α c β ) = Φ β m, (12) σ Φ α m σ ce aduce în discuție celebra funcție $ Φ (teorema 4.2, formula (5)). APLICAȚIE: (studiu de caz) Să presupunem că urmărim producția de cabluri electrice și că indicatorul de bază este c=lungimea cablurilor, cu specificațiile c=(140±2) mm. Așadar, toleranțele admise sunt T i T s $ =138 și $ =142 mm, iar intervalul de încredere pentru media lui c este [138, 142] mm. Presupunem că pentru CSC s-a considerat un eșantion reprezentativ ($ aleator) de 60 de cabluri dintre cele realizate, constatându-se că 15 din ele trebuie respinse. Aceasta este o informație pasivă și este utilă o analiză statistică mai aprofundată. Cablurile au fost măsurate și plasate în 8 clase ($ celule) de toleranță, din mm în mm. $361
362 $ Presupunem c" aceste clase au fost: I. c <137,5 mm, =4 cabluri; II. 137,5& c <138,5, $ n 2 =3; III. 138,5& c <139,5, $ n 3 =6; IV. 139,5& c <140,5, n 4 =17; V. 140,5& c <141,5, n 5 =12; VI. 141,5& c <142,5, n$ 6 =7; VII. 142,5& c <143,5, n$ 7 =6; VIII. c '143,5, $ =5; ( =60). n 8 Histograma asociat" este dat" în figura 8.7. n 1 Figura 8.7 În"l#imile dreptunghiurilor ha!urate corespund numerelor $ n 1, n 2,..., n 8 de cabluri din fiecare din cele 8 clase. Se observ" c" se ob#ine o curb" similar" clopotului lui Gauss, ceea ce nu este chiar întâmpl"tor, deoarece lungimea cablurilor este o v.a. care depinde de mul#i factori variabili aleatori independen#i!i c"reia i se aplic" miracolul TLC (într-o form" impur"). Determinând frecven#ele ($! probabilit"#ile) apartenen#ei cablurilor la cele 8 clase, rezult": $ f 1 = n 1 $ $ $. 60! 0,07 f = n ! 0,05 f = n = 0,10 f = ! 0,08 A!adar, c $ = Mc! 137 " f " f " f 4! 140,67 mm!i $!! 2,46 mm. 362
363 $ Se pune mai întâi problema verificării concordanței modelului real cu cel teoretic al repartiției $ N m, σ cu m=140,67 și $ σ =2,46 mm. Pentru aceasta, ar trebui aplicat testul de potrivire al lui Pearson (din paragraful 4.5.), care este una din virtuțile analizei statistice aprofundate. Nu mai dăm detalii în acest sens și admitem că lungimea c a cablurilor este repartizată normal, așa cum sugerează histograma din figura 4.7. În ipoteza că T$ i = 138, T s = 142, fracțiunea defectivă este, conform definiției 8.2, δ = P( c < T i ) + P( c > T s ) = Φ ,67 2,46 +1 Φ Folosind tabela valorilor lui $ Φ, rezultă $ δ 0, ,67 2,46 Concluzie: Statistica arată că 43% din cabluri sunt defecte și nu trebuie montate. Se recomandă furnizorului de cabluri să taie mai bine cablurile, pentru a respecta specificațiile și toleranțele admise. Bineînțeles, nu se spune aici nimic despre calitatea materialelor sau a procedeului de fabricație. Dăm încă un exemplu edificator, privind controlul respectării normelor pentru măsuri și greutăți (mase). Exemplu: Presupunem că se cumpără tablă de aluminiu. Masa netă afișată este de 100 kg. Dacă masa reală este mai mare, cumpărătorul nu se plânge, dar, altfel, se consideră păcălit. Vânzătorul afirmă că îi este imposibil să verifice sistematic toate pachetele. Împachetarea se face mecanic, iar mașinile se pot deregla, apărând de exemplu, variații de planeitate sau defecte la capete. Lumea, rezonabilă, cumpărători și vânzători, acceptă testul asupra mediei. Presupunem că masa netă X este o v.a. $363
364 σ = 4 $ X N m, σ. Atunci pentru m=102 kg și $ kg, avem $ P( X < 100) = Φ. 2 = Φ( 1) = 1 Φ( 1) 0,17 Întrebare: Cum se interpretează acest rezultat? Răspuns: Dacă furnizorul are în vedere o masă medie de 102 kg, probabilitatea ca el să-și înșele clienții (adică să pună în vânzare tablă cu masa sub 100 kg) este 0,17, deci 17% din ce se pune în vânzare este în defavoarea clientului. Notă: În țările avansate, există o lege pentru măsuri și greutăți, care protejează atât consumatorul/clientul cât și furnizorul/fabricantul. De exemplu, în Australia, condamnarea furnizorului se aplică dacă la control, 12 produse luate la întâmplare dau o medie inferioară masei anunțate de consumatorul care a reclamat. Probabilitatea ca un eșantion de 12 pachete să aibă media $ x < 100 este $ P( X < 100) Φ. (Am aplicat faptul că ,04 $ X N m, σ n, conform relației (9) din paragraful 4.4). Deci condamnarea furnizorului se face mai greu! Un efect al legii menționate este acela de a face fabricantul conștient asupra controlului calității; periodic, acesta trebuie să elaboreze teste de ipoteze asupra masei medii, să-și revizuiască mașinile etc. În exemplul anterior, dacă fabricantul obține în medie m=101 kg într-un eșantion de 36 pachete, atunci $ P( X < 100) Φ , deci în 6,7% din cazuri, ,067 clientul este defavorizat. $364
365 Fișe de control Un adevăr axiomatic spune că pentru a fi competitiv pe piață trebuie să produci bunuri și servicii de înaltă calitate, la prețuri neexagerate. Pe cei care nu știu să coreleze valoarea produselor sau serviciilor cu prețul, viața îi aduce curând la realitate. În cazul unor procese inginerești mai complexe, se pune problema monitorizării unor procese, pentru a se asigura că unul sau mai mulți parametri tehnici rămân în vecinătatea valorilor scop, cerute de calitatea prescrisă. Există mai multe modalități de a realiza un astfel de deziderat: - să-i lăsăm pe clienți să se păzească singuri (ceea ce merge un timp, pentru cei care țin la onoare!); - să inspectăm totul (ceea ce poate conduce la costuri enorme); - să visăm (utopic!) la procese perfecte; - să realizăm o monitorizare prin eșantionare, cu aplicarea de metode statistice adecvate. S-a impus ultima modalitate, prin care inginerii au creat și au condus procese prin care se detectează momentele când are loc o distanțare de standardele de calitate proiectate. Astfel, s-a ajuns la elaborarea fișelor de control. Acestea sunt cartele care descriu procesele urmărite, indicând limitele/momentele de intervenție și de toleranțe, ca și abateri de la standarde. Definiția 8.3: Se spune că un proces este aflat sub control dacă este stabil, previzibil, repetabil și robust. Fixăm un parametru semnificativ al procesului și notăm cu $ µ t =media acelui parametru până la momentul t. Presupunem că [ ] µ 0 t 1 pe un interval $ t 0, t 1 media este $ și că la momentul $ apare o modificare în proces care face ca media parametrului să capete o valoare $ µ 1 µ 0. La un moment ulterior, $ t 2, după ce inginerul de $365
366 $ serviciu a fost avertizat, începe ac#iunea de corectare a procesului (figura 8.8). Figura 8.8. Scopul controlului statistic CSC este acela de a sesiza momentul $ de comutare, prin monitorizare!i analiz" a t 1 produsului la ie!ire. Un punct important în teoretizarea CSC l-a constituit introducerea în 1931, de c"tre inginerul american W. Shewhart, a fi!elor de control, la confluen#a Ingineriei tehnologice cu Statistica aplicat". El a descoperit variabilitatea unor procese industriale, a introdus intervalele de toleran#"!i a atras aten#ia c" variabilitatea datelor #ine de context, iar datele con#in nu numai un semnal util, dar!i "zgomot" aleator, iar acestea trebuie separate. Pe fi!ele de control se înregistreaz" un e!antion al produsului (de exemplu, la fiecare 30 minute, la fiecare or" sau la 4 ore, dup" caz)!i prin senzori sau prin analiza direct", operatorul uman testeaz" dac" procesul se deruleaz" în standarde sau în afara acestora. În acest mod, se localizeaz" zonele de variabilitate normal" a parametrilor!i apari#ie a factorilor de perturba#ie a procesului urm"rit. Fi!ele de control pot utiliza m"rimi fizice (de exemplu, lumini, mase, concentra#ii etc., privite ca indicatori de calitate!i ca v.a. repartizate normal). Fi!ele se pot referi!i la entit"#i 366
367 aleatoare exprimate în numere întregi, asimilate ca v.a. discrete repartizate binomial sau Poisson (de exemplu, num!r de accidente pe lun!). Presupunem c! $! este un parametru urm!rit "i $!! x 1,..., x n, un estimator bazat pe e"antionare (conform paragrafului 4.4). Atunci $ z = ˆ!!! este o v.a. normal! normat!,! ˆ "! unde $ " =! n, n fiind volumul e"antionului. Fie $! 0 valoareascop, în sensul c! dac! $! =! 0, atunci procesul se afl! sub control. Dac! $! se dep!rteaz! de valoarea $! 0, procesul nu se mai afl! sub control (conform defini#iei 8.3). În majoritatea situa#iilor, se utilizeaz! limite de control inspirate de "regula 3$! " (corolarul 3 al teoremei 4.2), luând limita de control inferioar! LCI "i respectiv cea superioar! LCS, definite prin LCI =! 0! 3"! ˆ ; $ LCS =! 0 + 3"! ˆ. (13) Dac! parametrul $! este men#inut în intervalul [LCI, LCS], atunci se consider! c! procesul se afl! sub control. Se poate de asemenea introduce un interval de încredere pentru $!, cu un anumit prag de semnifica#ie, a"a cum am ar!tat în paragraful 4.4. O fi"!/cartel! de tip Shewhart arat! simbolic ca în figura 8.9, unde!µ este devia#ia procesului fa#! de standard. Figura 8.9 $367
368 Exemple: 1) În realizarea circuitelor integrate se utilizează plachete (wafer, în engleză) de siliciu în loturi de 31, cu grosime de 244$ µ m. Mărimea observată este y=grosimea. Pentru a monitoriza acest proces, se iau câte n=5 plachete din fiecare lot. Pentru a monitoriza dispersia procesului, se recomandă R - fișele de control (litera R provine de la termenul "range"$ domeniu). Pentru eșantionul i, domeniul este $ =amplitudinea respectivă, adică diferența dintre cea mai mare și cea mai mică valoare observată din cele 5. Notând $ y i n =cea de-a j-a valoare în eșantionul i, $ =cea mai mare valoare și $ =cea mai mică valoare în eșantionul i, atunci $ R i = y i( n) y i( 1) (ca măsură a variabilității procesului). Statisticienii și inginerii au elaborat tabele cu prelucrarea acestor date, presupuse repartizate normal. Fie $ = valoarea-scop (ca medie a valorilor $ ) și abaterea medie pătratică $ σ = ρ 0 d n, unde $ d n este o constantă depinzând de n. Se recomandă atunci y ij y i( 1) ρ 0 $ LCI = ρ 0 3d n ρ 0 = ρ 0 1 3d n și $. Se notează $ D 3 = 1 3d n și $ D 4 = 1+ 3d n, cu valori tabelate R i R i LCS = ρ 0 ( 1+ 3d n ) $ $ 3 0 3, , ,076 1, ,283 1, ,415 1,585 În cazul exemplului, n=5 deci D 3 = 0 și D 4 = 2,114, deci LCI=0 și LCS=2,114$ $368 ρ 0 r D3 D4. La începutul alcătuirii R-fișei, nu se
369 cunoaște $ și ca atare este nevoie de o estimare pe baza istoriei ρ 0 procesului, sau prin experiment statistic, observând procesul în m pași și luând $ ρ 0 1 m R R 1 m. Să presupunem că s-au observat m=12 pași și s-au obținut datele următoare: Atunci $ ρ 0 1 deci LCI=0 și LCS=2,114$ 11,12$ 23,51. Să presupunem că, în continuare, pentru datele observate în eșantioanele m=7, 8, 9, 10, 11, 12 s-au obținut valorile $ =11, $ R 8 =7, $ R 9 =10, $ R 10 =9, $ R 11 =8, $ R 12 =10 deci $ ρ 1 9,17 etc. Se poate atunci trasa graficul din figura 8.10, care este o linie poligonală care unește punctele de coordonate (i, $ 1 i 12. yi1 yi2 yi3 yi4 yi5 Ri i= = i= i= i= i= i= i=7 11 i=12 10 = 11,12 R i R 7 ), pentru $369
370 Figura 8.10 Chiar acest grafic este numit fi!" de control; el red" variabilitatea procesului de producere a plachetelor. 2) Fi!ele de control se pot utiliza pentru a monitoriza!i alte variabilit"#i; de exemplu, num"rul de accidente auto sau de accidente de munc" într-un anumit interval de timp (trimestru, semestru) sau num"rul de neconformit"#i cu modelele standard. Fix"m intervale de timp 1, 2, 3,..., i,... (de exemplu, trimestre)!i fie X = num"rul de accidente de munc" dintr-o mare uzin". Aceasta este o v.a. repartizat" Poisson, având valorile $ X 1, X 2,..., X i,... unde $ = num"rul de accidente în trimestrul i. X i Dac" $! = MX (num"rul mediu de accidente), atunci DX =$! (conform teoremei 3.3); parametrul $! se determin" cu aproxima#ie prin experiment statistic, pe baz" de e!antioane. Statisticienii recomand" pentru limitele de control valorile LCI =$! 3!!i LCS =$! + 3! (inspirate din "regula 3$! " de la reparti#ia normal"). De exemplu, s" presupunem c" pe parcursul a trei ani, în cele 12 trimestre, s-au ob#inut urm"toarele numere de accidente: 6, 5, 10, 8, 4, 7, 7, 6, 7, 6, 7,
371 6,3 LCI = 1,2 Atunci $ λ 1 deci $ (se va lua LCI=0) și LCS=13,8. Așadar, dacă numărul de accidente de muncă va fi situat între 0 și 14, se consideră că situația se află sub control. Faptul că numărul de accidente a scăzut este un indiciu că în acea uzină s-a îmbunătățit protecția muncii Fizică și Statistică În acest paragraf, vom prezenta doar câteva aspecte ale mariajului științific între două domenii vaste. Există chiar un domeniu specific Fizică statistică, iar Mecanica cuantică a fost și este un teren de manifestare deplină a raționamentelor de tip statistic. În Capitolele 1 4, am folosit limbajul matematic al probabilităților câmpuri de probabilități (discrete sau continuale), variabile aleatoare (v.a.), funcții de repartiție, densități, testări de ipoteze etc. În Fizică și Inginerie, limbajul "riguros" este adeseori părăsit, fără a vicia adevărul științific, adoptându-se o abordare mai directă, apropiată de intuiție și fără multă formalizare. Vom relua noțiunile de bază cu notații mai sugestive, legile de repartiție cu noi aplicații și vom arăta, prin exemple sugestive, cum sunt utilizate T.P. și Statistica în mod decisiv. Notații utilizate în Fizică și Inginerie Pentru o v.a. X=poziția unei particule pe o axă sau valoarea unei mărimi fizice, tehnice sau economice, cu valori "pe sărite" $ x 1, x 2,..., x n se asociază matricea de repartiție $ X x x... x 1 2 n. p 1 p 2... p n, p k k = 1 $371
372 Media ei este $ MX = x k p k și aceasta este de asemenea notată, după caz, X $, E[X], m, $ µ sau $ X. Momentul d $ DX = VarX = M X X e ordin q este $ v q = M X q și momentul centrat de ordin q este $ µ q = M X m și $. Apoi, $ µ 2 =dispersia lui X, notată și. Numărul pozitiv $ σ = DX este abaterea medie pătratică, numit și deviația standard sau incertitudinea asupra lui X. Dacă X este o v.a. continuală (cu valori într-un interval), atunci se consideră densitatea de probabilitate $ p x. Δx P ( x < X x + Δx ); x! Integrala $ este notată simplu. Atunci p(x) 0 și $ p x dx = 1. Se redefinesc: k 2 = k ( x k m) 2 pk = v 2 ( v 1 ) 2 = X q q = k ( x k m) q pk ; µ 0 = v 0 = 1 v 1 = m = lim Δx 0 1 media m $ = MX = X = xp( x) dx, v$ q = x q p( x)dx, dispersia DX $ = µ 2 = VarX = ( x m) 2 p( x)dx și incertitudinea $ σ = DX, în ipoteza că integralele respective sunt finite. b Integrala $ p x dx este probabilitatea ca valorile v.a. X să a aparțină intervalului I = [a, b]. Această integrală se notează P(I). Funcția de repartiție a lui X este F(x)=P((, x])=p(x x). Se poate arăta că dacă $ X 1, X 2 sunt v.a. independente având densitățile de probabilitate $ p 1, p 2, atunci suma $ X 1 + X 2 are densitatea convoluția $ p 1 p 2. $372
373 $ $ $ [Reamintim că (p $ 1 p 2 ) x ( x u) p 2 ( u)du ]. De exemplu, dacă $ X 1, X 2 sunt repartizate Poisson sau Gauss, la fel este suma lor. Dacă $ X 1, X 2 sunt două v.a., se poate considera vectorul aleator 2 dimensional X=$ X1, X2 și se definește densitatea comună de probabilitate: iar funcția de repartiție este F$ X x 1, x 2. Dacă A este un eveniment, atunci se definește funcția de repartiție a vectorului X condiționată de A; anume, $ F X A și densitatea de probabilitate condiționată de A, anume $ p X A. x 1 x 2 Pentru orice mulțime $ B! 2 având arie, avem că: $ P( X B) = p( x 1, x 2 ) dx 1 dx 2. Covarianța este = p 1 1 p( x 1, x 2 ) = lim Δx1 0, Δx 2 0 P( x 1 < X 1 x 1 + Δx 1, x 2 < X 2 x 2 + Δx 2 ) Δx 1 Δx 2 ( x 1, x 2 ) = P( { X 1 x 1, X 2 x 2 } A) B Dacă X, Y sunt independente, atunci p(x, y)=p(x)$ p(y) și C[X, Y]=0. = P( X 1 x 1, X 2 x 2 ) = 2 F( X A) Dacă X, Y sunt două v.a. și p(x, y) este densitatea comună de probabilitate (definită anterior), atunci media unei v.a. de forma $ Z = ax n Y m + bx p Y q ($ a, b! constante și m, n, p, q întregi), este: MZ = ( ax n y m + bx p y q ) p( x, y)dxdy = am( X n Y m ) + bm( X p Y q ). cov( X, Y ) C[ X, Y ] = x X ( y Y ) p( x, y)dxdy = ( y Y ) = XY X Y. = x X $373
374 Pentru orice două v.a. X, Y, D(X+Y)=D(X)+D(Y)+2C[X, Y] și, dacă a, b sunt constante reale, atunci D(aX+bY)=$ a 2 DX+$ b 2 DY+2abC[X, Y]. Mai general, = a k 2 n $ D a k X k, iar k=1 DX k k + k 2a j j a k C X j, X k dacă $ sunt independente între ele, atunci X k 2 = a k k $ D a k X k DX k. APLICAȚIE: (inegalitatea lui Heisenberg a incertitudinii) Considerăm o particulă pe axa reală. Dacă A este un interval (sau o reuniune de intervale), notăm cu P(A)=probabilitatea ca particula să fie situată în A. Dacă A este un interval infinitezimal $ x dx, atunci $, 2, x + dx 2 P( A) p( x)dx unde p(x) este densitatea de probabilitate a poziției X a particulei pe axă. În Mecanica cuantică, dacă $ ψ x este o funcție de undă normalizată, atunci $ ψ x are valori între 0 și 1 și $ este o densitate de probabilitate a poziției X a unei particule pe axa reală, deci $ p( x)dx = P x dx. În acest caz, dispersia 2, x + dx 2 poziției este DX $ = Δx și $ este incertitudinea. În mod similar, incertitudinea impulsului p este p=$ Dp, unde Dp=$ p p. k 2 p( x) = ψ ( x) 2 2 = X X 2 2 σ = Δx $374
375 $ 1 x2 În cazul funcției de undă $ ψ ( x) = 4 2 π exp, a a 2 cu a > 0 constant, avem $ ψ ( x) 2 = 2 π 1 2x2 exp și a a 2 ψ x 2 dx = 2 π 1 a $ = 2 π 1 a e t 2. a 2 dt = 1 exp 2x2 a 2 dx = Așa cum este cunoscut, în acest caz, $ Δx = a și $ Δp =!. 2 a Heisenberg a demonstrat că, în general, $ ΔxΔp!. 2 Formula lui Bayes Ideea a fost următoarea: presupunând cunoscută probabilitatea P(A) a unui eveniment (numită apriorică), dorim să determinăm probabilitatea lui A după ce s-a produs un alt eveniment B (numită aposteriorică). Pentru aceasta, se poate = P( B A) P A aplica formula simplă $ P A B. P B În Capitolul 2, propoziția 2.3, am demonstrat formula probabilității totale. În particular, aceasta se aplică sub forma: $ P( A) = P( A H ) P( H ) + P( A H ) P( H ). Exemplu: Fie A = evenimentul "o piesă este defectă" și B = evenimentul "un test afirmă că o piesă este defectă". Atunci $ P B A este probabilitatea ca testul să afirme că o piesă este defectă după ce piesa este defectă și $ P B A = probabilitatea ca testul să afirme că piesa este defectă după ce, de fapt, ea nu este $375
376 defectă. Să presupunem că P$ A, $ și = 0,02 $ P B A. Atunci $ = 10 3 P B A P( B) = P( B A) P( A) + P( B A) P( A) = $ = 0,99 0,001+ 0,02 0,999 0,021. 0,99 0,001 Atunci $ P( A B) = 0,047. 0,021 = 0,99 Așadar, chiar dacă testul greșește în a detecta o piesă defectă în 1% din situațiile când piesa este defectă și afirmă că piesa este defectă când ea nu era defectă în 2% din cazuri, testul este corect doar în 4,7% din cazurile când el afirmă că produsul este defect. Acest exemplu ilustrează un fenomen statistic important: dacă o situație este rară, un test de mare acuratețe poate da un răspuns greșit! Aceasta se întâmplă datorită probabilităților mici ale pieselor defecte. Formula Bayes are și o variantă continuală; anume, dacă un eveniment A este reuniunea disjunctă a evenimentelor $ B i, 1 i n și dacă X este un vector aleator cu densitatea comună p X de probabilitate $, atunci n $ p X = p X ( X B i ) P( B i ). (14) i=1 De asemenea, are loc formula Bayes similară formulei (10) din Capitolul 2: "Dacă X este o v.a. și A un eveniment, atunci P( { X = x} A) p( x) $ P( A { X = x} ) = sau, pe scurt, P( { X = u} A) p( u)du $376 P( x A) p( x) $ P( A, x) =." (15) P( u A) p( u)du
377 La un scrutin pentru alegerea unui primar din doi candidați $ f 1, f 2, se realizează în prealabil un sondaj de opinie cu 5 votanți prezumtivi. Fie v.a. X = numărul de voturi ("succese") date lui $ și evenimentul A = participare la vot cu probabilitatea de succes x. f 1 Atunci $ P X = 3 A este probabilitatea ca $ să primească 2 P 3 A 3 voturi din 5, egală cu $ C 3 5 x 3 1 x, deci $. În ipoteza că distribuția voturilor este uniformă, atunci [ ] p(x)=1 pentru $ x 0, 1 și, conform formulei (15), 2 2 du 10x $ P( A x) 3 1 x = 1 = 60x 3 ( 1 x) 2. 10u 3 1 u 0 Probabilitatea "naivă" ca $ să câștige alegerile este 3 $, dar cea teoretică este $. 5 = 0,6 1 P ( A x 1 ) dx 0,66 2 = 10x 3 1 x Câteva legi teoretice de repartiție Folosind notațiile uzuale din Fizică, trecem în revistă legile studiate matematic în Capitolul 3 și în paragraful de Completări la partea I. Repartiția binomială (Bernoulli) Dacă probabilitatea unui succes într-un experiment cu doar două evenimente semnificative (A și $ A ) este p, atunci ne așteptăm ca în N repetări/încercări, pentru v.a. X = numărul de succese ($ X B p, N ), media să fie MX=Np, iar probabilitatea de a avea k succese, dar și N k insuccese, este $ p k q N k q = 1 p. C N k Există însă $ posibilități de a alege submulțimi cu k elemente ale unei mulțimi cu N elemente (deci k succese din N încercări) și atunci $ p k P X = k, pentru 0 k N; desigur $377 f 1 = C N k p k q N k f1 2
378 ! = p + q N p k=0 k N = 1. (16) Am v"zut (teorema 3.1 din Capitolul 3) c" pentru X!B p, N, avem MX=Np!i DX=Npq!i raportul incertitudine/ medie este $! MX = Npq Np = C, cu C o constant". N = C Exemple: 1) Se!tie c" un mol de gaz are N A! 6 "10 23 molecule (num"rul lui Avogadro). Dac" gazul s-ar afla într-un cub, atunci!ansa ca o molecul" s" se afle în jum"tatea stâng" a cubului este $ p = 1. 2 Num"rul mediu de molecule aflate acolo este $ p! N A " 3#10 23!i! incertitudinea este! = N A! p!q " 4 #10 11!i! 10 "12. N A 2) Dac" N=125!i p=0,2, atunci MX=25!i valorile $ p 0, p 1, p 2,..., p 15!i p$ 60, p 61,..., p 125 sunt neglijabile (figura 8.11,a); apoi $ max k p k = p 25! 0,9. Iar dac" N=500!i p=0,2, atunci MX=100!i max k p k = p 100! 0,04 (figura 8.11,b). Figura 8.11 Aceste considera#ii (inclusiv "clopotul") i-au sugerat lui Gauss c" exist" o leg"tur" strâns" între reparti#ia binomial"!i reparti#ia normal". 378
379 Repartiția Poisson Această repartiție descrie probabilitatea de a avea k evenimente într-o anumită unitate de timp u.t. (minut, oră, zi,...), dacă rata lor medie este $ λ ev./u.t. Divizăm u.t. în N segmente (cu $ N 1 ) și pentru fiecare segment, probabilitatea de a avea două evenimente în acel segment este neglijabilă. Dacă $ p = λ N, atunci probabilitatea de a avea k evenimente ("succese") este, conform Bernoulli și aplicând formula lui Stirling ($ n n! 2πn ): e = C N k p k q N k = Np $ P X = k q N k R (unde pentru k fixat k! și $ N, rezultă $ R 1 ). Deci pentru N$ 1, P X = k n k Np k q N k. Notăm $ Np = λ, deci q$ N k = ( 1 p ) N k = 1 λ N ; pentru 1 λ N $ N, r e z u l t ă c ă lim $ N q N k = e λ ș i, c a a t a r e, λ k $ P X = k. Acest raționament i-a sugerat lui Poisson să k! e λ definească repartiția care îi poartă numele (Capitolul 3, teorema 3.3), cu MX=$ λ și DX=$ λ. Deoarece pentru $ N 1, p = λ N, este "mic", repartiția Poisson este numită și "legea evenimentelor rare mesaje Internet, apeluri telefonice, îmbolnăviri de boli necontagioase etc. Repartiția normală (Gauss) Dacă X$ B p, N, pentru p fixat și N$, Gauss a demonstrat că pentru orice întreg 0 k N 1, probabilitatea P(X=k) $379 N k! k
380 $ dată de formula (16) este "foarte mică" pentru k depărtat de Np, așa cum sugerează figura 8.11; mai precis, el a stabilit următoarea formulă asimptotică: 1 k Np $ P( X = k) exp. (17) 2π Npq 2Npq Extinzând această formulă la variabila continuală X, a introdus funcția distribuție de probabilitate pentru o v.a. X, având media MX=Np și dispersia DX=$ σ 2 = Npq, anume 1 x Np $ p( x) = exp, ajungând la faimoasa 2π Npq 2Npq 1 expresie $ p( x) =. σ 2π exp x m 2σ 2 Aceasta a fost introdusă matematic în Capitolul 3 (definiția 3.7), ca un Deus ex machina", ca densitate de probabilitate a unei v.a. $ X N m, σ. Folosind funcția Laplace $ ca funcția de repartiție a unei v.a. din clasa N(0, 1) și funcția erorilor erf, am văzut în paragraful 8.1, formulele (2) și (3) de legătură între $ Φ și erf și am arătat că, dacă $ X N m, σ, atunci pentru orice a, b, a < b, Φ P( X [ a, b] ) = P( X ( a, b) ) = Φ b m σ Φ a m σ = = 1 2 erf b m a m σ 2 erf σ 2. Funcțiile erf și $ Φ sunt funcții intrinseci în aplicațiile de calculator MATHEMATICA, MATLAB sau MAPPLE. Exemplu: O v.a. $ X B p, N poate fi asimilată cu o v.a. din σ = Npq clasa $ N m, σ, unde m=nk și $. Atunci pentru orice $380
381 $ k 0 întreg, probabilitatea P(X=k) este dificil de evaluat și folosim un artificiu: = P X k 1 2, k P X = k = k + 1 = Φ 2 Np k 1 Npq Φ 2 Np Npq. Dar se poate aplica direct formula (17). De exemplu, presupunem că într-un sondaj de opinie, la alegeri cu doi candidați $ f 1, f 2 cu 1000 de votanți, 600 au zis "DA" pentru$ f 1 deci $ p = 600. Dacă X = numărul de voturi favorabile lui $, 1000 = 0,6 f 1 2 atunci $ P( X = k) 0,03 exp k APLICAȚII I. Distribuția Maxwell - Boltzmann Urmărim modul cum, utilizând raționamente statistice, Maxwell a stabilit celebra sa lege de repartiție pe viteze a unui gaz monoatomic cu N molecule, lege completată ulterior de Boltzmann. Considerăm deplasarea pe o axă Ox a unei singure molecule, lovite longitudinal de celelalte molecule, cu aceeași probabilitate. Dacă fiecare coliziune îi crește sau îi scade viteza cu v, atunci, după n colizini din spate și N n coliziuni din față, v x viteza $ a unei molecule plasate în punctul x al axei, aflate inițial în repaus, va fi $ v x = nδv ( N n)δv = ( 2n N )Δv. (18) Numărul de coliziuni este o v.a. repartizată binomial cu N+1 stări (starea inițială și starea fiecăreia din cele N molecule) și $381
382 parametrul $ p = 1 (probabilitate de "succes" fiind cea de ciocnire 2 din spate sau din față). Atunci, conform formulei (17) 2 $ P( N = n) = exp ( 2n N )2. (19) π N 2N Dar conform (18), $ 2n N = v x Δv deci 2 2 $ P( N = n) =. (20) π N exp v x 2N Δv 2 [Același raționament se poate aplica la orice variabilă fizică supusă unor fluctuații aleatoare nedeplasate/centrate]. Notăm m = masa unei molecule, deci produsul Nm este masa intregului gaz și conform formulei lui Boltzmann, 2 $ NmΔv 2 = kt, așadar $ și $. π N = 2mΔv2 2 v x πkt 2N Δv = v 2 x m 2 2kT Ținând cont că $ Δv x = 2Δv, rezultă m $ P( N = n), (21) 2πkT exp mv 2 x 2kT Δv f v x ( x ) Δv x 1 2 unde $ f ( v x ) = 1 este funcția densitate π m 2kT exp mv 2 x 2kT de probabilitate a numărului de molecule cu viteza cuprinsă între $ v x și v$ x + Δv x. Extinzând acest raționament la cazul 3D și presupunând independența comportării moleculelor pe cele trei axe, cu vitezele $ v x, v y, v z și notând că $ v 2 = v 2 x + v 2 2 y + v z, se poate arăta că funcția densitate a moleculelor gazului cu viteze cuprinse între v și v + v este $ f ( v) = (22) π m 2kT v 2 exp mv2 2kT, v > 0 $382
383 $ Detaliile pot fi g!site de exemplu în [2]. Dup! calcule banale, viteza medie $ v "i viteza medie p!tratic! $ v 2 = v 2 sunt! $ v = vf ( v)dv = 8kT!m "i " 0 $ v 2! = v 2 # m &! # " f ( v)dv = 4!. 0 $ % 2!kT ' ( " v 4 exp ) mv2 & 0 $ % 2kT ' ( dv Apoi, integrând prin p!r#i,! $ $ " v 4 exp # mv2 ', de unde $. 0 % & 2kT ( ) dv = $ 2kT ' 8 % & m ( ) *! v 2 = 3kT m En passant, am dedus urm!toarea formul! fundamental!: TEOREMA 8.3. (Boltzmann): Energia cinetic! medie a moleculelor unui gaz este E c = mv 2 2 = 3kT 2 Apoi viteza v p., cea mai probabil!, este cea pentru care func#ia f(v) dat! de (22) este maxim! $ f ' v. Graficul lui f are forma indicat! în figura ( = 0) :v p = ( 2kT m) 1 2 $ $ Figura 8.12 A"adar, v v p = 2!! 1,13 "i v 2 v p = 3 2! 1,22. $383
384 Pe de altă parte, din Termodinamică se știe că Rm=k" µ (unde R=constanta universală a gazelor, k=constanta lui Boltzmann și $ µ =masa moleculară relativă). 1 2 = ( 2RT µ ) 1 2 Atunci $ k m = R µ și $ v p = 2kT m. Exemplu: Pentru azot la 0 C, avem R=8314 J/kmol.K și $ µ =28 kg/kmol, deci v$ p = m/s. Atunci $ v 1, m/s și $ v m/s. Notă: Întreaga masă de gaz poate fi, în mod idealizat, separată în două părți, cea în care vitezele moleculare sunt mai mici (respectiv mai mari decât viteza medie). Se formează astfel două "partide", ai căror membri schimbă sistematic partidul. De exemplu, folosind (21), se poate arăta că aerul atmosferic cu temperatura medie +15 C ($ 288 K) este un amestec permanent format din circa 61% molecule având temperatura medie 131 C și 39% dintre ele cu temperatura +241 C. Acest rezultat teoretic ar putea sugera că în surse monoterme de căldură se pot obține surse de căldură la temperaturi diferite, fără a încălca principiile I și II: primul pentru că energia totală a noilor surse este aceeași cu cea inițială și al doilea, deoarece neuniformitatea temperaturii surselor nu se creează, ci preexistă. Maxwell imaginase un "demon separator", fizic imposibil, dar problema separării menționate nu este închisă. II. Fenomenul difuziei O clasă importantă de fenomene fizice, care interesează nu numai Fizica, dar și Chimia, Medicina, Ingineria etc., o constituie fenomenele de transport, care înseamnă transfer de masă, energie, căldură, sarcini, ioni etc. Practic, toți agenții fizici din Univers participă la diverse fenomene de transport ireversibile și de natură statistică, relativ la mișcarea aleatoare a particulelor. $384
385 Astfel, în conducția termică are loc un transport de căldură; în difuzia moleculară, se realizează un transport de masă, în semiconductori un transport de sarcini electrice, iar în Medicină perfuziile. Difuzia este un fenomen de transport al unei mase de particule, prin care particulele unui corp pătrund printre particulele altui corp, trecând de la concentrații mai mari la concentrații mai mici. Difuzia diferă de convecție sau de osmoză ($ trecerea unui solvent printr-o membrană). Statisticienii privesc difuzia ca pe un random-walk (mers la întâmplare) al moleculelor sau particulelor. Exemplu: În cazul solidelor, difuzia se întâlnește în oțelării pentru a trata fierul topit prin difuzia controlată a carbonului. La realizarea semiconductorilor sau plachetelor semiconductoare, se difuzează controlat dopanți în siliciu sau germaniu, pentru a altera nivelul de conductivitate al materialului, cu formarea joncțiunii p n corespunzătoare. În Biologie, prin difuzie se transportă aminoacizi în celule; apoi oxigenul difuzează în sânge și CO2, în mediu. În 1855, fiziologul german A. Fick a stabilit legea difuziei: fluxul difuzat este proporțional cu gradientul concentrației, luat cu "minus". Există câteva legi similare: legea Fourier a conducției termice, legea lui Ohm, legea Lambert a radiației. Să considerăm un gaz cu N particule în mișcare aleatoare pe o axă, cu pasul x. După n pași în față și N n în spate, o particulă care pornește din poziția x=0 ajunge în x=(2n N) x, cu probabilitate dată exact de formula (19). Așadar, 2 $ P( N = n) =. π N exp x 2 2N Δx 2 $385
386 2 Notăm $ D = N Δx și obținem distribuția 2t $ P( x) =. 4π Dt exp x2 4Dt În cazul 3D, rezultă = P x $ P r! 3 2 1, t P( y) P( z) =. 4π Dt exp (r! ) 2 4Dt Această funcție satisface următoarea ecuație a difuziei: = D ΔP( r!, t) $. t P r!, t III. Modelul stocastic al Mecanicii cuantice Scopul Mecanicii cuantice îl constituie studiul constituenților elementari ai materiei și ai proceselor ale căror caracteristici sunt "comparabile" cu constanta lui Planck. Mărimile fizice ale căror valori pot fi măsurate experimental energia, impulsul sau spinul se numesc observabile. Deoarece entitățile microscopice nu se pot măsura direct, se apelează la dispozitive macroscopice de măsurat, rezultatele fiind v.a. Prezentăm în continuare cele 4 postulate ale Mecanicii cuantice (care constituie modelul von Neumann Dirac). Considerăm un sistem mecano cuantic $ Σ (de exemplu, un electron sau o familie de particule). Postulatul 1 afirmă că sistemului i se asociază un spațiu Hilbert complex H($ Σ ) și că stările sistemului se identifică prin subspații 1 dimensionale ale lui H($ Σ ). Comentariu: așadar, pentru orice două elemente $ ψ, ψ ' și pentru orice număr complex a, se definesc $ ψ +ψ ', aψ, produsul scalar $ $386 ψ, ψ ', cu proprietățile uzuale. A fixa o stare a sistemului
387 $ ψ revine la a fixa un vector nenul $ ψ 0 și a considera că pentru orice $ a!, nenul, stările $ ψ și $ aψ coincid. Dacă $ ψ 1,..., ψ k sunt stări, atunci orice combinație liniară $ este o stare (numită suprapunerea, superpoziția stărilor $ ψ 1,..., ψ k ). Postulatul 2 afirmă că dacă sistemul $ Σ se află în starea $ ψ ψ H ( Σ),ψ 0, atunci el trece într-o altă stare $ cu probabilitatea egală cu numărul cos $ 2! ψ, ψ 1, din intervalul [0, 1].! Comentariu: reamintim că măsura unghiului $ $ ( ψ, ψ 1 ) este definită prin $ arccos ψ, ψ 1 0, π. ψ ψ 1 k a j=1 j ψ j ψ 1 [ ] Dacă vectorii $ ψ și $ ψ 1 din spațiul Hilbert $ H Σ sunt ortogonali, atunci această măsură este arccos$ 0 = π și 2 probabilitatea de trecere este nulă, iar sistemul cuantic nu poate trece din $ ψ în $ ψ 1. Conform Postulatului 3, oricărei mărimi observabile, cu valorile măsurabile pe stările sistemului $ Σ, i se asociază în mod bijectiv (1 1) un operator autoadjunct $ f : H Σ, ale cărui valori proprii (totdeauna reale) reprezintă valorile obținute prin măsurarea observabilei respective; în plus, dacă $ ψ H Σ este un vector propriu al lui f, cu valoarea proprie $ λ, atunci prin măsurarea observabilei pe starea $ ψ se obține cu probabilitatea 1, tocmai valoarea $ λ. Comentariu: Dacă H este un spațiu Hilbert, un operator liniar $ f : H H se numește autoadjunct, dacă pentru orice H ( Σ) $387
388 $ x, y H, f ( x), y = x, f ( y). Un număr complex $ λ se numește valoare proprie a lui f dacă există un vector nenul x 0 numit propriu pentru f astfel încât $ f x. Se arată că dacă f este autoadjunct, atunci $ λ este real și că dacă $ λ, λ ' sunt valori proprii distincte, atunci vectorii proprii corespunzători sunt ortogonali. În practică, pentru un sistem cuantic concret $ Σ, îi revine fizicianului să deceleze spațiul H" Σ al stărilor și operatorii autoadjuncți asociați observabilelor studiate. Cea mai importantă mărime fizică observabilă este energia. Postulatul 4 afirmă că operatorul autoadjunct asociat energiei este hamiltonianul $ H : H Σ al sistemului $, ale cărui valori proprii (reale!) determină spectrul energetic al sistemului $ Σ ; în plus, dacă la momentul t=0 sistemul se află în starea $ ψ și dacă nu se fac măsurători asupra sistemului, atunci la orice moment t, s i s t e m u l s e v a a f l a î n s t a r e a $ ψ ( t) = exp i. Operatorul liniar $! th ψ este unitar (adică U$ ( t) U t ); relația $ este ecuația lui Schrödinger. [Pentru un operator f, exp(f) este operatorul $ 1+ f + 1 ]. 2! f ! f = λx Notă: Dacă spațiul H$ Σ are dimensiune finită și $ f : H Σ este o observabilă, adică un operator autoadjunct, cu valorile proprii (reale!) $ λ 1,..., λ n, atunci $ este suma directă a subspațiilor proprii V($ H ( Σ) Σ U ( t) = exp i! th = 1 ψ '( t) = 1! H ψ ( t) câte două (așa cum se știe din Algebra liniară). În plus, $388 H ( Σ) λ i H ( Σ) ), ortogonale două
389 $ n $ f = λ j p j, unde $ p j este operatorul de proiecție $ ψ!ψ j pe j=1 V($ λ j ). În completarea postulatului 2, în starea $ ψ cu $ ψ = 1, f ia n 2 valoarea $ λ j cu probabilitatea $ ψ, ψ j = ψ k, ψ j = ψ j ; k=1 în plus, $ n ψ j=1 j 2 = 1. Toate acestea justifică de ce suma n n 2 M ψ f = λ j ψ, ψ j = λ j ψ j j=1 se numește media observabilei f în starea $ ψ. În general, compusul a doi operatori autoadjuncți ai spațiului $ H Σ nu este autoadjunct; dar dacă ei comută, da. Dacă f este un operator autoadjunct și $ α!, atunci $ f 2 = f! f, f α 1 2 și $ f α 1 sunt autoadjuncți. În particular, pentru orice observabilă f, identificată cu un operator autoadjunct, atunci notând $ µ = M ψ f, se obține observabila $ g = f µ 1 și are sens dispersia valorilor lui f în starea $ ψ, ca fiind $ D ψ = M ψ g. În acest context, are loc următorul rezultat fundamental în Mecanica cuantică: TEOREMA 8.4 (principiul lui Heisenberg al incertitudinii): Pentru orice observabile f, g și pentru orice stare ψ = 1 $ ψ H Σ cu $, are loc inegalitatea: $ D ψ f D ψ g 1, 2 C( ψ ), ψ unde C=fg gf este comutatorul lui f și g. Acest model statistic a avut un impact deosebit în dezvoltarea Mecanicii cuantice statistice. j=1 2 $389
390 $ $ IV.Testul lui Kolmogorov În multe aplica#ii fizice sau tehnice, se pune problema identific"rii, adic" a în#elegerii structurii datelor statistice. Presupunem c" s-au produs n m"sur"tori macroscopice, pozitive, 1 & j & n!i dorim s" determin"m o reparti#ie teoretic" de care aceste date statistice se apropie. Este definit" astfel o v.a. discret" X având matricea de reparti#ie " x 1 x 2... x n % X! $ 1 1 n n... 1 ' # $ n & '!i func#ia ei empiric" de reparti#ie este $ x. În mod explicit, dac" $ x j < x < x j+1, atunci $ F e x (func#ie în scar"). Graficul acesteia este indicat în figura F e = P( X! x) = j n x j Figura 8.13 Ne propunem s" compar"m aceast" func#ie cu o alt" func#ie de reparti#ie G (cu graficul punctat)!i pentru aceasta, introducem distan#a Kolmogorov $ F e, G. D n = sup x!! F e ( x) " G( x) Pe m"sur" ce n cre!te!i dac" G este bine aleas", ne a!tept"m ca pentru distribu!ia empiric" (rezultat" din m"sur"tori), s" avem $ lim n!" D n = 0. Kolmogorov a ar"tat c" dac" G este func#ie continu", atunci pentru orice $ u! 0, avem 390
391 n k+1 $ lim n P n D n u e 2k 2 u 2. Seria din membrul drept este rapid convergentă și notând cu P(u) suma ei, valorile acesteia sunt date în tabelul următor: u 0,2 0,4 0,6 0,8 1,0 1,2 1,4 2 P(u) 1,000 0,997 0,864 0,544 0,270 0,112 0,040 0,001 În general, P$ u = 2 1 k=1 2 e 2u2 e 8u2. Dacă valoarea P(u) este "mică", atunci este foarte probabil ca $ n D n u, deci $ D n u și ipoteza că $ F e și G sunt "apropiate" trebuie admisă. n Iar dacă P(u) este "mare", atunci este probabil ca $ D n u și n F e funcțiile de repartiție $ și G sunt îndepărtate și trebuie aleasă altă funcție de repartiție pentru comparație. Testul lui Kolmogorov este mai simplu de aplicat decât testul hi pătrat de potrivire al lui Pearson (prezentat în Capitolul 4, paragraful 4.5). Generare de numere aleatoare În unele situații, se recomandă utilizarea unor șiruri (finite) de numere aleatoare, care apar ca valori ale unor v.a. X având densitatea de probabilitate p(x) continuă. Dacă F(x) este funcția de repartiție respectivă, presupusă strict crescătoare și dacă Y este o v.a. repartizată uniform în intervalul [0, 1], atunci v.a. $ F 1 Y are densitatea de probabilitate ( x) = P Y F( x) p(x);$ P F 1 Y. Dacă $ y 1,..., y n,... sunt numere aleatoare din intervalul [0, 1], atunci F$ 1 ( y 1 ),..., F 1 ( y n ),... sunt numere aleatoare care ascultă de legea de repartiție a lui X. $391
392 Exemplu: O v.a. X se numește repartizată Cauchy dacă are densitatea de probabilitate $ de repartiție respectivă este $ și notând$ y = F X x, rezultă $, cu $. y ( 0, 1). Funcția Dacă ( $ y n ), n 1 sunt numere aleatoare, repartizate uniform în intervalul [0, 1], (orice computer are un generator de astfel numere aleatoare!), atunci $ x n = tg π y n π vor fi numere 2 aleatoare repartizate Cauchy. p :!!, p( x) = 1 π 1 1+ x 2 F X x = tg π y π 2 ( x) = p( x) dx = 1 π arctgx + π 2 $392
393 Motto: The huger the mob and the greater the apparent anarchy, the more perfect is the sway. Whenever take a large sample of chaotic elements, an unexpected and beautiful form of regularity proves to have been latent all along. Sir Francis GALTON CAPITOLUL 9: APLICAȚII ÎN STATISTICA SOCIALĂ 9.1. Sondaje de opinie Sondajele de opinie reprezintă un instrument prin care se cer părerile membrilor unor comunități în privința unor politici globale sau locale, a unor legi, decizii cu impact socio economic, înțelegerea pieții și îndeosebi, a intenției de votare. Desigur, prin sondaje nu se iau decizii, dar ele pot modifica unele tendințe și pot conduce la căutare/găsire de soluții. Atitudinea combativă nu ajută, după cum simpla alegere DA/NU nu are valoarea unei argumentări. Sondajele pot să fie sau nu în timp real, pot avea sau nu răspunsuri multiple (de tipul: nemulțumit, mulțumit, foarte sau destul de mulțumit etc.). În continuare, pe baza rezultatelor din partea I, vom aborda doar problema sondajelor dichotomice (cu răspuns binar DA/NU, SUCCES/INSUCCES, 1 sau 0). Începem prin a aminti teorema lui Moivre Laplace (corolar 3 al TLC din paragraful 4.2): Dacă se consideră n repetări de experimente Bernoulli independente cu parametrul p și dacă se notează cu S$ n numărul succeselor (probabilitatea unui Sn succes fiind p), atunci $ np tinde către o v.a. din clasa N(0, 1), npq pentru $ n. $393
394 Ca atare, conform relației (3) din paragraful 4.2, pentru orice a < b și pentru # n 1, # P a S np n. (1) npq b 1 e t 2 b 2 2π dt a Notând cu # Φ funcția lui Laplace a erorilor (# funcția de repartiție a oricărei v.a. # X N(0, 1)), atunci, pentru orice a < b și orice # X N(m, σ ), # P a X b (2) σ Φ a m σ Φ b m Aceasta este formularea miracolului lui Gauss (teorema 4.2 din Capitolul 4). Să considerăm acum o populație statistică de N persoane cărora le cerem opinia într-o anumită chestiune: ce televiziune preferă, ce partid, ce echipă de fotbal, ce candidat la primărie, ce senator etc. Nu toată populația poate fi consultată și atunci se realizează un sondaj de opinie pe un eșantion de persoane, alese la întâmplare, independente, din medii, vârste, cartiere și regiuni diferite. Pentru simplificare, presupunem că opinia este binară și fixăm un singur obiectiv alegerea primarului (dintre doi candidați). Algoritmul de mai jos se poate extinde sau se poate folosi pe perechi. Presupunem că eșantionul cuprinde n persoane chestionate (cu # n N ) și că m persoane spun DA (# succes) pentru unul din candidați, înainte de alegerile propriu-zise! Probabilitatea de succes este # p = m n. Acesta este primul pas al sondajului de opinie. Notăm votanții cu # x 1, x 2,..., x n,... și pentru fiecare votant # x k, notăm cu # X k rezultatul votului său. Așadar, # X k este o v.a. #394
395 $ discretă, cu valoarea 1 în caz de succes (adică a intenției de vot DA) și 0 în caz contrar. Matricea ei de repartiție este $ X k 1 0, unde q = 1 p. p q 2 Evident MX $ k = p și DX $ k = M X k, pentru orice k 1. V.a. $ X k se consideră independente și repartizate la fel. Recunoaștem aici o schemă Bernoulli cu parametrul p. Numărul total de votanți este N și notăm S$ N = X X N. Fiecare valoare a lui $ fiind 1 sau 0, rezultă că valoarea lui $ este egală cu numărul de 1 uri, deci $ MS N = MX k = Np și $ DS N = DX k = Npq D. Ca atare, și conform relațiilor (1) și (2) pentru orice a, b și $ N 1, $ P a S Np N, Npq b Φ( b) Φ( a) adică N k=1 X k $ P Np + a Npq S N Np + b Npq. Înlocuind a cu b, rezultă: PROPOZIȚIA 9.1: MX k S N Np Npq = X X Np 1 N N ( 0, 1) Npq 2 = p p 2 = pq $ P Np b Npq S N Np + b Npq (3) Aceasta poate fi numită formula fundamentală a sondajelor binare de opinie. Statistica recomandă ca în locul condiției imprecise $ n 1, să se îndeplinească inegalitatea npq>30. Menționăm că N este numărul tuturor votanților înscriși pe liste (nu doar volumul Φ b Φ b N k=1 Φ( a) Φ( a) S N $395
396 eșantionului!) și că # este numărul votanților care declară că votează DA, cu speranța că nu își vor schimba opinia în ziua votului. Din tabela de valori ale funcției # Φ (Anexa 1), extragem următoarele valori : Dacă dorim ca sondajul să se realizeze cu eroare sub 1%, atunci # α = 1 = 0,01 considerăm relația # 2Φ( b) 1 = 1 α deci 100 # Φ b și conform tabelei anterioare, #. Atunci conform relației (3), rezultă # P Np 2,58 Npq S N Np + 2,58 Npq. (4) Dacă eroarea este sub 3%, atunci # α = 0,03, 1 α =0,97 și # 2Φ b deci # și cu aproximație, b = 2,17 deci # P Np 2,17 Npq S N Np + 2,17 Npq. (5) Algoritmul sondajelor binare Pasul 1. Pregătirea chestiunilor sondate (dialogul social cu cetățenii). Pasul 2. Fixarea unui eșantion aleator reprezentativ pentru # n 1 persoane. Pasul 3. Determinarea numărului m de persoane care spun DA înaintea votului, sub rezerva răspunsului sincer (care să nu difere de răspunsul din ziua votului). Pasul 4. Determinarea parametrului # p = m și îndeplinirea n condiției npq > 30. S N z 0 1 1,96 2 2,17 2,58 3 Φ( z) #396 0,500 0,841 0,975 0,977 0,985 0,995 0,999 = 0,995 b 2,58 0,99 1 = 0,97 Φ( b) = 0,985 0,97
397 Pasul 5. Fixarea erorii sondajului. Dacă eroarea este sub 1 = 1 r Φ( b) r%, atunci $ 2Φ b ; se determină $ și din tabelă, se determină b. Pasul 6. Se aplică formula (3) și se interpretează rezultatul obținut, ce dă estimarea numărului de persoane care votează DA. Exemplu: Presupunem că la alegerea primarului orașului București, între doi candidați s-a realizat un sondaj de opinie cu eroare anticipată de 3%. Presupunem că s-a considerat un eșantion de n=5000 persoane (din cei N= votanți prezumtivi) și că m=2800 au spus DA pentru unul din candidați. Așadar, probabilitatea de succes este $ p = ,56 ; avem npq $ = ,56 0, Aplicând formula (5) rezultă cu probabilitate 0,97 (deci eroare sub 3%), că numărul celor care ar vota DA este cuprins în intervalul de capete $ Np ± 2,17 Npq. Înlocuind N= , p=0,56 și q=0,44 acest interval de încredere este [838000; ], deci între și de votanți ar zice DA Statistică de consum și elemente de Algebră financiară În acest paragraf, sunt reunite mai întâi diverse formule ale matematicii de piață, cu deschidere spre înțelegerea unor fenomene economico sociale și financiare măsurabile. Apoi vom prezenta câteva elemente de Algebră financiară. Impozite și taxe Procentele sunt utilizate curent în calcule legate de creșterea sau descreșterea prețurilor, salariilor, impozitelor, $397
398 producției, PIB ului, ca și de bilanțurile economice sau modificările de buget. Termenul procent provine din latinescul per cento (# raportat la sută). 1% dintr-o cantitate S înseamnă 1 # S, iar 200%S înseamnă dublarea lui S Apoi p% din S înseamnă # # = 7,2 ps. Pentru a determina ce procentaj reprezintă o anumită cantitate M dintr-o M cantitate totală T, se calculează # %. T 100 Exemple: 1) 3% din 240 înseamnă. Dacă din 250 de obiecte, 8 sunt 8 defecte, rezultă că procentul celor defecte este # = 3,2% ) Dacă un preț P crește cu r% și noul preț mai crește cu s%, atunci prețul final este # P 1+ r și diferă de cel s 100 obținut după creșterea lui P cu r + s (sau cu rs) la sută. Definiția 9.1: Impozitele sunt plăți obligatorii, stabilite prin lege, pe care cetățenii sau societățile comerciale le varsă la bugetul Statului. Taxele sunt sume de bani plătite în schimbul unor servicii. Amenzile sunt pedepse în bani. Comisioanele sunt taxe speciale, nu neapărat declarate, primite de persoane, bănci sau societăți, contra unor servicii neobligatorii, iar mita (# șpaga ) este un comision personal, care cade sub incidența legii; o formă modernă de mită este para'ndărăt, prin care sunt răsplătiți cei care au favorizat încălcări de lege și contracte pierzătoare în dauna statului. #398
399 Exemple: 1)Dacă salariul brut al unui angajat este S lei, impozitul pe salariu este r%, taxa de asigurări sociale este s% și contribuția pentru pensie t%, atunci salariul net al angajatului este $ S 1 r + s + t ) Orice unitate de produs are un cost C de producție și un preț P de vânzare. Adaosul comercial este $ a = P C, deci $. C 100 [ % ] P = C( 1+ α ) 3) Dacă pentru înlesnirea unei afaceri în valoare de N unități monetare (lei, euro sau dolari SUA) se percepe un p comision de p%, atunci valoarea comisionului va fi $. 100 N Notă: Numerele C, N, P, $ α etc. sunt de regulă numere întregi sau raționale; nu se întâlnesc procente de tip $ 2 % sau sume de π euro! Fiecare unitate economică, societate comercială sau întreprinzător individual, urmărește să obțină un profit ($ beneficiu), deci un câștig care să îi asigure supraviețuirea și dezvoltarea. Profitul brut al unei unități economice într-o perioadă de timp (de regulă 1 an) este diferența dintre încasări și cheltuieli. Unitățile economice au obligații față de Stat impozit pe profit, impozit pe salarii, TVA (taxa pe valoare adăugată) etc. Fără încasarea acestora, statul nu poate exista deoarece nu poate asigura cetățenilor săi școlarizarea, asistența socială, asistența sanitară, ordinea publică, apărarea țării, funcționarea instituțiilor științifice, de cultură, sport etc. Impozitul pe profit este fixat prin lege; acesta poate fi global (actualmente, el este 16% pentru toate $399
400 unitățile economice) sau progresiv. Profitul net este ce rămâne din profitul brut după plata diverselor impozite și taxe. Exemplu: Dacă profitul brut al unei societăți comerciale a fost în anul 2015 de 10 # 6 lei, atunci impozitul anual pe profit a fost de # lei. 100 = Taxa pe valoare adăugată (TVA) este un impozit indirect care se plătește statului de către persoanele juridice (sau fizice) cu o cifră de afaceri peste un anumit prag, și care reprezintă o taxă adăugată peste valoarea obiectelor, bunurilor sau serviciilor pe care le execută. TVA este aplicată la aprovizionare, la producție și desfacere, în toate verigile circuitului economic, până la vânzarea produsului final. Există unele sectoare scutite de TVA, de exemplu, cantinele școlare, organizațiile pentru persoane cu dizabilități, cercetarea științifică bugetară, organizațiile sportive etc. În țara noastră, TVA este actualmente fixată de guvern la 20%. Dăm în continuare un exemplu tipic de aplicare a TVA. Exemplu: Considerăm trei societăți comerciale A, B, C, care colaborează la realizarea unui anumit produs final. Presupunem că valoarea producției societății A (ca furnizoare de materii prime) este de 1000 u.m. (# unități monetare, care pot fi lei, euro sau chiar mii lei ) și că ea plătește 100 u.m. ca TVA (20%). Presupunem apoi că B produce tablă zincată în valoare de u.m., iar C desface, utilizând acea tablă, un produs în valoare de u.m. Fiecare societate plătește TVA, prin factură, celei anterioare și încasează TVA de la următoarea, conform schemei următoare: #400
401 A B C Valoarea producției 1000 u.m u.m u.m. Cumpără, plătind TVA de 100 u.m. Cumpără, plătind TVA lui A, 200 u.m. Cumpără, plătind TVA lui B, 2000 u.m. Vinde, încasând TVA de la B, 1000$ 20%= 200 u.m. Vinde, încasând TVA de la C, 1000 $ 20%=2000 u.m. Vinde, încasând TVA 20000$ 20% = 4000 u.m. TVA plătit la stat = 100 u.m = 1800 u.m = 2000 u.m. Societățile din avalul circuitului economic plătesc TVA (numit deductibil) către societățile din amonte, ultimul plătitor de TVA fiind cumpărătorul final. Taxa TVA cumulată este de =4000 u.m. și aceasta este plătită la stat, mărind prețul de vânzare al produsului final achitat de consumator. Dacă prețul unui articol fără TVA este P, iar TVA este de 20%, atunci prețul acelui articol cu TVA inclus ar fi $ P P = 1,2P Dobânzi Diversele plăți se pot face cash ($ numerar, cu bani gheață ) sau apelând la credite, adică bani împrumutați de la bănci, societăți de credit, magazine sau prieteni (excluzând din discuție cămătarii). Cei care se împrumută de bani se numesc debitori ($ datornici); iar cei care dau/depun bani la o bancă, societate de credit sau la un fond de investiții se numesc creditori ($ deponenți). Ca o axiomă economică, puterea de cumpărare a banilor nu este constantă, ci variază în timp. 100 de lei de azi diferă de $401
402 suta de acum doi ani și același lucru se întâmplă cu euro sau cu francul elvețian. Ca debitori, plătim dobânzi celor care ne-au creditat, iar ca deponenți (creditori), primim dobânzi, anunțate pe câte o perioadă de timp t (de exemplu, t = 1 an sau t = 3 luni). Definiția 9.2: Dobânda este o sumă de bani plătită periodic, în procente, ca remunerație pentru un împrumut bănesc. Camăta este o dobândă exorbitantă. Dobânda simplă (# nominală sau necapitalizată) este calculată asupra unei sume fixe, plasate pe perioada depunerii. O sumă de bani #, numită capitalul inițial, depusă cu S 0 S1 dobânda simplă anuală D, va avea valoarea # = S0 +1 după 1 an. Raportul # r = S S 1 0 = D (în procente, 100# r [%]) (6) S 0 S 0 se numește rata anuală a dobânzii. PROPOZIȚIA 9.2. Dacă r este rata anuală a dobânzii, atunci o sumă # depusă cu dobândă simplă devine după t ani S 0 # S t = S 0 1+ t r (7) Șirul # S 0, S 1, S 2,... este o progresie aritmetică cu rația D. O formulă similară are loc dacă r este rata dobânzii pe k luni. Notă: În condiții de instabilitate economică, rata r a dobânzii se modifică rapid și, din acest motiv, depunerile se fac pe perioade mai mici, de exemplu pe 3 luni sau 6 luni, iar băncile nu garantează depozitele (# depunerile) pe termen lung. Depunerea la vedere este pe o perioadă nedeterminată, cu o rată anuală mai mică, dar in care se pot extrage oricând sume admisibile de bani. #402
403 Exemple: 1) Dacă s-a depus suma $ =1000 lei cu rata anuală a dobânzii simple r=0,1, atunci aplicând formula (7), suma obținută după t =3 ani va fi 1000(1+3$ 0,1) =1300 lei. 2) Dacă se depune la vedere suma de 3000 de lei cu rata dobânzii anuale 5%, determinăm ce sumă se extrage dacă se lichidează contul după 70 de zile. În acest caz, $ = 3000; r =0,05 și $ t = 70 deci $ S t = lei , Depunerea la termen este utilizată pe o perioadă determinată, de exemplu 1 an, dar încasarea dobânzii se realizează numai dacă termenul de depunere a fost respectat. O extragere de bani din contul respectiv înainte de un an anulează primirea oricărei dobânzi. Dacă după perioada t de timp (de exemplu, t =1 an), suma $ S 1 = S 0 + D = S 0 1+ r a rămas neextrasă, atunci se poate aplica regula cu aceeași rată r, dar pentru suma $ suma devine $ S 2 = S 1 1+ r și după n ani,. Așadar, după doi ani, $ S n = S 0 1+ r, pentru orice n 1. (9) În acest caz, se spune că dobânda este compusă ($ capitalizată). Șirul $ S 0, S 1, S 2,... este o progresie geometrică de rație 1+r, numită factor de fructificare. Pentru n 2, dobânda compusă este mai mare decât cea simplă. Reținem că dobânda simplă este calculată doar pe capitalul inițial (fiind utilizată de regulă pentru împrumuturi pe câteva luni), în timp ce dobânda compusă este utilizată pentru împrumuturi pe o durată mai mare. Băncile plătesc totdeauna dobânzi compuse pentru banii deponentului. $403 S 0 = S 0 ( 1+ r) 2 n S 1 S 0
404 Pentru r și n dați, suma # se numește valoarea proiectată, în timp ce # este valoarea prezentă. Conform (9), S n # S 0 =. Se poate demonstra că suma finală după t ani, 1+ r n rezultată în urma plasamentului sumei # cu dobândă compusă de n ori pe an, cu rata anuală r, este # S t = S 0 1+ r. n Dacă dobânda se calculează foarte des în cei t ani, atunci: Exemple: # S t = S 0 lim 1+ r (10) n n = S 0 e rt ; e 2,718 1) În cazul când capitalul inițial este # =1000 lei, cu rata anuală a dobânzii 4%, atunci, după doi ani, suma se transformă în # 1+ 2r 1080 lei (în cazul dobânzii S 0 simple) și # dobânzii compuse). S 0 = 1000 ( ,04) = S 0 ( 1+ r) 2 = ,04 =1081,6 lei (în cazul 2) Determinăm după câți ani se dublează o sumă # depusă cu dobânda compusă, dacă rata anuală este de 4%. Aș a d a r, 2S # 0 = S ,04 adică 2 = # ș i ln2 logaritmând, rezultă n=#, deci după 18 ani. ln1,04 17,67 3) Ce devine suma # =6000 lei, depusă cu rata lunară 5% și dobândă compusă, după 20 de luni? Care este valoarea prezentă pentru suma proiectată de 8000 de lei? Răspuns: nt S n 2 S 0 S 0 n 1,04 n S 0 nt S 0 #404
405 " r = 5% și $ lei. 12 = = 1 S 20 = Apoi valoarea prezentă este $ lei / 240 4) Dacă $ =18000 euro și banii sunt depuși cu dobânda S 0 14% la 3 luni, atunci $ r = ,035 și după 4 ani, suma devine $ S 16 = ,035 euro. 5) S-a depus suma $ =1000 lei, cu dobândă compusă, pe 10 ani. În ce caz se vor obține mai mulți bani: cu dobânda 5% pe 5 an sau cu $ % pe lună? 12 Răspuns: În primul caz, $ S 10 = S și în cazul secund 100 = , $ S 120 = S S 0 Notă: În perioade de inflație, costul vieții urcă rapid, îndeosebi la alimente, combustibili, etc. Inflația conduce la o creștere a dobânzilor la credite, cu procente puternic influențate de guvern. Rentele se calculează după modelul dobânzilor compuse. Prețuri, investiții, amortizări Pentru achiziționarea oricărui produs de pe piață, ca și pentru orice serviciu, se plătește o sumă de bani care reprezintă prețul cu amănuntul al acelui produs sau serviciu. Acest preț are mai multe componente: prețul de cost (care include costurile de producție și profitul producătorului), prețul de livrare (care include prețul de cost și cheltuielile de transport) și adaosul comercial (care include profitul vânzătorului și TVA). $405 20
406 Fiecare societate comercială are un anumit patrimoniu, care constă din totalitatea bunurilor obținute și păstrate în cadrul relațiilor economice cu statul sau cu alți agenți economici; patrimoniul include terenuri, construcții, mașini, aparatură, active (# clădiri, utilaje, depozite). Echilibrul care asigură buna funcționare a societății depinde de relația dintre mijloacele economice și sursele de finanțare. Pentru evaluarea corectă a patrimoniului, se aplică un sistem de prețuri și tarife; tarifele sunt taxele oficiale pentru anumite servicii de transport, subvenții, vamă etc. În limbajul uzual, amortizarea unei datorii pe termen lung înseamnă stingerea ei prin plăți succesive, la termenele stabilite. În activitatea oricărei societăți comerciale, rolul principal revine terenurilor și mijloacelor fixe, care nu se consumă după o primă perioadă de utilizare. Terenurile pot fi agricole, silvice, cu sau fără construcții pe ele, conținând eventual zăcăminte, prețul lor (valoarea) fiind stabilită prin lege sau prin piață. Terenurile nu se supun amortizării, cu excepția cazului unor investiții efectuate pe ele. Mijloacele fixe cuprind clădiri, mașini, utilaje, calculatoare, camioane etc., care au valoare de inventar ce se modifică în timp. Recuperarea mijloacelor fixe se realizează prin amortizare într-o anumită perioadă de timp, ceea ce înseamnă constituire unui fond care să poată fi folosit pentru cumpărarea unui obiect similar, atunci când durata de viață a vechiului obiect a expirat. Definiția 9.3: Dacă un utilaj achiziționat are valoarea de V lei (sau alte u.m. - unități monetare) și are o durată normată de amortizare de t ani, atunci amortizarea anuală (anuitatea) este raportul # A α = V. t Se consideră similar și separat anuitățile pe clădiri, mașini, calculatoare etc. #406
407 Se numește investiție, orice sumă plasată pentru creare de mijloace fixe, pentru modernizare, reutilare, restructurare etc., în scopul obținerii de profit. Pentru orice investiție în valoare de V u.m., se aplică formula precedentă pentru calculul anuității, t fiind durata normală de viață, în ani, a acelei investiții. O parte din valoarea inițială V a unei investiții este transferată produselor obținute în urma ei și după n perioade de utilizare (de regulă ani), investiția capătă valoarea Vn. Definiția 9.4: Raportul $ α = V V 1 = 1 V 1 (11) V V se numește coeficientul de amortizare a investiției inițiale V. Deoarece $ V 1 < V, rezultă că $ 0 < α < 1. PROPOZIȚIA 9.3. Are loc formula $ V n = V 1 α, pentru orice n 1. (12) Demonstrație: Așadar, $, deci $.. Dacă în anii următori se repetă aceeași regulă, atunci = V ( 1 α ) 2 $ V 2 = V 1 1 α etc. Exemple: 1) Determinăm anuitatea $ a unui utilaj cu valoarea inițială V =40000 lei, având o durată normală de utilizare t =8 ani. Conform formulei (10), $ = 5000 lei. 2) Presupunem că o investiție a avut valoarea inițială V= lei și, după 4 ani, $ =30000 lei. Care este coeficientul de amortizare a acelei investiții? 4 = 1 4 n αv = V V1 V1 = V ( 1 α ) Răspuns. Conform formulei (12), V$ 4 = V 1 α deci $ 1 α, de unde $ 1 α = 1 și $ α = ,29 V 4 A α A α = $407
408 Notă: După ce o investiție ajunge la limita fizică de uzură și după ce valoarea # a coborât sub un anumit prag, ea se V n consideră amortizată integral și poate fi casată. Credite și plăți eșalonate (rate) O altă axiomă economică arată că, în perioade de stabilitate, politica de creditare este una din sursele de bunăstare generală. Instrumentul principal de dezvoltare pentru societățile comerciale, ca și pentru persoane fizice, îl constituie creditul (# îndatorarea). Există două metode pentru a cumpăra bunuri (# diverse produse) pe credit (# pe datorie ): - cu plăți eșalonate, numite rate (# credit închis), când clientul plătește o sumă fixă de bani, de exemplu lunară, timp de câteva luni, până ce datoria este achitată; - cu credit deschis (fără număr de rate fixe, prin carduri de credit); uneori băncile iau măsuri de recuperare, atunci când clienții uită să-și alimenteze cardul. Exemple: 1) Presupunem că la 1 februarie, un client are deja o datorie de 2000 lei. În februarie a plătit băncii 1500 de lei și apoi a cumpărat cu cardul ceva de 800 de lei. Dacă banca percepe un comision de 0,2% pe lună, atunci la 1 martie, clientul datorează băncii # ,2 0, l e i = 1305,6 Dacă în continuare, în martie, depune la bancă 1800 lei și cumpără ceva cu cardul de 400 lei, atunci datoria lui la bancă este 1305, # 0,2 deci datoria a fost lichidată ,6 și i-au rămas în cont 93,6 lei. #408
409 2) Să presupunem că o persoană dorește să cumpere mobilă în rate, în valoare de 6000 lei. I se spune la magazin că poate plăti în rate lunare de 450 lei, timp de 15 luni. Așadar, persoana va plăti 450$ 15=6750 lei, deci cu o dobândă de 750 $ 100 = 12,5 % Diverși dealeri impun propria dobândă (de exemplu, 3% pe lună sau 12% pe an); uneori se poate deduce prin calcul această dobândă, ceea ce este util pentru comparația cu alte bănci, magazine sau furnizori. În țările avansate, există reguli care obligă magazinele, băncile sau societățile de creditare să afișeze explicit rata anuală a dobânzii. Definiția 9.5: Ratele sunt plăți efectuate la momente de timp stabilite dinainte, într-un anumit număr de ani (sau luni). Ratele descresc după regula dobânzii compuse și ultima rată L este numită plata posticipată. Fixând rata r% a dobânzii anuale și numărul n de rate, 2 penultima rată este L(1+r), antepenultima, L(1+r)$ etc. Suma totală de plată este numită valoarea finală, notată $. Așadar, $ V n = L + L 1+ r. Notând R=1+r, rezultă $ V n = L 1+ r + r r n 1. R 1 Ca atare: PROPOZIȚIA 9.4. Dacă rata dobânzii anuale este r și plata posticipată este L, atunci valoarea finală în n rate este $ V n = L ( 1+ r)n 1. (13) r V n + L( 1+ r) L( 1+ r) n 1 = L Rn 1 $409
410 n 1 Notă: Reținem că prima rată este # L 1+ r, a doua n 2 V n # L 1+ r etc. și ultima este L. Cunoscând r, n și #, se pot determina L și ratele succesive de plată. Uneori se introduce mărimea # q = 1/ R, numită factorul de actualizare și se definește valoarea actuală # V a = V n q n. Exemple: 1) Pentru o plată posticipată de L=100 lei, cu r=3% prevăzută pe 6 ani, rezultă conform formulei (13), că # V 6 = 100 1, Apoi, # și valoarea 0,03 646,8 q = 1 1,03 0,971 actuală este V# a = V 6 q 6 542,1 lei. Ratele anuale vor fi # 100 1,03 5 = 115,9 ; # 100 1,03 4 = 112,6; și ultima este 100 lei. 2) Întrebare: După câți ani, o plată eșalonată cu plata posticipată de 3000 lei și cu r =4 % conduce la o valoare finală de lei? Răspuns: Așadar, # = ,04n 1. deci 1,04 # n 1,53 și 0,04 # n = ln1,53, deci după 11 ani. ln1,04 10,9 Notă: Un caz special de creditare pe termen lung îl constituie cumpărarea unui apartament, unde există tabele care permit calculul ratelor lunare și scheme de amortizare a împrumutului prin ipoteci imobiliare sau funciare. Acțiuni, dividente, bursă de valori Acțiunile unei societăți comerciale (S.A.=societate pe acțiuni) sunt hârtii de valoare reprezentând o parte fixată din patrimoniul acelei societăți, respectiv capitalul social la societății. Persoana care cumpără acțiuni capătă un drept de proprietate #410
411 asupra unei părți indivize din acea societate și, pentru banii investiți în acțiuni, ea participă la profitul realizat de acea societate, obținând dividende ($ părți din profit, în raport cu acțiunile deținute). Dacă societatea respectivă este prosperă, atunci alte persoane vor dori să cumpere acțiuni de la orice posesor prealabil de acțiuni, pentru un profit potențial; în caz contrar, prețul acțiunilor scade, conform legii cererii și ofertei. Bursele de valori sunt instituții specializate, unde se negociază acțiuni și alte hârtii de valori. Publicul nu participă direct la a cumpăra sau vinde acțiuni și apelează la brokeri ($ agenți de schimb), care percep o anumită taxă. Bursele de valori au fost lansate în 1792 de un grup de specialiști în licitații. În țările avansate, o mare cantitate de acțiuni o posedă fondurile de pensii sau fondurile mutuale baza capitalismului popular, unde se pun probleme de încredere, participare la controlul gestionării acelor fonduri. Toate acestea sunt oportunități de investiții și păstrare a banilor proprii, superioare păstrării la saltea, fără nici o protecție contra inflației. Prețurile acțiunilor pentru diverse societăți listate la bursă se află pe Internet sau în ziare, unde apar pagini întregi de tabele corespunzătoare. Pe fiecare linie a unui astfel de tabel apar numele prescurtate ale societăților; fiecare linie are în față numere de tipul 25$ sau 17$ u.m., care indică prețurile cel mai mare și cel mai mic în unități monetare, din ultimele 52 de săptămâni, atinse de societățile respective. De asemenea, se indică dividentul plătit pentru fiecare acțiune și alte informații la cald. Exemplu: O persoană a cumpărat 50 de acțiuni, plătind 20$ lei pe acțiune. Cum se determină costul total al acelei afaceri? $
412 Răspuns: Costul de bază este 50 # 20,25 = 1012,5 lei. Comisionul brokerului este de 4% din această sumă deci 40,5 lei. Deoarece nu s-a cumpărat un multiplu de 100 de acțiuni, persoana plătește o diferență, de exemplu de 30 de bani pe acțiune (deci 0,3 50 # = 15 lei) și astfel, în final, costul total este 1012,5+40,5+15 =1068 lei. Ne oprim aici cu prezentarea naivă, matematică. Elemente de Algebră financiară avansată Inflația Odată stabilite câteva noțiuni de bază, se poate trece la înțelegerea unor fenomene financiare de tipul analizei piețelor, elaborării de modele economice (privind plasarea unor sume de bani, cu urmărirea rentabilității) sau chiar ale ingineriilor financiare. Toată lumea dorește să-și plaseze banii cât mai convenabil, pentru a cumpăra bunuri, a estima prețul unui titlu de valoare și riscul unei investiții. Este util să știm să dezvoltăm o afacere deja pornită, să facem un parteneriat și să reacționăm la amăgirile băncilor care pretind că dau mari dobânzi, a banilor ținuți la ciorap sau a unor investiții fanteziste precum jocurile piramidale. Piața financiară cuprinde piețele monetare (având maturitate pe termen scurt) și piețele de capital (cu maturitate pe termen lung), dar și piața asigurărilor (de locuințe, auto, sănătate etc), care redistribuie riscul financiar, piața schimburilor valutare sau cea a stocurilor. Definiția 9.6: Inflația este un fenomen legat de masa banilor aflați în circulație. Anume, atunci când această masă este în exces în raport cu nevoia de circulație a banilor, apare o depreciere a monedei în raport cu aurul (sau în raport cu alte bunuri sau servicii). #412
413 În mod concret, cu 1 euro se cumpără mai puțin decât înaintea instaurării inflației. Pentru fiecare an k, se poate stabili indicele $ al inflației, care se anunță oficial. Rata inflației de la i k anul k la anul k+1 este $ 100 [%]. Dacă i$ k =103,2% și i k $ =105,7 %, atunci rata inflației în anul k+1 a fost 2,4%. i k+1 Exemple: 1) Inflația apare dacă salariile sunt mărite, fără ca productivitatea să crească; inflația este corelată cu șomajul și este necesat controlul simultan al ambelor. 2) Inflația este un fenomen diferit de cel de devalorizare, care constă în scăderea cursului de schimb pe piața valutară. Dar ambele conduc la sărăcie și la încercarea oamenilor de a scăpa de bani. În perioadele de inflație, multe credite nu se mai rambursează! Are loc PROPOZIȚIA 9.5. Dacă rata anuală a inflației este i% și plasăm un capital $ cu rata dobânzii anuale r%, atunci pentru o S 0 perioadă de timp t, (menținând i, r constante) rezultă 1+ r $ S t = S 0. (14) 1+ i Această formulă extinde formula (9), regăsită pentru i=0. Dacă $ i r, atunci avem o inflație galopantă. Exemplu: Dacă $ S 0 ik+1 ik =1000 lei, r=3% și i=3,8%, atunci după 4 t =3 ani, capitalul devine $ S t = 1000 lei. 4,8 578 t Notă: Valoarea în timp a banilor variază. Dacă r% este dobânda anuală și dacă la momentul t=0 se depune suma $, atunci la momentul t, valoarea ei este, conform formulei (10), $413 3 S 0
414 # S t = S 0 e rt. Invers, orice sumă # la momentul t=t valorează # S T = S 0 e rt la momentul t=0. Dacă prețurile banilor scad, apar speculatorii (# vânătorii de profit). Este celebru cazul lui G.Soros, care a anticipat în 1992 că lira engleză va cădea și a pariat câteva miliarde de dolari, reușind un profit uriaș. Instrumente financiare Acestea sunt documente fizice ( pe hârtie ) sau electronice care au valoare monetară sau care înregistrează o tranzacție financiară. Exemple Bani gheață ( cash ), cec ( cambrie ), certificat de depozit, obligație, carte de credit. Există și instrumente financiare derivate. În această categorie intră contractele forward, care sunt acorduri ce prevăd achiziționarea unor mărfuri la o dată de livrare viitoare (# maturitate) și la un preț de livrare, ambele precizate. Există și contracte unde la început se plătește o arvună. Contractul forward este o înțelegere între doi parteneri, care nu este tranzacționată la bursă și implică un anumit risc; nu se plătește arvună, iar livrarea este specificată de la început. De regulă, valutele sunt tranzacționate prin contracte forward. APLICAȚIE: Introducem următoarele notații: K =prețul de livrare; # S t =prețul la momentul t și # S 0 =prețul (cunoscut!) la momentul t=0; T=momentul livrării (termenul de scadență); # = prețul (necunoscut!) la momentul t=t, # =profitul S T net la momentul t. Din poziția cumpărătorului, cu K și T fixate, profitul va fi # P t = K S T. S T P t #414
415 Problema este cum să fie ales K. Presupunem că rata dobânzii anuale este r, aceeași la împrumut cât și la credit. Dacă V este suma plătită la momentul t = 0, atunci la momentul t=t ea valorează V$ e rt (conform formulei (10)). Există un aforism celebru: Afacerile bune sunt cele în care câștigă ambele părți! Așadar, pentru a nu apărea arbitraje ($ discuții cu componentă contradictorie, contractuală), la momentul t=t, media sumei tranzacționate trebuie să fie nulă. Dar valoarea sumei tranzacționate la momentul t=t este $ S T K V e rt ; aceasta este o v.a. și media ei trebuie să fie nulă. Așadar, depinde de M$ = 0 V = e rt M( ( S T ) K ) $ M S T K V e rt, deci $. Aceasta este suma plătită la momentul t=0. Mărimea V, deci de valoarea prețului viitor. Aici intervine Statistica aplicată. Pentru a prezice această valoare, se fac ipoteze statistice, presupunând de exemplu că v.a. S T S T $ urmează legea de repartiție log normală. În exercițiul 10 din Capitolul 4, am arătat că o v.a. Y este repartizată log normal dacă are valori strict pozitive și ln Y aparține clasei N($ m,σ ). Atunci MY=$ e m+σ 2 /2 și DY=$ e 2m+σ 2 e σ 2 1, dar ne oprim aici Econometrie Introducere Așa cum sugerează denumirea, Econometria se ocupă cu măsurări economice, cu analiza cantitativă a fenomenelor economice reale și cu modelarea economico matematică a relațiilor de cauzalitate dintre fenomene, incluzând testarea diverselor ipoteze și lansarea de predicții. Datele economice pot fi măsurate sau observate și fenomenele economice pot fi cuantificabile; dar spre deosebire de alte domenii, în Econometrie $415
416 nu se pot efectua simulări sau experimente pe mari colectivități. Cel mai important instrument îl constituie modelul economic, împreună cu regresia și fundamentarea deciziilor economice pe baza minimizării riscului de a fi afectate profitul, utilitatea și în ultimă analiză, bunăstarea. Statistica pune la dispoziția managerilor, economiștilor, organismelor de reglementare, diverse instrumente care permit maximizarea probabilității unor rezultate dorite. Deși diferă de Statistică, Econometria îmbină Statistica cu Teoria economică generală și cu Informatica, având câteva obiective specifice: formalizarea legăturilor cauzale dintre diferitele procese economice, estimarea parametrilor care permit cuantificarea acestor legături și analize de regresie, corelație, serii de timp. Ca disciplină științifică de sine stătătoare, Econometria a fost lansată după 1930, când s-a înființat Societatea de Econometrie, condusă de statisticianul Irving Fisher. Ulterior, s-au primit câteva premii Nobel: Jan Tinbergen (analiza econometrică a proceselor economice), L. Klein (modelarea pe calculator a proceselor macroeconomice), C. Granger (analiza seriilor de timp) etc. Analizele econometrice sunt de mare complexitate, implicând utilizarea computerelor mari, pentru care s-au creat multe produse informatice specializate. Câteva concepte fundamentale ale econometriei 1) Relațiile cauzale Multe fenomene economice sunt influențate de alte fenomene și se corelează chiar cu unele care nu sunt de același tip. De aceea este utilă decelarea factorilor de influență (sau chiar dependență), asimilate ca v.a. # X 1,..., X n independente, în timp ce efectele sau rezultatele sunt descrise prin alte v.a. dependente # Y 1,...,Y m. Toate aceste v.a. se referă la același câmp de #416
417 probabilități fixat ($ Ω,$ K, P); legăturile ($ relațiile) nu sunt de natură algebrică, ci relații de condiționare statistică. Există și relații de comportament, tehnologice sau chiar instituționale. Relațiile temporale revin la introducerea factorului timp, considerat o altă resursă care interesează evoluția fenomenelor economice. Fiecare mărime dependentă Y este de forma: $ Y ( t) = f t, X 1 ( t t 1 ),..., X n ( t t n ),Y ( t 1),S( t) + ε ( t) ; (15) $ t 1,...,t n sunt momente de comutare și $ ε t este un zgomot alb gaussian, legat de șocuri, catastrofe, la fiecare moment t; relația (15) cuprinde modelele clasice de regresie. În cazul general, relațiile (15) se pot considera ca relații! Y = ( Y 1,...,Y m ) $ X = X 1,..., X n, care se interpretează ca un sistem i/o, cu vectorul de intrări $ X și vectorul de ieșiri $ Y. 2) Un alt concept economic îl constituie cel de colectivitate, care include entități individuale indivizi, obiecte, situații etc., caracterizate prin diverse atribute ($ caracteristici) și pe cel de populație statistică, din care se extrag eșantioane reprezentative (conform paragrafului 1.2 din Capitolul 1). Informațiile statistice oferă informații bune ale modelelor adoptate, aplicând legile de numere mari de tipul TLC ($ rezultate de convergența șirurilor de v.a); am văzut rolul estimatorilor centrați ($ nedeplasați), al mediilor și dispersiilor în diverse ipostaze. Legat de colectivități, se pot considera nu numai indicatori numerici, ci și variabile calitative ($ alfanumerice), de tipul: profesie, stare civilă, sex, defecte ale indivizilor. Variabilele cantitative corespund unor mărimi fizice, de tipul: lungime, masă, valoare, preț, cheltuieli, salariu minim, PIB etc. Variabilele pot fi discrete sau continuale, dar mai există o clasificare a lor: $417
418 endogene (ce apar ca variabile dependente sau efecte); exogene (de tip cauză) și fictive/ artificiale ( dummy ), având doar valori binare 0 și 1. 3) Modelele econometrice Modelele 1D se referă la relații # X! Y în care o singură variabilă X este independentă și # Y este efectul. Dar există relații! Y # X = X 1,...X N în care mai mulți factori de influență au același efect. Bineînțeles, seturile # X = X 1,..., X n sunt vectori aleatori n dimensionali (Capitolul 2, definiția 2.8). În Capitolul 6 am studiat regresia simplă (direct legată de dreapta lui Gauss), iar în Capitolul 7, paragraful 7.4, am prezentat câteva tipuri de serii de timp modelele AR, MA sau ARMA, cu exemplificări pe modele liniare (de tipul Y # = β 1 X β n X n + ε ) sau neliniare (# Y = β 1 X β 2 ln X 2 + ε ), unde # ε este un semnal aleator care sintetizează influența diverșilor factori aleatori. Acești factori pot fi repetabili sau accidentali, cu diverse intensități. Cele mai utilizate în studiul relațiilor cauzale sunt modelele de regresie, a căror structură cuprinde variabile, parametri, date, restricții și ipoteze; mai precis, o v.a. endogenă Y, un set de v.a. # X 1,..., X n independente exogene, o perturbație (sau eroare) # ε, parametri necunoscuți # β 1,...,β m, o funcție de regresie f (liniară sau neliniară) și un set de ipoteze statistice relativ la perturbația # ε. Forma generală a modelelor de regresie este + ε # Y = f X 1,..., X n ;β 1,...,β m. Variabilele aleatoare Y, # X 1,..., X n sunt observabile (adică realizările lor pot fi măsurate); dar perturbația # ε, nu. Dacă n=1, atunci regresia este simplă, altfel este multiplă; regresia este liniară sau neliniară după cum funcția f este la fel. De asemenea, #418
419 există modele dinamice, ca și modele pe baza unor euristici ale specialiștilor cu experiență. Modelele econometrice utilizează trei tipuri de date: date referitoare la mai mulți agenți, la un moment dat, date de tip serii de timp relativ la un singur agent și date tip panel, care se referă la mai mulți agenți economici într-o succesiune de momente. Sursele principale ale datelor economice, pe lângă cele obținute prin măsurători sau observații ad hoc, de la caz la caz, sunt: Anuarele statistice ale României sau altor țări, documente accesibile ale FMI ( International Monetary Fund ), World Economic Outlook etc. Analiza econometrică a unui fenomen începe cu specificarea modelului teoretic și cu obținerea datelor, continuă cu estimarea parametrilor și cu testarea ipotezelor statistice propuse pe baza teoriei economice; analiza se încheie cu utilizarea modelului în vederea deciziei. O astfel de abordare a fost propusă de Keynes în studiul legăturii dintre consumul C și venitul disponibil V, de tipul $ C = α + βv. Acest model a fost înlocuit cu cel de regresie liniară 1D (de tip C $ = α + βv + ε, luând în considerație factorii aleatori), trecând apoi la cazul multidimensional liniar, neliniar etc. Exemple: 1) O relație econometrică tipică este cea dintre cererea C a unei cantități dintr-un produs, prețul P al produsului și venitul disponibil: C=f(P, V). De exemplu, în cazul liniar, C $ = α + βp + γ V + ε ; coeficienții $ α,β,γ sunt determinați pe baza valorilor obținute pentru seturi de valori ale mărimilor $ C t,p t,v t la diverse momente $419
420 de timp, punând condiția ca # C t α βp t γ V t să fie minimă. Am dat în paragraful 6.1 exemple concrete de acest tip. 2) O ecuație matriceală de regresie liniară este de forma # Y = Xβ + ε, unde Y este un vector coloană M dimensional (al variabilelor dependente/endogene), X o matrice de tip # M N cu variabile independente/exogene, # β un vector coloană N dim al coeficienților de regresie și # ε =vectorul perturbațiilor; M este numărul de observații. Estimarea unei ecuații de regresie se realizează în programul EVIEWS. 3) În Econometrie s-au abordat pentru prima dată relații mixte, între variabile cantitative și calitative. De exemplu, salariul S al unui cadru didactic ca depinzând de nivelul de pregătire N, gradul profesional G, vechime V (ultimile variabile fiind cuantificate corespunzător). Regresii reductibile la regresia liniară Am indicat în paragraful 6.5 că în studiul corelației dintre calitatea și prețul unui produs, se poate folosi curba de regresie de forma y # = m δ x, care se reduce la o regresie liniară prin logaritmare. Se numește funcție logistică funcția f de forma c c ebx # f ( x) = =, (16) bx 1+ ae a + e bx t = c cu a, b, c constante reale strict pozitive și # lim f x. x = Derivata ei este # f x abc ebx, deci funcția este ( a + e bx ) > 0 2 strict crescătoare și are graficul ca în figura 9.1, cu un singur 2 #420
421 ! lna punct de inflexiune M 0. Pân! în punctul cre#terea b, c $ " # 2% & M 0 este accentuat! #i apoi este încetinit! pân! la valoarea ei de prag c. Figura 9.1 Utilizarea unei func"ii logistice adaptate unei serii de timp este una din metode în analiza simpl! de regresie. Dac! o m!rime Y t economic! $ variaz! în timp dup! legea logistic! Y t = c!ebt a + e bt (evident neliniar!), (17) atunci pentru a determina parametrii a, b, c este suficient s! alegem trei valori echidistante $ t 1, t 2, t 3 (respectiv de la începutul seriei de timp $ y t ; t! 0 apoi, intermediar #i de la sfâr#itul seriei de timp). A#adar, c!e bt 1 c!e bt 2 c!e bt 3 $ = y, $ #i $. a + e bt 1 1 = y a + e bt 2 2 = y a + e bt 3 3 Înlocuind $ t 2 = t 1 + h #i $ t 3 = t 1 + 2h, rezult! rela"iile algebrice ay $ 1 = e bt 1 ay, $ 2 = e bt 1 ay "e bh, $ 3 = e bt 1 "e 2bh c! y 1 c! y 2 c! y 3 de unde 421
422 y 2 # c y 1 = e bh și în final, relația rezolvantă cu o singură y 1 c y 2 necunoscută, anume c (# y 1, y 2, y 3 fiind cunoscute): ( c y 3 ) = y y # c y 1 c y 2 2. (18) y 2 Cunoscând pragul c, ne reducem la modelul regresiei c liniare. Anume, din relația (17), rezultă # = a + ebt = 1 ae bt y t c y deci # t = ae bt și prin logaritmare, # ln c y t = lna bt. y t y t e bt Notăm # Z t = ln c y t și A = ln a și rezultă y t # Z t = A bt, (19) recunoscând aici o relație de regresie liniară. Exemplu: În ultimele 5 luni ale anului 2015, vânzările unei firme au fost cele din tabelul: t aug. sept. oct. nov. dec. y t Așadar, # y 1 = 40, # y 2 = 60, # y 5 = 63 și ecuația rezolvantă (18) devine #( c 40) ( c 63) = ( c 60) 2, adică: 60 2 # 0,3c 2 19c = 0, deci # c 63,3 etc. Cerere elastică în raport cu un factor de producție Presupunem că cererea pentru un produs este o serie de timp (# C t,t 1) care depinde de un anumit factor de predicție (# x t,t 1). Coeficientul de elasticitate c/x a cererii în raport cu #422
423 factorul x este E$ c/x = c c 1 0 : x x 1 0 (pentru primele două c 0 momente succesive). Dacă acest coeficient este constant, se spune că avem o cerere elastică. În acest caz, într-un viitor apropiat, are loc relația $ E c/x = c c 0 x x : 0 c 0 x 0, de unde rezultă x x $ C = E c/x 0 C 0 + C 0. (20) x 0 Exemplu: Presupunem că în primele două trimestre, vânzările (C) pentru un anumit produs și câștigul (factorul V) au fost x 0 trim. I trim. II C [t] V [RON] Să se prognozeze vânzarea pe trimestrul III dacă V= [lei]. Avem $ E c/v = : 1, În ipoteza unei cereri elastice, aplicând formula (20), rezultă $ C = 1, ,4 [t] Calitate și preț O relație (de fapt corelație) importantă este cea dintre calitatea unui produs și prețul lui. A dispărut regula unui singur produs cu un singur preț ( aceeași tunică pentru toată lumea ) și asistăm la o exagerare în sens invers a consumului. Apar 5 6 tipuri de Coca-Cola (cu/fără alcool, CO2 dublu, fără CO2, cu gust de banană etc.), automobile de tot felul, mii de feluri de mobilă pentru toate gusturile și toate pungile (PFL, lemn uzual, trandafir, natur, mobilă stil), îmbrăcăminte pentru toate modele ș.a. $423
424 În general, prețul nu este proporțional cu calitatea, ci urmează o curbă de tip exponențial, conform principiului: cei cu bani să plătească!. Dăm un exemplu, care se poate generaliza ușor. Exemplu: Presupunem că un produs se vinde pe patru tipuri de calitate: 1, 2, 3, 4, cu prețurile indicate (în mii lei) în tabelul următor: x y Ne propunem să determinăm curba de regresie asociată, de forma # y = m δ x, cu parametrii m și # δ. Întrebare: Ce preț trebuie plătit pentru calitatea de tip 5? R: Considerăm logaritmii zecimali, deci # y = lg m + x lgδ, rezultând tabela x lg y 1 1,699 2,301 2,884 = 2,5 Avem # x = ; 4 1,97 # lg y = 1 1+1, ,301+ 2, Dreapta logaritmică de regresie este: lg y=0,63x+0,40, deci # y = 2,5 4,3 x. Pentru x=5, ar trebui plătită suma de # 2,5 4,3 5 = 3675 lei. Oricum este exagerat! Relația Cobb Douglas Unul dintre obiectivele Econometriei este studiul legăturii dintre rezultatul unei activități economice Y (cantitate de produse, câștig obținut și chiar PIB etc.) cu principalii factori de producție capitalul K și forța de muncă L. Relația fundamentală este #424
425 $ Y = A K α L β, (21) numită relația Cobb Douglas, unde $ α și $ β sunt coeficienți de elasticitate și A un factor de proporționalitate. Această funcție neliniară poate fi liniarizată prin logaritmare și sugerează o relație de forma $ Z t = log A + α log K t + β log L t (22) pentru momentele dintr-un interval de timp. De exemplu, parametrii A, $ α, $ β se determină cunoscând, serii de date pe 10 ani succesivi, pentru $ Z t, $ K t și $ L t și punând condiția lui Gauss: $ Z t log A α log K t β log L t =minim. Odată cunoscuți acești parametrii, se pot prognoza valorile lui $ și apoi $ pentru câțiva ani viitori. Z t t 2 Y t Factorul A se numește coeficientul eficienței integrale și este un indicator care raportează efectele la cauzele constituite de capitalul K și de forța de muncă L. Formula (21) se extinde considerând nu doi ci mai mulți α factori de influență $ Y = A F 1 α 1...F n n. Econometria a devenit o disciplină de sine stătătoare, cu instrumente de investigație și analiză, aflată în mariaj cu tehnicile informatice și deschisă la achizițiile altor științe cu mare impact social Clasificarea statistică a datelor și recunoașterea formelor Descrierea și clasificarea formelor Se spune că inteligența este capacitatea de a înțelege mediul înconjurător și de a profita de experiența acumulată. Ea se manifestă la diverse nivele; se vorbește de creativitate, talent, $425
426 euristică inteligentă, inteligența materiei, a păsărilor și animalelor etc. Este dificilă o definiție care să nu fie rapid contrazisă. În ultimul timp, s-a dezvoltat domeniul inteligenței artificiale, care se ocupă cu studiul și proiectarea agenților inteligenți ca sisteme de coabitare cu mediul și care nu respinge analiza prostiei naturale. Primul exercițiu de inteligență îl constituie recunoașterea și clasificarea formelor. Noțiunea de formă este primară, fiind dominată de numeroasele exemple distincte care pot primi o astfel de accepțiune. Sunt forme: persoanele, animalele, plantele, diverse obiecte geometrice, corpuri fizice (solide, lichide sau gazoase), munții și apele, imaginile 2D sau imaginile din satelit, formele microscopice, dar și formele de undă (semnale optice sau acustice, ECG, EKG) și nu în ultimul rând, fața umană etc. În descrierea și apoi clasificarea formelor, există două abordări: statistică și sintactică (structurală). În primul caz, scopul este acela de a extrage caracteristici numerice sau calitative care să caracterizeze formele analizate și să constituie un tip de coordonate ale lor; se spune că se realizează selecția caracteristicilor ( feature selection ). În cazul secund, formele sunt descompuse în subforme și subforme primitive relaționate, așa cum orice text se descompune în fraze, frazele în propoziții, propozițiile în cuvinte, apoi litere, foneme etc. Cele două abordări nu se exclud; de exemplu, pentru descrierea primitivelor, se utilizează metode statistice. Ne vom referi îndeosebi la clasificarea (și recunoașterea) statistică, unde formele sunt reprezentate prin vectori de caracteristici (# seturi de parametri), care în esență sunt vectori aleatori. Dacă se fixează câteva clase de forme și dacă densitățile de probabilitate condiționate ale vectorilor caracteristicilor sunt cunoscute (sau pot fi estimate dintr-un lot de eșantioane de #426
427 învățare sau testare), atunci se poate aplica o regulă de clasificare de tip Bayes, care minimizează probabilitățile de recunoaștere eronată. Dacă aceste densități de probabilitate nu se cunosc, atunci se pot utiliza metode neparametrice de clasificare; de exemplu, metoda celui mai apropiat eșantion vecin ( metoda NN Nearest Neighbour ). Învățarea se referă la estimarea parametrilor densităților de probabilitate dintr-un set de eșantioane presupuse deja clasificate; în acest caz, clasificarea se numește supervizată. Dacă nu există eșantioane de învățare, clasificarea se numește nesupervizată ($ clustering ); acest demers se aplică și atunci când nici numărul de clase nu este cunoscut și folosește diverse măsuri ale similarității și distanțe, prin care se realizează o grupare cât mai naturală a vectorilor de caracteristici sau date. O problemă principală a clasificării supervizate a formelor sau seturilor de date este următoarea: Presupunem că analizăm o colecție F$ de forme (sau seturi de date), care urmează să fie plasate în M clase preexistente M F $ C 1,..., C M M 2 ; pentru orice vector reprezentativ $ trebuie decis în ce clasă trebuie plasat. Exemple: 1) Presupunem că trebuie clasificate electrocardiogramele (EKG) pentru un grup de pacienți. Fiecare electrocardiogramă X poate genera un vector reprezentativ $ și există două clase: $ C 1 = {normală}, $ C 2 = {anormală}. 2) Dacă se analizează o colecție $ F de mesaje e mail întro anumită perioadă și o anumită adresă, presupunem că există 4 clase de mesaje: $ C 1 = {spam}, $ C 2 = {mesaj de la cunoscuți}, v X $427
428 # C 3 = {mesaj reclam$}, C 4 = {mesaje injurioase}. Trebuie explicitate teste de plasare, automat$ sau nu, a unor mesaje noi X!F într-una din aceste clase. Pentru simplitate, vom presupune în continuare c$ M=2, deci c$ exist$ doar dou$ clase # C 1, C 2 ( ipoteza binar$ ). Cazul M&3 nu este principial mai dificil. Func#ii-discriminant; testul geometric!i testul Bayes de clasificare Relu$m problema formulat$ anterior "i presupunem c$ orice vector de date # X!F poate fi descris printr-un set de n numere reale v X "i fie v 1 (respectiv v 2 un vector reprezentativ pentru # C 1 (respectiv # C 2 ); de exemplu, vectori medie. Presupunem în plus c$ hiperplanul mediator (H) al segmentului [# v 1, v 2 ] din #! n separ$ liniar clasele # C 1, C 2, ca în figura 9.2. În aceste condi!ii, vom putea indica un criteriu (#! test) geometric pentru ca un obiect X!F s$ fie plasat în C1 sau C2. Anume, asimil$m clasele C1, C2 cu submul!imi disjuncte ale lui #.! n curent Figura 9.2 Fie v# 1 = ( a 1, a 2,..., a n ), v 2 = ( b 1, b 2,..., b n ) "i un punct x = x 1,..., x n. Atunci 428
429 $ { } = { x d( x, v 1 ) = d( x, v 2 )} $ H = x! n x v 1 = x v 2 unde $ u este norma euclidiană și d(u, v)=$ u v distanța euclidiană. Considerăm semispațiile: { > d( x, v 2 )} { < d( x, v 2 )} $ H + = x! n d x, v 1 și $ H = x! n d x, v 1, deci H $ + H =, H + H =! n \ H ș i a d m i t e m c ă $ C 1 H +, C 2 H. 2 2 Condiția $ x H revine la $ x i a i = xi b i deci 2 2 $ 2 b i a i x i + a i b i = 0, adică i 2 2 $ 2 v 2 v 1, x + v 1 v 2 = 0. Definiția 9.7. Funcț i a g $ :! n!,!g x (produs scalar euclidian) se numește funcția discriminant asociată problemei puse. În general, astfel de funcții discriminează între clase. PROPOZIȚIA 9.6. (testul geometric de clasificare). Fiind dată forma sau setul de date $ X F și vectorul $ asociat, atunci $ X C 1! g X și $. Demonstrația: este imediată: i etc. Notă: Acest criteriu este indecidabil în cazul când g(x)=0. În acest caz, se apelează la informații suplimentare (adăugând alți $429 i i i = 2 v 2 v 1,!x + v 1 2 v X > 0 X C 2! g( X) < 0 X C 1! X H +! d X,v 1 > d( X,v 2 )! i 2 2! X v 1 > X v 2! x i a i 2! g X > x i b i > 0 i 2 >, v 2 2
430 parametri ai seturilor de date) sau se aplic$ alt criteriu. Criteriul se extinde la m clase # C 1, C 2,..., C m, cu dificult$!i doar de nota!ie. O problem$ dificil$ este cea a stabilirii separabilit$!ii claselor apriorice # C i. În figura 9.3 indic$m diverse situa!ii. Figura 9.3 Exemplu: Ne plas$m în! 2 "i consider$m dou$ clase: C1 având ca e"antioane de înv$!are vectorii v 1 ' v 1 '' ' = ( 1, 2), v 2 "i C2 având e"antioanele Aplicând testul geometric, s$ se decid$ c$rei clase îi apar!ine vectorul v=(0, 1); figura 9.4. Consider$m ca vector reprezentativ pentru C1, vectorul mediu ' = ( 3, 1), v 3 = ( 2, 0) '' '' '' = ( 0,! 2), v 2 = (!1, 2), v 3 = (!3, 0), v 4 = 2, 1 v 1 = 1 3 v ' ' v 2 + v 3 = 0, 4 "i ca vector reprezentativ. =!1, 1 v 2 = 1 4 v '' '' '' '' 1 + v 2 + v 3 + v 4 pentru clasa C2. Func!ia discriminant este g(x, y)= 6x+3. Deoarece g(v) = 3>0, rezult$ c$ # v!c
431 $ Figura 9.4 Revenim la problema principal! a clasific!rii supervizate #i formul!m testul Bayes. Fie v 1 #i v 2 vectori reprezentativi ai claselor C1, C2 #i presupunem cunoscute probabilit!"ile apriorice: $ p 1 = P( X!C 1 ), p 2 = P( X!C 2 ) cu $ p 1 > 0, $ p 2 > 0, $ p 1 + p 2 = 1. Dac! $ X = X 1, X 2 este un vector aleator (vector de date sau asociat unei forme) #i $! un eveniment cu probabilitatea nenul!, atunci se poate considera func"ia de reparti"ie $ F X! a lui X condi"ionat! de $, definit! prin $ F X!, precum #i densitatea de probabilitate $ :! 2!!! ( x 1, x 2 ) = P( { X 1! x 1, X 2! x 2 }! ) p( X! ) =!2 F!x 1!x 2 Bayes pentru densitatea lui X: $ p = p( X C 1 )!P( C 1 ) + p( X C 2 )!P( C 2 ).. Atunci are loc formula lui [Într-adev! r, notând! $ = C 1 " C 2 # i B =evenimentul { } x 1, x 2 $ X 1! x 1, X 2! x 2, cu $ numere reale fixate, avem P( B) = P( B C 1 )!P( C 1 ) + P( B C 2 )!P( C 2 ) 431
432 adică: # și derivăm această relație]. În fine, se definește probabilitatea aposteriorică a clasei C1, ca fiind probabilitatea ca, după ce forma X a fost clasificată, aceasta să aparțină la C1; așadar, # P( C 1 X) = p ( X C 1) P( C 1 ) (23) p X și similar pentru # P C 2 X. O regulă naturală de clasificare este următoarea: Dacă P# C 1 X, respectiv <, atunci # (respectiv # X C 2 ). Definiția 9.8. Raportul L# X se numește P X C 2 raportul de plauzibilitate al claselor C1, C2 relativ la vectorul aleator X, iar funcția h(x)= ln L(X) se numește discriminantul Bayes al lui X. PROPOZIȚIA 9.7. (testul Bayes de clasificare). Dacă < ln P ( C 1) # h X (respectiv > ), atunci X# C (respectiv P( C 2 ) 1 # X C 2 ). Demonstrație: #432 F = F( X C 1 ) P( C 1 ) + F( X C 2 ) P( C 2 ) Inegalitatea # h X revine la P( C 2 ) # ln L X, P( C 2 ) > 0 > P( C 2 X) X C 1 + ln P ( C 1) < ln P ( C 1) = P X C 1 adică # L( X) P C 1 sau #. P( C 2 ) > 1 L( X) > P C 2 P( C 1 )
433 $ Este suficient de arătat că P$ C 1, deci c o n f o r m ( 2 3 ), p$ ( X C 1 ) P( C 1 ) > p( X C 2 ) P( C 2 ) s a u > P C 2 p X C 1 $, adică $ L( X) > P C 2. Similar pentru >. p X C 2 P( C 1 ) P( C 1 ) Particularizăm testul Bayes pentru cazul când densitățile p( X C 2 ) $ p X C 1 și $ sunt normale (gaussiene). Sunt necesare câteva pregătiri. M n! Dacă $ A = a ij este o matrice simetrică și pozitiv definită, atunci pentru orice vectori coloană n dimensionali u, v se definesc produsul scalar $ u, v = u T A v, norma $ u = u, u 1 2 și distanța Mahalanobis $ d u, v relativ la matricea A, notată și d(u, v, A). Dacă $ A = I n, atunci se regăsește distanța euclidiană. Un T vector aleator $ X = X 1, X 2 se numește repartizat normal dacă matricea sa de autocovarianță $ = K X este pozitiv definită și are densitatea comună de probabilitate f ( x) = f ( x 1, x 2..., x n ) = unde $ µ e s t e v e c t o r u l m e d i e a l l u i X ș i $ d 2 x, µ, Σ și $ este distanța Mahalanobis între vectorii coloană x și $ µ, asociată lui $ Σ. Se mai scrie $ X N µ, Σ. = u v 1 ( 2π ) n 2 det Σ X > P( C 2 X) exp 1 ( n 2 2 d2 x, µ, Σ) = ( x µ ) T Σ 1 ( x µ ) d( x, µ, Σ) $433
434 # COROLAR: Presupunem că densitățile # p X C 1 și µ 1 respectiv # p X C 2 sunt normale, cu vectorii medii # (respectiv # µ 2 ) și matricele de autocovarianță # Σ 1 (respectiv # Σ 2 ). În aceste condiții, dacă ( x µ 1 ) T Σ 1 1 x µ 1 ( x µ 2 ) T Σ 1 2 ( x µ 2 ) + ln det Σ 1 atunci # X C 1 și similar, dacă... <, atunci # X C 2. Algoritmul perceptron (testul lui Rosenblatt) T Dacă X # = x 1, x 2,..., x n un vector coloană de date statistice (sau caracteristici ale unor fenomene), se consideră vectorul (n+1) dimensional extins Y # = 1, x 1,..., x n > 2ln P C 1 det Σ 2 P C 2 T C1, C2. Pentru simplificare, presupunem că există doar două clase # identificate ca submulțimi din #! n, separabile printr-un hiperplan și, în plus, că există N eșantioane de învățare (testare) # X 1,..., X N, care descriu forme despre care se știe deja că aparțin la C1 sau C2. În 1957, Rosenblatt a descris perceptronul ca model operațional capabil de învățare și rezolvare a unor probleme de clasificare, iar în 1958 a realizat primul neurocomputer, capabil să recunoască diverse caractere, pregătind astfel conceptul de rețea neurală. Se dau vectorii coloană n dimensionali # X 1,..., X N ca eșantioane de învățare, care aparțin claselor preexistente C1, C2. Pasul 1. Se determină vectorii coloană (n+1) dimensionali extinși Y# 1,..., Y N, având prima componentă egală cu 1 și apoi componentele lui # X1,..., XN, respectiv. Pasul 2. Se determină vectorii # Z j, j 1, unde #434
435 $ Z j = Y daca X C j j 1, pentru 1 j N ; Y j daca X j C 2 apoi Z$ N+1 = Z 1, Z$ N+2 = Z 2 etc. (deci ciclic se mai folosesc eșantioanele de învățare o dată și încă o dată etc.). Pasul 3. Se consideră șirul de vectori coloană (n+1) dimensionali (Wk, k 0 definit inductiv prin W 0 = 0 și $ W k+1 = W daca W T k k Z k > 0, pentru k > 0. W k + Z k daca W T k Z k 0 Pasul 4. Se arată că acest șir converge către un vector T W T Z j > 0 j 1 $ W = w 0, w 1,..., w n, astfel încât $ pentru orice " și se consideră funcția discriminant = w 0 + w 1 x w n x n $ g :! n!, g x 1,..., x n. Așadar, g$ X W T Z daca X C 2 = W T Y = W T Z daca X C 1, deci g(x) > 0 (respectiv < 0) dacă $ X C 1 (respectiv $ X C 2 ). Pasul 5 (decizia). Dacă F este un vector de date sau o formă nouă, încă neclasificată, atunci se consideră vectorul ei reprezentativ $ X F următoarea decizie de clasificare:, vector coloană n dimensional și se aplică > 0 F C 1 F C 2 Dacă $ g X F (respectiv < 0), atunci $ (respectiv$ ). Notă: Dacă g$ X F = 0, atunci există o insuficiență a testului lui Rosenblatt și considerăm că F aparține la C1 sau la C2 (aleasă la întâmplare) sau aplicăm alte criterii de clasificare. S-a demonstrat că acest algoritm clasic converge, după un număr finit de pași, în cazul când eșantioanele de învățare ale claselor C1, C2 sunt separabile printr-un hiperplan; dar dacă C1, C2 $435
436 # # nu sunt separabile, se poate întâmpla ca numărul de pași ai algoritmului să crească nelimitat. În locul demonstrației, preferăm să dăm un exemplu. Exemplu: Considerăm eșantioanele de învățare și presupunem că X# 1, X 3 C 1 ; X 0, X 2 C 2 (clase evident separabile în # X 0 = 0 0, X = 1 1 0, X = 0 2 1, X = 1 3 1! 2 ). Conform pașilor 1 și 2, avem Y 0 = 0, Y = 1 1, Y = 2 0, Y = 3 1, Z 0 = Y 0, Z 1 = Y 1, Z 2 = Y 2, Z 3 = Y 3, Z 4 = Y 0, Z 5 = Y 1 etc. 0 Fie apoi # W 0 = 0 și aplicăm pasul 3, pentru k=0; avem 0 1 # W T 0 Z 0 = 0 deci # W 1 = W 0 + Z 0 = 0. 0 Înlocuind k=1, avem # W T 1 Z 1 = 1 < 0, deci 0 # W 2 = W 1 + Z 1 = Apoi, # W T 2 Z 2 = 0 deci # W 3 = W 2 + Z 2 = 1 și 1 #436
437 0 $ W T 3 Z 3 = 1 < 0 deci $ W 4 = W 3 + Z 3 = Pentru k = 4 avem $ W T 4 Z 4 = 0 deci $ W 5 = W 4 + Z 4 = 2 ; 0 1 apoi $ W T 5 Z 5 = 1 > 0, deci $ W 6 = W 5 = 2 0 și $ W T 6 Z 6 = 1 > 0, W 7 = W 6, ajungându-se la staționaritate. 1 Ca atare, la limită, $ W = 2 și conform pasului 4, se 0 consideră funcția discriminant $ g :! 2!, g x 1, x 2. În cazul unei forme F având vectorul de caracteristici $ X F = u, trebuie calculat $. v g( X F ) = 1+ 2u > 0 u > 1 2 Dacă g$ X F, adică $, atunci F$ C 1 și dacă u $ < 1, 2 atunci $ F C 2. Algoritmul perceptron nuanțat ( fuzzy perceptron ) Sunt necesare câteva pregătiri relativ la mulțimi nuanțate ( fuzzy sau vagi ). Dacă fixăm o mulțime totală T, atunci pentru orice submulțime $ A T se poate considera funcția indicator $ I A :T B $ = { 0, 1}, I A x = w 0 + w 1 x 1 + w 2 x 2 = 1+ 2x 1 = 1 daca x A 0 daca x T \ A $437
438 Pentru orice submulțimi # A, B T, avem în mod evident: # A B! I A I B ; A = B! I A = I B ; I# A B = min I A, I B ; # I A B = max I A, I B ; # ; # (constant)# și IA=1 (constant)! A = T. Practic, mulțimea A se identifică cu funcția IA. De exemplu, o imagine 2D poate fi bine descrisă prin funcția ei de strălucire, proporțională cu funcția indicator. Proprietățile anterioare au sugerat în 1972 inginerului azero american L. Zadeh conceptul de mulțime(!) nuanțată relativ la T, ca fiind o aplicație # u :T 0, 1. Dacă #, valoarea u(x) se numește coeficientul (# gradul) de apartenență a lui x la u. Dacă u, v sunt mulțimi nuanțate, se definesc: # u v! x T, u x ; # și # u v = max u, v. Coeficientul de apartenență este diferit de cel de probabilitate. Exemple: 1) Dacă # A T este o submulțime în sens uzual, atunci funcția indicator IA este o mulțime nuanțată relativ la T. 2) Orice proprietate vagă, de tipul inteligenței, frumuseții, înălțimii, onestității, escrocheriei etc. pe mulțimea T a oamenilor, determină câte o mulțime nuanțată. De exemplu, dacă # u inteligența, atunci # u :T 0, 1 este aplicația care asociază oricărui om # x T, coeficientul lui de inteligență, u(x), care este presupus cuprins între 0 și 1 (și nu 0 sau 1 ca în cazul funcției indicator). Mulțimile nuanțate formează o latice, dar nu o latice booleană (deoarece pentru o mulțime nuanțată # u :T 0, 1, nu există complementara ei și # v :T 0, 1, astfel încât # și # u v = 0 ; de exemplu, funcția constantă # u = 1 nu are 2 #438 I T \ A = 1 I A I A = 0! A = [ ] x T v( x) u v = min( u, v) [ ] [ ] [ ] u v = 1
439 complementară). Studiul mulțimilor nuanțate se face în cadrul logicii infinit valente. Să presupunem că avem o mulțime de vectori coloană eșantioane de învățare T $ =, pe care știm să le plasăm nuanțat în M clase disjuncte exhaustive $ C 1,..., C M. Pentru aceasta, este necesar să specificăm coeficientul ($ gradul) de apartenență uik al fiecărui vector Xk la clasa Ci. Pentru fiecare clasă Ci avem câte o mulțime nuanțată. $ u i :T B, X k! u ik ; 1 i M, 1 k N. Se obține astfel o matrice M $ N, anume U $ = u ik unde uik=gradul de apartenență a vectorului Xk la clasa Ci. Pentru orice 1 k N, avem $ { } X 1,..., X N Σ i=1 M u ik = 1; apoi pentru 1 i M, nu toți uik sunt 0 sau 1. În cazul M =2 (deci două clase), rezultă matricea $ U = u u... u N și $ pentru 1 k N. u 21 u u 2 N u 2k = 1 u 1k Înlocuind fiecare Xk cu Y k = 1, 1 k N, se determină X k ca în algoritmul anterior un vector W $ = w 0, w 1,..., w n și funcția discriminant: $ g :! n!, g( x 1,..., x n ) = w 0 + w 1 x w n x n, astfel încât dacă X k C 1 (respectiv C2), atunci (respectiv < 0). Înmulțind toți vectorii clasei C2 cu 1, rezultă că > 0 pentru orice $ 1 k N, avem $ g X k. Hiperplanul de separație = 0 între clasele C1, C2, are ecuația g x. T g( X k ) > 0 Reluăm cu unele modificări etapele algoritmului perceptron deja prezentat. $439
440 Pasul 1. Fie X# 1,..., X N vectorii coloană eșantion de învățare (n+1) dimensionali, adăugând prima componentă 1 și înmulțind vectorii clasei C2 cu 1. Alegem apoi un vector coloană inițial (n+1) dimensional W și inițializăm j=1; Pasul 2. Dacă # W T Z j > 0, atunci se merge la pasul 4; dacă # W T Z j 0 se continuă la pasul 3; Pasul 3. # W W + ρx j (# ρ > 0 fiind un factor de corecție constant sau variabil); Pasul 4. # j j +1. Dacă j N se merge la pasul 2. STOP. Dacă C1, C2 sunt separabile, atunci acest algoritm determină vectorul W și funcția discriminant g după un număr finit de pași. Dacă C1, C2 nu sunt separabile (fie și din cauza unor eșantioane de învățare clasificate eronat), utilizarea mulțimilor nuanțate este productivă. Dacă pentru M = 2, în matricea U avem u 1k 1, atunci u 2k 1 și apartenența lui Xk la una din clase este 2 2 ambiguă. Se poate atunci modifica algoritmul perceptron astfel 1 încât vectorii cu coeficient (grad) de apartenență apropiat de # să 2 aibă o influență mai redusă asupra rezultatelor. Anume, se modifică pasul 3 al corecției vectorului W, introducând m Pasul 3'. W# W + u 1 j u 2 j ρ X j, unde m > 0 este o constantă (bineînțeles, dacă # u 1 j = 0 sau 1, atunci # u 2 j = 1 sau 0 și m # u 1 j u 2 j = 1, regăsind algoritmul perceptron clasic). #440
441 Alegerea parametrului m poate accelera convergența; în cazul 1 unor ambiguități (adică grade de apartenență în jurul valorii $ ) se 2 recomandă alegerea unei valori m 2. Algoritmul perceptron în contextul rețelelor neuronale Rețelele neuronale (R.N.) sunt sisteme neliniare formate dintr-un număr mare de procesoare elementare numite neuroni (sau perceptroni), care acționează în paralel. Datele inițiale sunt reprezentate prin ponderile asociate legăturilor între neuroni. Învățarea rețelei se realizează tocmai prin modificarea acestor ponderi. Noțiunea de neuron (artificial) a fost introdusă în 1943 de McCulloch și Pitts ca model matematic al neuronului biologic. Orice R.N. este un graf constând din neuroni, unii fiind legați prin arce etichetate cu ponderi. Orice neuron își schimbă starea după ce informațiile primite și cumulate depășesc un anumit prag. R.N. realizează un nou model de organizare a calculelor (privite ca schimbări de stări), fără programe ci numai pe baza utilizării de eșantioane de învățare. Dacă în abordarea clasică a unei probleme se aplică un algoritm care necesită un anumit număr de operații, în abordarea neural conexionistă, o anumită arhitectură a rețelei, împreună cu o formulă de calcul al ponderilor, permite rezolvarea interactivă a problemei puse. Un neuron artificial este orice set de date x = ( x 1,..., x n )! n $ v = x, w, θ; Φ, unde $ este vectorul de! n intrare al neuronului, w $ = w 1,..., w n este vectorul de ponderi (tot în număr de n), iar $ θ este un număr real numit pragul neuronului la un moment dat; $ Φ x, w, θ este o funcție de 2n+1 variabile reale, numită funcție de ieșire a neuronului $ v. $441
442 # A"adar, orice neuron v are n intr$ri "i o singur$ ie"ire, anume y=# y =! x, w,! "i este reprezentat ca în figura 9.5. Figura 9.5 Un caz particular important îl constituie neuronul liniar, pentru care exist$ o func!ie # f :!!! monoton cresc$toare, cu valori pozitive, astfel încât!# x, w,!. Func!ia f se nume"te func"ie de activare, iar expresia n #! w k "! este intrarea net! a neuronului la un moment dat. k=1 x k sigmoida # F x (# k=1 ) n = f x k w k "! Cele mai utilizate func!ii de activare sunt treapta unitate "i!1 = 1+ exp (!x / T ), unde T > 0 este fixat. O re!ea neuronal$ (R.N.) având p straturi este orice graf orientat, etichetat pe arce, în care vârfurile sunt neuroni # v 1,..., v M dispu"i pe straturi de intrare, straturi ascunse (interioare) "i straturi de ie"ire; arcele sunt leg$turi între noii neuroni, pe fiecare arc fiind indicat$ ponderea respectiv$. Re!eaua se nume"te liniar$ dac$ to!i neuronii sunt liniari. Ponderile "i num$rul de neuroni de pe fiecare strat poart$ numele de arhitectur! a re!elei la un moment dat. Ponderile sunt fie fixate, fie recalculate pe baza unor noi e"antioane de înv$!are. 442
443 $ $ Exemple: 1) O re"ea neuronal! liniar! având un strat de intrare cu 3 neuroni de intrare, f!r! straturi ascunse #i cu o singur! ie#ire arat! ca în figura 9.6, fiind de fapt un neuron. Figura ) O R.N. liniar! cu un strat de intrare (având doi neuroni v 1, v 2 ), un strat ascuns (cu v 3, v 4 ) #i unul de ie#ire cu trei neuroni arat! ca în figura 9.7. Figura 9.7 3) R.N. modeleaz! sistemul nervos al creierului uman; neuronii sunt celulele nervoase, intr!rile sunt dentritele, ie#irile axoni #i arcele sinapse. Creierul uman are circa neuroni #i sinapse. Impulsurile electrice cumulate într-un neuron sunt n intr!rile nete $! w k #i atunci când o astfel de sum! dep!#e#te k=1 x k 443
444 # un anumit prag, neuronul se excit$ "i emite o ie"ire nenul$ care se transmite în întreaga re!ea. 4) Presupunem acum c$ exist$ dou$ clase de forme C1, C2 "i c$ orice form$ F se reprezint$ printr-un vector de caracteristici T # X F = 1, X 1,..., X n. Pe baza unor e"antioane de înv$!are (unele din C1, altele din C2 se calculeaz$, prin algoritmul perceptron (clasic sau nuan!at), ponderile # w 0, w 1,..., w n "i func!ia de ie"ire ( " j=1 ) = f W T # X F n = f w 0 + w j x j #! x, w unde # W T = w 0, w 1,..., w n "i f este func!ia de activare. Este suficient de considerat R.N. din figura 9.8 cu un strat de intrare având n neuroni, cu strat cu o singur$ ie"ire, cu ponderile # w 1,..., w n "i cu pragul #! =!w 0. Luând ca func!ie de activare treapta unitate, avem y=1 dac$ W# T! XF " 0 "i y=0, dac$ # W T! X F < 0. Figura 9.8. Decizia de clasificare este urm$toarea: dac$ y=1, atunci # F!C 1 "i dac$ y=0, # F!C 2. Exist$ o literatur$ bogat$, consacrat$ aplica!iilor celor mai diverse ale R.N., dar ne-am mul!umit cu o scurt$ introducere, 444
445 legată de recunoașterea formelor și clasificarea seturilor de date statistice. Recunoașterea feței umane Prin metode de Recunoaștere a formelor s-au obținut mari succese în recunoașterea amprentelor, a semnăturii sau chiar a vocii umane. Matematicienii chinezi Cheng, Ting, Yang și Wang au prezentat o metodă pentru recunoașterea imaginii faciale, prin utilizarea descompunerii singulare a matricelor. Fie matricea $ A M mn (!) nivelelor de gri ale unei fețe umane discretizate supusă studiului. Considerăm descompunerea singulară a matricei A, de forma $ A = U Σ V T T = λ i u i v i,unde i=1 $ U = u 1,..., u k, u k+1,..., u m, $, $ Σ = diag λ 1,..., λ k, 0,..., 0 ; aici $ $ λ 1 >... > λ k > 0, iar $ λ 2 2 1,..., λ k sunt valorile proprii nenule ale matricei pătratice $ A A T (aceleași cu cele ale matricei $ A T A ); $ λ i se numesc numerele singulare ale lui A; u$ 1,..., u m sunt versorii proprii ai lui $ A A T, iar $ v 1,..., v n versorii proprii ai lui $ A T A. Reamintim că dacă $ A = ( a ij ); 1 i m, 1 j n, atunci se definește norma Frobenius $, numită și energia feței umane respective. Dacă se elimină valorile proprii T mici, se obține o aproximare $ A' = u i v i pentru A (cu r < 2 k) și avem $ A A' F = λ i. k V = ( v 1,..., v k, v k+1,..., v n ) k = rang ρ A k ( i=r+1 ) 1 2, A F = i, j a ij r λ i=1 i Dacă B$ M mn! este o altă matrice, atunci se poate defini imaginea proiectivă a lui B pe A, ca fiind matricea $445
446 # B = U Σ V T T = u i v i, unde # Σ = diag λ 1,..., λ k, 0,..., 0 și # cu 1 i k. Avem # B B A B F F + λ i λ i. Pentru fețele umane apropiate, din aceeași clasă, distanțele între matricele asociate sunt mici și trecând la imagini proiective, aceste distanțe sunt și mai mici. Presupunem acum că pentru o clasă C de fețe umane avem eșantioanele de învățare A# 1,..., A N M mn! media # µ = 1 N A +..+ A 1 N k k λ i=1 i λ i = u i T B v i k ( 2 i=1 ). Se calculează, descompunerea singulară a mediei: T # µ = λ i u i v i ca mai sus, precum și imaginile proiective i=1 i # A1,..., An pe # µ deci # Ai = x j u T j A i v j, 1 j k. j=1 ( i Vectorul X# i = x ) 1, x ( i ),..., x ( i ) 2 se numește vectorul de k coordonate al imaginii proiective a lui Ai pe µ, pentru 1 i N. ALGORITMUL (de clasificare supervizată a feței umane) Fie M clase # C 1,..., C M de imagini faciale, fiecare clasă ( i # C i fiind definită prin # N i eșantioane de învățare # A ) ( i) 1,..., A Ni din # M mn (!); 1 i M. Pasul 1. Se determină media # µ i = 1 ( i A ) ( A i ) Ni și N i ( descompunerea singulară a ei, adică setul de matrice # ) ( i), v j, # 1 j r cu r min(m, n) și 1 i m. k 1 2 u j i #446
447 Pasul 2. Se calculează vectorii de coordonate ai imaginilor ( i proiective pe $ µ i, a n u m e X$ ) ( i j = x ) ( 1) j1,..., x jr, u n d e ( i $ x ) ( i) ( jp = u ) ( i) p v p pentru $ 1 p r, 1 j N i, 1 i M. Pasul 3. Se determină centrul clasei Ci prin ( i $ X ) C = 1 ( i) X j. N i Pasul 4 (Decizia). Pentru orice imagine facială nouă ce trebuie clasificată Φ$ M mn!, se calculează imaginile proiective ale lui $ Φ pe $ µ i, 1 i M și vectorii de coordonate respectivi Y 1, $..., Y M ; a n u m e, n o t â n d ( i $ z ) ( i) ( p = u ) ( i p, 1 p r, avem Y$ i = z ) ( i) 1,..., z r, pentru $ 1 i m. T A j i N i j=1 T Φ v p i Dacă $ min Y X i este atins pentru $, atunci Φ se i C i = i 0 1 i M F C i0 plasează în clasa $. Rezultate experimentale: Nu este dificilă determinarea complexității acestui algoritm. S-au considerat imaginile faciale a 8 persoane și pentru fiecare persoană, câte 8 imagini diferite (cu diverse expresii facile și poziții). Fiecare față consta din $ pixeli și fiecărui pixel i se aloca un nivel de gri din cele 64 ( posibile. Au fost determinate cele 8 centre $ ) ( 8),..., X C și s-a constatat că metoda asigură o bună separabilitate a claselor, cu procent de recunoaștere corectă de 95%. Algoritmul a fost perfecționat, dar am dorit să prezentăm doar esența uneia din tehnicile moderne matematico informatice. Clasificarea nesupervizată (Clustering) Până acum am presupus existența unor clase deja constituite și a unor mulțimi de învățare, care conțineau $447 X C 1
448 eșantioane de forme deja clasificate, pe baza cărora s-au putut determina funcții discriminant. Există însă situații în care nu există clase constituite și nici eșantioane de învățare; este suficient să ne gândim la clasificarea plantelor sau animalelor în funcție de caracteristicile lor, dar și la explorarea unor zone deșertice, planete nelocuite sau alte domenii complet nestudiate din microbiologie, geologie, vulcanologie etc. Orice clasificare din acest caz se numește nesupervizată, numită și clustering ( cluster % grup, clasă), fiind bazată pe investigarea naturii și structurii eșantioanelor. Clasele trebuie să îndeplinească două condiții esențiale: - să fie omogene (adică în aceeași clasă să se afle entități cu caracteristici similare); - să fie separabile (entități nesimilare să se afle în clase distincte). Există diverse teste de clasificare nesupervizată, începând cu definirea unei măsuri a similarității, dar vom prezenta unul simplu și ușor de aplicat. Ca măsură tip de similaritate considerăm diverse distanțe. Ca distanță între doi vectori n dimensionali T Y = ( y 1,..., y n ) T ( 2 k ) 1 2 # X = x 1,..., x n, #, se poate considera distanța euclidiană # X Y = x k y k s a u m a i s i m p l u, # X, Y. d 1 k = x k y k Definiția 9.9. Distanța dintre un vector X și o clasă C de vectori (toți n dim) este d# X, C = min dintre două clase C și C # ' = d C, C ' Y C d X, Y = min X C, Y C ' d X, Y distanța dintre vectorii medie respectivi. În continuare, nu precizăm distanța utilizată. Dăm următorul: #448, iar distanța, sau
449 ALGORITM (de clasificare ierarhică nesupervizată). Se consideră N vectori eșantion X$ 1,..., X N (vectori coloană n dim), pe care dorim să-i grupăm în clase care se formează pe parcurs. Primul pas este acela de a considera că fiecare vector este o clasă $ C 1 1 = { X 1 },..., C 1 N = { X N }. Se calculează apoi distanțele d$ ( X i, X J ), i < j și fie minimul acestora, atins pentru $ i 0, j 0. Atunci eșantioanele $ X i0, $ X j0 se grupează într-o singură clasă, notată $, iar celelalte N 2 X i0 j 0 rămân nemodificate. Astfel se obțin N 1 clase { } = X i0 j 0, C 2 2,..., C N 1 $ C = X i0, X j0. Indicele superior marchează pasul 2 al grupărilor. Se consideră gruparea pe baza distanței minime și se obțin N 3 clase etc. Procedura se oprește în funcție de context, atunci când distanța nu mai coboară sub un anumit prag sau când atinge un număr corespunzător de clase. Reamintim că un graf orientat cu legături simple este un arbore ($ dendrogramă) dacă are un singur vârf $ ($ rădăcina arborelui și dacă pentru orice alt vârf v v 0 există un singur drum care unește " cu v; un arbore nu are cicli și este conex. Vârfurile care nu au succesori se numesc terminale (sau frunze). Termenul ierarhică amintește de structurile arborescente existente în ierarhiile administrative sau profesionale. Se cunosc două variante ale clasificării ierarhice: aglomerativă ($ bottom up ) și divizivă ($ top down ). Prima necesită un calcul mai redus, dar în cazul unui v 0 $449
450 număr mare de terminale pe care să le grupăm într-un număr redus, se recomandă metoda divizivă. Algoritmul prezentat anterior este un exemplu de clasificare ierarhică aglomerativă. Îl reluăm ceva mai sistematic. Fiind date eșantioanele de clasificare X# 1,..., X N, se prelimină M clase și se urmează următorii pași : Pasul 1. Fie #!M = N și # C i = { X i }, 1 i N. Pasul 2. Dacă #!M M, STOP. Pasul 3. Se găsesc cele mai apropiate două clase; fie ele C i0 C j0 #, #. Pasul 4. Se reunesc # C i0, C j0 și se scade #!M cu Ne amintim, în context, un film scurt Il dentone cu neuitatul Alberto Sordi... Pasul 5. Se trece la pasul 2. Dacă # dendrogramă.!m = 1, atunci se obține o Notă: Gruparea rezultată așa simplist rareori optimizează o anumită funcție criteriu specific și se înlocuiește pasul 3 cu Pasul 3'. Se determină perechea de clase prin a cărei reunire funcția criteriu crește sau descrește cât mai puțin posibil. Există mulți alți algoritmi de clasificare mai performanți, dar ne oprim aici. Exemple: 1) Să presupunem că se organizează un concurs pentru ocuparea unui post de crainic TV 29. Fiecărui candidat i se atribuie 4 note de la 1 la 5 pentru: nivel profesional, dicție, spontaneitate și aspect fizic. S-au prezentat 5 candidați # X k, 1 k 5, care au obținut următoarele rezultate: T X 2 = ( 2, 3, 4, 4) T # X 1 = 3, 4, 2, 3 ; # ; T X 4 = ( 4, 4, 2, 2) T # X 3 = 4, 2, 5, 3 ; # ; T # X 5 = 4, 3, 4, 5. #450
451 Ne propunem s!-i plas!m în M=2 clase C1, C2 #i s! construim dendrograma respectiv!. Folosim ca distan"! suma modulelor distan"elor dintre componente. Avem d( X 1, X 2 ) = = 5, d( X 1, X 3 ) = 6, = 2 d( X 1, X 5 ) = 6 d( X 2, X 3 ) = 5 = 7 d( X 2, X 5 ) = 3 d( X 3, X 4 ) = 6 = 4 d( X 4, X 5 ) = 6 $ d X 1, X 4, $, $, $ d X 2, X 4, $, $, $ d X 3, X 5 #i $. Prima grupare este $ { X 1 }, { X 2 }, { X 3 }, { X 4 }, { X 5 }. A doua va fi $ X 1 4, { X 2 }, { X 3 }, { X 5 }. Avem $ d X 1 4, X 2, $, = 6 d X 2, X 3 $ d X 1 4, X 5, $, $, d( X 3, X 5 ) = 4, deci minimul este atins pentru X2 #i X5. Atunci gruparea urm! toare este X$ 1 4, X 2 5, X 3. În fine, $ d X 1 4, X 2 5, $ #i $ deci în final, se ob"in clasele C 1 = X 1 4 #i C 2 = X Dendrograma respectiv! este indicat! în figura 9.9. = 5 d( X 1 4, X 3 ) = 6 = 5 d( X 2, X 5 ) = 3 { } = 5 d( X 1 4, X 3 ) = 6 d( X 2 5, X 3 ) = 4 Figura
452 Concluzie: Candidații X1 și X2 sunt similari și la fel X2, X3 și X5. Pentru a-i departaja, luăm în considerație alte criterii; de exemplu, media și atunci candidatul X5 are media cea mai mare, anume 4 (patru). 2) Presupunem că starea unui oraș # ω în anul 2016 poate fi reprezentată p r i n t r - u n v e c t o r c u 7 c o m p o n e n t e ω 1 = # ω = ω 1, ω 2, ω 3, ω 4, ω 5, ω 6, ω 7 unde # nivelul orașului; # ω 2 = costul vieții; # ω 3 = nivelul poluării; # ω 4 = nivelul cultural; # ω 5 = numărul noilor născuți în ultimul an; # ω 6 = rata imigrației (număr de persoane stabilite în oraș în ultimul an); # ω 7 = rata emigrației. Toate componentele primesc note de la 1 la 10. Așadar, un oraș este identificat cu vectorul respectiv de caracteristici numerice. Pentru exemplificare, am considerat 6 orașe și am alcătuit tabelul următor de note (tabelul 1). Orașul #ω 1 #ω 2 #ω 3 #ω 4 #ω 5 #ω 6 #ω 7 Media notelor București ,1 Timișoara ,3 Cluj ,6 Iași ,8 Ploiești ,3 Craiova ,6 Tabelul 1 Introducem notațiile X1 = București, X2 = Timișoara, X3 = Cluj, X4 = Iași, X5 = Ploiești, X6 = Craiova. Calcuând distanțele mutuale (ca sume ale modulelor diferențelor componentelor), rezultă următorul tabel (figura 9.10): #452
453 Figura 9.10 Distan"a minim! este între X4 #i X6, pe care le grup!m împreun!. Se ob"in atunci clasele $ { X 1 }, { X 2 }, { X 3 }, { X 4 6 }, { X 5 }, între care distan"ele sunt cuprinse în urm!torul tabel (figura 9.11): Figura 9.11 Se pot considera grupele $ { X 1 }, { X }, X 4 6 { } distan"e sunt cuprinse în tabelul urm!tor (figura 9.12):, ale c!ror 453
454 Figura 9.12 Concluzie: Dac$ se formeaz$ dou$ clase, acestea sunt { } { X 1 } X "i. A"adar, se deta"eaz$ ora"ul Bucure"ti. Luând în considerare doar mediile notelor acordate, clasificarea ar fi: 1. Cluj; 2. Timi"oara; 3. Bucure"ti etc. Not$: Problema ordon$rii (ierarhiz$rii) nemanipulate a seturilor de date este una din cele mai importante "i nebanale ale Statisticii sociale. În via!a curent$, se creeaz$ ierarhiz$ri ale universit$!ilor, ora"elor, paginilor web, candida!ilor la concursuri cu jurii, filmelor, televiziunilor, rating urilor etc. O ordonare #! este o rela!ie de preferin!$: dac$ # a! b, atunci se spune c$ a este preferat lui b. Principala proprietate este tranzitivitatea: (a$! b, b$! c implic$ a$! c) "i faptul c$ pentru orice a, b avem a$! b sau b$! a. O problem$ de mare interes este aceea a combin$rii listelor de ordine. Marchizul de Condorcet ( ), academician "i om politic, autor al unui vast program de progres al spiritului uman, a r$mas celebru prin urm$torul paradox, care a pus pe jar pe to!i speciali"tii în ierarhiz$ri. 454