Capitolul 2. Caracteristici fundamentale ale reţelelor neurale artificiale

Μέγεθος: px
Εμφάνιση ξεκινά από τη σελίδα:

Download "Capitolul 2. Caracteristici fundamentale ale reţelelor neurale artificiale"

Transcript

1 Capitolul Caracteristici fundamentale ale reţelelor neurale artificiale. Modele pentru neuronul elementar. Arhitecturi specifice.3 Algoritmi de învăţare

2 CAPITOLUL : CARACTERISTICI FUDAMETALE Reţelele neurale artificiale sunt caracterizate de 3 elemente: modelul adoptat pentru elementul de procesare individual (neuronul), structura particulară de interconexiuni (arhitectura) şi mecanismul de ajustare a legăturilor dintre neuroni (algoritmul de învăţare). În cele ce urmează vom trece în revistă pe rând aceste elemente, prezentând exemple semnificative şi introducând terminologia corespunzătoare.. Modele pentru neuronul elementar În prezentarea modelelor pentru neuronul elementar vom utiliza criteriile de clasificare folosite în mod uzual în teoria sistemelor, punct de vedere care va sugera metodele de analiză şi, în unele cazuri, de sinteză ale reţelelor studiate. În Fig.. se prezintă modalitatea uzuală de reprezentare grafică a neuronului individual, detaliată pentru varianta tipică a acestuia corespunzătoare aşa-numitului model aditiv. A. După domeniul de definiţie al semnalelor prelucrate: a) modele analogice; b) modele discrete Una dintre observaţiile făcute în primul capitol sugera ideea potrivit căreia creierul este un "calculator" analogic. Fără a avea neapărat în prim plan criteriul plauzibilităţii biologice, dezbaterea referitoare la alegerea optimă între abordarea analogică sau discretă este un subiect de strictă actualitate. Argumentul cel mai puternic în favoarea primei alternative îl constituie viteza superioară recunoscută a calculului analogic, la care se adaugă lipsa necesităţii sincronizării (obligatorie în cazul reţelelor digitale cu funcţionare sincronă şi care este, în general, dificil de asigurat în reţele de dimensiuni mari). Fig.. : Modalitatea de reprezentare a neuronului elementar (model aditiv)

3 . Modele pentru neuronul elementar 3 Avantajele abordării discrete rezidă în principal în precizia calculelor, importantă mai ales în cazurile în care parametrii reţelei sunt supuşi unor restricţii severe, de exemplu referitoare la condiţii de simetrie. Posibilitatea stocării pe durate mari de timp în formă nealterată a unor valori numerice utile reprezintă de asemenea un avantaj. Un aspect fundamental legat de implementarea reţelelor digitale îl constituie determinarea rezoluţiei necesare (a numărului de biţi pe care se reprezintă valorile numerice) într-o aplicaţie dată. O distincţie suplimentară se poate face în raport cu gradul de cuantizare a semnalelor prelucrate. Se folosesc atât semnale necuantizate cât şi semnale cuantizate, de obicei binare. Este important de subliniat că modelul discret nu presupune neapărat implementare digitală, ci poate fi folosită şi varianta care utilizează mărimi discrete necuantizate, folosind circuite cu capacităţi comutate. B. După natura datelor prelucrate: a) modele reale; b) modele complexe În marea majoritate a cazurilor mărimile prelucrate sunt reale, dar în ultimul timp se utilizează şi reţele care lucrează cu variabile complexe sau, mai general, hipercomplexe. Această alegere este justificată cu precădere în aplicaţii în care datele de intrare au o natură complexă intrinsecă (de exemplu, semnale radar sau unele semnale folosite în transmisiuni de date), precum şi de numărul mai redus de parametri necesari faţă de varianta reală. Algoritmii de învăţare sunt, de regulă, extensii naturale ale variantelor formulate pentru semnale reale, însă atenţie specială trebuie acordată în acest caz alegerii funcţiei de activare, în particular caracterului analitic al acesteia. Există exemple de reţele neurale care prelucrează semnale având mai multe nivele de cuantizare, care pot proveni din utilizarea unor funcţii de activare multinivel [9] sau pot avea intrinsec un asemenea caracter, ca în cazul utilizării unor coduri multinivel (de exemplu, ternare) în transmisiuni de date. umerele hipercomplexe generalizează noţiunea uzuală de număr complex. Un exemplu îl constituie quaternionii [7], care se pot scrie sub forma: z = z 0 +z i+z j+z 3 k, unde i, j, k reprezintă cei trei vectori spaţiali ortogonali, iar z 0 -z 3 sunt parametri reali.

4 4 CAPITOLUL : CARACTERISTICI FUDAMETALE Fig..: Funcţii de activare pentru neuronul elementar: a) comparator bipolar; b) comparator unipolar; c) comparator bipolar cu prag; d) liniar cu saturaţie; e) sigmoidală bipolară; f) sigmoidală unipolară C. După tipul funcţiei de activare: a) modele liniare; b) modele neliniare Funcţia de activare reprezintă funcţia de transfer intrare-ieşire a neuronului elementar. De departe, majoritatea reţelelor neurale artificiale întâlnite în literatură utilizează modele neliniare. Excepţia notabilă o constituie reţeaua de tip Adaline (prescurtare de la ADAptive LInear Euron) şi varianta sa multidimensională Madaline, propuse de către profesorul american Bernard Widrow de la Universitatea Stanford [77]. Avantajul acestora îl constituie gama largă de algoritmi de învăţare performanţi existenţi, dar aria de aplicabilitate a reţelelor neurale care utilizează modele liniare este relativ restrânsă (egalizarea liniară a canalelor de transmisiuni de date, clasificatoare liniare). În Fig.. se prezintă câteva dintre funcţiile de activare des utilizate. Se pot face o serie de observaţii interesante: modelul de tip comparator (Fig.. a,b) poate fi întâlnit atât în reţele analogice cât şi în cele discrete modelul de tip comparator cu prag (Fig.. c) poate fi înlocuit cu un model fără prag dacă valoarea de prag θ se tratează ca o intrare distinctă de valoare constantă egală cu (-) conectată printr-o legătură (pondere) care se va modifica în timp sub acţiunea algoritmului de învăţare

5 . Modele pentru neuronul elementar 5 Fig..3: Funcţii de activare nemonotone o justificare teoretică interesantă a performanţelor superioare pe care le asigură funcţiile de tip sigmoidal (Fig.. e,f) se prezintă în [70]. Deşi majoritatea funcţiilor de activare sunt monotone, există şi exemple de funcţii nemonotone care conduc la performanţe foarte bune (Fig..3). Observaţie: Caracterul monoton (crescător) al funcţiei de activare constituie o cerinţă indispensabilă în formularea unor teoreme de convergenţă pentru o clasă largă de reţele neurale recurente [47], [83]. D. După prezenţa memoriei: a) reţele cu memorie; b) reţele fără memorie Memoria poate apare într-o reţea neurală pe căi: datorită modelului adoptat pentru neuronii elementari şi, respectiv, datorită modelului adoptat pentru interconexiunile dintre aceştia. Primul caz este pus în evidenţă prin modalitatea de descriere a dinamicii individuale prin ecuaţii diferenţiale, respectiv, cu diferenţe sau chiar prin ecuaţii mixte, de tip diferenţial cu diferenţe. Al doilea caz este ilustrat de aşa-numitele reţele (discrete) cu sinapse dinamice, la care legăturile dintre neuroni nu sunt exprimate prin simple valori scalare, ci sunt reprezentate sub forma unor funcţii de transfer caracteristice filtrelor discrete cu răspuns finit sau infinit la impuls. O situaţie intermediară o constituie folosirea filtrelor gamma [50], care "împrumută" din avantajele ambelor tipuri. Un caz special îl constituie reţelele cu memorie rezistivă, obţinute prin considerarea unei funcţii de activare cu histerezis [95]. Reţelele fără memorie sunt reţele la care propagarea semnalelor se face numai dinspre intrare spre ieşire (feedforward), iar modelele adoptate atât pentru neuronii elementari cât şi pentru ponderi sunt strict algebrice. Aşa cum vom vedea în capitolele următoare,

6 6 CAPITOLUL : CARACTERISTICI FUDAMETALE pentru astfel de reţele există algoritmi de antrenare foarte puternici, de exemplu cei din categoria backpropagation (cu propagare inversă a erorii). Este important să subliniem că există exemple de reţele de tip feedforward cu reacţie locală, utilizate mai ales în aplicaţii de prelucrare de semnale vocale. Unii autori identifică o aşa-numită memorie pe termen scurt (short-time memory), reprezentată de valorile variabilelor de stare ale sistemului şi o memorie pe termen lung (long time memory), dată de valorile interconexiunilor. Din punctul de vedere al implementării, reţelele recurente ridică probleme speciale legate de necesitatea stocării unui volum mare de informaţii pe perioade însemnate de timp şi de elaborarea unor algoritmi de învăţare suficient de rapizi pentru aplicaţii în timp real. E. După dimensiunea spaţiului stărilor pentru neuronul individual: a) modele de ordinul I; b) modele de ordin superior În cazul reţelelor feedforward, modelele considerate pentru neuronul elementar sunt de obicei de ordinul I şi se încadrează în aşa-numitul tip aditiv, potrivit căruia acesta efectuează o prelucrare în general neliniară asupra sumei ponderate a semnalelor aplicate la intrare (mărime care defineşte activarea neuronului): y(x) = f wi xi i= (. ) Au fost propuse şi modele de ordin superior, capabile să confere reţelelor formate din astfel de neuroni capacitatea de a surprinde corelaţii mai complexe ale datelor prelucrate, în particular posibilitatea de a asigura invarianţa răspunsului reţelei la semnale de intrare obţinute prin transformări elementare (translaţie, rotaţie) ale bazei de date originale. Exemplele cele mai cunoscute din acestă categorie sunt modelul sigma-pi [57] şi cel propus de către Giles şi Maxwell, bazat pe relaţia [66]: y(x) = f wi xi + wij xi x j +... i i j (. ) În ceea ce priveşte reţelele neurale recurente, analogice sau discrete, acestea sunt descrise de una din ecuaţiile:

7 . Modele pentru neuronul elementar 7 X (t) = FW ( X(t), u, X(0)) (. 3) X[k +] = FW ( X[k], u, X[0] unde matricea de interconexiuni W este determinată de aplicaţia concretă, vectorul X reuneşte variabilele de stare ale sistemului, u semnifică semnalul de intrare, iar X(0), X[0] desemnează condiţiile iniţiale. În cele mai multe modele prezentate în literatură neuronul individual este descris de o ecuaţie diferenţială sau cu diferenţe de ordinul I, exemplul tipic fiind oferit de reţeaua Hopfield [83]: x i = - xi+ w j= xi[n+] = f w j= ij f( x ij j ) x j[ (. 4) unde este numărul total de neuroni din sistem. Recent au fost propuse şi modele de ordin superior pentru neuronii individuali, care utilizează în general oscilatoare pe post de elemente de procesare elementare. Un exemplu în acest sens îl reprezintă modelul de ordinul II introdus în [75]: x i = - xi + f wij x j - K i yi + aui j= y i = - yi + f ( K i xi) (. 5) unde f(x) = (/π)tan - (x/a), iar a, K i sunt constante reale. Mai mult, în [] şi [5] se introduc modele de ordinul III, care prezintă particularitatea de a prezenta evoluţie haotică chiar la nivelul unui neuron individual, cu efect favorabil în unele aplicaţii. Deşi sunt mai bine motivate din punct de vedere biologic, modelele de ordin superior sunt mai dificil de analizat şi sintetizat la nivel de sistem, iar în unele aplicaţii rezultatele nu sunt mult mai bune faţă de varianta de ordinul I.

8 8 CAPITOLUL : CARACTERISTICI FUDAMETALE. Arhitecturi specifice Există numeroase modalităţi de interconectare a neuronilor elementari, care conduc la o evoluţie specifică a reţelei şi care se utilizează în aplicaţii dintre cele mai diverse. Pot fi identificate clase distincte de arhitecturi: cu propagare a informaţiei numai dinspre intrare spre ieşire (reţele de tip feedforward). O particularitate constructivă a acestora o constituie posibilitatea de a identifica seturi de neuroni elementari grupaţi în aşa-numite "straturi", care oferă similitudini de conexiune. Ca terminologie, identificăm un strat de intrare, un strat de ieşire, iar toate celelalte sunt denumite straturi ascunse (hidden layers). Indexarea straturilor nu este tratată unitar în literatură (unii autori includ în numerotare şi stratul de intrare, alţii nu), însă de regulă este mai indicat să numărăm straturile de ponderi (interconexiuni). O variantă utilă în multe aplicaţii constă în separarea neuronilor din straturile ascunse în module distincte şi restricţionarea structurii de interconexiuni. reţele recurente (cu reacţie). Au fost introduse recent şi arhitecturi "mixte", al căror aspect global este feedforward, dar care prezintă reacţie locală. Este interesant de subliniat că semnalul de reacţie poate proveni de la stratul de ieşire, respectiv de la unul sau mai multe straturi ascunse. Modalitatea de interconectare este diversă, mergând de la interconectarea neuronilor dintr-un strat numai spre stratul următor (în reţelele de tip feedforward multistrat) până la reţele complet interconectate (recurente). Între aceste extreme sunt cuprinse o multitudine de soluţii intermediare, dintre care enumerăm reţele feedforward generalizate, care permit şi conexiuni între neuroni aflaţi în straturi neînvecinate, reţele feedforward la care apar legături de reacţie între neuronii de pe acelaşi strat (reţele cu inhibiţie laterală) şi reţele la care legăturile de reacţie sunt prezente numai între neuronii elementari strict învecinaţi (reţele neurale celulare). În Fig..4 se indică arhitecturile cel mai des întâlnite, iar în Fig..5 o serie de exemple mai exotice. O clasă specială de circuite o constituie cele local recurente, la care reacţia este prezentă la nivelul modelului considerat pentru neuronii elementari, care sunt interconectaţi apoi în reţele feedforward obişnuite. Prezentăm în Fig..6 schemele de principiu ale celor mai des utilizate. În general, neuronii elementari sunt dispuşi într-un şir unidimensional în cadrul unui strat. Unele arhitecturi, de exemplu reţelele celulare [4] şi cele cu autoorganizare de tip Kohonen [03], pot avea straturi bidimensionale. Din considerente legate de volumul de calcul necesar, dar şi ca urmare a existenţei unor rezultate teoretice riguroase, rareori se utilizează în practică reţele neurale cu mai mult de 3 straturi. Excepţii notabile sunt reţeaua de tip counterpropagation [79], precum şi unele variante de reţele autoasociative [49].

9 . Arhitecturi specifice 9 Fig..4: Exemple de arhitecturi de reţele neurale artificiale: a) b) Fig..5: a) Arhitectură de tip inel ; b) reţea neurală celulară (C)

10 30 CAPITOLUL : CARACTERISTICI FUDAMETALE O problemă fundamentală o constituie modalitatea de a alege arhitectura adecvată pentru o aplicaţie dată. Lipsa unor teoreme constructive care să precizeze tipul reţelei şi numărul de neuroni elementari împreună cu modalitatea de interconectare dintre aceştia în vederea rezolvării unei anumite sarcini constituie în continuare una dintre principalele limitări ale utilizării reţelelor neurale artificiale şi totodată câmpul unor intense cercetări. Menţionăm totuşi că există aplicaţii pentru care au fost formulate condiţii minimale referitoare la arhitectură. Mai mult, în literatură se prezintă modalităţi de construcţie sistematică urmând un proces iterativ, grupate în categorii: tehnici de tip pruning, în care se pleacă de la sisteme de dimensiuni suficient de mari 3 şi se elimină pe rând neuronii elementari şi legăturile care se dovedesc neimportante (cele care nu se modifică semnificativ în procesul de învăţare). Decizia de eliminare este de regulă bazată pe un calcul de senzitivitate al funcţiei de eroare în raport cu diversele ponderi ale sistemului. Un exemplu binecunoscut îl reprezintă metoda Optimal Brain Damage [09]. tehnici de tip learn and grow, în care se pleacă de la reţele de dimensiuni reduse şi se adaugă neuroni şi conexiuni până când performanţele sistemului sunt suficient de bune. Ca exemple putem cita algoritmul cascade-correlation [57] şi metoda denumită projection pursuit [6]. Fig..6: Arhitecturi local recurente 3 În realitate, este greu de apreciat ce înseamnă "suficient de mari".

11 .3 Algoritmi de învăţare 3.3 Algoritmi de învăţare Unul dintre aspectele care diferenţiază reţelele neurale faţă de alte sisteme de prelucrare a informaţiei îl constituie capacitatea acestora de a învăţa în urma interacţiunii cu mediul înconjurător şi, ca urmare, de a-şi îmbunătăţi în timp performanţele (conform unui criteriu precizat). Deşi nu există o definiţie general acceptată a procesului de învăţare, prezentăm mai jos pe cea din [76]: Învăţarea este un proces prin care parametrii unei reţele neurale se adaptează în urma interacţiunii continue cu mediul de lucru. Tipul mecanismului de învăţare este determinat de modalitatea concretă prin care se produce ajustarea valorilor parametrilor sistemului. Un aspect fundamental îl constituie modul de reprezentare internă a informaţiilor care să permită interpretarea, predicţia şi răspunsul corect la un stimul provenit din mediul înconjurător. O reprezentare corectă îi va permite sistemului, în particular reţelei neurale, să construiască un model al procesului analizat în stare să se comporte satisfăcător în condiţiile în care la intrare i se vor aplica stimuli care nu au fost utilizaţi în procesul prealabil de învăţare. Informaţiile utilizate în etapa de învăţare (şi deci de sinteză a reţelei) sunt de tipuri: informaţii disponibile a priori referitoare la particularităţile şi, eventual, restricţiile cărora le este supusă aplicaţia considerată. Astfel de considerente conduc, în general, la sisteme specializate de dimensiuni reduse, mai uşor de antrenat şi mai ieftine. informaţii sub forma unor perechi intrare-ieşire care surprind o relaţie de tip cauzăefect. Setul de date disponibil se împarte în două părţi, una fiind folosită în procesul de modificare a ponderilor, deci de învăţare propriu-zisă, iar cealaltă pentru a testa performanţele sistemului rezultat, oferind o imagine a aşa-numitei capacităţi de generalizare a reţelei. Procesul de reprezentare internă respectă câteva reguli de bază, care sunt enumerate în continuare [8]: Regula : Date de intrare similare trebuie să capete reprezentări interne asemănătoare. Există mai multe moduri de a măsura "asemănarea" dintre intrări distincte. Cea mai des folosită este cea bazată pe distanţa Euclidiană dintre intrări (văzute ca vectori reali multidimensionali). Uneori se utilizează produsul scalar sau funcţia de intercorelaţie dintre cele mărimi.

12 3 CAPITOLUL : CARACTERISTICI FUDAMETALE Regula : Intrări aparţinând unor categorii distincte trebuie să aibă reprezentări interne cât mai diferite. Regula 3: În reprezentarea internă a unei caracteristici importante a datelor de intrare trebuie să fie implicaţi un număr mare de neuroni elementari. Această regulă asigură un grad mare de încredere în luarea unei decizii şi toleranţă sporită în cazul funcţionării incorecte a unora dintre neuronii implicaţi în reprezentare. Regula 4: Orice informaţie disponibilă a priori, precum şi eventuale invarianţe trebuie folosite în etapa de configurare (stabilirea arhitecturii şi a modului de interconectare) a reţelei. Această indicaţie favorizează funcţionarea corectă a reţelei deoarece aceasta nu trebuie să mai înveţe particularităţile specifice aplicaţiei considerate. Sistemele rezultate sunt în general specializate, având dimensiuni reduse, sunt mai uşor de implementat şi mai ieftine. Modalităţile de reprezentare a invarianţelor în raport cu diverse transformări elementare în reţele neurale se prezintă în [6]..3. Criterii de clasificare a algoritmilor de învăţare Există mai multe criterii în funcţie de care se pot clasifica algoritmii de învăţare, dintre care amintim: A. În funcţie de disponibilitatea răspunsului dorit la ieşirea reţelei neurale: a) învăţare supravegheată; b) învăţare nesupravegheată; c) învăţare folosind un critic învăţarea supravegheată (supervised learning) presupune existenţa în orice moment a unei valori dorite (target) a fiecărui neuron din stratul de ieşire al reţelei. Sistemului i se furnizează seturi de perechi intrare-ieşire dorită cu ajutorul cărora se calculează mărimi de eroare în funcţie de diferenţa dintre valoarea reală a ieşirii şi cea dorită, pe baza cărora se ajustează valorile parametrilor reţelei (interconexiuni şi, eventual, valori de prag ale funcţiilor de activare). Exemple tipice: a) pentru reţele feedforward: algoritmul LMS (Least Mean Square) [76], clasa de algoritmi backpropagation (cu propagare inversă a erorii) [77], cuantizarea vectorială cu învăţare

13 .3 Algoritmi de învăţare 33 (LVQ) [03]; b) pentru reţele recurente: backpropagation-through-time [74], realtime recurrent learning [79]. în învăţarea nesupravegheată (unsupervised learning) reţeaua extrage singură anumite caracteristici importante ale datelor de intrare formând reprezentări interne distincte ale acestora. Reţeaua nu beneficiază de seturi de ieşiri dorite, în schimb se utilizează un gen de "competiţie" între neuronii elementari care are ca efect modificarea conexiunilor aferente numai neuronului care "câştigă" întrecerea, restul legăturilor rămânând neafectate. Exemple din această categorie sunt: a) pentru reţele feedforward: counterpropagation [79]; b) pentru reţele recurente: algoritmul propus de Kohonen pentru hărţile cu autoorganizare (SOM) [03], algoritmul Hebb [78], Teoria Rezonanţei Adaptive (ART) elaborate de Grossberg [70]. În unele modele apare un parametru denumit intuitiv "conştiinţă" care intră în funcţiune atunci când unul dintre neuroni câştigă prea des competiţia. învăţarea folosind un "critic" (reinforcement learning) este denumită uneori şi cu recompensă/pedeapsă (reward/punishment). În această situaţie, reţeaua nu beneficiază de un semnal dorit, ca în cazul învăţării supravegheate, ci de un semnal care oferă o informaţie calitativă ilustrând cât de bine funcţionează sistemul (informaţia este binară, de tipul răspunsul este bun/greşit, însă nu se indică şi cât de bun/greşit). Algoritmii aparţinând acestei categorii sunt inspiraţi într-o mai mare măsură de observaţii experimentale făcute pe animale şi, în esenţă, funcţionează după următorul principiu [76]: dacă urmarea unei anumite acţiuni întreprinse de un sistem capabil să înveţe are un efect favorabil, tendinţa de a produce acţiunea respectivă este încurajată, în caz contrar este inhibată. În general algoritmii de învăţare respectă următoarea regulă [76]: vectorul multidimensional al ponderilor (interconexiunilor) aferente unui neuron elementar W i se modifică proporţional cu produsul scalar dintre vectorul mărimilor de intrare x şi un aşa-numit "vector de învăţare" r, reprezentat în general de o funcţie dependentă de W i, x şi, eventual, de vectorul ieşirilor dorite d: Valoarea ponderilor se modifică după o relaţie de forma: r = r ( W, x, d) (. 6) W = η r x (. 7) unde η este o constantă reală, de obicei subunitară, denumită constantă de învăţare.

14 34 CAPITOLUL : CARACTERISTICI FUDAMETALE B. În funcţie de existenţa unui model analitic: a) algoritmi parametrici; b) algoritmi neparametrici Algoritmii parametrici presupun că procesul analizat poate fi modelat sub forma unei expresii matematice având o formă cunoscută, dependente de un număr (în general, restrâns) de parametri. Scopul urmărit în acest caz constă în estimarea cât mai exactă a valorilor acestor parametri pe baza datelor intrare-ieşire disponibile. În cazul în care modelul considerat nu este adecvat, calitatea aproximării poate fi nesatisfăcătoare. În această situaţie sunt de preferat algoritmii neparametrici, care nu impun constrângeri de modelare. Astfel de algoritmi sunt capabili să aproximeze orice dependenţă intrare-ieşire, oricât de complicată, în virtutea unei aşa-numite capacităţi de aproximare universală pe care o posedă unii dintre aceştia. C. În funcţie de tipul aplicaţiei pentru care sunt utilizaţi: a) regresie; b) clasificare Categoria cea mai răspândită de aplicaţii în care sunt utilizate reţelele neurale este cea de aproximare funcţională, în care se modelează dependenţe dintre un set de variabile de intrare şi una sau mai multe variabile de ieşire. Setul de parametri care traduc această dependenţă este constituit din valorile interconexiunilor dintre neuroni, denumite de regulă ponderi sau sinapse. În modul cel mai general, o reţea neurală poate fi privită ca un mod particular de a stabili forma acestei dependenţe, împreună cu modalitatea concretă de a fixa valorile parametrilor corespunzători folosind baza de date disponibilă. Se pot distinge categorii majore de aplicaţii: a) în clasificare se urmăreşte alocarea datelor aplicate la intrarea reţelei a uneia dintre etichetele corespunzătoare unui set discret de categorii avute la dispoziţie (de exemplu, unei imagini reprezentând un caracter scris de mână i se asociază una dintre cele 6 de litere ale alfabetului). Din punct de vedere statistic, se urmăreşte de fapt aproximarea cât mai exactă a probabilităţii de apartenenţă a datelor de intrare la una dintre categoriile existente; b) în cazul în care ieşirea reţelei poate avea valori continue avem de-a face cu o problemă de regresie, al cărei scop este aproximarea unei aşa-numite funcţii de regresie (definită printr-o operaţie de mediere aritmetică a unei mărimi statistice specifice, ce va fi prezentată pe larg într-unul dintre paragrafele următoare). Regresia liniară este binecunoscută în analiza statistică, însă există aplicaţii practice importante (de exemplu, aplicaţiile financiare) în care rezultatele obţinute sunt nesatisfăcătoare, fiind necesară introducerea unui model neliniar.

15 .3 Algoritmi de învăţare 35 În alegerea unui algoritm de învăţare trebuie avute în vedere şi unele considerente de ordin practic, precum necesarul de memorie, viteza de convergenţă, complexitatea calculelor, comportarea în faza de testare. În Tabelul. se prezintă caracteristicile principalilor algoritmi de învăţare, care vor fi trataţi pe larg în capitolele următoare. Tabelul.: Principalele tipuri de algoritmi de învăţare Denumire Param. (P)/ Clasificare (C)/ Caracteristici eparam. () Regresie (R) ecesar de Viteză memorie Regresie liniară P R Foarte scăzut Rapid Backpropagation R Scăzut Lent Filtru Kalman P R Ridicat Rapid LM R Mediu Rapid K-means C Mediu Mediu Projection R Scăzut Mediu pursuit SOM C Scăzut Mediu LVQ C Medu Lent Bayesian C Scăzut Rapid Legenda: LM Levenberg-Marquardt; SOM Self-Organizing Map; LVQ Learning Vector Quantization Să notăm în final cele puncte de vedere distincte asupra procesului de învăţare care se pot identifica analizând arhitecturile întâlnite în literatură, care explică în acelaşi timp şi capacitatea de generalizare a acestora: reţelele de tip feedforward tratează învăţarea ca pe o problemă de aproximare a unei funcţii de mai multe variabile (reale sau complexe) care exprimă legătura (necunoscută) dintre intrarea şi ieşirea sistemului pe baza unui set finit de exemple de tip intrare-ieşire dorită. O importanţă deosebită o are dimensiunea bazei de date folosite în antrenare, aflată în strânsă dependenţă de numărul total de parametri ai reţelei (ponderi şi, eventual, valori de prag ale funcţiei de activare) şi care are un efect semnificativ asupra erorii de aproximare [9]. ecesitatea de a beneficia de o bază de date extrem de mare în cazul unor reţele cu mulţi neuroni şi/sau straturi a fost denumită intuitiv "blestem al dimensionalităţii" (curse of dimensionality). De asemenea, este recunoscut pericolul de supraantrenare (overfitting), care constă în posibilitatea ca reţeaua să memoreze înseşi datele folosite în etapa de antrenare (în

16 36 CAPITOLUL : CARACTERISTICI FUDAMETALE general, însoţite de zgomot) şi nu să construiască un model al sistemului care le-a generat. În privinţa capacităţii reţelelor feedforward de a aproxima funcţii neliniare oarecare au fost elaborate analize teoretice extrem de riguroase, care pun în evidenţă proprietatea de aproximare universală a unor reţele cu funcţii de activare monotone de tip sigmoidal [5], [85] sau nemonotone de tip gaussian [39]. Au fost studiate şi condiţiile în care astfel de sisteme permit aproximarea simultană atât a funcţiei cât şi a derivatelor acesteia [86] şi au fost formulate estimări ale erorilor de aproximare. Reţelele de tip feedforward au fost utilizate cu succes în aplicaţii de clasificare, identificare de sistem, analiză a seriilor de timp. reţelele recurente codează informaţia sub forma mulţimilor limită ale unor sisteme dinamice neliniare multidimensionale [8]. Mulţimile limită (care, în mod intuitiv, reprezintă generalizarea noţiunii de regim permanent din cazul sistemelor liniare) conduc la unul dintre următoarele 4 tipuri de reprezentări în spaţiul stărilor: stări de echilibru stabil, cicluri limită corespunzătoare unor regimuri dinamice periodice, atractori specifici unor regimuri cvasiperiodice (de exemplu, cu aspect toroidal) şi atractori stranii, care pun în evidenţă prezenţa regimului de funcţionare haotic. În cele mai multe situaţii se utilizează sisteme a căror dinamică evoluează spre puncte de echilibru stabil (sistemele sunt denumite cu dinamică convergentă), ale căror poziţii în spaţiul stărilor sunt fixate prin valorile interconexiunilor. În acest context, au fost raportate rezultate remarcabile în rezolvarea unor probleme de optimizare, de conversie analog-numerică şi de clasificare [84]. Analiza stabilităţii unor asemenea reţele se bazează de obicei pe metoda Liapunov [8], care prezintă avantajul de a nu necesita rezolvarea ecuaţiilor care descriu sistemul. Recent se acordă un interes crescând şi reţelelor cu comportare periodică, în special în privinţa sincronizării ansamblurilor de oscilatoare elementare şi a stocării informaţiei sub forma ciclurilor limită. Mai mult, studiul reţelelor neurale cu comportare haotică este de asemenea avută în vedere, în special datorită raportării unor rezultate care confirmă existenţa unor astfel de regimuri în anumite zone ale creierului uman [6]..3. Funcţia de cost Un aspect fundamental legat de procesul de învăţare al reţelelor neurale este cel referitor la scopul pentru care acestea sunt utilizate. Astfel, în cazul aplicaţiilor de regresie, se poate arăta că ţinta urmărită o constituie modelarea densităţii de probabilitate a valorilor de ieşire (target) condiţionată de distribuţia datelor de intrare. Pe de altă parte, în cazul problemelor de clasificare se urmăreşte estimarea probabilităţilor ca variabilele de intrare să aparţină uneia dintre categoriile disponibile. Atingerea acestor obiective devine posibilă prin optimizarea unor funcţii de cost

17 .3 Algoritmi de învăţare 37 convenabil definite în funcţie de parametrii reţelei neurale, cu observaţia că cele tipuri de aplicaţii necesită de regulă folosirea unor funcţii de cost specifice. În cele ce urmează trecem în revistă o serie de aspecte teoretice fundamentale care vor permite înţelegerea mai exactă a modului de operare al reţelelor neurale. A. Estimarea densităţii de probabilitate În Anexa A sunt prezentate o serie de definiţii ale unor noţiuni de bază din teoria probabilităţilor. e vom ocupa în cele ce urmează de posibilitatea de a modela o funcţie de densitate de probabilitate p(x) folosind un număr finit de exemple X[, cu n =,. Pornind de aici, vom ilustra în paragraful următor posibilitatea de a estima densităţi de probabilitate condiţionate, care vor justifica în final scopul în care sunt folosite reţelele neurale. Există categorii de metode de estimare a densităţilor de probabilitate, anume metode parametrice, respectiv neparametrice. Cele dintâi impun o formă predefinită a funcţiei de densitate, dependentă de un număr de parametri specifici, ale căror valori urmează să fie estimate folosind baza de date disponibilă. Dezavantajul unei asemenea abordări constă în faptul că forma funcţională particulară impusă pur şi simplu se poate dovedi inadecvată modelării procesului fizic real care a generat datele. Metodele neparametrice nu particularizează forma funcţiei modelate, ci realizează estimarea pornind exclusiv de la datele disponibile, cu dezavantajul că numărul parametrilor necesari creşte pe măsură ce baza de date se lărgeşte. În cele ce urmează ne vom referi la o metodă parametrică de estimare bazată pe principiul denumit maximum likelihood [4]. Astfel, să considerăm o funcţie densitate de probabilitate p(x) dependentă de un set de parametri θ = [θ θ θ M ] T şi un număr de vectori {X[], X[], X[]} care vor servi la estimarea acestor parametri. Densitatea de probabilitate a ansamblului acestor vectori (joint probability density) va fi: L( θ) = pθ ( X[ ) n= (. 8) care reprezintă o funcţie ce depinde de variabilele θ pentru un set fixat de vectori X[. Principiul denumit maximum likelihood urmăreşte determinarea valorilor vectorului de parametri θ care asigură maximizarea funcţiei L(θ) (justificarea logică fiind legată de maximizarea probabilităţii ca datele disponibile să fi fost generate de către un model având parametrii optimi θ). Pentru ca procesul de optimizare să fie asociat cu noţiunea mai familiară a unei funcţii de eroare care ar trebui minimizată se preferă înlocuirea funcţiei L(θ) prin versiunea sa procesată sub forma:

18 38 CAPITOLUL : CARACTERISTICI FUDAMETALE J = ln( L( θ)) = ln( pθ ( X[ )) n= (. 9) Soluţia acestei probleme de optimizare va depinde de forma particulară a funcţiei p θ (X) considerate şi, de regulă, va necesita utilizarea unui metode numerice adecvate. În cazul particular în care densitatea de probabilitate p θ (X) se presupune de formă normală (gaussiană) vom avea: p( X) = ( X µ ) e (π ) d / Σ / T Σ ( X µ ) (. 0) în care µ reprezintă media aritmetică a vectorilor X (presupuşi de dimensiune d), iar Σ este matricea de covarianţă, de dimensiune (dxd). Se poate arăta că procesul de minimizare a funcţiei J conduce în această situaţie la următoarele valori estimate ale parametrilor modelului (parametrii θ se particularizează la valorile µ şi Σ): µ ˆ = X[ n= Σˆ = ( X[ µ )( X[ µ ) T n= (. ) Intuitiv, rezultatele obţinute se justifică, ţinând cont că înlocuind în relaţiile anterioare operaţiunea de mediere aritmetică pe un set finit de realizări individuale cu operatorul standard E{.} (expectation) ajungem la definiţiile standard ale celor două mărimi valabile în cazul variabilelor cu distribuţie normală. B. Estimarea densităţii de probabilitate condiţionată Reamintim că scopul principal al unei reţele neurale este de a oferi un model cât mai exact al procesului fizic responsabil de generarea perechilor de date intrare-ieşire disponibile şi nu memorarea acestor valori particulare. Dacă scopul este atins, sistemul va furniza răspunsuri adecvate şi pentru date de intrare noi, care nu au fost utilizate efectiv în procesul de estimare a valorilor parametrilor specifici modelului. Instrumentul care permite descrierea procesului prin care sunt generate perechi de

19 .3 Algoritmi de învăţare 39 vectori intrare-ieşire dorită este densitatea de probabilitate p(x,t), care se poate exprima în mod echivalent sub forma: p ( X, t) = p( t X) p( X) (. ) unde p(t X) desemnează densitatea de probabilitate condiţionată a ieşirii în raport cu intrarea (adică densitatea de probabilitate a variabilei t dacă intrarea X are o valoare particulară dată), iar p(x) este densitatea (necondiţionată) de probabilitate a intrării. Ţinând cont de definiţia funcţiei L(θ) din paragraful anterior, se poate scrie în mod asemănător relaţia: p [, t[ ) = L = ( X p( t[ X[ ) p( X[ ) (. 3) n Mai mult, trecând la varianta prelucrată sub forma unei funcţii de eroare, se poate scrie: n J = ln( L) = ln( p( t [ X[ )) ln( p( X[ )) (. 4) n n Vom justifica imediat că scopul principal al unei reţele neurale va fi de a estima cât mai exact primul termen al relaţiei anterioare. Deoarece cel de al doilea termen nu depinde de parametrii reţelei neurale putem renunţa la acesta, funcţia de eroare căpătând forma mai simplă: J = ln( p( t [ X[ )) (. 5) n Alegând diverse forme particulare ale densităţii de probabilitate condiţionate p(t X) se ajunge la definirea mai multor tipuri de funcţii de eroare. Pentru simplitate, să considerăm în cele ce urmează că variabila aleatoare care defineşte semnalul dorit este unidimensională şi este obţinută pe baza relaţiei: t [ = h( X [ ) + e[, n = (. 6) în care h(.) desemnează o funcţie deterministă, iar e[ reprezintă zgomot cu distribuţie normală (gaussiană) cu valoare medie nulă şi dispersie σ independentă de semnalul de intrare, de forma:

20 40 CAPITOLUL : CARACTERISTICI FUDAMETALE e p( e) = e σ πσ (. 7) Să presupunem că avem la dispoziţie o reţea neurală capabilă să ofere o aproximaţie a funcţiei h(.) sub forma y W (X), în care vectorul W reuneşte totalitatea parametrilor reţelei. În aceste condiţii relaţia (. 3) se poate rescrie sub forma: ( t yw ( X)) p( t X) = e σ πσ (. 8) astfel încât funcţia de eroare (. 5) capătă forma: J = σ n= { t[ y ( X[ ) } + lnσ + ln(π ) W (. 9) Lăsând deoparte valorile constante (independente de valorile parametrilor W) ajungem în final la expresia binecunoscutei erori pătratice: J = n= { t[ y ( X[ ) } W (. 0) Observaţii: a) analiza anterioară poate fi extinsă comod la cazul variabilelor target multidimensionale b) pentru precizarea completă a expresiei (.8) este necesară şi obţinerea valorii parametrului σ. Având la dispoziţie valorile optime W* rezultate în urma minimizării funcţiei de eroare se poate demonstra că valoarea căutată este: σ = { t[ y n } W* ( X[ ]) n= (. )

21 .3 Algoritmi de învăţare 4 c) nu este obligatoriu ca densitatea de probabilitate p(t X) să aibă o distribuţie normală, însă se poate arăta că în cazul utilizării funcţiei de eroare pătratice valorile optime ale parametrilor reţelei neurale nu vor putea face posibilă distincţia între o distribuţie normală şi oricare alt tip de distribuţie având aceeaşi valoare medie şi aceeaşi dispersie. d) în aplicaţiile practice se folosesc deseori unele variante ale erorii pătratice (. 0), anume: Eroare pătratică medie n= (MSE): J = { t[ y ( X[ ) } Eroare pătratică medie normalizată (MSE): { t[ y ( X[ ) } J = n= W { t[ µ t ) } n= W (. ) (. 3) Varianta din relaţia (. ) prezintă avantajul independenţei valorii erorii de numărul de exemplare care formează baza de date, iar cea din relaţia (. 3) al unei imagini relative a valorii erorii în raport cu energia semnalului target (µ t desemnează valoarea medie a datelor target). C. Interpretarea ieşirilor unei reţele neurale Având la dispoziţie rezultatele foarte importante prezentate în paragrafele anterioare, vom ilustra în finalul acestui capitol modalitatea de interpretare a răspunsurilor oferite de ieşirile unei reţele neurale. Pentru simplitate, vom considera din nou cazul unei reţele cu o singură ieşire. Astfel, în cazul unei baze de date de dimensiune infinită (cu ) expresia erorii pătratice (. 0) devine [4]:

22 4 CAPITOLUL : CARACTERISTICI FUDAMETALE J = lim = n= { t[ yw ( X[ ) } { t[ y ( X[ ) } W = p( t, X) dtdx (. 4) Folosind relaţia (. ) putem scrie în continuare: J = { t[ yw ( X[ ) } p( t X) p( X) dtdx (. 5) Introducem următoarele definiţii ale unor medii aritmetice condiţionate: t X t X = tp = ( t X ) dt (. 6) t p( t X) dt În urma unui calcul simplu se ajunge la următoarea expresie echivalentă cu relaţia (. 5): { t y ( X) } p( X) dx + { t X t X } J = X W p( X) dx (. 7) Se observă uşor că cel de al doilea termen din relaţia precedentă nu depinde de parametrii reţelei neurale, astfel încât minimizarea funcţiei de eroare va presupune anularea primului termen. Ajungem astfel la concluzia importantă că atunci când se utilizează o funcţie de eroare pătratică ieşirea unei reţele neurale poate fi interpretată ca valoarea medie a informaţiei target condiţionată de datele de intrare X: y W ( X) = t X (. 8) Interpretarea geometrică a acestei relaţii se indică în Fig..7.

23 .3 Algoritmi de învăţare 43 Fig..7: Interpretarea ieşirii unei reţele neurale ca probabilitate condiţionată Observaţii: a) analiza anterioră se poate extinde comod şi la cazul variabilelor target multidimensionale b) concluziile fundamentale din ultimul paragraf pot fi aplicate în practică în condiţiile valabilităţii unor ipoteze care merită comentate. Prima se referă la necesitatea de a dispune de o bază de date de dimensiune foarte mare (pentru a permite trecerea de la sume finite la integrale). A doua se referă la capacitatea de modelare a sistemului care oferă ieşirea y W (X) şi care nu este obligatoriu să fie implementat sub forma unei reţele neurale! în sensul că trebuie să avem garanţia că există un set de parametri W în stare să asigure minimizarea funcţiei de eroare. În sfârşit, presupunând că un astfel de set optim de parametri există, trebuie să avem la îndemână o tehnică de optimizare adecvată, capabilă să permită convergenţa către acest set de parametri. Din această perspectivă, utilizarea unor reţele neurale în vederea estimării densităţii de probabilitate (. 3) se justifică prin capacitatea de aproximare universală pe care unele dintre acestea o posedă. c) ieşirea y W (X) poate fi furnizată atât de reţele neurale statice (strict algebrice), cât şi de reţele recurente. Pentru ca ieşirile unei reţele neurale să poată fi interpretate ca probabilităţi se folosesc de regulă funcţii de activare speciale pentru neuronii plasaţi în stratul de ieşire, pentru a asigura îndeplinirea celor condiţii axiomatice referitoare la caracterul pozitiv, repectiv la condiţia ca suma acestora să fie egală cu [38]. Un

24 44 CAPITOLUL : CARACTERISTICI FUDAMETALE exemplu în acest sens este oferit de funcţia denumită softmax: x e i f ( xi ) =, unde este numărul total de ieşiri ale reţelei. x j e j= d) o utilizare extrem de utilă a noţiunilor prezentate în acest paragraf se întâlneşte în cazul aplicaţiilor financiare de predicţie, în care se preferă obţinerea nu a unei valori punctuale ci estimarea întregii densităţi de probabilitate, cu efectul benefic al obţinerii în acest mod a unei aprecieri a gradului de încredere în valoarea prezisă [34].

Metode iterative pentru probleme neliniare - contractii

Metode iterative pentru probleme neliniare - contractii Metode iterative pentru probleme neliniare - contractii Problemele neliniare sunt in general rezolvate prin metode iterative si analiza convergentei acestor metode este o problema importanta. 1 Contractii

Διαβάστε περισσότερα

Curs 10 Funcţii reale de mai multe variabile reale. Limite şi continuitate.

Curs 10 Funcţii reale de mai multe variabile reale. Limite şi continuitate. Curs 10 Funcţii reale de mai multe variabile reale. Limite şi continuitate. Facultatea de Hidrotehnică Universitatea Tehnică "Gh. Asachi" Iaşi 2014 Fie p, q N. Fie funcţia f : D R p R q. Avem următoarele

Διαβάστε περισσότερα

(a) se numeşte derivata parţială a funcţiei f în raport cu variabila x i în punctul a.

(a) se numeşte derivata parţială a funcţiei f în raport cu variabila x i în punctul a. Definiţie Spunem că: i) funcţia f are derivată parţială în punctul a în raport cu variabila i dacă funcţia de o variabilă ( ) are derivată în punctul a în sens obişnuit (ca funcţie reală de o variabilă

Διαβάστε περισσότερα

Sisteme diferenţiale liniare de ordinul 1

Sisteme diferenţiale liniare de ordinul 1 1 Metoda eliminării 2 Cazul valorilor proprii reale Cazul valorilor proprii nereale 3 Catedra de Matematică 2011 Forma generală a unui sistem liniar Considerăm sistemul y 1 (x) = a 11y 1 (x) + a 12 y 2

Διαβάστε περισσότερα

Curs 14 Funcţii implicite. Facultatea de Hidrotehnică Universitatea Tehnică "Gh. Asachi"

Curs 14 Funcţii implicite. Facultatea de Hidrotehnică Universitatea Tehnică Gh. Asachi Curs 14 Funcţii implicite Facultatea de Hidrotehnică Universitatea Tehnică "Gh. Asachi" Iaşi 2014 Fie F : D R 2 R o funcţie de două variabile şi fie ecuaţia F (x, y) = 0. (1) Problemă În ce condiţii ecuaţia

Διαβάστε περισσότερα

5.4. MULTIPLEXOARE A 0 A 1 A 2

5.4. MULTIPLEXOARE A 0 A 1 A 2 5.4. MULTIPLEXOARE Multiplexoarele (MUX) sunt circuite logice combinaţionale cu m intrări şi o singură ieşire, care permit transferul datelor de la una din intrări spre ieşirea unică. Selecţia intrării

Διαβάστε περισσότερα

Metode de interpolare bazate pe diferenţe divizate

Metode de interpolare bazate pe diferenţe divizate Metode de interpolare bazate pe diferenţe divizate Radu Trîmbiţaş 4 octombrie 2005 1 Forma Newton a polinomului de interpolare Lagrange Algoritmul nostru se bazează pe forma Newton a polinomului de interpolare

Διαβάστε περισσότερα

5. FUNCŢII IMPLICITE. EXTREME CONDIŢIONATE.

5. FUNCŢII IMPLICITE. EXTREME CONDIŢIONATE. 5 Eerciţii reolvate 5 UNCŢII IMPLICITE EXTREME CONDIŢIONATE Eerciţiul 5 Să se determine şi dacă () este o funcţie definită implicit de ecuaţia ( + ) ( + ) + Soluţie ie ( ) ( + ) ( + ) + ( )R Evident este

Διαβάστε περισσότερα

III. Serii absolut convergente. Serii semiconvergente. ii) semiconvergentă dacă este convergentă iar seria modulelor divergentă.

III. Serii absolut convergente. Serii semiconvergente. ii) semiconvergentă dacă este convergentă iar seria modulelor divergentă. III. Serii absolut convergente. Serii semiconvergente. Definiţie. O serie a n se numeşte: i) absolut convergentă dacă seria modulelor a n este convergentă; ii) semiconvergentă dacă este convergentă iar

Διαβάστε περισσότερα

V.7. Condiţii necesare de optimalitate cazul funcţiilor diferenţiabile

V.7. Condiţii necesare de optimalitate cazul funcţiilor diferenţiabile Metode de Optimizare Curs V.7. Condiţii necesare de optimalitate cazul funcţiilor diferenţiabile Propoziţie 7. (Fritz-John). Fie X o submulţime deschisă a lui R n, f:x R o funcţie de clasă C şi ϕ = (ϕ,ϕ

Διαβάστε περισσότερα

Curs 4 Serii de numere reale

Curs 4 Serii de numere reale Curs 4 Serii de numere reale Facultatea de Hidrotehnică Universitatea Tehnică "Gh. Asachi" Iaşi 2014 Criteriul rădăcinii sau Criteriul lui Cauchy Teoremă (Criteriul rădăcinii) Fie x n o serie cu termeni

Διαβάστε περισσότερα

8 Intervale de încredere

8 Intervale de încredere 8 Intervale de încredere În cursul anterior am determinat diverse estimări ˆ ale parametrului necunoscut al densităţii unei populaţii, folosind o selecţie 1 a acestei populaţii. În practică, valoarea calculată

Διαβάστε περισσότερα

SEMINAR 14. Funcţii de mai multe variabile (continuare) ( = 1 z(x,y) x = 0. x = f. x + f. y = f. = x. = 1 y. y = x ( y = = 0

SEMINAR 14. Funcţii de mai multe variabile (continuare) ( = 1 z(x,y) x = 0. x = f. x + f. y = f. = x. = 1 y. y = x ( y = = 0 Facultatea de Hidrotehnică, Geodezie şi Ingineria Mediului Matematici Superioare, Semestrul I, Lector dr. Lucian MATICIUC SEMINAR 4 Funcţii de mai multe variabile continuare). Să se arate că funcţia z,

Διαβάστε περισσότερα

Curs 1 Şiruri de numere reale

Curs 1 Şiruri de numere reale Bibliografie G. Chiorescu, Analiză matematică. Teorie şi probleme. Calcul diferenţial, Editura PIM, Iaşi, 2006. R. Luca-Tudorache, Analiză matematică, Editura Tehnopress, Iaşi, 2005. M. Nicolescu, N. Roşculeţ,

Διαβάστε περισσότερα

Planul determinat de normală şi un punct Ecuaţia generală Plane paralele Unghi diedru Planul determinat de 3 puncte necoliniare

Planul determinat de normală şi un punct Ecuaţia generală Plane paralele Unghi diedru Planul determinat de 3 puncte necoliniare 1 Planul în spaţiu Ecuaţia generală Plane paralele Unghi diedru 2 Ecuaţia generală Plane paralele Unghi diedru Fie reperul R(O, i, j, k ) în spaţiu. Numim normala a unui plan, un vector perpendicular pe

Διαβάστε περισσότερα

SERII NUMERICE. Definiţia 3.1. Fie (a n ) n n0 (n 0 IN) un şir de numere reale şi (s n ) n n0

SERII NUMERICE. Definiţia 3.1. Fie (a n ) n n0 (n 0 IN) un şir de numere reale şi (s n ) n n0 SERII NUMERICE Definiţia 3.1. Fie ( ) n n0 (n 0 IN) un şir de numere reale şi (s n ) n n0 şirul definit prin: s n0 = 0, s n0 +1 = 0 + 0 +1, s n0 +2 = 0 + 0 +1 + 0 +2,.......................................

Διαβάστε περισσότερα

prin egalizarea histogramei

prin egalizarea histogramei Lucrarea 4 Îmbunătăţirea imaginilor prin egalizarea histogramei BREVIAR TEORETIC Tehnicile de îmbunătăţire a imaginilor bazate pe calculul histogramei modifică histograma astfel încât aceasta să aibă o

Διαβάστε περισσότερα

DISTANŢA DINTRE DOUĂ DREPTE NECOPLANARE

DISTANŢA DINTRE DOUĂ DREPTE NECOPLANARE DISTANŢA DINTRE DOUĂ DREPTE NECOPLANARE ABSTRACT. Materialul prezintă o modalitate de a afla distanţa dintre două drepte necoplanare folosind volumul tetraedrului. Lecţia se adresează clasei a VIII-a Data:

Διαβάστε περισσότερα

Seminar 5 Analiza stabilității sistemelor liniare

Seminar 5 Analiza stabilității sistemelor liniare Seminar 5 Analiza stabilității sistemelor liniare Noțiuni teoretice Criteriul Hurwitz de analiză a stabilității sistemelor liniare În cazul sistemelor liniare, stabilitatea este o condiție de localizare

Διαβάστε περισσότερα

Asupra unei inegalităţi date la barajul OBMJ 2006

Asupra unei inegalităţi date la barajul OBMJ 2006 Asupra unei inegalităţi date la barajul OBMJ 006 Mircea Lascu şi Cezar Lupu La cel de-al cincilea baraj de Juniori din data de 0 mai 006 a fost dată următoarea inegalitate: Fie x, y, z trei numere reale

Διαβάστε περισσότερα

Functii definitie, proprietati, grafic, functii elementare A. Definitii, proprietatile functiilor X) functia f 1

Functii definitie, proprietati, grafic, functii elementare A. Definitii, proprietatile functiilor X) functia f 1 Functii definitie proprietati grafic functii elementare A. Definitii proprietatile functiilor. Fiind date doua multimi X si Y spunem ca am definit o functie (aplicatie) pe X cu valori in Y daca fiecarui

Διαβάστε περισσότερα

4. CIRCUITE LOGICE ELEMENTRE 4.. CIRCUITE LOGICE CU COMPONENTE DISCRETE 4.. PORŢI LOGICE ELEMENTRE CU COMPONENTE PSIVE Componente electronice pasive sunt componente care nu au capacitatea de a amplifica

Διαβάστε περισσότερα

Problema a II - a (10 puncte) Diferite circuite electrice

Problema a II - a (10 puncte) Diferite circuite electrice Olimpiada de Fizică - Etapa pe judeţ 15 ianuarie 211 XI Problema a II - a (1 puncte) Diferite circuite electrice A. Un elev utilizează o sursă de tensiune (1), o cutie cu rezistenţe (2), un întrerupător

Διαβάστε περισσότερα

Aplicaţii ale principiului I al termodinamicii la gazul ideal

Aplicaţii ale principiului I al termodinamicii la gazul ideal Aplicaţii ale principiului I al termodinamicii la gazul ideal Principiul I al termodinamicii exprimă legea conservării şi energiei dintr-o formă în alta şi se exprimă prin relaţia: ΔUQ-L, unde: ΔU-variaţia

Διαβάστε περισσότερα

Analiza în curent continuu a schemelor electronice Eugenie Posdărăscu - DCE SEM 1 electronica.geniu.ro

Analiza în curent continuu a schemelor electronice Eugenie Posdărăscu - DCE SEM 1 electronica.geniu.ro Analiza în curent continuu a schemelor electronice Eugenie Posdărăscu - DCE SEM Seminar S ANALA ÎN CUENT CONTNUU A SCHEMELO ELECTONCE S. ntroducere Pentru a analiza în curent continuu o schemă electronică,

Διαβάστε περισσότερα

Functii definitie, proprietati, grafic, functii elementare A. Definitii, proprietatile functiilor

Functii definitie, proprietati, grafic, functii elementare A. Definitii, proprietatile functiilor Functii definitie, proprietati, grafic, functii elementare A. Definitii, proprietatile functiilor. Fiind date doua multimi si spunem ca am definit o functie (aplicatie) pe cu valori in daca fiecarui element

Διαβάστε περισσότερα

Capitolul 4. Integrale improprii Integrale cu limite de integrare infinite

Capitolul 4. Integrale improprii Integrale cu limite de integrare infinite Capitolul 4 Integrale improprii 7-8 În cadrul studiului integrabilităţii iemann a unei funcţii s-au evidenţiat douăcondiţii esenţiale:. funcţia :[ ] este definită peintervalînchis şi mărginit (interval

Διαβάστε περισσότερα

Integrala nedefinită (primitive)

Integrala nedefinită (primitive) nedefinita nedefinită (primitive) nedefinita 2 nedefinita februarie 20 nedefinita.tabelul primitivelor Definiţia Fie f : J R, J R un interval. Funcţia F : J R se numeşte primitivă sau antiderivată a funcţiei

Διαβάστε περισσότερα

Definiţia generală Cazul 1. Elipsa şi hiperbola Cercul Cazul 2. Parabola Reprezentari parametrice ale conicelor Tangente la conice

Definiţia generală Cazul 1. Elipsa şi hiperbola Cercul Cazul 2. Parabola Reprezentari parametrice ale conicelor Tangente la conice 1 Conice pe ecuaţii reduse 2 Conice pe ecuaţii reduse Definiţie Numim conica locul geometric al punctelor din plan pentru care raportul distantelor la un punct fix F şi la o dreaptă fixă (D) este o constantă

Διαβάστε περισσότερα

a n (ζ z 0 ) n. n=1 se numeste partea principala iar seria a n (z z 0 ) n se numeste partea

a n (ζ z 0 ) n. n=1 se numeste partea principala iar seria a n (z z 0 ) n se numeste partea Serii Laurent Definitie. Se numeste serie Laurent o serie de forma Seria n= (z z 0 ) n regulata (tayloriana) = (z z n= 0 ) + n se numeste partea principala iar seria se numeste partea Sa presupunem ca,

Διαβάστε περισσότερα

a. 11 % b. 12 % c. 13 % d. 14 %

a. 11 % b. 12 % c. 13 % d. 14 % 1. Un motor termic funcţionează după ciclul termodinamic reprezentat în sistemul de coordonate V-T în figura alăturată. Motorul termic utilizează ca substanţă de lucru un mol de gaz ideal având exponentul

Διαβάστε περισσότερα

2. Circuite logice 2.4. Decodoare. Multiplexoare. Copyright Paul GASNER

2. Circuite logice 2.4. Decodoare. Multiplexoare. Copyright Paul GASNER 2. Circuite logice 2.4. Decodoare. Multiplexoare Copyright Paul GASNER Definiţii Un decodor pe n bits are n intrări şi 2 n ieşiri; cele n intrări reprezintă un număr binar care determină în mod unic care

Διαβάστε περισσότερα

Laborator 6. Integrarea ecuaţiilor diferenţiale

Laborator 6. Integrarea ecuaţiilor diferenţiale Laborator 6 Integrarea ecuaţiilor diferenţiale Responsabili: 1. Surdu Cristina(anacristinasurdu@gmail.com) 2. Ştirbăţ Bogdan(bogdanstirbat@yahoo.com) Obiective În urma parcurgerii acestui laborator elevul

Διαβάστε περισσότερα

R R, f ( x) = x 7x+ 6. Determinați distanța dintre punctele de. B=, unde x și y sunt numere reale.

R R, f ( x) = x 7x+ 6. Determinați distanța dintre punctele de. B=, unde x și y sunt numere reale. 5p Determinați primul termen al progresiei geometrice ( b n ) n, știind că b 5 = 48 și b 8 = 84 5p Se consideră funcția f : intersecție a graficului funcției f cu aa O R R, f ( ) = 7+ 6 Determinați distanța

Διαβάστε περισσότερα

Criptosisteme cu cheie publică III

Criptosisteme cu cheie publică III Criptosisteme cu cheie publică III Anul II Aprilie 2017 Problema rucsacului ( knapsack problem ) Considerăm un număr natural V > 0 şi o mulţime finită de numere naturale pozitive {v 0, v 1,..., v k 1 }.

Διαβάστε περισσότερα

1.3 Baza a unui spaţiu vectorial. Dimensiune

1.3 Baza a unui spaţiu vectorial. Dimensiune .3 Baza a unui spaţiu vectorial. Dimensiune Definiţia.3. Se numeşte bază a spaţiului vectorial V o familie de vectori B care îndeplineşte condiţiile de mai jos: a) B este liniar independentă; b) B este

Διαβάστε περισσότερα

Metode Runge-Kutta. 18 ianuarie Probleme scalare, pas constant. Dorim să aproximăm soluţia problemei Cauchy

Metode Runge-Kutta. 18 ianuarie Probleme scalare, pas constant. Dorim să aproximăm soluţia problemei Cauchy Metode Runge-Kutta Radu T. Trîmbiţaş 8 ianuarie 7 Probleme scalare, pas constant Dorim să aproximăm soluţia problemei Cauchy y (t) = f(t, y), a t b, y(a) = α. pe o grilă uniformă de (N + )-puncte din [a,

Διαβάστε περισσότερα

Modelare fuzzy. Problematica modelarii Sisteme fuzzy in modelare Procedura de modelare ANFIS Clasificare substractiva. Modelare fuzzy. G.

Modelare fuzzy. Problematica modelarii Sisteme fuzzy in modelare Procedura de modelare ANFIS Clasificare substractiva. Modelare fuzzy. G. Modelare fuzzy Problematica modelarii Sisteme fuzzy in modelare Procedura de modelare ANFIS Clasificare substractiva 1 /13 Problematica modelarii Estimarea unei funcţii necunoscute pe baza unor eşantioane

Διαβάστε περισσότερα

Sisteme liniare - metode directe

Sisteme liniare - metode directe Sisteme liniare - metode directe Radu T. Trîmbiţaş 27 martie 2016 1 Eliminare gaussiană Să considerăm sistemul liniar cu n ecuaţii şi n necunoscute Ax = b, (1) unde A K n n, b K n 1 sunt date, iar x K

Διαβάστε περισσότερα

Lectia VI Structura de spatiu an E 3. Dreapta si planul ca subspatii ane

Lectia VI Structura de spatiu an E 3. Dreapta si planul ca subspatii ane Subspatii ane Lectia VI Structura de spatiu an E 3. Dreapta si planul ca subspatii ane Oana Constantinescu Oana Constantinescu Lectia VI Subspatii ane Table of Contents 1 Structura de spatiu an E 3 2 Subspatii

Διαβάστε περισσότερα

7 Distribuţia normală

7 Distribuţia normală 7 Distribuţia normală Distribuţia normală este cea mai importantă distribuţie continuă, deoarece în practică multe variabile aleatoare sunt variabile aleatoare normale, sunt aproximativ variabile aleatoare

Διαβάστε περισσότερα

Curs 2 Şiruri de numere reale

Curs 2 Şiruri de numere reale Curs 2 Şiruri de numere reale Facultatea de Hidrotehnică Universitatea Tehnică "Gh. Asachi" Iaşi 2014 Convergenţă şi mărginire Teoremă Orice şir convergent este mărginit. Demonstraţie Fie (x n ) n 0 un

Διαβάστε περισσότερα

5.5. REZOLVAREA CIRCUITELOR CU TRANZISTOARE BIPOLARE

5.5. REZOLVAREA CIRCUITELOR CU TRANZISTOARE BIPOLARE 5.5. A CIRCUITELOR CU TRANZISTOARE BIPOLARE PROBLEMA 1. În circuitul din figura 5.54 se cunosc valorile: μa a. Valoarea intensității curentului de colector I C. b. Valoarea tensiunii bază-emitor U BE.

Διαβάστε περισσότερα

Componente şi Circuite Electronice Pasive. Laborator 4. Măsurarea parametrilor mărimilor electrice

Componente şi Circuite Electronice Pasive. Laborator 4. Măsurarea parametrilor mărimilor electrice Laborator 4 Măsurarea parametrilor mărimilor electrice Obiective: o Semnalul sinusoidal, o Semnalul dreptunghiular, o Semnalul triunghiular, o Generarea diferitelor semnale folosind placa multifuncţională

Διαβάστε περισσότερα

Spatii liniare. Exemple Subspaţiu liniar Acoperire (înfăşurătoare) liniară. Mulţime infinită liniar independentă

Spatii liniare. Exemple Subspaţiu liniar Acoperire (înfăşurătoare) liniară. Mulţime infinită liniar independentă Noţiunea de spaţiu liniar 1 Noţiunea de spaţiu liniar Exemple Subspaţiu liniar Acoperire (înfăşurătoare) liniară 2 Mulţime infinită liniar independentă 3 Schimbarea coordonatelor unui vector la o schimbare

Διαβάστε περισσότερα

Orice izometrie f : (X, d 1 ) (Y, d 2 ) este un homeomorfism. (Y = f(x)).

Orice izometrie f : (X, d 1 ) (Y, d 2 ) este un homeomorfism. (Y = f(x)). Teoremă. (Y = f(x)). Orice izometrie f : (X, d 1 ) (Y, d 2 ) este un homeomorfism Demonstraţie. f este continuă pe X: x 0 X, S Y (f(x 0 ), ε), S X (x 0, ε) aşa ca f(s X (x 0, ε)) = S Y (f(x 0 ), ε) : y

Διαβάστε περισσότερα

V O. = v I v stabilizator

V O. = v I v stabilizator Stabilizatoare de tensiune continuă Un stabilizator de tensiune este un circuit electronic care păstrează (aproape) constantă tensiunea de ieșire la variaţia între anumite limite a tensiunii de intrare,

Διαβάστε περισσότερα

Statisticǎ - curs 3. 1 Seria de distribuţie a statisticilor de eşantioane 2. 2 Teorema limitǎ centralǎ 5. 3 O aplicaţie a teoremei limitǎ centralǎ 7

Statisticǎ - curs 3. 1 Seria de distribuţie a statisticilor de eşantioane 2. 2 Teorema limitǎ centralǎ 5. 3 O aplicaţie a teoremei limitǎ centralǎ 7 Statisticǎ - curs 3 Cuprins 1 Seria de distribuţie a statisticilor de eşantioane 2 2 Teorema limitǎ centralǎ 5 3 O aplicaţie a teoremei limitǎ centralǎ 7 4 Estimarea punctualǎ a unui parametru; intervalul

Διαβάστε περισσότερα

Seminariile Capitolul X. Integrale Curbilinii: Serii Laurent şi Teorema Reziduurilor

Seminariile Capitolul X. Integrale Curbilinii: Serii Laurent şi Teorema Reziduurilor Facultatea de Matematică Calcul Integral şi Elemente de Analiă Complexă, Semestrul I Lector dr. Lucian MATICIUC Seminariile 9 20 Capitolul X. Integrale Curbilinii: Serii Laurent şi Teorema Reiduurilor.

Διαβάστε περισσότερα

Conice. Lect. dr. Constantin-Cosmin Todea. U.T. Cluj-Napoca

Conice. Lect. dr. Constantin-Cosmin Todea. U.T. Cluj-Napoca Conice Lect. dr. Constantin-Cosmin Todea U.T. Cluj-Napoca Definiţie: Se numeşte curbă algebrică plană mulţimea punctelor din plan de ecuaţie implicită de forma (C) : F (x, y) = 0 în care funcţia F este

Διαβάστε περισσότερα

riptografie şi Securitate

riptografie şi Securitate riptografie şi Securitate - Prelegerea 12 - Scheme de criptare CCA sigure Adela Georgescu, Ruxandra F. Olimid Facultatea de Matematică şi Informatică Universitatea din Bucureşti Cuprins 1. Schemă de criptare

Διαβάστε περισσότερα

EDITURA PARALELA 45 MATEMATICĂ DE EXCELENŢĂ. Clasa a X-a Ediţia a II-a, revizuită. pentru concursuri, olimpiade şi centre de excelenţă

EDITURA PARALELA 45 MATEMATICĂ DE EXCELENŢĂ. Clasa a X-a Ediţia a II-a, revizuită. pentru concursuri, olimpiade şi centre de excelenţă Coordonatori DANA HEUBERGER NICOLAE MUŞUROIA Nicolae Muşuroia Gheorghe Boroica Vasile Pop Dana Heuberger Florin Bojor MATEMATICĂ DE EXCELENŢĂ pentru concursuri, olimpiade şi centre de excelenţă Clasa a

Διαβάστε περισσότερα

Esalonul Redus pe Linii (ERL). Subspatii.

Esalonul Redus pe Linii (ERL). Subspatii. Seminarul 1 Esalonul Redus pe Linii (ERL). Subspatii. 1.1 Breviar teoretic 1.1.1 Esalonul Redus pe Linii (ERL) Definitia 1. O matrice A L R mxn este in forma de Esalon Redus pe Linii (ERL), daca indeplineste

Διαβάστε περισσότερα

CIRCUITE LOGICE CU TB

CIRCUITE LOGICE CU TB CIRCUITE LOGICE CU T I. OIECTIVE a) Determinarea experimentală a unor funcţii logice pentru circuite din familiile RTL, DTL. b) Determinarea dependenţei caracteristicilor statice de transfer în tensiune

Διαβάστε περισσότερα

Curs 2 DIODE. CIRCUITE DR

Curs 2 DIODE. CIRCUITE DR Curs 2 OE. CRCUTE R E CUPRN tructură. imbol Relația curent-tensiune Regimuri de funcționare Punct static de funcționare Parametrii diodei Modelul cu cădere de tensiune constantă Analiza circuitelor cu

Διαβάστε περισσότερα

Curs 6 Rețele Neuronale Artificiale

Curs 6 Rețele Neuronale Artificiale SISTEME INTELIGENTE DE SUPORT DECIZIONAL Ș.l.dr.ing. Laura-Nicoleta IVANCIU Curs 6 Rețele Neuronale Artificiale Cuprins Principii Bazele biologice Arhitectura RNA Instruire Tipuri de probleme rezolvabile

Διαβάστε περισσότερα

Concurs MATE-INFO UBB, 1 aprilie 2017 Proba scrisă la MATEMATICĂ

Concurs MATE-INFO UBB, 1 aprilie 2017 Proba scrisă la MATEMATICĂ UNIVERSITATEA BABEŞ-BOLYAI CLUJ-NAPOCA FACULTATEA DE MATEMATICĂ ŞI INFORMATICĂ Concurs MATE-INFO UBB, aprilie 7 Proba scrisă la MATEMATICĂ SUBIECTUL I (3 puncte) ) (5 puncte) Fie matricele A = 3 4 9 8

Διαβάστε περισσότερα

4. Măsurarea tensiunilor şi a curenţilor electrici. Voltmetre electronice analogice

4. Măsurarea tensiunilor şi a curenţilor electrici. Voltmetre electronice analogice 4. Măsurarea tensiunilor şi a curenţilor electrici oltmetre electronice analogice oltmetre de curent continuu Ampl.c.c. x FTJ Protectie Atenuator calibrat Atenuatorul calibrat divizor rezistiv R in const.

Διαβάστε περισσότερα

Fig Impedanţa condensatoarelor electrolitice SMD cu Al cu electrolit semiuscat în funcţie de frecvenţă [36].

Fig Impedanţa condensatoarelor electrolitice SMD cu Al cu electrolit semiuscat în funcţie de frecvenţă [36]. Componente şi circuite pasive Fig.3.85. Impedanţa condensatoarelor electrolitice SMD cu Al cu electrolit semiuscat în funcţie de frecvenţă [36]. Fig.3.86. Rezistenţa serie echivalentă pierderilor în funcţie

Διαβάστε περισσότερα

Laborator 1: INTRODUCERE ÎN ALGORITMI. Întocmit de: Claudia Pârloagă. Îndrumător: Asist. Drd. Gabriel Danciu

Laborator 1: INTRODUCERE ÎN ALGORITMI. Întocmit de: Claudia Pârloagă. Îndrumător: Asist. Drd. Gabriel Danciu INTRODUCERE Laborator 1: ÎN ALGORITMI Întocmit de: Claudia Pârloagă Îndrumător: Asist. Drd. Gabriel Danciu I. NOŢIUNI TEORETICE A. Sortarea prin selecţie Date de intrare: un şir A, de date Date de ieşire:

Διαβάστε περισσότερα

10. STABILIZATOAE DE TENSIUNE 10.1 STABILIZATOAE DE TENSIUNE CU TANZISTOAE BIPOLAE Stabilizatorul de tensiune cu tranzistor compară în permanenţă valoare tensiunii de ieşire (stabilizate) cu tensiunea

Διαβάστε περισσότερα

Ovidiu Gabriel Avădănei, Florin Mihai Tufescu,

Ovidiu Gabriel Avădănei, Florin Mihai Tufescu, vidiu Gabriel Avădănei, Florin Mihai Tufescu, Capitolul 6 Amplificatoare operaţionale 58. Să se calculeze coeficientul de amplificare în tensiune pentru amplficatorul inversor din fig.58, pentru care se

Διαβάστε περισσότερα

Examen AG. Student:... Grupa:... ianuarie 2011

Examen AG. Student:... Grupa:... ianuarie 2011 Problema 1. Pentru ce valori ale lui n,m N (n,m 1) graful K n,m este eulerian? Problema 2. Să se construiască o funcţie care să recunoască un graf P 3 -free. La intrare aceasta va primi un graf G = ({1,...,n},E)

Διαβάστε περισσότερα

Erori si incertitudini de măsurare. Modele matematice Instrument: proiectare, fabricaţie, Interacţiune măsurand instrument:

Erori si incertitudini de măsurare. Modele matematice Instrument: proiectare, fabricaţie, Interacţiune măsurand instrument: Erori i incertitudini de măurare Sure: Modele matematice Intrument: proiectare, fabricaţie, Interacţiune măurandintrument: (tranfer informaţie tranfer energie) Influente externe: temperatura, preiune,

Διαβάστε περισσότερα

Identificarea si modelarea sistemelor

Identificarea si modelarea sistemelor Identificarea si modelarea sistemelor Curs An III, Inginerie electrica, EPAE Sem. I I Gh. Livint 1. Introducere în modelarea sistemelor Un sistem este o grupare de elemente pasive şi active organizate

Διαβάστε περισσότερα

Noţiuni introductive

Noţiuni introductive Metode Numerice Noţiuni introductive Erori. Condiţionare numerică. Stabilitatea algoritmilor. Complexitatea algoritmilor. Metodele numerice reprezintă tehnici prin care problemele matematice sunt reformulate

Διαβάστε περισσότερα

METODE NUMERICE: Laborator #5 Metode iterative pentru rezolvarea sistemelor: Jacobi, Gauss-Siedel, Suprarelaxare

METODE NUMERICE: Laborator #5 Metode iterative pentru rezolvarea sistemelor: Jacobi, Gauss-Siedel, Suprarelaxare METODE NUMERICE: Laborator #5 Metode iterative pentru rezolvarea sistemelor: Jacobi, Gauss-Siedel, Suprarelaxare Titulari curs: Florin Pop, George-Pantelimon Popescu Responsabil Laborator: Mădălina-Andreea

Διαβάστε περισσότερα

COLEGIUL NATIONAL CONSTANTIN CARABELLA TARGOVISTE. CONCURSUL JUDETEAN DE MATEMATICA CEZAR IVANESCU Editia a VI-a 26 februarie 2005.

COLEGIUL NATIONAL CONSTANTIN CARABELLA TARGOVISTE. CONCURSUL JUDETEAN DE MATEMATICA CEZAR IVANESCU Editia a VI-a 26 februarie 2005. SUBIECTUL Editia a VI-a 6 februarie 005 CLASA a V-a Fie A = x N 005 x 007 si B = y N y 003 005 3 3 a) Specificati cel mai mic element al multimii A si cel mai mare element al multimii B. b)stabiliti care

Διαβάστε περισσότερα

Examen AG. Student:... Grupa: ianuarie 2016

Examen AG. Student:... Grupa: ianuarie 2016 16-17 ianuarie 2016 Problema 1. Se consideră graful G = pk n (p, n N, p 2, n 3). Unul din vârfurile lui G se uneşte cu câte un vârf din fiecare graf complet care nu-l conţine, obţinându-se un graf conex

Διαβάστε περισσότερα

MARCAREA REZISTOARELOR

MARCAREA REZISTOARELOR 1.2. MARCAREA REZISTOARELOR 1.2.1 MARCARE DIRECTĂ PRIN COD ALFANUMERIC. Acest cod este format din una sau mai multe cifre şi o literă. Litera poate fi plasată după grupul de cifre (situaţie în care valoarea

Διαβάστε περισσότερα

III. Reprezentarea informaţiei în sistemele de calcul

III. Reprezentarea informaţiei în sistemele de calcul Metode Numerice Curs 3 III. Reprezentarea informaţiei în sistemele de calcul III.1. Reprezentarea internă a numerelor întregi III. 1.1. Reprezentarea internă a numerelor întregi fără semn (pozitive) Reprezentarea

Διαβάστε περισσότερα

FLUXURI MAXIME ÎN REŢELE DE TRANSPORT. x 4

FLUXURI MAXIME ÎN REŢELE DE TRANSPORT. x 4 FLUXURI MAXIME ÎN REŢELE DE TRANSPORT Se numeşte reţea de transport un graf în care fiecărui arc îi este asociat capacitatea arcului şi în care eistă un singur punct de intrare şi un singur punct de ieşire.

Διαβάστε περισσότερα

2. Sisteme de forţe concurente...1 Cuprins...1 Introducere Aspecte teoretice Aplicaţii rezolvate...3

2. Sisteme de forţe concurente...1 Cuprins...1 Introducere Aspecte teoretice Aplicaţii rezolvate...3 SEMINAR 2 SISTEME DE FRŢE CNCURENTE CUPRINS 2. Sisteme de forţe concurente...1 Cuprins...1 Introducere...1 2.1. Aspecte teoretice...2 2.2. Aplicaţii rezolvate...3 2. Sisteme de forţe concurente În acest

Διαβάστε περισσότερα

a. Caracteristicile mecanice a motorului de c.c. cu excitaţie independentă (sau derivaţie)

a. Caracteristicile mecanice a motorului de c.c. cu excitaţie independentă (sau derivaţie) Caracteristica mecanică defineşte dependenţa n=f(m) în condiţiile I e =ct., U=ct. Pentru determinarea ei vom defini, mai întâi caracteristicile: 1. de sarcină, numită şi caracteristica externă a motorului

Διαβάστε περισσότερα

Zgomotul se poate suprapune informaţiei utile în două moduri: g(x, y) = f(x, y) n(x, y) (6.2)

Zgomotul se poate suprapune informaţiei utile în două moduri: g(x, y) = f(x, y) n(x, y) (6.2) Lucrarea 6 Zgomotul în imagini BREVIAR TEORETIC Zgomotul este un semnal aleator, care afectează informaţia utilă conţinută într-o imagine. El poate apare de-alungul unui lanţ de transmisiune, sau prin

Διαβάστε περισσότερα

O generalizare a unei probleme de algebră dată la Olimpiada de Matematică, faza judeţeană, 2013

O generalizare a unei probleme de algebră dată la Olimpiada de Matematică, faza judeţeană, 2013 O generalizare a unei probleme de algebră dată la Olimpiada de Matematică, faza judeţeană, 2013 Marius Tărnăuceanu 1 Aprilie 2013 Abstract În această lucrare vom prezenta un rezultat ce extinde Problema

Διαβάστε περισσότερα

Cursul Măsuri reale. D.Rusu, Teoria măsurii şi integrala Lebesgue 15

Cursul Măsuri reale. D.Rusu, Teoria măsurii şi integrala Lebesgue 15 MĂSURI RELE Cursul 13 15 Măsuri reale Fie (,, µ) un spaţiu cu măsură completă şi f : R o funcţie -măsurabilă. Cum am văzut în Teorema 11.29, dacă f are integrală pe, atunci funcţia de mulţime ν : R, ν()

Διαβάστε περισσότερα

VII.2. PROBLEME REZOLVATE

VII.2. PROBLEME REZOLVATE Teoria Circuitelor Electrice Aplicaţii V PROBEME REOVATE R7 În circuitul din fiura 7R se cunosc: R e t 0 sint [V] C C t 0 sint [A] Se cer: a rezolvarea circuitului cu metoda teoremelor Kirchhoff; rezolvarea

Διαβάστε περισσότερα

CURS 11: ALGEBRĂ Spaţii liniare euclidiene. Produs scalar real. Spaţiu euclidian. Produs scalar complex. Spaţiu unitar. Noţiunea de normă.

CURS 11: ALGEBRĂ Spaţii liniare euclidiene. Produs scalar real. Spaţiu euclidian. Produs scalar complex. Spaţiu unitar. Noţiunea de normă. Sala: 2103 Decembrie 2014 Conf. univ. dr.: Dragoş-Pătru Covei CURS 11: ALGEBRĂ Specializarea: C.E., I.E., S.P.E. Nota: Acest curs nu a fost supus unui proces riguros de recenzare pentru a fi oficial publicat.

Διαβάστε περισσότερα

9 Testarea ipotezelor statistice

9 Testarea ipotezelor statistice 9 Testarea ipotezelor statistice Un test statistic constă în obţinerea unei deducţii bazată pe o selecţie din populaţie prin testarea unei anumite ipoteze (rezultată din experienţa anterioară, din observaţii,

Διαβάστε περισσότερα

TEMA 9: FUNCȚII DE MAI MULTE VARIABILE. Obiective:

TEMA 9: FUNCȚII DE MAI MULTE VARIABILE. Obiective: TEMA 9: FUNCȚII DE MAI MULTE VARIABILE 77 TEMA 9: FUNCȚII DE MAI MULTE VARIABILE Obiective: Deiirea pricipalelor proprietăţi matematice ale ucţiilor de mai multe variabile Aalia ucţiilor de utilitate şi

Διαβάστε περισσότερα

Transformări de frecvenţă

Transformări de frecvenţă Lucrarea 22 Tranformări de frecvenţă Scopul lucrării: prezentarea metodei de inteză bazate pe utilizarea tranformărilor de frecvenţă şi exemplificarea aceteia cu ajutorul unui filtru trece-jo de tip Sallen-Key.

Διαβάστε περισσότερα

Functii Breviar teoretic 8 ianuarie ianuarie 2011

Functii Breviar teoretic 8 ianuarie ianuarie 2011 Functii Breviar teoretic 8 ianuarie 011 15 ianuarie 011 I Fie I, interval si f : I 1) a) functia f este (strict) crescatoare pe I daca x, y I, x< y ( f( x) < f( y)), f( x) f( y) b) functia f este (strict)

Διαβάστε περισσότερα

J F (ρ, ϕ, θ) = cos ϕ ρ sin ϕ 0. Teoremă (a diferenţiabilităţii compuse) (legea lanţului) Fie F : D deschis

J F (ρ, ϕ, θ) = cos ϕ ρ sin ϕ 0. Teoremă (a diferenţiabilităţii compuse) (legea lanţului) Fie F : D deschis 3) Coordonate sferice Fie funcţia vectorială F : R + [ π, π] [0, π) R 3, F (ρ, ϕ, θ) = (ρ sin ϕ cos θ, ρ sin ϕ sin θ, ρ cos ϕ). Observăm că F exprimă legătura dintre coordonatele carteziene şi coordonatele

Διαβάστε περισσότερα

Teme de implementare in Matlab pentru Laboratorul de Metode Numerice

Teme de implementare in Matlab pentru Laboratorul de Metode Numerice Teme de implementare in Matlab pentru Laboratorul de Metode Numerice As. Ruxandra Barbulescu Septembrie 2017 Orice nelamurire asupra enunturilor/implementarilor se rezolva in cadrul laboratorului de MN,

Διαβάστε περισσότερα

Valori limită privind SO2, NOx şi emisiile de praf rezultate din operarea LPC în funcţie de diferite tipuri de combustibili

Valori limită privind SO2, NOx şi emisiile de praf rezultate din operarea LPC în funcţie de diferite tipuri de combustibili Anexa 2.6.2-1 SO2, NOx şi de praf rezultate din operarea LPC în funcţie de diferite tipuri de combustibili de bioxid de sulf combustibil solid (mg/nm 3 ), conţinut de O 2 de 6% în gazele de ardere, pentru

Διαβάστε περισσότερα

14. Grinzi cu zăbrele Metoda secţiunilor...1 Cuprins...1 Introducere Aspecte teoretice Aplicaţii rezolvate...3

14. Grinzi cu zăbrele Metoda secţiunilor...1 Cuprins...1 Introducere Aspecte teoretice Aplicaţii rezolvate...3 SEMINAR GRINZI CU ZĂBRELE METODA SECŢIUNILOR CUPRINS. Grinzi cu zăbrele Metoda secţiunilor... Cuprins... Introducere..... Aspecte teoretice..... Aplicaţii rezolvate.... Grinzi cu zăbrele Metoda secţiunilor

Διαβάστε περισσότερα

Lucrarea Nr. 5 Circuite simple cu diode (Aplicaţii)

Lucrarea Nr. 5 Circuite simple cu diode (Aplicaţii) ucrarea Nr. 5 Circuite simple cu diode (Aplicaţii) A.Scopul lucrării - Verificarea experimentală a rezultatelor obţinute prin analiza circuitelor cu diode modelate liniar pe porţiuni ;.Scurt breviar teoretic

Διαβάστε περισσότερα

2 Transformări liniare între spaţii finit dimensionale

2 Transformări liniare între spaţii finit dimensionale Transformări 1 Noţiunea de transformare liniară Proprietăţi. Operaţii Nucleul şi imagine Rangul şi defectul unei transformări 2 Matricea unei transformări Relaţia dintre rang şi defect Schimbarea matricei

Διαβάστε περισσότερα

Proiectarea filtrelor prin metoda pierderilor de inserţie

Proiectarea filtrelor prin metoda pierderilor de inserţie FITRE DE MIROUNDE Proiectarea filtrelor prin metoda pierderilor de inserţie P R Puterea disponibila de la sursa Puterea livrata sarcinii P inc P Γ ( ) Γ I lo P R ( ) ( ) M ( ) ( ) M N P R M N ( ) ( ) Tipuri

Διαβάστε περισσότερα

3. Momentul forţei în raport cu un punct...1 Cuprins...1 Introducere Aspecte teoretice Aplicaţii rezolvate...4

3. Momentul forţei în raport cu un punct...1 Cuprins...1 Introducere Aspecte teoretice Aplicaţii rezolvate...4 SEMINAR 3 MMENTUL FRŢEI ÎN RAPRT CU UN PUNCT CUPRINS 3. Momentul forţei în raport cu un punct...1 Cuprins...1 Introducere...1 3.1. Aspecte teoretice...2 3.2. Aplicaţii rezolvate...4 3. Momentul forţei

Διαβάστε περισσότερα

1.7. AMPLIFICATOARE DE PUTERE ÎN CLASA A ŞI AB

1.7. AMPLIFICATOARE DE PUTERE ÎN CLASA A ŞI AB 1.7. AMLFCATOARE DE UTERE ÎN CLASA A Ş AB 1.7.1 Amplificatoare în clasa A La amplificatoarele din clasa A, forma de undă a tensiunii de ieşire este aceeaşi ca a tensiunii de intrare, deci întreg semnalul

Διαβάστε περισσότερα

RĂSPUNS Modulul de rezistenţă este o caracteristică geometrică a secţiunii transversale, scrisă faţă de una dintre axele de inerţie principale:,

RĂSPUNS Modulul de rezistenţă este o caracteristică geometrică a secţiunii transversale, scrisă faţă de una dintre axele de inerţie principale:, REZISTENTA MATERIALELOR 1. Ce este modulul de rezistenţă? Exemplificaţi pentru o secţiune dreptunghiulară, respectiv dublu T. RĂSPUNS Modulul de rezistenţă este o caracteristică geometrică a secţiunii

Διαβάστε περισσότερα

Subiecte Clasa a VIII-a

Subiecte Clasa a VIII-a Subiecte lasa a VIII-a (40 de intrebari) Puteti folosi spatiile goale ca ciorna. Nu este de ajuns sa alegeti raspunsul corect pe brosura de subiecte, ele trebuie completate pe foaia de raspuns in dreptul

Διαβάστε περισσότερα

CONCURSUL DE MATEMATICĂ APLICATĂ ADOLF HAIMOVICI, 2017 ETAPA LOCALĂ, HUNEDOARA Clasa a IX-a profil științe ale naturii, tehnologic, servicii

CONCURSUL DE MATEMATICĂ APLICATĂ ADOLF HAIMOVICI, 2017 ETAPA LOCALĂ, HUNEDOARA Clasa a IX-a profil științe ale naturii, tehnologic, servicii Clasa a IX-a 1 x 1 a) Demonstrați inegalitatea 1, x (0, 1) x x b) Demonstrați că, dacă a 1, a,, a n (0, 1) astfel încât a 1 +a + +a n = 1, atunci: a +a 3 + +a n a1 +a 3 + +a n a1 +a + +a n 1 + + + < 1

Διαβάστε περισσότερα

Capitolul 4 Amplificatoare elementare

Capitolul 4 Amplificatoare elementare Capitolul 4 mplificatoare elementare 4.. Etaje de amplificare cu un tranzistor 4... Etajul emitor comun V CC C B B C C L L o ( // ) V gm C i rπ // B // o L // C // L B ro i B E C E 4... Etajul colector

Διαβάστε περισσότερα

Scoruri standard Curba normală (Gauss) M. Popa

Scoruri standard Curba normală (Gauss) M. Popa Scoruri standard Curba normală (Gauss) M. Popa Scoruri standard cunoaştere evaluare, măsurare evaluare comparare (Gh. Zapan) comparare raportare la un sistem de referință Povestea Scufiței Roşii... 70

Διαβάστε περισσότερα

2.1 Sfera. (EGS) ecuaţie care poartă denumirea de ecuaţia generală asferei. (EGS) reprezintă osferă cu centrul în punctul. 2 + p 2

2.1 Sfera. (EGS) ecuaţie care poartă denumirea de ecuaţia generală asferei. (EGS) reprezintă osferă cu centrul în punctul. 2 + p 2 .1 Sfera Definitia 1.1 Se numeşte sferă mulţimea tuturor punctelor din spaţiu pentru care distanţa la u punct fi numit centrul sferei este egalăcuunnumăr numit raza sferei. Fie centrul sferei C (a, b,

Διαβάστε περισσότερα

LUCRAREA NR. 1 STUDIUL SURSELOR DE CURENT

LUCRAREA NR. 1 STUDIUL SURSELOR DE CURENT LUCAEA N STUDUL SUSELO DE CUENT Scopul lucrării În această lucrare se studiază prin simulare o serie de surse de curent utilizate în cadrul circuitelor integrate analogice: sursa de curent standard, sursa

Διαβάστε περισσότερα

INTERPOLARE. y i L i (x). L(x) = i=0

INTERPOLARE. y i L i (x). L(x) = i=0 INTERPOLARE Se dau punctele P 0, P 1,..., P n in plan sau in spatiu, numite noduri si avand vectorii de pozitie r 0, r 1,..., r n. Problemă. Să se găsească o curbă (dintr-o anumită familie) care să treacă

Διαβάστε περισσότερα