Prefata Chiar daca acest material este suportul cursului de Retele neurale, de-a lungul timpului acest curs a ^nceput sa contina capitole noi, la inte

Μέγεθος: px
Εμφάνιση ξεκινά από τη σελίδα:

Download "Prefata Chiar daca acest material este suportul cursului de Retele neurale, de-a lungul timpului acest curs a ^nceput sa contina capitole noi, la inte"

Transcript

1 Despre autori ^Incep^and cu anul universitar 99/99, Razvan Andonie a predat un curs de Retele neurale la Universitatea "Transilvania", specializarile Electronica si calculatoare, Electrotehnica, Informatica. Acelasi curs l-a predat la Universitatea Texas din San Antonio, SUA, ^n anul universitar 999/000. Angel Cataron a facut parte din prima generatie de absolventi care au frecventat acest curs. ^In perioada , el a predat cursul de Retele neurale la Universitatea "Transilvania", specializarea Electronica si calculatoare. Pe l^anga aceasta, el este coordonatorul orelor de laborator pentru acest curs si este doctorand ^n domeniul retelelor neurale.

2 Prefata Chiar daca acest material este suportul cursului de Retele neurale, de-a lungul timpului acest curs a ^nceput sa contina capitole noi, la interferenta retelelor neurale cu sistemele fuzzy si algoritmii genetici. Aceasta este ^n concordanta cu tendintele actuale ^n lume. De aceea, am preferat denumirea de inteligenta computationala. Inteligenta computationala, asa cum a fost denita de Bezdek, are ca obiectiv modelarea inteligentei biologice. Din acest punct de vedere, ea este similara domeniului numit inteligenta articiala. Spre deosebire de inteligenta articiala, care este bazata pe notiunea de cunostinta, inteligenta computationala este o modelare numericaainteligentei biologice. Putem vorbi deci de trei tipuri de "inteligenta": biologica, articiala si computationala. Inteligenta computationala este formata din urmatoarele subdomenii: retele neurale, algoritmi genetici, programare evolutionara, sisteme fuzzy, viata arti- ciala. ^In contextul inteligentei computationale, toate aceste subdomenii sunt legate de modelarea numerica ainteligentei biologice. Acest curs acopera majoritatea subdomeniilor inteligentei computationale. Fiecare capitol ofera, pe l^anga informatii teoretice, c^ate o sectiune de aplicatii, urmata de un set de exercitii, cele marcate prin (C) ind destinate implementarii pe calculator. Bezdek, J. "On the Relationship Between Neural Networks", Pattern Recognition and Intelligence, Int. J. Approximate Reasoning,, 85-0, 99.

3

4 Cuprins Preliminarii ^n calculul neural 9. Calculul neural: exemple Istoricul dezvoltarii retelelor neurale Viitorul Concepte fundamentale 9. Neuronii biologici si modelele lor articiale Modelarea retelelor neurale ^Invatare si adaptare Reguli de ^nvatare Exemple Exercitii Perceptroni monostrat 5. Clasicare Functii discriminant Clasicatori liniari Perceptronul discret ca dihotomizator liniar Perceptronul continuu ca dihotomizator liniar Teorema de convergenta aperceptronului Retele monostrat de perceptroni Exemple Exercitii Retele neurale feedforward multistrat 9. Clasicarea pattern-urilor liniar neseparabile Regula de ^nvatare delta Regula delta generalizata Algoritmul de instruire backpropagation Factori ai ^nvatarii Aproximatori universali Teorema lui Kolmogorov si retelele neurale Aplicatii Exemple

5 CUPRINS.0 Exercitii Retele neurale feedback monostrat 0 5. Retele Hopeld cu timp discret Retele Hopeld cu timp continuu Aplicatie: problema comis-voiajorului Exemple Exercitii Memorii asociative 5. Concepte de baza Asociatori liniari Memorii autoasociative recurente Analiza performantei Memoria asociativa bidirectionala (MAB) Exercitii Retele neurale cu auto-organizare 5. Retelele Hamming si MAXNET Instruirea nesupervizata a clusterelor Harti Kohonen Exercitii Retele neurale RBF Functii radiale O tehnica degrupare (clustering) Discutie Retele neurale fuzzy 5 9. Logica fuzzy De ce logica fuzzy? Logica fuzzy si cea conventionala Retele neurale fuzzy Neuroni fuzzy Structura unei RNF Algoritmul de instruire a unei RNF Analiza RNF Rezultatele simularii Concluzii Algoritmi genetici 0. Introducere Exemplu Fundamente matematice Exercitii

6 CUPRINS Puterea si complexitatea de calcul 85. Masina Turing Puterea de calcul aretelelor neurale Reprezentarea functiilor booleene Complexitatea instruirii Consideratii epistemologice 9. Scopul unei retele neurale Functiile neurale biologice sunt localizate sau distribuite? Este neliniaritatea esentiala ^n calculul neural? Deosebiri esentiale Cum pot programate calculatoarele neurale Poate creierul sa seautoperceapa? A Complemente matematice 99 A. Vectori si matrici A. Forme patratice A. Elemente de geometrie analitica A. Operatia XOR A.5 Iacobianul si hessianul A. Probleme de optimizare A. Metoda lui Euler (metoda tangentei) A.8 Stabilitatea sistemelor dinamice neliniare A.9 Variabile aleatoare B Subiecte-tip pentru examen C Link-uri 5 Bibliograe

7 8 CUPRINS

8 Capitolul Preliminarii ^n calculul neural Calculul neural se efectueaza pe o retea densa de noduri si conexiuni. Aceste noduri lucreaza ^n mod colectiv si simultan si se numesc neuroni articiali, sau neuroni. Neuronii pot opera, de exemplu, ca sumatoare sau comparatoare. De obicei, neuronii lucreaza ^n paralel si sunt congurati ^n arhitecturi regulate. Astfel, ei pot organizati pe nivele ierarhice si se permit conexiuni feedback ^n cadrul unui nivel sau conexiuni feedback catre nivelele adiacente. Puterea ecarei conexiuni este exprimata printr-o valoare numerica numita pondere, care poate modicata. Domeniul retelelor neurale este cunoscut si sub denumiri similare: neurocalcul, conexionism, procesare paralela distribuita, sisteme adaptive, retele cu autoorganizare etc. Aceasta varietate indica de fapt tot at^atea perspective din care se studiaza retelele neurale. Retelele neurale functioneaza ca retele paralele distribuite. Caracteristica lor de baza este arhitectura. Unele retele sunt caracterizate de comportarea lor ^n timp, de dinamica lor. Retelele neurale difera ^ntre ele prin modul de ^nvatare: exista o varietate de reguli de ^nvatare care stabilesc c^and si cum se modica ponderile conexiunilor. ^In ne, retelele difera prin viteza si ecienta de ^nvatare. Spre deosebire de calculatoarele conventionale, care sunt programate sa efectueze anumite lucrari, majoritatea retelelor neurale trebuie sa e ^nvatate (sau instruite). Ele ^nvata noi asocieri, noi pattern-uri, noi dependente functionale. Dupa cum vom vedea mai t^arziu, faptul ca retelele ^nvata reguli si algoritmi ^nlocuieste programarea necesara ^n calculul conventional. Utilizatorii retelelor neurale nu specica un algoritm care sa e executat de catre un anumit neuron, cum s-ar ^nt^ampla pe o masina traditionala. ^In loc de aceasta, ei aleg o conguratie care li se pare cea mai buna arhitectura, specica toate caracteristicile neuronilor si ponderile initiale, apoi aleg modul de instruire pentru retea. ^In urmatoarea faza, sunt aplicate diferite date de intrare din care reteaua ^si extrage cunostinte, adica ^nvata. Ca rezultat, reteaua acumuleaza informatie care poate apoi utilizata. Calculul cu retele neurale se situeaza^ntre inginerie si inteligenta articiala. Se folosesc tehnicile matematice ingineresti clasice, dar si metode euristice specice inteligentei articiale. 9

9 0 CAPITOLUL. PRELIMINARII ^IN CALCULUL NEURAL ^In acest sens vom raspunde la urmatoarele ^ntrebari: Cum poate instruita ecient o retea si cum se ^nvata ea? Ce modele de neuroni trebuie folosite? Care sunt cele mai adecvate arhitecturi pentru anumite clase de probleme? Care sunt cele mai bune metode pentru a extrage cunostintele acumulate ^ntr-o retea? Care sunt aplicatiile tipice pentru calculul neural si c^at de eciente sunt aceste aplicatii? Retelele neurale au atras atentia specialistilor din numeroase discipline. Neurobiologii sunt interesati ^n modelarea retelelor neurale biologice. Fizicienii sunt atrasi de analogiile dintre retelele neurale si sistemele dinamice neliniare pe care le studiaza. Matematicienii sunt fascinati de potentialul modelarii matematice aplicat ^n sistemele foarte mari si complexe. Inginerii ^n electronica si calculatoare aplica retelele neurale ^n procesarea semnalelor si construiesc pe baza retelelor neurale circuite integrate inteligente. Psihologii cauta ^n retelele neurale structurile prototip care modeleaza procesarea informatiei de catre om. ^In ne, informaticienii sunt interesati ^n posibilitatile de calcul ale retelelor masiv paralele ^n domeniile inteligentei articiale, teoriei calculabilitatii, modelarii si simularii etc.. Calculul neural: exemple Ne propunem sa dam c^ateva exemple de utilizare a retelelor neurale ^n rezolvarea unor probleme reale. Clasicatori si sisteme automate de orientare ^n spatiu Vom deni retelele neurale care raspund instantaneu datelor de intrare. Pentru ^nceput, vom analiza performantele unui simplu clasicator, apoi vom extinde aceasta problema. Fie P 0 P ::: P opt puncte ^n spatiul tridimensional. Multimea consta din toate v^arfurile unui cub tridimensional: fp 0 (; ; ;) P (; ; ) P (; ;) P (; ) P ( ; ) P 5 ( ; ) P ( ;) P ( )g Consideram doua clase de puncte:. puncte cu doua sau mai multe coordonate pozitive: P, P 5, P, P. restul de puncte.

10 .. CALCULUL NEURAL: EXEMPLE x x x date de intrare nod element sumator comparator Σ + suma sgn(.) ponderata ponderi clasa Figura.: Clasicator realizat cu o singura unitate. P (-,0,) P (0,-,) P 5 P x +x +x =0 P 0 P P P Figura.: Partitionarea spatiului cartezian. Pentru orice punct P i (x x x ), i = :::, apartenenta la una dintre clasele de mai sus poate stabilita prin urmatorul calcul: ( pentru clasa sgn(x x x )= ; pentru clasa Aceasta expresie descrie functia de decizie a unui clasicator. Nu este necesara o instruire a acestui clasicator. Reteaua neurala rezultata este extrem de simpla (g..). Am realizat clasicarea printr-o singura unitate, sau nod de calcul. Aceasta implementeaza^nsumarea cu ponderile respective ( ^n acest caz) si este urmata de o comparare cu prag. De fapt, se realizeaza o partitionare a spatiului cartezian tridimensional prin planul x + x + x =0(g..).

11 CAPITOLUL. PRELIMINARII ^IN CALCULUL NEURAL Punctele de deasupra planului fac parte din clasa, iar punctele de dedesupt din clasa. Problema pe care ne-o punem este daca o functie continua nu poate mai avantajoasa (g..). f( Σ) Σ - Figura.: Functie continua de decizie. ^In acest caz, datele de iesire pot ^n intervalul dintre - si. Folosirea neuronilor cu caracteristici continue ofera posibilitati mult mai mari. Se obtine ogranularitate (o ranare) mai mare a datelor de iesire. Neurologii folosesc electro-encefalograma (EEG) care preia pe mai multe canale impulsurile electrice ale creierului. Evaluarea EEG este dicilasi de aceea se face de obicei de catre neurologi calicati. Pentru o monitorizare pe calculator, sa ne concentram pe un caz concret: detectarea unei iminente crize de epilepsie. Este nevoie de o prelucrare on-line a semnalelor EEG. ^In 990, Eberhart si Dobbins au realizat detectarea semnalelor EEG pentru crizele de epilepsie folosind un clasicator neural. Datele sunt monitorizate prin patru canale de interes. Semnalele EEG sunt esantionate de 00 sau 50 ori pe secunda ^ntr-o fereastra de 0 ms. Aceasta are ca rezultat obtinerea a 8 sau 0 de esantioane de date pentru ecare canal. Aceste esantioane trebuie evaluate si sunt introduse ^ntr-o retea neurala de0deunitati interconectate, cu caracteristici continue. Un total de de unitati aranjate pe trei nivele ierarhice proceseaza datele. Doua unitati de iesire sunt utilizate pentru identicarea v^arfurilor de semnal. Reteaua a fost elaborata de o echipa de ingineri si neurologi. Dupa ce a fost instruita, reteaua a dat rezultate excelente dovedindu-si utilitatea ^n spitale. Sa consideram un alt exemplu: proiectul ALVINN (Autonomous Land Vehicle In a Neural Network), raportat de Pomerleau (989). Reteaua ALVINN preia imagini ale drumului printr-o camera si printr-un laser care detecteaza profunzimea obiectelor. La iesire este generata directia pe care trebuie sa circule autovehiculul pentru a urma drumul. Arhitectura retelei este cea din gura..

12 .. CALCULUL NEURAL: EXEMPLE unitate de feedback pt. intensitatea drumului... 5 unitati de directie... 9 unitati imagine 0x (intrare)... profunzime 8x (intrare) Figura.: Arhitectura retelei ALVINN. Informatia video este o retina de 0x care sesizeaza ^n albastru (ofera cel mai bun contrast). Unitatea de feedback regleaza contrastul. Cele intrari conduc spre 9 unitati cu functie continua. Unitatea din mijlocul celor 5 de unitatideiesire aratac^at de puternica este tendinta deamerge^nainte. Unitatile din st^anga-dreapta reprezinta tendintele de a o lua la st^anga-dreapta. Unitatile din extremitatile st^anga si dreapta corespund virajelor st^anga-dreapta c^at mai accentuate. ALVINN a fost instruit prin imagini sintetizate pe calculator. Performantele obtinute au fost comparabile cu caracteristicile celor mai bune sisteme traditionale de orientare prin vedere articiala. Capacitatea sistemului ALVINN de a pastra directia drumului nu a fost implementata prin programare (algoritm), ci se bazeaza pe cunostintele asimilate prin instruire. Dupa / ora de instruire, sistemul era capabil sa se orienteze singur pe drum. Altfel ar fost necesare luni de zile pentru dezvoltarea algoritmilor care sa recunoasca pattern-urile din imaginile preluate. S-au facut observatii interesante. Astfel, reteaua s-a comportat mai bine dupa ce a fost instruita sa refaca erori de conducere. Prin aceasta, reteauasi-a dezvoltat masurile de corectare a conducerii. Memorie simpla si restaurarea pattern-urilor Vom discuta acum despre retele neurale care raspund ^n timp datelor de intrare (un pattern ^n acest caz). Deoarece ele fac acest lucru ^ntr-un mod foarte caracteristic, prin reconstructia treptata a unui pattern memorat, vom numi aceste

13 CAPITOLUL. PRELIMINARII ^IN CALCULUL NEURAL retele memorii. Fie reteaua simpla din gura unitatea Σ sgn(.) o - unitatea Σ + sgn(.) - - unitatea Σ + sgn(.) o o Figura.5: Retea memorie. Reteaua consta din trei unitati care calculeaza valorile functiei signum, trei noduri de ^nsumare si sase ponderi care pot. Semnalele care trec prin ponderi sunt ^nmultite cu valoarea ponderilor. Presupunem ca reteaua este initializata la iesire cu o = o = o = (cazul, tab..). C^and se permite retelei sa calculeze, intrarile la unitatile si sunt 0, ^n timp ce la unitatea este -. Ca rezultat, o si o nu se modica, deoarece sgn(0) nu este denit, ^n timp ce o devine -. Urmeaza cazul, care este o iesire nala deoarece nu se mai poate modica. Cazurile si sunt alte exemple de tranzitii posibile. Observam ca si cazurile si duc apoi la cazul, oper^and c^ate o singura modicare. Iata cum se reprezinta geometric aceste actualizari efectuate de reteaua de tip memorie descrisa. Se vede ca P ( ;) este iesirea stabila a memoriei. C^and o singura componenta a vectorului de initializare binar (o, o, o ) difera de P, reteaua corecteaza aceasta componenta. Iesirea este apoi mentinuta constanta. Daca P reprezinta descrierea corecta a unui pattern, iar P, P, P variante distorsionate ale lui P, memoria are capacitatea de a restaura variantele distorsionate asimil^andu-le cu P (g..). Acest concept de memorie poate extins cu usurinta la lumea reala a aplicatiilor. Probleme de optimizare Retelele neurale pot aplicate cu succes pentru rezolvarea unor probleme de optimizare.

14 .. CALCULUL NEURAL: EXEMPLE 5 Tabelul.: Exemple de tranzitii ale retelei tip memorie. X ^nseamna sgn(0), iar iesirile ^ncadrate sunt cele care se modica. Cazul Nr. unitatii Iesirea actuala sgn() Iesirea urmatoare 0 X 0 X X - 0 X - 0 X X - Sa presupunem ca valoarea analogica x, 0 x 5 trebuie digitizata^ntr-un numar binar v v 0, (v v 0 f0 g), astfel inc^at x v + v 0 : Exista, evident, patru posibilitati: 00, 0, 0,. O retea similara cu memoria din exemplul precedent poate rezolva aceasta conversie (g..). Reteaua consta din doua unitati cu caracteristici continue, ecare cu raspuns ^n intervalul dintre 0 si. La cele doua unitati, retelei i se mai adauga unnumar de elemente de interconectare pe care nu le specicam. Conversia corespunde minimizarii erorii de conversie A/D, unde eroarea este (x ; v ; v 0 ),^n prezenta restrictiei v 0 v f0 g. Aceasta problema de minimizare este rezolvabila de catre o anumita clasa de retele neurale. Caracteristic acestei clase este ca se minimizeaza asa numita functie de energie pe parcursul calculului. Proprietatea de minimizare a energiei este de importanta foarte mare si se formuleaza astfel: reteaua ^si cauta singura energia ei minima si se stabilizeaza acolo. O serie de probleme de optimizare se transpun direct ^n minimizarea functiei de energie a unei retele neurale. Minimizarea energiei de catre retea poate considerata analoga minimizarii erorii de conversie A/D. Clasa de retele neurale exemplicata prin conversia A/D este utilizabilasi pentru probleme de optimizare combinatorica^n care complexitatea este exponentiala sau, mai rau, ^n ordinul lui n!. ^In aceste probleme, este important sa se reduca ordinul timpului de cautare. Retelele neurale ofera si ^n acest sens o alternativa.

15 CAPITOLUL. PRELIMINARII ^IN CALCULUL NEURAL P P P 5 P P P 0 cazul cazul P P cazul cazul Figura.: Actualizarile efectuate de reteaua de tip memorie. Detectarea gruparilor si a trasaturilor O clasa importanta de retele neurale pot utilizate pentru detectarea gruparilor de date. Aceste retele sunt calate pe anumite aspecte de similaritate ^n datele evaluate. De exemplu, se poate sa m interesati ^n a grupa anumite rezultate de masurare ^n scopul eliminarii erorilor sistematice care pot aparea ^n timpul masurarii. Deoarece zgomotul este aleator, el nu formeaza grupari, ci doar perturba formarea gruparilor reale de date. Detectarea gruparilor si trasaturilor prezinta importante proprietati de autoorganizare care sunt legate de inteligenta articiala si teoria informatiei. Retelele din aceasta clasa au ^n general arhitecturi simple, dar subtilitatile apar ^n timpul procesului de autoorganizare. Detectarea trasaturilor se raporteaza la reducerea dimensionalitatii datelor. De exemplu, semnalul vorbirii consta din 5 canale de frecventa audio. Fonemele sunt deci descrise ^ntr-un spatiu 5-dimensional. Problema este ca nu putem reprezenta astfel fonemele, deoarece capacitatea noastra devizualizare se reduce la trei dimensiuni. Utiliz^and o retea neurala, este posibil sa reprezentam spectrul 5-dimensional al vorbirii ^ntr-un tablou ^n plan. Secventa fonemelor unui cuv^ant formeaza o traiectorie specica ^n plan. Aceste harti fonotopice pot foarte utile ^n construirea masinilor de scris fonetice, ^n ^nvatarea vorbirii si pentru terapie.

16 .. ISTORICUL DEZVOLT ARII RET ELELOR NEURALE unitatea 0 v 0 intrare analogica x retea de interconectare unitatea v iesire digitala Figura.: Diagrama bloc a unui convertor A/D pe doi biti.. Istoricul dezvoltarii retelelor neurale McCulloch si Pitts (9) au propus primul model pentru neuron. Acest model include toate elementele pentru a efectua operatii logice, dar la acel nivel tehnologic era imposibil de implementat. Donald Hebb (99) a propus un model de ^nvatare pentru a actualiza conexiunile neuronului, cunoscut acum ca regula hebbiana de ^nvatare. El a formulat ideea ca informatia poate memorata ^n conexiuni. Primele neurocalculatoare au fost construite ^n anii '50 (Minsky, 95). Ele ^si adaptau automat conexiunile. ^In 958, Frank Rosenblatt a inventat un element neural numit perceptron. Era conceput ca o masina instruibila capabila sa ^nvete sa clasice anumite pattern-uri prin modicarea conexiunilor la elementele comparatoare. La ^nceputul anilor '0, a fost propus ADALINE (ADAptive LINEar combiner), un dispozitiv bazat pe regula de ^nvatare Windrow-Ho (Bernard Windrow, Marcian Ho). Regula minimiza eroarea patratica ^nsumata pe parcursul instruirii. Aplicatiile erau de recunoasterea formelor, control adaptiv si previziunea vremii. ^In ciuda entuziasmului anilor '0, masinile existente nu permiteau abordarea unor probleme complexe. Pe de alta parte, nici schemele de ^nvatare nu erau sucient de dezvoltate. S-a intrat astfel ^ntr-o perioada de stagnare a carei cauze erau de fapt cunoscute. Episodul nal al acestei ere a fost lucrarea lui Minsky si Papert, care a demonstrat limitele retelelor bazate pe perceptroni. ^In acest timp, majoritatea cercetatorilor se ^ndreptau spre alte domenii. Domeniul retelelor neurale (care facea la acea vreme parte din cibernetica) parea ^nchis. ^In schimb se dezvolta Minsky, M., S. Papert "Perceptrons". Cambridge, MA, MIT Press, 99.

17 8 CAPITOLUL. PRELIMINARII ^IN CALCULUL NEURAL promitator domeniul inteligentei articiale, prelu^and si sarcini pe care retelele neurale nu puteau sa le rezolve la acel stadiu. ^In perioada 95-98, c^ativa cercetatori au reusit sa dezvolte totusi cercetarile. Kunihiko Fukushima a denit o clasa deretele neurale numite neocognitroni (980). Neocognitronul modeleaza recunoasterea vizuala a formelor prin emularea imaginilor de pe retina si procesarea lor folosind neuroni ierarhizati pe doua nivele. Cercetarile ^n domeniul memoriilor asociative auevoluat ^n Finlanda (Teuvo Kohonen) si SUA (James Anderson). Stephen Grossberg si Gail Carpenter au introdus c^ateva arhitecturi de retele neurale si au dezvoltat teoria retelelor adaptive prin rezonanta, ART. Era renasterii a^nceput odata cu introducerea arhitecturii recurente pentru memoriile asociative (John Hopeld, 98). O alta revitalizare a domeniului provine din lucrarile lui James McClelland si David Rumelhart (98). ^Incep^and cu anii 98-98, s-au initiat multe programe de cercetare si interesul a devenit extrem de mare. Au aparut aplicatii complexe. Au fost fabricate chip-uri VLSI de retele neurale. Cu toate ca domeniul calculului neural are o istorie interesanta, el este ^nca la^nceputul dezvoltarii sale.. Viitorul Datorita denumirii, domeniul retelelor neurale este supus unei supraestimari populiste. Este tentant pentru om sa-si imagineze o masina care sa e asemeni lui. Terminologia antropomorfa trebuie privita cu multa retinere. Putem aproape siguri ca retelele neurale nu vor ^nlocui calculatoarele clasice. Aceasta, deoarece calculatoarele clasice sunt foarte ieftine si eciente pentru efectuarea calculelor numerice (procesari de text, CAD, procesari de date). Sunt ^nsa domenii ^ntregi ^n care retelele neurale devin mai avantajoase. Cele mai interesante aplicatii sunt cele care presupun inferenta de tip uman si perceperea vorbirii si a imaginilor. Aceste aplicatii nu pot dec^at partial rezolvate pe calculatoare clasice. Este de asteptat ca retelele neurale sa e aplicate ^n procesarea semnalelor si sisteme expert. Retelele neurale nu vor ^nlocui aplicatiile de inteligenta articiala de pe calculatoarele clasice, ci vor oferi o tehnologie complementara. Neurocalculatoarele actuale sunt de multe ori calculatoare conventionale care executa software de simulare a retelelor neurale. Alte neurocalculatoare folosesc deja componente (placi, chip-uri) dedicate. Cele mai interesante sunt, desigur, chip-urile VLSI care implementeaza retele neurale. Fabricarea acestor chip-uri este deja actuala. ^In 98, AT&T a fabricat primul circuit integrat de memorie neurala.

18 Capitolul Concepte fundamentale Exista doua posibilitati de a deni retelele neurale. La o extrema, retelele neurale sunt o clasa de algoritmi matematici, deoarece o retea poate privita ^n esenta ca o notatie graca pentru o clasa larga de algoritmi. La cealalta extrema, retelele neurale emuleaza retelele neurale biologice din organismele vii. ^In lumina cunostintelor limitate pe care le avem ^n prezent asupra retelelor neurale biologice, cea mai plauzibila denitie se apropie mai mult de cea algoritmica. Retelele neurale sunt ^n mod cert inspirate din biologie, dar exista mari diferente ^ntre retelele neurale articiale si cele naturale. Nu exista ^nca modele care sa concureze cu succes performantele creierului uman. De fapt si cunostintele noastre despre functionarea creierului sunt extrem de limitate. Creierul ram^ane mai cur^and o metafora pentru retelele neurale dezvoltate p^ana acum. Cu toate ca analogia dintre retelele neurale articiale si cele naturale este vaga, vom ^ncepe totusi prin a mentiona modelul neuronului biologic. Vom deni apoi neuronul articial si retelele neurale articiale elementare. ^In ne, vom discuta formele de baza ale procesarii ^n retele neurale articiale, cu un accent deosebit pe procesele de ^nvatare.. Neuronii biologici si modelele lor articiale Creierul uman consta din aproximativ 0 neuroni. Ei comunica printr-o retea de conexiuni formate din axoni si sinapse, av^and o densitate de aproximativ 0 sinapse/neuron. Ipoteza cea mai recenta privind modelarea sistemului nervos natural este ca neuronii comunica ^ntre ei prin impulsuri electrice. Totodata, neuronii opereaza ^ntr-un mediu chimic. Creierul poate considerat o retea densa de conexiuni electrice conditionate ^n mare masura de procese biochimice. Reteaua neurala are o structura elaborata, cu interconexiuni foarte complexe. Intrarea ^n retea este asigurata decatre receptorii senzoriali. Receptorii furnizeaza stimuli at^at din partea corpului c^at si din partea organelor senzoriale care preiau stimulii lumii exterioare. Stimulii au forma impulsurilor electrice care conduc informatia ^n reteaua de neuroni. Ca rezultat al procesarii informatiei ^n sistemul nervos central, efectorii sunt controlati si dau raspunsuri sub forma diferitelor 9

19 0 CAPITOLUL. CONCEPTE FUNDAMENTALE actiuni. Avem deci un sistem const^and din receptori, reteaua neurala si efectori, care controleaza organismul si actiunile sale. Fluxul informational este descris ^n gura.. Receptori Organe senzoriale Corp Sistemul nervos central feedback intern Efectori Organe motor feedback extern Figura.: Fluxul informational ^n sistemul nervos. Neuronul biologic Neuronul este celula nervoasa si are trei componente: - soma - corpulcelulei - axonul - bra lunga care serveste ca linie de comunicatie - dendritele Dendritele formeaza unarboredebrene^n jurul corpului neuronului. Dendritele receptioneaza informatia de la alti neuroni prin axonii acestora. Axonul este o conexiune cilindrica lunga care ^n partea nala devine arborescenta. Fiecare ramura are o terminatie care aproape atinge dendritele neuronilor vecini. Sinapsa este interfata prin care neuronul ^si introduce semnalul catre dendrita altui neuron. Semnalele care ajung la o sinapsa plec^and de la dendritele neuronului respectiv sunt impulsuri electrice (g..). Transmisia interneuronala este uneori electrica dar de obicei este efectuata prin eliberarea de transmitatori chimici la sinapse. Astfel, terminatia axonului genereaza substanta chimica, care afecteaza neuronul receptor. Neuronul receptor e genereaza un impuls catre axonul sau, e nu produce nici un raspuns. Neuronul este capabil sa raspunda totalului intrarilor sale agregate ^ntr-un scurt interval de timp numit perioada de latenta. Raspunsul neuronului este generat daca totalul potentialului membranei sale atinge un anumit nivel. Membrana poate considerata ca o^nvelitoare care agrega magnitudinea semnalelor

20 .. NEURONII BIOLOGICI SI MODELELE LOR ARTIFICIALE axoni venind de la alti neuroni soma dendrite impulsul din partea corpului neuronului sinapsa dendrita altui neuron Figura.: Modelul neuronului biologic. care intra pe parcursul unei anumite durate de timp. Neuronul genereaza un impuls-raspuns si ^l transmite axonului sau numai daca conditiile necesare sunt ^ndeplinite. Impulsurile care intra ^n neuron pot excitatoare { daca cauzeaza generarea de catre neuron a unui impuls, sau inhibitoare { daca ^mpiedica generarea unui astfel de impuls. O conditie mai precisa pentru ca neuronul sa genereze un impuls este ca excitatia sa depaseasca inhibitia cu o valoare de aproximativ 0 mv, numita pragul neuronului. Deoarece o conexiune sinaptica produce reactia de excitatie sau de inhibitie a neuronului receptor, este practic sa atasam ponderile acestor conexiuni. Neuronul genereaza un impuls atunci c^and suma ponderilor impulsurilor receptate depaseste valoarea pragului pe parcursul perioadei de ^nsumare latenta. Procesarea ^n retelele neurale biologice este complexasi mai putin structurata dec^at calculul digital. Spre deosebire de cazul calculului digital, impulsurile neurale nu sunt sincronizate ^n timp. O caracteristica importanta a neuronului biologic este ca semnalele generate nu difera ^n magnitudine. Cu alte cuvinte, informatia transmisa ^ntre celulele nervoase este sub forma semnalelor binare. Dupa transmiterea unui impuls, axonul ram^ane pentru un timp ^ntr-o staree de neexcitabilitate completa, acest interval numindu-se perioada refractara. Putem diviza timpul ^n intervale consecutive, ecare de durata perioadei refractare. Aceasta ne permite o descriere discreta a comportarii neuronului. De exemplu, putem preciza care neuroni vor genera impulsuri la momentul k + baz^andu-ne pe conditiile de excitatie de la momentul k. Neuronul va excitat la un anumit moment dat, daca numarul sinapselor excitate excitatoare depaseste numarul sinapselor excitate inhibitoare la momentul precedent cu cel putin numarul T, unde T este valoarea pragului neuronului. Intervalele de timp pot luate de ordinul milisecundelor. Perioada refractara nu este ^nsa uniforma: depinde de tipul de neuroni si de modul ^n care sunt ei conectati. Avem deci o retea densa de neuroni interconectati care genereaza semnale asincrone. Semnalele sunt transmise apoi catre neuronii vecini dar sunt

21 CAPITOLUL. CONCEPTE FUNDAMENTALE si retransmise (feedback) neuronilor generatori. Aceasta discutie este o simplicare foarte mare din punct de vedere neurobiologic. Retelele neurale articiale sunt mult mai simple dec^at corespondentul lor natural. Sa examinam un model de neuron articial cu semnicatie istorica. Modelul neural McCulloch-Pitts Este prima denitie formala a unui neuron articial (9). x x w w T o x n wn w i =- sau + i=,,...,n Figura.: Neuronul McCulloch-Pitts. Intrarile x k i i = :::n sunt 0 sau, ^n functie de absenta sau prezenta impulsului la momentul k (g.). Semnalul de iesire al neuronului este o. Regula dupa care neuronul genereaza un semnal este: o k+ = ( daca P ni= w i x k i T 0 daca P n i= w i x k i <T w i =pentru o sinapsa excitatoare si w i = ; pentru o sinapsa inhibitoare. Cu toate ca este foarte simplu, acest model are un remarcabil potential computational. Poate realiza operatiile logice NOT, OR si AND. Dupa cum stim, orice functie logica demai multe variabile poate implementata utiliz^and sau NOT si OR, sau NOT si AND. De exemplu, functiile NOR si NAND pot implementate prin retele de neuroni conform modelelor din gura.. x - T=0 x x - T=0 o T= x T= - T=0 o x - T=0 NAND x NOR Figura.: Functiile NOR si NAND.

22 .. NEURONII BIOLOGICI SI MODELELE LOR ARTIFICIALE Neuronul McCulloch-Pitts are o^nt^arziere cu durata de o unitate. Aceasta proprietate permite construirea circuitelor digitale secventiale. Notam pentru ^nceput ca un singur neuron, cu o singura intrare x, cu ponderea si valoarea de prag unitare, calculeaza o k+ = x k. Un astfel de neuron se comporta ca un registru simplu, capabil sa retinaintrarea pentru un interval de timp de o unitate. O celula dememorie se construieste ca ^n gura.5. intrare excitatoare - intrare inhibitoare T= o k+ =x k Figura.5: Celula de memorie. Dupa ce s-a initializat celula, astfel ^nc^at sa genereze sau sa nu genereze un semnal, aceasta valoare de iesire este sustinuta indenit, ^n absenta unor intrari. Hardware-ul unui calculator digital de orice complexitate poate obtinut prin utilizarea unei retele neurale constituite din blocuri elementare pentru operatii logice si pentru memorie. Ne intereseaza, ^nsa altceva: care este puterea de calcul a retelelor neurale tin^and cont de capacitatea lor de a ^nvata. Vom reveni asupra acestor aspecte mai t^arziu. Modelarea unui neuron general Modelul neural McCulloch-Pitts este elegantsi are o expresie matematica precisa. El opereaza ^nsa c^ateva simplicari drastice. Astfel, permite doar stari binare (0 si ), presupune ca timpul este discret si presupune sincronismul operatiilor tuturor neuronilor. De asemenea, ponderile si pragurile sunt presupuse xe. ^In continuare, vom prezenta generalizari ale modelului McCulloch-Pitts, care vor de altfel modelele noastre operationale. Fiecare model neural consta dintr-un element de procesare cu conexiuni sinaptice de intrare si cu o singura iesire. Intrarile si iesirile sunt unidirectionale. Denim modelul unui neuron general ca in gura. sau o = f(w t x) o = f( nx i= w i x i ) unde w este vectorul de ponderi denit astfel: w =[w w :::w n ] t

23 CAPITOLUL. CONCEPTE FUNDAMENTALE x x x n w w wn ponderi multiplicative conexiuni sinaptice f(w tx) nod(unitate) de procesare o Figura.: Modelul unui neuron general. iar x este vectorul de intrari: x =[x x :::x n ] t : Toti vectorii din acest curs sunt vectori coloana, iar indicele t noteaza o transpunere. Functia f(w t x) este functia de activare. Domeniul ei de denitie este multimea valorilor de activare, net, a unui model neural: net = w t x: De aceea, folosim si notatia f(net). Variabila net este analogul potentialului membranei neuronului biologic. Convenim ca exista n ; conexiuni sinaptice si ca x n = ;, w n = T. Uneori vom extrage explicit pragul T ca parametru separat. De acum ^ncolo, vom ^ntelege prin neuroni {modele de neuroni, iar prin retele neurale {retele neurale articiale compuse din modele de neuroni. Functii de activare tipice sunt: - bipolara continua: f(net) = ; >0 +exp ;net - bipolara binara: f(net) = sgn(net) = ( net > 0 ; net < 0 Se observa capentru!,functia bipolaracontinua devine bipolar binara. Functiile unipolare sunt: - unipolara continua: f(net) = +exp ;net - unipolara binara: f(net) = ( net > 0 0 net < 0 Pentru!, functiile continue devin functii discrete. Cele doua functii continue se numesc si caracteristici sigmoidale. Majoritatea neuronilor utilizeaza functii de activare bipolare. Desigur, functiile de activare pot denite si altfel.

24 .. NEURONII BIOLOGICI SI MODELELE LOR ARTIFICIALE 5 f(net) λ=5 λ= λ=0,5 f(net) λ=5 λ= - 0 net - 0 net - Figura.: Functii de activare continue bipolara si unipolara. Daca functia de activare este bipolara binara, putem folosi reprezentarea din gura.8 a unui perceptron binar, iar pentru functia bipolara continua putem folosi reprezentarea din gura.9 a unui perceptron continuu. x x x n w w wn + net sumator - net comparator cu prag o(w,x) neuron Figura.8: Perceptron binar. Perceptronul discret a fost introdus de Rosenblatt (958) si a fost prima masina instruibila. Iesirile neuronilor pot discrete (binare) sau continue. Pentru un strat de m neuroni, valorile lor de iesire o, o, :::, o m pot date de: o =[o o :::o m ]: Domeniul de denitie al vectorilor o este un spatiu m-dimensional denit pentru cazul continuu astfel: (; ) m fo < m o i (; )g pentru cazul bipolar sau (0 ) m fo < m o i (0 )g pentru cazul unipolar: Domeniul lui o este interiorul unui cub m-dimensional.

25 CAPITOLUL. CONCEPTE FUNDAMENTALE x f(net)= +e λnet - x f(net) o(w,x) x n neuron Figura.9: Perceptron continuu. Pentru cazul discret, avem: f; g m fo < m o i f; gg pentru cazul bipolar sau f0 g m fo< m o i f0 gg pentru cazul unipolar: Domeniul lui o este format din v^arfurile unui cub m-dimensional. poate avea deci m valori. Un vector. Modelarea retelelor neurale Cunosc^and acum denitia modelului unui neuron general, putem deni o retea neurala ca o interconectare de neuroni astfel ^nc^at iesirea ecarui neuron este conectata, via ponderi, cu toti neuronii, inclusiv cu neuronul respectiv. Retea feedforward Sa consideram o arhitectura feedforward de m neuroni care receptioneaza n intrari (g..0). Pentru acest model denim si o =[o o :::o m ] t x =[x x :::x n ] t : Ponderea w ij caracterizeaza al i-lea neuron cu a j-a intrare. Valoarea de activare pentru al i-lea neuron este atunci: net i = nx j= Fie w i =[w i w i :::w in ] t, atunci: w ij x j i = ::: m: net i = w t ix o i = f(w t ix) i = ::: m:

26 .. MODELAREA RET ELELOR NEURALE w o x x o w n... w m... x n w mn m o m Figura.0: Retea neurala feedforward. Denim operatorul matricial neliniar ; pentru care: o =;(Wx) unde W este matricea ponderilor (matricea conexiunilor): iar W = ;[] = w w ::: w n w w ::: w n. w m w m ::: w mn f() 0 ::: 0 0 f() ::: 0. 0 ::: 0 f() Functiile f() sunt functii neliniare de activare. Vectorii x, o sunt numiti si pattern-uri de intrare, respectiv de iesire. Transformarea unui pattern de intrare ^ntr-un pattern de iesire are loc fara^nt^arziere, instantaneu. De aceea, spunem ca o astfel de retea este de tip feedforward. Avem (g..): o(t) =;[Wx(t)] 5 5 : x(t) Γ[Wx] o(t) Figura.: Diagrama bloc a unei retele neurale feedforward.

27 8 CAPITOLUL. CONCEPTE FUNDAMENTALE Reteaua feedforward este caracterizata prin lipsa de feedback. O retea feedforward poate conectata ^n cascada pentru a forma o retea pe mai multe straturi. ^Intr-o astfel de retea, iesirea unui strat este intrarea urmatorului strat. Retea feedback O retea feedback se poate obtine dintr-o retea feedforward prin conectarea iesirilor neuronilor cu propriile intrari (g..). x (0) o (t) w w w n o (t+ ) x (0) o (t) o (t+ ) x (0) n o (t) n w nn n o n (t+ ) Figura.: Retea neurala feedback. Perioada de timp este analoga perioadei refractare a modelului neuronului biologic. Avem (g..): o(t +)=;[Wo(t)]: x(0) retea instantanee Γ[Wo(t)] intarziere o(t+ ) Figura.: Diagrama bloc a retelei neurale feedback. Intrarea x(t) este folosita doar pentru a initializa aceasta retea, astfel ^nc^at o(0) = x(0). Intrarea este apoi ^ndepartata si, pentru t > 0, sistemul devine autonom.

28 .. MODELAREA RET ELELOR NEURALE 9 Consider^and timpul ca o variabila discreta si decidem sa observam functionarea retelei la momentele :::, sistemul este cu timp discret. Conventional, putem considera ca pasul timpului este unitar. Atunci, notam: o k+ =;(Wo k ) pentru k = ::: Aceasta retea este recurenta deoarece raspunsul ei la momentul k + depinde de ^ntregul istoric al retelei ^ncep^and cu momentul k = 0: o =;[Wx 0 ] o =;[W;[Wx 0 ]] ::: o k+ =;[W;[:::;[Wx 0 ] :::]]: Retelele recurente opereaza de obicei cu o reprezentare discreta a datelor si folosesc neuroni cu o functie de activare discreta. Un sistem av^and intrari cu timp discret si o reprezentare discreta a datelor se numeste un automat. Deci, retelele neurale recurente din aceasta categorie pot considerate niste automate. Numim o o ::: stari ale retelei la momentele,,... si ecuatiile de mai sus oglindesc secventa tranzitiilor starilor. O stare de echilibru se numeste si atractor. Un atractor consta dintr-o singura stare, sau dintr-un numar limitat de stari. ^In capitolul am vazut ca o = h ; i t este un atractor. Secventa de stari ale unei retele recurente este ^n general nedeterminista. O retea cu timp continuu se obtine ^nlocuind elementele de ^nt^arziere discrete cu elemente continue. Fie, de exemplu, reteaua feedback cu timp continuu din gura.. + v R v - - C + Figura.: Retea feedback cu timp continuu. Ea este o retea electrica const^and dintr-o rezistentasi un condensator, unde v este tensiunea la intrare, iar v este tensiunea la iesire. De fapt, retelele electrice sunt utilizate frecvent pentru a modela calculele efectuate de o retea neurala. Retelele electrice poseda exibilitatea de a modela toate fenomenele liniare si neliniare ^nt^alnite ^n acest curs. Din aceasta cauza, retelele electrice reprezinta modele zice functionale ale retelelor neurale. Din legea lui Kircho obtinem: v ; v R = C dv dt )

29 0 CAPITOLUL. CONCEPTE FUNDAMENTALE dv dt + v RC = v RC : (.) De aici, obtinem: v t = C v ; v R care reprezinta modicarea tensiunii v ^n intervalul t. tensiunea tensiunea v v v v 0 t 0 t 0 t (a) (b) Figura.5: Raspunsul ^n timp (a) la un impuls si (b) la o tensiune de intrare de tip unda armonica al retelei cu timp continuu din gura anterioara. De obicei, retelele cu timp continuu folosesc neuroni cu functii de activare continue. ^In gura. avem o conexiune sinaptica bazata pe circuitul electric descris ^n gura.. net j j o j R ij net i i C i o i Figura.: Conexiune sinaptica.

30 .. ^INV AT ARE SI ADAPTARE Rezistenta R ij serveste ca pondere de la iesirea neuronului j catre intrarea neuronului i. Ecuatia. poate discretizata astfel: net k+ i ; net k i t = R ij C i (o k j ; net k i ): De aici: net k+ i = net k i + t R ij C i (o k j ; net k i ): O retea de mai multi neuroni de acest tip are, din punct de vedere dinamic, o comportare complexa.. ^Invatare si adaptare ^In general, ^nvatarea este schimbarea comportamentului datorita experientei. La om si animale procesul de ^nvatare nu poate observat direct, ci presupunem ca a avut loc observ^and modicarile de comportament. La retelele neurale, procesul de ^nvatare este mai direct: putem observa ecare pas al ^nvatarii ca o relatie distincta de tip cauza-efect. Un cadru general pentru procesul de ^nvatare la retele neurale este dat de teoria aproximarii. ^Invatarea ca aproximare Teoria aproximarii se refera la aproximarea unei functii continue de mai multe variabile h(x) printr-o alta functie H(w x), unde x =[x x :::x n ] t este vectorul de intrare si w =[w w :::w m ] t este vectorul parametrilor (ponderilor). Scopul ^nvatarii este sa se gaseasca w pentru care se obtine cea mai buna aproximare a lui h(x), av^and la dispozitie o multime de exemple, fxg, folosite pentru ^nvatare. O problema importanta estealegerea functiei H(w x), aceasta numindu-se problema reprezentarii. Dupa alegerea lui H(w x), se aplica algoritmul de ^nvatare al retelei pentru gasirea parametrilor optimi w : [H(w x) h(x)] [H(w x) h(x)] unde este o metrica (o distanta). Retelele feedback sunt sisteme dinamice. De aceea, ^nvatarea ^n acest caz se refera la ^nvatarea starilor de echilibru. ^Invatarea supervizata si ^nvatarea nesupervizata Majoritatea retelelor neurale pe care le discutam ^nvata incremental, pas cu pas. Daca ponderile retelei sunt ajustate printr-un singur pas, atunci informatia feedback produsa de retea nu mai este necesara si vorbim de o ^nvatare de tip batch, adica "la gramada".

31 CAPITOLUL. CONCEPTE FUNDAMENTALE x retea adaptiva W ρ[d,o] o generator de distanta semnal de invatare d Figura.: ^Invatare supervizata. Ne referim ^n continuare la ^nvatarea incrementala, ^n care conceptul de feedback are un rol central. ^In ^nvatarea supervizata (g..), presupunem ca la ecare moment c^and se aplica intrarea, raspunsul d al sistemului este dat de catre instructor (un factor uman). x retea adaptiva W o Figura.8: ^Invatare nesupervizata. ^Invatarea nesupervizata (g..8) se foloseste de multe ori, de exemplu, la clustering (g..9), atunci c^and informatia a priori este minima.. Reguli de ^nvatare Sa studiem procesul de instruire a vectorului w i de ponderi, av^and componentele w ij (unde w ij este ponderea conexiunii celei de-a j-a intrari cu cel de-al i-lea neuron) (g..0). Fie urmatoarea regula generala de ^nvatare: Vectorul w i = [w i w i :::w in ] t creste proportional cu produsul intrarii x si a semnalului de ^nvatare r. Semnalul r este in general o functie de w i, x si, daca este cazul, d i : r = r(w i x d i ): Incrementul lui w i produs la momentul t este: w i (t) =cr[w i (t) x(t) d i (t)]x(t) unde c este constanta de ^nvatare, pozitiva, care determina rata ^nvatarii. Atunci: w i (t +)=w i (t)+cr[w i (t) x(t) d i (t)]x(t):

32 .. REGULI DE ^INV ATARE x x x 0 0 (a) (b) x Figura.9: (a) Pattern-uri bidimensionale care formeaza doua clustere. (b) Aparent, nu se disting mai multe clustere si nu stim c^ate sunt. ^In acest caz ^nvatarea nesupervizata nu este indicata. x x w i w i neuronul i o i... x n w in x w i r X generator de semnal de învãtare d i c Figura.0: Modelul instruirii ^n cazul ^nvatarii supervizate. Pentru cazul discret: w k+ i = w k i + cr(w k i x k i d k i )x k : Pentru cazul continuu: dw i (t) = crx(t): dt Vom studia ^n continuare ^nvatarea cu timp discret (pas cu pas). Se presupune ca ponderile sunt initializate convenabil, ^nainte ca procesul de ^nvatare sa^nceapa. Regula de ^nvatare a lui Hebb (99) Aceasta regula particularizeaza semnalul de ^nvatare astfel: r = f(w t ix) adica semnalul de ^nvatare este chiar iesirea neuronului. Atunci: w i = cf(w t ix)x

33 CAPITOLUL. CONCEPTE FUNDAMENTALE w ij = cf(w t ix)x j = co i x j pentru j = ::: n: Este necesar ca, initial, ponderile sa aiba valori aleatoare mici. ^Invatarea dupa regula lui Hebb este de tip feedforward si nesupervizata. Este implementata urmatoarea idee: "Daca celula A excita ^n mod repetat celula B, fac^and-o sa genereze un impuls, atunci are loc un proces de crestere (schimbare metabolica) ^ntr-una sau ^n ambele celule, astfel ^nc^at ecienta excitarii lui B de catre A creste." Cu alte cuvinte, pattern-urile de intrare mai frecvente vor avea si inuenta cea mai mare asupra ponderilor conexiunilor. Regula de ^nvatare a perceptronului (Rosenblatt, 958) Semnalul de ^nvatare pentru aceasta regula este: r = d i ; o i unde o i = sgn(w t ix) si d i este raspunsul dorit (pentru cazul bipolar, ) (g..). x w i x... w i w in + net i comparator o i x n w i - x X d i -o i + c + d i Avem: Figura.: Regula de ^nvatare a perceptronului. w i = c[d i ; sgn(w t ix)]x w ij = c[d i ; sgn(w t ix)]x j pentru j = ::: n: Sa observam ca aceasta regula este aplicabila doar pentru situatia c^and functia de activare este binara. Are loc o ajustare a ponderilor daca si numai daca o i este incorect. Deoarece raspunsul dorit poate sau -, avem: w i =cx daca d i =si sgn(w t ix) =; w i = ;cx daca d i = ;si sgn(w t ix) = Daca d i = sgn(w t ix), se observa ca w i =0. Regula de ^nvatare a perceptronului este importanta pentru ^nvatarea supervizata a retelelor neurale. Ponderile sunt initializate cu orice valoare.

34 .. REGULI DE ^INV ATARE 5 Regula de ^nvatare delta (McClelland, Rummelhart, 98) Este valabila pentru functii de activare continue si pentru ^nvatarea supervizata. Semnalul de ^nvatare pentru aceasta regula (g..) este numit delta si este dat de r =[d i ; f(w t ix)]f 0 (w t ix): x w i x... x n w i w in x w i X f(net ) i f (net ) i X d -o i i o i d i c Figura.: Regula de ^nvatare delta. Aceasta regula se deduce din conditia de cea mai mica eroare patratica dintre o i si d i. Fie E eroarea patratica: ceea ce este echivalent cu De aici, Componentele gradientului erorii sunt: E = (d i ; o i ) E = [d i ; f(w t ix)] : re = ;(d i ; o i )f 0 (w ij = ;(d i ; o i )f 0 (w t ix)x j pentru j = ::: n si reprezinta panta pe directia w ij. Alegem termenul w ij astfel ^nc^at sa e proportional cu panta negativa (deci sa minimizam pe E) si obtinem: w ij = (d i ; o i )f 0 (net i )x j j = ::: n w i = (d i ; o i )f 0 (net i )x (.) unde este o constanta pozitiva. w i = ;re

35 CAPITOLUL. CONCEPTE FUNDAMENTALE Presupun^and ca semnalul de ^nvatare este r =[d i ; f(w t ix)]f 0 (w t ix) obtinem: w i = c(d i ; o i )f 0 (net i )x ceea ce este identic cu., c si ind constante arbitrare. Regula delta este de fapt o transpunere a regulii de ^nvatare a perceptronului discret la cazul perceptronului continuu. Ponderile pot initializate cu orice valoare. Regula de ^nvatare Windrow-Ho (9) Aceasta regula este aplicabila pentru ^nvatarea supervizata. Este independenta de functia de activare folosita deoarece minimizeaza eroarea patratica dintre raspunsul dorit d i si valoarea de activare a neuronului net i = w t ix. Semnalul de ^nvatare este r = d i ; w t ix: Atunci, w i = c(d i ; w t ix)x w ij = c(d i ; w t ix)x j j = ::: n: Aceasta regula poate considerata un caz special al regulii delta: presupunem f(w t ix) = w t ix, adica functia de activare este functia identica f(net) = net si obtinem f 0 (net) =. Ponderile pot initializate oricum. Regula corelatiei Substituind r = d i ^n regula generala de ^nvatare obtinem regula corelatiei: w i = cd i x w ij = cd i x j j = ::: n: De obicei, regula corelatiei se aplica^n retele de memorie cu neuroni cu functie de activare binara. Se poate interpreta ca un caz particular al regulii lui Hebb ^n care functia de activare este binara si o i = d i. Totusi, ^nvatarea hebbiana este nesupervizata, ^n timp ce regula corelatiei se aplica la ^nvatarea supervizata. Ca si ^n cazul ^nvatarii hebbiene, este necesar ca ponderile sa e initializate cu valori apropiate de 0.

Metode iterative pentru probleme neliniare - contractii

Metode iterative pentru probleme neliniare - contractii Metode iterative pentru probleme neliniare - contractii Problemele neliniare sunt in general rezolvate prin metode iterative si analiza convergentei acestor metode este o problema importanta. 1 Contractii

Διαβάστε περισσότερα

Curs 10 Funcţii reale de mai multe variabile reale. Limite şi continuitate.

Curs 10 Funcţii reale de mai multe variabile reale. Limite şi continuitate. Curs 10 Funcţii reale de mai multe variabile reale. Limite şi continuitate. Facultatea de Hidrotehnică Universitatea Tehnică "Gh. Asachi" Iaşi 2014 Fie p, q N. Fie funcţia f : D R p R q. Avem următoarele

Διαβάστε περισσότερα

(a) se numeşte derivata parţială a funcţiei f în raport cu variabila x i în punctul a.

(a) se numeşte derivata parţială a funcţiei f în raport cu variabila x i în punctul a. Definiţie Spunem că: i) funcţia f are derivată parţială în punctul a în raport cu variabila i dacă funcţia de o variabilă ( ) are derivată în punctul a în sens obişnuit (ca funcţie reală de o variabilă

Διαβάστε περισσότερα

Sisteme diferenţiale liniare de ordinul 1

Sisteme diferenţiale liniare de ordinul 1 1 Metoda eliminării 2 Cazul valorilor proprii reale Cazul valorilor proprii nereale 3 Catedra de Matematică 2011 Forma generală a unui sistem liniar Considerăm sistemul y 1 (x) = a 11y 1 (x) + a 12 y 2

Διαβάστε περισσότερα

Curs 14 Funcţii implicite. Facultatea de Hidrotehnică Universitatea Tehnică "Gh. Asachi"

Curs 14 Funcţii implicite. Facultatea de Hidrotehnică Universitatea Tehnică Gh. Asachi Curs 14 Funcţii implicite Facultatea de Hidrotehnică Universitatea Tehnică "Gh. Asachi" Iaşi 2014 Fie F : D R 2 R o funcţie de două variabile şi fie ecuaţia F (x, y) = 0. (1) Problemă În ce condiţii ecuaţia

Διαβάστε περισσότερα

Planul determinat de normală şi un punct Ecuaţia generală Plane paralele Unghi diedru Planul determinat de 3 puncte necoliniare

Planul determinat de normală şi un punct Ecuaţia generală Plane paralele Unghi diedru Planul determinat de 3 puncte necoliniare 1 Planul în spaţiu Ecuaţia generală Plane paralele Unghi diedru 2 Ecuaţia generală Plane paralele Unghi diedru Fie reperul R(O, i, j, k ) în spaţiu. Numim normala a unui plan, un vector perpendicular pe

Διαβάστε περισσότερα

5. FUNCŢII IMPLICITE. EXTREME CONDIŢIONATE.

5. FUNCŢII IMPLICITE. EXTREME CONDIŢIONATE. 5 Eerciţii reolvate 5 UNCŢII IMPLICITE EXTREME CONDIŢIONATE Eerciţiul 5 Să se determine şi dacă () este o funcţie definită implicit de ecuaţia ( + ) ( + ) + Soluţie ie ( ) ( + ) ( + ) + ( )R Evident este

Διαβάστε περισσότερα

4. CIRCUITE LOGICE ELEMENTRE 4.. CIRCUITE LOGICE CU COMPONENTE DISCRETE 4.. PORŢI LOGICE ELEMENTRE CU COMPONENTE PSIVE Componente electronice pasive sunt componente care nu au capacitatea de a amplifica

Διαβάστε περισσότερα

Metode de interpolare bazate pe diferenţe divizate

Metode de interpolare bazate pe diferenţe divizate Metode de interpolare bazate pe diferenţe divizate Radu Trîmbiţaş 4 octombrie 2005 1 Forma Newton a polinomului de interpolare Lagrange Algoritmul nostru se bazează pe forma Newton a polinomului de interpolare

Διαβάστε περισσότερα

V.7. Condiţii necesare de optimalitate cazul funcţiilor diferenţiabile

V.7. Condiţii necesare de optimalitate cazul funcţiilor diferenţiabile Metode de Optimizare Curs V.7. Condiţii necesare de optimalitate cazul funcţiilor diferenţiabile Propoziţie 7. (Fritz-John). Fie X o submulţime deschisă a lui R n, f:x R o funcţie de clasă C şi ϕ = (ϕ,ϕ

Διαβάστε περισσότερα

III. Serii absolut convergente. Serii semiconvergente. ii) semiconvergentă dacă este convergentă iar seria modulelor divergentă.

III. Serii absolut convergente. Serii semiconvergente. ii) semiconvergentă dacă este convergentă iar seria modulelor divergentă. III. Serii absolut convergente. Serii semiconvergente. Definiţie. O serie a n se numeşte: i) absolut convergentă dacă seria modulelor a n este convergentă; ii) semiconvergentă dacă este convergentă iar

Διαβάστε περισσότερα

5.4. MULTIPLEXOARE A 0 A 1 A 2

5.4. MULTIPLEXOARE A 0 A 1 A 2 5.4. MULTIPLEXOARE Multiplexoarele (MUX) sunt circuite logice combinaţionale cu m intrări şi o singură ieşire, care permit transferul datelor de la una din intrări spre ieşirea unică. Selecţia intrării

Διαβάστε περισσότερα

Seminariile Capitolul X. Integrale Curbilinii: Serii Laurent şi Teorema Reziduurilor

Seminariile Capitolul X. Integrale Curbilinii: Serii Laurent şi Teorema Reziduurilor Facultatea de Matematică Calcul Integral şi Elemente de Analiă Complexă, Semestrul I Lector dr. Lucian MATICIUC Seminariile 9 20 Capitolul X. Integrale Curbilinii: Serii Laurent şi Teorema Reiduurilor.

Διαβάστε περισσότερα

Analiza în curent continuu a schemelor electronice Eugenie Posdărăscu - DCE SEM 1 electronica.geniu.ro

Analiza în curent continuu a schemelor electronice Eugenie Posdărăscu - DCE SEM 1 electronica.geniu.ro Analiza în curent continuu a schemelor electronice Eugenie Posdărăscu - DCE SEM Seminar S ANALA ÎN CUENT CONTNUU A SCHEMELO ELECTONCE S. ntroducere Pentru a analiza în curent continuu o schemă electronică,

Διαβάστε περισσότερα

Curs 4 Serii de numere reale

Curs 4 Serii de numere reale Curs 4 Serii de numere reale Facultatea de Hidrotehnică Universitatea Tehnică "Gh. Asachi" Iaşi 2014 Criteriul rădăcinii sau Criteriul lui Cauchy Teoremă (Criteriul rădăcinii) Fie x n o serie cu termeni

Διαβάστε περισσότερα

Seminar 5 Analiza stabilității sistemelor liniare

Seminar 5 Analiza stabilității sistemelor liniare Seminar 5 Analiza stabilității sistemelor liniare Noțiuni teoretice Criteriul Hurwitz de analiză a stabilității sistemelor liniare În cazul sistemelor liniare, stabilitatea este o condiție de localizare

Διαβάστε περισσότερα

Lectia VI Structura de spatiu an E 3. Dreapta si planul ca subspatii ane

Lectia VI Structura de spatiu an E 3. Dreapta si planul ca subspatii ane Subspatii ane Lectia VI Structura de spatiu an E 3. Dreapta si planul ca subspatii ane Oana Constantinescu Oana Constantinescu Lectia VI Subspatii ane Table of Contents 1 Structura de spatiu an E 3 2 Subspatii

Διαβάστε περισσότερα

Curs 6 Rețele Neuronale Artificiale

Curs 6 Rețele Neuronale Artificiale SISTEME INTELIGENTE DE SUPORT DECIZIONAL Ș.l.dr.ing. Laura-Nicoleta IVANCIU Curs 6 Rețele Neuronale Artificiale Cuprins Principii Bazele biologice Arhitectura RNA Instruire Tipuri de probleme rezolvabile

Διαβάστε περισσότερα

Curs 1 Şiruri de numere reale

Curs 1 Şiruri de numere reale Bibliografie G. Chiorescu, Analiză matematică. Teorie şi probleme. Calcul diferenţial, Editura PIM, Iaşi, 2006. R. Luca-Tudorache, Analiză matematică, Editura Tehnopress, Iaşi, 2005. M. Nicolescu, N. Roşculeţ,

Διαβάστε περισσότερα

2. Circuite logice 2.4. Decodoare. Multiplexoare. Copyright Paul GASNER

2. Circuite logice 2.4. Decodoare. Multiplexoare. Copyright Paul GASNER 2. Circuite logice 2.4. Decodoare. Multiplexoare Copyright Paul GASNER Definiţii Un decodor pe n bits are n intrări şi 2 n ieşiri; cele n intrări reprezintă un număr binar care determină în mod unic care

Διαβάστε περισσότερα

Functii definitie, proprietati, grafic, functii elementare A. Definitii, proprietatile functiilor X) functia f 1

Functii definitie, proprietati, grafic, functii elementare A. Definitii, proprietatile functiilor X) functia f 1 Functii definitie proprietati grafic functii elementare A. Definitii proprietatile functiilor. Fiind date doua multimi X si Y spunem ca am definit o functie (aplicatie) pe X cu valori in Y daca fiecarui

Διαβάστε περισσότερα

a n (ζ z 0 ) n. n=1 se numeste partea principala iar seria a n (z z 0 ) n se numeste partea

a n (ζ z 0 ) n. n=1 se numeste partea principala iar seria a n (z z 0 ) n se numeste partea Serii Laurent Definitie. Se numeste serie Laurent o serie de forma Seria n= (z z 0 ) n regulata (tayloriana) = (z z n= 0 ) + n se numeste partea principala iar seria se numeste partea Sa presupunem ca,

Διαβάστε περισσότερα

Functii definitie, proprietati, grafic, functii elementare A. Definitii, proprietatile functiilor

Functii definitie, proprietati, grafic, functii elementare A. Definitii, proprietatile functiilor Functii definitie, proprietati, grafic, functii elementare A. Definitii, proprietatile functiilor. Fiind date doua multimi si spunem ca am definit o functie (aplicatie) pe cu valori in daca fiecarui element

Διαβάστε περισσότερα

SEMINAR 14. Funcţii de mai multe variabile (continuare) ( = 1 z(x,y) x = 0. x = f. x + f. y = f. = x. = 1 y. y = x ( y = = 0

SEMINAR 14. Funcţii de mai multe variabile (continuare) ( = 1 z(x,y) x = 0. x = f. x + f. y = f. = x. = 1 y. y = x ( y = = 0 Facultatea de Hidrotehnică, Geodezie şi Ingineria Mediului Matematici Superioare, Semestrul I, Lector dr. Lucian MATICIUC SEMINAR 4 Funcţii de mai multe variabile continuare). Să se arate că funcţia z,

Διαβάστε περισσότερα

DISTANŢA DINTRE DOUĂ DREPTE NECOPLANARE

DISTANŢA DINTRE DOUĂ DREPTE NECOPLANARE DISTANŢA DINTRE DOUĂ DREPTE NECOPLANARE ABSTRACT. Materialul prezintă o modalitate de a afla distanţa dintre două drepte necoplanare folosind volumul tetraedrului. Lecţia se adresează clasei a VIII-a Data:

Διαβάστε περισσότερα

Integrala nedefinită (primitive)

Integrala nedefinită (primitive) nedefinita nedefinită (primitive) nedefinita 2 nedefinita februarie 20 nedefinita.tabelul primitivelor Definiţia Fie f : J R, J R un interval. Funcţia F : J R se numeşte primitivă sau antiderivată a funcţiei

Διαβάστε περισσότερα

Definiţia generală Cazul 1. Elipsa şi hiperbola Cercul Cazul 2. Parabola Reprezentari parametrice ale conicelor Tangente la conice

Definiţia generală Cazul 1. Elipsa şi hiperbola Cercul Cazul 2. Parabola Reprezentari parametrice ale conicelor Tangente la conice 1 Conice pe ecuaţii reduse 2 Conice pe ecuaţii reduse Definiţie Numim conica locul geometric al punctelor din plan pentru care raportul distantelor la un punct fix F şi la o dreaptă fixă (D) este o constantă

Διαβάστε περισσότερα

MARCAREA REZISTOARELOR

MARCAREA REZISTOARELOR 1.2. MARCAREA REZISTOARELOR 1.2.1 MARCARE DIRECTĂ PRIN COD ALFANUMERIC. Acest cod este format din una sau mai multe cifre şi o literă. Litera poate fi plasată după grupul de cifre (situaţie în care valoarea

Διαβάστε περισσότερα

Criptosisteme cu cheie publică III

Criptosisteme cu cheie publică III Criptosisteme cu cheie publică III Anul II Aprilie 2017 Problema rucsacului ( knapsack problem ) Considerăm un număr natural V > 0 şi o mulţime finită de numere naturale pozitive {v 0, v 1,..., v k 1 }.

Διαβάστε περισσότερα

Asupra unei inegalităţi date la barajul OBMJ 2006

Asupra unei inegalităţi date la barajul OBMJ 2006 Asupra unei inegalităţi date la barajul OBMJ 006 Mircea Lascu şi Cezar Lupu La cel de-al cincilea baraj de Juniori din data de 0 mai 006 a fost dată următoarea inegalitate: Fie x, y, z trei numere reale

Διαβάστε περισσότερα

Problema a II - a (10 puncte) Diferite circuite electrice

Problema a II - a (10 puncte) Diferite circuite electrice Olimpiada de Fizică - Etapa pe judeţ 15 ianuarie 211 XI Problema a II - a (1 puncte) Diferite circuite electrice A. Un elev utilizează o sursă de tensiune (1), o cutie cu rezistenţe (2), un întrerupător

Διαβάστε περισσότερα

riptografie şi Securitate

riptografie şi Securitate riptografie şi Securitate - Prelegerea 12 - Scheme de criptare CCA sigure Adela Georgescu, Ruxandra F. Olimid Facultatea de Matematică şi Informatică Universitatea din Bucureşti Cuprins 1. Schemă de criptare

Διαβάστε περισσότερα

prin egalizarea histogramei

prin egalizarea histogramei Lucrarea 4 Îmbunătăţirea imaginilor prin egalizarea histogramei BREVIAR TEORETIC Tehnicile de îmbunătăţire a imaginilor bazate pe calculul histogramei modifică histograma astfel încât aceasta să aibă o

Διαβάστε περισσότερα

1.7. AMPLIFICATOARE DE PUTERE ÎN CLASA A ŞI AB

1.7. AMPLIFICATOARE DE PUTERE ÎN CLASA A ŞI AB 1.7. AMLFCATOARE DE UTERE ÎN CLASA A Ş AB 1.7.1 Amplificatoare în clasa A La amplificatoarele din clasa A, forma de undă a tensiunii de ieşire este aceeaşi ca a tensiunii de intrare, deci întreg semnalul

Διαβάστε περισσότερα

11.2 CIRCUITE PENTRU FORMAREA IMPULSURILOR Metoda formării impulsurilor se bazează pe obţinerea unei succesiuni periodice de impulsuri, plecând de la semnale periodice de altă formă, de obicei sinusoidale.

Διαβάστε περισσότερα

Curs 2 DIODE. CIRCUITE DR

Curs 2 DIODE. CIRCUITE DR Curs 2 OE. CRCUTE R E CUPRN tructură. imbol Relația curent-tensiune Regimuri de funcționare Punct static de funcționare Parametrii diodei Modelul cu cădere de tensiune constantă Analiza circuitelor cu

Διαβάστε περισσότερα

Fig Impedanţa condensatoarelor electrolitice SMD cu Al cu electrolit semiuscat în funcţie de frecvenţă [36].

Fig Impedanţa condensatoarelor electrolitice SMD cu Al cu electrolit semiuscat în funcţie de frecvenţă [36]. Componente şi circuite pasive Fig.3.85. Impedanţa condensatoarelor electrolitice SMD cu Al cu electrolit semiuscat în funcţie de frecvenţă [36]. Fig.3.86. Rezistenţa serie echivalentă pierderilor în funcţie

Διαβάστε περισσότερα

COLEGIUL NATIONAL CONSTANTIN CARABELLA TARGOVISTE. CONCURSUL JUDETEAN DE MATEMATICA CEZAR IVANESCU Editia a VI-a 26 februarie 2005.

COLEGIUL NATIONAL CONSTANTIN CARABELLA TARGOVISTE. CONCURSUL JUDETEAN DE MATEMATICA CEZAR IVANESCU Editia a VI-a 26 februarie 2005. SUBIECTUL Editia a VI-a 6 februarie 005 CLASA a V-a Fie A = x N 005 x 007 si B = y N y 003 005 3 3 a) Specificati cel mai mic element al multimii A si cel mai mare element al multimii B. b)stabiliti care

Διαβάστε περισσότερα

Esalonul Redus pe Linii (ERL). Subspatii.

Esalonul Redus pe Linii (ERL). Subspatii. Seminarul 1 Esalonul Redus pe Linii (ERL). Subspatii. 1.1 Breviar teoretic 1.1.1 Esalonul Redus pe Linii (ERL) Definitia 1. O matrice A L R mxn este in forma de Esalon Redus pe Linii (ERL), daca indeplineste

Διαβάστε περισσότερα

Subiecte Clasa a VII-a

Subiecte Clasa a VII-a lasa a VII Lumina Math Intrebari Subiecte lasa a VII-a (40 de intrebari) Puteti folosi spatiile goale ca ciorna. Nu este de ajuns sa alegeti raspunsul corect pe brosura de subiecte, ele trebuie completate

Διαβάστε περισσότερα

Examen AG. Student:... Grupa:... ianuarie 2011

Examen AG. Student:... Grupa:... ianuarie 2011 Problema 1. Pentru ce valori ale lui n,m N (n,m 1) graful K n,m este eulerian? Problema 2. Să se construiască o funcţie care să recunoască un graf P 3 -free. La intrare aceasta va primi un graf G = ({1,...,n},E)

Διαβάστε περισσότερα

R R, f ( x) = x 7x+ 6. Determinați distanța dintre punctele de. B=, unde x și y sunt numere reale.

R R, f ( x) = x 7x+ 6. Determinați distanța dintre punctele de. B=, unde x și y sunt numere reale. 5p Determinați primul termen al progresiei geometrice ( b n ) n, știind că b 5 = 48 și b 8 = 84 5p Se consideră funcția f : intersecție a graficului funcției f cu aa O R R, f ( ) = 7+ 6 Determinați distanța

Διαβάστε περισσότερα

Subiecte Clasa a VIII-a

Subiecte Clasa a VIII-a Subiecte lasa a VIII-a (40 de intrebari) Puteti folosi spatiile goale ca ciorna. Nu este de ajuns sa alegeti raspunsul corect pe brosura de subiecte, ele trebuie completate pe foaia de raspuns in dreptul

Διαβάστε περισσότερα

2. Sisteme de forţe concurente...1 Cuprins...1 Introducere Aspecte teoretice Aplicaţii rezolvate...3

2. Sisteme de forţe concurente...1 Cuprins...1 Introducere Aspecte teoretice Aplicaţii rezolvate...3 SEMINAR 2 SISTEME DE FRŢE CNCURENTE CUPRINS 2. Sisteme de forţe concurente...1 Cuprins...1 Introducere...1 2.1. Aspecte teoretice...2 2.2. Aplicaţii rezolvate...3 2. Sisteme de forţe concurente În acest

Διαβάστε περισσότερα

Componente şi Circuite Electronice Pasive. Laborator 4. Măsurarea parametrilor mărimilor electrice

Componente şi Circuite Electronice Pasive. Laborator 4. Măsurarea parametrilor mărimilor electrice Laborator 4 Măsurarea parametrilor mărimilor electrice Obiective: o Semnalul sinusoidal, o Semnalul dreptunghiular, o Semnalul triunghiular, o Generarea diferitelor semnale folosind placa multifuncţională

Διαβάστε περισσότερα

5.5. REZOLVAREA CIRCUITELOR CU TRANZISTOARE BIPOLARE

5.5. REZOLVAREA CIRCUITELOR CU TRANZISTOARE BIPOLARE 5.5. A CIRCUITELOR CU TRANZISTOARE BIPOLARE PROBLEMA 1. În circuitul din figura 5.54 se cunosc valorile: μa a. Valoarea intensității curentului de colector I C. b. Valoarea tensiunii bază-emitor U BE.

Διαβάστε περισσότερα

CIRCUITE LOGICE CU TB

CIRCUITE LOGICE CU TB CIRCUITE LOGICE CU T I. OIECTIVE a) Determinarea experimentală a unor funcţii logice pentru circuite din familiile RTL, DTL. b) Determinarea dependenţei caracteristicilor statice de transfer în tensiune

Διαβάστε περισσότερα

2 Transformări liniare între spaţii finit dimensionale

2 Transformări liniare între spaţii finit dimensionale Transformări 1 Noţiunea de transformare liniară Proprietăţi. Operaţii Nucleul şi imagine Rangul şi defectul unei transformări 2 Matricea unei transformări Relaţia dintre rang şi defect Schimbarea matricei

Διαβάστε περισσότερα

SERII NUMERICE. Definiţia 3.1. Fie (a n ) n n0 (n 0 IN) un şir de numere reale şi (s n ) n n0

SERII NUMERICE. Definiţia 3.1. Fie (a n ) n n0 (n 0 IN) un şir de numere reale şi (s n ) n n0 SERII NUMERICE Definiţia 3.1. Fie ( ) n n0 (n 0 IN) un şir de numere reale şi (s n ) n n0 şirul definit prin: s n0 = 0, s n0 +1 = 0 + 0 +1, s n0 +2 = 0 + 0 +1 + 0 +2,.......................................

Διαβάστε περισσότερα

Vectori liberi Produs scalar Produs vectorial Produsul mixt. 1 Vectori liberi. 2 Produs scalar. 3 Produs vectorial. 4 Produsul mixt.

Vectori liberi Produs scalar Produs vectorial Produsul mixt. 1 Vectori liberi. 2 Produs scalar. 3 Produs vectorial. 4 Produsul mixt. liberi 1 liberi 2 3 4 Segment orientat liberi Fie S spaţiul geometric tridimensional cu axiomele lui Euclid. Orice pereche de puncte din S, notată (A, B) se numeşte segment orientat. Dacă A B, atunci direcţia

Διαβάστε περισσότερα

V O. = v I v stabilizator

V O. = v I v stabilizator Stabilizatoare de tensiune continuă Un stabilizator de tensiune este un circuit electronic care păstrează (aproape) constantă tensiunea de ieșire la variaţia între anumite limite a tensiunii de intrare,

Διαβάστε περισσότερα

a. 11 % b. 12 % c. 13 % d. 14 %

a. 11 % b. 12 % c. 13 % d. 14 % 1. Un motor termic funcţionează după ciclul termodinamic reprezentat în sistemul de coordonate V-T în figura alăturată. Motorul termic utilizează ca substanţă de lucru un mol de gaz ideal având exponentul

Διαβάστε περισσότερα

Laborator 6. Integrarea ecuaţiilor diferenţiale

Laborator 6. Integrarea ecuaţiilor diferenţiale Laborator 6 Integrarea ecuaţiilor diferenţiale Responsabili: 1. Surdu Cristina(anacristinasurdu@gmail.com) 2. Ştirbăţ Bogdan(bogdanstirbat@yahoo.com) Obiective În urma parcurgerii acestui laborator elevul

Διαβάστε περισσότερα

EDITURA PARALELA 45 MATEMATICĂ DE EXCELENŢĂ. Clasa a X-a Ediţia a II-a, revizuită. pentru concursuri, olimpiade şi centre de excelenţă

EDITURA PARALELA 45 MATEMATICĂ DE EXCELENŢĂ. Clasa a X-a Ediţia a II-a, revizuită. pentru concursuri, olimpiade şi centre de excelenţă Coordonatori DANA HEUBERGER NICOLAE MUŞUROIA Nicolae Muşuroia Gheorghe Boroica Vasile Pop Dana Heuberger Florin Bojor MATEMATICĂ DE EXCELENŢĂ pentru concursuri, olimpiade şi centre de excelenţă Clasa a

Διαβάστε περισσότερα

Electronică anul II PROBLEME

Electronică anul II PROBLEME Electronică anul II PROBLEME 1. Găsiți expresiile analitice ale funcției de transfer şi defazajului dintre tensiunea de ieşire şi tensiunea de intrare pentru cuadrupolii din figurile de mai jos și reprezentați-le

Διαβάστε περισσότερα

Examen AG. Student:... Grupa: ianuarie 2016

Examen AG. Student:... Grupa: ianuarie 2016 16-17 ianuarie 2016 Problema 1. Se consideră graful G = pk n (p, n N, p 2, n 3). Unul din vârfurile lui G se uneşte cu câte un vârf din fiecare graf complet care nu-l conţine, obţinându-se un graf conex

Διαβάστε περισσότερα

2. Circuite logice 2.5. Sumatoare şi multiplicatoare. Copyright Paul GASNER

2. Circuite logice 2.5. Sumatoare şi multiplicatoare. Copyright Paul GASNER 2. Circuite logice 2.5. Sumatoare şi multiplicatoare Copyright Paul GASNER Adunarea în sistemul binar Adunarea se poate efectua în mod identic ca la adunarea obişnuită cu cifre arabe în sistemul zecimal

Διαβάστε περισσότερα

Aplicaţii ale principiului I al termodinamicii la gazul ideal

Aplicaţii ale principiului I al termodinamicii la gazul ideal Aplicaţii ale principiului I al termodinamicii la gazul ideal Principiul I al termodinamicii exprimă legea conservării şi energiei dintr-o formă în alta şi se exprimă prin relaţia: ΔUQ-L, unde: ΔU-variaţia

Διαβάστε περισσότερα

Laborator 1: INTRODUCERE ÎN ALGORITMI. Întocmit de: Claudia Pârloagă. Îndrumător: Asist. Drd. Gabriel Danciu

Laborator 1: INTRODUCERE ÎN ALGORITMI. Întocmit de: Claudia Pârloagă. Îndrumător: Asist. Drd. Gabriel Danciu INTRODUCERE Laborator 1: ÎN ALGORITMI Întocmit de: Claudia Pârloagă Îndrumător: Asist. Drd. Gabriel Danciu I. NOŢIUNI TEORETICE A. Sortarea prin selecţie Date de intrare: un şir A, de date Date de ieşire:

Διαβάστε περισσότερα

Modelare fuzzy. Problematica modelarii Sisteme fuzzy in modelare Procedura de modelare ANFIS Clasificare substractiva. Modelare fuzzy. G.

Modelare fuzzy. Problematica modelarii Sisteme fuzzy in modelare Procedura de modelare ANFIS Clasificare substractiva. Modelare fuzzy. G. Modelare fuzzy Problematica modelarii Sisteme fuzzy in modelare Procedura de modelare ANFIS Clasificare substractiva 1 /13 Problematica modelarii Estimarea unei funcţii necunoscute pe baza unor eşantioane

Διαβάστε περισσότερα

Spatii liniare. Exemple Subspaţiu liniar Acoperire (înfăşurătoare) liniară. Mulţime infinită liniar independentă

Spatii liniare. Exemple Subspaţiu liniar Acoperire (înfăşurătoare) liniară. Mulţime infinită liniar independentă Noţiunea de spaţiu liniar 1 Noţiunea de spaţiu liniar Exemple Subspaţiu liniar Acoperire (înfăşurătoare) liniară 2 Mulţime infinită liniar independentă 3 Schimbarea coordonatelor unui vector la o schimbare

Διαβάστε περισσότερα

Componente şi Circuite Electronice Pasive. Laborator 3. Divizorul de tensiune. Divizorul de curent

Componente şi Circuite Electronice Pasive. Laborator 3. Divizorul de tensiune. Divizorul de curent Laborator 3 Divizorul de tensiune. Divizorul de curent Obiective: o Conexiuni serie şi paralel, o Legea lui Ohm, o Divizorul de tensiune, o Divizorul de curent, o Implementarea experimentală a divizorului

Διαβάστε περισσότερα

CURS 11: ALGEBRĂ Spaţii liniare euclidiene. Produs scalar real. Spaţiu euclidian. Produs scalar complex. Spaţiu unitar. Noţiunea de normă.

CURS 11: ALGEBRĂ Spaţii liniare euclidiene. Produs scalar real. Spaţiu euclidian. Produs scalar complex. Spaţiu unitar. Noţiunea de normă. Sala: 2103 Decembrie 2014 Conf. univ. dr.: Dragoş-Pătru Covei CURS 11: ALGEBRĂ Specializarea: C.E., I.E., S.P.E. Nota: Acest curs nu a fost supus unui proces riguros de recenzare pentru a fi oficial publicat.

Διαβάστε περισσότερα

Valori limită privind SO2, NOx şi emisiile de praf rezultate din operarea LPC în funcţie de diferite tipuri de combustibili

Valori limită privind SO2, NOx şi emisiile de praf rezultate din operarea LPC în funcţie de diferite tipuri de combustibili Anexa 2.6.2-1 SO2, NOx şi de praf rezultate din operarea LPC în funcţie de diferite tipuri de combustibili de bioxid de sulf combustibil solid (mg/nm 3 ), conţinut de O 2 de 6% în gazele de ardere, pentru

Διαβάστε περισσότερα

Conice. Lect. dr. Constantin-Cosmin Todea. U.T. Cluj-Napoca

Conice. Lect. dr. Constantin-Cosmin Todea. U.T. Cluj-Napoca Conice Lect. dr. Constantin-Cosmin Todea U.T. Cluj-Napoca Definiţie: Se numeşte curbă algebrică plană mulţimea punctelor din plan de ecuaţie implicită de forma (C) : F (x, y) = 0 în care funcţia F este

Διαβάστε περισσότερα

4. Măsurarea tensiunilor şi a curenţilor electrici. Voltmetre electronice analogice

4. Măsurarea tensiunilor şi a curenţilor electrici. Voltmetre electronice analogice 4. Măsurarea tensiunilor şi a curenţilor electrici oltmetre electronice analogice oltmetre de curent continuu Ampl.c.c. x FTJ Protectie Atenuator calibrat Atenuatorul calibrat divizor rezistiv R in const.

Διαβάστε περισσότερα

10. STABILIZATOAE DE TENSIUNE 10.1 STABILIZATOAE DE TENSIUNE CU TANZISTOAE BIPOLAE Stabilizatorul de tensiune cu tranzistor compară în permanenţă valoare tensiunii de ieşire (stabilizate) cu tensiunea

Διαβάστε περισσότερα

z a + c 0 + c 1 (z a)

z a + c 0 + c 1 (z a) 1 Serii Laurent (continuare) Teorema 1.1 Fie D C un domeniu, a D şi f : D \ {a} C o funcţie olomorfă. Punctul a este pol multiplu de ordin p al lui f dacă şi numai dacă dezvoltarea în serie Laurent a funcţiei

Διαβάστε περισσότερα

a. Caracteristicile mecanice a motorului de c.c. cu excitaţie independentă (sau derivaţie)

a. Caracteristicile mecanice a motorului de c.c. cu excitaţie independentă (sau derivaţie) Caracteristica mecanică defineşte dependenţa n=f(m) în condiţiile I e =ct., U=ct. Pentru determinarea ei vom defini, mai întâi caracteristicile: 1. de sarcină, numită şi caracteristica externă a motorului

Διαβάστε περισσότερα

Laborator 11. Mulţimi Julia. Temă

Laborator 11. Mulţimi Julia. Temă Laborator 11 Mulţimi Julia. Temă 1. Clasa JuliaGreen. Să considerăm clasa JuliaGreen dată de exemplu la curs pentru metoda locului final şi să schimbăm numărul de iteraţii nriter = 100 în nriter = 101.

Διαβάστε περισσότερα

11.3 CIRCUITE PENTRU GENERAREA IMPULSURILOR CIRCUITE BASCULANTE Circuitele basculante sunt circuite electronice prevăzute cu o buclă de reacţie pozitivă, folosite la generarea impulsurilor. Aceste circuite

Διαβάστε περισσότερα

Orice izometrie f : (X, d 1 ) (Y, d 2 ) este un homeomorfism. (Y = f(x)).

Orice izometrie f : (X, d 1 ) (Y, d 2 ) este un homeomorfism. (Y = f(x)). Teoremă. (Y = f(x)). Orice izometrie f : (X, d 1 ) (Y, d 2 ) este un homeomorfism Demonstraţie. f este continuă pe X: x 0 X, S Y (f(x 0 ), ε), S X (x 0, ε) aşa ca f(s X (x 0, ε)) = S Y (f(x 0 ), ε) : y

Διαβάστε περισσότερα

Geometrie computationala 2. Preliminarii geometrice

Geometrie computationala 2. Preliminarii geometrice Platformă de e-learning și curriculă e-content pentru învățământul superior tehnic Geometrie computationala 2. Preliminarii geometrice Preliminarii geometrice Spatiu Euclidean: E d Spatiu de d-tupluri,

Διαβάστε περισσότερα

1.3 Baza a unui spaţiu vectorial. Dimensiune

1.3 Baza a unui spaţiu vectorial. Dimensiune .3 Baza a unui spaţiu vectorial. Dimensiune Definiţia.3. Se numeşte bază a spaţiului vectorial V o familie de vectori B care îndeplineşte condiţiile de mai jos: a) B este liniar independentă; b) B este

Διαβάστε περισσότερα

Lucrarea Nr. 5 Circuite simple cu diode (Aplicaţii)

Lucrarea Nr. 5 Circuite simple cu diode (Aplicaţii) ucrarea Nr. 5 Circuite simple cu diode (Aplicaţii) A.Scopul lucrării - Verificarea experimentală a rezultatelor obţinute prin analiza circuitelor cu diode modelate liniar pe porţiuni ;.Scurt breviar teoretic

Διαβάστε περισσότερα

2.1 Sfera. (EGS) ecuaţie care poartă denumirea de ecuaţia generală asferei. (EGS) reprezintă osferă cu centrul în punctul. 2 + p 2

2.1 Sfera. (EGS) ecuaţie care poartă denumirea de ecuaţia generală asferei. (EGS) reprezintă osferă cu centrul în punctul. 2 + p 2 .1 Sfera Definitia 1.1 Se numeşte sferă mulţimea tuturor punctelor din spaţiu pentru care distanţa la u punct fi numit centrul sferei este egalăcuunnumăr numit raza sferei. Fie centrul sferei C (a, b,

Διαβάστε περισσότερα

Ecuaţia generală Probleme de tangenţă Sfera prin 4 puncte necoplanare. Elipsoidul Hiperboloizi Paraboloizi Conul Cilindrul. 1 Sfera.

Ecuaţia generală Probleme de tangenţă Sfera prin 4 puncte necoplanare. Elipsoidul Hiperboloizi Paraboloizi Conul Cilindrul. 1 Sfera. pe ecuaţii generale 1 Sfera Ecuaţia generală Probleme de tangenţă 2 pe ecuaţii generale Sfera pe ecuaţii generale Ecuaţia generală Probleme de tangenţă Numim sferă locul geometric al punctelor din spaţiu

Διαβάστε περισσότερα

RĂSPUNS Modulul de rezistenţă este o caracteristică geometrică a secţiunii transversale, scrisă faţă de una dintre axele de inerţie principale:,

RĂSPUNS Modulul de rezistenţă este o caracteristică geometrică a secţiunii transversale, scrisă faţă de una dintre axele de inerţie principale:, REZISTENTA MATERIALELOR 1. Ce este modulul de rezistenţă? Exemplificaţi pentru o secţiune dreptunghiulară, respectiv dublu T. RĂSPUNS Modulul de rezistenţă este o caracteristică geometrică a secţiunii

Διαβάστε περισσότερα

8 Intervale de încredere

8 Intervale de încredere 8 Intervale de încredere În cursul anterior am determinat diverse estimări ˆ ale parametrului necunoscut al densităţii unei populaţii, folosind o selecţie 1 a acestei populaţii. În practică, valoarea calculată

Διαβάστε περισσότερα

Concurs MATE-INFO UBB, 1 aprilie 2017 Proba scrisă la MATEMATICĂ

Concurs MATE-INFO UBB, 1 aprilie 2017 Proba scrisă la MATEMATICĂ UNIVERSITATEA BABEŞ-BOLYAI CLUJ-NAPOCA FACULTATEA DE MATEMATICĂ ŞI INFORMATICĂ Concurs MATE-INFO UBB, aprilie 7 Proba scrisă la MATEMATICĂ SUBIECTUL I (3 puncte) ) (5 puncte) Fie matricele A = 3 4 9 8

Διαβάστε περισσότερα

Algebra si Geometrie Seminar 9

Algebra si Geometrie Seminar 9 Algebra si Geometrie Seminar 9 Decembrie 017 ii Equations are just the boring part of mathematics. I attempt to see things in terms of geometry. Stephen Hawking 9 Dreapta si planul in spatiu 1 Notiuni

Διαβάστε περισσότερα

Ecuatii exponentiale. Ecuatia ce contine variabila necunoscuta la exponentul puterii se numeste ecuatie exponentiala. a x = b, (1)

Ecuatii exponentiale. Ecuatia ce contine variabila necunoscuta la exponentul puterii se numeste ecuatie exponentiala. a x = b, (1) Ecuatii exponentiale Ecuatia ce contine variabila necunoscuta la exponentul puterii se numeste ecuatie exponentiala. Cea mai simpla ecuatie exponentiala este de forma a x = b, () unde a >, a. Afirmatia.

Διαβάστε περισσότερα

VII.2. PROBLEME REZOLVATE

VII.2. PROBLEME REZOLVATE Teoria Circuitelor Electrice Aplicaţii V PROBEME REOVATE R7 În circuitul din fiura 7R se cunosc: R e t 0 sint [V] C C t 0 sint [A] Se cer: a rezolvarea circuitului cu metoda teoremelor Kirchhoff; rezolvarea

Διαβάστε περισσότερα

Capitolul 4 PROPRIETĂŢI TOPOLOGICE ŞI DE NUMĂRARE ALE LUI R. 4.1 Proprietăţi topologice ale lui R Puncte de acumulare

Capitolul 4 PROPRIETĂŢI TOPOLOGICE ŞI DE NUMĂRARE ALE LUI R. 4.1 Proprietăţi topologice ale lui R Puncte de acumulare Capitolul 4 PROPRIETĂŢI TOPOLOGICE ŞI DE NUMĂRARE ALE LUI R În cele ce urmează, vom studia unele proprietăţi ale mulţimilor din R. Astfel, vom caracteriza locul" unui punct în cadrul unei mulţimi (în limba

Διαβάστε περισσότερα

Cursul Măsuri reale. D.Rusu, Teoria măsurii şi integrala Lebesgue 15

Cursul Măsuri reale. D.Rusu, Teoria măsurii şi integrala Lebesgue 15 MĂSURI RELE Cursul 13 15 Măsuri reale Fie (,, µ) un spaţiu cu măsură completă şi f : R o funcţie -măsurabilă. Cum am văzut în Teorema 11.29, dacă f are integrală pe, atunci funcţia de mulţime ν : R, ν()

Διαβάστε περισσότερα

III. Reprezentarea informaţiei în sistemele de calcul

III. Reprezentarea informaţiei în sistemele de calcul Metode Numerice Curs 3 III. Reprezentarea informaţiei în sistemele de calcul III.1. Reprezentarea internă a numerelor întregi III. 1.1. Reprezentarea internă a numerelor întregi fără semn (pozitive) Reprezentarea

Διαβάστε περισσότερα

I. Noţiuni introductive

I. Noţiuni introductive Metode Numerice Curs 1 I. Noţiuni introductive Metodele numerice reprezintă tehnici prin care problemele matematice sunt reformulate astfel încât să fie rezolvate numai prin operaţii aritmetice. Prin trecerea

Διαβάστε περισσότερα

Noţiuni introductive

Noţiuni introductive Metode Numerice Noţiuni introductive Erori. Condiţionare numerică. Stabilitatea algoritmilor. Complexitatea algoritmilor. Metodele numerice reprezintă tehnici prin care problemele matematice sunt reformulate

Διαβάστε περισσότερα

CIRCUITE INTEGRATE MONOLITICE DE MICROUNDE. MMIC Monolithic Microwave Integrated Circuit

CIRCUITE INTEGRATE MONOLITICE DE MICROUNDE. MMIC Monolithic Microwave Integrated Circuit CIRCUITE INTEGRATE MONOLITICE DE MICROUNDE MMIC Monolithic Microwave Integrated Circuit CUPRINS 1. Avantajele si limitarile MMIC 2. Modelarea dispozitivelor active 3. Calculul timpului de viata al MMIC

Διαβάστε περισσότερα

Capitolul 4. Integrale improprii Integrale cu limite de integrare infinite

Capitolul 4. Integrale improprii Integrale cu limite de integrare infinite Capitolul 4 Integrale improprii 7-8 În cadrul studiului integrabilităţii iemann a unei funcţii s-au evidenţiat douăcondiţii esenţiale:. funcţia :[ ] este definită peintervalînchis şi mărginit (interval

Διαβάστε περισσότερα

3. Momentul forţei în raport cu un punct...1 Cuprins...1 Introducere Aspecte teoretice Aplicaţii rezolvate...4

3. Momentul forţei în raport cu un punct...1 Cuprins...1 Introducere Aspecte teoretice Aplicaţii rezolvate...4 SEMINAR 3 MMENTUL FRŢEI ÎN RAPRT CU UN PUNCT CUPRINS 3. Momentul forţei în raport cu un punct...1 Cuprins...1 Introducere...1 3.1. Aspecte teoretice...2 3.2. Aplicaţii rezolvate...4 3. Momentul forţei

Διαβάστε περισσότερα

Realizat de: Ing. mast. Pintilie Lucian Nicolae Pentru disciplina: Sisteme de calcul în timp real Adresă de

Realizat de: Ing. mast. Pintilie Lucian Nicolae Pentru disciplina: Sisteme de calcul în timp real Adresă de Teorema lui Nyquist Shannon - Demonstrație Evidențierea conceptului de timp de eșantionare sau frecvență de eșantionare (eng. sample time or sample frequency) IPOTEZĂ: DE CE TIMPUL DE EȘANTIONARE (SAU

Διαβάστε περισσότερα

FLUXURI MAXIME ÎN REŢELE DE TRANSPORT. x 4

FLUXURI MAXIME ÎN REŢELE DE TRANSPORT. x 4 FLUXURI MAXIME ÎN REŢELE DE TRANSPORT Se numeşte reţea de transport un graf în care fiecărui arc îi este asociat capacitatea arcului şi în care eistă un singur punct de intrare şi un singur punct de ieşire.

Διαβάστε περισσότερα

Modelare şi simulare Seminar 4 SEMINAR NR. 4. Figura 4.1 Reprezentarea evoluţiei sistemului prin graful de tranziţii 1 A A =

Modelare şi simulare Seminar 4 SEMINAR NR. 4. Figura 4.1 Reprezentarea evoluţiei sistemului prin graful de tranziţii 1 A A = SEMIR R. 4. Sistemul M/M// Caracteristici: = - intensitatea traficului - + unde Figura 4. Rerezentarea evoluţiei sistemului rin graful de tranziţii = rata medie de sosire a clienţilor în sistem (clienţi

Διαβάστε περισσότερα

Proiectarea filtrelor prin metoda pierderilor de inserţie

Proiectarea filtrelor prin metoda pierderilor de inserţie FITRE DE MIROUNDE Proiectarea filtrelor prin metoda pierderilor de inserţie P R Puterea disponibila de la sursa Puterea livrata sarcinii P inc P Γ ( ) Γ I lo P R ( ) ( ) M ( ) ( ) M N P R M N ( ) ( ) Tipuri

Διαβάστε περισσότερα

Erori si incertitudini de măsurare. Modele matematice Instrument: proiectare, fabricaţie, Interacţiune măsurand instrument:

Erori si incertitudini de măsurare. Modele matematice Instrument: proiectare, fabricaţie, Interacţiune măsurand instrument: Erori i incertitudini de măurare Sure: Modele matematice Intrument: proiectare, fabricaţie, Interacţiune măurandintrument: (tranfer informaţie tranfer energie) Influente externe: temperatura, preiune,

Διαβάστε περισσότερα

Toate subiectele sunt obligatorii. Timpul de lucru efectiv este de 3 ore. Se acordă din oficiu 10 puncte. SUBIECTUL I.

Toate subiectele sunt obligatorii. Timpul de lucru efectiv este de 3 ore. Se acordă din oficiu 10 puncte. SUBIECTUL I. Modelul 4 Se acordă din oficiu puncte.. Fie numărul complex z = i. Calculaţi (z ) 25. 2. Dacă x şi x 2 sunt rădăcinile ecuaţiei x 2 9x+8 =, atunci să se calculeze x2 +x2 2 x x 2. 3. Rezolvaţi în mulţimea

Διαβάστε περισσότερα

Sisteme liniare - metode directe

Sisteme liniare - metode directe Sisteme liniare - metode directe Radu T. Trîmbiţaş 27 martie 2016 1 Eliminare gaussiană Să considerăm sistemul liniar cu n ecuaţii şi n necunoscute Ax = b, (1) unde A K n n, b K n 1 sunt date, iar x K

Διαβάστε περισσότερα

Ovidiu Gabriel Avădănei, Florin Mihai Tufescu,

Ovidiu Gabriel Avădănei, Florin Mihai Tufescu, vidiu Gabriel Avădănei, Florin Mihai Tufescu, Capitolul 6 Amplificatoare operaţionale 58. Să se calculeze coeficientul de amplificare în tensiune pentru amplficatorul inversor din fig.58, pentru care se

Διαβάστε περισσότερα

Aparate de măsurat. Măsurări electronice Rezumatul cursului 2. MEE - prof. dr. ing. Ioan D. Oltean 1

Aparate de măsurat. Măsurări electronice Rezumatul cursului 2. MEE - prof. dr. ing. Ioan D. Oltean 1 Aparate de măsurat Măsurări electronice Rezumatul cursului 2 MEE - prof. dr. ing. Ioan D. Oltean 1 1. Aparate cu instrument magnetoelectric 2. Ampermetre şi voltmetre 3. Ohmetre cu instrument magnetoelectric

Διαβάστε περισσότερα