INTELIGENŢĂ ARTIFICIALĂ

Σχετικά έγγραφα
Metode iterative pentru probleme neliniare - contractii

METODE INTELIGENTE DE REZOLVARE A PROBLEMELOR REALE. Laura Dioşan Tema 3

Curs 10 Funcţii reale de mai multe variabile reale. Limite şi continuitate.

Metode de interpolare bazate pe diferenţe divizate

Sisteme diferenţiale liniare de ordinul 1

Planul determinat de normală şi un punct Ecuaţia generală Plane paralele Unghi diedru Planul determinat de 3 puncte necoliniare

Criptosisteme cu cheie publică III

(a) se numeşte derivata parţială a funcţiei f în raport cu variabila x i în punctul a.

III. Serii absolut convergente. Serii semiconvergente. ii) semiconvergentă dacă este convergentă iar seria modulelor divergentă.

Functii definitie, proprietati, grafic, functii elementare A. Definitii, proprietatile functiilor

Functii definitie, proprietati, grafic, functii elementare A. Definitii, proprietatile functiilor X) functia f 1

Integrala nedefinită (primitive)

5.4. MULTIPLEXOARE A 0 A 1 A 2

Geometrie computationala 2. Preliminarii geometrice

Esalonul Redus pe Linii (ERL). Subspatii.

5. FUNCŢII IMPLICITE. EXTREME CONDIŢIONATE.

Seminariile Capitolul X. Integrale Curbilinii: Serii Laurent şi Teorema Reziduurilor

Examen AG. Student:... Grupa:... ianuarie 2011

Algoritmi genetici. 1.1 Generalităţi

a n (ζ z 0 ) n. n=1 se numeste partea principala iar seria a n (z z 0 ) n se numeste partea

DISTANŢA DINTRE DOUĂ DREPTE NECOPLANARE

V.7. Condiţii necesare de optimalitate cazul funcţiilor diferenţiabile

R R, f ( x) = x 7x+ 6. Determinați distanța dintre punctele de. B=, unde x și y sunt numere reale.

COLEGIUL NATIONAL CONSTANTIN CARABELLA TARGOVISTE. CONCURSUL JUDETEAN DE MATEMATICA CEZAR IVANESCU Editia a VI-a 26 februarie 2005.

Aplicaţii ale principiului I al termodinamicii la gazul ideal

Curs 14 Funcţii implicite. Facultatea de Hidrotehnică Universitatea Tehnică "Gh. Asachi"

Subiecte Clasa a VIII-a

MARCAREA REZISTOARELOR

Subiecte Clasa a VII-a

a. 11 % b. 12 % c. 13 % d. 14 %

CONCURSUL DE MATEMATICĂ APLICATĂ ADOLF HAIMOVICI, 2017 ETAPA LOCALĂ, HUNEDOARA Clasa a IX-a profil științe ale naturii, tehnologic, servicii

5.5. REZOLVAREA CIRCUITELOR CU TRANZISTOARE BIPOLARE

Curs 4 Serii de numere reale

Asupra unei inegalităţi date la barajul OBMJ 2006

Toate subiectele sunt obligatorii. Timpul de lucru efectiv este de 3 ore. Se acordă din oficiu 10 puncte. SUBIECTUL I.

Conice. Lect. dr. Constantin-Cosmin Todea. U.T. Cluj-Napoca

Analiza în curent continuu a schemelor electronice Eugenie Posdărăscu - DCE SEM 1 electronica.geniu.ro

SERII NUMERICE. Definiţia 3.1. Fie (a n ) n n0 (n 0 IN) un şir de numere reale şi (s n ) n n0

Erori si incertitudini de măsurare. Modele matematice Instrument: proiectare, fabricaţie, Interacţiune măsurand instrument:

Proiectarea Algoritmilor 2. Scheme de algoritmi Divide & Impera

Seminar 5 Analiza stabilității sistemelor liniare

3. ALGORITMI GENETICI

Curs 1 Şiruri de numere reale

Examen AG. Student:... Grupa: ianuarie 2016

Definiţia generală Cazul 1. Elipsa şi hiperbola Cercul Cazul 2. Parabola Reprezentari parametrice ale conicelor Tangente la conice

riptografie şi Securitate

Lucrarea 1.b Clasificatorul Bayes

V O. = v I v stabilizator


Laborator 1: INTRODUCERE ÎN ALGORITMI. Întocmit de: Claudia Pârloagă. Îndrumător: Asist. Drd. Gabriel Danciu

Componente şi Circuite Electronice Pasive. Laborator 3. Divizorul de tensiune. Divizorul de curent

Curs 2 DIODE. CIRCUITE DR

Teme de implementare in Matlab pentru Laboratorul de Metode Numerice

EDITURA PARALELA 45 MATEMATICĂ DE EXCELENŢĂ. Clasa a X-a Ediţia a II-a, revizuită. pentru concursuri, olimpiade şi centre de excelenţă

Sisteme liniare - metode directe

1.7. AMPLIFICATOARE DE PUTERE ÎN CLASA A ŞI AB

8 Intervale de încredere

* K. toate K. circuitului. portile. Considerând această sumă pentru toate rezistoarele 2. = sl I K I K. toate rez. Pentru o bobină: U * toate I K K 1

2. Circuite logice 2.4. Decodoare. Multiplexoare. Copyright Paul GASNER

Modelare fuzzy. Problematica modelarii Sisteme fuzzy in modelare Procedura de modelare ANFIS Clasificare substractiva. Modelare fuzzy. G.

Spatii liniare. Exemple Subspaţiu liniar Acoperire (înfăşurătoare) liniară. Mulţime infinită liniar independentă

Algoritmica grafurilor XI. Cuplaje in grafuri. Masuri de calitate. Numere Ramsey

SEMINAR 14. Funcţii de mai multe variabile (continuare) ( = 1 z(x,y) x = 0. x = f. x + f. y = f. = x. = 1 y. y = x ( y = = 0

Problema a II - a (10 puncte) Diferite circuite electrice

Zgomotul se poate suprapune informaţiei utile în două moduri: g(x, y) = f(x, y) n(x, y) (6.2)

Orice izometrie f : (X, d 1 ) (Y, d 2 ) este un homeomorfism. (Y = f(x)).

Tehnici de Optimizare

Laborator 11. Mulţimi Julia. Temă

Algebra si Geometrie Seminar 9

Lectia VI Structura de spatiu an E 3. Dreapta si planul ca subspatii ane

VII.2. PROBLEME REZOLVATE

MULTIMEA NUMERELOR REALE

Capitolul ASAMBLAREA LAGĂRELOR LECŢIA 25

prin egalizarea histogramei

Valori limită privind SO2, NOx şi emisiile de praf rezultate din operarea LPC în funcţie de diferite tipuri de combustibili

Sortare. 29 martie Utilizarea şi programarea calculatoarelor. Curs 16

Curs 6 Rețele Neuronale Artificiale

Ecuaţia generală Probleme de tangenţă Sfera prin 4 puncte necoplanare. Elipsoidul Hiperboloizi Paraboloizi Conul Cilindrul. 1 Sfera.

CURS 11: ALGEBRĂ Spaţii liniare euclidiene. Produs scalar real. Spaţiu euclidian. Produs scalar complex. Spaţiu unitar. Noţiunea de normă.

Scoruri standard Curba normală (Gauss) M. Popa

Metode Runge-Kutta. 18 ianuarie Probleme scalare, pas constant. Dorim să aproximăm soluţia problemei Cauchy

CIRCUITE INTEGRATE MONOLITICE DE MICROUNDE. MMIC Monolithic Microwave Integrated Circuit

Aparate de măsurat. Măsurări electronice Rezumatul cursului 2. MEE - prof. dr. ing. Ioan D. Oltean 1

NOTIUNI DE BAZA IN STATISTICA

2 Transformări liniare între spaţii finit dimensionale

FLUXURI MAXIME ÎN REŢELE DE TRANSPORT. x 4

Laborator 6. Integrarea ecuaţiilor diferenţiale

Proiectarea filtrelor prin metoda pierderilor de inserţie

Să se arate că n este număr par. Dan Nedeianu

Fig Impedanţa condensatoarelor electrolitice SMD cu Al cu electrolit semiuscat în funcţie de frecvenţă [36].

Analiza bivariata a datelor

4. Măsurarea tensiunilor şi a curenţilor electrici. Voltmetre electronice analogice

Statistică multivariată Lucrarea nr. 12 Clasificare - SPSS. Clasificare. A. Noţiuni teoretice. Clasificare predictivă. Clasificare predictivă - Fisher

I X A B e ic rm te e m te is S

METODE NUMERICE: Laborator #5 Metode iterative pentru rezolvarea sistemelor: Jacobi, Gauss-Siedel, Suprarelaxare

Lucrare. Varianta aprilie I 1 Definiţi noţiunile de număr prim şi număr ireductibil. Soluţie. Vezi Curs 6 Definiţiile 1 şi 2. sau p b.

UNIVERSITATEA TEHNICĂ GH. ASACHI IAŞI FACULTATEA DE AUTOMATICĂ ŞI CALCULATOARE. Algoritmi genetici. Inteligenţă artificială - referat -

Componente şi Circuite Electronice Pasive. Laborator 4. Măsurarea parametrilor mărimilor electrice

Capitolul COTAREA DESENELOR TEHNICE LECŢIA 21

Subiecte Clasa a VIII-a

Transcript:

INTELIGENŢĂ ARTIFICIALĂ Curs 11 Sisteme inteligente Sisteme care învaţă singure maşini cu support vectorial - K-means - Laura Dioşan

2 Sumar A. Scurtă introducere în Inteligenţa Artificială (IA) B. Rezolvarea problemelor prin căutare Definirea problemelor de căutare Strategii de căutare Strategii de căutare neinformate Strategii de căutare informate Strategii de căutare locale (Hill Climbing, Simulated Annealing, Tabu Search, Algoritmi evolutivi, PSO, ACO) Strategii de căutare adversială C. Sisteme inteligente Sisteme bazate pe reguli în medii certe Sisteme bazate pe reguli în medii incerte (Bayes, factori de certitudine, Fuzzy) Sisteme care învaţă singure Arbori de decizie Reţele neuronale artificiale Algoritmi evolutivi Maşini cu suport vectorial Algoritmi de clusterizare Sisteme hibride

3 Materiale de citit şi legături utile capitolul 15 din C. Groşan, A. Abraham, Intelligent Systems: A Modern Approach, Springer, 2011 Capitolul 9 din T. M. Mitchell, Machine Learning, McGraw-Hill Science, 1997 Documentele din directorul svm

4 Sisteme inteligente Sisteme expert Sisteme bazate pe reguli Bayes Fuzzy Arbori de decizie Reţele neuronale artificiale Maşini cu suport vectorial Algoritmi evolutivi Obiecte, frame-uri, agenţi Sisteme bazate pe cunoştinţe Inteligenţă computaţională

5 Sisteme inteligente SIS Învăţare automată Tipologie În funcţie de experienţa acumulată în timpul învăţării: SI cu învăţare supervizată SI cu învăţare nesupervizată SI cu învăţare activă SI cu învăţare cu întărire În funcţie de modelul învăţat (algoritmul de învăţare): Arbori de decizie Reţele neuronale artificiale Maşini cu suport vectorial (MSV) Algoritmi evolutivi Modele Markov ascunse

6 Sisteme inteligente SIS MSV Maşini cu suport vectorial (MSV) Definire Tipuri de probleme rezolvabile Avantaje Dificultăţi Tool-uri

7 Sisteme inteligente SIS MSV Definire Dezvoltate de Vapnik în 1970 Popularizate după 1992 Clasificatori liniari care identifică un hiperplan de separare a clasei pozitive de clasa negativă Au o fundamentare teoretică foarte riguroasă Funcţionează foarte bine pentru date de volum mare (analiza textelor, analiza imaginilor) Reamintim Problemă de învăţare supervizată în care avem un set de date de forma: (x d, t d ), cu: x d R m x d =(x d 1, x d 2,..., x d m) t d R t d {1, -1}, 1 clasă pozitivă, -1 clasă negativă cu d = 1,2,...,n,n+1,n+2,...,N Primele n date (se cunosc x d şi t d ) vor fi folosite drept bază de antrenament a MSV Ultimele N-n date (se cunosc doar x d, fără t d ) vor fi folosite drept bază de testare a MSV

8 Sisteme inteligente SIS MSV Definire MSV găseşte o funcţie liniară de forma f(x) = w x + b, (w -vector pondere) a.î. y i 1 1 if if w x w x i i b 0 b 0 w x + b = 0 hiperplanul de decizie care separă cele 2 clase

9 Sisteme inteligente SIS MSV Definire Pot exista mai multe hiperplane Care este cel mai bun hiperplan? MSV caută hiperplanul cu cea mai largă margine (cel care micşorează eroarea de generalizare) Algoritmul SMO (Sequential minimal optimization)

Sisteme inteligente SIS MSV Tipuri de probleme rezolvabile Probleme de clasificare Cazuri de date Liniar separabile Separabile Eroarea = 0 Ne-separabile Se relaxează constrângerile se permit unele erori C coeficient de penalizare Mai, 2017 Inteligență artificială - sisteme inteligente 10 (SVM, k-means)

11 Sisteme inteligente SIS MSV Cazuri de date Non-liniar separabile Spaţiul de intrare se transformă într-un spaţiu cu mai multe dimensiuni (feature space), cu ajutorul unei funcţii kernel, unde datele devin liniar separabile În MSV, funcţiile kernel calculează distanţa între 2 puncte kernelul ~ funcţie de similaritate

12 Sisteme inteligente SIS MSV Cazuri de date Non-liniar separabile Kernele posibile Clasice Polynomial kernel: K(x d1, x d2 ) = (x d1, x d2 + 1) p RBF kernel: K(x d1, x d2 ) = exp(- x d1 - x d2 2 /2σ 2 ) Kernele multiple Liniare: K(x d1, x d2 ) = w i K i (x d1, x d2 ) Ne-liniare Fără coeficienţi: K(x d1, x d2 ) = K 1 (x d1, x d2 )+ K 2 (x d1, x d2 )* exp(k 3 (x d1, x d2 )) Cu coeficienţi: K(x d1, x d2 ) = K 1 (x d1, x d2 )+ c 1 * K 2 *(x d1, x d2 ) exp(c 2 + K 3 (x d1, x d2 )) Kernele pentru stringuri Kernele pentru imagini Kernele pentru grafe

13 Sisteme inteligente SIS MSV Configurarea MSV Parametrii unei MSV Coeficientul de penalizare C C mic convergenţă lentă C mare convergenţă rapidă Parametrii funcţiei kernel (care kernel şi cu ce parametri) Dacă m (nr de atribute) este mult mai mare decât n (nr de instanţe) MSV cu kernel liniar (MSV fără kernel) K(x d1, x d2 ) = xd1 xd2 Dacă m (nr de atribute) este mare, iar n (nr de instanţe) este mediu MSV cu kernel Gaussian K(x d1, x d2 ) = exp(- x d1 - x d2 2 /2σ 2 ) σ dispersia datelor de antrenament Atributele instanţelor trebuie normalizate (scalate la (0,1)) m (nr de atribute) este mic, iar n (nr de instanţe) este mare Se adaugă noi atribute, iar apoi MSV cu kernel liniar

14 Sisteme inteligente SIS MSV MSV pentru probleme de clasificare supervizate cu mai mult de 2 clase Una vs. restul (one vs. all)

15 Sisteme inteligente SIS MSV MSV structurate Învăţare automată Normală f:x R Intrări de orice fel Ieşiri numerice (naturale, întregi, reale) Structurată:X Y Intrări de orice fel Ieşiri de orice fel (simple sau structurate) Informaţii structurate Texte şi hiper-texte Molecule şi structuri moleculare Imagini

16 Sisteme inteligente SIS MSV MSV structurate Aplicaţii Procesarea limbajului natural Traduceri automate (ieşiri propoziţii) Analiza sintactică şi/sau morfologică a propoziţiilor (ieşiri arborele sintactic şi/sau morfologic) Bioinformatică Predicţia unor structuri secundare (ieşirile grafe bi-partite) Predicţia funcţionării unor enzime (ieşirile path-uri în arbori) Procesarea vorbirii Transcrieri automate (ieşiri propoziţii) Transformarea textelor în voce (ieşiri semnale audio) Robotică Planificare (ieşirile secvenţe de acţiuni)

17 Sisteme inteligente SIS MSV Avantaje Pot lucra cu orice fel de date (liniar separabile sau nu, distribuit uniform sau nu, cu distribuţie cunoscută sau nu) Funcţiile kernel care crează noi atribute (features) straturile ascunse dintr-o RNA Dacă problema e convexă oferă o soluţie unică optimul global RNA pot asocia mai multe soluţii optime locale Selectează automat mărimea modelului învăţat (prin vectorii suport) În RNA straturile ascunse trebuie configurate de către utilizator apriori Nu învaţă pe derost datele (overfitting) RNA se confruntă cu problema overfitting-ului chiar şi cand modelul se învaţă prin validare încrucişată Dificultăţi Doar atribute reale Doar clasificare binară Background matematic dificil Tool-uri LibSVM http://www.csie.ntu.edu.tw/~cjlin/libsvm/ Weka SMO SVMLight http://svmlight.joachims.org/ SVMTorch http://www.torch.ch/ http://www.support-vector-machines.org/

18 Sisteme inteligente SIS Învăţare automată Tipologie În funcţie de experienţa acumulată în timpul învăţării: SI cu învăţare supervizată SI cu învăţare nesupervizată SI cu învăţare activă SI cu învăţare cu întărire În funcţie de modelul învăţat (algoritmul de învăţare): Arbori de decizie Reţele neuronale artificiale Maşini cu suport vectorial (MSV) Algoritmi evolutivi Modele Markov ascunse K-means

19 Învăţare nesupervizată Scop Găsirea unui model sau a unei structuri utile a datelor Tip de probleme Identificara unor grupuri (clusteri) Analiza genelor Procesarea imaginilor Analiza reţelelor sociale Segmentarea pieţei Analiza datelor astronomice Clusteri de calculatoare Reducerea dimensiunii Identificarea unor cauze (explicaţii) ale datelor Modelarea densităţii datelor Caracteristic Datele nu sunt adnotate (etichetate)

20 Învăţare ne-supervizată definire Împărţirea unor exemple neetichetate în submulţimi disjuncte (clusteri) astfel încât: exemplele din acelaşi cluster sunt foarte similare exemplele din clusteri diferiţi sunt foarte diferite Definire Se dă un set de date (exemple, instanţe, cazuri) Se determină Date de antrenament Sub forma atribute_data i, unde i =1,N (N = nr datelor de antrenament) atribute_data i = (atr i1, atr i2,..., atr im ), m nr atributelor (caracteristicilor, proprietăţilor) unei date Date de test Sub forma (atribute_data i ), i =1,n (n = nr datelor de test) o funcţie (necunoscută) care realizează gruparea datelor de antrenament în mai multe clase Nr de clase poate fi pre-definit (k) sau necunoscut Datele dintr-o clasă sunt asemănătoare clasa asociată unei date (noi) de test folosind gruparea învăţată pe datele de antrenament Alte denumiri Clustering

21 Învăţare ne-supervizată definire Supervizată vs. Ne-supervizată

22 Învăţare ne-supervizată definire Distanţe între 2 elemente p şi q є R m Euclideana d(p,q)=sqrt( j=1,2,...,m (p j -q j ) 2 ) Manhattan d(p,q)= j=1,2,...,m p j -q j Mahalanobis d(p,q)=sqrt(p-q)s -1 (p-q)), unde S este matricea de variaţie şi covariaţie (S= E[(p-E[p])(q-E[q])]) Produsul intern Cosine d(p,q)= j=1,2,...,m p j q j d(p,q)= j=1,2,...,m p j q j / (sqrt( j=1,2,...,m p j2 ) * sqrt( j=1,2,...,m q j2 )) Hamming Levenshtein numărul de diferenţe între p şi q numărul minim de operaţii necesare pentru a-l transforma pe p în q Distanţă vs. Similaritate Distanţa min Similaritatea max

23 Învăţare ne-supervizată exemple Gruparea genelor Studii de piaţă pentru gruparea clienţilor (segmentarea pieţei) news.google.com

24 Învăţare ne-supervizată proces Procesul 2 paşi: Antrenarea Testarea Învăţarea (determinarea), cu ajutorul unui algoritm, a clusterilor existenţi Plasarea unei noi date într-unul din clusterii identificaţi în etapa de antrenament Calitatea învăţării (validarea clusterizării): Criterii interne Similaritate ridicată în interiorul unui cluster şi similaritate redusă între clusteri Criteri externe Folosirea unor benchmark-uri formate din date pre-grupate

25 Învăţare ne-supervizată evaluare Măsuri de performanţă Criterii interne Distanţa în interiorul clusterului Distanţa între clusteri Indexul Davies-Bouldin Indexul Dunn Criteri externe Compararea cu date cunoscute în practică este imposibil Precizia Rapelul F-measure

26 Învăţare ne-supervizată evaluare Măsuri de performanţă Criterii interne Distanţa în interiorul clusterului c j care conţine n j instanţe Distanţa medie între instanţe (average distance) D a (c j ) = xi1,xi2єcj x i1 x i2 / (n j (n j -1)) Distanţa între cei mai apropiaţi vecini (nearest neighbour distance) D nn (c j ) = xi1єcj min xi2єcj x i1 x i2 / n j Distanţa între centroizi D c (c j ) = xi,єcj x i μ j / n j, unde μ j = 1/ n j xiєcj x i

27 Învăţare ne-supervizată evaluare Măsuri de performanţă Criterii interne Distanţa între 2 clusteri c j1 şi c j2 Legătură simplă d s (c j1, c j2 ) = min xi1єcj1, xi2єcj2 { x i1 x i2 } Legătură completă d co (c j1, c j2 ) = max xi1єcj1, xi2єcj2 { x i1 x i2 } Legătură medie d a (c j1, c j2 ) = xi1єcj1, xi2єcj2 { x i1 x i2 } / (n j1 * n j2 ) Legătură între centroizi d ce (c j1, c j2 ) = μ j1 μ j2

28 Învăţare ne-supervizată evaluare Măsuri de performanţă Criterii interne Indexul Davies-Bouldin min clusteri compacţi DB = 1/nc* i=1,2,...,nc max j=1, 2,..., nc, j i ((σ i + σ j )/d(μ i, μ j )) unde: nc numărul de clusteri μ i centroidul clusterului i σ i media distanţelor între elementele din clusterul i şi centroidul μ i d(μ i, μ j ) distanţa între centroidul μ i şi centroidul μ j Indexul Dunn Identifică clusterii denşi şi bine separaţi D=d min /d max Unde: d min distanţa minimă între 2 obiecte din clusteri diferiţi distanţa intracluster d max distanţa maximă între 2 obiecte din acelaşi cluster distanţa intercluster

29 Învăţare ne-supervizată - tipologie După modul de formare al clusterilor C. ierarhic C. ne-ierarhic (partiţional) C. bazat pe densitatea datelor C. bazat pe un grid

30 Învăţare ne-supervizată - tipologie După modul de formare al clusterilor Ierarhic se crează un arbore taxonomic (dendogramă) crearea clusterilor (recursiv) nu se cunoaşte k (nr de clusteri) aglomerativ (de jos în sus) clusteri mici spre clusteri mari diviziv (de sus în jos) clusteri mari spre clusteri mici Ex. Clustering ierarhic aglomerativ

31 Învăţare ne-supervizată - tipologie După modul de formare al clusterilor Ne-ierarhic Partiţional se determină o împărţire a datelor toţi clusterii deodată Optimizează o funcţie obiectiv definită Local doar pe anumite atribute Global pe toate atributele care poate fi Pătratul erorii suma patratelor distanţelor între date şi centroizii clusterilor min Ex. K-means Bazată pe grafuri Ex. Clusterizare bazată pe arborele minim de acoperire Bazată pe modele probabilistice Ex. Identificarea distribuţiei datelor Maximizarea aşteptărilor Bazată pe cel mai apropiat vecin Necesită fixarea apriori a lui k fixarea clusterilor iniţiali Algoritmii se rulează de mai multe ori cu diferiţi parametri şi se alege versiunea cea mai eficientă Ex. K-means, ACO

32 Învăţare ne-supervizată - tipologie După modul de formare al clusterilor bazat pe densitatea datelor Densitatea şi conectivitatea datelor Formarea clusterilor de bazează pe densitatea datelor într-o anumită regiune Formarea clusterilor de bazează pe conectivitatea datelor dintr-o anumită regiune Funcţia de densitate a datelor Se încearcă modelarea legii de distribuţie a datelor Avantaj: Modelarea unor clusteri de orice formă

33 Învăţare ne-supervizată - tipologie După modul de formare al clusterilor Bazat pe un grid Nu e chiar o metodă nouă de lucru Poate fi ierarhic, partiţional sau bazat pe densitate Pp. segmentarea spaţiului de date în zone regulate Obiectele se plasează pe un grid multi-dimensional Ex. ACO

34 Învăţare ne-supervizată - tipologie După modul de lucru al algoritmului Aglomerativ 1. Fiecare instanţă formează iniţial un cluster 2. Se calculează distanţele între oricare 2 clusteri 3. Se reunesc cei mai apropiaţi 2 clusteri 4. Se repetă paşii 2 şi 3 până se ajunge la un singur cluster sau la un alt criteriu de stop Diviziv 1. Se stabileşte numărul de clusteri (k) 2. Se iniţializează centrii fiecărui cluster 3. Se determină o împărţire a datelor 4. Se recalculează centrii clusterilor 5. Se reptă pasul 3 şi 4 până partiţionarea nu se mai schimbă (algoritmul a convers) După atributele considerate Monotetic atributele se consideră pe rând Politetic atributele se consideră simultan

35 Învăţare ne-supervizată - tipologie După tipul de apartenenţă al datelor la clusteri Clustering exact (hard clustering) Asociază fiecarei intrări x i o etichetă (clasă) c j Clustering fuzzy Asociază fiecarei intrări x i un grad (probabilitate) de apartenenţă f ij la o anumită clasă c j o instanţă x i poate aparţine mai multor clusteri

36 Învăţare ne-supervizată algoritmi Clustering ierarhic aglomerativ K-means AMA Modele probabilistice Cel mai apropiat vecin Fuzzy Reţele neuronale artificiale Algoritmi evolutivi ACO

37 Învăţare ne-supervizată algoritmi Clustering ierarhic aglomerativ Se consideră o distanţă între 2 instanţe d(x i1, x i2 ) Se formează N clusteri, fiecare conţinând câte o instanţă Se repetă Determinarea celor mai apropiaţi 2 clusteri Se reunesc cei 2 clusteri un singur cluster Până când se ajunge la un singur cluster (care conţine toate instanţele)

Învăţare ne-supervizată algoritmi Mai, 2017 Inteligență artificială - sisteme inteligente (SVM, k-means) 38 Clustering ierarhic aglomerativ Distanţa între 2 clusteri c i şi c j : Legătură simplă minimul distanţei între obiectele din cei 2 clusteri d(c i, c j ) = max xi1єci, xi2єcj sim(x i1, x i2 ) Legătură completă maximul distanţei între obiectele din cei 2 clusteri d(c i, c j ) = min xi1єci, xi2єcj sim(x i1, x i2 ) Legătură medie media distanţei între obiectele din cei 2 clusteri d(c i, c j ) = 1 / (n i *n j ) xi1єci xi2єcj d(x i1, x i2 ) Legătură medie peste grup distanţa între mediile (centroizii) celor 2 clusteri d(c i, c j ) = ρ(μ i, μ j ), ρ distanţă, μ j = 1/ n j xiєcj x i

Învăţare ne-supervizată algoritmi K-means (algoritmul Lloyd/iteraţia Voronoi) Mai, 2017 Inteligență artificială - sisteme inteligente (SVM, k-means) 39 Pp că se vor forma k clusteri Iniţializează k centroizi μ 1, μ 2,..., μ k Un centroid μ j (i=1,2,..., k) este un vector cu m valori (m nr de atribute) Repetă până la convergenţă Asociază fiecare instanţă celui mai apropiat centroid pentru fiecare instanţă x i, i = 1, 2,..., N c i = arg min j = 1, 2,..., k x i - μ j 2 Recalculează centroizii prin mutarea lor în media instanţelor asociate fiecăruia pentru fiecare cluster c j, j = 1, 2,..., k μ j = i=1,2,...n 1 ci=j x i / i=1,2,...n 1 ci=j

40 Învăţare ne-supervizată algoritmi K-means

Învăţare ne-supervizată algoritmi Mai, 2017 Inteligență artificială - sisteme inteligente (SVM, k-means) 41 K-means Iniţializarea a k centroizi μ 1, μ 2,..., μ k Cu valori generate aleator (în domeniul de definiţie al problemei) Cu k dintre cele N instanţe (alese în mod aleator) Algoritmul converge întotdeauna? Da, pt că avem funcţia de distorsiune J J(c, μ) = i=1,2,..., N x i - μ cj 2 care este descrescătoare Converge într-un optim local Găsirea optimului global NP-dificilă

42 Învăţare ne-supervizată algoritmi Clusterizare bazată pe arborele minim de acoperire (AMA) Se construieşte AMA al datelor Se elimină din arbore cele mai lungi muchii, formându-se clusteri

43 Învăţare ne-supervizată algoritmi Modele probabilistice http://www.gatsby.ucl.ac.uk/~zoubin/cours e04/ul.pdf http://learning.eng.cam.ac.uk/zoubin/nipstu t.pdf

Învăţare ne-supervizată algoritmi Mai, 2017 Inteligență artificială - sisteme inteligente (SVM, k-means) 44 Cel mai apropiat vecin Se etichetează câteva dintre instanţe Se repetă până la etichetarea tuturor instanţelor O instanţă ne-etichetată va fi inclusă în clusterul instanţei cele mai apropiate dacă distanţa între instanţa neetichetată şi cea etichetată este mai mică decât un prag

45 Învăţare ne-supervizată algoritmi Clusterizare fuzzy Se stabileşte o partiţionare fuzzy iniţială Se construieşte matricea gradelor de apartenenţă U, unde u ij gradul de apartenenţă al instanţei x i (i=1,2,..., N) la clusterul c j (j = 1, 2,..., k) (u ij є [0,1]) Cu cât u ij e mai mare, cu atât e mai mare încrederea că instanţa x i face parte din clusterul c j Se stabileşte o funcţie obiectiv E 2 (U) = i=1,2,..., N j=1,2,...,k u ij x i - μ j 2, unde μ j = i=1,2,..., N u ij x i centrul celui de-al j-lea fuzzy cluster care se optimizează (min) prin re-atribuirea instanţelor (în clusteri noi) Clusering fuzzy clusterizare hard (fixă) impunerea unui prag funcţiei de apartenenţă u ij

Învăţare ne-supervizată algoritmi Algoritmi evolutivi Algoritmi Inspiraţi din natură (biologie) Iterativi Bazaţi pe populaţii de potenţiale soluţii căutare aleatoare ghidată de Operaţii de selecţie naturală Operaţii de încrucişare şi mutaţie Care procesează în paralel mai multe soluţii Metafora evolutivă Evoluţie naturală Individ Populaţie Cromozom Genă Fitness (măsură de adaptare) Rezolvarea problemelor Soluţie potenţială (candidat) Mulţime de soluţii Codarea (reprezentarea) unei soluţii Parte a reprezentării Calitate Mai, 2017 Încrucişare Inteligență şi mutaţie artificială - Operatori sisteme de inteligente căutare 46 (SVM, k-means) Mediu Spaţiul de căutare al problemei

47 Selecţie pentru perturbare Învăţare ne-supervizată algoritmi Algoritmi evolutivi Initializare populaţie P(0) Evaluare P(0) g := 0; //generaţia CâtTimp (not condiţie_stop) execută Repetă Selectează 2 părinţi p1 şi p2 din P(g) Încrucişare(p1,p2) =>o1 şi o2 Mutaţie(o1) => o1* Mutaţie(o2) => o2* Evaluare(o1*) Evaluare(o2*) adăugare o1* şi o* în P(g+1) Până când P(g+1) este completă g := g + 1 Sf CâtTimp Populaţie (părinţi) Încrucişare Selecţie de supravieţuire Mutaţie Populaţie (urmaşi)

48 Învăţare ne-supervizată algoritmi Algoritmi evolutivi Reprezentare Cromozomul = o partiţionare a datelor Ex. 2 clusteri cromozom = vector binar Ex. K clusteri cromozom = vector cu valori din {1,2,,k} Fitness Calitatea partiţionării Iniţializare Aleatoare Încrucişare Punct de tăietură Mutaţie Schimbarea unui element din cromozom

49 Învăţare ne-supervizată algoritmi ACO Preferinţa pentru drumuri cu nivel ridicat de feromon Pe drumurile scurte feromonul se înmulţeşte Furnicile comunică pe baza urmelor de feromon

50 Învăţare ne-supervizată algoritmi ACO Algoritm de clusterizare bazat pe un grid Obiectele se plasează aleator pe acest grid, urmând ca furnicuţele să le grupeze în funcţie de asemănarea lor 2 reguli pentru furnicuţe Furnica ridică un obiect-obstacol Probabilitatea de a-l ridica e cu atât mai mare cu cât obiectul este mai izolat (în apropierea lui nu se află obiecte similare) p(ridica)=(k + /(k + +f)) 2 Furnica depune un obiect (anterior ridicat) într-o locaţie nouă Probabilitatea de a-l depune e cu atât mai mare cu cât în vecinătatea locului de plasare se afla mai multe obiecte asemănătoare p(depune)=(f/(k - +f)) 2 k +, k - - constante f procentul de obiecte similare cu obiectul curent din memoria furnicuţei Furnicuţele au memorie reţin obiectele din vecinătatea poziţiei curente se mişcă ortogonal (N, S, E, V) pe grid pe căsuţele neocupate de alte furnici

51 Recapitulare Sisteme care învaţă singure (SIS) Maşini cu suport vectorial (MSV) Modele computaţionale care K-means rezolvă (în special) probleme de învăţare supervizată prin identificarea celui mai bun hyper-plan de separare a datelor Modele computaţionale care rezolvă probleme de clusterizare prin nu se cunosc etichetele claselor minimizarea diferenţelor între elementele aceleaşi calse maximizarea diferenţelor între elementele claselor diferite

52 Cursul următor A. Scurtă introducere în Inteligenţa Artificială (IA) B. Rezolvarea problemelor prin căutare Definirea problemelor de căutare Strategii de căutare Strategii de căutare neinformate Strategii de căutare informate Strategii de căutare locale (Hill Climbing, Simulated Annealing, Tabu Search, Algoritmi evolutivi, PSO, ACO) Strategii de căutare adversială C. Sisteme inteligente Sisteme bazate pe reguli în medii certe Sisteme bazate pe reguli în medii incerte (Bayes, factori de certitudine, Fuzzy) Sisteme care învaţă singure Arbori de decizie Reţele neuronale artificiale Maşini cu suport vectorial Algoritmi evolutivi Sisteme hibride

Informaţiile prezentate au fost colectate din diferite surse de pe internet, precum şi din cursurile de inteligenţă artificială ţinute în anii anteriori de către: Conf. Dr. Mihai Oltean www.cs.ubbcluj.ro/~moltean Lect. Dr. Crina Groşan - www.cs.ubbcluj.ro/~cgrosan Prof. Dr. Horia F. Pop - www.cs.ubbcluj.ro/~hfpop Mai, 2017 Inteligență artificială - sisteme inteligente (SVM, k-means) 53