INTELIGENŢĂ ARTIFICIALĂ Curs 11 Sisteme inteligente Sisteme care învaţă singure maşini cu support vectorial - K-means - Laura Dioşan
2 Sumar A. Scurtă introducere în Inteligenţa Artificială (IA) B. Rezolvarea problemelor prin căutare Definirea problemelor de căutare Strategii de căutare Strategii de căutare neinformate Strategii de căutare informate Strategii de căutare locale (Hill Climbing, Simulated Annealing, Tabu Search, Algoritmi evolutivi, PSO, ACO) Strategii de căutare adversială C. Sisteme inteligente Sisteme bazate pe reguli în medii certe Sisteme bazate pe reguli în medii incerte (Bayes, factori de certitudine, Fuzzy) Sisteme care învaţă singure Arbori de decizie Reţele neuronale artificiale Algoritmi evolutivi Maşini cu suport vectorial Algoritmi de clusterizare Sisteme hibride
3 Materiale de citit şi legături utile capitolul 15 din C. Groşan, A. Abraham, Intelligent Systems: A Modern Approach, Springer, 2011 Capitolul 9 din T. M. Mitchell, Machine Learning, McGraw-Hill Science, 1997 Documentele din directorul svm
4 Sisteme inteligente Sisteme expert Sisteme bazate pe reguli Bayes Fuzzy Arbori de decizie Reţele neuronale artificiale Maşini cu suport vectorial Algoritmi evolutivi Obiecte, frame-uri, agenţi Sisteme bazate pe cunoştinţe Inteligenţă computaţională
5 Sisteme inteligente SIS Învăţare automată Tipologie În funcţie de experienţa acumulată în timpul învăţării: SI cu învăţare supervizată SI cu învăţare nesupervizată SI cu învăţare activă SI cu învăţare cu întărire În funcţie de modelul învăţat (algoritmul de învăţare): Arbori de decizie Reţele neuronale artificiale Maşini cu suport vectorial (MSV) Algoritmi evolutivi Modele Markov ascunse
6 Sisteme inteligente SIS MSV Maşini cu suport vectorial (MSV) Definire Tipuri de probleme rezolvabile Avantaje Dificultăţi Tool-uri
7 Sisteme inteligente SIS MSV Definire Dezvoltate de Vapnik în 1970 Popularizate după 1992 Clasificatori liniari care identifică un hiperplan de separare a clasei pozitive de clasa negativă Au o fundamentare teoretică foarte riguroasă Funcţionează foarte bine pentru date de volum mare (analiza textelor, analiza imaginilor) Reamintim Problemă de învăţare supervizată în care avem un set de date de forma: (x d, t d ), cu: x d R m x d =(x d 1, x d 2,..., x d m) t d R t d {1, -1}, 1 clasă pozitivă, -1 clasă negativă cu d = 1,2,...,n,n+1,n+2,...,N Primele n date (se cunosc x d şi t d ) vor fi folosite drept bază de antrenament a MSV Ultimele N-n date (se cunosc doar x d, fără t d ) vor fi folosite drept bază de testare a MSV
8 Sisteme inteligente SIS MSV Definire MSV găseşte o funcţie liniară de forma f(x) = w x + b, (w -vector pondere) a.î. y i 1 1 if if w x w x i i b 0 b 0 w x + b = 0 hiperplanul de decizie care separă cele 2 clase
9 Sisteme inteligente SIS MSV Definire Pot exista mai multe hiperplane Care este cel mai bun hiperplan? MSV caută hiperplanul cu cea mai largă margine (cel care micşorează eroarea de generalizare) Algoritmul SMO (Sequential minimal optimization)
Sisteme inteligente SIS MSV Tipuri de probleme rezolvabile Probleme de clasificare Cazuri de date Liniar separabile Separabile Eroarea = 0 Ne-separabile Se relaxează constrângerile se permit unele erori C coeficient de penalizare Mai, 2017 Inteligență artificială - sisteme inteligente 10 (SVM, k-means)
11 Sisteme inteligente SIS MSV Cazuri de date Non-liniar separabile Spaţiul de intrare se transformă într-un spaţiu cu mai multe dimensiuni (feature space), cu ajutorul unei funcţii kernel, unde datele devin liniar separabile În MSV, funcţiile kernel calculează distanţa între 2 puncte kernelul ~ funcţie de similaritate
12 Sisteme inteligente SIS MSV Cazuri de date Non-liniar separabile Kernele posibile Clasice Polynomial kernel: K(x d1, x d2 ) = (x d1, x d2 + 1) p RBF kernel: K(x d1, x d2 ) = exp(- x d1 - x d2 2 /2σ 2 ) Kernele multiple Liniare: K(x d1, x d2 ) = w i K i (x d1, x d2 ) Ne-liniare Fără coeficienţi: K(x d1, x d2 ) = K 1 (x d1, x d2 )+ K 2 (x d1, x d2 )* exp(k 3 (x d1, x d2 )) Cu coeficienţi: K(x d1, x d2 ) = K 1 (x d1, x d2 )+ c 1 * K 2 *(x d1, x d2 ) exp(c 2 + K 3 (x d1, x d2 )) Kernele pentru stringuri Kernele pentru imagini Kernele pentru grafe
13 Sisteme inteligente SIS MSV Configurarea MSV Parametrii unei MSV Coeficientul de penalizare C C mic convergenţă lentă C mare convergenţă rapidă Parametrii funcţiei kernel (care kernel şi cu ce parametri) Dacă m (nr de atribute) este mult mai mare decât n (nr de instanţe) MSV cu kernel liniar (MSV fără kernel) K(x d1, x d2 ) = xd1 xd2 Dacă m (nr de atribute) este mare, iar n (nr de instanţe) este mediu MSV cu kernel Gaussian K(x d1, x d2 ) = exp(- x d1 - x d2 2 /2σ 2 ) σ dispersia datelor de antrenament Atributele instanţelor trebuie normalizate (scalate la (0,1)) m (nr de atribute) este mic, iar n (nr de instanţe) este mare Se adaugă noi atribute, iar apoi MSV cu kernel liniar
14 Sisteme inteligente SIS MSV MSV pentru probleme de clasificare supervizate cu mai mult de 2 clase Una vs. restul (one vs. all)
15 Sisteme inteligente SIS MSV MSV structurate Învăţare automată Normală f:x R Intrări de orice fel Ieşiri numerice (naturale, întregi, reale) Structurată:X Y Intrări de orice fel Ieşiri de orice fel (simple sau structurate) Informaţii structurate Texte şi hiper-texte Molecule şi structuri moleculare Imagini
16 Sisteme inteligente SIS MSV MSV structurate Aplicaţii Procesarea limbajului natural Traduceri automate (ieşiri propoziţii) Analiza sintactică şi/sau morfologică a propoziţiilor (ieşiri arborele sintactic şi/sau morfologic) Bioinformatică Predicţia unor structuri secundare (ieşirile grafe bi-partite) Predicţia funcţionării unor enzime (ieşirile path-uri în arbori) Procesarea vorbirii Transcrieri automate (ieşiri propoziţii) Transformarea textelor în voce (ieşiri semnale audio) Robotică Planificare (ieşirile secvenţe de acţiuni)
17 Sisteme inteligente SIS MSV Avantaje Pot lucra cu orice fel de date (liniar separabile sau nu, distribuit uniform sau nu, cu distribuţie cunoscută sau nu) Funcţiile kernel care crează noi atribute (features) straturile ascunse dintr-o RNA Dacă problema e convexă oferă o soluţie unică optimul global RNA pot asocia mai multe soluţii optime locale Selectează automat mărimea modelului învăţat (prin vectorii suport) În RNA straturile ascunse trebuie configurate de către utilizator apriori Nu învaţă pe derost datele (overfitting) RNA se confruntă cu problema overfitting-ului chiar şi cand modelul se învaţă prin validare încrucişată Dificultăţi Doar atribute reale Doar clasificare binară Background matematic dificil Tool-uri LibSVM http://www.csie.ntu.edu.tw/~cjlin/libsvm/ Weka SMO SVMLight http://svmlight.joachims.org/ SVMTorch http://www.torch.ch/ http://www.support-vector-machines.org/
18 Sisteme inteligente SIS Învăţare automată Tipologie În funcţie de experienţa acumulată în timpul învăţării: SI cu învăţare supervizată SI cu învăţare nesupervizată SI cu învăţare activă SI cu învăţare cu întărire În funcţie de modelul învăţat (algoritmul de învăţare): Arbori de decizie Reţele neuronale artificiale Maşini cu suport vectorial (MSV) Algoritmi evolutivi Modele Markov ascunse K-means
19 Învăţare nesupervizată Scop Găsirea unui model sau a unei structuri utile a datelor Tip de probleme Identificara unor grupuri (clusteri) Analiza genelor Procesarea imaginilor Analiza reţelelor sociale Segmentarea pieţei Analiza datelor astronomice Clusteri de calculatoare Reducerea dimensiunii Identificarea unor cauze (explicaţii) ale datelor Modelarea densităţii datelor Caracteristic Datele nu sunt adnotate (etichetate)
20 Învăţare ne-supervizată definire Împărţirea unor exemple neetichetate în submulţimi disjuncte (clusteri) astfel încât: exemplele din acelaşi cluster sunt foarte similare exemplele din clusteri diferiţi sunt foarte diferite Definire Se dă un set de date (exemple, instanţe, cazuri) Se determină Date de antrenament Sub forma atribute_data i, unde i =1,N (N = nr datelor de antrenament) atribute_data i = (atr i1, atr i2,..., atr im ), m nr atributelor (caracteristicilor, proprietăţilor) unei date Date de test Sub forma (atribute_data i ), i =1,n (n = nr datelor de test) o funcţie (necunoscută) care realizează gruparea datelor de antrenament în mai multe clase Nr de clase poate fi pre-definit (k) sau necunoscut Datele dintr-o clasă sunt asemănătoare clasa asociată unei date (noi) de test folosind gruparea învăţată pe datele de antrenament Alte denumiri Clustering
21 Învăţare ne-supervizată definire Supervizată vs. Ne-supervizată
22 Învăţare ne-supervizată definire Distanţe între 2 elemente p şi q є R m Euclideana d(p,q)=sqrt( j=1,2,...,m (p j -q j ) 2 ) Manhattan d(p,q)= j=1,2,...,m p j -q j Mahalanobis d(p,q)=sqrt(p-q)s -1 (p-q)), unde S este matricea de variaţie şi covariaţie (S= E[(p-E[p])(q-E[q])]) Produsul intern Cosine d(p,q)= j=1,2,...,m p j q j d(p,q)= j=1,2,...,m p j q j / (sqrt( j=1,2,...,m p j2 ) * sqrt( j=1,2,...,m q j2 )) Hamming Levenshtein numărul de diferenţe între p şi q numărul minim de operaţii necesare pentru a-l transforma pe p în q Distanţă vs. Similaritate Distanţa min Similaritatea max
23 Învăţare ne-supervizată exemple Gruparea genelor Studii de piaţă pentru gruparea clienţilor (segmentarea pieţei) news.google.com
24 Învăţare ne-supervizată proces Procesul 2 paşi: Antrenarea Testarea Învăţarea (determinarea), cu ajutorul unui algoritm, a clusterilor existenţi Plasarea unei noi date într-unul din clusterii identificaţi în etapa de antrenament Calitatea învăţării (validarea clusterizării): Criterii interne Similaritate ridicată în interiorul unui cluster şi similaritate redusă între clusteri Criteri externe Folosirea unor benchmark-uri formate din date pre-grupate
25 Învăţare ne-supervizată evaluare Măsuri de performanţă Criterii interne Distanţa în interiorul clusterului Distanţa între clusteri Indexul Davies-Bouldin Indexul Dunn Criteri externe Compararea cu date cunoscute în practică este imposibil Precizia Rapelul F-measure
26 Învăţare ne-supervizată evaluare Măsuri de performanţă Criterii interne Distanţa în interiorul clusterului c j care conţine n j instanţe Distanţa medie între instanţe (average distance) D a (c j ) = xi1,xi2єcj x i1 x i2 / (n j (n j -1)) Distanţa între cei mai apropiaţi vecini (nearest neighbour distance) D nn (c j ) = xi1єcj min xi2єcj x i1 x i2 / n j Distanţa între centroizi D c (c j ) = xi,єcj x i μ j / n j, unde μ j = 1/ n j xiєcj x i
27 Învăţare ne-supervizată evaluare Măsuri de performanţă Criterii interne Distanţa între 2 clusteri c j1 şi c j2 Legătură simplă d s (c j1, c j2 ) = min xi1єcj1, xi2єcj2 { x i1 x i2 } Legătură completă d co (c j1, c j2 ) = max xi1єcj1, xi2єcj2 { x i1 x i2 } Legătură medie d a (c j1, c j2 ) = xi1єcj1, xi2єcj2 { x i1 x i2 } / (n j1 * n j2 ) Legătură între centroizi d ce (c j1, c j2 ) = μ j1 μ j2
28 Învăţare ne-supervizată evaluare Măsuri de performanţă Criterii interne Indexul Davies-Bouldin min clusteri compacţi DB = 1/nc* i=1,2,...,nc max j=1, 2,..., nc, j i ((σ i + σ j )/d(μ i, μ j )) unde: nc numărul de clusteri μ i centroidul clusterului i σ i media distanţelor între elementele din clusterul i şi centroidul μ i d(μ i, μ j ) distanţa între centroidul μ i şi centroidul μ j Indexul Dunn Identifică clusterii denşi şi bine separaţi D=d min /d max Unde: d min distanţa minimă între 2 obiecte din clusteri diferiţi distanţa intracluster d max distanţa maximă între 2 obiecte din acelaşi cluster distanţa intercluster
29 Învăţare ne-supervizată - tipologie După modul de formare al clusterilor C. ierarhic C. ne-ierarhic (partiţional) C. bazat pe densitatea datelor C. bazat pe un grid
30 Învăţare ne-supervizată - tipologie După modul de formare al clusterilor Ierarhic se crează un arbore taxonomic (dendogramă) crearea clusterilor (recursiv) nu se cunoaşte k (nr de clusteri) aglomerativ (de jos în sus) clusteri mici spre clusteri mari diviziv (de sus în jos) clusteri mari spre clusteri mici Ex. Clustering ierarhic aglomerativ
31 Învăţare ne-supervizată - tipologie După modul de formare al clusterilor Ne-ierarhic Partiţional se determină o împărţire a datelor toţi clusterii deodată Optimizează o funcţie obiectiv definită Local doar pe anumite atribute Global pe toate atributele care poate fi Pătratul erorii suma patratelor distanţelor între date şi centroizii clusterilor min Ex. K-means Bazată pe grafuri Ex. Clusterizare bazată pe arborele minim de acoperire Bazată pe modele probabilistice Ex. Identificarea distribuţiei datelor Maximizarea aşteptărilor Bazată pe cel mai apropiat vecin Necesită fixarea apriori a lui k fixarea clusterilor iniţiali Algoritmii se rulează de mai multe ori cu diferiţi parametri şi se alege versiunea cea mai eficientă Ex. K-means, ACO
32 Învăţare ne-supervizată - tipologie După modul de formare al clusterilor bazat pe densitatea datelor Densitatea şi conectivitatea datelor Formarea clusterilor de bazează pe densitatea datelor într-o anumită regiune Formarea clusterilor de bazează pe conectivitatea datelor dintr-o anumită regiune Funcţia de densitate a datelor Se încearcă modelarea legii de distribuţie a datelor Avantaj: Modelarea unor clusteri de orice formă
33 Învăţare ne-supervizată - tipologie După modul de formare al clusterilor Bazat pe un grid Nu e chiar o metodă nouă de lucru Poate fi ierarhic, partiţional sau bazat pe densitate Pp. segmentarea spaţiului de date în zone regulate Obiectele se plasează pe un grid multi-dimensional Ex. ACO
34 Învăţare ne-supervizată - tipologie După modul de lucru al algoritmului Aglomerativ 1. Fiecare instanţă formează iniţial un cluster 2. Se calculează distanţele între oricare 2 clusteri 3. Se reunesc cei mai apropiaţi 2 clusteri 4. Se repetă paşii 2 şi 3 până se ajunge la un singur cluster sau la un alt criteriu de stop Diviziv 1. Se stabileşte numărul de clusteri (k) 2. Se iniţializează centrii fiecărui cluster 3. Se determină o împărţire a datelor 4. Se recalculează centrii clusterilor 5. Se reptă pasul 3 şi 4 până partiţionarea nu se mai schimbă (algoritmul a convers) După atributele considerate Monotetic atributele se consideră pe rând Politetic atributele se consideră simultan
35 Învăţare ne-supervizată - tipologie După tipul de apartenenţă al datelor la clusteri Clustering exact (hard clustering) Asociază fiecarei intrări x i o etichetă (clasă) c j Clustering fuzzy Asociază fiecarei intrări x i un grad (probabilitate) de apartenenţă f ij la o anumită clasă c j o instanţă x i poate aparţine mai multor clusteri
36 Învăţare ne-supervizată algoritmi Clustering ierarhic aglomerativ K-means AMA Modele probabilistice Cel mai apropiat vecin Fuzzy Reţele neuronale artificiale Algoritmi evolutivi ACO
37 Învăţare ne-supervizată algoritmi Clustering ierarhic aglomerativ Se consideră o distanţă între 2 instanţe d(x i1, x i2 ) Se formează N clusteri, fiecare conţinând câte o instanţă Se repetă Determinarea celor mai apropiaţi 2 clusteri Se reunesc cei 2 clusteri un singur cluster Până când se ajunge la un singur cluster (care conţine toate instanţele)
Învăţare ne-supervizată algoritmi Mai, 2017 Inteligență artificială - sisteme inteligente (SVM, k-means) 38 Clustering ierarhic aglomerativ Distanţa între 2 clusteri c i şi c j : Legătură simplă minimul distanţei între obiectele din cei 2 clusteri d(c i, c j ) = max xi1єci, xi2єcj sim(x i1, x i2 ) Legătură completă maximul distanţei între obiectele din cei 2 clusteri d(c i, c j ) = min xi1єci, xi2єcj sim(x i1, x i2 ) Legătură medie media distanţei între obiectele din cei 2 clusteri d(c i, c j ) = 1 / (n i *n j ) xi1єci xi2єcj d(x i1, x i2 ) Legătură medie peste grup distanţa între mediile (centroizii) celor 2 clusteri d(c i, c j ) = ρ(μ i, μ j ), ρ distanţă, μ j = 1/ n j xiєcj x i
Învăţare ne-supervizată algoritmi K-means (algoritmul Lloyd/iteraţia Voronoi) Mai, 2017 Inteligență artificială - sisteme inteligente (SVM, k-means) 39 Pp că se vor forma k clusteri Iniţializează k centroizi μ 1, μ 2,..., μ k Un centroid μ j (i=1,2,..., k) este un vector cu m valori (m nr de atribute) Repetă până la convergenţă Asociază fiecare instanţă celui mai apropiat centroid pentru fiecare instanţă x i, i = 1, 2,..., N c i = arg min j = 1, 2,..., k x i - μ j 2 Recalculează centroizii prin mutarea lor în media instanţelor asociate fiecăruia pentru fiecare cluster c j, j = 1, 2,..., k μ j = i=1,2,...n 1 ci=j x i / i=1,2,...n 1 ci=j
40 Învăţare ne-supervizată algoritmi K-means
Învăţare ne-supervizată algoritmi Mai, 2017 Inteligență artificială - sisteme inteligente (SVM, k-means) 41 K-means Iniţializarea a k centroizi μ 1, μ 2,..., μ k Cu valori generate aleator (în domeniul de definiţie al problemei) Cu k dintre cele N instanţe (alese în mod aleator) Algoritmul converge întotdeauna? Da, pt că avem funcţia de distorsiune J J(c, μ) = i=1,2,..., N x i - μ cj 2 care este descrescătoare Converge într-un optim local Găsirea optimului global NP-dificilă
42 Învăţare ne-supervizată algoritmi Clusterizare bazată pe arborele minim de acoperire (AMA) Se construieşte AMA al datelor Se elimină din arbore cele mai lungi muchii, formându-se clusteri
43 Învăţare ne-supervizată algoritmi Modele probabilistice http://www.gatsby.ucl.ac.uk/~zoubin/cours e04/ul.pdf http://learning.eng.cam.ac.uk/zoubin/nipstu t.pdf
Învăţare ne-supervizată algoritmi Mai, 2017 Inteligență artificială - sisteme inteligente (SVM, k-means) 44 Cel mai apropiat vecin Se etichetează câteva dintre instanţe Se repetă până la etichetarea tuturor instanţelor O instanţă ne-etichetată va fi inclusă în clusterul instanţei cele mai apropiate dacă distanţa între instanţa neetichetată şi cea etichetată este mai mică decât un prag
45 Învăţare ne-supervizată algoritmi Clusterizare fuzzy Se stabileşte o partiţionare fuzzy iniţială Se construieşte matricea gradelor de apartenenţă U, unde u ij gradul de apartenenţă al instanţei x i (i=1,2,..., N) la clusterul c j (j = 1, 2,..., k) (u ij є [0,1]) Cu cât u ij e mai mare, cu atât e mai mare încrederea că instanţa x i face parte din clusterul c j Se stabileşte o funcţie obiectiv E 2 (U) = i=1,2,..., N j=1,2,...,k u ij x i - μ j 2, unde μ j = i=1,2,..., N u ij x i centrul celui de-al j-lea fuzzy cluster care se optimizează (min) prin re-atribuirea instanţelor (în clusteri noi) Clusering fuzzy clusterizare hard (fixă) impunerea unui prag funcţiei de apartenenţă u ij
Învăţare ne-supervizată algoritmi Algoritmi evolutivi Algoritmi Inspiraţi din natură (biologie) Iterativi Bazaţi pe populaţii de potenţiale soluţii căutare aleatoare ghidată de Operaţii de selecţie naturală Operaţii de încrucişare şi mutaţie Care procesează în paralel mai multe soluţii Metafora evolutivă Evoluţie naturală Individ Populaţie Cromozom Genă Fitness (măsură de adaptare) Rezolvarea problemelor Soluţie potenţială (candidat) Mulţime de soluţii Codarea (reprezentarea) unei soluţii Parte a reprezentării Calitate Mai, 2017 Încrucişare Inteligență şi mutaţie artificială - Operatori sisteme de inteligente căutare 46 (SVM, k-means) Mediu Spaţiul de căutare al problemei
47 Selecţie pentru perturbare Învăţare ne-supervizată algoritmi Algoritmi evolutivi Initializare populaţie P(0) Evaluare P(0) g := 0; //generaţia CâtTimp (not condiţie_stop) execută Repetă Selectează 2 părinţi p1 şi p2 din P(g) Încrucişare(p1,p2) =>o1 şi o2 Mutaţie(o1) => o1* Mutaţie(o2) => o2* Evaluare(o1*) Evaluare(o2*) adăugare o1* şi o* în P(g+1) Până când P(g+1) este completă g := g + 1 Sf CâtTimp Populaţie (părinţi) Încrucişare Selecţie de supravieţuire Mutaţie Populaţie (urmaşi)
48 Învăţare ne-supervizată algoritmi Algoritmi evolutivi Reprezentare Cromozomul = o partiţionare a datelor Ex. 2 clusteri cromozom = vector binar Ex. K clusteri cromozom = vector cu valori din {1,2,,k} Fitness Calitatea partiţionării Iniţializare Aleatoare Încrucişare Punct de tăietură Mutaţie Schimbarea unui element din cromozom
49 Învăţare ne-supervizată algoritmi ACO Preferinţa pentru drumuri cu nivel ridicat de feromon Pe drumurile scurte feromonul se înmulţeşte Furnicile comunică pe baza urmelor de feromon
50 Învăţare ne-supervizată algoritmi ACO Algoritm de clusterizare bazat pe un grid Obiectele se plasează aleator pe acest grid, urmând ca furnicuţele să le grupeze în funcţie de asemănarea lor 2 reguli pentru furnicuţe Furnica ridică un obiect-obstacol Probabilitatea de a-l ridica e cu atât mai mare cu cât obiectul este mai izolat (în apropierea lui nu se află obiecte similare) p(ridica)=(k + /(k + +f)) 2 Furnica depune un obiect (anterior ridicat) într-o locaţie nouă Probabilitatea de a-l depune e cu atât mai mare cu cât în vecinătatea locului de plasare se afla mai multe obiecte asemănătoare p(depune)=(f/(k - +f)) 2 k +, k - - constante f procentul de obiecte similare cu obiectul curent din memoria furnicuţei Furnicuţele au memorie reţin obiectele din vecinătatea poziţiei curente se mişcă ortogonal (N, S, E, V) pe grid pe căsuţele neocupate de alte furnici
51 Recapitulare Sisteme care învaţă singure (SIS) Maşini cu suport vectorial (MSV) Modele computaţionale care K-means rezolvă (în special) probleme de învăţare supervizată prin identificarea celui mai bun hyper-plan de separare a datelor Modele computaţionale care rezolvă probleme de clusterizare prin nu se cunosc etichetele claselor minimizarea diferenţelor între elementele aceleaşi calse maximizarea diferenţelor între elementele claselor diferite
52 Cursul următor A. Scurtă introducere în Inteligenţa Artificială (IA) B. Rezolvarea problemelor prin căutare Definirea problemelor de căutare Strategii de căutare Strategii de căutare neinformate Strategii de căutare informate Strategii de căutare locale (Hill Climbing, Simulated Annealing, Tabu Search, Algoritmi evolutivi, PSO, ACO) Strategii de căutare adversială C. Sisteme inteligente Sisteme bazate pe reguli în medii certe Sisteme bazate pe reguli în medii incerte (Bayes, factori de certitudine, Fuzzy) Sisteme care învaţă singure Arbori de decizie Reţele neuronale artificiale Maşini cu suport vectorial Algoritmi evolutivi Sisteme hibride
Informaţiile prezentate au fost colectate din diferite surse de pe internet, precum şi din cursurile de inteligenţă artificială ţinute în anii anteriori de către: Conf. Dr. Mihai Oltean www.cs.ubbcluj.ro/~moltean Lect. Dr. Crina Groşan - www.cs.ubbcluj.ro/~cgrosan Prof. Dr. Horia F. Pop - www.cs.ubbcluj.ro/~hfpop Mai, 2017 Inteligență artificială - sisteme inteligente (SVM, k-means) 53