СОДРЖИНА 1. ОСНОВНИ ПОИМИ ОД ПОДАТОЧНОТО РУДАРЕЊЕ УЧЕЊЕ НА ПРЕДИКТИВНИ МОДЕЛИ...9

Μέγεθος: px
Εμφάνιση ξεκινά από τη σελίδα:

Download "СОДРЖИНА 1. ОСНОВНИ ПОИМИ ОД ПОДАТОЧНОТО РУДАРЕЊЕ УЧЕЊЕ НА ПРЕДИКТИВНИ МОДЕЛИ...9"

Transcript

1 СОДРЖИНА ВОВЕД ОСНОВНИ ПОИМИ ОД ПОДАТОЧНОТО РУДАРЕЊЕ ВОВЕД ОСНОВНИ ЗАДАЧИ ВО ПОДАТОЧНОТО РУДАРЕЊЕ УЧЕЊЕ НА ПРЕДИКТИВНИ МОДЕЛИ ВОВЕД УЧЕЊЕ НА ВЕРОЈАТНОСНИ МОДЕЛИ УЧЕЊЕ НА ДРВА ЗА ОДЛУЧУВАЊЕ Основен алгоритам за индукција на дрва за одлучување Перформанси на алгоритмите за учење на дрва за одлучување Индукција на дрва за одлучување со ID Индукција на дрва на одлучување со C4.5 алгоритам Нов критериум за селекција на атрибут при индукција на дрво Справување со континуални атрибути Справување со недостаток на вредности на атрибути Поткастрување на дрва за одлучување Проценка на грешка УЧЕЊЕ НА КЛАСИФИКАЦИСКИ ПРАВИЛА Алгоритам за генерирање на класификациски правила со прекривање Критериум за избор на услов Поткастрување на класификациски правила Incremental Reduced Error Pruning (IREP) Подобрување на IREP алгоритмот RIPPER алгоритам ФРЕКВЕНТНИ ЗАПИСИ И АЛГОРИТМИ ЗА НИВНО ГЕНЕРИРАЊЕ ОСНОВНИ ПОИМИ ЗА ФРЕКВЕНТНИ МНОЖЕСТВА ГЕНЕРИРАЊЕ НА ФРЕКВЕНТНИ МНОЖЕСТВА Простор за пребарување База на податоци АPRIORI АЛГОРИТАМ Опис на Аpriori алгоритамот Податочни структури Hash дрво Префиксно дрво МОДИФИКАЦИЈА НА АЛГОРИТМИТЕ ЗА УЧЕЊЕ НА ПРЕДИКТИВНИ МОДЕЛИ ОД СУМАРНИ ПОДАТОЦИ

2 4.1 МОТИВАЦИЈА МОДИФИКАЦИЈА НА АЛГОРИТМОТ ЗА УЧЕЊЕ НА ВЕРОЈАТНОСНИ МОДЕЛИ МОДИФИКАЦИЈА НА АЛГОРИТМОТ ЗА УЧЕЊЕ НА ДРВА ЗА ОДЛУЧУВАЊЕ МОДИФИКАЦИЈА НА АЛГОРИТМОТ ЗА УЧЕЊЕ НА КЛАСИФИКАЦИСКИ ПРАВИЛА ИМПЛЕМЕНТАЦИЈА НА АЛГОРИТМИТЕ ЗА УЧЕЊЕ НА ПРЕДИКТИВНИ МОДЕЛИ ОД СУМАРНИ ПОДАТОЦИ WEKA WAIAKATO ENVIROMENT FOR KNOWLEDGE ANALYSIS ОСНОВНИ КОМПОНЕНТИ ВО WEKA СИСТЕМОТ weka.core пакет weka.classifiers пакет Други пакети во WEKA системот ИПЛЕМЕНТАЦИЈА НА APRIORI АЛГОРИТАМ Класа ItemSet Класа FrequentItemsets ИМПЛЕМЕНТАЦИЈА НА АЛГОРИТМОТ ЗА УЧЕЊЕ НА ВЕРОЈАТНОСНИ МОДЕЛИ Класа NaiveBayes ИМПЛЕМЕНТАЦИЈА НА АЛГОРИТМОТ ЗА УЧЕЊЕ НА ДРВА ЗА ОДЛУЧУВАЊЕ Класа Ј Класа ClassifierTree Апстрактна класа ModelSelection и класа C45ModelSelection Апстрактна класа ClassifierSplitModel и класа C45Split Класа Distribution Класи InfoGainSplitCrit и GainRatioSplitCrit ИМПЛЕМЕНТАЦИЈА НА АЛГОРИТМОТ ЗА УЧЕЊЕ НА ПРАВИЛА ЗА ОДЛУЧУВАЊЕ Класа JRip Апстрактна класа Antd и класа NominalAntd Апстрактна класа Rule и класа RipperRule ТЕСТИРАЊЕ И ЕВАЛУАЦИЈА НА АЛГОРИТМИТЕ ЕВАЛУАЦИЈА НА АЛГОРИТМИТЕ ЗА УЧЕЊЕ ПРИМЕР Опис на множеството податоци NaiveBayes J JRIP...78 ЗАКЛУЧОК...80 КОРИСТЕНА ЛИТЕРАТУРА

3 ВОВЕД Количеството на податоци во сите области од општественото живеење се зголемува двојно скоро секоја година, на сметка на корисната информација што ја има сé помалку. За справување со овој проблем во последниве десет години е развиена мултидисциплинарна област наречена податочно рударење, чија основна задача е откривање на корисни информации од големи колчества на податоци. Податочното рударење израсна во важна истражувачка област, што има големи потенцијали и во реалниот живот за решавање на практични проблеми. Машинското учење ги дефинира техничките основи на податочното рударење. Се користи за извлекување на информации од бази на потатоци. Информацијата добиена со алгоритмите за машинско учење се претставува во разбирлива форма и може да се користи за разни цели. Целта на оваа дипломска работа е да се разгледаат основните алгоритми за учење на предиктивни модели и да се дефинираат модификации на основните алгоритми за учење на предиктивни модели од сумарни податоци. Сумарните податоци во овој случај опфаќаат користење на информацијата од фреквентните записи (frequent itemsets) за пресметка на дистрибуцијата на веројатност кај моделите. Дипломската работа концептуално е поделена во повеќе поглавја. Во поглавјето 1 се дадени основни поими од податочното рударење и терминологијата која ќе се користи во останатиот дел од дипломската работа. Поглавјето 2 ги содржи описите на основните алгоритми за учење на предиктивни модели. Во поглавјето 3 се дадени дефиниции на фреквентните записи и начините за нивно добивање. Поглавијата 4, 5 и 6 ги опишуваат модификација, имплементација, тестирање и споредба на алгоритмите

4 1. ОСНОВНИ ПОИМИ ОД ПОДАТОЧНОТО РУДАРЕЊЕ 1.1 Вовед Современите технологии во науката го прават лесно собирањето на податоци, но, анализата на податоци е многу бавна и скапа операција. Дефиниција 1.1 Откривањето на знаење од база на податоци (Knowledge Discovery in Databases KDD) е процес на идентификација на валидни, нови и потенцијално корисни и разбирливи шеми во податоците. 1 Дефиниција 1.2 Податочното рударење (Data Mining) e чекор во еден KDD процес кој користи компјутерски техники (алгоритми за податочно рударење имплементирани како компјутерски програми) за откривање на шеми во податоците. Мотивацијата за откривање на знаење од базите на податоци доаѓа од претпоставката дека можеби постојат корисни информации кои се кријат во масата на неанализирани подтатоци и според тоа се потребни полуавтоматски методи за лоцирање на интересни информации од податоците. Откриеното знаење може да бидат правила кои ги опишуваат карактеристиките на податоците, шеми кои се појавуваат често (frequently occuring patterns), кластери на објекти и сл. Еден KDD процес се состои од следниве пет чекори: Селекција: податоците што се користат во процесот на податочно рударење можат да се добијат од многу различни и хетерогени податочни извори. Првиот чекор ги собира податоците од различни бази на податоци, датотеки и други неелектронски извори. Предпроцесирање: податоците што се користат од процесот може да содржат неточни вредности или пак да недостасуваат вредности на податоците. Може да постојат податоци од повеќе извори и тие да се базираат на различна метрика. Во овој чекор се изведуваат различни активности, грешните податоци мораат да се корегираат или отстранат, а податоците што недостигаат мораат да се дополнат или да се претпостават. 1 Дефиницијата е превземена од: U.Fayyad, G.Piatetsky-Shapiro and P.Smyth. From data mining to knowledge discovery An overview, Advances in KD and DM, MIT Press, Cambrige, MA,

5 Трансформација: податоците од различни извори мора да се конвертираат во соодветен формат за процесирање. Некои од податоците можат да се кодираат или трансформираат во покорисен формат. За да се намали бројот на можни вредности на податоците може да се изврши редукцијата на податоци. Податочно рударење: врз основа на задачата која се реализира, во овој чекор се применуваат алгоритми врз трансформираните податоци за да се добијат саканите шеми од податоците. Интерпретација/евалуација: начинот на кој резултатите се прикажуваат на крајниот корисник е екстремно важно бидејќи од тоа зависи корисноста на резултатите. Во овој чекор се користат различни стратегии за визуелизација на добиените шеми. На слика 1-1 е прикажан тек на еден KDD процес, чии чекори се опишани погоре во текстот. Слика 1-1. KDD процес Податочното рударење вклучува различни алгоритми за решавање на различни видови проблеми. Сите овие алгоритми се обидуваат да ги нагодат параметрите на моделот според самите податоци. Алгоритмите ги испитуваат податоците и го определуваат моделот што е најблизок до карактеристиките на податоците кои се испитуваат. Влез во еден алгоритам за податочно рударење е табела која се состои од одреден број на атрибути (колони) и записи (редици). Излез од алгоритамот е шаблон (pattern) или множество од шаблони што се валидни за дадените податоци. Шаблон се дефинира како исказ (израз) од даден јазик, што ги опишува фактите на подмножество од дадените податоци и е поедноставна од обично набројување на сите факти од подмножеството. Типични шаблони кои се користат се: равенки (equations); класификациски и регресиски дрва (trees); и асоцијациски, класификациски и регресиски правила (rules). Повеќето од алгоритмите за податочно рударење доаѓаат од машинското учење и статистиката. Алгоритмите за машинско учење изведуваат пребарување - 5 -

6 (хеуристичко) врз простор од хипотези (шаблони) кои ги објаснуваат (важат за) дадените податоци. Според претходното, алгоритмите за податочно рударење вршат пребарување врз множеството од шаблони за интересни шаблони кои се валидни за дадените податоци. Моделот на податоците во еден алгоритам може да биде предиктивен или дескриптивен како што е прикажано на слика 1.2. На сликата се прикажани и најчестите задачи од податочното рударење кои го користат соодветниот модел. Слика 1-2 Модели и задачи на податочното рударење Предиктивниот модел прави предикција за вредностите на податоците со користење на познати резултати откриени од разлчни податоци. Предиктивното моделирање може да се направи со користење на други историски податоци. Ваквото моделирање вклучува класификација, регресија, анализа на временски серии и предикција. Предикцијата, исто така може да се користи да се индицира специфичен тип на функција на податочното рударење. Дескриптивниот модел врши идентификација на шаблони или врски меѓу податоците. За разлика од предиктивниот модел, дескриптивниот модел се користи за истржување на карактеристиките на податоците а не за предикција на нови карактеристики. Ваквото моделирање опфаќа кластерирање, сумирање, изведување на асоцијациски правила и откривање на секвенци. 1.2 Основни задачи во податочното рударење Класификацијата врши пресликување на податоците во предефинирани групи или класи. Обично за неа се вели дека претставува учење со надзор (supervised learning), бидејќи класите се определени пред да се истражуваат податоците. Алгоритмите за класификација бараат класите да бидат дефинирани врз основа на - 6 -

7 вредностите на атрибутите од податоците. Вообичаено класите се опишуваат со набљудување на карактеристични податоци што веќе припаѓаат на одредени класи. Препознавањето на облици е вид на класификација каде влезниот облик се класифицира во една од неколкуте класи, врз основа на сличност со веќе предефинираните класи. Регресијата се користи за пресликување на податоците во реална предиктивна променлива. Регресијата вклучува учење на функцијата што го врши пресликувањето. Таа претпоставува дека податоците се опишуваат со некаков тип на функција (линеарна, логистичка итн.) и потоа се определува функцијата што најдобро ги моделира дадените податоци. Анализата на временски серии ја опфаќа анализата на вредноста на атрибутот во тек на време. Вредностите обично се добиваат во еднакво оддалечени временски интервали. За визуелизација на временските серии се користат графици. Врз временските серии се изведуваат три основни функции. Прво, се користат мерки за растојание за да се одреди сличноста меѓу различните временски серии. Потоа, се испитува структурата на линијата за да се одреди нејзиното поведение. Третата функција би била да се искористат историските временски серии за предикција на идни вредности. Предикцијата може да се гледа како вид на класификација. Разликата се состои во тоа што предикцијата предвидува идна состојба, за разлика од класификацијата која предвидува сегашна (тековна) состојба. Апликациите за предикција вклучуваат препознавање на говор, машинско учење и препознавање на облици. Кластерирањето е слично со класификацијата со исклучок на тоа што групите не се преддефинирани туку се дефинираат со самите податоци. За кластерирањето обично се вели дека е учење без надзор. Алгоритмите за кластерирање вршат сегментација на податоците во групи што можат или не мораат да се исклучуваат меѓусебно. Кластерирањето обично се изведува со определување на сличности меѓу податоците со преддефинирани атрибути. Најсличните податоци според некаков критериум се групираат во кластери. Бидејќи кластерите не се преддефинирани, потребна е помош од доменски експерт за толкување на значењето на добиените кластери. Сумирањето врши пресликување на податоци во подмножества со едноставни описи. Ова всушност претставува генерализација на податоците. Сумирањето врши извлекување на корисни и репрезентативни информации за базата на - 7 -

8 податоци. Тоа може да се изведе со извлекување на делови од податоци или со изведување на сумарни информации од податоците. Асоцијациското правило е модел што определува специфичен тип асоцијации меѓу податоците. Овој модел врши откривање на поврзаноста меѓу самите податоци во базата на податоци. Откривањето на секвенци се користи за да се одредат секвентни облици во податоците. Овие облици се базираат на временска секвенца на акции. Облиците се слични на асоцијациите на податоците, но поврзаноста се базира на време

9 2. УЧЕЊЕ НА ПРЕДИКТИВНИ МОДЕЛИ 2.1 Вовед Дефиниција 2.1. Нека е дадена база на податоци D { t t,..., } записи и множество на класи C { C,.., } 1 C m = составена од 1, 2 =. Проблемот на класификација е да се t n дефинира пресликување f : D C каде секој запис t i се доделува на една класа. Класата C j C j ги содржи точно оние записи кои се пресликуваат { t f ( t ) = C 1 i n t D} =,,. i i j i во неа, т.е Претходно дадената дефиниција ја гледа класификацијата како пресликување од базата на податоци во множеството на класи. Класите се претходно дефинирани, не се преклопуваат и ја делат целата база на податоци на области. Секоја област претставува точно една класа. Секоја запис од базата на податоци се доделува точно на една класа. Проблемот на класификација всушност се имплементра во две фази и тоа: 1. Се креира конкретен модел со евалуација на податоците за обучување (training data). Оваа фаза на влез ги има податоците за обучување, а на излез ја дава дефиницијата на моделот. Креираниот модел ги класифицира податоците за обучување што е можно поточно. 2. Се применува моделот креиран во фаза 1 во класификацијата на записи од база на податоци чија класа не е позната. Постојат три основни методи што се користат за решавање на проблеми на класификација: Спецификација на граници на области. Класификацијата се изведува со поделба на влезниот простор на потенцијалните записи од базата во области, каде секоја област се поврзува само со една класа. Користење распределби на веројатност. За секоја дадена класа C j, P ( t i C j ) е функција на распределба на веројатноста за секоја класа за еден запис i t. Ако веројатноста на појавување на секоја класа ( ) P е позната, C j - 9 -

10 тогаш ( C ) P( t C ) на класата P j i j се користи за проценка на веројатноста дека i C j. t припаѓа Користење на апостериорна веројатност. Ако е дадена вредноста на податокот t i, би сакале да ја определиме веројатноста дека t i е во класата C. Ова се означува со ( ) j P C j t i и се нарекува апостериорна веројатност. Еден пристап при класификацијата е да се определи апостериорната веројатност за секоја класа и тогаш да се додели t i на онаа класа со најголема веројатност. 2.2 Учење на веројатносни модели Во овој дел ќе биде разгледано учењето на веројатносни модели и поконкретно Баесовата класификација. Баесовата класификација се базира врз Баесовата теорема дадена со равенството (2.1) ( X) P H ( ) ( ) P( X) P X H P H = (2.1) каде што P( X ) е веројатноста на Х, а ( ) P X H е условната веројатност на Х ако е познато H. Оваа теорема се користи за проценка на веројатноста примерокот од базата да припаѓа на секоја од можните класи при решавање на проблем од класификација. Примерок од базата X ( x x ) ( A x ) i = i за секој од n те атрибути i = 1,..., n се претставува како коњункција на услови A. Нека постојат m класи, и нека H е дефинирано врз множеството Cj C = cj, j = 1,..., m, каде С е класата а c j е можната вредност на класата. Баесовиот класификатор ќе му ја додели на новиот примерок онаа вредност на класата P( Ck X ) т.е ( k ) ( j ) ( j X) P C c k што ја максимизира веројатноста P C X P C X, j = 1,..., m. Според Баесовата теорема, ( j) P( Cj) P X C =. Бидејќи ( ) P( X) е само да се максимизира веројатноста P( X Cj) P( C j). P X е константно за сите класи, потребно

11 Главната претпоставка на наивниот Баесов класификатор е тоа што класите мора меѓусебно да бидат условно независни (ако е дадена вредноста на класата, атрибутите треба да бидат независни меѓусебе). Ова доведува членот P( Cj X ) да се замени со производ од веројатности P( Ai = xi Cj) i. За разлика од условната веројатност P( X C j ), индивидуалните условни веројатности ( i i j) P A = x C можат лесно да се проценат од податоците за обучување на моделот. Истото важи и за класните веројатности P( C j ). Учењето на наивниот Баесов класификатор се состои од проценка на априорните веројатности P( Cj) PC ( cj) = = и P( A v C ) = за секоја од можните вредности i ik k c j на класата С и секоја од вредностиите на атрибутите v ik за секој од атрибутите A i. ( j ) j P C се проценува со броење на бројот на примероци nj N( cj) = на класата j c и делење со вкупниот број на податоци за обучување т.е P( C ) ( ) P A v C = може да се процени како N( Ai vik C cj) i ik k N( C c j ) = т.е P( A v C ) i ik k ( i = ik = j) N( C = cj) N A v C c = =. j n =. n = = поделено со Претходно опишаната постапка за проценка на веројатности се базира на релативната фреквенцијата на примероците, што резултира во неточна проценка на веројатноста во случаите кога имаме мал број на примероци. Во тој случај е пожелно да се користат други методи за проценка на веројатноста како што се Лапласовата проценка и m проценката. Лапласовата проценка на веројатноста е дадена со равенството (2.2) ( j Ai) P C каде k е бројот на можните класи. ( j Ai) N C, + 1 = N A + k ( ) i (2.2) m проценката предвид ги зема и априорните веројатности и воведува параметар на методот m. Колку параметарот на методот е поголем, толку помалку им веруваме на податоците за обучување на моделот. Равенството (2.3) ја дава проценката на веројатноста со помош на овој метод

12 ( j Ai) P C ( j, i) + ( j) N C A m P C = N A + m ( ) i (2.3) каде априорната веројатност се пресметува со Лапласова проценка дадена со равенство (2.4) ( j) + 1, 1.. N C P( Cj) = j = k N + k (2.4) Наивниот Баесов класификатор може да се разгледува како дескриптивен и предиктивен тип на алгоритам. Веројатностите се дескриптивни и се користат за предикција на припадност на одредена класа на дадена торка од базата. Наивниот Баесов класификатор има неколку предности. Прво, тој е многу лесен за користење. Второ, за разлика од другите пристапи за класификација потребно е само едно поминување на податоците за обучување. Овој пристап многу лесно се справува со вредности што недостигаат со нивно едноставно испуштање при пресметката на веројатноста. Во случаите кога постојат едноставни релации меѓу атрибутите оваа техника за класификација дава добри резулатати. Иако овој пристап е многу едноставен, не секогаш можат да се добијат задоволителни резултати. Прво, атрибутите во реалниот свет обично не се независни и затоа би можеле да користиме само одредено подмножество на атрибути што би биле независни меѓу себе. Понатаму овој пристап не може да се справи со континуални податоци туку само со дискретни. За решавање на овој проблем се користат различни методи како што се дискретизацијата на континуалната променлива или проценка на веројатноста на континуалната променлива со помош на Гаусова распределба и сл. Сите овие модификации понатаму влијаат на резулататите и затоа е најдобро методата да се користи врз дискретни податоци. 2.3 Учење на дрва за одлучување Основен алгоритам за индукција на дрва за одлучување Дефиниција 2.2. Нека е дадена база на податоци D { t t,..., } = каде ti = ti 1,..., tih и шемата на базата на податоци ги содржи следниве атрибути 1, 2 t n

13 { A A A }. Нека е дадено и множеството на класи C { C,.., },,..., h 1 2 =. Дрво на одлучување (Decision Tree DT) или класификациско дрво е дрво поврзано со D, што ги има следниве својства: Секој внатрешен јазел се означува со атрибут A i. Секоја гранка се означува со предикат што може да се примени врз атрибутот поврзан со родителот. Секој лист се означува со класа C j. Решавањето на проблемот на класификација со користење на дрва на одлучување е процес кој се изведува во две фази: 1. Индукција на дрва на одлучување: Конструкција на дрво на одлучување со користење на податоци за обучување. 2. За секој запис t i припадноста на одредена класа. D, се применува дрвото за одлучување да се одреди Врз основа на дефиницијата 2.1 на проблемот на класификација, конструираното дрво ја претставува потребната логика за извршување на пресликувањето. Постојат многу предности за употреба на дрва на одлучување за класификација. Тие се ефикасни и се лесни за употреба. Може да се генерираат правила кои се лесни за интерпретација и разбирање. Тие одговараат добро и за големи бази на податоци бидејќи големината на дрвото е независна од големината на базата. Секоја торка мора да се помине низ дрвото. За ова е потребно време пропорционално на висината на дрвото, која е фиксна. Дрва може да се конструираат за податоци со многу атрибути. Кај дрвата на одлучување постојат и негативности. Прво, тие не се справуваат лесно со континуални податоци. Домените на ваквите атрибути мора да се поделат во категории кои понатаму треба да се опфатат во алгоритмите. Пристапот кој се користи во овој случај е да се подели доменскиот простор во правоаголни региони. Понатаму, тешко се решава проблемот на недостаток на одредени податоци бидејќи во тој случај не може да се одреди точната гранка по која би се движеле по дрвото. Бидејќи дрвото се конструира од податоци за обучување може да настане претерано нагодување. Ова може да се надмине со поткастрување на дрвото (tree pruning). Во процесот на индукција на дрвото на одлучување се игнорираат корелациите меѓу атрибутите во базата. 1 C m

14 Постојат повеќе алгоритми за учење на дрва за одлучување. Еден таков симлифициран алгоритам ќе биде разгледан подолу. Алгоритам 2.1 Влез: D // Податоци за обучување Излез: Т // Дрво за одлучување ГрадиДрво алгоритам T=0; Определи го најдобриот критериум за поделба; Т=Креирај коренов јазол и означи го со атрибутот за поделба; Т=Додај гранка на кореновиот јазол за секој предикат за поделба и означи; За секоја гранка { D=База креирана по примена на предикатот за поделба врз D; Ако по оваа патека сме стигнале до крај тогаш Т =Креирај лист и означи го со соодветната класа; Инаку Т =ГрадиДрво(D); T=Додади го Т на гранката; } Перформанси на алгоритмите за учење на дрва за одлучување Најважните фактори што влијаат во перформансите на алгоритмите за градење на дрва за одлучување се големината на множеството за обучување и начинот како се определува најдобриот атрибут за поделба. Кај повеќето алгоритми се опфатени следниве прашања: Избор на атрибут за поделба: Врз основа на тоа кои атрибути ќе бидат избрани како атрибути за поделба ќе има влијание врз перформансите при примената на креираното дрво врз нови податоци. Некои атрибути се подобри за поделба од други атрибути. Изборот на добар атрибут вклучува не само испитување на податоците од множеството за обучување туку и погодни информации од доменскиот експерт. Редослед на атрибутите за поделба: Редоследот по кој се избираат атрибутите, исто така е битно прашање бидејќи од тоа зависи големината

15 на дрвото и со добар редослед на атрибутите може да се намалат непотребните споредувања при евалуацијата на моделот. Поделби: Со претходното прашање е поврзано колку точно поделби да се направат. Кај некои атрибути, доменот е мал, така да бројот на поделби очигледно се базира врз изгледот на доменот. Ако доменот е континуален или има голем број на вредности, не е лесно да се определи бројот на поделби кои би се користел во алгоритмот. Структура на дрвото: За да се зголемат перформансите на примената на дрвото за класификација, пожелно е да се користи балансирано дрво со што помалку нивоа. Во овој случај потребни се покомплексни споредби со повеќенасочно гранење. Некои од алгоритмите користат само бинарни дрва. Критериум за запирање: Креирањето на дрвото дефинитивно запира кога податоците за обучување се совршено класифицирани. Може да постојат ситуации кога е пожелно порано запирање на индукцијата за да се избегне креирањето на големи дрва. Ова е еден компромис меѓу точноста на класификацијата и перформансите. Може да се изведе предвременото запирање на индукцијата за да се избегне претераното нагодување (overfitting) на дрвото. Податоци за обучување: Структурата на дрвото за одлучување зависи од од податоците за обучување. Ако множеството за обучување е премногу мало, тогаш генерираното дрво може да не биде доволно специфично за да работи добро со поопшти податоци. Ако множеството на податоци за обучување е премногу големо, тогаш креираното дрво ќе биде пренатрупано. Поткастрување: Откога дрвото е веќе креирано, потребни се модификации на дрвото за да се подобрат перформансите на дрвото во текот на фазата на класификација. Фазата на поткастрување може да ги отстрани редундантните споредби или да отстрани одредени поддрва за да постигне подобри перформанси. Изгледот на дрвото на одлучување исклучително зависи од податоците за обучување и алгоритмот за индукција на дрвото. Пожелно е да се добие дрво кое

16 работи добро врз податоците за обучување. Некои од алгоритмите креираат само бинарни дрва. Овие дрва се лесни за индукција, ама тие имаат тенденција да имаат поголема длабочина. Перформансите на ваквите дрва можат да бидат полоши бидејќи обично е потребен поголем број на споредби. Глобално гледано, овие споредби се сепак поедноставни од повеќенасочното гранење така да вкупните преформанси на бинарните дрва се споредливи со останатите. Алгоритмите за индукција на дрвата за одлучување можат да го изградат дрвото и потоа да извршат негово поткастрување за класификацијата да биде поефикасна. Со техниките на поткастрување, делови од дрвото можат да се отстранат или да се комбинираат за да се редуцира вкупната големина на дрвото. Поткаструвањето може да се изведува додека се креира дрвото, со тоа да се избегне дрвото да стане премногу големо, или вториот пристап е да се поткастри дрвото по градењето. Временската и просторна комплексност на алгоритмите за индукција на дрва за одлучување зависи од големината на податоците за обучување q, бројот на атрибути h и обликот на креираното дрво. Во најлош случај, дрвото може да биде многу длабоко и да не е многу разгрането. Додека се гради дрвото, за секој од јазлите, секој атрибут ќе биде испитан за да се определи дали е најдобар. Тоа доведува временската комплексност на дрвото на дрвото да биде О ( hqlog q ). Времето што е потребно да се класифицира база со големина n се базира на висината на дрвото. Ако се претпостави висина на дрвото О( log q ), тогаш комплексноста е О( nlog q ). Понатаму ќе бидат разгледани некои од постојните алгоритми за градење на дрва за одлучување Индукција на дрва за одлучување со ID3 Еден пристап при индукцијата на дрва за одлучување е да се генерираат сите можни дрва што точно го класифицираат множеството за обучување и потоа да се избере наједноставното од нив. Бројот на такви дрва е конечен, но е многу голем, така да ваквиот пристап би бил корисен само во случаевите кога имаме мали дрва за одлучување. ID3 [Quinlan 79] алгоритамот е дизаниран со цел да помогне во случаите кога постојат многу атрибути и множеството за обучување содржи многу торки и кога е потребно да се добие разумно добро дрво за одлучување без

17 многу големо пресметување. Тој конструира едноставни дрва за одлучување, но пристапот што го користи не гарантира дека не постојат и други дрва за одлучување кои се подобри. За потребите на ID3 алгоритамот била развиена хеуристика која користи поими и релации од теорија на информации (ентропија и информациона добивка), со чија помош се одлучува како да се подели влезното множество од торки во секоја фаза од процесот на индукција на дрвото и со тоа се овозможува да се конструираат помали и поефикасни дрва за одлучување. ID3 алгоритамот работи на следниов начин: нека претпоставиме дека торките од базата припаѓаат само на две класи т.е D = PE NE, каде PE е множеството од позитивни примероци и NE е множеството од негативни примероци, p n = PE и = NE. Торката од базата t припаѓа во множеството PE со веројатност ( PE) P t = p p+ n и во множеството NE со веројатност P( t NE) n = p+ n. Со користење на хеуристика од теоријата на информации, дрвото на одлучување се смета како извор на пораки,,pe или,,ne, каде очекуваното количество на информација што е потребно да се генерира пораката е дадено со релацијата (2.5) (, ) I pn p p n n log2 log 2,кога p 0; n 0 = p+ n p+ n p+ n p+ n (2.5) 0, друго Ако се користи атрибутот А со домен на вредности { v1,..., v N } како корен на дрвото за одлучување, ќе се изврши поделба на D во подмножества { D1,..., D N } каде D i ги содржи оние торки од D чија вредност на атрибутот А е v i. Нека содржи p i торки од PE и ni торки од NE. Очекуваното количество на информација што е потребно за поддрвото на D e I( p, n ) i i i D i. Очекуваното количество на информација за дрвото чиј корен е А, EI( A ) е дадено со релацијата (2.6) p + n N i i (2.6) i= 1 p+ n i i ( ) = I( p, n ) EI A каде тежинскиот однос за i тата гранка е пропорционален на бројот на примероци од D што припаѓаат на D i. Информациската добивка со разгранување на дрвото според атрибутот А, G( A ) е дадена со релацијата (2.7)

18 ( ) (, ) ( ) G A = I pn EI A (2.7) ID3 врши испитување на сите кандидати атрибути и го избира оној атрибут А што ја максимизира информациската добивка G( A ), го конструира дрвото, и потоа го користи истиот процес рекурзивно за да конструира дрва за одлучување за останатите подмножества { D1,..., D N }. За секое подмножество D i ако сите примероци од D i се позитивни, се креира,,yes лист и се запира; ако сите примероци се негативни се креира,,no лист и се запира; во секој друг случај се избира друг атрибут на истиот начин како и опишаниот и се прави нова поделба. Максималниот број на листови во дрвото е p+ n (вкупниот број на податоци за обучување) и максималната должина од коренот до секој лист е а, каде а е бројот на атрибути. Вкупниот број на јазли во дрвото за одлучување е секогаш помал од ( n) a p+. За коренот ID3 алгоритмот треба да ја провери вредноста на секој атрибут А за секоја торка за да се пресмета информационата добивка G( A ). ( ) Временската комплексност за ова е Oba( p n) + каде b е максималниот број на можни вредности за еден атрибут. Временската комплексност на другите јазли е секогаш помала од таа на коренот. Според тоа најлошата временска комплексност 2 ( ) ( ) кај ID3 алгоритмот е ( ) ( ) 2 ( ) Oba p+ n a p+ n = Oba p+ n. Една од главните предности на ID3 е тоа што не е потребно некакво предходно знаење за прблемот. Тоа значи дека алгоритмот може да се примени на секое синтаксички добро формирано множество за обучување. Ова, заедно со високите перформанси на алгоритамот, овозможуваат ID3 и неговите наследници како што се C4.5 да станат централни компоненти во неколку комерцијални системи Индукција на дрва на одлучување со C4.5 алгоритам Алгоритмот C4.5 врши подобрување на ID3 алгоритмот за прашања кога имаме континуалини атрибути, справување со податоци кои недостигаат и го воведува поткаструвањето на дрвото за да се зголемат перформансите кога имаме нови (непознати) податоци

19 Нов критериум за селекција на атрибут при индукција на дрво ID3 алгоритмот работи незадоволително кога постојат атрибути со променлив број на можни дискретни вредности. Заради тоа е предложена нова хеуристика, наречена gain ratio criterion наместо информациската добивка G( X ) за селекција на атрибут при индукција на дрва. Кај овој критериум се користи односот ( ) / ( ) G X IV X каде N i i i i = i= 1 p+ n p+ n ( ) log2 IV X p + n p + n каде N, pn, се претходно дефинирани. Кога IV( X) 0 за поделба се избира оној атрибут кој го максимизира горниов однос Справување со континуални атрибути ID3 алгоритмот работи само со дискретни атрибути, но повеќето од множествата на податоци (datasets) содржат и континуални атрибути. Проширувањето на алгоритмот се состои од воведување на бинарна поделба за континуалните атрибути. Прагот за поделба обично се поставува на средина меѓу вредностите кои ги даваат границите на концептот. Кога дрвото за одлучување тестира еден дискретен атрибут имаме по една гранка за секоја вредност на атрибутот. Бидејќи поделбата кај континуалните атрибути е само бинарна, постои разлика меѓу континуалните и нумеричките атрибути: откако ќе се изврши гранење на еден номинален атрибут се искористува неговата целокупна информација а кај континуалните атрибути при секоја поделба имаме потреба од нова информација. Според тоа еден дискретен атрибут може да се тестира само еднаш во патеката од коренот до еден лист додека нумерички атрибут може да се појави повеќе пати

20 Справување со недостаток на вредности на атрибути Следното подобрување на ID3 алгоритмот се справува со прашањето на вредности што недостасуваат. Во случај кога го применуваме дрвото за класификација на инстанца во која недостасуваат вредности за одредени атрибути ја изведуваме следната постапка: се дели инстанцата на делови со користење на нумеричка тежинска шема и испраќаме дел од инстанцата по секоја од гранките пропорционално на бројот на инстанци за обучување во соодветната гранка; различни делови од инстанцата ќе пристигнат до листовите и одлуките потоа мораат да се рекомбинираат со користење на истите тежини за да се добие резултантната класа. Друго прашање кое се поставува е како да се подели множеството за обучување кога веќе е избран атрибутот за поделба, за да се овозможи истата рекурзивна постапка за индукција да се примени и врз јазлите синови, во случај кога имаме недостаток на вредности за тој атрибут. Овде се користи истата постапка како и претходно. Инстаницте за кои недостига вредноста на релевантниот атрибут се делат на делови, по еден дел за секоја гранка во ист однос како и познатите инстанци кои се движат по таа гранка. Придонесот на деловите од инстанцата во одлуката кај подолните јазли се пресметува со помош на информациската добивка која е модифицирана со тежинските фактори Поткастрување на дрва за одлучување Кај C4.5 постојат две стратегии за поткастрување и тоа: пост-поткастрување (postpruning) и пред-поткастрување (prepruning). Ако вршиме индукција на комплетното дрво и потоа вршиме негово поткастрување тогаш ја користиме стратегијата на пост-поткастрување. Пред-поткаструвањето се користи кога сакаме да сопреме со индукцијата на поддрва во текот на градењето на дрвото. Кај алгоритмите за индукција на дрва за одлучување најчесто се користи стратегијата на пост-поткастрување. За пост-поткастрување постојат две значително различни операции и тоа: замена на поддрво со лист (subtree replacement) и подигување на поддрво (subtree raising). За секој јазол алгоритмот за учење мора да одлучи дали ќе изврши замена на

21 поддрво со лист, ќе изврши подигнување на поддрвото или ќе го остави дрвото непоткастрено (непроменето). Идејата на замената на поддрво со лист е да селектира некои од поддрвата и да ги замени со листови. Ваквата операција ќе доведе до намалување на точноста (accuracy) врз множеството за обучување ама може да доведе до зголемување на точноста ако дрвото се примени врз независно избрано множество за тестирање. Кај ваквото поткастрување се движиме од листовите кон коренот. Подигнувањето на поддрвото е покомплексна операција и не секогаш е јасно дали се исплати да се користи. Во овој случај се заменува поддрво со неговото најчесто користено поддрво. Овде се подигнува поддрвото од тековната локација на јазол кој се наоѓа погоре во дрвото Проценка на грешка За да се одлучиме дали ќе извршиме замена на внатрешен јазол со лист или ќе вршиме замена на внатрешен јазол со еден од јазлите подолу (подигнување на поддрво) мораме да извршиме оценка на ратата на грешка која би се очекувала за конкретен јазол ако е дадено независно множество податоци за тестирање. Оценката на грешката потребно е да се изврши за внатрешните јазли и за листовите. За оценка на грешката не би требало да се користи множеството податоци за обучување бидејќи тоа не би довело до какво било потксатрување бидејќи дрвото е конструирано точно да го задоволи тоа множество. Еден начин на пресметка на грешката во секој јазол е да се издвои еден дел од податоците и да се користи како независно множество за тестирање. Ова се нарекува поткастрување со редуцирање на грешката (reduced error pruning). Негативност на оваа метода е тоа што дрвото кое се индуцира се базира на помалку податоци. Алтернативен начин на оценка на грешката е да се користи самото множество за обучување. Идејата на оваа метода е да се разгледа множеството на инстанци кои пристигнуваат до секој јазол и да се избере мајоритетната класа да го претставува тој јазол. Оваа постапка доведува до Е грешки од вкупно N инстанци. Нека сега претпоставиме дека вистинската веројатност на грешка во јазелот е q, и дека N-те инстанци се генерираат од Бернулиев случаен процес со параметар q, од кои Е

22 грешни. Метематиката која доведува до формулата за грешката е следнава: ако е дадена конкретна доверливост (confidence) c (кај с4.5 обично се зема 0.25) тогаш f q P > z = c q( 1 q) / N каде N е број на инстанци, f = E/ N е добиената рата на грешка и q е вистинската рата на грешка. За проценката на грешката го добиваме следниот резултат: e = z f f z f + + z + 2N N N 4N 2 z 1+ N каде z е бројот на стандардни девијации што одговараат на доверливоста с и за c = 0.25, z е Учење на класификациски правила Класификациските правила се алтернативен начин за претставување на знаење добиено со примена на алгоритмите на податочното рударење. Едно класификациско правило се состои од множество на услови (antecedents) и последица (consequent). IF множество на услови THEN заклучок Множеството од предуслови претставува низа од тестови кои се изведуваат врз инстанците од базата, а последицата (заклучокот) ја дава класата (класите) што одговараат на самите инстанци или пак ја дава распределбата на веројатност на класите. IF атрибут1 релација1 вредност1 AND Атрибут2 релација2 вредност2 AND... атрибутm релацијаm вредностm AND THEN Class=classX

23 Предусловите се поврзани меѓусебно со логичка И функција и за правилото да биде задоволено потребно е сите тестови да бидат успешни. Во некои формулации на правила предусловите може да бидат и општи логички изрази. Индивидуалните правила меѓу себе се поврзани со логичка ИЛИ функција т.е ако е исполнето едно правило врз инстанцата која ги задоволува условите се применува заклучокот од правилото. Можно е да настане и конфликт во случаите кога за една инстанца важат повеќе правила со различни закклучоци. Класификациските правила можат да се добијат и директно од класификациското дрво. За секој лист се генерира по едно правило. Множеството од услови вклучува по еден услов за секој јазол на патеката од коренот до тој лист, а заклучокот од правилото е класата што е определена со листот. Оваа постапка продуцира правила кои се еднозначни и редоследот според кој тие се проверуваат не е битен. Во општ случај, правилата кои се добиваат од класификациските дрва се многу покомплексни од што е потребно и обично се врши поткастрување (pruning) на правилата за да се отстранат редундантните услови. Една од причините зошто правилата се популарни е тоа што секое правило претставува независна порција на знаење. Може да се изврши и додавање на нови правила на множеството на правила без тие да имаат влијание врз веќе постоечките правила, што не е случај кај класификациските дрва бидејќи додавањето на нова структура во дрвото може да предизвика промени во целото дрво. Во реален случај, оваа независност на правилата е неостварлива бидејќи се игнорира фактот на кој начин се интрепретира множеството на правила. Ако правилата се интерпретираат како листа на правила, тогаш некои од правилата ако се земат индивидуално можат да бидат неточни. Во друг случај, ако не е битен редоследот при интерпретацијата тогаш не е многу јасно што треба да се направи во случај кога различни правила доведуваат до различни заклучоци за една иста инстанца. Во случај кога правилата се добиваат од дрва не може да се случи двосмисленост бидејќи тогаш правилата содржат редунданција што не дозволува појава на двосмисленост. Проблем настанува кога класификациските правила се генерираат преку друг алгоритам а не преку дрва

24 2.4.1 Алгоритам за генерирање на класификациски правила со прекривање Алгоритмите за класификациски дрва се базират на стратегијата раздели и владеј (divide and conquer). Тие работат одгоре надолу и во секоја фаза бараат атрибут за поделба што најдобро ги одделува класите, и потоа рекурзивно ги процесира на ист начин добиените поддрва што се резултат од поделбата. Генерираните дрва понатаму можат да се искористат за добивање на правила. Друг пристап при генерирањето на правила е да се разгледа посебно секоја класа и да се побара начин да се прекријат сите инстанци од множеството кои припаѓаат на класата и во исто време да се исклучат инстанци што не припаѓаат на класата. Овој пристап се нарекува прекривање (covering aproach) бидејќи во секоја фаза се добива правило што покрива некои од инстанците. Алгоритамот за прекривање работи со додавање на услови на правилото што го градиме и секогаш се обидува да добие правило со максимална точност (accuracy). Алгоритмите за генерирање на класификациски дрва работат со додавање на услови во јазлите и се обидуваат да ја максимизираат поделбата меѓу класите. Секој од условите вклучува наоѓање на атрибут за поделба. Во двата случаи критериумот за избор на најдобар атрибут е различен. Кај алгоритмите за дрва се избира оној атрибут кој ја максимизира информациската добивка, додека алгоритмите со прекривање го избираат оној пар атрибут-вредност кој ја максимизира веројатноста на саканата класификација. Идејата на алгоритмот со прекривање е да вклучи што повеќе инстанци од саканата класа и да ги исклучи оние инстанци што припаѓаат на другите класи. Нека едно ново правило прекрива вкупно t инстанци, од кои p се позитивни примери за класата, а t-p се негативни примри т.е тоа е грешката што ја прави правилото. Од можните услови го избираме оној услов што го максимизира односот p/t. Еден едноставен алгоритам за генерирање на класификациски правила со прекривање е даден подолу

25 Алгоритам 2.2 За секоја класа C Иницијализирај го E со множеството на инстанци; Додека Е содржи инстанци од класа С Креирај правило R со празна лева страна која прави предикција на С; Се додека R не е совршено (или нема повеќе атрибути) За секој атрибут А кој го нема во R и секоја вредност v Разгледај ја можноста за додавање на условот A=v во R; Избери ги А и v кои ја максимизираат точноста p/t; (во случај кога повеќе услови имаат иста точност се избира оној услов со најголемо p) Додади го условот A=v во R; Отстрани ги оние инстанци од Е кои се покриени со правилото R; Претходно дадениот алгоритам ја мери успешноста на едно правило со помош на формулата за точност p/t. Секое правило со точност помала од 100% е неточно во смисла што доделува инстанци што припаѓаат на друга класа. Алгоритмот продолжува со додавање на услови се додека не се добие совршено правило. Надворешната јамка итерира преку класите и во секоја итерација вршиме повторна иницијализација на множеството инстанци Е. Тогаш се индуцираат правила за таа класа и се отстрануваат покриените инстанци од множеството се додека не се покријат сите инстанци што припаѓаат на соодветна класа. Во процесот на генерирање на правило се започнува од празно правило (кое ги покрива сите примероци) и се додаваат услови се додека не ги покријат само истанците од саканата класа. Во секоја фаза се избира најдобриот услов кој ја максимизира точноста на правилото. Претходно опишаниот алгоритам е раздели и владеј вид на алгоритам бидејќи се индуцира правило што покрива инстанци од класата (ги исклучува оние кои не се во класата), ги отстранува покриените инстанци бидејќи тие се веќе опфатени со правилото и го продолжува процесот врз оние инстанци кои се останати во множеството. Чекорот на отстранување на инстанци од множеството ја зголемува ефикасноста на алгоритмот бидејќи множеството на инстанци постојано се намалува дедека трае процеост на индукција на правилата

26 2.4.2 Критериум за избор на услов При анализата на основниот алгоритам за учење на правила од претходното поглавје, мораше да се усвои начинот на одлучување кој од повеќето можни услови да се додаде на правилото за да се обезбеди тоа да не покрива негативни инстанци. Како што веќе претходно беше кажано, се избира оној услов кој го максимизира односот p/t, каде t е вкупниот број на истанци што би ги покривало новото правило а p е бројот на оние инстанци кои се позитивни за класата. Колку е поголем бројот на позитивни инстанци кои ги покрива правилото толку е самото правило поточно. p P Друга алтернатива е да се пресмета информационата добивка p log log t T каде p и t се бројот на позитивни и вкупниот број на инстанци покриени од новото правило, а Р и Т се соодветниот број на инстанци кои го задоволувале правилото пред да биде додаден новиот услов. Основниот критериум за избор кој услов да се додаде на правилото е да се најде оној услов кој покрива колку што може повеќе позитивни инстанци и што помалку негативни инстанци. Првата хеуристика постигнува максимум кога не се покриени негативни инстанци без оглед на бројот на покриените позитивни инстанци. На пример, според оваа хеуристика ако имаме услов кој покрива една истанца која е позитивна и имаме услов кој покрива илјада позитивни инстанци и една негативна, ќе биде избран првиот услов. Хеуристиката која се базира на информационата добивка дава повеќе значење на покривањето на што поголем број на инстанци без оглед дали добиеното правило е точно. И двата алгоритми вршат додавање на услови се додека конечното правило не биде точно, што значи дека со првата хеуристика правилото ќе биде добиено побрзо додека со втората хеуристика правилото ќе има повеќе услови. Разликата меѓу двата алгоритми е тоа што со првиот прво ќе бидат откриени специјалните случаи па потоа ќе бидат додадени правилата кои опфаќаат голем број на инстанци, додека со вториот алгоритам ќе биде обратно т.е прво ќе се најдат правила кои покриваат голем број на инстанци па потоа специјалните случаи

27 2.4.3 Поткастрување на класификациски правила Поткаструвањето е еден стандарден начин на справување со шум при учење на дрва. Заедничко за сите методи за поткастување е тоа што тие прво вршат претерано нагодување (overfitting) на моделот со учење на глобален концепт од множеството инстанци за обучување, да се подобри предикцијата на непознати инстанци. Постојат два фундаментално различни пристапи при поткаструвањето и тоа: Pre-Pruning: во текот на генерирање на концептот некои од инстанците за обучување намерно се испуштаат, така да конечниот опис на концептот не ги класифицира сите инстанци за обучување точно; Post-Pruning: прво се генерира опис на концептот кој совршено ги опишува сите инстанци за обучување. Оваа теорија понатаму се генерализира со поткастрување на дрвото за одлучување. Повеќето од техниките кои се користат во современите системи на учење на правила се адаптирани од учењето на дрва за одлучување. Повеќето од системите за учење на дрва ја користат стратегијата overfit-and-simplify (пренатрупај и поедностави) за да се справат со шум во податоците. Прво се формира хипотеза со индукција на комплексно дрво кое е пренатрупано и потоа дрвото се поткаструва. Обично таквите стратегии на поткастрување ја подобруваат ратата на грешка на непознати податоци во случаите кога податоците за обучување содржат шум. За оваа цел се предложени повеќе методи за поткастрување на дрва и една од најефикасните методи е reduced error pruning (REP) поткастрување за намалување на грешката. REP едноставно може да се прилагоди да работи и за правила. Кај REP алгоритмот за правила, податоците за обучување се делат во две множества: множество за растење на правилaта (growing set) и множество за поткастрување (pruning set). Прво се формира почетно множество на правила кое што пренатрупува множеството за растење на правилата, со користење на хеуристика. Понатаму ова множество на правила се поедноставува со примена на некој од операторите за поткастрување; типичен оператор за поткастрување е бришење на одреден услов или на одредено правило. Во секоја фаза на поедноставување, се избира оној оператор за поткастрување што дава најголемо

28 намалување на грешката во однос на множеството за поткастрување. Поедноставувањето застанува кога примената на кој било оператор за поткастрување доведува до зголемување на грешката врз множеството за поткастрување. REP алгоритмот за правила ги подобрува перформансите за генерализација на правилата во случај кога имаме податоци кои содржат шум ама тој е пресметковно скап алгоритам во случаите кога имаме многу податоци. За да се одговори на негативната страна на REP алгоритмот беше предложен нов алгоритам наречен Incremental Reduced Error Pruning (IREP) 2. Понатаму, во следното поглавје ќе бидат разгледани основните идеи на самиот алгоритам и некои подобрувања кои доведуваат до нов алгоритам за учење на класификациски правила наречен RIPPER Incremental Reduced Error Pruning (IREP) IREP врши интегрирање на поткаструвањето со намалување на грешката (REP) со раздели и владеј алгоритмот за учење на правила опишан претходно. Алгоритам 2.3 IREP(Pos,Neg) Begin Ruleset:= ; While Pos do /*grow and prune a new rule*/ split(pos,neg) into (GrowPos,GrowNeg) and (PrunePos,PruneNeg); Rule:=GrowRule(GrowPos,GrowNeg); Rule:=PruneRule(Rule,PrunePos,PruneNeg); If the error rate of Rule on (PrunePos,PruneNeg) exceeds 50% then return Ruleset; else add Rule to Ruleset remove examples covered by Rule from (Pos,Neg); endif endwhile return Ruleset 2 Алгоритмот е подетално опишан во трудот: J.Fürnkanz and G.Widmer. Incremental reduced error pruning. In Machine Learning: Proceedings of the Eighth International Workshop on Machine Learning, Ithaca, New York, 1991.Morgan Kaufmann

29 end Алгоритмот 2.3 претставува верзија на IREP која содржи две класи. Како и стандардниот раздели и владеј алгоритам, IREP врши постепена индукција на правила, едно по едно. Кога ќе се индуцира едно правило, сите инстанци кои се покриени со правилото се отстрануваат. Овој процес се повторува се додека има позитивни примероци, или правилото има неприфатливо голема рата на грешка. За да се индуцира едно правило, IREP ја користи следнава стратегија. Прво, непокриените инстанци случајно се разделуваат во две множества, множество за растење (growing set) и множество за поткастрување (pruning set). Во овој алгоритам множеството за растење содржи 2/3 од инстанците. Понатаму имаме растење на правилото. Се започнува со празен услов и се додаваат услови од обикот An = v, Ac θ или Ac θ, каде A n е номинален атрибут и v е дозволена вредност за A n, или A c е континуален атрибут и θ е некоја вредност за A c која се појавува во податоците за обучување. GrowRule врши постојано додавање на улсови што вршат максимизација на информационата добивка 3 се додека правилото не покрива негативни примероци од множеството за растење. По растењето на правилото, тоа веднаш се поткаструва. Алгоритмот врши поткастрување на која било конечна секвенца од услови од правилото и врши бришење на секвенцата која ја максимизира функцијата дадена со равенството (2.8) (,, ) v Rule prunepos pruneneg ( ) p+ N n P+ N (2.8) каде P (N) е вкупниот број на примероци во prunepos (pruneneg) и p (n) е бројот на примероци во prunepos (pruneneg) покриени со правилото Rule. Овој процес се повторува се додека има поткастрување што ја подобрува вредноста v. Гореопишаниот IREP алгоритам важи за проблеми за учење на две класи. Во случаите кога имаме повеќе класи прво се врши подредување на класите во растечки редослед на фреквенцијата на појавување на класите т.е редоследот е 3 Критериумот за информациската добивка е земен од системот за учење FOIL што е подетално опишан во трудот: Quinlan and Cameron-Jones. FOIL: a midterm report. Machine Learning:ECML-93, Vienna, Austria,

30 C,..., 1 C k, каде C 1 е најмалку фреквентната класа а C k е најфреквентната класа и потоа се користи повик до IREP за да се определи множество од правила кои ја одделуваат класата C 1 од останатите класи. Понатаму, сите инстанци покриени од множеството на правила се отстрануваат и се користи нов повик на IREP за одделување на класата C 2 од останатите итн. Процесот се повторува се додека не остане една класа C k која ќе се користи како појдовна (default) класа. Алгоритмот за учење правила е дизајниран така да може да се справи и со атрибути што недостасуваат на начин што сите услови кои го вклучуваат атрибутот А ќе отпаднат за инстанците за кои недостга вредноста за атрибутот А. Ваквиот начин на справување со атрибутите што недостасуваат овозможува алгоритмот да врши одделување на позитивните примери со користење на услови што се точни. Во модифицираната верзија на IREP развиена од Cohen, е дозволено бришење на која било конечна секвенца од услови, додека оригиналната верзија на алгоритмот дозволува бришење само на еден услов. Во оваа верзија, за разлика од оригиналната верзија, се запира додавањето на правила во множеството на правила кога ќе се добие правило што има рата на грешка поголема од 50% Подобрување на IREP алгоритмот RIPPER алгоритам За да се подобри претходно разгледаниот алгоритам се воведуваат неколку модификации во самиот алгоритам и тоа: се воведува алтернативна метрика за проценување на вредноста на правилата во фазата на поткастрување, се воведува нова хеуристика за определување кога да се запре со додавње на нови правила на множеството од правила и фаза на оптимизација што го поминува целото множество на правила и се обидува да го апроксимира конвенционалниот REP алгоритам. IREP алгоритмот понекогаш не конвергира во случајот кога имаме зголемување на бројот на инстанци и ова е случај поради метриката која се користи во фазата на поткастрување. Оваа метрика во одредени случаи е крајно неинтуитивна; на пример, нека P и N се фиксни и нека метриката го предпочита правилото R 1 кое покрива p 1 = 2000 позитивни примероци и n 1 = 1000 негативни примероци, во

31 однос на правилото R 2 кое што покрива p 1 = 1000 позитивни примероци и n 1 = 1 примерок. Од ова се забележува дека R 2 е правило кое прави подобра предикција од правилото R 1. Од оваа причина е извршена промена на метриката и е дадена со релацијата (2.9) v * ( Rule, prunepos, pruneneg) p n p+ n (2.9) Оваа варијанта на IREP алгоритмот запира со додавање на нови правила кога последното конструирано правило има грешка врз податоците за поткастрување која надминува 50%. Оваа хеуристика многу често запира премногу рано, во случаи кога имаме правила со мала покриеност. За да се подобри овој дел од алгоритмот се користи MDL принцип. 4 Кога ќе се додаде секое правило се пресметува вкупната дескриптивна должина (description length) на множеството на правила и на примероците. Новата верзија на IREP запира со додавање на правила кога оваа должина е повеќе од d бита поголема од најмалата должина добиена дотогаш или кога веќе не постојат позитивни примероци. Најчесто вредноста на должината е 64. Множеството на правила понатаму се поедноставува со испитување на секое правило (почнувајќи од последното правило) и бришење на правилата за да се намали вкупната дескрипциона должина. Пристапот расти и поедностави кој се користи кај IREP дава резултати кои се различни од конвенционалиот REP алгоритам. Еден начин да се подобри инкременталниот пристап е да се постпроцесираат правилата добиени од IREP за да се апроксимира ефектот на конвенционалиот REP. Методот на оптимизација на множеството од правила R,..., 1 Rk е даден понатаму. Се разгледува по едно правило по ред како се генерирани. За секое правило R i се конструираат две алтернативни правила: замена (replacement) и ревизија (revision). Замената за R i се формира со растење и поткастрување на правило ' R i каде поткаструвањето се води така да се минимизира грешката на целото множество првила R R R ' 1,..., i,..., k 4 МDL е кратенка од Minimum Description Length принцип кој вели дека најдобрата теорија за множество од податоци е таа која ја минимизира големината на теоријата плус количеството на информација потребно да се специфицираат исклучоците од таа теорија

32 врз податоците за поткастрување. Ревизијата на R i се формира аналогно освен што не се почнува од празно правило туку се додаваат услови на самото правило. На крај се прави одлука дали ќе се користи оригиналното правило, ревизијата или замената според MDL хеуристика. Ваквиот модифициран алгоритам се нарекува RIPPER (Repeated Incremental Pruning to Produce Error Reduction)

33 3. ФРЕКВЕНТНИ ЗАПИСИ И АЛГОРИТМИ ЗА НИВНО ГЕНЕРИРАЊЕ 3.1 Основни поими за фреквентни множества Фреквентните множества (frequent sets) имаат есенцијално значење во повеќе задачи од податочното рударење кои имаат за цел да откријат интересни шеми (patterns) од бази на податоци како што се асоцијациски правила, корелации, секвенци, епизоди, класификатори, кластери и сл. Барањето на асоцијациски правила е еден од најпознатите проблеми кој се решава со техниките на податочно рударење. Првичната мотивација за пребарување на асоцијациски правила дошла од потребата за анализа на трансакциските податоци од супермаркетите, т.е да се испита однесувањето на клиентот зависно од купените продукти. Асоцијациските правила опишуваат колку често одредени производи се купуваат заедно. Таквите правила можат да бидат корисни за донесување на одлуки како што се цените на производите, промоциите, распоредот на производите во маркетите и сл. Целта на оваа поглавје е да се дадат основните поими и алгоритми за добивање на фреквентните множества кои се прв чекор за добивање на асоцијациски правила за понатамошно нивно користење за модификација на веќе постоечките алгоритими за учење на предиктивни модели. Самите асоцијациски правила не се предмет на разгледување во оваа дипломска работа. Дефиниција 3.1. Нека е дадено множеството R. Бинарната релација r над R е колекција од подмножества на R. Елементите на R се нарекуваат записи (items), а елементите на r се нарекуваат редици (rows). Бројот на редици во r се означува со r и големината на r е r = t каде t е трансакција. t r Редиците од бинарните бази на податоци се нарекуваат трансакции, така да во изложувањето на поимите и алгоритмите ќе се користат поимите за трансакциска база на податоци и на нејзината содржина како на трансакции. Едно интересно својство на множеството X R на записи (items) е колку редици (трансакции) од базата го содржат истото множество. Ова нè доведува до формална дефиниција на поимот за фреквентно множество

34 Дефиниција 3.2. Нека R е множество и r е бинарна релација над R и нека X е множество од записи. Множеството X се содржи во редицата t r, ако X Множеството на редици од r во кои се содржи X се означува со M (, ) (, ) { } R t. X r, т.е M X r = t rx t и исто така се нарекува обвивка на X. Фреквенцијата на X во r се означува со fr( X, r ) и е дадена со релацијата (3.1) (, ) fr X r (, ) M X r = (3.1) r Доколку контекстот на базата на податоци е еднозначно определен се користат ознаките M ( X ) и fr( X ). Ако е даден праг на феквенцијата min_ [ 0,1] тогаш множеството X е фреквентно 5 ако fr( X r) Број на редица 1 Редица t { ABCDG,,,, } t { ABEF,,, } 2 t { BI,, K } 3 t { ABH,, } 4 t { EGJ,, } 5, min_ fr. Слика 3-1 Пример за бинарна релација r над множеството R= { AB,,..., K} fr, Пример 3.1 Нека е дадена една бинарна релација r над множеството = {,,..., } прикажано на слика 3.1. За множеството {, } R AB K следниве параметри, { } ({ } ) (,, ) { 1, 2, 4} AB се добиваат M AB r = t t t и фреквенцијата на множеството е fr AB,, r = 35= 0.6. Базата на податоци може да се разгледува и како релациона база над шемата {,,..., } AB K, каде AB,,..., K се бинарни атрибути и оттаму доаѓа и изразот за бинарна релација. На слика 3.2 е прикажана базата во овој облик. 5 Во литературата за поимот фреквентно множество се користат и поимите large set и covering set, а за фреквенцијата се користи поимот support

35 Број на редица A B C D E F G H I J K t t t t t Слика 3-2 Пример за бинарна релација r дадена во релациона форма над бинарни атрибути Прагот на фреквенцијата min_ fr е параметар кој го дава корисникот и зависи од самата апликација. Дефиниција 3.3. Нека R е множество и нека r е бинарна релација над R и min_ fr е праг на фреквенцијата. Колекцијата на фреквентни множества во r зависно од min_ fr се означува со F( r,min_ fr ) и е дадено со релацијата (3.2) { } ( ) ( ) F r,min_ fr = X R fr X, r min_ fr, (3.2) или едноставно се означува со F( r ) ако е познат прагот на фреквенцијата. Колекцијата од фреквентни множества со големина l е дадена со релацијата (3.3) l { } ( ) ( ) F r = X F r X = l. (3.3) Пример 3.2 Нека претпоставиме дека прагот на фреквенцијата е 0.3. Колекцијата на фреквентни множества во базата r од слика 3.1 е { } (,0.3) { },{ },{ },{ },{, } F r = A B E G AB бидејќи ниту едно непразно множество не се појавува во повеќе од една редица. Празното множество е тривијално фреквентно во секоја бинарна релација и празните множества обично не се земаат предвид во апликациите

36 3.2 Генерирање на фреквентни множества Откривањето на сите фреквентни множества е предизвикувачка задача. Просторот за пребарување е експоненцијален со бројот на атрибути кои се појавуваат во базата на податоци, иако прагот на фреквенцијата го ограничува излезот во разумен потпростор. Понатаму, базите на податоци можат да бидат масивни и да содржат милиони трансакции со што броењето на фреквенцијата е тежок процес. Понатаму во овој дел подетално ќе бидат разгледани двата аспекти Простор за пребарување Целосното пребарување на фреквентни множества е очигледно непрактична задача освен можеби за најмалите множества бидејќи просторот за пребарување на потенцијалните фреквентни множества се состои од 2 R подмножества од R. Според тоа можеме да ги генерираме само оние множества што се појавуваат барем еднаш во трансакциската база, т.е ќе извршиме генерирање на сите подмножества од сите трансакции од базата. Секако, ако имаме долги трансакции овој број би можел да биде се уште многу голем и е потребно да се изврши оптимизација за да се генерираат оние подмножества со големина помала или еднаква на дадената максимална големина. Оваа решение е добро кај sparse бази на податоци, додека за големи или dense бази на податоци овој алгоритам има големи барања за мемориски ресурси и заради тоа се предложени неколку решенија да се изврши подирекно пребарување во просторот за пребарување. Во текот на пребарувањето, се генерираат неколку колекции од кандидати множества и се пресметуваат нивните фреквенции сè додека не се генерираат сите фреквентни множества. Очигледно е дека големината на колекцијата од кандидатните множества не смее да ја надмине големината на главната меморија. Многу е важно да се генерираат што помалку кандидати, бидејќи пресметката на фреквенцијата е процедура што е временски зависна. Во најдобар случај ќе се генерираат само фреквентните множества, ама оваа идеја не е општо применлива што ќе биде покажано покасно

37 Најважното својство кое се користи од повеќето алгоритми за генерирање на фреквентни множества е дека фреквенцијата е монотоно опаѓачка функција зависно од големината на множеството. Својство 3.1 (монотоност на фреквенцијата) Нека XY, тогаш важи својството X Y fr( X) fr( Y). R се две множества, Доказ: доказот следи од M ( X) M( Y) што следува од претпоставката X Y. Според претходното својство, ако едно множество не е фреквентно тогаш сите негови надмножества (supersets) не се фреквентни База на податоци За да се пресметаат фреквенциите на колекција на записи (itemsets), потребно е да пристапиме до базата на податоци. Бидејќи базите на податоци имаат тендеција да бидат многу големи, не секогаш е можно тие да се зачуваат во главната меморија. Една важна забелешка во повеќето постоечки алгоритми е репрезентацијата на базата на податоци. Концептуално, таквата база се претставува со бинарна дводимензионална матрица во која секој ред претставува индивидуална трансакција а колоните ги претставуваат записите во I. Таквата матрица може да се имплементира на неколку начини. Најчесто користен формат е хоризонталниот формат каде секоја трансакција содржи број на трансакцијата и листа на записи што се појавуваат во неа. Друг користен формат на репрезентирање на матрицата е вертикалниот каде базата се состои од множество од записи заедно со нивната обвивка (cover). За да се пресмета фреквенцијата на множеството записи X со користење на хоризонталниот формат, потребно е базата на податоци целосно да се измине и за секоја трансакција T да се тестира дали е исполнет условот X T. Ова може да се направи за голема колекција на записи. Многу е важно да се забележи дека наоѓањето на фреквентни шеми во податоцте е операција што бара многу време поради скенирањето на базата на податоци и е многу интензивна операција во поглед на I/O. Во повеќето случаи ова не е најскапиот чекор во алгоритмите. Ажурирањето на фреквенциите на сите кандидати записи кои се содржат во една трансакција бара повеќе време отколку читањето на таа трансакција од датотека или база на податоци. За секоја трансакција мораме да го провериме секој

38 кандидат запис дали е се содржи во трансакција која се процесира или пак потребно е да се проверат сите подмножесва од трансакцијата дали се содржат во множеството од кандидати записи. Според претходното можеме да заклучиме дека бројот на трансакции во базата има влијание врз потребното време за пресметка на фреквенциите на фреквентните множества. 3.3 Аpriori алгоритам Прв алгоритам кој се користел за генерирање на сите фреквентни множества и доверливи асоцијациски правила бил алгоритамот AIS развиен од Agrawal, кој бил даден заедно со описот на овој проблем од податочно рударење. Овој алгоритам понатаму бил подобрен и преименуван во Apriori каде било искористено својството на монотоност на фреквентните множества и доверливоста на асоцијациските правила Опис на Аpriori алгоритамот Фазата на откривање на фреквентните множества е дадена со алгоритмот 3.1. Алгоритам 3.1 Apriori Input: r, σ F r, σ Output: ( ) C = { i} i R ; 1 : k:=1; { } while { } k C do //compute the frequencies of all candidate sets tid, I r do for all transactions ( ) for all candidate sets X Ck do if X I then Increment X.frequency by 1; //Extract all frequent sets F : = X C X. frequency σ ; k { k } //Generate new candidate sets C + = ; k 1 : { } for all XY, F, X[ i] Y[ i] = for 1 i k 1 k and X[ k] Y[ k] < do

39 { [ ]} I : = X U Y k ; if J I, J = k: J Fk then Add I to C k + 1; Increment k by 1; Алгоритмот извршува breadth-first пребарување врз просторот составен од сите множества со итеративно генерирање на множества кандидати C k + 1 со големина k+1, почнувајќи со k=0. Едно множество е кандидат множество ако за сите негови подмножества е познато дека се фреквентни. Поконкретно, C 1 се состои од сите записи од R и во одредена фаза k се генерираат сите множества со големина k+1. Тоа се прави во два чекори. Прво се изведува спојување на F k самиот со себе. Ако XY и ако тие имаат ист k-1 префикс се генерира унијата X U Y. Во чекорот, Fk на поткастрување во C k се додава унијата X U Y, само ако сите нејзини k подмножества се појавуваат во F k. За да се избројат фреквенциите на сите k кандидати множества, базата на податоци дадена во хоризонтален формат се скенира трансакција по трансакција, и фреквенциите на сите кандидати множества кои се вклучени во таа трансакција се инкрементираат. Сите множества кои се фреквентни се додаваат во F k. Ако бројот на k+1 кандидати множества е премногу голем да остане во главната меморија, се врши модификација на алгоритмот на следниот начин. Процедурата за генерирање на кандидати запира и се пресметува фреквенцијата на сите дотогаш генерирани кандидати. Во следната итерација, наместо да се генерираат множества со големина k+2, се генерираат останатите кандидати со големина k+1 и се пресметува нивната фреквенција се додека не се определат сите фреквентни множества со големина k Податочни структури Генерирањето на множествата кандидати и броењето на фреквенцијата на кандидатите бараат ефикасна податочна структура во која ќе се чуваат сите кандидати множества, бидејќи е важно ефикасно да се определат сите множества кои се содржат во една трансакција или во друго множество

40 Hash дрво За ефикасно да може да се определат сите k подмножества на потенцијалното кандидат множество, сите фреквентни множества во F k се чуваат во hash дрво. Кандидатите множества се чуваат во hash дрво. Еден јазол од hash дрвото содржи листа од множества (лист) или hash табела (внатрешен јазол). Кај внатрешниот јазол секој букет од hash табелата покажува кон некој друг јазол. Коренот на hash дрвото е дефинирано да биде на длабочина 1. Внатрешен јазол на длабочина d покажува кон јазлите на длабочина d+1. Множествата се чуваат во листовите. Кога вршиме додавање на k множеството X во текот на процесот на генерирање на кандидатите, се започнува од коренот и се движиме надолу по дрвото се додека не стигнеме до лист. Кога ќе стигнеме до еден внатрешен јазол на длабочина d, одлучуваме по која гранка ќе се движиме со примена на hash функција врз членот X [ d ] од множеството и со следење на покажувачот од соодветниот букет. Сите јазли на почетокот се креираат како листови. Кога бројот на множества во листот на длабочина d го надмине дадениот праг, листот се конвертира во внатрешен јазол, само ако k > d. За да се определат сите кандидати множества кои се содржат во една трансакција Т, започнуваме од коренот. Ако се наоѓаме во лист, наоѓаме кои од множествата во листот се содржат во Т и ја зголемуваме нивната фреквенција. Ако се наоѓаме во внатрешен јазол и сме стигнале до него со примена на hash функција врз членот i, ја применуваме hash функцијата врз секој член што доаѓа по i во Т и рекурзивно ја применуваме оваа процедура врз јазелот во соодветниот букет. За коренот ја применуваме hash функцијата врз секој член од Т Префиксно дрво Друга податочна структура која често се користи е префиксно дрво (prefix tree, trie). Кај префиксното дрво, секое k-множество е поврзано со еден јазол како и неговиот k-1 префикс. Коренот е празно множество. Сите 1-множества се прикачени на коренот и нивните гранки се означени со членот кој го

41 репрезентираат. Секое друго k-множество е поврзано со неговиот k-1 префикс. Секој јазол го чува последниот член од множеството кое го претставува, неговата фреквенција и неговите гранки. Гранките на јазелот можат да се имплементираат со користење на неколку податочни структури како hash табела, бинарно пребарувачко дрво или вектор. Во конкретна итерација k, сите кандидати k множества се чуваат на длабочина k во префиксното дрво. За да се определат сите кандидати множества кои се содржат во трансакција Т, започнуваме од коренот. За трансакција за еден јазол од префиксното дрво да се процесира, (1) се следи гранката што одговара на првиот член од трансакцијата и го процесираме остатокот од трансакцијата рекурзивнo за таа гранка и (2) се занемарува првиот член од трансакцијата и се процесира рекурзивно за самиот јазол. Оваа процедура може понатаму да се оптимизира. Чекорот на спојување во процедурата за генерирање на кандидати множества е многу едноставна со користење на оваа податочна структура, бидејќи сите множества со големина k со истиот k-1 префикс се претставуваат со гранките од истиот јазол (самиот јазол го претставува k-1 префиксот). За да се генерираат сите кандидати множества со k-1 префикс X, вршиме копирање на сите деца на јазелот кој го претставуват X како гранки на тој јазол

42 4. МОДИФИКАЦИЈА НА АЛГОРИТМИТЕ ЗА УЧЕЊЕ НА ПРЕДИКТИВНИ МОДЕЛИ ОД СУМАРНИ ПОДАТОЦИ 4.1 Мотивација Идејата на оваа дипломска работа е да се изврши модификација на постоечките алгоритми за учење на предиктивни модели така да тие можат да користат сумарни информации за податоците за пресметка на веројатностите кај моделите, наместо да работат со самите податоци. Сумарните податоци се состојат од податоци за фреквенцијата на појавување на групација од атрибути, заедно со вредностите на атрибутите, за множеството податоци (dataset) што го користиме за градење на предиктивниот модел. Фреквенцијата на појавување на групација од атрибути можеме да ја добиеме ако извршиме генерирање на фреквентните множества за даденото множество податоци. Познавањето на вредноста на фреквенцијата за дадена групација од атрибути ќе ни помогне во фазата на градење на предиктивниот модел да ја определиме дистрибуцијата на веројатноста за секоја од класите, наместо да вршиме изминување на множеството податоци и броење на појавувањето на одреден атрибут (заедно со неговата вредност). Поради тоа што за генерирањето на фреквентните множества е потребно атрибутите од множеството на податоци да примаат само дискретни вредности во оваа дипломска работа ќе се задржиме само на дискретни множества од податоци за да се избегне дискретизацијата на нумеричките атрибути, бидејќи целта на дипломската работа е да се испита и спореди однесувањето на оригиналините и модифицираните алгоритми. 4.2 Модификација на алгоритмот за учење на веројатносни модели Во делот 2.2 беше опишан оригиналниот алгоритам за учење на Баесовиот класификатор каде за определување на условната веројатност P( A v C ) = се i ik k

43 користи формулата P( A v C ) i ik k ( i = ik = j), каде N( Ai = vik C = cj) N( C = cj) N A v C c = = е бројот на инстанци од множеството податоци кај кои се појавуваат заедно Ai vik C cj = =, а N( C c j ) = е бројот на инстанци каде C = cj. Вредностите на бројачите се добиваат со изминување на множеството податоци. Модификација на алгоритмот вклучува замена на бројачите со фреквенцијата на појавување парот Ai = vik C = cj и фреквенцијата на појавување на класата C = c j. Според тоа модифицираната формула ќе биде: ( ) P A = v C = i ik k ( i = ik = j) fr( C = cj) fr A v C c (4.1) За пресметка на фреквенциите ни се потребни групи од атрибути (itemsets) со големина еден и два. Apriori алгоритмот што се користи за генерирање на групи од атрибути (itemsets) врши генерирање само на групи чија фреквенција на појавување во множеството податоци е поголема од праговната (минимална) фреквенција. Ова доведува до проблем при пресметката на веројатностите бидејќи за одредени групи атрибути, чија фреквенција е помала од праговната, ние немаме информација за точната вредност на фреквенцијата. Поради ова потребно е да се изврши проценка на фреквенцијата за таквата група на атрибути (non-frequent itemset). Кај Naive Bayes алгоритмот земена е проценката дека за сите групи на атрибути чија фреквенција не е позната се зема вредноста min 2 fr. Статистички гледано, оваа проценка е добро избрана затоа што вистинската фреквенција на групата од атрибути се наоѓа во интервалот 0 fr < min fr така да ако се избере вредноста min 2 fr за фреквенцијата вкупната грешка на моделот би била најмала. Од претходното, исто така, може да се забележи дека вкупната грешка на моделот ќе зависи од изборот на праговната фреквенција. Доколку се избере многу голема вредност за прагот, грешката ќе биде голема и моделот ќе биде речеси неупотреблив бидејќи голем дел од бројачите ќе имаат иста вредност за фреквенцијата а со тоа и веројатностите кои ќе се пресметуваат ќе бидат рамномерно распределени

44 4.3 Модификација на алгоритмот за учење на дрва за одлучување Во делот 2.3 беше детално опишан стандардниот алгоритам за учење на дрва за одлучување. Модификацијата на алгоритмот за учење на дрва за одлучување се состои од користење на фреквентните множества за пресметка на веројатностите на сите класи во секој чекор на индукција на дрвото за одлучување, наместо со изминување на множеството податоци и броење на примероците кои го задоволуваат соодветниот услов определен со изборот на атрибут за поделба. Модификацијата ја опфаќа само фазата на индукција на дрвото, додека фазата на поткастрување во овој момент ја оставаме непроменета. Нека патеката од коренот до даден внатрешен јазол од дрвото е составена од следниве тестирања на атрибути: A = a &...& A = a, тогаш за оценка на i ij l lm распределбата на веројатноста во соодветниот внатрешен јазол за сите класи C k е потребно да ја познаваме фреквенцијата на групата атрибути ( i ij &...& l lm ) fr A = a A = a и фреквенцијата на групата атрибути заедно со класниот атрибут fr( Ai aij &...& Al alm & C ck) = = = за сите вредности на k. Според тоа распределбата на веројатност за соодветниот јазол се пресметува по формулата: ( k i ij &...& l lm ) P C = c A = a A = a = ( i = ij &...& l = lm & = k) fr( Ai = aij &...& Al = alm ) fr A a A a C c За пресметка на фреквенцијата fr( Ai aij &...& Al alm ) (4.2). = = ни се потребни фреквентни множества со големина l, каде l е бројот на атрибути што се тестирани до соодветниот јазол, а за фреквенцијата ( i ij &...& l lm & k) fr A = a A = a C = c се потребни фреквентни множества со големина l +1. Според претходното, во секој јазол мораме да чуваме информација кои атрибути се тестирани во патеката од коренот до тој јазол за да можеме да ја најдеме фреквенцијата на групата атрибути. Како и кај претходниот алгоритам (Naive Bayes), и тука постои проблемот на проценка на фреквенцијата на групата на атрибути која не е фреквентна т.е фреквенцијата на групата атрибути е помала од избраната праговна фреквенција min fr

45 Постојат повеќе начини за проценка на фреквенцијата на групата атрибити која не е фреквентна. Првиот начин, покомплексен за имплементација, опфаќа определување на моментот кога одредена група атрибути станува нефреквентна. Значи, потребно е да ги бараме подмножествата на групата атрибути и да провериме кои од подмножествата се фреквентни. Понатаму фреквенцијата на овие подмножества може да се искористи за проценка на фреквенцијата на оригиналната групација на атрибути. Втор начин, полесен за имплементација, се состои од постепено намалување на процеката на фреквенцијата со растење на големината на групата од атрибути, т.е за фреквентни записи со големина 1 проценката би била min 2 fr min fr, за записи со големина 2 ќе имаме или општо 2*2 min fr 2* g каде min fr е минималната фреквенција, а g е големината на фреквентниот запис. Ваквото постепено намалување на проценката на фреквенцијата е логично затоа што ако би ги генерирале сите записи (минимална фреквенција е еднаква на 0) тогаш фреквенцијата на појавување на записите со максимална големина (еднаква на вкупниот број на атрибути од множеството податоци) би била 0 или 1, т.е дали во множеството податоци постои таква инстанца или не постои. Во имплементацијата на алгоритмот што ќе биде опишана во следното поглавје е искористен вториот пристап заради поедноставната имплементација. 4.4 Модификација на алгоритмот за учење на класификациски правила Во делот 2.4 беше детално опишан стандардниот алгоритам за учење на правила за одлучување. Модификацијата на алгоритмот за учење на правила се состои од користење на фреквентните множества за пресметка на точноста (accuracy) на правилото, наместо со изминување на множеството податоци и броење на примероците кои го задоволуваат соодветниот услов, определен со претходно искористените тестови врз атрибутите од правилото. Модификацијата ја опфаќа само фазата на градење на правилата, додека фазата на поткастрување во овој момент ја оставаме непроменета

46 Нека едно правило за одлучување го има следниов облик: IF Ai = aij &...& Al = alm THEN C = ck тогаш за пресметка на точноста на правилото потребно е да ја познаваме фреквенцијата на групата атрибути fr( Ai aij &...& Al alm ) = = и фреквенцијата на групата атрибути заедно со класниот атрибут fr( Ai aij &...& Al alm & C ck) = = =. Формулата за пресметка на точноста на правилото го има следниов облик: Accuracy = ( i = ij &...& l = lm & = k) fr( Ai = aij &...& Al = alm ) fr A a A a C c За пресметка на фреквенцијата fr( Ai aij &...& Al alm ) (4.3). = = ни се потребни фреквентни множества со големина l, каде l е бројот на атрибути опфатени во условот на правилото, а за фреквенцијата fr( Ai aij &...& Al alm & C ck) = = = се потребни фреквентни множества со големина l +1. Постапката на проценката на фреквенцијата на групата на атрибути која не е фреквентна кај правилата на одлучување е иста како и кај дрвата за одлучување и е опишана погоре во текстот

47 5. ИМПЛЕМЕНТАЦИЈА НА АЛГОРИТМИТЕ ЗА УЧЕЊЕ НА ПРЕДИКТИВНИ МОДЕЛИ ОД СУМАРНИ ПОДАТОЦИ 5.1 WEKA Waiakato Enviroment for Knowledge Analysis Алгоритмите што беа разгледани во претходните поглавја се имплементирани во системот наречен WEKA, развиен во универзитетот Waiakato во Нов Зеланд. Кратенката WEKA е добиена од сложенката Waiakato Enviroment for Knowledge Analysis што во превод значи Waiakato околина за анализа на знаење. Системот WEKA е напишан во JAVA, објектно ориентиран програмски јазик што е широко достапен за сите компјутерски платформи како Windows, Linux и Macintosh. JAVA ни дозволува да обезбедиме униформен интерфејс за многу различни алгоритми за учење, методи за пред и пост процесирање и евалуација на резултатите на шемите за учење на кое било множество податоци. Постојат неколку нивоа на користење на WEKA системот. Прво, направена е имплементација на добри алгориитми за учење што можат да се применуваат врз податоците за обучување дирекно од командна линија. Исто така вклучено е множество од алатки за трансформација на множества од податоци, како што се алгоритми за дискретизација и различни типови на филтри за податоците. Еден начин на користење на WEKA е да се примени методот за учење врз множеството податоци и да се анализира неговиот излез и да се екстрахираат информациите за податоците. Друг начин е да се применат неколку алгоритми за учење и да се споредат нивните перформанси за да се избере најдобриот за предикција. Методите за учење се наречени класификатори. Сите тие алгоритми имаат ист интерфејс од командна линија и постои множество од генерички опции од командна линија и опции кои се карактеристични за секој алгоритам посебно. Перформансите на сите класификатори се мерат со ист модул за евалуација. Освен алгоритми за учење, WEKA обезбедува и филтри за пред и пост процесирање на податоците. Како и кај класификаторите и филтрите имаат стандардизиран интерфејс од командна линија

48 Од претходното искажување може да се заклучи дека основната цел на WEKA системот е развивање на алоритми за класификација и филтрирање на податоци. Во WEKA, освен овие алгоритми се вклучени и алгоритми за учење на асоцијациски правила и кластерирање на податоци. Во повеќето апликации за податочно рударење, компонентата за машинско учење е само еден мал дел од многу поголемиот софтверски систем и затоа во случај кога сакаме да пишуваме нова апликација за податочно рударење можеме да ги користиме програмите од WEKA од сопствениот код и во тој случај го решаваме нашиот проблем со минимално дополнително програмирање. Поради овој факт беше избран токму WEKA системот за имплементација на модифицираните алгоритми за учење на предиктивни модели од сумарни податоци. 5.2 Основни компоненти во WEKA системот Во WEKA системот секој алгоритам за учење е претставен со посебна класа. Поради тоа што во WEKA постојат многу класи за различни алгоритми за учење и филтрирање на податоците тие се орагнизирани во пакети. Секој пакет содржи група на класи што се меѓусебно поврзани и делат заеднички функционалности weka.core пакет Пакетот core е основен пакет во WEKA системот. Тој содржи класи кои ги користат сите останати класи во системот. Основни класи во core пакетот се: Attribute, Instance и Instances. Објект од класа Attribute претставува еден атрибут. Тој содржи име на атрибутот, тип на атрибутот и во случај кога имаме номинален атрибут ги содржи и можните вредности на атрибутот. Објект од класа Instance ги содржи вредностите на атрибутите за една конкретна инстанца од множеството на податоци. Објект од класа Instances содржи подредено множество на инстанци или со други зборови го содржи множеството податоци

49 5.2.2 weka.classifiers пакет Пакетот classifiers ги содржи имплеметациите на повеќето од алгоритмите за класификација и нумеричка предикција. Најважната класа во пакетот е Classifier, која ја дефинира општата структура на кој било алгоритам за класификација. Класиот дијаграм на класата е прикажан на слика 5-1. Слика 5-1 UML класен дијаграм за класата Classifier Класата содржи три методи што мораат да бидат имплементирани од сите алгоритми за учење на класификатори и тоа: buildclassifier(), classifyinstance() и distributionforinstance(). Во жаргонот на објектно ориентираното програмирање класите за учење на класификатори се подкласи на Classifier и според тоа тие автоматски ги наследуваат овие методи. Секој алгоритам за класификација врши дефинирање на методите според тоа како го градат класификаторот и како ги класифицираат инстанците. Ова дава униформен интерфејс за градење и користење на класификатори од страна на друг JAVA код. За евалуација на користи ист модул за сите класификатори

50 5.2.3 Други пакети во WEKA системот Останатите пакети во WEKA системот се: weka.associations, weka.clusterers, weka.estimators, weka.filters, weka.attributeselection и многу други. Од интерес за дипломската работа е пакетот weka.associations што содржи класи за имплементација на Аpriori алгоритмот за учење на асоцијациски правила и генерирање на фреквентни множества од множество податоци. Оваа класа заедно со други класи за учење на класификатори ќе бидат обработени понатаму во ова поглавје од дипломската работа. 5.3 Иплементација на Apriori алгоритам Во пакетот weka.associations постојат класи кои го имплементираат алгоритмот за учење на асоцијациски правила Apriori. За потребите на дипломската работа беше извршена модификација на класата Apriori, за таа да ги генерира само фреквентните множества за дадено множество податоци а не и самите асоцијациски правила кои не се потребни во овој случај. Новоформираната класа FrequentItemsets заедно со останатите модифицирани класи за учење на класификатори се сместени во пакетот weka.classifiers.freqitemsets Класа ItemSet Класата ItemSet содржи податоци што опишуваат еден член (запис) од фреквентно множество. Класниот дијаграм за оваа класа е прикажан на слика 5-2. Од класниот дијаграм се забележува дека се чуваат податоци за бројот на трансакции во кои е присутна соодветната комбинација на атрибути, вкупниот број на трансакции од множеството податоци и поле од целобројни вредности за евиденција кои атрибути се присутни во една комбинација. Големината на полето m_items е еднаква на вкупниот број на атрибути во множеството податоци заедно со класата. Индексот на елементите од полето се користи за нумерација на атрибутите, така да позицијата i од полето е резервирана за евиденција на присутност на атрибутот i во соодветната комбинација на атрибути. Ако атрибутот не е присутен во комбинацијата, тогаш вредноста на елементот на соодветната позиција е -1. Доколку атрибутот е присутен вредноста на елементот

51 на соодветната позиција е еднаква на вредноста на самиот атрибут. Вредностите на атрибутите во WEKA се кодирани со целобројна вредност почнувајќи од 0 до бројот на вредности на атрибутот 1. Слика 5-2 UML дијаграм за класата ItemSet Во класата ItemSet се реализирани методи за манипулација на вакви објекти. Постојат методи спојување, бришење и поткастрување на вектори составени од вакви објекти, кои се користат кај Apriori алгоритмот за генерирање на фреквентни множества Класа FrequentItemsets Во класата FrequentItemsets е имплементиран Apriori алгоритмот за генерирање на фреквентни множества. Класниот дијаграм за оваа класа е даден на слика

52 Слика 5-3 UML класен дијаграм за класата FrequentItemsets Фреквентите множества кои се генерираат со Apriori алгоритмот се чуваат во објектот m_ls кој е од тип FastVector и припаѓа на пакетот weka.core. Во класата се чуваат податоци за минималната фреквенција m_minsuppot, максималната фреквенција m_upperboundminsupport и некои дополнителни помошни податоци. Креирањето на објект од класа FrequentItemsets се врши со конструкторот FrequentItemsets() со што се иницијализира векторот во кој се чуваат фреквентните множества и миималната и максималната фреквенција. Со методата buildassociations() се генерираат фреквентните множества. Оваа метода користи приватна метода findlargeitemsets() што е реализација на Apriori алгоритмот. Кодот за методата findlargeitemsets() е даден на слика 5.4. /** * Method that finds all large itemsets for the given set of instances. * the instances to be used Exception if an attribute is numeric */ private void findlargeitemsets(instances instances)throws Exception { FastVector kminusonesets, ksets; Hashtable hashtable;

53 int necsupport, necmaxsupport,i = 0; m_instances = instances; // Find large itemsets // minimum support necsupport = (int)math.floor((m_minsupport * (double)instances.numinstances())); necmaxsupport = (int)math.floor((m_upperboundminsupport * (double)instances.numinstances())); ksets = ItemSet.singletons(instances); ItemSet.upDateCounters(kSets, instances); ksets = ItemSet.deleteItemSets(kSets, necsupport, necmaxsupport); if (ksets.size() == 0) return; do { m_ls.addelement(ksets); kminusonesets = ksets; ksets = ItemSet.mergeAllItemSets(kMinusOneSets,i,instances.numInstances()); hashtable = ItemSet.getHashtable(kMinusOneSets, kminusonesets.size()); m_hashtables.addelement(hashtable); ksets =ItemSet.pruneItemSets(kSets, hashtable); ItemSet.upDateCounters(kSets, instances); ksets =ItemSet.deleteItemSets(kSets, necsupport, necmaxsupport); i++; } while (ksets.size() > 0); } Слика 5-4 Имплементација на Аpriori алгоритам Алгоритмот започнува со повикување на методот singletons() што од множеството податоци го креира на почетното множество кандидати записи каде секој запис содржи само по еден член (атрибут). Множеството записи од к та итерација се чуваат во објектот ksets од тип FastVector. Понатаму се врши ажурирање на бројачите на трансакции од записите во векторот и се врши бришење на оние кандидати записи кои ја немаат потребната минимална фреквенција. Ваквата постапка продолжува итеративно се додека бројот на кандидати записи во к-1 итерацијата е различен од нула. Значи прво правиме спојување на сите кандидати записи и со помош на hash табелата вршиме поткастрување на множеството записи т.е ги отстрануваме оние записи кои не го исполнуваат условот за минимална фреквенција. Во променливата m_ls во секоја итерација го додаваме добиеното фреквентно множество со големина i 6 така да на крај во оваа променлива ќе го добиеме целото фреквентно множество за дадено множество податоци. 6 Под големина во овој случај се подразбира бројот на членови (атрибути) во еден запис (itemset)

54 5.4 Имплементација на алгоритмот за учење на веројатносни модели Учењето на веројатносни модели (класификатори) во системот WEKA е имплементирано во класата NaiveBayes. За потребите на дипломската работа беше извршена модификација на оваа класа така да таа со помош на опции од командна линија може да работи на стандарден начин или со користење на фреквентни множества Класа NaiveBayes Во класата NaiveBayes е имплементиран алгоритмот за учење на веројатносни модели, што е подетално опишан во поглавието 2.2. Класниот дијаграм за оваа класа е даден на слика 5-5. Во класата се дефинирани повеќе променливи, кои се користат за пресметка на веројатностите на моделот. Тридимензионалното поле m_counts [klasa] [atribut] [vrednost na atribut] се користи за пресметка на условните веројатности во случај на дискретни атрибути, m_devs [klasa] [atribut] и m_means [klasa] [atribut] се користат за пресметка на параметрите на Гаусовата распределба во случај кога имаме нумерички атрибут и m_priors [klasa] се користи за определување на априорните веројатности. Како што може да се забележи од класниот дијаграм, класата NaiveBayes ги дефинира методите кои ги наследува од основната класа Classifiers

55 Слика 5-5 UML класен дијаграм за класата NaiveBayes Во методата buildclassifier() се одлучува дали ќе се работи по стандардниот алгоритам или ќе се работи по модифицираниот алгоритам врз основа на параметрите од командната линија. Во случај кога работиме со фреквентни множества, можеме да користиме само дискретни атрибути. Тогаш прво се врши иницијализација на FrequentItemsets објект и потоа се врши генерирање на фреквентни множества. Кај овој тип на класификација, за разлика од останатите, потребни ни се само фреквентни записи со големина 1 и 2. Понатаму се повикува приватната метода calculateprobs() која ги врши потребните пресметки и прави нормализација на веројатностите. На слика 5-6 е даден програмски сегмент со кој се доделуваат вредности на бројачите за пресметка на веројатностите. //za klasna verojatnost for(int i=0;i<=((fastvector)itemsets.elementat(0)).size()-1;i++){ help=((itemset)((fastvector)itemsets.elementat(0)).elementat(i)).items(); count=((itemset)((fastvector)itemsets.elementat(0)).elementat(i)).counter(); if(help[help.length-1]!=-1) m_priors[help[help.length-1]]=count; } //naoganje na brojacite za presmetka na verojatnostite na klasite i atributite so klasite for(int i=0;i<((fastvector)itemsets.elementat(1)).size();i++){ help=((itemset)((fastvector)itemsets.elementat(1)).elementat(i)).items(); count=((itemset)((fastvector)itemsets.elementat(1)).elementat(i)).counter(); for(int j=0;j<help.length-1;j++){

56 } } if(help[j]!=-1) { m_counts[help[help.length-1]][j][help[j]]=count; } Слика 5-6 Коден сегмент за пресметка на веројатностите кај NaiveBayes Значи, како што се гледа од кодниот сегмент за определување на априорните веројатности вршиме изминување на фреквентните записи со големина 1 и кога ќе се најде запис кој во себе го содржи класен атрибут, тогаш на соодветиот елемент од полето m_priors [klasa] му се доделува фреквенцијата на појавување на вредноста на класниот атрибут во множеството податоци. На сличен начин се пополнува и полето m_counts [klasa] [atribut] [vrednost na atribut] само во тој случај се користат фреквентни записи со големина 2. За пресметка на веројатностите потребно е да се пополнат сите елементи од двете полиња и во случај кога не е позната фреквенцијата за одредена комбинација на атрибут и класа, ја доделуваме вредноста min 2 fr. При евалуацијата на моделот врз конкретно множество на податоци, модулот за евалуација ја повикува методата distributionforinstance() која враќа поле со распределба на веројатноста врз класите. Инстанцата од множеството податоци која се процесира ќе биде доделена на онаа класа за која веројатноста е најголема. Оваа метода се повикува за сите инстанци чија класа сакаме да ја определиме и според добиените резултати од класификацијата модулот за евалуација врши статистичка обработка од која можеме да ги процениме перформансите на моделот. 5.5 Имплементација на алгоритмот за учење на дрва за одлучување Учењето на дрва за одлучување во системот WEKA е имплементирано преку множество од класи. Секоја класа посебно има определена улога во алгоритмот. Концептално гледано, класите можат да се поделат во неколку групи според функцијата што ја имаат во алгоритмот и тоа: класи за манипулација со дрва за

57 одлучување, класи за селекција на модел на дрво, класи за поделба на ниво на јазол, класи за критериуми за поделба, класа за пресметка на распределбата на веројатност на ниво на јазол и др.понатаму во текстот ќе бидат разгледани некои од класите подетално, за да се опише целокупната функционалност на алгоритмот Класа Ј48 Класата Ј48 е основна класа која го имплементира алгоритмот за учење на с4.5 7 што е подетално обработен во поглавјето 2.3. Класниот дијаграм за ова класа е прикажан на слика 5-6. Слика 5-7 UML класен дијаграм за класата Ј48 7 Алоритмите врз кои се базира имплементацијата подетално се разработени во книгата: Ross Quinlan (1993). C4.5: Programs for Machine Learning, Morgan Kaufmann Publishers, San Mateo, CA

58 Во класата се дефинирани повеќе променливи кои се користат за определување на карактеристиките на дрвото. Класата Ј48 е наследник на класата Classifiers и ги имплементира методите buildclassifier(), classifyinstance() и distributionforinstance(), што се користат од модулот за евалуација Класа ClassifierTree Класа ClassifierTree е основна класа што дефинира рекурзивна структура на класификациско дрво. Класниот дијаграм за оваа класа е прикажан на слика 5-8. Слика 5-8 UML класен дијаграм за класата ClassifierTree Во класата се чуваат податоци за еден јазол од дрвото. Податоците кои дефинираат еден јазол од класификациско дрво се: модел на дрвото (ModelSelection m_toselectmodel), модел на ниво на јазол (ClassifierSplitModel m_localmodel), референци кон јазлите наследници (ClassifierTree [] m_sons), логичка променлива која определува дали јазолот е лист (boolean m_isleaf) и поле

59 од атрибути кои се искористени за поделба, по патеката од коренот до конкретниот јазол (int []m_usedattr). Полето од употребени атрибути за поделба е помошна информација која се користи од класата Distribution за пресметка на дистрибуцијата на веројатност на класите за конкретен јазол од дрвото со френвентни множества. За градење на дрвото се користи методата buildtree() во која се врши избор на најдобар атрибут за поделба преку повикување на метода selectmodel() од објектот m_toselectmodel. Методата враќа објект од тип ClassifierSplitModel кој го содржи најдобриот атрибут за поделба заедно со неговата дистрибуција. Ако е можна поделбата за избраниот атрибут, се креира поле од објекти од тип ClassifierTree што ги репрезентира наследниците (децата) на дадениот јазол и рекурзивно се повикува методата за градење на дрво. Во случај кога не е можна поделба јазолот се дефинира како лист. Изборот на најдобар атрибут за поделба ќе биде разгледан покасно во текстот. Во WEKA постојат две класи кои ја наследуваат класата ClassifierTree што се користат за дефинирање на дрво кое може да се поткаструва. Класата C45PrunableClassifierTree ги дефинира параметрите и методите за креирање на дрва кои се поткаструваат со користење на класична процедура на поткастрување опишана во поглавието Класата PrunableClassifierTree ги дефинира параметрите и методите за креирање на дрва кои се поткаструваат со користење на IREP(Increased Reduced Error Pruning) алгоритмот. Изборот на начинот на поткастрување се врши преку параметри од командна линија, т.е преку параметрите од класата Ј Апстрактна класа ModelSelection и класа C45ModelSelection Апстрактната класа ModelSelection ја дефинира апстрактната метода selectmodel() која го избира атрибутот за поделба за дадено множество на податоци. Методата враќа објект од тип ClassifierSplitModel што содржи информации и параметри за самата поделба. Класите C45ModelSelection и BinC45ModelSelection ја имплементираат апстрактната класа ModelSelection. Класата BinC45ModelSelection дефинира бинарен тип на поделба, т.е се гради бинарно стебло, додека со класата C45ModelSelection вршиме градење на општо стебло (во гранките се опфатени

60 сите вредности на даден атрибут). Класниот дијаграм за класата C45ModelSelection ќе биде прикажан на слика 5-9. Слика 5-9 UML класен дијаграм за класата C45ModelSelection Методата selectmodel() може да се подели на два дела. Во првиот дел се врши проверка дали се исполнети сите неопходни предуслови за поделбата како што се: неопходен број на инстанци за поделба и дали сите инстанци припаѓаат на иста класа. Доколку поделба не е можна методата враќа објект од тип NoSplit. Во вториот дел се иницијализира поле од објекти од тип C45Split за сите атрибути и се врши избор на најдобар атрибут. Од сите можни поделби, се избира онаа поделба што ја максимизира параметарот gain ratio дефиниран во делот Методата ја враќа најдобрата поделба. Методата selectmodel() за класата BinC45ModelSelection е аналогна на претходно опишаната, така да нема посебно да биде разгледана Апстрактна класа ClassifierSplitModel и класа C45Split Апстрактната класа ClassifierSplitModel се користи за класификациски модели што вршат рекурзивна поделба на податоците. Класниот дијаграм за оваа класа е даден на слика

61 Слика 5-10 UML класен дијаграм за класата ClassifierSplitModel Во класата се дефинирани повеќе променливи кои ја опишуваат поделбата на ниво на јазол и тоа: во m_attindex се чува индексот на атрибутот што се користи за поделба, во m_distribution се чува распределбата на веројатност за таквата поделба и во променливата m_numsubsets го чуваме бројот на генерираните деца на конкретниот јазол. Апстрактната класа декларира повеќе методи што ги имплементираат класите: C45Split, Bin C45Split и NoSplit. Класата C45Split иплементира C45 вид на поделба врз конкретен атрибут. Класниот дијаграм за ова класа е даден на слика Од класниот дијаграм може да се забележи дека во класата се чуваат податоци што се битни за конкретна поделба и се користат од страна на методата selectmodel() за избор на најдобра поделба. Се чуваат вредностите за информационата добивка m_infogain и факторот на добивка m_gainratio, заедно со статичките референци кон објекти InfoGainSplitCrit и GainRatioSplitCrit. Во случај кога имаме нумерички атрибути во променливата m_splitpoint ја чуваме вредноста од поделбата

62 Слика 5-11 UML класен дијаграм за класата C45Split Во методата buildclassifier() се врши иницијализација на параметрите од објектот и се повикуваат приватните методи за справување со дискретен или нумерички тип на атрибут. Приватната метода handleenumeratedattribute() прави поделба врз дискретен атрибут. Во методата прво се врши иницијализација на објект од тип Distribution во кој се чуваат распределбите за дадена поделба. Врз основа на распределбата и со користење на методите од објектите InfoGainSplitCrit и GainRatioSplitCrit се определуваат вредностите за информациската добивка и факторот на добивка кои се користат понатаму за определување на најдобар атрибут за поделба. Приватната метода handlenumericattribute() се користи за поделба врз нумерички атрибути. Во методата се врши определување на најдобрата вредност за точката на поделба m_splitpoint, бидејќи кај нумеричките атрибути е можна само бинарна поделба на атрибутите. Класата Bin C45Split се користи во случај кога имаме бинарна поделба на атрибути. Податоците и методите што ги имплементира оваа класа се аналогни на претходно опишаните така да тие нема посебно да бидат разгледувани

63 5.5.5 Класа Distribution Класата Distribution се користи за справување со распределбата на класни вредности при поделба со даден атрибут. Класниот дијаграм за оваа класа е прикажан на слика Слика 5-12 UML класен дијаграм за класата Distribution

64 Од класниот дијаграм се гледа дека за определлување на распределбата на класни вредности се користат променливите: матрица m_perclassperbag[klasa][vrednost na atribut] што дава распределба на бројот на инстанци по класи и по вредности на даден атрибут, вектор m_perbag[vrednost na atribut] што дава распределба на бројот на инстанци по вредности на атрибут, вектор m_perclass[klasa] што дава распределба на бројот на инстанци по класи и променлива total во која се чува вкупниот број на инстанци кои се процесираат. Во класата се дефинирни повеќе конструктори за истата класа да може да се користи за определување за распределбите од страна на сите класи од пакетот Ј48. Во оваа класа е имплементирана модификацијата на алгоритмот за користење на податоците за фреквенцијата на фреквентните записи за определување на распределбата на класни вредности. Модификацијата на алгоритмот е реализирана преку методата populatedistribution() прикажана на слика public final void populatedistribution(int attindex,int[] usedatt,frequentitemsets itemsets){ int bags=this.numbags(); int[] usedattr=usedatt; int numclasses=this.numclasses(); int numofusedattr=0; for(int i=0;i<usedatt.length-1;i++) if (usedatt[i]!=-1) numofusedattr++; for(int i=0;i<numclasses;i++) m_perclass[i]=0; for(int i=0;i<bags;i++){ m_perbag[i]=0; for(int j=0;j<numclasses;j++) m_perclassperbag[i][j]=(int)((itemsets.getminsupport()/(numofusedattr+1))/2); } int sizeofsets=((fastvector)itemsets.getitemset()).size(); if (sizeofsets>numofusedattr+1){ int sizeattcl=((fastvector)((fastvector)itemsets.getitemset()).elementat(numofusedattr+1)).size(); for(int j=0;j<numclasses;j++){ usedattr[usedattr.length-1]=new Double(j).intValue(); for(int x=0;x<bags;x++){ usedattr[attindex]=x; for(int i=0;i<sizeattcl;i++){ int[]pom=((itemset)((fastvector)((fastvector)itemsets.getitemset()).elementat(numofusedattr+1)).e lementat(i)).items(); intfreq=((itemset)((fastvector)((fastvector)itemsets.getitemset()).elementat(numofusedattr+1)).ele mentat(i)).counter(); if(arrays.equals(usedattr,pom)){ m_perclassperbag[x][j]=freq; break;

65 } } } } } }//end if for(int i=0;i<bags;i++) m_perbag[i]=utils.sum(m_perclassperbag[i]); for(int j=0;j<numclasses;j++) for(int i=0;i<bags;i++) m_perclass[j]+=m_perclassperbag[i][j]; total=0; for(int i=0;i<numclasses;i++) for(int j=0;j<bags;j++) total+=m_perclassperbag[j][i]; Слика 5-13 Функција populatedistribution() Функцијата populatedistribution() прима три аргументи и тоа: attindex (индекс на атрибутот за поделба), usedatt (поле од атрибути кои се искористени по патеката од коренот до конкретниот јазол) и itemsets (генерирани фреквентни записи за множеството падатоци). Методата прво врши иницијализација на полињата m_perbag[] и m_perclass[] на вредност нула. Матрицата m_perclassperbag[][] се иницијализира на вредност min fr 2( numofusedatrr + 1) каде min fr е минималната фреквенција од Apriori алгоритмот, а numofusedattr е бројот на искористени атрибути по патеката од коренот до јазолот кој го процесираме. Иницијализацијата е направена за да се справиме со вредностите на фреквенцијата за оние записи кои не се фреквентни. Подетален опис за изборот на оваа проценка е даден во делот 4.3. Во променливата sizeofsets ја сместуваме максималната големина на генерираните фреквентни записи. Доколку вредноста на sizeofsets е поголема од бројот numofusedattr + 1 се врши изминување на фреквентните записи со големина numofusedattr + 1 и се пополнува матрицата со распределбите. Во случај кога не е позната вредноста за фреквенцијата на некој од фреквентните записи во матрицата останува иницијалната вредност поставена на почетокот од функцијата. Ако вредноста на sizeofsets е помала од бројот numofusedattr + 1 тогаш не ги изминуваме фреквентните записи, бидејќи не постојат генерирани фреквентни записи со таква големина и вредностите на матрицата остануваат на иницијалната вредност

66 Врз основа на матрицата m_perclassperbag[][] се пресметуваат векторите m_perbag[] и m_perclass[] Класи InfoGainSplitCrit и GainRatioSplitCrit За пресметка на информациската добивка и факторот на добивка за дадена распределба на класни вредности се користат класите InfoGainSplitCrit и GainRatioSplitCrit. Класните дијаграми за овие класи се дадени на сликите 5-14 и 5-15 соодветно. Слика 5-14 UML класен дијаграм за класата InfoGainSplitCrit Слика 5-15 UML класен дијаграм за класата GainRatioSplitCrit Од класните дијаграми се гледа дека и двете класи ја наследуваат класата EntropyBasedSplitCrit. Во методите се имплементирани алгоритми за пресметка на информациска добивка и фактор на добивка за дадена распределба на класни

67 вредности. Понатаму овие вредности ќе се искористат за избор на најдобар атрибут за поделба. 5.6 Имплементација на алгоритмот за учење на правила за одлучување Учењето на правила за одлучување со RIPPER алгоритам во системот WEKA е имплементирано преку класата JRIP. Во класата JRIР се вгнездени приватни класи и тоа: апстрактна класа Antd што дефинира еден услов во правилото, класи NumericAntd и NominalAntd што ја имплементираат апстрактната класа Antd и служат за справување со нумерички и дискретни услови соодветно и класа RipperRule што дефинира изглед на едно класификациско правило. За потребите на алгоритмот се дефинира и помшна класа RuleStats која ги дефинира потребните статистички функции што се користат во самиот алгоритам Класа JRip Класата JRip ја наследува класата Classifiers и ги имплементира методите buildclassifier(), classifyinstance() и distributionforinstance(), што се користат од модулот за евалуација. Класниот дијаграм за оваа класа е даден на слика Класата JRip ги дефинира параметрите на алгоритмот како што се: множество на генерирани правила FastVector m_ruleset, класниот атрибут Attribute m_class, статистики за множеството правила FastVector m_rulesetstats и други параметри за фазата на поткастрување. Методата buildclassifier() ги гради правилата за одлучување по растечки редослед на класните фреквенции. За секоја класа алгоритмот рабои во две фази: фаза на градење и фаза на оптимизација. Со подесување на параметрите од командна линија може да се користи само фазата на градење, без да имаме поткастрување и оптимизација на добиените правила. За секоја класа се генерираат правила со повикување на методата rulesetforoneclass(), сé додека не биде задоволен условот за престанување на генерирањето на правилата

68 Слика 5-16 UML класен дијаграм за класата Jrip Mетодата rulesetforoneclass() е имплементација на RIPPER алгоритмот. Во случајот кога користиме поткастрување на правилата почетното множество на податоци го делиме на подмножество за растење и подмножество за поткастрување на правилата. За генерирањето на правила да биде статистички исправно мора да се изврши претходна стратификација на податоците. Понатаму се креира објект од тип RipperRule што претставува едно правило и се врши негово растење и поткастрување. Во случај кога не користиме поткастрување на правилата имаме само растење на правилата. Во фазата на оптимизација се повторуваат истите чекори само условите за престанок на генерирање на преавилата се различни

69 5.6.2 Апстрактна класа Antd и класа NominalAntd Класата Antd дефинира еден услов од правилото. Еден услов се состои од пар атрибут и вредност на атрибут. Класниот дијаграм за оваа класа е даден на слика Слика 5-17 UML класен дијаграм за класата Antd Класата чува податоци за: атрибутот att, вредноста на атрибутот value, максималната информациска добивка која се остварува со примена на овој услов врз податоците за растење maxinfogain, ратата на точност врз податоците за растење accurate, покриеност која се остварува врз податоците за растење cover и точноста на овој услов accu. Класата дефинира апстрактна метода splitdata() која се користи за поделба на податоците според условот, Класата NominalAntd ја наследува класата Antd и се користи за работа со дискретни атрибути. Класниот дијаграм за оваа класа е прикажан на слика

70 Слика 5-18 UML класен дијаграм за класата NominalAntd Класата NominalAntd дополнително дефинира два вектори accurate[] и coverage[] за пресметка на информациската добивка за сите вредности на атрибутот за податоците за обучување. Во методата splitdata() е имплементирана модификацијата на алгоритмот за користење на информација за фреквенцијата од фреквентните множества. Имплементацијата кај правилата е слична со таа кај дрвата на одлучување. Тука се користат фреквентни записи со големина која е еднаква на бројот на употребени услови во правилото. Ова информација ја добиваме со проследување на вектор од објекти од тип NominalAntd на самата метода. Од овој вектор ја добиваме и информацијата кои од атрибутите заедно со вредностите биле употребени во правилото до тогаш, за точно да можеме да ги изминеме оние фреквентни записи што ја даваат фреквенцијата на појавување на групата атрибут-вредност за сите вредности на атрибутот кој се процесира. Оној услов кој врши максимизирање на информациската добивка се додава во правилото и итеративно се повторува целата постапка за атрибутите кои не се опфатени во правилото

71 5.6.3 Апстрактна класа Rule и класа RipperRule Апстрактната класа Rule дефинира општо правило за одлучување и ги дава дефинициите на методите кои ги имплементираат сите правила за одлучување. Класата RipperRule ја наследува и иплементира класата Rule. Класниот дијаграм за класата е прикажан на слика Слика 5-19 UML класен дијаграм на класата RipperRule Едно правило за одлучување се состои од вектор од услови m_antds и последица на правилото m_consequent. Основни методи кои ги имплементира оваа класа се: grow() и prune(), за растење и поткастрување на правилата соодветно. Методата grow() го гради правилото од податоците за растење. Во неа се врши додавање на услови на правилото при позната последица. Се започува од празно правило и се изминуваат сите атрибути. За секој атрибут се врши пресметка на информациската добивка за сите вредности на конкретниот атрибут. Во правилото се додава оној пар атрибут-вредност кој ја максимизира информациската добивка т.е покрива повеќе позитивни примероци за класата. Методата prune() го поткаструва правилото со податоците за поткастрување со користење на стандардните алгоритми за поткастрување на правила

М-р Јасмина Буневска ОСНОВИ НА ПАТНОТО ИНЖЕНЕРСТВО

М-р Јасмина Буневска ОСНОВИ НА ПАТНОТО ИНЖЕНЕРСТВО УНИВЕРЗИТЕТ СВ. КЛИМЕНТ ОХРИДСКИ - БИТОЛА ТЕХНИЧКИ ФАКУЛТЕТ - БИТОЛА - Отсек за сообраќај и транспорт - ДОДИПЛОМСКИ СТУДИИ - ECTS М-р Јасмина Буневска ОСНОВИ НА ПАТНОТО ИНЖЕНЕРСТВО ПРИЛОГ ЗАДАЧИ ОД ОПРЕДЕЛУВАЊЕ

Διαβάστε περισσότερα

37. РЕПУБЛИЧКИ НАТПРЕВАР ПО ФИЗИКА 2013 основни училишта 18 мај VII одделение (решенија на задачите)

37. РЕПУБЛИЧКИ НАТПРЕВАР ПО ФИЗИКА 2013 основни училишта 18 мај VII одделение (решенија на задачите) 37. РЕПУБЛИЧКИ НАТПРЕВАР ПО ФИЗИКА 03 основни училишта 8 мај 03 VII одделение (решенија на задачите) Задача. Во еден пакет хартија која вообичаено се користи за печатење, фотокопирање и сл. има N = 500

Διαβάστε περισσότερα

ИСПИТ ПО ПРЕДМЕТОТ ВИСОКОНАПОНСКИ МРЕЖИ И СИСТЕМИ (III година)

ИСПИТ ПО ПРЕДМЕТОТ ВИСОКОНАПОНСКИ МРЕЖИ И СИСТЕМИ (III година) Septemvri 7 g ИСПИТ ПО ПРЕДМЕТОТ ВИСОКОНАПОНСКИ МРЕЖИ И СИСТЕМИ (III година) Задача 1. На сликата е прикажан 4 kv преносен вод со должина L = 18 km кој поврзува ЕЕС со бесконечна моќност и една електрична

Διαβάστε περισσότερα

ВЕРОЈАТНОСТ И СТАТИСТИКА ВО СООБРАЌАЈОТ 3. СЛУЧАЈНИ ПРОМЕНЛИВИ

ВЕРОЈАТНОСТ И СТАТИСТИКА ВО СООБРАЌАЈОТ 3. СЛУЧАЈНИ ПРОМЕНЛИВИ Предавање. СЛУЧАЈНИ ПРОМЕНЛИВИ. Еднодимензионална случајна променлива При изведување на експеримент, случајниот настан може да има многу различни реализации. Ако ги знаеме можните реализации и ако ја знаеме

Διαβάστε περισσότερα

а) Определување кружна фреквенција на слободни пригушени осцилации ωd ωn = ω б) Определување периода на слободни пригушени осцилации

а) Определување кружна фреквенција на слободни пригушени осцилации ωd ωn = ω б) Определување периода на слободни пригушени осцилации Динамика и стабилност на конструкции Задача 5.7 За дадената армирано бетонска конструкција од задачата 5. и пресметаните динамички карактеристики: кружна фреквенција и периода на слободните непригушени

Διαβάστε περισσότερα

46. РЕГИОНАЛЕН НАТПРЕВАР ПО ФИЗИКА април III година. (решенија на задачите)

46. РЕГИОНАЛЕН НАТПРЕВАР ПО ФИЗИКА април III година. (решенија на задачите) 46. РЕГИОНАЛЕН НАТПРЕВАР ПО ФИЗИКА 3 април 3 III година (решенија на задачите) Задача. Хеликоптер спасува планинар во опасност, спуштајќи јаже со должина 5, и маса 8, kg до планинарот. Планинарот испраќа

Διαβάστε περισσότερα

ЗАДАЧИ ЗА УВЕЖБУВАЊЕ НА ТЕМАТА ГЕОМЕТРИСКИ ТЕЛА 8 ОДД.

ЗАДАЧИ ЗА УВЕЖБУВАЊЕ НА ТЕМАТА ГЕОМЕТРИСКИ ТЕЛА 8 ОДД. ЗАДАЧИ ЗА УВЕЖБУВАЊЕ НА ТЕМАТА ГЕОМЕТРИСКИ ТЕЛА 8 ОДД. ВО ПРЕЗЕНТАЦИЈАТА ЌЕ ПРОСЛЕДИТЕ ЗАДАЧИ ЗА ПРЕСМЕТУВАЊЕ ПЛОШТИНА И ВОЛУМЕН НА ГЕОМЕТРИСКИТЕ ТЕЛА КОИ ГИ ИЗУЧУВАМЕ ВО ОСНОВНОТО ОБРАЗОВАНИЕ. СИТЕ ЗАДАЧИ

Διαβάστε περισσότερα

НАПРЕГАЊЕ ПРИ ЧИСТО СМОЛКНУВАЊЕ

НАПРЕГАЊЕ ПРИ ЧИСТО СМОЛКНУВАЊЕ Факултет: Градежен Предмет: ЈАКОСТ НА МАТЕРИЈАЛИТЕ НАПРЕГАЊЕ ПРИ ЧИСТО СМОЛКНУВАЊЕ Напрегање на смолкнување е интензитет на сила на единица површина, што дејствува тангенцијално на d. Со други зборови,

Διαβάστε περισσότερα

46. РЕГИОНАЛЕН НАТПРЕВАР ПО ФИЗИКА април II година (решенија на задачите)

46. РЕГИОНАЛЕН НАТПРЕВАР ПО ФИЗИКА април II година (решенија на задачите) 46 РЕГИОНАЛЕН НАТПРЕВАР ПО ФИЗИКА 03 0 април 03 година (решенија на задачите Задача Tочкаст полнеж е поставен во темето на правиот агол на правоаголен триаголник како што е прикажано на слика Јачината

Διαβάστε περισσότερα

Предизвици во моделирање

Предизвици во моделирање Предизвици во моделирање МОРА да постои компатибилност на јазлите од мрежата на КЕ на спојот на две површини Предизвици во моделирање Предизвици во моделирање Предизвици во моделирање Предизвици во моделирање

Διαβάστε περισσότερα

I. Теорија на грешки

I. Теорија на грешки I. Теорија на грешки I.. Вовед. Еден отпорник со назначена вредност од 000 Ω, измерен е со многу точна постапка и добиена е вредност од 000,9Ω. Да се одреди номиналната вредност на, конвенционално точната

Διαβάστε περισσότερα

σ d γ σ M γ L = ЈАКОСТ 1 x A 4М21ОМ02 АКСИЈАЛНИ НАПРЕГАЊА (дел 2) 2.6. СОПСТВЕНА ТЕЖИНА КАКО АКСИЈАЛНА СИЛА Напонска состојаба

σ d γ σ M γ L = ЈАКОСТ 1 x A 4М21ОМ02 АКСИЈАЛНИ НАПРЕГАЊА (дел 2) 2.6. СОПСТВЕНА ТЕЖИНА КАКО АКСИЈАЛНА СИЛА Напонска состојаба 4МОМ0 ЈАКОСТ АКСИЈАЛНИ НАПРЕГАЊА (дел ) наставник:.6. СОПСТВЕНА ТЕЖИНА КАКО АКСИЈАЛНА СИЛА Напонска состојаба γ 0 ( специфична тежина) 0 ak() G γ G ΣX0 ak() G γ ak ( ) γ Аксијалната сила и напонот, по

Διαβάστε περισσότερα

НЕКОИ АЛГОРИТМИ ЗА РЕШАВАЊЕ НА ЗАДАЧАТА НА ПАТУВАЧКИОТ ТРГОВЕЦ

НЕКОИ АЛГОРИТМИ ЗА РЕШАВАЊЕ НА ЗАДАЧАТА НА ПАТУВАЧКИОТ ТРГОВЕЦ МАТЕМАТИЧКИ ОМНИБУС, 1 (2017), 101 113 НЕКОИ АЛГОРИТМИ ЗА РЕШАВАЊЕ НА ЗАДАЧАТА НА ПАТУВАЧКИОТ ТРГОВЕЦ Ирена Стојковска 1 Задачата на патувачкиот трговец е комбинаторна оптимизациона задача со едноставна

Διαβάστε περισσότερα

Методина гранични елементи за инженери

Методина гранични елементи за инженери Методина гранични елементи за инженери доц. д-р Тодорка Самарџиоска Градежен факултет УКИМ -Скопје Типовина формулации со гранични елементи директна формулација: Интегралната равенка е формулирана во врска

Διαβάστε περισσότερα

ИНТЕЛИГЕНТНИ СЕНЗОРСКИ НОДОВИ

ИНТЕЛИГЕНТНИ СЕНЗОРСКИ НОДОВИ УНИВЕРЗИТЕТ СВ. КЛИМЕНТ ОХРИДСКИ БИТОЛА ФАКУЛТЕТ ЗА ИНФОРМАТИЧКИ И КОМУНИКАЦИСКИ ТЕХНОЛОГИИ БИТОЛА студиска програма по ИНФОРМАТИКА И КОМПЈУТЕРСКА ТЕХНИКА Втор циклус ИНТЕЛИГЕНТНИ СЕНЗОРСКИ НОДОВИ -Магистески

Διαβάστε περισσότερα

Регулација на фреквенција и активни моќности во ЕЕС

Регулација на фреквенција и активни моќности во ЕЕС 8 Регулација на фреквенција и активни моќности во ЕЕС 8.1. Паралелна работа на синхроните генератори Современите електроенергетски системи го напојуваат голем број на синхрони генератори кои работат паралелно.

Διαβάστε περισσότερα

( ) ( ) ( ) ( ) ( ) ( )

( ) ( ) ( ) ( ) ( ) ( ) Мерни мостови и компензатори V. Мерни мостови и компензатори V.. Мерни мостови. Колкава е вредноста на отпорот измерен со Томпсоновиот мост ако се: Ω,, Ω 6 и Ω. Колкава процентуална грешка ќе се направи

Διαβάστε περισσότερα

Етички став спрема болно дете од анемија Г.Панова,Г.Шуманов,С.Јовевска,С.Газепов,Б.Панова Факултет за Медицински науки,,универзитет Гоце Делчев Штип

Етички став спрема болно дете од анемија Г.Панова,Г.Шуманов,С.Јовевска,С.Газепов,Б.Панова Факултет за Медицински науки,,универзитет Гоце Делчев Штип Етички став спрема болно дете од анемија Г.Панова,Г.Шуманов,С.Јовевска,С.Газепов,Б.Панова Факултет за Медицински науки,,универзитет Гоце Делчев Штип Апстракт Вовед:Болести на крвта можат да настанат кога

Διαβάστε περισσότερα

Примена на Matlab за оптимизација на режимите на работа на ЕЕС

Примена на Matlab за оптимизација на режимите на работа на ЕЕС 6. СОВЕТУВАЊЕ Охрид, 4-6 октомври 2009 Мирко Тодоровски Ристо Ачковски Јовица Вулетиќ Факултет за електротехника и информациски технологии, Скопје Примена на Matlab за оптимизација на режимите на работа

Διαβάστε περισσότερα

ШЕМИ ЗА РАСПОРЕДУВАЊЕ НА ПРОСТИТЕ БРОЕВИ

ШЕМИ ЗА РАСПОРЕДУВАЊЕ НА ПРОСТИТЕ БРОЕВИ МАТЕМАТИЧКИ ОМНИБУС, (07), 9 9 ШЕМИ ЗА РАСПОРЕДУВАЊЕ НА ПРОСТИТЕ БРОЕВИ Весна Целакоска-Јорданова Секој природен број поголем од што е делив самo со и сам со себе се вика прост број. Запишани во низа,

Διαβάστε περισσότερα

Анализа на триаголници: Упатство за наставникот

Анализа на триаголници: Упатство за наставникот Анализа на триаголници: Упатство за наставникот Цел:. Што мислиш? Колку многу триаголници со основа a=4см и висина h=3см можеш да нацрташ? Линк да Видиш и Направиш Mathcast за Што мислиш? Нацртај точка

Διαβάστε περισσότερα

ЈАКОСТ НА МАТЕРИЈАЛИТЕ

ЈАКОСТ НА МАТЕРИЈАЛИТЕ диј е ИКА ски ч. 7 ч. Универзитет Св. Кирил и Методиј Универзитет Машински Св. факултет Кирил и Скопје Методиј во Скопје Машински факултет МОМ ТЕХНИЧКА МЕХАНИКА професор: доц. др Виктор Гаврилоски. ТОРЗИЈА

Διαβάστε περισσότερα

3. ПРЕСМЕТКА НА КРОВ НА КУЌА СО ТРИГОНОМЕТРИЈА

3. ПРЕСМЕТКА НА КРОВ НА КУЌА СО ТРИГОНОМЕТРИЈА 3. ПРЕСМЕТКА НА КРОВ НА КУЌА СО ТРИГОНОМЕТРИЈА Цел: Учениците/студентите да се запознаат со равенки за пресметка на: агли, периметар, плоштина, волумен на триаголна призма, како од теоретски аспект, така

Διαβάστε περισσότερα

Грешки при хемиските анализи Случајни грешки Статистичка анализа

Грешки при хемиските анализи Случајни грешки Статистичка анализа Инструментални аналитички методи А-ниво 4+1+4 (вторник и среда 8-10, среда 10-11, понед. 9-15, четв. 1-15) Марина Стефова, кабинет 31, лаб. 310, mariaiv@pmf.ukim.mk Литература: Д.А. Ског, Д.М. Вест, Ф.Џ.

Διαβάστε περισσότερα

45 РЕГИОНАЛЕН НАТПРЕВАР ПО ФИЗИКА 2012 II година (решенија на задачите)

45 РЕГИОНАЛЕН НАТПРЕВАР ПО ФИЗИКА 2012 II година (решенија на задачите) 45 РЕГИОНАЛЕН НАТПРЕВАР ПО ФИЗИКА 1 II година (решенија на задачите) 1 Координатите на два точкасти полнежи q 1 = + 3 µ C и q = 4µ C, поставени во xy рамнината се: x 1 = 3, 5cm; y 1 =, 5cm и x = cm; y

Διαβάστε περισσότερα

МОДЕЛИРАЊЕ СО СТРУКТУРНИ РАВЕНКИ И ПРИМЕНА

МОДЕЛИРАЊЕ СО СТРУКТУРНИ РАВЕНКИ И ПРИМЕНА УНИВЕРЗИТЕТ ГОЦЕ ДЕЛЧЕВ ШТИП ФАКУЛТЕТ ЗА ИНФОРМАТИКА ПРИМЕНЕТА МАТЕМАТИКА Штип ВАСИЛКА ВИТАНОВА МОДЕЛИРАЊЕ СО СТРУКТУРНИ РАВЕНКИ И ПРИМЕНА МАГИСТЕРСКИ ТРУД Штип, 14 UNIVERSITY "GOCE DELCEV" - STIP FACULTY

Διαβάστε περισσότερα

СТАНДАРДНИ НИСКОНАПОНСКИ СИСТЕМИ

СТАНДАРДНИ НИСКОНАПОНСКИ СИСТЕМИ НН трифазни мрежи се изведуваат со три или четири спроводника мрежите со четири спроводника можат да преминат во мрежи со пет спроводника, но со оглед што тоа во пракса се прави во објектите (кај потрошувачите),

Διαβάστε περισσότερα

Универзитет Св. Кирил и Методиј -Скопје Факултет за електротехника и информациски технологии ДИНАМИЧКА ВИЗУЕЛИЗАЦИЈА НА СОФТВЕР. -магистерски труд-

Универзитет Св. Кирил и Методиј -Скопје Факултет за електротехника и информациски технологии ДИНАМИЧКА ВИЗУЕЛИЗАЦИЈА НА СОФТВЕР. -магистерски труд- Универзитет Св. Кирил и Методиј -Скопје Факултет за електротехника и информациски технологии ДИНАМИЧКА ВИЗУЕЛИЗАЦИЈА НА СОФТВЕР -магистерски труд- Ментор Проф. Д-р Сузана Лошковска Кандидат Александра

Διαβάστε περισσότερα

Проф. д-р Ѓорѓи Тромбев ГРАДЕЖНА ФИЗИКА. Влажен воздух 3/22/2014

Проф. д-р Ѓорѓи Тромбев ГРАДЕЖНА ФИЗИКА. Влажен воздух 3/22/2014 Проф. д-р Ѓорѓи Тромбев ГРАДЕЖНА ФИЗИКА Влажен воздух 1 1 Влажен воздух Влажен воздух смеша од сув воздух и водена пареа Водената пареа во влажниот воздух е претежно во прегреана состојба идеален гас.

Διαβάστε περισσότερα

ТАРИФЕН СИСТЕМ ЗА ДИСТРИБУЦИЈА

ТАРИФЕН СИСТЕМ ЗА ДИСТРИБУЦИЈА ТАРИФЕН СИСТЕМ ЗА ДИСТРИБУЦИЈА Тарифен систем за ДС на ЕВН Македонија 2014 година (rke.org.mk) Надоместок за користење на дистрибутивниот систем плаќаат сите потрошувачи, корисници на дистрибутивниот сите

Διαβάστε περισσότερα

Душан Чакмаков. Веројатност

Душан Чакмаков. Веројатност Душан Чакмаков Веројатност Интерна скрипта, Машински факултет Скопје, 04 ii Содржина. Вовед.... Случајни настани и веројатност... 5.. Простор на случајни настани... 5.. Аксиоми на веројатност... 9.3. Класичен

Διαβάστε περισσότερα

ЕЛЕКТРОМАГНЕТНА АНАЛИЗА И ПРЕСМЕТКА НА ЕЛЕКТРОМАГНЕТНА СИЛА КАЈ МОДЕЛ НА СИНХРОН ЛИНЕАРЕН МОТОР ПО МЕТОД НА КОНЕЧНИ ЕЛЕМЕНТИ

ЕЛЕКТРОМАГНЕТНА АНАЛИЗА И ПРЕСМЕТКА НА ЕЛЕКТРОМАГНЕТНА СИЛА КАЈ МОДЕЛ НА СИНХРОН ЛИНЕАРЕН МОТОР ПО МЕТОД НА КОНЕЧНИ ЕЛЕМЕНТИ 6. СОВЕТУВАЊЕ Охрид, 4-6 октомври 2009 Мирка Попниколова Радевска Благоја Арапиноски Технички Факултет, Битола Драган Видановски ЕЛЕМ, Подружница РЕК Битола ЕЛЕКТРОМАГНЕТНА АНАЛИЗА И ПРЕСМЕТКА НА ЕЛЕКТРОМАГНЕТНА

Διαβάστε περισσότερα

м-р Дејан Д. Ѓорѓевиќ КОМБИНИРАЊЕ НА КЛАСИФИКАТОРИ ЗА ПРЕПОЗНАВАЊЕ НА БРОЕВИ НАПИШАНИ СО РАКА

м-р Дејан Д. Ѓорѓевиќ КОМБИНИРАЊЕ НА КЛАСИФИКАТОРИ ЗА ПРЕПОЗНАВАЊЕ НА БРОЕВИ НАПИШАНИ СО РАКА УНИВЕРЗИТЕТ Св. КИРИЛ И МЕТОДИЈ - СКОПЈЕ ЕЛЕКТРОТЕХНИЧКИ ФАКУЛТЕТ м-р Дејан Д. Ѓорѓевиќ КОМБИНИРАЊЕ НА КЛАСИФИКАТОРИ ЗА ПРЕПОЗНАВАЊЕ НА БРОЕВИ НАПИШАНИ СО РАКА - докторска дисертација - Скопје, 2004 година

Διαβάστε περισσότερα

Генерирање на Концепти

Генерирање на Концепти Час #7 (Дел 1) Генерирање на Концепти Recommended study materials in addition to these lecture notes: Text : The Mechanical Design Process 4 th edition by David G. Ullman Chapter 7, Pages: 171-211 Prof.

Διαβάστε περισσότερα

НУМЕРИЧКО МОДЕЛИРАЊЕ НА ГАЛАКСИИ

НУМЕРИЧКО МОДЕЛИРАЊЕ НА ГАЛАКСИИ Школа млади физичари 39, (2014) p. 1-12 НУМЕРИЧКО МОДЕЛИРАЊЕ НА ГАЛАКСИИ Наце Стојанов 1. ВОВЕД Kомпјутерските симулации, гледано воопштено, се прават заради разбирањете на својствата на објектите или

Διαβάστε περισσότερα

ФРАКТАЛИ: ДЕФИНИЦИЈА, КОНСТРУКЦИЈА, СВОЈСТВА И ПРИМЕНА. Елена Хаџиева 1 Јован Петкоски 2 1. ВОВЕД

ФРАКТАЛИ: ДЕФИНИЦИЈА, КОНСТРУКЦИЈА, СВОЈСТВА И ПРИМЕНА. Елена Хаџиева 1 Јован Петкоски 2 1. ВОВЕД МАТЕМАТИЧКИ ОМНИБУС, 3 (2018), 21 41 http://im-pmf.weebly.com/matematicki-omnibus-kniga-3.html ФРАКТАЛИ: ДЕФИНИЦИЈА, КОНСТРУКЦИЈА, СВОЈСТВА И ПРИМЕНА Елена Хаџиева 1 Јован Петкоски 2 1. ВОВЕД Една од воведните

Διαβάστε περισσότερα

Од точката С повлечени се тангенти кон кружницата. Одреди ја големината на AOB=?

Од точката С повлечени се тангенти кон кружницата. Одреди ја големината на AOB=? Задачи за вежби тест плоштина на многуаголник 8 одд На што е еднаков збирот на внатрешните агли кај n-аголник? 1. Одреди ја плоштината на паралелограмот, според податоците дадени на цртежот 2. 3. 4. P=?

Διαβάστε περισσότερα

45 РЕГИОНАЛЕН НАТПРЕВАР ПО ФИЗИКА 2012 III година (решенија на задачите)

45 РЕГИОНАЛЕН НАТПРЕВАР ПО ФИЗИКА 2012 III година (решенија на задачите) 45 РЕГИОНАЛЕН НАТПРЕВАР ПО ФИЗИКА III година (решенија на задачите Рамнострана стаклена призма чиј агол при врвот е = 6 поставена е во положба на минимална девијација за жолтата светлина Светлината паѓа

Διαβάστε περισσότερα

ИНСТРУМЕНТАЛНИ МЕТОДИ ЗА АНАЛИЗА

ИНСТРУМЕНТАЛНИ МЕТОДИ ЗА АНАЛИЗА ИНСТРУМЕНТАЛНИ МЕТОДИ ЗА АНАЛИЗА интерна скрипта за студентите од УГД Штип Рубин Гулабоски Виолета Иванова Петропулос Универзитет Гоце Делчев-Штип, Штип, 2014 година 1 Вовед Инструменталните методи за

Διαβάστε περισσότερα

6. СОВЕТУВАЊЕ. Охрид, 4-6 октомври 2009

6. СОВЕТУВАЊЕ. Охрид, 4-6 октомври 2009 6. СОВЕТУВАЊЕ Охрид, 4-6 октомври 009 м-р Методија Атанасовски Технички Факултет, Битола д-р Рубин Талески Факултет за Електротехника и Информациски Технологии, Скопје ИСТРАЖУВАЊЕ НА ЕФИКАСНОСТА НА МАРГИНАЛНИТЕ

Διαβάστε περισσότερα

4.3 Мерен претворувач и мерен сигнал.

4.3 Мерен претворувач и мерен сигнал. 4.3 Мерен претворувач и мерен сигнал. 1 2 Претворањето на процесната величина во мерен сигнал се изведува со помош на мерен претворувач. Може да се каже дека улогата на претворувачот е претворање на енергијата

Διαβάστε περισσότερα

МЕТОДИ ЗА ДИГИТАЛНО ДИРЕКТНО ФАЗНО УПРАВУВАЊЕ НА СЕРИСКИ РЕЗОНАНТНИ ЕНЕРГЕТСКИ КОНВЕРТОРИ

МЕТОДИ ЗА ДИГИТАЛНО ДИРЕКТНО ФАЗНО УПРАВУВАЊЕ НА СЕРИСКИ РЕЗОНАНТНИ ЕНЕРГЕТСКИ КОНВЕРТОРИ 8. СОВЕТУВАЊЕ Охрид, 22 24 септември Љупчо Караџинов Факултет за електротехника и информациски технологии, Универзитет Светите Кирил и Методиј Скопје Гоце Стефанов Факултет за електротехника Радовиш,Универзитет

Διαβάστε περισσότερα

ИНТЕРПРЕТАЦИЈА на NMR спектри. Асс. д-р Јасмина Петреска Станоева

ИНТЕРПРЕТАЦИЈА на NMR спектри. Асс. д-р Јасмина Петреска Станоева ИНТЕРПРЕТАЦИЈА на NMR спектри Асс. д-р Јасмина Петреска Станоева Нуклеарно магнетна резонанца Нуклеарно магнетна резонанца техника на молекулска спектроскопија дава информација за бројот и видот на атомите

Διαβάστε περισσότερα

ДРВОТО КАКО МАТЕРИЈАЛ ЗА

ДРВОТО КАКО МАТЕРИЈАЛ ЗА ГРАДЕЖЕН ФАКУЛТЕТ-СКОПЈЕ Катедра за бетонски и дрвени конструкции ДРВОТО КАКО МАТЕРИЈАЛ ЗА ГРАДЕЖНИ КОНСТРУКЦИИ Доцент д-р Тони Аранѓеловски ОСНОВИ НА ДРВЕНИ КОНСТРУКЦИИ СТРУКТУРА НА ДРВОТО Дрвото е биолошки,

Διαβάστε περισσότερα

Анализа на мрежите на ЈИЕ во поглед на вкупниот преносен капацитет

Анализа на мрежите на ЈИЕ во поглед на вкупниот преносен капацитет 6. СОВЕТУВАЊЕ Охрид, 4-6 октомври 2009 Мирко Тодоровски Ристо Ачковски Факултет за електротехника и информациски технологии, Скопје Анализа на мрежите на ЈИЕ во поглед на вкупниот преносен капацитет КУСА

Διαβάστε περισσότερα

АНАЛИТИЧКИ МЕТОД ЗА ПРЕСМЕТКА НА ДОВЕРЛИВОСТA НА ДИСТРИБУТИВНИTE СИСТЕМИ

АНАЛИТИЧКИ МЕТОД ЗА ПРЕСМЕТКА НА ДОВЕРЛИВОСТA НА ДИСТРИБУТИВНИTE СИСТЕМИ ЧЕТВРТО СОВЕТУВАЊЕ Охрид, 6 9 септември 004 д-р Ристо Ачковски, дипл ел инж Електротехнички факултет, Скопје Сашо Салтировски, дипл ел инж АД Електростопанство на Македонија, Скопје АНАЛИТИЧКИ МЕТОД ЗА

Διαβάστε περισσότερα

Доц. д-р Наташа Ристовска

Доц. д-р Наташа Ристовска Доц. д-р Наташа Ристовска Класификација според структура на скелет Алифатични Циклични Ароматични Бензеноидни Хетероциклични (Повторете ги хетероцикличните соединенија на азот, петчлени и шестчлени прстени,

Διαβάστε περισσότερα

Универзитет Св. Кирил и Методиј -Скопје Факултет за електротехника и информациски технологии

Универзитет Св. Кирил и Методиј -Скопје Факултет за електротехника и информациски технологии Универзитет Св. Кирил и Методиј -Скопје Факултет за електротехника и информациски технологии А. Крколева, Р. Ачковски Упатство за работа со Excel Скопје, октомври 2008 г. ВОВЕД ВО EXCEL 1. Стартување на

Διαβάστε περισσότερα

ПРЕОДНИ ПРОЦЕСИ ПРИ ВКЛУЧУВАЊЕ НА КОНДЕНЗАТОРСКИТЕ БАТЕРИИ КАЈ ЕЛЕКТРОЛАЧНАТА ПЕЧКА

ПРЕОДНИ ПРОЦЕСИ ПРИ ВКЛУЧУВАЊЕ НА КОНДЕНЗАТОРСКИТЕ БАТЕРИИ КАЈ ЕЛЕКТРОЛАЧНАТА ПЕЧКА 8. СОВЕТУВАЊЕ Охрид, 4 септември Бранко Наџински Илија Хаџидаовски Макстил АД ПРЕОДНИ ПРОЦЕСИ ПРИ ВКЛУЧУВАЊЕ НА КОНДЕНЗАТОРСКИТЕ БАТЕРИИ КАЈ ЕЛЕКТРОЛАЧНАТА ПЕЧКА КУСА СОДРЖИНА Во овој труд е разгледан

Διαβάστε περισσότερα

ИНСТРУМЕНТАЛНИ МЕТОДИ ЗА АНАЛИЗА

ИНСТРУМЕНТАЛНИ МЕТОДИ ЗА АНАЛИЗА ИНСТРУМЕНТАЛНИ МЕТОДИ ЗА АНАЛИЗА интерна скрипта за студентите од УГД Штип Рубин Гулабоски Виолета Иванова Петропулос Универзитет Гоце Делчев-Штип, Штип, 2014 година 1 Вовед Инструменталните методи за

Διαβάστε περισσότερα

КОМПЕНЗАЦИЈА НА РЕАКТИВНА МОЌНОСТ

КОМПЕНЗАЦИЈА НА РЕАКТИВНА МОЌНОСТ Сите потрошувачи за својата работа ангажираат активна моќност, а некои од нив и реактивна моќност во ЕЕС извори на активната моќност се генераторите, синхроните компензатори, синхроните мотори, кондензаторските

Διαβάστε περισσότερα

SFRA ТЕСТ ЗА МЕХАНИЧКА ПРОЦЕНКА НА АКТИВНИОТ ДЕЛ КАЈ ЕНЕРГЕТСКИ ТРАНСФОРМАТОРИ

SFRA ТЕСТ ЗА МЕХАНИЧКА ПРОЦЕНКА НА АКТИВНИОТ ДЕЛ КАЈ ЕНЕРГЕТСКИ ТРАНСФОРМАТОРИ 6. СОВЕТУВАЊЕ Охрид, 4-6 октомври 2009 Жан Кипаризоски Howard Industries, Laurel, MS, USA SFRA ТЕСТ ЗА МЕХАНИЧКА ПРОЦЕНКА НА АКТИВНИОТ ДЕЛ КАЈ ЕНЕРГЕТСКИ ТРАНСФОРМАТОРИ КУСА СОДРЖИНА SFRA (sweep frequency

Διαβάστε περισσότερα

2. КАРАКТЕРИСТИКИ НА МЕРНИТЕ УРЕДИ

2. КАРАКТЕРИСТИКИ НА МЕРНИТЕ УРЕДИ . КАРАКТЕРИСТИКИ НА МЕРНИТЕ УРЕДИ Современата мерна техника располага со големо количество разнородни мерни уреди. Одделните видови мерни уреди имаат различни специфични својства, но и некои заеднички

Διαβάστε περισσότερα

Во трудот се истражува зависноста на загубите во хрватскиот електроенергетски систем од

Во трудот се истражува зависноста на загубите во хрватскиот електроенергетски систем од 8. СОВЕТУВАЊЕ Охрид, 22 24 септември Стипе Ќурлин Антун Андриќ ХОПС ОПТИМИЗАЦИЈА НА ЗАГУБИТЕ НА ПРЕНОСНАТА МРЕЖА ОД АСПЕКТ НА КРИТЕРИУМОТ НА МИНИМАЛНИ ЗАГУБИ НА АКТИВНА МОЌНОСТ СО ПРОМЕНА НА АГОЛОТ НА

Διαβάστε περισσότερα

10. Математика. Прашање. Обратен размер на размерот е: Геометриска средина x на отсечките m и n е:

10. Математика. Прашање. Обратен размер на размерот е: Геометриска средина x на отсечките m и n е: Обратен размер на размерот е: Геометриска средина x на отсечките m и n е: За две геометриски фигури што имаат сосема иста форма, а различни или исти големини велиме дека се: Вредноста на размерот е: Односот

Διαβάστε περισσότερα

Решенија на задачите за I година LII РЕПУБЛИЧКИ НАТПРЕВАР ПО ФИЗИКА ЗА УЧЕНИЦИТЕ ОД СРЕДНИТЕ УЧИЛИШТА ВО РЕПУБЛИКА МАКЕДОНИЈА 16 мај 2009.

Решенија на задачите за I година LII РЕПУБЛИЧКИ НАТПРЕВАР ПО ФИЗИКА ЗА УЧЕНИЦИТЕ ОД СРЕДНИТЕ УЧИЛИШТА ВО РЕПУБЛИКА МАКЕДОНИЈА 16 мај 2009. LII РЕПУБЛИЧКИ НАТПРЕВАР ПО ФИЗИКА ЗА УЧЕНИЦИТЕ ОД СРЕДНИТЕ УЧИЛИШТА ВО РЕПУБЛИКА МАКЕДОНИЈА 16 мај 009 I година Задача 1. Топче се пушта да паѓа без почетна брзина од некоја висина над површината на земјата.

Διαβάστε περισσότερα

ЗБИРКА НА ОДБРАНИ РЕШЕНИ ЗАДАЧИ ОД ОБЛАСТА НА СИНТЕЗАТА НА СИСТЕМИ НА АВТОMАТСКО УПРАВУВАЊЕ

ЗБИРКА НА ОДБРАНИ РЕШЕНИ ЗАДАЧИ ОД ОБЛАСТА НА СИНТЕЗАТА НА СИСТЕМИ НА АВТОMАТСКО УПРАВУВАЊЕ Универзитет Св. Кирил и Методиј - Скопје Факултет за електротехника и информациски технологии - Скопје ЕЛИЗАБЕТА ЛАЗАРЕВСКА ЗБИРКА НА ОДБРАНИ РЕШЕНИ ЗАДАЧИ ОД ОБЛАСТА НА СИНТЕЗАТА НА СИСТЕМИ НА АВТОMАТСКО

Διαβάστε περισσότερα

ИЗБОР НА ЕНЕРГЕТСКИ ТРАНСФОРМАТОР ЗА МЕТАЛНА КОМПАКТНА ТРАФОСТАНИЦА

ИЗБОР НА ЕНЕРГЕТСКИ ТРАНСФОРМАТОР ЗА МЕТАЛНА КОМПАКТНА ТРАФОСТАНИЦА 8. СОВЕТУВАЊЕ Охрид, 22 24 септември Михаил Дигаловски Крсте Најденкоски Факултет за електротехника и информациски технологии, Скопје Тане Петров Бучим ДООЕЛ - Радовиш ИЗБОР НА ЕНЕРГЕТСКИ ТРАНСФОРМАТОР

Διαβάστε περισσότερα

ПРИМЕНА НА МЕНАЏМЕНТ НА РИЗИК ЗА ДОНЕСУВАЊЕ НА ОДЛУКИ ВО ЕНЕРГЕТСКИ КОМПАНИИНАПАТСТВИЈА

ПРИМЕНА НА МЕНАЏМЕНТ НА РИЗИК ЗА ДОНЕСУВАЊЕ НА ОДЛУКИ ВО ЕНЕРГЕТСКИ КОМПАНИИНАПАТСТВИЈА 8. СОВЕТУВАЊЕ Охрид, 22 24 септември Невенка Китева Роглева Вангел Фуштиќ Факултет за електротехника и информациски технологии Ева Шуклева ЕВН-Македонија ПРИМЕНА НА МЕНАЏМЕНТ НА РИЗИК ЗА ДОНЕСУВАЊЕ НА

Διαβάστε περισσότερα

Бесмртноста на душата кај Платон (II)

Бесмртноста на душата кај Платон (II) Бесмртноста на душата кај Платон (II) Стефан Пановски Студент на институтот за класични студии noxdiaboli@yahoo.com 1. За деловите на душата За да зборуваме за бесмртноста на душата, најнапред мора да

Διαβάστε περισσότερα

МОДЕЛИРАЊЕ НА ПРЕОДНИ ПРОЦЕСИ ПРИ КОМУТАЦИИ СО MATLAB/Simulink

МОДЕЛИРАЊЕ НА ПРЕОДНИ ПРОЦЕСИ ПРИ КОМУТАЦИИ СО MATLAB/Simulink 6. СОВЕТУВАЊЕ Охрид, 4-6 октомври 2009 Александра Крколева Јовица Вулетиќ Јорданчо Ангелов Ристо Ачковски Факултет за електротехника и информациски технологии Скопје МОДЕЛИРАЊЕ НА ПРЕОДНИ ПРОЦЕСИ ПРИ КОМУТАЦИИ

Διαβάστε περισσότερα

ЗБИРКА ЗАДАЧИ ПО ПРЕДМЕТОТ ТЕХНИКА НА ВИСОК НАПОН II

ЗБИРКА ЗАДАЧИ ПО ПРЕДМЕТОТ ТЕХНИКА НА ВИСОК НАПОН II УНИВЕРЗИТЕТ "Св. КИРИЛ И МЕТОДИЈ" - СКОПЈЕ ФАКУЛТЕТ ЗА ЕЛЕКТРОТЕХНИКА И ИНФОРМАЦИСКИ ТЕХНОЛОГИИ ИНСТИТУТ ЗА ПРЕНОСНИ ЕЛЕКТРОЕНЕРГЕТСКИ СИСТЕМИ Ристо Ачковски, Александра Крколева ЗБИРКА ЗАДАЧИ ПО ПРЕДМЕТОТ

Διαβάστε περισσότερα

м-р Доне Стојанов АЛГОРИТМИ ЗА ПОРАМНУВАЊЕ И ПРЕБАРУВАЊЕ НА ДНК СЕКВЕНЦИ

м-р Доне Стојанов АЛГОРИТМИ ЗА ПОРАМНУВАЊЕ И ПРЕБАРУВАЊЕ НА ДНК СЕКВЕНЦИ УНИВЕРЗИТЕТ,,Гоце Делчев ШТИП ФАКУЛТЕТ ЗА ИНФОРМАТИКА ШТИП АЛГОРИТМИ ЗА ПОРАМНУВАЊЕ И ПРЕБАРУВАЊЕ НА ДНК СЕКВЕНЦИ - ДОКТОРСКИ ТРУД - Штип, 2015 УНИВЕРЗИТЕТ,,Гоце Делчев ШТИП ФАКУЛТЕТ ЗА ИНФОРМАТИКА ШТИП

Διαβάστε περισσότερα

1. Вовед во енвиронментална информатика

1. Вовед во енвиронментална информатика 1. Вовед во енвиронментална информатика Енвиронменталната информатика е дел од применетата информатика и поддржува методи и процедури на информатичката техологија кои придонесуваат во анализата на податоци

Διαβάστε περισσότερα

ПЕТТО СОВЕТУВАЊЕ. Охрид, 7 9 октомври ДМС Софтвер "WINDOWS" за дистибутивните системи

ПЕТТО СОВЕТУВАЊЕ. Охрид, 7 9 октомври ДМС Софтвер WINDOWS за дистибутивните системи ПЕТТО СОВЕТУВАЊЕ Охрид, 7 9 октомври 2007 Оливер Мирчевски, дипл.ел.инж Влатко Манев дипл.ел.инж Неоком А.Д., Скопје М-р Бранислав Брбаклиќ, дипл. инг. ДМС Група, Нови Сад Вон.Проф. Д-р Весна Борозан Факултет

Διαβάστε περισσότερα

8. МЕРНИ МОСТОВИ И КОМПЕНЗАТОРИ

8. МЕРНИ МОСТОВИ И КОМПЕНЗАТОРИ 8. МЕРНИ МОСТОВИ И КОМПЕНЗАТОРИ Мерните мостови и компензаторите спаѓаат во посредните мерни постапки. Мерењата со мерните мостови и компензаторите се остваруваат со затворени мерни процеси засновани врз

Διαβάστε περισσότερα

Оценка на ефикасноста на македонските банки примена на пристапот на стохастичка граница

Оценка на ефикасноста на македонските банки примена на пристапот на стохастичка граница Народна банка на Република Македонија Работен материјал 2015 Оценка на ефикасноста на македонските банки примена на пристапот на стохастичка граница Михајло Васков, Петар Дебников, Неда Поповска - Камнар,

Διαβάστε περισσότερα

ЛАМБЕРТОВА ФУНКЦИЈА ГРАФИК, ПРЕСМЕТКИ И ПРИМЕНА. Емилија Целакоска 1 1. ВОВЕД

ЛАМБЕРТОВА ФУНКЦИЈА ГРАФИК, ПРЕСМЕТКИ И ПРИМЕНА. Емилија Целакоска 1 1. ВОВЕД МАТЕМАТИЧКИ ОМНИБУС, 1 (2017), 33 43 ЛАМБЕРТОВА ФУНКЦИЈА ГРАФИК, ПРЕСМЕТКИ И ПРИМЕНА Емилија Целакоска 1 1. ВОВЕД Математичарите поретко слушнале за Јохан Хајнрих Ламберт (1728 1777) бидејќи неговиот придонес

Διαβάστε περισσότερα

ПОДОБРУВАЊЕ НА КАРАКТЕРИСТИКИТЕ НА ИСПИТНА СТАНИЦА ЗА ТЕСТИРАЊЕ НА ЕНЕРГЕТСКИ ТРАНСФОРМАТОРИ

ПОДОБРУВАЊЕ НА КАРАКТЕРИСТИКИТЕ НА ИСПИТНА СТАНИЦА ЗА ТЕСТИРАЊЕ НА ЕНЕРГЕТСКИ ТРАНСФОРМАТОРИ 8. СОВЕТУВАЊЕ Охрид, 22 24 септември Љубомир Николоски Крсте Најденкоски Михаил Дигаловски Факултет за електротехника и информациски технологии, Скопје Зоран Трипуноски Раде Кончар - Скопје ПОДОБРУВАЊЕ

Διαβάστε περισσότερα

НАСОКИ ЗА МОДЕЛИРАЊЕ НА КОНСТРУКЦИИТЕ И ИЗВРШУВАЊЕ НА СТАТИЧКА И СЕИЗМИЧКА АНАЛИЗА ВО РАМКИТЕ НА ГРАДЕЖНО-КОНСТРУКТИВНАТА ПРОЕКТНА ДОКУМЕНТАЦИЈА

НАСОКИ ЗА МОДЕЛИРАЊЕ НА КОНСТРУКЦИИТЕ И ИЗВРШУВАЊЕ НА СТАТИЧКА И СЕИЗМИЧКА АНАЛИЗА ВО РАМКИТЕ НА ГРАДЕЖНО-КОНСТРУКТИВНАТА ПРОЕКТНА ДОКУМЕНТАЦИЈА НАСОКИ ЗА МОДЕЛИРАЊЕ НА КОНСТРУКЦИИТЕ И ИЗВРШУВАЊЕ НА СТАТИЧКА И СЕИЗМИЧКА АНАЛИЗА ВО РАМКИТЕ НА ГРАДЕЖНО-КОНСТРУКТИВНАТА ПРОЕКТНА ДОКУМЕНТАЦИЈА 1. МОТИВАЦИЈА (1) Досегашната пракса во рамките на изготвувањето

Διαβάστε περισσότερα

ИЗБОР НА ОПТИМАЛНА ЛОКАЦИЈА НА 400/110 kv РЕГУЛАЦИОНИ АВТО-ТРАНСФОРМАТОРИ ВО ЕЕС НА РМ

ИЗБОР НА ОПТИМАЛНА ЛОКАЦИЈА НА 400/110 kv РЕГУЛАЦИОНИ АВТО-ТРАНСФОРМАТОРИ ВО ЕЕС НА РМ 6. СОВЕТУВАЊЕ Охрид, 4-6 октомври 2009 Климент Наумоски Александар Пауноски Елизабета Силјановска Атанасова Елена Јовановска Александар Костевски АД МЕПСО Скопје ИЗБОР НА ОПТИМАЛНА ЛОКАЦИЈА НА 400/110

Διαβάστε περισσότερα

СТУДИЈА НА РЕАЛЕН СЛУЧАЈ НА ВЛИЈАНИЕТО НА ДИСПЕРЗИРАНОТО ПРОИЗВОДСТВО ВРЗ СН ДИСТРИБУТИВНА МРЕЖА

СТУДИЈА НА РЕАЛЕН СЛУЧАЈ НА ВЛИЈАНИЕТО НА ДИСПЕРЗИРАНОТО ПРОИЗВОДСТВО ВРЗ СН ДИСТРИБУТИВНА МРЕЖА 6. СОВЕТУВАЊЕ Охрид, 4-6 октомври 2009 Методија Атанасовски Љупчо Трпезановски Технички Факултет, Битола СТУДИЈА НА РЕАЛЕН СЛУЧАЈ НА ВЛИЈАНИЕТО НА ДИСПЕРЗИРАНОТО ПРОИЗВОДСТВО ВРЗ СН ДИСТРИБУТИВНА МРЕЖА

Διαβάστε περισσότερα

Годишен зборник 2014 Yearbook Факултет за информатика, Универзитет Гоце Делчев Штип Faculty of Computer Science, Goce Delcev University Stip

Годишен зборник 2014 Yearbook Факултет за информатика, Универзитет Гоце Делчев Штип Faculty of Computer Science, Goce Delcev University Stip 89 УНИВЕРЗИТЕТ ГОЦЕ ДЕЛЧЕВ ШТИП ФАКУЛТЕТ ЗА ИНФОРМАТИКА ГОДИШЕН ЗБОРНИК 2014 YEARBOOK 2014 ГОДИНА 3 ЈУНИ, 2015 GOCE DELCEV UNIVERSITY STIP FACULTY OF COMPUTER SCIENCE VOLUME III Издавачки совет Проф. д-р

Διαβάστε περισσότερα

56. РЕПУБЛИЧКИ НАТПРЕВАР ПО ФИЗИКА 2013 Скопје, 11 мај I година (решенија на задачите)

56. РЕПУБЛИЧКИ НАТПРЕВАР ПО ФИЗИКА 2013 Скопје, 11 мај I година (решенија на задачите) 56. РЕПУБЛИЧКИ НАТПРЕВАР ПО ФИЗИКА 03 Скопје, мај 03 I година (решенија на задачите) Задача. Експресен воз го поминал растојанието помеѓу две соседни станици, кое изнесува, 5 km, за време од 5 min. Во

Διαβάστε περισσότερα

Социјалните мрежи како алатка во процесот на управување со знаење

Социјалните мрежи како алатка во процесот на управување со знаење Универзитет Св. Климент Охридски Битола ФАКУЛТЕТ ЗА ИНФОРМАТИЧКИ И КОМУНИКАЦИСКИ ТЕХНОЛОГИИ БИТОЛА студиска програма по Инженерство и менаџмент на софтверски апликации Социјалните мрежи како алатка во

Διαβάστε περισσότερα

Проф. д-р Борко Илиевски МАТЕМАТИКА I

Проф. д-р Борко Илиевски МАТЕМАТИКА I УНИВЕРЗИТЕТ СВ. КИРИЛ И МЕТОДИЈ ПРИРОДНО-МАТЕМАТИЧКИ ФАКУЛТЕТ ИНСТИТУТ ЗА МАТЕМАТИКА Проф. д-р Борко Илиевски МАТЕМАТИКА I Скопје, Рецензенти: Проф. д-р Никита Шекутковски Проф. д-р Боро Пиперевски Тираж:

Διαβάστε περισσότερα

Корелација помеѓу Еврокод и МК-Стандард за геомеханика

Корелација помеѓу Еврокод и МК-Стандард за геомеханика ВОВЕД Како и во секоја друга научна гранка, така и во геомеханиката постојат правила и прописи, односно стандарди кои со нивната примена претставуваат услов за квалитетот и нормативите кога станува збор

Διαβάστε περισσότερα

Ветерна енергија 3.1 Вовед

Ветерна енергија 3.1 Вовед 3 Ветерна енергија 3.1 Вовед Енергијата на ветерот е една од првите форми на енергија која ја користел човекот. Уште старите Египќани ја користеле за задвижување на своите бродови и ветерни мелници. Ваквиот

Διαβάστε περισσότερα

УДК: Клучни зборови DoS, напад, напаѓач, безжична мрежа, IEEE DoS И DDoS НАПАДИ 1. ВОВЕД

УДК: Клучни зборови DoS, напад, напаѓач, безжична мрежа, IEEE DoS И DDoS НАПАДИ 1. ВОВЕД УДК: 004.7.056 DoS напади кај безжичните мрежи и методи за намалување на ефектите од овие напади Елена Конеска, Јасминка Сукаровска Костадиновска, М-р Митко Богданоски, Доц. Д-р Сашо Гелев Европски Универзитет

Διαβάστε περισσότερα

ХЕМИСКА КИНЕТИКА. на хемиските реакции

ХЕМИСКА КИНЕТИКА. на хемиските реакции ХЕМИСКА КИНЕТИКА Наука која ја проучува брзината Наука која ја проучува брзината на хемиските реакции Познато: ЗАКОН ЗА ДЕЈСТВО НА МАСИ Guldberg-Vage-ов закон При константна температура (T=const) брзината

Διαβάστε περισσότερα

Годишен зборник 2014 Yearbook Факултет за информатика, Универзитет Гоце Делчев Штип Faculty of Computer Science, Goce Delcev University Stip

Годишен зборник 2014 Yearbook Факултет за информатика, Универзитет Гоце Делчев Штип Faculty of Computer Science, Goce Delcev University Stip 89 УНИВЕРЗИТЕТ ГОЦЕ ДЕЛЧЕВ ШТИП ФАКУЛТЕТ ЗА ИНФОРМАТИКА ГОДИШЕН ЗБОРНИК 204 YEARBOOK 204 ГОДИНА 3 ЈУНИ, 205 GOCE DELCEV UNIVERSITY STIP FACULTY OF COMPUTER SCIENCE VOLUME III Издавачки совет Проф. д-р

Διαβάστε περισσότερα

Проф. д-р Ѓорѓи Тромбев ГРАДЕЖНА ФИЗИКА

Проф. д-р Ѓорѓи Тромбев ГРАДЕЖНА ФИЗИКА Проф. д-р Ѓорѓи Тромбев ГРАДЕЖНА ФИЗИКА Преглед - МКС EN ISO 14683:2007 Топлински мостови во градежништво Линеарни коефициенти на премин на топлина Упростен метод и утврдени вредности Thermal bridges in

Διαβάστε περισσότερα

5. ТЕХНИЧКИ И ТЕХНОЛОШКИ КАРАКТЕРИСТИКИ НА ОБРАБОТКАТА СО РЕЖЕЊЕ -1

5. ТЕХНИЧКИ И ТЕХНОЛОШКИ КАРАКТЕРИСТИКИ НА ОБРАБОТКАТА СО РЕЖЕЊЕ -1 5. ТЕХНИЧКИ И ТЕХНОЛОШКИ КАРАКТЕРИСТИКИ НА ОБРАБОТКАТА СО РЕЖЕЊЕ -1 5.1. ОБРАБОТУВАЧКИ СИСТЕМ И ПРОЦЕС ЗА ОБРАБОТКА СО РЕЖЕЊЕ 5.1.1. ОБРАБОТУВАЧКИ СИСТЕМ ЗА РЕЖЕЊЕ Обработувачкиот систем или системот за

Διαβάστε περισσότερα

МАТЕМАТИКА - НАПРЕДНО НИВО МАТЕМАТИКА НАПРЕДНО НИВО. Време за решавање: 180 минути. јуни 2012 година

МАТЕМАТИКА - НАПРЕДНО НИВО МАТЕМАТИКА НАПРЕДНО НИВО. Време за решавање: 180 минути. јуни 2012 година ШИФРА НА КАНДИДАТОТ ЗАЛЕПИ ТУКА ДРЖАВНА МАТУРА МАТЕМАТИКА - НАПРЕДНО НИВО МАТЕМАТИКА НАПРЕДНО НИВО Време за решавање: 180 минути јуни 2012 година Шифра на ПРВИОТ оценувач Запиши тука: Шифра на ВТОРИОТ

Διαβάστε περισσότερα

7. Димензионирање на преживливи WDM мрежи

7. Димензионирање на преживливи WDM мрежи 7. Димензионирање на преживливи WDM мрежи Мултиплексирањето на бранови должини (WDM) еволуира во форма од истражувачка активност во реална алтернатива за мрежните оператори во надградбата на нивната транспортна

Διαβάστε περισσότερα

ЕВН ЕЛЕКТРОСТОПАНСТВО НА МАКЕДОНИЈА

ЕВН ЕЛЕКТРОСТОПАНСТВО НА МАКЕДОНИЈА 20140300978 ЕВН ЕЛЕКТРОСТОПАНСТВО НА МАКЕДОНИЈА ИЗМЕНИ И ДОПОЛНУВАЊЕ НА МРЕЖНИ ПРАВИЛА ЗА ДИСТРИБУЦИЈА НА ЕЛЕКТРИЧНА ЕНЕРГИЈА ( СЛУЖБЕН ВЕСНИК НА РЕПУБЛИКА МАКЕДОНИЈА БР. 87/12) Член 1 Во мрежните правила

Διαβάστε περισσότερα

АНАЛИЗА НА ОДНЕСУВАЊЕТО НА ЕДНО КВАДРАТНО ПРЕСЛИКУВАЊЕ КАКО ДИСКРЕТЕН ДИНАМИЧКИ СИСТЕМ Билјана Златановска...5

АНАЛИЗА НА ОДНЕСУВАЊЕТО НА ЕДНО КВАДРАТНО ПРЕСЛИКУВАЊЕ КАКО ДИСКРЕТЕН ДИНАМИЧКИ СИСТЕМ Билјана Златановска...5 С О Д Р Ж И Н А АНАЛИЗА НА ОДНЕСУВАЊЕТО НА ЕДНО КВАДРАТНО ПРЕСЛИКУВАЊЕ КАКО ДИСКРЕТЕН ДИНАМИЧКИ СИСТЕМ Билјана Златановска...5 Е-УЧЕЊЕ АПЛИКАЦИЈА ПО ПРЕДМЕТОТ ИНФОРМАТИКА ЗА УЧЕНИЦИТЕ ОД VII ОДЕЛЕНИЕ Благој

Διαβάστε περισσότερα

Потешкотии при проучувањето на TCR (vs. BCR) Го нема во растворлива форма Афинитет и специфичност. Стекнат/вроден имунолошки одговор

Потешкотии при проучувањето на TCR (vs. BCR) Го нема во растворлива форма Афинитет и специфичност. Стекнат/вроден имунолошки одговор Потешкотии при проучувањето на TCR (vs. BCR) Го нема во растворлива форма Афинитет и специфичност IgT? Стекнат/вроден имунолошки одговор Препознавање на слободен антиген (директно поврзување)? Пр. LCM

Διαβάστε περισσότερα

Модел на општински информациски систем за управување со цврстиот отпад (SWIS) УПАТСТВО ЗА УПОТРЕБА 2016.

Модел на општински информациски систем за управување со цврстиот отпад (SWIS) УПАТСТВО ЗА УПОТРЕБА 2016. Модел на општински информациски систем за управување со цврстиот отпад (SWIS) УПАТСТВО ЗА УПОТРЕБА 2016. Содржина 1. Вовед... 7 1.1. Важноста на податоците во областа на управувањето со отпад... 9 1.2.

Διαβάστε περισσότερα

ПРИМЕНА НА ИКТ КАКО АЛАТКА ВО НАСТАВАТА PO УЧИЛИШТАТА ВО РМАКЕДОНИЈА

ПРИМЕНА НА ИКТ КАКО АЛАТКА ВО НАСТАВАТА PO УЧИЛИШТАТА ВО РМАКЕДОНИЈА UDK 004:371.32/.33(497.7) Mimoza ANASTASOSKA JANKULOVSKA 1 ПРИМЕНА НА ИКТ КАКО АЛАТКА ВО НАСТАВАТА PO УЧИЛИШТАТА ВО РМАКЕДОНИЈА Abstract Newer and improved technologies are entering our lives every day.

Διαβάστε περισσότερα

ПРИМЕНА НА FACTS УРЕДИ ЗА РЕДНА И НАПРЕЧНА КОМПЕНЗАЦИЈА НА РЕАКТИВНА МОЌНОСТ ВО ЕЛЕКТРОЕНЕРГЕТСКИ МРЕЖИ

ПРИМЕНА НА FACTS УРЕДИ ЗА РЕДНА И НАПРЕЧНА КОМПЕНЗАЦИЈА НА РЕАКТИВНА МОЌНОСТ ВО ЕЛЕКТРОЕНЕРГЕТСКИ МРЕЖИ 8. СОВЕТУВАЊЕ Охрид, 22 24 септември Јовица Вулетиќ Јорданчо Ангелов Мирко Тодоровски Факултет за електротехника и информациски технологии Скопје ПРИМЕНА НА FACTS УРЕДИ ЗА РЕДНА И НАПРЕЧНА КОМПЕНЗАЦИЈА

Διαβάστε περισσότερα

Заземјувачи. Заземјувачи

Заземјувачи. Заземјувачи Заземјувачи Заземјување претставува збир на мерки и средства кои се превземаат со цел да се обезбедат нормални услови за работа на системот и безбедно движење на луѓе и животни во близина на објектот.

Διαβάστε περισσότερα

АНАЛИЗА НА ДОВЕРЛИВОСТА НА РАДИЈАЛНИ ДИСТРИБУТИВНИ МРЕЖИ СО ПРИМЕНА НА МОНТЕ КАРЛО СИМУЛАЦИИ

АНАЛИЗА НА ДОВЕРЛИВОСТА НА РАДИЈАЛНИ ДИСТРИБУТИВНИ МРЕЖИ СО ПРИМЕНА НА МОНТЕ КАРЛО СИМУЛАЦИИ 8. СОВЕТУВАЊЕ Охрид, 22 24 септември Петар Крстевски Ристо Ачковски Факултет за електротехника и информациски технологии - Скопје АНАЛИЗА НА ДОВЕРЛИВОСТА НА РАДИЈАЛНИ ДИСТРИБУТИВНИ МРЕЖИ СО ПРИМЕНА НА

Διαβάστε περισσότερα

ЗАШТЕДА НА ЕНЕРГИЈА СО ВЕНТИЛАТОРИТЕ ВО ЦЕНТРАЛНИОТ СИСТЕМ ЗА ЗАТОПЛУВАЊЕ ТОПЛИФИКАЦИЈА-ИСТОК - СКОПЈЕ

ЗАШТЕДА НА ЕНЕРГИЈА СО ВЕНТИЛАТОРИТЕ ВО ЦЕНТРАЛНИОТ СИСТЕМ ЗА ЗАТОПЛУВАЊЕ ТОПЛИФИКАЦИЈА-ИСТОК - СКОПЈЕ 6. СОВЕТУВАЊЕ Охрид, 4-6 октомври 2009 Иле Георгиев Македонски Телеком а.д. Скопје ЗАШТЕДА НА ЕНЕРГИЈА СО ВЕНТИЛАТОРИТЕ ВО ЦЕНТРАЛНИОТ СИСТЕМ ЗА ЗАТОПЛУВАЊЕ ТОПЛИФИКАЦИЈА-ИСТОК - СКОПЈЕ КУСА СОДРЖИНА Во

Διαβάστε περισσότερα

DEMOLITION OF BUILDINGS AND OTHER OBJECTS WITH EXPLOSIVES AND OTHER NONEXPLOSIVES MATERIALS

DEMOLITION OF BUILDINGS AND OTHER OBJECTS WITH EXPLOSIVES AND OTHER NONEXPLOSIVES MATERIALS Ристо Дамбов * РУШЕЊЕ НА ЗГРАДИ И ДРУГИ ГРАДЕЖНИ ОБЈЕКТИ СО ПОМОШ НА ЕКСПЛОЗИВНИ И НЕЕКСПЛОЗИВНИ МАТЕРИИ РЕЗИМЕ Во трудот се преставени основните параметри и начини за рушење на стари згради. Ќе се прикажат

Διαβάστε περισσότερα

ГРАДЕЖЕН ФАКУЛТЕТ. Проф. д-р Светлана Петковска - Ончевска Асист. м-р Коце Тодоров

ГРАДЕЖЕН ФАКУЛТЕТ. Проф. д-р Светлана Петковска - Ончевска Асист. м-р Коце Тодоров УНИВЕРЗИТЕТ СВ.КИРИЛ И МЕТОДИЈ ГРАДЕЖЕН ФАКУЛТЕТ Проф. д-р Светлана Петковска - Ончевска Асист. м-р Коце Тодоров СКОПJЕ, 202. ПРЕДГОВОР Предавањата по ГРАДЕЖНИ МАТЕРИЈАЛИ се наменети за студентите на Градежниот

Διαβάστε περισσότερα

ЛУШПИ МЕМБРАНСКА ТЕОРИЈА

ЛУШПИ МЕМБРАНСКА ТЕОРИЈА Вежби ЛУШПИ МЕМБРАНСКА ТЕОРИЈА РОТАЦИОНИ ЛУШПИ ТОВАРЕНИ СО РОТАЦИОНО СИМЕТРИЧЕН ТОВАР ОСНОВНИ ВИДОВИ РОТАЦИОНИ ЛУШПИ ЗАТВОРЕНИ ЛУШПИ ОТВОРЕНИ ЛУШПИ КОМБИНИРАНИ - СФЕРНИ - КОНУСНИ -ЦИЛИНДРИЧНИ - СФЕРНИ

Διαβάστε περισσότερα

Развоj на систем за следење на точка на максимална мо`кност

Развоj на систем за следење на точка на максимална мо`кност Универзитет Св. Климент Охридски Технички факултет-битола Магистерски труд Развоj на систем за следење на точка на максимална мо`кност Изработил: Благоj Гегов Октомври 2014 УНИВЕРЗИТЕТ СВ. КЛИМЕНТ ОХРИДСКИ

Διαβάστε περισσότερα

СТРУКТУРАТА НА КАПИТАЛОТ КАКО ФАКТОР ВО ВРЕДНУВАЊЕТО НА ПРЕТПРИЈАТИЈАТА И ИНВЕСТИЦИОНИТЕ ВЛОЖУВАЊА М-р Илија Груевски Државен универзитет Гоце Делчев

СТРУКТУРАТА НА КАПИТАЛОТ КАКО ФАКТОР ВО ВРЕДНУВАЊЕТО НА ПРЕТПРИЈАТИЈАТА И ИНВЕСТИЦИОНИТЕ ВЛОЖУВАЊА М-р Илија Груевски Државен универзитет Гоце Делчев СТРУКТУРАТА НА КАПИТАЛОТ КАКО ФАКТОР ВО ВРЕДНУВАЊЕТО НА ПРЕТПРИЈАТИЈАТА И ИНВЕСТИЦИОНИТЕ ВЛОЖУВАЊА М-р Илија Груевски Државен универзитет Гоце Делчев Штип, Република Макдонија Abstract Some of the most

Διαβάστε περισσότερα

Почетоците на европската античка етимологија (со осврт на македонската)

Почетоците на европската античка етимологија (со осврт на македонската) УДК. 81'373.6 811.163.3'376.6 Александра Гецовска Почетоците на европската античка етимологија (со осврт на македонската) Клучни зборови: античка етимологија, дијахронија, македонска етимологија. Апстракт:

Διαβάστε περισσότερα