UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY

Σχετικά έγγραφα
Matematika Funkcia viac premenných, Parciálne derivácie

1. Limita, spojitost a diferenciálny počet funkcie jednej premennej

Matematika prednáška 4 Postupnosti a rady 4.5 Funkcionálne rady - mocninové rady - Taylorov rad, MacLaurinov rad

7. FUNKCIE POJEM FUNKCIE

Goniometrické rovnice a nerovnice. Základné goniometrické rovnice

Ekvačná a kvantifikačná logika

Cvičenie č. 4,5 Limita funkcie

ARMA modely čast 2: moving average modely (MA)

Úvod do lineárnej algebry. Monika Molnárová Prednášky

Motivácia Denícia determinantu Výpo et determinantov Determinant sú inu matíc Vyuºitie determinantov. Determinanty. 14. decembra 2010.

Jednotkový koreň (unit root), diferencovanie časového radu, unit root testy

6 Limita funkcie. 6.1 Myšlienka limity, interval bez bodu

ARMA modely čast 2: moving average modely (MA)

Tomáš Madaras Prvočísla

FUNKCIE N REÁLNYCH PREMENNÝCH

Matematika 2. časť: Funkcia viac premenných Letný semester 2013/2014

Start. Vstup r. O = 2*π*r S = π*r*r. Vystup O, S. Stop. Start. Vstup P, C V = P*C*1,19. Vystup V. Stop

x x x2 n

M6: Model Hydraulický systém dvoch zásobníkov kvapaliny s interakciou

7 Derivácia funkcie. 7.1 Motivácia k derivácii

Moderné vzdelávanie pre vedomostnú spoločnosť Projekt je spolufinancovaný zo zdrojov EÚ M A T E M A T I K A

Funkcie - základné pojmy

Príklady na precvičovanie Fourierove rady

Jednotkový koreň (unit root), diferencovanie časového radu, unit root testy

Metódy vol nej optimalizácie

MIDTERM (A) riešenia a bodovanie

Komplexné čísla, Diskrétna Fourierova transformácia 1

Motivácia pojmu derivácia

Reálna funkcia reálnej premennej

4. Výrokové funkcie (formy), ich definičný obor a obor pravdivosti

Numerické metódy matematiky I

Metódy vol nej optimalizácie

VLASTNÉ ČÍSLA A JORDANOV KANONICKÝ TVAR. Michal Zajac. 3 T b 1 = T b 2 = = = 2b

Definícia parciálna derivácia funkcie podľa premennej x. Definícia parciálna derivácia funkcie podľa premennej y. Ak existuje limita.

Základy matematickej štatistiky

Prechod z 2D do 3D. Martin Florek 3. marca 2009

Lineárna algebra I - pole skalárov, lineárny priestor, lineárna závislosť, dimenzia, podpriestor, suma podpriestorov, izomorfizmus

Obvod a obsah štvoruholníka

Chí kvadrát test dobrej zhody. Metódy riešenia úloh z pravdepodobnosti a štatistiky

Vektorový priestor V : Množina prvkov (vektory), na ktorej je definované ich sčítanie a ich

Goniometrické substitúcie

KATEDRA DOPRAVNEJ A MANIPULAČNEJ TECHNIKY Strojnícka fakulta, Žilinská Univerzita

Matematika 2. časť: Analytická geometria

NUMERICKÁ MATEMATIKA. Moderné vzdelávanie pre vedomostnú spoločnosť/ Projekt je spolufinancovaný zo zdrojov EÚ. Fakulta elektrotechniky a informatiky

Spojité rozdelenia pravdepodobnosti. Pomôcka k predmetu PaŠ. RNDr. Aleš Kozubík, PhD. 26. marca Domovská stránka. Titulná strana.

Nelineárne optimalizačné modely a metódy

množiny F G = {t1, t2,, tn} T a pre ľubovoľný valec C so základňou B1, B2,, Bn v bodoch t1, t2,, tn, takou, že pre t G - F je Bt = E, platí PF(C) = PG

MATEMATICKÁ ANALÝZA 1

,Zohrievanie vody indukčným varičom bez pokrievky,

Integrovanie racionálnych funkcií

Prednáška Fourierove rady. Matematická analýza pre fyzikov IV. Jozef Kise lák

Numerické metódy Zbierka úloh

Gramatická indukcia a jej využitie

PRIEMER DROTU d = 0,4-6,3 mm

Deliteľnosť a znaky deliteľnosti

TECHNICKÁ UNIVERZITA V KOŠICIACH STROJNÍCKA FAKULTA MATEMATIKA 1. Funkcia jednej premennej a jej diferenciálny počet

24. Základné spôsoby zobrazovania priestoru do roviny

PREHĽAD ZÁKLADNÝCH VZORCOV A VZŤAHOV ZO STREDOŠKOLSKEJ MATEMATIKY. Pomôcka pre prípravný kurz

Mini minimaliz acia an BUˇ Koˇ sice 2011

Planárne a rovinné grafy

Obsah. 1.1 Reálne čísla a ich základné vlastnosti Komplexné čísla... 8

Numerické metódy Učebný text pre bakalárske štúdium

Technická univerzita v Košiciach Fakulta elektrotechniky a informatiky MATEMATIKA II. Zbierka riešených a neriešených úloh

Technická univerzita v Košiciach. Zbierka riešených a neriešených úloh. z matematiky. pre uchádzačov o štúdium na TU v Košiciach

1-MAT-220 Algebra februára 2012

2. prednáška. Teória množín I. množina operácie nad množinami množinová algebra mohutnosť a enumerácia karteziánsky súčin

Obyčajné diferenciálne rovnice

4 Reálna funkcia reálnej premennej a jej vlastnosti

Numerické metódy, pravdepodobnosť a matematická štatistika. Ján BUŠA Viktor PIRČ Štefan SCHRÖTTER

Hľadanie, skúmanie a hodnotenie súvislosti medzi znakmi

Numerické metódy, pravdepodobnosť a matematická štatistika

MATEMATICKÁ OLYMPIÁDA

Derivácia funkcie. Pravidlá derivovania výrazov obsahujúcich operácie. Derivácie elementárnych funkcií

BANACHOVE A HILBERTOVE PRIESTORY

Pevné ložiská. Voľné ložiská

Úvod 2 Predhovor... 2 Sylaby a literatúra... 2 Označenia... 2

Metodicko pedagogické centrum. Národný projekt VZDELÁVANÍM PEDAGOGICKÝCH ZAMESTNANCOV K INKLÚZII MARGINALIZOVANÝCH RÓMSKYCH KOMUNÍT

Obsah. 1.1 Základné pojmy a vzťahy Základné neurčité integrály Cvičenia Výsledky... 11

Automaty a formálne jazyky

1. písomná práca z matematiky Skupina A

MOSTÍKOVÁ METÓDA 1.ÚLOHA: 2.OPIS MERANÉHO PREDMETU: 3.TEORETICKÝ ROZBOR: 4.SCHÉMA ZAPOJENIA:

Spojitosť a limity trochu inak

Teória pravdepodobnosti

3. prednáška. Komplexné čísla

UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY

DIFERENCÁLNE ROVNICE Matematická analýza (MAN 2c)

XVIII. ročník BRKOS 2011/2012. Pomocný text. Kde by bola matematika bez čísel? Čísla predstavujú jednu z prvých abstrakcií, ktorú

MATEMATIKA I ZBIERKA ÚLOH

Úvod do lineárnej algebry

HASLIM112V, HASLIM123V, HASLIM136V HASLIM112Z, HASLIM123Z, HASLIM136Z HASLIM112S, HASLIM123S, HASLIM136S

PageRank algoritmus. Univerzita Komenského v Bratislave Fakulta Matematiky, Fyziky a Informatiky

Metódy vol nej optimalizácie

HANA LAURINCOVÁ KLASICKÝ VS. NEPARAMETRICKÝ PRÍSTUP Štatistika Poistná matematika

Ján Buša Štefan Schrötter

Symbolická logika. Stanislav Krajči. Prírodovedecká fakulta

Návrh vzduchotesnosti pre detaily napojení

1 Úvod Predhovor Sylaby a literatúra Základné označenia... 3

AerobTec Altis Micro

Kompilátory. Cvičenie 6: LLVM. Peter Kostolányi. 21. novembra 2017

Prirodzené čísla. Kardinálne čísla

Transcript:

UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY MINIMAXNÉ OPTIMÁLNE NÁVRHY REGRESNÝCH EXPERIMENTOV DIPLOMOVÁ PRÁCA 2014 Bc. Gabriel GROMAN

UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY MINIMAXNÉ OPTIMÁLNE NÁVRHY REGRESNÝCH EXPERIMENTOV DIPLOMOVÁ PRÁCA Študijný program: Študijný odbor: Školiace pracovisko: Vedúci práce: Ekonomická a finančná matematika 1114 Aplikovaná matematika Katedra aplikovanej matematiky a štatistiky prof. RNDr. Andrej Pázman, DrSc. Bratislava 2014 Bc. Gabriel GROMAN

10775384 Univerzita Komenského v Bratislave Fakulta matematiky, fyziky a informatiky ZADANIE ZÁVEREČNEJ PRÁCE Meno a priezvisko študenta: Študijný program: Študijný odbor: Typ záverečnej práce: Jazyk záverečnej práce: Bc. Gabriel Groman ekonomická a finančná matematika (Jednoodborové štúdium, magisterský II. st., denná forma) 9.1.9. aplikovaná matematika diplomová slovenský Názov: Cieľ: Minimaxné optimálne návrhy regresných experimentov Minimaxné navrhovanie optimálnych experimentov je aktuálna štatistická problematika. Cieľom práce je, v nadväznosti na existujúce prednášky, oboznámiť sa v literatúre s niektorými existujúcimi prístupmi a preveriť na počítači efektívnosť nedávno publikovanej metódy Nyquista na niektorých konkrétnych ulohách. Vedúci: Katedra: Vedúci katedry: Dátum zadania: 25.01.2013 prof. RNDr. Andrej Pázman, DrSc. FMFI.KAMŠ - Katedra aplikovanej matematiky a štatistiky prof. RNDr. Daniel Ševčovič, CSc. Dátum schválenia: 04.02.2013 prof. RNDr. Daniel Ševčovič, CSc. garant študijného programu študent vedúci práce

Poďakovanie Úprimne ďakujem predovšetkým vedúcemu diplomovej práce prof. RNDr. Andrejovi Pázmanovi, DrSc. za odborné vedenie, cenné rady, trpezlivosť a čas, ktoré mi pri písaní tejto práce poskytol. Ďakujem aj Mgr. Lenke Filovej, PhD.. Veľká vďaka patrí mojim rodičom a priateľke za podporu počas celého môjho štúdia.

Abstrakt GROMAN, Gabriel: Minimaxné optimálne návrhy regresných experimentov. [Diplomová práca] - Univerzita Komenského v Bratislave. Fakulta matematiky, fyziky a informatiky; Katedra aplikovanej matematiky a štatistiky. - Vedúci diplomovej práce: prof. RNDr. Andrej Pázman, DrSc. - Bratislava: FMFI UK, 2014, 79 s. Diplomová práca sa zaoberá minimaxnými optimálnymi návrhmi regresných experimentov. Cieľom práce je, v nadväznosti na existujúce prednášky, oboznámiť sa v literatúre s niektorými existujúcimi prístupmi a preveriť nedávno publikovanú metódu Nyquista na konkrétnych úlohách. Teoretická časť práce sa venuje samotnej teórii navrhovania experimentov, lokálnym kritériám optimality, kritériám optimality v nelineárnom modeli a nutným a postačujúcim podmienkam optimality. Ďalej je podrobne rozpracovaná teória numerických metód hľadania optimálnych návrhov pre AVE kritérium, minimaxné kritérium a entropijnú regularizáciu minimaxného kritéria. Praktická časť práce obsahuje riešenie konkrétnych príkladov pomocou dvoch rôznych prístupov a analýzu výsledkov. Kľúčové slová: minimaxné optimálne návrhy, AVE algoritmus, H-algoritmus, entropijná regularizácia

Abstract GROMAN, Gabriel: Minimax optimal designs of regression experiments. [Master Thesis] - Comenius University in Bratislava. Faculty of Mathematics, Physics and Informatics; Department of Applied Mathematics and Statistics. - Supervisor: prof. RNDr. Andrej Pázman, DrSc. - Bratislava: FMFI UK, 2014, 79 p. Master thesis deals with the minimax optimal designs of regression experiments. The aim of the thesis is to become familiar by following the existing lectures with the existing approaches in literature and verify the recently published method by Nyquist in the specific cases. Theoretical part is dedicated to the theory how to design experiments, describes local optimality criteria, optimality criteria in nonlinear model and necessary and sufficient optimality conditions. Further on the theory of numeric methods to search optimal designs for AVE criteria, minimax criteria and entropy regularization of minimax criteria is elaborated in details. Practical part contains solutions for the specific cases based on two diverse approaches used together with the results analysis. Keywords: minimax optimal designs, AVE algorithm, H-algorithm, entropy regularization

OBSAH OBSAH Obsah Zoznam obrázkov 9 Zoznam tabuliek 10 Zoznam použitých symbolov 12 Úvod 13 1 Optimálne navrhovanie experimentov v nelineárnych modeloch 14 1.1 Základy nelineárneho modelu, lokálne kritérium optimality....... 14 1.2 Nutné a postačujúce podmienky lokálnej optimality........... 15 1.3 Klasické lokálne kriteriálne funkcie a ich vlastnosti............ 16 1.4 Kritéria optimality v nelineárnom modeli................. 17 1.4.1 AVE (priemerovacie) kritérium optimality............ 17 1.4.2 Minimaxné kritérium optimality.................. 19 2 Numerické metódy hľadania AVE optimálneho návrhu 21 3 Opis numerických metód hľadania minimaxného optimálneho návrhu 23 3.1 H-algoritmus................................ 23 3.1.1 Podrobnejšie výsledky, keď množiny X a Θ sú konečné..... 26 3.2 Entropijná regularizácia minimaxného kritéria.............. 27 4 Riešenie príkladov 33 4.1 Príklad 1................................... 33 4.1.1 Riešenie pomocou H-algoritmu [6]................. 34 4.1.2 Riešenie pomocou entropijnej regularizácie............ 37 4.2 Príklad 2................................... 43 4.2.1 Riešenie pomocou H-algoritmu [6]................. 45 4.2.2 Riešenie pomocou entropijnej regularizácie............ 54 5 Diskusia k riešeným príkladom 58 Záver 62 7

OBSAH OBSAH Zoznam použitej literatúry 63 Príloha A 64 8

ZOZNAM OBRÁZKOV ZOZNAM OBRÁZKOV Zoznam obrázkov 1 Pr. 1, entropijná regularizácia. Graf závislosti bodu návrhu od parametra λ 41 2 Pr. 1, entropijná regularizácia. Graf hodnôt kritérií v závislosti od parametra λ.................................. 42 3 Pr. 2, H-algoritmus. Body pridávané do návrhu ξ π(1)........... 50 4 Pr. 2, H-algoritmus. Body pridávané do návrhu ξ π(2)........... 51 5 Pr. 2, H-algoritmus. Body pridávané do návrhu ξ π(3)........... 53 6 Pr. 2, entropijná regularizácia. Graf hodnôt kritérií v závislosti od parametra λ.................................. 56 7 Pr. 2, entropijná regularizácia. Body pridávané do návrhu pre jednotlivé hodnoty parametra λ............................ 57 9

ZOZNAM TABULIEK ZOZNAM TABULIEK Zoznam tabuliek 1 Pr. 1, H-algoritmus. Výsledky druhej iterácie............... 35 2 Pr. 1, H-algoritmus. Výsledky druhej iterácie podľa H. Nyquista.... 36 3 Pr. 1, H-algoritmus. Porovnanie našich a Nyquistových výsledkov druhej iterácie.................................... 37 4 Pr. 1, entropijná regularizácia. Výsledky pre hodnotu parametra λ = 1 39 5 Pr. 1, entropijná regularizácia. Výsledky pre hodnotu parametra λ = 0.1, 2 40 6 Pr. 1, entropijná regularizácia. Výsledky pre hodnotu parametra λ = 5, 8 40 7 Pr. 1, entropijná regularizácia. Záverečné porovnanie optimálnych návrhov pre rôzne hodnoty parametra λ................... 41 8 Pr. 2, H-algoritmus. Porovnanie výsledkov pre rozdelenie π (1)...... 49 9 Pr. 2, H-algoritmus. Porovnanie výsledkov pre rozdelenie π (2)...... 51 10 Pr. 2, H-algoritmus. Porovnanie výsledkov pre rozdelenie π (3)...... 52 11 Pr. 2, entropijná regularizácia. Porovnanie výsledkov pre hodnotu parametra λ = 0.1, 1............................... 55 12 Pr. 2, entropijná regularizácia. Porovnanie výsledkov pre hodnotu parametra λ = 10, 100.............................. 56 10

Zoznam použitých symbolov Zoznam použitých symbolov Zoznam použitých symbolov OLS ordinary least squares (metóda najmenších štvorcov) X množina možných bodov merania v experimente E[.] stredná hodnota V ar[.] variancia 0 = (0 1,..., 0 m ) vektor núl θ = (θ 1,..., θ m ) vektor neznámych parametrov Θ množina všetkých neznámych parametrov ˆθ = (ˆθ 1,..., ˆθ m ) vektor odhadov neznámych parametrov Π množina všetkých pravdepodobnostných rozdelení na množine Θ N (µ, Σ) normálne rozdelenie s kovariančnou maticou Σ a strednou hodnotou µ M(ξ, θ) informačná matica návrhu ξ závislá od skutočnej hodnoty θ parametra θ R m m Φ[M] Φ[M] { Φ[M]} ij m m rozmerný priestor matíc nad R kriteriálna funkcia gradient funkcie Φ v bode M ij -ty prvok gradientu funkcie Φ v bode M Φ[ M, M] derivácia funkcie Φ v bode M a v smere M Ξ množina všetkých návrhov experimentu M množina všetkých informačných matíc v experimente tr(m) stopa matice M M (M) stĺpcový priestor matice M (ξ, π ) sedlový bod typu minmax B(ξ, π) AVE kritérium optimality π apriórne rozdelenie π 0 najnepriaznivejšie rozdelenie ξ π 0 AVE optimálny návrh vzhľadom k π 0 B(π) B(ξ π, π) 11

Zoznam použitých symbolov Zoznam použitých symbolov Φ m (ξ) ξ m Φ e (ξ) ξ e α n min ω min ɛ stop ɛ π (resp. ɛ n ) θ (l) (resp. θ e ) δ (l) minimaxné kritérium optimality minimaxný optimálny návrh entropijné kritérium optimality entropijný optimálny návrh krok v algoritme minimálna vzájomná vzdialenosť 2 bodov minimálna váha bodu v návrhu maximálna vzdialenosť návrhu od optimálneho návrhu vzdialenosť návrhu ξ π (resp. ξ n ) od optimálneho návrhu bod, v ktorom sa nadobúda max Φ[M(ξπ(l), θ)] (resp. Φ m (ξ e )) θ Θ Diracova miera v bode θ (l) pi π(l) (resp. pi e ) počet iterácii pri konštrukcii návrhu ξ π(l) (resp. ξ e ) τ π(l) (resp. τ e ) čas výpočtu pri konštrukcii návrhu ξ π(l) (resp. ξ e ) w(x, θ) e η(x,θ) (1+e η(x,θ) ) 2 12

ÚVOD ÚVOD Úvod Jedna z najdôležitejších častí výskumu je fáza návrhu. Na to, aby sme mohli dôjsť k spoľahlivým záverom z fyzikálnych, biomedicínskych, farmaceutických a iných výskumov, musí návrh spĺňat určité požiadavky. Tieto požiadavky a samotná teória týchto oblastí je rozpracovaná v rôznych učebniciach a prácach. Jedna z málo docenených požiadaviek je dôležitosť dobre naplánovaného návrhu. Starostlivo naplánované návrhy môžu poskytnúť presné štatistické závery s minimálnymi nákladmi. Oblasť optimálnych návrhov experimentov spadá pod štatistiku. Poskytuje teóriu potrebnú na konštrukciu optimálnych, resp. približne optimálnych návrhov. Ako je uvedené v [11], existuje niekoľko monografií o tejto oblasti štatistiky, ktoré sa zaoberajú matematickým spracovaním problematiky. Niektoré príklady sú [2], [10] alebo [7]. V monografii [1] je mnoho príkladov z navrhovania experimentov v oblasti inžinierstva a farmácie. Táto diplomová práca sa zaoberá minimaxnými optimálnymi návrhmi regresných experimentov. Cieľom práce je, v nadväznosti na existujúce prednášky [8], oboznámiť sa v literatúre s niektorými existujúcimi prístupmi a preveriť na počítači efektívnosť nedávno publikovanej metódy Nyquista na niektorých konkrétnych úlohách. Diplomová práca je rozdelená do piatich kapitol. V prvej kapitole čitateľovi priblížime samotnú teóriu navrhovania optimálnych experimentov v nelineárnych modeloch. Kapitola 2 opisuje numerické metódy hľadania AVE optimálneho návrhu. V tretej kapitole opisujeme numerické metódy hľadania minimaxného optimálneho návrhu pomocou H-algoritmu a entropijnej regularizácie. V tejto časti taktiež podrobnejšie rozoberáme prípad, keď množiny X a Θ sú konečné. Nakoniec riešime konkrétne príklady oboma spomenutými prístupmi a v poslednej kapitole s názvom Diskusia k riešeným príkladom analyzujeme dosiahnuté výsledky. 13

1 OPTIMÁLNE NAVRHOVANIE EXPERIMENTOV V NELINEÁRNYCH MODELOCH 1 Optimálne navrhovanie experimentov v nelineárnych modeloch 1.1 Základy nelineárneho modelu, lokálne kritérium optimality Nelineárna regresia vychádza z modelu y x = η(x, θ) + ε x, kde E[ε x ] = 0 a V ar[ε x ] = σ 2. Narozdiel od lineárneho modelu, presnosť odhadu ˆθ OLS (ďalej len ˆθ) závisí od skutočnej hodnoty θ parametra θ a preto je pri navrhovaní experimentov v nelineárnom modeli potrebná apriórna vedomosť o skutočnej hodnote θ. V optimálnom navrhovaní experimentov je cieľom nájsť taký návrh, ktorý bude k optimálnemu návrhu čo najbližsie, ktorý bude skoro optimálny [8]. Definícia 1.1. Návrh je ľubovoľná diskrétna pravdepodobnostná miera ξ na X, ktorej nosič {x X : ξ(x) > 0} je konečný. (Pozri [8]) Štatisticky by sme mohli návrh ξ(x) intepretovať ako relatívny počet meraní v bode x. Pri formulovaní kritérií optimality sa vychádza z asymptotickej normality OLS, kde pre dostatočne veľké N platí ˆθ N ( θ, σ 2 1 ) N M 1 (ξ, θ). Z asymptotickej normality je zrejmé, že informácie o presnosti odhadov nesie informačná matica, ktorú si zadefinujeme v nasledujúcej definícii. Definícia 1.2. Informačná matica M(ξ, θ) má tvar M(ξ, θ) = kde x X f(x, θ)f (x, θ)ξ(x), f(x, θ) = η(x,θ) θ. Informačnú maticu M(ξ, θ) niekedy píšeme skrátene M. (Pozri [8]) Informačná matica M(ξ, θ) je závislá od skutočnej hodnoty θ parametra θ. Označme množinu všetkých návrhov experimentu Ξ a množinu všetkých informačných matíc M Ξ {ξ : ξ je návrh na X }, M {M(ξ, θ) : ξ Ξ}. 14

1 OPTIMÁLNE NAVRHOVANIE EXPERIMENTOV V NELINEÁRNYCH 1.2 Nutné a postačujúce podmienky lokálnej optimality MODELOCH Ξ aj M sú konvexné. Pri hľadaní optimálneho návrhu chceme, aby bol náš návrh čo najpresnejší. To znamená, že hľadáme návrh s čo najmenšou varianciou funkcie parametra, teda návrh s čo najväčšou informačnou maticou. Tu sa nám vynára otázka, čo znamená veľká informačná matica. Odpoveď na túto otázku nám dáva lokálne kritérium optimality. Za tým účelom treba zvoliť nejaký bod θ Θ o ktorom aprióri predpokladáme, že je blízko skutočnej hodnoty θ. Definícia 1.3. Lokálne kritérium optimality je funkcia Φ : M(ξ, θ ) M Φ[M(ξ, θ )] R taká, že ak M(ξ, θ ) M(η, θ ) (teda u R m potom Φ[M(ξ, θ )] Φ[M(η, θ )]. [8] : u M(ξ, θ )u u M(η, θ )u), Návrh ξ je lokálne Φ-optimálny (v lokalite bodu θ ) práve vtedy, keď (Pozri [8]) Φ[M(ξ, θ )] = min ξ Ξ Φ[M(ξ, θ )]. 1.2 Nutné a postačujúce podmienky lokálnej optimality V tejto podkapitole sa oboznámime s nutnými a postačujúcimi podmienkami lokálnej optimality, no ešte predtým čitateľovi objasníme pojmy gradient a smerová derivácia. Nech Φ[M] je diferencovateľná reálna funkcia na otvorenej podmnožine R m m. Gradient funkcie Φ je matica Φ typu m m v tvare [8] { Φ[M]} ij = Φ[M] M ij, i, j = 1,..., m. Smerová derivácia funckie Φ[M] v bode M a v smere M je definovaná [8] Φ[M Φ[(1 β)m + βm] Φ[M ], M] = lim. β 0 + β Platia nasledujúce vety. (Podrobnosti pozri [8]) Veta 1.4. Ak Φ je konvexná na M, tak smerová derivácia existuje (konečná alebo nekonečná) v každom bode M a v každom smere M. Súvis medzi gradientom a smerovou deriváciou poskytuje Veta 1.5. 15

1 OPTIMÁLNE NAVRHOVANIE EXPERIMENTOV V NELINEÁRNYCH 1.3 Klasické lokálne kriteriálne funkcie a ich vlastnosti MODELOCH Veta 1.5. Nech existuje Φ[M] v bode M. Potom Φ[M, M] = tr[ Φ[M ](M M )]. Veta 1.6. Nech Φ je konvexné lokálne kritérium optimality. Potom návrh ξ je lokálne Φ-optimálny (t.j. Φ[M(ξ, θ )] = min ξ Ξ Φ[M(ξ, θ )]) práve vtedy, keď ξ Φ[M(ξ, θ ), M(ξ, θ )] 0. V praxi sa táto veta ťažko využíva, oveľa jednoduhšie sa pracuje s nasledujúcou vetou, ktorej predpokladom je existencia gradientu. Veta 1.7. Nech Φ je konvexné lokálne kritérium optimality a nech existuje gradient Φ[M] v bode M = M(ξ, θ ) (ďalej len Φ[M(ξ, θ )]) pre všetky θ. Potom návrh ξ je lokálne Φ-optimálny (t.j. Φ[M(ξ, θ )] = min ξ Ξ Φ[M(ξ, θ )]) práve vtedy, keď min f (x, θ ) Φ[M(ξ, θ )]f(x, θ ) = c(ξ, θ ) tr{m(ξ, θ ) Φ[M(ξ, θ )]}. x X Pomocou nasledujúcej vety vieme určiť, ako ďaleko je návrh µ od optimálneho návrhu. Veta 1.8. Nech Φ je konvexné lokálne kritérium optimality a nech existuje gradient Φ[M(µ, θ )] pre všetky θ. Potom pre ľubovoľný návrh µ platí Φ[M(µ, θ )] min ξ Ξ Φ[M(ξ, θ )] c(µ, θ ) min x X f (x, θ ) Φ[M(µ, θ )]f(x, θ ). 1.3 Klasické lokálne kriteriálne funkcie a ich vlastnosti V tejto časti uvedieme najčastejšie používané lokálne kriteriálne funkcie spolu s ich vlastnosťami. (Podrobne rozpracované v [8]) ln[det(m)], D-optimalita Φ[M] = +, ak M je regulárna, inak. konvexná funkcia, dokonca rýdzo konvexná na množine kladne definitných matíc, D-optimálna informačná matica je jediná, funkcia D-optimality je spojitá, pre regulárnu maticu M má gradient tvar: Φ[M] = M 1, 16

1 OPTIMÁLNE NAVRHOVANIE EXPERIMENTOV V NELINEÁRNYCH 1.4 Kritéria optimality v nelineárnom modeli MODELOCH návrh ξ je D-optimálny max f (x, θ )M 1 (ξ, θ )f(x, θ ) = m. x X m V ar ξ [ˆθ i ] = tr{m 1 }, ak M je regulárna, A-optimalita Φ[M] = i=1 +, inak. konvexná funkcia, funkcia A-optimality je spojitá, pre regulárnu maticu M má gradient tvar: Φ[M] = M 2. h M h, ak h M (M), C-optimalita (pre pevné h) Φ[M] = +, inak. konvexná funkcia, funkcia C-optimality je polospojitá zdola na M, pre regulárnu maticu M má gradient tvar: Φ[M] = M 1 hh M 1. max h: h =1 V ar ξ [h ˆθ] = 1 E-optimalita Φ[M] =, λ min ak M je regulárna, [M] +, inak. konvexná funkcia, funkcia E-optimality je spojitá. 1.4 Kritéria optimality v nelineárnom modeli Ako sme spomenuli na začiatku tejto kapitoly, informačná matica v nelineárnom modeli závisí od skutočnej hodnoty θ parametra θ. Preto pri hľadaní optimálneho návrhu nemôžeme použiť len lokálne kritéria optimality, ale musíme túto závislosť nejako ošetriť, zohľadniť. V nasledujúcich podkapitolách ukážeme možné prístupy, ako sa s týtmo faktom možno vysporiadať. 1.4.1 AVE (priemerovacie) kritérium optimality AVE (z anglického average (priemer)) kritérium optimality vychádza z klasických lokálnych kritérií optimality a definujeme ho nasledovne. 17

1 OPTIMÁLNE NAVRHOVANIE EXPERIMENTOV V NELINEÁRNYCH 1.4 Kritéria optimality v nelineárnom modeli MODELOCH Definícia 1.9. B(ξ, π) = Θ Φ[M(ξ, θ)]dπ(θ) = E π {Φ[M(ξ, θ)]}, kde Φ je klasická kriteriálna funkcia optimality a π(.) predstavuje apriórnu pravdepodobnostnú mieru na množine Θ, ktorá vyjadruje apriórne očakávanie o skutočnej hodnote θ parametra θ.[8] Veta 1.10. Ak Φ[M(ξ, θ)] je konvexná funkcia v ξ pre každé θ, potom B(ξ, π) je konvexná funkcia v ξ a lineárna v π(.).[8] B(ξ, π) nie je funkciou jedinej informačnej matici a preto si smerovú deriváciu definujeme v nasledujúcej definícii. Definícia 1.11. Smerová derivácia funkcie B v bode µ a v smere ξ je B[(1 β)µ + βξ, π] B(µ, π) B(µ, ξ; π) = lim. β 0 + β Veta 1.12. Ak existuje gradient Φ[M(µ, θ)] pre všetky θ Θ a ak možno zameniť poradie stredovania E π [.]a derivovania podľa β, potom derivácia funkcie B v bode µ a v smere ξ je B(µ, ξ; π) = x X ξ(x)e π {f (x, θ) Φ[M(µ, θ)]f(x, θ)} E π {c(µ, θ)}, kde c(µ, θ) tr{m(µ, θ) Φ[M(µ, θ)]} = x X Nutné a postačujúce podmienky optimality µ(x)f (x, θ) Φ[M(µ, θ)]f(x, θ).[8] Návrh ξ π je B-optimálny (nazývame tiež AVE optimálny návrh) pri danej apriórnej pravdepodobnostnej miere π(.) práve vtedy, keď Veta 1.13. Návrh ξ π je B-optimálny práve vtedy, keď B(ξ π, π) = min B(ξ, π). (1) ξ Ξ ξ Ξ B(ξ π, ξ; π) 0. Veta 1.14. Nech existuje gradient Φ[M(ξ π, θ)] pre všetky θ Θ. Potom návrh ξ π je B-optimálny práve vtedy, keď min E π{f (x, θ) Φ[M(ξ π, θ)]f(x, θ)} = E π {c(ξ π, θ)} x X x X ξ π (x)e π {f (x, θ) Φ[M(ξ π, θ)]f(x, θ)}. 18

1 OPTIMÁLNE NAVRHOVANIE EXPERIMENTOV V NELINEÁRNYCH 1.4 Kritéria optimality v nelineárnom modeli MODELOCH Nasledujúcou vetou vieme oceniť, ako ďaleko je návrh µ od AVE optimálneho návrhu. Veta 1.15. Nech Φ je konvexné lokálne kritérium optimality a nech existuje gradient Φ[M(µ, θ)] pre všetky θ Θ. Potom pre ľubovoľný návrh µ platí B(µ, π) min ξ Ξ B(ξ, π) E π{c(µ, θ)} min x X E π{f (x, θ) Φ[M(µ, θ)]f(x, θ)}, kde E π {c(µ, θ)} = x X µ(x)e π {f (x, θ) Φ[M(µ, θ)]f(x, θ)}. (Pre bližšie nahliadnutie k predchádzajúcim definíciám a vetám pozri [8]) 1.4.2 Minimaxné kritérium optimality Minimaxné kritérium takisto vychádza z klasických lokálnych kritérií optimality. Týmto kritériom hľadáme optimálny návrh ξ m pri najhoršej možnej hodnote θ parametra θ. Definícia 1.16. [8] Majme klasické lokálne kritérium optimality Φ. Minimaxné kritérium optimality je definované vzťahom Φ m (ξ) = max Φ[M(ξ, θ)]. θ Θ Veta 1.17. Ak Φ[M(ξ, θ)] je konvexná funkcia v ξ pre každé θ Θ, potom Φ m (ξ) je konvexná funkcia. (Pozri [8]) Nutné a postačujúce podmienky optimality Návrh ξ m je Φ m -optimálny (nazývame tiež minimaxný optimálny návrh) práve vtedy, keď Φ m (ξ m ) = min ξ Ξ Φm (ξ). Veta 1.18. Nech ξ γ je taký návrh, že podmnožina množiny Θ definovaná vzťahom je konečná. M = arg max θ Θ Φ[M(ξγ, θ)] 1. Ak je návrh ξ γ AVE optimálny pre apriórnu pravdepodobnosť γ takú, že γ(θ) = 1, θ M potom návrh ξ γ je Φ m -optimálny na Θ. 19

1 OPTIMÁLNE NAVRHOVANIE EXPERIMENTOV V NELINEÁRNYCH 1.4 Kritéria optimality v nelineárnom modeli MODELOCH 2. Navyše, ak je množina Θ kompaktná, tak platí aj obrátená implikácia. Poznamenávame, že naše tvrdenie 1 Vety 1.18 je totožné s tvrdením (i) Vety 2.1 v článku [4]. V spomínanom článku je toto tvrdenie formulované takto (i) Ak existuje γ : M [0, 1] s podmienkou ξ Ξ θ M γ(θ) = 1 a γ(θ) Φ[M(ξ γ, θ), M(ξ, θ)] 0, θ M potom návrh ξ γ je Φ m -optimálny. (Pre bližšie informácie a podrobný dôkaz pozri [4]) 20

2 NUMERICKÉ METÓDY HĽADANIA AVE OPTIMÁLNEHO NÁVRHU 2 Numerické metódy hľadania AVE optimálneho návrhu Táto kapitola sa venuje algoritmu na hľadanie AVE optimálneho návrhu, teda návrhu s kritériom definovaným nasledovne B(ξ, π) = Θ Φ[M(ξ, θ)]dπ(θ) = E π {Φ[M(ξ, θ)]}, kde π(θ) je dané a hľadáme ξ π = arg min B(ξ, π). ξ Ξ Samotný algoritmus pozostáva z 5 nasledujúcich krokov. Máme dané X, Θ, π(θ): Krok 1 V prvom kroku vytvoríme diskrétny počiatočný návrh ξ 0 taký, ktorého informačná matica bude regulárna (t.j. det [M(ξ 0, θ)] 0, θ supp π(θ) ) x 1 x 2... x q q ξ 0 = ω 1 ω 2... ω, kde ω i = 1. q i=1 Určíme ɛ stop, teda najväčšiu možnú vzdialenosť nášho návrhu od optimálneho návrhu, ktorú akceptujeme. Ako pravidlo zastavenia použijeme podmienku približnej optimality podľa Vety 1.15 E π {c(ξ n, θ)} min x X E π{f (x, θ) Φ[M(ξ n, θ)]f(x, θ)} ɛ stop, (2) kde E π {c(ξ n, θ)} = x X ξ n (x)e π {f (x, θ) Φ[M(ξ n, θ)]f(x, θ)}. Pre D-optimalitu platí E π {c(ξ n, θ)} = m, teda výraz E π {c(ξ n, θ)} má hodnotu rovnú počtu parametrov. Overíme, či náš počiatočný návrh spĺňa pravidlo zastavenia, ak áno, tak počiatočný návrh je približne AVE optimálny, ak nie, pokračujeme Krokom 2. Krok 2 Nájdeme bod x min = arg min E π{f (x, θ) Φ[M(ξ n, θ)]f(x, θ)} a zvolíme x X vhodnú dĺžku kroku α n. Nájdený bod x min pridáme do nášho návrhu, čím vytvoríme nový návrh ξ n+1 = (1 α n )ξ n + α n δ xmin (x), 1, ak x = x min, kde δ xmin (.) je diskrétny jednobodový návrh, t.j. δ xmin (x) = 0, ak x x min. 21

2 NUMERICKÉ METÓDY HĽADANIA AVE OPTIMÁLNEHO NÁVRHU Krok 3 Zvolíme min - minimálnu vzájomnú vzdialenosť 2 bodov x i a x j. Ak je vzájomná vzdialenosť bodov x i a x j menšia ako zvolené min, tak tieto body zlúčime do jedného bodu x k, ktorého váha ω k = ω i + ω j. Tento postup opakujeme až dovtedy, dokým vzájomná vzdialenosť každých dvoch bodov nie je väčšia ako min. Po tomto kroku pokračujeme Krokom 4. Krok 4 Zvolíme číslo ω min > 0 a body, ktorých váha je menšia ako zvolená ω min z návrhu vyhodíme a váhy ostatných bodov prepočítame tak, aby v súčte dávali 1, čím vytvoríme redukovaný návrh ξ r n+1. Krok 5 Overíme podmienku približnej optimality (2) definovanú v Kroku 1, ak je splnená, návrh je približne AVE optimálny. Ak návrh nespĺňa pravidlo zastavenia, tak sa s týmto návrhom vrátime do Kroku číslo 2. Tento postup opakujeme, až kým nenájdeme približne AVE optimálny návrh, teda návrh, ktorý spĺňa pravidlo zastavenia (2). Chceme podotknúť, že spájanie a vymazávanie bodov, teda Krok 3 a 4, sa zväčša realizuje až po k-tej iterácii, kde sa číslo k určuje aposteriórne, teda zo skúseností. Takisto chceme dodať, že krok α n sa zväčša volí 1 q+1, kde q je počet bodov v návrhu ξ n. V tejto kapitole sme popísali všeobecný algoritmus na skonštruovanie približne AVE optimálneho návrhu. Každý príklad je však špecifický a preto je niekedy pri konštruovaní (približne) AVE optimálneho návrhu potrebné dodať ešte nejaké reštrikcie, ktoré zabezpečia konštrukciu lepšieho návrhu. Preto nie je možné popísať všeobecný algoritmus, ktorý je vhodný pre každý príklad. V našom algoritme sa stretneme s rátaním inverzie informačnej matice (gradient D- optimality) a tak uvedieme užitočný trik, pomocou ktorého si výpočet zjednodušíme (pre jednoduchosť použijeme informačnú maticu v tvare M(ξ n )). (Pozri [8]) M(ξ n+1 ) = (1 α n )M(ξ n ) + α n f(x min )f (x min ) M 1 (ξ n+1 ) = [(1 α n )M(ξ n ) + α n f(x min )f (x min )] 1 = = 1 (1 α n ) M 1 α n (ξ n )[I + (1 α n ) f(x min)f (x min )M 1 (ξ n )] 1 1 (1 α n ) M 1 α n (ξ n )[I (1 α n ) f(x min) α n [1 + (1 α n ) f (x min )M 1 (ξ n )f(x min )] 1 f (x min )M 1 (ξ n )] 22

3 OPIS NUMERICKÝCH METÓD HĽADANIA MINIMAXNÉHO OPTIMÁLNEHO NÁVRHU 3 Opis numerických metód hľadania minimaxného optimálneho návrhu 3.1 H-algoritmus V tejto časti predstavíme a popíšeme H-algoritmus, ktorý vymyslel H. Nyquist a publikoval v práci [5]. Je to algoritmus na skonštruovanie minimaxného optimálneho návrhu, ktorý využíva vzťah medzi minimaxným optimálnym návrhom a AVE optimálnym návrhom pre najnepriaznivejšie rozdelenie. Pred popisom samotného algoritmu predostrieme čitateľovi krátky úvod [6]. Budeme pracovať za nasledujúcich predpokladov. A 1 : x je q-rozmerný vektor, X je kompaktná podmnožina R q, x X R q. A 2 : Φ[M(ξ, θ)] je spojitá, rýdzokonvexná a diferencovateľná reálna funkcia pre všetky θ na množine m m symetrických matíc a je zdola ohraničená. A 3 : M(ξ, θ) je spojitá funkcia premennej θ. A 4 : Θ je kompaktná množina. AVE optimálny návrh ξ π s ohľadom na apriórnu pravdepodobnostnú mieru π je definovaný v (1), teda platí B(ξ π, π) = min B(ξ, π). (3) ξ Ξ Pre zjednodušenie budeme používať označenie B(ξ π, π) = B(π). Predpoklady A 1 a A 2 zabezpečujú existenciu lokálnych a AVE optimálnych návrhov. Minimaxný optimálny návrh ξ m je návrh, ktorý spĺňa nasledovné Φ m (ξ m ) = min max ξ Ξ θ Θ Φ[M(ξ, θ)]. (4) Definujeme Π ako množinu všetkých pravdepodobnostných rozdelení na množine Θ. Je možné ukázať, že max θ Θ a preto výraz (4) možno prepísať takto Φ[M(ξ, θ)] = max B(ξ, π) (5) π Π Φ m (ξ m ) = min max ξ Ξ π Π 23 B(ξ, π).

3 OPIS NUMERICKÝCH METÓD HĽADANIA MINIMAXNÉHO 3.1 H-algoritmus OPTIMÁLNEHO NÁVRHU Apriórne rozdelenie π 0 s vlastnosťou B(ξ π 0, π 0 ) = max π Π B(ξπ, π) sa nazýva najnepriaznivejšie rozdelenie vzhľadom k Π. Zo vzťahu (3) vyplýva Z [6] je prebratá nasledujúca veta. Veta 3.1. Predpokladajme, že ξ π 0 má vlastnosť Potom 1. min max ξ Ξ π Π B(ξ π 0, π 0 ) = max min π Π ξ Ξ B(ξ, π). AVE optimálny návrh vzhľadom k nejakému π 0 Π Φ[M(ξ π 0, θ)] B(π 0 ) pre všetky θ Θ. (6) B(ξ, π) = max π Π min ξ Ξ B(ξ, π) = B(π 0), 2. π 0 je najnepriaznivejšie rozdelenie vzhľadom k Π, 3. ξ π 0 je minimaxný optimálny návrh, teda ξ π 0 = ξ m. Poznamenávame, že nerovnosť (6) je vlastne pravidlo zastavenia pre ďalej uvedený algoritmus. Body 1,2 a 3 veľmi súvisia s jedným z hlavných výsledkov teórie hier, ktorý hovorí, že keby množiny X a Θ boli konečné, tak potom množiny Ξ a Π sú kompaktné a z toho, že B(ξ, π) je konvexné v ξ a konkávne v π by vyplývali body 1,2 a 3. Prípadu konečnosti množín X a Θ sa bližšie venujeme v Podkapitole 3.1.1. Dôkaz (podrobnejšie ako v [6]): B(ξ, π) min ξ Ξ B(ξ, π), ξ Ξ, π Π, (7) keďže nerovnosť platí pre π Π, tak platí aj pre maximum max B(ξ, π) max min B(ξ, π), ξ Ξ. (8) π Π π Π ξ Ξ Predchádzajúci výraz platí pre ξ Ξ, tak platí aj pre minimum min max ξ Ξ π Π B(ξ, π) max 24 min π Π ξ Ξ B(ξ, π). (9)

3 OPIS NUMERICKÝCH METÓD HĽADANIA MINIMAXNÉHO 3.1 H-algoritmus OPTIMÁLNEHO NÁVRHU Na druhej strane máme min max ξ Ξ π Π B(ξ, π) max π Π B(ξ, π), ξ Ξ. (10) Nerovnosť platí pre ξ Ξ, teda aj pre AVE optimálny návrh ξ π 0 min max ξ Ξ π Π Z rovnosti (5) a vlastnosti (6) dostávame B(ξ, π) max π Π B(ξπ 0, π) = max θ Θ Φ[M(ξπ 0, θ)]. (11) min max ξ Ξ π Π B(ξ, π) max π Π B(ξπ 0, π) = (12) = max θ Θ Φ[M(ξπ 0, θ)] B(π 0 ) = min ξ Ξ B(ξ, π 0) max a preto v (9) a (13) musí byť rovnosť. min π Π ξ Ξ B(ξ, π), (13) Pri samotnom skonštruovaní algoritmu začneme tak, že vygenerujeme počiatočné apriórne rozdelenie a nájdeme k tomu prislúchajúci (približne) AVE optimálny návrh. V každej nasledujúcej iterácii pozmeníme apriórne rozdelenie a opäť nájdeme (približne) AVE optimálny návrh. Takto pokračujeme, až kým nenájdeme najnepriaznivejšie rozdelenie a k tomu prislúchajúci (približne) AVE optimálny návrh, ktorý je zároveň (približne) minimaxným optimálnym návrhom. H-algoritmus krok po kroku opíšeme nasledovne, tak ako v [6]. Máme dané X, Θ: Krok 0 Nastavíme hodnotu l = 1 a formálne definujeme B(π (0) ) =. Definujeme pomocnú sieť bodov na intervale 0, 1 : H = {h 0,..., h T }, kde 0 = h 0 < h 1 <... < h T 1. Zvolíme nejaké počiatočné apriórne rozdelenie π (1), skonštruujeme (približne) AVE optimálny návrh ξ π(1) a vyčíslime B(π (1) ). Krok 1 Overíme, či Φ[M(ξ π(l), θ)] B(π (l) ) pre všetky θ Θ. Ak je podmienka splnená, algoritmus zastavíme, π (l) je najnepriaznivejšie rozdelenie a ξ π(l) je (približne) minimaxný optimálny návrh. Ak podmienka splnená nie je, tak pokračujeme Krokom 2. 25

3 OPIS NUMERICKÝCH METÓD HĽADANIA MINIMAXNÉHO 3.1 H-algoritmus OPTIMÁLNEHO NÁVRHU Krok 2 Nájdeme bod θ (l) = arg max Φ[M(ξπ(l), θ)] a označíme δ (l) Diracovu mieru θ Θ v bode θ (l). Krok 3 Generujeme T nových apriórnych rozdelení: π (l+1) t = (1 h t )π (l) + h t δ (l). Pre každé nové apriórne rozdelenie nájdeme prislúchajúci (približne) AVE optimálny návrh ξ π(l+1) t a vyčíslime B(π (l+1) t ), t=1,...,t. Označme t 0 = arg max t {1,...,T } B(π(l+1) t ). Ďalej označíme π (l+1) = π (l+1) t 0. Návrh ξ π(l+1) definujeme ako ξ π(l+1) = ξ π(l+1) t 0 (je to (približne) AVE optimálny návrh pre π (l+1) ). Krok 4 Overíme nasledujúce B(π (l+1) ) B(π (l) ). Ak podmienka nie je splnená, tak definujeme hustejšiu sieť H a zopakujeme Krok číslo 3, ináč nastavíme l = l + 1 a vrátime sa do Kroku 1. Tento algoritmus budeme preverovať na príkladoch. Napriek Theorem 2 z [6] vetu o konvergencii algoritmu nepokladáme za preukázanú. 3.1.1 Podrobnejšie výsledky, keď množiny X a Θ sú konečné V tejto podkapitole ukážeme, ako za predpokladu konečnosti množín X a Θ možno dôjsť k bodom 1,2 a 3 Vety 3.1 bez využitia predpokladu (6), respektíve, že Veta 3.1 je v tomto prípade nutnou i postačujúcou podmienkou optimality. Tvrdenie 3.2. Množiny X a Θ sú konečné množiny Ξ a Π sú kompaktné a konvexné. Tvrdenie 3.3. B(ξ, π) je spojitá funkcia premennej ξ a π, podľa ξ je konvexná a podľa π lineárna. Veta 3.4. (Sion, 1905, [3]) Nech Ξ a Π sú konvexné a kompaktné množiny. Nech B(ξ, π) je podľa ξ zdola-polospojitá a kvázikonvexná a podľa π zhora-polospojitá a kvázikonkávna. Potom B(ξ, π) má vzhľadom na množinu Ξ Π sedlový bod typu minmax. Táto veta hovorí o existencii sedlového bodu typu minmax. Nasledúca veta hovorí o vzťahu medzi sedlovým bodom minmax a kombinovanými extrémami. 26

3 OPIS NUMERICKÝCH METÓD HĽADANIA MINIMAXNÉHO 3.2 Entropijná regularizácia minimaxného kritéria OPTIMÁLNEHO NÁVRHU Veta 3.5. (Veta o minmaxe, [3]) Funkcia B(ξ, π) definovaná na Ξ Π má sedlový bod (ξ, π ) typu minmax vzhľadom na Ξ Π práve vtedy, ak existujú výrazy min max ξ Ξ π Π max min π Π ξ Ξ B(ξ, π), B(ξ, π), a ich hodnoty sú rovnaké. Potom tiež platí B(ξ, π ) = min max ξ Ξ π Π B(ξ, π) = max min π Π ξ Ξ B(ξ, π). Vetou 3.4 sme ukázali, že funkcia B(ξ, π) má sedlový bod typu minmax. Veta o minmaxe v našom prípade jasne hovorí o existencii a rovnosti výrazov min max min π Π ξ Ξ max ξ Ξ π Π B(ξ, π) a B(ξ, π). Ukázali sme, že táto rovnosť, čiže bod 1 Vety 3.1 v tomto prípade platí aj bez predpokladu (6). Body 2 a 3 Vety 3.1 vyplývajú z nasledujúcej vety. Veta 3.6. Nech ξ m je minimaxný návrh, potom na množine M, ktorá je podľa Vety 1.18 definovaná M = arg max θ Θ Φ[M(ξm, θ)] existuje π 0 také, že ξ m je AVE optimálny návrh vzhľadom na π 0 a platí pravidlo zastavenia (6). 3.2 Entropijná regularizácia minimaxného kritéria Pomocou entropie možno aproximovať minimaxné kritérium na špeciálny druh AVE kritéria (pozri [9] kap. 8.3.2). Z prvej kapitoly vieme, že minimaxné kritérium je definované nasledovne Φ m (ξ) = max Φ[M(ξ, θ)]. θ Θ Je možné ukázať, že ak Θ je interval, tak minimaxné kritérium sa dá prepísať takto Φ m (ξ) = sup Φ[M(ξ, θ)]g(θ)dθ, g na Θ Θ kde suprémum je cez všetky hustoty g(.) na Θ. Suprémum sa nedosahuje pre žiadnu hustotu g(.) (teoreticky by mala zodpovedať tzv. Diracovej hustote). Vhodnou aproximáciou môžeme dosiahnuť, že suprémum sa zmení na maximum. Jednou z možností, ako vhodne zvoliť hustotu g(θ), je entropijná regularizácia. 27

3 OPIS NUMERICKÝCH METÓD HĽADANIA MINIMAXNÉHO 3.2 Entropijná regularizácia minimaxného kritéria OPTIMÁLNEHO NÁVRHU Entropia má tvar g(θ)ln[g(θ)]dθ. Θ Pomocou entropie môžeme minimaxné kritérium aproximovať nasledovne Φ m (ξ) =. { max Φ[M(ξ, θ)]g(θ)dθ 1 } g(θ)ln[g(θ)]dθ, g na Θ Θ λ Θ kde λ > 0 je dané a g(θ)dθ = 1. Vidíme, že sme minimaxné kritérium previedli na Θ úlohu s viazaným extrémom, ktorú vyriešime Lagrangeovou metódou. Lagrangeova funkcia má tvar { max g na Θ Θ Φ[M(ξ, θ)]g(θ)dθ 1 λ Θ [ ]} g(θ)ln[g(θ)]dθ + µ g(θ)dθ 1, Θ kde µ je Lagrangeov multiplikátor, ktorý stanovíme dodatočne z podmienky. Hustotu g(θ) nahradíme výrazom g(θ) + αδ(θ), kde δ(.) je ľubovoľná hustota, α R. Výraz zderivujeme podľa α v bode α = 0. Pre δ(.) { d Φ[M(ξ, θ)][g(θ) + αδ(θ)]dθ 1 [g(θ) + αδ(θ)]ln[g(θ) + αδ(θ)]dθ+ dα Θ λ Θ [ ]} +µ [g(θ) + αδ(θ)]dθ 1 = 0. Θ Pre δ(.) dostávame Θ Φ[M(ξ, θ)]δ(θ)dθ 1 λ Definujeme H(θ), Θ δ(θ)ln[g(θ)]dθ 1 λ Θ α=0 g(θ) δ(θ) g(θ) dθ + µ δ(θ)dθ = 0. Θ H(θ) = Φ[M(ξ, θ)] 1 λ ln[g(θ)] 1 λ + µ, predošlú rovnosť môžeme písať v tvare H(θ)δ(θ)dθ = 0. Θ Keďže výraz platí pre δ(.), tak z toho vyplýva, že H(θ) = 0, čo vedie k nasledujúcim rovnostiam H(θ) = Φ[M(ξ, θ)] 1 λ ln[g (θ)] 1 λ + µ = 0, ln[g (θ)] = λφ[m(ξ, θ)] λ λ + λµ, g (θ) = e λµ 1 e λφ[m(ξ,θ)]. 28

3 OPIS NUMERICKÝCH METÓD HĽADANIA MINIMAXNÉHO 3.2 Entropijná regularizácia minimaxného kritéria OPTIMÁLNEHO NÁVRHU Konštantu e λµ 1 vyrátame z podmienky Θ g (θ)dθ = 1 g (θ)dθ = 1, Θ e λµ 1 e λφ[m(ξ,θ)] dθ = 1, Θ e λµ 1 e λφ[m(ξ,θ)] dθ = 1, Θ e λµ 1 = 1 Θ eλφ[m(ξ,θ)] dθ. Po týchto úpravách sme našli hustotu g (θ), ktorá maximalizuje náš výraz a jej tvar je nasledovný g (θ) = e λφ[m(ξ,θ)] Θ eλφ[m(ξ,θ)] dθ. Po nájdení hustoty, ktorá nám maximalizuje naše modifikované minimaxné kritérium ho nasledujúcimi úpravami upravíme do finálnej podoby a teda vytvoríme nové kritérium, ktoré budeme označovať Φ e (ξ). Φ m (ξ) =. Φ[M(ξ, θ)]g (θ)dθ 1 Θ λ Θ g (θ)ln[g (θ)]dθ, kde g už nie je nejaká hustota, ale je to nami vyrátaná hustota g (θ) = Φ m (ξ) =. Φ[M(ξ, Θ θ)]eλφ[m(ξ,θ)] 1 dθ λ Θ eλφ[m(ξ,θ)] [λφ[m(ξ, θ)] ln[ Θ eλφ[m(ξ,θ)] dθ]]dθ Φ m (ξ). = Θ eλφ[m(ξ,θ)] dθ Φ[M(ξ, Θ θ)]eλφ[m(ξ,θ)] dθ Θ eλφ[m(ξ,θ)] dθ + 1 λ λ λ Θ ln[ Θ eλφ[m(ξ,θ)] dθ]e λφ[m(ξ,θ)] dθ Θ eλφ[m(ξ,θ)] dθ Θ eλφ[m(ξ,θ)] dθ Φ[M(ξ, Θ θ)]eλφ[m(ξ,θ)] dθ + Θ eλφ[m(ξ,θ)] dθ Na záver teda predostrieme finálnu aproximáciu minimaxného kritéria Φ (ξ) =. Φ e (ξ) = 1 [ ] λ ln e λφ[m(ξ,θ)] dθ. Minimaxný optimálny návrh ξ m = arg min ξ Ξ Φm (ξ) teda aproximujeme výrazom teda ξ m ξ e = arg min ξ Ξ Θ. = ξ e = arg min ξ Ξ Φe (ξ), [ ] 1 λ ln e λφ[m(ξ,θ)] dθ, Θ čo môžeme označiť ako entropijný optimálny návrh.. Θ eλφ[m(ξ,θ)]. eλφ[m(ξ,θ)] dθ Smerovú deriváciu funkcie Φ e, za predpokladu existencie gradientu, uvádzame v nasledujúcej vete, ku ktorej prikladáme aj dôkaz. 29,

3 OPIS NUMERICKÝCH METÓD HĽADANIA MINIMAXNÉHO 3.2 Entropijná regularizácia minimaxného kritéria OPTIMÁLNEHO NÁVRHU Veta 3.7. Ak existuje gradient Φ[M(µ, θ)] pre všetky θ Θ, tak potom smerová derivácia funkcie Φ e v bode µ a v smere ξ je Φ e Θ (µ, ξ) = eλφ[m(µ,θ)] {tr{ Φ[M(µ, θ)]m(ξ, θ)} c(µ, θ)}dθ, Θ eλφ[m(µ,θ)] dθ kde tr{ Φ[M(µ, θ)]m(ξ, θ)} = ξ(x)f (x, θ) Φ[M(µ, θ)]f(x, θ), x X c(µ, θ) tr{ Φ[M(µ, θ)]m(µ, θ)} = µ(x)f (x, θ) Φ[M(µ, θ)]f(x, θ). Dôkaz: x X Φ e (µ, ξ) = dφe [(1 β)µ + βξ] dβ β=0 = d 1 ln [ λ Θ eλφ[m[(1 β)µ+βξ,θ]] dθ ] dβ = = = = čo je ekvivalentné s tvrdením vety. β=0 d Θ eλφ[m[(1 β)µ+βξ,θ]] dθ dβ 1 λ Θ eλφ[m[(1 β)µ+βξ,θ]] dθ Θ eλφ[m(µ,θ)] Φ[M(µ, θ), M(ξ, θ)]dθ Θ eλφ[m(µ,θ)] dθ β=0 Θ eλφ[m(µ,θ)] tr{ Φ[M(µ, θ)][m(ξ, θ) M(µ, θ)]}dθ Θ eλφ[m(µ,θ)] dθ Θ eλφ[m(µ,θ)] {tr{ Φ[M(µ, θ)]m(ξ, θ)} c(µ, θ)}dθ, Θ eλφ[m(µ,θ)] dθ Nutné a postačujúce podmienky optimality Návrh ξ e je Φ e -optimálny (entropijný optimálny návrh) práve vtedy, keď Φ e (ξ e ) = min ξ Ξ Φe (ξ). Veta 3.8. Návrh ξ e je Φ e -optimálny práve vtedy, keď ξ Φ e (ξ e, ξ) 0. 30

3 OPIS NUMERICKÝCH METÓD HĽADANIA MINIMAXNÉHO 3.2 Entropijná regularizácia minimaxného kritéria OPTIMÁLNEHO NÁVRHU Skúsme si Vetu 3.8 podrobne rozpísať a odvodiť konkrétnejšie pravidlo optimality.,θ)] ξ Φ e (ξ e Θ, ξ) 0 eλφ[m(ξe {tr{ Φ[M(ξ e, θ)]m(ξ, θ)} c(ξ e, θ)}dθ ξ 0 Θ eλφ[m(ξe,θ)] dθ,θ)] Θ eλφ[m(ξe tr{ Φ[M(ξ e, θ)]m(ξ, θ)}dθ ξ Θ eλφ[m(ξe,θ)] dθ,θ)] Θ eλφ[m(ξe {c(ξ e, θ)}dθ ξ Θ eλφ[m(ξe,θ)] dθ,θ)] Θ eλφ[m(ξe x X Θ eλφ[m(ξe,θ)] ξ(x)f (x, θ) Φ[M(ξ e, θ)]f(x, θ)dθ Θ eλφ[m(ξe,θ)] dθ ξ e (x)f (x, θ) Φ[M(ξ e, θ)]f(x, θ)dθ x X Θ eλφ[m(ξe,θ)] dθ,θ)] Θ eλφ[m(ξe {f (x, θ) Φ[M(ξ e, θ)]f(x, θ)}dθ x X = = Θ eλφ[m(ξe,θ)] dθ,θ)] Θ eλφ[m(ξe x X ξ e (x)f (x, θ) Φ[M(ξ e, θ)]f(x, θ)dθ Θ eλφ[m(ξe,θ)] dθ min,θ)] x X Θ eλφ[m(ξe {f (x, θ) Φ[M(ξ e, θ)]f(x, θ)}dθ Θ eλφ[m(ξe,θ)] Θ eλφ[m(ξe,θ)] dθ ξ e (x)f (x, θ) Φ[M(ξ e, θ)]f(x, θ)dθ x X Θ eλφ[m(ξe,θ)] dθ min e λφ[m(ξe,θ)] {f (x, θ) Φ[M(ξ e, θ)]f(x, θ)}dθ = x X Θ e λφ[m(ξe,θ)] {c(ξ e, θ)}dθ, Θ = a teda platí Veta 3.9. Nech existuje gradient Φ[M(ξ e, θ)] pre všetky θ Θ. Potom návrh ξ e je Φ e -optimálny práve vtedy, keď min e λφ[m(ξe,θ)] {f (x, θ) Φ[M(ξ e, θ)]f(x, θ)}dθ = e λφ[m(ξe,θ)] {c(ξ e, θ)}dθ, x X Θ Θ kde c(ξ e, θ) = ξ e (x)f (x, θ) Φ[M(ξ e, θ)]f(x, θ). x X Pri samotnom konštruovaní (približne) entropijného optimálneho návrhu budeme postupovať podobne ako pri hľadaní (približne) AVE optimálneho návrhu v Kapitole 2. 31

3 OPIS NUMERICKÝCH METÓD HĽADANIA MINIMAXNÉHO 3.2 Entropijná regularizácia minimaxného kritéria OPTIMÁLNEHO NÁVRHU Narozdiel od algoritmu uvedeného v Kapitole 2 ako zastavovacie pravidlo budeme používať nasledujúci výraz Θ eλφ[m(ξn,θ)] {c(ξ n, θ)}dθ Θ eλφ[m(ξn,θ)] dθ min x X Θ eλφ[m(ξn,θ)] {f (x, θ) Φ[M(ξ n, θ)]f(x, θ)}dθ Θ eλφ[m(ξn,θ)] dθ ɛ stop, (14) kde {c(ξ n, θ)} = x X ξ n (x)f (x, θ) Φ[M(ξ n, θ)]f(x, θ). Keď náš návrh nespĺňa pravidlo zastavenia, potrebujeme do návrhu pridať bod x min, ktorý je definovaný nasledovne x min = arg min e λφ[m(ξn,θ)] {f (x, θ) Φ[M(ξ n, θ)]f(x, θ)}dθ. x X Θ 32

4 RIEŠENIE PRÍKLADOV 4 Riešenie príkladov 4.1 Príklad 1 Michaelis-Mentenov model rýchlosti enzymatickej reakcie Uvažujme jednoparametrický Michaelis-Mentenov model, ktorý opisuje rýchlosť enzymatickej reakcie [6]. Model má tvar Teda Informačná matica má tvar f(x, θ) = y x = η(x, θ) = x θ + x + ε x. η(x, θ) θ x θ + x, = x (θ + x) 2. M(ξ, θ) = x X x 2 ξ(x) (θ + x). 4 Keďže je tento príklad jednoparametický, tak informačná matica je iba skalár. V tomto príklade budeme ako lokálnu kritériálnu funkciu používať asymptotickú varianciu, teda Φ[M(ξ, θ)] = M 1 (ξ, θ). Máme dané Θ = {θ; 1 θ 2}, X = {x; 1 x 2}. Kritéria, ktoré používame B(ξ, π) = E π {Φ[M(ξ, θ)]}, Φ m (ξ) = max Φ[M(ξ, θ)], θ Θ Φ e (ξ) = 1 [ ] λ ln e λφ[m(ξ,θ)] dθ. Θ 33

4.1 Príklad 1 4 RIEŠENIE PRÍKLADOV 4.1.1 Riešenie pomocou H-algoritmu [6] Pre skonštruovanie (približne) minimaxného optimálneho návrhu potrebujeme zadefinovať pomocnú sieť bodov h 1 = 0.25, h 2 = 0.5, h 3 = 0.75 a h 4 = 1. Takisto zvolíme počiatočné apriórne rozdelenie π (1) = 1 pre θ = 1. Pre jednoduchosť budeme písať π (1) (θ): π (1) (1) = 1. Je potrebné zvoliť aj ɛ stop, teda maximálnu vzdialenosť od AVE optimálneho návrhu, ktorú pri hľadaní približne AVE optimálneho návrhu akceptujeme. Pokúsili sme sa hľadať AVE optimálne návrhy, teda ɛ stop sme zvolili rovné nule. AVE optimálny návrh prislúchajúci apriórnemu rozdeleniu π (1) je jednobodový návrh ξ π(1) (1) = 1, resp. 1 ξ π(1) = 1. Overíme pravidlo zastavenia (6), teda vyčíslime B(π (1) ) = 16 a nájdeme max Φ[M(ξπ(1), θ)] = max (θ + θ Θ θ Θ 1)4. Predchádzajúci výraz nadobúda maximum v bode θ. = 2 a tým maximom je hodnota 80.9893. Vidíme, že max Φ[M(ξπ(1), θ)] = 80.9893 B(π (1) ) = 16, θ Θ a teda pravidlo zastavenia (6) nie je splnené pre všetky θ Θ (našli sme jedno také) a preto pokračujeme v algoritme ďalej. Pomocou vyššie definovanej pomocnej siete vygenerujeme 4 nové apriórne rozdelenia, ktoré môžeme vidieť v Tabuľke 1. AVE optimálne návrhy prislúchajúce každému rozdeleniu sú jednobodové a spolu s vyčíslenými hodnotami B(π (2) t ) taktiež uvedené v Tabuľke 1. Keďže všetky návrhy sú jednobodové, tak v tabuľke uvádzame len body x, kde bod x π(l) t že pri riešení príkladov niekedy uvádzame aj hodnotu ɛ π(l) t (resp. ɛ π(l) ). Táto hodnota reprezentuje vzdialenosť konkrétneho návrhu ξ π(l) t je bod v návrhu ξ π(l) t. Chceme podotknúť, (resp. ξ π(l) ) od optimálneho návrhu. Ako môžeme vidieť, výraz B(π (2) t ) je najväčší pre t=4 a tak označíme π (2) 4 =π (2). Návrh ξ π(2) definujeme ako ξ π(2) =ξ π(2) 4, teda AVE optimálny návrh pre apriórne rozdelenie π (2) 34

4.1 Príklad 1 4 RIEŠENIE PRÍKLADOV t π (2) t (1) π (2) t (2) x π(2) t B(π (2) t ) ɛ π(2) t 1 0.75 0.25 1.4794 29.6901 0 2 0.5 0.5 1.7190 41.6144 0 3 0.25 0.75 1.8800 52.9549 0 4 0 1.0 1.9999 63.9958 0 Tabuľka 1: Pr. 1, H-algoritmus. Výsledky druhej iterácie je jednobodový návrh ξ π(2) (1.9999) = 1, resp. 1.9999 ξ π(2) = 1. Hodnota AVE kritéria tohto návrhu je B(π (2) ) = 63.9958. Krok 4, teda B(π (2) ) = 63.9958 B(π (1) ) = 16 je splnený a tak máme kandidáta na minimaxný optimálny návrh. Preveríme, či tento kandidát spĺňa pravidlo zastavenia (6). Nájdeme max Φ[M(ξπ(2), θ)] = max θ Θ θ Θ Týmto maximom je hodnota 1 63.995769224423420 (θ + 2) 4. 4 max Φ[M(ξπ(2), θ)] = 63.995769224423420 B(π (2) ) = 63.9958. θ Θ Vidíme, že nerovnosť platí pre maximum, tak je jasné, že táto nerovnosť platí pre všetky θ Θ a preto pravidlo zastavenia (6), ktoré má tvar Φ[M(ξ π(l), θ)] B(π (l) ) pre všetky θ Θ, je pre návrh ξ π(2) splnené. Môžeme konštatovať, že rozdelenie π (2) je najnepriaznivejšie rozdelenie a návrh ξ π(2) je minimaxný optimálny návrh, teda ξ m = ξ π(2). Hodnota minimaxného kritéria návrhu ξ m je Φ m (ξ m ) = 63.995769224423420 a čas skonštruovania je 0.018354 sekúnd. 1 Matlab používa numerické metódy pri výpočte maxima. Tieto hodnoty ponechávame v takomto tvare (nezaokrúhlime ich), pretože ich chceme porovnať s hodnotami získanými entropijnou regularizáciou. 35

4.1 Príklad 1 4 RIEŠENIE PRÍKLADOV Tento príklad prezentuje sám autor H-algoritmu H. Nyquist v článku [6]. Výsledky prvej iterácie sa zhodujú s našimi výsledkami. Výsledky druhej iterácie, ktoré autor prezentuje, sa však s našimi už nezhodujú. Po dôkladnom preskúmaní sme dospeli k záveru, že autor Nyquist pri konštruovaní minimaxného optimálneho návrhu niekde pochybil a medzivýsledky druhej iterácie prezentované v článku [6] sú nesprávne (pre t=1, 2, 3), no aj napriek chybným medzivýsledkom autor dospel k rovnakému záveru ako my, teda minimaxný optimálny návrh sa zhoduje s naším minimaxným optimálnym návrhom. V Tabuľke 2 uvádzame Nyquistove výsledky druhej iterácie z článku [6] spolu so správnymi hodnotami AVE kritéria návrhov, ktoré autor Nyquist označil ako AVE optimálne. Nyquistove výsledky správne výsledky t π (2) t (1) π (2) t (2) x π(2) t B(π (2) t ) B(π (2) t ) ɛ π(2) t 1 0.75 0.25 1.0435 19.9979 31.7101 2.7252 2 0.5 0.5 1.1271 26.5465 45.6942 5.1772 3 0.25 0.75 1.3355 38.7690 56.2199 3.7015 4 0 1 2.0000 64.000 64.000 0 Tabuľka 2: Pr. 1, H-algoritmus. Výsledky druhej iterácie podľa H. Nyquista Z Tabuľky 2 môžeme vidieť, že najväčšia hodnota AVE kritéria patrí návrhu, ktorý autor Nyquist skonštruoval pre apriórne rozdelenie π (2) 4 a tak π (2) = π (2) 4 a ξ π(2) = ξ π(2) 4. AVE optimálny návrh ξ π(2) má tvar ξ π(2) (2) = 1, resp. 2 ξ π(2) = 1. Hodnota AVE kritéria návrhu ξ π(2) je B(π (2) ) = 64. Krok 4 je splnený, pretože platí B(π (2) ) = 64 B(π (1) ) = 16. Overíme pravidlo zastavenia (6) max Φ[M(ξπ(2), θ)] = 64 B(π (2) ) = 64. θ Θ 36

4.1 Príklad 1 4 RIEŠENIE PRÍKLADOV Keďže nerovnosť platí pre maximum, platí pre všetky θ Θ a tak pravidlo zastavenia (6) je splnené. Rozdelenie π (2) je najnepriaznivejšie rozdelenie, návrh ξ π(2) je minimaxný optimálny návrh, teda ξ m = ξ π(2) a hodnota minimaxného kritéria tohto návrhu je Φ m (ξ m ) = 64. opravené Nyquistove výsledky naše výsledky t π (2) t (1) π (2) t (2) x π(2) t B(π (2) t ) x π(2) t B(π (2) t ) 1 0.75 0.25 1.0435 31.7101 1.4794 29.6901 2 0.5 0.5 1.1271 45.6942 1.7190 41.6144 3 0.25 0.75 1.3355 56.2199 1.8800 52.9549 4 0 1 2.0000 64.000 2.000 64.000 Tabuľka 3: Pr. 1, H-algoritmus. Porovnanie našich a Nyquistových výsledkov druhej iterácie V Tabuľke 3 porovnávame výsledky, ku ktorým sme sa dopracovali my spolu s opravenými Nyquistovými výsledkami. Z tejto tabuľky je jasné, že pri jednotlivých apriórnych rozdeleniach pre t=1, 2, 3 sme my našli návrhy, ktorých hodnota kritéria je menšia ako hodnota kritéria návrhov, ktoré uvádza autor. Z týchto tabuliek je teda jasné, že návrhy prezentované v článku [6] pre t=1, 2, 3 nie sú AVE optimálne. Tento postreh je zreteľný už v Tabuľkách 1 a 2, kde môžeme vidieť, že vzdialenosti nami skonštruovaných návrhov od optimálnych sú nulové, zatiaľčo v autorovom prípade nulové nie sú. Pre t=1, 2, 3 autor Nyquist skonštruoval len približne AVE optimálne návrhy a nie AVE optimálne návrhy tak, ako sme to spravili my. Najdôležitejší je však AVE optimálny návrh pre rozdelenie, ktoré sme nazvali najnepriaznivejšie rozdelenie. Naše výsledky (po zaokrúhlení) sa pre toto rozdelenie s výsledkami autora zhodujú, a tak môžeme konštatovať, že minimaxný optimálny návrh, ktorý sme skonštruovali, je totožný s minimaxným optimálnym návrhom, ktorý skonštruoval autor článku Nyquist. 4.1.2 Riešenie pomocou entropijnej regularizácie Pri skonštruovaní (približne) minimaxného optimálneho návrhu pomocou entropijnej regularizácie ((približne) entropijný optimálny návrh) je takisto potrebné zvoliť ɛ stop -maximálnu vzdialenosť nášho návrhu od optimálneho, ktorú akceptujeme. Aj pri tomto algoritme sme sa pokúsili nájsť nie približne optimálny návrh, ale optimálny 37

4.1 Príklad 1 4 RIEŠENIE PRÍKLADOV návrh, takže opäť sme zvolili ɛ stop rovné nule. Ako môžeme vidieť v Podkapitole 3.2, ktorá sa celá venuje odvodeniu vzorca, ktorým aproximujeme minimaxné kritérium, je pri výpočtoch potrebné zvoliť parameter λ. V tejto časti sa pokúsime nájsť entropijný optimálny návrh a analyzovať citlivosť algoritmu na parameter λ. Tento model je jednoparametrický a preto sme sa pri konštrukcii optimálneho návrhu pokúsili body do návrhu nie pridávať, ale priamo ich zamieňať tak, ako to je popísané v nasledujúcom texte. Ako pravdilo zastavenia používame pravidlo (14), ktorého podrobné odvodenie uvádzame v Podkapitole 3.2. Podrobná analýza algoritmu pri konštrukcii entropijného optimálneho návrhu pre parameter λ = 1 Začneme jednobodovým návrhom ξ 0 (1) = 1, resp. 1 ξ 0 = 1. Overíme pravidlo zastavenia (14), teda vyčíslime vzdialenosť návrhu ξ 0 od optimálneho (značíme ɛ 0 ). Hodnota vzdialenosti je ɛ 0 = 20.9334 ɛ stop = 0 a vidíme, že tento návrh nie je optimálny a preto bod 1 v našom návrhu zameníme bodom x min = arg min e λφ[m(ξ0,θ)] {f (x, θ) Φ[M(ξ 0, θ)]f(x, θ)}dθ = 1.9906886, x X teda dostávame Θ 1.9906886 ξ 1 = 1. Vyčíslime vzdialenosť tohto návrhu, teda ɛ 1 = 3.3328 10 4. Opäť vidíme, že ɛ 1 nie je rovné nule a tak pokračujeme v algoritme ďalej. Do návrhu pridáme bod x min = arg min e λφ[m(ξ1,θ)] {f (x, θ) Φ[M(ξ 1, θ)]f(x, θ)}dθ = 1.9842217, x X Θ 1.9842217 ξ 2 = 1. Vzdialenosť návrhu ξ 2 od optimálneho je ɛ 2 = 6.1678 10 9, teda znova nájdeme bod x min a pridáme ho do návrhu 1.9842482 ξ 3 = 1. 38

4.1 Príklad 1 4 RIEŠENIE PRÍKLADOV ɛ 3 = 2.2794 10 12 a x min = 1.9842480. 1.9842480 ξ 4 = 1. Opäť overíme pravidlo zastavenia (14) pre návrh ξ 4, čiže vyčíslime ɛ 4 = 0 ɛ stop = 0. Môžeme vidieť, že tento návrh spĺňa pravidlo zastavenia a preto návrh ξ 4 je entropijný optimálny návrh, teda ξ e = ξ 4. Hodnota entropijného kritéria optimálneho návrhu je Φ e (ξ e ) = 59.851122032252. Hodnota minimaxného kritéria entropijného optimálneho návrhu je Φ m (ξ e ) = 63.99775316607. Všetky tieto výpočty môžeme vidieť v Tabuľke 4, kde prvý stĺpec t predstavuje číslo iterácie. Keďže všetky návrhy sú jednobodové, podobne ako v predchádzajúcich tabuľkách, uvádzame len body x, kde bod x t je bod návrhu ξ t. V tabuľke je uvedená aj vzdialenosť návrhu ξ t od optimálneho, teda ɛ t. hodnota parametra λ = 1 t x t ɛ t 0 1 20.9334 1 1.9906886 3.3328 10 4 2 1.9842217 6.1678 10 9 3 1.9842482 2.2794 10 12 4 1.9842480 0 Tabuľka 4: Pr. 1, entropijná regularizácia. Výsledky pre hodnotu parametra λ = 1 V nasledujúcich tabuľkách uvedieme výpočty pre rôzne hodnoty parametra λ. Musíme podotknúť, že pre hodnotu λ > 8 sa pri výpočte integrálu vyskytuje číslo väčšie ako realmax = 1.797693134862316 10 308. Číslo realmax je v programe Matlab maximálne reálne číslo, teda ak sa vyskytne číslo väčšie ako realmax, program Matlab vníma toto číslo ako nekonečno a preto budeme analyzovať výpočty, kde je parameter λ z intervalu (0, 8. V tabuľkách uvádzame číslo iterácie t, bod v návrhu ξ t, ktorý značíme x t a ako poslednú hodnotu uvádzame vzdialenosť návrhu ξ t od optimálneho, teda ɛ t. V Tabuľke 7 môžeme vidieť záverečné porovnanie entropijných optimálnych návrhov pre rôzne hodnoty parametra λ, kde navyše uvádzame hodnoty entropijného a minimaxného kritéria. 39

4.1 Príklad 1 4 RIEŠENIE PRÍKLADOV Z nasledujúcich tabuliek nie je možné určiť, či nám náš algoritmus so zvyšujúcou sa hodnotou parametra λ skonverguje rýchlejšie. Je však zrejmé, že čím je hodnota parametra λ vyššia, tým je entropijný optimálny návrh bližšie k minimaxnému optimálnemu návrhu, ktorý sme skonštruovali pomocou H-algoritmu, teda k návrhu ξ m (2) = 1. Tieto postrehy môžeme vidieť v grafickej podobe na Obrázku 1. hodnota parametra λ = 0.1 hodnota parametra λ = 2 t x t ɛ t x t ɛ t 0 1 15.6632 1 21.2246 1 1.9029566 3.4379 10 2 1.9953561 8.2088 10 5 2 1.8353774 9.9134 10 5 1.9921486 4.9334 10 10 3 1.8389386 2.8401 10 7 1.992154959 3.3000 10 13 4 1.8387459 1.1135 10 9 1.992154946 0 5 1.8387563 1.3193 10 11 6 1.8387557 8.5760 10 13 7 1.838755776 4.3313 10 14 8 1.838755774 0 Tabuľka 5: Pr. 1, entropijná regularizácia. Výsledky pre hodnotu parametra λ = 0.1, 2 hodnota parametra λ = 5 hodnota parametra λ = 8 t x t ɛ t x t ɛ t 0 1 21.3992 1 21.4429 1 1.9981443 1.3002 10 5 1.9988399 5.0594 10 6 2 1.9968673 3.6483 10 11 1.99804277 1.2514 10 11 3 1.9968683 0 1.9980431596 8.9836 10 15 4 1.9980431594 0 Tabuľka 6: Pr. 1, entropijná regularizácia. Výsledky pre hodnotu parametra λ = 5, 8 40