ΠΡΟΛΟΓΟΣ: ΕΙΣΑΓΩΓΗ 10 ΚΕΦΑΛΑΙΟ 2: ΑΣΑΦΗΣ ΛΟΓΙΚΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ 11

Σχετικά έγγραφα
Το μοντέλο Perceptron

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

Αναγνώριση Προτύπων Ι

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ

ΚΕΦΑΛΑΙΟ 1. Ασαφή Συστήματα. 1.1 Ασαφή Σύνολα. x A. 1, x

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Q 12. c 3 Q 23. h 12 + h 23 + h 31 = 0 (6)

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

ΕΛΕΓΧΟΣ ΠΑΡΑΓΩΓΙΚΩΝ ΔΙΕΡΓΑΣΙΩΝ

Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων

Ασαφής Λογική (Fuzzy Logic)

Αναγνώριση Προτύπων Ι

ΠΑΡΟΥΣΙΑΣΗ ΣΤΑΤΙΣΤΙΚΩΝ ΔΕΔΟΜΕΝΩΝ

K15 Ψηφιακή Λογική Σχεδίαση 7-8: Ανάλυση και σύνθεση συνδυαστικών λογικών κυκλωμάτων

Συνήθεις διαφορικές εξισώσεις προβλήματα οριακών τιμών

Γενικά Στοιχεία Ηλεκτρονικού Υπολογιστή

4.3. Γραµµικοί ταξινοµητές

Αναγνώριση Προτύπων Ι

Κεφ. 6Β: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών

ΚΕΦΑΛΑΙΟ Μηχανική Μάθηση

Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος

Τεχνητή Νοημοσύνη (ΥΠ23) 6 ο εξάμηνο Τμήμα Πληροφορικής και Τηλεματικής Χαροκόπειο Πανεπιστήμιο Ουρανία Χατζή

ΠΕΡΙΕΧΟΜΕΝΑ. ΠΡΟΛΟΓΟΣ... vii ΠΕΡΙΕΧΟΜΕΝΑ... ix ΓΕΝΙΚΗ ΒΙΒΛΙΟΓΡΑΦΙΑ... xv. Κεφάλαιο 1 ΓΕΝΙΚΕΣ ΕΝΝΟΙΕΣ ΑΠΟ ΤΗ ΣΤΑΤΙΣΤΙΚΗ

ΦΙΛΤΡΟ KALMAN ΔΙΑΚΡΙΤΟΥ ΧΡΟΝΟΥ

ΚΕΦΑΛΑΙΟ 3. Περιγραφή της Μεθόδου ΠΕΡΙΓΡΑΦΗ ΤΗΣ ΜΕΘΟΔΟΥ

ΜΟΝΤΕΛΟΠΟΙΗΣΗ ΔΙΑΚΡΙΤΩΝ ΕΝΑΛΛΑΚΤΙΚΩΝ ΣΕ ΠΡΟΒΛΗΜΑΤΑ ΣΧΕΔΙΑΣΜΟΥ ΚΑΙ ΣΥΝΘΕΣΗΣ ΔΙΕΡΓΑΣΙΩΝ

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

Εισαγωγή στα Τεχνητά Νευρωνικά Δίκτυα. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D.

Αριθμητική Ανάλυση & Εφαρμογές

ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

4. ΚΕΦΑΛΑΙΟ ΕΦΑΡΜΟΓΕΣ ΤΟΥ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΥ FOURIER

Τμήμα Διοίκησης Επιχειρήσεων (Γρεβενά) Μάθημα: Στατιστική II Διάλεξη 1 η : Εισαγωγή-Επανάληψη βασικών εννοιών Εβδομάδα 1 η : ,

5. (Λειτουργικά) Δομικά Διαγράμματα

Απλή Γραμμική Παλινδρόμηση και Συσχέτιση 19/5/2017

E [ -x ^2 z] = E[x z]

Κεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ

Ασκήσεις μελέτης της 19 ης διάλεξης

ΠΕΡΙΕΧΟΜΕΝΑ. Μονοδιάστατοι πίνακες Πότε πρέπει να χρησιμοποιούνται πίνακες Πολυδιάστατοι πίνακες Τυπικές επεξεργασίες πινάκων

Προσαρμοστικό Σύστημα Νευρο-ασαφούς Συμπερασμού ANFIS (Adaptive Network based Fuzzy Inference System)

ΚΕΦΑΛΑΙΟ 5. Κύκλος Ζωής Εφαρμογών ΕΝΟΤΗΤΑ 2. Εφαρμογές Πληροφορικής. Διδακτικές ενότητες 5.1 Πρόβλημα και υπολογιστής 5.2 Ανάπτυξη εφαρμογών

6. Στατιστικές μέθοδοι εκπαίδευσης

1. Πότε χρησιμοποιούμε την δομή επανάληψης; Ποιες είναι οι διάφορες εντολές (μορφές) της;

Δομές Ακολουθίας- Επιλογής - Επανάληψης. Δομημένος Προγραμματισμός

Η ΙΣΧΥΣ ΕΝΟΣ ΕΛΕΓΧΟΥ. (Power of a Test) ΚΕΦΑΛΑΙΟ 21

ΤΟΠΟΓΡΑΦΙΚΑ ΔΙΚΤΥΑ ΚΑΙ ΥΠΟΛΟΓΙΣΜΟΙ ΑΝΑΣΚΟΠΗΣΗ ΘΕΩΡΙΑΣ ΣΥΝΟΡΘΩΣΕΩΝ

Στ Τάξη. Α/Α Μαθηματικό περιεχόμενο Δείκτες Επιτυχίας Ώρες Διδ. 1 ENOTHTA 1

Πληροφορική 2. Τεχνητή νοημοσύνη

Μαθηματική Εισαγωγή Συναρτήσεις

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

E[ (x- ) ]= trace[(x-x)(x- ) ]

2.1 Αριθμητική επίλυση εξισώσεων

Επαναληπτικές μέθοδοι

Αριθμητική Ανάλυση και Εφαρμογές

Εισαγωγή στην επιστήμη των υπολογιστών

Ψευδοκώδικας. November 7, 2011

Προβλήματα, αλγόριθμοι, ψευδοκώδικας

ΣΥΣΤΗΜΑ ΠΑΡΑΚΟΛΟΥΘΗΣΗΣ ΑΕΡΟΣΩΜΑΤΙ ΙΑΚΗΣ ΡΥΠΑΝΣΗΣ ΣΕ ΣΧΕ ΟΝ ΠΡΑΓΜΑΤΙΚΟ ΧΡΟΝΟ

Κεφάλαιο 4 : Λογική και Κυκλώματα

Τεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης

ΔΙΟΙΚΗΣΗ ΠΑΡΑΓΩΓΗΣ. ΕΝΟΤΗΤΑ 4η ΠΡΟΒΛΕΨΗ ΖΗΤΗΣΗΣ

Αριθμητική Ανάλυση και Εφαρμογές

Μαθηματικά. Ενότητα 2: Διαφορικός Λογισμός. Σαριαννίδης Νικόλαος Τμήμα Διοίκησης Επιχειρήσεων (Κοζάνη)

Μαθηματική Εισαγωγή Συναρτήσεις

Μέθοδοι πολυδιάστατης ελαχιστοποίησης

Κεφάλαιο 12: Υδραυλική ανάλυση δικτύων διανομής

Γ. Πειραματισμός Βιομετρία

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Ανδρέας Παπαζώης. Τμ. Διοίκησης Επιχειρήσεων

Αριθμητική Ανάλυση και Εφαρμογές

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Υπάρχουν δύο τύποι μνήμης, η μνήμη τυχαίας προσπέλασης (Random Access Memory RAM) και η μνήμη ανάγνωσης-μόνο (Read-Only Memory ROM).

Τμήμα Οικιακής Οικονομίας και Οικολογίας. Αναπαράσταση Αριθμών

Πληροφοριακά Συστήματα Διοίκησης

Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D.

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Τμήμα Μηχανικών Παραγωγής και Διοίκησης. Διπλωματική εργασία: Νευροασαφής έλεγχος σε ευφυή ράβδο

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Τεχνητή Νοημοσύνη. TMHMA ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΕΧΝΟΛΟΓΙΑΣ ΥΠΟΛΟΓΙΣΤΩΝ. Εξάμηνο 5ο Οικονόμου Παναγιώτης & Ελπινίκη Παπαγεωργίου. Νευρωνικά Δίκτυα.

Φίλτρα Kalman. Αναλυτικές μέθοδοι στη Γεωπληροφορική. ιατύπωση του βασικού προβλήματος. προβλήματος. μοντέλο. Πρωτεύων μοντέλο

ΤΕΧΝΟΛΟΓΙΚΟ ΕΚΠΑΙΔΕΥΤΙΚΟ ΙΔΡΥΜΑ ΚΕΝΤΡΙΚΗΣ ΜΑΚΕΔΟΝΙΑΣ ΣΧΟΛΗ ΤΜΗΜΑ. Μαθηματικά 2. Σταύρος Παπαϊωάννου

ΛΟΓΙΣΜΟΣ ΜΙΑΣ ΜΕΤΑΒΛΗΤΗΣ, ΕΣΠΙ 1

Αστικά υδραυλικά έργα

ΠΕΡΙΕΧΟΜΕΝΑ. Εντολές επιλογής Εντολές επανάληψης

Theory Greek (Cyprus) Μη γραμμική δυναμική σε Ηλεκτρικά Κυκλώματα (10 μονάδες)

Ενδεικτικές Ερωτήσεις Θεωρίας

3.7 Παραδείγματα Μεθόδου Simplex

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

ΑΕΠΠ Ερωτήσεις θεωρίας

Συστήματα Αυτόματου Ελέγχου

Στατιστική Ι. Ενότητα 2: Στατιστικά Μέτρα Διασποράς Ασυμμετρίας - Κυρτώσεως. Δρ. Γεώργιος Κοντέος Τμήμα Διοίκησης Επιχειρήσεων Γρεβενών

Κεφάλαιο 4: Στοιχεία της εκδοχής hp της ΜΠΣ στις 2- διαστάσεις

Transcript:

ΠΡΟΛΟΓΟΣ: ΕΙΣΑΓΩΓΗ 0 ΚΕΦΑΛΑΙΟ 2: ΑΣΑΦΗΣ ΛΟΓΙΚΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ 2. ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΑΣΑΦΗ ΛΟΓΙΚΗ 2.2 ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ ΑΣΑΦΟΥΣ ΛΟΓΙΚΗΣ 2.3 ΑΣΑΦΗΣ ΣΥΛΛΟΓΙΣΜΟΣ (FUZZY REASONING) 6 2.3. Ασαφείς κανόνες (fuzzy rules). 6 2.3.2 Λογικές πράξεις με ασαφή σύνολα. 6 2.3.3 Ασαφές σύστημα εξαγωγής συμπερασμάτων. 8 2.4 Η ΣΥΝΕΠΑΓΩΓΗ SUGENO 27 2.5 ΕΙΣΑΓΩΓΗ ΣΤΑ ΤΕΧΝΗΤΑ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ 28 2.6 ΒΙΟΛΟΓΙΚΑ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ 29 2.7 ΤΕΧΝΗΤΑ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ 3 2.7. Βασικό μοντέλο ενός νευρώνα. 3 2.7.2 Τοπολογίες Νευρωνικών Δικτύων. 33 2.7.3 Μονοστρωματικό δίκτυο τύπου Perceptrn. 33 2.7.4 Πολυστρωματικά δίκτυα. 33 2.8 ΑΛΓΟΡΙΘΜΟΙ ΕΚΠΑΙΔΕΥΣΗΣ ΤΝΔ 34 2.8. Ο κανόνας μάθησης Δέλτα. 35 2.8.2 Αλγόριθμοι Μάθησης Πολυστρωματικών ΤΝΔ. 36 2.8.3 Ο Αλγόριθμος Μάθησης με Οπισθόδρομη Διάδοση. 37 2.8.4 Βασικές ενέργειες κατά την διαδικασία εκπαίδευσης των ΤΝΔ. 40 2.9 ΚΥΡΙΑ ΧΑΡΑΚΤΗΡΙΣΤΙΚΑ ΤΩΝ ΤΝΔ 42 2.0 ΝΕΥΡΟΑΣΑΦΗ ΣΥΣΤΗΜΑΤΑ 43 2.0. Αρχιτεκτονικές νευρο-ασαφών ελεγκτών 44 2.0.. Νευρο-ασαφή συστήματα συνεργασίας. 45 2.0..2 Υβριδικά νευρο-ασαφή συστήματα. 47 2.0..3 Παράδειγμα σχεδιασμού ενός απλού νευρο-ασαφούς ελεγκτή. 50 2.0.2 Το μοντέλο ANFIS. 52 ΚΕΦΑΛΑΙΟ 3: ΓΗΡΑΝΣΗ ΜΟΝΩΣΕΩΝ 53

3. ΕΙΣΑΓΩΓΗ 53 3.2 ΟΙ ΜΕΡΙΚΕΣ ΕΚΚΕΝΩΣΕΙΣ ΣΤΑ ΣΤΕΡΕΑ ΔΙΗΛΕΚΤΡΙΚΑ 54 3.2. Μερικές εκκενώσεις σε κοιλότητες στερεών διηλεκτρικών 54 3.2.2 Μηχανισμός ανάπτυξης των εσωτερικών μερικών εκκενώσεων. 60 3.2.3 Η δράση των μερικών εκκενώσεων επί των διηλεκτρικών. 64 3.2.4 Μέτρηση μεγεθών που σχετίζονται με τις μερικές εκκενώσεις. 65 3.3 Η ΑΝΤΟΧΗ ΤΩΝ ΔΙΗΛΕΚΤΡΙΚΩΝ 67 3.3. Εισαγωγή των βασικών εννοιών 67 3.3.2 Εκτίμηση της κατάστασης ενός διηλεκτρικού 68 3.3.3 Η γήρανση σαν συνάρτηση μεγεθών χαρακτηριστικών της αντοχής ενός διηλεκτρικού. 70 3.3.4 Η διάρκεια ζωής των στερεών διηλεκτρικών σαν συνάρτηση της τάσης καταπόνησης 72 3.3.5 Στατιστική επεξεργασία των μετρήσεων 79 3.3.6 Μεταβολή της πιθανότητας διάσπασης των διηλεκτρικών με την τάση και τον χρόνο καταπόνησης. 80 3.4 ΓΗΡΑΝΣΗ ΚΑΙ ΔΙΑΣΠΑΣΗ ΤΩΝ ΣΤΕΡΕΩΝ ΔΙΗΛΕΚΤΡΙΚΩΝ 82 3.4. Εισαγωγή 82 3.4.2 Η γήρανση των στερεών διηλεκτρικών 82 3.4.3 Η επίδραση των μερικών εκκενώσεων στη γήρανση των στερεών διηλεκτρικών 84 3.4.4 Μεταβολή της τάσης διάσπασης, ως μέτρο γήρανσης ενός στερεού διηλεκτρικού, με χρόνο καταπόνησης. 86 3.4.5 Η διάσπαση των στερεών διηλεκτρικών 89 3.5 ΙΣΟΔΥΝΑΜΑ ΚΥΚΛΩΜΑΤΑ ΓΙΑ ΤΗ ΜΕΛΕΤΗ ΤΩΝ ΜΕΡΙΚΩΝ ΕΚΚΕΝΩΣΕΩΝ ΣΤΑ ΣΤΕΡΕΑ ΔΙΗΛΕΚΤΡΙΚΑ 96 3.5. Εισαγωγή 96 3.5.2 Το ισοδύναμο κύκλωμα όταν υπάρχει μία κοιλότητα αέρος σε στερεό διηλεκτρικό 97 3.5.3 Αναλυτική επίλυση του ισοδύναμου κυκλώματος μιας κοιλότητας αέρος σε στερεό διηλεκτρικό 98 3.5.4 Διάσπαση μιας κοιλότητας αέρος σε στερεό διηλεκτρικό 0 3.5.5 Το ισοδύναμο κύκλωμα για δύο κοιλότητες σε διηλεκτρικό 3.5.6 Αναλυτική επίλυση του ισοδύναμου κυκλώματος δύο κοιλοτήτων αέρος σε στερεό διηλεκτρικό._ 2 ΚΕΦΑΛΑΙΟ 4: ΑΝΑΠΤΥΞΗ ΚΑΙ ΕΚΠΑΙΔΕΥΣΗ ΤΟΥ ΜΟΝΤΕΛΟΥ 7 4. ΕΚΠΑΙΔΕΥΣΗ ΜΟΝΤΕΛΟΥ 7 4.2 ΑΠΟΤΕΛΕΣΜΑΤΑ ΓΙΑ ΔΙΑΦΟΡΑ ΥΛΙΚΑ 8

ΠΡΟΛΟΓΟΣ: ΕΙΣΑΓΩΓΗ Στα πλαίσια αυτής της διπλωματικής εργασίας διερευνήθηκε η δυνατότητα της χρήσης τεχνολογίας ασαφούς λογικής και νευρωνικών δικτύων στη γήρανση των μονώσεων. Στη συνέχεια αναπτύχθηκε μοντέλο ικανό να προβλέψει τα χαρακτηριστικά δεδομένης υγιούς μόνωσης. Για την εκπαίδευση του μοντέλου χρησιμοποιήθηκαν μετρήσεις του Εργαστηρίου Υψηλών Τάσεων, Πανεπιστημίου Πατρών για τα υλικά με την εμπορική ονομασία τερεφθαλικός πολυεστέρας του πολυαιθυλενίου Plyethylene terephthalate (PET) και πολυαιθυλένιο χαµηλής πυκνότητας lw density plyethylene, (LDPE). Σε μία γενική θεώρηση το μοντέλο που αναπτύχθηκε δίνει τη δυνατότητα στο χρήστη να εκτιμήσει σύντομα και αξιόπιστα τα χαρακτηριστικά της υγιούς μόνωσης. Τα δεδομένα του αποτελέσματος είναι άμεσα συγκρίσιμα με αυτά της χρησιμοποιημένης μόνωσης, κατόπιν τούτου δύναται να αποτελέσουν βάση για την εκτίμηση της κατάστασής της.

ΚΕΦΑΛΑΙΟ 2: ΑΣΑΦΗΣ ΛΟΓΙΚΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ 2. ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΑΣΑΦΗ ΛΟΓΙΚΗ Η θεωρία της ασαφούς λογικής (fuzzy lgic) διατυπώθηκε για πρώτη φορά από τον καθηγητή L.A. Zadeh το 965. Δέκα χρόνια αργότερα άρχισε να προκαλεί το ενδιαφέρον των επιστημόνων και σταδιακά αναγνωρίσθηκε ευρέως από την επιστημονική κοινότητα, έχοντας ως κύρια εφαρμογή τον έλεγχο συστημάτων. Οι κύριοι λόγοι που συνέβαλαν στην αποδοχή των ασαφών συστημάτων ελέγχου σχετίζονταν με την ευκολία του σχεδιασμού τους και την απλότητα τους, καθώς και με την ιδιότητα τους να ελέγχουν πολύπλοκες και συνεχώς μεταβαλλόμενες διαδικασίες. Η βασική διαφορά των ασαφών μοντέλων από τα κλασικά εντοπίζεται στις πληροφορίες που επεξεργάζονται. Τα κλασσικά μοντέλα αποφεύγουν να χρησιμοποιούν ακαθόριστες, ανακριβείς και αβέβαιες πληροφορίες, καθώς κάτι τέτοιο θα οδηγούσε σε λήψη εσφαλμένων αποφάσεων. Αντίθετα, τα ασαφή μοντέλα, τα οποία δεν απαιτούν ακριβή αριθμητικά δεδομένα των μεταβλητών ελέγχου και των παραμέτρων του συστήματος, μπορούν να χρησιμοποιήσουν αυτού του είδους τις πληροφορίες. Οι ελεγκτές που είναι σχεδιασμένοι με βάση την ασαφή λογική έχουν την έμφυτη ιδιότητα να χειρίζονται ασαφή στοιχεία και στοιχεία με θόρυβο. Βασίζονται στην ανθρώπινη ικανότητα να αντιλαμβάνεται την συμπεριφορά του συστήματος με ποιοτικούς κανόνες. Μέσω ενός συνόλου απλών λεκτικών κανόνων {linguistic rules), η ασαφής λογική μπορεί να μοντελοποιήσει τη γνώση και την εμπειρία ενός πεπειραμένου χρήστη. Έτσι διαμορφώνεται ένα σύστημα βασισμένο στη γνώση {knwledge based system) το οποίο οδηγεί σε απλούστερα μοντέλα που είναι πιο εύχρηστα και πιο κοντά στη ανθρώπινη λογική. Με αυτό τον τρόπο γίνεται εφικτός ο έλεγχος συστημάτων ακόμα και σε συνθήκες λειτουργίας στις οποίες οι κλασικές μέθοδοι ελέγχου αποτυγχάνουν. 2.2 ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ ΑΣΑΦΟΥΣ ΛΟΓΙΚΗΣ Ένας βασικός όρος της ασαφούς λογικής είναι το ασαφές σύνολο (fuzzy set). Ένα ασαφές σύνολο είναι ένα σύνολο του οποίου τα όρια δεν είναι απόλυτα καθορισμένα και το οποίο περιέχει στοιχεία με διαφορετικούς βαθμούς συμμετοχής.

Για να γίνει πιο κατανοητή η έννοια του ασαφούς συνόλου, θα περιγραφεί αρχικά η έννοια του κλασικού συνόλου (crisp set). Ένα κλασικό σύνολο περιλαμβάνει ή όχι ένα συγκεκριμένο στοιχείο. Για παράδειγμα, το σύνολο «ημέρες της εβδομάδας», Σχ. 2., αδιαμφισβήτητα περιέχει τα στοιχεία Δευτέρα, Τρίτη και Σάββατο. Το ίδιο σύνολο αδιαμφισβήτητα δεν περιλαμβάνει τα στοιχεία ταχύτητα, θερμοκρασία κλπ. Ο παραπάνω ορισμός του συνόλου είναι σύμφωνος με την αριστοτελική λογική, η οποία υποστηρίζει ότι το Χ ανήκει είτε στο σύνολο «Α» είτε στο σύνολο «όχι Α». Σχ. 2.: Απεικόνιση του κλασικού συνόλου «ημέρες της εβδομάδας». Στη συνέχεια, ας θεωρήσουμε το σύνολο «ημέρες του σαββατοκύριακου». Το Σχ. 2.2 αποτελεί μια προσπάθεια ταξινόμησης των ημερών του σαββατοκύριακου. Όλοι θα συμφωνήσουν ότι το Σάββατο και η Κυριακή ανήκουν σ' αυτό. Όσον αφορά στην Παρασκευή όμως; Οι περισσότεροι τη θεωρούμε μέρος του σαββατοκύριακου, σύμφωνα με τη λογική όμως δε θα έπρεπε να την τοποθετήσουμε σε αυτό το σύνολο. Θα μπορούσαμε να τοποθετήσουμε την Παρασκευή στο όριο ανάμεσα στα σύνολα «ημέρες του σαββατοκύριακου» και «όχι ημέρες του σαββατοκύριακου», θεωρώντας την στοιχείο και των δύο συνόλων. Η λογική των κλασσικών συνόλων δε θα επέτρεπε μια τέτοια κατάσταση. Η ανθρώπινη εμπειρία όμως υποστηρίζει ότι το να κατατάσσουμε μια έννοια στο όριο μεταξύ δύο συνόλων αποτελεί μια καθημερινή πραγματικότητα. Η ασαφής λογική είναι ουσιαστικά μια γενίκευση της δίτιμης (Blean) λογικής. Αν αντιστοιχήσουμε στο «αληθές» την αριθμητική τιμή και στο «ψευδές» την τιμή 0, μπορούμε να πούμε ότι η ασαφής λογική επιτρέπει και ενδιάμεσες τιμές όπως το 0.2 και το 0.8. Για παράδειγμα: 2

Σχ. 2.2 Απεικόνιση του ασαφούς συνόλου «ημέρες του σαββατοκύριακου». - Ανήκει το Σάββατο στο σαββατοκύριακο; - (ναι ή «αληθές»). - Ανήκει η Τρίτη στο σαββατοκύριακο; - 0 (όχι ή «ψευδές»). - Ανήκει η Παρασκευή στο σαββατοκύριακο; - 0.8 (κατά το μεγαλύτερο μέρος ναι, αλλά όχι εντελώς). - Ανήκει η Κυριακή στο σαββατοκύριακο; - 0.95 (ναι, αλλά όχι όσο και το Σάββατο). Στ ο Σχ. 2.3, στα αριστερά φαίνεται το διάγραμμα της συμμετοχής κάποιων ημερών της εβδομάδας στο σύνολο «ημέρες του σαββατοκύριακου» με τον κλασσικό ορισμό του συνόλου, ενώ στα δεξιά με τον ασαφή ορισμό. Σχ. 2.3 Διάγραμμα συμμετοχής στο σύνολο «Ημέρες του Σαββατοκύριακου» Αν στα παραπάνω διαγράμματα (διακριτή μορφή). ο άξονας των ημερών πάρει συνεχείς τιμές τα διαγράμματα θα έχουν την μορφή του Σχ. 2.4. Έτσι, μπορούμε να ορίσουμε το βαθμό στον οποίο κάθε δεδομένη στιγμή ανήκει στο σαββατοκύριακο. Στο διάγραμμα στα αριστερά παρατηρούμε ότι στα μεσάνυχτα της Παρασκευής ο βαθμός συμμετοχής στο σύνολο «ημέρες του σαββατοκύριακου» αλλάζει βηματικά από το 0 στο. 3

Αυτός είναι βέβαια ένας τρόπος να ορίσουμε το σαββατοκύριακο, αλλά δεν αντιπροσωπεύει τον ορισμό που η πλειοψηφία των ανθρώπων έχει στο νου της για το σαββατοκύριακο. Σχ. 2.4 Διάγραμμα συμμετοχής στο σύνολο «Ημέρες του Σαββατοκύριακου» (συνεχής μορφή). Η καμπύλη στο διάγραμμα στα δεξιά παρουσιάζει πιο ομαλές μεταβολές και εκφράζει το γεγονός ότι η Παρασκευή και κατά ένα μικρό βαθμό και η Δευτέρα συμμετέχουν στην έννοια σαββατοκύριακο και αξίζουν ένα βαθμό συμμετοχής στο σύνολο «Ημέρες του Σαββατοκύριακου». Η καμπύλη αυτή είναι γνωστή ως συνάρτηση συμμετοχής (membership functin). Μια συνάρτηση συμμετοχής, η οποία συνήθως συμβολίζεται με το γράμμα μ, είναι μια καμπύλη η οποία ορίζει σε ποιο βαθμό κάθε στοιχείο του ασαφούς συνόλου αντιστοιχίζεται σε ένα βαθμό συμμετοχής στο σύνολο ανάμεσα στο 0 και το. Το σύνολο στο οποίο παίρνει τιμές η κάθε είσοδος αναφέρεται ως το υπερσύνολο αναφοράς της (universe f discurse). Το διάστημα για το οποίο η συνάρτηση συμμετοχής παίρνει θετικές τιμές ονομάζεται σύνολο στήριξης (supprt set). Στη συνέχεια ακολουθεί ένα ακόμα παράδειγμα κλασσικών και ασαφών συνόλων, ώστε να εξηγηθούν καλύτερα οι βασικές έννοιες της ασαφούς λογικής. Έστω η ασαφής μεταβλητή «ταχύτητα». Αυτή μπορεί να περιγραφεί από τις λεκτικές μεταβλητές (linguistic variables) «μικρή»,» μεσαία» και «μεγάλη», Σχ. 2.5. Σε κάθε μια από τις λεκτικές μεταβλητές αντιστοιχεί ένα ασαφές σύνολο που περιγράφεται 4

από τη συνάρτηση συμμετοχής του. Για παράδειγμα, η συνάρτηση συμμετοχής για το ασαφές σύνολο «μικρή» θα μπορούσε να δίνεται από την παρακάτω εξίσωση:, ν [0, 35] μμικρη ( ν) = ν 35, ν (35,60] 25 Σχ. 2.5 Όροι της ασαφούς λογικής. Οι τιμές των συναρτήσεων συμμετοχής ανήκουν στο διάστημα [0,]. Η μορφή των συναρτήσεων συμμετοχής ποικίλει ανάλογα με την εφαρμογή. Οι συνηθέστερες μορφές συναρτήσεων συμμετοχής είναι η τριγωνική, η τραπεζοειδής και η γκαουσιανή, Σχ. 2.6. Σχ. 2.6 Μορφές συναρτήσεων συμμετοχής. 5

2.3 ΑΣΑΦΗΣ ΣΥΛΛΟΓΙΣΜΟΣ (FUZZY REASONING) 2.3. Ασαφείς κανόνες (fuzzy rules). Ο ασαφής συλλογισμός πραγματοποιείται με κανόνες της μορφής: «Αν...τότε...». Ένας ασαφής κανόνας προσδιορίζει την σχέση μεταξύ των ασαφών μεταβλητών εισόδου και εξόδου και αποτελείται από δύο μέρη: την προϋπόθεση (antecedent) και το επακόλουθο (cnsequence). Ένα τυπικό παράδειγμα ενός ασαφούς κανόνα είναι το εξής: Αν η είσοδος_ είναι μικρή και η είσοδος_2 είναι μεγάλη αρνητική, τότε η έξοδος είναι μηδέν προϋπόθεση επακόλουθο Στον παραπάνω κανόνα η είσοδος_, η είσοδος_2 και η έξοδος είναι οι ασαφείς μεταβλητές, ενώ η μικρή, η μεγάλη αρνητική και η μηδέν είναι λεκτικές μεταβλητές. 2.3.2 Λογικές πράξεις με ασαφή σύνολα. Λόγω της χρήσης της πλειότιμης λογικής στην ασαφή λογική, οι πράξεις της ασαφούς λογικής διαφέρουν από αυτές της δίτιμης (Blean) λογικής. Η ασαφής λογική είναι ουσιαστικά ένα υπερσύνολο της δίτιμης λογικής. Εάν στις ασαφείς μεταβλητές αποδοθούν οι ακραίες τιμές τους, (εντελώς αληθές) και 0 (εντελώς ψευδές) θα ισχύουν οι γνωστές μέχρι τώρα λογικές πράξεις όπως η AND η OR και η NOT, που φαίνονται στον Πίνακα 2.. A B A AND B A B A OR B A NOT A 0 0 0 0 0 0 0 6

0 0 0 0 0 0 0 Πίνακας 2.. Λογικές πράξεις δίτιμης λογικής. Λαμβάνοντας υπόψη ότι στην ασαφή λογική οι τιμές εισόδου είναι πραγματικοί αριθμοί ανάμεσα στο 0 και το, θα πρέπει να βρεθούν κάποιες συναρτήσεις που θα διατηρήσουν τα αποτελέσματα των παραπάνω πινάκων για όλους τους αριθμούς ανάμεσα στο 0 και το. Μια απάντηση θα ήταν η πράξη AND να αντικατασταθεί από την πράξη ΜΙΝ (ελάχιστο) ή από το γινόμενο. Ομοίως, θα μπορούσε να αντικατασταθεί η πράξη OR με την πράξη MAX (μέγιστο) και η πράξη ΝΟΤ(Α) με την πράξη -Α. Από τον Πίνακα 2.2 μπορούμε να παρατηρήσουμε πως οι πίνακες αληθείας παραμένουν οι ίδιοι αν πραγματοποιηθούν οι παραπάνω αντιστοιχίσεις. A B Min(A,B) A B Max(A,B) A -A 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Πίνακας 2.2. Λογικές πράξεις ασαφούς λογικής. Συνεπώς η λογική πράξη ΚΑΙ (AND) που ταυτίζεται με την Τομή (Intersectin) δύο συνόλων, ορίζεται ως εξής: 7

σύμφωνα με το καρτεσιανό γινόμενο τομής (2.2) (2.3) σύμφωνα με το καρτεσιανό αλγεβρικό γινόμενο. Αντίστοιχα, η λογική πράξη Η (OR) που ταυτίζεται με την Ένωση (Unit) δύο συνόλων ορίζεται ως: (2.4) Τέλος το Συμπλήρωμα (Cmplement) του ασαφούς συνόλου Α δίνεται από τη σχέση: ΝΟΤ(μ Α )=-μ Α (2.5) όπου μ Α και μ B είναι τιμές των συναρτήσεων συμμετοχής των ασαφών συνόλων Α και Β. 2.3.3 Ασαφές σύστημα εξαγωγής συμπερασμάτων. Το Ασαφές Σύστημα Εξαγωγής Συμπερασμάτων-ΑΣΕΣ {Fuzzy Inference System-FIS) είναι υπεύθυνο για τη διαδικασία του ασαφούς λογισμού. Το ΑΣΕΣ αποτελείται από τέσσερα βασικά μέρη, Σχ. 2.7. Αυτά είναι ο Ασαφοποιητής (Fuzzifier), η Βάση Γνώσης {Knwledge Base), η Μονάδα Λήψης Αποφάσεων ή Μονάδα Συμπερασμού {Inference Unit) και ο Αποασαφοποιητής {Defuzzifier). Στη βάση γνώσης είναι καταχωρημένη η κωδικοποιημένη γνώση, δηλαδή οι κανόνες ελέγχου και τα ασαφή σύνολα. Η μονάδα λήψης αποφάσεων εκτελεί τους ασαφείς κανόνες παίρνοντας ως είσοδο τις ασαφοποιημένες εισόδους και παραδίδοντας το ασαφοποιημένο αποτέλεσμα στον αποασαφοποιητή, ο οποίος παράγει τη σαφή έξοδο του ΑΣΕΣ. Η λειτουργία του ΑΣΕΣ μπορεί να διαιρεθεί σε τρία στάδια. Αρχικά, οι κλασσικές είσοδοι εισάγονται στο ΑΣΕΣ και ασαφοποιούνται. 8

Σχ. 2.7 Δομή του ασαφούς συστήματος εξαγωγής συμπερασμάτων. Στο δεύτερο στάδιο οι ασαφοποιημένες είσοδοι επεξεργάζονται στη βάση γνώσης. Στο τελικό στάδιο, τα αποτελέσματα όλων των κανόνων συνδυάζονται και αποασαφοποιούνται. Παρακάτω, ακολουθεί η αναλυτική περιγραφή του κάθε σταδίου. Στάδιο ασαφοποίησης Στο στάδιο της ασαφοποίησης ο ασαφοποιητής μετατρέπει τις φυσικές μεταβλητές της διαδικασίας σε ασαφείς. Εξαγωγή συμπερασμάτων Η μονάδα λήψης αποφάσεων διεκπεραιώνει τις λειτουργίες εξαγωγής συμπερασμάτων στους ασαφείς κανόνες. Πραγματοποιεί μια εξονυχιστική ανίχνευση όλων των κανόνων στη βάση γνώσης, με σκοπό να υπολογίσει το βαθμό συμμετοχής ή εκπλήρωσης. Οι κανόνες με μικρό βαθμό συμμετοχής συμβάλουν ελάχιστα στην τελική απόφαση, ενώ οι κανόνες με μεγάλο βαθμό συμμετοχής είναι κυρίαρχοι. Τα τελικά ασαφή σύνολα εξόδου εξαρτώνται από τον τύπο της συνεπαγωγής που θα επιλεγεί. Οι δημοφιλέστερες συνεπαγωγές είναι οι συνεπαγωγές του Mamdani και του Larsen. Οι συνεπαγωγές κατά Mamdani χρησιμοποιούν το καρτεσιανό γινόμενο τομής ενώ οι συνεπαγωγές κατά Larsen το καρτεσιανό αλγεβρικό γινόμενο. Συνεπαγωγή του Mamdani (2.6) 9

Ο συνδυασμός Ν εξαρτημένων σχέσεων γίνεται με το συνδετικό Ή (2.7) Συνεπαγωγή του Larsen (2.8) Ο συνδυασμός Ν εξαρτημένων σχέσεων γίνεται και εδώ με το συνδετικό Ή (2.9) Αποασαφοποίηση Το τελευταίο βήμα του αλγορίθμου ενός ασαφούς ελεγκτή είναι η απο-ασαφοποίηση (de-fuzzyficatin) της ασαφούς εισόδου σε σαφή τιμή. Υπάρχουν διάφορες τεχνικές απο-ασαφοποίησης. Εδώ θα πρέπει να αναφερθεί ότι στη βιβλιογραφία που αναφέρεται στην ασαφή λογική, τα ονόματα των μεθόδων ασαφοποίησης διαφέρουν από συγγραφέα σε συγγραφέα. Για αυτό το λόγο στις μεθόδους από-ασαφοποίησης που αναφέρονται παρακάτω θα πρέπει να δοθεί σημασία περισσότερο στον ορισμό της μεθόδου και όχι στο όνομα της. Οι συνηθέστερες μέθοδοι από-ασαφοποίησης είναι οι ακόλουθες: Απο-ασαφοποίηση μεγίστου (maximum defuzzifier) Στην τεχνική αυτή εξετάζεται η σύνθετη συνάρτηση συμμετοχής της εξόδου του ελεγκτή και επιλέγεται ως έξοδος η τιμή της μεταβλητής y όπου μ Ύ {γ) είναι μέγιστο. Συνεπώς (2.0) Η μέθοδος δεν δίνει ικανοποιητικά αποτελέσματα, ειδικά όταν υπάρχουν πολλαπλά μέγιστα. Απο-ασαφοποίηση με μέσο όρο των μεγίστων (Mean f Maxima defuzzier)-mom: 20

Στην τεχνική αυτή εξετάζεται η συνάρτηση συμμετοχής μ Ύ {γ) για να βρεθούν οι τιμές (εφόσον υπάρχουν) του y όπου μ Ύ {γ) είναι μέγιστη. Στη συνέχεια υπολογίζεται ο μέσος όρος των τιμών της εξόδου που αντιστοιχούν στη συνθήκη αυτή, δηλαδή: ) y m = max μ ( y ) (2.) MOM y i m j= Στην περίπτωση που υπάρχει μόνο ένα μέγιστο, η τεχνική αυτή συμπίπτει με την προηγούμενη. Απο-ασαφοποίηση κεντρώου (Centre f Area ή COA - defuzzifier): Στην τεχνική αυτή υπολογίζεται το κέντρο του εμβαδού της σύνθετης συνάρτησης συμμετοχής της εξόδου: ) y COA S = yμ ( y) S Y μ ( y) Y (2.2) όπου S είναι το σύνολο στήριξης της συνάρτησης μ γ (y). Στην περίπτωση που το σύνολο υποστήριξης είναι διακριτό, η παραπάνω σχέση γίνεται: ) y COA = I i= I i= i yμ ( y ) i Y i i μ ( y ) Y i (2.3) Στην τεχνική αυτή τα σχήματα των συναρτήσεων συμμετοχής παίζουν μεγάλο ρόλο στο τελικό αποτέλεσμα. Η μέθοδος αυτή εφαρμόζεται συχνά στον ασαφή έλεγχο διεργασιών λόγω των λογικών αποτελεσμάτων που προκύπτουν. Απο-ασαφοποίηση κέντρου βάρους (Centre f Gravity - COG): Στην τεχνική αυτή υπολογίζεται το κέντρο βάρους όλων των συναρτήσεων συμμετοχής των / κανόνων που έχουν ενεργοποιηθεί, σταθμισμένων με τον βαθμό εκπλήρωσης σ; κάθε κανόνα. Το τελικό αποτέλεσμα στην περίπτωση που οι συναρτήσεις είναι συμμετρικές είναι: ) y COG = I i= I i σμ ( y ) i= i Y i i μ ( y ) Y i (2.4) 2

Όλες οι παραπάνω τεχνικές έχουν στόχο την εύρεση σαφούς τιμής της εξόδου του ελεγκτή (δηλαδή τη μεταβλητή ελέγχου) από τη σύνθετη συνάρτηση συμμετοχής της εξόδου. Παράδειγμα Σ' αυτή την παράγραφο, μέσω ενός παραδείγματος, θα δείξουμε τα βήματα που ακολουθεί ένας ασαφής ελεγκτής ώστε να πάρει αποφάσεις: Ο ασαφής ελεγκτής έχει δύο εισόδους και μια έξοδο. Οι είσοδοι του ασαφούς ελεγκτή είναι οι Είσοδος και η Είσοδος 2. Στην Είσοδο και στην έξοδο αντιστοιχούν από πέντε λεκτικές μεταβλητές, οι: LO=(Lw) χαμηλός, ZO=(ZerO) κανονικός, LH=(LittleHigh) λίγο υψηλός, MH=(MediumHigh) υψηλός και VH=(VeryHigh) πολύ υψηλός ενώ στην Είσοδο_2 τρεις: VL=(VeryLw) πολύ χαμηλός, ZO=(ZerO) κανονικός, VH=(VeryHigh) πολύ υψηλός. Οι συναρτήσεις συμμετοχής των ασαφών συνόλων των εισόδων και της εξόδου έχουν τη μορφή που φαίνεται στα Σχ. 2.8-Σχ. 2.0.. 22

Σχ. 2.8 Συναρτήσεις συμμετοχής της εισόδου Είσοδος Σχ. 2.9 Συναρτήσεις συμμετοχής της εισόδου Είσοδος 2. Σχ. 2.0 Συναρτήσεις συμμετοχής της Εξόδου. Δεκαπέντε κανόνες προσδιορίζουν τις απαιτούμενες ενέργειες του ασαφούς ελεγκτή: R : Εάν η Είσοδος είναι LO και η Είσοδος 2 είναι VL τότε η Έξοδος είναι LO R 2 : Εάν η Είσοδος είναι ΖΟ και η Είσοδος 2 είναι VL τότε η Έξοδος είναι ΖΟ R 3 : Εάν η Είσοδος είναι LH και η Είσοδος 2 είναι VL τότε η Έξοδος είναι LH R 4 : Εάν η Είσοδος είναι ΜΗ και η Είσοδος 2 είναι VL τότε η Έξοδος είναι LH R 5 : Εάν η Είσοδος είναι VH και η Είσοδος 2 είναι VL τότε η Έξοδος είναι LH R 6 : Εάν η Είσοδος είναι LO και η Είσοδος 2 είναι ΖΟ τότε η Έξοδος είναι LO R 7 : Εάν η Είσοδος είναι ΖΟ και η Είσοδος 2 είναι ΖΟ τότε η Έξοδος είναι LH R 8 : Εάν η Είσοδος είναι LH και η Είσοδος 2 είναι ΖΟ τότε η Έξοδος είναι ΜΗ R 9 : Εάν η Είσοδος είναι ΜΗ και η Είσοδος 2 είναι ΖΟ τότε η Έξοδος είναι ΜΗ R 0 : Εάν η Είσοδος είναι VH και η Είσοδος 2 είναι ΖΟ τότε η Έξοδος είναι VH 23

R : Εάν η Είσοδος είναι LΟ και η Είσοδος 2 είναι VH τότε η Έξοδος είναι LH R 2 : Εάν η Είσοδος είναι ΖΟ και η Είσοδος 2 είναι VH τότε η Έξοδος είναι ΜΗ R 3 : Εάν η Είσοδος είναι LH και η Είσοδος 2 είναι VH τότε η Έξοδος είναι ΜΗ R 4 : Εάν η Είσοδος είναι ΜΗ και η Είσοδος 2 είναι VH τότε η Έξοδος είναι VH R 5 : Εάν η Είσοδος είναι VH και η Είσοδος 2 είναι VH τότε η Έξοδος είναι VH Οι παραπάνω κανόνες μπορούν να παρουσιασθούν σε συνοπτική μορφή ως πίνακας κανόνων, Πίνακας 2.3: Είσοδος LΟ ΖΟ LH ΜΗ VH Είσοδος 2 VL LΟ ΖΟ LH LH LH ΖΟ LΟ LH ΜΗ ΜΗ VH VH LH ΜΗ ΜΗ VH VH Πίνακας 2.3. Κανόνες του ασαφούς ελεγκτή. Σε γραφική μορφή οι 5 πρώτοι κανόνες μπορούν να παρουσιασθούν γραφικά όπως φαίνεται στο Σχ. 2.. θεωρείται ότι τη συγκεκριμένη στιγμή οι μετρήσεις των εισόδων έχουν τιμές -20% και -50% αντίστοιχα. Πρώτο βήμα: Σαρώνονται όλοι οι κανόνες συστηματικά για να υπολογισθεί ο βαθμός συμμετοχής η κάθε κανόνα στην τελική απόφαση του ελεγκτή. Ο χρόνος διεξαγωγής της απόφασης συνεπώς εξαρτάται άμεσα από το πλήθος των κανόνων στη βάση γνώσης. Για ταχεία απόφαση το πλήθος των κανόνων δεν πρέπει να είναι μεγάλο και συνήθως 20 με 30 κανόνες αρκούν. Τη συγκεκριμένη στιγμή ισχύει: 24

,, και,.5, Σχ. 2. Απεικόνιση των πρώτων πέντε κανόνων. Ακολουθώντας τη διαδικασία ) για κάθε κανόνα υπολογίζονται οι βαθμοί συμμετοχής κάθε κανόνα (εάν οι ασαφείς δηλώσεις στο αίτιο των κανόνων συνδέονταν με το λογικό τελεστή «ή» αντί του «και» θα υπολογίζαμε το ) R : = R 2 : =.5 R 3 : = R 4 : = R 5 : = 25

Οι υπόλοιποι κανόνες που δεν απεικονίζονται στο Σχ. 2. έχουν μηδενικό βαθμό συμμετοχής, καθώς θα ισχύει =0, για ί = 6 έως 5. Δεύτερο βήμα: Το δεύτερο βήμα είναι να ευρεθεί η συνάρτηση συμμετοχής της εξόδου του ελεγκτή. Η διαδικασία αυτή εξαρτάται από τον κανόνα συνεπαγωγής που θα εφαρμοσθεί. Στην περίπτωση της συνεπαγωγής του Larsen η συνάρτηση συμμετοχής της εξόδου είναι η ένωση των συναρτήσεων συμμετοχής κάθε κανόνα σταθμισμένων με τον αντίστοιχο βαθμό συμμετοχής, δηλαδή: Το αποτέλεσμα είναι η καμπύλη που φαίνεται στο κατώτερο μέρος του Σχ. 2.2. Σχ. 2.2 Διαδικασία υπολογισμού της σύνθετης συνάρτησης συμμετοχής της εξόδου με τον κανόνα συνεπαγωγής Larsen. Στην περίπτωση της συνεπαγωγής του Mamdani, η συνάρτηση συμμετοχής της εξόδου είναι η ένωση των ελαχίστων των βαθμών συμμετοχής και της συνάρτησης συμμετοχής της εξόδου κάθε κανόνα, δηλαδή: 26

Το αποτέλεσμα είναι η καμπύλη που φαίνεται στο κατώτερο μέρος του Σχ. 2.3. Σχ. 2.3 Διαδικασία υπολογισμού της σύνθετης συνάρτησης συμμετοχής της εξόδου με τον κανόνα συνεπαγωγής του Mamdani. Τρίτο βήμα: Το τελευταίο βήμα του αλγορίθμου ενός ασαφούς ελεγκτή είναι η αποασαφοποίηση της ασαφούς εξόδου σε σαφή τιμή. Ανάλογα με την τεχνική της από-ασαφοποίησης, η έξοδος του ελεγκτή παίρνει τις παρακάτω τιμές: τεχνική από-ασαφοποίησης ΜΟΜ: 0 τεχνική από-ασαφοποίησης COA: -0.49 τεχνική από-ασαφοποίησης COG: -0.5, θεωρώντας ότι η συνεπαγωγή έχει γίνει με τη μέθοδο min του Mamdani. 2.4 Η ΣΥΝΕΠΑΓΩΓΗ SUGENO Η συνεπαγωγή Sugen ή Takagi-Sugen-Kang προτάθηκε για πρώτη φορά το 985. Η συνεπαγωγή αυτή παρουσιάζει αρκετές ομοιότητες με τη συνεπαγωγή Mamdani. Η κύρια διαφορά τους σχετίζεται με τις συναρτήσεις συμμετοχής της εξόδου. Στο 27

μοντέλο Sugen οι συναρτήσεις μεταφοράς της εξόδου είναι γραμμικές ή σταθερές. Ένας τυπικός κανόνας ασαφούς συστήματος Sugen μηδενικής τάξεως έχει τη μορφή: Αν το x είναι Α και το y είναι Β, τότε το ζ = k, όπου Α και Β ασαφή σύνολα και k σταθερά. Η γενική μορφή ενός κανόνα ασαφούς συστήματος Sugen πρώτης τάξεως έχει τη μορφή: Αν το χ είναι Α και το y είναι Β, τότε το ζ = p x + r, όπου Α και Β ασαφή σύνολα και p,q και r σταθερά. 2.5 ΕΙΣΑΓΩΓΗ ΣΤΑ ΤΕΧΝΗΤΑ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Ο ανθρώπινος νους δεν είναι τόσο αποδοτικός στη γρήγορη εκτέλεση πολύπλοκων μαθηματικών πράξεων, σε αντίθεση με έναν σύγχρονο υπολογιστή. Σε πολλούς τομείς όμως, η ανθρώπινη ικανότητα υπερτερεί κατά πολύ των ικανοτήτων ενός υπολογιστή. Για παράδειγμα ο άνθρωπος αναγνωρίζει αντικείμενα πολύ εύκολα, έστω κι αν αυτά είναι παραμορφωμένα ή δεν είναι εξολοκλήρου ορατά. Η ικανότητα της μάθησης μέσω εμπειρίας συνεπώς είναι από τα κύρια χαρακτηριστικά της ανθρώπινης ευφυΐας. Η ανθρώπινη μνήμη έχει την ικανότητα να αποθηκεύει μεγάλη ποσότητα και ποικιλία γνώσης και να συσχετίζει πληροφορίες πολύ γρήγορα και χωρίς ιδιαίτερη προσπάθεια. Σε αντίθεση, ο υπολογιστής έχει την ικανότητα να απομνημονεύει τεράστιες ποσότητες πληροφοριών αλλά δυσκολεύεται να τις εκμεταλλευτεί. Μια πιθανή εξήγηση για την ανωτερότητα του ανθρώπου στον παραπάνω τομέα είναι το γεγονός ότι ο ανθρώπινος εγκέφαλος και οι υπολογιστές λειτουργούν εντελώς διαφορετικά. Ο άνθρωπος είναι πολύ πιο ευφυής από τον υπολογιστή επειδή ο εγκέφαλος χρησιμοποιεί μια αρχιτεκτονική που είναι πολύ πιο κατάλληλη να αντιμετωπίζει τη φυσική επεξεργασία πληροφοριών Ο ανθρώπινος εγκέφαλος δρα ως ένας ισχυρότατος υπολογιστής, που αποτελείται από έναν τεράστιο αριθμό απλών μονάδων επεξεργασίας ή νευρώνων (neurns), καθένας από τους οποίους επικοινωνεί με χιλιάδες άλλους. Οι νευρώνες είναι διατεταγμένοι κατά τέτοιο τρόπο ώστε πολλοί απ' αυτούς να επεξεργάζονται τις πληροφορίες ταυτόχρονα. Η παραπάνω ιδιότητα των βιολογικών νευρωνικών δικτύων ενέπνευσε την έρευνα γύρω 28

από τα Τεχνητά Νευρωνικά Δίκτυα (ΤΝΔ), τα οποία εφαρμόζονται σήμερα με επιτυχία τόσο στις επικοινωνίες, στην επεξεργασία εικόνας και την αναγνώριση ομιλίας, όσο και στον έλεγχο βιομηχανικών διεργασιών. Πριν γίνει αναφορά σε αυτά, θα αναφερθεί πρώτα πολύ συνοπτικά η λειτουργία των βιολογικών νευρωνικών δικτύων. 2.6 ΒΙΟΛΟΓΙΚΑ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Ο ανθρώπινος εγκέφαλος αποτελείται από περίπου εκατό δισεκατομμύρια διασυνδεδεμένα νευρικά κύτταρα, τους νευρώνες. Καθένας από αυτούς παρουσιάζει.000-0.000 συνδέσεις με άλλους νευρώνες. Το Σχ. 2.4 παρουσιάζει την τυπική δομή ενός βιολογικού νευρώνα. Αποτελείται από τρία κύρια μέρη: το κυτταρικό σώμα (cell bdy ή sma), πολλές δενδροειδής αποφύσεις που ονομάζονται δενδρίτες και τον άξονα. Σχ. 2.4 Απλοποιημένη απεικόνιση τεσσάρων νευρώνων. Η λειτουργία ενός νευρώνα είναι αρκετά πολύπλοκη, αλλά οι βασικές αρχές της είναι εύκολο να κατανοηθούν. Οι νευρώνες επηρεάζουν ο ένας τον άλλο μέσω ηλεκτρικών σημάτων. Οι δενδρίτες λαμβάνουν τα σήματα αυτά, ενώ ο άξονας τα μεταφέρει σε άλλους νευρώνες. Το σημείο σύνδεσης του άξονα με τον δενδρίτη ενός νευρώνα 29

καλείται σύναψη (synapse). Τα σήματα εσόδου από τους νευρώνες μεταδίδονται είτε μέσω ενισχυτικών, είτε μέσω κατασταλτικών συνάψεων. Οι ενισχυτικές συνάψεις αυξάνουν την πιθανότητα διέγερσης ενός νευρώνα, ενώ οι κατασταλτικές την μειώνουν. Οι δενδρίτες προωθούν τα σήματα στο σώμα, το οποίο τα αθροίζει. Αν το αθροιστικό σήμα είναι μεγαλύτερο από το δυναμικό ενεργοποίησης του άξονα, ο νευρώνας διεγείρεται. Τότε τα άκρα του άξονα εκπέμπουν ένα σήμα σε άλλες συνάψεις. Μετά την ενεργοποίηση, ο νευρώνας απενεργοποιείται, ώστε να είναι σε θέση να απενεργοποιηθεί από επόμενο σήμα. Τα βασικά χαρακτηριστικά των νευρωνικών δικτύων είναι η Αρχιτεκτονική τους και η Νευροδυναμική τους, δηλαδή οι λειτουργικές τους ιδιότητες. Η Αρχιτεκτονική τους αφορά στη δομή του δικτύου, δηλαδή τον αριθμό των τεχνητών νευρώνων του δικτύου και τον τρόπο σύνδεσης τους. Τα νευρωνικά δίκτυα αποτελούνται από πολλούς διασυνδεδεμένους νευρώνες που είναι τα στοιχεία επεξεργασίας (prcessing elements), με παρόμοια χαρακτηριστικά, όπως εισόδους, συναπτικά βάρη, ενεργοποίηση, εξόδους και τάση πόλωσης (bias). Η νευροδυναμική των νευρωνικών δικτύων καθορίζει τις ιδιότητες τους, όπως τον τρόπο με τον οποίο το νευρωνικό δίκτυο μαθαίνει, θυμάται, συσχετίζει και συγκρίνει συνεχώς τη νέα πληροφορία με την υπάρχουσα γνώση, ταξινομεί τη νέα πληροφορία και αναπτύσσει νέες ταξινομήσεις εάν είναι απαραίτητο. Τα νευρωνικά δίκτυα δεν επεξεργάζονται την πληροφορία σειριακά, αλλά με τη μέθοδο της Παράλληλης Ανάλυσης της σύνθετης πληροφορίας στα βασικά της στοιχεία. Για παράδειγμα, ένα σύνθετο χρώμα μπορεί να διαχωριστεί στις βασικές του συχνότητες και πλάτη και οποιαδήποτε στιγμή μπορεί να ξαναδημιουργηθεί από αυτές. Ομοίως, ένα νευρωνικό δίκτυο αποσυνθέτει τη σύνθετη πληροφορία στα βασικά της στοιχεία. Αυτά τα στοιχεία και η συσχέτιση μεταξύ τους αποθηκεύονται στη μνήμη του εγκεφάλου. Για παράδειγμα, όταν ένας άνθρωπος κοιτάζει μια εικόνα, ο εγκέφαλος του δεν αποθηκεύει στη μνήμη του έναν πίνακα από εικονοστοιχεία όπως ισχύει στην περίπτωση του ηλεκτρονικού υπολογιστή. Αντίθετα, αποθηκεύει στοιχειώδη χαρακτηριστικά, όπως γραμμές, σχήματα και χρώματα. 30

2.7 ΤΕΧΝΗΤΑ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Τα ΤΝΔ είναι ουσιαστικά απλοποιημένα ισοδύναμα μοντέλα του βιολογικού νευρικού συστήματος. Είναι δίκτυα που αποτελούνται από απλά μη γραμμικά στοιχεία, τους νευρώνες οι οποίοι αλληλοσυνδέονται με τέτοιο τρόπο, ώστε να επεξεργάζονται τις πληροφορίες ταυτόχρονα. Κάθε νευρώνας στέλνει σήματα διέγερσης ή αποδιέγερσης σε άλλους νευρώνες. Η κατάσταση ενεργοποίησης του εξαρτάται από τα σήματα που λαμβάνει από νευρώνες με τους οποίους συνδέεται. Τα ΤΝΔ διαχωρίζονται σε δύο κατηγορίες: Στα στατικά δίκτυα που δεν περιέχουν στοιχεία με μνήμη αλλά μπορούν να έχουν ως εισόδους προηγούμενες τιμές των εισόδων. Στα δυναμικά δίκτυα με στοιχεία μνήμης που είναι ιδιαίτερα κατάλληλα για την πραγματοποίηση μη γραμμικών δυναμικών συστημάτων. 2.7. Βασικό μοντέλο ενός νευρώνα. θα εξετάσουμε τη βασική μονάδα ενός ΤΝΔ, τον νευρώνα ή κόμβο, Σχ. 2.5. Η συμπεριφορά ενός στατικού νευρώνα μπορεί να περιγραφεί από την εξίσωση (2.5) n n+ (2.5) f( wx + β) ή f( wx ) με x = και β = w i i i i n+ n+ i= i= Όπου w i είναι τα συνοπτικά βάρη (synaptic weights), x οι είσοδοι του νευρώνα και β η σταθερά της πόλωσης (bias). Θετική τιμή ενός βάρους αναπαριστά διέγερση της εισόδου ενώ αντίθετα, μια αρνητική τιμή αναπαριστά αποδιέγερση της εισόδου. Συνεπώς η απόλυτη τιμή του βάρους καθορίζει την ισχύ της σύνδεσης. 3

Σχ. 2.5 Μοντέλο τεχνητού νευρώνα Το σταθμισμένο άθροισμα των εισόδων του ενεργοποιεί ένα στοιχείο παραμόρφωσης f ή αλλιώς συνάρτηση μεταφοράς, που είναι συνήθως, αλλά όχι απαραίτητα, μηγραμμικό. Μια συνήθης μορφή του στοιχείου αυτού έχει χαρακτήρα λογικής μονάδας κατωφλιού (threshld lgic unit ή TLU) οπότε και η έξοδος του νευρώνα σκανδαλίζεται όταν το σταθμισμένο άθροισμα των εισόδων, σ, περάσει το κατώφλι που ορίζεται από την πόλωση (bias) β. Άλλες παραλλαγές του στοιχείου παραμόρφωσης δίνονται από τις παρακάτω σχέσεις: Γραμμική σχέση (γραμμικός νευρώνας): f ( σ ) = σ (2.4) Δυαδική (δίτιμη) σχέση κατωφλιού, εαν σ > 0 f ( σ ) = 0, εαν σ < 0 (2.5) Σιγμοειδής (sigmidal) ή Λογιστική σχέση: f ( σ ) = [0,] + e σ (2.6) Σχέση με υπερβολική εφαπτομένη (hyperblic tangent): σ e f ( σ ) = (+ tanh σ ) σ + e 2 (2.7) 32

Σχέση τύπου Perceptrn: σ, εαν σ > 0 f ( σ ) = 0, εαν σ < 0 (2.8) Αν ο νευρώνας είναι δυναμικός (με μνήμη), το σταθμισμένο άθροισμα παίρνει την εξής μορφή: n+ σ( k) = σ( k ) + wx i i( k) i= (2.9) όπου στην περίπτωση αυτή υπεισέρχεται ο δείκτης διακριτού χρόνου k και απαιτείται επίσης η αποθήκευση της προηγούμενης τιμής του αθροίσματος σ(k-l). Η έξοδος u του νευρώνα αποτελεί είσοδο για άλλους νευρώνες. 2.7.2 Τοπολογίες Νευρωνικών Δικτύων. Τα ΤΝΔ είναι συμπλέγματα νευρώνων δομημένα κατά στρώματα ή επίπεδα (layers). Μπορούν να αποτελούνται από ένα (μονοστρωματικά δίκτυα) ή περισσότερα επίπεδα (πολυστρωματικά δίκτυα). Στην περίπτωση των πολυστρωματικών δικτύων, το χαμηλότερο ή πρώτο στρώμα θεωρείται ότι περιέχει τους κόμβους των εισόδων και το υψηλότερο στρώμα, τους κόμβους της εξόδου. Τα ενδιάμεσα ή μεσαία στρώματα ονομάζονται κρυφά ή κρυμμένα (hidden layers) και δεν επικοινωνούν άμεσα με το περιβάλλον. 2.7.3 Μονοστρωματικό δίκτυο τύπου Perceptrn. Το πρώτο είδος νευρωνικών δικτύων είναι το μονοστρωματικό δίκτυο τύπου Perceptrn. Σε αυτό τον τύπο δικτύου το σταθμισμένο άθροισμα των εισόδων υπολογίζεται σε κάθε κόμβο και αν η τιμή ξεπερνά μια τιμή κατωφλίου, ο νευρώνας ενεργοποιείται. Στη βιβλιογραφία ο όρος Perceptrn συχνά αναφέρεται σε δίκτυα με έναν μόνο κόμβο. 2.7.4 Πολυστρωματικά δίκτυα. Η πιο απλή τοπολογία πολυστρωματικών δικτύων είναι αυτή των Δικτύων Πρόσθιας Τροφοδότησης (Feed-frward Netwrks). Σε αυτό τον τύπο δικτύων η πληροφορία ρέει μόνο προς τα εμπρός, από τα στρώματα εισόδου στα στρώματα εξόδου, μέσω 33

των κρυφών στρωμάτων (εάν υπάρχουν), χωρίς ανατροφοδότηση. Στο Σχ. 2.6 απεικονίζεται ένα τέτοιο δίκτυο. Σχ. 2.6 Δίκτυο πρόσθιας τροφοδότησης. Μια άλλη κατηγορία πολυστρωματικών δικτύων είναι αυτή των Δικτύων με Ανατροφοδότηση (Feedback Netwrks). Σε αυτά τα δίκτυα υπάρχει τουλάχιστον ένας κλειστός βρόχος, με αποτέλεσμα δεδομένα από τα ανώτερα ιεραρχικά στάδια να τροφοδοτούνται στα κατώτερα στάδια. Γνωστά δίκτυα αυτού του είδους είναι τα δίκτυα τύπου Hpfield, στα οποία όλες οι συνδέσεις είναι συμμετρικές. 2.8 ΑΛΓΟΡΙΘΜΟΙ ΕΚΠΑΙΔΕΥΣΗΣ ΤΝΔ Στόχος της εκπαίδευσης είναι η συστηματική εύρεση των συντελεστών διασύνδεσης ή βαρών του δικτύου, που είναι αρχικά άγνωστα, ελαχιστοποιώντας κάποιο μέτρο του σφάλματος μεταξύ της επιθυμητής και της πραγματικής εξόδου του δικτύου. Μετά την εκπαίδευση του δικτύου δεν επιτρέπεται καμία μεταβολή των βαρών. Διακρίνονται δύο τεχνικές μάθησης: Η μάθηση με εποπτεία ή επίβλεψη (supervised learning) που ενσωματώνει μια εξωτερική πηγή (π.χ. τον εκπαιδευτή) ή γενική γνώση για το σύστημα και Η μάθηση χωρίς εποπτεία (unsupervised learning) όπου δεν υπάρχει εξωτερική γνώση αναφοράς αλλά εξαρτάται από τοπικές πληροφορίες και εσωτερικά δεδομένα. Στην περίπτωση μάθησης με εποπτεία παρέχεται στο δίκτυο υπό μάθηση η επιθυμητή έξοδος για κάθε είσοδο ώστε το δίκτυο να μαθαίνει τις σωστές συσχετίσεις μεταξύ εισόδων και εξόδων. Στην κατηγορία αυτή χρησιμοποιείται συνήθως ο αλγόριθμος 34

της οπισθόδρομης διάδοσης (backprpagatin). Ο αλγόριθμος αυτός προσαρμόζει τα βάρη διασύνδεσης σε δίκτυα πολλαπλών στρωμάτων με βάση τη διάδοση ενός μέτρου του σφάλματος μεταξύ της επιθυμητής και της πραγματικής εξόδου του δικτύου, από την έξοδο προς την είσοδο του δικτύου. Για τη μάθηση χωρίς εποπτεία δεν παρέχεται στο δίκτυο καμιά πληροφορία σχετική με την επιθυμητή έξοδο που αντιστοιχεί σε κάθε είσοδο. Αντίθετα, το δίκτυο αυτοοργανώνεται και μαθαίνει να ανταποκρίνεται με διαφορετικό τρόπο σε διαφορετικά χαρακτηριστικά της εισόδου. Χαρακτηριστική εφαρμογή της κατηγορίας αυτής είναι τα δίκτυα ανίχνευσης χαρακτηριστικών (feature detectin) και ομαδοποίησης (clustering) δεδομένων. 2.8. Ο κανόνας μάθησης Δέλτα. Έστω ένας μη-γραμμικός νευρώνας που αποτελείται από δύο βαθμίδες όπως αυτός του Σχ. 2.6. Η πρώτη βαθμίδα, παράγει το σταθμισμένο άθροισμα σ=<w,x> (εσωτερικό γινόμενο) και η δεύτερη, μη-γραμμική βαθμίδα παράγει την έξοδο y = f(σ) όπου f(.) είναι η σχέση εισόδου-εξόδου του μη-γραμμικού στοιχείου. Η ευαισθησία του σφάλματος e μεταξύ της επιθυμητής και της πραγματικής εξόδου του ΤΝΔ στο διάνυσμα βάρους ορίζεται από τη μερική παράγωγο: e y f( σ ) f( σ) σ = = = = f ( σ) x = g( σ) x (2.20) w w w σ w που υπολογίζεται με τον αλυσιδωτό κανόνα παραγώγισης. Είναι ευνόητο ότι για να ορίζεται η ευαισθησία παντού, η σχέση εισόδου-εξόδου του μη-γραμμικού στοιχείου πρέπει να είναι παραγωγίσιμη, δηλαδή η παράγωγος g(σ)=f'(σ) πρέπει να ορίζεται για όλες τις τιμές του σ. Το σφάλμα μεταξύ της επιθυμητής και της πραγματικής εξόδου ενός νευρώνα είναι: e= d f( σ ) = d f( w, x ) (2.2) Ακολουθώντας τα ίδια βήματα, η προσέγγιση της μερικής παραγώγου του τετραγώνου σφάλματος είναι: 2 e e f f σ ˆ γ = = 2e = 2e = 2e = 2egx (2.22) w w w σ w Τότε το w θα δίνεται από την επαναληπτική σχέση: m m m m m m m m w + = w μγˆ = w +Δ w = w + 2me g x όπου m είναι ο δείκτης επανάληψης. 35 m (2.23)

Η επιλογή του συντελεστή μ είναι αυθαίρετη. Επιλέγοντας πολύ μικρό συντελεστή σημαίνει ότι η σύγκλιση θα είναι αργή και αντίστροφα, επιλογή πολύ μεγάλου συντελεστή μπορεί να προκαλέσει απόκλιση ή και αστάθεια του αλγορίθμου. Υπάρχουν πολλές τεχνικές για την επίσπευση της σύγκλισης με την αυτόματη μεταβολή του συντελεστή, ανάλογα με την πορεία της μάθησης. Ένας απλός τρόπος είναι να αρχίσει η μάθηση υποθέτοντας τυχαίες τιμές και για τα βάρη του δικτύου και κάποιο συντηρητικό συντελεστή μ. Μετά τις πρώτες επαναλήψεις του αλγορίθμου εξετάζεται η εξέλιξη της νόρμας των μεγεθών των διορθώσεων στα βάρη Δwm. Εάν ο ρυθμός εξέλιξης της νόρμας είναι μικρότερος ενός προκαθορισμένου ορίου ε, τότε η τιμή του συντελεστή μ διπλασιάζεται, ενώ αν ο ρυθμός γίνει μεγαλύτερος ενός δεύτερου ορίου δ, ο συντελεστής μ μειώνεται κατά το ήμισυ. Με τον απλό αυτό τρόπο επιτυγχάνεται μεταβαλλόμενος ρυθμός μάθησης. 2.8.2 Αλγόριθμοι Μάθησης Πολυστρωματικών ΤΝΔ. Ένα πολυστρωματικό ΤΝΔ αποτελείται από το στρώμα της εισόδου, το στρώμα της εξόδου και ένα ή περισσότερα ενδιάμεσα στρώματα. Δεν είναι γνωστός εκ των προτέρων όμως ποιος είναι ο αριθμός των νευρώνων που απαιτούνται σε κάθε στρώμα. Συνεπώς απαιτείται κάποιος πειραματισμός ώστε να βρεθεί ο ελάχιστος αριθμός νευρώνων που αποδίδει τα επιθυμητά αποτελέσματα. Για τον έλεγχο των διεργασιών είναι αυτονόητο ότι βασικό κριτήριο είναι η ελαχιστοποίηση τόσο του αριθμού των στρωμάτων, όσο και του αριθμού των νευρώνων. Αν αυτό επιτευχθεί, ο χρόνος μάθησης γίνεται μικρός και η υλοποίηση του ελεγκτή σε λογισμικό είναι απλή και σθεναρή. Το πρόβλημα της μάθησης με εποπτεία, ενός σύνθετου ΤΝΔ με πολλαπλά στρώματα, ουσιαστικά μεταφράζεται σε πρόβλημα εύρεσης ενός ευσταθούς επαναληπτικού αλγορίθμου που θα προσαρμόζει τα βάρη των διασυνδέσεων των νευρώνων στα διάφορα στρώματα συστηματικά, με δεδομένα τις επιθυμητές και τις πραγματικές εξόδους του δικτύου μόνο. Ο αλγόριθμος μάθησης ΤΝΔ με πολλαπλά στρώματα είναι μια παραλλαγή του κανόνα Δέλτα για ένα νευρώνα όπως παρουσιάστηκε στην προηγούμενη παράγραφο, με τη διαφορά ότι τα διάφορα διανύσματα στην επαναληπτική σχέση τώρα είναι πίνακες, οι διαστάσεις των οποίων εξαρτώνται από των αριθμό των νευρώνων σε κάθε στρώμα. Υπάρχουν παραδείγματα σύνθετων ΤΝΔ ειδικά στον τομέα της 36

αναγνώρισης φωνής με εκατοντάδες ή και χιλιάδες νευρώνες σε τρία ή τέσσερα στρώματα με αποτέλεσμα να υπάρχουν δεκάδες χιλιάδες βάρη στο δίκτυο που πρέπει να ευρεθούν. Για την περίπτωση αυτή είναι προφανές ότι ταχύτατοι παράλληλοι υπολογιστές απαιτούνται για την εκπαίδευση των δικτύων, η οποία είναι εξαιρετικά χρονοβόρα. Ευτυχώς τα προβλήματα αυτά δεν προκύπτουν στον έλεγχο των φυσικών διεργασιών. 2.8.3 Ο Αλγόριθμος Μάθησης με Οπισθόδρομη Διάδοση. Για να κατανοηθεί ο αλγόριθμος μάθησης οπισθόδρομης διάδοσης (backprpagatin), που είναι ο πιο διαδεδομένος, θα παρουσιασθεί παρακάτω μέσω ενός απλού παραδείγματος. Το παράδειγμα αναφέρεται σε ένα δίκτυο δύο στρωμάτων με δύο μόνο νευρώνες στο στρώμα εισόδου και ένα νευρώνα στο στρώμα εξόδου, Σχ. 2.7. Σχ. 2.7 Παράδειγμα ενός απλού ΤΝΔ τύπου 2-. Η γενίκευση του αλγόριθμου είναι σχετικά εύκολη, αλλά απαιτούνται πολλαπλοί δείκτες στα συναπτικά βάρη που καθιστούν τις εξισώσεις ιδιαίτερα δύσχρηστες. Στο σχήμα είναι προφανές ότι τα σήματα στις εισόδους και εξόδους των νευρώνων Ν του πρώτου στρώματος είναι: σ = wx+w2x2+w3, yl=f(σ) (2.22) σ2 = w2x+w22x2+w23, y2=f(σ2) (2.23) Με τον ίδιο τρόπο η σταθμισμένη έξοδος του δεύτερου στρώματος είναι: σ3 = νy+ ν2y2+ν3, y3=f(σ3) (2.24) 37

Το σφάλμα του δικτύου είναι η διαφορά μεταξύ της επιθυμητής και της πραγματικής εξόδου του δικτύου, δηλαδή e=d-y3. Τώρα σε κάθε επανάληψη υπολογίζεται το σφάλμα: e = d-f(y3) (2.25) Συνεπώς απαιτείται η μερική παράγωγος του τετραγώνου του σφάλματος για κάθε βάρος. Για τα βάρη του πρώτου και του δεύτερου στρώματος η μερική παράγωγος του τετραγώνου του σφάλματος είναι: 2 e e = 2 e, i =,2 και j =,3 ( w ) ( ν ) ij i 2 e e = 2 e, i =,3 ( νi) ( νi) Ακολουθώντας τα ίδια βήματα που παρουσιάστηκαν σε προηγούμενη παράγραφο, ο επαναληπτικός αλγόριθμος μάθησης μπορεί να εκφραστεί ως εξής: m m+ m m m m e W = W +Δ W = W + 2μe m W και m m+ m m m m e Ο ν αλγόριθμος = ν +Δ νμάθησης = ν + 2απαιτεί μe τον υπολογισμό των ευαισθησιών του σφάλματος σε m ν σχέση με τα βάρη των διασυνδέσεων των νευρώνων, δηλαδή τις μερικές παραγώγους: e e W και ν ij i Οι πρώτες τρεις μερικές παράγωγοι (δηλαδή της ευαισθησίας του σφάλματος στα βάρη των νευρώνων του πρώτου στρώματος) ευρίσκονται με τη χρήση του αλυσιδωτού κανόνα παραγώγισης και είναι: e y f( σ 3) σ3 f( σ3) σ3 f( σ) σ = = = = g( σ3) g( σ) ν x (2.26) w w σ w σ f( σ ) σ w 3 3 e y f( σ ) σ f( σ ) σ f( σ ) σ w w w f w g( σ ) g( σ ) ν x 2 3 3 3 3 = = = = 3 2 2 σ3 2 σ3 ( σ) σ 2 (2.27) e y f( σ 3) σ3 f( σ3) σ3 f ( σ) σ = = = = g( σ3) g( σ) ν x 3 (2.28) w w σ w σ f( σ ) σ w 3 3 3 3 3 3 Αντίστοιχα υπολογίζονται οι επόμενες μερικές παράγωγοι, που αφορούν τα βάρη που αντιστοιχούν στη δεύτερη είσοδο. Σημειώνεται ότι οι αναλυτικές σχέσεις των μηγραμμικών συναρτήσεων και των παραγώγων τους είναι γνωστές και συνεπώς ο υπολογισμός τους δεν παρουσιάζει ιδιαίτερα προβλήματα. 38

Στην περίπτωση που το μη-γραμμικό στοιχείο του νευρώνα είναι σιγμοειδές, η παράγωγος είναι: σ e 2σ f( σ) = και g( σ) = f ( σ) = σ + e ( ) σ 2 + e (2.29) Με τον ίδιο τρόπο υπολογίζονται οι ευαισθησίες του σφάλματος στα βάρη του δευτέρου στρώματος, δηλαδή: y f( σ ) σ e = 3 = 3 3 = g( σ 3) y ν ν σ3 ν e y f( σ ) σ ν ν σ ν 3 3 3 = = = g( σ 3) y2 2 2 3 2 e y f( σ ) σ ν ν σ ν 3 3 3 = = = g( σ 3) y3 3 3 3 3 (2.30) (2.3) (2.32) Οι εξισώσεις αυτές είναι απλές εφόσον μόνο ένα στρώμα διασχίζεται. Ο αλγόριθμος μάθησης με διάδοση προς τα πίσω παίρνει το όνομα του από το γεγονός ότι για να υπολογιστούν τα βάρη γίνεται ανάκληση στη ροή του υπολογισμού. Έτσι με κάποιες τυχαίες αρχικές τιμές για τα βάρη όλων των στρωμάτων και με δεδομένες τιμές των εισόδων, γίνεται η πρώτη υπολογιστική διαδρομή στην οποία υπολογίζονται οι μεταβλητές σ, σ2, σ3 και συνεπώς y, y2, y3. Με τη γνώση αυτή υπολογίζονται οι διάφορες συναρτήσεις των μη γραμμικών σχέσεων εισόδου-εξόδου και οι παραγωγοί τους (f, g). Σε κάθε επανάληψη του αλγορίθμου υπολογίζονται οι μεταβολές ή διορθώσεις ΔWm στα βάρη του στρώματος εισόδου και Δvm του στρώματος εξόδου. Οι μεταβολές αυτές προστίθενται στις προηγούμενες τιμές των βαρών για να επαναληφθεί η διαδικασία μέχρις ότου το μέτρο του σφάλματος επιτευχθεί οπότε και τερματίζεται η διαδικασία μάθησης. Για σύνθετα ΤΝΔ είναι ευνόητο ότι δεκάδες χιλιάδες επαναλήψεις απαιτούνται για τη μάθηση των βαρών και συνεπώς η διαδικασία είναι συνήθως χρονοβόρα και απαιτεί ταχύτατους υπολογιστές. Τέλος, ο αλγόριθμος εποπτευόμενης μάθησης (supervised learning) οπισθόδρομης διάδοσης, αν και πολύ διαδεδομένος, συγκλίνει αργά και η χρήση του γίνεται προβληματική για μεγάλα δίκτυα. Μια παραλλαγή του παραπάνω αλγορίθμου είναι ο αλγόριθμος μάθησης με ορμή (mmentum) που είναι ιδιαίτερα αποτελεσματικός στη μάθηση νευρωνικών ελεγκτών. Στην περίπτωση αυτή προστίθεται στην εξίσωση 39

αναπροσαρμογής των βαρών ένας ακόμη όρος που είναι ανάλογος της μεταβολής των βαρών με αποτέλεσμα τη σημαντική επιτάχυνση του αλγορίθμου. 2.8.4 Βασικές ενέργειες κατά την διαδικασία εκπαίδευσης των ΤΝΔ. Στην εκπαίδευση ενός ΤΝΔ χρησιμοποιούνται τρία είδη δεδομένων: τα δεδομένα εκπαίδευσης (training data) τα δεδομένα επαλήθευσης (checking data) τα δεδομένα δοκιμής (testing data) Τα δεδομένα εκπαίδευσης χρησιμοποιούνται στη διαμόρφωση των βαρών του ΤΝΔ. Όταν οριστικοποιηθεί η διαμόρφωση των βαρών, ο έλεγχος πιθανής «απομνημόνευσης» των δεδομένων εκπαίδευσης πραγματοποιείται με βάση ένα σύνολο δεδομένων επαλήθευσης. Τέλος, το ΤΝΔ δοκιμάζεται με τη βοήθεια ενός συνόλου δεδομένων δοκιμής. Η διαδικασία της επιλογής των δεδομένων περιλαμβάνει τρία στάδια: το στάδιο του καθορισμού των δεδομένων, το στάδιο του φιλτραρίσματος των δεδομένων και το στάδιο της κανονικοποίησης των δεδομένων. Στο πρώτο στάδιο προδιαγράφεται πλήρως το πρόβλημα και καθορίζονται οι μεταβλητές εισόδου. Βέβαια, δεν είναι εφικτό να συμπεριληφθούν όλα τα χαρακτηριστικά του προβλήματος σε ένα ΤΝΔ διότι κάθε χαρακτηριστικό εισόδου αναπαρίσταται με έναν κόμβο εισόδου και επομένως ένας μεγάλος αριθμός χαρακτηριστικών εισόδου απαιτεί τη δημιουργία ενός μεγάλου ΤΝΔ. Ένα μεγάλο ΤΝΔ απαιτεί μεγάλο αριθμό υπολογισμών και συγκλίνει αργότερα. Επομένως, πρέπει να επιλεγούν εκείνες οι είσοδοι οι οποίες δίνουν τη δυνατότητα στο ΤΝΔ να μάθει τη σχέση μεταξύ εισόδου και εξόδου. Ενδιαφέρον παρουσιάζει το γεγονός ότι το ΤΝΔ από μόνο του μπορεί να δώσει ενδείξεις της καταλληλότητας κάποιας εισόδου. Μετά την έναρξη της εκπαίδευσης και αφού το ΤΝΔ έχει εκτελέσει μερικές δεκάδες κύκλους εκπαίδευσης, τα βάρη των κόμβων του επιπέδου εισόδων θα δώσουν κάποιες ενδείξεις. Κάποιες είσοδοι οι οποίες δεν είναι απαραίτητες για την αντιστοίχιση εισόδου-εξόδου θα έχουν μικρά βάρη σε σύγκριση με άλλες που είναι πράγματι απαραίτητες. Σε αυτό το στάδιο δεν θα πρέπει να απαλείφονται οι είσοδοι οι οποίες φαίνεται να μην χρειάζονται. Το ΤΝΔ θα πρέπει να τρέξει για μερικούς 40

ακόμα κύκλους και αν οι τιμές αυτών των «ύποπτων» βαρών του επιπέδου της εισόδου δεν μεταβάλλονται, τότε θα πρέπει να απαλειφθούν. Κατά τη διαδικασία της προδιαγραφής των χαρακτηριστικών εισόδου θα πρέπει επίσης να ελεγχθεί εάν κάποια από αυτά αναπαρίστανται μέσω άλλων ήδη επιλεγμένων. Η συσχέτιση μεταξύ δύο μεταβλητών μπορεί να εξεταστεί με στατιστική επεξεργασία. Εάν αυτές είναι σε μεγάλο βαθμό συσχετιζόμενες τότε η μία από αυτές μπορεί να απαλειφθεί. Κατά το στάδιο του φιλτραρίσματος των δεδομένων ελέγχουμε εάν παρατηρούνται κάποια ασυνήθιστα δεδομένα. Για το λόγο αυτό είναι χρήσιμο να γίνεται η γραφική παράσταση των δεδομένων και όπου παρατηρείται κάτι το ασυνήθιστο να αφαιρείται. Στο τρίτο και τελευταίο στάδιο της επιλογής των δεδομένων γίνεται η κανονικοποίησή τους πριν την εισαγωγή τους στο ΤΝΔ. Η διαδικασία αυτή είναι χρήσιμη όταν οι είσοδοι του ΤΝΔ διαφέρουν αρκετά ως προς την τιμή τους. Είναι προτιμότερο τα δεδομένα να έχουν τιμές μεταξύ 0 και. Για την κανονικοποίησή των δεδομένων θα πρέπει να χρησιμοποιείται μια τυπική περιοχή κανονικοποιησής. Οι κανονικοποιημένες τιμές μπορούν να ληφθούν με διάφορους τρόπους π.χ. με κανονικοποίησή της τρέχουσας τιμής ως προς την μέγιστη τιμή του συνόλου εκπαίδευσης. Όπως προαναφέρθηκε, όταν οριστικοποιηθεί η διαμόρφωση των βαρών του ΤΝΔ, η ικανότητα γενίκευσης της συμπεριφοράς του ελέγχεται με τη βοήθεια ενός συνόλου δεδομένων επαλήθευσης. Όταν ένα ΤΝΔ εκπαιδεύεται με ένα σύνολο δεδομένων εκπαίδευσης και μαθαίνει τα στοιχεία αυτά πάρα πολύ καλά αλλά όχι και τις τάσεις τους, παρουσιάζει φτωχές δυνατότητες γενίκευσης. Μια από τις δυσκολότερες πτυχές του αλγόριθμου οπισθόδρομης διάδοσης είναι η επιλογή του αριθμού των κρυμμένων κόμβων και του αριθμού των κρυμμένων επιπέδων διότι δεν υπάρχει προς το παρόν κάποια γενικευμένη μέθοδος για αυτό. Ο αριθμός των κόμβων τόσο της εισόδου όσο και της εξόδου είναι δεδομένος από το προς εξέταση πρόβλημα, αλλά ο απαιτούμενος αριθμός τόσο των κρυμμένων κόμβων όσο και των κρυμμένων επιπέδων δεν είναι προκαταβολικά γνωστός. Π.χ. σε ένα ΤΝΔ το οποίο έχει μόνο ένα κρυμμένο επίπεδο, εάν ο αριθμός των κρυμμένων κόμβων είναι πολύ μεγάλος, τότε αυτό μπορεί να απομνημονεύσει το σύνολο εκπαίδευσης. Εάν όμως ο αριθμός των κρυμμένων κόμβων είναι πολύ μικρός τότε αυτό δεν θα μπορέσει να εκπαιδευτεί καλά. Ο 4

βέλτιστος αριθμός κρυμμένων κόμβων βρίσκεται ανάμεσα σε αυτές τις δύο οριακές περιπτώσεις. Σε μια συγκεκριμένη εφαρμογή, κατ' αρχήν θεωρείται ένας συγκεκριμένος αριθμός κρυμμένων κόμβων και το ΤΝΔ ελέγχεται χρησιμοποιώντας τα διαθέσιμα δεδομένα (δηλαδή διαδοχικώς: δεδομένα εκπαίδευσης και δεδομένα επαλήθευσης). Συχνά το ΤΝΔ απομνημονεύει τα δεδομένα εκπαίδευσης κατά συνέπεια όταν τροφοδοτείται με νέα δεδομένα δεν δίνει σωστά αποτελέσματα. Στην περίπτωση αυτή ελαττώνουμε τον αριθμό των κρυμμένων κόμβων και ελέγχουμε τα αποτελέσματα της εξόδου αφού προηγουμένως έχουμε επανεκπαιδεύσει το ΤΝΔ. Εάν και πάλι τα αποτελέσματα δεν είναι τα αναμενόμενα, επαναλαμβάνουμε τη διαδικασία (η διαδικασία αυτή αναφέρεται και ως κλάδεμα του δικτύου). Μια άλλη μέθοδος για τη βελτίωση της γενίκευσης του δικτύου είναι το έγκαιρο σταμάτημα της εκπαίδευσης του (early stpping). Σύμφωνα με αυτήν την προσέγγιση χρησιμοποιούνται κατά την εκπαίδευση τα δεδομένα εκπαίδευσης και επαλήθευσης. Εάν το σφάλμα που εμφανίζουν τα δεδομένα επαλήθευσης αρχίζει να μεγαλώνει, ακόμα και αν το σφάλμα εκπαίδευσης μικραίνει, τότε η εκπαίδευση του δικτύου σταματά, διότι από αυτό το σημείο και μετά το δίκτυο αρχίζει να απομνημονεύει τα δεδομένα εκπαίδευσης. Γενικά ο αριθμός των χρησιμοποιούμενων κρυμμένων κόμβων εξαρτάται από το συγκεκριμένο πρόβλημα. Αν και θεωρητικώς ένα στατικό προσοτροφοδοτούμενο ΤΝΔ με ένα κρυμμένο επίπεδο μπορεί να αναπαραστήσει κάθε μη γραμμικό σύστημα, στην πράξη συχνά χρησιμοποιούνται ΤΝΔ με δύο κρυμμένα επίπεδα. 2.9 ΚΥΡΙΑ ΧΑΡΑΚΤΗΡΙΣΤΙΚΑ ΤΩΝ ΤΝΔ Τα κύρια χαρακτηριστικά των ΤΝΔ που τα καθιστούν ιδιαίτερα εφαρμόσιμα στην περιοχή του ελέγχου διεργασιών είναι τα εξής: i. έχουν από τη φύση τους εφαρμογή σε μη γραμμικό έλεγχο. Αυτό προκύπτει από την ικανότητα τους να προσεγγίζουν μη γραμμικές σχέσεις εισόδου-εξόδου. ii. έχουν έμφυτες ικανότητες ανεκτικότητας σε βλάβες λόγω της παράλληλης τους δομής. iii. εάν είναι κατάλληλα εκπαιδευμένα, μπορούν να γενικεύσουν τις αποφάσεις τους και να αντιμετωπίσουν περιπτώσεις που δεν έχουν ξανασυναντήσει. 42

iv. μπορούν να επεξεργασθούν μεγάλο πλήθος πληροφοριών. Η αύξηση των πληροφοριών δεν μειώνει την ταχύτητα επεξεργασίας των ΤΝΔ, επηρεάζει όμως τον χρόνο εκπαίδευσης τους v. έχουν την ικανότητα να αντεπεξέλθουν στο θόρυβο. Από την άποψη του αυτομάτου ελέγχου, η ικανότητα των ΤΝΔ να αντιμετωπίσουν μη γραμμικά φαινόμενα είναι πολύ σημαντική. Ως γνωστόν, δεν υπάρχει ενιαία θεωρία μη γραμμικών συστημάτων και ένα πλήθος διάσπαρτων τεχνικών καλούνται να λύσουν εξειδικευμένα προβλήματα κάτω από ειδικές συνθήκες. Η ικανότητα των ΤΝΔ να αναπαράγουν μη γραμμικές σχέσεις απλοποιεί την προτυποποίηση μη γραμμικών συστημάτων. 2.0 ΝΕΥΡΟΑΣΑΦΗ ΣΥΣΤΗΜΑΤΑ Τα νευροασαφή συστήματα αποτελούν μια υβριδική κατηγορία του Ευφυούς Ελέγχου, που έχει αναπτυχθεί σε μια προσπάθεια συνδυασμού των καλύτερων στοιχείων των δύο κατηγοριών. Όπως προαναφέρθηκε, τα ασαφή και τα νευρωνικά συστήματα μοντελοποιούν τη συμπεριφορά ενός ειδικού κατά την αντιμετώπιση μιας πολύπλοκης διεργασίας. Αυτό σημαίνει ότι στόχος κατά το σχεδιασμό τέτοιων συστημάτων δεν είναι η μοντελοποίηση του ίδιου του προβλήματος κατασκευάζοντας ένα αναλυτικό μαθηματικό μοντέλο, αλλά η αξιοποίηση της γνώσης και της εμπειρίας ενός ειδικού, κατασκευάζοντας ένα σύστημα ελέγχου που θα ελέγχει τη διεργασία όπως ο ειδικός. Οι αρχές της ασαφούς λογικής και των ΤΝΔ είναι όμως εντελώς διαφορετικές: η ασαφής λογική επιδιώκει να αναπαραγάγει τους μηχανισμούς της ανθρώπινης σκέψης και την ικανότητα συλλογισμού, ενώ τα νευρωνικά δίκτυα επιχειρούν να μιμηθούν τους μηχανισμούς του ανθρώπινου νου σε βιολογικό επίπεδο. Έτσι, η δομή και ο τρόπος επεξεργασίας των ελεγκτών των δύο τεχνικών διαφέρουν ριζικά. Το πιο σημαντικό χαρακτηριστικό των νευρωνικών δικτύων είναι η ικανότητα τους να μαθαίνουν από παραδείγματα. Χρησιμοποιώντας τους ήδη γνωστούς αλγόριθμους μάθησης, εκπαιδεύονται επεξεργαζόμενοι ένα σύνολο δεδομένων. Το κύριο μειονέκτημα που εμφανίζουν τα νευρωνικά δίκτυα είναι ότι δεν μπορεί να αποδειχθεί ότι δουλεύουν όπως ήταν αναμενόμενο. Εξαιτίας της κατανεμημένης του φύσης, δεν είναι σαφές το αν το δίκτυο έχει εκπαιδευτεί σωστά. Ένα νευρωνικό δίκτυο μαθαίνει, 43

αλλά ο χρήστης δε μπορεί να μάθει απ' το δίκτυο. Για το χρήστη λειτουργεί ως ένα «μαύρο κουτί». Έτσι, αν υπάρχει κάποια γνώση για τη συμπεριφορά του συστήματος πριν την εκπαίδευση, αυτή δε μπορεί να αξιοποιηθεί στη διαδικασία εκπαίδευσης του νευρωνικού ελεγκτή. Αντίθετα, η δράση των ασαφών συστημάτων μπορεί εύκολα να κατανοηθεί, καθώς ακολουθούν διαδοχικά βήματα κατά τη διαδικασία συμπερασμού με πλήρη επεξήγηση των κανόνων που έχουν ενεργοποιηθεί. Το κύριο μειονέκτημα τους είναι ότι δεν έχουν τη δυνατότητα να ρυθμιστούν μέσω αλγορίθμων μάθησης. Δημιουργούνται μέσω σαφούς γνώσης που εκφράζεται με τη μορφή λεκτικών (ασαφών) κανόνων, κάποιες φορές όμως η διαθέσιμη γνώση δεν είναι αρκετή για να καθοριστούν με ακρίβεια όλες οι παράμετροι τους. Εάν η απόδοση τους κρίνεται μη ικανοποιητική, οι παράμετροι τους πρέπει να ρυθμιστούν χειροκίνητα. Η διαδικασία ρύθμισης είναι αρκετά χρονοβόρα και πολλές φορές οδηγεί σε λανθασμένα αποτελέσματα. Θα ήταν λοιπόν επιθυμητό να μπορούσε να εφαρμοσθεί ένας αλγόριθμος εκμάθησης στα ασαφή συστήματα, παρόμοιος με αυτόν της εκπαίδευσης των νευρωνικών συστημάτων. Η ικανότητα εκπαίδευσης των νευρωνικών συστημάτων είναι ο κύριος λόγος συνδυασμού τους με τα ασαφή συστήματα. Αυτός ο συνδυασμός μπορεί να δημιουργήσει κανόνες για το ασαφές σύστημα ή να βελτιστοποιήσει τους ήδη υπάρχοντες, αυτοματοποιώντας τη ρύθμιση των παραμέτρων του ασαφούς συστήματος. Όσον αφορά στα νευρωνικά συστήματα, ο συνδυασμός τους με τα ασαφή αναιρεί τη συμπεριφορά τους ως «μαύρα κουτιά» κι έτσι οποιαδήποτε εκ των προτέρων γνώση για το σύστημα μπορεί να χρησιμοποιηθεί κατά τη διαδικασία εκμάθησης περιορίζοντας το χρόνο που αυτή απαιτεί. Συνεπώς, συνδυάζοντας τα νευρωνικά με τα ασαφή συστήματα διατηρούνται τα πλεονεκτήματα και των δύο μεθόδων, ενώ εξαλείφονται κάποια από τα μειονεκτήματα τους. 2.0. Αρχιτεκτονικές νευρο-ασαφών ελεγκτών Γενικά, υπάρχουν δύο κύριοι συνδυασμοί ανάμεσα στα νευρωνικά και στα ασαφή συστήματα. Στην πρώτη περίπτωση, το νευρωνικό και το ασαφές σύστημα δουλεύουν ανεξάρτητα το ένα από το άλλο και το νευρωνικό σύστημα καθορίζει διάφορες 44