ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΚΑΙ ΕΦΑΡΜΟΓΕΣ

Μέγεθος: px
Εμφάνιση ξεκινά από τη σελίδα:

Download "ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΚΑΙ ΕΦΑΡΜΟΓΕΣ"

Transcript

1 Τσουχνικά Μαρία ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΚΑΙ ΕΦΑΡΜΟΓΕΣ Επιβλέπων: Dr Γ. Βουγιατζής 1

2 Νευρωνικά ίκτυα και εφαρµογές 1. Εισαγωγή 2. Γενικές έννοιες 2.1 Η έννοια του τεχνητού νευρωνικού δικτύου 2.2 Η δοµή του νευρώνα 2.3 Παραδείγµατα νευρωνικών δικτύων Ο αισθητήρας (Perceptron) Πολυεπίπεδοι Αισθητήρες (MultiLayer Perceptrons, MLPs) 3. Μέθοδοι εκπαίδευσης των τεχνητών νευρωνικών δικτύων 3.1 Γενικά 3.2 Αλγόριθµος οπισθοδιάδοσης του σφάλµατος 3.3 Εφαρµογή του αλγόριθµου οπισθοδιάδοσης Πείραµα XOR 4. Προσέγγιση συναρτήσεων µε πολυεπίπεδους αισθητήρες 4.1 Γενικά Προσέγγιση της e x µε πολυεπίπεδο αισθητήρα 5. Πρόβλεψη και ανακατασκευή του χώρου φάσεων χρονοσειρών 5.1 Γενικά 5.2 Παράδειγµα πρόβλεψης και ανακατασκευής του χώρου φάσης για µία χαοτική χρονοσειρά - Logistic map Παράρτηµα (Κώδικας) Βιβλιογραφία 2

3 1. Εισαγωγή Τα τεχνητά νευρωνικά δίκτυα είναι ένα χρήσιµο υπολογιστικό εργαλείο, µε πολλαπλές εφαρµογές. Στόχος της εργασίας αυτής είναι να παρουσιαστούν τα κύρια χαρακτηριστικά τους, οι δυνατότητες και οι αδυναµίες τους, καθώς και κάποιες βασικές τροποποιήσεις, που έπαιξαν σηµαντικό ρόλο στην εξέλιξή τους, από την πρώτη εµφάνισή τους µέχρι και σήµερα. 2. Γενικές έννοιες 2.1 Η έννοια του τεχνητού νευρωνικού δικτύου Τα τεχνητά νευρωνικά δίκτυα (artificial neural networks) αρχικά προτάθηκαν ως ένα µαθηµατικό µοντέλο προσοµοίωσης της πολύπλοκης λειτουργίας του ανθρώπινου εγκεφάλου. Η δοµή του εγκεφάλου είναι τέτοια ώστε να επιτρέπει την παράλληλη επεξεργασία δεδοµένων και τη δυνατότητα συνεχούς µάθησης µέσω της αλληλεπίδρασης µε το περιβάλλον. Τα δύο αυτά βασικά χαρακτηριστικά συµβάλλουν στην ικανότητα, αφενός, να εκτελεί δύσκολα καθήκοντα, όπως ταχύτατη αναγνώριση µορφών, ταξινόµηση κ.ά., αφετέρου, να εξελίσσεται συνεχώς, µαθαίνοντας από το περιβάλλον του κατά την αλληλεπίδρασή του µε αυτό. Η δοµή του τεχνητού νευρωνικού δικτύου µιµείται κατά το δυνατό εκείνη του βιολογικού νευρωνικού δικτύου, ώστε να εµφανίζει παρόµοιες ιδιότητες. Κατ αναλογία εποµένως µε ένα δίκτυο νευρώνων εγκεφάλου, ένα τεχνητό δίκτυο αποτελείται από ένα σύνολο τεχνητών νευρώνων που αλληλεπιδρούν, συνδεόµενοι µεταξύ τους µε τις λεγόµενες συνάψεις (synapses). Ο βαθµός αλληλεπίδρασης είναι διαφορετικός για κάθε ζεύγος νευρώνων και καθορίζεται από τα λεγόµενα συναπτικά βάρη (synaptic weights). Συγκεκριµένα, καθώς το νευρωνικό δίκτυο αλληλεπιδρά µε το περιβάλλον και µαθαίνει από αυτό, τα συναπτικά βάρη µεταβάλλονται συνεχώς, ενδυναµώνοντας ή αποδυναµώνοντας την ισχύ του κάθε δεσµού. Όλη η εµπειρική γνώση που αποκτά εποµένως το νευρωνικό δίκτυο από το περιβάλλον κωδικοποιείται στα συναπτικά βάρη. Αυτά αποτελούν το χαρακτηριστικό εκείνο που δίνει στο δίκτυο την ικανότητα για εξέλιξη και προσαρµογή στο περιβάλλον. Υπάρχουν δύο τρόποι να εκπαιδεύσουµε ένα δίκτυο. Κατά τον πρώτο τρόπο, η εκπαίδευση γίνεται µε εποπτεία. Στην περίπτωση αυτή το δίκτυο τροφοδοτείται µε ένα σύνολο γνωστών παραδειγµάτων, δηλαδή ένα σύνολο καταστάσεων στις οποίες µπορεί να περιέλθει το δίκτυο, µαζί µε τα αποτελέσµατα που θέλουµε να δίνει το δίκτυο για τις καταστάσεις 3

4 αυτές. Για να µάθει το δίκτυο τα παραδείγµατα αυτά, χρησιµοποιούµε έναν αλγόριθµο εκπαίδευσης. Ο αλγόριθµος εκπαίδευσης που θα χρησιµοποιηθεί εξαρτάται από το εκάστοτε πρόβληµα και από τη δοµή του δικτύου που επιλέγουµε για να το αντιµετωπίσουµε. Κατά το δεύτερο τρόπο, η εκπαίδευση γίνεται χωρίς εποπτεία. Στην περίπτωση αυτή το δίκτυο καλείται να αναγνωρίσει οµοιότητες και µοτίβα σε δεδοµένα που του έχουµε τροφοδοτήσει. Τα δεδοµένα παρουσιάζονται στο δίκτυο και αυτό οφείλει να προσαρµοστεί έτσι ώστε να τα χωρίσει σε οµάδες. Η διαδικασία αυτή επαναλαµβάνεται, ώσπου δεν παρατηρείται µεταβολή στην ταξινόµηση των δεδοµένων. Το βασικό πλεονέκτηµα των νευρωνικών δικτύων είναι ότι µπορούν να αποθηκεύσουν γνώση και εµπειρία από το περιβάλλον, την οποία µπορεί στη συνέχεια να ανακαλέσει. Επιπλέον, έχει τη δυνατότητα να γενικεύει, δηλαδή να εξάγει τα βασικά χαρακτηριστικά ενός συστήµατος, ακόµα και όταν αυτά είναι κρυµµένα σε θορυβώδη δεδοµένα. 2.2 Η δοµή του νευρώνα Σε αναλογία µε το βιολογικό νευρώνα του εγκεφάλου, ο τεχνητός νευρώνας (artificial neuron) είναι η δοµική µονάδα του τεχνητού νευρωνικού δικτύου. Σε αυτόν συντελείται όλη η επεξεργασία της πληροφορίας. Κάθε νευρώνας δέχεται πληροφορία, την επεξεργάζεται και δίνει µία τιµή εξόδου. Οι είσοδοί του είναι είτε οι έξοδοι άλλων νευρώνων, είτε το πρωταρχικό σήµα εισόδου του δικτύου. Υπάρχουν διάφορα είδη νευρώνα. Το είδος που θα επιλεχθεί για να δοµηθεί ένα συγκεκριµένο τεχνητό νευρωνικό δίκτυο, εξαρτάται από τη φύση του εκάστοτε προβλήµατος που εξετάζουµε. Σε πολλές περιπτώσεις χρησιµοποιείται συνδυασµός διαφορετικών ειδών νευρώνα. Στο Σχήµα 1, παρακάτω, παρουσιάζεται το βασικό µοντέλο του νευρώνα που χρησιµοποιείται κατά κόρον σε υλοποιήσεις τεχνητών νευρωνικών δικτύων. Σχήµα 1: Σχηµατική αναπαράσταση µη γραµµικού νευρώνα 4

5 Στο νευρώνα αυτό, η πληροφορία ρέει πάντα προς µία κατεύθυνση, από αριστερά προς τα δεξιά, δεν υπάρχει δηλαδή κανένας βρόχος ανάδρασης. Βάσει αυτού, µπορούµε να διακρίνουµε τρεις βασικές φάσεις της λειτουργίας του: Κατά την πρώτη φάση, κάθε είσοδος πολλαπλασιάζεται µε το συναπτικό βάρος που της αντιστοιχεί. Στη δεύτερη φάση οι σταθµισµένες πλέον είσοδοι και ένας εξωτερικά εφαρµοζόµενος παράγοντας, η µεροληψία ή πόλωση ή κατώφλι (bias, thresold), αθροίζονται και δίνουν το τοπικό πεδίο (net input, induced local field, activation potential). Για λόγους απλούστευσης, η µεροληψία µπορεί να θεωρηθεί ως µία επιπλέον είσοδος, µε συναπτικό βάρος ίσο προς την τιµή του και πάγια τιµή εισόδου ίση προς τη µονάδα. Στην περίπτωση αυτή ο νευρώνας παίρνει τη µορφή που φαίνεται στο Σχήµα 2 που ακολουθεί. Σχήµα 2: Εναλλακτική σχηµατική αναπαράσταση µη γραµµικού νευρώνα Ως εδώ, ο νευρώνας δεν κάνει τίποτα άλλο από το να δίνει έναν γραµµικό συνδυασµό των εισόδων, µε συντελεστές τα προσαρµοζόµενα συναπτικά βάρη. Αν η λειτουργία του λοιπόν σταµατούσε εδώ, τότε θα είχαµε έναν γραµµικό νευρώνα, που θα έδινε ένα γραµµικό προσαρµοζόµενο φίλτρο (linear adaptive filter). Ένα τεχνητό νευρωνικό δίκτυο που αποτελείται από τέτοιους νευρώνες θα είναι γραµµικό. Τέλος, στην τρίτη φάση, εφαρµόζεται η συνάρτηση ενεργοποίησης ή συνάρτηση µεταφοράς (activation function ή squashing function) στο τοπικό πεδίο και το αποτέλεσµα δίνει την έξοδο του νευρώνα. Στα πρώτα µοντέλα νευρώνα, η συνάρτηση ενεργοποίησης ήταν µία βηµατική συνάρτηση (step function). 0, ϕυ ( ) = 1, υ θ υ > θ (1) 5

6 Μία τέτοια συνάρτηση φαίνεται παρακάτω στο Σχήµα 3. Αν το ενδιάµεσο αποτέλεσµα ήταν µικρότερο µιας τιµής κατωφλίου, η έξοδος του νευρώνα ήταν ίση προς 0 (αδρανής νευρώνας), αλλιώς ήταν ίση προς 1 (ενεργοποιηµένος νευρώνας). Σχήµα 3: Βηµατική συνάρτηση για τιµή κατωφλίου ίση προς µηδέν Το παραπάνω µοντέλο αναφέρεται συχνά ως µοντέλο McCulloch-Pitts προς τιµή αυτών που το πρότειναν. Αργότερα, η εξέλιξη στο θεωρητικό υπόβαθρο των τεχνητών νευρωνικών δικτύων φανέρωσε ότι η παράγωγος της συνάρτησης ενεργοποίησης µπορεί να δώσει χρήσιµες πληροφορίες για το νευρωνικό δίκτυο και να χρησιµοποιηθεί στην εκπαίδευσή του, γεγονός που υποδεικνύει ότι είναι προτιµότερο να χρησιµοποιηθεί µία παραγωγίσιµη συνάρτηση και όχι η βηµατική συνάρτηση, που είναι προφανώς µη παραγωγίσιµη. Σήµερα, στα περισσότερα µοντέλα η συνάρτηση ενεργοποίησης είναι µία σιγµοειδής συνάρτηση. Αυτή είναι γενικά µία πραγµατική, συνεχής και φραγµένη συνάρτηση, της οποίας η παράγωγος είναι θετική. Το πεδίο ορισµού της µπορεί θεωρητικά να είναι όλο το σύνολο των πραγµατικών αριθµών, αλλά στην πράξη µπορεί να περιοριστεί, θέτοντας όρια στις τιµές των συναπτικών βαρών. Το σύνολο τιµών είναι συνήθως το διάστηµα [0,1] ή [-1,1]. Ένα από τα πιο γνωστά παραδείγµατα σιγµοειδούς συνάρτησης που χρησιµοποιείται ως συνάρτηση ενεργοποίησης είναι η λογιστική συνάρτηση (logistic function), που δίνεται από τον τύπο 1 ϕυ ( ) = (2) 1 + e αυ όπου α η παράµετρος κλίσης. Μεταβάλλοντας την παράµετρο κλίσης, παίρνουµε συναρτήσεις µε διαφορετικές κλίσεις. Όσο το α τείνει στο άπειρο, η λογιστική συνάρτηση τείνει προς τη βηµατική συνάρτηση και έχουµε και πάλι το µοντέλο McCulloch-Pitts. Στο Σχήµα 4 που 6

7 ακολουθεί, φαίνεται η γραφική παράσταση της λογιστικής συνάρτησης για διάφορες τιµές της παραµέτρου κλίσης α. Σχήµα 4: Η λογιστική συνάρτηση, για α = 0.5 (µπλε), α = 1 (κόκκινο) και α = 2 (πράσινο) Άλλα παραδείγµατα σιγµοειδών συναρτήσεων που χρησιµοποιούνται ως συναρτήσεις ενεργοποίησης είναι η υπερβολική συνάρτηση (hyperbolic function) και η συνάρτηση τόξου εφαπτοµένης (arctangent function). Με την εισαγωγή της συνάρτησης ενεργοποίησης, ο νευρώνας γίνεται µη γραµµικός. Αντίστοιχα, ένα τεχνητό νευρωνικό δίκτυο που αποτελείται από τέτοιους νευρώνες θα είναι µη γραµµικό. Αυτή η εγγενής µη γραµµικότητα των νευρωνικών δικτύων είναι ένα πλεονέκτηµα έναντι άλλων γνωστών µεθόδων αντιµετώπισης πολλών προβληµάτων. Για παράδειγµα, όταν σε ένα πρόβληµα πρόβλεψης το σύστηµα που µελετάµε είναι µη γραµµικό και ιδιαίτερα όταν παρουσιάζει χαοτική συµπεριφορά, τα γνωστά γραµµικά µοντέλα πρόβλεψης αδυνατούν να δώσουν σωστά αποτελέσµατα. Σε αυτές τις περιπτώσεις, τα µη γραµµικά τεχνητά νευρωνικά δίκτυα είναι προτιµότερα. Επειδή πολλές φορές στην πράξη χρειάζεται κάποιοι από τους νευρώνες ενός µη γραµµικού νευρωνικού δικτύου να είναι γραµµικοί, µία ακόµη συνάρτηση ενεργοποίησης που χρησιµοποιείται είναι η γραµµική, όπως η ή κάποια άλλη γραµµική συνάρτηση. ϕ( υ) = υ (3) Σύµφωνα µε τα παραπάνω, η λειτουργία του νευρώνα περιγράφεται από τις σχέσεις u m = w x (4) i i i = 1 7

8 και y = φ( υ ) (5) µε υ = u + b (6) όπου m ο αριθµός των εισόδων που δέχεται ο νευρώνας, x i η i-οστή είσοδος του νευρώνα, w i το βάρος της σύναψης που συνδέει τον νευρώνα µε την είσοδο i, u το σταθµισµένο άθροισµα των εισόδων, b η µεροληψία του νευρώνα, υ το τοπικό πεδίο και y η τελική έξοδος. Οι παραπάνω σχέσεις περιγράφουν τον νευρώνα του Σχήµατος 2. Για την εναλλακτική µορφή του νευρώνα όπως αυτός του Σχήµατος 3, οι σχέσεις (4), (5) και (6) συνδυάζονται σε µία σχέση και έχουµε m υ = w x (7) i i i = 0 και y = φ( υ ) (8) µε και x 0 = + 1 (9) w 0 = b (10) Τέλος, ένας ακόµα τύπος νευρώνα είναι ο λεγόµενος στοχαστικός νευρώνας (stochastic neuron). Στον νευρώνα αυτό η συνάρτηση ενεργοποίησης είναι πιθανοκρατική. Συγκεκριµένα, ο νευρώνας µπορεί να δώσει δύο πιθανές εξόδους, π.χ. 0 και 1 σύµφωνα µε τη σχέση 0, µε πιθανοτητα & 1 P ( υ) y = 1, µε πιθανοτητα & P ( υ) (11) 8

9 όπου συνήθως η P ( υ ) είναι 1 P ( υ) = (12) 1 + / T e υ όπου T είναι µία παράµετρος, η οποία χρησιµοποιείται για να ελέγχεται το επίπεδο του θορύβου και δεν έχει καµία φυσική σηµασία. Στο όριο T 0 το µοντέλο αυτό µετατρέπεται στο µοντέλο McCulloch-Pitts. 2.3 Παραδείγµατα νευρωνικών δικτύων Ένα τεχνητό νευρωνικό δίκτυο καθορίζεται από τον τύπο ή τους τύπους των νευρώνων που το απαρτίζουν, από τον τρόπο µε τον οποίο είναι συνδεδεµένοι οι νευρώνες του, από τον αλγόριθµο που χρησιµοποιείται για την εκπαίδευσή του, από το αν η εκπαίδευση γίνεται µε εποπτεία ή χωρίς κ.ά. Στην εργασία αυτή µελετήσαµε δίκτυα των οποίων οι νευρώνες είναι δοµηµένοι σε επίπεδα και που η εκπαίδευσή τους γίνεται µε εποπτεία. Η πιο απλή µορφή ενός τέτοιου δικτύου είναι αυτή του απλού αισθητήρα (perceptron), ο οποίος ήταν το πρώτο τεχνητό νευρωνικό δίκτυο το οποίο εισηγήθηκε ο Rosenblatt το Ο αισθητήρας (Perceptron) Ο αισθητήρας (perceptron) είναι ένα δίκτυο µε δύο επίπεδα. Το πρώτο επίπεδο απαρτίζεται από τις εισόδους του δικτύου, δεν έχει νευρώνες και εποµένως δεν γίνεται καµία επεξεργασία πληροφορίας σε αυτό. Το δεύτερο επίπεδο αποτελείται από νευρώνες τύπου McCulloch-Pitts και είναι το επίπεδο εξόδου του δικτύου. Ένα παράδειγµα αισθητήρα, µε έξι εισόδους και τέσσερις νευρώνες στο επίπεδο εξόδου, φαίνεται στο Σχήµα 5 που ακολουθεί. Σχήµα 5: Παράδειγµα αισθητήρα (perceptron), µε 6 εισόδους και 4 νευρώνες εξόδου 9

10 Ο στόχος του απλού αισθητήρα είναι να µάθει να λύνει προβλήµατα ταξινόµησης, να αντιστοιχεί δηλαδή κάθε σετ εισόδων που δέχεται στη σωστή κλάση. Ο αισθητήρας µπορεί να λύσει πολλά τέτοια προβλήµατα µε επιτυχία. Ένα από τα πλεονεκτήµατα του δικτύου αυτού είναι ότι υπάρχει ένας σαφής αλγόριθµος βάσει του οποίου µπορεί να εκπαιδευτεί, ώστε να δίνει σωστά αποτελέσµατα. Ο αλγόριθµος αυτός, για την πιο απλή περίπτωση για την οποία τα σετ των εισόδων προέρχονται από δύο κλάσεις, έχει ως εξής: w & οταν η yi ειναι & σωστη& w ( n + 1) = w η x & οταν y = 1, ενω& θα επρεπε να ειναι 0 w + η x & οταν y = 0, ενω& θα επρεπε να ειναι 1 (13) όπου x ( n ) το διάνυσµα εισόδου του νευρώνα, y ( n ) το διάνυσµα εξόδου και w ( n ) το διάνυσµα των βαρών στο βήµα n του αλγορίθµου, w ( n + 1) το διάνυσµα των βαρών στο βήµα n+1 και η θετική σταθερά που ονοµάζεται παράµετρος ρυθµού εκπαίδευσης (learning-rate parameter). Το ερώτηµα που προκύπτει άµεσα είναι κατά πόσο ο αλγόριθµος αυτός συγκλίνει σε µία σωστή λύση του προβλήµατος. Όπως ο ίδιος ο Rosenblatt απέδειξε, αν οι κλάσεις του προβλήµατος είναι διαχωρήσιµες από τον αισθητήρα, τότε ο παραπάνω αλγόριθµος συγκλίνει και δίνει σωστά αποτελέσµατα και µάλιστα σε πεπερασµένο αριθµό βηµάτων. Το θεώρηµα αυτό ονοµάζεται θεώρηµα σύγκλισης του αισθητήρα (perceptron convergence theorem). Η ισχύς του θεωρήµατος αυτού αποτελεί ένα ακόµα σηµαντικό πλεονέκτηµα του αισθητήρα. Αργότερα όµως οι Minsky και Papert έδειξαν ότι τα προβλήµατα ταξινόµησης που µπορεί να λύσει ο αισθητήρας είναι εκείνα τα οποία είναι γραµµικά διαχωρίσιµα και µόνο. Το συµπέρασµα αυτό γίνεται εύκολα κατανοητό µε ένα απλό παράδειγµα. Έστω λοιπόν ότι ο στόχος του αισθητήρα είναι να δίνει σωστά αποτελέσµατα σύµφωνα µε τη λογική πράξη XOR, η οποία φαίνεται παρακάτω στον Πίνακα 1. x 1 x 2 x 1 XOR x Πίνακας 1: Η πράξη XOR Ο κατάλληλος αισθητήρας για το πρόβληµα αυτό είναι εκείνος µε δύο εισόδους και έναν νευρώνα εξόδου, όπως φαίνεται στο Σχήµα 6, που ακολουθεί 10

11 Σχήµα 6: Ο αισθητήρας για την XOR Η έξοδος του αισθητήρα, όπως είδαµε και παραπάνω, θα δίνεται από τη σχέση 0, αν wx 1 1+ w2x2 θ y = 1, αλλιως & (14) όπου w 1 και w 2 τα συναπτικά βάρη και θ το κατώφλι. Το ζητούµενο είναι να βρεθούν οι τιµές για τα βάρη, τέτοιες ώστε το αποτέλεσµα των εισόδων να συνάγει µε τη λογική πράξη XOR. Τα τέσσερα σετ εισόδων του αισθητήρα αντιστοιχούν σε τέσσερα σηµεία στο επίπεδο ( x1, x2). Σύµφωνα µε τον Πίνακα 1, τα σηµεία (0,0) και (1,1) ανήκουν στην κλάση 0, ενώ τα (0,1) και (1,0) στην κλάση 1. Η εξίσωση θ = wx + w x είναι µία ευθεία που χωρίζει το επίπεδο ( x, x ) σε δύο ηµιεπίπεδα. Αρκεί λοιπόν να βρεθεί ένα ζεύγος τιµών για τα w 1 και w 2, τέτοιες ώστε να χωρίζουν τις δύο αυτές κλάσεις. Όπως φαίνεται όµως στο Σχήµα 7 παρακάτω, αυτό δεν είναι εφικτό. εν υπάρχει καµία ευθεία τέτοια ώστε τα σηµεία των δύο κλάσεων να ανήκουν σε διαφορετικά ηµιεπίπεδα. Για να το πετύχουµε αυτό χρειαζόµαστε δύο ευθείες. Το πρόβληµα αυτό εποµένως δεν είναι γραµµικά διαχωρίσιµο και άρα δεν είναι επιλύσιµο από τον αισθητήρα. 1 2 Σχήµα 7: Το πρόβληµα XOR είναι µη γραµµικά διαχωρίσιµο Η αδυναµία του αισθητήρα να επιλύσει το πρόβληµα της XOR, δεν είναι αµελητέα. Όπως επεσήµαναν οι Minsky και Papert, πολλά προβλήµατα βασίζονται στην XOR. Η αποτυχία αυτή είχε σαν αποτέλεσµα να 11

12 εγκαταλειφθεί η ιδέα των νευρωνικών δικτύων και να σταµατήσει σχεδόν κάθε έρευνα πάνω στο αντικείµενο αυτό. Προκύπτει εποµένως το ερώτηµα, κατά πόσο θα µπορούσε το αρχικό µοντέλο του αισθητήρα να τροποποιηθεί, ώστε να µπορεί να επιλύει και µη γραµµικά διαχωρίσιµα προβλήµατα. Η απάντηση στο ερώτηµα αυτό είναι καταφατική. Πράγµατι, προσθέτοντας απλά ένα ή περισσότερα επίπεδα νευρώνων µεταξύ του επίπεδου εισόδου και αυτό της εξόδου, ο τροποποιηµένος αισθητήρας που προκύπτει µπορεί πλέον να επιλύσει και µη γραµµικά διαχωριζόµενα προβλήµατα Πολυεπίπεδοι Αισθητήρες (MultiLayer Perceptrons, MLPs) Το τροποποιηµένο αυτό µοντέλο του απλού αισθητήρα ονοµάζεται πολυεπίπεδος αισθητήρας (multilayer perceptron ή multilayer feedforward networks). Σε ένα τέτοιο νευρωνικό δίκτυο, µεταξύ των επιπέδων εισόδου και εξόδου, µεσολαβούν και ένα ή περισσότερα επίπεδα ακόµα, τα λεγόµενα κρυφά επίπεδα (hidden layers). Ένα παράδειγµα τέτοιου δικτύου µε δύο κρυφά επίπεδα φαίνεται παρακάτω, στο Σχήµα 8. Σχήµα 8: Πολυεπίπεδος αισθητήρας µε δύο κρυφά επίπεδα Η ροή της πληροφορίας σε ένα τέτοιο δίκτυο γίνεται πάντα από τα αριστερά προς τα δεξιά, δεν υπάρχει κανένας βρόχος ανάδρασης. Θεωρούµε επίσης ότι, οι νευρώνες σε κάθε επίπεδο αλληλεπιδρούν µόνο µε εκείνους τους νευρώνες που ανήκουν στα άµεσα γειτονικά τους επίπεδα. ηλαδή το πρώτο κρυφό επίπεδο δέχεται τις τιµές του επιπέδου εισόδου, τα αποτελέσµατα του πρώτου κρυφού επιπέδου περνάνε στο δεύτερο κρυφό, του οποίου τα αποτελέσµατα στη συνέχεια περνάνε στο επίπεδο εξόδου. Ένα δίκτυο πολυεπίπεδου αισθητήρα στο οποίο υπάρχουν όλες οι επιτρεπτές συνδέσεις µεταξύ των νευρώνων, ονοµάζεται 12

13 πλήρως συνδεδεµένο (fully connected), αλλιώς ονοµάζεται µερικά συνδεδεµένο (partially connected). Όπως είδαµε προηγουµένως, ένας απλός αισθητήρας δεν µπορεί να δώσει σωστά αποτελέσµατα σε µη γραµµικά διαχωρίσιµα προβλήµατα, καθώς δεν µπορεί να χωρίσει το επίπεδο σε περισσότερες από δύο περιοχές. Αν λοιπόν µπορούσαµε µε κάποιο τρόπο να συνδυάσουµε τα αποτελέσµατα δύο διαφορετικών αισθητήρων, τότε θα ήταν δυνατό να χωρίσουµε το επίπεδο σε περισσότερες περιοχές και να είχαµε το επιθυµητό αποτέλεσµα. Το παραπάνω γίνεται εύκολα κατανοητό ξαναβλέποντας το παράδειγµα της XOR. Θεωρούµε και πάλι ένα νευρωνικό δίκτυο µε δύο εισόδους και µία έξοδο, αλλά αυτή τη φορά παρεµβάλλουµε και ένα κρυφό επίπεδο µε δύο νευρώνες µεταξύ τους, όπως αυτό που φαίνεται στο Σχήµα 9. Ένας τέτοιος πολυεπίπεδος αισθητήρας αναφέρεται για συντοµία ως 2:2:1 Σχήµα 9: Η XOR µε έναν 2:2:1 πολυεπίπεδο αισθητήρα Εύκολα επαληθεύεται ότι χρησιµοποιώντας το παρακάτω σετ τιµών w11 = w12 = w 21 = w22 = w32 = + 1 w 31 = 2 και 3 b1 = 2 1 b2 b3 = = 2 (15) είναι µία λύση του προβλήµατος. Στο Σχήµα 10, φαίνεται πως λειτουργεί το δίκτυο αυτό, για να δώσει το σωστό αποτέλεσµα. Ο ένας νευρώνας του κρυφού επιπέδου διαχωρίζει το σετ εισόδου (1,1) από τα υπόλοιπα τρία. Ο δεύτερος νευρώνας διαχωρίζει το σετ εισόδου (0,0) από τα υπόλοιπα τρία. Ο νευρώνας του επιπέδου εξόδου συνδυάζει τα αποτελέσµατα των δύο προηγούµενων και δίνει το επιθυµητό αποτέλεσµα. Τοποθετεί επιτυχώς τα σετ (0,0) και (1,1) στην κλάση 0 και τα (0,1) και (1,0) στην κλάση 1. 13

14 Σχήµα 10: ιαχωρισµός των κλάσεων της XOR στο επίπεδο, µε το δίκτυο 2:2:1 Ωστόσο, το γεγονός ότι υπάρχει µία λύση για ένα συγκεκριµένο πρόβληµα δεν έχει καµία πρακτική αξία, αν δεν υπάρχει ένας τυποποιηµένος τρόπος να βρίσκεται κάθε φορά µία τέτοια λύση. Το πρόβληµα όµως είναι ότι στο τροποποιηµένο αυτό µοντέλο του αισθητήρα, δεν µπορεί να εφαρµοστεί ο αλγόριθµος εκπαίδευσης του Rosenblatt. Ήταν απαραίτητο εποµένως να βρεθεί ένας νέος αλγόριθµος, τέτοιος ώστε το νευρωνικό δίκτυο να βρίσκει κάθε φορά το κατάλληλο σετ τιµών για να επιλύει το εκάστοτε πρόβληµα. Με άλλα λόγια, πρέπει να βρεθεί ένας τρόπος να ενισχυθεί η συµµετοχή των νευρώνων που συµβάλλουν θετικά στην κατεύθυνση του σωστού αποτελέσµατος και αντίθετα, να αποδυναµωθούν οι δεσµοί εκείνων που συµβάλλουν αρνητικά. Αυτό ακριβώς επιτυγχάνεται µε τον αλγόριθµο οπισθοδιάδοσης του σφάλµατος (error back-propagation algorithm). 3. Μέθοδοι εκπαίδευσης των τεχνητών νευρωνικών δικτύων 3.1 Γενικά Υπάρχουν πολλές µέθοδοι µε τις οποίες µπορούµε να εκπαιδεύσουµε ένα τεχνητό νευρωνικό δίκτυο. Η κάθε µία από αυτές έχει σαφή πλεονεκτήµατα και µειονεκτήµατα. Καµία από αυτές δεν είναι πανάκεια, αν και, αυτή που χρησιµοποιείται συνηθέστερα σε πολυεπίπεδους αισθητήρες είναι ο αλγόριθµος οπισθοδιάδοσης του σφάλµατος, είτε αυτούσιος, είτε µε κάποιες παραλλαγές ή προσθήκες. Γενικά, επιλέγουµε την κατάλληλη µέθοδο, ανάλογα µε τη φύση του εκάστοτε προβλήµατος και µε τη δοµή του συγκεκριµένου δικτύου, που διαλέξαµε για να το µελετήσουµε. Πολλές φορές χρησιµοποιούµε περισσότερες από µία µεθόδους µαζί για να πετύχουµε τη βέλτιστη επίδοση του δικτύου. 14

15 3.2 Αλγόριθµος οπισθοδιάδοσης του σφάλµατος Έστω ότι έχουµε έναν πολυεπίπεδο αισθητήρα µε ένα ή περισσότερα κρυφά επίπεδα, m τιµές εισόδου και m0 νευρώνες στο επίπεδο εξόδου του και ότι οι νευρώνες αυτοί λειτουργούν µε κάποια παραγωγίσιµη συνάρτηση ενεργοποίησης. Έστω επίσης ότι, για να εκπαιδεύσουµε το δίκτυο αυτό, έχουµε στη διάθεσή µας ένα σύνολο N γνωστών παραδειγµάτων εισόδων επιθυµητών εξόδων, δηλαδή ένα σύνολο δεδοµένων Data :{ x ( i ), d ( i ); i = 1,2,..., N } (16) όπου xi () = [ x1(), i x2(),..., i x ()] T m i, το διάνυσµα των τιµών εισόδου και di () το διάνυσµα των επιθυµητών εξόδων αντίστοιχα, για το δεδοµένο παράδειγµα i. Ο στόχος µας είναι να βρούµε έναν κατάλληλο αλγόριθµο για να εκπαιδεύσουµε το δίκτυο αυτό, σύµφωνα µε το σύνολο των δεδοµένων. Σε κάθε βήµα της εκπαίδευσης, οι τιµές των συναπτικών βαρών µεταβάλλονται και η διαδικασία τερµατίζεται, όταν κρίνουµε ότι το δίκτυο έχει µάθει τα παραδείγµατα σε ικανοποιητικό βαθµό. Το σφάλµα στην έξοδο του -οστού νευρώνα, του επιπέδου εξόδου, κατά το n-οστό βήµα της επανάληψης του αλγόριθµου εκπαίδευσης δίνεται από τη σχέση e = d y (17) H στιγµιαία τιµή της συνάρτησης ενέργειας σφάλµατος (error energy) για το σύνολο των νευρώνων του επιπέδου εξόδου του δικτύου, ορίζεται από τη σχέση 1 E n (18) n 2 = e ( ) 2 = 1 Η µέση τιµή της συνάρτησης ενέργειας σφάλµατος για όλο το σύνολο των Ν δεδοµένων, προκύπτει από τη σχέση N 1 Eav = E (19) N n = 1 Όπως φαίνεται από την παραπάνω σχέση, η είναι µία συνάρτηση όλων των ελεύθερων παραµέτρων (free parameters) του νευρωνικού δικτύου, δηλαδή των συναπτικών βαρών και των µεροληψιών του. Εποµένως, για ένα συγκεκριµένο σύνολο δεδοµένων, η συνιστά µία E av E av 15

16 συνάρτηση κόστους (cost function) και ως τέτοια είναι ένα µέτρο του πόσο καλά έχει εκπαιδευτεί το δίκτυο, βάσει του συνόλου αυτού. Η βασική ιδέα του αλγόριθµου οπισθοδιάδοσης είναι να προσαρµόζονται τα συναπτικά βάρη, σε κάθε βήµα της επανάληψης, έτσι ώστε η συνάρτηση κόστους να µειώνεται. Στην πραγµατικότητα εποµένως, η προσαρµογή των βαρών γίνεται σύµφωνα µε τα σφάλµατα που υπολογίζονται σε κάθε βήµα της διαδικασίας, δηλαδή για κάθε δεδοµένο παράδειγµα. Ο µέσος όρος της µεταβολής των βαρών σε όλο το σύνολο των σετ δεδοµένων, που προκύπτει µε αυτόν τον τρόπο, είναι εποµένως µία εκτίµηση της µεταβολής που θα προέκυπτε, αν ελαχιστοποιούσαµε τη συνάρτηση κόστους όλου του συνόλου, όπως τη θεωρήσαµε παραπάνω. Σχήµα 11: Ροή πληροφορίας για το νευρώνα. Όπως αναφέραµε παραπάνω, ο στόχος είναι, σε κάθε βήµα του αλγορίθµου, να µεταβάλλονται τα συναπτικά βάρη, έτσι ώστε να µειώνεται η συνάρτηση κόστους. Με άλλα λόγια, ξεκινάµε από µία αρχική εκτίµηση των συναπτικών βαρών (0), εφαρµόζοντας µία διόρθωση παίρνουµε ένα νέο σετ βαρών w i (1), εφαρµόζοντας ξανά µία δεύτερη διόρθωση παίρνουµε ένα δεύτερο σετ w i (2) κ.ο.κ., έτσι ώστε σε κάθε επανάληψη να ισχύει w i E( wn ( + 1)) E ( wn ( )) (20) όπου wn ( ) ο πίνακας των βαρών στο βήµα n και wn ( + 1) ο διορθωµένος πίνακας στο βήµα n+1. Σύµφωνα µε τον αλγόριθµο οπισθοδιάδοσης, για να το πετύχουµε αυτό, θεωρούµε ότι, η µεταβολή στον πίνακα wn ( ) γίνεται στην κατεύθυνση 16

17 της πλέον απότοµης κατάβασης (steepest descent), δηλαδή στην κατεύθυνση την αντίθετη προς αυτή του διανύσµατος της κλίσης της Ε ( wn ( )). Η διόρθωση εποµένως στο βάρος w, που συνδέει το νευρώνα του επιπέδου εξόδου του δικτύου, µε το νευρώνα i, του τελευταίου κρυφού επιπέδου, κατά το βήµα n, δίνεται από τη σχέση i w i η Ε = w i (21) όπου η είναι η θετική σταθερά, που ονοµάσαµε παράµετρος ρυθµού εκπαίδευσης. Η σχέση αυτή ονοµάζεται κανόνας του δέλτα (delta rule). Η µεταβολή δηλαδή, γίνεται κατά την κατεύθυνση της κλίσης, ενώ το µείον το βάζουµε για να έχουµε µείωση της Ε. Αρκεί εποµένως να βρούµε Ε µε τι ισούται η παράγωγος. w i Σύµφωνα µε τον κανόνα της αλυσίδας του διαφορικού λογισµού, η παράγωγος αυτή γράφεται Ε Ε e y υ = w e y υ w i i (22) όπου e ( n ) το σφάλµα στην έξοδο του νευρώνα, y ( n ) η έξοδος του νευρώνα, και υ το τοπικό πεδίο του νευρώνα, όλα υπολογισµένα κατά το n-οστό βήµα του αλγόριθµου, όπως µπορούµε να δούµε και στο Σχήµα 11. Αλλά, παραγωγίζοντας τη σχέση (18), παίρνουµε Ε e = e (23) ενώ από τη σχέση (17), έχουµε e y = 1 (24) Επιπλέον, όπως φαίνεται και από το Σχήµα11 στη σελ. 14, το τοπικό πεδίο υ του νευρώνα, κατά το βήµα n, δίνεται από τη σχέση k υ = w y (25) i i i = 0 17

18 όπου k, το πλήθος των νευρώνων στο προτελευταίο επίπεδο του δικτύου, δηλαδή του τελευταίου κρυφού επίπεδου, ενώ η έξοδος y ( n ) του νευρώνα, κατά το βήµα n, δίνεται από τη σχέση y = ϕ ( υ ) (26) Από τις σχέσεις (25) και (26), παίρνουµε αντίστοιχα τις y υ = ϕ ( υ ) (27) και υ w i = y i (28) όπου y ( n ) η έξοδος του νευρώνα i του τελευταίου κρυφού επίπεδου. i Όπως παρατηρούµε από τη σχέση (27), είναι απαραίτητη η γνώση της παραγώγου της συνάρτησης ενεργοποίησης. Αυτός λοιπόν είναι ένας από τους λόγους που χρησιµοποιούµε παραγωγίσιµη συνάρτηση ενεργοποίησης, αντί της βηµατικής συνάρτησης. Βάσει των σχέσεων (23), (24), (27) και (28) εποµένως, η σχέση (21) γράφεται όπου w = ηδ y (29) i i Ε δ = υ Ε e y & ηδ = e y υ & η δ = e ϕ ( υ ) (30) η λεγόµενη τοπική βαθµίδα κλίσης (local gradient). Από τη σχέση (30), βλέπουµε ότι, για να υπολογίσουµε τη τοπική βαθµίδα κλίσης και στη συνέχεια τη µεταβολή στο συναπτικό βάρος, πρέπει να ξέρουµε το σφάλµα στην έξοδο του νευρώνα, e. Όταν ο υπό εξέταση νευρώνας είναι νευρώνας του επιπέδου εξόδου του δικτύου, τότε ο υπολογισµός του σφάλµατος γίνεται εύκολα, βάσει της σχέσης (17). Στην περίπτωση όµως που ο νευρώνας ανήκει σε κάποιο κρυφό 18

19 επίπεδο, τότε το σφάλµα δεν µπορεί να υπολογιστεί απευθείας, καθώς δεν ξέρουµε ποιο θα ήταν το επιθυµητό αποτέλεσµα για έναν τέτοιο νευρώνα. Άρα, όταν ο υπό εξέταση νευρώνας ανήκει σε κρυφό επίπεδο, η σχέση (30) που δίνει την τοπική βαθµίδα δ, πρέπει να τροποποιηθεί. Συγκεκριµένα, επειδή το σφάλµα στην περίπτωση αυτή δεν µπορεί να υπολογιστεί απευθείας, αναγκαστικά θα υπολογιστεί έµµεσα, βάσει των σφαλµάτων του αµέσως επόµενου επιπέδου. Έτσι λοιπόν, θεωρώντας την περίπτωση που ο νευρώνας ανήκει στο τελευταίο κρυφό επίπεδο, δηλαδή το προτελευταίο επίπεδο του δικτύου, για την οποία η σχέση (30) τροποποιείται και γίνεται Ε δ = υ y & ηδ = y υ Ε Ε & η δ = ϕ ( υ ) y (31) Σχήµα 12: Ροή πληροφορίας για το νευρώνα k σε σχέση µε το νευρώνα. Αρκεί εποµένως να υπολογίσουµε την παράγωγο 12, βλέπουµε ότι είναι Ε. Από το Σχήµα y 1 Ε n (32) m o 2 = ek ( ) 2 k = 1 όπου e ( k n ) το σφάλµα του k-οστού νευρώνα του επιπέδου εξόδου του δικτύου. Εποµένως, παραγωγίζοντας τη σχέση (32) ως προς y ( n ), έχουµε 19

20 Ε ek = ek y y Ε k ek υk & η = ek y υ y k k (33) Αλλά, από το Σχήµα 12, σελ. 17, παρατηρούµε επιπλέον ότι είναι e = d y k k k & η e = d ϕ ( υ ) k k k k (34) και m h υ = w y (35) k k = 0 m h όπου είναι ο αριθµός των εισόδων που δέχεται ο νευρώνας k, δηλαδή ο αριθµός των νευρώνων του τελευταίου κρυφού επιπέδου. Η άθροιση αρχίζει από το µηδέν, για να συνυπολογιστεί και η µεροληψία που εφαρµόζεται στο νευρώνα, συνδεδεµένη µε το βάρος. w k 0 Από τη σχέση (34), µε παραγώγιση ως προς υ ( n ), προκύπτει η k ek υ k = ϕ ( υ ) k k (36) ενώ από τη σχέση (35), µε παραγώγιση ως προς y ( n ), παίρνουµε τη υk y = w k (37) Αντικαθιστώντας τις (36) και (37) στη (33), βρίσκουµε ότι η ζητούµενη παράγωγος δίνεται από τη σχέση Ε y = k e ϕ ( υ ) w Ε & η = y k k k k k δ ( nw ) k k (38) όπου χρησιµοποιήσαµε τη σχέση 30) που δίνει την τοπική βαθµίδα δ k ( n ), όταν ο νευρώνας k ανήκει στο επίπεδο εξόδου. Τέλος, αντικαθιστώντας τη σχέση (38) στη σχέση (31), προκύπτει η σχέση για 20

21 την τοπική βαθµίδα δ στην περίπτωση που ο νευρώνας βρίσκεται σε κρυφό επίπεδο δ = ϕ ( υ ) δ ( nw ) ( n ) (39) k k k Ανακεφαλαιώνοντας, η διόρθωση στο συναπτικό βάρος συνδέει το νευρώνα µε το νευρώνα i, δίνεται γενικά από τη σχέση w, που w = ηδ y (40) i i και διακρίνουµε δύο περιπτώσεις για την τοπική βαθµίδα δ : 1. Όταν ο νευρώνας ανήκει στο επίπεδο εξόδου του δικτύου, τότε δ = e ϕ ( υ ) (30) i 2. Όταν ο νευρώνας ανήκει σε κρυφό επίπεδο του δικτύου, τότε δ = ϕ ( υ ) δ ( nw ) ( n ) (39) k k k όπου ο δείκτης k συµβολίζει τους νευρώνες του αµέσως επόµενου επιπέδου. Στο Σχήµα 13 παρακάτω, φαίνεται σχηµατικά η σχέση που δίνει τη τοπική βαθµίδα δ ενός νευρώνα σε κρυφό επίπεδο, από τα δ ( n ) του αµέσως επόµενου επιπέδου. k Σχήµα 13: Υπολογισµός του δ για έναν νευρώνα κρυφού επιπέδου Κατά την εκπαίδευση εποµένως ενός πολυεπίπεδου αισθητήρα µε τον αλγόριθµο οπισθοδιάδοσης, σε κάθε βήµα της επανάληψης, λαµβάνουν χώρα τα παρακάτω: 21

22 Α. Στάδιο 1 ο, ευθύ πέρασµα Τροφοδοτούµε το δίκτυο µε το n-οστό σετ τιµών εισόδου. Οι τιµές αυτές περνάνε στο πρώτο κρυφό επίπεδο, οι νευρώνες του οποίου τις επεξεργάζονται και δίνουν τις τιµές εξόδου. Οι τελευταίες περνάνε στο δεύτερο κρυφό επίπεδο αν υπάρχει κ.ο.κ. και τελικά το επεξεργασµένο σήµα φτάνει στο επίπεδο εξόδου, το οποίο µας δίνει τις τελικές εξόδους του δικτύου. Συγκρίνουµε τις τιµές της τελικής εξόδου µε το επιθυµητό αποτέλεσµα και βρίσκουµε το σφάλµα για κάθε µία από αυτές. Β. Στάδιο 2 ο, ανάποδο πέρασµα Έχοντας υπολογίσει τα σφάλµατα στην έξοδο του δικτύου, υπολογίζουµε τις τοπικές βαθµίδες για το επίπεδο εξόδου. Βάσει των τελευταίων, υπολογίζουµε στη συνέχεια τις τοπικές βαθµίδες του τελευταίου κρυφού επιπέδου, έπειτα αυτές του προτελευταίου κρυφού επιπέδου αν υπάρχει κ.ο.κ., µέχρι να υπολογιστούν και αυτές του πρώτου κρυφού επιπέδου. Γνωρίζοντας τις τοπικές βαθµίδες για κάθε νευρώνα του δικτύου, υπολογίζουµε τη διόρθωση σε κάθε συναπτικό βάρος. Τα δύο αυτά στάδια επαναλαµβάνονται, µέχρι τα αποτελέσµατα του δικτύου να συµπίπτουν µε τα επιθυµητά µε ικανοποιητικό βαθµό ακρίβειας. Όπως είδαµε παραπάνω, ο αλγόριθµος οπισθοδιάδοσης οδηγεί σε µία τροχιά στον χώρο των βαρών, η οποία αποτελεί µία προσέγγιση αυτής που θα ακολουθούσαµε, αν ελαχιστοποιούσαµε τη µέση τιµή της συνάρτησης κόστους, E av. Η µορφή της τροχιά αυτής εξαρτάται από την παράµετρο ρυθµού εκπαίδευσης η. Όσο µικρότερη είναι η η, τόσο µικρότερες είναι οι διορθώσεις στα βάρη, σε κάθε βήµα, και τόσο πιο οµαλή είναι η τροχιά που ακολουθούµε. Όµως, η σταθερά η επηρεάζει και την ταχύτητα σύγκλισης του αλγόριθµου οπισθοδιάδοσης. Όταν αυτή είναι µικρή ο αλγόριθµος συγκλίνει µε αργούς συνήθως ρυθµούς. Αν όµως αυξήσουµε την παράµετρο ρυθµού εκπαίδευσης, ώστε να έχουµε πιθανότατα ταχύτερη σύγκλιση, τότε οι διορθώσεις σε κάθε βήµα µπορεί να γίνουν πολύ µεγάλες και να οδηγήσουν σε αστάθεια του αλγόριθµου. Ένας τρόπος να µπορέσουµε να αυξήσουµε την ταχύτητα σύγκλισης του αλγόριθµου, αποφεύγοντας όµως την πιθανή αστάθεια, είναι να τροποποιήσουµε τη σχέση (29) w = ηδ y (29) i i και να την αντικαταστήσουµε µε τη σχέση 22

23 w = α w ( n 1) + ηδ y (41) i i i όπου α είναι µία σταθερά, που συνήθως είναι θετική και ονοµάζεται σταθερά της ορµής (momentum constant). Η σχέση (41) ονοµάζεται γενικευµένος κανόνας δέλτα (generalized delta rule) και ανάγεται στη σχέση (29), για α = Εφαρµογή του αλγόριθµου οπισθοδιάδοσης Πείραµα XOR Για να µελετήσουµε τον αλγόριθµο οπισθοδιάδοσης στην πράξη, κατασκευάσαµε ένα τεχνητό νευρωνικό δίκτυο στον υπολογιστή και το εκπαιδεύσαµε, σύµφωνα µε τη λογική πράξη XOR. Συγκεκριµένα, υλοποιήσαµε το νευρωνικό δίκτυο του Σχήµατος 9, σελ 11. Το δίκτυο εποµένως δέχεται δύο εισόδους, έχει ένα κρυφό επίπεδο µε δύο νευρώνες και έχει ένα νευρώνα στο επίπεδο εξόδου. Κάθε νευρώνας είναι µη γραµµικός και λειτουργεί µε τη λογιστική συνάρτηση ως συνάρτηση ενεργοποίησης. Οι αρχικές τιµές για τα βάρη και τις µεροληψίες επιλέχθηκαν από µία οµοιόµορφη κατανοµή τυχαίων αριθµών στο διάστηµα (-1,1). Στη συνέχεια, οι τιµές αυτές τροποποιήθηκαν, βάσει του αλγόριθµου οπισθοδιάδοσης. Για το πείραµα αυτό έχουµε τέσσερα διαφορετικά σετ εισόδων επιθυµητής εξόδου, που φαίνονται στον Πίνακα 1. Τα σετ αυτά χρησιµοποιήθηκαν πολλές φορές µέχρι να επιτευχθεί ο επιθυµητός στόχος. Κάθε φορά που εξαντλείται η τετράδα των σετ προτύπων, αντιστοιχεί σε µία εποχή (epoch) της εκπαίδευσης. Η εκπαίδευση τερµατίστηκε όταν το σφάλµα της τιµής της εξόδου µειώθηκε στο καθορισµένο όριο. Ο κώδικας που εφαρµόσαµε βρίσκεται στο αρχείο ΝΝXΟR.cpp. Αρχικά, θέσαµε την παράµετρο ρυθµού εκπαίδευσης, η = 0.01 και τη σταθερά ορµής, α = 0. Ο αλγόριθµος συνέκλινε σε επαναλήψεις και έδωσε, ως λύση του προβλήµατος, το παρακάτω σετ τιµών για τα βάρη και τις µεροληψίες του δικτύου w11 = w12 = b1 = w = w = b = w31 = w32 = b3 = (42) Στη συνέχεια, επαναλάβαµε το πείραµα µε τις ίδιες αρχικές τιµές των βαρών και των µεροληψιών για διάφορες τιµές της παραµέτρου ρυθµού εκπαίδευσης και της σταθεράς της ορµής και παρατηρήσαµε αν και πως αλλάζει ο αριθµός των επαναλαµβανόµενων βηµάτων της διαδικασίας εκπαίδευσης και αν ο αλγόριθµος συγκλίνει ή όχι. Τα αποτελέσµατα φαίνονται στον Πίνακα 2, που ακολουθεί: 23

24 παράµετρος ρυθµού εκπαίδευσης σταθερά της ορµής (α ) αριθµός επαναλήψεων συγκλίνει (η ) ναι ναι ναι ναι ναι όχι ναι ναι ναι ναι Πίνακας 2: ιερεύνηση της επίπτωσης των σταθερών η και α στη σύγκλιση του αλγόριθµου και την ταχύτητά της Από τον Πίνακα 2, βλέπουµε ότι η δράση τόσο της σταθεράς του ρυθµού εκπαίδευσης η, όσο και της σταθεράς της ορµής α δεν είναι πάντα η ίδια. εν υπάρχει ρητή σχέση µεταξύ της η και της ταχύτητας σύγκλισης. Συνήθως, όσο αυξάνεται η η, τόσο ταχύτερη σύγκλιση έχουµε, αλλά όχι πάντα. Αλλά ούτε και η επίδραση της σταθεράς της ορµής είναι σταθερή. Σε κάποιες περιπτώσεις φαίνεται να βοηθάει και σε άλλες δεν χρειάζεται καθόλου. Κάθε φορά λοιπόν, σε κάθε διαφορετικό πρόβληµα, θα πρέπει να διερευνήσουµε τη συµπεριφορά του αλγόριθµου για διάφορες τιµές των παραµέτρων αυτών και να επιλέξουµε αυτές που εµείς θεωρούµε ως πιο κατάλληλες. Ιδιαίτερο ενδιαφέρον παρουσιάζει η περίπτωση µε η = 0.5 και α = 0. Για την περίπτωση αυτή ο αλγόριθµος συγκλίνει σε λάθος αποτελέσµατα, τα οποία φαίνονται στον Πίνακα 3. x1 x2 x1 XOR x2 Αποτέλεσµα δικτύου Πίνακας 3: Αποτελέσµατα για ΧΟR µε η = 0.5 και α = 0 Σε αυτή την περίπτωση, η εκπαίδευση αποτυγχάνει πλήρως. Όσο και να εκπαιδευτεί το δίκτυο, µε αυτή την αρχικοποίηση των συναπτικών βαρών και των µεροληψιών και µε αυτή την τιµή της παραµέτρου ρυθµού εκπαίδευσης, ποτέ δε θα φτάσει στο επιθυµητό αποτέλεσµα. Αν επαναλάβουµε το όλο πείραµα της εκπαίδευσης, αρχίζοντας από πολλά διαφορετικά σετ αρχικών τιµών για τα βάρη και τις µεροληψίες, 24

25 θα διαπιστώσουµε ότι υπάρχουν και άλλες τέτοιες περιπτώσεις για τις οποίες το δίκτυο συγκλίνει σε λάθος αποτελέσµατα. Αυτό είναι και το βασικό µειονέκτηµα του αλγόριθµου οπισθοδιάδοσης. εν υπάρχει εγγύηση ότι θα συγκλίνει πάντα σε ένα σετ συναπτικών βαρών και µεροληψιών, για τα οποία το δίκτυο να δίνει σωστά αποτελέσµατα. Η βασική ιδέα του αλγόριθµου εκπαίδευσης είναι, όπως είδαµε, να ελαχιστοποιηθεί η συνάρτηση κόστους, δηλαδή η τετραγωνική ρίζα του αθροίσµατος των τετραγώνων των σφαλµάτων στην έξοδο του δικτύου. Η συνάρτηση αυτή έχει όχι µόνο ένα τέτοιο καθολικό ελάχιστο, αλλά πολλά, λόγω συµµετριών. Το πρόβληµα είναι ότι, εκτός από αυτά τα καθολικά ελάχιστα, στα οποία θέλουµε να φτάσουµε, έχει συνήθως και πολλά τοπικά ελάχιστα. Τα τοπικά αυτά ελάχιστα είναι συχνά αρκετά µεγάλα, ώστε αν η τροχιά που ακολουθεί ο αλγόριθµος πέσει µέσα σε ένα από αυτά, να παγιδευτεί εκεί και να πάρουµε λάθος αποτελέσµατα. Γι αυτό και θα πρέπει πάντα όταν εκπαιδεύουµε ένα νευρωνικό δίκτυο µε τον αλγόριθµο οπισθοδιάδοσης να φροντίσουµε να ξεκινήσουµε από πολλά διαφορετικά σετ αρχικών τιµών. Όπως είδαµε όµως στον Πίνακα 2, σελ 22, προσθέτοντας τη σταθερά της ορµής στους υπολογισµούς µας, στο συγκεκριµένο παράδειγµα, το δίκτυο καταφέρνει να φτάσει σε σωστό αποτέλεσµα σε µικρό αριθµό επαναλήψεων. Για α = 0.3 συγκλίνει σε σωστή λύση σε 302 επαναλήψεις, ενώ για α = 0.9 σε 149. Η σταθερά της ορµής στην περίπτωση αυτή αλλάζει τη τροχιά που ακολουθεί ο αλγόριθµος στο χώρο των βαρών και το τοπικό ελάχιστο στο οποίο παγιδεύονταν αποφέυγεται. Υπάρχουν και άλλοι τρόποι να αποφευχθούν τα τοπικά ελάχιστα. Ένας από τους πιο γνωστούς είναι και η µέθοδος του simulated annealing. 4. Προσέγγιση συναρτήσεων µε πολυεπίπεδους αισθητήρες 4.1 Γενικά Θεωρούµε έναν πολυεπίπεδο αισθητήρα που δέχεται εισόδους και έναν νευρώνα στο επίπεδο εξόδου. Μπορούµε να δούµε τη δράση ενός τέτοιου δικτύου ως µία απεικόνιση του Ευκλείδειου χώρου διάστασης m 0 των εισόδων, στον Ευκλείδειο χώρο των εξόδων. Η απεικόνιση αυτή θα είναι συνεχώς παραγωγίσιµη, αν το ίδιο είναι και η συνάρτηση ενεργοποίησης των νευρώνων που χρησιµοποιούµε. Εκπαιδεύουµε το δίκτυο αυτό, µε τον αλγόριθµο οπισθοδιάδοσης, βάσει ενός συνόλου προτύπων εισόδων εξόδου, που προέρχονται από µία συνεχή απεικόνιση. Ο στόχος µας είναι η απεικόνιση που θα πάρουµε από το εκπαιδευµένο δίκτυο, να αποτελεί µία προσέγγιση της αρχικής απεικόνισης. Όπως και στις περισσότερες εφαρµογές που αφορούν m 0 25

26 νευρωνικά δίκτυα, το ερώτηµα που προκύπτει άµεσα είναι αν υπάρχει κάποιο κριτήριο σύµφωνα µε το οποίο να επιλεχθεί το κατάλληλο πλήθος κρυφών επιπέδων για να πάρουµε την προσέγγιση αυτή. Προς την κατεύθυνση αυτή µας βοηθάει το θεώρηµα καθολικής προσέγγισης (universal approximation theorem), σύµφωνα µε το οποίο ισχύουν τα παρακάτω: Έστω ϕ() µία µη σταθερή, φραγµένη και µονότονα αύξουσα συνάρτηση. 0 Συµβολίζουµε µε I τον [0,1] m και το σύνολο των συνεχών συναρτήσεων m 0 στον µε CI ). Τότε, δοθείσας µίας συνάρτησης f C I ) και ενός I m0 ( m0 αριθµού ε > 0, υπάρχει ένας ακέραιος Μ και σύνολα πραγµατικών σταθερών α i, b i και w i,, όπου i = 1,..., m1 και = 1,..., m0, τέτοιοι ώστε η συνάρτηση ( m0 F( x,..., x ) αϕ( w x + b ) (43) 1 m L m o m0 = i i i i= 1 = 1 να είναι µία προσέγγιση της συνάρτησης f, µε άλλα λόγια να είναι F( x,..., x ) f ( x,..., x ) < ε (44) 1 m0 1 m0 για κάθε σύνολο των x1, x2,..., xm 0 που ανήκουν στο χώρο των εισόδων. Το θεώρηµα αυτό µπορεί να εφαρµοστεί άµεσα στους πολυεπίπεδους αισθητήρες. Πράγµατι, παρατηρούµε ότι η λογιστική συνάρτηση, καθώς και όλες οι σιγµοειδείς συναρτήσεις, που χρησιµοποιούνται ως συνάρτηση ενεργοποίησης των νευρώνων, πληροί τις προϋποθέσεις που επιβάλλονται στη ϕ(), είναι δηλαδή µη σταθερά, φραγµένη και µονότονα αύξουσα. Επιπλέον, η σχέση (43) µπορεί να θεωρηθεί ότι δίνει το αποτέλεσµα στην έξοδο ενός δικτύου, για το οποίο ισχύουν τα ακόλουθα: m 0 1. έχεται εισόδους, τις x,..., 1 xm 0 και έχει ένα κρυφό επίπεδο µε m 1 νευρώνες. 2. Ο νευρώνας i, του κρυφού επιπέδου, συνδέεται µε τις εισόδους µε τα βάρη w,..., i1 w im και έχει µεροληψία b. 0 i 3. Η έξοδός του είναι ένας γραµµικός συνδυασµός των εξόδων των νευρώνων του κρυφού επιπέδου, µε συντελεστές τα βάρη α,..., 1 α m 1, µε τα οποία συνδέεται το επίπεδο εξόδου µε το κρυφό επίπεδο του δικτύου. Το θεώρηµα καθολικής προσέγγισης είναι ένα θεώρηµα ύπαρξης. Μας εξασφαλίζει ότι, όταν θέλουµε να εκπαιδεύσουµε έναν πολυεπίπεδο 26

27 αισθητήρα βάσει ενός σετ τιµών προερχόµενων από συνεχή συνάρτηση, ώστε να προσεγγίζει τη συνάρτηση αυτή, τότε ένα κρυφό επίπεδο είναι επαρκές. εν µπορούµε να ξέρουµε όµως αν ένα και µοναδικό κρυφό επίπεδο είναι η καλύτερη λύση από την άποψη της ταχύτητας της εκπαίδευσης, ούτε από την άποψη της ικανότητας που θα έχει το δίκτυο να εξάγει γενικά χαρακτηριστικά της συνάρτησης Προσέγγιση της e x µε πολυεπίπεδο αισθητήρα Με στόχο να προσεγγίσουµε τη συνάρτηση, κατασκευάσαµε έναν πολυεπίπεδο αισθητήρα µε µία είσοδο, ένα κρυφό επίπεδο µε δύο νευρώνες και έναν νευρώνα στο επίπεδο εξόδου. Για να εκπαιδεύσουµε το δίκτυο αυτό, χρησιµοποιήσαµε ένα σύνολο από έντεκα σετ διαφορετικών τιµών εισόδου εξόδου, οι οποίες φαίνονται στον Πίνακα 4, παρακάτω e x 2 x in x out x in x out Πίνακας 4: Τα σετ τιµών για την προσέγγιση της 2 e x Θέσαµε την παράµετρο ρυθµού εκπαίδευσης, η = 0.4 και τη σταθερά ορµής, α = 0.3. Αφού εκπαιδεύσαµε το δίκτυο σε έναν βαθµό επιθυµητής ακρίβειας, για να ελέγξουµε την ποιότητα των αποτελεσµάτων, πήραµε τιµές στο διάστηµα [-3,3], µε βήµα 0.01 και κάναµε τη γραφική παράσταση. Στο Σχήµα 14 που ακολουθεί φαίνεται η σύγκριση των αποτελεσµάτων της προσέγγισης που δίνει το νευρωνικό δίκτυο, µε τις πραγµατικές τιµές της συνάρτησης 15, φαίνεται το σφάλµα της µεθόδου. 2 e x, ενώ στο Σχήµα 27

28 Σχήµα 14: Σύγκριση των αποτελεσµάτων του νευρωνικού δικτύου, µε την 2 e x Σχήµα 15: Το σφάλµα της µεθόδου του νευρωνικού δικτύου, για την 2 e x Τέλος, συγκρίναµε τα αποτελέσµατα της µεθόδου του νευρωνικού δικτύου, µε τη µέθοδο της πολυωνυµικής προσέγγισης. Η σύγκριση των αποτελεσµάτων και των σφαλµάτων των δύο µεθόδων φαίνονται στα Σχήµατα 16 και

29 Σχήµα 16: Σύγκριση της µεθόδου του νευρωνικού δικτύου, µε την πολυωνυµική Σχήµα 17: Σύγκριση του σφάλµατος της µεθόδου του νευρωνικού δικτύου µε αυτό της πολυωνυµικής Παρατηρούµε ότι το δίκτυο προσεγγίζει τη συνάρτηση µε ικανοποιητική ακρίβεια, ακόµα και στις περιοχές όπου η πολυωνυµική προσέγγιση δεν είναι πολύ καλή. Στην πράξη, σχεδόν ποτέ δε χρησιµοποιούνται παραπάνω από δύο κρυφά επίπεδα για την προσέγγιση µιας συνάρτησης. Στις περισσότερες περιπτώσεις χρησιµοποιείται µόνο ένα κρυφό επίπεδο και µόνο σε εκείνες για τις οποίες η συνάρτηση που ζητάµε να προσεγγίσουµε παρουσιάζει µεµονωµένες ασυνέχειες χρειάζεται και δεύτερο. Συµπερασµατικά, ένας πολυεπίπεδος αισθητήρας µπορεί να µάθει όλες τις συναρτήσεις, αρκεί να αυτές να είναι ορισµένες σε συµπαγές σύνολο και να είναι ντετερµινιστικές. 29

30 Όσο για τον αριθµό των νευρώνων που θα χρησιµοποιήσουµε στο κάθε κρυφό επίπεδο, υπάρχουν κάποιοι εµπειρικοί κανόνες, αλλά δεν αρµόζουν σε όλες τις περιπτώσεις. Πρακτικά, η σίγουρα χρονοβόρα, αλλά πιθανότατα βέλτιστη λύση είναι να αρχίσουµε µε τον µικρότερο δυνατό αριθµό νευρώνων, που είναι συνήθως δύο, και να ανεβάζουµε το πλήθος παρατηρώντας τις αλλαγές στη συµπεριφορά του δικτύου. Κρατάµε τον αριθµό για τον οποίο θεωρούµε ότι η επίδοση του δικτύου είναι η καλύτερη. 5. Πρόβλεψη και ανακατασκευή του χώρου φάσεων χρονοσειρών 5.1 Γενικά Το µεγάλο πλεονέκτηµα των νευρωνικών δικτύων όσον αφορά την πρόβλεψη χρονοσειρών είναι το γεγονός ότι η επίδοσή τους σε περιπτώσεις ύπαρξης θορύβου και χαοτικής συµπεριφοράς είναι καλύτερη από αυτή άλλων γνωστών µεθόδων. Ο πρώτος στόχος µας είναι, έχοντας στη διάθεσή µας ένα σύνολο τιµών µιας χρονοσειράς, να εκπαιδεύσουµε το νευρωνικό δίκτυο, ώστε να πάρουµε µια πρόβλεψη για τις επόµενες τιµές. Ο δεύτερος στόχος µας είναι να προσπαθήσουµε να ανακατασκευάσουµε το χώρο φάσης, ώστε να εξάγουµε γενικότερες πληροφορίες για το σύστηµα που γεννά τη χρονοσειρά. Έστω λοιπόν, ότι έχουµε ένα σύνολο διαδοχικών όρων της χρονοσειράς και θέλουµε να τη µελετήσουµε µε έναν πολυεπίπεδο αισθητήρα. Η βασική ιδέα είναι να χρησιµοποιήσουµε m 0 διαδοχικές τιµές της χρονοσειράς για να προβλέψουµε την επόµενη. Το πόσες ακριβώς εισόδους, πόσα κρυφά επίπεδα και πόσους νευρώνες στο κάθε επίπεδο θα έχουµε, εξαρτάται από το εκάστοτε πρόβληµα. Τέλος, στο επίπεδο εξόδου παίρνουµε τόσους νευρώνες, όσες τιµές θέλουµε να προβλέψουµε. Συνήθως προβλέπουµε µόνο την επόµενη τιµή της χρονοσειράς, οπότε έχουµε µόνο έναν νευρώνα στο επίπεδο εξόδου. 5.2 Παράδειγµα πρόβλεψης και ανακατασκευής του χώρου φάσης για µία χαοτική χρονοσειρά - Logistic map Θα µελετήσουµε τη χρονοσειρά που προέρχεται από τη λογιστική απεικόνιση, η οποία µαθηµατικά περιγράφεται από τον τύπο x = n 1 rxn(1 + xn ) (45) Παίρνουµε ένα σύνολο τιµών της λογιστικής απεικόνισης, για r = 4. Για την τιµή αυτή της παραµέτρου, η απεικόνιση εµφανίζει 30

31 χαοτική συµπεριφορά. Κάνοντας τη γραφική παράσταση του x n + 1 συναρτήσει του x n, παίρνουµε τον ελκυστή της λογιστικής απεικόνισης, που φαίνεται στο Σχήµα 18. Σχήµα 18: Ο ελκυστής της λογιστικής απεικόνισης Για να µελετήσουµε τη χρονοσειρά αυτή µε έναν πολυεπίπεδο αισθητήρα, χρησιµοποιούµε µία τιµή εισόδου, ένα κρυφό επίπεδο µε δύο νευρώνες και έναν νευρώνα στο επίπεδο εξόδου, όπως αυτό που φαίνεται στο Σχήµα 19. Σχήµα 19: Ο πολυεπίπεδος αισθητήρας για τη λογιστική απεικόνιση Καταλήξαµε σε αυτή τη δοµή του δικτύου, µετά από δοκιµές ως προς την ακρίβεια των αποτελεσµάτων και την ταχύτητα σύγκλισης του αλγόριθµου εκπαίδευσης. Αρχικά, χωρίζουµε το σύνολο των δεδοµένων τιµών σε δύο σύνολα, σε αυτό που θα χρησιµοποιήσουµε για την εκπαίδευση του δικτύου και σε αυτό που θα χρησιµοποιήσουµε για να ελέγξουµε την αξιοπιστία της 31

32 εκπαίδευσης αυτής. Ο διαχωρισµός γίνεται µε τυχαίο τρόπο για να έχουµε αντιπροσωπευτικό δείγµα κατά την εκπαίδευση. Εκπαιδεύουµε και ελέγχουµε την αξιοπιστία του δίκτυο και στη συνέχεια παίρνουµε πρόβλεψη για τις επόµενες 1000 τιµές. Τα αποτελέσµατα της πρόβλεψης φαίνονται στο Σχήµα 20. Σχήµα 20: Σύγκριση της πρόβλεψης µε τη πραγµατική τροχιά. Η χρονοσειρά που προβλέπει το δίκτυο φαίνεται µε πράσινο, ενώ η πραγµατική µε κόκκινο Όπως βλέπουµε από το παραπάνω σχήµα, το δίκτυο καταφέρνει να προβλέψει τις 3-4 πρώτες τιµές, ενώ µετά οι προβλεπόµενες τιµές ξεφεύγουν. Το δίκτυο αυτό εποµένως καταφέρνει βραχυπρόθεσµα να κάνει σωστή πρόβλεψη. Από τις 1000 τιµές που προβλέψαµε, ανακατασκευάσαµε τον ελκυστή της απεικόνισης. Η σύγκριση του πραγµατικού ελκυστή µε αυτόν που προβλέπει το νευρωνικό δίκτυο φαίνεται στο Σχήµα 21. Από το σχήµα αυτό παρατηρούµε ότι πρακτικά, ο ανακατασκευασµένος ελκυστής συµπίπτει πλήρως µε τον ελκυστή της λογιστικής απεικόνισης (Σχήµα 18) από την οποία προέρχονται τα αρχικά δεδοµένα µας. 32

33 Σχήµα 21: Σύγκριση του ανακατασκευασµένου ελκυστή (πράσινο) µε τον πραγµατικό (κόκκινο) Στη συνέχεια, προσθέτουµε στατιστικό θόρυβο στα αρχικά δεδοµένα της χρονοσειράς. Στο Σχήµα 22 φαίνεται η γραφική παράσταση του x n + 1 συναρτήσει του x n. Από το σχήµα αυτό φαίνεται ότι η µορφή του ελκυστή δεν είναι πλέον τόσο καθαρή, λόγω του θορύβου που προσθέσαµε. Σχήµα 22: Ο ελκυστής της λογιστικής απεικόνισης µε την προσθήκη θορύβου 33

34 Επαναλαµβάνουµε το πείραµα της πρόβλεψης, όπως και παραπάνω. Η πρόβλεψη για την περίπτωση αυτή φαίνεται στο Σχήµα 23 Σχήµα 23: Σύγκριση της πρόβλεψης µε τη πραγµατική τροχιά, για την περίπτωση της προσθήκης θορύβου. Η χρονοσειρά που προβλέπει το δίκτυο φαίνεται µε πράσινο, ενώ η πραγµατική µε κόκκινο Η ακρίβεια της πρόβλεψης για την περίπτωση µε θόρυβο, κινείται σχεδόν στα επίπεδα αυτής χωρίς θόρυβο. Βραχυπρόθεσµα έχουµε µία ταύτιση και στη συνέχεια η πρόβλεψη αποκλίνει. Τέλος, στο Σχήµα 24 φαίνεται η σύγκριση του ανακατασκευασµένου ελκυστή µε τον πραγµατικό. Η τάυτιση αυτή τη φόρά είναι ελάχιστα χειρότερη από ότι στην περίπτωση χωρίς θόρυβο. Ωστόσο, το αποτέλεσµα είναι πολύ καλό. Είναι προφανές ότι το δίκτυο µπόρεσε να µάθει τα γενικά χαρακτηριστικά της χρονοσειράς και να τα αποµονώσει από τον θόρυβο που προσθέσαµε. 34

35 Σχήµα 24: Σύγκριση του ανακατασκευασµένου ελκυστή (πράσινο) µε τον πραγµατικό (κόκκινο), στην περίπτωση που έχουµε προσθέσει θόρυβο 35

36 Βιβλιογραφία Albano, A.M., A. Passamante, T. Hediger and Mary Eileen Farell Using neural nets to look for chaos. Physica D 58: 1-9 Αργυράκης, Πάνος (2001). Τεχνητή Νοηµοσύνη Εφαρµογές. Ελληνικό Ανοιχτό Πανεπιστήµιο. Bigus, Joseph P and Bigus, Jennifer (). Constructing Intelligent Agents Using Java. Willey Computer Publishing Haykin, Simon (1999). Neural Networks, A Comprehensive Foundation. Prentice Hall International, Inc, New Jersey Ilachinski, Andrew (2001). Cellular Automata, A Discrete Universe. World Scientific Publishing Co. Pte. Ltd. Masters, Timothy (1993). Practical Neural Network Recipies in C++. Academic Press 36

37 Παράρτηµα (Κώδικας) Πρόγραµµα MultiLayer FeedForward Network οµή των δεδοµένων. Στο πρόγραµµα υπάρχουν τρεις τάξεις: NeuralNetwork, HiddenLayer και OutputLayer. Η τάξη Layer χρησιµοποιείται ως βασική τάξη των δύο τελευταίων και δεν έχει η ίδια δικά της αντικείµενα. Class Layer Class Network Obect: nn Class HiddenLayer Obects: hl[i] Class OutputLayer Obects: ol Οι ορισµοί των παραπάνω καθώς και οι αντίστοιχες συναρτήσεις εγκατάστασης βρίσκονται στο αρχείο classes.h Στο αρχείο functions.h βρίσκονται οι ορισµοί των συναρτήσεων των παραπάνω τάξεων. Οι σηµαντικότερες από αυτές είναι: Τάξη NeuralNetwork void CreateLayers() ηµιουργεί τα αντικείµενα των των τάξεων HiddenLayer και OutputLayer και αρχικοποιεί τις απαραίτητες µεταβλητές τους, όπως τον αριθµό των νευρώνων σε κάθε Layer, τα αντίστοιχα βάρη τους κλπ. void Execute(int i) Αναθέτει στο πρώτο επίπεδο το i-σετ τιµών εισόδου και διαδοχικά ενεργοποιεί κάθε επίπεδο, µέχρι να φτάσουµε στο Output Layer και να πάρουµε τις τιµές εξόδου. void BackPropagation(int i) Χρησιµοποιώντας τα αποτελέσµατα της Execute υπολογίζει το σφάλµα (Επιθυµητή έξοδος Πραγµατική έξοδος) και το διαδίδει προς τα πίσω σύµφωνα µε τον αλγόριθµο Backpropagation και διορθώνει τα βάρη. 37

38 void Train(int i) Καλεί διαδοχικά την Execute και την BackPropagation για το i-σετ τιµών εισόδου. double CalcError(int k) Υπολογίζει και επιστρέφει το σφάλµα του δικτύου (rms) για να αποφασίσουµε αν είναι ικανοποιητικό. double Validate(int) Στην περίπτωση που έχουµε σετ εκµάθησης και σετ validation χρησιµοποιεί το validation σετ για τιµές εισόδου στο δίκτυο και υπολογίζει το σφάλµα για να δούµε εάν το δίκτυο εκπαιδεύτηκε σωστά (µε την ακρίβεια που απαιτούµε). Επιστρέφει το συνολικό σφάλµα του δικτύου στις τιµές εξόδου. έχεται ως είσοδο πλήθος των σετ εισόδουεξόδου του validation set. void Anneal(double Tmin, double Tmax, int Tsteps, double tol) Εφαρµόζει τον αλγόριθµο Simulated Annealing. έχεται ως είσοδο τις τιµές της Θερµοκρασιας (αρχική και τελική) και τον αριθµό των βηµάτων για τη σταδιακή ψύξη και την επιθυµητή ακρίβεια. void showtrainresults() Καλείται µετα την εκπαίδευση για να µας δείξει στην οθόνη τις τιµές εισόδου και τις τιµές επιθυµητής και πραγµατικής εξόδου του κάθε σετ τιµών. Τάξη Layer Αυτή η τάξη έχει συναρτήσεις που είναι κοινές και στα hidden και στο Output Layer. void setvalues(int, int, int, double**) Καλείται µετά τη δηµιουργία ενός αντκειµένου Layer και αρχικοποιεί τις απαραίτητες µεταβλητες NumOfNeuronsInCurrentLayer, NumOfNeuronsInPreviousLayer, NumOfNeuronsInNextLayer και w (βάρη) από τις αντίστοιχες εισόδους που δέχεται. Με τη βοήθεια των παραπάνω τιµών δηµιουργει δυναµικά τους πίνακες Inputs, Outputs που θα κρατούν αντίστοιχα τις τιµές εισόδου από τους νευρώνες του προηγούµενου Layer και τις τιµές εξόδου από τους δικούς του νευρώνες, τον πίνακα NetInput που κρατά την είσοδο σε κάθε νευρώνα δηλ. το σταθµισµένο άθροισµα των εισόδων από το προηγούµενο Layer και µια σειρά από άλλους πίνακες και µεταβλητές που χρησιµοποιούνται στους υπολογοσµούς για την αλλαγή των βαρών. void CalculateLayerNetInput(double*) 38

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP) Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP) x -0,5 a x x 2 0 0 0 0 - -0,5 y y 0 0 x 2 -,5 a 2 θ η τιμή κατωφλίου Μία λύση του προβλήματος XOR Multi Layer Perceptron (MLP) x -0,5 Μία

Διαβάστε περισσότερα

Το μοντέλο Perceptron

Το μοντέλο Perceptron Το μοντέλο Perceptron Αποτελείται από έναν μόνο νευρώνα McCulloch-Pitts w j x x 1, x2,..., w x T 1 1 x 2 w 2 Σ u x n f(u) Άνυσμα Εισόδου s i x j x n w n -θ w w 1, w2,..., w n T Άνυσμα Βαρών 1 Το μοντέλο

Διαβάστε περισσότερα

4.3. Γραµµικοί ταξινοµητές

4.3. Γραµµικοί ταξινοµητές Γραµµικοί ταξινοµητές Γραµµικός ταξινοµητής είναι ένα σύστηµα ταξινόµησης που χρησιµοποιεί γραµµικές διακριτικές συναρτήσεις Οι ταξινοµητές αυτοί αναπαρίστανται συχνά µε οµάδες κόµβων εντός των οποίων

Διαβάστε περισσότερα

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron Βιολογικός Νευρώνας Δενδρίτες, που αποτελούν τις γραμμές εισόδου των ερεθισμάτων (βιολογικών σημάτων) Σώμα, στο οποίο γίνεται η συσσώρευση των ερεθισμάτων και

Διαβάστε περισσότερα

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Το Πολυεπίπεδο Perceptron. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων Το Πολυ Perceptron Δίκτυα Πρόσθιας Τροφοδότησης (feedforward) Tο αντίστοιχο γράφημα του δικτύου δεν περιλαμβάνει κύκλους: δεν υπάρχει δηλαδή ανατροφοδότηση της εξόδου ενός νευρώνα προς τους νευρώνες από

Διαβάστε περισσότερα

Σηµειώσεις στις σειρές

Σηµειώσεις στις σειρές . ΟΡΙΣΜΟΙ - ΓΕΝΙΚΕΣ ΕΝΝΟΙΕΣ Σηµειώσεις στις σειρές Στην Ενότητα αυτή παρουσιάζουµε τις βασικές-απαραίτητες έννοιες για την µελέτη των σειρών πραγµατικών αριθµών και των εφαρµογών τους. Έτσι, δίνονται συστηµατικά

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο 2.5 µονάδες ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 2 Σεπτεµβρίου 2005 5:00-8:00 Σχεδιάστε έναν αισθητήρα ercetro

Διαβάστε περισσότερα

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΘΕΜΑ ο (.5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις Πέµπτη 7 Ιανουαρίου 8 5:-8: Σχεδιάστε έναν αισθητήρα (perceptron)

Διαβάστε περισσότερα

4. Ο αισθητήρας (perceptron)

4. Ο αισθητήρας (perceptron) 4. Ο αισθητήρας (perceptron) Σκοπός: Προσδοκώµενα αποτελέσµατα: Λέξεις Κλειδιά: To µοντέλο του αισθητήρα (perceptron) είναι από τα πρώτα µοντέλα νευρωνικών δικτύων που αναπτύχθηκαν, και έδωσαν µεγάλη ώθηση

Διαβάστε περισσότερα

Α. ΤΕΙ ΚΡΗΤΗΣ Τµήµα Εφαρµοσµένης Πληροφορικής και Πολυµέσων Εργαστήριο Νευρωνικών Δικτύων

Α. ΤΕΙ ΚΡΗΤΗΣ Τµήµα Εφαρµοσµένης Πληροφορικής και Πολυµέσων Εργαστήριο Νευρωνικών Δικτύων Α. ΤΕΙ ΚΡΗΤΗΣ Τµήµα Εφαρµοσµένης Πληροφορικής και Πολυµέσων Εργαστήριο Νευρωνικών Δικτύων 5 BACKPROPAGATION MULTILAYER FEEDFORWARD ΔΙΚΤΥΑ Α. ΕΙΣΑΓΩΓΗ Τα νευρωνικά δίκτυα που εξετάσαµε µέχρι τώρα είχαν

Διαβάστε περισσότερα

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 15/1/2008

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 15/1/2008 Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 5//008 Πρόβληµα ο Στα παρακάτω ερωτήµατα επισηµαίνουµε ότι perceptron είναι ένας νευρώνας και υποθέτουµε, όπου χρειάζεται, τη χρήση δικτύων

Διαβάστε περισσότερα

οµή δικτύου ΣΧΗΜΑ 8.1

οµή δικτύου ΣΧΗΜΑ 8.1 8. ίκτυα Kohonen Το µοντέλο αυτό των δικτύων προτάθηκε το 1984 από τον Kοhonen, και αφορά διαδικασία εκµάθησης χωρίς επίβλεψη, δηλαδή δεν δίδεται καµία εξωτερική επέµβαση σχετικά µε τους στόχους που πρέπει

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο (2.5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις Παρασκευή 9 Ιανουαρίου 2007 5:00-8:00 εδοµένου ότι η

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο 2.5 µονάδες ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 7 Ιανουαρίου 2005 ιάρκεια εξέτασης: 5:00-8:00 Έστω ότι

Διαβάστε περισσότερα

Ανδρέας Παπαζώης. Τμ. Διοίκησης Επιχειρήσεων

Ανδρέας Παπαζώης. Τμ. Διοίκησης Επιχειρήσεων Ανδρέας Παπαζώης Τμ. Διοίκησης Επιχειρήσεων Περιεχόμενα Εργ. Μαθήματος Βιολογικά Νευρωνικά Δίκτυα Η έννοια των Τεχνητών Νευρωνικών Δικτύων Η δομή ενός νευρώνα Διαδικασία εκπαίδευσης Παραδείγματα απλών

Διαβάστε περισσότερα

Ακρότατα υπό συνθήκη και οι πολλαπλασιαστές του Lagrange

Ακρότατα υπό συνθήκη και οι πολλαπλασιαστές του Lagrange 64 Ακρότατα υπό συνθήκη και οι πολλαπλασιαστές του Lagrage Ας υποθέσουµε ότι ένας δεδοµένος χώρος θερµαίνεται και η θερµοκρασία στο σηµείο,, Τ, y, z Ας υποθέσουµε ότι ( y z ) αυτού του χώρου δίδεται από

Διαβάστε περισσότερα

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο Πρόβλημα ο Ασκήσεις Φροντιστηρίου 5 o Φροντιστήριο Δίνεται το παρακάτω σύνολο εκπαίδευσης: # Είσοδος Κατηγορία 0 0 0 Α 2 0 0 Α 0 Β 4 0 0 Α 5 0 Β 6 0 0 Α 7 0 Β 8 Β α) Στον παρακάτω κύβο τοποθετείστε τα

Διαβάστε περισσότερα

A2. ΠΑΡΑΓΩΓΟΣ-ΚΛΙΣΗ-ΜΟΝΟΤΟΝΙΑ

A2. ΠΑΡΑΓΩΓΟΣ-ΚΛΙΣΗ-ΜΟΝΟΤΟΝΙΑ A. ΠΑΡΑΓΩΓΟΣ-ΚΛΙΣΗ-ΜΟΝΟΤΟΝΙΑ d df() = f() = f (), = d d.κλίση ευθείας.μεταβολές 3.(Οριακός) ρυθµός µεταβολής ή παράγωγος 4.Παράγωγοι βασικών συναρτήσεων 5. Κανόνες παραγώγισης 6.Αλυσωτή παράγωγος 7.Μονοτονία

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ 1 ο (2.5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 21 Σεπτεµβρίου 2004 ιάρκεια: 3 ώρες Το παρακάτω σύνολο

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο 2.5 µονάδες ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 2 Οκτωβρίου 23 ιάρκεια: 2 ώρες Έστω το παρακάτω γραµµικώς

Διαβάστε περισσότερα

ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ

ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ ηµήτρης Ψούνης ΠΛΗ3, Απαντήσεις Quiz σε ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ Μάθηµα 3. ΕΡΩΤΗΜΑ Ένας αισθητήρας µπορεί να µάθει: a. εδοµένα που ανήκουν σε 5 διαφορετικές κλάσεις. b. εδοµένα που ανήκουν

Διαβάστε περισσότερα

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ ΤΕΙ Δυτικής Μακεδονίας ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ 2015-2016 Τεχνητή Νοημοσύνη Νευρώνας Perceptron Διδάσκων: Τσίπουρας Μάρκος Εκπαιδευτικό Υλικό: Τσίπουρας Μάρκος Τζώρτζης Γρηγόρης Περιεχόμενα Εισαγωγή

Διαβάστε περισσότερα

Γραµµικοί Ταξινοµητές

Γραµµικοί Ταξινοµητές ΚΕΣ 3: Αναγνώριση Προτύπων και Ανάλυση Εικόνας KEΣ 3 Αναγνώριση Προτύπων και Ανάλυση Εικόνας Γραµµικοί Ταξινοµητές ΤµήµαΕπιστήµης και Τεχνολογίας Τηλεπικοινωνιών Πανεπιστήµιο Πελοποννήσου 7 Ncolas sapatsouls

Διαβάστε περισσότερα

ΣΗΜΕΙΩΣΕΙΣ ΜΑΘΗΜΑΤΙΚΗΣ ΑΝΑΛΥΣΗΣ Ι (2006-07)

ΣΗΜΕΙΩΣΕΙΣ ΜΑΘΗΜΑΤΙΚΗΣ ΑΝΑΛΥΣΗΣ Ι (2006-07) ΤΕΙ ΥΤΙΚΗΣ ΜΑΚΕ ΟΝΙΑΣ ΠΑΡΑΡΤΗΜΑ ΚΑΣΤΟΡΙΑΣ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΤΕΧΝΟΛΟΓΙΑΣ ΥΠΟΛΟΓΙΣΤΩΝ ΣΗΜΕΙΩΣΕΙΣ ΜΑΘΗΜΑΤΙΚΗΣ ΑΝΑΛΥΣΗΣ Ι (2006-07) Επιµέλεια Σηµειώσεων : Βασιλειάδης Γεώργιος Καστοριά, εκέµβριος 2006

Διαβάστε περισσότερα

Τρία συνηθισµένα λάθη που κάνουν µαθητές της Γ Λυκείου σε ασκήσεις του ιαφορικού Λογισµού ρ. Παναγιώτης Λ. Θεοδωρόπουλος πρώην Σχολικός Σύµβουλος ΠΕ3 e-mail@p-thedrpuls.gr Πρόλογος Στην εργασία αυτή επισηµαίνονται

Διαβάστε περισσότερα

ΣΕΙΡΕΣ TAYLOR. Στην Ενότητα αυτή θα ασχοληθούµε µε την προσέγγιση συναρτήσεων µέσω πολυωνύµων. Πολυώνυµο είναι κάθε συνάρτηση της µορφής:

ΣΕΙΡΕΣ TAYLOR. Στην Ενότητα αυτή θα ασχοληθούµε µε την προσέγγιση συναρτήσεων µέσω πολυωνύµων. Πολυώνυµο είναι κάθε συνάρτηση της µορφής: ΣΕΙΡΕΣ TAYLOR Στην Ενότητα αυτή θα ασχοληθούµε µε την προσέγγιση συναρτήσεων µέσω πολυωνύµων Πολυώνυµο είναι κάθε συνάρτηση της µορφής: p( ) = a + a + a + a + + a, όπου οι συντελεστές α i θα θεωρούνται

Διαβάστε περισσότερα

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΡΟΓΡΑΜΜΑ ΣΠΟΥ ΩΝ «ΠΛΗΡΟΦΟΡΙΚΗ» ΜΑΘΗΜΑΤΙΚΑ Ι (ΘΕ ΠΛΗ 12) ΕΡΓΑΣΙΑ 4

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΡΟΓΡΑΜΜΑ ΣΠΟΥ ΩΝ «ΠΛΗΡΟΦΟΡΙΚΗ» ΜΑΘΗΜΑΤΙΚΑ Ι (ΘΕ ΠΛΗ 12) ΕΡΓΑΣΙΑ 4 ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΡΟΓΡΑΜΜΑ ΣΠΟΥ ΩΝ «ΠΛΗΡΟΦΟΡΙΚΗ» ΜΑΘΗΜΑΤΙΚΑ Ι (ΘΕ ΠΛΗ ) ΕΡΓΑΣΙΑ 4 Ηµεροµηνία αποστολής στον φοιτητή: 9 Φεβρουαρίου 5. Τελική ηµεροµηνία αποστολής από τον φοιτητή: Μαρτίου 5.

Διαβάστε περισσότερα

Αριθµητική Ανάλυση 1 εκεµβρίου / 43

Αριθµητική Ανάλυση 1 εκεµβρίου / 43 Αριθµητική Ανάλυση 1 εκεµβρίου 2014 Αριθµητική Ανάλυση 1 εκεµβρίου 2014 1 / 43 Κεφ.5. Αριθµητικός Υπολογισµός Ιδιοτιµών και Ιδιοδιανυσµάτων ίνεται ένας πίνακας A C n n και Ϲητούνται να προσδιορισθούν οι

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16 HMY 795: Αναγνώριση Προτύπων Διαλέξεις 15-16 Νευρωνικά Δίκτυα(Neural Networks) Fisher s linear discriminant: Μείωση διαστάσεων (dimensionality reduction) y Τ =w x s + s =w S w 2 2 Τ 1 2 W ( ) 2 2 ( ) m2

Διαβάστε περισσότερα

Ασκήσεις μελέτης της 19 ης διάλεξης

Ασκήσεις μελέτης της 19 ης διάλεξης Οικονομικό Πανεπιστήμιο Αθηνών, Τμήμα Πληροφορικής Μάθημα: Τεχνητή Νοημοσύνη, 2016 17 Διδάσκων: Ι. Ανδρουτσόπουλος Ασκήσεις μελέτης της 19 ης διάλεξης 19.1. Δείξτε ότι το Perceptron με (α) συνάρτηση ενεργοποίησης

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο (2.5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις Τετάρτη 4 Οκτωβρίου 2006 0:00-3:00 ίνεται το παρακάτω

Διαβάστε περισσότερα

Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων

Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων Με τον όρο μη γραμμικές εξισώσεις εννοούμε εξισώσεις της μορφής: f( ) 0 που προέρχονται από συναρτήσεις f () που είναι μη γραμμικές ως προς. Περιέχουν δηλαδή

Διαβάστε περισσότερα

Η ΤΕΧΝΗ ΤΟΥ ΙΑΒΑΣΜΑΤΟΣ ΜΕΤΑΞΥ ΤΩΝ ΑΡΙΘΜΩΝ (ΠΑΡΕΜΒΟΛΗ ΚΑΙ ΠΡΟΣΕΓΓΙΣΗ)

Η ΤΕΧΝΗ ΤΟΥ ΙΑΒΑΣΜΑΤΟΣ ΜΕΤΑΞΥ ΤΩΝ ΑΡΙΘΜΩΝ (ΠΑΡΕΜΒΟΛΗ ΚΑΙ ΠΡΟΣΕΓΓΙΣΗ) Η ΤΕΧΝΗ ΤΟΥ ΙΑΒΑΣΜΑΤΟΣ ΜΕΤΑΞΥ ΤΩΝ ΑΡΙΘΜΩΝ (ΠΑΡΕΜΒΟΛΗ ΚΑΙ ΠΡΟΣΕΓΓΙΣΗ) ΜΙΧΑΛΗΣ ΤΖΟΥΜΑΣ ΕΣΠΟΤΑΤΟΥ 3 ΑΓΡΙΝΙΟ. ΠΕΡΙΛΗΨΗ Η έννοια της συνάρτησης είναι στενά συνυφασµένη µε τον πίνακα τιµών και τη γραφική παράσταση.

Διαβάστε περισσότερα

Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα

Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα KEΣ 3 Αναγνώριση Προτύπων και Ανάλυση Εικόνας Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα ΤµήµαΕπιστήµης και Τεχνολογίας Τηλεπικοινωνιών Πανεπιστήµιο Πελοποννήσου Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος

Διαβάστε περισσότερα

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON 3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPRON 3. ΕΙΣΑΓΩΓΗ: Το Perceptron είναι η απλούστερη μορφή Νευρωνικού δικτύου, το οποίο χρησιμοποιείται για την ταξινόμηση ενός ειδικού τύπου προτύπων, που είναι γραμμικά διαχωριζόμενα.

Διαβάστε περισσότερα

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2) Υπολογιστική Νοημοσύνη Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2) Ο κανόνας Δέλτα για συνεχείς συναρτήσεις ενεργοποίησης (1/2) Για συνεχείς συναρτήσεις ενεργοποίησης, θα θέλαμε να αλλάξουμε περισσότερο

Διαβάστε περισσότερα

Ανδρέας Παπαζώης. Τμ. Διοίκησης Επιχειρήσεων

Ανδρέας Παπαζώης. Τμ. Διοίκησης Επιχειρήσεων Ανδρέας Παπαζώης Τμ. Διοίκησης Επιχειρήσεων Περιεχόμενα Εργ. Μαθήματος Εκπαίδευση (μάθηση) Νευρωνικών Δικτύων Απλός αισθητήρας Παράδειγμα εκπαίδευσης Θέματα υλοποίησης Νευρωνικών Δικτύων 2/17 Διαδικασία

Διαβάστε περισσότερα

ΚΕΦΑΛΑΙΟ 3 ΑΡΙΘΜΗΤΙΚΗ ΕΠΙΛΥΣΗ ΓΡΑΜΜΙΚΩΝ ΣΥΣΤΗΜΑΤΩΝ. nn n n

ΚΕΦΑΛΑΙΟ 3 ΑΡΙΘΜΗΤΙΚΗ ΕΠΙΛΥΣΗ ΓΡΑΜΜΙΚΩΝ ΣΥΣΤΗΜΑΤΩΝ. nn n n ΚΕΦΑΛΑΙΟ 3 ΑΡΙΘΜΗΤΙΚΗ ΕΠΙΛΥΣΗ ΓΡΑΜΜΙΚΩΝ ΣΥΣΤΗΜΑΤΩΝ 3 Ο αλγόριθµος Gauss Eστω =,3,, µε τον όρο γραµµικά συστήµατα, εννοούµε συστήµατα εξισώσεων µε αγνώστους της µορφής: a x + + a x = b a x + + a x = b a

Διαβάστε περισσότερα

Κεφάλαιο 7 Βάσεις και ιάσταση

Κεφάλαιο 7 Βάσεις και ιάσταση Κεφάλαιο 7: Βάσεις και ιάσταση Σελίδα από 9 Κεφάλαιο 7 Βάσεις και ιάσταση n Στο Κεφάλαιο 5 είδαµε την έννοια της βάσης στο και στο Κεφάλαιο 6 µελετήσαµε διανυσµατικούς χώρους. Στο παρόν κεφάλαιο θα ασχοληθούµε

Διαβάστε περισσότερα

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο Ασκήσεις Φροντιστηρίου 4 o Φροντιστήριο Πρόβλημα 1 ο Ο πίνακας συσχέτισης R x του διανύσματος εισόδου x( στον LMS αλγόριθμο 1 0.5 R x = ορίζεται ως: 0.5 1. Ορίστε το διάστημα των τιμών της παραμέτρου μάθησης

Διαβάστε περισσότερα

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΡΟΓΡΑΜΜΑ ΣΠΟΥ ΩΝ ΣΤΗΝ ΠΛΗΡΟΦΟΡΙΚΗ ΜΑΘΗΜΑΤΙΚΑ Ι (ΘΕ ΠΛΗ ) Ενδεικτικές Λύσεις ΕΡΓΑΣΙΑ η Ηµεροµηνία Αποστολής στον Φοιτητή: Ιανουαρίου 6 Ηµεροµηνία Παράδοσης της Εργασίας από

Διαβάστε περισσότερα

Κεφάλαιο 5. Το Συμπτωτικό Πολυώνυμο

Κεφάλαιο 5. Το Συμπτωτικό Πολυώνυμο Κεφάλαιο 5. Το Συμπτωτικό Πολυώνυμο Σύνοψη Στο κεφάλαιο αυτό παρουσιάζεται η ιδέα του συμπτωτικού πολυωνύμου, του πολυωνύμου, δηλαδή, που είναι του μικρότερου δυνατού βαθμού και που, για συγκεκριμένες,

Διαβάστε περισσότερα

Επίλυση Γραµµικών Συστηµάτων

Επίλυση Γραµµικών Συστηµάτων Κεφάλαιο 3 Επίλυση Γραµµικών Συστηµάτων 31 Εισαγωγή Αριθµητική λύση γενικών γραµµικών συστηµάτων n n A n n x n 1 b n 1, όπου a 11 a 12 a 1n a 21 a 22 a 2n A [a i j, x a n1 a n2 a nn x n, b b 1 b 2 b n

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ 1 ο (2,5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις Πέµπτη 19 Ιουνίου 2008 11:00-14:00 Έστω το παρακάτω

Διαβάστε περισσότερα

, όπου οι σταθερές προσδιορίζονται από τις αρχικές συνθήκες.

, όπου οι σταθερές προσδιορίζονται από τις αρχικές συνθήκες. Στην περίπτωση της ταλάντωσης µε κρίσιµη απόσβεση οι δύο γραµµικώς ανεξάρτητες λύσεις εκφυλίζονται (καταλήγουν να ταυτίζονται) Στην περιοχή ασθενούς απόσβεσης ( ) δύο γραµµικώς ανεξάρτητες λύσεις είναι

Διαβάστε περισσότερα

Προβλήματα, αλγόριθμοι, ψευδοκώδικας

Προβλήματα, αλγόριθμοι, ψευδοκώδικας Προβλήματα, αλγόριθμοι, ψευδοκώδικας October 11, 2011 Στο μάθημα Αλγοριθμική και Δομές Δεδομένων θα ασχοληθούμε με ένα μέρος της διαδικασίας επίλυσης υπολογιστικών προβλημάτων. Συγκεκριμένα θα δούμε τι

Διαβάστε περισσότερα

ΚΕΦΑΛΑΙΟ 2 ΜΗ ΓΡΑΜΜΙΚΕΣ ΕΞΙΣΩΣΕΙΣ

ΚΕΦΑΛΑΙΟ 2 ΜΗ ΓΡΑΜΜΙΚΕΣ ΕΞΙΣΩΣΕΙΣ ΚΕΦΑΛΑΙΟ ΜΗ ΓΡΑΜΜΙΚΕΣ ΕΞΙΣΩΣΕΙΣ Η αδυναµία επίλυσης της πλειοψηφίας των µη γραµµικών εξισώσεων µε αναλυτικές µεθόδους, ώθησε στην ανάπτυξη αριθµητικών µεθόδων για την προσεγγιστική επίλυσή τους, π.χ. συν()

Διαβάστε περισσότερα

e-mail@p-theodoropoulos.gr

e-mail@p-theodoropoulos.gr Ασκήσεις Μαθηµατικών Κατεύθυνσης Γ Λυκείου Παναγιώτης Λ. Θεοδωρόπουλος Σχολικός Σύµβουλος Μαθηµατικών e-mail@p-theodoropoulos.gr Στην εργασία αυτή ξεχωρίζουµε και µελετάµε µερικές περιπτώσεις ασκήσεων

Διαβάστε περισσότερα

11 Το ολοκλήρωµα Riemann

11 Το ολοκλήρωµα Riemann Το ολοκλήρωµα Riem Το πρόβληµα υπολογισµού του εµβαδού οποιασδήποτε επιφάνειας ( όπως κυκλικοί τοµείς, δακτύλιοι και δίσκοι, ελλειπτικοί δίσκοι, παραβολικά και υπερβολικά χωρία κτλ) είναι γνωστό από την

Διαβάστε περισσότερα

Κεφάλαιο 6 Παράγωγος

Κεφάλαιο 6 Παράγωγος Σελίδα από 5 Κεφάλαιο 6 Παράγωγος Στο κεφάλαιο αυτό στόχος µας είναι να συνδέσουµε µία συγκεκριµένη συνάρτηση f ( ) µε µία δεύτερη συνάρτηση f ( ), την οποία και θα ονοµάζουµε παράγωγο της f. Η τιµή της

Διαβάστε περισσότερα

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης Ελαχιστοποίηση συνάρτησης σφάλματος Εκπαίδευση ΤΝΔ: μπορεί να διατυπωθεί ως πρόβλημα ελαχιστοποίησης μιας συνάρτησης σφάλματος E(w)

Διαβάστε περισσότερα

3. ΕΠΙΛΥΣΗ ΓΡΑΜΜΙΚΟΥ ΑΝΤΙΣΤΡΟΦΟΥ ΠΡΟΒΛΗΜΑΤΟΣ ΜΕ ΤΗ ΜΕΘΟΔΟ ΜΗΚΩΝ

3. ΕΠΙΛΥΣΗ ΓΡΑΜΜΙΚΟΥ ΑΝΤΙΣΤΡΟΦΟΥ ΠΡΟΒΛΗΜΑΤΟΣ ΜΕ ΤΗ ΜΕΘΟΔΟ ΜΗΚΩΝ 3. ΕΠΙΛΥΣΗ ΓΡΑΜΜΙΚΟΥ ΑΝΤΙΣΤΡΟΦΟΥ ΠΡΟΒΛΗΜΑΤΟΣ ΜΕ ΤΗ ΜΕΘΟΔΟ ΜΗΚΩΝ 3. Διαφορά μετρήσεων από εκτιμήσεις μετρήσεων. Όταν επιλύοµε ένα αντίστροφο πρόβληµα υπολογίζοµε ένα διάνυσµα παραµέτρων est m το οποίο αντιπροσωπεύει

Διαβάστε περισσότερα

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΡΟΓΡΑΜΜΑ ΣΠΟΥ ΩΝ: ΠΛΗΡΟΦΟΡΙΚΗ ΘΕ: ΜΑΘΗΜΑΤΙΚΑ ΓΙΑ ΤΗΝ ΠΛΗΡΟΦΟΡΙΚΉ Ι (ΠΛΗ ) ΛΥΣΕΙΣ ΕΡΓΑΣΙΑΣ 4 Άσκηση. (8 µον.) (α) ίνεται παραγωγίσιµη συνάρτηση f για την οποία ισχύει f /

Διαβάστε περισσότερα

Q 12. c 3 Q 23. h 12 + h 23 + h 31 = 0 (6)

Q 12. c 3 Q 23. h 12 + h 23 + h 31 = 0 (6) Εθνικό Μετσόβιο Πολυτεχνείο Σχολή Πολιτικών Μηχανικών Τοµέας Υδατικών Πόρων Μάθηµα: Τυπικά Υδραυλικά Έργα Μέρος 2: ίκτυα διανοµής Άσκηση E0: Μαθηµατική διατύπωση µοντέλου επίλυσης απλού δικτύου διανοµής

Διαβάστε περισσότερα

ΜΙΓΑ ΙΚΟΣ ΛΟΓΙΣΜΟΣ ΚΑΙ ΟΛΟΚΛ. ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΙ ΓΡΑΠΤΕΣ ΕΞΕΤΑΣΕΙΣ ΙΑΝΟΥΑΡΙΟΥ 2010 ΛΥΣΕΙΣ ΤΩΝ ΘΕΜΑΤΩΝ. =. Οι πρώτες µερικές u x y

ΜΙΓΑ ΙΚΟΣ ΛΟΓΙΣΜΟΣ ΚΑΙ ΟΛΟΚΛ. ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΙ ΓΡΑΠΤΕΣ ΕΞΕΤΑΣΕΙΣ ΙΑΝΟΥΑΡΙΟΥ 2010 ΛΥΣΕΙΣ ΤΩΝ ΘΕΜΑΤΩΝ. =. Οι πρώτες µερικές u x y ΜΙΓΑ ΙΚΟΣ ΛΟΓΙΣΜΟΣ ΚΑΙ ΟΛΟΚΛ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΙ ΓΡΑΠΤΕΣ ΕΞΕΤΑΣΕΙΣ ΙΑΝΟΥΑΡΙΟΥ ΛΥΣΕΙΣ ΤΩΝ ΘΕΜΑΤΩΝ ΘΕΜΑ α) Καταρχήν θα µελετήσουµε την συνάρτηση f Η f γράφεται f ( ) = ( x + )( x ) ( x ) ή ακόµα f ( ) = u( x,

Διαβάστε περισσότερα

Το θεώρηµα πεπλεγµένων συναρτήσεων

Το θεώρηµα πεπλεγµένων συναρτήσεων 57 Το θεώρηµα πεπλεγµένων συναρτήσεων Έστω F : D R R µια ( τουλάχιστον ) C συνάρτηση ορισµένη στο ανοικτό D x, y D F x, y = Ενδιαφερόµαστε για την ύπαρξη µοναδικής και ώστε διαφορίσιµης συνάρτησης f ορισµένης

Διαβάστε περισσότερα

Πρόβληµα 2 (15 µονάδες)

Πρόβληµα 2 (15 µονάδες) ΟΙΚΟΝΟΜΙΚΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΜΑΘΗΜΑ: ΚΡΥΠΤΟΓΡΑΦΙΑ ΚΑΙ ΕΦΑΡΜΟΓΕΣ, 2013-2014 ΔΙΔΑΣΚΩΝ: Ε. Μαρκάκης Πρόβληµα 1 (5 µονάδες) 2 η Σειρά Ασκήσεων Προθεσµία Παράδοσης: 19/1/2014 Υπολογίστε

Διαβάστε περισσότερα

Παρουσίαση 1 ΙΑΝΥΣΜΑΤΑ

Παρουσίαση 1 ΙΑΝΥΣΜΑΤΑ Παρουσίαση ΙΑΝΥΣΜΑΤΑ Παρουσίαση η Κάθετες συνιστώσες διανύσµατος Παράδειγµα Θα αναλύσουµε το διάνυσµα v (, ) σε δύο κάθετες µεταξύ τους συνιστώσες από τις οποίες η µία να είναι παράλληλη στο α (3,) Πραγµατικά

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο (2.5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 26 Ιανουαρίου 2004 ιάρκεια: 2 ώρες (9:00-:00) Στην παρακάτω

Διαβάστε περισσότερα

Ευρωπαϊκή Ολυµπιάδα Φυσικών Επιστηµών 2010 Προκαταρκτικός διαγωνισµός στη Φυσική. Σχολείο:

Ευρωπαϊκή Ολυµπιάδα Φυσικών Επιστηµών 2010 Προκαταρκτικός διαγωνισµός στη Φυσική. Σχολείο: ΕΚΦΕ ΑΝΑΤΟΛΙΚΗΣ ΑΤΤΙΚΗΣ Ευρωπαϊκή Ολυµπιάδα Φυσικών Επιστηµών 010 Προκαταρκτικός διαγωνισµός στη Φυσική Σχολείο: Ονόµατα των µαθητών της οµάδας 1) ) 3) Οι στόχοι του πειράµατος 1. Η µέτρηση της επιτάχυνσης

Διαβάστε περισσότερα

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 3ο Φροντιστήριο

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 3ο Φροντιστήριο Ασκήσεις Φροντιστηρίου 3ο Φροντιστήριο Πρόβλημα 1 ο Το perceptron ενός επιπέδου είναι ένας γραμμικός ταξινομητής προτύπων. Δικαιολογήστε αυτή την πρόταση. x 1 x 2 Έξοδος y x p θ Κατώφλι Perceptron (στοιχειώδης

Διαβάστε περισσότερα

Σχολικός Σύµβουλος ΠΕ03

Σχολικός Σύµβουλος ΠΕ03 Ασκήσεις Μαθηµατικών Θετικής & Τεχνολογικής Κατεύθυνσης Γ Λυκείου ρ. Παναγιώτης Λ. Θεοδωρόπουλος Σχολικός Σύµβουλος ΠΕ03 e-mail@p-theodoropoulos.gr Στην εργασία αυτή ξεχωρίζουµε και µελετάµε µερικές περιπτώσεις

Διαβάστε περισσότερα

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή Τµήµα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών ΗΜΜΥ 795: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ Ακαδηµαϊκό έτος 2010-11 Χειµερινό Εξάµηνο Τελική εξέταση Τρίτη, 21 εκεµβρίου 2010,

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΜΣΕ ΣΤΗΝ ΕΦΑΡΜΟΣΜΕΝΗ ΠΛΗΡΟΦΟΡΙΚΗ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΚΑΙ ΕΞΕΛΙΚΤΙΚΟΙ ΑΛΓΟΡΙΘΜΟΙ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΜΣΕ ΣΤΗΝ ΕΦΑΡΜΟΣΜΕΝΗ ΠΛΗΡΟΦΟΡΙΚΗ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΚΑΙ ΕΞΕΛΙΚΤΙΚΟΙ ΑΛΓΟΡΙΘΜΟΙ ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΜΣΕ ΣΤΗΝ ΕΦΑΡΜΟΣΜΕΝΗ ΠΛΗΡΟΦΟΡΙΚΗ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΚΑΙ ΕΞΕΛΙΚΤΙΚΟΙ ΑΛΓΟΡΙΘΜΟΙ ΟΜΑ Α ΑΣΚΗΣΕΩΝ ΑΣΚΗΣΗ Στην εικόνα παρακάτω φαίνεται ένα νευρωνικό

Διαβάστε περισσότερα

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι Αναγνώριση Προτύπων Ι Ενότητα 1: Μέθοδοι Αναγνώρισης Προτύπων Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται

Διαβάστε περισσότερα

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΡΟΓΡΑΜΜΑ ΣΠΟΥ ΩΝ: ΠΛΗΡΟΦΟΡΙΚΗ ΘΕ: ΜΑΘΗΜΑΤΙΚΑ ΓΙΑ ΤΗΝ ΠΛΗΡΟΦΟΡΙΚΉ Ι (ΠΛΗ 12) ΛΥΣΕΙΣ ΕΡΓΑΣΙΑΣ 3

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΡΟΓΡΑΜΜΑ ΣΠΟΥ ΩΝ: ΠΛΗΡΟΦΟΡΙΚΗ ΘΕ: ΜΑΘΗΜΑΤΙΚΑ ΓΙΑ ΤΗΝ ΠΛΗΡΟΦΟΡΙΚΉ Ι (ΠΛΗ 12) ΛΥΣΕΙΣ ΕΡΓΑΣΙΑΣ 3 ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΡΟΓΡΑΜΜΑ ΣΠΟΥ ΩΝ: ΠΛΗΡΟΦΟΡΙΚΗ ΘΕ: ΜΑΘΗΜΑΤΙΚΑ ΓΙΑ ΤΗΝ ΠΛΗΡΟΦΟΡΙΚΉ Ι (ΠΛΗ ) ΛΥΣΕΙΣ ΕΡΓΑΣΙΑΣ Άσκηση. ( µον.). Έστω z ο µιγαδικός αριθµός z i, µε, R. (α) ίνεται η εξίσωση: z

Διαβάστε περισσότερα

PROJECT ΣΤΟ ΜΑΘΗΜΑ ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟ ΟΥΣ

PROJECT ΣΤΟ ΜΑΘΗΜΑ ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟ ΟΥΣ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ Η/Υ ΚΑΙ ΠΛΗΡΟΦΟΡΙΚΗΣ PROJECT ΣΤΟ ΜΑΘΗΜΑ ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟ ΟΥΣ ΜΕΡΟΣ ΤΡΙΤΟ Πολίτη Όλγα Α.Μ. 4528 Εξάµηνο 8ο Υπεύθυνος Καθηγητής Λυκοθανάσης

Διαβάστε περισσότερα

Ασκήσεις για το µάθηµα «Ανάλυση Ι και Εφαρµογές» (ε) Κάθε συγκλίνουσα ακολουθία άρρητων αριθµών συγκλίνει σε άρρητο αριθµό.

Ασκήσεις για το µάθηµα «Ανάλυση Ι και Εφαρµογές» (ε) Κάθε συγκλίνουσα ακολουθία άρρητων αριθµών συγκλίνει σε άρρητο αριθµό. Ασκήσεις για το µάθηµα «Ανάλυση Ι και Εφαρµογές» Κεφάλαιο : Ακολουθίες πραγµατικών αριθµών Α Οµάδα Εξετάστε αν οι παρακάτω προτάσεις είναι αληθείς ή ψευδείς αιτιολογήστε πλήρως την απάντησή σας α Κάθε

Διαβάστε περισσότερα

Ανάλυση Δεδοµένων µε χρήση του Στατιστικού Πακέτου R

Ανάλυση Δεδοµένων µε χρήση του Στατιστικού Πακέτου R Ανάλυση Δεδοµένων µε χρήση του Στατιστικού Πακέτου R, Επίκουρος Καθηγητής, Τοµέας Μαθηµατικών, Σχολή Εφαρµοσµένων Μαθηµατικών και Φυσικών Επιστηµών, Εθνικό Μετσόβιο Πολυτεχνείο. Περιεχόµενα Εισαγωγή στη

Διαβάστε περισσότερα

ΑΠΑΝΤΗΣΕΙΣ - ΥΠΟ ΕΙΞΕΙΣ ΣΤΙΣ ΕΡΩΤΗΣΕΙΣ

ΑΠΑΝΤΗΣΕΙΣ - ΥΠΟ ΕΙΞΕΙΣ ΣΤΙΣ ΕΡΩΤΗΣΕΙΣ ΑΠΑΝΤΗΣΕΙΣ - ΥΠΟ ΕΙΞΕΙΣ ΣΤΙΣ ΕΡΩΤΗΣΕΙΣ 3 Κεφάλαιο ο: ΙΑΦΟΡΙΚΟΣ ΛΟΓΙΣΜΟΣ ο ΜΕΡΟΣ Απαντήσεις στις ερωτήσεις του τύπου Σωστό-Λάθος. Σ 6. Λ 8. Λ. Σ 7. Σ 9. Λ 3. Λ 8. Λ 3. Σ 4. Σ 9. Σ 3. α) Σ 5. Σ. Σ β) Σ 6.

Διαβάστε περισσότερα

Κεφάλαιο 7 Βασικά Θεωρήµατα του ιαφορικού Λογισµού

Κεφάλαιο 7 Βασικά Θεωρήµατα του ιαφορικού Λογισµού Σελίδα 1 από Κεφάλαιο 7 Βασικά Θεωρήµατα του ιαφορικού Λογισµού Στο κεφάλαιο αυτό θα ασχοληθούµε µε τα βασικά θεωρήµατα του διαφορικού λογισµού καθώς και µε προβλήµατα που µπορούν να επιλυθούν χρησιµοποιώντας

Διαβάστε περισσότερα

ΕΛΕΓΧΟΙ ΠΡΟΣΑΡΜΟΓΗΣ & ΥΠΟΘΕΣΕΩΝ

ΕΛΕΓΧΟΙ ΠΡΟΣΑΡΜΟΓΗΣ & ΥΠΟΘΕΣΕΩΝ ΕΛΕΓΧΟΙ ΠΡΟΣΑΡΜΟΓΗΣ & ΥΠΟΘΕΣΕΩΝ Μετά από την εκτίµηση των παραµέτρων ενός προσοµοιώµατος, πρέπει να ελέγχουµε την αλήθεια της υποθέσεως που κάναµε. Είναι ορθή η υπόθεση που κάναµε? Βεβαίως συνήθως υπάρχουν

Διαβάστε περισσότερα

Οι πράξεις που χρειάζονται για την επίλυση αυτών των προβληµάτων (αφού είναι απλές) µπορούν να τεθούν σε µια σειρά και πάρουν µια αλγοριθµική µορφή.

Οι πράξεις που χρειάζονται για την επίλυση αυτών των προβληµάτων (αφού είναι απλές) µπορούν να τεθούν σε µια σειρά και πάρουν µια αλγοριθµική µορφή. Η Αριθµητική Ανάλυση χρησιµοποιεί απλές αριθµητικές πράξεις για την επίλυση σύνθετων µαθηµατικών προβληµάτων. Τις περισσότερες φορές τα προβλήµατα αυτά είναι ή πολύ περίπλοκα ή δεν έχουν ακριβή αναλυτική

Διαβάστε περισσότερα

1.1.3 t. t = t2 - t1 1.1.4 x2 - x1. x = x2 x1 . . 1

1.1.3 t. t = t2 - t1 1.1.4  x2 - x1. x = x2 x1 . . 1 1 1 o Κεφάλαιο: Ευθύγραµµη Κίνηση Πώς θα µπορούσε να περιγραφεί η κίνηση ενός αγωνιστικού αυτοκινήτου; Πόσο γρήγορα κινείται η µπάλα που κλώτσησε ένας ποδοσφαιριστής; Απαντήσεις σε τέτοια ερωτήµατα δίνει

Διαβάστε περισσότερα

ΣΤΟΧΑΣΤΙΚΑ ΣΗΜΑΤΑ ΚΑΙ ΕΦΑΡΜΟΓΕΣ

ΣΤΟΧΑΣΤΙΚΑ ΣΗΜΑΤΑ ΚΑΙ ΕΦΑΡΜΟΓΕΣ ΣΤΟΧΑΣΤΙΚΑ ΣΗΜΑΤΑ ΚΑΙ ΕΦΑΡΜΟΓΕΣ Ακαδηµαϊκό Έτος 007-008 ιδάσκων: Ν. Παπανδρέου (Π.. 407/80) Πανεπιστήµιο Πατρών Τµήµα Μηχανικών Ηλεκτρονικών Υπολογιστών και Πληροφορικής 1η Εργαστηριακή Άσκηση Αναγνώριση

Διαβάστε περισσότερα

Νευρωνικά ίκτυα και Εξελικτικός. Σηµερινό Μάθηµα. επανάληψη Γενετικών Αλγορίθµων 1 η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές

Νευρωνικά ίκτυα και Εξελικτικός. Σηµερινό Μάθηµα. επανάληψη Γενετικών Αλγορίθµων 1 η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές Νευρωνικά ίκτυα και Εξελικτικός Προγραµµατισµός Σηµερινό Μάθηµα επανάληψη Γενετικών Αλγορίθµων η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές Κωδικοποίηση Αντικειµενική Συνάρτ Αρχικοποίηση Αξιολόγηση

Διαβάστε περισσότερα

Μεθοδολογίες παρεµβολής σε DTM.

Μεθοδολογίες παρεµβολής σε DTM. Μάθηµα : Αλγοριθµικές Βάσεις στη Γεωπληροφορική ιδάσκων : Συµεών Κατσουγιαννόπουλος Μεθοδολογίες παρεµβολής σε DTM.. Μέθοδοι παρεµβολής. Η παρεµβολή σε ψηφιακό µοντέλο εδάφους (DTM) είναι η διαδικασία

Διαβάστε περισσότερα

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων Εισηγητής: ρ Ηλίας Ζαφειρόπουλος Εισαγωγή Ιατρικά δεδοµένα: Συλλογή Οργάνωση Αξιοποίηση Data Mining ιαχείριση εδοµένων Εκπαίδευση

Διαβάστε περισσότερα

ΠΑΡΑΓΩΓΟΣ ΣΥΝΑΡΤΗΣΗ. Εφαπτοµένη ευθεία

ΠΑΡΑΓΩΓΟΣ ΣΥΝΑΡΤΗΣΗ. Εφαπτοµένη ευθεία ΜΑΘΗΜΑ 5.. ΠΑΡΑΓΩΓΙΣΙΜΕΣ ΣΥΝΑΡΤΗΣΕΙΣ ΠΑΡΑΓΩΓΟΣ ΣΥΝΑΡΤΗΣΗ Εφαπτοµένη ευθεία Παράγωγος βασικών συναρτήσεων ΚΑΝΟΝΕΣ ΠΑΡΑΓΩΓΙΣΗΣ Αθροίσµατος γινοµένου - πηλίκου Θεωρία Σχόλια Μέθοδοι Ασκήσεις ΘΕΩΡΙΑ. Εξίσωση

Διαβάστε περισσότερα

αx αx αx αx 2 αx = α e } 2 x x x dx καλείται η παραβολική συνάρτηση η οποία στο x

αx αx αx αx 2 αx = α e } 2 x x x dx καλείται η παραβολική συνάρτηση η οποία στο x A3. ΕΥΤΕΡΗ ΠΑΡΑΓΩΓΟΣ-ΚΥΡΤΟΤΗΤΑ. εύτερη παράγωγος.παραβολική προσέγγιση ή επέκταση 3.Κυρτή 4.Κοίλη 5.Ιδιότητες κυρτών/κοίλων συναρτήσεων 6.Σηµεία καµπής ΠΑΡΑΡΤΗΜΑ 7. εύτερη πλεγµένη παραγώγιση 8.Χαρακτηρισµός

Διαβάστε περισσότερα

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού Κινητά Δίκτυα Επικοινωνιών Συμπληρωματικό υλικό Προσαρμοστική Ισοστάθμιση Καναλιού Προσαρμοστικοί Ισοσταθμιστές Για να υπολογίσουμε τους συντελεστές του ισοσταθμιστή MMSE, απαιτείται να λύσουμε ένα γραμμικό

Διαβάστε περισσότερα

6. Στατιστικές μέθοδοι εκπαίδευσης

6. Στατιστικές μέθοδοι εκπαίδευσης 6. Στατιστικές μέθοδοι εκπαίδευσης Μία διαφορετική μέθοδος εκπαίδευσης των νευρωνικών δικτύων χρησιμοποιεί ιδέες από την Στατιστική Φυσική για να φέρει τελικά το ίδιο αποτέλεσμα όπως οι άλλες μέθοδοι,

Διαβάστε περισσότερα

1 Ορισµός ακολουθίας πραγµατικών αριθµών

1 Ορισµός ακολουθίας πραγµατικών αριθµών ΜΑΣ 02. Απειροστικός Λογισµός Ι Ορισµός ακολουθίας πραγµατικών αριθµών Ορισµός.. Ονοµάζουµε ακολουθία πραγµατικών αριθµών κάθε απεικόνιση του συνόλου N των ϕυσικών αριθµών, στο σύνολο R των πραγµατικών

Διαβάστε περισσότερα

Επαναληπτικές μέθοδοι

Επαναληπτικές μέθοδοι Επαναληπτικές μέθοδοι Η μέθοδος της διχοτόμησης και η μέθοδος Regula Fals που αναφέραμε αξιοποιούσαν το κριτήριο του Bolzano, πραγματοποιώντας διαδοχικές υποδιαιρέσεις του διαστήματος [α, b] στο οποίο,

Διαβάστε περισσότερα

Γραµµικός Προγραµµατισµός - Μέθοδος Simplex

Γραµµικός Προγραµµατισµός - Μέθοδος Simplex Γραµµικός Προγραµµατισµός - Μέθοδος Simplex Η πλέον γνωστή και περισσότερο χρησιµοποιηµένη µέθοδος για την επίλυση ενός γενικού προβλήµατος γραµµικού προγραµµατισµού, είναι η µέθοδος Simplex η οποία αναπτύχθηκε

Διαβάστε περισσότερα

Κανόνες παραγώγισης ( )

Κανόνες παραγώγισης ( ) 66 Κανόνες παραγώγισης Οι κανόνες παραγώγισης που ισχύουν για συναρτήσεις µιας µεταβλητής, ( παραγώγιση, αθροίσµατος, γινοµένου, πηλίκου και σύνθετων συναρτήσεων ) γενικεύονται και για συναρτήσεις πολλών

Διαβάστε περισσότερα

τη µέθοδο της µαθηµατικής επαγωγής για να αποδείξουµε τη Ϲητούµενη ισότητα.

τη µέθοδο της µαθηµατικής επαγωγής για να αποδείξουµε τη Ϲητούµενη ισότητα. Αριστοτελειο Πανεπιστηµιο Θεσσαλονικης Τµηµα Μαθηµατικων Εισαγωγή στην Αλγεβρα Τελική Εξέταση 15 Φεβρουαρίου 2017 1. (Οµάδα Α) Εστω η ακολουθία Fibonacci F 1 = 1, F 2 = 1 και F n = F n 1 + F n 2, για n

Διαβάστε περισσότερα

Μάθηµα 1. Κεφάλαιο 1o: Συστήµατα. γ R παριστάνει ευθεία και καλείται γραµµική εξίσωση µε δύο αγνώστους.

Μάθηµα 1. Κεφάλαιο 1o: Συστήµατα. γ R παριστάνει ευθεία και καλείται γραµµική εξίσωση µε δύο αγνώστους. Μάθηµα 1 Κεφάλαιο 1o: Συστήµατα Θεµατικές Ενότητες: A. Συστήµατα Γραµµικών Εξισώσεων B. Συστήµατα 3x3 Α. ΣΥΣΤΗΜΑΤΑ ΓΡΑΜΜΙΚΩΝ ΕΞΙΣΩΣΕΩΝ Ορισµοί Κάθε εξίσωση της µορφής α x+β =γ, µε α, β, γ R παριστάνει

Διαβάστε περισσότερα

< 1 για κάθε k N, τότε η σειρά a k συγκλίνει. +, τότε η η σειρά a k αποκλίνει.

< 1 για κάθε k N, τότε η σειρά a k συγκλίνει. +, τότε η η σειρά a k αποκλίνει. Ασκήσεις για το µάθηµα «Ανάλυση Ι και Εφαρµογές» Κεφάλαιο 3: Σειρές πραγµατικών αριθµών Α Οµάδα. Εστω ( ) µια ακολουθία πραγµατικών αριθµών. Εξετάστε αν οι παρακάτω προτάσεις είναι αληθείς ή ψευδείς (αιτιολογήστε

Διαβάστε περισσότερα

... ονοµάζεται ακολουθία µερικών αθροισµάτων. Το όριό της, καθώς το n τείνει στο άπειρο, n n n 1

... ονοµάζεται ακολουθία µερικών αθροισµάτων. Το όριό της, καθώς το n τείνει στο άπειρο, n n n 1 ΟΡΙΣΜΟΙ - ΓΕΝΙΚΕΣ ΕΝΝΟΙΕΣ Στην ενότητα αυτή παρουσιάζουµε τα βασικότερα στοιχεία που είναι απαραίτητα για την µελέτη των σειρών πραγµατικών αριθµών και των εφαρµογών τους Έτσι, δίνονται συστηµατικά οι

Διαβάστε περισσότερα

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Μάθηση και Γενίκευση. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων Μάθηση και Γενίκευση Το Πολυεπίπεδο Perceptron (MultiLayer Perceptron (MLP)) Έστω σύνολο εκπαίδευσης D={(x n,t n )}, n=1,,n. x n =(x n1,, x nd ) T, t n =(t n1,, t np ) T Θα πρέπει το MLP να έχει d νευρώνες

Διαβάστε περισσότερα

Μικροοικονοµική Θεωρία. Συνάρτηση και καµπύλη κόστους. Notes. Notes. Notes. Notes. Κώστας Ρουµανιάς. 22 Σεπτεµβρίου 2014

Μικροοικονοµική Θεωρία. Συνάρτηση και καµπύλη κόστους. Notes. Notes. Notes. Notes. Κώστας Ρουµανιάς. 22 Σεπτεµβρίου 2014 Μικροοικονοµική Θεωρία Κώστας Ρουµανιάς Ο.Π.Α. Τµήµα. Ε. Ο. Σ. 22 Σεπτεµβρίου 2014 Κώστας Ρουµανιάς (.Ε.Ο.Σ.) Μικροοικονοµική Θεωρία 22 Σεπτεµβρίου 2014 1 / 49 Συνάρτηση και καµπύλη κόστους Πολύ χρήσιµες

Διαβάστε περισσότερα

Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος

Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος Χιωτίδης Γεώργιος Τμήμα Λογιστικής και Χρηματοοικονομικής Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης

Διαβάστε περισσότερα

Εισαγωγή στον Προγραµµατισµό. Σύντοµες Σηµειώσεις. Γιώργος Μανής

Εισαγωγή στον Προγραµµατισµό. Σύντοµες Σηµειώσεις. Γιώργος Μανής Εισαγωγή στον Προγραµµατισµό Σύντοµες Σηµειώσεις Γιώργος Μανής Νοέµβριος 2012 Αλγόριθµοι και Λογικά ιαγράµµατα Αλγόριθµος λέγεται µία πεπερασµένη διαδικασία καλά ορισµένων ϐηµάτων µου ακολουθείται για

Διαβάστε περισσότερα

ΘΕΜΑ 2ο. Άσκηση εφαρµογής της µεθόδου Newton Raphson

ΘΕΜΑ 2ο. Άσκηση εφαρµογής της µεθόδου Newton Raphson ΘΕΜΑ 2ο Άσκηση εφαρµογής της µεθόδου Newton Raphson Θέµα 2: Η ακόλουθη αντίδραση πραγµατοποιείται σε έναν αντιδραστήρα αέριας φάσης: H 2 S+O 2 H 2 +SO 2 Όταν το σύστηµα φτάσει σε ισορροπία στους 600Κ και

Διαβάστε περισσότερα

Όρια συναρτήσεων. ε > υπάρχει ( ) { } = ± ορίζονται αναλόγως. Η διατύπωση αυτών των ορισµών αφήνεται ως άσκηση. x y = +. = και για κάθε (, ) ( 0,0)

Όρια συναρτήσεων. ε > υπάρχει ( ) { } = ± ορίζονται αναλόγως. Η διατύπωση αυτών των ορισµών αφήνεται ως άσκηση. x y = +. = και για κάθε (, ) ( 0,0) Όρια συναρτήσεων.5. Ορισµός. Έστω, f : Α συνάρτηση συσσώρευσης του Α και b σηµείο. Λέµε ότι η f έχει ως όριο το διάνυσµα b καθώς το τείνει προς το και συµβολίζουµε li = ή f b f b αν και µόνο αν, για κάθε

Διαβάστε περισσότερα

ΚΕΦΑΛΑΙΟ 18. 18 Μηχανική Μάθηση

ΚΕΦΑΛΑΙΟ 18. 18 Μηχανική Μάθηση ΚΕΦΑΛΑΙΟ 18 18 Μηχανική Μάθηση Ένα φυσικό ή τεχνητό σύστηµα επεξεργασίας πληροφορίας συµπεριλαµβανοµένων εκείνων µε δυνατότητες αντίληψης, µάθησης, συλλογισµού, λήψης απόφασης, επικοινωνίας και δράσης

Διαβάστε περισσότερα

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος. Τεχνητή Νοημοσύνη 17η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτής της διάλεξης βασίζονται: στο βιβλίο Artificia Inteigence A Modern Approach των S. Russe και

Διαβάστε περισσότερα

(CLR, κεφάλαιο 32) Στην ενότητα αυτή θα µελετηθούν τα εξής θέµατα: Παραστάσεις πολυωνύµων Πολυωνυµική Παρεµβολή ιακριτός Μετασχηµατισµός Fourier

(CLR, κεφάλαιο 32) Στην ενότητα αυτή θα µελετηθούν τα εξής θέµατα: Παραστάσεις πολυωνύµων Πολυωνυµική Παρεµβολή ιακριτός Μετασχηµατισµός Fourier Ταχύς Μετασχηµατισµός Fourier CLR, κεφάλαιο 3 Στην ενότητα αυτή θα µελετηθούν τα εξής θέµατα: Παραστάσεις πολυωνύµων Πολυωνυµική Παρεµβολή ιακριτός Μετασχηµατισµός Fourier Ταχύς Μετασχηµατισµός Fourier

Διαβάστε περισσότερα

f x = f a + Df a x a + R1 x, a, x U και από τον ορισµό της 1 h f a h f a h a h h a R h a i i j

f x = f a + Df a x a + R1 x, a, x U και από τον ορισµό της 1 h f a h f a h a h h a R h a i i j Το θεώρηµα Tor στις πολλές µεταβλητές Ο σκοπός αυτής της παραγράφου είναι η απόδειξη ενός θεωρήµατος τύπου Tor για συναρτήσεις πολλών µεταβλητών Το θεώρηµα για µια µεταβλητή θα είναι ειδική περίπτωση του

Διαβάστε περισσότερα