ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

51
ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ ΔΙΠΛΩΜΑΤΙΚΗ ΕΡΓΑΣΙΑ ΔΙΠΛΩΜΑΤΙΚΗ ΕΡΓΑΣΙΑ ΠΛΑΚΙΑΣ ΣΠΥΡΙΔΩΝ ΠΛΑΚΙΑΣ ΣΠΥΡΙΔΩΝ ΑΕΜ ΑΕΜ : : 3764 3764 ΕΠΙΒΛΕΨΗ ΕΠΙΒΛΕΨΗ : : ΙΩΑΝΝΗΣ ΘΕΟΧΑΡΗΣ ΙΩΑΝΝΗΣ ΘΕΟΧΑΡΗΣ ΑΝΑΠΛΗΡΩΤΗΣ ΚΑΘΗΓΗΤΗΣ ΑΝΑΠΛΗΡΩΤΗΣ ΚΑΘΗΓΗΤΗΣ

description

ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ. ΔΙΠΛΩΜΑΤΙΚΗ ΕΡΓΑΣΙΑ ΠΛΑΚΙΑΣ ΣΠΥΡΙΔΩΝ ΑΕΜ : 3764 ΕΠΙΒΛΕΨΗ : ΙΩΑΝΝΗΣ ΘΕΟΧΑΡΗΣ ΑΝΑΠΛΗΡΩΤΗΣ ΚΑΘΗΓΗΤΗΣ. - PowerPoint PPT Presentation

Transcript of ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Page 1: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

ΔΙΠΛΩΜΑΤΙΚΗ ΕΡΓΑΣΙΑ ΔΙΠΛΩΜΑΤΙΚΗ ΕΡΓΑΣΙΑ

ΠΛΑΚΙΑΣ ΣΠΥΡΙΔΩΝ ΠΛΑΚΙΑΣ ΣΠΥΡΙΔΩΝ ΑΕΜ ΑΕΜ :: 3764 3764

ΕΠΙΒΛΕΨΗ ΕΠΙΒΛΕΨΗ : : ΙΩΑΝΝΗΣ ΘΕΟΧΑΡΗΣΙΩΑΝΝΗΣ ΘΕΟΧΑΡΗΣΑΝΑΠΛΗΡΩΤΗΣ ΚΑΘΗΓΗΤΗΣΑΝΑΠΛΗΡΩΤΗΣ ΚΑΘΗΓΗΤΗΣ

Page 2: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

● Τόσο τα Τόσο τα νευρωνικά δίκτυανευρωνικά δίκτυα όσο και τα όσο και τα ασαφή συστήματαασαφή συστήματα περιέχουν περιέχουν την ικανότητα να διανέμουν τις δυσκολίες που παρουσιάζονται από την την ικανότητα να διανέμουν τις δυσκολίες που παρουσιάζονται από την ανακρίβεια, την αβεβαιότητα καθώς και το θόρυβο των φυσικών ανακρίβεια, την αβεβαιότητα καθώς και το θόρυβο των φυσικών συστημάτων αφού είναι δυναμικά και αυτοδιοργανούμενα ως προς την συστημάτων αφού είναι δυναμικά και αυτοδιοργανούμενα ως προς την φύση τους.φύση τους. Έχουν χρησιμοποιηθεί σε μεγάλο βαθμό για να βελτιώσουν Έχουν χρησιμοποιηθεί σε μεγάλο βαθμό για να βελτιώσουν την τεχνητή νοημοσύνη τωντην τεχνητή νοημοσύνη των μηχανώνμηχανών και να αυξήσουν την αξιοπιστία και να αυξήσουν την αξιοπιστία τους καθώς και σε άλλες εφαρμογές της σύγχρονης πραγματικότητας τους καθώς και σε άλλες εφαρμογές της σύγχρονης πραγματικότητας ώστε πλέον να θεωρείται αναγκαίος ο ώστε πλέον να θεωρείται αναγκαίος ο αποδοτικός συνδυασμός τουςαποδοτικός συνδυασμός τους. .

●● Μια επιθυμητή επομένως προσέγγιση είναι να συνδυάσουμε τα Μια επιθυμητή επομένως προσέγγιση είναι να συνδυάσουμε τα νευρωνικά δίκτυα και την ασαφή λογική σε ένα ενιαίο σύνολο ώστε να νευρωνικά δίκτυα και την ασαφή λογική σε ένα ενιαίο σύνολο ώστε να κερδίσουμε την υπολογιστική δύναμη των νευρωνικών δικτύων με την κερδίσουμε την υπολογιστική δύναμη των νευρωνικών δικτύων με την ταυτόχρονη υψηλού επιπέδου ασαφή λογική και κατανόηση. Έτσι ταυτόχρονη υψηλού επιπέδου ασαφή λογική και κατανόηση. Έτσι παρουσιάστηκε από τον παρουσιάστηκε από τον Lin Lin και και LeeLee(1991)(1991) ένα γενικότερο μοντέλο που ένα γενικότερο μοντέλο που συνδυάζει τις παραπάνω ιδιότητες,το συνδυάζει τις παραπάνω ιδιότητες,το ασαφές νευρωνικό δίκτυο (ασαφές νευρωνικό δίκτυο (fuzzy fuzzy neural netneural net, , FNNFNN).).

Page 3: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Ασαφές νευρωνικό δίκτυοΑσαφές νευρωνικό δίκτυο ((FNN)FNN)

Στρώμα 1

Στρώμα 2

Στρώμα 3

Στρώμα 4

Στρώμα 5

Page 4: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Το ασαφές νευρωνικό δίκτυο Το ασαφές νευρωνικό δίκτυο αποτελείται από 5 στρώματααποτελείται από 5 στρώματα

• Το πρώτο στρώμα λειτουργεί ως είσοδος των δεδομένων στο Το πρώτο στρώμα λειτουργεί ως είσοδος των δεδομένων στο δίκτυο.δίκτυο.

• Στο δεύτερο στρώμα γίνεται η διαδικασία ασαφοποίησης των Στο δεύτερο στρώμα γίνεται η διαδικασία ασαφοποίησης των εισόδων αφού κάθε κόμβος στο στρώμα αυτό αντιπροσωπεύει εισόδων αφού κάθε κόμβος στο στρώμα αυτό αντιπροσωπεύει την αντίστοιχη συνάρτηση συμμετοχής της συγκεκριμένης την αντίστοιχη συνάρτηση συμμετοχής της συγκεκριμένης εισόδου.εισόδου.

• Στο τρίτο στρώμα δημιουργούνται οι προϋποθέσεις των Στο τρίτο στρώμα δημιουργούνται οι προϋποθέσεις των ασαφών κανόνωνασαφών κανόνων

• Στο τέταρτο στρώμα αντιστοιχούν τα συμπεράσματα των Στο τέταρτο στρώμα αντιστοιχούν τα συμπεράσματα των ασαφών λογικών κανόνων αφού κάθε κόμβος στο στρώμα ασαφών λογικών κανόνων αφού κάθε κόμβος στο στρώμα αυτό αντιστοιχεί και σε μια συνάρτηση συμμετοχής εξόδου.Η αυτό αντιστοιχεί και σε μια συνάρτηση συμμετοχής εξόδου.Η μετάδοση από πάνω προς τα κατά χρησιμοποιείται κατά την μετάδοση από πάνω προς τα κατά χρησιμοποιείται κατά την εκπαίδευση για την αρχική εύρεση των παραμέτρων των εκπαίδευση για την αρχική εύρεση των παραμέτρων των συναρτήσεων συμμετοχής εξόδου.συναρτήσεων συμμετοχής εξόδου.

• Στο πέμπτο στρώμα γίνεται η διαδικασία απο-ασαφοποίησης Στο πέμπτο στρώμα γίνεται η διαδικασία απο-ασαφοποίησης έτσι ώστε οι έτσι ώστε οι crisp crisp τιμές να εξέρχονται στον πραγματικό τιμές να εξέρχονται στον πραγματικό κόσμο. Κατά την μετάδοση πάνω-κάτω εισάγονται τα κόσμο. Κατά την μετάδοση πάνω-κάτω εισάγονται τα δεδομένα εκπαίδευσης της εξόδου.δεδομένα εκπαίδευσης της εξόδου.

Page 5: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Μαθηματική ανάλυση του δικτύου Μαθηματική ανάλυση του δικτύου κόμβο κόμβοκόμβο κόμβο

• Στρώμα 1Στρώμα 1 : : Είσοδοι εισέρχονται στο δίκτυοΕίσοδοι εισέρχονται στο δίκτυο

• Στρώμα 2 Στρώμα 2 : : Ασαφοποίηση των εισόδων αφού κάθε Ασαφοποίηση των εισόδων αφού κάθε κόμβος αντιστοιχεί σε μια συνάρτηση συμμετοχής κόμβος αντιστοιχεί σε μια συνάρτηση συμμετοχής

• Στρώμα 3 Στρώμα 3 : : Οι συνδέσεις εδώ χρησιμοποιούνται για Οι συνδέσεις εδώ χρησιμοποιούνται για να εκπληρωθούν οι προϋποθέσεις των ασαφών να εκπληρωθούν οι προϋποθέσεις των ασαφών λογικών κανόνων. Επομένως οι κόμβοι λογικών κανόνων. Επομένως οι κόμβοι κανόνες(στρώμα 3)εκτελούν την ασαφή πράξη κανόνες(στρώμα 3)εκτελούν την ασαφή πράξη ANDAND

)1(iuf

fa

ij

iji muf

2)2( )(

fea

),...,,min( )3()3(2

)3(1 puuuf

fa

Page 6: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

• Στρώμα 4 Στρώμα 4 : : Κατά την μετάδοση από κάτω προς τα πάνω οι Κατά την μετάδοση από κάτω προς τα πάνω οι συνδέσεις σε αυτό το στρώμα εκπληρώνουν την ασαφή πράξησυνδέσεις σε αυτό το στρώμα εκπληρώνουν την ασαφή πράξη OROR ώστε να συνενωθούν σε ενιαίο σύνολο οι έξοδοι των κανόνων ώστε να συνενωθούν σε ενιαίο σύνολο οι έξοδοι των κανόνων που έχουν το ίδιο αποτέλεσμα και επομένως το ίδιο συμπέρασμα. που έχουν το ίδιο αποτέλεσμα και επομένως το ίδιο συμπέρασμα.

Κατά τη μετάδοση από πάνω προς τα κάτω οι συνδέσεις των Κατά τη μετάδοση από πάνω προς τα κάτω οι συνδέσεις των κόμβων του στρώματος 4 με τους κόμβους του στρώματος 5 είναι κόμβων του στρώματος 4 με τους κόμβους του στρώματος 5 είναι ακριβώς οι ίδιες όπως αυτές στο στρώμα 2 με το στρώμα 1. ακριβώς οι ίδιες όπως αυτές στο στρώμα 2 με το στρώμα 1.

• Στρώμα 5 Στρώμα 5 : K: Kατά τη διάδοση πάνω-κάτω τροφοδοτείται το δίκτυο ατά τη διάδοση πάνω-κάτω τροφοδοτείται το δίκτυο με τα απαραίτητα στοιχεία για εκπαίδευση με τα απαραίτητα στοιχεία για εκπαίδευση

i

iuf )4(),1min( fa

iyf fa Οι κόμβοι κατά την μετάδοση κάτω-πάνω και οι συνδέσεις τους με τους κόμβους του στρώματος 4 λειτουργούν σαν από-ασαφοποιητής και συνεπώς για να βρούμε την crisp τιμή της εξόδου χρησιμοποιούμε από-ασαφοποιητή κέντρου βάρους(COA).

j j

ijijijijij umuwf )5()5()5( )(

j ijiju

fa

)5(

Page 7: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Ο συνολικός αλγόριθμος εκπαίδευσης ασαφούς Ο συνολικός αλγόριθμος εκπαίδευσης ασαφούς νευρωνικού δικτύου(νευρωνικού δικτύου(FALCON)FALCON)

αποτελείται αποτελείται

από δυο ξεχωριστά στάδιααπό δυο ξεχωριστά στάδια

την μη επιβλεπόμενη εκμάθησητην μη επιβλεπόμενη εκμάθηση

((unsupervised learningunsupervised learning))

την επιβλεπόμενη βαθμωτή εκμάθησητην επιβλεπόμενη βαθμωτή εκμάθηση

(supervised gradient descent learning) (supervised gradient descent learning)

Page 8: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Μη επιβλεπόμενη εκμάθηση Μη επιβλεπόμενη εκμάθηση

( (unsupervised learningunsupervised learning))

α. α. Εύρεση παραμέτρων των συναρτήσεων Εύρεση παραμέτρων των συναρτήσεων

συμμετοχής εισόδων και εξόδων συμμετοχής εισόδων και εξόδων

του συστήματοςτου συστήματος

β. Εύρεση ασαφών λογικών κανόνωνβ. Εύρεση ασαφών λογικών κανόνων

Page 9: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Εύρεση παραμέτρων των συναρτήσεων Εύρεση παραμέτρων των συναρτήσεων συμμετοχής εισόδων και εξόδων του συστήματοςσυμμετοχής εισόδων και εξόδων του συστήματος

κατά κατά unsupervised learningunsupervised learning

Χρησιμοποιείται ο κανόνας αναγνώρισης προτύπων Χρησιμοποιείται ο κανόνας αναγνώρισης προτύπων KohonenKohonen ανεξάρτητα για κάθε είσοδο η έξοδο ανεξάρτητα για κάθε είσοδο η έξοδο

( ( KohonenKohonen’’s learning rule algorithm LVQs learning rule algorithm LVQ))και βρίσκονται τα κέντρα των συναρτήσεων συμμετοχήςκαι βρίσκονται τα κέντρα των συναρτήσεων συμμετοχής

Similarity matching: )()(min)()(

1tmtxtmtx i

kiclosest

Updating:

)()()()()1( tmtxtatmtm closestclosestclosest

),()1( tmtm ii όταν closesti mm

Page 10: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Τα πλάτη των συναρτήσεων συμμετοχήςΤα πλάτη των συναρτήσεων συμμετοχής βρίσκονται από την σχέσηβρίσκονται από την σχέση

όπου όπου rr είναι η παράμετρος επικάλυψης των ασαφών είναι η παράμετρος επικάλυψης των ασαφών συνόλωνσυνόλων

Παρατηρούμε πως μετά από αυτή την διαδικασία ο χώρος Παρατηρούμε πως μετά από αυτή την διαδικασία ο χώρος των μεταβλητών εισόδου και εξόδου έχει επικαλυφθεί των μεταβλητών εισόδου και εξόδου έχει επικαλυφθεί ικανοποιητικά όπου υπάρχουν δεδομένα εκπαίδευσηςικανοποιητικά όπου υπάρχουν δεδομένα εκπαίδευσης

r

mm closestii

Page 11: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Εύρεση ασαφών λογικών κανόνωνΕύρεση ασαφών λογικών κανόνων Χρησιμοποιώντας τον Χρησιμοποιώντας τον competitive learning algorithm competitive learning algorithm ανανεώνω ανανεώνω

τα βάρη των συνδέσεων στο στρώμα 4 με βάση την παρακάτω τα βάρη των συνδέσεων στο στρώμα 4 με βάση την παρακάτω σχέση σχέση

όπου τα βάρη αντιπροσωπεύουν την δύναμη των κανόνων στο όπου τα βάρη αντιπροσωπεύουν την δύναμη των κανόνων στο αποτέλεσμα της εξόδου.αποτέλεσμα της εξόδου.

Συνεπώς κανόνες με μικρά βάρη διαγράφονται.Συνεπώς κανόνες με μικρά βάρη διαγράφονται.

Επίσης πρέπει να αναφερθεί ότι σε κάθε κόμβο κανόνα αντιστοιχείΕπίσης πρέπει να αναφερθεί ότι σε κάθε κόμβο κανόνα αντιστοιχεί μόνο ένας κόμβος συμπέρασμα στο στρώμα 4.μόνο ένας κόμβος συμπέρασμα στο στρώμα 4.

)()( )3()4(ijijji owotw

Page 12: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Συμπερασματικά Συμπερασματικά μετά την ολοκλήρωση των παραπάνω μετά την ολοκλήρωση των παραπάνω διαδικασιών διαδικασιών το δίκτυο έχει χτιστείτο δίκτυο έχει χτιστεί αφού έχουν βρεθεί τόσο αφού έχουν βρεθεί τόσο οι οι παράμετροι των συναρτήσεων συμμετοχής εισόδου και εξόδουπαράμετροι των συναρτήσεων συμμετοχής εισόδου και εξόδου αλλά και αλλά και έχουν εντοπιστεί οι ασαφείς λογικοί κανόνες που έχουν εντοπιστεί οι ασαφείς λογικοί κανόνες που απορρέουν από τη φύση τη προβλήματοςαπορρέουν από τη φύση τη προβλήματος..

Στη συνεχεία ένας έλεγχος τηςΣτη συνεχεία ένας έλεγχος της συνεργασίαςσυνεργασίας (συνδυασμός) (συνδυασμός) των κανόνων χρησιμοποιείται ώστε να μειωθεί ο αριθμός των των κανόνων χρησιμοποιείται ώστε να μειωθεί ο αριθμός των κανόνων(κανόνων(rule rule combinationcombination) ώστε κατά την επιβλεπόμενη ) ώστε κατά την επιβλεπόμενη εκπαίδευση να προσαρμοστεί το δίκτυο καλύτερα στη φύση εκπαίδευση να προσαρμοστεί το δίκτυο καλύτερα στη φύση του προβλήματος. του προβλήματος.

Page 13: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

MMείωση κανόνων με βάση τον συνδυασμό είωση κανόνων με βάση τον συνδυασμό

τους(τους(Rule combinationRule combination)) Τα κριτήρια για να μειώσεις ένα σύνολο από κανόνες σε ένα Τα κριτήρια για να μειώσεις ένα σύνολο από κανόνες σε ένα

κανόνα είναι τα εξήςκανόνα είναι τα εξής : : α .Όλοι οι κανόνες έχουν το ίδιο συμπέρασμαα .Όλοι οι κανόνες έχουν το ίδιο συμπέρασμαβ . Κάποιες προϋποθέσεις είναι κοινές για όλο το σύνολο των κόμβων β . Κάποιες προϋποθέσεις είναι κοινές για όλο το σύνολο των κόμβων

κανόνων για τους οποίους ίσως υπάρξει αντικατάσταση από ένα κανόνων για τους οποίους ίσως υπάρξει αντικατάσταση από ένα κόμβο κανόνα.κόμβο κανόνα.

γ .Η ένωση του συνόλου των προϋποθέσεων αυτών των κόμβων γ .Η ένωση του συνόλου των προϋποθέσεων αυτών των κόμβων κανόνων αποτελεί ολόκληρο τον ασαφή χώρο από μερικές από τις κανόνων αποτελεί ολόκληρο τον ασαφή χώρο από μερικές από τις μεταβλητές εισόδου. μεταβλητές εισόδου.

Αν ένα σύνολο από κόμβους κανόνες εξασφαλίζει αυτά τα Αν ένα σύνολο από κόμβους κανόνες εξασφαλίζει αυτά τα κριτήρια κριτήρια τότε μόνο ένας κόμβος κανόνα με τις κοινές τότε μόνο ένας κόμβος κανόνα με τις κοινές προϋποθέσεις του συνόλου των κόμβων κανόνων αντικαθιστά προϋποθέσεις του συνόλου των κόμβων κανόνων αντικαθιστά το παραπάνω σύνολο από τους κόμβους κανόνες.το παραπάνω σύνολο από τους κόμβους κανόνες.

Page 14: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Επιβλεπόμενη εκμάθηση (Επιβλεπόμενη εκμάθηση (Supervised learningSupervised learning))

Προσαρμόζονται οι παράμετροι των συναρτήσεων συμμετοχής Προσαρμόζονται οι παράμετροι των συναρτήσεων συμμετοχής (εισόδου και εξόδου) ώστε να προσεγγιστεί το συγκεκριμένο κάθε (εισόδου και εξόδου) ώστε να προσεγγιστεί το συγκεκριμένο κάθε

φορά πρόβλημα πιο ευνοϊκά.φορά πρόβλημα πιο ευνοϊκά. Μια μορφή του αλγόριθμου Μια μορφή του αλγόριθμου backback--propagationpropagation χρησιμοποιείται κατά χρησιμοποιείται κατά

την επιβλεπομενη εκπαίδευση την επιβλεπομενη εκπαίδευση Κατά την διαδικασία αυτή ελαχιστοποιείται η συνάρτηση σφάλματος Κατά την διαδικασία αυτή ελαχιστοποιείται η συνάρτηση σφάλματος

η όποια είναι μια συνάρτηση της επιθυμητής τιμής της εξόδου και η όποια είναι μια συνάρτηση της επιθυμητής τιμής της εξόδου και της πραγματικής τιμής της εξόδου του συστήματος. της πραγματικής τιμής της εξόδου του συστήματος.

2)()(2

1tytyE d

Page 15: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Για να κατανοηθούν πλήρως οι ενέργειες που γίνονται κατά τη Για να κατανοηθούν πλήρως οι ενέργειες που γίνονται κατά τη φάση αυτή, δηλαδή η προσαρμογή των παραμέτρων των κόμβων φάση αυτή, δηλαδή η προσαρμογή των παραμέτρων των κόμβων δείχνουμε παρακάτω αναλυτικά τον υπολογισμό τους, για όλα τα δείχνουμε παρακάτω αναλυτικά τον υπολογισμό τους, για όλα τα

στρώματα, αρχίζοντας από την έξοδο του συστήματος και στρώματα, αρχίζοντας από την έξοδο του συστήματος και προχωρώντας προς τα κάτω.προχωρώντας προς τα κάτω.

● ● Στρώμα 5 : Οι προσαρμοσμένες τιμές στο στρώμα αυτό Στρώμα 5 : Οι προσαρμοσμένες τιμές στο στρώμα αυτό είναιείναι

και το σφάλμα που παρουσιάζεται σε αυτό το στρώμα είναικαι το σφάλμα που παρουσιάζεται σε αυτό το στρώμα είναι

i ii

iidii u

utytyntmtm

)5(

)5(

)()()()1(

2)5(

)5()5()5()5(

)()()()1(

i ii

ii iiii iiiidii

u

uumuumtytyntt

)()()5( tytyd

Page 16: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

● ● Στρώμα 4 : Κατά τη μετάδοση δεν υπάρχει Στρώμα 4 : Κατά τη μετάδοση δεν υπάρχει παράμετρος που θα πρέπει να προσαρμοστεί σε αυτό παράμετρος που θα πρέπει να προσαρμοστεί σε αυτό το στρώμα.Ο υπολογισμός του σφάλματος σε αυτό το στρώμα.Ο υπολογισμός του σφάλματος σε αυτό το στρώμα είναι το μόνο που μας απασχολείτο στρώμα είναι το μόνο που μας απασχολεί..

● ● Στρώμα 3 : Όπως στο στρώμα 4 έτσι και εδώ μόνο ο Στρώμα 3 : Όπως στο στρώμα 4 έτσι και εδώ μόνο ο υπολογισμός του σφάλματος του στρώματος μας υπολογισμός του σφάλματος του στρώματος μας ενδιαφέρειενδιαφέρει

όπου το άθροισμα αναφέρεται σε όλα τα όπου το άθροισμα αναφέρεται σε όλα τα

συμπεράσματα του αντίστοιχου κόμβου κανόνα συμπεράσματα του αντίστοιχου κόμβου κανόνα δηλαδή το σφάλμα ενός κόμβου κανόνα είναι το δηλαδή το σφάλμα ενός κόμβου κανόνα είναι το άθροισμα των αντίστοιχων κόμβων συμπερασμάτων άθροισμα των αντίστοιχων κόμβων συμπερασμάτων στο στρώμα 4. στο στρώμα 4.

.)()()(

2)5(

)5()5(

)4(

i ii

ii iiii iiiidi

u

umumtytyt

k ki

4)3(

Page 17: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

● ● Στρώμα 2 : Η ανανεωμένες (προσαρμοσμένες) τιμές είναιΣτρώμα 2 : Η ανανεωμένες (προσαρμοσμένες) τιμές είναι

όπου το σφάλμα σε αυτό το στρώμα δίνεται από τις σχέσεις όπου το σφάλμα σε αυτό το στρώμα δίνεται από τις σχέσεις

όπουόπου

εάνεάν είναι ο ελάχιστος των εισόδων του είναι ο ελάχιστος των εισόδων του k k κόμβου κανόνακόμβου κανόνα

αλλιώςαλλιώς

2

)2()2( 2

)()1(ij

ijifiiijij

muentmtm

3

2)2()2( 2

)()1(ij

ijifiiijij

muentt

k

ki q)2(

kq

)3(k

0

Page 18: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Μετά το Μετά το supervised learning supervised learning το δίκτυο είναι έτοιμο να το δίκτυο είναι έτοιμο να αποδώσει αποτελέσματα στον εξωτερικό κόσμο αφού έχουν αποδώσει αποτελέσματα στον εξωτερικό κόσμο αφού έχουν βρεθεί οι λογικοί κανόνες και έχουν προσαρμοστεί οι βρεθεί οι λογικοί κανόνες και έχουν προσαρμοστεί οι παράμετροι των συναρτήσεων συμμετοχήςπαράμετροι των συναρτήσεων συμμετοχής

Η ταχύτητα σύγκλισης του αλγόριθμου Η ταχύτητα σύγκλισης του αλγόριθμου backback--propagation propagation κατά την παραπάνω διαδικασία είναι μεγαλύτερη από αυτή κατά την παραπάνω διαδικασία είναι μεγαλύτερη από αυτή ενός σχήματος που χρησιμοποιεί τον απλό ενός σχήματος που χρησιμοποιεί τον απλό backback--propagationpropagation.Αυτό γίνεται γιατί η διαδικασία κατά τη πρώτη .Αυτό γίνεται γιατί η διαδικασία κατά τη πρώτη φάση(φάση(unsupervised learningunsupervised learning) έχει αποδώσει το μεγαλύτερο ) έχει αποδώσει το μεγαλύτερο τμήμα της όλης εκπαίδευσης.τμήμα της όλης εκπαίδευσης.

Page 19: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Διάγραμμα ροής αλγόριθμουΔιάγραμμα ροής αλγόριθμου

Training data

Find Centers and Widths of set functions with LVQ

Clustering methods

Find Fuzzy Rules with competitive learning

Rules Elimination

Rules Combination

Tune the set function with Error gradient descent

Page 20: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

ΠΑΡΑΔΕΙΓΜΑ ΠΡΟΣΟΜΟΙΩΣΗΣ ΜΕ ΤΗΝΠΑΡΑΔΕΙΓΜΑ ΠΡΟΣΟΜΟΙΩΣΗΣ ΜΕ ΤΗΝΒΟΗΘΕΙΑ ΑΣΑΦΟΥΣ ΝΕΥΡΩΝΙΚΟΥ ΔΙΚΤΥΟΥΒΟΗΘΕΙΑ ΑΣΑΦΟΥΣ ΝΕΥΡΩΝΙΚΟΥ ΔΙΚΤΥΟΥ

Αναφερόμαστε στον έλεγχο ενός οχήματος ώστε να μάθει Αναφερόμαστε στον έλεγχο ενός οχήματος ώστε να μάθει την τεχνική οδήγησης ενός έμπειρου οδηγού. την τεχνική οδήγησης ενός έμπειρου οδηγού.

Το όχημα έχει την ικανότητα να μαθαίνει έτσι ώστε να Το όχημα έχει την ικανότητα να μαθαίνει έτσι ώστε να μετακινείται αυτόματα μεταξύ δυο σημείων κατά μήκος μετακινείται αυτόματα μεταξύ δυο σημείων κατά μήκος συγκεκριμένων τροχιών. συγκεκριμένων τροχιών.

Δηλαδή δίνοντας στο σύστημα σαν δεδομένα εκπαίδευσης Δηλαδή δίνοντας στο σύστημα σαν δεδομένα εκπαίδευσης τις τροχιές κατά τις οποίες ένας έμπειρος οδηγός περνάει τις τροχιές κατά τις οποίες ένας έμπειρος οδηγός περνάει κάποια εμπόδια τότε μετά το χτίσιμο και την εκπαίδευση του κάποια εμπόδια τότε μετά το χτίσιμο και την εκπαίδευση του ασαφούς νευρωνικού δικτύου το όχημα υπό τον έλεγχο του ασαφούς νευρωνικού δικτύου το όχημα υπό τον έλεγχο του δικτύου μπορεί να περάσει ικανοποιητικά τα εμπόδια.δικτύου μπορεί να περάσει ικανοποιητικά τα εμπόδια.

Page 21: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Οι μεταβλητές εισόδου του συστήματος είναι οιΟι μεταβλητές εισόδου του συστήματος είναι οι Οι δυο πρώτες μεταβλητές μας Οι δυο πρώτες μεταβλητές μας δείχνουν την θέση του οχήματος στο δείχνουν την θέση του οχήματος στο δισδιάστατο επίπεδο ενώ η μεταβλητή δισδιάστατο επίπεδο ενώ η μεταβλητή αναφέρεται στην εφαπτόμενη της γωνίας του αναφέρεται στην εφαπτόμενη της γωνίας του οχήματος ως προς το θετικό ημιάξονα αποτελεί οχήματος ως προς το θετικό ημιάξονα αποτελεί δηλαδή συνάρτηση της εκάστοτε γωνίας του δηλαδή συνάρτηση της εκάστοτε γωνίας του οχήματος. Η έξοδος του δικτύου είναι η οχήματος. Η έξοδος του δικτύου είναι η εφαπτόμενη της επόμενης γωνίας του οχήματος.εφαπτόμενη της επόμενης γωνίας του οχήματος.

.,, 210 xxx10 , xx

2x

y

0x1x

2x

Page 22: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Τροχιές που αντιστοιχούν στα δεδομένα εκπαίδευσης

Στα παρακάτω σχήματα φαίνονται οι διάφορες συναρτήσεις συμμετοχής των εισόδων αλλά και της εξόδου του δικτύου,οι οποίοι αναπτύχθηκαν από τον LVQ algorithm,μετά το τέλος της μη επιβλεπόμενης εκπαίδευσης(unsupervised learning).

Page 23: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

συναρτήσεις συμμετοχής εισόδου x0 μετά το unsupervised learning

συναρτήσεις συμμετοχής εισόδου x1 μετά το unsupervised learning

συναρτήσεις συμμετοχής εισόδου x2 μετά το unsupervised learning

συναρτήσεις συμμετοχής εισόδου y μετά το unsupervised learning

Page 24: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Επίσης κατά τη διάρκεια της μη επιβλεπόμενης εκπαίδευσης και κατά το competitive learning βρίσκονται οι ασαφείς νευρωνικοί κανόνες και επιπρόσθετα υποδεικνύονται οι συνδέσεις των κρυφών κόμβων του δικτύου όπως αναφέρθηκε και στην ανάλυση που έγινε κατά την θεωρητική μελέτη του συστήματος.

Συνάμα παρατηρούμε ότι οι κανόνες εξηγούνται με βάση την ανθρώπινη εμπειρία και λογική κάτι που παρουσιάζεται αργότερα.

Παρακάτω φαίνεται ο πίνακας που μας παρουσιάζει την ασαφή βάση δεδομένων που δημιουργήθηκε από τον αλγόριθμο εκπαίδευσης.

Page 25: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

προυποθέσεις συμπέρασμα προυποθέσεις συμπέρασμα

κανόνας x0 x1 x2 y κανόνας x0 x1 x2 y

1 0 0 0 0 31 3 1 1 2

2 0 1 0 0 32 3 2 1 2

3 2 1 0 0 33 3 3 1 2

4 2 2 0 0 34 3 3 2 2

5 2 3 0 0 35 1 2 1 3

6 3 1 0 0 36 1 3 1 3

7 3 2 0 0 38 1 3 2 3

8 3 3 0 0 39 1 3 3 3

9 0 0 1 1 40 2 0 1 3

10 1 0 0 1 41 2 2 2 3

11 0 0 2 2 42 2 3 3 3

12 0 0 3 2 43 3 0 1 3

13 0 1 1 2 44 3 1 2 3

14 0 1 2 2 45 3 1 3 3

15 0 1 3 2 46 3 2 2 3

16 0 2 0 2 47 3 2 3 3

17 0 2 1 2 48 3 3 3 3

18 0 2 2 2 49 1 0 2 4

19 1 0 1 2 50 1 1 2 4

20 1 0 2 2 51 1 1 3 4

21 1 1 0 2 52 1 2 2 4

22 1 1 1 2 53 1 2 3 4

23 1 2 0 2 54 2 0 2 4

24 1 3 0 2 55 2 0 3 4

25 2 0 0 2 56 2 1 2 4

26 2 1 1 2 57 2 1 3 4

27 2 2 1 2 58 2 2 3 4

28 2 3 1 2 59 3 0 2 4

29 2 3 2 2 60 3 0 3 4

30 3 0 0 2          

Page 26: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Ασαφή λογικοί κανόνεςΑσαφή λογικοί κανόνες Έστω ο κανόνας 57 του πίνακα ο οποίος αναλυτικά παρουσιάζεται με τηνΈστω ο κανόνας 57 του πίνακα ο οποίος αναλυτικά παρουσιάζεται με την

σχέση σχέση

IF xIF x0 0 is is AND xAND x1 1 is is AND AND xx2 2 is is THEN y is THEN y is ..

20xT

21xT

32xT

4yT

Περιοχή 2

Τα βέλη μέσα στις περιοχές 1 και 2 δείχνουν τις προϋποθέσεις που αναφέρονται στις γωνίες του αντίστοιχου κανόνα ενώ αυτά που είναι εξωτερικά από την περιοχή την επόμενη γωνία του οχήματος δηλαδή το συμπέρασμα του κάθε κανόνα

Επιπρόσθετα η γραφική αναπαράσταση του κανόνα 1 του πίνακα φαίνεται στην περιοχή 2 του σχήματος

Περιοχή 1

Αυτό σημαίνει πως αν το όχημα βρίσκεται στη μαρκαρισμένη περιοχή 1 του Αυτό σημαίνει πως αν το όχημα βρίσκεται στη μαρκαρισμένη περιοχή 1 του παρακάτω σχήματος και η γωνία του οχήματος ως προς τον θετικό ημιάξονα παρακάτω σχήματος και η γωνία του οχήματος ως προς τον θετικό ημιάξονα είναι μεγάλη αλλά όχι τόσο όσο χρειάζεται τότε η επόμενη γωνία του οχήματος είναι μεγάλη αλλά όχι τόσο όσο χρειάζεται τότε η επόμενη γωνία του οχήματος θα πρέπει να είναι μεγαλύτερη. Παρατηρούμε πως αυτό είναι απόλυτα σωστό θα πρέπει να είναι μεγαλύτερη. Παρατηρούμε πως αυτό είναι απόλυτα σωστό αφού με την ίδια λογική θα αντιδρούσε και ένας έμπειρος οδηγός. αφού με την ίδια λογική θα αντιδρούσε και ένας έμπειρος οδηγός.

Page 27: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Επιβλεπόμενη εκμάθηση Επιβλεπόμενη εκμάθηση ((Supervised learning)Supervised learning)

Κατά τη δεύτερη φάση(supervised learning) του συνολικού αλγόριθμου εκπαίδευσης προσαρμόζονται οι παράμετροι των συναρτήσεων συμμετοχής με βάση την ελαχιστοποίηση του μέσου τετραγωνικού σφάλματος του δικτύου

Κατά τη διαδικασία supervised learning χρησιμοποιούμε ως παράμετρο εκπαίδευσης(learning rate)n=0.01 ενώ παρατηρούμε πως το μέσο τετραγωνικό σφάλμα πέφτει στη τιμή 0.01 περίπου.

Παρακάτω φαίνονται και οι συναρτήσεις συμμετοχής των μεταβλητών του προβλήματος μετά την διαδικασία Supervised Supervised learninglearning

Page 28: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

συναρτήσεις συμμετοχής εισόδου x0 μετά το supervised learning

συναρτήσεις συμμετοχής εισόδου x1 μετά το supervised learning

συναρτήσεις συμμετοχής εισόδου x2 μετά το supervised learning

συναρτήσεις συμμετοχής εξόδου y μετά το supervised learning

Page 29: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Παρατηρούμε πως κατά Παρατηρούμε πως κατά την επιβλεπόμενη την επιβλεπόμενη εκπαίδευση δεν εκπαίδευση δεν μεταβάλλονται ουσιαστικά μεταβάλλονται ουσιαστικά οι παράμετροι των οι παράμετροι των συναρτήσεων συμμετοχής συναρτήσεων συμμετοχής εισόδου σε αντίθεση με τους εισόδου σε αντίθεση με τους παραμέτρους των παραμέτρους των συναρτήσεων συμμετοχής συναρτήσεων συμμετοχής της εξόδου .Αυτό είναι της εξόδου .Αυτό είναι λογικό αφού οι παράμετροι λογικό αφού οι παράμετροι των συναρτήσεων των συναρτήσεων συμμετοχής των εισόδων συμμετοχής των εισόδων έχουν βρεθεί κατά την έχουν βρεθεί κατά την πρώτη φάση της πρώτη φάση της εκπαίδευσης και καλύπτουν εκπαίδευσης και καλύπτουν τον χώρο στον οποίο πρέπει τον χώρο στον οποίο πρέπει να κινηθεί το ασαφές να κινηθεί το ασαφές όχημα .Έτσι τυχόν μεταβολή όχημα .Έτσι τυχόν μεταβολή τους δεν συνεισφέρει στην τους δεν συνεισφέρει στην καλύτερη προσέγγιση του καλύτερη προσέγγιση του προβλήματος σε αντίθεση με προβλήματος σε αντίθεση με τις συναρτήσεις συμμετοχής τις συναρτήσεις συμμετοχής της εξόδου οι οποίες της εξόδου οι οποίες προσαρμόζονται ανάλογα προσαρμόζονται ανάλογα αφού μεταβάλλεται τόσο το αφού μεταβάλλεται τόσο το κέντρο αλλά και το πλάτος κέντρο αλλά και το πλάτος τους. τους.

γράφημα μέσου τετραγωνικού σφάλματος ανά εποχή

Page 30: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Αφού η εκπαίδευση του ασαφούς νευρωνικού δικτύου έχει ολοκληρωθεί και πλέον ο ασαφής ελεγκτής είναι έτοιμος,χρησιμοποιείται για να ελέγξει το ασαφές όχημα.Κρατάμε την ταχύτητα του οχήματος σταθερή και με τη βοήθεια των αισθητήριων που διαθέτει το όχημα γνωρίζουμε κάθε στιγμή τις τιμές των x0,x1,x2. Οι τιμές αυτές εισέρχονται στο δίκτυο το οποίο αποφασίζει για την επόμενη τιμή της εφαπτόμενης της γωνίας του οχήματος και επομένως και την επόμενη τιμή της γωνίας.Τα αποτελέσματα της προσομοίωσης παρουσιάζονται παραπάνω

προσομοίωση ασαφούς οχήματος

Page 31: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Αλγόριθμος εκπαίδευσης δομής και Αλγόριθμος εκπαίδευσης δομής και παραμέτρων ασαφούς νευρωνικού δικτύου παραμέτρων ασαφούς νευρωνικού δικτύου

σε πραγματικό χρόνοσε πραγματικό χρόνο

Παρέχουμε τα δεδομένα εκπαίδευσης ένα ένα στο δίκτυο οπότε ο αλγόριθμος καθορίζει τόσο την δομή όσο και τους παραμέτρους του δικτύου σε πραγματικό χρόνο. Η εκμάθηση της δομής του συστήματος παρέχει τις συνδέσεις μεταξύ των κόμβων του δικτύου και επομένως και τους ασαφείς λογικούς κανόνες καθώς και τον αριθμό των ασαφών διαιρέσεων των χωρών των μεταβλητών εξόδων ενώ η εκμάθηση παραμέτρων συντελεί στην εύρεση των παραμέτρων των συναρτήσεων συμμετοχής του συστήματος.

Εισαγωγή

Page 32: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Ο αλγόριθμος αυτός συνδυάζει το σχήμα back propagation για την εκμάθηση παραμέτρων και μια διαδικασία υπολογισμού του βαθμού ομοιότητας ασαφών συνόλων για την δημιουργία της δομής του δικτύου. Ο βαθμός ομοιότητας ασαφών συνόλων εξάγεται από μια γεωμετρική προσέγγιση του θέματος.

Ο αλγόριθμος back propagation χρησιμοποιείται και εδώ για να προσαρμοστούν οι παράμετροι των συναρτήσεων συμμετοχής με χρήση του υπολογισμού των σφαλμάτων εξόδου κάθε κόμβου σε όλα τα στρωματά.Επίσης χρησιμοποιείται ταυτόχρονα με την εύρεση του βαθμού ομοιότητας των ασαφών συνόλων αφού η εκπαίδευση δομής αλλά και η εκπαίδευση παράμερων του δικτύου γίνεται ταυτόχρονα.Δηλαδή ο αλγόριθμος εκπαίδευσης πραγματικού χρόνου που χρησιμοποιείται μπορεί να μάθει ταυτόχρονα τους ασαφείς λογικούς κανόνες,τους παραμέτρους των συναρτήσεων συμμετοχής και τον αριθμό των ασαφών διαιρέσεων του χώρου κάθε μεταβλητής εξόδου.

Page 33: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Μέτρηση ομοιότητας ασαφών συνόλωνΜέτρηση ομοιότητας ασαφών συνόλων Μια γενική μέθοδος μέτρησης της ομοιότητας των ασαφών Μια γενική μέθοδος μέτρησης της ομοιότητας των ασαφών

συνόλων αναπτύχθηκε η οποία βασίζεται σε μια γεωμετρική συνόλων αναπτύχθηκε η οποία βασίζεται σε μια γεωμετρική προσέγγιση τους .προσέγγιση τους .

Για να ελέγξουμε λοιπόν τον βαθμό ισότητας μεταξύ δυο ασαφών Για να ελέγξουμε λοιπόν τον βαθμό ισότητας μεταξύ δυο ασαφών συνόλων χρησιμοποιούμαι το μέτρο ομοιότητας συνόλων χρησιμοποιούμαι το μέτρο ομοιότητας

Επειδή η μέτρηση της ομοιότητας μεταξύ δυο ασαφών συνόλων Επειδή η μέτρηση της ομοιότητας μεταξύ δυο ασαφών συνόλων γίνεται σε πραγματικό χρόνο,κατά την πραγματοποίηση του γίνεται σε πραγματικό χρόνο,κατά την πραγματοποίηση του αλγόριθμου εκπαίδευσης,συμπεραίνουμε ότι ο χρόνος υπολογισμός αλγόριθμου εκπαίδευσης,συμπεραίνουμε ότι ο χρόνος υπολογισμός της συγκεκριμένης μετρήσεως είναι σημαντικός.Συνεπώς μια τεχνική της συγκεκριμένης μετρήσεως είναι σημαντικός.Συνεπώς μια τεχνική αναπτύχθηκε η οποία έχει εύκολο υπολογισμό και η οποία βασίζεται αναπτύχθηκε η οποία έχει εύκολο υπολογισμό και η οποία βασίζεται στην προσέγγιση και συνεπώς και αντικατάσταση των καμπαναειδών στην προσέγγιση και συνεπώς και αντικατάσταση των καμπαναειδών συναρτήσεων συμμετοχής από τις αντίστοιχες τριγωνικές .συναρτήσεων συμμετοχής από τις αντίστοιχες τριγωνικές .

,

Page 34: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Με βάση αυτή τη τεχνική ισχύειΜε βάση αυτή τη τεχνική ισχύει::

ΥποθέτονταςΥποθέτοντας ,,μετά από το τέλος των μετά από το τέλος των πράξεων υπολογισμού πράξεων υπολογισμού καταλήγουμε στις καταλήγουμε στις σχέσειςσχέσεις

● ● όταν όταν τότε τότε

οπού οπού

Επομένως Επομένως

21 mm

21

12

21122

21

21122

2

1

2

1

mmhmmh

,2

1

21

21122

mmh

.,0max)( xxh

21

,

Page 35: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

● ● όταν ισχύει , είναιόταν ισχύει , είναι

και και

21

4

2,

2

12

mm

2

,

Page 36: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Αρχικοποίηση του συστήματος πριν τον αλγόριθμο εκπαίδευσηςΑρχικοποίηση του συστήματος πριν τον αλγόριθμο εκπαίδευσης Για να χρησιμοποιηθεί ο αλγόριθμος εκπαίδευσης πρέπει μια αρχική μορφή του δικτύου να χτιστεί από το εξωτερικό περιβάλλον.

Ο επιθυμητός αριθμός των ασαφών διαιρέσεων της κάθε εσόδου πρέπει να αποφασιστεί από το εξωτερικό χρηστή όπως επίσης και ο αρχικός αριθμός των ασαφών διαιρέσεων της κάθε εξόδου(μετά αυξάνονται αφού εισέρχονται νέοι κόμβοι συναρτήσεων συμμετοχής εξόδου).

Συνάμα οι χώροι των εισόδων και εξόδων του προβλήματος πρέπει να επικαλυφθούν πλήρως από τις αντίστοιχες συναρτήσεις συμμετοχής αρχικά αφού κατά την εκπαίδευση θα προσαρμοστούν οι παράμετροι τους ανάλογα με την φύση του προβλήματος.

Επίσης κάθε κόμβος κανόνας στο στρώμα 3 ενεργοποιεί μόνο ένα κόμβο συμπερασμάτων στο στρώμα 4 αφού κάθε ασαφής λογικός κανόνας του συγκεκριμένου σχήματος έχει μόνο ένα συμπέρασμα.Αρχικά οι συνδέσεις μεταξύ των κόμβων στο στρώμα 3 και 4 γίνονται η τυχαία η αποφασίζονται από ένα ειδικό από το εξωτερικό περιβάλλον.

Page 37: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Αλγόριθμος εκπαίδευσης ασαφούς νευρωνικού δικτύου Αλγόριθμος εκπαίδευσης ασαφούς νευρωνικού δικτύου

σε πραγματικό χρόνοσε πραγματικό χρόνο

Ο σκοπός κατά την διαδικασία της εκπαίδευσης του ασαφούς νευρωνικού δικτύου είναι η ελαχιστοποίηση της συνάρτησης σφάλματος .)()(

2

1 2tytyE d

Για κάθε ζευγάρι τιμών εισόδου και εξόδου εκπαίδευσης,αρχίζοντας από τους κόμβους των πρώτων στρωμάτων,μια προς τα μπροστά μετάδοση γίνεται ώστε να υπολογιστούν οι τιμές εισόδων και εξόδων όλων των κόμβων σε όλα τα στρώματα του δικτύου.

Έπειτα για το αντίστοιχο ζευγάρι τιμών εισόδου και εξόδου εκπαίδευσης ένα προς τα πίσω πέρασμα του δικτύου γίνεται ώστε να υπολογιστεί για όλους τους κόμβους των κρυμμένων στρωμάτων η παράσταση της συνάρτησης σφάλματος και οι προσαρμοσμένες τιμές των συναρτήσεων συμμετοχής.

Page 38: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Για να δείξουμε καλύτερα το σχήμα εκπαίδευσης,θα υπολογίσουμε τις αντίστοιχες παραστάσεις αναλυτικά,κόμβο ανά κόμβο,αρχίζοντας από τα στρώματα εξόδου και ακολουθώντας την ροή προς τα κάτω

● Στρώμα 5 : Η αναμενόμενη( update ) τιμή του κέντρου και του πλάτους της συνάρτησης συμμετοχής που αντιστοιχεί στην έξοδο του δικτύου είναι

,)()()()()()1(

iii

iidiiii u

utytyntmtmtmtm

.)()()()1( 2

iii

ii

iiii

iiiid

i

u

uumuum

tytyntt

Σε αυτό ακριβώς το σημείο(για το ζευγάρι τιμών εισόδου και εξόδου ) αποφασίζουμε αν θα αλλάξει η δομή του δικτύου με την διαδικασία ομοιότητας των ασαφών συνόλων.

Page 39: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Εκπαίδευση δομής ασαφούς νευρωνικού δικτύου :

1. Από το σύνολο των ήδη υπάρχουσων συναρτήσεων συμμετοχής που καλύπτουν τον χώρο της εξόδου θέλουμε να βρούμε ποιο ακριβώς είναι η πιο όμοια με την update συνάρτηση συμμετοχής εξόδου που βρήκαμε χρησιμοποιώντας τη μέθοδο μέτρησης βαθμού ομοιότητας ασαφών συνόλων.2. Εφόσον βρούμε τη πιο <<κοντινή>>(closest) συνάρτηση συμμετοχής της εξόδου με την update συνάρτηση συμμετοχής που υπολογίσαμε,συγκρίνουμε τον βαθμό ομοιότητας τους με την τιμή μιας φθίνουσας συνάρτησης α(k) όπου k ο αριθμός του δεδομένου εκπαίδευσης που εισέρχεται στο δίκτυο.

Page 40: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

• 3. Αν είναι μικρότερος ο βαθμός ομοιότητας από την τιμή α(k) τότε προσθέτουμε νέο κόμβο στο στρώμα 4 ώστε να επικαλυφθεί καλύτερα ο χώρος εξόδου και αλλάζουμε τα συμπεράσματα των ενεργών κανόνων προς αυτόν τον κόμβο συμπέρασμα.

• 4. Αλλιώς απλώς αλλάζουμε τα συμπεράσματα των κανόνων, που έχουν βάρος πάνω από ένα όριο που ορίζεται από το χρηστή,(ενεργοί κανόνες) και ορίζουμε ως συμπεράσματα των κανόνων αυτών τους κόμβους οι οποίοι είναι οι πιο κοντινοί στην update συνάρτηση συμμετοχής δηλαδή τον closest κόμβο.

Page 41: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Όλα τα παραπάνω είναι άκρως λογικά αφού το επιθυμητό συμπεράσματα του κάθε κόμβου κανόνα είναι η update συνάρτηση συμμετοχής που προκύπτει από την διαδικασία back-propagation. Απλώς ελέγχεται ο βαθμός ομοιότητας του update ασαφούς συνόλου με τα ήδη υπάρχουσα σύνολα και αν είναι μικρός (συνήθως στα πρώτα σταδία της εκπαίδευσης ) εισάγεται νέος κόμβος στο στρώμα 4 ,αλλιώς, αλλάζουν μόνο οι συνδέσεις των κανόνων των οποίων τα βάρη είναι μεγαλύτερα από ένα όριο που θέτεται από το χρήστη αφού μόνο αυτοί είναι ενεργοί κανόνες για το συγκεκριμένο ζευγάρι τιμών εισόδου και εξόδου.

Page 42: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

5. Μετά το πέρας της διαδικασίας που αναφέρθηκε παραπάνω η μορφή του δικτύου αλλάζει δυναμικά.Το γεγονός αυτό όμως μας επιβάλλει να ελέγξουμε εάν έγινε ανανέωση της δομής του δικτύου(αν προστέθηκε νέος κόμβος στο στρώμα 4 ή εάν άλλαξαν οι συνδέσεις μεταξύ των κόμβων κανόνων και των κόμβων συμπερασμάτων) και εφόσον έγινε να αρχικοποιήσουμε τον αλγόριθμο εκπαίδευσης για το συγκεκριμένο ζευγάρι εισόδων και εξόδων εκμάθυνσης με την ανανεωμένη δομή του ασαφούς νευρωνικού δικτύου. Δηλαδή να βρούμε τις νέες τιμές εισόδου και εξόδου των κόμβων του στρώματος 4 και την νέα έξοδο του δικτύου και έπειτα να επαναλάβουμε τον αλγόριθμο δομής όσο και παραμέτρων που παρουσιάστηκε παραπάνω μέχρι το παρόν σημείο για το συγκεκριμένο ζευγάρι δεδομένων εκπαίδευσης εισόδου και εξόδου.

Page 43: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Στα μετέπειτα στρώματα η εκπαίδευση γίνεται ακριβώς όπως και κατά τον of-line αλγόριθμο (κατά την διαδικασία supervised learning) και δεν αναφέρεται εδώ αφού αναλύθηκε προηγουμένως. Αφού τα συμπεράσματα των κανόνων έχουν βρεθεί και το ασαφές νευρωνικό δίκτυο έχει χτιστεί ένας έλεγχος των συνδυασμός των κανόνων γίνεται με πιθανή μείωση τους(rule combination). Μετά το τέλος της εκπαίδευσης δομής και παραμέτρων σε πραγματικό χρόνο και εφόσον τα δεδομένα εκπαίδευσης είναι διαθέσιμα(έχουν αποθηκευτεί κατά την εκπαίδευση και όπως εισέρχονται στο σύστημα) τότε μερικές φορές και για την καλύτερη προσέγγιση του προβλήματος γίνεται μια διαδικασία supervised learning(αναλύθηκε αναλυτικά στο προηγούμενο κεφαλαίο) και το σφάλμα εξόδου παρατηρούμε πως πέφτει για λίγο ακόμα.

Page 44: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Initialization

Input Traing Data

Structurelearning

AddNode?

Add new nodes

Change fuzzy if-then Rules

Parameter adjustment

Done?

Rules combination

No

Yes

NoYes

Yes

No

Διάγραμμα ροής αλγόριθμου εκπαίδευσης ασαφούς νευρωνικού δικτύου on-line

Page 45: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

ΠΑΡΑΔΕΙΓΜΑΤΑ ΠΡΟΣΟΜΟΙΩΣΗΣ ΜΕ ΤΗΝ ΧΡΗΣΗ ΠΑΡΑΔΕΙΓΜΑΤΑ ΠΡΟΣΟΜΟΙΩΣΗΣ ΜΕ ΤΗΝ ΧΡΗΣΗ ΑΣΑΦΟΥΣ ΝΕΥΡΩΝΙΚΟΥ ΔΙΚΤΥΟΥ ΕΚΠΑΙΔΕΥΜΕΝΟ ΣΕ ΑΣΑΦΟΥΣ ΝΕΥΡΩΝΙΚΟΥ ΔΙΚΤΥΟΥ ΕΚΠΑΙΔΕΥΜΕΝΟ ΣΕ

ΠΡΑΓΜΑΤΙΚΟ ΧΡΟΝΟΠΡΑΓΜΑΤΙΚΟ ΧΡΟΝΟ

Το ασαφές νευρωνικό δίκτυο εκπαιδεύεται σε πραγματικό χρόνο για να προσομοιώσει τον έλεγχο ενός ασαφή οχήματος το οποίο επινοήθηκε από το Sugeno και το οποίο μελετήθηκε προηγουμένως.. Στο παράδειγμα που ακολουθεί θεωρούμε ότι χωρίσαμε τον χώρο των μεταβλητών εισόδου σε 6 διαιρέσεις το καθένα ενώ συνάμα θέτουμε ως αρχική τιμή του αριθμού διαίρεσης του χώρου της εξόδου ως 3. Αργότερα θα δούμε πως το σύστημα μεταβάλλεται δυναμικά και αλλάζει τον αριθμό των κόμβων στο στρώμα 4.Επισης,αρχικα,θεωρουμε τις συναρτήσεις συμμετοχής εισόδου και εξόδου όμοιες και τέτοιες ώστε να καλύπτουν τον χώρο των αντιστοιχών μεταβλητών αποτελεσματικά και χωρίς κενά.Οι αρχικές συναρτήσεις συμμετοχής φαίνονται στα παρακάτω σχήματα.

Page 46: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

συναρτήσεις συμμετοχής εισόδου χ0 αρχικά πριν την εκπαίδευση

συναρτήσεις συμμετοχής εισόδου χ1 αρχικά πριν την εκπαίδευση

συναρτήσεις συμμετοχής εισόδου χ2 αρχικά πριν την εκπαίδευση

συναρτήσεις συμμετοχής εξόδου y αρχικά πριν την εκπαίδευση

Page 47: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Επίσης αρχικά οι συνδέσεις μεταξύ των κόμβων κανόνων στο στρώμα 3 και των κόμβων συμπερασμάτων στο στρώμα 4 γίνονται τυχαία Κατά την διαδικασία αυτήν χρησιμοποιούμε ως μέτρο εκπαίδευσης (learning rate) n=0.15 ενώ ο αριθμός των εποχών για το κάθε ζευγάρι τιμών εκπαίδευσης θεωρείται 3.Επίσης το όριο της δύναμης ενεργοποίησης β είναι 0.1 ενώ η συνάρτηση a(k) ,η οποία αποτελεί μια γνησίως αύξουσα συνάρτηση γεγονός που είναι λογικό αφού στα πρώτα στάδια της εκπαίδευσης παρατηρούνται χαμηλοί βαθμοί ομοιότητας και το σύστημα αντιδράει προσθέτοντας νέους κόμβους στο στρώμα 4 φαίνεται παρακάτω.

γραφική παράσταση συνάρτησης a(k)

αριθμός κόμβων στο στρώμα 4 κατά την εισροή δεδομένων εκπαίδευσης στο δίκτυο

Page 48: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Μετά το τέλος της εκπαίδευσης του ασαφούς νευρωνικού δικτύου παρατηρούμε πως έχουν προστεθεί άλλοι 9 κόμβοι στο στρώμα 4 δηλαδή ο αριθμός τους είναι 12

συναρτήσεις συμμετοχής εισόδου x0 μετά την εκπαίδευση on-line

συναρτήσεις συμμετοχής εισόδου x1 μετά την εκπαίδευση on-line

συναρτήσεις συμμετοχής εισόδου x2 μετά την εκπαίδευση on-line

συναρτήσεις συμμετοχής εξόδου y μετά την εκπαίδευση on-line

Page 49: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Επίσης παρατηρούμε πως οι κανόνες Επίσης παρατηρούμε πως οι κανόνες παρουσιάζουν την ίδια λογική και παρουσιάζουν την ίδια λογική και

κατανόηση με βάση την ανθρώπινη εμπειρία κατανόηση με βάση την ανθρώπινη εμπειρία όπως και κατά την προηγούμενη μέθοδο.όπως και κατά την προηγούμενη μέθοδο.

αποτέλεσμα προσομοίωσης ασαφούς νευρωνικού δικτύου εκπαιδευμένο on-line

Page 50: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

Μετά το τέλος της εκπαίδευσης του ασαφούς νευρωνικού δικτύου σε πραγματικό χρόνο,όπως έχουμε αναφέρει,για να μειωθεί λίγο ακόμα η συνάρτηση σφάλματος και να προσεγγιστεί καλύτερα το πρόβλημα,και εφόσον τα δεδομένα εκπαίδευσης είναι διαθέσιμα μπορεί να γίνει ακόμα μια επιπλέον προσαρμογή των παραμέτρων των συναρτήσεων συμμετοχής της κάθε εισόδου αλλά και της εξόδου χρησιμοποιώντας τον αλγόριθμο supervised learning .Εδώ χρησιμοποιήσαμε τον αλγόριθμο αυτόν με βαθμό εκπαίδευσης (parameter learning) n=0.01 και παρατηρούμε πως το μέσο τετραγωνικό σφάλμα πέφτει λίγο ακόμα.

μέσο τετραγωνικό σφάλμα ανά εποχή κατά τον αλγόριθμο supervised

learning μετά τον αλγόριθμο on-line

Page 51: ΑΣΑΦΗ ΝΕΥΡΩΝΙΚΑ ΑΥΤΟΔΙΟΡΓΑΝΟΜΕΝΑ ΔΙΚΤΥΑ

αποτέλεσμα προσομοίωσης όταν χρησιμοποιείται στο τέλος supervised learning

Από τα αποτελέσματα της προσομοίωσης συμπεραίνουμε ότι καλύτερα αποτελέσματα παίρνουμε κατά τον συνδυασμό των δυο μεθόδων αφού έτσι συνδυάζεται η δυναμική εκπαίδευση και αλλαγή της δομής του ασαφούς νευρωνικού δικτύου σε πραγματικό χρόνο με την υπολογιστική δύναμη του supervised learning(καλύτερη προσαρμογή των παραμέτρων του συστήματος).