METODY KRYTERIA HEURYSTYCZNE wykład 4 - IMIO ME3 wyklad 4 do druku.pdf · 2014. 6. 3. · •...

13
www.kwmimkm.polsl.pl METODY ETODY H EURYSTYCZNE EURYSTYCZNE wyk wykł ad ad 4 www.kwmimkm.polsl.pl 2 2 KRYTERIA KRYTERIA ZATRZYMANIA AE ZATRZYMANIA AE www.kwmimkm.polsl.pl 3 t Φ KRYTERIUM MAKSYMALNEGO KOSZTU KRYTERIUM MAKSYMALNEGO KOSZTU Algorytm ko Algorytm kończy dzia czy dział anie, je anie, jeśli koszt algorytmu li koszt algorytmu przekroczy za przekroczy założon oną warto wartość ść maksymaln maksymalną K max max . Cz Często przyj sto przyjęta odmiana ta odmiana – przyj przyjęcie pewnej cie pewnej maksymalnej dopuszczalnej liczby pokole maksymalnej dopuszczalnej liczby pokoleń algorytmu. algorytmu. t max www.kwmimkm.polsl.pl 4 KRYTERIUM ZADOWALAJ KRYTERIUM ZADOWALAJĄCEGO POZIO CEGO POZIO- MU FUNKCJI PRZYSTOSOWANIA MU FUNKCJI PRZYSTOSOWANIA Zatrzymanie dzia Zatrzymanie dział ania gdy AE znajdzie rozwi ania gdy AE znajdzie rozwiązanie o zanie o warto wartości funkcji przystosowania okre ci funkcji przystosowania określonej przez lonej przez użytkownika jako zadowalaj ytkownika jako zadowalająca ca Φ s . t Φ s Φ Zwykle nie jest Zwykle nie jest ł atwo (bez atwo (bez dostatecznie dobrej dostatecznie dobrej znajo znajo- mo mości ci funkcji funkcji przystosowa przystosowa- nia nia) ) okre określi lić warto wartość ść zadowalaj zadowalającą. . AE mo AE może dzia e działać dowolnie dowolnie dł ugo ugo (nale (należy dodatkowo y dodatkowo okre określi lić maksymalny koszt maksymalny koszt znalezienia rozwi znalezienia rozwiązania). zania). www.kwmimkm.polsl.pl 5 KRYTERIUM MIN. SZYBKO KRYTERIUM MIN. SZYBKOŚCI POPRAWY CI POPRAWY Algorytm jest zatrzymywany, je Algorytm jest zatrzymywany, jeśli w kolejnych li w kolejnych τ oblicze oblicze- niach niach warto wartości funkcji przystosowania nie uda si ci funkcji przystosowania nie uda się poprawi poprawić wyniku o wi wyniku o więcej ni cej niż ε. . Cz Często sto ε = 0 = 0 - algorytm zatrzymywany, je algorytm zatrzymywany, jeśli nie uda si li nie uda się uzyska uzyskać lepszego rozwi lepszego rozwiązania w kolejnych zania w kolejnych τ pokoleniach. pokoleniach. t Φ τ ε min. szybkość poprawy www.kwmimkm.polsl.pl 6 SZTUCZNE SZTUCZNE SIECI SIECI NEURONOWE NEURONOWE

Transcript of METODY KRYTERIA HEURYSTYCZNE wykład 4 - IMIO ME3 wyklad 4 do druku.pdf · 2014. 6. 3. · •...

Page 1: METODY KRYTERIA HEURYSTYCZNE wykład 4 - IMIO ME3 wyklad 4 do druku.pdf · 2014. 6. 3. · • Donald Olding Hebb (1949) - zasada uczenia się Hebba (Hebbian learning) dla sztucznych

www.kwmimkm.polsl.pl

1

MMETODYETODYHHEURYSTYCZNEEURYSTYCZNE

wykwykłład ad 44

www.kwmimkm.polsl.pl

222

KRYTERIA KRYTERIA ZATRZYMANIA AEZATRZYMANIA AE

www.kwmimkm.polsl.pl

3

t

Φ

KRYTERIUM MAKSYMALNEGO KOSZTU KRYTERIUM MAKSYMALNEGO KOSZTU

•• Algorytm koAlgorytm końńczy dziaczy działłanie, jeanie, jeśśli koszt algorytmu li koszt algorytmu przekroczy zaprzekroczy załłoożżononąą wartowartośćść maksymalnmaksymalnąą KKmaxmax..

•• CzCzęęsto przyjsto przyjęęta odmiana ta odmiana –– przyjprzyjęęcie pewnej cie pewnej maksymalnej dopuszczalnej liczby pokolemaksymalnej dopuszczalnej liczby pokoleńń algorytmu.algorytmu.

tmax

www.kwmimkm.polsl.pl

4

KRYTERIUM ZADOWALAJKRYTERIUM ZADOWALAJĄĄCEGO POZIOCEGO POZIO--MU FUNKCJI PRZYSTOSOWANIA MU FUNKCJI PRZYSTOSOWANIA

Zatrzymanie dziaZatrzymanie działłania gdy AE znajdzie rozwiania gdy AE znajdzie rozwiąązanie o zanie o wartowartośści funkcji przystosowania okreci funkcji przystosowania okreśślonej przez lonej przez uużżytkownika jako zadowalajytkownika jako zadowalająąca ca ΦΦss..

t

Φ

sΦZwykle nie jest Zwykle nie jest łłatwo (bez atwo (bez dostatecznie dobrej dostatecznie dobrej znajoznajo--momośścici funkcji funkcji przystosowaprzystosowa--niania) ) okreokreśślilićć wartowartośćśćzadowalajzadowalająąccąą. .

AE moAE możże dziae działłaaćć dowolnie dowolnie ddłługougo (nale(należży dodatkowo y dodatkowo okreokreśślilićć maksymalny koszt maksymalny koszt znalezienia rozwiznalezienia rozwiąązania).zania).

www.kwmimkm.polsl.pl

5

KRYTERIUM MIN. SZYBKOKRYTERIUM MIN. SZYBKOŚŚCI POPRAWYCI POPRAWY

Algorytm jest zatrzymywany, jeAlgorytm jest zatrzymywany, jeśśli w kolejnych li w kolejnych ττ obliczeoblicze--niachniach wartowartośści funkcji przystosowania nie uda sici funkcji przystosowania nie uda sięępoprawipoprawićć wyniku o wiwyniku o więęcej nicej niżż εε. .

CzCzęęsto sto εε = 0 = 0 -- algorytm zatrzymywany, jealgorytm zatrzymywany, jeśśli nie uda sili nie uda sięęuzyskauzyskaćć lepszego rozwilepszego rozwiąązania w kolejnychzania w kolejnych ττ pokoleniach.pokoleniach.

t

Φ

τ

ε

min. szybkość poprawy

www.kwmimkm.polsl.pl

6

SZTUCZNESZTUCZNESIECI SIECI

NEURONOWENEURONOWE

Page 2: METODY KRYTERIA HEURYSTYCZNE wykład 4 - IMIO ME3 wyklad 4 do druku.pdf · 2014. 6. 3. · • Donald Olding Hebb (1949) - zasada uczenia się Hebba (Hebbian learning) dla sztucznych

www.kwmimkm.polsl.pl

7

•• Walter Walter PittsPitts, , WarrenWarren McCullochMcCulloch (1943)(1943) –– opracoopraco--waniewanie matematyczne pojmatematyczne pojęęcia cia sztucznego neuronusztucznego neuronu. . Udowodnili teUdowodnili teżż, i, iżż ich wynalazek jest w stanie ich wynalazek jest w stanie odzwierodzwier--ciedliciedlićć w swym dziaw swym działłaniu dowolnaniu dowolnąą funkcjfunkcjęę logicznlogicznąą..

•• DonaldDonald OldingOlding HebbHebb (1949)(1949) -- zasada uczenia sizasada uczenia sięęHebbaHebba ((HebbianHebbian learninglearning) dla sztucznych sieci ) dla sztucznych sieci neuronowych (SSN).neuronowych (SSN).

•• Frank Frank RosenblattRosenblatt (1958)(1958) –– pierwszy funkcjonujpierwszy funkcjonująący cy model SSN (perceptron) oraz pierwszy z algorytmmodel SSN (perceptron) oraz pierwszy z algorytmóów w uczenia SSN.uczenia SSN.

HISTORIA SSNwww.kwmimkm.polsl.pl

8

•• Bernard Bernard WidrowWidrow i i TedTed HoffHoff (1960) (1960) -- neuron typu neuron typu AdalineAdaline z liniowz liniowąą funkcjfunkcjąą aktywacji oraz algorytm uczenia aktywacji oraz algorytm uczenia LMS (LMS (LeastLeast MeanMean SquareSquare), zwany ), zwany reguregułąłą deltydelty lub regulub regułąłąWidrowaWidrowa--HoffaHoffa..

•• JohnJohn HopfieldHopfield (1982)(1982) –– teoria pamiteoria pamięęci ci asocjacyjnejasocjacyjnej, , jako istoty dziajako istoty działłania ania sieci rekurencyjnychsieci rekurencyjnych (sieci (sieci HopfieldaHopfielda). ).

••Paul Paul WerbosWerbos ((19741974));; David David RumelhartRumelhart, Geoffrey , Geoffrey HintonHinton, , Ronald WilliamsRonald Williams (1986)(1986) -- wsteczna wsteczna propagacja bpropagacja błęłęddóóww ((backpropagationbackpropagation) ) –– pozwala na pozwala na rozwirozwiąązywanie problemzywanie problemóów w liniowo liniowo nieseparowalnychnieseparowalnych..

www.kwmimkm.polsl.pl

9

KomKomóórki nerwowe rki nerwowe (neurony)(neurony)

•• DendrytyDendryty –– zbierajzbierająą sygnasygnałły z innych komy z innych komóórek rek nerwowych.nerwowych.

•• CiaCiałło komo komóórkirki –– agreguje sygnaagreguje sygnałły wejy wejśściowe ciowe i tworzy sygnai tworzy sygnałł wyjwyjśściowy.ciowy.

•• AksonAkson –– wyprowadza sygnawyprowadza sygnałł wyjwyjśściowy i przekazuje ciowy i przekazuje go dalej. go dalej.

www.kwmimkm.polsl.pl

10

Synapsa Synapsa -- przekazuje sygnaprzekazuje sygnałł mimięędzy dzy aksonemaksonem a a dendrytem (kadendrytem (każżda komda komóórka nerwowa posiada rka nerwowa posiada śśrednio rednio kilka tysikilka tysięęcycy synaps).synaps).

ChemicznoChemiczno--elektryczne elektryczne przekazywanie sygnaprzekazywanie sygnałłóów:w:

•• PodPod wpwpłływem przychodzywem przychodząących cych bodbodźźccóów wydzielane sw wydzielane sąąneuroprzekaneuroprzekaźźnikiniki..

•• NeuroprzekaNeuroprzekaźźnikiniki oddziaoddziałłujująą na bna błłononęę komkomóórki rki zmieniajzmieniająąc jej potencjac jej potencjałł elektryczny. elektryczny.

www.kwmimkm.polsl.pl

11

STATYSTYKA:STATYSTYKA:•• Liczba komLiczba komóórek nerwowych w mrek nerwowych w móózgu: ok.zgu: ok. 10101111;;

•• PoPołąłączeczeńń nerwowych nerwowych –– ok. ok. 10101414;;

•• CzCzęęstotliwostotliwośćść biologicznego neuronu biologicznego neuronu –– ok. ok. kilkaset kilkaset HzHz..

•• PoszczegPoszczegóólne synapsy rlne synapsy róóżżniniąą sisięę wielkowielkośściciąą oraz oraz momożżlili--wowośściciąą gromadzenia gromadzenia neuroprzekaneuroprzekaźźniknikóóww w pobliw pobliżżu u bbłłony synaptycznej. ony synaptycznej.

•• Dlatego taki sam impuls na wejDlatego taki sam impuls na wejśściu komciu komóórki morki możże poe po--wodowawodowaćć inne jej pobudzenie niinne jej pobudzenie niżż dla innego wejdla innego wejśścia.cia.

www.kwmimkm.polsl.pl

12

ZALETY SSN: ZALETY SSN: •• Nie wymagajNie wymagająą programowania (tylko programowania (tylko uczenieuczenie););

•• MajMająą zdolnozdolnośćść uoguogóólnianialniania;;

•• SSąą wysoce odporne na wysoce odporne na szumyszumy i i znieksztazniekształłceniacenia sygnasygnałłu;u;

•• PomagajPomagająą wykrywawykrywaćć istotne istotne powipowiąązaniazania pomipomięędzy dzy danymi.danymi.

Stosuje siStosuje sięę je gdy istnieje je gdy istnieje dudużża za złłoożżonoonośćść zagadnienia i zagadnienia i trudno jest jednoznacznie okretrudno jest jednoznacznie okreśślilićć formalne kryteriaformalne kryteria, dla , dla stworzenia programu komputerowego.stworzenia programu komputerowego.

Page 3: METODY KRYTERIA HEURYSTYCZNE wykład 4 - IMIO ME3 wyklad 4 do druku.pdf · 2014. 6. 3. · • Donald Olding Hebb (1949) - zasada uczenia się Hebba (Hebbian learning) dla sztucznych

www.kwmimkm.polsl.pl

13

KLASY ZASTOSOWAKLASY ZASTOSOWAŃŃ::

PREDYKCJAPREDYKCJA

ze znajomoze znajomośści: ci:

przewidzieprzewidziećć ::

{ }1( ), ( ),..., ( )− − +n k n k nf x f x f x

1( )+nf x

bez bez jawnego definiowaniajawnego definiowania zwizwiąązku mizku mięędzy danymi dzy danymi wejwejśściowymi a wyjciowymi a wyjśściowymiciowymi

www.kwmimkm.polsl.pl

14

KLASYFIKACJA I ROZPOZNAWANIE WZORCKLASYFIKACJA I ROZPOZNAWANIE WZORCÓÓWW

Zaszeregowanie danych wejZaszeregowanie danych wejśściowych ciowych do jednej z klas: do jednej z klas:

np. sienp. siećć pozwala na podstawie danych bilansowych stwierdzipozwala na podstawie danych bilansowych stwierdzićć, czy , czy dane przedsidane przedsięębiorstwo nalebiorstwo należży do y do zwyzwyżżkujkująącychcychgospodarczo, czy przegospodarczo, czy przeżżywa ywa stagnacjstagnacjęę czy teczy teżż grozi mu grozi mu regresregres. .

www.kwmimkm.polsl.pl

15

APROKSYMACJA (interpolacja, ekstrapolacja)APROKSYMACJA (interpolacja, ekstrapolacja)

ze znajomoze znajomośści: ci:

odtworzyodtworzyćć::

{ }, ( )i ix f x( )f x

ASOCJACJA ASOCJACJA

Podanie danego wzorca na Podanie danego wzorca na wejwejśście powinno powodowacie powinno powodowaććpojawienie sipojawienie sięę oodpowiadajdpowiadająącego cego mu wzorca na wyjmu wzorca na wyjśściu.ciu.

www.kwmimkm.polsl.pl

16

STEROWANIESTEROWANIE

KOJARZENIE DANYCHKOJARZENIE DANYCH

automatyzacja procesautomatyzacja procesóów wnioskowania i wykrywanie w wnioskowania i wykrywanie istotnych powiistotnych powiąązazańń mimięędzy danymi.dzy danymi.

www.kwmimkm.polsl.pl

17

FILTRACJA SYGNAFILTRACJA SYGNAŁŁÓÓWW

OPTYMALIZACJAOPTYMALIZACJA

statyczna i dynamiczna, optymalizacja statyczna i dynamiczna, optymalizacja kombinatokombinato--rycznarycznai zagadnienia bardzo trudne obliczeniowo.i zagadnienia bardzo trudne obliczeniowo.

www.kwmimkm.polsl.pl

18

PRZYKPRZYKŁŁADOWE ZASTOSOWANIA:ADOWE ZASTOSOWANIA:

Page 4: METODY KRYTERIA HEURYSTYCZNE wykład 4 - IMIO ME3 wyklad 4 do druku.pdf · 2014. 6. 3. · • Donald Olding Hebb (1949) - zasada uczenia się Hebba (Hebbian learning) dla sztucznych

www.kwmimkm.polsl.pl

19

NIE NADAJNIE NADAJĄĄ SISIĘĘ DO:DO:

•• Przetwarzania informacji symbolicznejPrzetwarzania informacji symbolicznej(np. edytory tekstu);(np. edytory tekstu);

•• ObliczeObliczeńń o wymaganej wysokiej doko wymaganej wysokiej dokłładnoadnośścici(sie(siećć pracuje jakopracuje jakośściowo, dajciowo, dająąc wyniki przyblic wyniki przybliżżone);one);

•• RozwiRozwiąązywania zagadniezywania zagadnieńń, gdzie rozumowanie , gdzie rozumowanie jest przeprowadzanie wieloetapowojest przeprowadzanie wieloetapowo(a musi by(a musi byćć udokumentowane).udokumentowane).

www.kwmimkm.polsl.pl

20

Perceptron Perceptron ((RosenblattRosenblatt 1958):1958):

WejWejśście:cie: nn stanstanóów w wejsciowychwejsciowych xx11,...,,...,xxnn

WyjWyjśście:cie: 00 ((--11) lub ) lub 11

Uwaga: pod pojUwaga: pod pojęęciem ciem „„perceptronuperceptronu”” rozumie sirozumie sięę teteżż czasem siec czasem siec popołąłączonych jednostek (neuronczonych jednostek (neuronóów).w).

UkUkłład posiadajad posiadająący wiele wejcy wiele wejśćść i jedno wyji jedno wyjśście:cie:

www.kwmimkm.polsl.pl

21

Pojedynczy perceptronPojedynczy perceptron pozwala na:pozwala na:

•• przetwarzanie jednostkowych informacji;przetwarzanie jednostkowych informacji;

•• podejmowanie prostych decyzji;podejmowanie prostych decyzji;

•• przekazywanie wynikprzekazywanie wynikóów sw sąąsiadom.siadom.

Dopiero w poDopiero w połąłączeniu z innymi wczeniu z innymi węęzzłłami uzyskuje siami uzyskuje sięęzdolnozdolnośćść podejmowania zpodejmowania złłoożżonych decyzjionych decyzji..

SprzSprzęętowo:towo:www.kwmimkm.polsl.pl

22

SygnaSygnałł wyjwyjśściowy ciowy yyii ii--tego neuronu liniowego:tego neuronu liniowego:

wwijij –– wagawaga dladla jj--ego ego wejwejśściacia ii--tegotego neuronuneuronu;;xxjj –– jj--tyty sygnasygnałł wejwejśściowyciowy;;NN –– liczbaliczba wejwejśćść w w ii--tymtym neuronieneuronie..

ee –– łąłączneczne pobudzeniepobudzenie neuronuneuronu (net value)(net value);;ϕϕ –– funkcjafunkcja aktywacjiaktywacji;;BB –– prpróógg (bias).(bias). W neuronie liniowym W neuronie liniowym ee jest jest

sygnasygnałłem wyjem wyjśściowymciowym

0

N

i ij jj

y w x=

= ∑

SygnaSygnałł wyjwyjśściowy ciowy yyii ii--tego neuronu tego neuronu (og(ogóólnie)lnie)::

1

( )N

i ij jj

y e w x Bϕ ϕ=

⎛ ⎞= = +⎜ ⎟

⎝ ⎠∑

www.kwmimkm.polsl.pl

23

UCZENIEUCZENIE SIECISIECI NEURONOWYCHNEURONOWYCH

UczenieUczenie zamiast programowaniazamiast programowania..

Ta sama sieTa sama siećć momożże se słłuużżyyćć do do rozwirozwiąązywaniazywania skrajnie skrajnie rróóżżnych zadanych zadańń. .

Uczenie sieciUczenie sieci::WWymuszanie okreymuszanie okreśślonego reagowania sieci na zadane lonego reagowania sieci na zadane sygnasygnałły wejy wejśściowe ciowe ((poprzez poprzez odpowiedni odpowiedni dobdobóór wagr wag).).

Uczenie sieciUczenie sieci::•• uczenie uczenie zz nauczycielemnauczycielem (nadzorowane);(nadzorowane);

•• uczenie uczenie z krytykiemz krytykiem;;

•• uczenie uczenie bez nauczycielabez nauczyciela ((nienadzorowanenienadzorowane). ).

www.kwmimkm.polsl.pl

24

Uczenie z nauczycielemUczenie z nauczycielem ((ssupervisedupervised learninglearning))

•• Podawanie sieci zestawPodawanie sieci zestawóów sygnaw sygnałłóów WE w WE wwraz raz z z prawidprawidłłowymowym sygnasygnałłem WY. em WY.

•• NaNaśśladowanie ladowanie nauczycielanauczyciela, jakim jest , jakim jest ciciąągg uczucząącycy(podej(podejśście cie „„szkolneszkolne””).).

•• Zestawy sygnaZestawy sygnałłóów (zwykle) powtarza siw (zwykle) powtarza sięę wielokrotnie, wielokrotnie, zazaśś siesiećć modyfikuje wagi na wejmodyfikuje wagi na wejśściach tak, by ciach tak, by zminizmini--malizowamalizowaćć bbłąłądd. .

•• Zmiana wagi na Zmiana wagi na ii--tym wejtym wejśściu neuronu po pokazaniu ciu neuronu po pokazaniu jj--egoego obiektu uczobiektu ucząącego jest proporcjonalna do cego jest proporcjonalna do popepopełłnianego na tym etapie bnianego na tym etapie błęłędu du δδ (( jj ))..

Page 5: METODY KRYTERIA HEURYSTYCZNE wykład 4 - IMIO ME3 wyklad 4 do druku.pdf · 2014. 6. 3. · • Donald Olding Hebb (1949) - zasada uczenia się Hebba (Hebbian learning) dla sztucznych

www.kwmimkm.polsl.pl

25

UCZENIE PERCEPTRONU:UCZENIE PERCEPTRONU:

Pojedynczy neuronPojedynczy neuron (lub 1 warstwa neuron(lub 1 warstwa neuronóów)w) typu typu perper--ceptronowegoceptronowego jest w stanie rozdzielijest w stanie rozdzielićć przestrzeprzestrzeńń obszaobsza--rróóww wejwejśściowych ciowych granicgranicąą decyzyjndecyzyjnąą na na 2 obszary2 obszary((ppóółłprzestrzenieprzestrzenie).).

•• 2 zmienne 2 zmienne –– prostaprosta;;•• ogogóólnie lnie –– hiperphiperpłłaszczyznaaszczyzna..

www.kwmimkm.polsl.pl

26

SieSiećć dwuwarstwowadwuwarstwowa –– wielokwielokąąty wypukty wypukłłe (e (simpleksysimpleksy):):

Sieci trzySieci trzy-- i wii więęcej warstwowacej warstwowa –– dowolne obszary dowolne obszary (w tym wielok(w tym wielokąąty ty niewypukniewypukłłee i obszary wielospi obszary wielospóójne).jne).

www.kwmimkm.polsl.pl

27

PerceptronPerceptron momożże prawide prawidłłowo klasyfikowaowo klasyfikowaćć sygnasygnałły, jey, jeśśli li ssąą liniowo liniowo separowalneseparowalne::

www.kwmimkm.polsl.pl

28

PoprawkaPoprawka wartowartośści wagi dla perceptronuci wagi dla perceptronuw w jj--ymym kroku (kroku (reguregułła deltaa delta):):

( ) ( ) ( )j j ji iw xηδ∇ =

( ) ( ) ( )j j jz yδ = −

zz –– wymagana odpowiedwymagana odpowiedźź neuronu;neuronu;

yy –– uzyskana odpowieduzyskana odpowiedźź neuronu; neuronu;

xx –– dana wejdana wejśściowa dla ciowa dla ii--tego wejtego wejśścia;cia;

ηη -- wspwspóółłczynnik uczeniczynnik uczeniaa ((learninglearning raterate).).

www.kwmimkm.polsl.pl

29

WagaWaga::

-- dodatniadodatnia -- sygnasygnałł pobudzajpobudzająącycy;;-- ujemnaujemna –– sygnasygnałł gaszgasząącycy;;-- „„00”” -- brakbrak popołąłączeniaczenia mimięędzydzy neuronamineuronami. .

SygnaSygnałły wyjy wyjśściowe: ciowe:

⟨⟨0,10,1⟩⟩ (funkcje (funkcje unipolarneunipolarne) )

⟨⟨--1,11,1⟩⟩ (funkcje (funkcje bipolarnebipolarne).).

www.kwmimkm.polsl.pl

30

FUNKCJA FUNKCJA AKTYWACJIAKTYWACJIWartoWartośćść f. aktywacjif. aktywacji –– sygnasygnałł wyjwyjśściowy neuronuciowy neuronu . .

•• liliniowaniowa f. aktywacji;f. aktywacji;

•• nieliniowanieliniowa f. aktywacji:f. aktywacji:

-- f. skoku jednostkowego f. skoku jednostkowego (progowa), np.:(progowa), np.:

{1 gdy 00 gdy 0( ) e

eeϕ ≥<=

ββ –– wspwspóółłczynnik sterujczynnik sterująący nachyleniem krzywej cy nachyleniem krzywej

-- inna, np. typu inna, np. typu sigmoidalnegosigmoidalnego (f. (f. logistycznalogistyczna): ): 1( )

1 exp( )e

β=

+ −

Page 6: METODY KRYTERIA HEURYSTYCZNE wykład 4 - IMIO ME3 wyklad 4 do druku.pdf · 2014. 6. 3. · • Donald Olding Hebb (1949) - zasada uczenia się Hebba (Hebbian learning) dla sztucznych

www.kwmimkm.polsl.pl

31

WYMAGANE CECHY F. AKTYWACJI:WYMAGANE CECHY F. AKTYWACJI:

•• CiCiąąggłłe przeje przejśście pomicie pomięędzy wartodzy wartośściciąą maksymalnmaksymalnąąa minimalna minimalnąą..

•• ŁŁatwa do obliczenia i ciatwa do obliczenia i ciąąggłła pochodna a pochodna

[ ]'( ) ( ) 1 ( )e e eϕ β ϕ ϕ= ⋅ ⋅ −

np. dla f. np. dla f. sigmoidalnejsigmoidalnej:: 1( )1 exp( )

ee

ϕβ

=+ −

•• MoMożżliwoliwośćść wprowadzenia do argumentu parametru wprowadzenia do argumentu parametru ββdo ustalania ksztado ustalania kształłtu krzywej.tu krzywej.

www.kwmimkm.polsl.pl

323232

WSPWSPÓÓŁŁCZYNNIKCZYNNIK ββ

0

0.5

1

-10 -5 0 5 10

beta=1beta=0.5beta=2

0

0.5

1

-10 -5 0 5 10

bias=0bias=-2bias=2

BIASBIAS

www.kwmimkm.polsl.pl

33

Bipolarny odpowiednik f. Bipolarny odpowiednik f. sigmoidalnejsigmoidalnej: :

exp( ) exp( )( ) ( )exp( ) exp( )

e ee tgh ee e

β βϕ ββ β

− −= = −

+ −

[ ] [ ]'( ) 1 ( ) 1 ( )e e eϕ β ϕ ϕ= ⋅ + ⋅ −

--11

--0.50.5

00

0.50.5

11

--1010 --55 00 55 1010beta=0.5beta=0.5

www.kwmimkm.polsl.pl

34

SIESIEĆĆ NEURONOWANEURONOWA::-- ukukłład poad połąłączonych neuronczonych neuronóóww (model warstwowy)(model warstwowy)

SieSiećć jednowarstwowajednowarstwowa SieSiećć wielowarstwowawielowarstwowa

SieSiećć wielowarstwowawielowarstwowa –– min. min. jednajedna warstwawarstwa ukrytaukryta..

ZwykleZwykle:: kilka warstw, pokilka warstw, połąłączenia kaczenia każżdy z kady z każżdymdym(min. liczba parametr(min. liczba parametróów do opisu).w do opisu).

www.kwmimkm.polsl.pl

35

RODZAJE NEURONRODZAJE NEURONÓÓWW: :

•• warstwy WEwarstwy WE (nie liczona);(nie liczona);

•• warstw ukrytychwarstw ukrytych::–– efekty dziaefekty działłania obserwowane poania obserwowane pośśrednio poprzez WY; rednio poprzez WY; –– popośśredniczenie miredniczenie mięędzy WE a WY;dzy WE a WY;–– niemoniemożżnonośćść dokdokłładnego obliczenia badnego obliczenia błęłęddóów;w;

•• warstwy WYwarstwy WY (rozwi(rozwiąązania stawianych zadazania stawianych zadańń).).

PamiPamięćęć neuronuneuronu –– reprezentowana poprzez wagi.reprezentowana poprzez wagi.

SieSiećć dziadziałła jako a jako cacałłoośćść..

www.kwmimkm.polsl.pl

36

Projektowanie sieci Projektowanie sieci -- problemy:problemy:•• ile warstw ukrytych?ile warstw ukrytych?

•• ile neuronile neuronóów w warstwach?w w warstwach?

Liczba neuronLiczba neuronóów w warstwie WEw w warstwie WE::zalezależży od liczby danych podawanych na wejy od liczby danych podawanych na wejśście.cie.

Liczba neuronLiczba neuronóów w warstwie WYw w warstwie WY::zalezależży od liczby poszukiwanych rozwiy od liczby poszukiwanych rozwiąązazańń..

•• SieSiećć z z 1 warstw1 warstwąą ukrytukrytąą powinna nauczypowinna nauczyćć sisięę rozroz--wiwiąązywaniazywania wiwięększokszośści postawionych problemci postawionych problemóów. w.

•• Zbyt wiele warstw ukrytych Zbyt wiele warstw ukrytych –– pogorszenie procesu pogorszenie procesu uczenia (algorytm uczenia (algorytm „„grzgrzęźęźnie w szczegnie w szczegóółłachach””).).

Page 7: METODY KRYTERIA HEURYSTYCZNE wykład 4 - IMIO ME3 wyklad 4 do druku.pdf · 2014. 6. 3. · • Donald Olding Hebb (1949) - zasada uczenia się Hebba (Hebbian learning) dla sztucznych

www.kwmimkm.polsl.pl

37

•• Nieznane sNieznane sąą problemy wymagajproblemy wymagająące sieci z ce sieci z wiwięęcej nicej niżż 33warstwami ukrytymi (zwykle 1 lub 2).warstwami ukrytymi (zwykle 1 lub 2).

•• ZwykleZwykle: uczenie z : uczenie z poczpocząątkowo matkowo małąłą liczbliczbąą neuronneuronóów i w i stopniowestopniowe zwizwięększaniekszanie ich liczbyich liczby. .

•• Zbyt wiele elementZbyt wiele elementóów warstwy ukrytej: uczenie siw warstwy ukrytej: uczenie sięę „„na na pamipamięćęć””..

•• LiczbLiczbęę neuronneuronóów w warstwie ukrytej mow w warstwie ukrytej możżna prna próóbowabowaććoszacowaoszacowaćć::

u we wyN N N= ⋅

www.kwmimkm.polsl.pl

38

NpNp.(L. Rutkowski, Metody i techniki sztucznej inteligencji, PWN, W-wa 2006):

CiCiąąg uczg ucząący:cy:

[ ]sin( ), 0, 2xy x π∈=

11––22––11 11––33––11 11––1515––11

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Wejście x 0

Oczekiwane wyjście d=f(x) 0 0.5 0 0 -0.5

4π π 2π 7

6π 4

3π 5

4π 5

6π 2

3π 3

4π 5

3π 11

6π 7

32

22

32

−2

2−

12

32

22

32

−12

− 22

www.kwmimkm.polsl.pl

39

PrzykPrzykłład: ad: Rozpoznawanie Rozpoznawanie znakznakóów w alfabetualfabetu

•• WE WE -- 3535 (pikseli)(pikseli)

•• WYWY --2626 (liter)(liter)a co wewna co wewnąątrz?trz?

WstWstęępniepnie::3535 –– 44 –– 2626

www.kwmimkm.polsl.pl

40

OstatecznieOstatecznie::3535 –– 99 –– 2626

www.kwmimkm.polsl.pl

41

•• ZwykleZwykle: uczenie z pocz: uczenie z począątkowo matkowo małąłą liczbliczbąą neuronneuronóów w i stopniowe zwii stopniowe zwięększaniekszanie ich liczbyich liczby. .

•• Zbyt maZbyt małłoo neuronneuronóów w warstwie ukrytej w w warstwie ukrytej –– siesieććnie potrafi poprawnie odwzorowanie potrafi poprawnie odwzorowaćć funkcji.funkcji.

•• Zbyt wieleZbyt wiele elementelementóów warstwy ukrytej: w warstwy ukrytej:

•• wydwydłłuużżenieenie procesu uczenia;procesu uczenia;

•• uczenie siuczenie sięę „„na pamina pamięćęć”” (szczeg(szczegóólnie, gdy liczba lnie, gdy liczba prpróóbek w cibek w ciąągu uczgu ucząącym jest niewielka) cym jest niewielka) -- siesieććpoprawnie rozpoznaje tylko sygnapoprawnie rozpoznaje tylko sygnałły zgodne z tymi w y zgodne z tymi w ciciąągu uczgu ucząącym ( cym ( brak generalizacji brak generalizacji przy dobrej interpolacjiprzy dobrej interpolacji).).

www.kwmimkm.polsl.pl

42

UCZENIE SIECI NIELINIOWYCHUCZENIE SIECI NIELINIOWYCHUczenie sieci Uczenie sieci –– minimalizacja funkcji bminimalizacja funkcji błęłędu.du.

•• Zwykle gradientowe metody optymalizacji Zwykle gradientowe metody optymalizacji (np. metoda najwi(np. metoda najwięększego spadku).kszego spadku).

•• Warunek Warunek –– funkcja aktywacji jest cifunkcja aktywacji jest ciąąggłła.a.

minimalizacja funkcji bminimalizacja funkcji błęłędudu

Page 8: METODY KRYTERIA HEURYSTYCZNE wykład 4 - IMIO ME3 wyklad 4 do druku.pdf · 2014. 6. 3. · • Donald Olding Hebb (1949) - zasada uczenia się Hebba (Hebbian learning) dla sztucznych

www.kwmimkm.polsl.pl

43

Poprawka wartoPoprawka wartośści wagi:ci wagi:

( ) ( ) ( )( )

( )j j ji ij

d ew xdeϕηδ∇ =

•• JeJeśśli neuron nie popeli neuron nie popełłnia bnia błęłędu wagi nie sdu wagi nie sąą zmieniane.zmieniane.

•• Poprawka wagi na WE jest tym wiPoprawka wagi na WE jest tym więększa, im wiksza, im więększy jest kszy jest bbłąłąd na WY.d na WY.

•• Poprawka wagi na Poprawka wagi na ii--tym WE jest proporcjonalna do tym WE jest proporcjonalna do wielkowielkośści sygnaci sygnałłu na tym weju na tym wejśściu (ciu (xxii).).

jj –– nnumerumer kroku uczenia;kroku uczenia;

www.kwmimkm.polsl.pl

44

Funkcja logiczna XORFunkcja logiczna XOR

SchematSchemat siecisieci::22 -- 2 2 -- 11

CiCiąągg uczucząącycy::

WE 1 WE 2 WY0 0 01 0 10 1 11 1 0

CiCiąągg weryfikujweryfikująący (cy (npnp):):

WE 1 WE 20.05 0.050.95 0.050.05 0.950.95 0.95

www.kwmimkm.polsl.pl

45

Liniowe rozwiniLiniowe rozwinięęcieciei zamiana na wektor WEi zamiana na wektor WE

Rozpoznawanie znakRozpoznawanie znakóów X, 0, +, w X, 0, +, --

SchematSchemat siecisieci:: 9 9 -- 5 5 -- 44

Matryca znakMatryca znakóóww

www.kwmimkm.polsl.pl

46

CiCiąągg uczucząącycy::

Wektor WE Wektor WY1 0 1 0 1 0 1 0 1 1 0 0 01 1 1 1 0 1 1 1 1 0 1 0 00 1 0 1 1 1 0 1 0 0 0 1 00 0 0 1 1 1 0 0 0 0 0 0 1

Nauczona sieNauczona siećć rozpoznaje symbole znieksztarozpoznaje symbole zniekształłcone:cone:

www.kwmimkm.polsl.pl

47

FILTROWANIE SYGNAFILTROWANIE SYGNAŁŁÓÓWWWE WE -- wzorce sygnawzorce sygnałłóów w zaszumionychzaszumionych;;WY WY –– sygnasygnałły czystey czyste

np. sinus :np. sinus :

WY WY

!!

WE WE

Z: R. Z: R. TadeusiewiczTadeusiewicz: : „„Elementarne wprowadzenie do techniki sieci neuronowych...Elementarne wprowadzenie do techniki sieci neuronowych...””, PLJ, Warszawa, 1998, PLJ, Warszawa, 1998

www.kwmimkm.polsl.pl

48

Okolice zera Okolice zera –– mamałła wartoa wartośćść sygnasygnałłu (u (trudnotrudnośścici). ). RozwiRozwiąązaniezanie –– przesuniprzesunięęcie sygnacie sygnałłu:u:

Z: R. Z: R. TadeusiewiczTadeusiewicz: : „„Elementarne wprowadzenie do techniki sieci neuronowych...Elementarne wprowadzenie do techniki sieci neuronowych...””, PLJ, Warszawa, 1998, PLJ, Warszawa, 1998

Page 9: METODY KRYTERIA HEURYSTYCZNE wykład 4 - IMIO ME3 wyklad 4 do druku.pdf · 2014. 6. 3. · • Donald Olding Hebb (1949) - zasada uczenia się Hebba (Hebbian learning) dla sztucznych

www.kwmimkm.polsl.pl

49

WSPWSPÓÓŁŁCZYNNIK UCZENIA CZYNNIK UCZENIA ηη –– learninglearning raterate

WartoWartośści:ci:w przedziale 0.01w przedziale 0.01÷÷5.0 (typowo 5.0 (typowo 0.80.8÷÷2.02.0))

•• zbyt mazbyt małły y –– powolne uczenie sieci;powolne uczenie sieci;•• zbyt duzbyt dużży y –– gwagwałłtowne zmiany parametrtowne zmiany parametróów sieci.w sieci.

www.kwmimkm.polsl.pl

50

METODA MOMENTUMMETODA MOMENTUM (ang. p(ang. pęęd)d)

•• Nadanie uczeniu pewnej bezwNadanie uczeniu pewnej bezwłładnoadnośści;ci;

•• ZwiZwięększenie szybkokszenie szybkośści uczenia bez zaburzenia ci uczenia bez zaburzenia stabilnostabilnośści algorytmu;ci algorytmu;

bez bez wspwsp. . momentummomentum

wspwsp. . momentummomentum = 0.5= 0.5

www.kwmimkm.polsl.pl

51

Dodatkowy skDodatkowy skłładnik:adnik:zmiany wag zalezmiany wag zależążą od bod błęłęddóów w aktualnychaktualnych i i poprzednichpoprzednich..

( ) ( ) ( ) ( 1)2( )

( )j j j ji i ij

d ew x wdeϕηδ η −∇ = + ∇

ηη22 –– wartowartośści w przedziale 0ci w przedziale 0÷÷1 (1 (czczęęsto sto 0.90.9 ).).

Wagi: Wagi: wartowartośści poczci począątkowe zwykle losowo, tkowe zwykle losowo, czczęęsto z zakresu sto z zakresu ⟨⟨--0.1, 0.1, 0.10.1⟩⟩ ((najlepiej bez zeranajlepiej bez zera).).

www.kwmimkm.polsl.pl

52

Liczba prezentacjiLiczba prezentacji ciciąągu uczgu ucząącego konieczna cego konieczna do nauczenia sieci:do nauczenia sieci:

•• prognozowanie finansowe: prognozowanie finansowe: 101099

•• synteza mowy: synteza mowy: 10101010

•• rozpoznawanie mowy lub pisma odrrozpoznawanie mowy lub pisma odręęcznego: cznego: 10101212

•• rozpoznawanie znakrozpoznawanie znakóów w KanjiKanji: : 10101313

JAK DJAK DŁŁUGO UCZYUGO UCZYĆĆ SIESIEĆĆ??

www.kwmimkm.polsl.pl

53

•• UwaUważża sia sięę, i, iżż czas uczeniaczas uczenia sieci rosieci rośśnie nie wykwykłładad--niczoniczo wraz ze wzrostem liczby elementwraz ze wzrostem liczby elementóów sieci.w sieci.

•• Korzystne jest pokazywanie elementKorzystne jest pokazywanie elementóów ciw ciąągu gu uczucząącego cego w rw róóżżnej kolejnonej kolejnośścici..

Malenie bMalenie błęłędudu jest rjest róóżżne dla rne dla róóżżnie wylosowanych nie wylosowanych wag poczwag począątkowych (tkowych (dla tej samej siecidla tej samej sieci): ):

www.kwmimkm.polsl.pl

54

Zbyt dZbyt dłługie uczenieugie uczenie rróówniewnieżż momożże skutkowae skutkowaćć utratutratąązdolnozdolnośści uogci uogóólniania:lniania:

Ghaboussi, CISM 2007

Page 10: METODY KRYTERIA HEURYSTYCZNE wykład 4 - IMIO ME3 wyklad 4 do druku.pdf · 2014. 6. 3. · • Donald Olding Hebb (1949) - zasada uczenia się Hebba (Hebbian learning) dla sztucznych

www.kwmimkm.polsl.pl

55

UCZENIE WARSTW UKRYTYCHUCZENIE WARSTW UKRYTYCH

BezpoBezpośśrednie wyznaczenie brednie wyznaczenie błęłęddóów w nie jest monie jest możżliweliwe(sygna(sygnałłóów WY z warstwy ukrytej nie ma z czym porw WY z warstwy ukrytej nie ma z czym poróównawnaćć).).

MetodaMetoda wstecznej propagacji bwstecznej propagacji błęłęddóóww((backpropagationbackpropagation):):

•• ZZmiana wagi miana wagi –– jak przy sieci jednowarstwowej;jak przy sieci jednowarstwowej;

•• OObliczanie bliczanie δδ –– sumowanie bsumowanie błęłęddóów z nastw z nastęępnej warstwypnej warstwy

BBłęłędy w warstwach ukrytych sdy w warstwach ukrytych sąą wyznaczane wyznaczane w sposw sposóób przyblib przybliżżony.ony.

www.kwmimkm.polsl.pl

56

(( ) ))

1

( )( k j jn

jm

kkmwδ δ

=

= ∑m –– numer neuronu w warstwie ukrytejnumer neuronu w warstwie ukrytejn –– lliczbaiczba neuronneuronóów w warstwie nastw w warstwie nastęępnej pnej kk;;j –– nnumerumer kroku uczenia;kroku uczenia;

–– bbłąłąd poped popełłniany przez neuron niany przez neuron mm;;

–– bbłąłąd poped popełłniany przez neuron w warstwieniany przez neuron w warstwie kk

( )jmδ( )jkδ

kn

m

k3k2k1( )n

jkδ − znane

( )( )nk jmw

( )jmδ − nieznane

•• obliczanie bobliczanie błęłęddóów w w warstwie WY;w warstwie WY;

•• obliczanie bobliczanie błęłęddóów w w warstwie poprzedniej;w warstwie poprzedniej;

•• itd. aitd. ażż do do warstwy pierwszej. warstwy pierwszej.

www.kwmimkm.polsl.pl

57

Uczenie z krytykiemUczenie z krytykiem ((reinforcementreinforcement learninglearning):):

•• Odmiana uczenia nadzorowanego.Odmiana uczenia nadzorowanego.

•• NaNauczyciel nie dysponuje peuczyciel nie dysponuje pełłnnąą wiedzwiedząą na temat na temat wszystkich prawidwszystkich prawidłłowych odpowiedzi.owych odpowiedzi.

•• Zamiast informacji o poZamiast informacji o pożążądanym WY, siedanym WY, siećć dysponuje dysponuje jedynie ocenjedynie ocenąą efektu swego dziaefektu swego działłania w ramach dwania w ramach dwóóch ch prostych kategorii.prostych kategorii.

•• Ocena Ocena wzmocnienie (pozytywne lub negatywne) wzmocnienie (pozytywne lub negatywne) odpowiednie zmiany wag.odpowiednie zmiany wag.

www.kwmimkm.polsl.pl

58

Uczenie z krytykiemUczenie z krytykiem ((reinforcementreinforcement learninglearning):):

•• Optymalizacja zyskOptymalizacja zyskóów na w na ddłłuużższsząą metmetęę. .

•• Np.: gry z przeciwnikiem, krytykNp.: gry z przeciwnikiem, krytykąą jest przegrana lub jest przegrana lub wygrana na kowygrana na końńcu partii. cu partii.

•• Uczenie z krytykiem lub z Uczenie z krytykiem lub z „„wzmocnieniemwzmocnieniem”” popożążądanych danych zachowazachowańń po dpo dłłuużższym okresie. szym okresie.

•• Uczenie Uczenie dojrzadojrzałłee (nabieranie (nabieranie „„mmąądrodrośścici””). ).

•• Bardziej uniwersalne w zastosowaniu podejBardziej uniwersalne w zastosowaniu podejśśccie do ie do problemu.problemu.

•• Praktyczna realizacja jest bardziej skomplikowana. Praktyczna realizacja jest bardziej skomplikowana.

www.kwmimkm.polsl.pl

59

Uczenie Uczenie bez nauczycielabez nauczyciela ((unsunsupervisedupervised learninglearning))

•• DonaldDonald HebbHebb (fizjolog i psycholog) (fizjolog i psycholog) –– w umyw umyśśle zale za--chodzchodząą procesy wzmacniania poprocesy wzmacniania połąłączeczeńń mimięędzy dzy neuroneuro--naminami, je, jeśślli zostai zostałły one pobudzone jednoczey one pobudzone jednocześśnie. nie.

•• PoPożążądana odpowieddana odpowiedźź nie jest znana.nie jest znana.

•• SieSiećć uczy siuczy sięę poprzez analizpoprzez analizęę reakcji na pobudzenia; reakcji na pobudzenia; samoorganizacjasamoorganizacja strukturystruktury –– wszelkie wszelkie regularnoregularnośścici, , linielinie podziapodziałłuu i inne i inne charakterystykicharakterystyki danych wejdanych wejśściowych ciowych siesiećć musi wykrymusi wykryćć sama. sama.

•• ZdolnoZdolnośści do wykrywania skupisk obrazci do wykrywania skupisk obrazóów w wejwejśściocio--wychwychssąą wykorzystywane do ich wykorzystywane do ich klasyfikacjiklasyfikacji, gdy klasy nie s, gdy klasy nie sąąz gz góóry ustalone.ry ustalone.

www.kwmimkm.polsl.pl

60

•• Sieci pokazuje siSieci pokazuje sięę kolejne przykkolejne przykłłady ady bez okrebez okreśślleniaenia, co , co trzeba z nimi zrobitrzeba z nimi zrobićć. .

•• W sieci stopniowo powstajW sieci stopniowo powstająą wzorce wzorce poszczegposzczegóólnych typlnych typóów w sygnasygnałłóów rozpoznawane przez pewnw rozpoznawane przez pewnąą czczęśćęść neuronneuronóów. w.

•• Uczenie Uczenie spontanicznespontaniczne, odkrywanie ciekawych struktur , odkrywanie ciekawych struktur w przestrzeni danych, korelacja zachowaw przestrzeni danych, korelacja zachowańń systemu systemu ze zmianze zmianąą tych struktur tych struktur –– dominuje w dominuje w okresieokresieniemowlniemowlęęcymcym..

•• RRóóżżne pobudzenie rne pobudzenie róóżżnych nych neuneu--ronronóóww -- popołąłączenia miczenia mięędzy dzy źźrróóddłłami silnych sygnaami silnych sygnałłóów w a neuronami, kta neuronami, któóre na nie re na nie reagujreagująą ssąą wzmacnianewzmacniane..

Uczenie Uczenie bez nauczycielabez nauczyciela ((unsunsupervisedupervised learninglearning))

Page 11: METODY KRYTERIA HEURYSTYCZNE wykład 4 - IMIO ME3 wyklad 4 do druku.pdf · 2014. 6. 3. · • Donald Olding Hebb (1949) - zasada uczenia się Hebba (Hebbian learning) dla sztucznych

www.kwmimkm.polsl.pl

61

Uczenie Uczenie bez nauczycielabez nauczyciela -- wadywady

•• ZZwykle powolniejsze.wykle powolniejsze.

•• NNie wiadomo, ie wiadomo, ktktóóryry neuron bneuron bęędzie rozpoznawadzie rozpoznawałł jaki jaki sygnasygnałł..

•• CCzzęśćęść sygnasygnałłóów mow możże bye byćć rozpoznawana przez rozpoznawana przez wiwięęcej cej niniżż jedenjeden neuron.neuron.

•• CCzzęśćęść sygnasygnałłóów mow możże e nie bynie byćć rozpoznawanarozpoznawana przez przez żżaa--denden neuron neuron

(sie(siećć musi bymusi byćć wiwięększa niksza niżż przy nauczycielu zwykle przy nauczycielu zwykle przynajmniej przynajmniej 3 razy3 razy).).

www.kwmimkm.polsl.pl

62

SAMOUCZENIE SIECI SAMOUCZENIE SIECI

•• CaCałła wiedza, jaka wiedza, jakąą siesiećć momożże zdobye zdobyćć jest zawarta jest zawarta w obiektach pokazywanych (muszw obiektach pokazywanych (musząą zawierazawieraćć klasy klasy podobiepodobieńństwastwa).).

•• Nie mogNie mogąą to byto byćć obiekty caobiekty całłkiem przypadkowe, ale kiem przypadkowe, ale tworzytworzyćć skupiska wokskupiska wokóółł pewnych opewnych ośśrodkrodkóóww..

•• Proces Proces samouczeniasamouczenia utrwala i pogutrwala i pogłęłębia bia wrodzone wrodzone zdolnozdolnośści neuronci neuronóóww..

www.kwmimkm.polsl.pl

63

SAMOUCZENIE SIECI:SAMOUCZENIE SIECI:CiCiąąg uczg ucząący:cy: { }(1) (2) ( ), ,... NU = X X X

•• XX((jj)) –– nn--wymiarowywymiarowy wektor danych wejwektor danych wejśściowych ciowych w w jj--ymym kroku uczeniakroku uczenia

•• NN –– liczba posiadanych pokazliczba posiadanych pokazóów.w.

ReguRegułła uczeniaa uczenia dla dla mm--tego neuronu w tego neuronu w jj--ymym kroku:kroku:( )( 1) ( )( ) ( ) ( )m j m j m j

i i i mw w x yη+ = +

( ) ( )( ) ( )

1

nj m j j

m i ii

y w x=

= ∑gdzie:gdzie:

www.kwmimkm.polsl.pl

64

( )( 1) ( )( ) ( ) ( )m j m j m ji i i mw w x yη+ = +

( ) ( )( ) ( )

1

nj m j j

m i ii

y w x=

= ∑

•• WielkoWielkośćść zmiany wagi zmiany wagi –– liczona na podstawie iloczynu liczona na podstawie iloczynu sygnasygnałłu na odpowiednim weju na odpowiednim wejśściu przez sygnaciu przez sygnałłwyjwyjśściowy neuronu.ciowy neuronu.

•• Uczenie to zwie siUczenie to zwie sięę teteżż korelacyjnymkorelacyjnym –– zmierza do zmierza do tata--kiegokiego dopasowania wag, by uzyskadopasowania wag, by uzyskaćć najlepsznajlepsząą korekore--lacjlacjęę mimięędzy sygnadzy sygnałłami WE a zapamiami WE a zapamięętanym (w formie tanym (w formie wag) wzorcem sygnawag) wzorcem sygnałłu, na ktu, na któóry dany neuron ma ry dany neuron ma reagowareagowaćć..

www.kwmimkm.polsl.pl

65

KONKURENCJA KONKURENCJA W SIECIACH SAMOUCZW SIECIACH SAMOUCZĄĄCYCHCYCH

WTAWTA ((WinnerWinner TakesTakes AllAll) ) -- zwycizwycięęzca bierze wszystko:zca bierze wszystko:

•• Najlepszy neuron Najlepszy neuron –– niezerowaniezerowa wartowartośćść sygnasygnałłu WY u WY (zwykle 1);(zwykle 1);

•• PozostaPozostałłe wyje wyjśścia scia sąą zerowanezerowane;;•• Tylko Tylko najlepszynajlepszy neuron jest uczony.neuron jest uczony.

Zasada WTA daje Zasada WTA daje jednoznacznjednoznacznąą odpowiedodpowiedźź siecisieci (co (co niekoniecznie musi byniekoniecznie musi byćć zaletzaletąą). ).

Wszystkie sygnaWszystkie sygnałły mniejsze niy mniejsze niżż ustalony prustalony próóg g –– brak brak rozpoznaniarozpoznania..

www.kwmimkm.polsl.pl

66

Efekty:Efekty:•• Neuron, ktNeuron, któóry raz wygrary raz wygrałł przy pokazaniu danego przy pokazaniu danego

wzorca wzorca –– dalej bdalej bęędzie wygrywadzie wygrywałł. . •• SamouczenieSamouczenie jest jest skuteczniejsze i efektywniejszeskuteczniejsze i efektywniejsze (ka(każżdy dy

neuron rozpoznaje jeden obiekt, pozostaneuron rozpoznaje jeden obiekt, pozostałłe neurony pozostaje neurony pozostająąniezagospodarowane).niezagospodarowane).

•• Wysoce prawdopodobneWysoce prawdopodobne jest, ijest, iżż::-- nie bnie bęędzie grup neurondzie grup neuronóów rozpoznajw rozpoznająących ten sam wzorzec;cych ten sam wzorzec;-- nie bnie bęędzie klas nierozpoznanych przez dzie klas nierozpoznanych przez żżaden neuron.aden neuron.

•• Niezagospodarowane neurony sNiezagospodarowane neurony sąą gotowe rozpoznawagotowe rozpoznawaććnowe wzorcenowe wzorce..

•• Po wykorzystaniu wszystkich neuronPo wykorzystaniu wszystkich neuronóów i pojawieniu siw i pojawieniu sięęnowego wzorca nowego wzorca –– przeciprzeciąąganieganie ktktóóregoregośśz neuronz neuronóów w jego stronw w jego stronęę::

Page 12: METODY KRYTERIA HEURYSTYCZNE wykład 4 - IMIO ME3 wyklad 4 do druku.pdf · 2014. 6. 3. · • Donald Olding Hebb (1949) - zasada uczenia się Hebba (Hebbian learning) dla sztucznych

www.kwmimkm.polsl.pl

67

SIECI SAMOORGANIZUJSIECI SAMOORGANIZUJĄĄCE SICE SIĘĘ((TeuvoTeuvo KohonenKohonen) )

•• TworzTworząą odwzorowania sygnaodwzorowania sygnałłóów WE w sygnaw WE w sygnałły WY, y WY, spespełłniajniająące pewne ogce pewne ogóólne kryteria (nie lne kryteria (nie zdeterminowazdeterminowa--nene przez twprzez twóórcrcęę ani uani użżytkownika sieci) ytkownika sieci) ––samoorganizacjasamoorganizacja siecisieci..

•• Inny (Inny (wywyżższyszy) spos) sposóób b samouczeniasamouczenia, wprowadzaj, wprowadzająący cy efekty koherencji i kolektywnoefekty koherencji i kolektywnośści.ci.

KoherencjaKoherencja ((ssłłownown. sp. spóójnojnośćść, spoisto, spoistośćść, , łąłącznocznośćść) ) -- siesieććgrupuje dane wejgrupuje dane wejśściowe wg wzajemnego ciowe wg wzajemnego podobiepodobieńń--stwastwa –– wykrywa automatycznie obiekty podobne do wykrywa automatycznie obiekty podobne do siebie nawzajem i inne od innych grup obiektsiebie nawzajem i inne od innych grup obiektóów.w.

www.kwmimkm.polsl.pl

68

Analiza skupieAnaliza skupieńń –– w analizy ekonomicznej (np. w analizy ekonomicznej (np. podobiepodobieńństwo przedsistwo przedsięębiorstw biorstw –– rentownorentownośćść).).

KolektywnoKolektywnośćść –– to co rozpoznaje neuron zaleto co rozpoznaje neuron zależży y w duw dużżej mierze od tego, co rozpoznajej mierze od tego, co rozpoznająą inne neurony.inne neurony.

SSąąsiedztwo siedztwo –– znaczenie ma wzajemne poznaczenie ma wzajemne połłoożżenie enie neuronneuronóów w warstwach. w w warstwach.

Zwykle sZwykle sąąsiedztwo 2siedztwo 2--wymiarowe wymiarowe –– neurony w wneurony w węęzzłłach ach regularnej siatki (regularnej siatki (kakażżdy neuron ma min. 4 sdy neuron ma min. 4 sąąsiadsiadóóww).).

www.kwmimkm.polsl.pl

69

PrzykPrzykłładowe sadowe sąąsiedztwa:siedztwa:

RozbudowaneRozbudowane ssąąsiedztwo: siedztwo:

www.kwmimkm.polsl.pl

70

RozszerzoneRozszerzone ssąąsiedztwo:siedztwo:

JednowymiaroweJednowymiarowe ssąąsiedztwo:siedztwo:

www.kwmimkm.polsl.pl

71

Gdy w procesie uczenia ktGdy w procesie uczenia któóryryśś neuron zwycineuron zwyciężęża:a:uczy siuczy sięę teteżż ((w mniejszym stopniuw mniejszym stopniu) jego s) jego sąąsiadsiadóóww

((niezaleniezależżnie od ich wag pocznie od ich wag począątkowych!tkowych!).).

www.kwmimkm.polsl.pl

72

Neurony sNeurony sąąsiadujsiadująące rozpoznajce rozpoznająą sygnasygnałły y z sz sąąsiadujsiadująących podobszarcych podobszaróów:w:

Skutek: Skutek: SygnaSygnałły ry róównomiernie rozmieszczone w pewnym wnomiernie rozmieszczone w pewnym obszaobsza--

rzerze ⇒⇒ neurony zostajneurony zostająą tak nauczone, by katak nauczone, by każżdy dy podobszar sygnapodobszar sygnałłóów byw byłł rozpoznawany rozpoznawany przez inny neuron.przez inny neuron.

Page 13: METODY KRYTERIA HEURYSTYCZNE wykład 4 - IMIO ME3 wyklad 4 do druku.pdf · 2014. 6. 3. · • Donald Olding Hebb (1949) - zasada uczenia się Hebba (Hebbian learning) dla sztucznych

www.kwmimkm.polsl.pl

73

•• Po wytrenowaniu Po wytrenowaniu kakażżdej praktycznej sytuacjidej praktycznej sytuacjiodpowiada neuron, ktodpowiada neuron, któóry jry jąą reprezentuje.reprezentuje.

•• SSąąsiedztwo powoduje siedztwo powoduje wykrywanie sytuacji wykrywanie sytuacji podobnychpodobnych do prezentowanych.do prezentowanych.

•• W sieci powstaje W sieci powstaje wewnwewnęętrzny obraz trzny obraz śświata wiata zewnzewnęętrznegotrznego..

•• SygnaSygnałły blisko siebie by blisko siebie bęęddąą wykrywane przez wykrywane przez leleżążące ce blisko siebieblisko siebie neurony.neurony.

PrzykPrzykłładowe zastosowania:adowe zastosowania:•• robotrobot dostosowujdostosowująący zachowanie do zmiennego cy zachowanie do zmiennego śśrodowiska;rodowiska;

•• systemy bankowesystemy bankowe –– stworzenie modelu stworzenie modelu wiarygodnego kredytobiorcy.wiarygodnego kredytobiorcy.

www.kwmimkm.polsl.pl

74

ZawierajZawierająą sprzsprzężężenia zwrotne:enia zwrotne:

SIECI REKURENCYJNESIECI REKURENCYJNE

Po jednorazowym podaniu sygnaPo jednorazowym podaniu sygnałłu WE u WE –– ddłługotrwaugotrwałły y procesproces zmiany sygnazmiany sygnałłu WY, w efekcie u WY, w efekcie stan rstan róównowagiwnowagi..

www.kwmimkm.polsl.pl

75

•• Waga sprzWaga sprzężężenia enia dodatniadodatnia –– sygnasygnałł zmienia sizmienia sięęjednokierunkowojednokierunkowo (aperiodycznie);(aperiodycznie);

•• Waga sprzWaga sprzężężenia enia ujemnaujemna –– sygnasygnałł zmienia sizmienia sięęoscylacyjnieoscylacyjnie;;

•• Przy neuronach nieliniowych moPrzy neuronach nieliniowych możżliwe liwe chaotyczne chaotyczne bbłąłądzeniedzenie sygnasygnałłóów;w;

•• stabilne (stabilne (zbieganie sizbieganie sięę sygnasygnałłóów do okrew do okreśślonej wartolonej wartośścici););•• niestabilne (niestabilne (wartowartośści sygnaci sygnałłu coraz wiu coraz więększeksze).).

Zachowania:Zachowania:

•• zadania optymalizacji (zadania optymalizacji (stany rstany róównowagi odpowiadajwnowagi odpowiadająąrozwirozwiąązaniom zadazaniom zadańń););

•• pamipamięęci skojarzeniowe (ci skojarzeniowe (drobny fragment informacji pozwala drobny fragment informacji pozwala odtworzyodtworzyćć cacałąłą informacjinformacjęę).).

Zastosowania:Zastosowania:

www.kwmimkm.polsl.pl

76

SIECI HOPFIELDASIECI HOPFIELDA

•• KaKażżdy neuron jest zwidy neuron jest zwiąązany z kazany z każżdym innym na zasadzie dym innym na zasadzie obustronnego sprzobustronnego sprzężężenia zwrotnego.enia zwrotnego.

•• Zabroniono sprzZabroniono sprzężężeeńń zwrotnych obejmujzwrotnych obejmująących pojedynczy cych pojedynczy neuron.neuron.

•• Symetria wspSymetria wspóółłczynnikczynnikóów wagowych:w wagowych: X Ywxy

wyx

wxy=wyx

Skutek:Skutek: zachodzzachodząące procesy sce procesy sąą zawszezawsze stabilne.stabilne.