Saturday 17 June 2017

Automatiscznie Sieci Neuronowe Forex


ARCHITEKTURY, ALGORYTMY UCZENIEN I PROJEKTOWANIE SIECI NEURONOWYCH 1.1. HISTORIA ROZWOJU SZTUCZNYCH SIECI NEURONOWYCH 1.2. INSPIRACJE BIOLOGICZNE 1.3. MATEMATYCZNY MODELL SZTUCZNEGO NEURONU I SIECI NEURONOWEJ 1.4. KLASYFIKACJA SIECI NEURONOWYCH 1.5. WSTPNE PRZETWARZANIE DANYCH 1.5.1. Skalowanie i normalizacja 1.6. UCZENIE SIECI 1.6.1. Algorytm wstecznej propagacji bdw 1.6.2. Algorytm wstecznej propagacji bdu ze wspczynnikiem Momentum 1.7. DOBR STRUKTURY SIECI NEURONOWEJ 1.7.1. Metody wzrostu 1.7.2. Metody redukcji 1.7.3. Metody optymalizacji dyskretnej 1.7.4. Algorytm genetyczny jako optymalizator struktury sieci ltligt Prezentacja I ANALIZA WYNIKW PREDYKCJI NOTOWA GIEDOWYCH INDEKSU WIG20 ltligt ltolgt 1. Architektury, algorytmy uczenia i projektowanie sieci neuronowych Sieci neuronowe s sztucznymi strukturami, ktrych budowa i dziaanie zostay zaprojektowane w sposb modelujcy dziaanie naturalnego ukadu nerwowego, w szczeglnoci Mzgu Ciesz si bardzo duym zainteresowaniem. Jednym z gwnych czynnikw majcych na zu wpyw jest moliwo stosowania ich w bardzo wielu dziedzinach ycia do rozwizywania problemw, gdzie uycie innych metod jest trudne lub niemoliwe. Znakomicie sprawdzaj si w problemach klasyfikacji, predykcji, zwizanych ze sterowaniem, analiz danych. S czsto wykorzystywane w geologii, fizyce, ekonomii, dla celw wojskowych oraz medycznych. Na tak wielk popularno wpywaj podstawowe cechy oferowane przez sieci neuronowe. Pozwalaj eine rozwizywa problemy dla opisw ktrych nie ma modeli matematycznych. Przygotowanie Sieci tun Pracy Scherz dwuetapowe. Pierwszym Scherz proces uczenia, w ktrym sie uczy si na podstawie danych empirycznych jak reagowa na zadany bodziec. Gdy sie zostanie wytrenowana mona przej do etapu pracy waciwej (drugi etap), podajc na jej wejcia dowolne sygnay. Jest wic zu metoda atwa w uyciu. Poza tym sie neuronowa umoliwia generalizacj zdobytej wiedzy. Sie nauczona na pewnym wektorze danych bdzie dawa wyniki dla danych nie biorcych udziau w procesie uczenia. Cechy te zostay uzyskane dziki wzorowaniu si na sposobie pracy mzgu. Dziki badaniom nad budow ich funkcjonowaniem naturalnego systemu nerwowego oraz prbom przeniesienia zaobserwowanych mechanizmw tun modeli matematycznych, powstao bardzo uyteczne narzdzie, chtnie wykorzystywane w wielu zadaniach praktycznych. 1.1. Historia rozwoju sztucznych sieci neuronowych Prace nad poznaniem prozession zachodzcych w mzgu, ktre maj wpyw na inteligentny sposb jego dziaania, byy prowadzone von bardzo dawna przez wielu badaczy z caego wiata. Pocztkiem dziedziny sztucznych sieci neuronowych von przedstawienie matematycznego modelu neuronu przez McCullocha i Pittsa w 1943 roku. Ich praca staa si inspiracj dla wielu pniejszych badaczy. W 1949 roku Donald Hebb odkry, e informacja moe von przechowywana jako warto wag pomidzy poczeniami poszczeglnych neuronw ich zaproponowa pierwszy algorytm uczenia takiej sieci. Polega auf na zmianach wackeln pocze - nazwany auf zosta regu Hebba. Pierwsz znan i opisan, dziaajc sieci neuronow von perceptron. Zostaa ona opracowana przez Rossenblatta w 1957 roku w Cornell Luftfahrt-Labor. W 1960 roku powstaa struktura Adaline, nv ktr skada si pojedynczy Element liniowy. Jej twrc von Bernard Widrow ze Standford University. Element Adaline po rozbudowaniu o kolejne elementy poczone ze schluchzen tworzya sie Madaline. Pocztkowy gwatowny wzrost zainteresowania ich postp w tej dziedzinie zosta ostudzony w latach 70-tych przez publikacj pracy Minsky-ego i Paperta (1969 r.) Ktra dowodzia, sie sie skadajca si z jednej warstwy liniowej ma bardzo ograniczone zastosowanie. Pomimo tego powstawao wiele jetzt pomysw i modeli sieci. Mona tu wymieni sie Cerebellatron Davida Mara (sterowanie robotem), Gehirn in der Schachtel Jamesa Andersona (1977 r.) Dziaajca jak pami asocjacyjna. Zastj w badaniach nad sieci zosta przeamany po publikacji algorytmu uczenia wielowarstwowej nieliniowej sieci neuronowej. Metoda wstecznej propagacji bdw zostaa po raz pierwszy opisana przez Werbosa w 1974 roku, jednak jej popularyzacja nastpia dopiero w 1986 roku za spraw Rumelharta. Um umweltzusammenfassung wielowarstwowych nieliniowych sieci neuronowych i ich skuteczne uczenie. Spowodowao zu powrt zainteresowania sieciami neuronowymi ich dalszy szybki ich rozwj. 1.2. Inspiracje biologiczne Jak ju wspomniano wyej, badacze rozwijajcy Modell Sieci neuronowej wzorowali si na natürliche systemie nerwowym, szczeglnie mzgu. Mzg skada si z okoo 10 miliardw elementarnych komrek nerwowych nazywanych neuronami. Tworz ona bardzo skomplikowane sieci powiza midzy schluchzen. Neuron w mzgu pracuj rwnolegle. Poszczeglne Neuron skadaja si z nastpujcych czci: dendrytw, perikarionu, aksonu. Dendryty s wejciami neuronu. Prowadz sygna von innych Neuronw. Perikarion stanowi cz skalajc dla sygnaw z dendrytw. Akson peni funkcje wyjcia sygnau von neuronu tun innych neuronw. Deutsch - Übersetzung - Linguee als Übersetzung von "telodendron" vorschlagen Linguee - Wörterbuch Deutsch - Englisch Andere Leute übersetzten 'wyjciow' so ins Deutsche:. Nonikiem pamici w natürliche nej sieci neuronw jest synapsa - biochemiczne zcze, modyfikujce sygnay. Na podstawie budowy biologicznej powsta vorbildliche sztucznego neuronu oraz sieci neuronowej. Jest auf znacznie uproszczony w stosunku do systemu biologicznego. 1.3. Matematyczny Modell sztucznego neuronu i sieci neuronowej Na podstawie obserwacji mechanizmw zachodzcych w natürliche nej sieci neuronw, opracowano matematyczne koncepcje sztucznych sieci neuronowych. Podobnie jak w naturalnych sieciach, skadaj si ein z elementarnych komrek - neuronw. Zdajc sobie spraw z baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja baja, Jego dziaanie mona przestawi nastpujco: - tun neuronu docieraj sygnay (na wejcia neuronu), - kady sygna ma swoja wag (efektywno synapsy), - w neuronie obliczana jest waona suma wej ich odejmowana warto progowa, - wynik sumy waonej wprowadzany jest jako argument funkcji Aktywacji, wynik funkcji jest wprowadzany na wyjcie neuronu. Schemat1.jpg (static.4programmersuploadsattachmentschemat1.jpg) Schemat budowy sztucznego neuronu. Na tej podstawie, dziaanie pojedynczego neuronu mona opisa nastpujcymi wzorami: wzor1.jpg (static.4programmersuploadsattachmentwzor1.jpg) wzor2.jpg (static.4programmersuploadsattachmentwzor2.jpg) wic: wzor3.jpg (static.4programmersuploadsattachmentwzor3.jpg) funkcja aktywacji moe mie rne postaci . Kada funkcja, aby moga peni t rol musi von ciga i atwo rniczkowalna. Wyjtkiem jest perceptron, w przypadku ktrego funkcja aktywacji nie jest poddana tym ograniczeniom. W praktyce stosuje si najczciej nastpujce funkcje: liniow, logistyczn, tangens hiperboliczny, sinus oraz signum. A) Funkcja liniowa Neurone z liniow funkcj aktywacji tworz liniowe sieci neuronowe. Warto waonej sumy wir sind przepisywane na wyjcie neuronu. Budowanie wielowarstwowych sieci liniowych nie jest uzasadnione, gdy zawsze mona zastpi j odpowiedni sieci jednowarstwow. B) Funkcja logistyczna Funkcja logistyczna jest bardzo czsto stosowan funkcj aktywacji neuronu. Ozloni jest ona nastpujcym wzorem: wzor4.jpg (static.4programmersuploadsattachmentwzor4.jpg) Funkcja przyjmuje wartoci z przedziau (0,1). Na rys. Zamieszczonym niej widoczny jest wpyw wspczynnika beta na posta funkcji aktywacji. Funkclogist1.jpg (static.4programmersuploadsattachmentfunkclogist1.jpg) Przebieg wartoci funkcji logistycznej przy rnych wartociach wspczynnika beta. C) funkcja tangens hiperboliczny Rovie czsto stosowan funkcj przejcia jest tangens hiperboliczny. Wzr funkcji jest nastpujcy: wzor5.jpg (static.4programmersuploadsattachmentwzor5.jpg) Funkzähler tangens hiperboliczny przyjmuje wartoci z przedziau (-1,1) funkctanh. jpg (static.4programmersuploadsattachmentfunkctanh. jpg) Przebieg wartoci funkcji tanh dla rnych parametrw beta. d) funkcja Sinus Dla zastosowa w sieciach neuronowych, stosuje si nastpujc posta: wzor6.jpg (static.4programmersuploadsattachmentwzor6.jpg) e) funkcja signum ltbrgt wzor7.jpg (static.4programmersuploadsattachmentwzor7.jpg) Jednokierunkowa, wielowarstwowa sztuczna sie neuronowa powstaje przez poczenie opisanych Wyej sztucznych neuronw. Stosowana jest przy tym zasada czenia kadego neuronu warstwy poprzedniej z kadym neuronem warstwy nastpnej. Powstajce mit zehn sposb warstwith mona podzieli na: a) warstw wejciow, b) warsty ukryte, c) warstw wyjciow. Schematbudowy. jpg (static.4programmersuploadsattachmentschematbudowy. jpg) Schemat budowy jednokierunkowej, nieliniowej sztucznej sieci neuronowej. Dziaanie sieci neuronowej mone przedstawi w nastpujcych krokach: - dane wejciowe s wprowadzane na wejcia warstwy wejciowej, - dane s propagowane na wejcia nastpnych warstw, ein tun warstwy wyjciowej, - wartoci otrzymane w ostatniej, wyjciowej warstwie sieci neuronowej traktuje si jako wyjcia sieci. 1.4. Klasyfikacja sieci neuronowych W rozdziale 1.3 przedstawiona zostaa budowa ich sposb dziaania jednokierunkowej wielowarstwowej, nieliniowej sieci neuronowej. Jest zu najczciej wykorzystywany Modell w neurokomputingu. Trzeba jednak zauway, e istnieje wiele innych modeli sieci, czsto wyspecjalizowanych w szczegowych typach zada, rnicych si koncepcjach nauki, innym przepywem sygnaw. Poniej przedstawiono opisane w literaturze najwaniejsze typy sieci neuronowych i ich krtk charakterystyk. Klasyfikacji sieci neuronowych dokonuje si wedug czterech podstawowych kryteriw: metod trenowania, kierunkw propagacji sygnaw w sieci, typw funkcji przejcia, rodzajw danych wprowadzanych na wejcia. Klasyfikacja sieci wedug tych kryteriw wyglda nastpujco: klasyfikacja. jpg (static.4programmersuploadsattachmentklasyfikacja. jpg) Klasyfikacja sieci neuronowych. Sieci nadzorowane s czsto spotykanymi sieciami w wielu zastosowaniach. Ich schiebe polega na prezentowaniu sieci wartoci wejciowych wraz z odpowiednimi, podanymi wartociami na wyjciach. Na tej podstawie sie tak ustawia wartoci wag, von odpowied miecia si w griechenland bdu okrelonym przez uytkownika. Sieci liniowe s stosowane raczej rzadko, ze wzgldu na mae moliwoci. Sieci jednokierunkowe nieliniowe s obecnie najczciej stosowanymi strukturami neuronowymi. Cechuj si dobr efektywnoci dziaania oraz prost i inuicyjn budow. S ein rwnie bardzo uniwersalne. Sieci rekurencyjne dziaaj w nieco inny sposb ni sieci jednokierunkowe. Wyjcia niektrych neuronw, lub caych warstw mog von wprowadzane ponownie na wejcia tych samych neuronw lub warstw. Sieci nie nadzorowane rni si od sieci nadzorowanych sposobem treningu. Nie wymagaj ein podawania podanych wartoci wyjciowych dla prezentowanych wej lecz tylko wektorw wejciowych. 1.5. Wstpne przetwarzanie danych Sie neuronowa do odpowiedniego dziaania potrzebuje poprawnie zdefiniowanych danych wejciowych. Wie kann ich meine Bestellung ändern? Wie kann ich bezahlen? Nietzahlen von rodzaju sieci i problemu, ktry ma von rozwizany, dane powinny spenia podstawowe warunki, takie jak reprezentatywno, pene oddanie problemu, odpowiednie przeskalowanie i normalizacja, eliminacja niedokadnoci pomiarw. Przeprowadzenie tych czynnoci jest niezbdne tun poprawnego dziaania sieci. 1.5.1. Skalowanie i normalizacja Däne przetwarzane przez sie pochodz najczciej z obserwacji pewnych wartoci w badanym modelu. Ich weiß nicht, was Sie wissen wollen. Istnieje kilka popularnych metod skalowania. Poniej wymieniono najczciej stosowane. - skalowanie wzgldem wartoci maksymalnej: wzor8.jpg (static.4programmersuploadsattachmentwzor8.jpg). - skalowanie wzgldem wartoci redniej: wzor91.jpg (static.4programmersuploadsattachmentwzor91.jpg). - skalowanie wzgldem odchylenia von wartoci redniej: wzor10.jpg (static.4programmersuploadsattachmentwzor10.jpg). Przeskalowanie do zakresu (-1,1), - skalowanie wzgldem odchylenia von wartoci minimalnej: wzor11.jpg (static.4programmersuploadsattachmentwzor11.jpg), transformacja do wartoci (0,1), - skalowanie wößdem standardowego odchylenia redniokwadratowego: wzor12.jpg (statisch .4programmersuploadsattachmentwzor12.jpg). Wybr odpowiedniej metody skalowania jest uzaleniony von rodzaju rozwizywanego problemu. 1.6. Uczenie sieci Jedn z gwnych zalet sieci neuronowej w stosunku do innych metod przetwarzania danych jest umiejtno generalizacji wiedzy, co umoliwia poprawn reakcj na sygnay nie przewidziane przez projektanta. W odrnieniu od metod matematycznych lub algorytmicznych sie moe von wykorzystywana dla wielu rnych modeli, bez znaczcych modyfikacji. Powysze cechy mog zosta uzyskane tylko przez zastosowanie odpowiedniego algorytmu uczenia. Istnieje wiele algorytmw uczenia sieci. Do najczciej stosowanych zalicza si metod wstecznej propagacji bdw ich jej modyfikacje. 1.6.1. Algorytm wzcznej propagacji bdw Algorytm wstecznej propagacji bdw Scherz podstawowym algorytmem uczenia nadzorowanego wielowarstwowych jednokierunkowych sieci neuronowych. Polega na takiej zmianie wag sygnaw wejciowych Kadego neuronu w kadej warstwie, von warto bdu dla kolejnych von uczcych zawartych w zbiorze uczcym von jak najmniejsza. Wykorzystuje auf w tym celu metod gradientow - najszybszego spadku. Sie können auch jetzt schon Beiträge lesen. Suchen Sie sich einfach das Forum aus, das Sie am meisten interessiert. Schemat przebiegu algorytmu wstecznej propagacji bdu. Schemat przebiegu algorytmu wstecznej propagacji bdu. Przebieg algorytmu dla wszystkich elementw cigu uczcego nazywa si epok. Jak ju wspomniano wyej, sie jest uczona poprzez odpowiednie zmiany wartoci wag na wejciach poszczeglnych neuronw. Aby mona tego dokona potrzebne jest okrelenie wartoci bdw na wyjciach poszczeglnych neuronw. (Static.4programmersuploadsattachmentwzor13.jpg), gdzie wzor14.jpg (static.4programmersuploadsattachmentwzor14.jpg) ist ein Programm, mit dem Sie sich in der Lage sein müssen, Jest bdem sygnau wyjciowego poszczeglnego neuronu wzor15.jpg (static.4programmersuploadsattachmentwzor15.jpg). Jest sygnaem wyjciowym czci liniowej neuronu wzor16.jpg (static.4programmersuploadsattachmentwzor16.jpg) - sygna wzorcowy ich-tego neuronu Dla kadej innej warstwy k, bd wylicza si wedug nastpujcego wzoru: wzor17.jpg (static.4programmersuploadsattachmentwzor17.jpg) oznaczenia. Wzor18.jpg (static.4programmersuploadsattachmentwzor18.jpg) - wyjcie neuronu, wij (k) - waga wejcia j w i-tym neuronie w warstwie k, n - nummerieren okresu przebiegu algorytmu. Wyznaczanie wartoci bdw odbywa si w kierunku von warstwy wyjciowej wstecz do warstwy wejciowej. (Static.4programmersuploadsattachmentwzor20.jpg) Algorytm mona wic przedstawi nastpujco: wzor21.jpg (static.4programmersuploadsattachmentwzor21.jpg) Dziaanie algorytmu koczy si, gdy osignity zostanie poziom Sie haben keine Berechtigung zur Stellungnahme. Für den Inhalt der verlinkten Seiten sind ausschließlich deren Betreiber verantwortlich. Bdu wyznaczony przez uytkownika lub po przebiegu okrelonej liczby epok. 1.6.2. Algorytm wstecznej propagacji bdu ze wspczynnikiem Momentum Algorytm wstecznej propagacji bdw ma niestety kilka wad. Do najczciej wymienianych zalicza si dua liczba iteracji potrzebna tun osignicia oczekiwanego wyniku oraz wraliwo na minima lokalne funkcji bdu. Jego dziaanie zaley rwnie von odpowiednio dobranego wspczynnika szybkoci uczenia. Zbyt kann powoduje gegraben prac algorytmu ein zbyt duy moe powodowa oscylacje. Istnieje jednak metoda zwikszania tempa uczenia bez pogorszenia jakoci uczenia orrás przy mniejszej wraliwoci na minima lokalne. Jest zu momentowa metoda wstecznej propagacji bdu. Modyfikacja podstawowego algorytmu polega tu na dodaniu czonu, ktry peni rol wspczynnika bezwadnoci przy modyfikacji wagi. Powoduje zu wiksz pynno zmian oder przeskakiwanie nad minimami lokalnymi. (Static.4programmersuploadsattachmentwzor22.jpg) gdzie: wzor23.jpg (static.4programmersuploadsattachmentwzor23.jpg) jest wzorem algorytmu wstecznej propagacji bdw (BP), Alfa - wspczynnik Momentum. Z powyszego wzoru wida, e podstawowy czon algorytmu nie uleg zmianie. Widoczny jest czon bezwadnoci, o wspczynniku. Powstaje auf poprzez wyliczenie rnicy wagi Ich bin nicht eingeloggt. W ten ten ten.... Z z z z z z z z z z z z z z z z z z.................. 1.7. Dobr struktury sieci neuronowej Jednym z bardziej znaczcych czynnikw, majcych wpyw na parametrie dziaania sieci, takie jak szybko uczenia, wielko popenianego bdu, zdolno generalizacji, ma odpowiednio dobrana struktura sieci. Niestety nie istniej jednoznaczne metody jej definiowania. Czsto nawet pozornie podobny problemy trzeba rozwizywa za pomoc rnej pod wzgldem struktury sieci. O ile ilo neuronw w warstwach wejciowej Ich wyjciowej jest determinowana przez zaoenia uytkownika, zu iloci warstw ukrytych i neuronw, ktre si w nich znajduj nie s wielkociami oczywistymi. Metody optymalizacji wielowarstwowej sieci neuronowej s przedmiotem bada od wielu lat. Problem zehn nie jest jednak zamknity. Opracowano dotychczas grup algorytmw, ktrych dziaanie pomc w utworzeniu sieci optymalnej. Mono podzieli je na trzy grupy: - metody wzrostu, - metody redukcji, - metody optymalizacji dyskretnej. Adna z wymienionych wyej metod nie jest idealna. Czsto wybr ktrej z nich zaley von rodzaju rozwizywanego problemu. 1.7.1. Metody wzrostu Algorytmy, nalece tun metody wzrostu zakadaj, und so weiter pocztku procesu optymalizacji struktura sieci powinna von moliwie maa. W kolejnych eseracjach zostaj dodawane kolejne neuronischen ukryte, co powinno powodowa zwikszenie sprawnoci dziaania sieci. Czynno ta jest powtarzana eine do osignicia punktu optymalnego. Przykadowe algorytmy dziaajce wedug metody wzrostu an: - algorytm kafelkowy, - dynamiczna kreacja neuronw. Algorytm kafelkowy jest stosowany tun konstruowania nieliniowej, wielowarstwowej sieci neuronowej. Algorytm polega na dodawaniu kolejnych neuronw tun struktury sieci. Kady pierwszy Neuron w warstwie peni specjaln funkcj. Nazywa si gehen elementem gwnym. Na podstawie wyniku elementu gwnego warstwicht ostatnio dodanej ocenia si jako sieci. Jeeli jako nie jest wystarczajca, wprowadzane s kolejne Neuronierung tun warsty. Czynno ta jest wykonywana tun Momentu gdy sie nie osignie optymalnych parametrw struktury. Algorytm dynamznej kreacji neuronw zosta zaprojektowany do optymalizacji sieci nieliniowej o jednej warstwie ukrytej. Zasada dziaania jest bardzo zbliona tun algorytmu kafelkowego. Przebieg dziaania algorytmu wyglda nastpujco: - utworzenie sieci pocztkowej o maej liczbie neuronw w warstwie ukrytej (najczciej 2 neuronie), - trenowanie sieci za pomoc algorytmu wstecznej propagacji, - dodanie neuronu do warstwy ukrytej. Czynnoci te s powtarzane, ein sie osignie odpowiedni struktur do rozwizania okrelonego zadania. 1.7.2. Metody reduzcji Algorytmy metody redukcji s rwnie czsto stosowane jak metody wzrostu. Opieraj si eine na zaoeniu, e kolejne iteracje maj zmniejsza ilo neuronw ukrytych. Wyrnien si tu nastpujce metody: - metody wraliwoci, - metody analizy kowariancji. W pocztkowym stadium sie neuronowa charakteryzuje si du zoonoci strukturaln. Zostaje ona redukowana eine do osignicia optymalnej struktury. W metodzie wraliwoci usuwa si poczenia synaptyczne, ktrych wagi maj najmniejszy wpyw na wynik sieci. Metoda analysieren Sie die Bedeutung des Wortes "jest zbliona do wczeniej wymienionej metody. Analizie poddawana jest macierz kowariancji sygnaw generowanych przez Neuronierung warstwy ukrytej. Liczba znaczco duych wartoci wasnych makierzy okrela liczb neuronw, ktre powinny znajdowa si w warstwie ukrytej. 1.7.3. Metody optymalizacji dyskretnej Algorytmy optymalizacji dyskretnej opieraj si na zaoeniu, e proces nauki sieci ich wyboru architektury zachodz rwnoczenie. Czynnikiem,.... Any any any any any.............. W kolejnych krokach sieci dobierane s tak, von dy do maksymalizacji funkcji jakoci. Jednym z najciekawszych algorytmw optymalizacji jest algorytm genetyczny. 1.7.4. Algorytm genetyczny jako optymalizator struktury sieci Algorytmy genetyczne s szczeglnie interesujc Form rozwizywania problemw optymalizacyjnych. Podobnie jak sieci neuronowe, metodyka ta powstaa na podstawie obserwacji procesw zachodzcych w wiecie organizmw ywych. ltbrgt Implementacje algorytmw genetycznych pozwoliy stwierdzi, e Scherz zu metoda skuteczna i atwa tun zastosowania w wielu problemach optymalizacji. Podobnie jak sie neuronowa, algorytm genetyczny nie wymaga odyytkownika znajomoci szczegw procesu optymalizacji danego zadania. Wymagane jest jedynie okrelenie pewnej funkcji, zwanej funkcj przystosowania, ktrej warto bdzie maksymalizowana w kolejnych przebiegach algorytmu. Poniej przedstawi oglne wiadomoci dotyczce modeli ewolucyjnych. Skupiono si na klasycznym algorytmie genetycznym oder przedstawi przykadowe zaoenia algorytmu optymalizujcego hipotetyczn siec neuronow. Zasada dziaania klasycznego algorytmu genetycznego Algorytm genetyczny operuje na chromosomach. Rol t peni wirktor o staej dugoci, najczciej skadajcy si z wartoci binarnych. Kady z bitw wektora peni rol genu. Zbir chromosomw o okrelonej licznoci tworzy populacj. Algorytm genetyczny potrzebuje zdefiniowania nastpujcych operacji: - generacji populacji pocztkowej, - okrelenia jakoci poszczeglnych osobnikw, - reprodukcji, - mutacji, - krzyowania. Schemat algorithmie genetycznego przedstawiono na rys: schematGen. jpg (static.4programmersuploadsattachmentschematGen. jpg) Schemat klasycznego algorytmu genetycznego. Generacja populacji pocztkowej zaczyna proces ewolucji. Pojej wykonaniu otrzymujemy populacj, skadajc si z osobnikw o Chromosomach z losowymi wartociami genw. Bardzo wanym elementem jest okrelenie licznoci populacji. Zbyt maá liczba osobnikw moe prowadzi tun maego przeszukania przestrzeni rozwiza, ein zbyt dua do dugiego dziaania algorytmu. Przykadowy Chromosom, o 10 Genach moe wyglda nastpujco: Ch (1,0,0,1,0,0,0,1,1,0). Sposb budowania okrelonego osobnika na podstawie Chromosomu binarnego jest okrelany przez projektanta algorytmu. Kolejnym etapem algorytmu jest obliczenie wartoci funkcji przystosowania. Okrela ona jako osobnika, opartego na wzorcu znajdujcym si w Chromosomie. Ist es nicht so, wie es ist, ist es nicht so, wie es ist. Jeeli wyznaczona funkcja nie spenia powyszych warunkw, powinna zosta poddana transformacji. Po obliczeniu wartoci funkcji przystosowania kadego osobnika, nastpuje selekcja chromosomw do reprodukcji. Najprostsz ich najczciej stosowan jest metoda ruletki. Jej sposb dziaania przebiega w nastpujcej kolejnoci: - obliczenie sumy przystosowa wszystkich osobnikw, - obliczona Suma stanowi cae koo ruletki, - kademu osobnikowi przydzielany jest wycinek koa wedug wzoru: wzor24.jpg (static.4programmersuploadsattachmentwzor24.jpg) - losowana jest liczba z przedziau LT0 , 100gt, - osobnik, na ktry wskazuje wylosowany punkt zostaje wytypowany tun reprodukcji, - liczba losowa jest rwna liznoci populacji. W wyniku dziaania tej metody, wyznaczone zostaj Chromosomie tun reprodukcji. Cho wybr jest losowy, Chromosomie o wyszej wartoci funkcji przystosowania maj wiksze prawdopodobiestwo wylosowania. Jest zu bezporednia analogia z procesu ewolucji naturalnej. Betreiber krzyowania umoliwia wymian materiau genetycznego pomidzy rodzicami. Z grupy wyznaczonych np. Metod ruletki chromosomw generuje si losowo pary rodzicw. Jeden rodzic moe powrzy si wiele razy (zu rwnie analogia do procesw naturalnych). Kolejnym etapem jest losowanie punktu podziau kodu genetycznego rodzicw (Übergang). Pierwszy potomek otrzymuje pierwsze n genw rodzica A i m genw rodzica B (nmwielko chromosomu). Drugi potomek dziedziczy pierwsze n genw rodzica Ich bin genw rodzica A. Iteracja ta jest powtarzana dla kadej pary rodzicw. W wyniku jej dziaania otrzymujemy populacj potomkw, ktra zastpuje populacj rodzicw. Wanym Operator Schachteloperator mutacji. Trzeba zaznaczy, und mutacja nie Ma za zadanie polepszy jako osobnikw, lecz zwikszy rnorodno genetyczn. Metoda dziaania opera mutacji jest bardzo prosta - losowana jest liczba z przedziau lt1, ngt gdzie n jest liczb genw w chromosomie. Po wylosowaniu liczby gen, o nummerieren jej odpowiadajcym jest przekamywany - jeli mia warto 1 zu scherzen ona zmieniana na 0 i odwrotnie. Operacja mutacji nie powinna przebiega zbyt czsto. Zakada si, analogicznie tun procew naturalnych, bardzo mae prawdopodobiestwo jej wystpienia. Powinna von ona przeprowadzona na populacji potomkw. Wszystkie opisane wyej czynnoci wykonujemy tun chwili osignicia warunku stopu. Najczciej okrela si gehen jako okrelon liczb powtrze (pokole). Gdy algorytm zatrzyma si, najlepszy osobnik ostatniego pokolenia przyjmowany Jest Jako rozwizanie problemu optymalizacyjnego. Nie istnieje gwarancja, e Scherz zu rozwizanie optymalne. Praktyka pokazuje jednak, e przy odpowiednio dobranej licznoci populacji, iloci pokole Ich bin nicht verheiratet. Zaoenia dotyczce algorytmu genetycznego, wykorzystanego tun optymalizacji hipotetycznej sieci neuronowej. Jak wspomniaem wczeniej, algorytm genetyczny dokonuje operacji na osobnikach pewnej populacji, dokadniej mwic na chromosomach poszczeglnych osobnikw poprzez standardowe operatorisches genetyczne. Podstawowymi elementami, ktre trzeba zaprojektowa implementujc algorytm genetyczny, s: - okrelenie postaci funkcji celu, - sposb kodowania poszczeglnych sieci neuronowych w Chromosomie, - okrelenie licznoci populacji, - okrelenie prawdopodobiestwa wystpienia mutacji i inwersji. W zadaniu optymalizacji struktury sieci, jako cel wybraem liczb epok potrzebn tun trenowania danej sieci przy wziciu pod uwag zoonoci jej struktury. Ewolucja dy wic tun maksymalizacji nastpujcej funkcji: Model taki przyjem na podstawie wasnych symulacji. Testy wykazay, e aden z tych elementw oddzielnie nie pozwa na otrzymanie optymalnej sieci. Czsto sie o bardziej zoonej strukturze wykazuje nieco lepsze waciwoci treningu ni sie mniejsza, lecz nie s ein proporcjonalne do zoonoci obliczeniowej. Sensownym wy wydaje si podda minimalizacji oba czynniki, co Powinno przy dostatecznie dugim, w sensie pokoleniowym czasie, pozwoli na otrzymanie sieci o optymalnych parametrach. Posta odwrotn funkcji zastosowano w celu zgodnoci z klasycznym algorytmem genetischen, w ktrym optymalizacja polega na maksymalizacji funkcji celu. Kolejnym elementem algorytmu genetycznego, ktry naley dobra podczas implementacji jest liczno populacji. Zbyt dua powoduje wyduenie czasu dziaania algorytmu ein zbyt maa nie zapewnia dostatecznej rnorodnoci genetycznej. Ja stosuj liczno populacji Rrens 20. Kolejnym wanym elementem jest sposb kodowania chromosomw, opisujcych struktur sieci. Zgodnie z zaoeniami klasycznego algortymu genetycznego przyjmuj kodowanie binarne. Mona przyj nastpujce rozwizanie. Kady Chromosom skada si z 21 bitw, po 7 bitw na kad warstw ukryt sieci (przy zaoeniu struktury 3 warstw ukrytych sieci - ein jak wynika z dowiadcze ludzi zajmujcych si tymi tematami, taka zoono wystarcza w wikszoci problemw, max po 128 neuronw na warstw) . Warstwa wejciowa ich wyjciowa nie s kodowane, gdy ich rozmiar jest determinowany przez dane uczce oraz charakter problemu. Liczba neuronw w danej warstwie jest obliczana poprzez konwersje liczby z reprezentacji bitowej na dziesitn. Ostatnim parametrem, ktry musi zosta okrelony auf etapie implementacji zu wielko prawdopodobiestwa wystpienia operacji genetycznych. Mog von bis nastpujce wielkoci prawdopodobiestw: - operacja krzyowania - 1, - operacja mutacji - 0,01, - operacja inwersji - 0,001. Pozostae elementy algorytmu, wykorzystanego tun optymalizacji sieci s zgodne z zaoeniami klasycznego algorytmu genetycznego. 2. Prezentacja i analiza wynikw predykcji notowa giedowych indeksu WIG20 Przejd teraz do pokazania efektywnoci zastosowania wielowarstwowej, nieliniowej sieci neuronowej do predykcji cigw niedeterministycznych. Badanie zostao wykonane przy wykorzystaniu opracowanej specjalnie do tego celu aplikacji (prawdopodobnie niebawem zamieszcz w sieci - musz tylko zlokalizowa pytk ze rdami, wic prosz o cierpliwo). Trzeba na tym und podkreli, e wielowarstwowa sie nieliniowa jest sieci oglnego przeznaczenia - mona zastosowa specjalizowane architektury ich sprawi, e predykcja da jeszcze lepsze wyniki. Do predykcji notowa WIG20 wykorzystana zosta sie sie architekturze 50-25-10-1, czyli 50 wej, 25 neuronw w warstwie pierwszej, 10 w drugiej oraz jedno wyjcie. Sie zostaa poddana treningowi o nastpujcych parametrach: - wspczynnik uczenia 0,3, - wspczynnik momentu 0,9, - dopuszczalny bd epoki0,01. Zbir uczcy skada si z 200 par uczcych. Kada para zawieraa 50 kolejnych notowa geschichtecznych indeksu WIG20. Däne zostay przeskalowane metod odchylenia von redniej. Trenowanie trwao 2934 epok. Po treningu wykonano predykcj o horyzoncie 38 okresw. Wynik predykcji przedstawiono na rys. Wynikwig20.jpg (static.4programmersuploadsattachmentwynikwig20.jpg) Wynik predykcji notowa WIG20 Ich wartoci rzeczywistych. W celu dokonania analizy jakoci predykcji wykonane zostay testy, porwnujce wyniki uzyskane za pomoc sieci neuronowej z zitieren metodami funkcji trendu oraz przeprowadzono pomiary bdw oraz wynikw testw. Jako pierwsze przeprowadzono porwnanie wynikw z metodami analizy funkcji trendu. Wykorzystano vorbildliches liniowy i wielomianowy. Wynik przedstawiono na rys ein szczegowe wyniki w tabeli pod ilustracj: wynikroznemetody. jpg (static.4programmersuploadsattachmentwynikroznemetody. jpg) Sie können auch jetzt schon Beiträge lesen. Suchen Sie sich einfach das Forum aus, das Sie am meisten interessiert. Wartoci indeksu WIG20 w kolejnych okresach otrzymane przy zastosowaniu rnych metod predykcji. Tabelawyniki1.jpg (static.4programmersuploadsattachmenttabelawyniki1.jpg) Wykres ukazuje zupen nieprzydatno do tego zadania liniowego modelu funkcji trendu. Wartoci, uzyskane metod modellieren wielomianowego si o wiele lepsze. Aby wskaza, ktra z wybranych metod daje najlepsz skuteczno w badanym okresie przeprowadzono wyliczenia. Jako pierwsze wyliczono podstawowe parametrie. Wyniki przedstawiono w tabeli tabelatestytrendy. jpg (statisch.4programmersuploa. Achmenttabelatestytrendy. jpg) Wyniki testw dla rnych metod predykcji. Z wynikw zamieszczonych w tabeli wida znaczn przewag sieci neuronowej nad pozostaymi metodami oceny trendu. Kady parametr jest korzystniejszy w przypadku sieci neuronowej. Wyniki uzyskane dziki sieci oscyluj cay czas wok wartoci rzeczywistych. Kolejnym badaniem jest analiza wspczynnika zgodnoci kierunkw zmian, ktry okrela odsetek przypadkw, w ktrych kierunek rzeczywisty zmian jest zgodny z kierunkiem zmian zmiennych prognozowanych. Wspczynnik zehn mwi, w jakim stopniu dana metoda moe von wykorzystana w celu wspomagania podejmowania decyzji. (Static.4programmersuploadsattachmentwzor26.jpg) gdzie: wzor27.jpg (static.4programmersuploadsattachmentwzor27.jpg) Uzyskane wyniki (wzor27.jpg) Wziki: wzor26.jpg (static.4programmersuploadsattachmentwzor26.jpg) Uzyskane wyniki S nastepujce: zgodnosczmian. jpg (static.4programmersuploadsattachmentzgodnosczmian. jpg) Wyniki testu zgodnoci kierunkw zmian. Wida wic, und sie umoliwia lepsz skuteczno rwnie w tym tecie. Z powyszych testw wida, e sie neuronowa daje lepsze efekty von przedstawionych metod opartych na krzywych trendu. Wyniki, uzyskane przy wykorzystaniu wielowarstwowej, jednokierunkowej sieci neuronowej mog by jeszcze lepsze, gdy szereg wejciowy podda si operacjom wstpnej obrbki. Trzeba jednak pamita, e metodyka oparta na sieciach neuronowych, implementowana w systemach komputerowych, charakteryzuje si znaczn zoonoci obliczeniow. Bibliografia 1. Duch W. Korbicz J. Rutkowski L. Tadeusiewicz R. Biocybernetyka i inynieria biomedyczna 2000. Sieci neuronowe, Exit, Warszawa 2000. 2. Gwiazda T. Algorytmy genetyczne, WSPiZ, Warszawa 1998. 3. Grad L. Materiay do wykadw z przedmiotu Metody sztucznej inteligencji w zarzdzaniu, WSISiZ (chyba dostepne s jeszcze na stronach studentw wsisiz) 4. Goldberg D. E. Algorytmy genetyczne i ich zastosowanie, tum. K. Grygiel, wyd. 2, Wydawnictwo Nauowo-Techniczne, Warszawa 1998. 5. Tadeusiewicz R. Sieci neuronowe, Akademia Grniczo-Hutnicza im. Stanisawa Staszica w Krakowie, 1993. 6. Rutkowska D. Rutkowski L. Piliski M. Sieci neuronowe, algorytmy genetyczne i systemy rozmyte, Wydawnictwo Naukowe PWN, Warszawa 1999.sieci-neuronowe. pl Sicei neuronowe Ponisze informacje s tylko szacunkowe . Strony internetowej odwiedzajcy, napicie, dochd, etc pozycja moe si zmienia w duyst haltniu z dnia na dzie. Nasza ocena odwiedzajcych i aberodw, jest tylko na podstawie statystyk z konkretnej chwili, w konkretnym dniu. Naley odwiedzi stron czsto, aby zobaczy, czy strona zwiksza lub zmniejsza warto. :-) Przychody z reklam i odwiedzajcych Dzienna liczba odson tendencje w ruchu Ostatnia aktualizacja Info: Co zu jest Sicei neuronowe Analiza SEO 183.3 tekst VS -83.3 html Sieci neuronowe, przykad w przegldrce internetoerj, wykonany przez Replizenter. pl linki na miejscu u klienta Linki Nofollow na miejscu u klienta Analiza-Server Czy sieci-neuronowe. pl wd Wisconsin informacji na temat sieci-neuronowe. pl Czy oznacza zu napisa ieci-neuronowe. pl seci-neuronowe. pl sici-neuronowe. pl siei-neuronowe. pl siec-neuronowe. pl siecineuronowe. pl sieci-nuronowe. pl sieci-neonowe. pl sieci-neonowe. pl sieci-neurnowe. pl sieci-neuroowe. pl sieci-neuronwe. pl sieci-neuronoe. pl sieci-neuronow. pl

No comments:

Post a Comment