Start Sieci jednokierunkowe Sieci rekurencyjne Słowniczek Linki O autorach Uczenie konkurencyjneSieci poddawane uczeniu konkurencyjnemu składają się zwykle z jednej warstwy elementów przetwarzających. Do każdego z tych elementów przesyłana jest pełna informacja o prezentowanym obrazie wejściowym dzięki bezpośrednim połączeniom ze wszystkimi elementami wejściowymi. Aktywacji podlega jedynie ten element przetwarzający, którego wektor wag jest najbardziej zbliżony do wektora wejściowego. Jedynie kilka wybranych elementów poddanych jest uczeniu, które jeszcze bardziej przybliża wektor wejściowy do wektora wag wstępujących do tych elementów. Uczenie konkurencyjne nazywane jest także zasadą "Zwycięzca Bierze Wszystko" (ang. Winner Takes All; WTA). Istotą sieci konkurencyjnych jest klasyfikacja obrazów wejściowych według kryterium podobieństwa. Poszczególne klasy powinny być rozpoznawane na podstawie analizy korelacji wzorców wejściowych. Po zakończeniu procesu uczenia sieć przyporządkowuje prezentowany obraz do określonej klasy, generując aktywność tylko jednego elementu wyjściowego: tego mianowicie, którego wektor wag jest najbardziej zbliżony do danego obrazu. Sieci konkurencyjne używane są m. in. do kompresji i kodowania danych, aproksymacji funkcji, w analizie statystycznej i optymalizacji kombinatorycznej. Sieci konkurencyjne mają kilka ograniczeń:
Najprostszym typem sieci jest sieć jednowarstwowa o połączeniach jednokierunkowych. W sieci konkurencyjnej dla danego prezentowanego wzorca wybierany jest zwycięski element, czyli taki, którego potencjał membranowy: przyjmuje największą wartość. W przypadku normalizacji wektorów u i wi warunek ten jest równoważny poszukiwaniu elementu o jak najmniejszej długości ich różnicy |wi - u|. Proces uczenia rozpoczyna się inicjacją wag połączeń. Dobrze jest wybrać je w postaci małych liczb generowanych losowo (najczęściej z przedziału [-0.5; 0.5]), w celu uniknięcia jakiejkolwiek symetrii w wagach początkowych. Wzorce uczące podaje się na wejście sieci również w sposób losowy. Przy każdej prezentacji wybierany jest zwycięski element, który podlega uczeniu zbliżającemu jego wektor wag jeszcze bardziej do wektora wzorcowego. Najkorzystniej jest, jeśli wektory uczące są na wstępie unormowane. Wówczas o wartości iloczynu skalarnego (potencjału membranowego) decyduje zgodność kierunków u i wi, a nie dodatkowo długość u, która może zakłócić wybór właściwego zwycięzcy wśród elementów przetwarzających. W przypadku symulacji cyfrowych nie ma większego problemu z normalizacją wektorów wejściowych oraz z porównywaniem poszczególnych elementów konkurujących ze sobą. W przypadku sieci fizycznej również istnieją możliwości implementacji powyższych warunków. Normalizacji można dokonać poprzez wprowadzenie dodatkowej warstwy wejściowej. Konkurencja w sieciach fizycznie istniejących wymaga dodatkowych połączeń hamujących pomiędzy różnymi elementami przetwarzającymi, oraz połączeń, dzięki którym każdy element wzbudza sam siebie. Istotnym problemem w przypadku uczenia konkurencyjnego jest brak dowodu zbieżności tego typu uczenia do najlepszego rozwiązania danego problemu. Główną przyczyną jest często trudność w zdefiniowaniu takiego rozwiązania. Ponadto naruszenie podanych wyżej warunków, tzn. unikania symetrii w wagach początkowych i cyklicznego podawania obrazów wejściowych na wejście sieci, może prowadzić do ciągłych zmian zwycięzców w każdym cyklu, i w rezultacie braku osiągnięcia ostatecznego rozwiązania. Przedstawiona sieć nie gwarantuje również, że każdemu elementowi przetwarzającemu przypisana będzie odrębna klasa obrazów wejściowych. Element "bez przydziału" nazywa się często elementem obumarłym. Start Sieci jednokierunkowe Sieci rekurencyjne Słowniczek Linki O autorach |