Obiekt

Tytuł: Porównanie charakterystyk wydajnościowych algorytmu uczenia dla Standardowej Sieci Neuronowej oraz sieci zdekomponowanej i koordynowanej metodą prognozowania wartości interfejsów

Twórca:

Płaczek, Stanisław

Typ obiektu:

artykuł

Wariant tytułu:

A comparison of the performance characteristics of a teaching algorithm for a Standard Neural Network and a decomposed network coordinated by the interface forecasting method

Abstrakt:

Standardową Sieć Neuronową zdefiniujemy jako zintegrowany moduł składający się z wielu warstw, bez wewnętrznych sprzężeń zwrotnych i pełnym pokryciem wag w poszczególnych warstwach. Warstwa składa się z macierzy wag łączących wektor wejściowy X z wewnętrznym wektorem U, który z kolei przetwarzany jest przez funkcję aktywacji tworząc wektor wyjściowy Y. Algorytmy uczenia tak zdefiniowanej sieci są znane. Napotykają one jednak na określone problemy numeryczne związane z szybkością zbieżności do wartości minimum. W artykule proponuje się zastąpienie jedno poziomowej, wielowarstwowej sieci, siecią zdekomponowaną. Konfiguracja składa się z niezależnych modułów zawierających warstwy sieci pierwotnej oraz koordynatora. Koordynator koncepcyjnie znajduje się na drugim poziomie, Jego celem jest skoordynowanie lokalnych funkcji celu warstw w taki sposób, aby realizując swoje lokalne funkcje celu , zostało jednocześnie osiągnięte minimum globalnej funkcji celu. Sieć jako całość będzie przygotowana do realizacji zadań klasyfikacji. Porównuje się charakterystyki uczenia dwóch przedstawionych konfiguracji sieci. ; A Standard Neural Network is defined as an integrated module of a set of layers with both forward and full weight coefficient connections in all layers. Every layer is built by the matrix of the weight coefficients connecting an input vector X with an internal vector U, which, in the next step, is the input of the activation function, and the output vector Y is calculated. For these kinds of neural networks, the teaching algorithms are well known. Unfortunately, in an algorithm practice realization, a lot of numeric problems appear to achieve fast convergence. A lot of components have negative impacts on the entire calculation process. In the article, a decomposed network replaces a level in a multilayer network. A network is built by independent layers in the first level and the coordinator in the second. Layers have to solve their local optimization task using their own algorithms. Local solutions are coordinated by the coordinator. The coordinator, working together with the first level, is responsible for solving the global optimization task, which is laid outside the network. Finally, a network is ready to classify new input data. In the article, quality and quantity characteristics for these two networks are compared.

Wydawca:

Publishing House of Poznan University of Technology

Identyfikator:

oai:repozytorium.put.poznan.pl:460198

ISBN/ISSN:

1897-0737

DOI:

10.21008/j.1897-0737.2018.96.0005

Język:

pol ; eng

Powiązania:

Strona czasopisma Politechnika Poznańska Wydział Elektryczny i Instytut Elektrotechniki i Elektroniki Przemysłowej

Prawa do dysponowania publikacją:

Politechnika Poznańska

Format:

pp. 59-70

Prawa:

wszystkie prawa zastrzeżone

Prawa dostępu:

dla wszystkich w zakresie dozwolonego użytku

Właściciel praw:

Politechnika Poznańska

Format obiektu cyfrowego:

application/pdf

Kolekcje, do których przypisany jest obiekt:

Data ostatniej modyfikacji:

2019-02-20

Data dodania obiektu:

2019-02-20

Liczba wyświetleń treści obiektu:

9

Liczba wyświetleń treści obiektu w formacie PDF

3

Wszystkie dostępne wersje tego obiektu:

http://repozytorium.put.poznan.pl/publication/553529

Wyświetl opis w formacie RDF:

RDF

Wyświetl opis w formacie OAI-PMH:

OAI-PMH

Ta strona wykorzystuje pliki 'cookies'. Więcej informacji