• Nie Znaleziono Wyników

Index of /rozprawy2/11381

N/A
N/A
Protected

Academic year: 2021

Share "Index of /rozprawy2/11381"

Copied!
2
0
0

Pełen tekst

(1)

Zastosowania metody rzutu

przypadkowego

w

głębokich

sieciach neuronowych

Praca prezentuje zastosowania metody rzutu przypadkowego (RP) w głębokich sieciach neuronowych. W pracy skupiono się na dwóch obszarach, w których użycie metody RP poprawia ich skuteczność: na efektywnym uczeniu głębokich sieci na danych wysokowymiarowych oraz na inicjalizacji parametrów sieci. W pierwszym z rozważanych obszarów zastosowań metoda RP jest włączana do architektury sieci jako warstwa wejściowa. Umożliwia to efektywne uczenie głębokich sieci neuronowych na danych pozbawionych struktury, reprezentowanych przez rzadkie, wysokowymiarowe wektory cech. W pracy pokazano, że dzięki użyciu warstwy wejściowej której wagi zostały zainicjalizowane elementami macierzy RP możliwe jest efektywne trenowanie głębokich sieci na tego typu danych. Przedstawiono kilka modyfikacji architektury sieci oraz metod jej trenowania, dzięki którym możliwe jest uczenie sieci na danych zawierających dziesiątki milionów przykładów uczących o wymiarowości przekraczającej miliony cech. Pozwoliło to uzyskać wyniki porównywalne lub lepsze od najlepszych wyników publikowanych w literaturze dla kilku dużych problemów klasyfikacji. W drugim obszarze zastosowań macierz RP wykorzystana jest do inicjalizacji wag sieci neuronowej. Pozwoliło to poprawić skuteczność residualnych sieci konwolucyjnych - modeli osiągających obecnie najlepsze wyniki w dziedzinie rozpoznawania obrazów.

(2)

Random Projection in Deep Neural Networks

This work investigates the ways in which deep learning methods can benefit from random projection (RP), a classic linear dimensionality reduction method. We focus on two areas where, as we have found, employing RP techniques can improve deep models: training neural networks on high-dimensional data and initialization of network parameters. Training deep neural networks (DNNs) on sparse, high-dimensional data with no |exploitable structure implies a network architecture with an input layer that has a huge number of weights, which often makes training infeasible. We show that this problem can be solved by prepending the network with an input layer whose weights are initialized with an RP matrix. We propose several modifications to the network architecture and training regime that makes it possible to efficiently train DNNs with learnable RP layer on data with as many as tens of millions of input features and training examples. In comparison to the state-of-the-art methods, neural networks with RP layer achieve competitive performance or improve the results on several extremely high-dimensional real- world datasets. The second area where the application of RP techniques can be beneficial for training deep models is weight initialization. Setting the initial weights in DNNs to elements of various RP matrices enabled us to train residual deep networks to higher levels of performance.

Cytaty

Powiązane dokumenty

SOME RESULTS CONCERNING THE ENDS OF MINIMAL CUTS OF SIMPLE GRAPHS.. Xiaofeng Jia Department

This indeed turned out to be the right approach since Baumgartner’s proof (see [3]) also shows that PFA implies that every uncountable subset of P(ω) contains an uncountable chain or

(1999) are useless to judge the stability. In biological neural networks, impulsive effects are likely to exist. For example, when stimulus from the body or the external environment

One of its corner stones is the Erd˝os–Rado theorem which says that if κ, µ are arbitrary cardinals then the complete graph on a large enough set has the property that whenever

The article presents an algorithm for the detection of inter-turn short-circuit in the stator winding of an induction motor with the use of deep neural network and the Intel

The problem of Artificial Neural Network (ANN) structure optimization related to the definition of optimal number of hidden layers and distribution of neurons between

Many pruning methods were described in the last decade, but pruning leads to the removal of the network connec- tions and unnecessary neurons, but frequently many neurons contribute

One of the best models starts with selection of features with high variance, next the SSV selector selects 2000 features (with respect to the class balance), then two first