• Nie Znaleziono Wyników

Index of /rozprawy2/11390

N/A
N/A
Protected

Academic year: 2021

Share "Index of /rozprawy2/11390"

Copied!
2
0
0

Pełen tekst

(1)

W pracy prezentuję rezultaty moich badań nad wektorowymi reprezentacjami danych tekstowych. Głównymi owocami tych prac są dwa nowe modele neuronowe. Pierwszy z nich umożliwia budowanie reprezentacji wektorowych na poziomie dokumentów a drugi na poziomie wyrazów. W zakresie wektorowych reprezentacji dokumentów proponuję model Binary Paragraph Vector - sieć neuronową uczącą się binarnych reprezentacji dokumentów tekstowych, które zachowują ich podobieństwo semantyczne. Reprezentacje te umożliwiają szybkie wyszukiwanie informacji związanej z dokumentem referencyjnym. Rezultaty eksperymentalnej ewaluacji zaproponowanego modelu demonstrują, że buduje on reprezentacje znacznie bardziej precyzyjne, niż znana z literatury popularna metoda Semantic Hashing. Zaletą modeli Binary Paragraph Vector jest możliwość budowania reprezentacji bezpośrednio z danych tekstowych, bez potrzeby korzystania z algorytmów haszujących zachowujących lokalność. Drugi proponowany model - Disambiguated Skip-gram - umożliwia budowanie wektorowych reprezentacji słów, które uwzględniają ich wieloznaczność. Model ten posiada prostą interpretację probabilistyczną. Co więcej, w odróżnieniu od istniejących rozwiązań tego typu jest on różniczkowalny ze względu na wszystkie swoje parametry. Umożliwia to efektywne trenowanie go algorytmem wstecznej propagacji błędu. W pracy prezentuję obszerną ilościową ewaluację modelu Disambiguated Skip-gram i pokazuję, że jest on lepszy od konkurencyjnych rozwiązań w trzech z czterech standardowych zbiorów testowych.

(2)

Vector representations of text data in deep learning

In this dissertation we report results of our research on dense distributed representations of text data. We propose two novel neural models for learning such representations. The first model learns representations at the document level, while the second model learns word-level representations. For document-level representations we propose Binary Paragraph Vector: a neural network models for learning binary representations of text documents, which can be used for fast document retrieval. We provide a thorough evaluation of these models and demonstrate that they outperform the seminal method in the field in the information retrieval task. In contrast to previously proposed approaches, Binary Paragraph Vector models learn embeddings directly from raw text data. Thus far, the most common way of building binary document representations was to use a data-oblivious locality sensitive hashing method on top of some intermediate text representation. For word-level representations we propose Disambiguated Skip-gram: a neural network model for learning multi-sense word embeddings. Representations learned by this model can be used in downstream tasks, like part-of- speech tagging or identification of semantic relations. In the word sense induction task Disambiguated Skip-gram outperforms state-of-the-art models on three out of four benchmarks datasets. Our model has an elegant probabilistic interpretation. Furthermore, unlike previous models of this kind, it is differentiable with respect to all its parameters and can be trained with backnronagation.

Cytaty

Powiązane dokumenty

Numerical simulation result showing the fluctuations of roll, pitch, velocity and leeway angle without initial dis- turbance (e = 20°)... and Tsakonas, S., 'Methods for estimat-

Praca prezentuje propozycję analizy ryzyka środowiskowego, która może być wstępem do zarządzania ryzykiem podczas procesów poszukiwania i wydobycia gazu z łupków w

Turner emphasized on the the frontier in shaping American character, we can say that the frontier shaped the European mindset.. In the past, the European frontiers have seen

The numerical solution method is described in detail in Section 4, where several issues related to the level set method will be discussed: an extension of the front velocity in

In earlier work [2] we introduced techniques to de- sign fast and stable direct solvers for such structured matrices based on an implicit U LV factorization algorithm and a

Equation 19 is an exact representation of the acoustic Green’s function, but in its present form it is not very well suited for applica- tion in seismic interferometry.. The

RELACJA Z ZAJĘĆ TERENOWYCH W TORUNIU DLA STUDENTÓW INSTYTUTU NAUK

We address the problem of encoding the state variables of a finite state machine such that the BDD representing the next state function and the output function has the minimum number