• Nie Znaleziono Wyników

Zakończenie

W dokumencie Index of /rozprawy2/10679 (Stron 137-151)

W pracy przedstawiono badania nad nowymi modelami językowymi, które mogą być zastosowane w systemach rozpoznawania mowy klasy LVCSR. Praca miała charakter teoretyczny (opis i analiza znanych modeli językowych, wyprowadze-nie nowych modeli), jak rówwyprowadze-nież praktyczny (implementacja modeli językowych i systemów eksperymentalnych, trening i testy modeli).

Ważniejsze oryginalne elementy pracy są następujące: W rozdziale 6 zapropono-wano modele językowe oparte o sieci neuronowe. Wyniki ich badania uzyskane w rozdziale 8 pokazują, że proponowane modele autorskie dają jakość rozpoznawa-nia mowy (mierzoną wskaźnikiem WER) porównywalną ze znanymi modelami językowymi. Dodatkowo otrzymane wyniki pokazują, że cześć z modeli opar-tych o sieci neuronowe (w szczególności najlepszy z nich określony w rozdziale 8.4 jako SOMF) osiąga lepsze wyniki niż model bigramowy. Zatem spełnione są

tezy pracy :

1. Jest możliwe wykonanie modelu językowego dla języka polskiego z użyciem sieci neuronowych - sieci samoorganizującej się mapy Kohonena

2. Model języka naturalnego oparty na automatycznej ekstrakcji reguł po-zwala uzyskać poprawę jakości rozpoznawania mowy polskiej w systemie klasy LVCSR w stosunku do szeroko stosowanego modelu bigramowego. Oryginalnym wkładem autora są następujące elementy:

1. Model prostej gramatyki powierzchniowej zastosowany jako model języ-kowy (rozdział 5).

2. Modele klas słów oparte o sieci neuronowe samoorganizujące - mapy Ko-honena , różniące się metodami kodowania wejść sieci i funkcjami wyjść sieci (rozdziały 6.4 - 6.8).

3. Model słów oparty o sieć samoorganizującą wraz z uzyskaniem funkcji ciągłej opisującej wynik zwracany przez tą sieć (rozdział 6.10).

4. Model klas słów oparty o złożoną sieć samoorganizującą (rozdział 6.9). 5. Zasady oceny sekwencji słów poprzez dowolne liczby wymierne dodatnie

dla modeli dających ocenę zerojedynkową. Tak otrzymana miara polega także normalizacji (rozdziały 5.2,5.4,5.5,6.6).

6. Zasady oceny sekwencji słów w przypadku niejednoznacznego przyporząd-kowania słów do klas bazujących na cechach gramatycznych słów (rozdział 6.7).

7. System symulowanego rozpoznawania mowy (rozdział 7.1).

8. Działające implementacje wszystkich autorskich modeli językowych (roz-dział 7.5) oraz systemów rozpoznawania mowy (pełny system oparty o HTK i system wykorzystujący kraty słów - rozdziały odpowiednio 7.3 i 7.2).

Wykonane (lub zmodyfikowane) w ramach pracy oprogramowanie może stano-wić podstawę do dalszych badań z zakresu rozpoznawania mowy. Przedstawione wyniki prac były publikowane w czasopismach i przedstawione na konferencjach, planowane są dalsze publikacje.

Spis treści

Wykaz najważniejszych akronimów i oznaczeń 2

1 Wstęp 5

1.1 Cele i tezy pracy . . . 6

1.2 Zawartość pracy . . . 7

1.3 Podziękowania . . . 9

2 Systemy rozpoznawania mowy 10 2.1 Rozpoznawanie mowy . . . 10

2.2 Wymagania stawiane modelom językowym. . . 13

2.3 Wymagania stawiane modelom przez język polski . . . 14

3 Modele statystyczne 15 3.1 Używane pojęcia . . . 15

3.2 Model n-gramowy . . . 16

3.3 Miara jakości modelu językowego . . . 17

3.4 Model n-gramowy oparty na klasach . . . 19

3.5 Znajdowanie klas, Model Knesser-Ney. . . 21

3.6 Zastosowanie modeli statystycznych dla języka polskiego . . . 22

4 Gramatyki formalne 24 4.1 Hierarchia Chomskiego . . . 25

4.1.1 Wprowadzenie . . . 25

4.1.2 Wykonanie reguły produkcji . . . 26

4.1.3 Hierarchia gramatyk . . . 27

4.2 Zastosowania gramatyk liniowych - automaty skończone . . . 28

4.3 Algorytm CKY . . . 31

4.4 Gramatyka struktur frazowych - HPSG . . . 34

4.4.1 Podstawowy opis HPSG . . . 35

4.4.2 Podstawowe ograniczenia . . . 37

4.5 Gramatyki powierzchniowe . . . 43

5 Gramatyka powierzchniowa 45 5.1 Model gramatyki powierzchniowej . . . 45

5.2 Miara częściowej poprawności zdania . . . 47

5.3 Normalizacja prawdopodobieństw . . . 50

5.4 Normalizacja prawdopodobieństw warunkowych - model grama-tyki powierzchniowej oparty o prawdopodobieństwa słów . . . 53

5.5 Normalizacja prawdopodobieństw modelu gramatyki powierzch-niowej opartego na klasach. . . 55

6 Zastosowanie sieci neuronowych 57 6.1 System uczący i system z predefiniowanymi regułami . . . 57

6.2 Ogólna budowa modelu opartego o pojedynczą sieć samoorgani-zującą . . . 58

6.3 Sieć neuronowa Kohonena . . . 60

6.4 Wektor danych wejściowych . . . 65

6.5 Znajdowanie reguł przez sieć samoorganizującą . . . 66

6.6 Wykorzystanie wyjść sieci samoorganizującej . . . 68

6.7 Wejścia sieci neuronowej . . . 72

6.8 Zastosowanie sieci jednostkowej jako modelu językowego . . . 74

6.9 Złożone sieci neuronowe . . . 78

6.10 Modele z zastosowaniem sieci neuronowych i mapowaniem klas słów na wektory liczb rzeczywistych . . . 84

6.10.1 Funkcja celu. . . 87

6.10.2 Wyznaczenie gradientu. . . 90

6.10.3 Uproszczone uczenie mapowania wejść . . . 94

6.10.4 Wybór modeli sieci do dalszych badań . . . 94

6.11 Złożoność obliczeniowa modeli językowych . . . 95

6.11.1 Złożoność obliczeniowa pracy modelu językowego . . . 95

6.11.2 Złożoność obliczeniowa uczenia sieci . . . 98

6.11.3 Złożoność obliczeniowa uczenia sieci z funkcją mapowania podlegającą treningowi. . . 99

7 Opis systemu eksperymentalnego 101 7.1 Symulowane rozpoznawanie mowy . . . 101

7.2 Rozpoznawanie mowy z wykorzystaniem kraty słów. . . 104

7.3 Pełny system rozpoznawania mowy oparty na „HTK” . . . 109

7.4 Ustalenie wag funkcji zysku . . . 110

7.5 Opis modeli językowych . . . 110

7.5.1 Gramatyka powierzchniowa . . . 110

7.5.2 Modele oparte o sieć neuronową . . . 112

7.5.3 Modele trigramowe . . . 112

7.6 Zasoby językowe . . . 113

8 Testy modelu 114 8.1 Wyniki symulowanego rozpoznawania mowy . . . 114

8.2 Wykorzystanie systemu opartego na HTK . . . 116

8.3 Wykorzystanie systemu opartego na pierwszej wersji krat słów . . 117

8.5 Perplexity modeli językowych . . . 121 8.6 Testy rozpoznawania mowy . . . 124 8.7 Badania modeli przy wydłużonym treningu i kontekście różnej

długości . . . 129 8.8 Podsumowanie . . . 135

Spis rysunków

2.1 Architektura typowego systemu ciągłego rozpoznawania mowy. . 11

4.1 Automat skończony . . . 29

4.2 Przebieg algorytmu CKY . . . 33

4.3 Hierarachia typów HPSG . . . 36

5.1 Przykład analizy prostego zdania . . . 47

5.2 Analiza zdania. . . 49

6.1 Ogólna budowa modelu opartego na pojedynczej sieci neuronowej 59 6.2 Sieć samoorganizująca Kohonena . . . 62

6.3 Przykładowe sąsiedztwa sieci samoorganizującej . . . 63

6.4 Kodowanie cech jednego słowa . . . 65

6.5 Zastosowanie podziału przestrzeni danych na klastry kontra za-stosowanie podziału na reguły pozytywne i negatywne . . . 66

6.6 Algorytm znajdowania reguł . . . 67

6.7 Przebieg normalizacji . . . 69

6.8 Algorytm znajdowania klas słów . . . 73

6.9 Model językowy SimpleSOM . . . 76

6.10 Przykład znalezionej reguły . . . 77

6.11 Modele językowe BinaryRelationSOM i PairSOM . . . 77

6.12 Porównanie parsowania wielopoziomowego oraz jednopoziomowego 78 6.13 Podłączenie informacji wejściowej dla potrzeb normalizacji . . . . 79

6.14 Sieć złożona i hierarchiczna SOM . . . 81

6.15 Sieć CKY . . . 82

6.16 Model sieci z uczoną funkcją mapowania . . . 85

6.17 Autorski model z zastosowaniem sieci neuronowej i trenowanym mapowaniem wejść . . . 86

7.1 Proces tworzenia ciągu liter -jako wejście do symulacji rozpozna-wania oraz tworzenie hipotez . . . 102

7.2 Proces tworzenia hipotez . . . 103

7.3 Generowanie i wykorzystanie krat słów . . . 108 7.4 System rozpoznawania mowy równoważny połączonym systemom 109

8.1 Pokrycie dla kolejnych neuronów z zaznaczeniem progów pokrycia 118

8.2 Perplexity modeli małego słownika . . . 123

8.3 Perplexity modeli dużego słownika . . . 125

8.4 WER - modele małego słownika . . . 127

8.5 WER - modele dużego słownika . . . 128

8.6 Perplexity - model SOMB, testy przy różnym kontekście n . . . . 132

8.7 Perplexity - model SOMF, testy przy różnym kontekście n . . . . 132

8.8 Perplexity - model SOMF trenowany z użyciem dużego zbioru treningowego . . . 132

8.9 WER[%] - model SOMB, testy przy różnym kontekście n . . . . 133

8.10 WER[%] - model SOMF, testy przy różnym kontekście n . . . 133

8.11 WER - model SOMF trenowany z użyciem dużego zbioru trenin-gowego . . . 133

Spis tablic

5.1 Kategorie klas słów, które są dopuszczone przez regułę - model

oparty o prawdopodobieństwa słów . . . 54

5.2 Kategorie klas słów, które są dopuszczone przez regułę - model oparty na klasach słów . . . 55

8.1 Procent błędnych słów (%WER)- symulowane rozpoznawanie mowy115 8.2 Procent błędnych słów (%WER) dla meodelu CKY . . . 116

8.3 Procent błędnych słów (%WER) w rozpoznawaniu mowy z uży-ciem HTK. Wyniki te były wcześniej publikowane przez autora w pracy [35] . . . 117

8.4 WER oraz czas obliczeń zadania rozpoznawania mowy . . . 117

8.5 Progi decyzyjne. . . 117

8.6 Wpływ minimalnego pokrycia i długości kontekstu n na jakość rozpoznawania mowy (WER) . . . 119

8.7 Parametry słowników . . . 120

8.8 Perplexity modeli dla małego słownika (W=1188 słów), zbiór uczący n= 250000. . . 121

8.9 Perplexity modeli dla dużego słownika . . . 122

8.10 WER modeli uczonych za pomocą małego słownika . . . 125

8.11 WER modeli uczonych za pomocą dużego słownika . . . 126

8.12 Średni czas obliczeń i średnia maksymalna zajętość pamięci RAM w trakcie treningu . . . 130

8.13 Perplexity przy różnym kontekście . . . 130

8.14 WER [%] przy różnym kontekście . . . 130

8.15 Średni czas obliczeń, średnia maksymalna zajętość pamięci RAM w trakcie treningu i średni czas rozpoznawania mowy na kracie słów . . . 135

Bibliografia

[1] Wikipedia, Brzytwa Occama. http://pl.wikipedia.org/wiki/Brzytwa_ Ockhama, dostęp 05.2013.

[2] Altwarg, Richard: Language Models in Speech Recognition. http:// www.shlrc.mq.edu.au/masters/students/raltwarg/lmtoc.htm, dostęp 10.2011, SLP806 Speech Processing, Macquarie University Masters Pro-gram in Speech and Language Processing.

[3] Apt, Krzysztof R.: From Logic Programming to Prolog. Prentice Hall, In-ternational Series in Computer Science. Prentice Hall, 1997.

[4] Benesty, Jacob, M. Mohan Sondhi, i Yiteng (Arden) Huang: Springer

Handbook of Speech Processing. Springer-Verlag New York, Inc., Secau-cus, NJ, USA, 2007, ISBN 3540491252.

[5] Bengio, Yoshua, Holger Schwenk, Jean Sébastien Senécal, Fréderic Morin, i Jean Luc Gauvain: Neural probabilistic language models. W: Holmes, Dawn E. i Lakhmi C. Jain (redaktorzy): Innovations in Machine Learning

- Theory and Applications, Studies in Fuzziness and Soft Computing, strony 137–186. Springer-Verlag, Berlin, Heidelberg, 2006.

[6] Bottou, Léon: Stochastic learning. W: Bousquet, Olivier i Urlike von Lu-xburg (redaktorzy): Advanced Lectures on Machine Learning, Lecture No-tes in Artificial Intelligence, strony 146–168. Springer Verlag, Berlin, 2004. [7] Brocki Łukasz: Koneksjonistyczny Model Języka w Systemach

Rozpozanwa-nia Mowy. praca doktorska, Warszawa, 2010.

[8] Brocki Łukasz, Danijel Koržinek, i Krzysztof Marasek: Telephony Based

Voice Portal for a University. Speech and Language Technology, 11:55 – 58, 2008.

[9] Brown, Peter F., Peter V. de Souza, Robert L. Mercer, Vincent J. Della Pietra, i Jenifer C. Lai: Class-Based n-gram Models of Natural Language. Computational Linguistics, 18:467–479, 1992.

[10] Brown, Peter F., Vincent J. Della Pietra, Robert L. Mercer, Stephen J. Della Pietra, i Jenifer C. Lai: An estimate of an Upper Bound for the

Entropy of English. Computational Linguistics, 18:31–40, 1992.

[11] Carpenter, Bob i Gerald Penn: Ale 2.0 user’s guide. technical report. raport techniczny, Carnergie Mellon University, Laboratory for Computational Linguistics, Pittsburg, PA, 1994.

[12] Chelba, Ciprian i Frederick Jelinek: Structured language

mode-ling. Computer Speech and Language, 14(4):283 – 332, 2000, ISSN 0885-2308. http://www.sciencedirect.com/science/article/ pii/S0885230800901475, dostęp 05.2013.

[13] Chen, Stanley F. i Joshua Goodman: An empirical study of smoothing

tech-niques for language modeling. Computer Speech and Language, 13(4):359 – 393, 1999, ISSN 0885-2308. http://www.sciencedirect.com/science/ article/pii/S0885230899901286, dostęp 05.2013.

[14] Chomsky, Noam: Three models for the description of language. IRE Trans-actions on Information Theory, (September), 1956.

[15] Chomsky, Noam: A review of b. f. skinner’s verbal behavior. Language, 35(1):26–58, 1959. http://cogprints.org/1148/, dostęp 07.2013. [16] Chomsky, Noam: Aspects of the Theory of Syntax. M.I.T. Press,Cambridge,

1965.

[17] Chou, Wu i Biing Hwang Juang (redaktorzy): Pattern Recognition in speech

and language processing. Boca Raton : CRC Press, 2003.

[18] Cocke, John i J. T. Schwartz: Programming languages and their compilers:

Preliminary notes. Technical report, Courant Institute of Mathematical Sciences, New York University, 1970.

[19] Cook, John D.: Basic properties of the soft maximum, Wrzesień 2011. http: //biostats.bepress.com/mdandersonbiostat/paper70, dostęp 01.2013, UT MD Anderson Cancer Center, Department of Biostatistics Working Paper Series. Working Paper 70.

[20] Copestake, Ann: Appendix: definitions of typed feature structures. Natural Language Engineering, 1(1):1–4, 2000.

[21] Demenko, G., M. Szymański, R. Cecko, M. Lange, K. Klessa, i M. Owsianny: Development of large vocabulary continuous speech recognition

using phonetically structured speech corpus. W: Proceedings of XVIIth

In-ternational Congress of Phonetic Sciences, Hong Kong, 2011.

[22] Demenko, Grażyna, Stefan Grocholewski, Katarzyna Klessa, A. Wagner, Jerzy Ogórkiewicz, Marek Lange, Daniel Śledziński, i Natalia Cylwik:

Ju-risdic – Polish Speech Database for taking dictation of legal texts. W:

[23] Duch, Wodzisław, Józef Korbicz, Leszek Rutkowski, i Ryszard Tadeusie-wicz: Sieci Neuronowe, tom 6 : Biocybernetyka i Inżynieria Biomedyczna

2000. Exit,PTSN, 2006. (red. Maciej Nałęcz).

[24] Duchateau, Jacques: HMM based acoustic modeling in large vocabulary

spe-ech recognition. praca doktorska, Katholieke Universiteit Leuven, Belgium, 1998. http://www.esat.kuleuven.be/psi/spraak/, dostęp 01.2013. [25] Emami, Ahmad i Frederick Jelinek: A Neural Syntactic Language Model.

Machine Learning, 60(1-3):195–227, 2005, ISSN 0885-6125. http://dx. doi.org/10.1007/s10994-005-0916-y, dostęp 07.2013.

[26] Erbach, Gregor: Profit 1.05 user’s guide, 1994. Computerlinguistik, Uni-versitaet des Saarlandes.

[27] Erdogan, Hakan, Ruhi Sarikaya, Stanley. F. Chen, Yuqing Gao, i Mi-chael Picheny: Using semantic analysis to improve speech recognition

per-formance. Computer Speech and Language, 19(3), 2005.

[28] ESAT-PSI: Description of the ESAT speech recognition system

Janu-ary 2006, 2006. http://www.esat.kuleuven.be/psi/spraak/, dostęp 10.2011, PSI - Speech Group, Katholieke Universiteit Leuven, Belgium. [29] Evermann, Gunnar, H. Y. Chan, Mark J. F. Gales, B. Jia, D. Mrva, Phil

C. Woodland, i Kai Yu: Training LVCSR systems on thousands of hours

of data. W: IN: PROC. ICASSP, strony 209–212, 2005. http://mi.eng. cam.ac.uk/~ky219/papers/evermann-icassp05.pdf, dostęp 07.2013. [30] Foryś, Maria, Wit Foryś, i Adam Roman: Języki automaty i obliczenia.

Języki kontekstowe i automat liniowo ograniczony. Maszyna Turinga. http: //smurf.mimuw.edu.pl/node/1706, dostęp 04.2013.

[31] Gajecki, Leszek i Ryszard Tadeusiewicz: Architectures of Neural Networks

applied for LVCSR Language Modelling. W: Tadeusiewicz, R., A. Ligęza, W. Mitkowski, i M. Szymkat (redaktorzy): CMS’09 -7th Conference

Com-puter Methods and Systems, strony 33 – 38, Kraków, Poland, 2009. ONT. [32] Gajecki, Leszek i Ryszard Tadeusiewicz: Complex SOM network for

Langu-age Modelling in LVCSR. W: Vetulani, Zygmunt (redaktor): Proceedings

of 4th Language and Technology Conference, strony 336 – 340, Poznań, Poland, 2009. Fundacja UAM.

[33] Gajecki, Leszek i Ryszard Tadeusiewicz: Language modeling and Large

Vo-cabulary Continuous Speech Recognition. Journal of Applied Computer Science, Łódź, 2:55 – 58, 2009.

[34] Gajecki, Leszek i Ryszard Tadeusiewicz: Modeling of Polish language for

Large Vocabulary Continuous Speech Recognition. W: G. Demenko, K. Jas-sem, i S. Szpakowicz (redaktorzy): Speech and Language Technology, tom 11/2008, strony 55 – 58. Polish Phonetic Association, Poznań, 2009.

[35] Gajecki, Leszek i Ryszard Tadeusiewicz: SOM network for LVCSR Speech

Recognition. W: G. Demenko i K. Jassem (redaktorzy): Speech and

Lan-guage Technology, tom 12, strony 183–190. Polish Phonetic Association, Poznań, 2009/2010.

[36] Gajecki, Leszek i Ryszard Tadeusiewicz: Modelowanie języka polskiego z

wykorzystaniem gramatyki struktur frazowych. W: Pohl, A., M. Goc, T. Ko-nik, i M. Siedlecka (redaktorzy): Rocznik Kognitywistyczny, vol.III/2009, strony 59 – 68. Wydawnictwo Uniwersytetu Jagielońskiego, Kraków, 2010. [37] Gajecki, Leszek i Ryszard Tadeusiewicz: Language modeling using SOM

network. W: Vetulani, Zygmunt (redaktor): Procedings 5th Language and

Technology Conference, strony 216–220, Poznań, Poland, 2011. Fundacja UAM.

[38] Gajecki, Leszek i Ryszard Tadeusiewicz: PLLM-Language modeling using

SOM network. W: Vetulani, Zygmunt (redaktor): Procedings 5th Language

and Technology Conference, strona 582, Poznań, Poland, 2011. Fundacja UAM.

[39] Gazdar, Gerald i Chris Melish: Natural Language Processing in Prolog, an

Introduction to Computational Linguistics. Addison–Weseley,Reading,MA, 1989.

[40] Grocholewski, Stefan: Corpora - Speech Database for Polish Diphones. W: G. Kokkinakis, N. Fakotakis, i E. Dermatas (redaktorzy): Proc.

EURO-SPEECH’97, strony 1735–1738, 1997.

[41] Heinzmann, Richard: Filozofia średniowieczna. Antyk, 1999, ISBN 83-911750-0-6.

[42] Hnatkowska, Bogumiła i Jerzy Sas: Application of Automatic Speech

Reco-gnition to medical reports.Journal of Medical Informatics and Technologies, 12, 2008.

[43] Hopcroft, John E. i Jeffrey D. Ullman: Wprowadzenie do teorii automatów,

języków i obliczeń. Wydawnictwo Naukowe PWN, 1994.

[44] IPI PAN: Corpus of Polish, 2006. http://korpus.pl, dostęp 10.2011. [45] Jelinek, Frederick: The development of an Experimental Discrete

Dic-tation Recognizer. Proceedings of the IEEE, 73(11):1616–1624, 1985, ISSN 0018-9219.

[46] Jelinek, Frederick: Statistical methods for speech recognition. MIT Press, Cambridge, MA, USA, 1997, ISBN 0-262-10066-5.

[47] Jurafsky, Daniel i James H. Martin: Speech and language processing : an

introduction to natural language processing, computational linguistics, and speech recognition. Prentice Hall, 2000.

[48] Kasami, Tadao: An efficient recognition and syntax-analysis algorithm for

context-free languages. Scientific report AFCRL-65-758, Air Force Cam-bridge Research Lab, 1965.

[49] Kaufmann, Tobias i Pfister Beat: An HPSG Parser Supporting

Disconti-nuous Licenser Rules. W: International Conference on HPSG, Stanford, 2007. Reserve paper.

[50] Kneser, Reinhard i Hermann Ney: Improved clustering techniques for

class-based statistical language modelling. W: Third European Conference on

Speech Communication and Technology, 1993.

[51] Kneser, Reinhard i Hermann Ney: Improved backing-off for m-gram

langu-age modeling. W: Acoustics, Speech, and Signal Processing, 1995.

ICASSP-95., 1995 International Conference on, tom 1, strony 181–184 vol.1, De-troit, Michigan, 1995.

[52] Kohonen, Teuvo: Self-Organizing Maps. Springer, 2001.

[53] Koržinek, Danijel i Łukasz Brocki: Grammar Based Automatic Speech

Re-cognition System for the Polish Language. W: R. Jabłoński, M. Tur-kowski, i R. Szewczyk (redaktorzy): Recent Advances in Mechatronics, strony 87–91. Springer Berlin Heidelberg, 2007, ISBN 978-3-540-73955-5. http://dx.doi.org/10.1007/978-3-540-73956-2_18.

[54] Makino Takaki, Torisawa Kentaro i Tsujii Jun’ichi: LiLFeS - Practical

Pro-gramming Language for Typed Feature Structures. W: Proceedings of

Na-tural Language Pacific Rim Symposium, 1997.

[55] Markowitz, J. A.: Using speech recognition. Prentice Hall PTR, 1996. [56] Melin, Patricia i Oscar Castillo: Hybrid systems. W: Hybrid Intelligent

Sys-tems for Pattern Recognition Using Soft Computing: An Evolutionary Ap-proach for Neural Networks and Fuzzy Systems, StudFuzz 172, rozdział 6, strony 109–129. Springer, 2005.

[57] Miyao, Yusuke i Jun’ichi Tsujii: Feature Forest Models for Probabilistic

HPSG Parsing. Computational Linguistics, 34(1):35–80, 2008.

[58] Ney, Herman: Language models. W: Gibbon, D., R. Moore, i R. Win-ski (redaktorzy): Spoken Language Characterization, tom 2 : Handbook

of Standards and Resources for Spoken Language Systems, rozdział 3, strony 91–140. Mouton de Gruyter, 1997, ISBN 9783110157345. http: //books.google.pl/books?id=8cxtWcsAk5MC, dostęp 12.2011.

[59] Owsianny, Mariusz i Piotr Francuzik: Evaluation of speech recognition

sys-tem for Polish. W: G. Demenko i A. Wagner (redaktorzy): Speech and

Language Technology, tom 14/15, strony 55 – 68. Polish Phonetic Associa-tion, Poznań, 2011/2012.

[60] Pollard, Carl J. i Ivan A. Sag: Head-Driven Phrase Structure Grammar. The University of Chicago Press/CSLI Publications, Chicago, IL, 1994.

[61] Przepiórkowski, Adam: Powierzchniowe przetwarzanie języka polskiego. Problemy współczesnej nauki. Teoria i zastosowania. Inżynieria Lingwi-styczna. Akademicka Oficyna Wydawnicza EXIT, Warszawa, 2008. [62] Przepiórkowski, Adam, Anna Kupść, Małgorzata Marciniak, i Agnieszka

Mykowiecka: Formalny opis języka polskiego- Teoria i implementacja. Pro-blemy współczesnej nauki. Teoria i zastosowania. Inżynieria Lingwistyczna. Akademicka Oficyna Wydawnicza EXIT, Warszawa, 2002.

[63] Przepiórkowski, Adam: Korpus IPI PAN. wersja wstępna, 2004. http:// korpus.pl, dostęp 10.2011, Instytut Podstaw Informatyki PAN, Warszawa. [64] Richter, Frank: A mathematical formalism for linguistic theories with an

application in Head-driven Phrase Structure Grammar. praca doktorska, Universität Tübingen, 2000.

[65] Robinson, Tony: An Application of Recurrent Nets to Phone Probability

Estimation. IEE Transaction on Neural Networks, 5(2):298–304, 1994. [66] Sapir, Edward: Language. Hardcourt, Brace, Nowy York, 1921.

[67] Skinner, Burrhus F.: Verbal behavior. Appleton-Century-Crofts, Nowy Jork, 1957.

[68] Stolcke, A., H. Bratt, J. Butzberger, H. Franco, V. R. Rao Gadde, M. Plauché, C. Richey, E. Shriberg, K. Sönmez, F. Weng, i J. Zheng: The SRI

March 2000 Hub-5 conversational speech transcription system. W:

Proce-edings of the NIST Speech Transcription Workshop, 2000. http://www. speech.sri.com/projects/lvcsr/publications.html, dostęp 07.2013. [69] Stolcke, Andrew: SRILM - An Extensible Language Modeling Toolkit. W:

Proc. Intl. Conf. Spoken Language Processing, 2000.

[70] Szymański, Marcin, Jerzy Ogórkiewicz, Marek Lange, Katarzyna Klessa, Stefan Grocholewski, i Grażyna Demenko: First evaluation of Polish

LVCSR acoustic models obtained fom the JURISDIC database. Speech and Language Technology, 11:39–46, 2008.

[71] Tadeusiewicz, Ryszard: Sygnał mowy. Wydawnictwa Komunikacji i Łącz-ności, Warszawa, 1988.

[72] Tadeusiewicz, Ryszard: Zastosowanie sieci neuronowych do rozpoznawania

mowy. W: Richter, L. (redaktor): Analiza, Synteza i Rozpoznawanie

Sy-gnału Mowy dla Celów Automatyki, Informatyki, Lingwistyki i Medycyny, strony 137–151. Polska Akademia Nauk, IPPT, Warszawa, 1994.

[73] Tadeusiewicz, Ryszard, Tadeusz G¸aciarz, Barbara Borowik, i Bartosz Le-per: Odkrywanie właściwości sieci neuronowych przy użyciu programów w

[74] ten Bosch, Louis, Lou Boves, Hugo Van Hamme, i Roger K. Moore: A

Computational Model of Language Acquisition: the Emergence of Words. Fundamenta Informaticae, 90(3):229–249, 2009.

[75] Tsujii Laboratory: Lilfes. http://www.nactem.ac.uk/lilfes/, dostęp 08.2012.

[76] Tsujii Laboratory: Enju— A practical HPSG parser. http://www.nactem. ac.uk/enju/, 2004. http://www-tsujii.is.s.u-tokyo.ac.jp/, dostęp 08.2012.

[77] Vetulani, Zygmunt: Komunikacja człowieka z maszyną. Komputerowe

mo-delowanie kompetencji językowej. Problemy współczesnej nauki. Teoria i zastosowania. Informatyka. Akademicka Oficyna Wydawnicza EXIT, War-szawa, 2004.

[78] Winograd, Terry: Language As a Cognitive Process: Syntax. Addison-Wesley Longman Publishing Co., Inc., Boston, MA, USA, 1982, ISBN 0201085712.

[79] Xu, Wei i Alex Rudnicky: Can Artificial Neural Networks Learn Language

Models? W: Proceedings of ICSLP 2000, Beijing, China, 2000.

[80] Young, Steve, Gunnar Evermann, Mark Gales, Thomas Hain, Dan Ker-shaw, Xunying (Andrew) Liu, Gareth Moore, Julian Odell, Dave Ollason, Dan Povey, Valtcho Valtchev, i Phil Woodland: HTK Book. Cambridge University, Engineering Department, 2009. http://htk.eng.cam.ac.uk, dostęp 04.2012.

[81] Younger, Daniel H.: Recognition and parsing of context-free languages in

W dokumencie Index of /rozprawy2/10679 (Stron 137-151)