"Semi-supervised" trénování hlubokých neuronových sítí pro rozpoznávání řeči
but.committee | cs | |
but.defence | cs | |
but.jazyk | angličtina (English) | |
but.program | Výpočetní technika a informatika | cs |
but.result | práce byla úspěšně obhájena | cs |
dc.contributor.advisor | Burget, Lukáš | en |
dc.contributor.author | Veselý, Karel | en |
dc.contributor.referee | Ircing, Pavel | en |
dc.contributor.referee | Lamel, Lori | en |
dc.date.accessioned | 2020-05-11T04:25:33Z | |
dc.date.available | 2020-05-11T04:25:33Z | |
dc.date.created | 2018 | cs |
dc.description.abstract | V této dizertační práci nejprve prezentujeme teorii trénování neuronových sítí pro rozpoznávání řeči společně s implementací trénovacího receptu 'nnet1', který je součástí toolkitu s otevřeným kódem Kaldi. Recept se skládá z předtrénování bez učitele pomocí algoritmu RBM, trénování klasifikátoru z řečových rámců s kriteriální funkcí Cross-entropy a ze sekvenčního trénování po větách s kriteriální funkcí sMBR. Následuje hlavní téma práce, kterým je semi-supervised trénování se smíšenými daty s přepisem i bez přepisu. Inspirováni konferenčními články a úvodními experimenty jsme se zaměřili na několik otázek: Nejprve na to, zda je lepší konfidence (t.j. důvěryhodnosti automaticky získaných anotací) počítat po větách, po slovech nebo po řečových rámcích. Dále na to, zda by konfidence měly být použity pro výběr dat nebo váhování dat - oba přístupy jsou kompatibilní s trénováním pomocí metody stochastického nejstrmějšího sestupu, kde jsou gradienty řečových rámců násobeny vahou. Dále jsme se zabývali vylepšováním semi-supervised trénování pomocí kalibrace kofidencí a přístupy, jak model dále vylepšit pomocí dat se správným přepisem. Nakonec jsme navrhli jednoduchý recept, pro který není nutné časově náročné ladění hyper-parametrů trénování, a který je prakticky využitelný pro různé datové sady. Experimenty probíhaly na několika sadách řečových dat: pro rozpoznávač vietnamštiny s 10 přepsaným hodinami (Babel) se chybovost snížila o 2.5%, pro angličtinu se 14 přepsanými hodinami (Switchboard) se chybovost snížila o 3.2%. Zjistili jsme, že je poměrně těžké dále vylepšit přesnost systému pomocí úprav konfidencí, zároveň jsme ale přesvědčení, že naše závěry mají značnou praktickou hodnotu: data bez přepisu je jednoduché nasbírat a naše navrhované řešení přináší dobrá zlepšení úspěšnosti a není těžké je replikovat. | en |
dc.description.abstract | In this thesis, we first present the theory of neural network training for the speech recognition, along with our implementation, that is available as the 'nnet1' training recipe in the Kaldi toolkit. The recipe contains RBM pre-training, mini-batch frame Cross-Entropy training and sequence-discriminative sMBR training. Then we continue with the main topic of this thesis: semi-supervised training of DNN-based ASR systems. Inspired by the literature survey and our initial experiments, we investigated several problems: First, whether the confidences are better to be calculated per-sentence, per-word or per-frame. Second, whether the confidences should be used for data-selection or data-weighting. Both approaches are compatible with the framework of weighted mini-batch SGD training. Then we tried to get better insight into confidence calibration, more precisely whether it can improve the efficiency of semi-supervised training. We also investigated how the model should be re-tuned with the correctly transcribed data. Finally, we proposed a simple recipe that avoids a grid search of hyper-parameters, and therefore is very practical for general use with any dataset. The experiments were conducted on several data-sets: for Babel Vietnamese with 10 hours of transcribed speech, the Word Error Rate (WER) was reduced by 2.5%. For Switchboard English with 14 hours of transcribed speech, the WER was reduced by 3.2%. Although we found it difficult to further improve the performance of semi-supervised training by means of enhancing the confidences, we still believe that our findings are of significant practical value: the untranscribed data are abundant and easy to obtain, and our proposed solution brings solid WER improvements and it is not difficult to replicate. | cs |
dc.description.mark | P | cs |
dc.identifier.citation | VESELÝ, K. "Semi-supervised" trénování hlubokých neuronových sítí pro rozpoznávání řeči [online]. Brno: Vysoké učení technické v Brně. Fakulta informačních technologií. 2018. | cs |
dc.identifier.other | 128171 | cs |
dc.identifier.uri | http://hdl.handle.net/11012/187318 | |
dc.language.iso | en | cs |
dc.publisher | Vysoké učení technické v Brně. Fakulta informačních technologií | cs |
dc.rights | Standardní licenční smlouva - přístup k plnému textu bez omezení | cs |
dc.subject | Hluboké neuronové sítě | en |
dc.subject | rozpoznávání řeči | en |
dc.subject | semi-supervised trénování se smíšenými daty s přepisem i bez přepisu | en |
dc.subject | Kaldi | en |
dc.subject | nnet1 | en |
dc.subject | Deep neural networks | cs |
dc.subject | speech recognition | cs |
dc.subject | semi-supervised training | cs |
dc.subject | Kaldi | cs |
dc.subject | nnet1 | cs |
dc.title | "Semi-supervised" trénování hlubokých neuronových sítí pro rozpoznávání řeči | en |
dc.title.alternative | Semi-Supervised Training of Deep Neural Networks for Speech Recognition | cs |
dc.type | Text | cs |
dc.type.driver | doctoralThesis | en |
dc.type.evskp | dizertační práce | cs |
dcterms.dateAccepted | 2018-04-03 | cs |
dcterms.modified | 2020-05-10-17:46:44 | cs |
eprints.affiliatedInstitution.faculty | Fakulta informačních technologií | cs |
sync.item.dbid | 128171 | en |
sync.item.dbtype | ZP | en |
sync.item.insts | 2020.05.14 00:59:05 | en |
sync.item.modts | 2020.05.14 00:13:45 | en |
thesis.discipline | Výpočetní technika a informatika | cs |
thesis.grantor | Vysoké učení technické v Brně. Fakulta informačních technologií. Ústav počítačové grafiky a multimédií | cs |
thesis.level | Doktorský | cs |
thesis.name | Ph.D. | cs |
Files
Original bundle
1 - 5 of 6
Loading...
- Name:
- final-thesis.pdf
- Size:
- 2.3 MB
- Format:
- Adobe Portable Document Format
- Description:
- final-thesis.pdf
Loading...
- Name:
- Posudek-Vedouci prace-568_s1.pdf
- Size:
- 986.19 KB
- Format:
- Adobe Portable Document Format
- Description:
- Posudek-Vedouci prace-568_s1.pdf
Loading...
- Name:
- Posudek-Oponent prace-568_o1.pdf
- Size:
- 603.1 KB
- Format:
- Adobe Portable Document Format
- Description:
- Posudek-Oponent prace-568_o1.pdf
Loading...
- Name:
- Posudek-Oponent prace-568_o2.pdf
- Size:
- 208.75 KB
- Format:
- Adobe Portable Document Format
- Description:
- Posudek-Oponent prace-568_o2.pdf
Loading...
- Name:
- thesis-1.pdf
- Size:
- 1.36 MB
- Format:
- Adobe Portable Document Format
- Description:
- thesis-1.pdf