Efektivní trénování neuronových sítí pro automatické rozpoznávání řeči
Loading...
Date
Authors
Huml, Dominik
Advisor
Referee
Mark
C
Journal Title
Journal ISSN
Volume Title
Publisher
Vysoké učení technické v Brně. Fakulta informačních technologií
ORCID
Abstract
Tato práce se zabývá efektivním trénováním neuronových sítí pro automatické rozpoznávání řeči, konkrétně pro český jazyk. Cílem je analyzovat různé přístupy k trénování modelů s omezeným počtem parametrů, zejména v jazycích, kde je k dispozici pouze omezené množství trénovacích dat. Zvolená architektura systému je typu Enkodér–Dekodér. V rámci experimentální části bylo zjištěno, že jazykový dekodér má zásadní vliv na výslednou přesnost systému, přičemž klíčovou komponentou se ukázala být embedding vrstva. Pro efektivní přenos informací mezi enkodérem a dekodérem byl použit adaptérový modul. Ten provádí časové podvzorkování výstupu z enkodéru a jeho následnou transformaci do prostoru očekávaného dekodérem. Nejlepší výsledky přinesl adaptér založený na malé Transformer síti. Navržený model dosáhl hodnoty WER 5,6 %, což představuje výrazné zlepšení oproti modelům trénovaným bez adaptéru nebo od nuly. Zároveň je model schopný konkurovat daleko většímu modelu Slavic-300+LM. Výsledky dále ukazují, že vhodně navržený adaptér umožňuje snížit počet trénovatelných parametrů při zachování vysoké přesnosti, což z něj činí vhodnou volbu pro domény s omezenými zdroji.
This thesis focuses on the effective training of neural networks for automatic speech recognition, specifically for the Czech language. The goal is to analyze various approaches to training models with a limited number of parameters, particularly for languages where only a small amount of training data is available. The chosen system architecture is of the Encoder–Decoder type. In the experimental part, it was found that the language decoder has a significant impact on the final accuracy of the system, with the embedding layer proving to be a key component. To enable efficient information transfer between the encoder and decoder, an adapter module was used. This module performs temporal subsampling of the encoder output and transforms it into the space expected by the decoder. The best results were achieved using an adapter based on a small Transformer network. The proposed model achieved a WER of 5.6 %, which represents a significant improvement over models trained without the adapter or from scratch. At the same time, the model is able to compete with the much larger Slavic-300+LM model. The results further show that a well-designed adapter enables a reduction in the number of trainable parameters while maintaining high accuracy, making it a suitable choice for low-resource domains.
This thesis focuses on the effective training of neural networks for automatic speech recognition, specifically for the Czech language. The goal is to analyze various approaches to training models with a limited number of parameters, particularly for languages where only a small amount of training data is available. The chosen system architecture is of the Encoder–Decoder type. In the experimental part, it was found that the language decoder has a significant impact on the final accuracy of the system, with the embedding layer proving to be a key component. To enable efficient information transfer between the encoder and decoder, an adapter module was used. This module performs temporal subsampling of the encoder output and transforms it into the space expected by the decoder. The best results were achieved using an adapter based on a small Transformer network. The proposed model achieved a WER of 5.6 %, which represents a significant improvement over models trained without the adapter or from scratch. At the same time, the model is able to compete with the much larger Slavic-300+LM model. The results further show that a well-designed adapter enables a reduction in the number of trainable parameters while maintaining high accuracy, making it a suitable choice for low-resource domains.
Description
Keywords
neuronové sítě , strojové učení , automatické rozpoznávání řeči , wav2vec 2.0 , gpt-2 , finetuning , zpracování přirozeného jazyka , lora , adaptér , jazykový model , akustický model , neural network , machine learning , automatic speech recognition , wav2vec 2.0 , fine-tuning , natural language processing , lora , adapter , language model , acoustic model
Citation
HUML, D. Efektivní trénování neuronových sítí pro automatické rozpoznávání řeči [online]. Brno: Vysoké učení technické v Brně. Fakulta informačních technologií. 2025.
Document type
Document version
Date of access to the full text
Language of document
cs
Study field
Informační technologie
Comittee
doc. RNDr. Pavel Smrž, Ph.D. (předseda)
Ing. Michal Hradiš, Ph.D. (člen)
RNDr. Marek Rychlý, Ph.D. (člen)
Ing. Tomáš Goldmann, Ph.D. (člen)
Ing. Martin Žádník, Ph.D. (člen)
Date of acceptance
2025-06-17
Defence
Student nejprve prezentoval výsledky, kterých dosáhl v rámci své práce. Komise se poté seznámila s hodnocením vedoucího a posudkem oponenta práce. Student následně odpověděl na otázky oponenta a na další otázky přítomných. Komise se na základě posudku oponenta, hodnocení vedoucího, přednesené prezentace a odpovědí studenta na položené otázky rozhodla práci hodnotit stupněm C.
Result of defence
práce byla úspěšně obhájena
