Neuronové sítě, předtrénování komplexity
Loading...
Date
Authors
Kocián, Richard
Advisor
Referee
Mark
A
Journal Title
Journal ISSN
Volume Title
Publisher
Vysoké učení technické v Brně. Fakulta informačních technologií
ORCID
Abstract
Tato práce se zabývá technikou obrácené destilace modelu neuronových sítí, při které menší model (učitel) vede počáteční fázi tréninku většího modelu (studenta). Cílem je ověřit, zda tento přístup může sloužit jako efektivní způsob inicializace vah a zlepšit průběh tréninku. Experimenty na klasifikačních úlohách (CIFAR-10 a Fashion-MNIST) ukazují, že destilace po celou dobu tréninku zvyšuje přesnost a odolnost vůči FGSM útokům. U regresní úlohy (California Housing) sice nedošlo ke zlepšení výsledné přesnosti, ale metoda vedla ke snížení testovací ztráty při adversariálním útoku. Výsledky naznačují, že obrácená destilace může podpořit stabilnější a odolnější trénink neuronových sítí.
This thesis investigates reversed model distillation for neural networks, where a smaller teacher model guides the early training of a larger student model. The goal is to evaluate whether this approach can serve as an effective weight initialization method and improve training dynamics. Experiments on classification tasks (CIFAR-10 and Fashion-MNIST) show that applying distillation throughout the entire training improves accuracy and robustness to FGSM attacks. For the regression task (California Housing), while final accuracy did not improve, the method led to lower test loss under adversarial conditions. These results suggest that reversed distillation can support more stable and robust neural network training.
This thesis investigates reversed model distillation for neural networks, where a smaller teacher model guides the early training of a larger student model. The goal is to evaluate whether this approach can serve as an effective weight initialization method and improve training dynamics. Experiments on classification tasks (CIFAR-10 and Fashion-MNIST) show that applying distillation throughout the entire training improves accuracy and robustness to FGSM attacks. For the regression task (California Housing), while final accuracy did not improve, the method led to lower test loss under adversarial conditions. These results suggest that reversed distillation can support more stable and robust neural network training.
Description
Keywords
Neuronové sítě , Inicializace vah , Komplexita úlohy , Předtrénování , Konvergence , Lokální minima , Adaptivní inicializace , Spektrální vlastnosti , Výkon modelu , Stabilita sítě , Obrácená destilace modelu , FGSM útok , Neural Networks , Weight Initialization , Task Complexity , Pre-training , Convergence , Local Minima , Adaptive Initialization , Spectral Properties , Model Performance , Network Stability , Reversed Model Distillation , FGSM Attack
Citation
KOCIÁN, R. Neuronové sítě, předtrénování komplexity [online]. Brno: Vysoké učení technické v Brně. Fakulta informačních technologií. 2025.
Document type
Document version
Date of access to the full text
Language of document
en
Study field
Informační technologie
Comittee
doc. Ing. František Zbořil, Ph.D. (předseda)
RNDr. Marek Rychlý, Ph.D. (člen)
doc. Ing. Zdeněk Vašíček, Ph.D. (člen)
doc. Ing. Vítězslav Beran, Ph.D. (člen)
Ing. Ivana Burgetová, Ph.D. (člen)
Date of acceptance
2025-06-18
Defence
Student nejprve prezentoval výsledky, kterých dosáhl v rámci své práce. Komise se poté seznámila s hodnocením vedoucího a posudkem oponenta práce. Student následně odpověděl na otázky oponenta a na další otázky přítomných. Komise se na základě posudku oponenta, hodnocení vedoucího, přednesené prezentace a odpovědí studenta na položené otázky rozhodla práci hodnotit stupněm A.
Result of defence
práce byla úspěšně obhájena
