Neuronové sítě: Experimentace s Aktivačními funkcemi

but.committeedoc. Ing. František Zbořil, Ph.D. (předseda) RNDr. Marek Rychlý, Ph.D. (člen) doc. Ing. Zdeněk Vašíček, Ph.D. (člen) doc. Ing. Vítězslav Beran, Ph.D. (člen) Ing. Ivana Burgetová, Ph.D. (člen)cs
but.defenceStudent nejprve prezentoval výsledky, kterých dosáhl v rámci své práce. Komise se poté seznámila s hodnocením vedoucího a posudkem oponenta práce. Student následně odpověděl na otázky oponenta a na další otázky přítomných. Komise se na základě posudku oponenta, hodnocení vedoucího, přednesené prezentace a odpovědí studenta na položené otázky rozhodla práci hodnotit stupněm B.cs
but.jazykangličtina (English)
but.programInformační technologiecs
but.resultpráce byla úspěšně obhájenacs
dc.contributor.advisorFritz, Karelen
dc.contributor.authorUřídil, Mikulášen
dc.contributor.refereePánek, Richarden
dc.date.created2025cs
dc.description.abstractAktivační funkce jsou nezbytnou součástí neuronových sítí a je důležité s nimi experimen- tovat, abychom hledali výhody a nevýhody těchto konkrétních funkcí. V této práci se zabýváme základními koncepty neuronových sítí, abychom pochopili celý koncept, a poté se zaměříme na různé aktivační funkce a analyzujeme jejich dopad v neuronových sítích. Ve druhé části práce experimentujeme s funkcemi Sigmoid, Tanh, ReLU, GELU, ELU a Swish v konvolučních neuronových sítích a autoenkodérech v oblasti detekce anomálií. Používáme datovou sadu Yahoo S5 a poté modifikované datové sady CIFAR-10 a MNIST. Nakonec se podíváme na výsledky experimentů s uvedenými aktivačními funkcemi, které ukazují, že moderní aktivační funkce (např. Swish, ELU, GELU) mají často lepší výkon než klasické funkce, jako je Sigmoid a Tanh, a to díky hladšímu zpracování gradientů a konkrétně přede- vším lepšímu zvládání problému zvaný vanishing gradient.en
dc.description.abstractActivation functions are an essential part of neural networks and it is important to exper- iment with them to find the advantages and disadvantages of these particular functions. In this paper, we will cover the basic concepts of neural networks to understand the whole concept and then focus on different activation functions and analyze their impact in neu- ral networks. In the second part of the paper, we experiment with Sigmoid, Tanh, ReLU, GELU, ELU and Swish functions in convolutional and autoencoder architectures in the field of anomaly detection. We use Yahoo S5 time series dataset and then modified CIFAR-10 and MNIST datasets. Finally, we will look at the results of experiments with the men- tioned activation functions which show that modern activation functions (e.g., Swish, ELU, GELU) often have superior performance over classic functions like Sigmoid and Tanh, due to smoother gradients flow and mainly better handling of vanishing-gradient problems.cs
dc.description.markBcs
dc.identifier.citationUŘÍDIL, M. Neuronové sítě: Experimentace s Aktivačními funkcemi [online]. Brno: Vysoké učení technické v Brně. Fakulta informačních technologií. 2025.cs
dc.identifier.other162823cs
dc.identifier.urihttp://hdl.handle.net/11012/253702
dc.language.isoencs
dc.publisherVysoké učení technické v Brně. Fakulta informačních technologiícs
dc.rightsStandardní licenční smlouva - přístup k plnému textu bez omezenícs
dc.subjectNeuronové sítěen
dc.subjectAktivační funkceen
dc.subjectExperimentální funkceen
dc.subjectKonvergenceen
dc.subjectPřetíženíen
dc.subjectMatematické vlastnostien
dc.subjectUčení neuronových sítíen
dc.subjectOptimalizace sítěen
dc.subjectVýkon neuronové sítěen
dc.subjectDetekce anomáliíen
dc.subjectVliv aktivační funkce na metrikyen
dc.subjectNeural Networkscs
dc.subjectActivation Functionscs
dc.subjectExperimental Functionscs
dc.subjectConvergencecs
dc.subjectOverfittingcs
dc.subjectMathematical Propertiescs
dc.subjectNeural Network Learningcs
dc.subjectNetwork Optimizationcs
dc.subjectNeural Network Performancecs
dc.subjectAnomaly Detectioncs
dc.subjectEffect of Activation Function on Metricscs
dc.titleNeuronové sítě: Experimentace s Aktivačními funkcemien
dc.title.alternativeNeural Networks: Experimentation with Activation Functionscs
dc.typeTextcs
dc.type.driverbachelorThesisen
dc.type.evskpbakalářská prácecs
dcterms.dateAccepted2025-06-18cs
dcterms.modified2025-06-18-15:51:45cs
eprints.affiliatedInstitution.facultyFakulta informačních technologiícs
sync.item.dbid162823en
sync.item.dbtypeZPen
sync.item.insts2025.08.26 23:06:54en
sync.item.modts2025.08.26 20:13:49en
thesis.disciplineInformační technologiecs
thesis.grantorVysoké učení technické v Brně. Fakulta informačních technologií. Ústav počítačových systémůcs
thesis.levelBakalářskýcs
thesis.nameBc.cs

Files

Original bundle

Now showing 1 - 3 of 3
Loading...
Thumbnail Image
Name:
final-thesis.pdf
Size:
2.01 MB
Format:
Adobe Portable Document Format
Description:
file final-thesis.pdf
Loading...
Thumbnail Image
Name:
appendix-1.zip
Size:
17.19 MB
Format:
Unknown data format
Description:
file appendix-1.zip
Loading...
Thumbnail Image
Name:
review_162823.html
Size:
13.61 KB
Format:
Hypertext Markup Language
Description:
file review_162823.html

Collections