Metody podporující interpretovatelné a vysvětlitelné strojové učení

but.committeeprof. Dr. Ing. Jan Černocký (předseda) doc. Ing. Lukáš Burget, Ph.D. (člen) doc. Ing. Vladimír Janoušek, Ph.D. (člen) Ing. Michal Hradiš, Ph.D. (člen) Ing. Jaroslav Rozman, Ph.D. (člen) Ing. František Grézl, Ph.D. (člen)cs
but.defenceStudent nejprve prezentoval výsledky, kterých dosáhl v rámci své práce. Komise se poté seznámila s hodnocením vedoucího a posudkem oponenta práce. Student následně odpověděl na otázky oponenta a na další otázky přítomných. Komise se na základě posudku oponenta, hodnocení vedoucího, přednesené prezentace a odpovědí studenta na položené otázky rozhodla práci hodnotit stupněm A.cs
but.jazykangličtina (English)
but.programInformační technologie a umělá inteligencecs
but.resultpráce byla úspěšně obhájenacs
dc.contributor.advisorSekanina, Lukášen
dc.contributor.authorŠmída, Šimonen
dc.contributor.refereeMrázek, Vojtěchen
dc.date.created2025cs
dc.description.abstractNarastajúca zložitosť systémov na báze strojového učenia predstavuje dôležité výzvy pri snahe porozumieť procesom ich rozhodovania - jav známy ako problém čiernej skrinky. Diplomová práca systematicky skúma existujúce metódy interpretability a vysvetliteľnosti modelov strojového učenia, so zameraním na konvolučné neurónové siete a obrazové dáta. Práca pokrýva intrinzické, post-hoc a mechanistické paradigmy interpretovateľnosti, kľúčové techniky (napríklad LIME, SHAP, metódy založené na gradientoch) a stratégie vyhodnotenia metód interpretability (kvalitatívne a kvantitatívne). Vykonané experimentálne analýzy posudzujú vplyv kvality modelu na vysvetlenia, porovnávajú výkonnosť metód interpretability na dátových rôznych sadách (MNIST, ImageNet) a hodnotia ich robustnosť voči rôznym typom perturbácií vstupných dát. Prínosom práce je aj návrh a experimentálna validácia metódy Adaptive-Metric Softmax (AMS) Ensemble, čo je nový prístup umožňujúci dynamicky kombinovať viacero metód interpretability s cieľom zlepšiť spoľahlivosť vysvetlení. Táto práca prináša teoretické poznatky a empirické dôkazy smerujúce k vývoju transparentnejších a dôveryhodnejších modelov strojového učenia.en
dc.description.abstractThe increasing complexity of machine learning systems poses significant challenges in understanding their decision-making processes - a phenomenon known as the black-box problem. This thesis systematically investigates existing methods for interpretability and explainability of machine learning models, with a focus on convolutional neural networks and image data. It covers intrinsic, post-hoc, and mechanistic interpretability paradigms, key techniques (e.g., LIME, SHAP, gradient-based methods), and evaluation strategies for interpretability methods (both qualitative and quantitative). The conducted experimental analyses assess the impact of model quality on explanations, compare the performance of interpretability methods across different datasets (MNIST, ImageNet), and evaluate their robustness against various types of input data perturbations. A notable contribution of this work is the proposal and experimental validation of the Adaptive-Metric Softmax (AMS) Ensemble method, which is a novel approach that enables a dynamic combination of multiple interpretability methods to enhance the reliability of explanations. This thesis provides theoretical insights and empirical evidence supporting the development of more transparent and trustworthy machine learning models.cs
dc.description.markAcs
dc.identifier.citationŠMÍDA, Š. Metody podporující interpretovatelné a vysvětlitelné strojové učení [online]. Brno: Vysoké učení technické v Brně. Fakulta informačních technologií. 2025.cs
dc.identifier.other165030cs
dc.identifier.urihttp://hdl.handle.net/11012/254967
dc.language.isoencs
dc.publisherVysoké učení technické v Brně. Fakulta informačních technologiícs
dc.rightsStandardní licenční smlouva - přístup k plnému textu bez omezenícs
dc.subjectvysvetliteľná umelá inteligenciaen
dc.subjectinterpretovateľné strojové učenieen
dc.subjectgradienté metódy interpretabilityen
dc.subjectkombinované metódy interpretabilityen
dc.subjectvyhodnocovanie XAIen
dc.subjectkonvolučné neurónové sieteen
dc.subjectExplainable Artificial Intelligencecs
dc.subjectXAIcs
dc.subjectInterpretable Machine Learningcs
dc.subjectGradient-Based Methodscs
dc.subjectXAI Ensemblescs
dc.subjectXAI Evaluationcs
dc.subjectConvolutional Neural Networkscs
dc.titleMetody podporující interpretovatelné a vysvětlitelné strojové učeníen
dc.title.alternativeMethods Supporting Interpretable and Explainable Machine Learningcs
dc.typeTextcs
dc.type.drivermasterThesisen
dc.type.evskpdiplomová prácecs
dcterms.dateAccepted2025-06-24cs
dcterms.modified2025-06-24-15:02:37cs
eprints.affiliatedInstitution.facultyFakulta informačních technologiícs
sync.item.dbid165030en
sync.item.dbtypeZPen
sync.item.insts2025.08.27 02:04:28en
sync.item.modts2025.08.26 20:25:42en
thesis.disciplineStrojové učenícs
thesis.grantorVysoké učení technické v Brně. Fakulta informačních technologií. Ústav počítačových systémůcs
thesis.levelInženýrskýcs
thesis.nameIng.cs

Files

Original bundle

Now showing 1 - 2 of 2
Loading...
Thumbnail Image
Name:
final-thesis.pdf
Size:
18.78 MB
Format:
Adobe Portable Document Format
Description:
file final-thesis.pdf
Loading...
Thumbnail Image
Name:
review_165030.html
Size:
10.66 KB
Format:
Hypertext Markup Language
Description:
file review_165030.html

Collections