Metody podporující interpretovatelné a vysvětlitelné strojové učení
| but.committee | prof. Dr. Ing. Jan Černocký (předseda) doc. Ing. Lukáš Burget, Ph.D. (člen) doc. Ing. Vladimír Janoušek, Ph.D. (člen) Ing. Michal Hradiš, Ph.D. (člen) Ing. Jaroslav Rozman, Ph.D. (člen) Ing. František Grézl, Ph.D. (člen) | cs |
| but.defence | Student nejprve prezentoval výsledky, kterých dosáhl v rámci své práce. Komise se poté seznámila s hodnocením vedoucího a posudkem oponenta práce. Student následně odpověděl na otázky oponenta a na další otázky přítomných. Komise se na základě posudku oponenta, hodnocení vedoucího, přednesené prezentace a odpovědí studenta na položené otázky rozhodla práci hodnotit stupněm A. | cs |
| but.jazyk | angličtina (English) | |
| but.program | Informační technologie a umělá inteligence | cs |
| but.result | práce byla úspěšně obhájena | cs |
| dc.contributor.advisor | Sekanina, Lukáš | en |
| dc.contributor.author | Šmída, Šimon | en |
| dc.contributor.referee | Mrázek, Vojtěch | en |
| dc.date.created | 2025 | cs |
| dc.description.abstract | Narastajúca zložitosť systémov na báze strojového učenia predstavuje dôležité výzvy pri snahe porozumieť procesom ich rozhodovania - jav známy ako problém čiernej skrinky. Diplomová práca systematicky skúma existujúce metódy interpretability a vysvetliteľnosti modelov strojového učenia, so zameraním na konvolučné neurónové siete a obrazové dáta. Práca pokrýva intrinzické, post-hoc a mechanistické paradigmy interpretovateľnosti, kľúčové techniky (napríklad LIME, SHAP, metódy založené na gradientoch) a stratégie vyhodnotenia metód interpretability (kvalitatívne a kvantitatívne). Vykonané experimentálne analýzy posudzujú vplyv kvality modelu na vysvetlenia, porovnávajú výkonnosť metód interpretability na dátových rôznych sadách (MNIST, ImageNet) a hodnotia ich robustnosť voči rôznym typom perturbácií vstupných dát. Prínosom práce je aj návrh a experimentálna validácia metódy Adaptive-Metric Softmax (AMS) Ensemble, čo je nový prístup umožňujúci dynamicky kombinovať viacero metód interpretability s cieľom zlepšiť spoľahlivosť vysvetlení. Táto práca prináša teoretické poznatky a empirické dôkazy smerujúce k vývoju transparentnejších a dôveryhodnejších modelov strojového učenia. | en |
| dc.description.abstract | The increasing complexity of machine learning systems poses significant challenges in understanding their decision-making processes - a phenomenon known as the black-box problem. This thesis systematically investigates existing methods for interpretability and explainability of machine learning models, with a focus on convolutional neural networks and image data. It covers intrinsic, post-hoc, and mechanistic interpretability paradigms, key techniques (e.g., LIME, SHAP, gradient-based methods), and evaluation strategies for interpretability methods (both qualitative and quantitative). The conducted experimental analyses assess the impact of model quality on explanations, compare the performance of interpretability methods across different datasets (MNIST, ImageNet), and evaluate their robustness against various types of input data perturbations. A notable contribution of this work is the proposal and experimental validation of the Adaptive-Metric Softmax (AMS) Ensemble method, which is a novel approach that enables a dynamic combination of multiple interpretability methods to enhance the reliability of explanations. This thesis provides theoretical insights and empirical evidence supporting the development of more transparent and trustworthy machine learning models. | cs |
| dc.description.mark | A | cs |
| dc.identifier.citation | ŠMÍDA, Š. Metody podporující interpretovatelné a vysvětlitelné strojové učení [online]. Brno: Vysoké učení technické v Brně. Fakulta informačních technologií. 2025. | cs |
| dc.identifier.other | 165030 | cs |
| dc.identifier.uri | http://hdl.handle.net/11012/254967 | |
| dc.language.iso | en | cs |
| dc.publisher | Vysoké učení technické v Brně. Fakulta informačních technologií | cs |
| dc.rights | Standardní licenční smlouva - přístup k plnému textu bez omezení | cs |
| dc.subject | vysvetliteľná umelá inteligencia | en |
| dc.subject | interpretovateľné strojové učenie | en |
| dc.subject | gradienté metódy interpretability | en |
| dc.subject | kombinované metódy interpretability | en |
| dc.subject | vyhodnocovanie XAI | en |
| dc.subject | konvolučné neurónové siete | en |
| dc.subject | Explainable Artificial Intelligence | cs |
| dc.subject | XAI | cs |
| dc.subject | Interpretable Machine Learning | cs |
| dc.subject | Gradient-Based Methods | cs |
| dc.subject | XAI Ensembles | cs |
| dc.subject | XAI Evaluation | cs |
| dc.subject | Convolutional Neural Networks | cs |
| dc.title | Metody podporující interpretovatelné a vysvětlitelné strojové učení | en |
| dc.title.alternative | Methods Supporting Interpretable and Explainable Machine Learning | cs |
| dc.type | Text | cs |
| dc.type.driver | masterThesis | en |
| dc.type.evskp | diplomová práce | cs |
| dcterms.dateAccepted | 2025-06-24 | cs |
| dcterms.modified | 2025-06-24-15:02:37 | cs |
| eprints.affiliatedInstitution.faculty | Fakulta informačních technologií | cs |
| sync.item.dbid | 165030 | en |
| sync.item.dbtype | ZP | en |
| sync.item.insts | 2025.08.27 02:04:28 | en |
| sync.item.modts | 2025.08.26 20:25:42 | en |
| thesis.discipline | Strojové učení | cs |
| thesis.grantor | Vysoké učení technické v Brně. Fakulta informačních technologií. Ústav počítačových systémů | cs |
| thesis.level | Inženýrský | cs |
| thesis.name | Ing. | cs |
