Metody podporující interpretovatelné a vysvětlitelné strojové učení

Loading...
Thumbnail Image

Date

Authors

Šmída, Šimon

Mark

A

Journal Title

Journal ISSN

Volume Title

Publisher

Vysoké učení technické v Brně. Fakulta informačních technologií

ORCID

Abstract

Narastajúca zložitosť systémov na báze strojového učenia predstavuje dôležité výzvy pri snahe porozumieť procesom ich rozhodovania - jav známy ako problém čiernej skrinky. Diplomová práca systematicky skúma existujúce metódy interpretability a vysvetliteľnosti modelov strojového učenia, so zameraním na konvolučné neurónové siete a obrazové dáta. Práca pokrýva intrinzické, post-hoc a mechanistické paradigmy interpretovateľnosti, kľúčové techniky (napríklad LIME, SHAP, metódy založené na gradientoch) a stratégie vyhodnotenia metód interpretability (kvalitatívne a kvantitatívne). Vykonané experimentálne analýzy posudzujú vplyv kvality modelu na vysvetlenia, porovnávajú výkonnosť metód interpretability na dátových rôznych sadách (MNIST, ImageNet) a hodnotia ich robustnosť voči rôznym typom perturbácií vstupných dát. Prínosom práce je aj návrh a experimentálna validácia metódy Adaptive-Metric Softmax (AMS) Ensemble, čo je nový prístup umožňujúci dynamicky kombinovať viacero metód interpretability s cieľom zlepšiť spoľahlivosť vysvetlení. Táto práca prináša teoretické poznatky a empirické dôkazy smerujúce k vývoju transparentnejších a dôveryhodnejších modelov strojového učenia.
The increasing complexity of machine learning systems poses significant challenges in understanding their decision-making processes - a phenomenon known as the black-box problem. This thesis systematically investigates existing methods for interpretability and explainability of machine learning models, with a focus on convolutional neural networks and image data. It covers intrinsic, post-hoc, and mechanistic interpretability paradigms, key techniques (e.g., LIME, SHAP, gradient-based methods), and evaluation strategies for interpretability methods (both qualitative and quantitative). The conducted experimental analyses assess the impact of model quality on explanations, compare the performance of interpretability methods across different datasets (MNIST, ImageNet), and evaluate their robustness against various types of input data perturbations. A notable contribution of this work is the proposal and experimental validation of the Adaptive-Metric Softmax (AMS) Ensemble method, which is a novel approach that enables a dynamic combination of multiple interpretability methods to enhance the reliability of explanations. This thesis provides theoretical insights and empirical evidence supporting the development of more transparent and trustworthy machine learning models.

Description

Citation

ŠMÍDA, Š. Metody podporující interpretovatelné a vysvětlitelné strojové učení [online]. Brno: Vysoké učení technické v Brně. Fakulta informačních technologií. 2025.

Document type

Document version

Date of access to the full text

Language of document

en

Study field

Strojové učení

Comittee

prof. Dr. Ing. Jan Černocký (předseda) doc. Ing. Lukáš Burget, Ph.D. (člen) doc. Ing. Vladimír Janoušek, Ph.D. (člen) Ing. Michal Hradiš, Ph.D. (člen) Ing. Jaroslav Rozman, Ph.D. (člen) Ing. František Grézl, Ph.D. (člen)

Date of acceptance

2025-06-24

Defence

Student nejprve prezentoval výsledky, kterých dosáhl v rámci své práce. Komise se poté seznámila s hodnocením vedoucího a posudkem oponenta práce. Student následně odpověděl na otázky oponenta a na další otázky přítomných. Komise se na základě posudku oponenta, hodnocení vedoucího, přednesené prezentace a odpovědí studenta na položené otázky rozhodla práci hodnotit stupněm A.

Result of defence

práce byla úspěšně obhájena

DOI

Collections

Endorsement

Review

Supplemented By

Referenced By

Citace PRO