Útoky na AI a modely strojového učení
but.committee | doc. Dr. Ing. Otto Fučík (předseda) Mgr. Kamil Malinka, Ph.D. (člen) doc. Ing. Michal Bidlo, Ph.D. (člen) Ing. Vladimír Veselý, Ph.D. (člen) Ing. David Bařina, Ph.D. (člen) | cs |
but.defence | Studentka nejprve prezentovala výsledky, kterých dosáhla v rámci své práce. Komise se poté seznámila s hodnocením vedoucího a posudkem oponenta práce. Studentka následně odpověděla na otázky oponenta a na další otázky přítomných. Komise se na základě posudku oponenta, hodnocení vedoucího, přednesené prezentace a odpovědí studentky na položené otázky rozhodla práci hodnotit stupněm C. | cs |
but.jazyk | angličtina (English) | |
but.program | Informační technologie | cs |
but.result | práce byla úspěšně obhájena | cs |
dc.contributor.advisor | Reš, Jakub | en |
dc.contributor.author | Kejdová, Klára | en |
dc.contributor.referee | Hranický, Radek | en |
dc.date.accessioned | 2025-06-21T03:57:25Z | |
dc.date.available | 2025-06-21T03:57:25Z | |
dc.date.created | 2025 | cs |
dc.description.abstract | Tato práce se zabývá zranitelnostmi a vektory útoků zaměřenými na systémy umělé inteligence (AI) a strojového učení (ML) a poskytuje důkladnou analýzu zranitelností v průběhu jejich životního cyklu. Zabývá se principem a vznikem jednotlivých technik AI jako je hluboké učení, zpracování přirozeného jazyka a počítačové vidění. Na základě těchto vědomostí spolu s analýzou rizik, která detailně popisuje motivy, vědomosti útočníků a analýzu následků útoků provedenou těmito útočníky, jsou vymodelovány tři vektory útoku. Tyto vektory mají za úkol demonstrovat skutečný případ nasazení jazykového modelu v rámci komerčních webů a způsoby, jakými lze takový model napadnout a zneužít ve prospěch útočníka a poukázat tak na potenciální mezery v zabezpečení a jejich následky. V navazující a poslední části budou tyto navržené vektory útoku demonstrovány na lokálně nasazeném modelu Mety, LLaMA 3.2 1B Instruct, jenž představuje zástupce běžně používaných jazykových modelů. | en |
dc.description.abstract | This paper examines vulnerabilities and attack vectors targeting Artificial Intelligence (AI) and Machine Learning (ML) systems and provides a thorough analysis of vulnerabilities throughout their lifecycle. It discusses the principles and emergence of various AI techniques such as deep learning, natural language processing and computer vision. Three attack vectors are modelled based on this knowledge, along with a risk analysis that details the motives, knowledge of the attackers, and analysis of the consequences of attacks carried out. These vectors are intended to demonstrate a real-world case of deploying a language model within a commercial website and how it can be attacked and exploited to the attacker’s advantage, thus highlighting potential security gaps and consequences. In the subsequent and final section, these proposed attack vectors will be demonstrated on a locally deployed Meta’s LLaMA 3.2 1B Instruct model, which is representative of commonly used language models. | cs |
dc.description.mark | C | cs |
dc.identifier.citation | KEJDOVÁ, K. Útoky na AI a modely strojového učení [online]. Brno: Vysoké učení technické v Brně. Fakulta informačních technologií. 2025. | cs |
dc.identifier.other | 165163 | cs |
dc.identifier.uri | https://hdl.handle.net/11012/254584 | |
dc.language.iso | en | cs |
dc.publisher | Vysoké učení technické v Brně. Fakulta informačních technologií | cs |
dc.rights | Standardní licenční smlouva - přístup k plnému textu bez omezení | cs |
dc.subject | zabezpečení umělé inteligence | en |
dc.subject | zranitelnosti strojového učení | en |
dc.subject | nepřátelské útoky | en |
dc.subject | otrava dat | en |
dc.subject | hrozby životního cyklu AI | en |
dc.subject | rizika zpracování přirozeného jazyka | en |
dc.subject | vektorové modelování útoku | en |
dc.subject | jailbreak útok | en |
dc.subject | obcházení etických filtrů | en |
dc.subject | útoky postranním kanálem | en |
dc.subject | etické nasazení AI | en |
dc.subject | analýza rizik AI | en |
dc.subject | artificial intelligence security | cs |
dc.subject | machine learning vulnerabilities | cs |
dc.subject | adversarial attacks | cs |
dc.subject | data poisoning | cs |
dc.subject | AI lifecycle threats | cs |
dc.subject | natural language processing risks | cs |
dc.subject | attack vector modelling | cs |
dc.subject | jailbreak attack | cs |
dc.subject | ethical filter evasion | cs |
dc.subject | side-channel attacks | cs |
dc.subject | ethical AI deployment | cs |
dc.subject | AI risk analysis | cs |
dc.title | Útoky na AI a modely strojového učení | en |
dc.title.alternative | Attacks on AI and machine learning models | cs |
dc.type | Text | cs |
dc.type.driver | bachelorThesis | en |
dc.type.evskp | bakalářská práce | cs |
dcterms.dateAccepted | 2025-06-20 | cs |
dcterms.modified | 2025-06-20-12:01:53 | cs |
eprints.affiliatedInstitution.faculty | Fakulta informačních technologií | cs |
sync.item.dbid | 165163 | en |
sync.item.dbtype | ZP | en |
sync.item.insts | 2025.06.21 05:57:25 | en |
sync.item.modts | 2025.06.21 05:34:38 | en |
thesis.discipline | Informační technologie | cs |
thesis.grantor | Vysoké učení technické v Brně. Fakulta informačních technologií. Ústav inteligentních systémů | cs |
thesis.level | Bakalářský | cs |
thesis.name | Bc. | cs |