Odolnost biometrické autentizace hlasových asistentů oproti deepfakes

but.committeedoc. Ing. Ondřej Ryšavý, Ph.D. (předseda) Ing. Tomáš Milet, Ph.D. (člen) Ing. Josef Strnadel, Ph.D. (člen) Ing. Matěj Grégr, Ph.D. (člen) Ing. Filip Orság, Ph.D. (člen)cs
but.defenceStudent nejprve prezentoval výsledky, kterých dosáhl v rámci své práce. Komise se poté seznámila s hodnocením vedoucího a posudkem oponenta práce. Student následně odpověděl na otázky oponenta a na další otázky přítomných. Komise se na základě posudku oponenta, hodnocení vedoucího, přednesené prezentace a odpovědí studenta na položené otázky rozhodla práci hodnotit stupněm A.cs
but.jazykangličtina (English)
but.programInformační technologiecs
but.resultpráce byla úspěšně obhájenacs
dc.contributor.advisorMalinka, Kamilen
dc.contributor.authorKaška, Petren
dc.contributor.refereePleško, Filipen
dc.date.created2024cs
dc.description.abstractHlasoví asistenti (Apple Siri, Amazon Alexa, Google-assistant, Samsung Bixby) podporující hlasové ovládání nabízejí stále více možností, jak nám usnadnit všechny každodenní činnosti. Lidé jim umožňují přístup k datům a informacím, aby mohli všechny tyto funkce plně využívat. Spolu s rychle se rozvíjející technologií hlasového deepfake se objevuje velká hrozba v oblasti zneužití deepfakes k oklamání chytrých hlasových asistentů. Útočník může nahrávat hlas oběti, syntetizovat hlas a vytvořit nahrávku nějakého příkazu, aby oklamal asistenta za cílem poškodit oběť. Cílem této práce je navrhnout experiment, který bude simulovat útoky, provedené syntitickým hlasem, na hlasové asistenty a následně vyhodnotit jejich obranyschopnost. Provedený experiment potvrzuje výchozí hypotézu o zranitelnosti hlasových asistentů vůči deepfake útokům a výsledky jsou velice alarmující s celkovou úspěšností 90\% naznačující nedostatečnou obranu hlasových asistentů a vyžadují zavedení dalších protiopatření, která by zabránila riziku zneužití, protože počet hlasových asistentů v aktivním používání rychle roste.en
dc.description.abstractVoice assistants (Apple Siri, Amazon Alexa, Google-assistant, Samsung Bixby) supporting voice control offer more and more possibilities to make all our daily activities easier. People give them access to data and information to take full advantage of all these features. Along with the rapidly developing voice deepfake technology, there is a big threat in the area of misusing deepfakes to trick smart voice assistants. An attacker can record the victim's voice, synthesize the voice and create a recording of some command to trick the assistant in order to harm the victim. The aim of this work is to design an experiment that will simulate attacks, performed by synthetic voice, on voice assistants and then evaluate their defensiveness. The conducted experiment confirms the initial hypothesis of the vulnerability of voice assistants to deepfake attacks and the results are very alarming with an overall success rate of 90% indicating insufficient defense of voice assistants and require the implementation of additional countermeasures to prevent the risk of misuse as the number of voice assistants in active use is rapidly increasing.cs
dc.description.markAcs
dc.identifier.citationKAŠKA, P. Odolnost biometrické autentizace hlasových asistentů oproti deepfakes [online]. Brno: Vysoké učení technické v Brně. Fakulta informačních technologií. 2024.cs
dc.identifier.other154457cs
dc.identifier.urihttp://hdl.handle.net/11012/247468
dc.language.isoencs
dc.publisherVysoké učení technické v Brně. Fakulta informačních technologiícs
dc.rightsStandardní licenční smlouva - přístup k plnému textu bez omezenícs
dc.subjectDeepfakesen
dc.subjectRozpoznávání Mluvčíhoen
dc.subjectHlasoví Asistentien
dc.subjectKybernetická Bezpečnosten
dc.subjectBezpečnostní Analýzaen
dc.subjectSpoofing Útokyen
dc.subjectDeepfakescs
dc.subjectSpeaker Recognitioncs
dc.subjectVoice Assistantscs
dc.subjectCyber Securitycs
dc.subjectSecurity Analysiscs
dc.subjectSpoofing Attackscs
dc.titleOdolnost biometrické autentizace hlasových asistentů oproti deepfakesen
dc.title.alternativeResilience of Biometric Authentication of Voice Assistants Against Deepfakescs
dc.typeTextcs
dc.type.driverbachelorThesisen
dc.type.evskpbakalářská prácecs
dcterms.dateAccepted2024-06-12cs
dcterms.modified2024-06-17-08:45:23cs
eprints.affiliatedInstitution.facultyFakulta informačních technologiícs
sync.item.dbid154457en
sync.item.dbtypeZPen
sync.item.insts2025.03.18 21:01:29en
sync.item.modts2025.01.17 13:33:46en
thesis.disciplineInformační technologiecs
thesis.grantorVysoké učení technické v Brně. Fakulta informačních technologií. Ústav inteligentních systémůcs
thesis.levelBakalářskýcs
thesis.nameBc.cs
Files
Original bundle
Now showing 1 - 2 of 2
Loading...
Thumbnail Image
Name:
final-thesis.pdf
Size:
4.3 MB
Format:
Adobe Portable Document Format
Description:
file final-thesis.pdf
Loading...
Thumbnail Image
Name:
review_154457.html
Size:
10.32 KB
Format:
Hypertext Markup Language
Description:
file review_154457.html
Collections