Hodnocení lidské schopnosti rozpoznávat syntetickou řeč
Loading...
Date
Authors
ORCID
Advisor
Referee
Mark
A
Journal Title
Journal ISSN
Volume Title
Publisher
Vysoké učení technické v Brně. Fakulta informačních technologií
Abstract
Tato práce reaguje na vývoj umělé inteligence a jejího potencionálního zneužití v oblasti kybernetické bezpečnosti. Jejím cílem je otestovat a ohodnotit lidskou schopnost rozpoznávat podmnožinu syntetické řeči, zvanou hlasový deepfake. Práce popisuje experiment, ve kterém jsme s respondenty komunikovali pomocí hlasových zpráv. Respondentům jsme odprezentovali krycí příběh o tom, že testujeme uživatelskou přívětivost hlasových zpráv a přitom jim tajně během konverzace poslali předpřipravenou deepfake nahrávku a sledovali například jejich reakce, znalosti o deepfakes nebo kolik z respondentů správně určí, která zpráva byla upravená. Výsledky práce ukázali, že žádný z respondentů nezareagoval na podvodnou deepfake zprávu a pouze jeden zpětně přiznal, že si všiml něčeho konkrétního. Na druhou stranu, hlasovou zprávu, která obsahovala deepfake, po experimentu správně označilo 96,8% respondentů. Z výsledků tedy vyplývá, že ačkoli byla deepfake nahrávka snadno identifikovatelná mezi ostatními, nikdo na ni nezareagoval. Práce ukazuje, že lidská schopnost rozpoznávat hlasové deepfakes není na takové úrovni, abychom jí mohli důvěřovat. Pro lidi je velmi obtížné rozlišit mezi skutečnými a falešnými nahrávkami, zvláště pokud je nečekají.
This work responds to the development of artificial intelligence and its potential misuse in the field of cybersecurity. It aims to test and evaluate the human ability to recognize a subset of synthetic speech, called voice deepfake. This paper describes an experiment in which we communicated with respondents using voice messages. We presented the respondents with a cover story about testing the user-friendliness of voice messages while secretly sending them a pre-prepared deepfake recording during the conversation and looked at things like their reactions, their knowledge of deepfakes, or how many respondents correctly identified which message was manipulated. The results of the work showed that none of the respondents reacted in any way to the fraudulent deepfake message and only one retrospectively admitted to noticing something specific. On the other hand, a voicemail message that contained a deepfake was correctly identified by 96.8% of respondents after the experiment. Thus, the results show that although the deepfake recording was clearly identifiable among others, no one reacted to it. And so the whole thesis says that the human ability to recognize voice deepfakes is not at a level we can trust. It is very difficult for people to distinguish between real and fake voices, especially if they are not expecting them.
This work responds to the development of artificial intelligence and its potential misuse in the field of cybersecurity. It aims to test and evaluate the human ability to recognize a subset of synthetic speech, called voice deepfake. This paper describes an experiment in which we communicated with respondents using voice messages. We presented the respondents with a cover story about testing the user-friendliness of voice messages while secretly sending them a pre-prepared deepfake recording during the conversation and looked at things like their reactions, their knowledge of deepfakes, or how many respondents correctly identified which message was manipulated. The results of the work showed that none of the respondents reacted in any way to the fraudulent deepfake message and only one retrospectively admitted to noticing something specific. On the other hand, a voicemail message that contained a deepfake was correctly identified by 96.8% of respondents after the experiment. Thus, the results show that although the deepfake recording was clearly identifiable among others, no one reacted to it. And so the whole thesis says that the human ability to recognize voice deepfakes is not at a level we can trust. It is very difficult for people to distinguish between real and fake voices, especially if they are not expecting them.
Description
Citation
PRUDKÝ, D. Hodnocení lidské schopnosti rozpoznávat syntetickou řeč [online]. Brno: Vysoké učení technické v Brně. Fakulta informačních technologií. 2023.
Document type
Document version
Date of access to the full text
Language of document
en
Study field
Informační technologie
Comittee
prof. Dr. Ing. Jan Černocký (předseda)
doc. Ing. Zdeněk Vašíček, Ph.D. (člen)
Ing. Václav Šátek, Ph.D. (člen)
Ing. Filip Orság, Ph.D. (člen)
Ing. Vladimír Bartík, Ph.D. (člen)
Date of acceptance
2023-06-15
Defence
Student nejprve prezentoval výsledky, kterých dosáhl v rámci své práce. Komise se poté seznámila s hodnocením vedoucího a posudkem oponenta práce. Student následně odpověděl na otázky oponenta a na další otázky přítomných. Komise se na základě posudku oponenta, hodnocení vedoucího, přednesené prezentace a odpovědí studenta na položené otázky rozhodla práci hodnotit stupněm A.
Result of defence
práce byla úspěšně obhájena
Document licence
Standardní licenční smlouva - přístup k plnému textu bez omezení