Posilované učení pro pohyb robota

but.committeedoc. Ing. Martin Čadík, Ph.D. (předseda) doc. Ing. Radek Burget, Ph.D. (místopředseda) Ing. David Bařina, Ph.D. (člen) doc. RNDr. Milan Češka, Ph.D. (člen) Ing. Vojtěch Mrázek, Ph.D. (člen)cs
but.defenceStudent nejprve prezentoval výsledky, kterých dosáhl v rámci své práce. Komise se poté seznámila s hodnocením vedoucího a posudkem oponenta práce. Student následně odpověděl na otázky oponenta a na další otázky přítomných. Komise se na základě posudku oponenta, hodnocení vedoucího, přednesené prezentace a odpovědí studenta na položené otázky rozhodla práci hodnotit stupněm D. Otázky u obhajoby: 1) V práci hodnotíte úspěšnost (ve všech grafech) hodnotou "Reward". ta ale není v práci vlastně vysvětlena. Co je tedy onou hodnotou "Reward" uváděnou v grafech, jak se měří? 2) V závěru práce uvádíte, že robot Atlas byl při trénování úspěšný. Jak tuto "úspěšnost" může vnímat čtenář práce. Čím se vlastně projevuje, jak to pozná? 3) Má hodnota "Reward" nějaké teoretické maximum?cs
but.jazykčeština (Czech)
but.programInformační technologiecs
but.resultpráce byla úspěšně obhájenacs
dc.contributor.advisorHradiš, Michalcs
dc.contributor.authorHás, Davidcs
dc.contributor.refereeZemčík, Pavelcs
dc.date.created2022cs
dc.description.abstractTato práce se zabývá využitím posilovaného učení pro pohyb robota v simulovaném fyzikálním prostředí. Pro posilované učení se jedná o náročné úlohy, kde agenti čelí několika výzvám. Jednou z nich je spojitý prostor akcí, jelikož agent obvykle ovlivňuje prostředí aplikací síly na jednotlivé klouby. Druhým problémem je, že části robota se často vzájemně ovlivňují složitým způsobem a navíc jsou ovlivněny gravitací, setrvačností a dalšími fyzikálními efekty. Z těchto a dalších důvodů nejsou pro tyto úlohy jednoduché algoritmy posilovaného učení vhodné. Jedním z relativně nových řešení je algoritmus Soft Actor-Critic (SAC), který se objevil současně s podobně performním TD3, a oba překonávají starší DDPG. Agent SAC je odměňován za více náhodné chování, jeho cílem je tedy kromě maximalizace odměny také maximalizace entropie. Tato práce ukazuje použití tohoto algoritmu při učení agenta na úloze robotického pohybu. Je popsána implementace s použitím frameworku PyTorch a úspěšnost algoritmu je vyhodnocena na úlohách z prostředí PyBullet a OpenAI Gym. Algoritmus je na závěr použit na vlastní upravené prostředí s robotem Atlas.cs
dc.description.abstractThis paper is concerned with reinforcement learning for robotic movement in simulated physical environment. These are difficult problems for reinforcement learning, where agents need to face several challenges. One of them is continuous action space, as agent usually interacts with the environment by applying force on joints of the robot. Another problem is that parts of the robot often affect each other in complex ways and are also affected by gravity, inertia and other physical effects. For these and more reasons simple reinforcement learning algorithms are not suitable for these tasks. One of recent solutions is the Soft Actor-Critic algorithm (SAC), which emerged at the same time as similarly performing TD3, and both outperforming the older DDPG. SAC agents are rewarded for behaving more randomly, thus their goal is to maximize entropy along with maximizing the reward. This paper describes usage of this algorithm for teaching agents robotic movement. It describes implementation of the algorithms using the PyTorch machine learning framework and evaluates it on environments from OpenAI Gym platform using the PyBullet physics engine. Lastly, the algorithm is applied on custom environment with robot Atlas.en
dc.description.markDcs
dc.identifier.citationHÁS, D. Posilované učení pro pohyb robota [online]. Brno: Vysoké učení technické v Brně. Fakulta informačních technologií. 2022.cs
dc.identifier.other145078cs
dc.identifier.urihttp://hdl.handle.net/11012/207222
dc.language.isocscs
dc.publisherVysoké učení technické v Brně. Fakulta informačních technologiícs
dc.rightsStandardní licenční smlouva - přístup k plnému textu bez omezenícs
dc.subjectstrojové učenícs
dc.subjectneronové sítěcs
dc.subjectposilované učenícs
dc.subjecthluboké učenícs
dc.subjectsoft actor-criticcs
dc.subjectSACcs
dc.subjectOpenAI Gymcs
dc.subjectmachine learningen
dc.subjectneural networksen
dc.subjectreinforcement learningen
dc.subjectdeep learningen
dc.subjectsoft actor-criticen
dc.subjectSACen
dc.subjectOpenAI Gymen
dc.titlePosilované učení pro pohyb robotacs
dc.title.alternativeReinforcement Learning for Mobile Robotsen
dc.typeTextcs
dc.type.driverbachelorThesisen
dc.type.evskpbakalářská prácecs
dcterms.dateAccepted2022-06-14cs
dcterms.modified2022-06-20-10:23:00cs
eprints.affiliatedInstitution.facultyFakulta informačních technologiícs
sync.item.dbid145078en
sync.item.dbtypeZPen
sync.item.insts2025.03.18 19:39:32en
sync.item.modts2025.01.17 14:18:33en
thesis.disciplineInformační technologiecs
thesis.grantorVysoké učení technické v Brně. Fakulta informačních technologií. Ústav počítačové grafiky a multimédiícs
thesis.levelBakalářskýcs
thesis.nameBc.cs
Files
Original bundle
Now showing 1 - 4 of 4
Loading...
Thumbnail Image
Name:
final-thesis.pdf
Size:
1.28 MB
Format:
Adobe Portable Document Format
Description:
final-thesis.pdf
Loading...
Thumbnail Image
Name:
Posudek-Vedouci prace-23906_v.pdf
Size:
85.75 KB
Format:
Adobe Portable Document Format
Description:
Posudek-Vedouci prace-23906_v.pdf
Loading...
Thumbnail Image
Name:
Posudek-Oponent prace-23906_o.pdf
Size:
87.45 KB
Format:
Adobe Portable Document Format
Description:
Posudek-Oponent prace-23906_o.pdf
Loading...
Thumbnail Image
Name:
review_145078.html
Size:
1.43 KB
Format:
Hypertext Markup Language
Description:
file review_145078.html
Collections