Cited 0 time in
정책 기반 강화학습에서의 효율적 탐색을 위한 행동 선택 기법 및 동적 밀집 보상 적용 연구
| DC Field | Value | Language |
|---|---|---|
| dc.contributor.author | 김준혁 | - |
| dc.contributor.author | 김준오 | - |
| dc.contributor.author | 조경은 | - |
| dc.date.accessioned | 2025-05-14T17:30:19Z | - |
| dc.date.available | 2025-05-14T17:30:19Z | - |
| dc.date.issued | 2025-04 | - |
| dc.identifier.issn | 2383-630X | - |
| dc.identifier.issn | 2383-6296 | - |
| dc.identifier.uri | https://scholarworks.dongguk.edu/handle/sw.dongguk/58365 | - |
| dc.description.abstract | 오늘날 강화학습은 자율주행, 로봇, 게임 등 다양한 분야에서 연구 및 활용되고 있다. 강화학습은 에이전트가 환경과 상호작용하며 최적의 행동 정책을 찾는 것을 목표로 하며, 환경과 문제에 따라 정책 기반 알고리즘과 가치 기반 알고리즘 중 더 적절한 알고리즘이 선택되어 사용된다. 정책 기반 알고리즘은 연속적이고 고차원적인 행동 공간에서 효과적인 학습이 가능하지만, 학습률 파라미터가 학습에 미치는 영향이 크고, 복잡한 환경일수록 최적화된 정책의 수렴 난도가 상승하는 문제점이 존재한다. 본 논문에서는 이러한 문제점을 해결하고자 어닐링 알고리즘을 기반한 행동 선택 기법 및 동적 밀집 보상 설계를 제안한다. 제안된 방식을 두 가지 대표적인 정책 기반 알고리즘인 A2C 알고리즘과 PPO 알고리즘에 적용하여 실험을 진행하였고, 실험 결과, 제안된 방식을 적용한 두 강화학습 알고리즘이 기존 강화학습 알고리즘 대비, 더 높은 성능을 보였다. | - |
| dc.format.extent | 11 | - |
| dc.language | 한국어 | - |
| dc.language.iso | KOR | - |
| dc.publisher | 한국정보과학회 | - |
| dc.title | 정책 기반 강화학습에서의 효율적 탐색을 위한 행동 선택 기법 및 동적 밀집 보상 적용 연구 | - |
| dc.title.alternative | Research on Action Selection Techniques and Dynamic Dense Reward Application for Efficient Exploration in Policy-Based Reinforcement Learning | - |
| dc.type | Article | - |
| dc.publisher.location | 대한민국 | - |
| dc.identifier.doi | 10.5626/JOK.2025.52.4.293 | - |
| dc.identifier.bibliographicCitation | 정보과학회논문지, v.52, no.4, pp 293 - 303 | - |
| dc.citation.title | 정보과학회논문지 | - |
| dc.citation.volume | 52 | - |
| dc.citation.number | 4 | - |
| dc.citation.startPage | 293 | - |
| dc.citation.endPage | 303 | - |
| dc.identifier.kciid | ART003194699 | - |
| dc.description.isOpenAccess | N | - |
| dc.description.journalRegisteredClass | kci | - |
| dc.subject.keywordAuthor | 심층 강화학습 | - |
| dc.subject.keywordAuthor | 정책 기반 알고리즘 | - |
| dc.subject.keywordAuthor | 시뮬레이티드 어닐링 | - |
| dc.subject.keywordAuthor | 동적 보상 설계 | - |
| dc.subject.keywordAuthor | deep RL | - |
| dc.subject.keywordAuthor | policy-based RL algorithm | - |
| dc.subject.keywordAuthor | simulated-annealing | - |
| dc.subject.keywordAuthor | dynamic dense reward | - |
Items in ScholarWorks are protected by copyright, with all rights reserved, unless otherwise indicated.
30, Pildong-ro 1-gil, Jung-gu, Seoul, 04620, Republic of Korea+82-2-2260-3114
Copyright(c) 2023 DONGGUK UNIVERSITY. ALL RIGHTS RESERVED.
Certain data included herein are derived from the © Web of Science of Clarivate Analytics. All rights reserved.
You may not copy or re-distribute this material in whole or in part without the prior written consent of Clarivate Analytics.
