Cited 0 time in
특정 화자 대화생성을 위한 이중 정책망 강화학습
| DC Field | Value | Language |
|---|---|---|
| dc.contributor.author | 이창환 | - |
| dc.date.accessioned | 2023-04-28T04:41:29Z | - |
| dc.date.available | 2023-04-28T04:41:29Z | - |
| dc.date.issued | 2019-04 | - |
| dc.identifier.issn | 2287-5026 | - |
| dc.identifier.issn | 2288-159X | - |
| dc.identifier.uri | https://scholarworks.dongguk.edu/handle/sw.dongguk/8207 | - |
| dc.description.abstract | 심층 학습(deep learning)과 강화학습(reinforcement learning)을 결합한 심층강화학습(deep reinforcement learning)은 최근 다양한 분야에서 널리 사용되고 있으며 특히 챗봇의 개발에 있어서 중요한 역할을 하고 있다. 이러한 심층강화학습을 이용한 챗봇 개발에 있어서는 주로 심층 러닝으로 구현된 정책 네트워크(policy network)를 policy gradient 기법을 사용하여 자연어 생성 학습을 진행한다. 본 연구에서는 이러한 챗봇(chatbot)의 개발에 있어서 대화자의 특성에 따라 학습이 가능한 두 개의 정책 네트워크(dual policy network)를 사용하는 새로운 심층강화학습 방법을 제안한다. 실제 데이터를 이용한 다양한 대화 생성 실험을 진행하였으며 제안된 모델은 기존의 모델에 비하여 더욱 대화자의 특징에 맞는 대화를 생성 할 수 있음을 알 수 있었다. | - |
| dc.format.extent | 6 | - |
| dc.language | 한국어 | - |
| dc.language.iso | KOR | - |
| dc.publisher | 대한전자공학회 | - |
| dc.title | 특정 화자 대화생성을 위한 이중 정책망 강화학습 | - |
| dc.title.alternative | Dual Policy Network for Speaker-specific Dialog Generation in Deep Reinforcement Learning | - |
| dc.type | Article | - |
| dc.publisher.location | 대한민국 | - |
| dc.identifier.bibliographicCitation | 전자공학회논문지, v.56, no.4, pp 44 - 49 | - |
| dc.citation.title | 전자공학회논문지 | - |
| dc.citation.volume | 56 | - |
| dc.citation.number | 4 | - |
| dc.citation.startPage | 44 | - |
| dc.citation.endPage | 49 | - |
| dc.identifier.kciid | ART002459050 | - |
| dc.description.isOpenAccess | N | - |
| dc.description.journalRegisteredClass | kci | - |
| dc.subject.keywordAuthor | Deep reinforcement learning | - |
| dc.subject.keywordAuthor | Dual policy network | - |
| dc.subject.keywordAuthor | Chatbot | - |
Items in ScholarWorks are protected by copyright, with all rights reserved, unless otherwise indicated.
30, Pildong-ro 1-gil, Jung-gu, Seoul, 04620, Republic of Korea+82-2-2260-3114
Copyright(c) 2023 DONGGUK UNIVERSITY. ALL RIGHTS RESERVED.
Certain data included herein are derived from the © Web of Science of Clarivate Analytics. All rights reserved.
You may not copy or re-distribute this material in whole or in part without the prior written consent of Clarivate Analytics.
