프롬프트 엔지니어링과 파인튜닝을 활용한 대규모 언어 모델 기반 한국어 혐오 표현 다중 레이블 분류 연구Multi-Label Classification of Korean Hate Speech Leveraging LLMs with Prompt Engineering and Fine-Tuning
- Other Titles
- Multi-Label Classification of Korean Hate Speech Leveraging LLMs with Prompt Engineering and Fine-Tuning
- Authors
- 이순형; 김형진; 윤상혁
- Issue Date
- Sep-2025
- Publisher
- 한국지능정보시스템학회
- Keywords
- 혐오 표현; 대규모 언어 모델; 프롬프트 엔지니어링; 파인튜닝; 디자인 사이언스 방법론; hate speech; large language model; prompt engineering; fine-tuning; design science methodology
- Citation
- 지능정보연구, v.31, no.3, pp 227 - 248
- Pages
- 22
- Indexed
- KCI
- Journal Title
- 지능정보연구
- Volume
- 31
- Number
- 3
- Start Page
- 227
- End Page
- 248
- URI
- https://scholarworks.dongguk.edu/handle/sw.dongguk/61837
- DOI
- 10.13088/jiis.2025.31.3.227
- ISSN
- 2288-4866
2288-4882
- Abstract
- 온라인 공간에서 혐오 표현 확산은 현대 사회가 직면한 심각한 사회 및 문화적 문제로, 빠른 전파 속도와 경제적 이해 관계의 결합에 따라 지속적으로 재생산 및 확산되는 경향을 보인다. 그러나 기존 혐오 표현 탐지 연구는 전통적 기계학습 기반의 키워드 필터링 또는 영어 데이터셋 중심의 딥러닝 모델에 의존함으로써, 한국어 환경에서의 정밀 탐지 성능이 저 하되고 세부 유형별 분류에 한계가 존재하였다. 이에 본 연구는 한국어 혐오 표현의 복잡한 문맥과 의미적 함의를 정교하 게 반영하기 위해 대규모 언어모델(Large Language Model) 기반 다중 레이블 분류 체계를 제안한다. 구체적으로, 공개 데 이터셋인 Kor_Unsmile을 Chain-of-Thought(CoT) 프롬프트 구조에 맞추어 재구성한 후 이를 활용하여 대형 언어모델을 파인튜닝하였다. 모델 개발 단계에서는 CoT 프롬프트 엔지니어링과 Low-Rank Adaptation(LoRA) 파인튜닝을 결합한 LlamaGuard-3-8B 모델을 설계하였으며, 체계적인 하이퍼파라미터 최적화 과정을 통해 성능을 극대화하였다. 성능 평가 결과, 제안 모델은 Macro F1 0.8623, Micro F1 0.8817을 기록하여 GPT-4.0 및 KoELECTRA 대비 우수한 성능을 보였으 며, 인간 평가자와의 일치도 분석에서도 90.1%의 높은 일치율을 기록해 실제 적용 가능성을 입증하였다. 본 연구는 온라 인 플랫폼에서 한국어 혐오 표현을 다중 레이블로 정밀 분류할 수 있는 실용적 모델을 제시함과 동시에, 디자인 사이언스 방법론을 적용하여 대규모 언어 모델 기반 분류 모델의 체계적 개발 절차를 구체적으로 제시하였다는 점에서 학문적, 실 무적 의의를 가진다.
- Files in This Item
- There are no files associated with this item.
- Appears in
Collections - Dongguk Business School > Department of Management Information System > 1. Journal Articles

Items in ScholarWorks are protected by copyright, with all rights reserved, unless otherwise indicated.