[채용/모집] HLILab(박진영 교수, https://hli.skku.edu) 연구 프로젝트 학부 인턴 모집
- 소프트웨어학과
- 조회수889
- 2026-03-03
HLILab(박진영 교수, https://hli.skku.edu)에서 아래와 같이 연구 프로젝트와 관련하여 학부 인턴을 모집합니다. 많은 관심 참여 바랍니다.
- 연구참여기간
- 2026. 3. 16. 시작
- 중간 평가 이후 연장 가능
- 지원방법
- 이력서 및 자기소개서(본인 소개, 관심 연구 프로젝트 및 이유) 1부씩 작성하신 후 jy.bak@skku.edu 로 이메일 보내주세요
- 지원기간: ~ 2025년 3월 8일 23시 59분까지
- 처우 및 기타
- 성균관대학교 재학생인 경우 인건비 지급 (월 30만원, 중간 평가 후 인상 가능)
- 휴학생, 졸업생, 타대 재학생 경우 법적으로 인건비 지급이 어렵습니다.
- 대신, 인턴 이후 HLILab 연구실에 재학생으로 오실 경우 보전 가능합니다.
- 성균관대학교 재학생인 경우 인건비 지급 (월 30만원, 중간 평가 후 인상 가능)
2026년 봄학기 HLILab 연구 프로젝트
Superalignment
- 연구 개요
We investigate superalignment for large language models (LLMs), focusing on how models can generalize from human-supervised easy tasks to more complex tasks (i.e., beyond the level of human intelligence) while maintaining value alignment. Our method is based on diverse scalable oversight methods such as Easy-to-Hard Generalization (E2HG), which combines outcome and process reward modeling (ORPM) to train models capable of robust reasoning under limited supervision. In this work, 1) we evaluate reasoning performance, 2) track value drift during fine-tuning and detect potential misalignment, 3) explore methods to mitigate value drift. - 관련 논문
- Research on Superalignment Should Advance Now with Parallel Optimization of Competence and Conformity
- Easy-to-Hard Generalization: Scalable Alignment Beyond Human Supervision
- 연구 개요
다편향성 평가 벤치마크 구축 및 LLM 편향성 평가 모델 개발
- 연구 개요
거대언어모델 (LLM) 의 편향 연구는 그동안 성별, 인종 등 단일 속성을 중심으로 편향성의 평가가 이루어져 왔기 때문에, 실제 사용자 처럼 여러 사회적 특징이 혼재된 상황에서 1) 편향의 평가와 2) 편향의 원인 분석이 충분히 이루어지지 못하는 한계가 존재했습니다. 본 연구에서는 사회적 프로필 (예, 직업 + 나이 + 종교, 등) 을 바탕으로, 여러 속성이 복합적으로 포함된 1) 다편향성 (multi-bias) 평가 벤치마크를 구축하고, 이를 활용하여 2) LLM의 편향성을 보다 정교하게 평가하는 것을 목표로 합니다. 이 연구를 통해 LLM의 외재적, 내재적 편향을 다각도로 분석하고, 편향성을 초래하는 원인을 분석함으로써 이후 공정성의 향상에 대한 연구에 필요한 기반을 제시하고자 합니다.
- 관련 논문
- Bai, Xuechunzi, et al. "Measuring implicit bias in explicitly unbiased large language models." arXiv preprint arXiv:2402.04105 (2024).
- Tan, Bryan Chen Zhengyu, and Roy Ka-Wei Lee. "Unmasking Implicit Bias: Evaluating Persona-Prompted LLM Responses in Power-Disparate Social Scenarios." arXiv preprint arXiv:2503.01532 (2025).
보이스피싱
- 연구 개요
기존 보이스피싱 탐지 연구는 알려진 보이스피싱(In-domain) 유형에 집중하여 높은 정확도를 달성했습니다. 그러나 이러한 연구는 사전에 정의되지 않은 신종 보이스피싱(Out-of-domain)에 대응하지 못하는 한계가 있습니다. 예를 들어, 기존 유형의 보이스피싱 사례(예: 대출 유도, 지인 사칭 등)는 잘 탐지할 수 있지만, 새로운 형태의 보이스피싱(예: 가상자산 투자 권유, 메신저 기반 피싱 등)에는 취약합니다. 본 과제는 이러한 한계를 극복하기 위해 검색 모델과 통합된 신종 보이스피싱 탐지 모델을 개발하는 것을 목표로 합니다. 아울러 개발된 sLLM을 실제 환경에서 활용할 수 있도록, 모델을 탑재한 안드로이드 애플리케이션을 구현하여 실사용 기반의 탐지·응답 기능까지 통합하는 것을 추가 목표로 합니다.
- 관련 논문
- Towards Reliable and Practical Phishing Detection
- Korean voice phishing detection applying NER with key tags and sentence-level N-Gram
- Enhancing Voice Phishing Detection Using Multilingual Back-Translation and SMOTE: An Empirical Study
- Personalized Response System for Different Voice Phishing Types: Utilizing a Retrieval-Augmented Generation Model
발전기금



