[연구] [이지형 교수] 정보 및 지능 시스템 연구실, CVPR 2024 논문 1편 게재 승인
- 소프트웨어학과
- 조회수2310
- 2024-04-03
[이지형 교수] 정보 및 지능 시스템 연구실, CVPR 2024 논문 1편 게재 승인
정보 및 지능 시스템 연구실(지도교수:이지형)의 논문 1편이 컴퓨터 비전 및 인공지능 분야의 최우수 국제 학술대회(BK21 CS IF=4)인 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR 2024)에 게재 승인되었다.
제목 : "Learning with Structural Labels for Learning with Noisy Labels"
(전자전기컴퓨터공학과 박사 김누리*, 인공지능학과 석박통합과정 이진섭*) (*공동 1저자)
"Learning with Structural Labels for Learning with Noisy Labels" 논문에서는 학습 데이터의 레이블이 잘못 주어진 환경인 Noisy Labels 환경에서 딥러닝 모델 학습을 위한 방법을 제안합니다. 기존 방법들이 학습하고 있는 모델 자신의 출력 결과에만 크게 의존하여, 학습에 사용할 샘플을 선별하거나 레이블을 수정하고 있기 때문에 발생하는 문제를 제기하고, 이를 해결하기 위한 방법을 제시합니다. 해당 논문에서는 모델 자신의 출력 결과뿐만 아니라, Noisy한 상황에서 데이터 분포를 효과적으로 반영하기 위해 Reverse k-NN을 활용하여 Structural Label을 추출하였으며, 이를 모델이 추가적으로 학습하도록 하였습니다. 제안 방법은 벤치마크 데이터셋을 비롯한 real-world 노이즈 데이터셋에 대하여 우수한 성능을 보입니다.
[논문 정보]
Learning with Structural Labels for Learning with Noisy Labels
Noo-ri Kim*, Jin-Seop Lee*, Jee-Hyong Lee
IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2024
Abstract:
Deep Neural Networks (DNNs) have demonstrated remarkable performance across diverse domains and tasks with large-scale datasets. To reduce labeling costs for large-scale datasets, semi-automated and crowdsourcing labeling methods are developed, but their labels are inevitably noisy. Learning with Noisy Labels (LNL) approaches aim to train DNNs despite the presence of noisy labels. These approaches utilize the memorization effect to select correct labels and refine noisy ones, which are then used for subsequent training. However, these methods encounter a significant decrease in the model's generalization performance due to the inevitably existing noise labels. To overcome this limitation, we propose a new approach to enhance learning with noisy labels by incorporating additional distribution information—structural labels. In order to leverage additional distribution information for generalization, we employ a reverse k-NN, which helps the model in achieving a better feature manifold and mitigating overfitting to noisy labels. The proposed method shows outperformed performance in multiple benchmark datasets with IDN and real-world noisy datasets.