데이터 지능 및 학습 연구실(지도교수: 이종욱) SIGIR 2025 논문 3편 게재
2025-04-22
데이터 지능 및 학습(Data Intelligence and Learning, DIAL, 지도교수: 이종욱) 연구실은 세계 최고 권위의 정보검색 학회인 SIGIR 2025에 3편의 논문이 최종 게재 승인되었으며, 7월에 이탈리아 파도바에서 논문을 발표할 예정입니다. [논문 목록] 1. Why is Normalization Necessary for Linear Recommenders? (SIGIR'25) 2. Linear Item-Item Models with Neural Knowledge for Session-based Recommendation (SIGIR'25) 3. DIFF: Dual Side-Information Filtering and Fusion for Sequential Recommendation (SIGIR'25) 연구 1 : Seongmin Park, Mincheol Yoon, Hye-young Kim, Jongwuk Lee, “Why is Normalization Necessary for Linear Recommenders?”, The 48th International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR), 2025 본 연구는 선형 오토인코더 (linear autoencoder, LAE) 기반 추천 시스템이 간단한 구조에도 불구하고 신경망 기반 모델과 비교할 만한 추천 성능과 빠른 추론 속도를 보인다는 점에 착안하였습니다. 그러나 LAE는 인기 있는 아이템을 과도하게 추천하는 인기도 편향 (popularity bias)와 지역적인 아이템 간 상관관계에 지나치게 의존하는 이웃 편향 (neighborhood bias)라는 두 가지 구조적 한계에 직면해 있습니다. 이러한 문제를 해결하기 위해, 본 논문에서는 LAE 모델에 적용할 수 있는 새로운 정규화 방법인 Data-Adaptive Normalization (DAN)을 제안합니다. DAN은 데이터의 특성에 따라 두 가지 bias를 유연하게 제어할 수 있도록 설계된 정규화 기법으로, (i) item-adaptive normalization과 (ii) user-adaptive normalization이라는 두 가지 핵심 컴포넌트로 구성됩니다. 첫 번째로, item-adaptive normalization은 정규화 파라미터 α를 통해 인기 아이템의 영향력을 조절하고 LAE에 denoising 효과를 부여합니다. 이를 통해 기존 LAE가 주로 추천하던 인기 아이템 (head items) 중심의 성능에서 벗어나 (즉, 인기도 편향), 비인기 아이템 (tail items)에 대한 추천 성능을 크게 향상시킬 수 있습니다. 두 번째로, user-adaptive normalization은 파라미터 β를 사용하여 이웃 편향을 제어합니다. 이 기법은 고주파수 성분 (high-frequency components)을 억제하고 중요한 저주파수 성분을 보존함으로써, 지역적인 상관관계보다 전체적인 글로벌 패턴을 더 잘 반영하도록 도와줍니다. DAN의 효과는 여섯 개의 대표적인 추천 데이터셋 (ML-20M, Netflix, MSD, Gowalla, Yelp2018, Amazon-book)에서 실험적으로 검증되었습니다. DAN을 적용한 LAE 모델들 (LAE_DAN, EASE_DAN, RLAE_DAN)은 모든 데이터셋에서 기존 LAE 모델 대비 일관된 성능 향상을 보였으며, tail 아이템과 unbiased 평가에서 최대 각각 128.57%와 12.36%의 성능 향상을 기록하였습니다. 또한 DAN은 최신 협업 필터링 모델들과 비교했을 때도 우수한 성능을 나타냈습니다. 또한, 그림 1 (Case study)은 정규화 방법에 따른 특정 사용자의 추천 결과를 보여주며, 다음과 같은 관찰을 했습니다. (1) 정규화 없는 LAE (W/O)는 사용자가 로맨틱 영화 3편을 시청했음에도 5개 모두 높은 인기도의 액션 영화만 추천합니다. 반면, 세 가지 정규화 방법 (RW, Sym, DAN)은 사용자가 본 "Step Up 1"과 관련된 "Step Up 2"를 최상위로 추천하여 사용자 선호도를 효과적으로 반영합니다. (2) DAN은 인기도 편향을 적절히 완화하면서도 사용자 선호도를 유지하는 가장 균형 잡힌 추천을 제공합니다. RW 정규화는 5개 중 4개가 인기 아이템으로, 여전히 인기도 편향이 강합니다. Sym 정규화는 5개 중 4개가 인기 없는 아이템으로, 인기도 편향을 과도하게 완화합니다. DAN은 인기 및 비인기 아이템의 균형을 맞추면서 사용자 선호도에 가장 관련성 높은 아이템을 추천합니다. 그림 1: ML-20M 데이터셋에서 사용자 #91935의 상호작용 이력과 네 가지 정규화 방법의 Top-5 추천 목록. 빨간 테두리는 head (상위 20%) 항목이고, 파란 테두리는 tail (하위 80%) 항목 나아가 본 연구는 데이터셋의 Gini index와 homophily 특성에 따라 정규화 파라미터 (α, β)의 효과가 어떻게 달라지는지 분석하고, 각 데이터셋에 적합한 파라미터 설정 가이드라인도 함께 제시합니다. 이를 통해 제안된 DAN 기법은 데이터 특성에 따라 정교하게 bias를 제어할 수 있는 일반적이고 실용적인 솔루션으로 자리매김할 수 있음을 보여줍니다. 본 논문에 관한 자세한 내용은 다음 주소를 참고해주세요. https://dial.skku.edu/blog/2025_dan 연구 2 : Minjin Choi, Sunkyung Lee, Seongmin Park, Jongwuk Lee, “Linear Item-Item Models with Neural Knowledge for Session-based Recommendation”, The 48th International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR), 2025 본 연구는 사용자의 현재 세션 내 상호작용을 기반으로 다음 행동을 예측하는 세션 기반 추천(Session-based Recommendation, SBR) 문제에 주목합니다. SBR 분야는 크게 두 가지 패러다임으로 나뉩니다. 하나는 복잡한 순차적 전이 패턴을 포착하는 데 강점을 보이는 신경망 기반 모델이며, 다른 하나는 아이템 간의 동시 등장 패턴을 효과적으로 학습하고 빠른 추론 속도를 제공하는 선형 아이템-아이템 모델입니다. 그러나 각 패러다임은 서로 다른 종류의 아이템 관계를 포착하는 데 특화되어 있으며, 신경망 모델의 높은 정확성과 선형 모델의 효율성을 동시에 달성하기 위한 효과적인 통합 방안은 아직 부족한 실정입니다. 이러한 배경 하에, 본 논문에서는 선형 모델과 신경망 모델의 지식을 효과적으로 통합하는 새로운 SBR 모델인 LINK (Linear Item-Item model with Neural Knowledge)를 제안합니다. LINK는 두 가지 유형의 지식을 하나의 통합된 선형 프레임워크 내에서 결합하여, 높은 정확도와 빠른 추론 속도라는 두 마리 토끼를 잡는 것을 목표로 합니다. 이를 위해 LINK는 두 가지 핵심 구성 요소를 포함합니다. (i) LIS (Linear knowledge-enhanced Item-item Similarity model)는 자기 증류(self-distillation) 기법을 통해 선형 모델 자체의 아이템 유사성(동시 등장) 포착 능력을 강화하고 세션 간의 고차원적 관계까지 학습합니다. (ii) NIT (Neural knowledge-enhanced Item-item Transition model)는 사전 학습된 임의의 신경망 모델로부터 복잡한 순차적 전이 지식을 증류하여, 이를 선형 모델 학습 시 정규화 항으로 활용하는 독창적인 방식을 통해 신경망의 지식을 선형 모델에 효과적으로 주입합니다. 그림 2에서 보이는 바와 같이, LINK 모델의 효과는 Diginetica, Retailrocket, Yoochoose 등 여섯 개의 실제 SBR 데이터셋을 사용한 광범위한 실험을 통해 검증되었습니다. 실험 결과, LINK는 모든 데이터셋에서 기존의 최첨단 선형 SBR 모델들(SLIST, SWalk 등) 대비 일관되고 큰 폭의 성능 향상(Recall@20 기준 최대 14.78%, MRR@20 기준 최대 11.04%)을 달성했습니다. 이는 선형 모델의 한계를 신경망 지식 통합을 통해 성공적으로 극복했음을 보여줍니다. 더불어 LINK는 복잡한 최신 신경망 모델들과 비교했을 때도 경쟁력 있는, 혹은 더 우수한 예측 정확도를 보이면서도, 선형 모델의 핵심 장점인 높은 추론 효율성(최대 813배 적은 FLOPs)을 그대로 유지하였습니다. 추가 분석을 통해 선형 모델이 비인기 아이템 간의 관계에 강점을 보이고 신경망 모델이 인기 아이템의 복잡한 패턴에 강점을 보이는데, LINK가 이 두 가지 강점을 효과적으로 결합하여 균형 잡힌 성능을 달성함을 확인했습니다. 그림 2: 정확도(Recall@20)와 추론 연산량(FLOPs) 비교 결론적으로, LINK는 SBR 분야에서 정확성과 효율성 사이의 실질적인 균형점을 제공하는 새로운 하이브리드 접근 방식을 제시합니다. 특히 NIT 컴포넌트는 특정 신경망 아키텍처에 구애받지 않고 다양한 모델의 지식을 활용할 수 있는 유연성을 제공하여, 향후 신경망 모델의 발전에 따라 지속적으로 성능 개선이 가능한 실용적인 솔루션입니다. 본 논문에 관한 자세한 내용은 다음 주소를 참고해주세요. https://dial.skku.edu/blog/2025_link 연구 3 : Hye-young Kim, Minjin Choi, Sunkyung Lee, Ilwoong Baek, Jongwuk Lee, “DIFF: Dual Side-Information Filtering and Fusion for Sequential Recommendation”, The 48th International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR), 2025 본 연구는 사용자의 과거 소비 이력을 바탕으로 다음에 선호할만한 항목을 예측하는 순차적 추천(Sequential Recommendation)에서 카테고리, 브랜드 등 아이템 부가 정보를 함께 활용하는 부가 정보 통합 순차적 추천(Side-information Integrated Sequential Recommendation, SISR)모델을 제안합니다. 제안 모델인 Dual Side-Information Filtering and Fusion (DIFF)는 사용자 시퀀스 내 노이즈를 제거하고, 다양한 속성 정보를 효과적으로 융합함으로써 더욱 정밀하고 표현력 있는 사용자 선호 모델링을 달성합니다. DIFF는 다음과 같은 세 가지 핵심 기법을 포함합니다: 그림 3: 부가 정보 통합 순차적 추천 시스템의 주파수 신호와 융합 기법 (1) 주파수 기반 노이즈 필터링 (Frequency-based Noise Filtering): DIFF는 우발적 클릭 또는 단기적 관심과 같이 실제 사용자 선호와 관련없는 신호를 제거하기 위해 주파수 영역으로의 변환을 수행합니다. 아이템 ID와 각 속성 시퀀스를 각각 주파수 영역으로 변환한 뒤, 불규칙적이거나 중요도가 낮은 주파수 성분을 제거합니다. 이를 통해 실제 사용자 선호를 반영하는 핵심 신호만을 강화할 수 있으며, 다중 시퀀스에 대해 필터링을 적용함으로써 보다 정교한 노이즈 제거를 가능하게 합니다. (2) 이중 멀티시퀀스 융합 (Dual Multi-sequence Fusion): 노이즈가 제거된 시퀀스들을 효과적으로 통합하기 위해, DIFF는 서로 다른 장점을 지니는 중간 융합과 초기 융합 방식을 함께 활용합니다. 저희는 기존 연구들이 정보 침식(information invasion) 문제를 우려하여 초기 융합 방식의 활용은 제한하거나 배제하는 경향이 있었으며, 이로 인해 다양한 속성 간 상관관계 모델링 능력을 간과하고 있다는 점에 주목하였습니다. DIFF는 초기 융합을 통해 다차원 속성 정보를 통합하고, 중간 융합을 통해 ID 중심의 선호 학습을 보완함으로써, ID와 속성 모두를 아우르는 정교한 사용자 표현을 학습합니다. 두 융합 방식의 상호보완적 조합을 통해 DIFF는 사용자 취향의 전반적인 구조뿐만 아니라 세부적인 속성 선호까지도 효과적으로 포착할 수 있습니다. (3) 정보 침식(information invasion) 방지를 위한 표현 정렬(representation alignment): 아이템 ID와 각 속성 임베딩은 서로 다른 표현 공간에 위치합니다. 따라서 이를 단순한 융합 함수(e.g. summation, concatenation, gating)로 합치는 초기 융합에서는 특정 정보가 과도하게 강조되거나 왜곡되는 정보 침식(information invasion) 문제가 발생할 수 있습니다. 이를 방지하기 위해 DIFF에서는 정렬 손실(Alignment Loss)을 설계하여, 아이템 ID와 속성 임베딩의 벡터 공간을 가깝게 만들어, 의미를 공유하면서도 적절한 차이를 유지할 수 있도록 유도합니다. DIFF는 네 개의 대표적인 공개 벤치마크 데이터셋(Yelp, Beauty, Toys, Sports)에서 검증되었으며, 기존 최신 순차 추천 모델들과 비교해 모든 지표에서 우수한 성능을 달성하였습니다. 특히, Recall@20과 NDCG@20 기준으로 각각 최대 14.1%, 12.5%의 성능 향상을 기록하며 새로운 state-of-the-art 성능을 입증하였습니다. 또한, DIFF의 노이즈에 대한 강건성(robustness)은 매우 두드러졌습니다. 사용자 시퀀스에 우발적인 클릭, 일시적인 관심 변화 등 현실적인 사용 환경에서의 노이즈를 고려해 테스트 시퀀스에 무작위로 아이템을 교체하는 방식으로 노이즈 시뮬레이션 실험을 진행하였습니다. 그 결과, DIFF는 5%의 낮은 노이즈 조건에서도 타 모델 대비 가장 적은 성능 저하를 보였으며, 25%의 높은 노이즈 조건에서도 안정적으로 높은 성능을 유지했습니다. 본 논문에 관한 자세한 내용은 다음 주소를 참고해주세요. https://dial.skku.edu/blog/2025_diff