[연구] [김형식, 우사이먼성일 교수] SecLab/ DASH Lab, CIKM 2024 학술대회 논문 게재 승인
- 소프트웨어학과
- 조회수833
- 2024-07-30
[김형식, 우사이먼성일 교수] SecLab/ DASH Lab, CIKM 2024 학술대회 논문 게재 승인
보안공학 연구실(지도교수 김형식, https://seclab.skku.edu/), DASH LAB(지도교수 우사이먼 성일, https://dash-lab.github.io/), 네이버 클라우드 연구진이 공동으로 작성한 논문 "Blind-Match: Efficient Homomorphic Encryption-Based 1:N Matching for Privacy-Preserving Biometric Identification"이 CIKM 2024 (Applied Research track)에서 발표될 예정입니다.
다음은 논문의 개요입니다:
생체 인식은 개인 기기에서 사용자 인증을 위해 흔히 사용되지만, 웹 및 클라우드 환경에서는 도입이 제한적입니다.
생체 데이터가 유출될 경우 변경 또는 폐기가 어렵기 때문입니다. 예를 들어, 2016년 미국 인사관리처 해킹 사건에서는 560만 명의 지문이 도난당했습니다. 이 사건은 서버에서 생체 데이터의 안전한 관리의 중요성을 강조합니다.
Blind-Match는 동형 암호를 활용한 효율적이고 프라이버시를 보호하는 1:N 생체 인식 매칭 시스템을 제안합니다.
Blind-Match는 동형암호 기반의 최적화된 cosign-similarity 계산 방법을 도입하여, 특징 벡터를 더 작은 부분으로 나누어 처리하는 방식을 사용합니다. 이를 통해 계산 시간을 최소화하면서 데이터 프라이버시를 보장합니다.
Blind-Match는 다양한 생체 데이터셋에서 최첨단 방법보다 우수한 성능을 발휘합니다. 예를 들어, LFW 얼굴 데이터셋에서 128차원 특징 벡터로 99.63%의 Rank-1 정확도를 달성하였으며, PolyU 지문 데이터셋에서는 16차원 특징 벡터로 99.55%의 Rank-1 정확도를 보였습니다. 또한, 네이버 클라우드의 FaceSign과 같은 대규모 생체 인식 시나리오에서 6,144개의 생체 샘플을 0.74초 만에 처리하여 실용성을 입증하였습니다.
이 연구는 올해 AAAI '24에 발표된 Blind-Touch를 개선한 연구로 프라이버 보장 생체인식 방법의 SOTA 기술로 많이 활용될 것으로 기대됩니다.
Abstract:
We present Blind-Match, a novel biometric identification system that leverages homomorphic encryption (HE) for efficient and privacy-preserving 1:N matching. Blind-Match introduces a HE-optimized cosine similarity computation method, where the key idea is to divide the feature vector into smaller parts for processing rather than computing the entire vector at once. By optimizing the number of these parts, Blind-Match minimizes execution time while ensuring data privacy through HE. Blind-Match achieves superior performance compared to state-of-the-art methods across various biometric datasets.
On the LFW face dataset, Blind-Match attains a 99.63% Rank-1 accuracy with a 128-dimensional feature vector, demonstrating its robustness in face recognition tasks. For fingerprint identification, Blind-Match achieves a remarkable 99.55% Rank-1 accuracy on the PolyU dataset, even with a compact 16-dimensional feature vector, significantly outperforming the state-of-the-art method, Blind-Touch, which achieves only 59.17%. Furthermore, Blind-Match showcases practical efficiency in large-scale biometric identification scenarios, such as Naver Cloud’s FaceSign, by processing 6,144 biometric samples in 0.74 seconds using a 128-dimensional feature vector.