-
- [연구] [김형식 교수] 보안공학연구실(SecLab) The Web Conference (WWW) 2024 논문 게재 승인
- 보안공학 연구실 (지도교수: 김형식, https://seclab.skku.edu)의 이기호(석사과정), 임채진(석사과정), 진범진(박사과정), 김태영(박사과정) 학생과 김형식 교수가 진행한 "AdFlush: A Real-World Deployable Machine Learning Solution for Effective Advertisement and Web Tracker Prevention" 논문이 웹/데이터 마이닝 분야 최우수 학회 The Web Conference (WWW) 2024 (https://www2024.thewebconf.org)에 게재 승인되었습니다. 사용자의 웹 프라이버시를 지키기 위해 광고 및 개인정보 추적기를 방지하는데에 기존의 탐지 및 차단 시스템은 실제 세계에서 빈번히 발생하는 변조 공격에 취약한 모습을 보입니다. 이를 효과적으로 방어하고 일반화하기 위해 머신 러닝 기법을 활용하여 탐지 성능을 끌어올리고 있으나, 현실적으로 실시간 탐지에는 아직 한계점이 분명합니다. 본 논문은 이러한 문제점을 제시하고, 실제 웹 브라우저 환경에서 실시간 탐지를 통하여 사용자의 개인정보를 지킬 수 있도록 경량화된 프레임 워크를 제안하였습니다. 이를 위해 사용량이 가장 많은 상위 10,000개의 웹 사이트에서 발생한 830,160개의 웹 요청에서 기존 연구에서 다룬 3,323개의 피쳐를 추출하고, 변조 공격에 대한 강건성을 추가하기 위해 533개의 JavaScript 피쳐를 추가했습니다. 해당 데이터셋에 대하여 면밀한 피쳐 공학을 통해 경량화되면서 성능을 발전시킨 모델을 Chrome 확장 프로그램에 탑재하여 실시간 탐지가 가능한 프레임 워크를 개발하였습니다. 일반적인 탐지 성능과 변조 공격에 대한 강건성 모두 최신 연구 기법 (AdGraph, WebGraph, WTAGraph)을 상회하였으며, 6개월 동안 진행한 longitudinal 성능 분석에서도 F1 score 0.97점 이상을 기록하여 장기간 재학습 없이도 효과적인 탐지 성능을 선보였습니다. Abstract - Conventional ad blocking and tracking prevention tools often fall short in addressing web content manipulation. Machine learning approaches have been proposed to enhance detection accuracy, yet aspects of practical deployment have frequently been overlooked. This paper introduces AdFlush, a novel machine learning model for real-world browsers. To develop AdFlush, we evaluated the effectiveness of 883 features, ultimately selecting 27 key features for optimal performance. We tested AdFlush on a dataset of 10,000 real-world websites, achieving an F1 score of 0.98, thereby outperforming AdGraph (F1 score: 0.93), WebGraph (F1 score: 0.90), and WTAgraph (F1 score: 0.84). Additionally, AdFlush significantly reduces computational overhead, requiring 56% less CPU and 80% less memory than AdGraph. We also assessed AdFlush’s robustness against adversarial manipulations, demonstrating superior resilience with F1 scores ranging from 0.89 to 0.98, surpassing the performance of AdGraph and WebGraph, which recorded F1 scores between 0.81 and 0.87. A six-month longitudinal study confirmed that AdFlush maintains a high F1 score above 0.97 without the need for retraining, underscoring its effectiveness.
-
- 작성일 2024-03-06
- 조회수 2465
-
-
- [학생실적] 2023학년도 2학기 소프트웨어융합대학 우수연구 수상
- 소프트웨어융합대학 일반대학원 소프트웨어학과에서는 석사·박사과정 학생들의 연구의욕과 연구활동 증진을 위해 학기마다 우수연구시상을 시행하고 있습니다. 2023학년도 2학기 우수연구시상은 2024년 1월에 시행되었으며 본 시상으로 아래와 같이 총 4명의 수상자가 선정되었습니다. JCR 상위 논문 또는 BK인정 학술대회 실적으로 수상자를 선정하고 있으며 평가 기준에 따라 최우수상과 우수상을 수여하고 있습니다. 2023학년도 2학기 소프트웨어융합대학 일반대학원 우수연구 수상자 명단을 아래와 같이 공고합니다. 수상을 진심으로 축하드립니다. [ 수상자 명단 ] 학과 과정 시상구분 성명 소프트웨어학과 석사 최우수 신*우 석사 우수 박*종 석박사통합 최우수 LE* 석박사통합 우수 최*진
-
- 작성일 2024-02-19
- 조회수 1553
-
- [학생실적] [김형식 교수] 보안공학연구실(SecLab), 최현민 박사과정 인터뷰
- 최현민 - 네이버클라우드 Security Dev 센터 개발자
-
- 작성일 2024-02-16
- 조회수 375
-
- [연구] [우사이먼성일 교수] DASH 연구실, AAAI 2024 논문 2편 게재 승인
- [우사이먼성일 교수] AAAI 2024 논문 2편 게재 승인 DASH 연구실 (지도교수: 우사이먼성일)의 논문 2편이 인공지능 분야의 최우수 학술대회인 AAAI Conference on Artificial Intelligence 2024 (AAAI24)에 게재 승인되어 2월에 발표될 예정입니다. 최선을 다해 우수한 연구를 진행한 참여 연구원 학생분들께 감사드립니다. 논문 #1: Diffusion 모델 제어 관련 연구 (공동 1저자: 인공지능학과 석박통합과정 홍승후, 인공지능학과 석박통합과정 이주헌) 논문 #2: 삭제학습(Machine Unlearning) 관련 연구 (1저자 데이터사이언스학과 석사과정 김현준, 2저자 인공지능학과 석사과정 이상용) [논문 1정보] Seunghoo Hong†, Juhun Lee†, and Simon S. Woo*, “All but One: Surgical Concept Erasing with Model Preservation in Text-to-Image Diffusion Models”, Proceedings of the 38th annual AAAI Conference on Artificial Intelligence (AAAI), 2024. “All but One: Surgical Concept Erasing with Model Preservation in Text-to-Image Diffusion Models”논문에서는 Stable Diffusion과 같은 text to image모델의 특정 개념을 지우는 새로운 알고리즘을 제안합니다. 널리 사용되는 Stable Diffusion과 같이 대규모 데이터 세트를 사용하여 학습된 생성모델의 경우 학습에 부적절하거나 저작권이 있는 이미지가 포함될 수 있고 이로 인해 생성모델은 부적절한 이미지를 생성할 수 있습니다. 사실상 대규모 모델의 학습은 불가능하기 때문에 이를 해결하기 위한 방법으로 “개념삭제”라는 접근이 제안되었습니다. 하지만 지금까지의 개념삭제 알고리즘은 삭제 대상 뿐만 아니라 전혀 관계가 없는 개념까지 영향을 끼쳐 출력물의 의미와 구조를 모두 망가지게 됩니다. 본 논문에서는 이러한 문제점을 제시하고 이를 해결한 새로운 개념삭제 알고리즘을 제안합니다. 제안하는 알고리즘은 이미지 생성에서 사용되는 classifier guidance term에 주목하여 conditional score를 수정하면서 unconditional score는 보존하도록 합니다. 또한 삭제 대상에 대안 개념을 제시하는 방식을 통해 “Surgical Concept Erasing”을 가능하게 하였습니다. 논문의 실험을 통해 제안하는 알고리즘이 삭제 대상을 제대로 삭제할 뿐만 아니라 출력물의 공간적 특징까지 보존하는 것을 보여줍니다. Abstract: Text-to-Image models such as Stable Diffusion have shown impressive image generation synthesis, thanks to the utilization of large-scale datasets. However, these datasets may contain sexually explicit, copyrighted, or undesirable content, which allows the model to directly generate them. Given that retraining these large models on individual concept deletion requests is infeasible, fine-tuning algorithms have been developed to tackle concept erasing in diffusion models. While these algorithms yield good concept erasure, they all present one of the following issues: 1) the corrupted feature space yields synthesis of disintegrated objects, 2) the initially synthesized content undergoes a divergence in both spatial structure and semantics in the generated images, and 3) sub-optimal training updates heighten the model's susceptibility to utility harm. These issues severely degrade the original utility of generative models. In this work, we present a new approach that solves all of these challenges. We take inspiration from the concept of classifier guidance and propose a surgical update on the classifier guidance term while constraining the drift of the unconditional score term. Furthermore, our algorithm empowers the user to select an alternative to the erasing concept, allowing for more controllability. Our experimental results show that our algorithm not only erases the target concept effectively but also preserves the model’s generation capability. ※ 논문명: All but One: Surgical Concept Erasing with Model Preservation in Text-to-Image Diffusion Models ※ 논문링크: https://doi.org/10.48550/arXiv.2312.12807 ※ 저자명: Simon S. Woo(교신저자), Seunghoo Hong, Juhun Lee (공동 제1저자) [논문 2정보] Hyunjune Kim, Sangyong Lee, and Simon S. Woo*, “Layer Attack Unlearning: Fast and Accurate Machine Unlearning via Layer Level Attack and Knowledge Distillation”, Proceedings of the 38th annual AAAI Conference on Artificial Intelligence (AAAI), 2024. 논문링크: https://arxiv.org/pdf/2312.16823.pdf 이 연구에서는 기존 Machine Unlearning (머신 언러닝) 알고리즘에 비해 상당히 정확하고 빠른 새로운 접근 방법인 'Layer Attack Unlearning'을 제안합니다. 우리의 언러닝 알고리즘은 전체 모델이 아닌 Layer level에서 수행합니다. 그렇게 함으로써 알고리즘의 시간적 성능 향상에 기여하였습니다. 또한 우리의 접근 방식에 도입한 Partial-PGD 알고리즘은 기존 PGD 알고리즘 대비 계산량을 줄여 줍니다. 이 적대적 공격 기법은 언러닝 과정에서 삭제될 데이터가 어디에 할당될지 효율적으로 찾아냅니다. 마지막으로, 우리는 지식 증류를 사용하여 Teacher로부터 결정 경계 정보를 얻어 retain data 정보를 유지하면서 언러닝 작업을 수행하여 정확도 성능을 보존 및 향상시킵니다. 우리는 기존의 SOTA 머신 언러닝 모델과 함께 광범위한 실험을 진행하고, 정확성과 end-to-end 언러닝 성능에 대한 우리의 접근 방식의 효과를 입증하였습니다. Abstract: Recently, serious concerns have been raised about the privacy issues related to training datasets in machine learning algorithms when including personal data. Various regulations in different countries, including the GDPR, grant individuals to have personal data erased, known as ‘the right to be forgotten’ or ‘the right to erasure’. However, there has been less research on effectively and practically deleting the requested personal data from the training set while not jeopardizing the overall machine learning performance. In this work, we propose a fast and novel machine unlearning paradigm at the layer level called layer attack unlearning, which is highly accurate and fast compared to existing machine unlearning algorithms. We introduce the Partial-PGD algorithm to locate the samples to forget efficiently. In addition, we only use the last layer of the model inspired by the Forward-Forward algorithm for unlearning process. Lastly, we use Knowledge Distillation (KD) to reliably learn the decision boundaries from the teacher using soft label information to improve accuracy performance. We conducted extensive experiments with SOTA machine unlearning models and demonstrated the effectiveness of our approach for accuracy and end-to-end unlearning performance. 문의사항이나 질문은 DASH Lab(https://dash.skku.edu)의 우사이먼교수님 (swoo@g.skku.edu)에게 연락부탁드립니다.
-
- 작성일 2024-01-30
- 조회수 2524
-
- [연구] [구형준 교수] SecAI 연구실, ACM Asia Conference on Computer and Communications Security, 2024 (ASIACCS ’24) 논문 게재 승인
- [구형준 교수] SecAI 연구실, ACM Asia Conference on Computer and Communications Security, 2024 (ASIACCS ’24) 논문 게재 승인 SecAI 연구실 (지도교수 구형준, https://secai.skku.edu)의 Nozima (석사과정) 학생의 "BinAdapter: Leveraging Continual Learning for Inferring Function Symbol Names in a Binary" 논문이 보안분야 우수학회인 ACM Asia Conference on Computer and Communications Security 2024 (ASIACCS ’24)에 게재 승인되어 2024년 7월에 발표될 예정입니다. 실행 바이너리 리버싱을 인공지능을 활용해 도와줄 수 있는 여러 방식 중에 프로그래머가 직접 label한 함수명을 바이너리 상의 어셈블리어로부터 학습하고 예측하는 생성형 인공지능 모델 기법이 있습니다. 하지만 바이너리는 컴파일러 도구나 최적화 수준 등 변형 뿐 아니라 다양한 프로그램 문맥을 계속 작성해 만들어 낼 수 있습니다. 기존의 생성형 인공지능 모델은 주어진 데이터셋 (pre-defined dataset)으로 훈련한 정적 모델 (static model)이라 지속적으로 생성되는 데이터셋을 반영하는 데 어려움이 있습니다. 이에 최근 인공지능은 평생학습 (lifelong learning) 또는 계속학습 (continual learning; CL)으로 불리는 기법을 통해 마치 인간이 새로운 지식을 학습할 수 있는 형태로 agent를 강화하려 하는 노력을 하고 있습니다. 본 논문에서는 함수명 예측 인공지능 모델에 계속학습 중 adapter라는 기법을 transformer 기반의 모델에 삽입해 기존에 학습했던 기억을 잊어버리지 않고 (catastrophic forgetting) 신규 데이터셋에서 학습할 수 있는 BinAdapter라는 방식을 제시합니다. 특히 소스(기계 명령어)나 타겟(함수 이름)에서 추가적인 명령어 토큰(instruction token)이 CL을 사용한 모델의 전체 성능에 큰 영향을 미친다는 사실을 실험적으로 확인했습니다. BinAdapter는 내부적으로 다음 세 가지 접근 방식을 채택합니다. 첫째, 소스와 타겟 모두에 추가 토큰이 거의 없는 경우 일반적인 댑터를 삽입합니다. 둘째, 소스에 추가 토큰이 있는 경우 멀티 신경 기계 번역 (M-NMT; Multi-Neural Machine Translation)을 활용하고 소스 임베딩을 미세 조정(fine-tuning)합니다. 셋째, 소스와 타겟 모두 추가 토큰이 있는 경우 소스와 타겟 임베딩 모두 미세 조정 (fine-tuning)합니다. Abstract. Binary reverse engineering is crucial to gain insights into the inner workings of a stripped binary. Yet, it is challenging to read the original semantics from a binary code snippet because of the unavailability of high-level information in the source, such as function names, variable names, and types. Recent advancements in deep learning show the possibility of recovering such vanished information with a well-trained model from a pre-defined dataset. Albeit a static model’s notable performance, it can hardly cope with an ever-increasing data stream (e.g., compiled binaries) by nature. The two viable approaches for ceaseless learning are retraining the whole dataset from scratch and fine-tuning a pre-trained model; however, retraining suffers from large computational overheads and fine-tuning from performance degradation (i.e., catastrophic forgetting). Lately, continual learning (CL) tackles the problem of handling incremental data in security domains (e.g., network intrusion detection, malware detection) using reasonable resources while maintaining performance in practice. In this paper, we focus on how CL assists the improvement of a generative model that predicts a function symbol name from a series of machine instructions. To this end, we introduce BinAdapter, a system that can infer function names from an incremental dataset without performance degradation from an original dataset by leveraging CL techniques. Our major finding shows that incremental tokens in the source (i.e., machine instructions) or the target (i.e., function names) largely affect the overall performance of a CL-enabled model. Accordingly, BinAdapter adopts three built-in approaches: i) inserting adapters in case of no incremental tokens in both the source and target, ii) harnessing multilingual neural machine translation (M-NMT) and fine-tuning the source embeddings with i) in case of incremental tokens in the source, and iii) fine-tuning target embeddings with ii) in case of incremental tokens in both. To demonstrate the effectiveness of BinAdapter, we evaluate the above three scenarios using incremental datasets with or without a set of new tokens (e.g., unseen machine instructions or function names), spanning across different architectures and optimization levels. Our empirical results show that BinAdapter outperforms the state-of-the-art CL techniques for an F1 of up to 24.3% or a Rouge-l of 21.5% in performance.
-
- 작성일 2024-01-26
- 조회수 2149
-
- [일반] 우즈베키스탄에서 온 샤흐저드(소프트웨어학과) 학우
- [성균웹진] 우즈베키스탄에서 온 샤흐저드(소프트웨어학과) 학우
-
- 작성일 2024-01-25
- 조회수 429
-
- [연구] [구형준/황성재 교수] SecAI/SoftSec 연구실, ACM International Conference on the Foundations of Software Engineering (FSE 2024) 논문 게재
- [구형준/황성재 교수] SecAI/SoftSec 연구실, ACM International Conference on the Foundations of Software Engineering (FSE 2024) 논문 게재 SecAI 연구실 (지도교수 구형준, https://secai.skku.edu)과 SoftSec 연구실 (지도교수 황성재, https://softsec.skku.edu)의 엄하은 학생 (석사과정), 김도희 학생 (석사과정), 임소리 학생 (학부과정)의 "R2I: A Relative Readability Metric for Decompiled Code" 논문이 소프트웨어 엔지니어링 분야 최우수 학회 (IF=4)인 ACM International Conference on the Foundations of Software Engineering (FSE 2024)에 게재 승인되어 2024년 7월에 발표될 예정입니다. 디컴파일러는 기계어를 사람이 이해하기 쉬운 코드로 변환해 주는 도구로 바이너리 역공학에 핵심적인 역할을 합니다. 디컴파일 코드의 가독성은 바이너리에 대한 이해도를 향상시키고 효율적인 분석을 가능하게 합니다. Hex-rays, Ghidra와 같은 디컴파일러들은 디컴파일된 코드의 가독성 향상을 위해 노력하고 있지만, 디컴파일 코드의 가독성을 측정하는 메트릭은 부족하며, 기존 연구는 대부분 소스 코드의 가독성에 중점을 두고 있습니다. (디컴파일 코드는 주석이나 의미 있는 변수명이 없고, 문법적 오류나 low-level expression 등이 포함되어 있어 소스 코드 메트릭을 적용하는 것은 적절하지 않습니다.) 본 논문에서는 디컴파일 코드의 가독성을 상대적으로 평가할 수 있도록 최초의 디컴파일러 전용 가독성 메트릭인 R2I (Readability Relative Index)을 제안합니다. R2I 메트릭은 디컴파일 코드에서 AST (Abstract Syntax Tree)를 추출한 후 이를 기반으로 사전에 정의한 31개의 특성 (feature)에 가중치 (weight)를 적용해 상대적인 가독성 점수를 계산합니다. 디컴파일 코드 특성은 기존 디컴파일러의 가독성 향상을 위한 방식과 이전 소스 코드 가독성 연구를 참고하여 31가지를 선별했습니다. 또한, 코딩 스타일이나 선호도에 따라 주관적일 수 있는 특성의 경우 설문 조사를 통해 가중치를 조정했습니다. R2I의 효용성과 실용성을 검증하기 위해 여섯 가지 디컴파일러 결과를 대상으로 5,305개의 함수에 R2I 점수를 계산하고, 디컴파일러 사용 경험과 개발 경험이 있는 사람을 모집하여 설문 조사를 진행해 설문 조사의 결과와 R2I의 결과가 일치함을 보였습니다. Abstract. Decompilation is a process of converting a low-level machine code snippet back into a high-level programming language such as C. It serves as a basis to aid reverse engineers in comprehending the contextual semantics of the code. In this respect, commercial decompilers like Hex-Rays have made significant strides in improving the readability of decompiled code over time. While previous work has proposed the metrics for assessing the readability of source code, including identifiers, variable names, function names, and comments, those metrics are unsuitable for measuring the readability of decompiled code primarily due to i) the lack of rich semantic information in the source and ii) the presence of erroneous syntax or inappropriate expressions. In response, to the best of our knowledge, this work first introduces R2I, the Relative Readability Index, a specialized metric tailored to evaluate decompiled code in a relative context quantitatively. In essence, R2I can be computed by i) taking code snippets across different decompilers as input and ii) extracting pre-defined features from an abstract syntax tree. For the robustness of R2I, we thoroughly investigate the enhancement efforts made by existing decompilers and academic research to promote code readability, identifying 31 features to yield a reliable index collectively. Besides, we conducted a user survey to capture subjective factors such as one’s coding styles and preferences. Our empirical experiments demonstrate that R2I is a versatile metric capable of representing the relative quality of decompiled code (e.g., obfuscation, decompiler updates) and being well aligned with human perception in our survey.
-
- 작성일 2024-01-25
- 조회수 2058
-
- [연구] [김형식 교수] (Seclab) AAAI 2024 논문 게재 승인 (1편)
- Seclab (지도교수: 김형식)의 논문 1편이 인공지능 분야의 우수 학술대회인 AAAI Conference on Artificial Intelligence 2024 (AAAI-24)에 게재 승인되었습니다. 본 연구에는 Dash Lab(지도교수:우사이먼성일)의 우사이먼성일 교수가 참여 하였습니다. 본 과제는 네이버 클라우드의 지원 하에 진행되었습니다. 논문 #1: Blind-Touch: Homomorphic Encryption-Based Distributed Neural Network Inference for Privacy-Preserving Fingerprint Authentication (전자전기컴퓨터공학과 박사과정 최현민, 데이터사이언스융합학과 부교수 우사이먼성일) “Blind-Touch: Homomorphic Encryption-Based Distributed Neural Network Inference for Privacy-Preserving Fingerprint Authentication” 논문은 동형암호를 활용해 지문인증시 프라이버시를 보호할 수 있습니다. 동형암호는 암호화된 상태에서 연산이 가능한 암호화 기술로, 동형암호를 사용하면 복호화 과정 없이 수학적 연산이 가능하여 각종 통계연산이나 머신러닝 연산들을 프라이버시 유출 없이 제공할 수 있습니다. 하지만, 동형암호의 연산 속도는 평문 연산에 비해 매우 느리며 (약 수백~수천 배 이상), 암호문의 사이즈가 같은 보안강도의 공개키 암호인 RSA 등과 비교해서 수백배 이상 크기 때문에 동형암호를 효율적으로 사용하기 위해서는 성능 면에서 최적화가 가능한 알고리즘들을 고안해야 합니다. 이 논문에서는 지문인증에 필요한 유사도 매칭 알고리즘을 동형암호로 구현하며, 다음과 같은 기여도를 가집니다. 첫 번째로, FC-Layer의 선형성을 활용한 연산의 최적화를 통해 유사도 연산 시간을 획기적으로 줄였으며, 둘째로 Compression method라는 기술을 통해 여러 개의 Output ciphertext를 하나의 Ciphertext로 압축하여 통신 비용을 줄였습니다. 세번째로 서버 클러스터 구성을 적용하여 등록된 지문의 갯수가 증가해도 전체 연산 속도는 일정하게 유지할 수 있도록 서버의 양적 확장을 제공합니다. 제안된 연구는 최신 결과에 준하는 인증 성능 (PolyU Fingerprint Dataset 기준, AUC:97.5%, EER: 2.5%)을 확보하였으며, 5,000건의 지문 데이터를 0.65초 이내로 인증이 가능하며 동형암호 기반 지문인식의 기존 연구들과 비교하여 인증 속도 면에서 우수한 성능을 보여줍니다. 예로, 최신 동형암호가 적용된 지문인증 알고리즘인 DeepPrint 보다 6.786배 낮은 인증 시간을 소요합니다. [논문 #1 정보] Blind-Touch: Homomorphic Encryption-Based Distributed Neural Network Inference for Privacy-Preserving Fingerprint Authentication Fingerprint authentication is a popular security mechanism for smartphones and laptops. However, its adoption in web and cloud environments has been limited due to privacy concerns over storing and processing biometric data on servers. This paper introduces Blind-Touch, a novel machine learning-based fingerprint authentication system leveraging homomorphic encryption to address these privacy concerns. Homomorphic encryption allows computations on encrypted data without decrypting. Thus, Blind-Touch can keep fingerprint data encrypted on the server while performing machine learning operations. Blind-Touch combines three strategies to efficiently utilize homomorphic encryption in machine learning: (1) It optimizes the feature vector for a distributed architecture, processing the first fully connected layer (FC-16) in plaintext on the client side and the subsequent layer (FC-1) post-encryption on the server, thereby minimizing encrypted computations; (2) It employs a homomorphic encryption-compatible data compression technique capable of handling 8,192 authentication results concurrently; and (3) It utilizes a clustered server architecture to simultaneously process authentication results, thereby enhancing scalability with increasing user numbers. Blind-Touch achieves high accuracy on two benchmark fingerprint datasets, with a 93.6% F1-score for the PolyU dataset and a 98.2% F1-score for the SOKOTO dataset. Moreover, Blind-Touch can match a fingerprint among 5,000 in about 0.65 seconds. With its privacy-focused design, high accuracy, and efficiency, Blind-Touch is a promising alternative to conventional fingerprint authentication for web and cloud applications.
-
- 작성일 2024-01-24
- 조회수 2032
-