-
- [연구] [우홍욱 교수] CSI연구실, ICML 2024 논문 게재 승인 NEW
- [우홍욱 교수] CSI연구실, ICML 2024 논문 게재 승인 CSI연구실 (지도교수: 우홍욱)의 논문이 인공지능 분야 우수학회인 ICML 2024 (The Forty-first International Conference on Machine Learning) 에 게재 승인(Accept) 되었습니다. 논문은 24년 7월 오스트리아 비엔나에서 발표될 예정입니다. 논문 “Embodied CoT Distillation From LLM To Off-the-shelf Agents” 은 소프트웨어학과 최원제 (박사과정), 김우경 (박사과정), 유민종 (석박사통합과정) 연구원이 저자로 참여했습니다. 본 연구는 로봇이나 자율주행 차량과 같은 임바디드 (Embodied) 인공지능 에이전트를 위한 초거대언어모델 (LLM) 기반 정책 학습 (Policy Learning) 프레임워크 DEDER 를 제시합니다. DEDER를 통해 LLM의 임바디드 추론 능력을 CoT (Chain of Thoughts) 단계별로 분해하고 (Decomposition), 추출하여 (Distillation), 제한된 리소스를 갖는 off-the-shelf 디바이스와 소형 언어모델 (sLM)만을 사용하는 효율적인 에이전트 정책으로 재구성합니다. 본 연구에서는 DEDER를 통해 개발한 에이전트 정책이 임바디드 에이전트 시뮬레이션 환경인 ALFRED에서 다양한 제한된 리소스 조건과 태스크 시나리오에 대해 높은 성능을 내는 것을 확인했습니다. CSI 연구실은 머신러닝, 강화학습, 자기지도학습을 활용하여 네트워크, 클라우드 시스템 최적화 연구와 로봇, 드론 자율주행 연구 등을 수행하고 있습니다. 이번 ICML 2024 논문의 연구는 사람중심인공지능 핵심원천기술사업 (IITP), 한국연구재단 개인기초사업 (NRF), 인공지능대학원, ICT명품인재양성사업, 삼성전자의 지원으로 진행 중 입니다. 우홍욱 | hwoo@skku.edu | CSI Lab | https://sites.google.com/view/csi-agent-group
-
- 작성일 2024-05-16
- 조회수 179
-
- [연구] [우홍욱 교수] CSI연구실, IJCAI 2024 논문 게재 승인
- [우홍욱 교수] CSI연구실, IJCAI 2024 논문 게재 승인 CSI연구실 (지도교수: 우홍욱)의 논문 2편이 인공지능 분야 우수학회인 IJCAI 2024 (the 33rd International Joint Conference on Artificial Intelligence) 에 게재 승인(Accept) 되었습니다. 논문은 24년 8월 제주에서 발표될 예정이다. 논문 “Offline Policy Learning Via Skill-step Abstraction For Long-Horizon Goal-Conditioned Tasks” 은 김동훈 (인공지능학과 석사졸업), 유민종 (소프트웨어학과 석박사통합과정) 연구원이 저자로 참여했습니다. 논문 “Pareto Inverse Reinforcement Learning for Diverse Expert Policy Generation” 은 김우경 (소프트웨어학과 박사과정), 유민종 (소프트웨어학과 석박사통합과정) 연구원이 저자로 참여했습니다. 1. Offline Policy Learning Via Skill-step Abstraction For Long-Horizon Goal-Conditioned Tasks 본 연구는 로봇이나 자율주행과 같은 자동화/지능형 에이전트 개발에 활용되는 목적 조건 강화학습 정책 학습 (Goal-Conditioned Policy Learning) 기법의 기존 제한점인 Long-horizon 태스크 (장기 목적 구조에 따라 보상 시그널이 적어서 학습이 어려운 경우)를 해결하는 효율적인 스킬 기반 정책 학습 (Skill-based Goal-Conditioned Policy Learning) 프레임워크를 제안합니다. 로봇 스킬은 오프라인 데이터셋에서부터 학습되며, 이러한 오프라인 학습 과정에서 스킬 수준의 추상화된 환경 모델 (Skill-step Abstract)과 목적 조건 정책을 동시에 반복 학습하여 정책의 성능을 높입니다. 또한, 프레임워크는 정책 네트워크 구조를 모듈화하여, 오프라인에서 학습된 환경 모델과의 차이가 발생하는 실제 타켓 환경에 빠른 적응이 가능한 파라미터 효율적인 학습 구조를 지원합니다. 2. Pareto Inverse Reinforcement Learning for Diverse Expert Policy Generation 최근 데이터 기반의 오프라인 강화학습과 모방학습이 순차적 의사 결정 문제에 대응하는 데 인기를 얻은 반면, 이러한 접근 기술은 제한된 전문가 데이터셋이 주어질 때, 파레토 최적 정책 (Pareto-optimal Policy set : 다중 목적 함수에 대한 최적 정책들)을 학습하는 것을 고려하지는 않았습니다. 본 연구에서는 역강화학습 (IRL, Inverse Reinforcement Learning)을 적용하여 각 전문가가 다른 최적화 선호도를 가지는 다중 목적에 대한 정책 집합을 점진적으로 생성하는 ParIRL 프레임워크를 제안합니다. ParIRL은 CARLA 자율주행과 같은 다양한 다중 목적 제어 작업에서 SOTA IRL 알고리즘 보다 높은 성능을 내는 것을 실험을 통해 입증하였습니다. CSI 연구실은 머신러닝, 강화학습, 자기지도학습을 활용하여 네트워크, 클라우드 시스템 최적화 연구와 로봇, 드론 자율주행 연구 등을 수행하고 있습니다. 이번 IJCAI 2024 논문의 연구는 사람중심인공지능 핵심원천기술사업 (IITP), 한국연구재단 개인기초사업 (NRF), 인공지능대학원, ICT명품인재양성사업, 삼성전자 삼성리서치의 지원으로 진행 중 입니다. 우홍욱 | hwoo@skku.edu | CSI Lab | https://sites.google.com/view/csi-agent-group
-
- 작성일 2024-05-02
- 조회수 879
-
- [연구] [차수영 교수] 소프트웨어분석 연구실, FSE 2024 논문 게재 승인
- 소프트웨어 분석 연구실 (지도교수: 차수영)의 윤재한 학생 (석사과정)의 논문이 소프트웨어공학 분야 최우수 학회 (IF=4)인 FSE 2024 (ACM International Conference on the Foundations of Software Engineering)에 게재 승인(Accept) 되었습니다. 해당 논문은 2024년 7월에 브라질 Porto de Galinhas에서 발표될 예정입니다. 본 논문 "FeatMaker: Automated Feature Engineering for Search Strategy of Symbolic Execution"에서 탐색전략(Search strategy)은 테스팅을 수행하는 동안 오류 검출을 위해 우선적으로 탐험할 프로그램 상태(Program state)를 선택하는 기술이다. 기존 탐색전략들은 탐험할 프로그램 상태들을 구분하기 위해 각자의 피처(feature)들을 수작업으로 고안하였지만, 이 손수 고안된 피처들은 테스팅 성능을 효과적으로 높이는데 실패하였다. 본 논문에서는 프로그램 상태를 기술하는 피처들을 자동으로 고안하여 테스팅의 효과성을 높이는 FeatMaker를 제안한다. 실험적으로, FeatMaker는 다수의 오픈소스-C 프로그램들에 대해 수작업으로 고안된 탐색 전략들보다 약 35% 많은 코드 영역을 커버했으며 기존 전략들은 검출하지 못한 6개의 오류를 찾을 수 있었다. [논문 정보] - 제목: FeatMaker: Automated Feature Engineering for Search Strategy of Symbolic Execution - 저자: 윤재한, 차수영 - 학회: ACM International Conference on the Foundations of Software Engineering (FSE 2024) Abstract: We present FeatMaker, a novel technique that automatically generates state features to enhance the search strategy of symbolic execution. Search strategies, designed to address the well-known state-explosion problem, prioritize which program states to explore. These strategies typically depend on a "state feature" that describes a specific property of program states, using this feature to score and rank them. Recently, search strategies employing multiple state features have shown superior performance over traditional strategies that use a single, generic feature. However, the process of designing these features remains largely manual. Moreover, manually crafting state features is both time-consuming and prone to yielding unsatisfactory results. The goal of this paper is to fully automate the process of generating state features for search strategies from scratch. The key idea is to leverage path-conditions, which are basic but vital information maintained by symbolic execution, as state features. A challenge arises when employing all path-conditions as state features, as it results in an excessive number of state features. To address this, we present a specialized algorithm that iteratively generates and refines state features based on data accumulated during symbolic execution. Experimental results on 15 open-source C programs show that FeatMaker significantly outperforms existing search strategies that rely on manually-designed features, both in terms of branch coverage and bug detection. Notably, FeatMaker achieved an average of 35.3% higher branch coverage than state-of-the-art strategies and discovered 15 unique bugs. Of these, six were detected exclusively by FeatMaker.
-
- 작성일 2024-04-17
- 조회수 814
-
- [연구] [이지형 교수] 정보 및 지능 시스템 연구실, CVPR 2024 논문 1편 게재 승인
- [이지형 교수] 정보 및 지능 시스템 연구실, CVPR 2024 논문 1편 게재 승인 정보 및 지능 시스템 연구실(지도교수:이지형)의 논문 1편이 컴퓨터 비전 및 인공지능 분야의 최우수 국제 학술대회(BK21 CS IF=4)인 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR 2024)에 게재 승인되었다. 제목 : "Learning with Structural Labels for Learning with Noisy Labels" (전자전기컴퓨터공학과 박사 김누리*, 인공지능학과 석박통합과정 이진섭*) (*공동 1저자) "Learning with Structural Labels for Learning with Noisy Labels" 논문에서는 학습 데이터의 레이블이 잘못 주어진 환경인 Noisy Labels 환경에서 딥러닝 모델 학습을 위한 방법을 제안합니다. 기존 방법들이 학습하고 있는 모델 자신의 출력 결과에만 크게 의존하여, 학습에 사용할 샘플을 선별하거나 레이블을 수정하고 있기 때문에 발생하는 문제를 제기하고, 이를 해결하기 위한 방법을 제시합니다. 해당 논문에서는 모델 자신의 출력 결과뿐만 아니라, Noisy한 상황에서 데이터 분포를 효과적으로 반영하기 위해 Reverse k-NN을 활용하여 Structural Label을 추출하였으며, 이를 모델이 추가적으로 학습하도록 하였습니다. 제안 방법은 벤치마크 데이터셋을 비롯한 real-world 노이즈 데이터셋에 대하여 우수한 성능을 보입니다. [논문 정보] Learning with Structural Labels for Learning with Noisy Labels Noo-ri Kim*, Jin-Seop Lee*, Jee-Hyong Lee IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2024 Abstract: Deep Neural Networks (DNNs) have demonstrated remarkable performance across diverse domains and tasks with large-scale datasets. To reduce labeling costs for large-scale datasets, semi-automated and crowdsourcing labeling methods are developed, but their labels are inevitably noisy. Learning with Noisy Labels (LNL) approaches aim to train DNNs despite the presence of noisy labels. These approaches utilize the memorization effect to select correct labels and refine noisy ones, which are then used for subsequent training. However, these methods encounter a significant decrease in the model's generalization performance due to the inevitably existing noise labels. To overcome this limitation, we propose a new approach to enhance learning with noisy labels by incorporating additional distribution information—structural labels. In order to leverage additional distribution information for generalization, we employ a reverse k-NN, which helps the model in achieving a better feature manifold and mitigating overfitting to noisy labels. The proposed method shows outperformed performance in multiple benchmark datasets with IDN and real-world noisy datasets.
-
- 작성일 2024-04-03
- 조회수 1338
-
- [연구] [이지형 교수] 정보 및 지능 시스템 연구실, LREC-COLING 2024 논문 2편 게재 승인
- 정보 및 지능 시스템 연구실(지도교수: 이지형)의 논문 2편이 자연어 처리 분야 저명한 국제 학술대회 LREC-COLING (BK IF=2) “The 2024 Joint International Conference on Computational Linguistics, Language Resources and Evaluation (LREC-COLING ’24)”에 게재 승인되었습니다. 논문 #1: “STAGE: Simple Text Data Augmentation by Graph Exploration”, LREC-COLING 2024 (인공지능학과 박사과정 김호승, 인공지능학과 박사과정 강용훈) "STAGE: Simple Text Data Augmentation by Graph Exploration" 논문에서는 텍스트 데이터를 그래프로 변환하고 이를 활용한 데이터 증강(Data Augmentation)하는 방법을 제안합니다. 기존 방법론은 복잡성, 비용, 그리고 성능에 대해서 조금 더 나은 해결방안이 필요 되어집니다. 우리의 STAGE(Simple Text Data Augmentation)는 공동 그래프(Co-graph)를 활용한 최적의 수정될 단어를 선택합니다. 수정된 단어를 Delete, replace, insert, swap 방법을 사용하여 문장을 증가시키는데, 이 방법은 기존보다 복잡함과 비용은 줄이고 더 나은 성능을 보입니다. [Abstract] Pre-trained language models (PLMs) are widely used for various tasks, but fine-tuning them requires sufficient data. Data augmentation approaches have been proposed as alternatives, but they vary in complexity, cost, and performance. To address these challenges, we propose STAGE (Simple Text Data Augmentation by Graph Exploration), a highly effective method for data augmentation. STAGE utilizes simple modification operations such as insertions, deletions, replacements, and swaps. However, what distinguishes STAGE lies in the selection of optimal words for each modification. This is achieved by leveraging a word-relation graph called the co-graph. The co-graph takes into account both word frequency and co-occurrence, providing valuable information for operand selection. To assess the performance of STAGE, we conduct evaluations using seven representative datasets and three different PLMs. Our results demonstrate the effectiveness of STAGE across diverse data domains, varying data sizes, and different PLMs. Also, STAGE demonstrates superior performance when compared to previous methods that use simple modification operations or large language models like GPT3. 논문 #2: “Code Defect Detection using Pre-trained Language Models with Encoder-Decoder via Line-Level Defect Localization”, LREC-COLING 2024 (인공지능학과 석사과정 안지민*, 2024년 소프트웨어학과 박사 졸업 최윤석*(공동 1저자*)) (논문 #2) “Code Defect Detection using Pre-trained Language Models with Encoder-Decoder via Line-Level Defect Localization” 논문에서는 코드에서의 결함 감지(Code Defect Detection) 작업을 효과적으로 수행하기 위해 코드의 라인 수준에서 결함을 식별하는 새로운 방법을 제안합니다. 라인 수준에서 결함을 식별하기 위해, 스페셜 토큰을 사용하여 코드를 라인으로 분리된 시퀀스로 변환합니다. 그런 다음, 사전학습모델(Pre-trained Models)의 인코더와 디코더가 정보를 다른 방식으로 처리하는 특성을 활용하여 라인 수준의 결함 지역화(defect localization)을 위해 인코더와 디코더를 모두 활용합니다. 코드 결함 검출 및 라인 수준의 결함 지역화를 통합하여 두 작업 간의 지식 공유(knowledge sharing)를 촉진하는 것이 제안 방법입니다. 실험 결과, 코드 결함 검출에 대한 네 가지 벤치마크 데이터 셋에서 성능을 크게 향상시키는 것을 확인해 제안방법이 효과적임을 보였습니다. [Abstract] Recently, code Pre-trained Language Models (PLMs) trained on large amounts of code and comment, have shown great success in code defect detection tasks. However, most PLMs simply treated the code as a single sequence and only used the encoder of PLMs to determine if there exist defects in the entire code. For a more analyzable and explainable approach, it is crucial to identify which lines contain defects. In this paper, we propose a novel method for code defect detection that integrates line-level defect localization into a unified training process. To identify code defects at the line-level, we convert the code into a sequence separated by lines using a special token. Then, to utilize the characteristic that both the encoder and decoder of PLMs process information differently, we leverage both the encoder and decoder for line-level defect localization. By learning code defect detection and line-level defect localization tasks in a unified manner, our proposed method promotes knowledge sharing between the two tasks. We demonstrate that our proposed method significantly improves performance on four benchmark datasets for code defect detection. Additionally, we show that our method can be easily integrated with ChatGPT.
-
- 작성일 2024-04-03
- 조회수 924
-
- [연구] [우홍욱 교수] CSI연구실, CVPR 2024 논문 게재 승인
- 우홍욱 교수 연구실 (CSI연구실), CVPR 2024 논문 게재 승인 CSI연구실 (지도교수: 우홍욱)의 논문이 인공지능 분야 우수학회인 CVPR 2024 (IEEE / CVF Computer Vision and Pattern Recognition Conference) 에 게재 승인(Accept) 되었습니다. 논문은 24년 6월 미국 시애틀에서 발표될 예정입니다. 논문 “Model Adaptation for Time Constrained Embodied Control” 은 소프트웨어학과 송재현 (석사과정), 유민종 (석박사통합과정) 연구원이 저자로 참여했습니다. 본 연구는 로봇이나 자율주행 차량과 같은 비전 기반 임바디드 (Embodied) 인공지능 에이전트를 위한 추론 지연 시간 제한에 유연한 대응이 가능한 딥러닝 모델 구조인 MoDeC (MoDel Adaptation for constrained embodied Control) 프레임워크를 제안합니다. MoDec을 통해, 학습 시 경험하지 못한 태스크의 즉시성에 따른 추론 지연 시간 제한 (Inference Latency constraint)과 모델이 설치된 제한된 리소스의 다비이스 환경에 맞추어, 임바디드 에이전트는 모델 추론에 관한 Few-Shot 최적 적응이 가능해집니다. 이를 위해, MoDeC은 다중 태스크 모듈 구조와 모듈 구조 상에서 추론 경로를 결정하는 동적 라우팅 네트워크, 그리고 디바이스 환경 최적화를 위한 디바이스 어댑터를 포함합니다. CSI 연구실은 머신러닝, 강화학습, 자기지도학습을 활용하여 네트워크, 클라우드 시스템 최적화 연구와 봇, 드론 자율주행 연구 등을 수행하고 있습니다. 이번 CVPR 2024 논문의 연구는 사람중심인공지능 핵심원천기술사업 (IITP), 한국연구재단 개인기초사업 (NRF), 인공지능대학원, ICT명품인재양성사업의 지원으로 진행 중 입니다. 우홍욱 | hwoo@skku.edu | CSI Lab | https://sites.google.com/view/csi-agent-group
-
- 작성일 2024-03-07
- 조회수 1451
-
- [연구] [김형식 교수] 보안공학연구실(SecLab) The Web Conference (WWW) 2024 논문 게재 승인
- 보안공학 연구실 (지도교수: 김형식, https://seclab.skku.edu)의 이기호(석사과정), 임채진(석사과정), 진범진(박사과정), 김태영(박사과정) 학생과 김형식 교수가 진행한 "AdFlush: A Real-World Deployable Machine Learning Solution for Effective Advertisement and Web Tracker Prevention" 논문이 웹/데이터 마이닝 분야 최우수 학회 The Web Conference (WWW) 2024 (https://www2024.thewebconf.org)에 게재 승인되었습니다. 사용자의 웹 프라이버시를 지키기 위해 광고 및 개인정보 추적기를 방지하는데에 기존의 탐지 및 차단 시스템은 실제 세계에서 빈번히 발생하는 변조 공격에 취약한 모습을 보입니다. 이를 효과적으로 방어하고 일반화하기 위해 머신 러닝 기법을 활용하여 탐지 성능을 끌어올리고 있으나, 현실적으로 실시간 탐지에는 아직 한계점이 분명합니다. 본 논문은 이러한 문제점을 제시하고, 실제 웹 브라우저 환경에서 실시간 탐지를 통하여 사용자의 개인정보를 지킬 수 있도록 경량화된 프레임 워크를 제안하였습니다. 이를 위해 사용량이 가장 많은 상위 10,000개의 웹 사이트에서 발생한 830,160개의 웹 요청에서 기존 연구에서 다룬 3,323개의 피쳐를 추출하고, 변조 공격에 대한 강건성을 추가하기 위해 533개의 JavaScript 피쳐를 추가했습니다. 해당 데이터셋에 대하여 면밀한 피쳐 공학을 통해 경량화되면서 성능을 발전시킨 모델을 Chrome 확장 프로그램에 탑재하여 실시간 탐지가 가능한 프레임 워크를 개발하였습니다. 일반적인 탐지 성능과 변조 공격에 대한 강건성 모두 최신 연구 기법 (AdGraph, WebGraph, WTAGraph)을 상회하였으며, 6개월 동안 진행한 longitudinal 성능 분석에서도 F1 score 0.97점 이상을 기록하여 장기간 재학습 없이도 효과적인 탐지 성능을 선보였습니다. Abstract - Conventional ad blocking and tracking prevention tools often fall short in addressing web content manipulation. Machine learning approaches have been proposed to enhance detection accuracy, yet aspects of practical deployment have frequently been overlooked. This paper introduces AdFlush, a novel machine learning model for real-world browsers. To develop AdFlush, we evaluated the effectiveness of 883 features, ultimately selecting 27 key features for optimal performance. We tested AdFlush on a dataset of 10,000 real-world websites, achieving an F1 score of 0.98, thereby outperforming AdGraph (F1 score: 0.93), WebGraph (F1 score: 0.90), and WTAgraph (F1 score: 0.84). Additionally, AdFlush significantly reduces computational overhead, requiring 56% less CPU and 80% less memory than AdGraph. We also assessed AdFlush’s robustness against adversarial manipulations, demonstrating superior resilience with F1 scores ranging from 0.89 to 0.98, surpassing the performance of AdGraph and WebGraph, which recorded F1 scores between 0.81 and 0.87. A six-month longitudinal study confirmed that AdFlush maintains a high F1 score above 0.97 without the need for retraining, underscoring its effectiveness.
-
- 작성일 2024-03-06
- 조회수 761
-
- [연구] [우사이먼성일 교수] DASH 연구실, AAAI 2024 논문 2편 게재 승인
- [우사이먼성일 교수] AAAI 2024 논문 2편 게재 승인 DASH 연구실 (지도교수: 우사이먼성일)의 논문 2편이 인공지능 분야의 최우수 학술대회인 AAAI Conference on Artificial Intelligence 2024 (AAAI24)에 게재 승인되어 2월에 발표될 예정입니다. 최선을 다해 우수한 연구를 진행한 참여 연구원 학생분들께 감사드립니다. 논문 #1: Diffusion 모델 제어 관련 연구 (공동 1저자: 인공지능학과 석박통합과정 홍승후, 인공지능학과 석박통합과정 이주헌) 논문 #2: 삭제학습(Machine Unlearning) 관련 연구 (1저자 데이터사이언스학과 석사과정 김현준, 2저자 인공지능학과 석사과정 이상용) [논문 1정보] Seunghoo Hong†, Juhun Lee†, and Simon S. Woo*, “All but One: Surgical Concept Erasing with Model Preservation in Text-to-Image Diffusion Models”, Proceedings of the 38th annual AAAI Conference on Artificial Intelligence (AAAI), 2024. “All but One: Surgical Concept Erasing with Model Preservation in Text-to-Image Diffusion Models”논문에서는 Stable Diffusion과 같은 text to image모델의 특정 개념을 지우는 새로운 알고리즘을 제안합니다. 널리 사용되는 Stable Diffusion과 같이 대규모 데이터 세트를 사용하여 학습된 생성모델의 경우 학습에 부적절하거나 저작권이 있는 이미지가 포함될 수 있고 이로 인해 생성모델은 부적절한 이미지를 생성할 수 있습니다. 사실상 대규모 모델의 학습은 불가능하기 때문에 이를 해결하기 위한 방법으로 “개념삭제”라는 접근이 제안되었습니다. 하지만 지금까지의 개념삭제 알고리즘은 삭제 대상 뿐만 아니라 전혀 관계가 없는 개념까지 영향을 끼쳐 출력물의 의미와 구조를 모두 망가지게 됩니다. 본 논문에서는 이러한 문제점을 제시하고 이를 해결한 새로운 개념삭제 알고리즘을 제안합니다. 제안하는 알고리즘은 이미지 생성에서 사용되는 classifier guidance term에 주목하여 conditional score를 수정하면서 unconditional score는 보존하도록 합니다. 또한 삭제 대상에 대안 개념을 제시하는 방식을 통해 “Surgical Concept Erasing”을 가능하게 하였습니다. 논문의 실험을 통해 제안하는 알고리즘이 삭제 대상을 제대로 삭제할 뿐만 아니라 출력물의 공간적 특징까지 보존하는 것을 보여줍니다. Abstract: Text-to-Image models such as Stable Diffusion have shown impressive image generation synthesis, thanks to the utilization of large-scale datasets. However, these datasets may contain sexually explicit, copyrighted, or undesirable content, which allows the model to directly generate them. Given that retraining these large models on individual concept deletion requests is infeasible, fine-tuning algorithms have been developed to tackle concept erasing in diffusion models. While these algorithms yield good concept erasure, they all present one of the following issues: 1) the corrupted feature space yields synthesis of disintegrated objects, 2) the initially synthesized content undergoes a divergence in both spatial structure and semantics in the generated images, and 3) sub-optimal training updates heighten the model's susceptibility to utility harm. These issues severely degrade the original utility of generative models. In this work, we present a new approach that solves all of these challenges. We take inspiration from the concept of classifier guidance and propose a surgical update on the classifier guidance term while constraining the drift of the unconditional score term. Furthermore, our algorithm empowers the user to select an alternative to the erasing concept, allowing for more controllability. Our experimental results show that our algorithm not only erases the target concept effectively but also preserves the model’s generation capability. ※ 논문명: All but One: Surgical Concept Erasing with Model Preservation in Text-to-Image Diffusion Models ※ 논문링크: https://doi.org/10.48550/arXiv.2312.12807 ※ 저자명: Simon S. Woo(교신저자), Seunghoo Hong, Juhun Lee (공동 제1저자) [논문 2정보] Hyunjune Kim, Sangyong Lee, and Simon S. Woo*, “Layer Attack Unlearning: Fast and Accurate Machine Unlearning via Layer Level Attack and Knowledge Distillation”, Proceedings of the 38th annual AAAI Conference on Artificial Intelligence (AAAI), 2024. 논문링크: https://arxiv.org/pdf/2312.16823.pdf 이 연구에서는 기존 Machine Unlearning (머신 언러닝) 알고리즘에 비해 상당히 정확하고 빠른 새로운 접근 방법인 'Layer Attack Unlearning'을 제안합니다. 우리의 언러닝 알고리즘은 전체 모델이 아닌 Layer level에서 수행합니다. 그렇게 함으로써 알고리즘의 시간적 성능 향상에 기여하였습니다. 또한 우리의 접근 방식에 도입한 Partial-PGD 알고리즘은 기존 PGD 알고리즘 대비 계산량을 줄여 줍니다. 이 적대적 공격 기법은 언러닝 과정에서 삭제될 데이터가 어디에 할당될지 효율적으로 찾아냅니다. 마지막으로, 우리는 지식 증류를 사용하여 Teacher로부터 결정 경계 정보를 얻어 retain data 정보를 유지하면서 언러닝 작업을 수행하여 정확도 성능을 보존 및 향상시킵니다. 우리는 기존의 SOTA 머신 언러닝 모델과 함께 광범위한 실험을 진행하고, 정확성과 end-to-end 언러닝 성능에 대한 우리의 접근 방식의 효과를 입증하였습니다. Abstract: Recently, serious concerns have been raised about the privacy issues related to training datasets in machine learning algorithms when including personal data. Various regulations in different countries, including the GDPR, grant individuals to have personal data erased, known as ‘the right to be forgotten’ or ‘the right to erasure’. However, there has been less research on effectively and practically deleting the requested personal data from the training set while not jeopardizing the overall machine learning performance. In this work, we propose a fast and novel machine unlearning paradigm at the layer level called layer attack unlearning, which is highly accurate and fast compared to existing machine unlearning algorithms. We introduce the Partial-PGD algorithm to locate the samples to forget efficiently. In addition, we only use the last layer of the model inspired by the Forward-Forward algorithm for unlearning process. Lastly, we use Knowledge Distillation (KD) to reliably learn the decision boundaries from the teacher using soft label information to improve accuracy performance. We conducted extensive experiments with SOTA machine unlearning models and demonstrated the effectiveness of our approach for accuracy and end-to-end unlearning performance. 문의사항이나 질문은 DASH Lab(https://dash.skku.edu)의 우사이먼교수님 (swoo@g.skku.edu)에게 연락부탁드립니다.
-
- 작성일 2024-01-30
- 조회수 1017
-
- [연구] [구형준 교수] SecAI 연구실, ACM Asia Conference on Computer and Communications Security, 2024 (ASIACCS ’24) 논문 게재 승인
- [구형준 교수] SecAI 연구실, ACM Asia Conference on Computer and Communications Security, 2024 (ASIACCS ’24) 논문 게재 승인 SecAI 연구실 (지도교수 구형준, https://secai.skku.edu)의 Nozima (석사과정) 학생의 "BinAdapter: Leveraging Continual Learning for Inferring Function Symbol Names in a Binary" 논문이 보안분야 우수학회인 ACM Asia Conference on Computer and Communications Security 2024 (ASIACCS ’24)에 게재 승인되어 2024년 7월에 발표될 예정입니다. 실행 바이너리 리버싱을 인공지능을 활용해 도와줄 수 있는 여러 방식 중에 프로그래머가 직접 label한 함수명을 바이너리 상의 어셈블리어로부터 학습하고 예측하는 생성형 인공지능 모델 기법이 있습니다. 하지만 바이너리는 컴파일러 도구나 최적화 수준 등 변형 뿐 아니라 다양한 프로그램 문맥을 계속 작성해 만들어 낼 수 있습니다. 기존의 생성형 인공지능 모델은 주어진 데이터셋 (pre-defined dataset)으로 훈련한 정적 모델 (static model)이라 지속적으로 생성되는 데이터셋을 반영하는 데 어려움이 있습니다. 이에 최근 인공지능은 평생학습 (lifelong learning) 또는 계속학습 (continual learning; CL)으로 불리는 기법을 통해 마치 인간이 새로운 지식을 학습할 수 있는 형태로 agent를 강화하려 하는 노력을 하고 있습니다. 본 논문에서는 함수명 예측 인공지능 모델에 계속학습 중 adapter라는 기법을 transformer 기반의 모델에 삽입해 기존에 학습했던 기억을 잊어버리지 않고 (catastrophic forgetting) 신규 데이터셋에서 학습할 수 있는 BinAdapter라는 방식을 제시합니다. 특히 소스(기계 명령어)나 타겟(함수 이름)에서 추가적인 명령어 토큰(instruction token)이 CL을 사용한 모델의 전체 성능에 큰 영향을 미친다는 사실을 실험적으로 확인했습니다. BinAdapter는 내부적으로 다음 세 가지 접근 방식을 채택합니다. 첫째, 소스와 타겟 모두에 추가 토큰이 거의 없는 경우 일반적인 댑터를 삽입합니다. 둘째, 소스에 추가 토큰이 있는 경우 멀티 신경 기계 번역 (M-NMT; Multi-Neural Machine Translation)을 활용하고 소스 임베딩을 미세 조정(fine-tuning)합니다. 셋째, 소스와 타겟 모두 추가 토큰이 있는 경우 소스와 타겟 임베딩 모두 미세 조정 (fine-tuning)합니다. Abstract. Binary reverse engineering is crucial to gain insights into the inner workings of a stripped binary. Yet, it is challenging to read the original semantics from a binary code snippet because of the unavailability of high-level information in the source, such as function names, variable names, and types. Recent advancements in deep learning show the possibility of recovering such vanished information with a well-trained model from a pre-defined dataset. Albeit a static model’s notable performance, it can hardly cope with an ever-increasing data stream (e.g., compiled binaries) by nature. The two viable approaches for ceaseless learning are retraining the whole dataset from scratch and fine-tuning a pre-trained model; however, retraining suffers from large computational overheads and fine-tuning from performance degradation (i.e., catastrophic forgetting). Lately, continual learning (CL) tackles the problem of handling incremental data in security domains (e.g., network intrusion detection, malware detection) using reasonable resources while maintaining performance in practice. In this paper, we focus on how CL assists the improvement of a generative model that predicts a function symbol name from a series of machine instructions. To this end, we introduce BinAdapter, a system that can infer function names from an incremental dataset without performance degradation from an original dataset by leveraging CL techniques. Our major finding shows that incremental tokens in the source (i.e., machine instructions) or the target (i.e., function names) largely affect the overall performance of a CL-enabled model. Accordingly, BinAdapter adopts three built-in approaches: i) inserting adapters in case of no incremental tokens in both the source and target, ii) harnessing multilingual neural machine translation (M-NMT) and fine-tuning the source embeddings with i) in case of incremental tokens in the source, and iii) fine-tuning target embeddings with ii) in case of incremental tokens in both. To demonstrate the effectiveness of BinAdapter, we evaluate the above three scenarios using incremental datasets with or without a set of new tokens (e.g., unseen machine instructions or function names), spanning across different architectures and optimization levels. Our empirical results show that BinAdapter outperforms the state-of-the-art CL techniques for an F1 of up to 24.3% or a Rouge-l of 21.5% in performance.
-
- 작성일 2024-01-26
- 조회수 661
-
- [연구] [구형준/황성재 교수] SecAI/SoftSec 연구실, ACM International Conference on the Foundations of Software Engineering (FSE 2024) 논문 게재
- [구형준/황성재 교수] SecAI/SoftSec 연구실, ACM International Conference on the Foundations of Software Engineering (FSE 2024) 논문 게재 SecAI 연구실 (지도교수 구형준, https://secai.skku.edu)과 SoftSec 연구실 (지도교수 황성재, https://softsec.skku.edu)의 엄하은 학생 (석사과정), 김도희 학생 (석사과정), 임소리 학생 (학부과정)의 "R2I: A Relative Readability Metric for Decompiled Code" 논문이 소프트웨어 엔지니어링 분야 최우수 학회 (IF=4)인 ACM International Conference on the Foundations of Software Engineering (FSE 2024)에 게재 승인되어 2024년 7월에 발표될 예정입니다. 디컴파일러는 기계어를 사람이 이해하기 쉬운 코드로 변환해 주는 도구로 바이너리 역공학에 핵심적인 역할을 합니다. 디컴파일 코드의 가독성은 바이너리에 대한 이해도를 향상시키고 효율적인 분석을 가능하게 합니다. Hex-rays, Ghidra와 같은 디컴파일러들은 디컴파일된 코드의 가독성 향상을 위해 노력하고 있지만, 디컴파일 코드의 가독성을 측정하는 메트릭은 부족하며, 기존 연구는 대부분 소스 코드의 가독성에 중점을 두고 있습니다. (디컴파일 코드는 주석이나 의미 있는 변수명이 없고, 문법적 오류나 low-level expression 등이 포함되어 있어 소스 코드 메트릭을 적용하는 것은 적절하지 않습니다.) 본 논문에서는 디컴파일 코드의 가독성을 상대적으로 평가할 수 있도록 최초의 디컴파일러 전용 가독성 메트릭인 R2I (Readability Relative Index)을 제안합니다. R2I 메트릭은 디컴파일 코드에서 AST (Abstract Syntax Tree)를 추출한 후 이를 기반으로 사전에 정의한 31개의 특성 (feature)에 가중치 (weight)를 적용해 상대적인 가독성 점수를 계산합니다. 디컴파일 코드 특성은 기존 디컴파일러의 가독성 향상을 위한 방식과 이전 소스 코드 가독성 연구를 참고하여 31가지를 선별했습니다. 또한, 코딩 스타일이나 선호도에 따라 주관적일 수 있는 특성의 경우 설문 조사를 통해 가중치를 조정했습니다. R2I의 효용성과 실용성을 검증하기 위해 여섯 가지 디컴파일러 결과를 대상으로 5,305개의 함수에 R2I 점수를 계산하고, 디컴파일러 사용 경험과 개발 경험이 있는 사람을 모집하여 설문 조사를 진행해 설문 조사의 결과와 R2I의 결과가 일치함을 보였습니다. Abstract. Decompilation is a process of converting a low-level machine code snippet back into a high-level programming language such as C. It serves as a basis to aid reverse engineers in comprehending the contextual semantics of the code. In this respect, commercial decompilers like Hex-Rays have made significant strides in improving the readability of decompiled code over time. While previous work has proposed the metrics for assessing the readability of source code, including identifiers, variable names, function names, and comments, those metrics are unsuitable for measuring the readability of decompiled code primarily due to i) the lack of rich semantic information in the source and ii) the presence of erroneous syntax or inappropriate expressions. In response, to the best of our knowledge, this work first introduces R2I, the Relative Readability Index, a specialized metric tailored to evaluate decompiled code in a relative context quantitatively. In essence, R2I can be computed by i) taking code snippets across different decompilers as input and ii) extracting pre-defined features from an abstract syntax tree. For the robustness of R2I, we thoroughly investigate the enhancement efforts made by existing decompilers and academic research to promote code readability, identifying 31 features to yield a reliable index collectively. Besides, we conducted a user survey to capture subjective factors such as one’s coding styles and preferences. Our empirical experiments demonstrate that R2I is a versatile metric capable of representing the relative quality of decompiled code (e.g., obfuscation, decompiler updates) and being well aligned with human perception in our survey.
-
- 작성일 2024-01-25
- 조회수 710