
인공지능은 안전한가? AI 보안의 이해 수료증
모집인원9,999명
학습기간2025-10-16 ~ 2029-12-31
성명 |
이상근 |
소속기관 |
고려대학교 정보보호대학원 |
|||
강의 명 (주제) |
인공지능은 안전한가? AI 보안의 이해 |
|||||
학습목표 |
인공지능 모델은 최근 연구로 알려진 다양한 위험에 노출되어 있다. 본 강의에서는 이러한 AI 보안 이슈에 대한 이해를 기반으로, 대표적인 공격 및 대응 방안을 소개하고자 한다. 이 강의 를 통해 신약개발에 있어 유용하면서 동시에 안전한 AI 모델에 대한 고민이 필요함을 환기하 고자 한다. |
|||||
분야 |
AI |
□ Bio |
□ Chem |
□ Drug |
||
단계 |
기초 |
목차 (강의시간) |
강의내용 |
실습 여부 |
교수자 |
1 |
적대 예시 기반 회피 공격 입력의 변조를 통해 학습된 AI 모델을 오동작 시키는 공격 유형 공격 방법 (FGSM, PGD 등)과 방어 방법 (Adversarial Training) 소 개 물리적 적대 공격 소개 |
X |
본인 |
2 |
AI 모델 복제 공격 학습된 AI 모델의 질의에 대한 응답을 이용, 유사 모델을 제작하는 공격 유형 공격 방법 (JBDA, KnockoffNet 등)과 방어 방법 (PP, AM 등) 소개 |
X |
본인 |
3 |
AI 백도어 공격 악의적 학습자가 본인만 아는 입력 트리거가 존재 시 AI 모델이 정 상적이지 않은 출력을 내도록 하는 공격 기법 공격 및 백도어 검출 방법 소개 |
X |
본인 |
4 |
개인정보 이슈 모델 인버전 공격, LLM 학습 데이터 추출 공격, 멤버쉽 추론 공격 연합학습 개인정보 유출 문제와 보호 방법 소개 LLM 사용 시 민감정보 수집 문제 |
X |
본인 |
5 |
LLM 어플리케이션 보안 이슈 - 프롬프트 인젝션, 민감정보 유출, 공급망 보안, 데이터 및 모델 오 염, 환각 문제 등 소개 |
X |
본인 |
6 |
설명 가능한 인공지능 (XAI) XAI의 개념 대표적 기법 소개 (LIME, SHAP, Grad-CAM 등) |
X |
본인 |
선수과목 |
없음 |
||
참고자료 |
논문 (강의자료에서 소개) |
||
준비사항 |
없음 |