인공지능은 안전한가? AI 보안의 이해 수료증

  • 모집인원9,999명

  • 학습기간2025-10-16 ~ 2029-12-31

로그인하시면 강좌에 등록할 수 있습니다.
강좌 소개

성명

이상근

소속기관

고려대학교 정보보호대학원

강의 명

(주제)

인공지능은 안전한가? AI 보안의 이해

학습목표

인공지능 모델은 최근 연구로 알려진 다양한 위험에 노출되어 있다. 본 강의에서는 이러한 AI 보안 이슈에 대한 이해를 기반으로, 대표적인 공격 대응 방안을 소개하고자 한다. 강의 를 통해 신약개발에 있어 유용하면서 동시에 안전한 AI 모델에 대한 고민이 필요함을 환기하

고자 한다.

분야

AI

□ Bio

□ Chem

□ Drug

단계

기초

과정 소개

목차

(강의시간)

강의내용

실습

여부

교수자

 

1

적대 예시 기반 회피 공격

입력의 변조를 통해 학습된 AI 모델을 오동작 시키는 공격 유형

공격 방법 (FGSM, PGD 등)과 방어 방법 (Adversarial Training) 소

물리적 적대 공격 소개

 

X

 

본인

2

AI 모델 복제 공격

학습된 AI 모델의 질의에 대한 응답을 이용, 유사 모델을 제작하는 공격 유형

공격 방법 (JBDA, KnockoffNet 등)과 방어 방법 (PP, AM 등) 소개

 

X

 

본인

 

3

AI 백도어 공격

악의적 학습자가 본인만 아는 입력 트리거가 존재 시 AI 모델이 정 상적이지 않은 출력을 내도록 하는 공격 기법

공격 및 백도어 검출 방법 소개

 

X

 

본인

4

개인정보 이슈

모델 인버전 공격, LLM 학습 데이터 추출 공격, 멤버쉽 추론 공격

연합학습 개인정보 유출 문제와 보호 방법 소개

LLM 사용 시 민감정보 수집 문제

 

X

 

본인

5

LLM 어플리케이션 보안 이슈

- 프롬프트 인젝션, 민감정보 유출, 공급망 보안, 데이터 및 모델 오 염, 환각 문제 등 소개

 

X

 

본인

6

설명 가능한 인공지능 (XAI)

XAI의 개념

대표적 기법 소개 (LIME, SHAP, Grad-CAM 등)

 

X

 

본인

선수과목

없음

참고자료

논문 (강의자료에서 소개)

준비사항

없음

분류
  • 주제
    머신러닝
  • 분야
    인공지능 & 프로그래밍
  • 실습
    없음 (이론 강의)
  • 활용 단계
    Drug Discovery, 기타
교수자/개설자