교수 김지수, jkim82133 [AT] snu [DOT] ac [DOT] kr
조교 김희천, 신준호
수업시간 화, 목 17:00 - 18:15
수업장소 28동 103호
면담시간(교수) 수 09:00 - 11:30 또는 약속
면담장소(교수) 25동 335호
면담시간(조교) 약속
면담장소(조교) 김희천(25동 303호), 신준호(25동 336호)
eTL
강의계획서


수업 소개

본 교과목은 심층학습(deep learning)을 통계학적 관점에서 분석하는 것을 목표로 하는 이론 중심 수업이다. 수업은 먼저 지도학습(supervised learning) 전반과 가법 모형(additive models) 등 기본적인 통계적 학습 개념을 복습하고, 심층신경망(deep neural network)의 기본 구조(다층 퍼셉트론, 역전파 등)를 다룬다. 그 위에서 통계적 학습 이론(statistical learning theory) 의 핵심 도구인 집중부등식(concentration Measure)을 배우고, 이를 바탕으로 심층학습을 근사 이론(approximation theory) 측면과 일반화 오차(generalization error) 측면에서 통계적으로 분석한다. 이어 심층학습 최적화 과정의 통계적 특성을 재생 커널 힐베르트 공간(reproducing kernel hilbert space, RKHS) 기반의 뉴럴 탄젠트 커널(neural tangent kernel, NTK) 분석과 평균장(mean field) 분석을 통해 알아본다. 또한 생성모형(generative models) 의 통계적 보장(예: GAN, diffusion model, LLM)을 소개하고, 정규화(regularization) 이론, 최적수송(optimal transport) 및 기하학적 해석(geometric view) 과 같은 최신 연구 주제를 다룬다.

  • 키워드: 심층학습(deep learning), 지도학습(supervised learning), 학습 이론(learning theory), 근사 이론(approximation theory), 일반화 오차(generalization error), 최적화(optimization), 뉴럴 탄젠트 커널(neural tangent kernel), 평균장(mean field), 생성 모형(generative models), 정규화(regularization), 최적수송(optimal transport)


수업 목표

  • 심층학습(Deep Learning)을 접하고 이해한다.

  • 심층학습에 어떤 통계적 도구가 쓰이는지 이해한다.

  • 상황에 맞게 적절한 심층학습 모형을 선택할 수 있다.

  • 심층학습 모형에 따라 적절한 통계적 분석을 할 수 있다.


선수과목

  • 확률(probability)의 기본적 개념에 최소한 학부 수준으로는 익숙해야 하며, 학부에서는 확률의 개념 및 응용(326.211), 측도이론과 확률(M1407.002500), 실변수함수론(881.425), 대학원에서는 확률론 1(326.513), 실해석학(3341.503) 등과 같은 과목에서 다룬다.

  • 수리통계(mathematical statistics)의 기본적 개념에 최소한 학부 수준으로는 익숙해야 하며, 수리통계 1(326.311), 수리통계(M1399.000900) 등과 같은 과목에서 다룬다.

  • 선형사상, 기저, 차원 등 선형대수(linear algebra)의 기본 개념에 익숙해야 하며, 선형대수학 1(300.203A), 선형대수학(881.007) 등과 같은 과목에서 다룬다.

위의 필수과목들 외에 다음의 개념을 접해보면 좋으나 필수는 아니며, 수업에서 사용하는 개념들은 수업에서 정의한다.

  • 회귀분석을 접해보면 좋으며, 회귀분석 및 실습(326.313) 등과 같은 과목에서 다룬다.

  • 볼록 최적화(convex optimization)를 접해보면 좋으며, 최적화의 수학적 이론 및 계산(3341.454) 등과 같은 과목에서 다룬다.

  • 기계학습(machine learning)의 이론적 분석을 접해보면 좋으며, 통계적 기계학습(M1399.000500) 등과 같은 과목에서 다룬다.

교재 및 참고문헌

정해진 교재의 내용을 처음부터 끝까지 따라가진 않지만, 다음 서베이 논문과 강의 자료를 주로 참조한다.

또한, 수업 전반적으로 다음 문헌들을 참조할 수 있다.

그 외에 각 주제에 맞춰서 참조하는 많은 참고문헌들이 있다.


일정표

아래의 일정표는 잠정적으로 작성한 것으로, 최신 일정표는 항상 홈페이지에서 확인한다.

날짜 주제 비고
1주 (9/2, 9/4) Introduction, Overview of Supervised Learning
2주 (9/9, 9/11) Overview of Supervised Learning, Review on Probability, Additive Models
3주 (9/16, 9/18) Deep Learning Frameworks and Backpropagation
4주 (9/23, 9/25) Deep Learning Frameworks and Backpropagation, Statistical Learning Theory: Concentration Measure
5주 (9/30, 10/2) Statistical Learning Theory: Concentration Measure 과제1 마감 (10/3)
6주 추석 연휴
7주 (10/14, 10/16) Approximation error for Deep Learning
8주 (10/21, 10/23) Approximation error for Deep Learning 과제2 마감 (10/22)
9주 (10/28, 10/30) Generalization error for Deep Learning 중간고사 (10/29)
10주 (11/4, 11/6) Generalization error for Deep Learning 프로젝트 제안서 마감 (11/7)
11주 (11/11, 11/13) Reproducing Kernel Hilbert Space, Optimization error for Deep Learning: Neural Tangent Kernel
12주 (11/18, 11/20) Optimization error for Deep Learning: Mean Field
13주 (11/25, 11/27) Statistical Guarantees of Generative Models: GAN, Diffusion Model, LLM
14주 (12/2, 12/4) Deep Learning and Regularization: Lottery Ticket Hypothesis 과제3 마감 (12/3)
15주 (12/9, 12/11) Unsupervised Learning and Deep Learning, Deep Learning and Geometry 과제4 마감 (12/10)
16주 Optimal Transport, Other topics 기말고사 (12/17), 프로젝트 최종 보고서 마감 (12/22)