교수 김지수, jkim82133[AT] snu [DOT] ac [DOT] kr
조교 박석훈, shrdid [AT] snu [DOT] ac [DOT] kr
수업시간 화, 목 09:30 - 10:45
수업장소 25동 210호
면담시간(교수) 목 11:00 - 13:00 또는 약속
면담장소(교수) 25동 335호
면담시간(조교) 금 11:00 - 12:00
면담장소(조교) 25동 305호
eTL
강의계획서


수업 소개

통계적 기계학습(Statistical Machine Learning) 방법은 데이터과학 및 인공지능 분야에서 핵심 방법론으로 사용되고 있다. 본 강의에서는 통계적 기계학습 방법론을 소개하고 기본 이론을 배운다. 주로 지도학습(supervised learning)을 위주로 데이터마이닝에서 널리 쓰이는 회귀(regression) 및 분류(classification) 알고리즘 및 기반 통계적 이론을 배운다. 모형을 평가하는 여러 개념을 배우고, 고급 데이터마이닝 기법인 앙상블 기법(bagging, boosting 등)을 배운다. 커널을 이용한 방법론 및 이론적 기반인 Reproducing Kernel Hilbert Space를 배운다. 또한, 비지도학습(unsupervised learning)의 예로 군집분석(clustering)을 배운다. 심층학습(deep learning) 관련 통계 이론도 간단히 배운다.

  • 키워드: 지도학습(supervised learning), 비지도학습(unsupervised learning), 회귀(regression), 분류(classification), 앙상블 기법(ensemble methods), 군집분석(clustering), 심층학습(deep learning)


수업 목표

  • 통계적 기계학습(Statistical Machine Learning)을 접하고 이해한다.

  • 통계적 기계학습에 어떤 통계적 도구가 쓰이는지 이해한다.

  • 상황에 맞게 적절한 데이터마이닝 내지는 기계학습 방법론을 선택할 수 있다.

  • 기계학습 알고리즘에 따라 적절한 통계적 분석을 할 수 있다.


교재 및 참고문헌

정해진 교재의 내용을 처음부터 끝까지 따라가진 않지만, 다음 책들을 참조한다.

  • Trevor Hastie, Robert Tibshirani, Jerome Friedman, The Elements of Statistical Learning: Data Mining, Inference and Prediction, Second Edition, 2009. https://hastie.su.domains/ElemStatLearn/

  • Gareth James, Daniela Witten, Trevor Hastie, Robert Tibshirani, An Introduction to Statistical Learning: With Applications in R, 2021. https://statlearning.com/

  • • Mehryar Mohri, Afshin Rostamizadeh, Ameet Talwalkar, Foundations of Machine Learning, Second Edition, 2018. https://cs.nyu.edu/~mohri/mlbook/

그 외에 각 주제에 맞춰서 참조하는 많은 참고문헌들이 있다.


일정표

아래의 일정표는 잠정적으로 작성한 것으로, 최신 일정표는 항상 홈페이지에서 확인한다.

날짜 주제 비고
1주 (3/5, 3/7) Introduction to statistical learning, Overview of Supervised Learning, R script
2주 (3/12, 3/14) Overview of Supervised Learning, , R script, Linear classifier, R markdown (Rmd), R markdown (html), R script
3주 (3/19, 3/21) Shrinkage methods
4주 (3/26, 3/28) Shrinkage methods, R markdown (Rmd), R markdown (html), R script
5주 (4/2, 4/4) Shrinkage methods, Basis expansion and Kernel methods
6주 (4/9, 4/11) Basis expansion and Kernel methods 과제1 마감 (4/9)
7주 (4/16, 4/18) Ensemble
8주 (4/23) Ensemble 과제2 마감 (4/23), 중간고사 (4/26)
9주 (4/30, 5/2) Ensemble - Boosting, paper: More Agents Is All You Need
10주 (5/7, 5/9) Model assessment and selection, Function estimation on high dimensions
11주 (5/14, 5/16) Empirical risk minimization
12주 (5/21, 5/23) Reproducing Kernel Hilbert Space
13주 (5/28, 5/30) Reproducing Kernel Hilbert Space, Clustering 과제3 마감 (5/30)
14주 (6/4) Clustering, Concentration of Measure
15주 (6/11) Concentration of Measure 과제4 마감 (6/12), 기말고사 (6/14)
16주 (6/19) Deep learning: Introduction