Home 하버드 확률론 기초 강의(Statistics 110)을 완강하고 나서 느낀점, 앞으로의 계획
Post
Cancel

하버드 확률론 기초 강의(Statistics 110)을 완강하고 나서 느낀점, 앞으로의 계획

하버드 기초 통계학 강의(Statistics 110)를 오늘에서야 완강하였습니다 😄. 분명히 통계학 기초 강의인데… 제 수준에서는 결코 기초가 아니었습니다. 한번에 이해가 안되는 강의가 거의 80% 정도였던 것 같고, 강의 전반에 대한 이해는 50%도 되지 않는 것 같습니다. 그럼에도 불구하고 간단한 회고의 글을 쓰는 것은 그만큼 저에게는 어려웠고, 담대한 도전이었기 때문입니다. 개인적으로는 완강까지 왔다는 것에 굉장한 뿌듯함을 느끼고 있습니다. 강의 자체가 쉬운 내용으로만 구성되어 있진 않아서 완강까지 대략 3~4개월 정도 소요된 것 같습니다.

이렇게까지 오래 걸린 이유는 제가 많이 부족해서이겠죠. 강의당 재생시간은 대부분 50분 이내 정도인데, 수박 겉핥기 식으로 빨리 완강하는 것보다는 천천히 이해하며 가보자는 태도로 강의 하나를 듣는데 거의 2시간 반 이상씩 걸렸습니다. 그리고 강의를 원할하게 이해하기 위해서 어느정도 기초 수학 지식이 필요했습니다. Joe Blitzstein 교수님이 직접적으로 언급하시진 않지만, 완강한 시점에서 제가 느끼는 선수 지식은 아래와 같습니다.

  • 기초 미적분학 지식
    • 편미분, 부분적분, 치환적분
    • 여러 이산형, 연속형 분포를 유도하기 위해 필요
  • 극좌표 및 삼각함수
    • 정규분포 유도를 이해하기 위해 필요
  • 테일러 시리즈
    • 적률생성함수 부분을 이해하기 위해 필요

이 수업을 들어야 하겠다고 다짐한 것은 두가지 이유가 있었습니다. 먼저 ML 논문에 등장하는 통계학적 개념들과 수식에 대한 이해력이 부족하다보니, 배보다 배꼽이 더 큰 상황이 많이 발생했습니다(논문을 이해해야하는데 관련 수학적 개념을 찾아보는데 드는 시간이 더 많이 소요…) 그리고 결정적으로 LDA를 수학적으로 이해해보고 싶다는 생각이 시발점이었습니다. LDA는 결국 베이지안 통계학을 이해하여야 완벽하게 이해할 수 있는데, 관련 논문과 자료를 보면서 저의 통계학적 지식이 매우 파편적이라는 것을 느끼게 되었습니다.

결국 통계/수리적 지식이 커리어를 발전 시켜나가는데 발목을 잡을 것 같다는 생각이 들어서 기초 내용을 다루는 정규 커리큘럼으로 공부해보자고 마음을 먹게 되었습니다. 그래서 여러가지 통계학 강의를 검색해본 결과 하버드 기초 확률론 강의가 처음 시작하기에 적절하다고 판단하였습니다. 이제 시작이니 마지막 강의에서 교수님이 뽑아주신 10개의 개념을 확실히 복습하고 다시 정진 해보려고 합니다.

  • Randomness and Uncertainty
    • 조건부(conditioning)
      • 조건부 확률
      • 조건부 기대값
      • 베이즈 정리
    • 대칭성(symmetry)
    • 확률변수와 확률분포(randon variabels and their distributions)
    • 이야기(stories)
      • stories of proof
      • stories of distribution
  • Computing Expectation
    • 선형성(linearity)
    • 지시확률변수(indicator random variables)
    • 무의식적 통계학자의 법칙(LOTUS)
  • Long-run behaviors
    • 큰수의 법칙(LLN, Law of Large Number)
    • 중심극한정리(CLT, Central Limit Theorem)
    • 마르코프 연쇄(Markov Chain)

최종 공부 목표

주변 동료들과 Joe Blitzstein 교수님의 조언에 따라 저의 최종 공부 목표는 계량경제학으로 잡았습니다. 제는 이커머스 업계에 종사하고 있는데요, 고객의 interaction 데이터를 통해 통찰력을 얻는 것이 제 커리어에서 중요한 포인트라고 생각합니다. 이를 위해서는 현실의 데이터를 활용한 선형 모델 분석 기법을 통달하는 것이 가장 중요하다고 판단했습니다. 마지막으로 명강의를 해주신 Joe Blitzstein교수님과 자막과 함께 영상을 제공해주신 edwith 관계자 여려분께도 감사드립니다. 배운 내용을 바탕으로 계량경제학까지 쭉쭉 달려나가보겠습니다 👊.

힘들었던 Statistics 110 수업도 결국은 완강👏

This post is licensed under CC BY 4.0 by the author.

Deep Learning is Robust to Massive Label Noise

Batch Normalization - Accelerating Deep Network Training by Reducing Internal Covariate Shift