Overview는 그래도 학부생 레벨에서 진행할 것이라는 생각을 확실하게 깨준 오버뷰였다. 진짜 수박 겉핥기같은 소개 이후엔 바로 최신 트렌드 소개...;;
그나마 알아들을 만한 녀석이긴 한데... 문제는 수준이 너무 쉬운 편이었다는거... 주변 픽셀 값 가지고 특징점 찾는 알고리즘에서 시작해서 특징점 계산에 관련된 내용을 가볍게 공부했다.
Supervised Learning의 수학적 정의에서 시작해서 여러 내용을 수학적인 의미를 더해서 다시한번 고찰하는 시간이었다. 딱 앞의 1/3 까지만... 그 뒤부터는 갑자기 너무 심도있는 내용으로 들어간 것 같은데, FDA(Fisher Discriminant Analysis) 부터는 제대로 이해를 못했다. 그냥 개념적인 이해만 하고 수학 공식부터는 GG치는 걸로... 이후 Discriminative models와 Generative models의 비교 부분은, 아무래도 SVM과 Neural networks 정도만 라이브러리로 사용해본 입장에서는 제대로 이해할 수는 없는 것이었다.
이 부분은 나중에 따로 위키피디아라도 잘 읽어보는 것으로...
산업공학과 교수님이라 그런지 Example이 많이 있어서 좋았다. 사실 내 입장에서는 새 알고리즘을 연구하는 쪽이라기보다는 각 알고리즘의 특징을 이해하고 어떤 경우에 어떤 알고리즘을 어떻게 쓰는 것이 좋은것인가를 알고 싶었기 때문에 Semi Supervised Learning(이하 SSL)도 흥미롭게 공부할 수 있었다. 여러 가지 SSL 기법이 있겠지만 일단 강의는 Graph를 기반으로 한 SSL에 대해 많이 다뤘고 나도 그 쪽을 주의깊게 들었는데, 학부 Algorithm 시간에 배웠을 Graph Min-cut이 classification의 smoothness를 높이는 기법으로 사용된다는 것이 흥미로웠다. 비교적 쉬운 수준부터 출발했지만 마찬가지로 수식을 통해 설명하는 어려운 부분은 거진 제대로 이해하지 못했던 것 같았고...
잠깐 Feature 수를 줄이는 Dimension Reduction에 대한 내용이 나왔는데 깊게 다루진 않아서 아쉬웠다. 이부분은 개인적으로 따로 공부해봐야 할 것 같다.