학부 수업과는 차원이 다른 양질의 수업 내용이였습니다. 특히 초반에는 생소한 영어 단어들 때문에 거부감이 들 수도 있지만, 꾸준히 강의를 듣고 복습하다보면 점점 개념을 이해할 수 있게되고 공식들과 정리들이 확 와닿는 시점이 있습니다. 특히 개념들이 단원마다 점차적으로 확대되는데 이 모든 것은 SVD 를 위한 빌드업이라는 점에 정말 감격했습니다. 제가 학부 시절에 이런 강의가 있었다면 얼마나 좋았을까 부럽다고 생각이 들기도 합니다ㅋㅋ
1단원 부터 시작하여 augmented matrix 를 row reduction 하여 general solution 형태로 풀거나 , 행렬의 rank, dimension, determinant, eigenvalue, eigenvector, 직교, 그람-슈미츠, 대각화 및 spectral decomposition, symmetric matrix, quadratic form 모든 단원에서 배운 지식들이 유기적으로 연결되어 있고 기가 막히게 정리와 증명에 쓰입니다.
개인적으로 중간중간 각종 분해 알고리즘 (LU, PA=LU, QR) 들의 수치적인 효율성과 메모리측면의 효율성이나 시간복잡도등을 비교하는 부분이 있어 정말 좋았습니다.
선형대수학은 단순히 선형방정식을 행렬방정식으로 표현하고 해를 구하는 학문인줄 알았지만, 행렬의 해를 더 효율적으로 구하기 위한 각종 알고리즘들과 least-squares 를 통해 데이터의 error 값을 최소화 하여 선형적으로 맞추는 방법, quadratic form 에서 제약 조건을 걸어 행렬의 최대값을 구하는 방법과 SVD 를 통해 더 효율적으로 데이터를 압축하는 등 공학적인 실사용 사례들과 기하학적으로 어떻게 생겼는지 확인할 수 있어 정말 큰 도움이 되었다고 생각합니다.
앞으로 확률과 통계, 벡터 미적분학 수업이 정말 기대됩니다. 수치해석학 강의도 기대하고있습니다!
이렇게 좋은 강의를 제공해주셔서 정말 감사합니다.