[Linear Algebra for AI] 13. 그람-슈미트 직교화와 QR 분해
Gram-Schmidt Orthogonalization & A=QR
Foundation of everything.
Gram-Schmidt Orthogonalization & A=QR
Orthogonal Projection & Linear Transformation
Orthonormal sets, Orthogonal Projection
Least Squares와 그 기하학적 의미
Least Square Solution
Onto와 One-To-One, 신경망에서의 의미
Linear transformation
Subspace, basis, dimension, column space, rank
Linear Independent
선형결합, Span, Matrix의 곱을 대하는 네 가지 관점
Scalar, Vector, Matrix의 개념과 계산법
Scalar, Vector, Matrix의 개념과 계산법