묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨선형대수학개론
Linearly Indepdent와 One-to-one의 관계에 대한 rough한 이해
다른 질문에 댓글 달았던 내용인데, 행여나 도움되실까 해서 공유해봅니다. rough하게 적어서 조금 엄밀하지는 못합니다 :) Matrix A의 Column들이 linearly independent 하다는 것은 if and only if A가 one-to-one mapping입니다. 증명은 여러 가지로 많이 소개되어있으니 직접 찾아보시면 되겠습니다. 제가 이 동치를 직관적으로 이해하는 방법은 아래와 같습니다. 우선 one-to-one의 linear mapping에서의 직관적 의미부터 되새겨봅시다. A가 one-to-one mapping이라는 것은 Ax = b에서 서로 다른 x가 각각 서로 다른 b로 mapping 된다는 뜻입니다. 여기서 Column들의 linear independence 의 linear mapping 에서의 의미를 되새겨봅시다. Column들의 linear independence는 A의 Column들 중 어느것도 서로 다른 column들의 linear combination으로 표현될 수 없다는 뜻입니다. 반대로, column 들이 linearly dependent하다면, 어떤 column은 다른 column들의 linear combination으로 표현됩니다. 여기서, i번째 column이 vector x의 i번째 element 를 mapping 하는 것임을 상기해보면 (1.8 강의 standard matrix 부분을 보시면 됩니다), linearly dependent 하다면, vector x의 '어떤 element k'가 mapping되는 결과는 vector x의 다른 element가 mapping 된 것의 조합으로 표현됩니다. 따라서, element k는 어떻게 결정되어도 상관없는 free variable이게 됩니다. 따라서, one-to-one이지 않습니다. 이의 대우로, one-to-one이면 linearly independent하게 됩니다.
-
해결됨선형대수학개론
Example 2 나름대로 부연 설명
제 나름대로 이해한 것을 통해 부연설명을 해봅니다.Example 2 입니다. 왜 Onto인가현재 mapping을 나타내는 coefficient matrix가 주어졌고, 이 coefficient matrix는 row echelon form을 갖추고 있습니다. 이 coefficient matrix의 모든 row에 nonzero pivot이 있으므로, 이 matrix는 해를 갖습니다.(A linear system is consistent if and only if the rightmost column of the augmented matrix is not a pivot column)3x4 matrix가 해를 갖는다는 의미가 어떻게 R^4 와 연결될까요? 이는 해의 의미를 되짚어보면 이해할 수 있습니다.여기서의 해는 3 x 4 matrix A와 R^4의 vector x, R^3의 vector b가 존재할 때, 임의의 b에 대해 Ax = b의 꼴에서의 해, 즉 x가 결정될 수 있다는 뜻을 의미합니다. 즉, R^3의 어떤 b를 선택하든지, Ax=b 꼴에서 x를 결정할 수 있습니다. 즉, A라는 map의 치역(range)는 R^3가 되고, 이는 공역(codomain)과 같아집니다. 따라서 T maps R^4 onto R^3입니다.따라서, 앞으로 row echelon form으로 주어진 coef. matrix의 모든 row에 nonzero pivot이 있다면 이 matrix는 onto입니다.(강의에서 onto의 정의로 다시 설명해보면, R^3 상의 임의의 b는 최소 한 개 이상의 x의 image입니다. 따라서 onto입니다) 왜 one-to-one이 아닌가?앞서 설명한 해의 의미로 돌아가면, Ax = b에서 임의의 b에 대해 해 x를 결정할 수 있습니다. 그런데, 이 해는 x_3라는 free variable을 가집니다. 따라서, 해의 개수는 infinitely many 입니다. One-to-one이 되려면 Domain의 모든 element가 Codomain의 서로 다른 element로 mapping 되어야 합니다. 그런데, free variable이 있기 때문에 무수히 많은 variable이 Codomain의 동일한 element로 mapping 됩니다. 따라서 one-to-one이 아닙니다.(강의에서 one-to-one의 정의로 다시 설명하면, R^3의 임의의 b가 R^4의 x의 at most one x에 대한 image라는 것을 위배합니다. 무수한 x의 이미지일 수 있기 때문입니다. 따라서 onto가 아닙니다) 빠른 판단이 결과는 어찌보면 당연합니다. 두 가지로 빠르게 판단할 수 있을 것 같은데요. 첫째로 row와 column의 개수를 비교해볼 수 있습니다.우선, m x n matrix를 생각하면, row 개수는 m, column 개수는 n입니다. 그리고 모든 row와 column은 1개의 pivot 밖에 가질 수 없습니다.따라서, onto 를 위해 해가 존재하려면, 즉, 모든 row에 pivot이 있으려면, 최소한 column이 row보다 같거나 많아야 합니다. 즉 onto를 위해서는 최소한 m <= n 이어야 합니다.반대로, one-to-one을 위해 free variable이 없으려면, 최소한 row가 column 보다 같거나 많아야 합니다. 즉, one-to-one을 위해서는 최소한 m >= n 이어야 합니다.그러나, 이는 m <=n일 때 onto 라거나, m >= n일 때 one-to-one 이라는 뜻은 아닙니다. 그러나, onto이면 m <=n이고, one-to-one 이면 m >= n 입니다. (대우로 인해, m > n이면 onto가 아니고, m < n이면 one-to-one이 아닙니다) 둘째로, one-to-one correspondence로 설명할 수 있습니다. 이는 우리가 계속 사용하는 one-to-one (one-to-one function) 과는 다른 얘기입니다 (일대일 대응과 일대일 함수의 차이입니다). onto임을 판별한 시점에서, 이 matrix는 one-to-one이 아닙니다. 왜냐하면 이 matrix가 onto이면서 one-to-one이면 이 one-to-one correspondence (일대일 대응)이 되는데, 이를 위해서는 m = n이어야 하기 때문입니다. 개인 블로그에 작성하기 전에 rough하게 이해한 것들을 정리해보았습니다. 많은 분들께 도움이 되었으면 좋겠습니다. 오류가 있으면 댓글로 알려주시면 감사하겠습니다 :)
-
미해결선형대수학개론
18:18 ~ 30 Example 2. 설명 오류
18:18 ~ 30 에서 Augmented Matrix에 모든 row마다 Pivot position이 있어서 Solution이 있다는 것은 틀린 설명입니다. 여기서는 Linear Mapping을 나타내는 matrix이므로 Augmented Matrix가 아니라, Coefficient Matrix가 되어야 하고, 그렇다면 Coef. Matrix의 모든 row에 pivot position이 있으므로 Solution이 있다는 말은 참이 됩니다
-
미해결선형대수학개론
CH 4.4. 에서 similar할 때 P 행렬에 대한 질문
안녕하세요. 언제나 좋은 강의 감사드립니다.다름이 아니오라 $ \mathbb{R}^{n} $space에서 $ n \times n $ 행렬 $ A, B $ 가 similar할 경우,즉 $ A = PBP^{-1} $ 관계가 성립할 때 행렬 $ P $ 가 어떤 열벡터로 구성되는지 궁금해서 글남깁니다.질문은 총 2가지이며, 아래와 같습니다. Q1. diagonalization이 가능할 때 P의 열벡터행렬 $ A $ 가 diagonalization이 가능할 경우 행렬 $ P $ 는 linearly dependent한 eigen vector로 구성된 걸로 알고있는데, 그렇다면 eigen vector들은 $ \mathbb{R}^{n} $ 스페이스의 basis 벡터 중 일부인가요? Q2. diagonalization이 가능하지 않을 때 P의 열벡터행렬 $ A $ 가 diagonalization이 가능하지 않을 경우, 행렬 $ P$ 는 $ \mathbb{R}^{n} $ 스페이스의 basis 벡터 중 일부로 구성되어 있나요?아 혹시 $ n \times n $ 행렬 $ P $ 는 similarity transformation 정의상 invertible하기 때문에 그 행렬의 열벡터들은 선형독립이고, $ \mathbb{R}^{n} $ space를 span하기 때문에 당연히 $ \mathbb{R}^{n} $ space의 basis가 되는건가요??
-
미해결선형대수학개론
1.6 Linear Independence - Set of two vectors 질문
영상에선 14분 즈음 입니다.v1의 coefficient가 nonzero 하므로 nontrivial solution이 존재하게 되어 linearly dependent가 된다는데,v1의 coefficient는 -1이고, c가 만약 0이라면 -v1=0인건데 그럼 v1=0이라는 trivial solution만 존재하므로 independent인거 아닌가요?(제가 뭔가 정의를 요상하게 이해하고 있는 것 같기도 합니다.)
-
해결됨선형대수학개론
안녕하세요 6.1 Orthogonally Diagonalization Example 3 질문입니다.
좋은 강의 정말 감사합니다. 항상 잘 보고있습니다! 이제 겨우겨우 6단원에 들어섰네요.. 6.1을 듣던 중간에 복습을 완료하고 진행 중에 4단원의 Diagonalization 에서 A행렬의 eigenvector 들로 행렬 P와 D로 분해하는 것과 Example3 에서 orthonormal basis 들로 행렬 P와 D로 분해한 것의 단순한 차이점? 이유? 가 궁금해서 질문을 남겼습니다. 21:49 까지 듣다가 궁금해서 적은 내용입니다. 혹시나 제가 질문 드린 내용에 대한 설명이 강의 뒷부분에서 나온다면 양해 부탁드리겠습니다. 질문1. A 행렬의 eigenvector {v_1, v_2, v_3} 들을 구하고 그 상태에서 {v_1, v_2, v_3} 를 가지고 행렬 P 와 D를 Diagonalize 하여 구하는것이 아니라 $\lambda = 7$ 인 eigenspace 를 subspace 로 두고 이 subspace 에 orthogonal basis 를 찾는 방법인 Gram-Schmidt 과정을 통해 나온 orthogonal basis들을 normalize 한 orthonormal basis 인 {u_1, u_2, u_3} 를 Diagonalize 하여 행렬 P 와 D를 구하는 이유는 말 그대로 Orthogonally Diagonalize 라는 대각화의 방법 중 하나이기 때문인가요? 질문2.그렇다면 행렬 A 의 eigenvector 들로 Diagonalize 하여 P, D 로 분해 한 것과 행렬 A의 eigenvector 들의 orthonormal basis 를 Diagonalize 하여 P,D 로 분해한 것이 분명 다를 것인데 여기서 유일한 차이점은 D를 제외하고 행렬 P 인데 정확히 행렬 P 가 기하학적으로 무엇을 나타내는지? 어떤 성질을 나타내는지? 가 궁금합니다. 질문3.단순한 행렬의 대각화와 위 내용과 같이 대칭 행렬의 orthonormal basis 를 대각화를 한다는 것이 기하학적으로 어떤 형태로 나타나는지가 궁금합니다..? 혹시 LU 분해, QR 분해와 같이 대각화 즉 eigendecomposition 이라는 수식어가 붙은 이유는 단순히 분해하는 과정이기 때문인건가요? 뭔가 질문이 이상하고 많고 복잡해서 죄송합니다. 질문을 적으면서 어렴풋이 정리가 되면서 천천히 받아들여지는 느낌입니다.
-
미해결선형대수학개론
안녕하세요 general case 질문입니다.
항상 좋은 강의 제공해주셔서 감사드립니다. General CasePA = LU 설명 중에 P가 어떻게 결정되는지에 대한 질문입니다. general case 예제에서 row operation 중 interchange를 두 곳에서 시행하셨는데1row - 4row2row -3row 그렇다면 여기 제 생각인데P 의 original한 모습은 Identity matrix 이므로 AI = A 가 되니깐 Identity matrix 의 형태에서 어떤 row 들 끼리 interchange 했는지만 반영 해주면 그것이 P가 된다고 봐도 될까요? 예를 들어,Identity Matrix1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 1row - 4row interchange를 했으므로0 0 0 1 0 1 0 0 0 0 1 0 1 0 0 0 3. 2row - 3row interchange 를 했으므로 0 0 0 1 0 0 1 0 0 1 0 0 1 0 0 0최종적으로 P 의 모습은 이렇게 결정되는게 맞는건가요?
-
미해결선형대수학개론
안녕하세요 정리7 및 교재 Linear Independence Practice Problems 3번 질문입니다.
정리7에 따르면 최소한 하나의 vector 가 다른 vector의 linear combination으로 표한가능하다면 2개 이상의 vector 는 linearly dependent 하다라고 볼 수 있는데 제가 헷갈리는 부분은 Practice Problems 3 번입니다.일단 {u,v,w,z}는 3x4 matrix 이고 free variable 이 존재 -> non trivial solution 이므로 linearly dependent 한데 3 번 문제의 의도를 정확히 모르겠습니다. {u,v,w,z}가 linearly dependent 하다라고 하면theorem 7 에 따라 벡터 w 가 u,v,z 의 linear combination 으로 표현가능한게 맞지 않나요?이게 연습문제 답안인데요,여기서 이해가 안되는게3번 답안중에서 In this practice problem, w is not a linear combination of u,v, and z. -> 이게 왜 맞는말인지 이해가 안됩니다.이미 {u,v,w,z} 는 linearly dependent 이고 theorem 7 의 필요충분조건에 따라 2개 이상의 vector 가 linearly dependent 이므로 w is linear combination of u,v, and z 가 맞다고 생각하는데..... 혹시 제가 잘못 이해했거나 틀린 부분이 있을까요?추가적으로 linearly dependent 하다는 것은 w 가 Span(u,v,z) 상에 존재한다고 이해했는데예를 들어 밑의 그림은 R3 공간에서 linearly dependent 할 경우 w in Span{u,v} 인데연습문제 그림을 보면 R4 공간에서 w in Span{u, v, z} 가 되어야 하는게 아닌지.그렇다면 그림에서 w 는 Span 영역에 있는게 올바른게 아닌지 궁금합니다..!!!
-
미해결선형대수학개론
5.5강 ex 2 xhat 관련질문
xhat이 x4를 free variable로 가지고 있는데 이것을 기하학적으로 어떻게 해석해야하는건지 궁금합니다.
-
미해결선형대수학개론
theorem 4.d 에관한 질문입니다.
row echelon form으로 reduce 됐을 때 만약 [0 ,,, 0 b]와 같은 행이 없는 상태라면 무조건 해를 한개 이상 갖는다고 생각해도 되나요?
-
미해결선형대수학개론
혹시 여기서 선생님 강의를 통한 스터디를 만들어도 될까요?
제목 그대로 스터디원을 모집하고 싶은데, 사전에 선생님의 양해를 구해야할꺼같아서 글 남깁니다 🙂 물론 강의를 구매한 분들을 스터디원으로 모집하여, 스터디를 할 생각입니다 🙂
-
해결됨머신러닝/딥러닝으로 이어지는 선형대수
그람슈미츠 프로세스 증명
그람슈미츠 프로세스 증명 시 u1 v1을 같다고 하고 시작하셨는데요. orthonamal vector는 크기가 1인데 기존의 벡터가 크기가 1이라는 보장이 없잖아요? 근데 어떻게 저런 가정이 갑자기 되는지 잘 모르겠습니다 ㅠ
-
미해결선형대수학개론
A가 mxn에서 1xn으로 변환하는 이유
강의 1.4에서 A가 mxn matrix였는데 왜 각각의 열벡터 a1,,,an으로 다시 변환하는지 이유가 있을까요?
-
미해결선형대수학개론
1.2 pivot 관련 질문
1.2 강의에서 pivot colum과 pivot position에 대해서는 설명해주셨는데 pivot에 대해서는 말을 안해주셔서요 pivot이 a leading entry of row라고 생각하면 될까요?
-
미해결선형대수학개론
row equivalent와 row reduction
강의에서 row equivalent라는 용어는 이제 row reduction을 통해서 얻을 수있다는 것을 1.1에서 설명하셨다고 했는데 강의자료에는 row reduction이 등장하지 않아서요 혹시 왜그런지 알 수 있을까요
-
미해결선형대수학개론
linear independence이라면 왜 one-to-one인가요?
잘 이해가 되지않습니다...
-
미해결선형대수학개론
R스페이스 관련
1분에서 행사이즈가 m이기 때문에 Rm에 있다고 하셨는데R의 크기를 결정하는건 n아닌가요? matrix에서n이 늘어나면 x1 x2 x3에서 x1 x2 x3 x4 처럼 늘어나니까n의 크기가 R의 크기를 결정하는 것 같은데 왜 m이 결정하는지 답변부탁드립니다
-
미해결선형대수학개론
Theorem 4 질문입니다
b가 R^m에 해당된다고 했을때, Ax=b has a solution이랑The columns of A span R^m이 왜 같은말인지 이해가 안됩니다. 예시로 설명 부탁드려도 될까요?
-
미해결선형대수학개론
free variable 질문입니다
free variable인 변수를 파악하는것을 목표로 잡을때, 만약에 문제에서 주어진 행렬이 echelon form이 아니라면 echelon form으로 만들어놓고 "leading position에 해당되지 않는 변수 = free variable" 법칙을 적용하면 되는건가요?
-
미해결선형대수학개론
수업 중에 언급하신 Iterative Method와 관련하여 문의드립니다.
예전에 이미 강좌를 다 보긴 했지만 다시 복습하면서 씹고 뜯고 맛보고 있습니다 :) (벡터 calculus1 보고 보니까 더 이해가 잘 되는 느낌입니다.) 강의 중간에Iterative Method로 O(n)만에 문제를 푸는 경이로운 속도 향상을 이룰 수 있다는 말씀을 수업 중에 하셨는데 교과서 chapter 5.8 Iterative Estimates For Eigenvalues에 나오는 Power Method를 말씀하신 걸까요? 이 부분으로 공부하고 Python으로 선형대수를 프로그래밍으로 활용하는 강의를 보는 것으로 Iterative method를 공부하는데 충분할지 궁금합니다 좋은 강의 감사합니다.