월 15,400원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결선형대수학개론
벡터 관련 질문입니다!
강의를 통해 이해한 내용을 바탕으로 2가지 정도 벡터와 관련해서 의문이 생겨 질문드립니다! 벡터란 어떤 n차원에서 real space에 존재하는 특정 대상을 나타내는 방법으로 이해를 하게 되었습니다. 예를들어 R3 space에서는 대상들을 ( scalar1, scalar2, scalar3) 3개의 스칼라로 표현하고 R2에서는 대상들을 (scalar1, scalar2) 2개의 스칼라로 이루어진 벡터로 표현하는것으로 이해했습니다. 제가 이해한 부분들이 맞다면... 1. 벡터의 구성요소는 스칼라이며, 스칼라를 통해 벡터를 나타내는 것이 맞는건가요? 2. 그렇다면 스칼라는 R1, 즉 1차원 real space의 벡터로 볼 수 있으며 일반화 시킨 벡터의 개념에서 R1 space의 대상으로 봐도 될까요?
- 미해결선형대수학개론
Invertible한지 안한지에 대해
2x2 matrix의 경우 ad-bc가 0이 되지 않으면 invertible하다는건 이해를 했습니다. 근데 nxn (n > 2) matrix의 경우 CA = I and AC = I 를 성립하는 C가 유일한지 판단하는건 [A I] ~ [I C] 로 변환하는 과정에서 판단할 수 밖에 없는건가요?
- 미해결선형대수학개론
질문있습니다.
1. T : Rn -> Rm is one-to-one 하면 반드시 n <= m 이여야한다. Theorem12 와 Theorem8을 이용해서 결론을 내보았는데 제대로 결론을 도출한게 맞을까요? 2. Ax = b가 consistent 해야만 A에 대해 linearly dependent 혹은independent의 정의가 가능해지는게 맞나요? 3. 2번이 맞다면 T : Rn -> Rm is onto 하면 standard matrix for T 인 A는 linearly dependet하게 되는게 맞죠? 뭔가 개념이 잡힐듯 말듯하네요...
- 미해결선형대수학개론
제가 제대로 이해한게 맞을까요?
강의 26~28분대의 필요충분조건을 아래와 같이 이해했습니다. {u, v, w} in R3 with u and v linearly independent [위 조건에 의해] u, v is not zero-vector {u, v, w} is linearly dependent [위 조건에 의해] {u, v, w} 를 {v1, v2, v3} 이렇게 표현하겠음 v1 is not zero-vector, then vj (j>1) is a linear combination of the preceding vectors (= span(v1~vj-1)) 를 따르는데 v2는 v1과 independent하므로 vj 대상에서 제외되면 v3(=w) 는 v1과 v2 의 linear combination 즉 span({v1,v2}) 를 만족한다 제대로 이해한게 맞나요? 또 좀 걸리는 부분이 theorom7의 표현 중 'some vj ' 라는게 반드시 하나 이상의 vj 를 뜻하는거겠죠?
- 미해결선형대수학개론
(2.6) Ex4에서 x는 왜 trivial solution을 갖는건지 궁금합니다
안녕하세요! 수업 잘 듣고 있는 수강생입니다. 한가지 막히는 부분이, 2.6자료 example4에서 x1이랑 x3가 free variable이 되면서 X=x2u+x4v+x5w가 되잖아요. 앞서 1.6강 다시 찾아보면 free variable이 없어야 trivial solution을 가지고 반대로 free variable이 있으면 non trivial solution을 가진다고 하셨었는데 어째서 X는 trivial solution이 당연한 것인지...잘 이해가 안 갑니다.ㅠㅠ
- 미해결선형대수학개론
2.3 절에서 질문이 있습니다.
2.3절의 Theorem 8에서 a~f는 이해가 갔는데 c 는 one to one 을 의미한다고 들었고 g는 onto를 의미한다고 배웠는데 두가지가 equivalent 하다는 말이 이해가 가지 않습니다. a~f, j, k 와 g,h,i는 다른 것 아닌가요. 아니면 역행렬을 갖기 위한 최소한의 조건들 아닌지요. 그리고 one to one은 solution이 하나거나 없는 경우인데 없는 경우는 역행렬이 존재하지 않지 않은지요.. 그래서 onto 는 최소한 해가 하나 이니까 one to one이면서 onto인 경우, 즉 해가 하나 있는 경우가 역행렬이 존재하는 경우가 아닌가요??
- 미해결선형대수학개론
2.1 절에서 질문이 있습니다.
안녕하세요, 강의를 듣다가 질문이 있어 글을 남깁니다. 2.1절의 Theorem 3 설명에서 d 에 대한 풀이 중 (AB)ij=ai1b1j+ai2b2j+...+ainbnj 는 맞지만 (AB)ijT = aj1b1i+aj2b2i+...+ajnbni => (AB)ijT= bj1a1i+bj2a2i+....bjnani (BTAT)ij = aj1b1i+aj2b2i+...+ajnbni => (BTAT)ji = bj11a1i+bj2a2i+....bjnani 가 되어야 하지 않나 해서요.. A는 ain으로 표현 가능하고 B는 bnj로표현 가능하고 AT는 ani, BT는 bjn이니까요... 설명이 상세하고 친절한 강의 감사드립니다. 이렇게 강의 하실수 있다는게 대단하신것 같습니다. 많이 배우고 있습니다. 그래도 자잘한 것이지만 수정할 것이 있는 것 같아 글을 남깁니다.
- 미해결선형대수학개론
theorem3 a. d. 증명과 관련한 자료
theorem3 a. d. 증명과 관련한 자료가 슬라이드가 모여진 구글드라이브에 없는 것 같아서 질문드립니다. 어디서 볼 수 있을까요?
- 미해결선형대수학개론
혹시 머신러닝, 딥러닝에서
안녕하세요 강사님? 제가 대학원에서 머신러닝, 딥러닝을 수강해야하는데 그 전에 선형대수학에 대해서 공부하려고 인강을 듣고 있습니다. 제가 일하느라 시간이 부족해서 꼭 필요한 부분만 배우려고 하는데, 인공지능에서 꼭 필요한 챕터는 어느부분인가요? 감사합니다!
- 미해결선형대수학개론
Linearly Dependent 에 대한 질문입니다
강좌 잘 듣고있습니다 예전에 거의 1번 다들었는데 오래되 기억이 잘안나 하나하나 반복해 다시 듣고 정리하려 합니다 역시 좋은 강의 인것 같아요 질문은 1.6장에서 c1v1+c2v2=0 에서 Linealy independent 는 c1=c2=0 일때라 배웠습니다 그러면 Linealy dependent는 c1=0 이어서 c2v2=0 인경우도 되지 않나요? 즉 v1이 v2와 상수 배가 아니어도 linealy dependent 가 성립하지 않나 해서 질문을 올립니다
- 미해결선형대수학개론
원이 아닌 타원이 그려지는 이유
안녕하세요 좋은 강의와 빠른 답변 진심으로 감사드립니다. 강의에서 말씀해주신 A = PCP^-1 원리에서, 강의 중의 예제처럼 |λ|이 1인 경우에는 C transformation이 회전 후 scaling 값이 1이라 같은 길이를 유지하기 때문에 타원이 커지거나 작아지지 않고 같은 타원을 돈다고 이해하였는데, C를 곱하는 과정에서 회전후 벡터의 길이가 같은 길이를 유지함에도 온전한 원이 그려질 수 없는 이유가 x를 다른 좌표계에서 회전 및 scaling 후 본래 좌표계로 돌려보내는 과정에서 약간의 오차가 생기기 때문인 건가요?? 즉, C를 통해 행해지는 회전과 scaling이 P와 P^-1를 곱하는 좌표계를 오고가는 과정으로 인해 본래 좌표계에서 온전히 그대로 반영될 수 없기 때문에 원이 아닌 타원이 그려지는 것인가요?
- 미해결선형대수학개론
example 2 관련 질문
안녕하세요 항상 높은 퀄리티의 강의 감사드립니다! example 2에서 λ가 -2일 때 x = x2v2 + x3v3라는 값이 나왔는데, (v2 = [-1 1 0], v3 = [-1 0 1]) 이 때 v2와 v3가 eigenvector라고 설명해주셨습니다. 그래서 일단 v2와 v3를 각각 Ax = λx의 x에 대입했을 때 식이 성립하는 것을 보고 두 벡터가 eigenvector라고 이해했습니다. 그런데 "Ax = λx를 만족하는 nonzero vector x" 라는 eigenvector의 정의대로라면 λ가 -2일 때 eigenvector는 v2, v3가 아닌 x = x2v2 + x3v3이고 v2와 v3는 λ가 -2일 때의 eigenspace의 basis를 구성하는 linearly independent한 벡터아닌가요? 앞서 배운 eigenvector의 정의 자체와 헷갈리는 부분이 있어 질문드렸습니다. 항상 친절한 답변 감사드립니다!!
- 미해결선형대수학개론
Theorem 2 관련 질문
안녕하세요 항상 좋은 강의 정말 감사드립니다! 다른 분들의 질문에 답해주신 것과 수업 자료의 자막이 상충되는 것이 있는 것에 대한 질문과, 증명과정에 있어서 이해가 가지 않는 것에 대한 질문이 있습니다. ① 우선 {v1, ... ,vr}이 linearly dependent한 set이라고 가정한 뒤, Chapter 1의 Theorem 7에 의해 벡터 set에서의 인덱스 p를 잡고 c1v1 + ... + cp-1vp-1 = vp가 성립함을 보이며 "v1부터 vp-1까지 linearly independent한 벡터들로 골라준 것" 이라고 설명해주셨고, 게시판에 올라온 다른 질문들의 답변에도 동일한 설명을 해주셨는데 자막으로는 "dependent입니다. 말실수입니다."라고 하셔서 뭐가 맞는 건지 헷갈립니다. (동일한 상황의 자막이 22:06에도 등장합니다) 자막은 무시하고 그냥 원래 설명대로 {v1, .. ,vp-1}은 linearly independent한 set으로 이해하면 되는 건가요?? ② 두번째 질문은, 마지막 증명과정에서 c1(λ1-λp)v1 + ... + cp-1(λp-1-λp)vp-1 = 0 가 "trivial solution만을 가지기 때문에 {v1 ... vr} 이 linearly dependent하다는 가정이 위배되므로 {v1 ... vr} 이 linearly independent하다" 라고 설명해주셨는데, vp-1는 벡터 set {v1, ..., vr} 에서 인덱스로 잡은 값인데, 벡터셋의 일부 벡터들이 linearly independent하다고 전체 벡터셋이 linearly dependent하지 않다고 할 수는 없지 않나요?? 즉, {v1, ... vp-1, vp, ... vr}이 linearly dependent하다고 한 것이 첫번째 가정인데, {v1, ..,vp-1}이 linearly independent하다고 해서 {v1, ... ,vr}이 linearly dependent하다는 가정이 틀렸다고 할 수는 없지 않나요?? 그리고 첫번째 질문에 보시면 애초에 {v1, ... vp-1}을 linearly independent한 벡터들로 잡은 것 아닌가요?? 매번 질문에 친절하게 답변해주셔서 정말 감사드립니다!
- 미해결선형대수학개론
Theorem 14. 30:16 설명 관련 질문
안녕하세요 좋은 강의 항상 감사드립니다. 30:16 즈음에 시각화된 그림을 설명해주실 때, 그림 속의 linearly dependent한 set이 H를 span하지 못함을 말씀하시면서 "H를 span하려면 무조건 linearly independent해야 한다"라고 하셨는데, 물론 그림 속의 dependent한 set은 그러하지만, basis가 아닌 dependent한 H 내부의 벡터 set도 H를 span할 수 있는 경우가 있지 않나요? example 3를 보면 v1, v2, v3는 linearly dependent한 set이지만 H를 span하고 있어서 질문드립니다. 시각화된 그래프에서도 H를 span하는 두 벡터와 내부의 한 벡터로 이루어진 벡터 set이 있다면, 그 set은 dependent하지만 H를 span할 수 있을 것 같기도 하고요. 혹시 "H를 span하려면 무조건 linearly independent해야 한다" 라는 설명은 시각화된 그림의 예의 상황을 위한 설명으로 이해해도 괜찮을까요?
- 미해결선형대수학개론
general case P matrix관련 질문
안녕하세요 항상 좋은 강의 감사드립니다. P matrix를 구하는 과정에 대한 질문인데요, 예시에서 A를 row reduction하는 과정에서 두번의 row interchange가 있었는데 첫 번째는 첫번째 row와 네번째 row간의 interchange가 있었고, 두번째는 두번째 row와 세번째 row간의 interchange가 있었는데, identity matrix에 interchange를 행하는 순서가 1<->4를 하고 2<->3를 행한 것인지 궁금합니다. 이 예시에서는 그렇지 않았지만 만약 한 row가 reduction과정에서 두번 이상 interchange가 되는 경우에는 그 순서에 따라 P가 달라질 수 있을 것 같아서 질문드립니다. 또 추가로 L matrix를 구할 때에도, reduction 과정에서 행해진 interchange들을 먼저 행해진 inerchange부터 확인하여 반영하는 것인지 아니면 나중에 행해진 interchange부터 확인하여 L matrix에 반영하는 것인지 궁금합니다. 감사합니다!
- 미해결선형대수학개론
LU example1에서 질문드립니다.
example1에서, [L b] = [I y] 이런 식으로 구해지고 있는데, 앞 페이지에서 Ly = b라고 했으니까 y = L-1b여서 [L-1 b] = [I y] 라고 해야 하는게 아닌가 싶은데... 왜 아닌지 이유를 모르겠어요.
- 미해결선형대수학개론
page6 orthonormal관련질문
안녕하세요 수업 듣고 있는 사람입니다. 다름이 아니라 전치행렬과 역행렬이 같은 경우가 orthonormal 행렬의 성질 뿐만 아니라 orthgonal 행렬의 성질이지도 않나요? 굳이 왜 orthnormal 행렬을 언급하셨는지가 궁금합니다.
- 미해결선형대수학개론
Theorem 4.d가 이해가 잘 안갑니다
Tehorem 4.d A has a pivot position in every row. 에서 [0 ... 0 b] 인 형태가 하나라도 있으면 해가 없으니까 모든 row에 pivot position 을 가진다고 했는데 만약 b가 0인 경우면 free variable을 가진 상태로 해가 있을 수 있는 것 같은데 그게 안되는 이유를 모르겠습니다
- 미해결선형대수학개론
Span {v1 ... vk} = Span {x1 ... xk} 관련 질문
안녕하세요 항상 좋은 강의와 친절한 답변 감사드립니다. Theorem 11를 설명하시기 이전에 Span {v1, v2} = Span {x1, x2}와 Span {v1, v2, v3} = Span {x1, x2, x3}에 대해 설명하신 것을 둘이 같은 subspace의 basis이기 때문에 같은 것이라고 이해했습니다. 그런데 Theorem 11을 설명하시면서 13:00 쯤부터 말씀하신 내용인, vp가 x1 ~ xp의 linear combination으로 나타내어질 수 있기 때문에 둘이 같다 라는 말이 이해가 잘 가지 않습니다. 혹시 "vp가 x1 ~ xp의 linear combination으로 나타내어질 수 있기 때문에 둘이 같다"라는 말이 vp도 x1~xp와 같은 subspace에 있음을 증명하기 위한 것인가요?
- 미해결선형대수학개론
19:46 람다의 절댓값 관련 질문
안녕하세요 먼저 항상 좋은 강의와 빠른 피드백 감사드립니다. 19:46 쯤에 설명하신 내용 관련 질문인데요, 우선 람다 기호를 입력하는 법을 몰라 <람다>로 대체 하겠습니다. <람다> = a +- bi라는 것과, 회전 후 길이가 (a^2 + b^2)^(1/2)만큼 scaling된 것이라는 것까지는 이해가 되었는데 그 이후에 <람다>의 절댓값이 (a^2 + b^2)^(1/2)랑 같다고 하셨는데 이부분이 잘 이해가 가지 않습니다. 저는 두 숫자의 절댓값이 같으면 제곱했을 때 같다는 것 밖에 절댓값에 대한 지식이 없는데, 아무리 계산해봐도 둘의 제곱값이 다르게 나와서 어떻게 둘이 같다는 건지 잘 이해가 가지 않아 질문드립니다..