선형대수학개론

선형대수학개론

(19개의 수강평)

458명의 수강생
karunogi 프로필

Span{v}에 대하여 질문있습니다 karunogi 3일 전

1-5강  7분26초 부근에 벡터 x는 [4/3x(3) / 0 / x(3)] (/는 줄 바꿈을 표현한 것이고 괄호는 x의 구분에 사용했습니다)

상기 식을 span{v}로 표현한다고 하셨는데, Span{v}로 표현하게 되면  x(3)가 사라지게 되는것 같은데 혹시 설명을 덧붙여 주실  수 있나요? 

또 밑에 Line! 이라고 표시되고 그 다음식에서는 Plane!이라고 표현하셨는데 이것에 대한 설명도 추가로 부탁드립니다 

3
이석원 프로필

헷갈리는 부분이 있습니다. 이석원 17일 전

어쩔때는 R^m 이고 어쩔때는 R^n인데 차이점이 뭔가요?

1
김땡땡 프로필

강의 9:56의 general solution 부분이 궁금합니다! 김땡땡 18일 전

복습하는데 앞부분이 갑자기 헷갈려서 질문 드립니다ㅠ ㅠ

example3.에서 basis for the corresponding eigenspace 부분에서 궁금한 점이 있습니다.

A-2I = 0을 풀면 2x_1 - x_2 + 6x_3 = 0 이 나오는데 여기서 general solution 이 어떻게 나오는지 갑자기 헷갈려서 질문 드립니다 ㅠ.ㅠ 혹시 다시 봐야 하는 부분이 있다면 말씀 주시면 감사드리겠습니다..

1
김땡땡 프로필

theorem2 부분이 헷갈립니다 ㅠㅠ 김땡땡 18일 전

안녕하세요! 수업 감사히 잘 듣고 있습니다 ㅎㅎ

다름이 아니라 v_1, ... , v_r이 linearly dependent를 가정하고, c_1(람다_1 - 람다_p)v_1 + ... + c_p(람다_(p-1) - 람다_p)v_p = 0 를 성립시키고자 할때

c_1 = ... = c_p = 0 인 경우밖에 없는 이유가 궁금합니다.

람다가 모두 0 이거나 v_1 ... v_p가 모두 0 일수는 없는 걸까요?

감사합니다!

2
김기섭 프로필

강의 슬라이드의 일부를 블로그정리 포스팅하는데 사용해도 괜찮을까요? 김기섭 20일 전

물론 출처와 강의 링크는 남기려고 합니다.

강의 내용을 정리해서 보고싶은데, 사용해도 괜찮을까요?

4
김땡땡 프로필

A가 invertible할 때 김땡땡 22일 전

안녕하세요!

A가 invertible 할 때 A의 역행렬이 EpE(p-1)...E1 x In 아닌가요?? theorem 7에서 예제로 그렇게 설명을 들은 것 같아서 질문 드립니다.

[Theorem 7]

An nxn matrixt A is invertible if and only if A is row equivalent to In, and in this case, any sequence of elementary tow operations that reduces A to In also transforms In Into A-1.

혹시 제가 잘못 아는 부분이 있다면 말씀주시면 감사드리겠습니다!

1
Lee Jieun 프로필

4.1절에서 질문있습니다 Lee Jieun 23일 전

상세하고 체계적인 강의 잘 듣고 있습니다. 

4.1 eigenvectors and eigenvalues 에서 v1~ vp가 처음에는 linearly dependent 하다고 가정하였는데 두번째줄부터 linearly indepent하다고 다시 말씀하셔서 헛갈렸습니다 linearly dependent인데 trivial solution 이 나와 처음 가정과 모순이므로 linearly independent 하다가 맞지 않나요

4
Keon-Vin Park 프로필

SVD 증명 질문드립니다 Keon-Vin Park 1달 전

SVD 증명 강의를 보고 질문드리는데,증명해주실때  A가 m by n matrix일때로 증명해주셨는데, 혹시 A가 n by m matrix일때는 ATA로 증명하는게 아니라, AAT matrix의 singular value로 증명하게 되나요? 학교 수업에서 배운건 n by m으로 배웠는데, 이 수업에서 배운것과 조금 달라서 질문드려봅니다.

1
daeho mun 프로필

2.4 5페이지 daeho mun 3달 전

안녕하세요.

2.4 5페이지에서

A22xB21=0 이고 A22=(B22)^-1 일때

B21=0으로 해석이 되었습니다.

지난 강의 의 주의사항 중 AB=0일때 A또는 B를 0으로 할 수 없다 배웠는데 이번 수업에서 0으로 해석 할 수 있는 근거는 무엇인가요?

1
정민기 프로필

6.3강에서와의 연계 질문 정민기 3달 전

감사합니다. 6.4강 까지 드디어 완강했습니다. 6.4강이 워낙 어려워 기존의 모든 앞 절 지식을 총동원해서 중간중간 끊으며 다시 돌아갔다왔다 했는데도 100% 이해되지는 않으므로 다시 봐야할 것 같습니다.

다름이 아니라, 6.3강에서 Constraint xTx =1 라는 조건이 주어졌을 때, 예제 1에서는 그 x가 바로 (1,0,0)과 같은 unit 벡터로 구해졌습니다. 그런데, 6.4강 3페이지에서 eigen value 360에 대한 eigen vector는 (1/3, 2/3, 2/3)으로서 unit vector 구하였습니다.

질문 1)

처음에 왜 6.3처럼 (1,0,0)이 바로 아닐까란 생각했는데, 6.3의 예제1의 A matrix는 그 자체가 대각행렬이고, 대각성분들이 이미 바로 eigen value여서, A = PDP-1 이라면 이미 A = PAP-1 이기때문에 구해진 (1,0,0) vector가 이미 eigen value 9에 대한 P에 들어있는 eigen vector이다. 이렇게 생각하면될까요?

질문2)

그런 면에서 6.3강의 6페이지 설명과 같이 xT A x= yT D y처럼 y가 (1,0,0) = e1일때 M값이 나왔지만 실질적으로 우리가 구하고자 하는 것은 M 조건으로 D에 대해 나온 y값이 아니라.. A에 대한 x기준 이므로 x =Py = p * e1으로 구한다고 하였습니다.

6.4의 3페이지 AT A에서 eigen value 360에 대한 eigen vector도 이와같은 맥락으로 해석하여 (1,0,0)=e1으로 나오면 안되고,  x =Py인 general solution이 나오는데그 중에 nomarlization된 (1/3,2/3,2/3)이어야 한다. 이렇게 이해하면 되겠습니까?

6.3강에서 당연히 바로 (1,0,0) 혹은 (0,0,1)이런 형태와 살짝 혼동되었는데, 6.3강 6페이지에서 y가 아니라 x에 대해 찾는 것이라는 것을 강조하신 부분이 떠올라 이런 적용이 맞나 해서 질문드립니다.

언제나 좋은 강의 감사합니다.

7
정민기 프로필

5.5강 문의 정민기 4달 전

안녕하세요?

강의 너무 잘 듣고 있습니다. 5.5강에 4분 40초 정도에 문의 있습니다. if A is mxn and b is in R n space, a least-squares solution of Ax = b is an x^ in R n space ~~~ 부분에서 x^이 당연히 R n space인 것은 자명합니다. A matrix와 x의 곱이 성립하기 위한 조건이기도 한데요.. b벡터가  R n space에 있다는 것이 도저히 이해가 안가서 문의드립니다.

강의 중간에 잠시 쉬다가 다시 와서 앞에서 제가 잘못이해했나해서 섭스페이스랑 R n space개념에 대해서 다시 보곤 했습니다만..

Col A가 subspace of R m이고 Ax또한 A의 column vector들을 linear combination했으므로 Col A에 있지 않습니까?  (여기까지 맞는거죠? ) 그렇다면,, = 성립한다는 의미는 b도 col A에 있어야한다는 의미일 거 같고.. (물론 그게 안되니 즉, 해가 없으니 orthogonal projection해서 가장 가까운 것 찾는거지만요) 그러려면 b도 colA있으니 Subspace of R m 이고 즉, 첫문장에서 "in R n "이 아니라 "in R m"이 되어야 하지 않는가 해서 문의드립니다..

A가 정사각행렬이라면 성립 하겠지만, 단순하게 행렬 연산에서도 제가 계속 이해가 안가서 다시보고 했습니다. 예를들어 A가 3by 2  x가 2 by 1 (in R2)일 때 Ax 는 3 by 1이므로 b 는 역시 3 by 1인것아닌지요? Rm이어야할 것같은데, 혹시 제가 만약에 많이 착각하고 있다면 고견 주시면 감사드립니다.  강의 중간 모르는 경우 다시 보고 또 보면서 복습하면서 만들고 있습니다. 다시 한 번 좋은 강의 감사드립니다. 

3
ha_junv 프로필

1.8절 질문있습니다. ha_junv 4달 전

18:23 분에 설명하신 그림에서 주어진행렬이

[1 -4 8 1

 0  2 -1 3

 0  0  0  5]

low가 3개인데, pivot position이 3개이니까 솔루션이 존재한다고 하셨습니다.  그리고 솔루션이 있다면 R4에서 R3로 onto 할 수 있다고 하셨습니다. 그리고 주어진 행렬은 augmented matrix로 보았습니다.

질문드리고 싶은 것은 지금 맨 마지막low가 

1

 0 0 0 5 로 0=5 로 해가존재하지않는 다고 생각했는 데, 왜 솔루션이 존재한다고 생각하셨는 지 궁금합니다.(저는 솔루션이 존재한다는 걸 해가 존재한다는 걸로 이해했습니다.)

2)

 그리고 0 0 0 5 인데 왜 x3에 free variable이 존재하는 지 모르겠습니다. free variable은 0 0 0 0  인 low여야 존재하는 것 아닌가요?

3)

그리고 onto의 개념이 확실하지않은 데 그냥 transformation의 또다른 이름으로 보면 될까요? 

3
pyj789123 프로필

08:00 부분이 이해가 잘 안됩니다. pyj789123 4달 전

cramer's rule을 사용해서 Xi가 유도되는 것은 이해가 됐는데, inverse A의 (i-j)의 entry가 Xi가 되는 부분이 이해가 잘 안됩니다. 혹시 부가 설명을 해주실 수 있을까요~?

양질의 강의 잘 보고 있습니다. 감사합니다.

3
ha_junv 프로필

안녕하세요? 1.4절 듣다가 질문있어서 질문드립니다. ha_junv 4달 전

02:33분경 

The matrix equations Ax=b를 설명하는 과정에서 

A = [a1, ... , an] [X1  = x1a1 + x2a2 + ... + xnan 이고

                     ...

                    Xn]

the linear combination of <the columns of A> 라는 내용이 나오는 데

Q1) Column은 세로줄 이고 따라서 위의 식에서 X를 나타내어준 것의 형태여야 한다고 생각하는 데 왜 column이라 명하였는 지 궁금합니다.

Q2) X는 변수로써 작용하는 걸로 이해하고 있습니다. 사실 이건 제가 아직 weights라는 개념에 대해 혼동되어서 질문드리는 데요. 처음 1-3강에서 weights를 설명해주셨을 때 '계수'의 의미인가 했는 데 그건 아닌 거 같더라구요. weights는 그냥 변수로 이해하면 될까요?

3
김준호 프로필

A Geometric Interpretation of the Orthogonal Projection 김준호 4달 전

이해가 안간 지점 : 15:50~16:30 사이

y_hat이 y_hat1 + y_hat2이고, 이는 y_hat을 "각 orthogonal basis에 orthogonal projection한 값들의 합이다."라는 건 이해가 되는데,

y_hat은 "y를 각 orthogonal basis에 직접 projection한 것들을 더한 것이다."라는게 잘 이해가 가지 않습니다.

y와 y_hat사이에 ||y-y_hat||만큼의 차이가 있는데,

y가 각 orthogonal vector에 projection한 값의 합과

y_hat이 각 orthogonal vector에 orthogonal projection한 값의 합이 어떻게 같을 수 있는지 확 와닿지가 않아요ㅠㅠ

2
지식공유자 되기
많은 사람들에게 배움의 기회를 주고,
경제적 보상을 받아보세요.
지식공유참여
기업 교육을 위한 인프런
“인프런 비즈니스” 를 통해 모든 팀원이 인프런의 강의들을
자유롭게 학습하는 환경을 제공하세요.
인프런 비즈니스