example1을
least-squares을 'Ax=b'는 해가 없으나, 'b를 A로 projection하면 해가 반드시 생긴다.' 로 이해하였습니다.
example 1번의 풀이 방식과 least-squares 유도과정을 이해했습니다. 하지만 의문이 드는 것은
왜 이전 장에서 배운 것 처럼 Ax=hat(b)를 풀어서 문제를 풀지 않는가? 라는 것과
Ax=hat(b)를 푼다면
(hat(b) = c1*u1 +c2*u2 에서 c1, c2를 각각 구하는 방식)
c1과 c2가 각각 [1, 2]가 아닌 [19/17, 11/5]가 나오는지 모르겠습니다.
제가 생각하기에 least-squares solution도 결국 hat(b)를 구한 이후, subspace W에 orthogonal한 b-hat(b)를 이용한 형태라서, transpose(A) (b-hat(b))=0 로 구한 hat(b)와 이전 장에서 배운 방식으로 projection을 구한 hat(b)와 같은 위치여야 합니다.
이렇게 생각하면 사실 이번 장 내용을 배울 필요 없이, projection만 배우고 하나하나 해를 구하면 된다라고 생각이 전개됩니다. (tanspose(A) A hat(x) = transpose(A) b 수식도, hat(b)구하지 않고 b에서 바로 사용할 수 있는 유용한 수식 정도로 생각하고 있습니다. 하지만 Ax=hat(b)로 풀었을 때와 값이 달라, 뭔가를 잘못 생각하고 있다고 판단됩니다.)
어떤 부분을 잘못 생각해서 이렇게 됐는지 알고 싶습니다.
답변 1
0
A의 column이 orthogonal set이 아닌점을 참고해주세요. 아마 거기서 hat(b) 계산이 잘못되었을겁니다.
그렇다면, 다른 질문에 대한 해답도 금방 얻을수있을것같습니다.
gram-schmidt process등을 거치는 행위를 하지않고 hat(x)를 구할 수 있기때문에 훨씬 간편해집니다.
Theorem 7의 21분경 질문있습니다.
0
101
1
5.5 example 2의 계산값에 대하여
0
167
2
Example3 질문
0
188
1
Example 1 오른쪽 변환행렬 예시 질문
0
219
1
질문
0
176
1
1.3 vector equations에서 17;54 부분 질문이에요.
0
129
1
1.8 The Matrix of a Linear Transformation의 마지막 예제에 대해 질문이 있습니다.
0
193
2
Row Reduction and Echelon Form에서 Echelon form의 1번조건에 대한 질문입니다.
0
202
1
수치해석 강의도 출시 예정인가요?
0
321
2
4.3의 theorem 4 질문
0
146
1
linearly independent / dependent의 조건
0
642
2
1.8 Example 2를 이해한 후 드는 궁금증
0
344
1
slack방
0
274
1
eigen value / eigen vector / eigen space 제가 이해한게 맞는건가요
0
485
2
Theorem 6 질문
0
220
2
1.5 Theorem 6 질문 드립니다.
0
244
2
27분 40초 Example 3. 질문 있습니다.
0
233
1
16:00 Theorem 6 질문드립니다.
0
263
1
Linearly Indepdent와 One-to-one의 관계에 대한 rough한 이해
0
288
0
Example 2 나름대로 부연 설명
1
317
0
18:18 ~ 30 Example 2. 설명 오류
3
330
2
CH 4.4. 에서 similar할 때 P 행렬에 대한 질문
0
197
1
1.6 Linear Independence - Set of two vectors 질문
0
260
2
안녕하세요 6.1 Orthogonally Diagonalization Example 3 질문입니다.
0
279
1





