inflearn logo
강의

강의

N
챌린지

챌린지

멘토링

멘토링

N
클립

클립

로드맵

로드맵

지식공유

벡터 미적분학 시리즈1 - 미분 기초

2.6 Gradients and Directional Derivatives

2.6 tangent vector가 tangent 평면에 놓여있다는 틀린말이다?

해결된 질문

203

유승후

작성한 질문수 11

0

안녕하세요

2.6강의 32분즈음에

tangent vector가 tangent 평면에 놓여있다는 틀린말이다

라는 말을 하셨는데 탄젠트벡터는 그점에서 linear approximation된 벡터인데 왜 틀린말인지 이해가안갑니다..

 

실제로 다른 서적을 봐도 틀렸다고 말하지 않는 것 같습니다.. 이유자세히 설명 부탁드립니다.

미적분

답변 2

0

조범희 (타블렛깎는노인)

시각적으로 놓여있지만

벡터의 정의를 다시보시면 알겠지만 크기와 방향만이 있고 어디에 놓여있는지에 대한 부분은 없기때문입니다.

표현상 명확히 짚고 넘어가서 벡터에대한 정의를 다시 상기시켜드리기위함입니다.

0

인프런 AI 인턴

안녕하세요, 인프런 AI 인턴입니다. 유승후님.

tangent vector가 tangent plane에 ‘놓여있다’는 표현이 혼동될 수 있는데, 이를 명확히 이해하는 것이 중요합니다.

먼저, 벡터가 어떤 평면에 놓여 있다는 것은 일반적으로 벡터가 평면의 방향과 일치하거나 평면의 한 부분으로 볼 수 있을지에 대한 대화입니다. 여기서 강의에서의 언급이 혼란스러울 수 있는 이유는, tangent vector와 tangent plane이 실제로는 같은 공간에서 나올 수 있지만, 엄밀히 말하면, tangent vector는 시작점이 단독적으로 있을 때 그 자체로 평면의 부분이라기 보다는 평면과 평행한 식입니다.

관련 유사 질문과 답변들:
1. 벡터와 관련된 기본적인 질문: 벡터의 정의 및 tangent plane과의 관계에 대해 깊이 논의한 답변이 있는 게시물입니다.

  1. 2.6 Gradient and Tangent Planes to Level Sets 질문입니다 :): 강의를 보시면서 비슷한 부분에 의문을 가진 다른 수강생의 질문이며, 해당 답변을 통해 벡터와 평면의 관계를 더 명확히 이해할 수 있습니다.

이를 통해 tangent vector는 tangent plane과 평행하거나 같은 방향을 가질 수 있지만, 그 자체로 평면 내부에 ‘속한다’고 보기는 어려울 수 있다는 점을 이해할 수 있게 됩니다.

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

기초대수학에서 자연상수 e에 대해 다루는 파트

0

22

1

89. 곱의 법칙 한글 자막 없는 문제

0

36

2

한국어 음성 안들리는 구간 존재

0

68

1

적분강의 안해주시는건가요?

0

81

2

분모가 왜 h 가 아닐까요?

0

66

1

실습 코드제공 문의

0

59

2

적분은 언제 촬영하시는지요?

0

110

2

Boundary 관련

0

88

1

17분대에 나오는 문제

0

115

2

강의 교안 요청 드립니다.

0

142

1

3.2 (c) 7:30

0

70

1

교제는 구매 했는데. 혹시 강의 중 사용하시는 교안 제공 가능하실까요?

0

67

1

향후 강의 계획

0

247

2

파트2, 선형대수학은 언제나오나요??

0

387

2

단일변수 함수 (one-variable function)미분. 다항식, 로그함수, 삼각함수등에 미분

0

309

1

4-4-B 26:24 divergence 관련 증명 질문입니다.

0

348

2

2.5 단원 공부중 질문입니다.

0

325

2

cross product 방향 질문입니다.

0

539

2

1.4단원 10 page 질문 있습니다.

0

348

2

미적분학 - 적분파트

0

397

1

W = np.random.uniform(-3,3,(n_features,1))

0

406

1

J 노테이션 질문

0

333

1

아니 뭔 답변도 안해줄거면 강의를 왜 만든거야

0

761

1

differentiation과 derivative의 차이

0

1702

1