묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결실전! 스프링 부트와 JPA 활용1 - 웹 애플리케이션 개발
테스트코드 @Transactional 사용 질문입니다
MemberService에서 @Transactional를 사용해주었는데 테스트 코드에서도 사용하는 이유가 뭔가요?
-
미해결[리뉴얼] React로 NodeBird SNS 만들기
analyze 브라우저가 자동으로 안뜨는 문제 질문입니다.
안녕하세요 제로초님. next.config.js 를 생성하고 bundle-analyzer 도 설정을 해주고 package.json 에서 실행코드도 입력해주었는데 제로초님 처럼 자동!으로 브라우저가 뜨질 않습니다... 아예 빌드가 안된건 아니고 터미널에 html 주소가 뜬걸 입력하면 화면이 보이는데 제로초님 처럼 자동으로 브라우저가 띄워지는게 아니라 터미널에 뜬 주소로 직접 이동을해야 보여서, 제가 혹시 뭔가 잘못한건지 궁금해서 질문 남깁니다!! bulid 를 했을때 이렇게 analyze true, env production 으로 잘 빌드되는거 같고 마지막까지 에러없이 빌드도 완료했는데 왜 자동으로 브라우저가 띄워지지 않을까요?? 앞서 말씀드린대로 터미널에 적힌 주소로 이동하면 analyzer 빌드된 화면이 잘 보이긴 합니다... 제로초님처럼 자동으로 브라우저가 안띄워지는 현상에 큰 문제가 있는지 궁금합니다... 제 환경이 맥이라 맥에선 자동으로 안띄워지는건가 생각도 들구요...음...큰 문제는 아닐까요..?
-
미해결[파이토치] 실전 인공지능으로 이어지는 딥러닝 - 기초부터 논문 구현까지
전처리 관련 질문
강사님 안녕하세요, 이미 작성된 질문글을 보고도 잘 이해가 안되서 이렇게 다시 질문 드리게 되었습니다! " 데이터가 전처리 z=(x-m)/sigma를 통해 이미 normalize된 상태입니다. 따라서 원본 이미지로 복구하기 위해 역산 x=sigma*z+m을 이용한 것입니다. " 이전 질문글에서 위와 같은 답변을 주셨는데요, data[0][0]에 입력으로 들어온 이미지의 픽셀값이 들어있다고 할 때, 이를 원본 이미지로 복원시켜주기 위해 위의 공식을 적용할 경우, sigma = 0.5 그리고 mean = 0.5여야만 공식이 성립하게 됩니다. 해당 dataset을 정규화 하는 과정이 코드에서 Transform의 .toTensor()밖에 보이지 않는데 해당 함수가 값의 범위를 [0, 1]로 다시 바꿔준다는 부분은 알고 있습니다. 혹시 toTensor()함수에서 이미지 전처리를 진행할 때 평균 = 0.5, 표준편차 = 0.5 인 상태에서 픽셀값을 [0, 1] 사이즈로 정규화 시켜주는 건가요? 미리 감사합니다!
-
미해결[C++과 언리얼로 만드는 MMORPG 게임 개발 시리즈] Part1: C++ 프로그래밍 입문
int main 안에 변수 선언시에도 .data, .bss 분류해주나요?
컴파일러가 알아서 .data와 .bss로 전달해준다고 영상에서 설명을 들었는데, 7분 35초 즈음에 int main() 함수 밖에 변수를 선언하면 초기화에 상태에 따라 .data 혹은 .bss 영역으로 간다고 설명해 주셔서 int main()은 그럼 다른게 있는가 하는 궁금증이 생겨서요.
-
미해결선형대수학개론
Example 6 질문.
강의 하실 때는, A의 pivot column이 바로 a1, a2, a5라고 말씀하셨는데, pivot column을 바로 알 수 있는 방법이 있는건가요? 아니면 echelon form을 만들어봐야 알 수 있는게 맞는건가요?
-
해결됨[리뉴얼] Node.js 교과서 - 기본부터 프로젝트 실습까지
session 질문입니다.
session 미들웨어를 사용하게 되면 요청시마다 고유의 세션 아이디가 만들어지고 그거를 쿠키로 보내주려면 원하는 API(엔드포인트)에서 req.session.name = '아무거나' 해주면 되는건가요? 1. req에 등록했는데 어떻게 쿠키로 보내지는건지 2. 왜 name으로 등록해줘야 하는건지?(원래라면 유저 정보를 등록하는건가요?) 3. 암호화된 쿠키의 값은 무엇이 전송되는건지(고유 id인가요?) 4. 세션 객체에는 어떤식으로 저장이 되어있는건지 session { sdsdlasjdaslj (고유id=키값) : { name: '아무거나' } } 이렇게 되는건가요?
-
미해결프로그래밍 시작하기 : 파이썬 입문 (Inflearn Original)
hint 예제에서 질문드립니다.
hint 예제에서 함수의 return 속성을 None으로 보내는데, 왜 그렇게 한건지? 그리고 무슨 의미인지 알고 싶습니다. 반환값이 별도로 없고 그냥 print로 출력을해서 그런가요?
-
미해결Do it! 자바 프로그래밍 입문 with 은종쌤
생성과 초기화가 이해가 안가요
int[] numbers = new int[] {0,1,2}; 0,1,2를 만들었다는 뜻인가요? 근데 만들고 초기화하면 무슨 의미인가요..? 초기화를 했다는 건 다 지웠다는 거 아닌가요? 만들긴 만들었는데 초기화한거면... 뭐하러 초기화를 하는 건가요?? 원리와 목적이 이해가 안가요...ㅠㅠㅠㅠ
-
미해결오라클 성능 분석과 인스턴스 튜닝 핵심 가이드
Swingbench TPS 값 관련하여 질문 드립니다.
안녕하세요. 강의 잘들었습니다. 오라클 클라우드에서 Database를 생성하고 윈도우 VM에서 Swingbench를 설치하여 성능 테스트를 해보았는데요. 결과값이 생각했던 것과는 조금 달라서 질문 드립니다. 아래 Results Overview를 보시면 Average TPS 값이 3941.64로 표시되는데요. 테스트 결과는 30분동안 SOE_10G에 부하를 주었을때 값입니다. 전체 시간을 보면 4500TPS 값에 가까운 평균 값이 나와야할텐데, 중간중간 TPS가 측정되지 않는 구간이 있습니다. 이런 현상 때문에 데이터를 전체적으로 신뢰하긴 어려워 보입니다. 제가 테스트를 10번정도는 돌려봤는데 모두 동일하게 중간에 TPS가 빠지는 구간이 존재합니다. 데이터베이스 서버와 Swingbench가 설치된 서버는 모두 같은 VCN에 있구요. 네트워크 관점으로 ping을 해보면 빠지지 않습니다. 제가 Swingbench나 데이터베이스 설정에서 놓친 부분이 있을까요? 조언 부탁드리겠습니다.
-
미해결데이터 분석 SQL Fundamentals
ANSI 와 오라클
안녕하세요. 강사님의 강의들을 좋아하여 이번 강의도 수강신청을 하였습니다. 회사에서 오라클을 사용하여, 이번 강의를 통해 실력을 상향하고 싶은데 이번 강의의 문법적인면이나 앞으로의 강의에서 문법을 오라클에서 똑같이 적용해도 문제가 없을까요? join에 여러방법이 있겠지만 제가 봤던 코드들에서는 a.id = b.id(+) 이런 식으로 되어있기도 하더라구요. 그리하여 잘 배워서 적용 가능할지 질문드립니다. 이번 join 함수도 이해하며 잘 들었습니다. 감사합니다.
-
미해결초보를 위한 도커 안내서
Dockerfile 관련 질문 드립니다.
ssh 설치 후 서비스를 올리고 싶은데 아래 3가지를 다 적용을 해도 서비스가 실행이 안됩니다. Dockerfile RUN service ssh start CMD service ssh start CMD ["service", "ssh" , "start"] docker run 이후 service ssh start 명령으론 정상 작동 됩니다.
-
미해결자바스크립트 알고리즘 문제풀이 입문(코딩테스트 대비)
신입개발자인데 이중배열문제도못푸니까
회의감드네요 .....진짜 ........ 아........왜이렇게멍청하지.............
-
미해결it 취업을 위한 알고리즘 문제풀이 입문 (with C/C++) : 코딩테스트 대비
exit_code3
안녕하십니까. 선생님 문제를 풀이하고 계속 채점프로그램을 돌리는데, 다음과 같은 에러가 발생합니다. 혹시 관련 에러에 대한 원인을 알 수 있을까요.. 계속 에러나서 코드도 선생님의 코드를 적용했는데도 동일 에러가 발생합니다..
-
미해결[C++과 언리얼로 만드는 MMORPG 게임 개발 시리즈] Part4: 게임 서버
패킷 직렬화 관련 질문입니다.
패킷 직렬화 강의에서 >>, << 연산자를 오버로딩하여 구조체에 직접 쓰고 읽기가 가능했는데 이렇게 클래스나 구조체 등을 바이트 스트림 형태로 누른것만 직렬화라 부르나요? 패킷 직렬화 강의 전의 서버 클라 간 데이터 송수신 과정(단순 문자열 송수신) 직렬화가 아닌것인지 궁금합니다.
-
미해결스프링 핵심 원리 - 기본편
클라이언트 코드 명칭을 자세히 모르겠습니다.
"애플리케이션 “실행 시점” 에 외부에서 실제 구현 객체를 생성하고 클라이언트에 전달해서 클라이언트와 서버의 실제 의존관계가 연결 되는 것을 “의존관계 주입” 이라고 한다." "외부에서 실제 구현 객체를 생성하고 클라이언트에 전달(주입)함으로써 의존관계가 연결되는 것이다" 위에 두 문장이 있습니다. 밑에 문장으로 예를 들어 설명하겠습니다.문장을 3개로 나눠 보겠습니다. 1. 외부에서 실제 구현 객체를 생성2. 클라이언트에 전달(주입)함3. 의존관계가 연결 이렇게 나눠 받는데, 여기서 제가 궁금한 것은 2번 클라이언트에 전달함 입니다. OrderServiceImpl 가 클라이언트 코드라고 하셨는데, 뭔가 딱 느낌오는게 없습니다. 왜? OrderServiceImpl가 클라이언트 코드인가 하는 느낌을 모르겠습니다.. 더 자세히 말씀드리면 1. '클라이언트' 와 '주문 서비스' 관계가 궁금하며 2. 처음에 '주문 서비스' 로 어떤 값이 들어오고 어떻게 클래스들이 이동하는지 흐름!! 3. 왜 주문 서비스가 클라이언트 코드인지.. 모르겠습니다 클라이언트=호출, 서버=응답 이라고 다른 게시글에서 김영한님이 댓글에 설명해주신걸 봤었는데 이해가 잘 되지 않았습니다 .. MemberRepository 도 클라이언트 코드이고("왜??"), DiscountPolicy 도 클라이언트 코드이고("왜??") OrderServiceImpl도 클라이언트 코드가 되는건지("왜??").. 그렇게 된다면 왜 그런건지 자세히 알고 싶습니다...
-
해결됨[리뉴얼] Node.js 교과서 - 기본부터 프로젝트 실습까지
npm 설치 관련 질문드립니다
강사님 안녕하세요 제가 npm i -g expressnpm i -g -D nodemonnpm i -g express-generator이런 식으로 많이 설치했습니다-g 함부로 쓰지 말라고 말씀해주셨는데, 제가 부주의하게 -g로 설치를 했습니다ㅠㅠ그런데 심각한 문제가 생겼습니다 아래의 소스코드가 npm을 설치 안한 폴더에서는 제대로 실행이 되었는데요 npm express 이런 소프트웨어를 설치한 폴더 안에서는 data 변수가 아예 index.html을 읽지 못했습니다그런 폴더 아래에서는 계속 에러가 생겼습니다혹시 npm 으로 다운로드 받은 폴더 아래에서는data 변수가 index.html을 제대로 못읽는 이유를 질문드리고 싶습니다그리고 npm 다운로드를 -g로 받았는데, 혹시 이때 생긴 package.json 파일, package-lock.json 파일, node_modules 폴더 등등 npm 으로 설치할 때 생긴 파일들만 찾아서 삭제하면 설치 전으로 되돌아갈 수 있는지도 질문드리고 싶습니다 다음부터는 가르쳐주신 말씀을 더 신경쓰겠습니다 ㅠㅠ
-
해결됨두고두고 써먹는 유니티 VR
HTC Vive도 가능한건가요?
Project Settings에서 XR Plug-in Management의 Plug-in Providers에 Oculus를 체크하라고 하셨는데요. 그럼 Oculus에서만 작동하는건가요? 제가 HTC Vive를 개인적으로 소유하고 있지는 않은데 윈도우로 빌드해서 HTC Vive에서도 구동됐으면 좋겠어요. 이 경우에도 Oculus만 체크해도 되는건가요?
-
해결됨스프링 부트 개념과 활용
test와 runner account.setEmail에 동일한 값 입력
runner클래스 안의 account email과 Test 클래스 안의 account email을 같은 값으로 입력하고 테스트를 실행하면 유니크 에러가 뜨는데 이유가 궁금합니다. 서로 다른값을 입력하고 테스트를 실행하면 에러는 뜨지 않습니다.
-
미해결15일간의 빅데이터 파일럿 프로젝트
스쿱 에러....
안녕하세요 스쿱에서 자꾸 에러가 발생하여 문의드립니다. 전 과정까지는 문제없이 진행하였으나, sqoop export --connect jdbc:postgresql://127.0.0.1:7432/postgres --username cloudera-scm --password acjZt03D1Q --table smartcar_symptom_info --export-dir /user/hive/warehouse/managed_smartcar_symptom_info 위 명령어를 진행하는데 계속 exception이 발생합니다... 원인도 불분명하여 일단 질문 남깁니다... sqoop export --connect jdbc:postgresql://127.0.0.1:7432/postgres --username cloudera-scm --password vsqBur5ygT --table smartcar_symptom_info --export-dir /user/ hive/warehouse/managed_smartcar_symptom_info Warning: /opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/bin/../lib/sqoop/../accumulo does not exist! Accumulo imports will fail. Please set $ACCUMULO_HOME to the root of your Accumulo installation. SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/jars/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/jars/log4j-slf4j-impl-2.8.2.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory] 22/04/14 21:11:43 INFO sqoop.Sqoop: Running Sqoop version: 1.4.7-cdh6.3.2 22/04/14 21:11:43 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider using -P instead. 22/04/14 21:11:43 INFO manager.SqlManager: Using default fetchSize of 1000 22/04/14 21:11:43 INFO tool.CodeGenTool: Beginning code generation 22/04/14 21:11:44 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM "smartcar_symptom_info" AS t LIMIT 1 22/04/14 21:11:44 INFO orm.CompilationManager: HADOOP_MAPRED_HOME is /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce 22/04/14 21:11:49 ERROR orm.CompilationManager: Could not rename /tmp/sqoop-root/compile/6f489f0c3f57d16ddd9b99ee38d3c452/smartcar_symptom_info.java to /root/./smartcar_symptom_in fo.java. Error: Destination '/root/./smartcar_symptom_info.java' already exists 22/04/14 21:11:49 INFO orm.CompilationManager: Writing jar file: /tmp/sqoop-root/compile/6f489f0c3f57d16ddd9b99ee38d3c452/smartcar_symptom_info.jar 22/04/14 21:11:50 INFO mapreduce.ExportJobBase: Beginning export of smartcar_symptom_info 22/04/14 21:11:50 INFO Configuration.deprecation: mapred.jar is deprecated. Instead, use mapreduce.job.jar 22/04/14 21:11:52 WARN mapreduce.ExportJobBase: IOException checking input file header: java.io.EOFException 22/04/14 21:11:52 INFO Configuration.deprecation: mapred.reduce.tasks.speculative.execution is deprecated. Instead, use mapreduce.reduce.speculative 22/04/14 21:11:52 INFO Configuration.deprecation: mapred.map.tasks.speculative.execution is deprecated. Instead, use mapreduce.map.speculative 22/04/14 21:11:52 INFO Configuration.deprecation: mapred.map.tasks is deprecated. Instead, use mapreduce.job.maps 22/04/14 21:11:52 INFO client.RMProxy: Connecting to ResourceManager at server01.hadoop.com/192.168.56.101:8032 22/04/14 21:11:53 INFO mapreduce.JobResourceUploader: Disabling Erasure Coding for path: /user/root/.staging/job_1649933706082_0003 22/04/14 21:11:54 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:54 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:54 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:54 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:55 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:55 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:55 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:55 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:55 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:56 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:57 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:57 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:58 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:58 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:58 INFO input.FileInputFormat: Total input files to process : 2 22/04/14 21:11:58 INFO input.FileInputFormat: Total input files to process : 2 22/04/14 21:11:58 INFO mapreduce.JobSubmitter: number of splits:5 22/04/14 21:11:58 INFO Configuration.deprecation: mapred.map.tasks.speculative.execution is deprecated. Instead, use mapreduce.map.speculative 22/04/14 21:11:58 INFO Configuration.deprecation: yarn.resourcemanager.system-metrics-publisher.enabled is deprecated. Instead, use yarn.system-metrics-publisher.enabled 22/04/14 21:11:58 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1649933706082_0003 22/04/14 21:11:58 INFO mapreduce.JobSubmitter: Executing with tokens: [] 22/04/14 21:11:59 INFO conf.Configuration: resource-types.xml not found 22/04/14 21:11:59 INFO resource.ResourceUtils: Unable to find 'resource-types.xml'. 22/04/14 21:11:59 INFO impl.YarnClientImpl: Submitted application application_1649933706082_0003 22/04/14 21:11:59 INFO mapreduce.Job: The url to track the job: http://server01.hadoop.com:8088/proxy/application_1649933706082_0003/ 22/04/14 21:11:59 INFO mapreduce.Job: Running job: job_1649933706082_0003 22/04/14 21:12:10 INFO mapreduce.Job: Job job_1649933706082_0003 running in uber mode : false 22/04/14 21:12:10 INFO mapreduce.Job: map 0% reduce 0% 22/04/14 21:12:31 INFO mapreduce.Job: map 100% reduce 0% 22/04/14 21:12:32 INFO mapreduce.Job: Job job_1649933706082_0003 failed with state FAILED due to: Task failed task_1649933706082_0003_m_000000 Job failed as tasks failed. failedMaps:1 failedReduces:0 killedMaps:0 killedReduces: 0 22/04/14 21:12:32 INFO mapreduce.Job: Counters: 12 Job Counters Failed map tasks=2 Killed map tasks=3 Launched map tasks=4 Data-local map tasks=4 Total time spent by all maps in occupied slots (ms)=74538 Total time spent by all reduces in occupied slots (ms)=0 Total time spent by all map tasks (ms)=74538 Total vcore-milliseconds taken by all map tasks=74538 Total megabyte-milliseconds taken by all map tasks=76326912 Map-Reduce Framework CPU time spent (ms)=0 Physical memory (bytes) snapshot=0 Virtual memory (bytes) snapshot=0 22/04/14 21:12:32 WARN mapreduce.Counters: Group FileSystemCounters is deprecated. Use org.apache.hadoop.mapreduce.FileSystemCounter instead 22/04/14 21:12:32 INFO mapreduce.ExportJobBase: Transferred 0 bytes in 40.4452 seconds (0 bytes/sec) 22/04/14 21:12:32 INFO mapreduce.ExportJobBase: Exported 0 records. 22/04/14 21:12:32 ERROR mapreduce.ExportJobBase: Export job failed! 22/04/14 21:12:32 ERROR tool.ExportTool: Error during export: Export job failed! at org.apache.sqoop.mapreduce.ExportJobBase.runExport(ExportJobBase.java:444) at org.apache.sqoop.manager.SqlManager.exportTable(SqlManager.java:930) at org.apache.sqoop.tool.ExportTool.exportTable(ExportTool.java:93) at org.apache.sqoop.tool.ExportTool.run(ExportTool.java:112) at org.apache.sqoop.Sqoop.run(Sqoop.java:146) at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:76) at org.apache.sqoop.Sqoop.runSqoop(Sqoop.java:182) at org.apache.sqoop.Sqoop.runTool(Sqoop.java:233) at org.apache.sqoop.Sqoop.runTool(Sqoop.java:242) at org.apache.sqoop.Sqoop.main(Sqoop.java:251)
-
해결됨데이터 리터러시 - 데이터 읽고 쓰기의 기술
dls506강의 끝이 짤린거 같아요.
데이터리터러시의 dls506강의가 더 내용이 있을거 같은데, 말 하다가 "제가"에서 끝나네요.