묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결오라클 성능 분석과 인스턴스 튜닝 핵심 가이드
Swingbench TPS 값 관련하여 질문 드립니다.
안녕하세요. 강의 잘들었습니다. 오라클 클라우드에서 Database를 생성하고 윈도우 VM에서 Swingbench를 설치하여 성능 테스트를 해보았는데요. 결과값이 생각했던 것과는 조금 달라서 질문 드립니다. 아래 Results Overview를 보시면 Average TPS 값이 3941.64로 표시되는데요. 테스트 결과는 30분동안 SOE_10G에 부하를 주었을때 값입니다. 전체 시간을 보면 4500TPS 값에 가까운 평균 값이 나와야할텐데, 중간중간 TPS가 측정되지 않는 구간이 있습니다. 이런 현상 때문에 데이터를 전체적으로 신뢰하긴 어려워 보입니다. 제가 테스트를 10번정도는 돌려봤는데 모두 동일하게 중간에 TPS가 빠지는 구간이 존재합니다. 데이터베이스 서버와 Swingbench가 설치된 서버는 모두 같은 VCN에 있구요. 네트워크 관점으로 ping을 해보면 빠지지 않습니다. 제가 Swingbench나 데이터베이스 설정에서 놓친 부분이 있을까요? 조언 부탁드리겠습니다.
-
미해결데이터 분석 SQL Fundamentals
ANSI 와 오라클
안녕하세요. 강사님의 강의들을 좋아하여 이번 강의도 수강신청을 하였습니다. 회사에서 오라클을 사용하여, 이번 강의를 통해 실력을 상향하고 싶은데 이번 강의의 문법적인면이나 앞으로의 강의에서 문법을 오라클에서 똑같이 적용해도 문제가 없을까요? join에 여러방법이 있겠지만 제가 봤던 코드들에서는 a.id = b.id(+) 이런 식으로 되어있기도 하더라구요. 그리하여 잘 배워서 적용 가능할지 질문드립니다. 이번 join 함수도 이해하며 잘 들었습니다. 감사합니다.
-
미해결초보를 위한 도커 안내서
Dockerfile 관련 질문 드립니다.
ssh 설치 후 서비스를 올리고 싶은데 아래 3가지를 다 적용을 해도 서비스가 실행이 안됩니다. Dockerfile RUN service ssh start CMD service ssh start CMD ["service", "ssh" , "start"] docker run 이후 service ssh start 명령으론 정상 작동 됩니다.
-
미해결자바스크립트 알고리즘 문제풀이 입문(코딩테스트 대비)
신입개발자인데 이중배열문제도못푸니까
회의감드네요 .....진짜 ........ 아........왜이렇게멍청하지.............
-
미해결it 취업을 위한 알고리즘 문제풀이 입문 (with C/C++) : 코딩테스트 대비
exit_code3
안녕하십니까. 선생님 문제를 풀이하고 계속 채점프로그램을 돌리는데, 다음과 같은 에러가 발생합니다. 혹시 관련 에러에 대한 원인을 알 수 있을까요.. 계속 에러나서 코드도 선생님의 코드를 적용했는데도 동일 에러가 발생합니다..
-
미해결[C++과 언리얼로 만드는 MMORPG 게임 개발 시리즈] Part4: 게임 서버
패킷 직렬화 관련 질문입니다.
패킷 직렬화 강의에서 >>, << 연산자를 오버로딩하여 구조체에 직접 쓰고 읽기가 가능했는데 이렇게 클래스나 구조체 등을 바이트 스트림 형태로 누른것만 직렬화라 부르나요? 패킷 직렬화 강의 전의 서버 클라 간 데이터 송수신 과정(단순 문자열 송수신) 직렬화가 아닌것인지 궁금합니다.
-
미해결스프링 핵심 원리 - 기본편
클라이언트 코드 명칭을 자세히 모르겠습니다.
"애플리케이션 “실행 시점” 에 외부에서 실제 구현 객체를 생성하고 클라이언트에 전달해서 클라이언트와 서버의 실제 의존관계가 연결 되는 것을 “의존관계 주입” 이라고 한다." "외부에서 실제 구현 객체를 생성하고 클라이언트에 전달(주입)함으로써 의존관계가 연결되는 것이다" 위에 두 문장이 있습니다. 밑에 문장으로 예를 들어 설명하겠습니다.문장을 3개로 나눠 보겠습니다. 1. 외부에서 실제 구현 객체를 생성2. 클라이언트에 전달(주입)함3. 의존관계가 연결 이렇게 나눠 받는데, 여기서 제가 궁금한 것은 2번 클라이언트에 전달함 입니다. OrderServiceImpl 가 클라이언트 코드라고 하셨는데, 뭔가 딱 느낌오는게 없습니다. 왜? OrderServiceImpl가 클라이언트 코드인가 하는 느낌을 모르겠습니다.. 더 자세히 말씀드리면 1. '클라이언트' 와 '주문 서비스' 관계가 궁금하며 2. 처음에 '주문 서비스' 로 어떤 값이 들어오고 어떻게 클래스들이 이동하는지 흐름!! 3. 왜 주문 서비스가 클라이언트 코드인지.. 모르겠습니다 클라이언트=호출, 서버=응답 이라고 다른 게시글에서 김영한님이 댓글에 설명해주신걸 봤었는데 이해가 잘 되지 않았습니다 .. MemberRepository 도 클라이언트 코드이고("왜??"), DiscountPolicy 도 클라이언트 코드이고("왜??") OrderServiceImpl도 클라이언트 코드가 되는건지("왜??").. 그렇게 된다면 왜 그런건지 자세히 알고 싶습니다...
-
해결됨[리뉴얼] Node.js 교과서 - 기본부터 프로젝트 실습까지
npm 설치 관련 질문드립니다
강사님 안녕하세요 제가 npm i -g expressnpm i -g -D nodemonnpm i -g express-generator이런 식으로 많이 설치했습니다-g 함부로 쓰지 말라고 말씀해주셨는데, 제가 부주의하게 -g로 설치를 했습니다ㅠㅠ그런데 심각한 문제가 생겼습니다 아래의 소스코드가 npm을 설치 안한 폴더에서는 제대로 실행이 되었는데요 npm express 이런 소프트웨어를 설치한 폴더 안에서는 data 변수가 아예 index.html을 읽지 못했습니다그런 폴더 아래에서는 계속 에러가 생겼습니다혹시 npm 으로 다운로드 받은 폴더 아래에서는data 변수가 index.html을 제대로 못읽는 이유를 질문드리고 싶습니다그리고 npm 다운로드를 -g로 받았는데, 혹시 이때 생긴 package.json 파일, package-lock.json 파일, node_modules 폴더 등등 npm 으로 설치할 때 생긴 파일들만 찾아서 삭제하면 설치 전으로 되돌아갈 수 있는지도 질문드리고 싶습니다 다음부터는 가르쳐주신 말씀을 더 신경쓰겠습니다 ㅠㅠ
-
해결됨두고두고 써먹는 유니티 VR
HTC Vive도 가능한건가요?
Project Settings에서 XR Plug-in Management의 Plug-in Providers에 Oculus를 체크하라고 하셨는데요. 그럼 Oculus에서만 작동하는건가요? 제가 HTC Vive를 개인적으로 소유하고 있지는 않은데 윈도우로 빌드해서 HTC Vive에서도 구동됐으면 좋겠어요. 이 경우에도 Oculus만 체크해도 되는건가요?
-
해결됨스프링 부트 개념과 활용
test와 runner account.setEmail에 동일한 값 입력
runner클래스 안의 account email과 Test 클래스 안의 account email을 같은 값으로 입력하고 테스트를 실행하면 유니크 에러가 뜨는데 이유가 궁금합니다. 서로 다른값을 입력하고 테스트를 실행하면 에러는 뜨지 않습니다.
-
미해결15일간의 빅데이터 파일럿 프로젝트
스쿱 에러....
안녕하세요 스쿱에서 자꾸 에러가 발생하여 문의드립니다. 전 과정까지는 문제없이 진행하였으나, sqoop export --connect jdbc:postgresql://127.0.0.1:7432/postgres --username cloudera-scm --password acjZt03D1Q --table smartcar_symptom_info --export-dir /user/hive/warehouse/managed_smartcar_symptom_info 위 명령어를 진행하는데 계속 exception이 발생합니다... 원인도 불분명하여 일단 질문 남깁니다... sqoop export --connect jdbc:postgresql://127.0.0.1:7432/postgres --username cloudera-scm --password vsqBur5ygT --table smartcar_symptom_info --export-dir /user/ hive/warehouse/managed_smartcar_symptom_info Warning: /opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/bin/../lib/sqoop/../accumulo does not exist! Accumulo imports will fail. Please set $ACCUMULO_HOME to the root of your Accumulo installation. SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/jars/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/jars/log4j-slf4j-impl-2.8.2.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory] 22/04/14 21:11:43 INFO sqoop.Sqoop: Running Sqoop version: 1.4.7-cdh6.3.2 22/04/14 21:11:43 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider using -P instead. 22/04/14 21:11:43 INFO manager.SqlManager: Using default fetchSize of 1000 22/04/14 21:11:43 INFO tool.CodeGenTool: Beginning code generation 22/04/14 21:11:44 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM "smartcar_symptom_info" AS t LIMIT 1 22/04/14 21:11:44 INFO orm.CompilationManager: HADOOP_MAPRED_HOME is /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce 22/04/14 21:11:49 ERROR orm.CompilationManager: Could not rename /tmp/sqoop-root/compile/6f489f0c3f57d16ddd9b99ee38d3c452/smartcar_symptom_info.java to /root/./smartcar_symptom_in fo.java. Error: Destination '/root/./smartcar_symptom_info.java' already exists 22/04/14 21:11:49 INFO orm.CompilationManager: Writing jar file: /tmp/sqoop-root/compile/6f489f0c3f57d16ddd9b99ee38d3c452/smartcar_symptom_info.jar 22/04/14 21:11:50 INFO mapreduce.ExportJobBase: Beginning export of smartcar_symptom_info 22/04/14 21:11:50 INFO Configuration.deprecation: mapred.jar is deprecated. Instead, use mapreduce.job.jar 22/04/14 21:11:52 WARN mapreduce.ExportJobBase: IOException checking input file header: java.io.EOFException 22/04/14 21:11:52 INFO Configuration.deprecation: mapred.reduce.tasks.speculative.execution is deprecated. Instead, use mapreduce.reduce.speculative 22/04/14 21:11:52 INFO Configuration.deprecation: mapred.map.tasks.speculative.execution is deprecated. Instead, use mapreduce.map.speculative 22/04/14 21:11:52 INFO Configuration.deprecation: mapred.map.tasks is deprecated. Instead, use mapreduce.job.maps 22/04/14 21:11:52 INFO client.RMProxy: Connecting to ResourceManager at server01.hadoop.com/192.168.56.101:8032 22/04/14 21:11:53 INFO mapreduce.JobResourceUploader: Disabling Erasure Coding for path: /user/root/.staging/job_1649933706082_0003 22/04/14 21:11:54 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:54 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:54 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:54 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:55 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:55 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:55 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:55 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:55 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:56 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:57 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:57 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:58 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:58 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:58 INFO input.FileInputFormat: Total input files to process : 2 22/04/14 21:11:58 INFO input.FileInputFormat: Total input files to process : 2 22/04/14 21:11:58 INFO mapreduce.JobSubmitter: number of splits:5 22/04/14 21:11:58 INFO Configuration.deprecation: mapred.map.tasks.speculative.execution is deprecated. Instead, use mapreduce.map.speculative 22/04/14 21:11:58 INFO Configuration.deprecation: yarn.resourcemanager.system-metrics-publisher.enabled is deprecated. Instead, use yarn.system-metrics-publisher.enabled 22/04/14 21:11:58 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1649933706082_0003 22/04/14 21:11:58 INFO mapreduce.JobSubmitter: Executing with tokens: [] 22/04/14 21:11:59 INFO conf.Configuration: resource-types.xml not found 22/04/14 21:11:59 INFO resource.ResourceUtils: Unable to find 'resource-types.xml'. 22/04/14 21:11:59 INFO impl.YarnClientImpl: Submitted application application_1649933706082_0003 22/04/14 21:11:59 INFO mapreduce.Job: The url to track the job: http://server01.hadoop.com:8088/proxy/application_1649933706082_0003/ 22/04/14 21:11:59 INFO mapreduce.Job: Running job: job_1649933706082_0003 22/04/14 21:12:10 INFO mapreduce.Job: Job job_1649933706082_0003 running in uber mode : false 22/04/14 21:12:10 INFO mapreduce.Job: map 0% reduce 0% 22/04/14 21:12:31 INFO mapreduce.Job: map 100% reduce 0% 22/04/14 21:12:32 INFO mapreduce.Job: Job job_1649933706082_0003 failed with state FAILED due to: Task failed task_1649933706082_0003_m_000000 Job failed as tasks failed. failedMaps:1 failedReduces:0 killedMaps:0 killedReduces: 0 22/04/14 21:12:32 INFO mapreduce.Job: Counters: 12 Job Counters Failed map tasks=2 Killed map tasks=3 Launched map tasks=4 Data-local map tasks=4 Total time spent by all maps in occupied slots (ms)=74538 Total time spent by all reduces in occupied slots (ms)=0 Total time spent by all map tasks (ms)=74538 Total vcore-milliseconds taken by all map tasks=74538 Total megabyte-milliseconds taken by all map tasks=76326912 Map-Reduce Framework CPU time spent (ms)=0 Physical memory (bytes) snapshot=0 Virtual memory (bytes) snapshot=0 22/04/14 21:12:32 WARN mapreduce.Counters: Group FileSystemCounters is deprecated. Use org.apache.hadoop.mapreduce.FileSystemCounter instead 22/04/14 21:12:32 INFO mapreduce.ExportJobBase: Transferred 0 bytes in 40.4452 seconds (0 bytes/sec) 22/04/14 21:12:32 INFO mapreduce.ExportJobBase: Exported 0 records. 22/04/14 21:12:32 ERROR mapreduce.ExportJobBase: Export job failed! 22/04/14 21:12:32 ERROR tool.ExportTool: Error during export: Export job failed! at org.apache.sqoop.mapreduce.ExportJobBase.runExport(ExportJobBase.java:444) at org.apache.sqoop.manager.SqlManager.exportTable(SqlManager.java:930) at org.apache.sqoop.tool.ExportTool.exportTable(ExportTool.java:93) at org.apache.sqoop.tool.ExportTool.run(ExportTool.java:112) at org.apache.sqoop.Sqoop.run(Sqoop.java:146) at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:76) at org.apache.sqoop.Sqoop.runSqoop(Sqoop.java:182) at org.apache.sqoop.Sqoop.runTool(Sqoop.java:233) at org.apache.sqoop.Sqoop.runTool(Sqoop.java:242) at org.apache.sqoop.Sqoop.main(Sqoop.java:251)
-
해결됨데이터 리터러시 - 데이터 읽고 쓰기의 기술
dls506강의 끝이 짤린거 같아요.
데이터리터러시의 dls506강의가 더 내용이 있을거 같은데, 말 하다가 "제가"에서 끝나네요.
-
미해결스프링 기반 REST API 개발
new Link() 메서드 오류 나시는 분들 주목!
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 1.1 버전부터 deprecated 되었다고 합니다. 다음과 같이 Link.of() 사용하시면 됩니다! eventResource.add(Link.of("/docs/index.html#resource-events-create").withRel("profile"));
-
미해결스프링 MVC 1편 - 백엔드 웹 개발 핵심 기술
ModelAndView객체와 view 따로 model 따로 처리하는 부분이 이해가 잘 안갑니다 ㅠㅠ
학습하는 분들께 도움이 되고, 더 좋은 답변을 드릴 수 있도록 질문전에 다음을 꼭 확인해주세요.1. 강의 내용과 관련된 질문을 남겨주세요.2. 인프런의 질문 게시판과 자주 하는 질문(링크)을 먼저 확인해주세요.(자주 하는 질문 링크: https://bit.ly/3fX6ygx)3. 질문 잘하기 메뉴얼(링크)을 먼저 읽어주세요.(질문 잘하기 메뉴얼 링크: https://bit.ly/2UfeqCG)질문 시에는 위 내용은 삭제하고 다음 내용을 남겨주세요.=========================================[질문 템플릿]1. 강의 내용과 관련된 질문인가요? (예/아니오)2. 인프런의 질문 게시판과 자주 하는 질문에 없는 내용인가요? (예/아니오)3. 질문 잘하기 메뉴얼을 읽어보셨나요? (예/아니오)[질문 내용]여기에 질문 내용을 남겨주세요. 1. @Controller 어노테이션이 붙은 class 가 위 사진의 핸들러에 해당하는 것인지 궁금합니다 2.dispatcherServlet.doDispatch() 에서는 handle()함수의 반환 값으로 ModelAndView를 사용하는데 @Controller 어노테이션이 붙은 SpringMemberControllerV3 클래스의 함수 반환값은 String (View이름) 이고 Model객체가 인자로 들어와서 내부에서 model 값을 설정해줍니다. 어디서 제가 놓친부분이 있는건지 잘 모르겠습니다... doDispatch()함수가 있는 부분은 강의 pdf의 110 페이지에 해당하는 부분입니다 답변 미리 정말 감사합니다
-
해결됨[리뉴얼] React로 NodeBird SNS 만들기
실무에서도 styled component를 해당 컴포넌트에 다 작성하나요?
antd같은 ui 컴포넌트를 사용안하면 한 컴포넌트 안에서 styled component가 차지하는 코드량이 상당히 많을 것 같은데 실무에서도 styled component의 코드길이에 상관없이 해당 컴포넌트에 다 적는지 아니면 따로 폴더에 분리해서 import하는지 궁금합니다.
-
미해결스프링 MVC 1편 - 백엔드 웹 개발 핵심 기술
model 의 전달방식? 에 관해 질문이 있습니다!!
학습하는 분들께 도움이 되고, 더 좋은 답변을 드릴 수 있도록 질문전에 다음을 꼭 확인해주세요.1. 강의 내용과 관련된 질문을 남겨주세요.2. 인프런의 질문 게시판과 자주 하는 질문(링크)을 먼저 확인해주세요.(자주 하는 질문 링크: https://bit.ly/3fX6ygx)3. 질문 잘하기 메뉴얼(링크)을 먼저 읽어주세요.(질문 잘하기 메뉴얼 링크: https://bit.ly/2UfeqCG)질문 시에는 위 내용은 삭제하고 다음 내용을 남겨주세요.=========================================[질문 템플릿]1. 강의 내용과 관련된 질문인가요? (예/아니오)2. 인프런의 질문 게시판과 자주 하는 질문에 없는 내용인가요? (예/아니오)3. 질문 잘하기 메뉴얼을 읽어보셨나요? (예/아니오)[질문 내용]여기에 질문 내용을 남겨주세요. 안녕하세요! 코드는 springmvc/V3/SpringMemberControllerV3 부분입니다. controller 어노테이션이 달린 class 내에서 save() 나 members()를 사용하는 부분에서 Model을 사용하는데 이 함수들의 리턴값이 String 형식으로 뷰의 논리적인 이름만 전달되고 model은 넘겨주지 않는 점이 궁금해서 여쭤봅니다 저 Model이라는 객체는 dispatcherServlet 단계?에서 넘겨주는 것인지 궁금합니다 (강의서 말씀하셨던 내용이였따면 정말 죄송합니다 ㅠㅠㅠ) 코드 첨부입니다 @Controller@RequestMapping("springmvc/v3/members")public class SpringMemberControllerV3 { private MemberRepository memberRepository=MemberRepository.getInstance(); //@RequestMapping(value = "/new-form",method = RequestMethod.GET) @GetMapping("/new-form") public String newForm(){ return "new-form"; } //@RequestMapping(method=RequestMethod.GET) @GetMapping public String members(Model model) { List<Member> members=memberRepository.findAll(); model.addAttribute("members",members); return "members"; } //@RequestMapping(value = "/save",method = RequestMethod.POST) @PostMapping("/save") public String save(@RequestParam("username") String username, @RequestParam("age") int age, Model model) { Member member=new Member(username,age); memberRepository.save(member); model.addAttribute("member",member); return "save-result"; }}
-
미해결프레이머를 활용하여 쉽고 간단하게 프로토타입 제작하기
로티 애니메이션에 대해
커뮤니티 패키지 부분을 듣고 있는데, 커뮤니티 패키지가 없어지면서 강의 속에 구현하신 라인 애니메이션을 로티로 대체하라고 하셨잖아요? 그럼 에펙 등에서 애니메이션 작업 후 > 로티로 json을 추출한 후 > 프레이머에서 json파일을 업로드 하는 식으로 활용을 해야하는 부분인가요? 같은 효과를 구현할 수 있다고 해주셔서 이것저것 눌러보았는데, 영상처럼 라인애니메이션을 프레이머 내에서 구현하기엔 어려워 보여서 질문드립니다..
-
미해결Do It! 장고+부트스트랩: 파이썬 웹개발의 정석
어... 도커파일과 도커컴포즈 파일만들기 강의가 영상이 재생이 안됩니다.
안녕하세요. 해당 강의가 동영상을 준비중에 있습니다. 로 1분33초 동안 진행되고 다음강의 알림이 뜹니다. 어... 혹시 이 동영상은 이제 못보는 건가요? 도커 시작하는 단계인데요 ㅠㅠ
-
미해결홍정모의 따라하며 배우는 C++
실행이 됬는데 잘됬건지 모르겠네요
너무 짧게 짜진것 같은데 잘 짠건지 모르겠네요ㅠ 일단 실행은 잘됩니다.
-
미해결아마존 클라우드 무료계정으로 시작하는 서버리스 애플리케이션 프로젝트
Macbook Pro에서 502 에러
안녕하세요. Macbook Pro M1을 사용하고 있습니다. sam hello 프로젝트를 받아서 local start-api로 테스트를 하면 계속 502 bad gateway 에러가 떨어지고 "Internal server error"가 떨어집니다. docker는 정상적으로 구동중인데 원인을 뭘까요.. M1 Macbook에서는 구동이 안되는건가요 ?