묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨두고두고 써먹는 유니티 VR
HTC Vive도 가능한건가요?
Project Settings에서 XR Plug-in Management의 Plug-in Providers에 Oculus를 체크하라고 하셨는데요. 그럼 Oculus에서만 작동하는건가요? 제가 HTC Vive를 개인적으로 소유하고 있지는 않은데 윈도우로 빌드해서 HTC Vive에서도 구동됐으면 좋겠어요. 이 경우에도 Oculus만 체크해도 되는건가요?
-
해결됨스프링 부트 개념과 활용
test와 runner account.setEmail에 동일한 값 입력
runner클래스 안의 account email과 Test 클래스 안의 account email을 같은 값으로 입력하고 테스트를 실행하면 유니크 에러가 뜨는데 이유가 궁금합니다. 서로 다른값을 입력하고 테스트를 실행하면 에러는 뜨지 않습니다.
-
미해결15일간의 빅데이터 파일럿 프로젝트
스쿱 에러....
안녕하세요 스쿱에서 자꾸 에러가 발생하여 문의드립니다. 전 과정까지는 문제없이 진행하였으나, sqoop export --connect jdbc:postgresql://127.0.0.1:7432/postgres --username cloudera-scm --password acjZt03D1Q --table smartcar_symptom_info --export-dir /user/hive/warehouse/managed_smartcar_symptom_info 위 명령어를 진행하는데 계속 exception이 발생합니다... 원인도 불분명하여 일단 질문 남깁니다... sqoop export --connect jdbc:postgresql://127.0.0.1:7432/postgres --username cloudera-scm --password vsqBur5ygT --table smartcar_symptom_info --export-dir /user/ hive/warehouse/managed_smartcar_symptom_info Warning: /opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/bin/../lib/sqoop/../accumulo does not exist! Accumulo imports will fail. Please set $ACCUMULO_HOME to the root of your Accumulo installation. SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/jars/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/jars/log4j-slf4j-impl-2.8.2.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory] 22/04/14 21:11:43 INFO sqoop.Sqoop: Running Sqoop version: 1.4.7-cdh6.3.2 22/04/14 21:11:43 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider using -P instead. 22/04/14 21:11:43 INFO manager.SqlManager: Using default fetchSize of 1000 22/04/14 21:11:43 INFO tool.CodeGenTool: Beginning code generation 22/04/14 21:11:44 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM "smartcar_symptom_info" AS t LIMIT 1 22/04/14 21:11:44 INFO orm.CompilationManager: HADOOP_MAPRED_HOME is /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce 22/04/14 21:11:49 ERROR orm.CompilationManager: Could not rename /tmp/sqoop-root/compile/6f489f0c3f57d16ddd9b99ee38d3c452/smartcar_symptom_info.java to /root/./smartcar_symptom_in fo.java. Error: Destination '/root/./smartcar_symptom_info.java' already exists 22/04/14 21:11:49 INFO orm.CompilationManager: Writing jar file: /tmp/sqoop-root/compile/6f489f0c3f57d16ddd9b99ee38d3c452/smartcar_symptom_info.jar 22/04/14 21:11:50 INFO mapreduce.ExportJobBase: Beginning export of smartcar_symptom_info 22/04/14 21:11:50 INFO Configuration.deprecation: mapred.jar is deprecated. Instead, use mapreduce.job.jar 22/04/14 21:11:52 WARN mapreduce.ExportJobBase: IOException checking input file header: java.io.EOFException 22/04/14 21:11:52 INFO Configuration.deprecation: mapred.reduce.tasks.speculative.execution is deprecated. Instead, use mapreduce.reduce.speculative 22/04/14 21:11:52 INFO Configuration.deprecation: mapred.map.tasks.speculative.execution is deprecated. Instead, use mapreduce.map.speculative 22/04/14 21:11:52 INFO Configuration.deprecation: mapred.map.tasks is deprecated. Instead, use mapreduce.job.maps 22/04/14 21:11:52 INFO client.RMProxy: Connecting to ResourceManager at server01.hadoop.com/192.168.56.101:8032 22/04/14 21:11:53 INFO mapreduce.JobResourceUploader: Disabling Erasure Coding for path: /user/root/.staging/job_1649933706082_0003 22/04/14 21:11:54 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:54 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:54 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:54 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:55 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:55 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:55 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:55 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:55 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:56 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:57 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:57 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:58 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:58 WARN hdfs.DataStreamer: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1252) at java.lang.Thread.join(Thread.java:1326) at org.apache.hadoop.hdfs.DataStreamer.closeResponder(DataStreamer.java:986) at org.apache.hadoop.hdfs.DataStreamer.endBlock(DataStreamer.java:640) at org.apache.hadoop.hdfs.DataStreamer.run(DataStreamer.java:810) 22/04/14 21:11:58 INFO input.FileInputFormat: Total input files to process : 2 22/04/14 21:11:58 INFO input.FileInputFormat: Total input files to process : 2 22/04/14 21:11:58 INFO mapreduce.JobSubmitter: number of splits:5 22/04/14 21:11:58 INFO Configuration.deprecation: mapred.map.tasks.speculative.execution is deprecated. Instead, use mapreduce.map.speculative 22/04/14 21:11:58 INFO Configuration.deprecation: yarn.resourcemanager.system-metrics-publisher.enabled is deprecated. Instead, use yarn.system-metrics-publisher.enabled 22/04/14 21:11:58 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1649933706082_0003 22/04/14 21:11:58 INFO mapreduce.JobSubmitter: Executing with tokens: [] 22/04/14 21:11:59 INFO conf.Configuration: resource-types.xml not found 22/04/14 21:11:59 INFO resource.ResourceUtils: Unable to find 'resource-types.xml'. 22/04/14 21:11:59 INFO impl.YarnClientImpl: Submitted application application_1649933706082_0003 22/04/14 21:11:59 INFO mapreduce.Job: The url to track the job: http://server01.hadoop.com:8088/proxy/application_1649933706082_0003/ 22/04/14 21:11:59 INFO mapreduce.Job: Running job: job_1649933706082_0003 22/04/14 21:12:10 INFO mapreduce.Job: Job job_1649933706082_0003 running in uber mode : false 22/04/14 21:12:10 INFO mapreduce.Job: map 0% reduce 0% 22/04/14 21:12:31 INFO mapreduce.Job: map 100% reduce 0% 22/04/14 21:12:32 INFO mapreduce.Job: Job job_1649933706082_0003 failed with state FAILED due to: Task failed task_1649933706082_0003_m_000000 Job failed as tasks failed. failedMaps:1 failedReduces:0 killedMaps:0 killedReduces: 0 22/04/14 21:12:32 INFO mapreduce.Job: Counters: 12 Job Counters Failed map tasks=2 Killed map tasks=3 Launched map tasks=4 Data-local map tasks=4 Total time spent by all maps in occupied slots (ms)=74538 Total time spent by all reduces in occupied slots (ms)=0 Total time spent by all map tasks (ms)=74538 Total vcore-milliseconds taken by all map tasks=74538 Total megabyte-milliseconds taken by all map tasks=76326912 Map-Reduce Framework CPU time spent (ms)=0 Physical memory (bytes) snapshot=0 Virtual memory (bytes) snapshot=0 22/04/14 21:12:32 WARN mapreduce.Counters: Group FileSystemCounters is deprecated. Use org.apache.hadoop.mapreduce.FileSystemCounter instead 22/04/14 21:12:32 INFO mapreduce.ExportJobBase: Transferred 0 bytes in 40.4452 seconds (0 bytes/sec) 22/04/14 21:12:32 INFO mapreduce.ExportJobBase: Exported 0 records. 22/04/14 21:12:32 ERROR mapreduce.ExportJobBase: Export job failed! 22/04/14 21:12:32 ERROR tool.ExportTool: Error during export: Export job failed! at org.apache.sqoop.mapreduce.ExportJobBase.runExport(ExportJobBase.java:444) at org.apache.sqoop.manager.SqlManager.exportTable(SqlManager.java:930) at org.apache.sqoop.tool.ExportTool.exportTable(ExportTool.java:93) at org.apache.sqoop.tool.ExportTool.run(ExportTool.java:112) at org.apache.sqoop.Sqoop.run(Sqoop.java:146) at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:76) at org.apache.sqoop.Sqoop.runSqoop(Sqoop.java:182) at org.apache.sqoop.Sqoop.runTool(Sqoop.java:233) at org.apache.sqoop.Sqoop.runTool(Sqoop.java:242) at org.apache.sqoop.Sqoop.main(Sqoop.java:251)
-
해결됨데이터 리터러시 - 데이터 읽고 쓰기의 기술
dls506강의 끝이 짤린거 같아요.
데이터리터러시의 dls506강의가 더 내용이 있을거 같은데, 말 하다가 "제가"에서 끝나네요.
-
미해결스프링 기반 REST API 개발
new Link() 메서드 오류 나시는 분들 주목!
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 1.1 버전부터 deprecated 되었다고 합니다. 다음과 같이 Link.of() 사용하시면 됩니다! eventResource.add(Link.of("/docs/index.html#resource-events-create").withRel("profile"));
-
미해결스프링 MVC 1편 - 백엔드 웹 개발 핵심 기술
ModelAndView객체와 view 따로 model 따로 처리하는 부분이 이해가 잘 안갑니다 ㅠㅠ
학습하는 분들께 도움이 되고, 더 좋은 답변을 드릴 수 있도록 질문전에 다음을 꼭 확인해주세요.1. 강의 내용과 관련된 질문을 남겨주세요.2. 인프런의 질문 게시판과 자주 하는 질문(링크)을 먼저 확인해주세요.(자주 하는 질문 링크: https://bit.ly/3fX6ygx)3. 질문 잘하기 메뉴얼(링크)을 먼저 읽어주세요.(질문 잘하기 메뉴얼 링크: https://bit.ly/2UfeqCG)질문 시에는 위 내용은 삭제하고 다음 내용을 남겨주세요.=========================================[질문 템플릿]1. 강의 내용과 관련된 질문인가요? (예/아니오)2. 인프런의 질문 게시판과 자주 하는 질문에 없는 내용인가요? (예/아니오)3. 질문 잘하기 메뉴얼을 읽어보셨나요? (예/아니오)[질문 내용]여기에 질문 내용을 남겨주세요. 1. @Controller 어노테이션이 붙은 class 가 위 사진의 핸들러에 해당하는 것인지 궁금합니다 2.dispatcherServlet.doDispatch() 에서는 handle()함수의 반환 값으로 ModelAndView를 사용하는데 @Controller 어노테이션이 붙은 SpringMemberControllerV3 클래스의 함수 반환값은 String (View이름) 이고 Model객체가 인자로 들어와서 내부에서 model 값을 설정해줍니다. 어디서 제가 놓친부분이 있는건지 잘 모르겠습니다... doDispatch()함수가 있는 부분은 강의 pdf의 110 페이지에 해당하는 부분입니다 답변 미리 정말 감사합니다
-
해결됨[리뉴얼] React로 NodeBird SNS 만들기
실무에서도 styled component를 해당 컴포넌트에 다 작성하나요?
antd같은 ui 컴포넌트를 사용안하면 한 컴포넌트 안에서 styled component가 차지하는 코드량이 상당히 많을 것 같은데 실무에서도 styled component의 코드길이에 상관없이 해당 컴포넌트에 다 적는지 아니면 따로 폴더에 분리해서 import하는지 궁금합니다.
-
미해결스프링 MVC 1편 - 백엔드 웹 개발 핵심 기술
model 의 전달방식? 에 관해 질문이 있습니다!!
학습하는 분들께 도움이 되고, 더 좋은 답변을 드릴 수 있도록 질문전에 다음을 꼭 확인해주세요.1. 강의 내용과 관련된 질문을 남겨주세요.2. 인프런의 질문 게시판과 자주 하는 질문(링크)을 먼저 확인해주세요.(자주 하는 질문 링크: https://bit.ly/3fX6ygx)3. 질문 잘하기 메뉴얼(링크)을 먼저 읽어주세요.(질문 잘하기 메뉴얼 링크: https://bit.ly/2UfeqCG)질문 시에는 위 내용은 삭제하고 다음 내용을 남겨주세요.=========================================[질문 템플릿]1. 강의 내용과 관련된 질문인가요? (예/아니오)2. 인프런의 질문 게시판과 자주 하는 질문에 없는 내용인가요? (예/아니오)3. 질문 잘하기 메뉴얼을 읽어보셨나요? (예/아니오)[질문 내용]여기에 질문 내용을 남겨주세요. 안녕하세요! 코드는 springmvc/V3/SpringMemberControllerV3 부분입니다. controller 어노테이션이 달린 class 내에서 save() 나 members()를 사용하는 부분에서 Model을 사용하는데 이 함수들의 리턴값이 String 형식으로 뷰의 논리적인 이름만 전달되고 model은 넘겨주지 않는 점이 궁금해서 여쭤봅니다 저 Model이라는 객체는 dispatcherServlet 단계?에서 넘겨주는 것인지 궁금합니다 (강의서 말씀하셨던 내용이였따면 정말 죄송합니다 ㅠㅠㅠ) 코드 첨부입니다 @Controller@RequestMapping("springmvc/v3/members")public class SpringMemberControllerV3 { private MemberRepository memberRepository=MemberRepository.getInstance(); //@RequestMapping(value = "/new-form",method = RequestMethod.GET) @GetMapping("/new-form") public String newForm(){ return "new-form"; } //@RequestMapping(method=RequestMethod.GET) @GetMapping public String members(Model model) { List<Member> members=memberRepository.findAll(); model.addAttribute("members",members); return "members"; } //@RequestMapping(value = "/save",method = RequestMethod.POST) @PostMapping("/save") public String save(@RequestParam("username") String username, @RequestParam("age") int age, Model model) { Member member=new Member(username,age); memberRepository.save(member); model.addAttribute("member",member); return "save-result"; }}
-
미해결프레이머를 활용하여 쉽고 간단하게 프로토타입 제작하기
로티 애니메이션에 대해
커뮤니티 패키지 부분을 듣고 있는데, 커뮤니티 패키지가 없어지면서 강의 속에 구현하신 라인 애니메이션을 로티로 대체하라고 하셨잖아요? 그럼 에펙 등에서 애니메이션 작업 후 > 로티로 json을 추출한 후 > 프레이머에서 json파일을 업로드 하는 식으로 활용을 해야하는 부분인가요? 같은 효과를 구현할 수 있다고 해주셔서 이것저것 눌러보았는데, 영상처럼 라인애니메이션을 프레이머 내에서 구현하기엔 어려워 보여서 질문드립니다..
-
미해결Do It! 장고+부트스트랩: 파이썬 웹개발의 정석
어... 도커파일과 도커컴포즈 파일만들기 강의가 영상이 재생이 안됩니다.
안녕하세요. 해당 강의가 동영상을 준비중에 있습니다. 로 1분33초 동안 진행되고 다음강의 알림이 뜹니다. 어... 혹시 이 동영상은 이제 못보는 건가요? 도커 시작하는 단계인데요 ㅠㅠ
-
미해결홍정모의 따라하며 배우는 C++
실행이 됬는데 잘됬건지 모르겠네요
너무 짧게 짜진것 같은데 잘 짠건지 모르겠네요ㅠ 일단 실행은 잘됩니다.
-
미해결아마존 클라우드 무료계정으로 시작하는 서버리스 애플리케이션 프로젝트
Macbook Pro에서 502 에러
안녕하세요. Macbook Pro M1을 사용하고 있습니다. sam hello 프로젝트를 받아서 local start-api로 테스트를 하면 계속 502 bad gateway 에러가 떨어지고 "Internal server error"가 떨어집니다. docker는 정상적으로 구동중인데 원인을 뭘까요.. M1 Macbook에서는 구동이 안되는건가요 ?
-
미해결따라하며 배우는 노드, 리액트 시리즈 - 쇼핑몰 사이트 만들기[전체 리뉴얼]
사진을 Dropzone에 올려도 배열에 추가되지 않습니다
formData.append가 실행이 안 되는 것 같습니다 상품 업로드 버튼을 누르면 자꾸 모든 항목을 채워야 한다는 alert가 나와서 console.log로 일일이 확인해 보니 사진을 올려도 Images가 비어 있더군요 FileUpload.js의 dropHandler 부분에서 formData.append 후 console.log로 formData를 출력해 보았는데 아무것도 없다고 나옵니다 ㅠㅠ
-
해결됨실전! 스프링 부트와 JPA 활용1 - 웹 애플리케이션 개발
itemService.saveItem(book) 질문 드립니다!
학습하는 분들께 도움이 되고, 더 좋은 답변을 드릴 수 있도록 질문전에 다음을 꼭 확인해주세요.1. 강의 내용과 관련된 질문을 남겨주세요.2. 인프런의 질문 게시판과 자주 하는 질문(링크)을 먼저 확인해주세요.(자주 하는 질문 링크: https://bit.ly/3fX6ygx)3. 질문 잘하기 메뉴얼(링크)을 먼저 읽어주세요.(질문 잘하기 메뉴얼 링크: https://bit.ly/2UfeqCG)질문 시에는 위 내용은 삭제하고 다음 내용을 남겨주세요.=========================================[질문 템플릿]1. 강의 내용과 관련된 질문인가요? (예/아니오)2. 인프런의 질문 게시판과 자주 하는 질문에 없는 내용인가요? (예/아니오)3. 질문 잘하기 메뉴얼을 읽어보셨나요? (예/아니오)[질문 내용] 안녕하세요 강사님! 다름이 아니고 Book book = new Book(); book.setName(form.getName()); book.setPrice(form.getPrice()); book.setAuthor(form.getAuthor()); book.setIsbn(form.getIsbn()); book.setStockQuantity(form.getStockQuantity()); itemService.saveItem(book); itemService.saveItem(book) 호출을 했는데 Insert 시 어떻게 Book 객체의 멤버를 읽어서 사용하는지 아니면 애초에 1차캐시에 해당 참조값만 관리되어서 업캐스팅과 관계없이 내부에 있는 멤버에 접근이 가능한건지 궁금해서 질문드립니다!
-
해결됨시스템엔지니어가 알려주는 리눅스 기초편 Bash Shell Script
웹 리눅스 환경으로만 진행해야 하나요?
웹 리눅스 환경(JSLinux, codeonweb)으로만 진행해야 하나요? 여차저차 유튜브 영상 보면서 WSL로 우분투 설치를 한 상태인데 둘이 크게 다른지 궁금하여 물어봅니다...( 일단, WSL으로 구동한 상태로 강의 수강 진행하다가 문제가 생기면 바꿔 보겠습니다. )
-
해결됨데이터 분석 SQL Fundamentals
맥에서 backup 파일 복원 문의드립니다.
안녕하세요. backup 파일을 복원하고자 하면 Start 버튼이 활성화가 되지 않습니다. 혹시 의심가는 부분이 있으실가요? DBeaver 버전은 22.0.2 postgres는 latest 버전 14.2
-
미해결Angular, 앵귤러 100분 핵심강의
item.ts에서 정의할 떄 정의가 안됩니다.
속성 'title'은(는) 이니셜라이저가 없고 생성자에 할당되어 있지 않습니다.ts(2564) title은 영상에서 id와 name입니다.
-
미해결따라하며 배우는 노드, 리액트 시리즈 - 유튜브 사이트 만들기
배포하는법
배포하는법은 어디서 볼수있을까요!?
-
미해결홍정모의 따라하며 배우는 C언어
define 기능을 잘 모르겠어서 해봤어요
#define _CRT_SECURE_NO_WARNINGS #include <stdio.h> int main() { char c = 0; int num = 0; for (num = 1; num <= 5; ++num) { for (c = 'A'; c <= 'K'; c++) { printf("%c ", c); } printf("\n"); } return 0; } 첫번째 문제 이렇게 풀었는데 이것도 괜찮을까요?
-
미해결[C#과 유니티로 만드는 MMORPG 게임 개발 시리즈] Part6: 웹 서버
예외가 발생했네요
강의 내용 그대로 따라 했는데 에러가 생기네요.. RankingService가 등록이 되어있는데 왜이럴까요?