묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결홍정모의 따라하며 배우는 C++
vector를 struct를 사용하여 출력하려는데,,..
이러한 문제가 발생합니다 44번째 줄에서 print_vec(Fr_vec[1])로 출력하면 안되는 건가요..?
-
해결됨15일간의 빅데이터 파일럿 프로젝트
분석 실행 5단계 - 머하웃 추천 - 스마트카 차량용품 추천
머하웃 추천기의 입력 데이터로 사용하기 위해 HDFS에 경로분석 5단계 - 머하웃과 추천 - 스마트카 차량용품 추천을 실습하고 있습니다. 실습진행중에 제가 무엇을 잘못 했는지 잘 실행중이었는데 에러가 발생하기 시작했습니다. 1) “스마트카 차량용품 구매 이력”(managed_smartcar_item_buylist_info) 데이터를 머하웃 추천기에서 사용가능한 형식으로 재구성한 다음, 하이브 에디터에서 파일생성 쿼리 실행 ok. 2) 하이브에서 로컬디스크로 생성된 추천기의 입력 데이터로 사용될 파일이 정상적으로 만들어졌는지 확인 more 명령으로 확인 ok. 3) 생성한 파일을 머하웃 추천기의 입력 데이터로 사용하기 위해 HDFS에 경로 생성하고 파일 저장 ok. 4) 머하웃 추천 분석기를 실행하면....... 처음에는 잘 실행되는 듯 하다 결국 에러 메시지가 나타납니다. 명령실행후 처음 메시지부터 마지막 메시지까지 첨부하였습니다. [root@server02 pilot-pjt]# mahout recommenditembased -i /pilot-pjt/mahout/recommendation/input/item_buylist.txt -o /pilot-pjt/mahout/recommendation/output/ -s SIMILARITY_COCCURRENCE -n 3 Running on hadoop, using /usr/bin/hadoop and HADOOP_CONF_DIR= MAHOUT-JOB: /home/pilot-pjt/mahout/mahout-examples-0.13.0-job.jar WARNING: Use "yarn jar" to launch YARN applications. 21/11/21 03:30:22 INFO AbstractJob: Command line arguments: {--booleanData=[false], --endPhase=[2147483647], --input=[/pilot-pjt/mahout/recommendation/input/item_buylist.txt], --maxPrefsInItemSimilarity=[500], --maxPrefsPerUser=[10], --maxSimilaritiesPerItem=[100], --minPrefsPerUser=[1], --numRecommendations=[3], --output=[/pilot-pjt/mahout/recommendation/output/], --similarityClassname=[SIMILARITY_COCCURRENCE], --startPhase=[0], --tempDir=[temp]} 21/11/21 03:30:22 INFO AbstractJob: Command line arguments: {--booleanData=[false], --endPhase=[2147483647], --input=[/pilot-pjt/mahout/recommendation/input/item_buylist.txt], --minPrefsPerUser=[1], --output=[temp/preparePreferenceMatrix], --ratingShift=[0.0], --startPhase=[0], --tempDir=[temp]} 21/11/21 03:30:22 INFO deprecation: mapred.input.dir is deprecated. Instead, use mapreduce.input.fileinputformat.inputdir 21/11/21 03:30:22 INFO deprecation: mapred.compress.map.output is deprecated. Instead, use mapreduce.map.output.compress 21/11/21 03:30:22 INFO deprecation: mapred.output.dir is deprecated. Instead, use mapreduce.output.fileoutputformat.outputdir 21/11/21 03:30:23 INFO RMProxy: Connecting to ResourceManager at server01.hadoop.com/192.168.56.101:8032 21/11/21 03:30:28 INFO JobResourceUploader: Disabling Erasure Coding for path: /user/root/.staging/job_1637424392789_0002 21/11/21 03:30:32 INFO FileInputFormat: Total input files to process : 1 21/11/21 03:30:32 INFO JobSubmitter: number of splits:1 21/11/21 03:30:33 INFO JobSubmitter: Submitting tokens for job: job_1637424392789_0002 21/11/21 03:30:33 INFO JobSubmitter: Executing with tokens: [] 21/11/21 03:30:34 INFO Configuration: resource-types.xml not found 21/11/21 03:30:34 INFO ResourceUtils: Unable to find 'resource-types.xml'. 21/11/21 03:30:34 INFO YarnClientImpl: Submitted application application_1637424392789_0002 21/11/21 03:30:34 INFO Job: The url to track the job: http://server01.hadoop.com:8088/proxy/application_1637424392789_0002/ 21/11/21 03:30:34 INFO Job: Running job: job_1637424392789_0002 21/11/21 03:31:34 INFO Job: Job job_1637424392789_0002 running in uber mode : false 21/11/21 03:31:34 INFO Job: map 0% reduce 0% 21/11/21 03:32:18 INFO Job: map 100% reduce 0% 21/11/21 03:32:43 INFO Job: map 100% reduce 100% 21/11/21 03:32:44 INFO Job: Job job_1637424392789_0002 completed successfully 21/11/21 03:32:45 INFO Job: Counters: 54 File System Counters FILE: Number of bytes read=269 FILE: Number of bytes written=442733 FILE: Number of read operations=0 FILE: Number of large read operations=0 FILE: Number of write operations=0 HDFS: Number of bytes read=2072067 HDFS: Number of bytes written=643 HDFS: Number of read operations=8 HDFS: Number of large read operations=0 HDFS: Number of write operations=2 HDFS: Number of bytes read erasure-coded=0 Job Counters Launched map tasks=1 Launched reduce tasks=1 Data-local map tasks=1 Total time spent by all maps in occupied slots (ms)=40610 Total time spent by all reduces in occupied slots (ms)=18665 Total time spent by all map tasks (ms)=40610 Total time spent by all reduce tasks (ms)=18665 Total vcore-milliseconds taken by all map tasks=40610 Total vcore-milliseconds taken by all reduce tasks=18665 Total megabyte-milliseconds taken by all map tasks=41584640 Total megabyte-milliseconds taken by all reduce tasks=19112960 Map-Reduce Framework Map input records=94178 Map output records=94178 Map output bytes=941780 Map output materialized bytes=265 Input split bytes=151 Combine input records=94178 Combine output records=30 Reduce input groups=30 Reduce shuffle bytes=265 Reduce input records=30 Reduce output records=30 Spilled Records=60 Shuffled Maps =1 Failed Shuffles=0 Merged Map outputs=1 GC time elapsed (ms)=475 CPU time spent (ms)=2570 Physical memory (bytes) snapshot=503918592 Virtual memory (bytes) snapshot=5090603008 Total committed heap usage (bytes)=365957120 Peak Map Physical memory (bytes)=366530560 Peak Map Virtual memory (bytes)=2539433984 Peak Reduce Physical memory (bytes)=137388032 Peak Reduce Virtual memory (bytes)=2551169024 Shuffle Errors BAD_ID=0 CONNECTION=0 IO_ERROR=0 WRONG_LENGTH=0 WRONG_MAP=0 WRONG_REDUCE=0 File Input Format Counters Bytes Read=2071916 File Output Format Counters Bytes Written=643 21/11/21 03:32:45 INFO RMProxy: Connecting to ResourceManager at server01.hadoop.com/192.168.56.101:8032 21/11/21 03:32:45 INFO JobResourceUploader: Disabling Erasure Coding for path: /user/root/.staging/job_1637424392789_0003 21/11/21 03:32:47 INFO FileInputFormat: Total input files to process : 1 21/11/21 03:32:48 INFO JobSubmitter: number of splits:1 21/11/21 03:32:49 INFO JobSubmitter: Submitting tokens for job: job_1637424392789_0003 21/11/21 03:32:49 INFO JobSubmitter: Executing with tokens: [] 21/11/21 03:32:49 INFO YarnClientImpl: Submitted application application_1637424392789_0003 21/11/21 03:32:49 INFO Job: The url to track the job: http://server01.hadoop.com:8088/proxy/application_1637424392789_0003/ 21/11/21 03:32:49 INFO Job: Running job: job_1637424392789_0003 21/11/21 03:33:27 INFO Job: Job job_1637424392789_0003 running in uber mode : false 21/11/21 03:33:27 INFO Job: map 0% reduce 0% 21/11/21 03:33:51 INFO Job: map 100% reduce 0% 21/11/21 03:34:08 INFO Job: map 100% reduce 100% 21/11/21 03:34:08 INFO Job: Job job_1637424392789_0003 completed successfully 21/11/21 03:34:08 INFO Job: Counters: 55 File System Counters FILE: Number of bytes read=402933 FILE: Number of bytes written=1248777 FILE: Number of read operations=0 FILE: Number of large read operations=0 FILE: Number of write operations=0 HDFS: Number of bytes read=2072067 HDFS: Number of bytes written=522978 HDFS: Number of read operations=8 HDFS: Number of large read operations=0 HDFS: Number of write operations=2 HDFS: Number of bytes read erasure-coded=0 Job Counters Launched map tasks=1 Launched reduce tasks=1 Data-local map tasks=1 Total time spent by all maps in occupied slots (ms)=21247 Total time spent by all reduces in occupied slots (ms)=13637 Total time spent by all map tasks (ms)=21247 Total time spent by all reduce tasks (ms)=13637 Total vcore-milliseconds taken by all map tasks=21247 Total vcore-milliseconds taken by all reduce tasks=13637 Total megabyte-milliseconds taken by all map tasks=21756928 Total megabyte-milliseconds taken by all reduce tasks=13964288 Map-Reduce Framework Map input records=94178 Map output records=94178 Map output bytes=1224314 Map output materialized bytes=402929 Input split bytes=151 Combine input records=0 Combine output records=0 Reduce input groups=2449 Reduce shuffle bytes=402929 Reduce input records=94178 Reduce output records=2449 Spilled Records=188356 Shuffled Maps =1 Failed Shuffles=0 Merged Map outputs=1 GC time elapsed (ms)=298 CPU time spent (ms)=2660 Physical memory (bytes) snapshot=503132160 Virtual memory (bytes) snapshot=5092700160 Total committed heap usage (bytes)=365957120 Peak Map Physical memory (bytes)=372359168 Peak Map Virtual memory (bytes)=2539433984 Peak Reduce Physical memory (bytes)=130772992 Peak Reduce Virtual memory (bytes)=2553266176 Shuffle Errors BAD_ID=0 CONNECTION=0 IO_ERROR=0 WRONG_LENGTH=0 WRONG_MAP=0 WRONG_REDUCE=0 File Input Format Counters Bytes Read=2071916 File Output Format Counters Bytes Written=522978 org.apache.mahout.cf.taste.hadoop.item.ToUserVectorsReducer$Counters USERS=2449 21/11/21 03:34:08 INFO RMProxy: Connecting to ResourceManager at server01.hadoop.com/192.168.56.101:8032 21/11/21 03:34:08 INFO JobResourceUploader: Disabling Erasure Coding for path: /user/root/.staging/job_1637424392789_0004 21/11/21 03:34:10 INFO FileInputFormat: Total input files to process : 1 21/11/21 03:34:10 INFO JobSubmitter: number of splits:1 21/11/21 03:34:10 INFO JobSubmitter: Submitting tokens for job: job_1637424392789_0004 21/11/21 03:34:10 INFO JobSubmitter: Executing with tokens: [] 21/11/21 03:34:10 INFO YarnClientImpl: Submitted application application_1637424392789_0004 21/11/21 03:34:10 INFO Job: The url to track the job: http://server01.hadoop.com:8088/proxy/application_1637424392789_0004/ 21/11/21 03:34:10 INFO Job: Running job: job_1637424392789_0004 21/11/21 03:34:24 INFO Job: Job job_1637424392789_0004 running in uber mode : false 21/11/21 03:34:24 INFO Job: map 0% reduce 0% 21/11/21 03:34:33 INFO Job: Task Id : attempt_1637424392789_0004_m_000000_0, Status : FAILED [2021-11-21 03:34:31.664]Container killed on request. Exit code is 137 [2021-11-21 03:34:31.666]Container exited with a non-zero exit code 137. [2021-11-21 03:34:31.675]Killed by external signal 21/11/21 03:34:43 INFO Job: map 100% reduce 0% 21/11/21 03:34:56 INFO Job: map 100% reduce 100% 21/11/21 03:34:57 INFO Job: Job job_1637424392789_0004 completed successfully 21/11/21 03:34:57 INFO Job: Counters: 56 File System Counters FILE: Number of bytes read=250272 FILE: Number of bytes written=942767 FILE: Number of read operations=0 FILE: Number of large read operations=0 FILE: Number of write operations=0 HDFS: Number of bytes read=523138 HDFS: Number of bytes written=424085 HDFS: Number of read operations=9 HDFS: Number of large read operations=0 HDFS: Number of write operations=2 HDFS: Number of bytes read erasure-coded=0 Job Counters Failed map tasks=1 Launched map tasks=2 Launched reduce tasks=1 Other local map tasks=1 Data-local map tasks=1 Total time spent by all maps in occupied slots (ms)=14569 Total time spent by all reduces in occupied slots (ms)=9859 Total time spent by all map tasks (ms)=14569 Total time spent by all reduce tasks (ms)=9859 Total vcore-milliseconds taken by all map tasks=14569 Total vcore-milliseconds taken by all reduce tasks=9859 Total megabyte-milliseconds taken by all map tasks=14918656 Total megabyte-milliseconds taken by all reduce tasks=10095616 Map-Reduce Framework Map input records=2449 Map output records=52916 Map output bytes=1005404 Map output materialized bytes=250274 Input split bytes=160 Combine input records=52916 Combine output records=30 Reduce input groups=30 Reduce shuffle bytes=250274 Reduce input records=30 Reduce output records=30 Spilled Records=60 Shuffled Maps =1 Failed Shuffles=0 Merged Map outputs=1 GC time elapsed (ms)=227 CPU time spent (ms)=2000 Physical memory (bytes) snapshot=524152832 Virtual memory (bytes) snapshot=5090603008 Total committed heap usage (bytes)=365957120 Peak Map Physical memory (bytes)=385503232 Peak Map Virtual memory (bytes)=2539433984 Peak Reduce Physical memory (bytes)=138649600 Peak Reduce Virtual memory (bytes)=2551169024 Shuffle Errors BAD_ID=0 CONNECTION=0 IO_ERROR=0 WRONG_LENGTH=0 WRONG_MAP=0 WRONG_REDUCE=0 File Input Format Counters Bytes Read=522978 File Output Format Counters Bytes Written=424085 21/11/21 03:34:58 INFO AbstractJob: Command line arguments: {--endPhase=[2147483647], --excludeSelfSimilarity=[true], --input=[temp/preparePreferenceMatrix/ratingMatrix], --maxObservationsPerColumn=[500], --maxObservationsPerRow=[500], --maxSimilaritiesPerRow=[100], --numberOfColumns=[2449], --output=[temp/similarityMatrix], --randomSeed=[-9223372036854775808], --similarityClassname=[SIMILARITY_COCCURRENCE], --startPhase=[0], --tempDir=[temp], --threshold=[4.9E-324]} 21/11/21 03:34:58 INFO RMProxy: Connecting to ResourceManager at server01.hadoop.com/192.168.56.101:8032 21/11/21 03:34:58 INFO JobResourceUploader: Disabling Erasure Coding for path: /user/root/.staging/job_1637424392789_0005 21/11/21 03:35:00 INFO FileInputFormat: Total input files to process : 1 21/11/21 03:35:00 INFO JobSubmitter: number of splits:1 21/11/21 03:35:00 INFO JobSubmitter: Submitting tokens for job: job_1637424392789_0005 21/11/21 03:35:00 INFO JobSubmitter: Executing with tokens: [] 21/11/21 03:35:00 INFO YarnClientImpl: Submitted application application_1637424392789_0005 21/11/21 03:35:00 INFO Job: The url to track the job: http://server01.hadoop.com:8088/proxy/application_1637424392789_0005/ 21/11/21 03:35:00 INFO Job: Running job: job_1637424392789_0005 21/11/21 03:35:19 INFO Job: Job job_1637424392789_0005 running in uber mode : false 21/11/21 03:35:19 INFO Job: map 0% reduce 0% 21/11/21 03:35:32 INFO Job: map 100% reduce 0% 21/11/21 03:35:41 INFO Job: map 100% reduce 100% 21/11/21 03:35:42 INFO Job: Job job_1637424392789_0005 completed successfully 21/11/21 03:35:42 INFO Job: Counters: 54 File System Counters FILE: Number of bytes read=14503 FILE: Number of bytes written=471767 FILE: Number of read operations=0 FILE: Number of large read operations=0 FILE: Number of write operations=0 HDFS: Number of bytes read=424246 HDFS: Number of bytes written=29494 HDFS: Number of read operations=9 HDFS: Number of large read operations=0 HDFS: Number of write operations=3 HDFS: Number of bytes read erasure-coded=0 Job Counters Launched map tasks=1 Launched reduce tasks=1 Data-local map tasks=1 Total time spent by all maps in occupied slots (ms)=9709 Total time spent by all reduces in occupied slots (ms)=6592 Total time spent by all map tasks (ms)=9709 Total time spent by all reduce tasks (ms)=6592 Total vcore-milliseconds taken by all map tasks=9709 Total vcore-milliseconds taken by all reduce tasks=6592 Total megabyte-milliseconds taken by all map tasks=9942016 Total megabyte-milliseconds taken by all reduce tasks=6750208 Map-Reduce Framework Map input records=30 Map output records=1 Map output bytes=29396 Map output materialized bytes=14499 Input split bytes=161 Combine input records=1 Combine output records=1 Reduce input groups=1 Reduce shuffle bytes=14499 Reduce input records=1 Reduce output records=0 Spilled Records=2 Shuffled Maps =1 Failed Shuffles=0 Merged Map outputs=1 GC time elapsed (ms)=276 CPU time spent (ms)=1520 Physical memory (bytes) snapshot=537358336 Virtual memory (bytes) snapshot=5092700160 Total committed heap usage (bytes)=365957120 Peak Map Physical memory (bytes)=398348288 Peak Map Virtual memory (bytes)=2539433984 Peak Reduce Physical memory (bytes)=139010048 Peak Reduce Virtual memory (bytes)=2553266176 Shuffle Errors BAD_ID=0 CONNECTION=0 IO_ERROR=0 WRONG_LENGTH=0 WRONG_MAP=0 WRONG_REDUCE=0 File Input Format Counters Bytes Read=424085 File Output Format Counters Bytes Written=98 21/11/21 03:35:42 INFO RMProxy: Connecting to ResourceManager at server01.hadoop.com/192.168.56.101:8032 21/11/21 03:35:42 INFO JobResourceUploader: Disabling Erasure Coding for path: /user/root/.staging/job_1637424392789_0006 21/11/21 03:35:43 INFO FileInputFormat: Total input files to process : 1 21/11/21 03:35:43 INFO JobSubmitter: number of splits:1 21/11/21 03:35:43 INFO JobSubmitter: Submitting tokens for job: job_1637424392789_0006 21/11/21 03:35:43 INFO JobSubmitter: Executing with tokens: [] 21/11/21 03:35:43 INFO YarnClientImpl: Submitted application application_1637424392789_0006 21/11/21 03:35:43 INFO Job: The url to track the job: http://server01.hadoop.com:8088/proxy/application_1637424392789_0006/ 21/11/21 03:35:43 INFO Job: Running job: job_1637424392789_0006 21/11/21 03:35:56 INFO Job: Job job_1637424392789_0006 running in uber mode : false 21/11/21 03:35:56 INFO Job: map 0% reduce 0% 21/11/21 03:36:10 INFO Job: Task Id : attempt_1637424392789_0006_m_000000_0, Status : FAILED Error: java.lang.IllegalStateException: java.lang.ClassNotFoundException: SIMILARITY_COCCURRENCE at org.apache.mahout.common.ClassUtils.instantiateAs(ClassUtils.java:30) at org.apache.mahout.math.hadoop.similarity.cooccurrence.RowSimilarityJob$VectorNormMapper.setup(RowSimilarityJob.java:270) at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:143) at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:799) at org.apache.hadoop.mapred.MapTask.run(MapTask.java:347) at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:174) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:422) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1875) at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:168) Caused by: java.lang.ClassNotFoundException: SIMILARITY_COCCURRENCE at java.net.URLClassLoader.findClass(URLClassLoader.java:381) at java.lang.ClassLoader.loadClass(ClassLoader.java:424) at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:349) at java.lang.ClassLoader.loadClass(ClassLoader.java:357) at java.lang.Class.forName0(Native Method) at java.lang.Class.forName(Class.java:264) at org.apache.mahout.common.ClassUtils.instantiateAs(ClassUtils.java:28) ... 9 more 21/11/21 03:36:17 INFO Job: Task Id : attempt_1637424392789_0006_m_000000_1, Status : FAILED Error: java.lang.IllegalStateException: java.lang.ClassNotFoundException: SIMILARITY_COCCURRENCE at org.apache.mahout.common.ClassUtils.instantiateAs(ClassUtils.java:30) at org.apache.mahout.math.hadoop.similarity.cooccurrence.RowSimilarityJob$VectorNormMapper.setup(RowSimilarityJob.java:270) at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:143) at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:799) at org.apache.hadoop.mapred.MapTask.run(MapTask.java:347) at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:174) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:422) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1875) at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:168) Caused by: java.lang.ClassNotFoundException: SIMILARITY_COCCURRENCE at java.net.URLClassLoader.findClass(URLClassLoader.java:381) at java.lang.ClassLoader.loadClass(ClassLoader.java:424) at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:349) at java.lang.ClassLoader.loadClass(ClassLoader.java:357) at java.lang.Class.forName0(Native Method) at java.lang.Class.forName(Class.java:264) at org.apache.mahout.common.ClassUtils.instantiateAs(ClassUtils.java:28) ... 9 more 21/11/21 03:36:24 INFO Job: Task Id : attempt_1637424392789_0006_m_000000_2, Status : FAILED Error: java.lang.IllegalStateException: java.lang.ClassNotFoundException: SIMILARITY_COCCURRENCE at org.apache.mahout.common.ClassUtils.instantiateAs(ClassUtils.java:30) at org.apache.mahout.math.hadoop.similarity.cooccurrence.RowSimilarityJob$VectorNormMapper.setup(RowSimilarityJob.java:270) at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:143) at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:799) at org.apache.hadoop.mapred.MapTask.run(MapTask.java:347) at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:174) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:422) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1875) at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:168) Caused by: java.lang.ClassNotFoundException: SIMILARITY_COCCURRENCE at java.net.URLClassLoader.findClass(URLClassLoader.java:381) at java.lang.ClassLoader.loadClass(ClassLoader.java:424) at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:349) at java.lang.ClassLoader.loadClass(ClassLoader.java:357) at java.lang.Class.forName0(Native Method) at java.lang.Class.forName(Class.java:264) at org.apache.mahout.common.ClassUtils.instantiateAs(ClassUtils.java:28) ... 9 more 21/11/21 03:36:31 INFO Job: map 100% reduce 100% 21/11/21 03:36:32 INFO Job: Job job_1637424392789_0006 failed with state FAILED due to: Task failed task_1637424392789_0006_m_000000 Job failed as tasks failed. failedMaps:1 failedReduces:0 killedMaps:0 killedReduces: 0 21/11/21 03:36:33 INFO Job: Counters: 10 Job Counters Failed map tasks=4 Killed reduce tasks=1 Launched map tasks=4 Other local map tasks=3 Data-local map tasks=1 Total time spent by all maps in occupied slots (ms)=27630 Total time spent by all reduces in occupied slots (ms)=0 Total time spent by all map tasks (ms)=27630 Total vcore-milliseconds taken by all map tasks=27630 Total megabyte-milliseconds taken by all map tasks=28293120 21/11/21 03:36:33 INFO RMProxy: Connecting to ResourceManager at server01.hadoop.com/192.168.56.101:8032 21/11/21 03:36:33 INFO JobResourceUploader: Disabling Erasure Coding for path: /user/root/.staging/job_1637424392789_0007 21/11/21 03:36:34 INFO FileInputFormat: Total input files to process : 1 21/11/21 03:36:34 INFO JobSubmitter: Cleaning up the staging area /user/root/.staging/job_1637424392789_0007 Exception in thread "main" org.apache.hadoop.mapreduce.lib.input.InvalidInputException: Input path does not exist: hdfs://server01.hadoop.com:8020/user/root/temp/similarityMatrix at org.apache.hadoop.mapreduce.lib.input.FileInputFormat.singleThreadedListStatus(FileInputFormat.java:330) at org.apache.hadoop.mapreduce.lib.input.FileInputFormat.listStatus(FileInputFormat.java:272) at org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFormat.listStatus(SequenceFileInputFormat.java:59) at org.apache.hadoop.mapreduce.lib.input.FileInputFormat.getSplits(FileInputFormat.java:394) at org.apache.hadoop.mapreduce.lib.input.DelegatingInputFormat.getSplits(DelegatingInputFormat.java:115) at org.apache.hadoop.mapreduce.JobSubmitter.writeNewSplits(JobSubmitter.java:310) at org.apache.hadoop.mapreduce.JobSubmitter.writeSplits(JobSubmitter.java:327) at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:200) at org.apache.hadoop.mapreduce.Job$11.run(Job.java:1570) at org.apache.hadoop.mapreduce.Job$11.run(Job.java:1567) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:422) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1875) at org.apache.hadoop.mapreduce.Job.submit(Job.java:1567) at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1588) at org.apache.mahout.cf.taste.hadoop.item.RecommenderJob.run(RecommenderJob.java:249) at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:76) at org.apache.mahout.cf.taste.hadoop.item.RecommenderJob.main(RecommenderJob.java:335) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.hadoop.util.ProgramDriver$ProgramDescription.invoke(ProgramDriver.java:71) at org.apache.hadoop.util.ProgramDriver.run(ProgramDriver.java:144) at org.apache.hadoop.util.ProgramDriver.driver(ProgramDriver.java:152) at org.apache.mahout.driver.MahoutDriver.main(MahoutDriver.java:195) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.hadoop.util.RunJar.run(RunJar.java:313) at org.apache.hadoop.util.RunJar.main(RunJar.java:227) [root@server02 pilot-pjt]#
-
미해결
Routify 는 어떨가요?
안녕하세요? 우연히 한 댓글에서 강사님께서 Harris 가 routify 를 추천했다는 댓글을 봤는데 실제로 어떨가요? sveltekit 이나 sapper 보다 더 나은가요? 비전이 있을가요?
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
Keras train test split
강사님, 항상 좋은 강의 감사합니다. Keras에서는 train test split을 안하고 모든 데이터를 학습시켜도 되나요? 코드에서 train데이터와 test데이터를 나누는 코드가 없는 것 같아서 여쭤봅니다.
-
미해결[C#과 유니티로 만드는 MMORPG 게임 개발 시리즈] Part7: MMO 컨텐츠 구현 (Unity + C# 서버 연동 기초)
.dll에 관해서
따라하는 위주의 수업을 하다가 파일을 받아서 덮어쓰려고하니 어려운점이 많았습니다 그중에서도 .dll 라이브러리쪽을 찾는게 어려웠는데요 코딩하는 부분은 강사님 코드부분을 보면서 따라하면서 했는데 라이브러리쪽은 스스로 찾아보아도 안보이고, 너겟쪽에서 다운받아 넣어보았는데도 버전때문인지 에러가나서 결국 강사님 파일안에 있던것을 옮겨서 실행이 됐습니다 유니티에서 에러코드가 발생하니 해결을 못하겠더군요 아래와 같은 에러가 나는데 혹시 이런 라이브러리를 찾는 사이트가 있나요? 구글에 검색을해도 잘 보이지도 않고 영어가 약해서 그런지 이렇게 막히니까 그냥 어지럽네요 Assembly 'Library/ScriptAssemblies/Assembly-CSharp.dll' will not be loaded due to errors: Reference has errors 'Google.Protobuf'. ------------------------------ Assembly 'Library/ScriptAssemblies/Assembly-CSharp-Editor.dll' will not be loaded due to errors: Reference has errors 'Assembly-CSharp'. ------------------------------- Assembly 'Assets/Libs/System.Memory.dll' will not be loaded due to errors: Unable to resolve reference 'System.Runtime.CompilerServices.Unsafe'. Is the assembly missing or incompatible with the current platform? Reference validation can be disabled in the Plugin Inspector. Unable to resolve reference 'System.Buffers'. Is the assembly missing or incompatible with the current platform? Reference validation can be disabled in the Plugin Inspector.
-
미해결파이썬(Python)으로 데이터 기반 주식 퀀트 투자하기 Part2
선생님 Part1-VAA 38:40 에서 포트폴리오 CAGR, Sharp R 이 잘못된 이유 발견
선생님 8.2. 동적자산배분 Part1-VAA 38:40 에서 왜 Shar R, CAGR이 잘못되셨냐고 했는데 데이터 문제입니다. fdr.datareader 혹은 investpy, pdr.datareader 등으로 야후파이낸스 데이터 가져오면 주가데이터가 가격이 안맞아요!!
-
미해결[C++과 언리얼로 만드는 MMORPG 게임 개발 시리즈] Part1: C++ 프로그래밍 입문
24분경 if else문질문입니다.
그 땡겨진 자리 체크를 하는 이유가 데이터가 3 3이렇게 연속으로 있을경우 삭제된 3자리에 다시 3이들어가게 되는데 바로 ++it를하면 땡겨저 들어온3이 있음에도 불구하고 ++연산으로 다음으로 넘어가버리기 때문에 필요한 건가요?
-
미해결데이터 자동화(with VBA)
강의 중 자료 없는 것들 다운 받을 수 있는 방법 없나요 ?
안녕하세요 선생님 인프런에 있는 선생님 강의 모두 결제하고 수강중인 수강생입니다. 다름이 아니라 일부강의는 유튜브 하단 더보기에서 링크를 타고 찾아볼 수 있는데 일부 강의는 블로그에서 자료를 찾기가 어렵네요.. vba 강의는 인프런에서 제공하는것보다 유튜브에서 제공하시는 것이 종류가 다양해서 유튜브 통해서 강의 수강중인데 혹시 블로그에 공유되지 않은 예제 자료들은 어디에서 받을 수 있을까요 ? 감사합니다.
-
미해결Slack 클론 코딩[실시간 채팅 with React]
폴더들에 대한 설명 부탁드립니다!
안녕하세요 제로초님, 저는 백지상태에서 세팅하는줄 알았는데, gitclone을 하니 이미 완성된 폴더들이 많더라구요 정해주신 세팅만 해두고, 컴포넌트 폴더나 코드는 하나하나 따라가면서 완성해나가고싶은데, 제가 임의로 폴더파서 작업하면되나요? front 폴더, front-js 폴더,front-rq 폴더는 무엇인가요? 열어보니까 다 완성되어있는 코드라서요 또 alecture를 열어보니 다 완성되어있던데, 강의 중에 alecture에서 작업하신 최종결과물인가요? 감사합니다
-
미해결
반려동물 시장 진출 앱 기획 관련 스프링 개발자 모집
안녕하세요 현재 서로 믿을 수 있는 스타트업 멤버 구축 되었고 추가로 능력있고 참하신 개발자 팀원 두분 더 찾습니다. 관심있으신분 연락 부탁드립니다 1. 주제소개: 반려동물 서비스 중 현재 시장에 없는 서비스. 2. 현재 진행 단계: 시장분석 및 주제와 명확한 방향성까지 잡은 상태 3. 모집분야 및 주요업무: 앱 개발자-하이브리드 앱 (웹앱을 네이티브 형태로 감싼 형태) 유사사이트: https://www.pet-friends.co.kr/main/tab/2 4. 모집경력 및 필요스킬: 앱개발 관련하여 경력이 있거나, 최소 스프링을 자유롭게 다룰 수 있는 스킬 필요 vue.js 옵션 등 5. 참고기타사항: 기획/디자인/개발/마케팅 포지션 다 구성되어 있으나, 추가 개발자가 두분 정도 더 필요한 상황 6. 문의/연락: 010-4590-4917 배대근 카카오:antoniobae1 참고url:IT 웹 앱 마케팅 개발 창업모임 파랑새(Since 2021.10.02 : 네이버 카페 - http://naver.me/FIgA4x8x
-
미해결실전 프로젝트로 배우는 타입스크립트
오류가 이렇게 나는데 왜 이럴까요...
chart.js 를 다운받은 후 * as 를 붙인 뒤 확인을 해보니 이런 오휴가 나오는데 왜 이런 오류가 뜰까요..
-
미해결비전공자를 위한 진짜 입문 올인원 개발 부트캠프
Git 설치 오류
PowerShell에서 git --version 을 입력했을 때는 버전이 확인되지만, 막상 VSC 터미널에 같은 명령어를 넣으면 다음과 같은 문구가 뜹니다. PS C:\Users\Jina Hong\Desktop\learn-all-with-js\web-grab-market> git --version git : 'git' 용어가 cmdlet, 함수, 스크립트 파일 또는 실행할 수 있는 프로그램 이름으로 인식되지 않습니다. 이름이 정확한지 확인하고 경로가 포함된 경우 경로가 올바른지 검증한 다음 다시 시도하십시오. 위치 줄:1 문자:1 + git --version + ~~~ + CategoryInfo : ObjectNotFound: (git:String) [], CommandNotFoundException + FullyQualifiedErrorId : CommandNotFoundException 당연히 'git init' 명령어도 같은 결과를 낳습니다. 컴퓨터 재부팅도 해봤고, 구글링해서 얻은 팁을 따라 사용자 설정으로 들어가서 환경 변수(environment variables)로 git을 추가해보기도 하고, VSC settings 에 git.path 도 추가해봤습니다만, 터미널창에는 계속 같은 오류 메시지가 뜹니다. 이건 제 화면을 스크린샷한 건 아니지만, 설치 당시 똑같이 두 번째 항을 선택했습니다. 더 이상 바꿔볼 만한 변수가 떠오르지 않습니다. 제발 도와주세요 선생님.
-
미해결[왕초보편] 앱 8개를 만들면서 배우는 안드로이드 코틀린(Android Kotlin)
이미지가 로드 안됩니다. 도와주세요.
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. package kr.co.soncampus.mymangoimport android.content.Contextimport android.view.LayoutInflaterimport android.view.Viewimport android.view.ViewGroupimport android.widget.ImageViewimport android.widget.TextViewimport androidx.recyclerview.widget.RecyclerViewimport com.bumptech.glide.Glideclass RVAdapter(val context : Context, val List : MutableList<ContentsModel>) : RecyclerView.Adapter<RVAdapter.ViewHolder>() { override fun onCreateViewHolder(parent: ViewGroup, viewType: Int): RVAdapter.ViewHolder { val v = LayoutInflater.from(parent.context).inflate(R.layout.rv_item, parent, false) return ViewHolder(v) } override fun onBindViewHolder(holder: RVAdapter.ViewHolder, position: Int) { holder.bindItems(List[position]) } override fun getItemCount(): Int { return List.size } inner class ViewHolder(itemView : View) : RecyclerView.ViewHolder(itemView) { fun bindItems(item : ContentsModel) { val rv_img = itemView.findViewById<ImageView>(R.id.rvImageArea) val rv_text = itemView.findViewById<TextView>(R.id.rvTextArea) rv_text.text = item.titleText Glide.with(context) .load(item.imageUrl) .into(rv_img) } }}하단은 에러발생상황입니다. 11/20 21:13:07: Launching 'app' on Pixel 2 API 29. Install successfully finished in 967 ms. $ adb shell am start -n "kr.co.soncampus.mymango/kr.co.soncampus.mymango.SplashActivity" -a android.intent.action.MAIN -c android.intent.category.LAUNCHER Connected to process 12186 on device 'emulator-5554'. Capturing and displaying logcat messages from application. This behavior can be disabled in the "Logcat output" section of the "Debugger" settings page. W/RenderThread: type=1400 audit(0.0:54): avc: denied { write } for name="property_service" dev="tmpfs" ino=7380 scontext=u:r:untrusted_app:s0:c134,c256,c512,c768 tcontext=u:object_r:property_socket:s0 tclass=sock_file permissive=0 D/libEGL: Emulator has host GPU support, qemu.gles is set to 1. W/libc: Unable to set property "qemu.gles" to "1": connection failed; errno=13 (Permission denied) D/libEGL: loaded /vendor/lib/egl/libEGL_emulation.so D/libEGL: loaded /vendor/lib/egl/libGLESv1_CM_emulation.so D/libEGL: loaded /vendor/lib/egl/libGLESv2_emulation.so W/ncampus.mymang: Accessing hidden method Landroid/view/View;->computeFitSystemWindows(Landroid/graphics/Rect;Landroid/graphics/Rect;)Z (greylist, reflection, allowed) Accessing hidden method Landroid/view/ViewGroup;->makeOptionalFitsSystemWindows()V (greylist, reflection, allowed) D/HostConnection: HostConnection::get() New Host Connection established 0xd914d190, tid 12218 D/HostConnection: HostComposition ext ANDROID_EMU_CHECKSUM_HELPER_v1 ANDROID_EMU_dma_v1 ANDROID_EMU_direct_mem ANDROID_EMU_host_composition_v1 ANDROID_EMU_host_composition_v2 ANDROID_EMU_vulkan ANDROID_EMU_deferred_vulkan_commands ANDROID_EMU_vulkan_null_optional_strings ANDROID_EMU_vulkan_create_resources_with_requirements ANDROID_EMU_YUV420_888_to_NV21 ANDROID_EMU_YUV_Cache ANDROID_EMU_async_unmap_buffer ANDROID_EMU_vulkan_free_memory_sync ANDROID_EMU_vulkan_shader_float16_int8 ANDROID_EMU_vulkan_async_queue_submit ANDROID_EMU_sync_buffer_data GL_OES_vertex_array_object GL_KHR_texture_compression_astc_ldr ANDROID_EMU_host_side_tracing ANDROID_EMU_async_frame_commands ANDROID_EMU_gles_max_version_2 W/OpenGLRenderer: Failed to choose config with EGL_SWAP_BEHAVIOR_PRESERVED, retrying without... D/eglCodecCommon: setVertexArrayObject: set vao to 0 (0) 0 0 D/EGL_emulation: eglCreateContext: 0xd911a300: maj 2 min 0 rcv 2 D/EGL_emulation: eglMakeCurrent: 0xd911a300: ver 2 0 (tinfo 0xd910f1d0) W/Gralloc3: mapper 3.x is not supported D/HostConnection: createUnique: call HostConnection::get() New Host Connection established 0xd914d280, tid 12218 D/HostConnection: HostComposition ext ANDROID_EMU_CHECKSUM_HELPER_v1 ANDROID_EMU_dma_v1 ANDROID_EMU_direct_mem ANDROID_EMU_host_composition_v1 ANDROID_EMU_host_composition_v2 ANDROID_EMU_vulkan ANDROID_EMU_deferred_vulkan_commands ANDROID_EMU_vulkan_null_optional_strings ANDROID_EMU_vulkan_create_resources_with_requirements ANDROID_EMU_YUV420_888_to_NV21 ANDROID_EMU_YUV_Cache ANDROID_EMU_async_unmap_buffer ANDROID_EMU_vulkan_free_memory_sync ANDROID_EMU_vulkan_shader_float16_int8 ANDROID_EMU_vulkan_async_queue_submit ANDROID_EMU_sync_buffer_data GL_OES_vertex_array_object GL_KHR_texture_compression_astc_ldr ANDROID_EMU_host_side_tracing ANDROID_EMU_async_frame_commands ANDROID_EMU_gles_max_version_2 D/eglCodecCommon: allocate: Ask for block of size 0x1000 allocate: ioctl allocate returned offset 0x3ffff6000 size 0x2000 D/EGL_emulation: eglMakeCurrent: 0xd911a300: ver 2 0 (tinfo 0xd910f1d0) D/eglCodecCommon: setVertexArrayObject: set vao to 0 (0) 1 0 W/ActivityThread: handleWindowVisibility: no activity for token android.os.BinderProxy@48434be W/Glide: Failed to find GeneratedAppGlideModule. You should include an annotationProcessor compile dependency on com.github.bumptech.glide:compiler in your application and a @GlideModule annotated AppGlideModule implementation or LibraryGlideModules will be silently ignored D/EGL_emulation: eglMakeCurrent: 0xd911a300: ver 2 0 (tinfo 0xd910f1d0) D/NetworkSecurityConfig: No Network Security Config specified, using platform default W/Glide: Load failed for https://mp-seoul-image-production-s3.mangoplate.com/333417_1631504231239882.jpg?fit=around|512:512&crop=512:512;*,*&output-format=jpg&output-quality=80 with size [540x263] class com.bumptech.glide.load.engine.GlideException: Failed to load resource There was 1 cause: java.net.SocketException(socket failed: EPERM (Operation not permitted)) call GlideException#logRootCauses(String) for more detail Cause (1 of 1): class com.bumptech.glide.load.engine.GlideException: Fetching data failed, class java.io.InputStream, REMOTE There was 1 cause: java.net.SocketException(socket failed: EPERM (Operation not permitted)) call GlideException#logRootCauses(String) for more detail Cause (1 of 1): class com.bumptech.glide.load.engine.GlideException: Fetch failed There was 1 cause: java.net.SocketException(socket failed: EPERM (Operation not permitted)) call GlideException#logRootCauses(String) for more detail Cause (1 of 1): class java.net.SocketException: socket failed: EPERM (Operation not permitted) I/Glide: Root cause (1 of 1) java.net.SocketException: socket failed: EPERM (Operation not permitted) at java.net.Socket.createImpl(Socket.java:492) at java.net.Socket.getImpl(Socket.java:552) at java.net.Socket.setSoTimeout(Socket.java:1180) at com.android.okhttp.internal.io.RealConnection.connectSocket(RealConnection.java:143) at com.android.okhttp.internal.io.RealConnection.connect(RealConnection.java:116) at com.android.okhttp.internal.http.StreamAllocation.findConnection(StreamAllocation.java:186) at com.android.okhttp.internal.http.StreamAllocation.findHealthyConnection(StreamAllocation.java:128) at com.android.okhttp.internal.http.StreamAllocation.newStream(StreamAllocation.java:97) at com.android.okhttp.internal.http.HttpEngine.connect(HttpEngine.java:289) at com.android.okhttp.internal.http.HttpEngine.sendRequest(HttpEngine.java:232) at com.android.okhttp.internal.huc.HttpURLConnectionImpl.execute(HttpURLConnectionImpl.java:465) at com.android.okhttp.internal.huc.HttpURLConnectionImpl.connect(HttpURLConnectionImpl.java:131) at com.android.okhttp.internal.huc.DelegatingHttpsURLConnection.connect(DelegatingHttpsURLConnection.java:90) at com.android.okhttp.internal.huc.HttpsURLConnectionImpl.connect(HttpsURLConnectionImpl.java:30) at com.bumptech.glide.load.data.HttpUrlFetcher.loadDataWithRedirects(HttpUrlFetcher.java:100) at com.bumptech.glide.load.data.HttpUrlFetcher.loadData(HttpUrlFetcher.java:56) at com.bumptech.glide.load.model.MultiModelLoader$MultiFetcher.loadData(MultiModelLoader.java:100) at com.bumptech.glide.load.model.MultiModelLoader$MultiFetcher.startNextOrFail(MultiModelLoader.java:164) at com.bumptech.glide.load.model.MultiModelLoader$MultiFetcher.onLoadFailed(MultiModelLoader.java:154) at com.bumptech.glide.load.data.HttpUrlFetcher.loadData(HttpUrlFetcher.java:62) at com.bumptech.glide.load.model.MultiModelLoader$MultiFetcher.loadData(MultiModelLoader.java:100) at com.bumptech.glide.load.engine.SourceGenerator.startNextLoad(SourceGenerator.java:70) at com.bumptech.glide.load.engine.SourceGenerator.startNext(SourceGenerator.java:63) at com.bumptech.glide.load.engine.DecodeJob.runGenerators(DecodeJob.java:310) at com.bumptech.glide.load.engine.DecodeJob.runWrapped(DecodeJob.java:279) at com.bumptech.glide.load.engine.DecodeJob.run(DecodeJob.java:234) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1167) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:641) at java.lang.Thread.run(Thread.java:919) at com.bumptech.glide.load.engine.executor.GlideExecutor$DefaultThreadFactory$1.run(GlideExecutor.java:393)
-
미해결FreeRTOS 프로그래밍
RAM과 FLASH 시작주소
'태스크와 메모리'의 '태스크와 스택메모리' 파트에서 질문이 있습니다! RAM의 시작주소를 0x20000000, FLASH의 시작주소를 0X08000000이라고 말씀해주셨고, 저의 IDE에서도 확인할 수 있었습니다! 궁금한 점은 보통 이러한 가상주소는 메인메모리의 물리주소와 사상되는데, ARM 코어에서의 가상 주소 사상은 플래시 주소와도 바로 사상이 되는 것인지 궁금합니다. 제가 컴퓨터 구조 수업때 배운 바로는 Intel기반이었기에 ARM의 아키텍처에 대해 헷갈리네요...ㅎ
-
미해결15일간의 빅데이터 파일럿 프로젝트
휴설치 에러 문의
선생님 안녕하세요! 다름이아니라, hue서비스 추가중 아래와같은 애러가 발생해서 문의 드립니다 ㅠ 클러스터 재시작 및 cpu를 많이 먹는 flume등을 제거해도 안되더라구여 ㅠ 휴가 안되면 그 이후것도 실습이 어려워서 꼭 답변 부탁드릴께요!
-
미해결자바(Java) 알고리즘 문제풀이 입문: 코딩테스트 대비
문제 Array 6번
우선 선생님의 강의를 먼저보긴 했는데 저기 숫자를 뒤집는 방법에서 이렇게 사용하면 문제가 될까요? reverse로 뒤집고 Integer.parseInt를 했을 경우에 0을 그냥 생략하고 만들어주는걸 알기 때문에 이런 식으로 풀어서 정답은 나왔는데 따로 문제나 활용적인면에서 문제가 있는가 궁금합니다! import java.util.Scanner; public class Main { public boolean isPrime(int num) { if( num == 1 ) return false; for(int i = 2; i < num; i++) { if(num % i == 0) return false; } return true; } public String solution(int n, String str) { String answer = ""; String [] temp = str.split(" "); for(int i = 0; i < temp.length; i++) { temp[i] = new StringBuilder(temp[i]).reverse().toString(); } for(String x: temp) { if(isPrime(Integer.parseInt(x))) answer += String.valueOf(Integer.parseInt(x)) + " "; } return answer; } // public ArrayList<Integer> solution(int n, int[] arr){ // ArrayList<Integer> answer = new ArrayList<>(); // // // //// for(int i = 0; i < n; i++) { //// int tmp = arr[i]; //// int res= 0; //// while(tmp > 0) { //// int t = tmp % 10; //// res = res * 10 + t; //// tmp = tmp/ 10; //// } //// if(isPrime(res)) answer.add(res); //// } // // // return answer; // } public static void main(String[] args) { // TODO Auto-generated method stub Main T = new Main(); Scanner sc = new Scanner(System.in); int n = sc.nextInt(); sc.nextLine(); String str = sc.nextLine(); // int [] arr = new int[n]; // for(int i = 0; i < n; i++) { // arr[i] = sc.nextInt(); // } System.out.println(T.solution(n, str)); // for(int x: T.solution(n, arr)) { // System.out.print(x + " "); // } } }
-
미해결작정하고 장고! Django로 Pinterest 따라만들기 : 바닥부터 배포까지
서버에서 user_id를 처리하는 이유
form_valid을 오버라이딩 하는 이유에 대해서 설명하실 때 브라우저(프론트)에 user_id를 전달하면, 그 id에 누군가 마음대로 저장해버릴 수 있기 때문이다. 라고 이야기 하셨습니다. 서버에서 user_id 속성을 저장해도, 브라우저가 만약에 해당하는 페이지(profile/create)에서, 서버에게 보낼 request에 user_id를 조작해서 등록할 수 있지 않나요? 만약 이문제 또한 view 메소드 또한 아마 인증/인가 decorator로 처리하시는건가요?
-
미해결모든 개발자를 위한 HTTP 웹 기본 지식
URI 설계 시 리소스를 수식하는 표현이 필요할 경우
김영한 강사님 안녕하세요. 우선 좋은 강의 감사드립니다. ^^ URI 설계 관련하여 궁금한 부분이 있습니다. 컨트롤 자원을 나타내는 경우가 아니면 명사만 사용하는 것이 올바른 URI 설계인데, 그럼 어떤 명사에 대한 조건이 붙어서 수식이 필요한 경우는 어떻게 설계하는 것이 좋을까요? 예를 들어, 유저의 성별에 따라 반환하는 아이템 목록이 달라질 경우에 클라이언트가 유저의 성별 정보를 알고 있다며 아래와 같이 요청을 주도록 설계가 가능할텐데 /items?gender=femail 클라이언트에서는 유저의 성별에 대한 정보를 알 수 없는 상태이고, 유저의 세션 정보만 가지고 있습니다. 서버에서 클라이언트의 요청을 받고 유저의 세션 정보를 이용해서 성별을 알아내고, 이 성별에 맞는 아이템 목록을 반환해야 합니다. gender가 뭔진 모르는 상태로 요청을 보내지만 gender로 필터링된 item을 반환해야하는 이런 상황에서 URI 설계를 어떤 식으로 하면 좋을까요? /items/gender 와 같이 설계하면 좋을까요?
-
미해결PHP 7+ 프로그래밍
이미지 업로드시 경고창 문제입니다.
강의 따라하고 있는중인데요... 왜 이런상황이..? 나오는지 모르겠네요.. 그림을 참조해주세요.. 이미지 업로드시에 계속해서 자바스크립트 경고창이 뜨면서 업로드를 막고있는데.. 좀.. 답답하네용..
-
미해결데브옵스(DevOps)를 위한 쿠버네티스 마스터
삭제 예정 강의는 어떤 강의들 일까요?
안녕하세요. 좋은 강의 잘 보고 있습니다. 강의 중간 중간에 보면 삭제 예정이라고 되어있는 강의들이 있습니다. 삭제 예정이라고 된 강의로 분류된 이유가 따로 있을까요? 최신 버전의 쿠베네티스를 사용하는 유저라면 삭제 예정 강의를 건너띄어도 되는지 궁금합니다.