묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결파이썬 알고리즘 문제풀이 입문(코딩테스트 대비)
프로그래머스 레벨2까지 대비
안녕하세요 ! 강사님! 프로그래머스 코딩테스트 대비중에있습니다 동적 부분을 뺀 나머지 부분 강의를 다듣고 풀 수 있다면 바로 프로그래머스 문제를 풀어봐도 괜찮을까요..?(level 2기준) 프로그래머스 문제에 잘 적용이 되지 않아 이렇게 문의드립니다 감사합니다!
-
미해결15일간의 빅데이터 파일럿 프로젝트
로그 서버
초보개념 잡기 위한 추가 질문인데요 흔히 웹개발할 때 말하는 로그서버라는 것은 강의중에 수집-적재에 해당하는 부분과 같은 역할 일까요? 빅데이터와 로그서버의 개념을 정리부탁드립니다. 너무 헷갈려서요.감사합니다.
-
미해결파이썬/장고 웹서비스 개발 완벽 가이드 with 리액트
슬라이드 PDF 자료는 어디서 다운로드 받는건가요? (좋은 강의 감사합니다. )
강의 소개에 슬라이드를 다운로드 받을 수 있다고 적혀있던데, 제가 슬라이드 PDF 다운로드 링크를 못찾고 있습니다. ^^;; 좋은 강의 감사합니다.
-
미해결처음 배우는 리액트 네이티브
강의과정별 즉 단원별로 깃헙에 소스파일이 있으면 더 좋겠습니다
범준님께서 깃헙에 올리신 자료는 최종적으로 완성된 소스파일이라 강의과정중에 작성한 수강생의 자료와 비교하여 오류를 찾기에는 너무 힘들군요 ...
-
미해결남박사의 파이썬 기초부터 실전 100% 활용
4:41 부분이 잘 이해가 되지 않아요ㅠㅠ
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. if__name__=="__main__"라는 부분이 이해가 잘 되지 않습니다. 그러니까 module에서 실행을 시키면 해당 if문이 참이라서 해당 아래 항목이 실행이 되지만 test에서는 해당 if__name=="__main__"포함 아래 항목은 실행이 되지 않는다. 라고 생각하면 되나요??
-
미해결처음 배우는 리액트 네이티브
현재 강의내용과 관련된 파이어베이스의 버젼이 얼마인지요
현재 최고버젼을 9이상이 나와있는데 버젼차이로 인해 오류가 발생하는 것 같습니다 가급적 강의와 일치하는 버젼을 설치한 후 수업을 다시 듣고져 합니다
-
미해결데브옵스(DevOps)를 위한 쿠버네티스 마스터
임시 컨테이너를 생성하는 경우는 어떤 경우가 있나요 ?
도커의 유용한 명령어 강의 마지막부분에 임시컨테이너를 생성할 경우 명령어를 사용하라고 하셨는데 그럼 임시컨테이너를 사용 해야 하는 경우는 어떤 경우가 있을까요 ?
-
미해결Firebase 서버를 통한 Android앱 HowlTalk 만들기
강의하시는 파이어베이스 버젼이 얼마인지요 ..
현재 최신버젼은 9 이더군요
-
미해결파이썬 알고리즘 문제풀이 입문(코딩테스트 대비)
카드 역배치(정올 기출)
- 카드 역배치(정올 기출)문제 풀이 질문----- 예제는 통과되었는데... 어디가 틀렸는지 부탁드립니다. import sys,re sys.stdin=open("input.txt","r") idx=[i for i in range(1,21)] for i in range(10): p,q=map(int,input().split()) tem=idx[p-1:q] idx=idx[:p-1]+idx[q:] for k in tem: idx.insert(p-1,k) print(idx)
-
미해결대세는 쿠버네티스 (초급~중급편)
Pod Anti-Affinity를 "preferred~" 정책으로 적용시 문의드립니다
Pod Anti-Affinity 예시에서 slave pod은 Master pod을 피해 Node4가 아닌 Node3으로 배치가 되었는데요. Node3이 자원의 여유가 없거나 (overcommited) 또는 slave pod의 request값이 높아 Node3에 배치가되지 않는 경우 slave Pod이 preferredDuringSchedulingIgnoredDuringExecution로 설정되어있다면 Node4에 배치될 수 있을지요? 문의하는 이유는 같은 Delployement의 Pod들이 Node에 골고루분산되게 하기 위해 Pod Anti-Affinity를 사용하였는데 Node 별 성능을 고려하다보면 같은 Node에 배치되는 경우도 발생할 필요가 있다보니 preferredDuringSchedulingIgnoredDuringExecution로 설정을 해주면 되는 것인지 궁금합니다.
-
미해결빠르게 git - 핵심만 골라 배우는 Git/Github
충돌 관련 간단한 질문이 있습니다
서로 매일 만나서 단체 프로젝트를 진행하는중이라 같은 파일을 수정하는일은 없다는가정하에 역할을 잘 나눠서 개발을 하게 되면 충돌이 아예 발생 안하고 프로젝트를 마무리 할 수 있을까요? 아니면 다른 조건에 따라 충돌이 발생할 수 도 있나요?
-
미해결15일간의 빅데이터 파일럿 프로젝트
rdbms 와 big data의 차이
결론적으로 가장 큰 차이는 rdbms는 현재의 state를 저장 big data는 state들의 과거 시계열을 모두 저장 이차이가 핵심일까요?
-
미해결쉽게 시작하는 쿠버네티스(v1.30) - {{ x86-64, arm64 }}
vagrant up 오류
vagratn up 할 경우 중간중간에 ImagePull 오류가 있는데 이런 경우 timeout으로 봐야하는건가요?? kubeadm config images pull 이부분에서 기다리는 시간이 너무 길었습니다(6시간) 어떤 문제로 오류가 나는지 알고 싶습니다 (다시 설치할경우 또 다시 오랜시간이 걸릴꺼 같아서 문의드림) ----------------------------------------------------------------------- m-k8s-1.20: [preflight] Pulling images required for setting up a Kubernetes cluster m-k8s-1.20: [preflight] This might take a minute or two, depending on the speed of your internet connection m-k8s-1.20: [preflight] You can also perform this action in beforehand using 'kubeadm config images pull' m-k8s-1.20: error execution phase preflight: [preflight] Some fatal errors occurred: m-k8s-1.20: [ERROR ImagePull]: failed to pull image k8s.gcr.io/kube-apiserver:v1.20.14: output: v1.20.14: Pulling from kube-apiserver m-k8s-1.20: 0d7d70899875: Pulling fs layer m-k8s-1.20: d373bafe570e: Pulling fs layer m-k8s-1.20: 80a294c98ec5: Pulling fs layer m-k8s-1.20: 0d7d70899875: Verifying Checksum m-k8s-1.20: d373bafe570e: Verifying Checksum m-k8s-1.20: d373bafe570e: Download complete m-k8s-1.20: 80a294c98ec5: Verifying Checksum m-k8s-1.20: filesystem layer verification failed for digest sha256:80a294c98ec5258beb62925658c4781f8a888d320d922fc6df5b8e45e0333f18 m-k8s-1.20: , error: exit status 1 m-k8s-1.20: [ERROR ImagePull]: failed to pull image k8s.gcr.io/kube-controller-manager:v1.20.14: output: v1.20.14: Pulling from kube-controller-manager m-k8s-1.20: 0d7d70899875: Pulling fs layer m-k8s-1.20: d373bafe570e: Pulling fs layer m-k8s-1.20: a2a0cc69e98e: Pulling fs layer m-k8s-1.20: d373bafe570e: Verifying Checksum m-k8s-1.20: d373bafe570e: Download complete m-k8s-1.20: 0d7d70899875: Verifying Checksum m-k8s-1.20: 0d7d70899875: Download complete m-k8s-1.20: 0d7d70899875: Pull complete m-k8s-1.20: d373bafe570e: Pull complete m-k8s-1.20: a2a0cc69e98e: Verifying Checksum m-k8s-1.20: filesystem layer verification failed for digest sha256:a2a0cc69e98eb911834fce5ce36fbc8874cc34ea33a9bea15e5988ffe747dc83 m-k8s-1.20: , error: exit status 1 m-k8s-1.20: [ERROR ImagePull]: failed to pull image k8s.gcr.io/kube-scheduler:v1.20.14: output: v1.20.14: Pulling from kube-scheduler m-k8s-1.20: 0d7d70899875: Pulling fs layer m-k8s-1.20: d373bafe570e: Pulling fs layer m-k8s-1.20: 0e5b439c245b: Pulling fs layer m-k8s-1.20: 0d7d70899875: Verifying Checksum m-k8s-1.20: 0d7d70899875: Download complete m-k8s-1.20: d373bafe570e: Verifying Checksum m-k8s-1.20: d373bafe570e: Download complete m-k8s-1.20: 0e5b439c245b: Verifying Checksum m-k8s-1.20: filesystem layer verification failed for digest sha256:0e5b439c245b02a7f325b5125240ea9b8edb596718d4c0acc9294dc964c27659 m-k8s-1.20: , error: exit status 1 m-k8s-1.20: [ERROR ImagePull]: failed to pull image k8s.gcr.io/kube-proxy:v1.20.14: output: v1.20.14: Pulling from kube-proxy m-k8s-1.20: 20b09fbd3037: Pulling fs layer m-k8s-1.20: 8931379a3e2d: Pulling fs layer m-k8s-1.20: 8931379a3e2d: Verifying Checksum m-k8s-1.20: filesystem layer verification failed for digest sha256:8931379a3e2d97bb0d1cb630b22d2c331acb8282020a0efd07f8de6d5ffcd098 m-k8s-1.20: , error: exit status 1 m-k8s-1.20: [ERROR ImagePull]: failed to pull image k8s.gcr.io/etcd:3.4.13-0: output: 3.4.13-0: Pulling from etcd m-k8s-1.20: 4000adbbc3eb: Pulling fs layer m-k8s-1.20: d72167780652: Pulling fs layer m-k8s-1.20: d60490a768b5: Pulling fs layer m-k8s-1.20: 4a4b5535d134: Pulling fs layer m-k8s-1.20: 0dac37e8b31a: Pulling fs layer m-k8s-1.20: 4a4b5535d134: Waiting m-k8s-1.20: 0dac37e8b31a: Waiting m-k8s-1.20: 4000adbbc3eb: Verifying Checksum m-k8s-1.20: 4000adbbc3eb: Download complete m-k8s-1.20: d72167780652: Verifying Checksum m-k8s-1.20: 4a4b5535d134: Verifying Checksum m-k8s-1.20: 4a4b5535d134: Download complete m-k8s-1.20: 0dac37e8b31a: Verifying Checksum m-k8s-1.20: filesystem layer verification failed for digest sha256:0dac37e8b31a9abb933416b482b0046f50ec329d35cadfcbf8bcc381fa531114 m-k8s-1.20: , error: exit status 1 m-k8s-1.20: [ERROR ImagePull]: failed to pull image k8s.gcr.io/coredns:1.7.0: output: 1.7.0: Pulling from coredns m-k8s-1.20: c6568d217a00: Pulling fs layer m-k8s-1.20: 6937ebe10f02: Pulling fs layer m-k8s-1.20: c6568d217a00: Verifying Checksum m-k8s-1.20: 6937ebe10f02: Verifying Checksum
-
미해결풀스택을 위한 도커와 최신 서버 기술(리눅스, nginx, AWS, HTTPS, 배포까지) [풀스택 Part3]
도커컴포즈 테라폼
실무에서 테라폼이라는 걸 많이 쓰던데 도커컴포즈와 테라폼은 어떻게 다른가요 혹시 도커컴포즈는 이미지(프로그램)들을 조합하고 테라폼은 인프라 인스턴스(가상 인프라자원)을 조합하는 차이일까요?
-
미해결따라하며 배우는 노드, 리액트 시리즈 - 기본 강의
.env 설정을 할 때 dotenv 라이브러리 사용질문
저는 config를 따로 만들지 않고 dotenv 라이브러리를 썻는데요. 이런식으로 작성해도 배포를 할 때 문제가 없을까요..?
-
미해결파이썬/장고 웹서비스 개발 완벽 가이드 with 리액트
migrate 오류
뭐가 문제인지 모르겠습니다 일단 강의내용대로 똑같이 실행했구요 41분 지점입니다 django.db.utils.IntegrityError: The row in table 'instagram_post' with primary key '1' has an invalid foreign key: instagram_post.author_id contains a value '1' that does not have a corresponding value in auth_user.id. 해당 에러가 뜹니다. 느낌상 db.sqlite를 지우면 될거같지만 안지우고 해결도 해보고 싶습니다. 우선 제대로 했는지 확인하기 위해서 migrate 0001로 돌리고 몇번 시도해봤구요 결과는 같았습니다 showmigrate 상태를 확인해봤습니다 instagram [X] 0001_initial [ ] 0002_post_author 저상태가 계속 유지되어있구요 migrate 값설정할때 2로 줘봤는데 마찬가지였습니다 db.sqlite를 실행해서 봤습니다 이게 맞는진 모르겠는데 sqlite> pragma table_info(auth_user); 0|id|integer|1||1 1|password|varchar(128)|1||0 2|last_login|datetime|0||0 3|is_superuser|bool|1||0 4|username|varchar(150)|1||0 5|first_name|varchar(30)|1||0 6|email|varchar(254)|1||0 7|is_staff|bool|1||0 8|is_active|bool|1||0 9|date_joined|datetime|1||0 10|last_name|varchar(150)|1||0 모델에 정의하지 않은 값도 있는것 같습니다 원래 기본값인지에 대해서는 잘모르겠습니다 어떻게 해결하면 좋을까요? 간단하게 실험해봤는데 db날리고 migrate하니까 정상작동 하네요 딴짓 한게 없는거같은데 db가 꼬여있는것 같네요 이럴때 진석님은 기존 디비를 유지하면서 어떻게 디버깅 하시나요? 추가로 시도해본건 기존 유저가 없어서라는 이유도 있다길래 유저 추가해서 시도해봤는데 이것역시 해결책은 아니였네요
-
미해결[C#과 유니티로 만드는 MMORPG 게임 개발 시리즈] Part3: 유니티 엔진
Type으로 넘어가는 값이 뭔지 많이 헷갈리네요 ㅠㅠ
type잘 이해안가서 찾아보는데도 잘 이해가 안가네요ㅠ typeof()시 가는게 enum이라는 타입인지 enum객체의 type인지..? 모르겠어요 1. 디버그를 돌려봤을때 이렇게 나오는데, 이 type으로 넘어가는{UI_Buttons + Texts}을 type 형식으로 보고 이 형식이 넘어간다고 이해하는게 맞나요? 아니면 {System.enum}이 넘어가는건가요??디버그 하는게 익숙지 않아서 잘 모르겠어요 ..ㅎ 2. 1번으로 이해했을때, typeof(Buttons)를 통해 {UI_Buttons + Texts} 라는 형식으로 Type객체가 전달됐고, <Button>,<Text>라는 제네릭은 전달된 Type객체와의 직접적인 연관보다는 여기서 Object배열에 <Button>,<Text>이라는 타입을 생성해서 바인딩하라는 정보제공 용도??로 쓰였다고 보면 맞게 이해한 건가요?? +강의 정말 좋아요ㅎ
-
미해결모든 개발자의 실무를 위한 올인원 기본기 클래스
git restore 질문
안녕하세요. 좋은 강의 감사합니다! git restore에 대한 이해가 잘 가지 않아서 질문드립니다. 강의 중에 git restore가 나왔는데, 특정 파일의 변경사항을 제거하고 HEAD 기준으로 되돌리고 싶을 때, restore를 사용할 수 있다고 언급되어 있습니다. git reset이 이미 있는데, git restore 명령어가 따로 있는 이유가 무엇인지 이해가 잘 안가네요. git restore 명렁어를 쓰는 경우가 대표적으로 언제인가요? 강의 중에 git restore는 생성한 파일을 지우지는 않는다고 했는데, 그러면 새로운 파일을 생성하고 변경했는데, 변경 사항만 지우고 파일은 그대로 두고 싶을 때 사용하는건가요? 또한, git restore을 쓰는 시점이 commit 진행 후, 다시 이전 commit으로 돌아가고 싶을 때 쓰는건지, 특정 수정사항을 index 상태로 올렸는데 이를 다시 workspace상태로 돌리고 싶을 때 쓰는건지 궁금하네요.
-
미해결
깃허브 커밋 수정
- 두번째 사진 가운데가 커밋 아닌가요? 저거 수정하려다가 실패했는데 하다보니 첫번째 사진 파란글씨가 원래는 main 이였는데 저렇게 바꼈는데 혹시 저렇게 있어도 상관없나요 아니면 다시 수정하는 방법알 수 있을까요. 그리고 커밋 수정하는 방법도 알 수 있을까요,, rebase로해서 하는거랑 봤는데 :wq이건 어떻게 하는지 모르겠고 잘 모르겠네요 ㅠ
-
미해결[신규 개정판] 이것이 진짜 크롤링이다 - 실전편 (인공지능 수익화)
실제로 가져오는 뉴스 자료가 적은데 왜 이럴까요?
#사용자입력 keyword = pyautogui.prompt("검색어를 입력하세요") lastpage = int(pyautogui.prompt("몇 페이지까지 크롤링 할까요?")) page_num = 1 for i in range(1, lastpage * 10, 10): print(f"{page_num}페이지 크롤링 중입니다=========================") response = requests.get(f"https://search.naver.com/search.naver?where=news&query=%ED%97%88%EA%B0%9C%EC%97%B4&sm=tab_opt&sort=1&photo=0&field=0&pd=0&ds=&de=&docid=&related=0&mynews=0&office_type=0&office_section_code=0&news_office_checked=&nso=so%3Add%2Cp%3Aall&is_sug_officeid=0={keyword}&start={i}") html = response.text soup = BeautifulSoup(html, 'html.parser') articles = soup.select("div.info_group") # 뉴스 기사 div 10 for article in articles: links = article.select("a.info") # 리스트 if len(links) >= 2: # 링크가 2개 이상이면 url = links[1].attrs['href'] # 두번째 링크의 href를 추출 response = requests.get(url, headers={'User-agent':'Mozila/5.0'}) html = response.text soup = BeautifulSoup(html, 'html.parser') # 만약 연예 뉴스라면 if "entertain" in response.url: title = soup.select_one(".end_tit") content = soup.select_one("#articeBody") elif "sports" in response.url: title = soup.select_one("h4.title") content = soup.select_one("#newsEndContents") #본문 내용에 불필요한 내용 삭제 divs = content.select("div") for div in divs: div.decompose() paragraphs = content.select("p") for p in paragraphs: p.decompose() else: title = soup.select_one("#articleTitle") content = soup.select_one("#articleBodyContents") print("=======링크========\n", url) print("=======제목========\n", title.text.strip()) print("=======본문========\n", content.text.strip()) time.sleep(0.3) page_num = page_num + 1 이렇게 한 다음 뉴스는 3페이지까지 가져오기했는데 1페이지에서 4개 2, 3페이지 각각 1개정 가져오네요 ㅠㅜ