묻고 답해요
131만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨Jenkins를 이용한 CI/CD Pipeline 구축
kex_exchange_identification: Connection closed by remote host 에러 질문 드려요 ㅠㅠ
다른 질문글에서 kex_exchange_identification: Connection closed by remote host 에러 해결 방법 확인하고 시도해봤는데 해결을 못해서 질문글 남겨요 ㅠㅠ맥북: apple silicon m1 chip이미지: edowon0623/ansible-server:m1컨테이너 실행: docker run --privileged -itd --name ansible-server -p 20022:22 -p 8082:8080 -e container=docker -v /sys/fs/cgroup:/sys/fs/cgroup edowon0623/ansible-server:m1 /usr/sbin/initssh 접속:ssh root@localhost -p 20022 컨테이너 포트 충돌나서 8082로 변경했어요나머진 스크립트랑 같아요docker ps 확인해보면 ansible-server status up 상태인데 ssh 접속하면 kex_exchange_identification: Connection closed by remote host 에러가 발생해요docker-server컨테이너는 ssh root@localhost -p 10022로 잘 되는데 ansible-server은 왜 에러가 발생할까요? ㅠㅠ
-
미해결Jenkins를 이용한 CI/CD Pipeline 구축
access. jenkins가 안됩니다
포트를 8083으로 설정하고 localhost:8083 으로 들어가도 페이지가 작동하지 않는다고 뜨네요..8080 포트를 lsof -i tcp:8080으로 조회해서 kill -9 으로 해도 자꾸 사용중이라고 뜹니다. docker run -d -p 8083:8083 -p 50000:50000 --name jenkins-server --restart=on-failure jenkins/jenkins:lts-jdk11 으로 실행하면 안되는건가요??
-
해결됨그림으로 배우는 쿠버네티스("v1.22"-v1.24, v1.27~)
컨테이너 런타임에 대한 질문이 있습니다.
안녕하세요! 쉽배쿠부터 수업을 쭉 진행하고 있는데, 계속 의문점이 드는 부분이 있어 이것저것 시도해 보다가 질문드립니다..!쉽배쿠 수업 당시, "컨테이너 런타임에 문제가 생겼다면?" 을 진행하면서 마스터 노드의 컨테이너 런타임인 containerd를 stop하는 테스트를 진행 했었습니다.이를 통해 컨테이너 런타임을 지정할 때 containerd를 사용하는 것이 도커를 컨테이너 런타임으로 사용하는 것 보다, 더 안정성 있게 동작할 수 있다는 점도 알게 되었습니다.당시 전체적인 구상도를 보며, VM의 마스터노드, 워커노드 그리고 파드와 컨테이너까지 "아 Docker는 사용되는 부분이 없구나" 라고 생각했습니다. (실제로 그림에도 도커는 없었으니까요 🙂 )하지만, 이번 그배쿠 강의를 들으면서 환경 설정을 하는 쉘 스크립트에 도커를 설치하는 부분이 존재했고, 실제 docker --version / docker info 등의 명령어를 실행하니 도커가 동작 중이라는 것을 확인했습니다.여기서 들게 된 의문점은 다음과 같습니다!현재 그배쿠 강좌는 컨테이너 런타임으로 무엇을 사용하나요? 또한 쉽배쿠 강좌에서는 실제로 도커를 어디에도 사용하지 않았나요? 쿠버네티스가 현재 도커 지원 중단(컨테이너 런타임으로써의 중단)한 것으로 알고 있습니다. 따라서 현재 그배쿠 강좌에서 컨테이너 런타임으로 "컨테이너디"를 사용하는 것이 맞다면 "컨테이너디"가 알아서 컨테이너를 관리해줄 것으로 생각되는데, 현재 설치된 도커는 어떤 역할을 수행하는 것인가요? 컨테이너의 관리를 위해서는 도커와 컨테이너디 둘 다 설치하는 것은 필수적인가요?어느정도 쓰다보니까 이해가 된 것 같기도 한데,,, 아리송하여 질문을 드립니다. 감사합니다!
-
해결됨대세는 쿠버네티스 [초급~중급]
1.27 Volume Longhorn 설치 오류
안녕하세요 강사님 Volume 강의 실습을 위해 master 노드에서 아래의 명령어 실행하였으나 에러가 발생하여 문의 드립니다.node1, node2에서는 설치가 정상적으로 되고 있습니다. yum install -y iscsi-initiator-utils
-
미해결대세는 쿠버네티스 [초급~중급]
curl 설치
안녕하세요 우선 좋은 강의 감사합니다!현재 namespace 강의를 듣고 있는 중이고,한 namespace 내 pod에서 다른 namespace의 pod ip로 curl 명령치는 테스트 실습해보고 있는데요curl 명령어를 찾을 수 없다는 에러가 뜨는데, curl을 직접 설치하고자 apt update 부터 했는데요아래와 같이 404 not found가 떠서요... 이런식으로 curl 설치하는게 아닌가요?root@pod-1:/# apt updateIgn:1 http://deb.debian.org/debian stretch InReleaseIgn:2 http://deb.debian.org/debian stretch-updates InReleaseErr:3 http://deb.debian.org/debian stretch Release 404 Not FoundErr:4 http://deb.debian.org/debian stretch-updates Release 404 Not FoundIgn:5 http://security.debian.org/debian-security stretch/updates InReleaseErr:6 http://security.debian.org/debian-security stretch/updates Release 404 Not Found [IP: 151.101.2.132 80]Reading package lists... DoneE: The repository 'http://deb.debian.org/debian stretch Release' does not have a Release file.N: Updating from such a repository can't be done securely, and is therefore disabled by default.N: See apt-secure(8) manpage for repository creation and user configuration details.E: The repository 'http://deb.debian.org/debian stretch-updates Release' does not have a Release file.N: Updating from such a repository can't be done securely, and is therefore disabled by default.N: See apt-secure(8) manpage for repository creation and user configuration details.E: The repository 'http://security.debian.org/debian-security stretch/updates Release' does not have a Release file.N: Updating from such a repository can't be done securely, and is therefore disabled by default.N: See apt-secure(8) manpage for repository creation and user configuration details.Namespace, ResourceQuota, LimitRange - Namespace, ResourceQuNamespace, ResourceQuota, LimitRange - 실습ota, LimitRange - 실습
-
미해결Jenkins를 이용한 CI/CD Pipeline 구축
playbook 2번은 이걸 사용하세요.
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. ---- name: Download Tomcat9 from tomcat.apache.org hosts: devops tasks: - name: Create a Directory /opt/tomcat9 file: path: /opt/tomcat9 state: directory mode: 0755 - name: Download Tomcat using get_url get_url: url: https://dlcdn.apache.org/tomcat/tomcat-9/v9.0.82/bin/apache-tomcat-9.0.82.tar.gz dest: /opt/tomcat9 mode: 0755 checksum: sha512:https://downloads.apache.org/tomcat/tomcat-9/v9.0.82/bin/apache-tomcat-9.0.82.tar.gz.sha512 버전이 9.0.82 가 출시되어서 기존의 75버전은 링크가 삭제되었네요. 갑자기 에러 발생해서 놀랐는데 직접 url들어가니 페이지 자체가 없어서 발생한 에러였습니다. 여러분은 헷갈리지 마세용~
-
해결됨대세는 쿠버네티스 [초급~중급]
vagrant halt 시 master-node 종료 불가
C:\Users\inchangson\k8s>vagrant halt ==> k8s-node2: Attempting graceful shutdown of VM... ==> k8s-node1: Attempting graceful shutdown of VM... ==> k8s-master: Attempting graceful shutdown of VM... k8s-master: Guest communication could not be established! This is usually because k8s-master: SSH is not running, the authentication information was changed, k8s-master: or some other networking issue. Vagrant will force halt, if k8s-master: capable. ==> k8s-master: Forcing shutdown of VM... vagrant 종료 시 항상 master node만 제대로 종료가 되지 않는데 어떤 식으로 해결하면 될까요?기다리다 Ctrl+C 할 시 아래와 같은 메시지가 남고이후 vagrant halt 날리면 삭제 되었는지 아무 로그가 남지 않습니다. ^C C:\Users\inchangson\k8s>==> k8s-master: Waiting for cleanup before exiting... C:\Users\inchangson\k8s>==> k8s-master: Exiting immediately, without cleanup! Traceback (most recent call last): 55: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/bin/vagrant:231:in `<main>' 54: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/environment.rb:290:in `cli' 53: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/cli.rb:67:in `execute' 52: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/plugins/commands/halt/command.rb:30:in `execute' 51: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/plugin/v2/command.rb:232:in `with_target_vms' 50: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/plugin/v2/command.rb:232:in `each' 49: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/plugin/v2/command.rb:243:in `block in with_target_vms' 48: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/plugins/commands/halt/command.rb:31:in `block in execute' 47: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/machine.rb:201:in `action' 46: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/machine.rb:201:in `call' 45: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/environment.rb:614:in `lock' 44: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/machine.rb:215:in `block in action' 43: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/machine.rb:246:in `action_raw' 42: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/runner.rb:89:in `run' 41: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/util/busy.rb:19:in `busy' 40: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/runner.rb:89:in `block in run' 39: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/builder.rb:149:in `call' 38: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/warden.rb:48:in `call' 37: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/plugins/providers/virtualbox/action/check_virtualbox.rb:26:in `call' 36: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/warden.rb:48:in `call' 35: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/builtin/call.rb:53:in `call' 34: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/runner.rb:89:in `run' 33: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/util/busy.rb:19:in `busy' 32: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/runner.rb:89:in `block in run' 31: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/builder.rb:149:in `call' 30: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/warden.rb:48:in `call' 29: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/warden.rb:127:in `block in finalize_action' 28: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/warden.rb:48:in `call' 27: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/plugins/providers/virtualbox/action/check_accessible.rb:18:in `call' 26: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/warden.rb:48:in `call' 25: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/plugins/providers/virtualbox/action/discard_state.rb:15:in `call' 24: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/warden.rb:48:in `call' 23: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/builtin/call.rb:53:in `call' 22: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/runner.rb:89:in `run' 21: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/util/busy.rb:19:in `busy' 20: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/runner.rb:89:in `block in run' 19: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/builder.rb:149:in `call' 18: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/warden.rb:48:in `call' 17: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/warden.rb:127:in `block in finalize_action' 16: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/warden.rb:48:in `call' 15: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/warden.rb:127:in `block in finalize_action' 14: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/warden.rb:48:in `call' 13: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/builtin/call.rb:53:in `call' 12: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/runner.rb:89:in `run' 11: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/util/busy.rb:19:in `busy' 10: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/runner.rb:89:in `block in run' 9: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/builder.rb:149:in `call' 8: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/warden.rb:48:in `call' 7: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/warden.rb:127:in `block in finalize_action' 6: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/action/warden.rb:48:in `call' 5: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/plugins/providers/virtualbox/action/forced_halt.rb:13:in `call' 4: from C:/HashiCorp/Vagrant/embedded/mingw64/lib/ruby/2.7.0/forwardable.rb:235:in `halt' 3: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/plugins/providers/virtualbox/driver/version_5_0.rb:416:in `halt' 2: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/plugins/providers/virtualbox/driver/base.rb:398:in `execute' 1: from C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/lib/vagrant/util/retryable.rb:17:in `retryable' C:/HashiCorp/Vagrant/embedded/gems/2.2.18/gems/vagrant-2.2.18/plugins/providers/virtualbox/driver/base.rb:440:in `block in execute': There was an error while executing `VBoxManage`, a CLI used by Vagrant (Vagrant::Errors::VBoxManageError) for controlling VirtualBox. The command and stderr is shown below. Command: ["controlvm", "91ca85fb-bd5d-4570-b664-3be7fcc7aceb", "poweroff"] Stderr: 0%...10%...20%...30%...40%...50%...60%...70%...80%...90%...100%\r
-
미해결대세는 쿠버네티스 [Helm편]
nindent 사용시 결과값 하이픈(-) 생성 유무의 차이
안녕하세요 질문 남깁니다. 아래 사진을 참고해주시면 감사하겠습니다. 같은 nindent 6을 사용하여 값을 조회하면 왜 'list' 항목 하위 값들은 하이픈(-)이 들어가고 바로 아래에있는 'object'에 값에는 하이픈이 들어가지 않는건지 궁금합니다.
-
미해결대세는 쿠버네티스 [Helm편]
tomcat 배포시 pod pending 현상
안녕하세요 수업 잘 듣고 있습니다. helm install my-tomcat . -f values.yaml해당 명령어로 차트 실행까지는 정상적으로 되었고 에러 문구도 따로 뜨지 않았습니다. svc는 nodeport로도 잘 연결되어 있는데 pod가 pending이어서 describe를 해보니 PVC가 Unbound 상태여서 그런 것 같습니다. PVC 로그로는 PV가 존재하지 않다는데 다른 설정 파일을 apply 해주어야 하는 걸까요?
-
미해결대세는 쿠버네티스 [초급~중급]
ingress 관련 질문 드립니다.
안녕하세요, 먼저 좋은 강의 감사합니다.Ingress-실습 강의를 보면서 진행하던 중 막히는 부분이 있어 질문 남깁니다. 저는 클라우드 환경에서 작업을 하고 있고, 인스턴스 목록은 다음과 같습니다.MS-worker-02 CentOS 7.9 10.2.0.67MS-worker-01 CentOS 7.9 10.2.0.102MS-master CentOS 7.9 10.2.0.72쿠버네티스 서비스는 다음과 같습니다.[centos@ms-master ~]$ kubectl get svcNAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGEkubernetes ClusterIP 10.96.0.1 <none> 443/TCP 20hsvc-customer ClusterIP 10.97.122.176 <none> 8080/TCP 5h27msvc-order ClusterIP 10.96.220.47 <none> 8080/TCP 5h27msvc-shopping ClusterIP 10.106.190.227 <none> 8080/TCP 5h27m[centos@ms-master ~]$ kubectl get svc -n ingress-nginxNAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGEingress-nginx ClusterIP 10.105.252.136 10.2.0.72 80/TCP,443/TCP 43mingress-nginx-controller NodePort 10.99.180.38 <none> 80:31167/TCP,443:31190/TCP 5h42mingress-nginx-controller-admission ClusterIP 10.105.89.17 <none> 443/TCP 외부에서 ingress를 통해 서비스에 접근하려면 어떻게 해야하나요?제가 생각하기로는 ingress의 포트가 31167이라고 할 때 로드밸런서 포트, 인스턴스 포트를 (80, 31167)로 가지는 로드밸런서를 만들어주고, <로드밸런서 floating ip>/order 이런식으로 접근하면 결과가 나와야한다고 생각하는데 안돼서요...서비스를 NodePort 타입으로 만들어주고 로드밸런서를 서비스 자체에 붙이는 경우에는 잘 됩니다.인스턴스 내부에서 curl <인그레스 주소>:<ingress-controller의 노드 포트>/order처럼 했을 때도 결과가 잘 나오는 걸 봐서는 인그레스 자체는 잘 구성이 된 듯한데, 이를 외부로 어떻게 보낼 수 있을까요?인그레스 컨트롤러도 결국엔 서비스인데, 왜 안 되는지 모르겠습니다.혹은 인그레스 컨트롤러 자체를 load balancer 타입으로 만들어주는 게 맞는 것 같기도한데, 저는 클라우드 환경이긴 하지만 직접 노드를 구성하다보니 external IP가 자동으로 생기지는 않더라고요.외부에서 만든 로드밸런서의 ip나 이런 정보들을 load balancer 타입의 인그레스 컨트롤러 yaml 등에 설정을 직접 해줄 수가 있나요? 혹은 클라우드 환경이라하더라도 쿠버네티스를 직접 구축하는 경우 로드밸런서는 온프레미스 환경과 동일하게 MetalLB를 써야하는 걸까요?
-
미해결Jenkins를 이용한 CI/CD Pipeline 구축
ansible > docker 배포 시 질문사항이 있습니다.
안녕하세요.강의를 듣다보니 질문사항이 생겨 여쭤봅니다. 강의에서 Jenkins-server에서 빌드된 war파일을 ansible-server까지 연동하여. 실제 ansible 서버에서 docker server로 docker 명령어를 날리는 것 까지는 이해 했습니다.하지만 docker server에서 docker 명령어를 날릴 시, 해당 docker server에서는 war파일이 존재하지 않아 에러가 발생하지 않나요?해서 저는 ansible playbook에 docker 명령어 전 copy명령어를 통해 ansible -> docker로 war파일을 전송하는 task를 하나 더 추가하여 해결하였습니다. 혹 제가 놓친 부분이 있어서 이런 작업을 추가한건가요 ?(제가 개인서버를 보유중이라 개인서버 2대로 현재 강의를 따라가다 보니 환경적으로 조금 달라 제가 이해한 부분대로 강의를 따라가고 있습니다..) 답변 주시면 감사하겠습니다.
-
미해결대세는 쿠버네티스 [Helm편]
tomcat 분석과 관련하여 다시 질문 드려봅니다.
제 질문에 아래와 같이 답변 주셨는데- include" 와 include 의 차이는 무엇인지 ?-> {{- 는 왼쪽 공백을 모두 없애라는 의미 입니다. 반대로 -}} 일 경우 오른쪽 공백 삭제고요.mychart.include 라는 변수는 어디에 정의되어 있으며 어떻게 정의되어 있는 건지?-> templates > _helper.tpl 파일에 {{- define "mychart.include" -}} 입니다.mychart.include 즉 가져온 변수는 dict 와 어떻게 결합되어 사용되어 지는건지 ?-> "mychart.include"로 (dict "key1" "value1")를 넣었다고 생각해보세요.-> _helper.tpl 파일에 {{- define "mychart.include" -}} 가 정의된 부분을 보면{{ .key1 }}의 결과는 "value1"이고, {{ get . "key1" }}의 결과도 "value1"이기 때문에최종적으로key: value1dict: value1이 채워진 결과가 나타납니다.==================주신 학습자료를 보면"mychart.include"로 (dict "key1" "value1") 는 configmap 파일인 cm.value 에 정의된 변수였습니다.그럼 이 구조라면 configmap 에서 변수를 읽어서 _helper.tpl 의 변수를 완성하신다는 의미인지요 ?지금까지는 _helper.tpl 변수를 읽어서 configmap 을 완성하는 걸로 이해하고 있었는데.....다시 한번 확인 부탁드립니다.
-
해결됨데브옵스(DevOps)를 위한 쿠버네티스 마스터
docker를 설치한 VM을 master로 사용해야하나요?
저는 VirtualBox를 사용해서 VM환경을 구성하여 실습을 진행하고 있습니다.현재 섹션 6. 쿠버네티스 네트워크의 강의 중 쿠버네티스 네트워크 - 컨테이너 간의 인터페이스 공유 방법을 들었는데 강의 중 docker를 통해 컨테이너 간의 인터페이스를 공유하는 것을 보여주셨습니다.VM 환경 구성 중 master를 섹션 1에서 도커를 사용할 때 사용한 VM으로 사용 해야하나요?섹션 2부터 현재까지 docker를 사용하지 않아서 구성한 환경에는 docker가 없기에 질문 드립니다.
-
해결됨대세는 쿠버네티스 [초급~중급]
vagrant up 생성 도중 자동 삭제 오류
dfvagrant up Bringing machine 'k8s-master' up with 'virtualbox' provider... Bringing machine 'k8s-node1' up with 'virtualbox' provider... Bringing machine 'k8s-node2' up with 'virtualbox' provider... ==> k8s-master: Importing base box 'centos/7'... ==> k8s-master: Matching MAC address for NAT networking... ==> k8s-master: Checking if box 'centos/7' version '2004.01' is up to date... ==> k8s-master: Setting the name of the VM: k8s_k8s-master_1698817614061_95680 ==> k8s-master: Clearing any previously set network interfaces... ==> k8s-master: Preparing network interfaces based on configuration... k8s-master: Adapter 1: nat k8s-master: Adapter 2: hostonly ==> k8s-master: Forwarding ports... k8s-master: 22 (guest) => 2222 (host) (adapter 1) ==> k8s-master: Running 'pre-boot' VM customizations... ==> k8s-master: Booting VM... ==> k8s-master: Waiting for machine to boot. This may take a few minutes... k8s-master: SSH address: 127.0.0.1:2222 k8s-master: SSH username: vagrant k8s-master: SSH auth method: private key k8s-master: k8s-master: Vagrant insecure key detected. Vagrant will automatically replace k8s-master: this with a newly generated keypair for better security. k8s-master: k8s-master: Inserting generated public key within guest... k8s-master: Removing insecure key from the guest if it's present... k8s-master: Key inserted! Disconnecting and reconnecting using new SSH key... ==> k8s-master: Machine booted and ready! ==> k8s-master: Checking for guest additions in VM... k8s-master: No guest additions were detected on the base box for this VM! Guest k8s-master: additions are required for forwarded ports, shared folders, host only k8s-master: networking, and more. If SSH fails on this machine, please install k8s-master: the guest additions and repackage the box to continue. k8s-master: k8s-master: This is not an error message; everything may continue to work properly, k8s-master: in which case you may ignore this message. ==> k8s-master: Attempting graceful shutdown of VM... ==> k8s-master: Destroying VM and associated drives... C:/Program Files (x86)/Vagrant/embedded/gems/gems/i18n-1.14.1/lib/i18n.rb:210:in `translate': wrong number of arguments (given 2, expected 0..1) (ArgumentError)이렇게 진행이 되며 VM 이 생성 되다가 삭제 됩니다.ㅠㅠ뭐가 잘못되고 있는 걸까요..?답변 부탁 드립니다.
-
미해결데브옵스(DevOps)를 위한 쿠버네티스 마스터
http-go 이미지는 몇 강에서 확인할 수 있을까요?
섹션 4에서 포드 디스크립터 작성을 보는 중에 go-http-pod.yaml 파일을 작성하셨는데kubectl create -f go-http-pod.yaml 명령어 실행 후kubectl get pod http-go를 실행하니 Status가 ImagePullBackOff 로 나옵니다.강의 영상에서는 저번에 만들어두셨다고 하셨는데 어떤 강의에서 이미지를 확인할 수 있을까요?
-
미해결대세는 쿠버네티스 [Helm편]
TOMCAT 분석에 있는 내용 중 궁금한 게 있습니다.
include1: {{- include "mychart.include" (dict "key1" "value1") | nindent 4 }} 의 의미를 잘 모르겠습니다."- include" 와 include 의 차이는 무엇인지 ? mychart.include 라는 변수는 어디에 정의되어 있으며 어떻게 정의되어 있는 건지?mychart.include 즉 가져온 변수는 dict 와 어떻게 결합되어 사용되어 지는건지 ?부탁드립니다.
-
미해결데브옵스(DevOps)를 위한 쿠버네티스 마스터
왜 갑자기 master가 등장했는지 ; 어느 강의를 따라가면 Master로 접속이 가능한가요 Gcp로 밑에 강의들을 따라가면되나요?
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.
-
미해결CloudNet@와 함께하는 Amazon EKS 기본 강의
ingress 문제
ingress에 address가 안 생기는데 뭐가 문제인지 알 수 있을까요?
-
해결됨대세는 쿠버네티스 [초급~중급]
vagrant up -> imag pull 단계 멈춤
vagarant up 시 [preflight] You can also perform this action in beforehand using 'kubeadm config images pull'단계에서 1시간 가량 멈추어서 질문드립니다. 서버 로그는 아래와 같으며VirtualBox, vagrant, host os 버젼은 교재와 동일합니다. vagrant vbguest 의 경우 3.0 버젼으로 진행 시 중간에 마운트 에러가 발생하여 0.21 로 버젼 강제하였습니다. https://ballistic-uncle-12b.notion.site/console-log-243c674068b84f6baf1eededae1cb987?pvs=4
-
미해결그림으로 배우는 쿠버네티스("v1.22"-v1.24, v1.27~)
ECK 2.9 구성 상의 문제입니다
VM 환경 4대에 각각 mater 1 대 , worknode 3대 , calico 네트워크 환경으로 구성된 상태입니다.이 환경에서 ECK 를 설치해 보려고 하는데 진행이 잘 되지 않습니다.진행 중 elasticsearch pod 상태가 pending에서 진행이 되지 않고 있으며 persistentVolume 상태가 pending 중입니다. 볼륨 구성 시 문제가 되는 것 같은데 방법을 잘 모르겠습니다. 혹시 도움을 받을 수 있을까요..?참고로 볼륨 로그를 확인해 본 결과 no persistent volumes available for this claim and no storage class is set으로 확인 되었습니다.