묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨실무에서 사용중인 AWS 클라우드 IAM 이해와 보안
terraform destroy 로 s3 bucket을 삭제할 경우
1. 무엇을 하고 싶으신가요?해당 실습을 조금 더 빠르고 간편하게 재현하고 싶어서 s3 bucket과 안에 오브젝트 파일을 생성하는 부분까지 테라폼 코드로 프로비저닝 하였습니다. 강의를 보며 결과까지 모두 확인을 하였고, 이제 위 리소스들을 전부 destroy 하고 싶습니다. 2. 언제, 어떤 오류가 발생하시나요?terraform apply를 할 경우,Role 3개와버킷, 버킷 정책, 오브젝트 파일총 6개의 리소스가 생성됩니다. terraform state list를 통해 관리 대상을 확인해보아도 6개의 리소스를 확인할 수 있습니다.그런데 terraform destroy 명령을 수행할 경우버킷을 제외한 5개의 리소스만 삭제 플랜에 출력되는 것을 확인하였고 이대로 진행할 경우결국 empty한 s3 bucket만 남아 따로 cli 명령이나 콘솔에서 삭제를 해주어야합니다. 3. 어떤 시도를 해보셨나요?내부 오브젝트 파일 때문이라는 가설을 세우고force_destroy = true속성을 true로 지정하였지만 버킷 내부 객체까지만 삭제되었고 버킷은 삭제되지 않습니다.이후 권한 문제라는 가설을 세워보았지만 s3 액세스 정책을 deny 기반으로 ListBucket을 지정하였기 때문에 해당 가설도 기각하였습니다. 4. 작성한 코드를 공유해주세요.data "aws_caller_identity" "this" {} # IAM Role resource "aws_iam_role" "this" { count = 2 name = "thbins-${count.index}" path = "/dev/" assume_role_policy = jsonencode({ Version = "2012-10-17" Statement = [ { Action = "sts:AssumeRole" Effect = "Allow" Principal = { # AWS = "${data.aws_caller_identity.this.arn}" AWS = "arn:aws:iam::${data.aws_caller_identity.this.account_id}:root" } }, ] }) managed_policy_arns = ["arn:aws:iam::aws:policy/AdministratorAccess"] } resource "aws_iam_role" "this2" { name = "thbins-2" path = "/" assume_role_policy = jsonencode({ Version = "2012-10-17" Statement = [ { Action = "sts:AssumeRole" Effect = "Allow" Principal = { # AWS = "${data.aws_caller_identity.this.arn}" AWS = "arn:aws:iam::${data.aws_caller_identity.this.account_id}:root" } }, ] }) managed_policy_arns = ["arn:aws:iam::aws:policy/AdministratorAccess"] } # S3 variable "bucket_name" { description = "S3 bucket name (must be globally unique)" type = string } resource "aws_s3_bucket" "test" { bucket = var.bucket_name force_destroy = true # 버킷 안에 객체를 생성하기 때문에 해당 속성을 true로 지정한다. } data "aws_iam_policy_document" "test_bucket" { statement { sid = "Statement1" effect = "Deny" principals { type = "AWS" identifiers = ["*"] } actions = [ "s3:ListBucket", ] resources = [ aws_s3_bucket.test.arn, "${aws_s3_bucket.test.arn}/*", ] condition { test = "StringNotLike" variable = "aws:PrincipalArn" values = [ # 여기서 account_id를 하드코딩하지 않고 자동으로 맞춰줌 "arn:aws:iam::${data.aws_caller_identity.this.account_id}:role/dev/*", ] } } } resource "aws_s3_bucket_policy" "test" { bucket = aws_s3_bucket.test.id policy = data.aws_iam_policy_document.test_bucket.json } resource "aws_s3_object" "test_file" { bucket = aws_s3_bucket.test.id key = "test_success.txt" content = "This is a test file for IAM path-based S3 access demo.\n" # 선택: 텍스트 파일임을 명시 content_type = "text/plain" }
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
저장된 .csv 파일의 보존 방법
학습을 위해 .csv 파일을 주어진 코드 대로 실행하여 저장하면 /content/sample_data 폴더에 저장됩니다.다만, 이 경로 및 폴더는 임시데이터로 런타임 해제 또는 하루 이상의 시간 경과 시 삭제됩니다. 파일 보존을 위하여 다른 폴더를 생성 및 마운트, 작업 디렉토리 변경을 시도했으나Colab에서 Drive 인증 토큰이 제대로 노트북 세션에 전달되지 않았을 때 발생하는 오류. 즉, “마운트 과정에서 인증이 꼬였다” 는 에러가 발생합니다. 어떻게 해야 저장해왔던 .csv 파일들을 보존할 수 있을까요? 런타임을 다시 실행하여from google.colab import drivedrive.mount('/content/drive')와 같이 코드를 실행했으나, 아래와 같이 에러 메시지가 발생합니다.Error: credential propagation was unsuccessful 마운트에 성공하면 아래와 같이 작업 디렉토리를 변경하고자 합니다.import osos.chdir('/content/drive')
-
미해결AWS Certified Solutions Architect - Associate 자격증 준비하기
화면에 보이는 서비스 역할 추가 방법
강의에서는 서비스 역할에 aws-elasticbeanstalk-service-role 들어가 있는데 저는 하려고 하면 없다고 나오고 옆에 버튼은 누르면 IAM으로 연결이 됩니다.강의영상 제화면강의화면처럼 뜨게 하려면 어떻게 해야 하는 건가요?
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
기출 9회 작업형 3번 문제 1-3
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요 이렇게 풀어도 될까요? # 1) test데이터에서 design값 계산 pred = model.predict(test) # 2) test데이터에 대한 RMSE 계산 from sklearn.metrics import mean_squared_error RMSE = mean_squared_error(test['design'], pred) ** 0.5 print(round(RMSE, 3))
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
pvalue 가 유의하다 ?
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요 pvalue 가 유의수준 0.05보다 작으면 귀무가설을 기각하고 대립가설을 채택하는데 이 경우가 pvalue 가 유의하다라고 이해하면 되는건가요? 대부분의 케이스에서?
-
해결됨[2025년 최신 기출 반영] 빅데이터 분석 기사 실기 시험 100% 합격 ! 기출 문제의 패턴이 보인다 !
8회 1유형 1번 문제
코딩 대한민국님의 정답과 저의 정답이 달라 왜 그럴까 살펴보았습니다.데이터가 무작위 생성이라 그럴 수 밖에 없다는 것을 깨닳았지만,남는 의문점이 있어 질문올립니다.우선, 코딩 대한민국님의 정답입니다.import pandas as pd df1 = df.groupby('region')['coffee_servings'].mean() df2 = df1.sort_values(ascending=False) df3 = df.loc[ df['region'] == 'Central', :] df3.nlargest(3, 'coffee_servings') 데이터 생성 코드입니다.# 데이터 생성 regions = ['North', 'South', 'East', 'West', 'Central'] cities = ['City_' + str(i) for i in range(1, 51)] data = { 'city': random.choices(cities, k=100), 'region': random.choices(regions, k=100), 'coffee_servings': [random.randint(1, 500) for _ in range(100)] }regions = 100개의 observation이 North, South, East, West, Central 중 무작위 1개 값을 가짐cities = 100개의 observation이 1~51번 중 무작위 1개 값을 가짐낮은 확률이지만, 이렇게 생성된 observation 중중복되어 나타나는(예: "city#40 + Central") 데이터가 존재 할 수 있다고 생각합니다. import pandas as pd df1 = df.groupby('region')['coffee_servings'].mean() df2 = df1.sort_values(ascending=False) df3 = df.loc[ df['region'] == 'Central', :] df4 = df3.sort_values('city', ascending=False) df5 = df4.groupby('city')['coffee_servings'].sum() df6 = df5.sort_values(ascending = False) result = df6.iloc[2] result따라서 이렇게 groupby로 한번 더 정리하여 풀었습니다.이것도 정답일 수 있는 것일까요?혹은 오답일까요?추가) 8회 1유형 2번 문제'전자 생산 비율'이 세 번째로 높은 국가의 '전자' 생산량을 x라고 정의하세요.'농업' 생산량이 세 번째로 높은 국가의 '농업' 생산량을 y라고 정의하세요.인데, 강의를 보니 코딩 대한민국님께서는 '전자 생산 비율'을 x라고 정의하신것 같습니다.확인 부탁드립니다.
-
미해결실전! 코틀린과 스프링 부트로 도서관리 애플리케이션 개발하기 (Java 프로젝트 리팩토링)
companion object
안녕하세요 강사님 그 정적 팩토리 매서드는 강의에서 data class dto 측에 써 주셨는데 현업에서는 주로 dto에 쓰는 게 컨벤션인 가요?
-
해결됨누구보다 빠르게 배우는 Springboot + Flutter RestAPI 게시판 만들기
device선택시
디바이스 선택시 Chrome(web)과 저의 실물 핸드폰 연결해서 했더니 안드로이드 스튜디오 코드는 잘 돌아갑니다.하지만 BoardViewModel.dart 코드에서 설정한 url그대로 따라 쳤는데swagger ui에서계속 화면처럼 response body가 비어있습니다.. 계속나와서 혹시 전체 소스코드 공유 안될까요??
-
해결됨즐거운 블렌더 - 아이소메트릭 하우스
Subdivision Surface Modifier Apply하면 Render 설정 값으로 메쉬화되는 걸까요?
Apply하면 mesh화 한다고 하셨는데 매쉬로 만들어 질 때 Render에 설정한 값대로 만들어지나요?
-
해결됨제미니의 개발실무 - 커머스 백엔드 기본편
PointBalanceEntity에서 낙관적 락
안녕하세요! 강의를 듣다가 궁금한 것이 생겨서 질문 남깁니다.PointBalanceEntity에 낙관적 락을 추가해서 유저의 어뷰징을 방지한다고 하셨는데, 비관적 락이 아니라 낙관적 락을 사용하는 이유가 있을까요?포인트 적립이나 사용에 있어서는 충돌 가능성이 많지 않아서 낙관적 락만으로 해결 가능한 것인지, 아니면 비관적 락보다 성능이 더 좋아서 그런 것인지 궁금합니다.물론 말씀하신대로 상황마다 모두 다르겠지만, 대체로 어느 정도 규모가 있는 서비스에서도 낙관적 락만으로 해결이 되는 것인지도 궁금합니다.
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
2유형 과정 질문드립니다.
target = train.pop('총가스사용량') #원핫인코딩 # train = pd.get_dummies(train) # test = pd.get_dummies(test) #라벨인코더 from sklearn.preprocessing import LabelEncoder cols = train.select_dtypes(include = 'object').columns for col in cols: le = LabelEncoder() train[col] = le.fit_transform(train[col]) test[col] = le.transform(test[col]) #데이터 분리 from sklearn.model_selection import train_test_split X_tr, X_val, y_tr, y_val = train_test_split(train, target, test_size = 0.2, random_state = 0) # 랜덤포레스트 from sklearn.ensemble import RandomForestRegressor rf = RandomForestRegressor(random_state = 0) rf.fit(X_tr,y_tr) pred = rf.predict(X_val) #라이트gbm # import lightgbm as lgb # lg = lgb.LGBMRegressor(random_state=0, verbose=-1) # lg.fit(X_tr,y_tr) # pred = lg.predict(X_val) #평가지표(RMSE) from sklearn.metrics import root_mean_squared_error rmse = root_mean_squared_error(y_val, pred) rmse #라벨인코더 - 랜덤포레스트 > 959.3866443164056 #원핫인코딩 - 랜덤포레스트 > 960.485846380754 #원핫인코딩 - 라이트지비엠 > 1064.8095758723994 #라벨인코더 - 라이트지비엠 > 1069.1629932934077 pred_final = rf.predict(test) submit = pd.DataFrame({'pred':pred_final}) submit.to_csv('result.csv',index=False) pd.read_csv('result.csv')10회 유형2번을 풀어봤는데라벨인코더와 원핫인코딩 두 가지,LightGBM과 랜덤포레스트 두 가지이렇게 써서 4가지 경우의 수로 rmse가 가장 낮은 모델을 사용했습니다.이 정도의 과정만 거쳐서 가장 좋은 모델을 적용해서 제출해도 높은 점수를 받을 수 있을까요? 기출 대부분이 전처리(결측치삭제, 대체 등)과정이 필요없던데 이번에 다가오는 시험에서도 전처리 할것이 없다고 판단되면 굳이 안건드려도 되는건가요?
-
해결됨Basic SystemVerilog Testbench ( 회로설계 검증 )
섹션 3. 20 DPI 이해하기 에서 DPI-C : Compile and Debug 부분 질문 입니다.
DPI-C 디버깅 관련 질문 강의 Section 3.20 (DPI 이해하기)에서 DPI-C Compile and Debug 부분을 청강하면서 다음과 같은 내용을 확인했습니다: C/C++ source code에 -CFLAGS와 -g 옵션을 적용하면 DVE와 Verdi에서 디버깅이 가능하다는 설명과 함께 "자세한 부분은 별도 안내 예정" 이라고 comment 주셨습니다. 그 이후의 강의 컨텐츠에서 해당 주제에 대한 추가 설명을 발견하지 못하여 어떤 부분이 추가적으로안내될지 궁금하여 질문드립니다. 감사합니다.
-
해결됨【2025年版】Unity×C#入門講座|2Dタワーディフェンスゲーム開発マスター|クリック&バトルシステムの作り方
수업 자료 링크를 어디서 볼 수 있나요?
쩝.. 일본 강의를 번역한 거였군요.좀 표시해 두시지.수업 자료 링크만 알려주십시오.한번 공부해 보겠습니다.
-
미해결
C# 프로그래밍 기초(이교준) 일본말로 들립니다.
왜 일본말로 들리지요? 처음에는 꼬였나했는데, 오늘 들어봐도 일본말이 나옵니다.C# 프로그래밍 기초본 강좌는 C# 문법 위주로 구성되어있지 않습니다. 클래스를 이해하고 만드는 요령 위주로 구성되어 있습니다. 기초 문법도 다루지만 많은 예제를 가지고 진행하기 때문에 프로그램 실전 작성 요령 강의가 많이 포함되어 있습니다.(4.9) 수강평 81개수강생1,427명이교준
-
미해결따라하며 배우는 도커와 CI환경 [2023.11 업데이트]
Docker Containers간 통신 할 때 나타나는 에러 강의 질문
안녕하세요. Docker Containers간 통신 할 때 나타나는 에러 강의 를 듣고 있는데요. 강의중에서 컨테이너1 (노드 js 앱 + redis client) 컨테이너2(레디스서버) 라고 그림을 그려주셨는데요. 궁금한것이 레디스 서버는 왜 다른 컨테이너 안에 있나요? 하나의 docker file에 이미지 생성후 , 컨테이너를 만들어서 실행시킨건데 그러면은 하나의 container 안에 들어있는거 아닌가요?
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
분산분석 질문
안녕하세요 생각보다 할게 많아 복잡해서 몇가지 여쭤보고자 합니다!! 일원 분산 분석을 진행 할때 가장 먼저 정규성 검정을 해서 A,B,C,D라는 그룹이 있다는 가정하에 하나라도 0.05를 넘지 못하면 크루스칼 비모수 검정만 진행하고 끝내면 될까요?이원 분산 분석은 정규성 검정, 등분산 검정은 너무 어려워보여서 학습을 안할까하는데 여태껏 출제된적이 있을까요?일원 분산 분석과 이원분산분석의 사후검정 또한 학습을 하는 편이 좋을까요? (양이 너무 많아서 뺄수있으면 빼고싶은 마음에 여쭤봅니다)일원분산 분석에서 만약 등분산검정을 했는데 피밸류가 0.05를 못넘었다면 equal_var=False 이값을 어디에 넣어주어야하나요? 감사합니다.
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
8회 작업형2
import pandas as pd train = pd.read_csv("https://raw.githubusercontent.com/lovedlim/inf/refs/heads/main/p4/8_2/churn_train.csv") test = pd.read_csv("https://raw.githubusercontent.com/lovedlim/inf/refs/heads/main/p4/8_2/churn_test.csv") df=pd.concat([train,test],axis=0) df=pd.get_dummies(df) train=df.iloc[:len(train)].copy() test=df.iloc[len(train):].copy() target=train.pop('TotalCharges') from sklearn.model_selection import train_test_split X_tr,X_val,y_tr,y_val=train_test_split(train,target,test_size=0.2,random_state=0) from sklearn.ensemble import RandomForestRegressor rf=RandomForestRegressor(random_state=0) rf.fit(X_tr,y_tr) pred=rf.predict(X_val) pred=rf.predict(test)unique수가 달라서 concat으로 실행했는데 오류가 납니다.
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
작업형 2 제출
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요작업형 2번 제출 시 result.to_csv("result.csv", index = False) 까지만 적어서 제출하면 되나요? 아니면 pd.read_csv("result.csv") 까지 작성해서 제출해야 하나요?
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
원핫인코딩 할때
원핫인코딩 시 train, test 데이터를 pd.concat 로 병합하고 다시 분리하는 단계는 생략해도 되나요??
-
해결됨원클릭으로 AI가 생성해주는 Youtube 쇼츠 만들기 자동화(with n8n)
OpenAI Char Model 에서 n8n 이 나오지 않습니다.
안녕하세요저는 n8n 모델이 나오지 않습니다.