묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결그로스해킹 - 데이터와 실험을 통해 성장하는 서비스를 만드는 방법
강의질문
책과 강의 내용이 일치하는걸까요?
-
해결됨핵심만 쉽게, 모두의 SQL 데이터 분석
교안 pdf
안녕하세요.교안pdf는 따로 받을 수 없나요?
-
미해결다양한 사례로 익히는 SQL 데이터 분석
시각화 그래프가 안보여요
안녕하세요. 매출 분석01 - 일/주/월/분기별 매출액 및 주문건수 시각화 하기강의를 들으면서 코드를 실행하는데 그래프가 이러타할 오류없이 나타나지 않아서 글 작성합니다. 각각 라이브러리의 버전은 아래와 같습니다. 쥬피터 파일 내의 [일별 매출 시각화] 에 대한 코드를 실행하는데, 쿼리가 들어간 데이터 프레임까지는 잘 실행이 되는데, 그래프를 그리는 코드를 실행하면 그래프가 나타나지 않습니다. <스크린샷1 - 데이터 프레임은 잘 나타남> <스크린 샷2 - 그래프 그리는 코드 실행시 그래프가 나타나지 않음> <스크린 샷 3 - 그래프 그리는 코드 실행시 그래프가 나타나지 않음> <스크린 샷4 - 키 에러라고 뜨는데 왜 이렇게 나타나는지 잘 모르겠어요. 코드를 따로 바꾸거나 수정하지 않았습니다. > 터미널이 이상해서 그런가하고 전체적으로 다 끄고 다시 켜서 실행해 봤는데도 나타나지 않아서 질문 드립니다.
-
해결됨구글에서 인정한 파트너가 세팅하는 방식 그대로: 구글광고 이론과 실습
GA에서 유입 경로 확인
안녕하세요, 강의 감사합니다.아직 GA를 전혀 알지 못해서 궁금한 점이 한 가지가 있습니다.저희 회사는 출판사여서 자체 웹 사이트가 아닌 온라인 서점을 통해 책을 판매하고 있습니다.이러한 경우에는 GA에서 유입 경로를 확인하는 것이 불가능한가요?답변 주시면 감사하겠습니다.
-
해결됨다양한 사례로 익히는 SQL 데이터 분석
ntile 정규분포에 관하여 ... 향후 일을 하게 될 시
강의를 듣는 도중, ntile()의 경우, 분포가 skew가 심하면(정규분포가 아니라면), 순위를 매길 때, 문제가 생김을 배울 수 있었습니다. Q1. 저는 왜곡이 되어있는 걸 보자마자, 차라리 판다스나 Spark SQL로 데이터를 정규화 한뒤에, 시각화를 하는게 더 빠르지 않을까? 하는 생각이 들었는데요, 기업에서 일을 하게 될 때, 어떤 경우에 SQL을 쓰는지가 궁금합니다.저는 강사님의 강의를 수강하며, python 데이터 분석 -> 머신러닝 -> 딥러닝 이후, 현재 SQL강의를 수강하고 있습니다. 희망직무는 데이터 사이언스트 및 데이터 엔지니어를 희망하는데, 항상 채용공고를 보면, python 능력도 중요하지만 고급 SQL 능력도 자격요건으로 되어 있는 경우가 많았습니다.Q2. 현업에서 데이터를 가공하거나 처리할 때, 오히려 프로그래밍언어보다는 SQL를 훨씬 많이 쓴다고 하는데, Q1처럼 때에 따라 유동적으로 쓰는 것인지, 아니면 앞으로 데이터 분석을 연습할 때도, (이를 테면, 캐글과 같은) 파이썬 보다는 SQL위주로 연습하는 것이 더 적합한 건지 여쭙고 싶습니다. Q3. 이건 머신러닝과 관련된 이야기지만, 이렇게까지 skew가 개선되지 않을 때는 어떻게 해야하나요?from sklearn.preprocessing import StandardScaler # OverSampling을 해도 Skew가 개선되지 않음 # UnderSampling을 하면 데이터가 줄어들기 때문에, 사용에 유의가 필요하나 skew가 # 너무 심하기 때문에 사용함. from imblearn.under_sampling import CondensedNearestNeighbour from scipy import stats import numpy as np def log_transform(column): return np.log1p(column) scaler = StandardScaler() df["freq"] = log_transform(df["freq"]) df["freq"] = scaler.fit_transform(df[["freq"]]) cnn = CondensedNearestNeighbour(sampling_strategy='majority', random_state=42) X_resampled, y_resampled = cnn.fit_resample(df[["freq"]], df["user_id"].values) resampled_df = pd.DataFrame(data=X_resampled, columns=["freq"]) print(resampled_df) ####### freq 0 -0.352373 1 -0.352373 2 -0.352373 3 -0.352373 4 2.495698 ... ... 2557 -0.352373 2558 3.642937 2559 -0.352373 2560 -0.352373 2561 -0.352373 [2562 rows x 1 columns] ######### resampled_df["freq"] = log_transform(resampled_df["freq"]) resampled_df["freq"].skew() ### 2.4721717038971214
-
미해결3시간에 끝내는 디지털 마케팅의 모든 것
구좌계약의 단점 질문
강사님 안녕하세요! 강의 수강중에 질문사항이 있어 글 올립니다.콘텐츠 마케팅의 구좌계약의 단점에서 중간단계 확인불가로 인해 성과추적한계가 있다고 말씀하셨는데 여기서 중간단계란 어떤 의미인지 또 왜 확인이 불가한지 궁금합니다! 답변해주시면 감사하겠습니다!
-
해결됨비즈니스 애널리틱스, 데이터 기반 마케팅 영업 전략 실무 마스터 클래스
고객 유효 확률 > 최신 거래 시점
안녕하세요 :) 인프런 수강생입니다.유익한 강의 너무 감사합니다! 고객 유효 확률 파트를 듣던 중 궁금한 점이 있어 질문 남겨 드립니다. 1) (t/T) ^ n>> 해당 공식에서 t 가 '고객의 가장 최근 거래 시점' 이리고 말씀해주셨는데, 실제 엑셀상에서 계산할 때는 '최초 구매일 - 최신 구매일' 로 계산해주신 것을 보았습니다. '고객의 가장 최근 거래 시점' 이 저는 '최신 구매일' 과 동일할 것이라 생각했는데, '최초 구매일- 최신 구매일' 특정 '기간' 처럼 계산하게 되는 이유에 대해 좀 더 구체적으로 말씀해주실 수 있을까요?? 2) 해당 공식의 출처고객을 유의미하게 보는 공식을 처음 접해서 해당 공식이 나오게 된 배경이나 다른 공식들이 있는지 더 검색해보고 싶은데 단순히 '고객 유효 확률' 이라 검색했을 때는 검색 결과가 한정적인 것 같습니다. 혹시 추천해주실만한 검색 키워드나 해당 공식의 출처에 대해서도 말씀해주실 수 있으실까요??
-
미해결다양한 사례로 익히는 SQL 데이터 분석
사용자별 월별 세션 접속 횟수의 구간별 분포 집계 SQL - where절
선생님 안녕하세요?강의 잘 보고 있습니다.월 말일 기준으로 2일전에 생성한 user를 제외하고, session 수를 카운트 하기 위해서 where 절 안에 아래와 같이 수업시간에 말씀주셨었는데요. select a.user_id, date_trunc('month', visit_stime)::date as month, count(*) as monthly_user_cntfrom ga.ga_sess ajoin ga.ga_users b on a.user_id = b.user_idwhere b.create_time <= (date_trunc('month', b.create_time) +interval '1 month' - interval '1 day')::date -2group by a.user_id, date_trunc('month', visit_stime)::date 이 부분에 의하면, 말일 기준으로 2일 전부터 말일까지 create된 user의 경우, 모든 month에서 session 데이터가 필터링 되는데 의도하신 바가 맞으신지요? 어떤 user가 9월 29일에 create 하고, 9월 30일에 session 기록이 있으면, 이건 count되지 않고,10월 3일의 session 기록은 10월에 count하는 것이 의도하신 것이 아닌지요?그럴경우에는 아래와 같이 where 절을 수정해야 count가 될 것 같아요.where b.create_time <= (date_trunc('month', a.visit_stime)+interval '1 month' - interval '1 day')::date -2
-
해결됨다양한 사례로 익히는 SQL 데이터 분석
쿼리 관련 질문이 있습니다.
안녕하세요. 강의 듣는 중 궁금한 점이 있어서 질문드립니다. 만약 '카테고리별 기준 월, 전 월, 작년 월 ( 기준 월 = 2023/10, 전월 = 2023/09, 작년 월 = 2022/10)의 차이'를 구하라고 한다면 강의와 같이 기준 연월의 일년 정도의 데이터(2022/10 ~ 2023/10)를 가져와서 사용하는게 더 좋을까요?아니면, 3개 조건 각각 select하여 카테고리 기준으로 join하는게 더 좋을까요?ex) with as ( 기준 월), with as (전 월), with as (작년 월)... 혹은 더 좋은 방법이 있다면 알려주시면 감사하겠습니다. 이런 질문 드려도 되는지 모르겠지만.. 강의 잘 듣고 있습니다.감사합니다.
-
미해결다양한 사례로 익히는 SQL 데이터 분석
주문별 연관상품 추출 SQL 관련 문의
안녕하세요?주문별 연관 상품 추출 SQL에서SELECT a.order_id, a.product_id, b.product_id from ga.order_items a join ga.order_tems b on a.order_id = b.order_id where a.product_id <> b.product_id위 코드와 같이 where 절 안에서 같은 product_id가 조인 되는 경우를 filtering 하였습니다.혹시 join 조건절에서(아래 sql과 같이) filtering 하지 않고 where 절에서 하는 이유가 있을까요?SELECT a.order_id, a.product_id, b.product_id from ga.order_items a join ga.order_tems b on a.order_id = b.order_id and a.product_id <> b.product_id
-
미해결GA4 필수 코스 (by 현직 실리콘밸리 마케팅 디렉터)
3강 쳅터요약에서 추천해준 웹 기술이 강의하단에 있다고 하셨는데 어디있는지 못 찾겠습니다.
3강 쳅터요약에서 추천해준 웹 기술이 강의하단에 있다고 하셨는데 어디있는지 못 찾겠습니다.
-
미해결다양한 사례로 익히는 SQL 데이터 분석
order by 정렬 문의
안녕하세요 강사님 group by + distinct를 비교해보다 이유는 모르겠지만 위에 distinct를 넣은 것은 day 컬럼이 자동으로 정렬이 되었고아래의 distinct를 넣지 않은 컬럼은 정렬 되지 않았습니다 아래도 역시 distinct 를 넣으니 자동 오름차순이 되었습니다 (count( DISTINCT oi.order_id)) 혹시 그 이유가 궁금합니다 또, order by 처리 시 쿼리 속도가 느려진다는 말이 있는데 이런식으로 order by 를 넣지 않고 자동 정렬 되는 것이 있다면 쿼리 속도 향상에 도움이 될까요? 쿼리문자동 정렬 SELECT date_part( 'day', o.order_date) AS DAY, sum(amount) AS sum_amount, count(DISTINCT o.order_id) AS daily_ord_cutFROM orders o, order_items oiWHERE 1 = 1AND o.order_id = oi.order_idGROUP BY date_part( 'day', o.order_date)ORDER BY 1;정렬 안됨SELECT date_part( 'day', o.order_date) AS DAY, sum(amount) AS sum_amount, count( oi.order_id) AS daily_ord_cutFROM orders o, order_items oiWHERE 1 = 1AND o.order_id = oi.order_idGROUP BY date_part( 'day', o.order_date);
-
미해결그로스해킹 - 데이터와 실험을 통해 성장하는 서비스를 만드는 방법
서비스 내의 세부 서비스에 대한 PMF 확인
안녕하세요! 현업에서 일하고 있는 주니어 데이터분석가입니다 :)먼저 강의를 통해 정말 도움이 많이 되고 있어 감사의 말씀드립니다! 한 강의에 담긴 내용이 많아서 전체적으로 강의를 다 듣고 다시 듣는데 이제 점점 이해가 되는 것 같아요! 양질의 강의 감사드립니다! 그리고 실무에 적용해 보는 중에 몇 가지 궁금증이 있어서 질문드립니다!현재 서비스 내에서 판매하는 상품 중 '어떤 상품 A가 딱히 잘 팔리는 것 같지도 않고 판매 효과도 없는 것 같아서 계속 판매할지 판매를 중지할지'에 대한 니즈가 있어 해당 문제를 그로스 해킹 강의에서 배운것을 토대로 접근해 보려 하고 있습니다!우선 첫번째로 PMF를 확인하기 위해이 상품 A가 정말 문제가 있는건지?를 상품을 구매한 고객의 Retention이 안정화 되는 추세가 있는지로 확인 해 보려고 합니다.제가 이해한 PMF는 '개선을 위한 실험으로 돌입할 만한 단계의 상품/서비스인가?'로 이해했는데요 그래서 저는 제가 직면한 문제의 경우 전체 서비스 내에서 제공하는 상품 중 일부(?)이기 때문에 위와 같은 방식으로 적용해 볼 수 있을거라고 생각했습니다! 그 후에 PMF에 적합하면 상품 판매는 유지하고 개선해 나가는 방식으로 실험을 해보려고 했습니다.근데 여기서 추가적으로 전체 서비스의 Retention과 비교해서 좀 더 Retention이 높은지(?)를 확인해야할 수도 있겠다라는 생각이 들었습니다. 이 경우는 서비스 내의 상품이기 때문에 서비스를 이용하는 고객이 전체 풀이고 그 고객에게 잘 팔리는지를 봐야하기 때문이라고 생각했는데요보통 이렇게 전체 서비스 안에 특정 서비스에 대한 그로스해킹을 하는 경우는 어떤 식으로 접근하는지 궁금하고 제가 접근한 일련의 방식들이 강의 내용과 일맥상통한지(?) 궁금합니다!감사합니다 :)
-
미해결다양한 사례로 익히는 SQL 데이터 분석
Pandas 연계 오류
안녕하세요, Pandas 연계 과정 중 위와 같은 오류가 지속적으로 발생합니다.아나콘다 관리자모드에서 psycopg2-binary 인스톨 완료했으며, 패스워드와 로컬호스트 넘버도 이상 없습니다. 버전도 모두 상위 버전으로 이상 없습니다.해결 방법 문의 드립니다.감사합니다.
-
해결됨그로스해킹 - 데이터와 실험을 통해 성장하는 서비스를 만드는 방법
그로스조직이 일할때 ICE FACTOR프레임워크 질문
ICE FACTOR 프레임워크로 우선순위를 결정한다면쉬운것만 하려고 하지 않을까요?리소스가 덜들어가고 쉽게 성공할 수 있는 아이디어만 개선되지 않을까 싶네요
-
해결됨그로스해킹 - 데이터와 실험을 통해 성장하는 서비스를 만드는 방법
iOS 앱설치 캠페인에 대한 데이터 분석
안녕하세요!iOS 14.5 이슈로 인하여 앱설치 캠페인에 대한 효율 분석이 많이 어려워졌는데요. 물론 ATT 동의율을 높이기 위한 활동을 한다거나, 모든 소재에 딥링크를 설정한다면 트래킹이 충분히 가능하겠지만, 캠페인을 운영하다보면 그렇게 세팅을 못하는 경우가 꽤 있더라구요. 예를 들어 페이스북에서 제공하는 자동화 앱설치 같이 개별 소재에 대한 딥링크 설정이 안 되는 방식의 캠페인을 진행했을 때 iOS ATT 미동의 유저들은 오가닉으로 잡혀 버리는데요, 이런 데이터들은 어떤 방식으로 구분해서 분석하는 게 좋을까요?일단 페이스북과 앱스플라이어 측에서 제공하는 대략적인 수치를 바탕으로 오가닉의 n%는 A매체에서 어시스트 했다 정도로만 보고 있는 상황인데요(SKAN은 딜레이와 누락이 커서 적극적 활용은 지양하고 있습니다), 강사님께서는 해당 이슈에 대해서 어떻게 생각하시는지, 대응은 어떻게 하셨는지 너무나도 궁금합니다.
-
미해결다양한 사례로 익히는 SQL 데이터 분석
실습용 데이터 복원 에러
데이터 복원 과정에서 에러가 발생하여 문의 드립니다.OS는 윈도우 11 사용하고 있구요, DBeaver는 23.1.5버전, Postgresql은 11.2.1 버전 사용하고 있습니다.
-
해결됨그로스해킹 - 데이터와 실험을 통해 성장하는 서비스를 만드는 방법
revenue에서 cac와 cpa의 정확한 차이가 뭔가요?
cac 고객획득비용이고 cpa도 어떤 한 액션당 비용인데두개가 같은 의미인지 헷갈립니다깔때기로 본다면 cac는 초반 획득에서 많이 쓰이는 지표고 cpa는 전환에서만 주로 쓰이는 지표라고 생각했는데 이게 맞는 의미인가요?
-
미해결그로스해킹 - 데이터와 실험을 통해 성장하는 서비스를 만드는 방법
어트리뷰션에 관해서 질문이 있습니다
강사님이 말씀해주신것처럼 페이스북이나 구글광고를 할때 보통 기여기간이 정해져있는걸로 알고있습니다그리고 그걸 ga에서 봐도 ga에서도 기여기간이 전환 30일이내로 설정할 수 있는데 말씀하신것처럼 매체사는 자기가 전환이 됐다고 표시하면 전환데이터를 ga에서 보는게 오류가 있고 어느정도 부정확할 수도 있나요? ...이렇게 되면 과추정이 되니 어떻게 하면 보고서를 작성할때 이런 오류를 줄일 수 있을지 고민이 됩니다
-
미해결다양한 사례로 익히는 SQL 데이터 분석
수료증
수료증 주나요?