한국에서 끝낼 거야? 영어로 세계 시장을 뚫어라! 🌍🚀
안녕하세요. UC Berkeley에서 💻 컴퓨터 공학(EECS)을 전공하고, 실리콘 밸리에서 15년 이상을 소프트웨어 엔지니어로 일해왔으며, 현재는 실리콘밸리 빅테크 본사에서 빅데이터와 DevOps를 다루는 Staff Software Engineer로 있습니다.
🧭 실리콘 밸리의 혁신 현장에서 직접 배운 기술과 노하우를 온라인 강의를 통해 이제 여러분과 함께 나누고자 합니다.
🚀 기술 혁신의 최전선에서 배우고 성장해 온 저와 함께, 여러분도 글로벌 무대에서 경쟁할 수 있는 역량을 키워보세요!
🫡 똑똑하지는 않지만, 포기하지 않고 꾸준히 하면 뭐든지 이룰수 있다는 점을 꼭 말씀드리고 싶습니다. 항상 좋은 자료로 옆에서 도움을 드리겠습니다
직무 데이터 엔지니어 / SRE / DevOps / Architect
경력 15년+
현직 실리콘밸리 빅테크
미국 취업 성공기
처음 미국 땅을 밟던 날의 설렘과 불안함이 여전히 생생하게 떠오릅니다! 기대와 흥분도 잠시, 과연 이 곳에 내가 발을 디디고 일할 수 있는 곳이 있을까 두렵기도 했는데요. 책을 읽고 격려의 말을 메모장에 적으며 매일을 견뎠답니다.
어느덧, 저는 실리콘밸리 빅테크에서 매일 34B의 이벤트를 처리하고, 10PB 이상의 데이터를 다루고, 100TB 메모리를 활용하는 거대한 데이터 팀에서 일하고 있습니다. 새로운 도전과 난해한 문제를 끊임없이 마주하지만, 누구보다 민첩하게 신기술을 개발하고 실무에 적용하는 멋진 동료들과 덕분에 정말 즐겁게 업무에 임할 수 있습니다.
그 밖에도 취미로 유튜브/인프런을 통해 빅데이터 및 DevOps/SRE(Site Realiability Engineer) 관련 기술 강의를 제작하며, 각 레벨에서 필요한 지식을 전달하며 함께 성장하는 즐거움으로 일상을 채웁니다.
멘토링 카테고리
제 전문분야인 데이터 엔지니어링과 DevOps을 중심으로 멘토링을 진행합니다. 주로 취업/이직/유학을 많이들 물어보시는데, 사실 이 모든 커리어 전환의 핵심은 각 포지션의 최소~최대 요구조건이 무엇이냐에 달려있습니다.
대략적 가이드라인을 드리면 아래와 같습니다.
- 취업/이직: 현재 기술 실력, 경험, 이력서, 취업이나 이직의 목적
- 유학전략: 나이, 전공, 가고자 하는 대학, 집안의 서포트
막연함 대신 전략과 노하우가 연봉상승의 핵심
충분히 실력과 가능성이 있는 분들이 무엇부터 시작해야 하는지 막연함을 느끼며 아까운 시간만 보낼 때, 적절한 멘토링이 원하는 방향을 찾고 나아가는 추진력이 되는 것을 보았습니다.
현지에서 실제로 취업/이직을 하며 여기까지 오며 쌓은 경험와 노하우, 다양한 동료에게 들은 성공담과 전략을 공유하고, 해외 취업을 위한 용기를 드리려 합니다.
연봉에 대해 많이 물어보시는데, 지역마다 다르지만 실리콘밸리 기준 인턴(주니어) 초급 연봉은 대략 150,000불(1억 8천만원)정도입니다. 현재 제가 받는 연봉은 캘리포니아에서 충분히 자가를 구매할 수 있는 정도라고 보시면 됩니다. 조금만 자랑을 하자면, 집 근처에는 고 스티브잡스의 집이 있고, 아침이면 실리콘밸리를 이끄는 IT기업 리더들이 자전거를 타거나 커피 마시는 모습을 심심치않게 볼 수 있는 재밌는 동네입니다.
멘토링 방향 예시/소요시간
- 기술/커리어 상담
- 현재 기술 수준 파악 + 개인 목표를 위해 필요한 스킬/커리어 세팅 및 전략과 실제 사례 공유 (1시간)
- 시뮬레이션
- 코딩 테스트/피드백 (최소 1시간)
- 모의 영어 면접 (최소 1시간)
- 프로젝트 조언
- 비영리 목적 프로젝트/취업 포트폴리오에 대해서 방향이나 기술 조언 (최소 1시간)
- 기타 상담/조언
- 미국 취업 자체에 대해 아직 확신이 없고, 뭐부터 시작해야 할 지도 모르겠는 경우(최소 1시간)
- 전략과 방향성은 수립했지만 여전히 막막해서 격려가 필요하신 분(최소 1시간)
신청 방법/진행 방식
서로에게 주어진 짧으며 값비싼 시간을 최대한 유용하게 사용하고 싶습니다. 아래의 링크를 통해 멘토링을 작성하시고, 저에게 많은 것을 묻고 최대한의 것을 얻어가시길 바랍니다!
- 양식 작성 (https://forms.gle/XtgnETW2kxjeNUPS9)
- 확인 후 준비 과정 및 시간 조율
- 전달된 Google Meet으로 멘토링 진행
멘토 이력/강의
강의
로드맵
전체 3수강평
- 실리콘밸리 엔지니어와 함께하는 리눅스 실전
- 실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)과 랭그래프(LangGraph) 그리고 MCP
- 실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)과 랭그래프(LangGraph) 그리고 MCP
- 실리콘밸리 엔지니어와 함께하는 Apache Flink
게시글
질문&답변
dns 관련하여 질문이 있습니다.
안녕하세요 Domini님,제가 잘 이해했는지 모르겠는데, 밑에 AI가 말한 대로 AWS 같은 곳에서 하신다면 등록하신 Custom한 도메인을 Route53에서 Ingress 주소와 연결하시면 됩니다.
- 0
- 2
- 8
질문&답변
kafka 단독 실시간 데이터 처리보다 flink를 추가로 구축하고 사용시의 장점에 대해 질문 드립니다.
안녕하세요, 백지훈님,좋은 질문이에요. 요약하자면...Kafka 단독일 경우에는 메시지 버스 + 간단한 소비/생산에 최적이라 할수 있고, 상태가 작고, 윈도우/조인/지연 이벤트 처리가 단순한 경우 괜찮습니다.Flink 추가하시면 대규모 상태, 이벤트타임 정확성, 복잡한 윈도우 조인, 재처리 및 Backfill, 정확히 한 번 처리까지 더 많은 장점이 있습니다.제가 실전에서 느꼈던 좋은 점으로는 지연 이벤트 보정, 세션 종료 타이머 같은 것을 잘 쓰고 있습니다.
- 0
- 1
- 8
질문&답변
실무에서의 제네레이터 함수 사용에 관한 질문입니다.
안녕하세요 망고님,제네레이터(generator)는 "한 번에 모든 데이터를 메모리에 올리지 않고, 필요한 시점에 한 덩어리씩(lazy하게) 계산하거나 읽어들이는 함수"입니다. 말그대로 필요할 때마다 사용하는 겁니다.이는, 메모리 효율성과 스트리밍 처리를 동시에 가능하게 합니다. 가장 많이 사용하는 쪽으로는 로그 파일, 대규모 CSV, 데이터베이스 쿼리 결과 등을 한 번에 전부 읽지 않고, 한 줄씩 처리할 때 사용합니다.def read_large_file(filename): with open(filename, "r") as f: for line in f: yield line.strip() # 한 줄씩 반환 for line in read_large_file("big_log.txt"): process(line)이렇게 하면 10GB짜리 로그 파일도 메모리 폭발 없이 안정적으로 처리할 수 있습니다.데이타를 다루는 쪽에서는 없어서는 거라고 생각하면 됩니다
- 0
- 2
- 10
질문&답변
append 모드 사용 시 집계
안녕하세요 권지혁님,핵심은 “Append 모드로는 ‘최종값만 확정된 행’만 쓸 수 있다”는 점이에요. 집계(aggregation)는 원래 값이 계속 변하므로, 최종값을 판정할 기준(이벤트 시간이 닫혔다 등)이 없으면 append가 불가합니다하지만, 이벤트 타임 열과 워터마크를 설정하고, 시간 윈도우(또는 세션 윈도우) 로 집계하면, 워터마크를 넘어 늦게 올 데이터는 무시되고, 해당 윈도우의 결과를 최종값으로 확정할 수 있어 append가 됩니다.from pyspark.sql import functions as F events = ( spark.readStream .format("kafka") .option("kafka.bootstrap.servers", "broker:9092") .option("subscribe", "events") .load() .selectExpr("CAST(value AS STRING) AS value", "CAST(timestamp AS TIMESTAMP) AS ts") ) agg = ( events .withWatermark("ts", "15 minutes") # 늦게 오는 데이터 허용 한도 .groupBy(F.window("ts", "10 minutes"), F.col("value")) .count() .select( # 윈도우 컬럼 평탄화(선택) F.col("value"), F.col("count"), F.col("window.start").alias("window_start"), F.col("window.end").alias("window_end"), ) ) query = ( agg.writeStream .outputMode("append") # 윈도우가 ‘닫히면’ 최종 레코드만 append .format("kafka") .option("kafka.bootstrap.servers", "broker:9092") .option("topic", "events_agg_10m") .option("checkpointLocation", "/chk/agg_10m") .start() )왜 되나? 윈도우는 끝 시각이 있고, 워터마크가 지나면 “이 윈도우 값은 더 이상 바뀌지 않는다”라고 판단 가능 → 최종 레코드만 append.즉, Kafka/File 등 append-only 싱크로 집계를 쓰고 싶다라고 하시면 withWatermark + window 집계 + outputMode("append")로 디자인 하시면 될 듯 합니다.
- 0
- 2
- 13
질문&답변
CDC 기반 스파크 아키텍처 구현 방법이 궁금합니다.
앗 죄송합니다. 제가 질문이 들어온 걸 인지를 못하고 있었네요RDS -> (CDC) -> S3(Parquet) -> EMR/Spark 는 매우 보편적이고 잘 쓰이는 패턴입니다. 다만 “CDC → S3” 구간은 DMS로 단순 적재만 하고, 실제 ‘업서트/삭제 반영·컴팩션·스키마 진화’는 Lakehouse 포맷(Hudi/Iceberg/Delta)로 관리하는 것이 실무에서 가장 깔끔합니다. 즉, DMS는 추출·전달(Extraction), EMR/Glue는 테이블 관리(Upsert/Compaction/Optimize) 역할을 분리하는 구성이 베스트 프랙티스에 가깝습니다.도움이 되셨다면 좋겠네요.
- 0
- 2
- 36
질문&답변
Dockerfile 질문
안녕하세요,코멘트 남겨주셔서 감사합니다. 부모 디렉토리를 app이라고 해놨기 때문에 혼동이 되는 경우도 있기도 하겠지만, 말씀하신 점은 맞습니다.COPY app /app/→ 호스트의 app 디렉토리를 컨테이너 안의 /app/ 디렉토리 밑으로 복사합니다.따라서 컨테이너 안에는 /app/ 이 위치하게 됩니다.코드를 다커 안에 /app 밑으로 존재하게 만들어놨기때문에 코드는 맞습니다만 혼동이 되셨을 수도 있겠네요.
- 0
- 2
- 27
질문&답변
공식 compose 내 postgres db 설치시
안녕하세요 임해빈님,좋은 코멘트 감사합니다. 밑에 AI 인턴이 말한 것 같이 Compose를 사용하실때 서비스명은 호스트명으로 사용 가능합니다. 단 같은 네트워크 상에 있어야합니다.도움이 되실지 모르겠지만 https://inf.run/mrzP8 제 무료 Docker 강의가 있으니, 들으시면 개념 이해하는데 도움이 되실 것 같습니다.
- 0
- 2
- 34
질문&답변
vs code 환경에서 실행방법
안녕하세요 sugmug님,일단 불편을 드려 죄송합니다. 지금 바로 녹화해서 공지사항 올려놨으니, 인코딩 끝나고, 영상 보시면 도움이 될 수도 있을 것 같습니다. 제가 추측해서 넣은 내용인데 도움이 되었으면 좋겠습니다.나중에 좋은 리뷰도 부탁드려요 ㅎㅎ(사진)
- 0
- 2
- 23
질문&답변
실전문제풀이 영상 코드 폰트가 작으며 영상이 뭔가 흐릿합니다.
안녕하세요 슷파맨님,먼저 불편을 끼쳐드린 점 진심으로 사과드립니다.어떤 강의인지 알려주시면 바로 확인하여 도와드리겠습니다.현재 모든 강의의 코드가 자료실에 올라와 있으니, 먼저 확인해 보시면 불편함이 다소 해소될 수 있을 것 같습니다.추가로 도움이 필요하시면 언제든지 말씀해 주세요.다시 한 번 사과드립니다.
- 0
- 1
- 37
질문&답변
[한글화된 강의자료 요청]
안녕하세요. 강의 들어주셔서 정말 감사합니다.말씀해주신 부분 충분히 공감되며, 저 역시 학습 시 가독성이 얼마나 중요한지 잘 알고 있습니다.다만, 현재는 영어 버전의 자료만 보유하고 있어 한국어 자료를 별도로 제공해 드리기 어려운 점 양해 부탁드립니다.번역본의 경우 오역이나 의미 왜곡의 우려가 있어, 강의에서는 최대한 공식 문서를 기반으로 정확하게 설명드리기 위해 영어 원문을 중심으로 구성하였습니다.불편을 드려 죄송하며, 강의 내용 중 이해가 어려운 부분이 있으시면 언제든 편하게 질문 주세요. 최대한 도와드리겠습니다.감사합니다.
- 0
- 2
- 43