FAANG Senior Software Engineer
(전) GS 그룹 AI Agent 플랫폼 개발/운영
(전) GS 그룹 DX BootCamp 멘토/코칭
(전) 시리즈 C AI 스타트업 테크리드
Stanford University Code in Place Python Instructor
네이버 부스트캠프 웹/모바일 멘토
네이버 클라우드 YouTube Channel presenter
원티드 프리온보딩 프론트엔드/백엔드 챌린지 진행 (누적 6000+)
항해 AI 플러스코스 1기 코치
강의
로드맵
전체 2수강평
- 한시간으로 끝내는 LangChain 기본기
- RAG를 활용한 LLM Application 개발 (feat. LangChain)
- RAG를 활용한 LLM Application 개발 (feat. LangChain)
게시글
질문&답변
강병진 강사님 반갑습니다. RAG 추가 전략에 아이디어에 대해서 질문드립니다.
안녕하세요! 울산에 계시는군요 ㅎㅎ 오랜 기간 머무르진 않았지만 좋은 기억이 많은 곳입니다. 답변을 드려보자면문서가 추가만 되고, 기존 문서룰 수정하거나 삭제할 필요가 없다면 구상하신대로 진행해도 괜찮습니다. 만약 기존 문서를 수정하거나 삭제해야한다면, 문서 정보를 Metadata로 저장하고, 해당 metadata를 기반으로 필터한 후 처리하는 절차가 추가되어야 할 것 같습니다AI보다는 소프트웨어 측면에서 아키텍처 고민이 필요한 것 같은데요. 특허청에서 파일을 다운로드 받아서 검색할 때 파싱을 어떻게 할지가 관건일 것 같습니다. 여기서도 적절한 청킹이 그때마다 들어가야 유사도 검색을 통해서 의미있는 결과를 볼 수 있을 것 같은데, 테스트를 다양하게 해보면서 적절한 청크사이즈를 검증하는 것 외에 딱히 떠오르는 방법은 없네요 ㅠㅠ 추가로 궁금하신 내용이 있으시면 말씀 부탁 드립니다!
- 1
- 1
- 17
질문&답변
커널 시작 에러
안녕하세요! 에러 로그 상으로는 노트북에서 가상환경 인식이 제대로 되지 않은 것 같습니다. ipykernel을 다시 설치하시고, 에디터를 재부팅 해보시거나, 에디터를 실행할 때 가상환경이 제대로 활성화 되어있는지 한번 확인 부탁드립니다.
- 0
- 1
- 28
질문&답변
강의 완강 후기 및 질문
안녕하세요! 공부할 게 많아서 고민이 많으실 것 같습니다. 저라면 구현한 서버를 배포하는 것들을 공부할 것 같아요. docker를 활용한 컨테이너 기반 배포전략이라던지, 아니면 클라우드에서 배포하는 방법 같은 걸 공부하면 도움이 되지 않을까 생각합니다.하지만 학부생으로서 취업 준비중이시라면 다양하고 트렌디한 기술을 학습하는 것도 좋지만, 저는 CS 기초를 조금 더 깊게 공부해보시는 걸 추천합니다. 기술은 계속 바뀌고, 요즘은 ChatGPT, Claude, Gemini와 같은 툴들을 활용하면 사용 방법들을 너무나도 쉽게 익힐 수 있는 환경이라 근본이 되는 지식을 무기로 가지고 가시는게 장기적으로 봤을 때도 큰 도움이 될 것 같습니다.
- 0
- 1
- 27
질문&답변
18강 제공되는 스크립트가 어디있을까요?
안녕하세요! 강의 목차와 맞추어 한국어로 파일명을 변경했는데 안내가 부족했습니다 ㅠㅠ 링크 전달드립니다!https://github.com/jasonkang14/inflearn-agent-use-cases-lecture/blob/main/19.1.%20Text-to-SQL%20%ED%85%8C%EC%9D%B4%EB%B8%94%20%EC%83%9D%EC%84%B1.ipynb
- 0
- 1
- 20
질문&답변
신입 역량
안녕하세요! 좋은 질문 감사합니다.최근 채용공고에서 AI관련 역량을 요구하는 것은 아마 AI 자체에 대한 이해도 보다는 AI를 활용할 수 있는 역량이 아닌가 생각합니다. 만약 인사, 총무, 재무 등등의 직군이라면 말씀하신 것처럼 n8n과 같은 도구를 활용하는 방안을 고려할 수 있겠지만, 개발자의 AI역량이라는 것은 (확실하진 않지만) codex, claude code, cursor와 같은 툴을 어느정도 익숙하게 사용할 수 있느냐가 아닐까 싶습니다. 물론 엔지니어가 서비스 개발을 하면서 바이브 코딩마냥 해당 도구들만을 활용해서 개발을 하면 안되겠지만, 경험상 다양한 도구들을 활용하면 확실히 생산성이 올라가는 것은 맞습니다. 따라서 채용공고에서 엔지니어들에게 AI관련 역량을 요구한다는 것은, AI를 활용해서 본인의 퍼포먼스를 향상시킬 수 있는 역량이 있느냐를 보고싶은게 아닐까 싶습니다.추가로 질문하신 것처럼 n8n과 연관을 지어보자면, 코드를 작성하고, n8n이나 다른 플랫폼에서 제공하는 webhook이나 workflow, agent를 활용해서 코드리뷰를 진행한다거나, 아니면 진행중인 프로젝트의 문서화를 한다거나 등등도 최근 기업들에서 찾고있는 AI역량이 될수도 있다고 생각합니다. 저는 머신러닝 엔지니어로 취업을 하는게 아니라면 저는 AI의 동작 원리를 굳이 알 필요는 없다고 생각합니다. 엔지니어다보니 물론 아는 것이 힘이고, 지식이 많을수록 더 많은 일들을 할 수 있겠지만, GPT의 동작 원리를 명확히 이해하지 못해도 ChatGPT를 활용해서 충분히 업무를 할 수 있고, LLM의 동작원리를 이해하지 못해도 n8n이나 Gemini등을 활용해서 AI를 충분히 활용할 수 있다고 생각합니다. 하지만 지극히 개인적인 의견이고, 저와 다른 생각을 하는 분들도 많기 때문에 커리어 관련 조언들은 적당히 걸러서 들어주시고, 많은 분들의 조언을 들어보시고 최종적으로 판단하시는 것을 추천 드립니다!
- 1
- 2
- 34
질문&답변
3.3 langgraph 의 tool 호출 관련 질문
안녕하세요! 왠지 제가 녹화중에 말을 실수한 것 같은데요, 덧셈에서 add를 실시하고, 추후에 Multiply를 진행하는 것이 맞습니다.
- 0
- 2
- 21
질문&답변
Jest의 test와 it 사용에 대한 컨벤션 질문
안녕하세요! 좋은 질문 감사합니다.사실 저는 lint를 통해서 강제하는 것은 고려해보지 않았는데요, 일단은 말씀하신 한국어,영어 관련 룰이 있는지 잘 모르겠습니다. 저는 PR을 통해서 컨벤션을 검증하고, 테스트코드를 확인하는 방향으로 진행했습니다. 특히 요즘처럼 LLM을 활용해서 초벌(?) 코드리뷰가 가능한 상황에서는 손쉽게 PR로도 리뷰가 가능하다고 생각합니다.물론 lint룰을 적용하면 컨벤션 유지측면에서는 훨씬 유리하고 비용도 적게 들거라고 생각하는데요, 컨벤션을 정해가는 단계라면 규칙을 빡세게(?)잡는게 어쩌면 over engineering이 될수도 있다고 생각합니다. 또 고민이 있으시면 질문으로 올려주세요!
- 0
- 1
- 14
질문&답변
데이터 전처리 작업을 진행할 때는 어떠한 워크플로우로 진행하나요?
안녕하세요! 좋은 질문 감사합니다.AI를 활용해서 무언가를 한다면, 데이터 전처리가 사실 제일 중요한 작업이라고 생각합니다. 할 수 있는 최대한 노력을 다해서 전처리를 하시는 것을 추천드리고, 만약 데이터 양이 많지 않다면 노가다(?) 를 해서라도 최대한 쓰기 좋게 다듬어야 만족할만한 성능을 내는데 도움이 될거라고 생각합니다.만약 파이썬과 n8n을 연동해햐하는 니즈가 있으시다면, 데이터만 공유하고 코드나 워크플로우를 공유할 필요는 없으니 저는 데이터 전처리를 모두 파이썬으로 하고, 충분히 전처리된 데이터를 n8n에서 활용하는 방향으로 하시는게 좋습니다. ETL파이프라인을 별도로 구성해서, 전처리된 데이터를 Pinecone과 같은 vector store 또는 Postgres와 같은 RDB에 저장하고, n8n을 활용해서 해당 데이터를 불러오는 편이 가장 좋은 효과를 보실 수 있을 것 같습니다.
- 0
- 2
- 25
질문&답변
실무 Text-to-SQL 구현 시 도메인별 모델 분리 vs 통합 모델
안녕하세요! 좋은 질문 감사합니다. 상당히 난해한 상황인 것 같은데요, 직접 모델을 훈련시키는 방향으로 가신다면 어떻게든 해결책을 찾으실 것 같고, 만약 GPT, Claude, Gemini와 같은 상용 모델을 활용하시는 거라면, 도메인 별로 프롬프트를 작성하는 것이 도움이 될 거라고 생각합니다. 작성해주신 질문과 용어를 맞추자면 도메인 별로 나누는 것을 추천 드립니다. 저는 거대한 프롬프틀 활용해서 하나의 작업을 하는 것 보다는, task를 나누어서 작은 프롬프트를 여러번 수행하는 것이 LLM을 활용하기에는 좋다고 생각하기 때문입니다.LLM 활용에서 가장 핵심이 되는 부분은 context를 최대한 자세하게 제공하는 것이기 때문에, 저라면 table의 description을 디테일하게 작성하고, 테이블 쿼리에 사용할 것 같습니다. 그리고 이미 테이블들의 정보를 가지고 있다면, 특정 테이블을 쿼리할 때 참고할 수 있는 테이블들을 미리 프롬프트에 넣는 방향으로 진행하는 것을 추천합니다. 예를들면, 매출-고객-배송은 연결 가능성이 있는데, 매출-CS이력은 연결 가능성이 없다면, 매출에 관한 쿼리를 할 때 CS이력은 아예 배제되는 식으로 구현합니다. 다만 이 데이터는 테이블이 변경될 때마다 업데이트를 해주어야 하니 별도로 관리가 필요합니다. 그리고 최대한 few shots을 활용해서 예제를 많이 넣어주셔야 만족할만한 성능을 내는데 도움이 될거라고 생각합니다. 우아한형제들에서 지금 질문해주신 내용들을 구현하기 위해 많은 고민들을 하신 걸로 알고 있는데요, 우아콘 발표 영상을 전달드리니 참고하셔서 진행해보셔도 좋을 것 같습니다.https://www.youtube.com/watch?v=_QPhoKItI2k
- 0
- 2
- 23
질문&답변
데이터 전처리 작업 구성관련 질문
안녕하세요! 좋은 질문 감사합니다.AI를 활용해서 무언가를 한다면, 데이터 전처리가 사실 제일 중요한 작업이라고 생각합니다. 할 수 있는 최대한 노력을 다해서 전처리를 하시는 것을 추천드리고, 만약 데이터 양이 많지 않다면 노가다(?) 를 해서라도 최대한 쓰기 좋게 다듬어야 만족할만한 성능을 내는데 도움이 될거라고 생각합니다.만약 파이썬과 n8n을 연동해햐하는 니즈가 있으시다면, 저는 데이터 전처리를 모두 파이썬으로 하고, 충분히 전처리된 데이터를 n8n에서 활용하는 방향으로 하시는게 좋습니다. ETL파이프라인을 별도로 구성해서, 전처리된 데이터를 Pinecone과 같은 vector store 또는 Postgres와 같은 RDB에 저장하고, n8n을 활용해서 해당 데이터를 불러오는 편이 가장 좋은 효과를 보실 수 있을 것 같습니다.
- 0
- 2
- 31