jasonkang
@jasonkang
Students
18,635
Reviews
1,438
Course Rating
4.9
FAANG Senior Software Engineer
(전) GS 그룹 AI Agent 플랫폼 개발/운영
(전) GS 그룹 DX BootCamp 멘토/코칭
(전) 시리즈 C AI 스타트업 테크리드
Stanford University Code in Place Python Instructor
네이버 부스트캠프 웹/모바일 멘토
네이버 클라우드 YouTube Channel presenter
혼자서도 척척 해내는 AI 에이전트 만들기 with 랭체인 & 랭그래프 저자

원티드 프리온보딩 프론트엔드/백엔드 챌린지 진행 (누적 6000+)
항해 AI 플러스코스 1기 코치
Courses
Reviews
- AI Agent Development Using LangGraph (feat. MCP)
- LangChain Fundamentals in One Hour
- LangChain Fundamentals in One Hour
- Developing LLM Applications Using RAG (feat. LangChain)
- Developing LLM Applications Using RAG (feat. LangChain)
Posts
Q&A
강의자료 위치
안녕하세요 제가 소개자료에만 걸어두고 강의 내용에서는 빠트렸군요 ㅠ. https://www.kangsium.com/ai-agent-evaluationhttps://github.com/jasonkang14/inflearn-ai-agent-evaluation강의 1회차에도 업로드 해두겠습니다. 감사합니다
- Likes
- 0
- Comments
- 2
- Viewcount
- 10
Q&A
온톨로지 활용
안녕하세요, 이번 강의에서는 단일 문서 기반 RAG라 온톨로지까지는 오버엔지니어링이라고 판단해서 다루지 않았습니다. 온톨로지는 보통 의료, 법률, 사내 지식베이스와 같이. 여러 문서/도메인에 걸쳐 의미 추론이 필요할 때 효과를 볼 수 있습니다.
- Likes
- 0
- Comments
- 2
- Viewcount
- 25
Q&A
제공해주신 레포가 Windows 환경에 너무 비친화적입니다.
안녕하세요, 피드백 감사합니다. 소스코드에 pyproject-windows.toml을 추가했습니다. 다만 uv sync 실행 시, pyproject.toml을 참고하기 때문에, 소스코드에 있는 pyproject.toml을 삭제하시고, pyproject-windows.toml의 파일 이름을 pyproject.toml로 변경하신 후에 uv sync를 진행해주시기 바랍니다. # PowerShell Rename-Item pyproject.toml pyproject-mac.toml Rename-Item pyproject-windows.toml pyproject.toml Remove-Item uv.lock -ErrorAction SilentlyContinue uv python install 3.12 uv sync
- Likes
- 0
- Comments
- 2
- Viewcount
- 32
Q&A
ollama설치해서 llama로 돌려도 되나요?
안녕하세요, LLM은 오픈소스 모델을 활용해도 괜찮습니다. 다만 임베딩 모델은 우리말에서 잘 동작하는 오픈소스 모델을 발견하지 못했습니다.
- Likes
- 0
- Comments
- 2
- Viewcount
- 35
Q&A
테스트 환경 확인 -chat 사용 시 에러
안녕하세요, failed to receive response라면 LLM에서 답변이 오지 않는 경우라 사용중인 포트와는 무관한 것으로 판단합니다. 에러 메세지 전체를 올려주실 수 있을까요?
- Likes
- 0
- Comments
- 2
- Viewcount
- 31
Q&A
docker port 충돌 문제
안녕하세요! 일단 윈도우에서 구동중이신걸로 추정되는데요, 5678 포트를 미리 예약해버려서 Docker가 사용할 수 없는 상태로 보입니다. 가장 간단한 방법은 아래와 같은 방법으로 실행하시고docker run -d -it --rm --name n8n -p 5679:5678 -v n8n_data:/home/node/.n8n docker.n8n.io/n8nio/n8n컨테이너 내부는 그대로 5678 사용하지만 접속은 http://localhost:5679로 가능합니다
- Likes
- 0
- Comments
- 3
- Viewcount
- 41
Q&A
마크다운을 텍스트 파일로 변환하기
안녕하세요 좋은 질문 감사합니다. 토큰을 아끼려고 마크다운 형식들을 제외하고 txt로 저장하는 코드인데요, 말씀하신 것처럼 바로 txt로 변경하는게 오히려 더 좋겠다는 생각이 드네요. 토큰을 아끼는 것 보다 마크다운 형식을 남기고 형태를 보존하는 것이 LLM Context 주입에 더 유리할 것 같습니다. 좋은 피드백 감사합니다
- Likes
- 0
- Comments
- 1
- Viewcount
- 37
Q&A
max token을 제한하는게 왜 성능을 개선하게 되는걸까요?
안녕하세요! 좋은 질문 감사합니다. 수치를 통해 증명된 바는 없지만 경험상 GPT 모델들이 장황하게 부연설명을 많이하는데 그러면서 잘못된 내용이나 원하지 않는 내용들이 포함되는 경우가 많다고 생각합니다. 강의에서 말씀드리는 상황에서는 짧은 답변을 통해서 다음 단계로 넘어가는 상황에 max_tokens를 활용해서 답변의 길이를 제한하고 이를 통해 불필요한 내용이 답변에 포함되는 할루시네이션을 어느정도 방지할 수 있다고 보시면 됩니다
- Likes
- 0
- Comments
- 2
- Viewcount
- 52
Q&A
n8n으로 context를 고려한 이메일 답장 드래프트 작성 봇 생성 강의
작업하신 workflow를 json으로 올려주실 수 있을까요? 디버깅 해서 전달 드리겠습니다
- Likes
- 0
- Comments
- 2
- Viewcount
- 52
Q&A
강의자료 오류
clone 해서 봤을 때는 문제가 없어서 괜찮은 줄 알았는데 GitHub 웹에서는 안나오는 노트북들이 있었네요. 수정해서 업데이트 했습니다. 확인 부탁 드립니다!
- Likes
- 0
- Comments
- 1
- Viewcount
- 54






