JsonOutputParser
영상에는 JsonOutputParser가 Json으로 파싱을 못하는 것 같은데
제가 테스트하는 시점에서는
```
content='{"capital": "Paris", "population": 67867511, "language": "French", "currency": "Euro"}' additional_kwargs={} response_metadata={'model': 'llama3.2', 'created_at': '2025-04-09T06:56:17.010494Z', 'done': True, 'done_reason': 'stop', 'total_duration': 1087877500, 'load_duration': 26809708, 'prompt_eval_count': 62, 'prompt_eval_duration': 576710791, 'eval_count': 27, 'eval_duration': 483715500, 'message': Message(role='assistant', content='', images=None, tool_calls=None), 'model_name': 'llama3.2'} id='run-c9042af5-e5d4-4e27-b2ff-d78c308ec28f-0' usage_metadata={'input_tokens': 62, 'output_tokens': 27, 'total_tokens': 89}
```
-->
``` json
{'capital': 'Paris', 'population': 67867511, 'language': 'French', 'currency': 'Euro'}
```
파싱이 잘 되네요
llama3.2를 사용 중인데 질문에 대한 응답이
잘나와서 그런거지
JsonOutputParser 사용은 여전히 사용하지 않는 것을 추천하실까요?
답변 1
0
안녕하세요! 좋은 질문 감사합니다.
특정 모델만 활용하면서 테스트 할 때 JsonOutputParser 가 지속적으로 정상작동한다면 상관없는데, 운영환경에서는 fallback을 필수로 구현하셔야 해서 만약 다른 모델로 fallback이 일어나는 경우 강의에서 보셨던 것처럼 JsonOutputParser 가 정상적으로 동작하지 않을 수도 있어서 저는 가급적이면 활용하지 않는 것을 추천드립니다.
만약 fallback에서도 활용하고 싶으시다면 JSON형태의 예제들을 few shot으로 많이 넣어줘야 할 것 같은데, 그러면 괜히 불필요한 토큰을 사용하게돼서 비용이나 속도측면에서 불리하실거에요.
import 오류
0
3
0
명령팔레트에서 오류
0
12
3
온톨로지 활용
0
6
1
질문있는데요.. vLLM은 말씀하신 사양에 적용이되나요?
0
16
2
제공해주신 레포가 Windows 환경에 너무 비친화적입니다.
0
16
2
안녕하세요! 질문이 있습니다.
0
60
2
'팀 단위 AI 업무 혁신' 자문 관련하여 문의드리고자 합니다. (연락처 요청)
0
80
1
🚨 OpenAI 유료계정인데 할당량 초과인 경우!!
0
102
2
ollama 같은 모델 상이 답변
0
84
2
도서, 그리고 로드맵 강의 순서
0
94
2
RAG와 MCP의 차이가 조금 헷갈립니다
0
653
2
첫번째 강의 화면과 설명이 안 맞는 거 같아요
0
115
1
JsonOutputParser 질문입니다
0
88
2
RAG 강의 안듣고 AGENT 강의 먼저 들어도 되나요?
0
165
1
openai 사용하면서부터 할당량 초과했다고 나오네요.
1
403
2
Safety 이해
0
86
1
input key가 여러개인 경우 RunnablePassThrough를 쓰는 이유가 궁금합니다.
0
82
1
가상환경 설정
-2
213
6
ram 용량
0
121
2
강의 순서 질문
0
165
1
Safety prompt에 대한 질문이 있습니다
0
127
2
딥시크
0
166
1
vscode에서 환경 설정하는 데 어려움이 있습니다
0
380
2
Template 사용에 관해 질문 있습니다.
0
212
2





