JsonOutputParser
영상에는 JsonOutputParser가 Json으로 파싱을 못하는 것 같은데
제가 테스트하는 시점에서는
```
content='{"capital": "Paris", "population": 67867511, "language": "French", "currency": "Euro"}' additional_kwargs={} response_metadata={'model': 'llama3.2', 'created_at': '2025-04-09T06:56:17.010494Z', 'done': True, 'done_reason': 'stop', 'total_duration': 1087877500, 'load_duration': 26809708, 'prompt_eval_count': 62, 'prompt_eval_duration': 576710791, 'eval_count': 27, 'eval_duration': 483715500, 'message': Message(role='assistant', content='', images=None, tool_calls=None), 'model_name': 'llama3.2'} id='run-c9042af5-e5d4-4e27-b2ff-d78c308ec28f-0' usage_metadata={'input_tokens': 62, 'output_tokens': 27, 'total_tokens': 89}
```
-->
``` json
{'capital': 'Paris', 'population': 67867511, 'language': 'French', 'currency': 'Euro'}
```
파싱이 잘 되네요
llama3.2를 사용 중인데 질문에 대한 응답이
잘나와서 그런거지
JsonOutputParser 사용은 여전히 사용하지 않는 것을 추천하실까요?
답변 1
0
안녕하세요! 좋은 질문 감사합니다.
특정 모델만 활용하면서 테스트 할 때 JsonOutputParser 가 지속적으로 정상작동한다면 상관없는데, 운영환경에서는 fallback을 필수로 구현하셔야 해서 만약 다른 모델로 fallback이 일어나는 경우 강의에서 보셨던 것처럼 JsonOutputParser 가 정상적으로 동작하지 않을 수도 있어서 저는 가급적이면 활용하지 않는 것을 추천드립니다.
만약 fallback에서도 활용하고 싶으시다면 JSON형태의 예제들을 few shot으로 많이 넣어줘야 할 것 같은데, 그러면 괜히 불필요한 토큰을 사용하게돼서 비용이나 속도측면에서 불리하실거에요.
마크다운을 텍스트 파일로 변환하기
0
12
1
18강 smithery 를 이용한 mcp 실습(업데이트 요청)
0
17
1
guardrails 부분도 현재버전과 약간 다릅니다.
0
18
1
smithery ai 언제 업데이트 되나요?
0
17
1
무료할당량 사용하는데 문제가 생겼습니다.
0
21
1
안녕하세요! 질문이 있습니다.
0
53
2
'팀 단위 AI 업무 혁신' 자문 관련하여 문의드리고자 합니다. (연락처 요청)
0
75
1
🚨 OpenAI 유료계정인데 할당량 초과인 경우!!
0
95
2
ollama 같은 모델 상이 답변
0
78
2
도서, 그리고 로드맵 강의 순서
0
90
2
RAG와 MCP의 차이가 조금 헷갈립니다
0
613
2
첫번째 강의 화면과 설명이 안 맞는 거 같아요
0
111
1
JsonOutputParser 질문입니다
0
83
2
RAG 강의 안듣고 AGENT 강의 먼저 들어도 되나요?
0
158
1
openai 사용하면서부터 할당량 초과했다고 나오네요.
1
382
2
Safety 이해
0
84
1
input key가 여러개인 경우 RunnablePassThrough를 쓰는 이유가 궁금합니다.
0
78
1
가상환경 설정
-2
208
6
ram 용량
0
119
2
강의 순서 질문
0
163
1
Safety prompt에 대한 질문이 있습니다
0
124
2
딥시크
0
163
1
vscode에서 환경 설정하는 데 어려움이 있습니다
0
374
2
Template 사용에 관해 질문 있습니다.
0
211
2





