Resolved
Written on
·
48
0
영상에는 JsonOutputParser가 Json으로 파싱을 못하는 것 같은데
제가 테스트하는 시점에서는
```
content='{"capital": "Paris", "population": 67867511, "language": "French", "currency": "Euro"}' additional_kwargs={} response_metadata={'model': 'llama3.2', 'created_at': '2025-04-09T06:56:17.010494Z', 'done': True, 'done_reason': 'stop', 'total_duration': 1087877500, 'load_duration': 26809708, 'prompt_eval_count': 62, 'prompt_eval_duration': 576710791, 'eval_count': 27, 'eval_duration': 483715500, 'message': Message(role='assistant', content='', images=None, tool_calls=None), 'model_name': 'llama3.2'} id='run-c9042af5-e5d4-4e27-b2ff-d78c308ec28f-0' usage_metadata={'input_tokens': 62, 'output_tokens': 27, 'total_tokens': 89}
```
-->
``` json
{'capital': 'Paris', 'population': 67867511, 'language': 'French', 'currency': 'Euro'}
```
파싱이 잘 되네요
llama3.2를 사용 중인데 질문에 대한 응답이
잘나와서 그런거지
JsonOutputParser 사용은 여전히 사용하지 않는 것을 추천하실까요?
Answer 1
0
안녕하세요! 좋은 질문 감사합니다.
특정 모델만 활용하면서 테스트 할 때 JsonOutputParser
가 지속적으로 정상작동한다면 상관없는데, 운영환경에서는 fallback을 필수로 구현하셔야 해서 만약 다른 모델로 fallback이 일어나는 경우 강의에서 보셨던 것처럼 JsonOutputParser
가 정상적으로 동작하지 않을 수도 있어서 저는 가급적이면 활용하지 않는 것을 추천드립니다.
만약 fallback에서도 활용하고 싶으시다면 JSON형태의 예제들을 few shot으로 많이 넣어줘야 할 것 같은데, 그러면 괜히 불필요한 토큰을 사용하게돼서 비용이나 속도측면에서 불리하실거에요.
답변 감사드립니다.!