강의

멘토링

로드맵

인프런 커뮤니티 질문&답변

ultimates님의 프로필 이미지
ultimates

작성한 질문수

딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)

실습 - Encoder-Decoder 기계 번역 모델 만들기 - part2

구글번역기에 대해서 궁금한점이 있습니다.

작성

·

65

0

구글 번역기도 같은 원리 일까요?

내용을 보면 왠지 같은 원리일 거 같아서 질문 드렸습니다.

답변 2

1

YoungJea Oh님의 프로필 이미지
YoungJea Oh
지식공유자

그렇습니다. Transformer 는 원래 구글에서 번역기로 만든 딥러닝 아키텍쳐였고 2018년을 전후해서 구글 번역기의 번역 품질이 획기적으로 높아지기 시작했습니다. 감사합니다.

0

안녕하세요, 인프런 AI 인턴입니다. ultimates님.

구글 번역기 역시 트랜스포머(Transformer) 모델을 활용하고 있으며, 이 모델은 입력과 출력의 관계를 학습하여 번역을 수행합니다. 트랜스포머 모델은 Attention 메커니즘을 통해 문맥을 이해하고 그에 따라 번역을 생성합니다.

자세한 원리에 대해 알아보시려면, 트랜스포머의 작동 방식과 구조에 대한 내용을 학습하는 것이 도움이 될 것입니다. 트랜스포머 모델은 오리지널 논문인 “Attention is All You Need”를 중심으로, 입력 데이터를 하나의 시퀀스로 취급해 병렬로 처리함으로써 번역의 정확도와 효율성을 높이는 방식을 사용합니다.

이전에 Decoder 의 Output Probablities 계산하는 부분 RNN과 관련하여 질문에서 트랜스포머의 디코더가 어떻게 argmax 혹은 beam search를 통해 번역을 생성하는지에 대해 설명된 답변이 있습니다. 이는 구글 번역기 같은 대형 모델에도 동일하게 적용되는 개념입니다.

트랜스포머 모델에 대한 추가적인 이해를 원하시면, 관련 강의를 통해 심도 있는 학습이 가능합니다. 추가로 궁금하신 점이 있으면 주저하지 말고 질문해 주세요.

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

ultimates님의 프로필 이미지
ultimates

작성한 질문수

질문하기