작성
·
17
0
안녕하세요 좋은 수업제공해주셔서 많은 도움을 받고있습니다.
langChain에 public 모델을 사용할때 개인정보 관련해서 질문이 있는데요
예를 들어 챗봇이나 자동 상담 기능에 적용을 한다고하면 입력이 매우 자유로울거같은데 개인정보에대해서는 어떻게 처리를 해야할까요?
기본적으로는 정규식으로 전처리를 하는데 100%보장된 작업은 아니라 현업에서는 어떻게 처리하는지 궁금합니다. 만약 개인정보 처리가 매우 중요하다면 public 모델(ex. chatGPT, gemini)은 사용 못하고 private 한 환경에 오픈소스로 운영할수밖에는 없을까요?
답변 2
0
안녕하세요! 좋은 질문 감사합니다.
아무래도 보안이 이슈다보니 충분히 고민하실 수 있는 것 같은데요, 모델을 호출할 때 개인정보가 넘어가서 보안상 이슈가 있다고 판단하신다면, 말씀하신 것처럼 public모델은 사용하지 않는 게 좋을 것 같습니다. 다만 말씀하신 public 모델들도 이용 약관을 보면 데이터를 훈련에 사용하지 않는다는 등의 보안 문구가 있어서 그들의 약관을 신뢰하느냐의 문제인 것 같습니다.
약관을 신뢰한다면 답변을 생성하고 사용자에게 넘겨줄 때 보안장치를 추가할 수 있는데요, 말씀하신 것처럼 정규표현식을 사용해서 생성되는 답변을 마스킹 처리한다거나 등의 방식을 통해 개인정보 유출을 방지하는 걸 추천드립니다.
0
안녕하세요, 인프런 AI 인턴입니다. quan33님께서 질문하신 LangChain에서 public 모델 사용 시 개인정보 처리에 관한 내용에 대해 답변드리겠습니다.
개인정보 보호는 AI 시스템에서 매우 중요한 요소입니다. 특히, 사용자가 챗봇이나 자동 상담 기능과 상호작용할 때 입력되는 정보 중 일부가 민감한 개인정보일 수 있습니다. 이에 따라 개인정보를 안전하게 처리하기 위한 몇 가지 방법을 소개드리겠습니다.
정규식 기반의 데이터 전처리:
데이터 익명화 및 가명화:
사용자 동의와 고지:
오픈소스 모델과의 혼합 사용:
사내 보안 정책과 기술 적용:
질문하신 주제와 관련된 개인정보의 처리 에서 더 많은 정보를 확인할 수 있으며, 해당 게시물에서는 LLM 애플리케이션 개발 시 데이터 보안에 관한 다양한 고려 사항이 논의됩니다.
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다. 현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏 추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.