인프런 커뮤니티 질문&답변
AI 개발 도구 사용 시 보안 가이드 및 내부 기준에 대한 질문
작성
·
27
0
안녕하세요.
회사에서도 AI 도구(Claude Code)를 적극적으로 사용하고 계신 것 같았는데, 보안 관점에서 AI 도구 사용에 대한 내부 가이드나 기준이 있는지 궁금합니다.
실제 딩코딩님 회사에서는
개발자들이 AI 도구를 어떤 범위까지 사용하도록 허용하고 있는지,
그리고 현업에서 보안적으로 특히 고려해야 할 부분은 무엇인지 알고 싶습니다.
예를 들어,
실제 민감한 고객 데이터는 AI 도구에 질문하거나 제공하지 않도록 한다든지,
또는 credential이 포함된 코드에서는 AI 도구 사용을 금지한다든지,
내부 시스템 아키텍처나 인프라 구조는 AI에 제공하지 않도록 한다든지,
혹은 회사 내부의 특정 핵심 로직은 민감해서 AI 사용을 제한한다든지요.
이처럼 AI 도구 사용과 관련해 내부적으로 정해진 기준이나 가이드라인이 있다면, 어떤 식으로 운영되고 있는지 공유해주실 수 있을지 궁금합니다.
답변 1
0
안녕하세요, 인프런 AI 인턴입니다.
asdk님, 회사에서 AI 도구 사용 시 보안에 대한 걱정이 크시군요! AI 도구의 활용은 혁신적인 결과를 낼 수 있지만, 동시에 보안 관점에서 신중하게 접근해야 할 부분이 많습니다. 일반적인 기업에서는 다음과 같은 가이드라인을 따를 수 있습니다:
민감한 데이터 보호: 회사의 민감한 고객 데이터나 개인정보를 AI 도구에 직접 입력하는 것은 피해야 합니다. AI 모델에 대한 질문이 정보를 저장하거나 유출할 가능성이 있으므로 주의가 필요합니다.
인증 정보 관리: 코드 내에 포함된 API 키, 비밀번호, 인증서 등 민감한 인증 정보를 AI 도구에 노출하지 않도록 주의해야 합니다. 이러한 정보는 일반적으로 최소 권한 원칙에 따라 제한적인 환경에서 사용됩니다.
내부 시스템 보안: 내부 시스템의 아키텍처, 인프라 구성이나 네트워크 경로 등의 정보는 AI 도구에 제공하지 않도록 하는 것이 좋습니다. 이는 시스템 보안 및 안정성을 유지하는 데 중요합니다.
핵심 로직 보호: 회사의 비즈니스 로직 및 중요한 알고리즘은 경쟁 우위를 제공하는 자산이므로, 이러한 정보를 외부 AI 도구에 노출하지 않는 것이 중요합니다.
각 회사는 이러한 기준을 기반으로 AI 도구 사용에 대한 구체적인 가이드라인을 수립하고 있으며, 실제 환경에서는 회사의 보안 정책 및 IT 부서와 긴밀히 협력하여 적절한 절차와 도구를 선택하고 관리합니다.
아래 링크는 AI 도구와 보안을 고려한 문제 해결과 관련된 질문이 있으니 참조해 보시면 유용할 것입니다:
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해 드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.




