인프런 커뮤니티 질문&답변
AI 개발 도구 사용 시 보안 가이드 및 내부 기준에 대한 질문
해결된 질문
작성
·
80
0
안녕하세요.
회사에서도 AI 도구(Claude Code)를 적극적으로 사용하고 계신 것 같았는데, 보안 관점에서 AI 도구 사용에 대한 내부 가이드나 기준이 있는지 궁금합니다.
실제 딩코딩님 회사에서는
개발자들이 AI 도구를 어떤 범위까지 사용하도록 허용하고 있는지,
그리고 현업에서 보안적으로 특히 고려해야 할 부분은 무엇인지 알고 싶습니다.
예를 들어,
실제 민감한 고객 데이터는 AI 도구에 질문하거나 제공하지 않도록 한다든지,
또는 credential이 포함된 코드에서는 AI 도구 사용을 금지한다든지,
내부 시스템 아키텍처나 인프라 구조는 AI에 제공하지 않도록 한다든지,
혹은 회사 내부의 특정 핵심 로직은 민감해서 AI 사용을 제한한다든지요.
이처럼 AI 도구 사용과 관련해 내부적으로 정해진 기준이나 가이드라인이 있다면, 어떤 식으로 운영되고 있는지 공유해주실 수 있을지 궁금합니다.
답변 2
1
안녕하세요 asdk님 좋은 질문 해주셔서 감사합니다!!
AI 도구 보안 가이드라인에 대한 질문은 실제 회사에서 AI 도구를 도입하려고 할 때 가장 먼저 부딪히는 이슈입니다.
대부분의 회사에서 AI 도구 사용을 허용할 때 적용하는 기준은 크게 세 가지 영역으로 나뉩니다.
첫 번째는 자유롭게 사용 가능한 영역입니다. 일반적인 코드 패턴, 알고리즘 구현, 오픈소스 라이브러리 사용법, 에러 메시지 디버깅, 테스트 코드 작성 같은 작업들은 대부분의 회사에서 제한 없이 AI 도구를 활용하도록 권장합니다.
두 번째는 주의가 필요한 영역입니다. 회사 내부 비즈니스 로직을 포함한 코드, 내부 API 스펙, 데이터베이스 스키마 등은 회사 정책에 따라 다르지만, 민감도를 판단해서 사용하는 것이 일반적입니다.
세 번째는 사용 금지 영역입니다. 실제 고객 데이터, credential이나 API 키, 내부 인프라 상세 구조, 보안 취약점 관련 코드 등은 AI 도구에 절대 입력하지 않도록 하는 것이 보편적인 원칙입니다.
이 질문 자체가 팀에서 AI 도구 도입을 주도할 때 필요한 고민이니까, 이런 관점을 정리해서 팀이나 회사에 제안해보시면 좋겠습니다.
언제든 질문 주세요!!
0
안녕하세요, 인프런 AI 인턴입니다.
asdk님, 회사에서 AI 도구 사용 시 보안에 대한 걱정이 크시군요! AI 도구의 활용은 혁신적인 결과를 낼 수 있지만, 동시에 보안 관점에서 신중하게 접근해야 할 부분이 많습니다. 일반적인 기업에서는 다음과 같은 가이드라인을 따를 수 있습니다:
민감한 데이터 보호: 회사의 민감한 고객 데이터나 개인정보를 AI 도구에 직접 입력하는 것은 피해야 합니다. AI 모델에 대한 질문이 정보를 저장하거나 유출할 가능성이 있으므로 주의가 필요합니다.
인증 정보 관리: 코드 내에 포함된 API 키, 비밀번호, 인증서 등 민감한 인증 정보를 AI 도구에 노출하지 않도록 주의해야 합니다. 이러한 정보는 일반적으로 최소 권한 원칙에 따라 제한적인 환경에서 사용됩니다.
내부 시스템 보안: 내부 시스템의 아키텍처, 인프라 구성이나 네트워크 경로 등의 정보는 AI 도구에 제공하지 않도록 하는 것이 좋습니다. 이는 시스템 보안 및 안정성을 유지하는 데 중요합니다.
핵심 로직 보호: 회사의 비즈니스 로직 및 중요한 알고리즘은 경쟁 우위를 제공하는 자산이므로, 이러한 정보를 외부 AI 도구에 노출하지 않는 것이 중요합니다.
각 회사는 이러한 기준을 기반으로 AI 도구 사용에 대한 구체적인 가이드라인을 수립하고 있으며, 실제 환경에서는 회사의 보안 정책 및 IT 부서와 긴밀히 협력하여 적절한 절차와 도구를 선택하고 관리합니다.
아래 링크는 AI 도구와 보안을 고려한 문제 해결과 관련된 질문이 있으니 참조해 보시면 유용할 것입니다:
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해 드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.




