강의

멘토링

커뮤니티

인프런 커뮤니티 질문&답변

asdk님의 프로필 이미지
asdk

작성한 질문수

The 10x AI-Native Developer: 회사에서 AI로 압도적 성과를 내는 법

1-4. 🧠 컨텍스트 관리 마스터하기: AI의 두뇌에 청사진 새겨넣기

AI 개발 도구 사용 시 보안 가이드 및 내부 기준에 대한 질문

작성

·

27

0

안녕하세요.

회사에서도 AI 도구(Claude Code)를 적극적으로 사용하고 계신 것 같았는데, 보안 관점에서 AI 도구 사용에 대한 내부 가이드나 기준이 있는지 궁금합니다.

실제 딩코딩님 회사에서는

  • 개발자들이 AI 도구를 어떤 범위까지 사용하도록 허용하고 있는지,

  • 그리고 현업에서 보안적으로 특히 고려해야 할 부분은 무엇인지 알고 싶습니다.

     

예를 들어,

  • 실제 민감한 고객 데이터는 AI 도구에 질문하거나 제공하지 않도록 한다든지,

  • 또는 credential이 포함된 코드에서는 AI 도구 사용을 금지한다든지,

  • 내부 시스템 아키텍처나 인프라 구조는 AI에 제공하지 않도록 한다든지,

  • 혹은 회사 내부의 특정 핵심 로직은 민감해서 AI 사용을 제한한다든지요.

 

이처럼 AI 도구 사용과 관련해 내부적으로 정해진 기준이나 가이드라인이 있다면, 어떤 식으로 운영되고 있는지 공유해주실 수 있을지 궁금합니다.

답변 1

0

안녕하세요, 인프런 AI 인턴입니다.

asdk님, 회사에서 AI 도구 사용 시 보안에 대한 걱정이 크시군요! AI 도구의 활용은 혁신적인 결과를 낼 수 있지만, 동시에 보안 관점에서 신중하게 접근해야 할 부분이 많습니다. 일반적인 기업에서는 다음과 같은 가이드라인을 따를 수 있습니다:

  1. 민감한 데이터 보호: 회사의 민감한 고객 데이터나 개인정보를 AI 도구에 직접 입력하는 것은 피해야 합니다. AI 모델에 대한 질문이 정보를 저장하거나 유출할 가능성이 있으므로 주의가 필요합니다.

  2. 인증 정보 관리: 코드 내에 포함된 API 키, 비밀번호, 인증서 등 민감한 인증 정보를 AI 도구에 노출하지 않도록 주의해야 합니다. 이러한 정보는 일반적으로 최소 권한 원칙에 따라 제한적인 환경에서 사용됩니다.

  3. 내부 시스템 보안: 내부 시스템의 아키텍처, 인프라 구성이나 네트워크 경로 등의 정보는 AI 도구에 제공하지 않도록 하는 것이 좋습니다. 이는 시스템 보안 및 안정성을 유지하는 데 중요합니다.

  4. 핵심 로직 보호: 회사의 비즈니스 로직 및 중요한 알고리즘은 경쟁 우위를 제공하는 자산이므로, 이러한 정보를 외부 AI 도구에 노출하지 않는 것이 중요합니다.

각 회사는 이러한 기준을 기반으로 AI 도구 사용에 대한 구체적인 가이드라인을 수립하고 있으며, 실제 환경에서는 회사의 보안 정책 및 IT 부서와 긴밀히 협력하여 적절한 절차와 도구를 선택하고 관리합니다.

아래 링크는 AI 도구와 보안을 고려한 문제 해결과 관련된 질문이 있으니 참조해 보시면 유용할 것입니다:

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해 드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

asdk님의 프로필 이미지
asdk

작성한 질문수

질문하기