🔥딱 8일간! 인프런x토스x허먼밀러 역대급 혜택

블로그

AI에게 물어 보기 - "어느 영화 장면이지?"

어느 영화 장면이지 ? 보던 뉴스 피드에 아래와 같은 뉴스가 잡혔다.흐릿한 눈으로 보기에 소녀시대 서현 같아 보이긴 하는데, 요즘엔 역주행들도 뜨고 한다니 무슨 영화일까 궁금했고, 오랫만에 AI 들에게 물어보았다. 이미지만 캡쳐했고, 질문은 '어느 영화 장면이지?'AI 들에게 물어보는 것도 오랫만이라 다들 많이 변했을 거고, 유료 무료 헷갈리는 부분들도 있을테지만, 사용자로서 나는 기존 검색에 물어 봐야 할까? 이미지 + 어떤 prompt를 써야 할까 여럿 고민이 되는 순간이었다.오늘 사용한 이미지 https://www.wikitree.co.kr/articles/1070066 오늘의 결과구글 ( Lens ) > 구글 검색 > 하이퍼 클로버 = ChatGPT = claude = perplexity = wrtn.ai > Gemini = Liner구글 렌즈 ( 10/10 )구글 렌즈 검색 결과언젠가부터 렌즈는 엔터 버튼이 없어졌다. 대신 추가적인 입력을 받으려는 화면을 구글 이미지로 검색 결과를 보여 준다. 더 물어볼 거 없이 정답이 나왔고, 신문기사에 인용되는 등의 유명한 그림에 대해서는 search URLs by image 가 아주 잘 작동한다. 이미지 분석이고 뭐고 간에 이 이미지를 가지고 있는 문서들을 모아 오면서 거기서 정답을 찾았음이리라. 구글 검색 ( 8/10 )search by image 를 바로 부르고 있지만, 신문 기사들의 아슬아슬함 때문인지 영화 제목이 보이진 않는다.가까스로 #거룩한 밤 이 아래에 태그로 보여 아하.. 싶은 정도. 아무 거나 클릭해서 읽어 봤으면 제목을 알았겠지 ?? 하이퍼 클로버 = ChatGPT = claude = perplexity = wrtn.ai ( 5/10 ) 모릅니다.. 라며 이야기들 함. 클로바 결과ChatGPT 결과  claude 결과 퍼플렉시티 결과 wrtn.ai 결과 Gemini (2.0)다른 영화를 가르쳐 줌. 서현이 나온 예전 영화라서 흠칫 했었음. 아예 어이없는 영화를 보여준 아래의 결과와 나름 고민해서 그래도 서현은 맞췄군 하며 비교 우위 인정.  Gemini 결과 Liner ( 1.0 )아무 데나 기생충이라고 하면 안 됨. getliner 결과 ps.뤼튼아... 나는 '최상님'은 아님... 

대학 교육 기타

한국산업기술협회연수원

[PLC제어 유지보수 관리자 자격증 연수 과정] 개설 안내

단 5일, PLC 실무+자격까지 한 번에 끝내는 [PLC제어 유지보수 관리사 자격과정] 개설 안내  ● 참여 대상관련 분야 실무 종사자 또는 관련 학과 재학생(자동제어, 자동화 시스템, 공정제어 시스템설계자 및 운용자, 생산, 기술 공무설계, 자동화 관련실무자, 관리자 등) ● 프로그램 내용PLC제어 설비의 책임자로서 시스템의 설계, 제작, 운용, 보수, 활용 능력을 갖춘 인력을 양성하기 위해,한국산업기술협회가 주관하여 이론 교육과 함께 전자회로 및 시퀀스 제어이론을 기본으로생산자동화를 위한 PLC제어 설비의 유지보전 및 보수기술 능력을 종합적으로 평가하는 자격 과정입니다.*본 자격은 자격기본법 제 17조에 따라 한국직업능력연구원에 등록된 민간자격으로, 산업통상지원부의 심의 절차를 거쳐 등록된 자격입니다.따라서, 따라서 이력서 기재 및 경력인정에 활용 가능한 신뢰도 있는 자격증입니다! ● 진행 일시2025년 8월 18일(월) ~ 2025년 8월 22일(금) 10:00 ~ 17:00*5일 교육 과정 이수 후, 교육 마지막 날인 8월 22일(금) 13:00에 자격시험이 진행됩니다.  ● 진행 장소한국산업기술협회연수원(서울시 금천구 범안로 1130) ● 신청 기간2025년 7월 29일(화) ~ 2025년 8월 13일(수) 23:59 ● 참여 혜택- 단기간에 자격증 취득 가능(교육 수료 후 시험 바로 응시 가능)- 취득 시부터 평생 유지되며 유효 기간이 없는 자격증- 전문적인 맞춤강의 및 주요내용 핵심강의 추가 ● 신청 방법홈페이지 통해 접수 -> 신청 바로가기  ● 유의 사항교육비 및 응시료에 대한 내용은 홈페이지를 참고해주시기 바랍니다. ● 문의 사항한국산업기술협회연수원 연수본부T. 02-6959-5842E. sehoon@kitanet.or.kr카카오톡에서 '한국산업기술협회연수원' 검색인스타그램에서 'kita_0fficial' 검색 ● 진행 일시2025년 8월 18일(월) ~ 2025년 8월 22일(금) 10:00 ~ 17:00*5일 교육 과정 이수 후, 교육 마지막 날인 8월 22일(금) 13:00에 자격시험이 진행됩니다.  ● 진행 장소한국산업기술협회연수원(서울시 금천구 범안로 1130 14층) ● 신청 기간2025년 7월 29일(화) ~ 2025년 8월 13일(수) 23:59 ● 참여 혜택- 단기간에 자격증 취득 가능(교육 수료 후 시험 바로 응시 가능)- 취득 시부터 평생 유지되며 유효 기간이 없는 자격증- 전문적인 맞춤강의 및 주요내용 핵심강의 추가 ● 신청 방법홈페이지 통해 접수 -> 신청 바로가기  ● 유의 사항교육비 및 응시료에 대한 내용은 홈페이지를 참고해주시기 바랍니다. ● 문의 사항한국산업기술협회연수원 연수본부T. 02-6959-5842E. sehoon@kitanet.or.kr카카오톡에서 '한국산업기술협회연수원' 검색인스타그램에서 'kita_0fficial' 검색 

커리어 · 자기계발 기타교육자격증취업준비전기전자자동제어관리자

DATA+AI 서밋 2025 - 데이터브릭스 데이터와 AI의 미래를 그리다.

이 글은 제가 NIA [한국지능정보사회진흥원]의 < 디지털서비스 이슈리포트 > 2025년 7월호에 기고한 글입니다. 원본 글 ‘2025년 AI 현황 보고서 리뷰’를 이곳 브런치에서도 공유합니다. 이 글은 제가 가진 여러 개의 아이덴티티 중에서 “메가존 클라우드 기술 자문 엔지니어”의 역할에 충실하며 작성한 글입니다.들어가며 : 데이터 시대의 새로운 지평 – 데이터브릭스의 부상지난 호에서 클라우드 데이터 웨어하우스의 선두 주자 스노우플레이크(Snowflake)를 분석한 데 이어, 이번 달에는 데이터 레이크와 데이터 웨어하우스의 장점을 결합한 '레이크하우스 아키텍처'의 선구자인 데이터브릭스를 조명한다. 데이터브릭스는 단순한 데이터 분석 도구를 넘어, 데이터와 AI의 융합을 선도하는 '데이터 인텔리전스 플랫폼'으로서 기업의 디지털 혁신을 가속화하고 있다. 특히 올해 Data + AI 서밋 2025를 비롯한 다양한 혁신적인 발표를 통해 그 입지를 더욱 공고히 하고 있다.데이터브릭스는 방대한 양의 정형 및 비정형 데이터를 효율적으로 저장, 처리, 분석하고, 나아가 머신러닝 및 AI 워크로드까지 지원하는 엔드-투-엔드 통합 플랫폼이다.  특히 오픈 소스 기술에 대한 깊은 기여와 이를 기반으로 한 혁신은 데이터브릭스를 현대 데이터 환경의 핵심 플레이어로 만들고 있다.이러한 맥락에서, 스노우플레이크와 데이터브릭스를 연속적으로 다루며 비교하는데,.스노우플레이크가 클라우드 데이터 웨어하우스의 강력한 주자로서 SQL 기반 분석과 비즈니스 인텔리전스(BI)에 특화된 반면, 데이터브릭스는 레이크하우스 아키텍처를 통해 데이터와 AI의 통합이라는 더 넓은 비전을 제시한다. 이는 시장의 관심이 단순 데이터 저장 및 분석을 넘어 AI와의 시너지를 추구하는 방향으로 진화하고 있음을 반영하며, 각 플랫폼이 현대 데이터 환경에서 어떤 고유한 가치를 제공하는지 이해하는 데 필수적이다. 데이터브릭스: 통합된 데이터 인텔리전스 플랫폼의 핵심레이크하우스 패러다임데이터브릭스의 핵심은 '레이크하우스(Lakehouse)' 아키텍처이다(그림 1). 이 아키텍처는 데이터 레이크의 유연성(다양한 데이터 형식 지원, 저비용 스토리지)과 데이터 웨어하우스의 구조 및 성능(ACID 트랜잭션, 스키마 강제 적용, 데이터 품질, BI/SQL 성능)을 결합한 것이다. 이를 통해 기업은 정형 및 비정형 데이터를 모두 처리하고 분석하며, 머신러닝 워크로드까지 단일 소스에서 지원할 수 있다. 그리고, 데이터브릭스는 아파치 스파크(Apache Spark), 델타레이크(Delta Lake), MLflow 등 핵심 오픈 소스 프로젝트를 기반으로 이 레이크하우스를 구현하며, 데이터의 신뢰성과 성능을 보장한다.그림 1 레이크하우스 레퍼런스 구조 주요 기능 및 강점데이터브릭스 플랫폼은 다양한 데이터 및 AI 워크로드를 지원하는 포괄적인 기능을 제공한다.  ETL 및 데이터 엔지니어링: 데이터브릭스는 아파치 스파크(Apache Spark)의 강력한 대규모 데이터 처리 능력과 델타레이크의 안정적인 데이터 레이크 기능을 결합하여 탁월한 ETL(Extract, Transform, Load) 경험을 제공한다. 사용자는 SQL, 파이썬, Scala를 사용하여 ETL 로직을 구성할 수 있으며, 몇 번의 클릭만으로 스케줄링된 작업 배포를 조율할 수 있다. 오토로더(Auto Loader)는 클라우드 객체 스토리지 및 데이터 레이크에서 데이터를 레이크하우스로 효율적으로 증분 로딩하는 도구이며, 레이크플로우 선언형 파이프라인(Lakeflow Declarative Pipelines)은 데이터셋 간의 종속성을 지능적으로 관리하고 프로덕션 인프라를 자동으로 배포 및 확장하여 ETL 로직을 더욱 간소화하며 적시에 정확한 데이터 전달을 보장한다.  머신러닝, AI 및 데이터 과학: 데이터브릭스 머신러닝은 MLflow를 통한 모델 수명 주기 관리, 허깅페이스 트랜스포머(Hugging Face Transformers)와 같은 다양한 ML 라이브러리 지원 등 데이터 과학자와 ML 엔지니어의 요구에 맞는 포괄적인 도구들을 제공한다. 특히 대규모 언어 모델(LLM)과 생성형 AI에 대한 깊은 통합이 주목할 만한데, 사용자는 자체 데이터로 LLM을 커스터마이징하고, 오픈AI 모델 같은 파트너 솔루션을 워크플로우에 통합할 수 있다. 또한, 데이터 분석가도 AI 함수(Functions)를 통해 오픈AI 등 LLM 모델에 직접 접근하여 데이터 파이프라인 및 워크플로우 내에서 AI를 적용할 수 있다.  관리형 오픈 소스 통합: 데이터브릭스는 오픈 소스 커뮤니티에 대한 강력한 의지를 가지고 있으며, 델타레이크, 델타셰어링(Delta Sharing), MLflow, 아파치 스파크, 리대시(Redash), 유니티 카탈로그(Unity Catalog)와 같은 핵심 오픈 소스 프로젝트의 업데이트 및 통합을 데이터브릭스 런타임 릴리스를 통해 관리한다.    데이터브릭스 vs. 스노우플레이크:데이터브릭스와 스노우플레이크는 현대 데이터 관리 및 분석 시장에서 각기 다른 아키텍처 철학과 강점을 가지고 경쟁하고 있다.아키텍처 철학 비교데이터브릭스(레이크하우스): 데이터 레이크를 기반으로 데이터 웨어하우스의 기능을 통합하여, 정형/비정형 데이터, ETL, BI, ML/AI를 단일 플랫폼에서 처리하는 데 중점을 둔다. 이는 유연성과 확장성, 그리고 특히 AI/ML 워크로드에 최적화된 환경을 제공한다.스노우플레이크(클라우드 데이터 웨어하우스): 스토리지, 연산, 서비스 계층이 완벽하게 분리된 독점적인 클라우드 네이티브 아키텍처를 통해 SQL 기반의 데이터 웨어하우징 및 비즈니스 인텔리전스(BI) 분석에 최적화된 성능과 관리 용이성을 제공한다. 스노우플레이크는 하드웨어 선택, 설치, 구성 또는 관리가 필요 없는 '거의 제로에 가까운 관리' 플랫폼으로 설계되었다. 주요 기능 및 사용 사례 비교두 플랫폼은 각자의 강한 영역에서 차별화된 기능을 제공한다.데이터 웨어하우징 및 BI: 스노우플레이크는 SQL 쿼리 및 BI 애플리케이션에서 탁월한 성능을 제공하며, '자동 스케일링', '제로-카피 클로닝', '타임 트래블', '데이터 공유' 등의 독점적 기능으로 데이터 분석가에게 편리함을 제공한다. 데이터브릭스는 레이크하우스 아키텍처를 통해 데이터 웨어하우스 기능을 수행할 수 있지만, 주로 빅데이터 처리 및 복잡한 데이터 엔지니어링에 강점을 가진다.머신러닝 및 AI: 데이터브릭스는 MLflow, 데이터브릭스 런타임, 에이전트 브릭스(Agent Bricks), 딥스피드(DeepSpeed) 등 포괄적인 ML/AI 도구와 프레임워크를 이용하여 데이터 과학자 및 ML 엔지니어에게 강력한 환경을 제공한다. 스노우플레이크는 인-데이터베이스 머신러닝을 지원하며 파이썬 UDFs 및 저장 프로시저를 지원하지만, 데이터브릭스만큼 ML/AI 생태계가 깊이 통합되어 있지는 않다.오픈 소스 및 개방성: 데이터브릭스는 델타레이크, 아파치 아이스버그 등 오픈 소스 표준에 대한 강력한 지지를 통해 데이터 형식에 대한 벤더 종속성을 최소화한다. 반대로 스노우플레이크는 독점적인 아키텍처를 가지며, 데이터 객체는 SQL 쿼리 작업을 통해서만 직접 접근 가능하다.멀티-클라우드 전략: 데이터브릭스는 AWS, 애저, GCP 전반에 걸쳐 원활하게 작동하며, 통합 제어 플레인을 통해 벤더 종속성을 피할 수 있는 유연성을 제공한다. 스노우플레이크 또한 클라우드 기반이지만, 데이터브릭스처럼 오픈 소스 기반의 멀티-클라우드 유연성을 강조하지는 않는다. 데이터브릭스의 2025년 혁신: 데이터와 AI의 경계를 허물다데이터브릭스는 2025년 한 해 동안, 특히 2025년 6월 9일부터 12일까지 샌프란시스코 모스콘 센터에서 개최된 Data + AI 서밋 2025에서 데이터 관리, 분석, AI 개발 및 배포 전반에 걸쳐 수많은 혁신적인 기능을 발표하며 '데이터 인텔리전스 플랫폼'으로서의 입지를 더욱 공고히 했다. 강화된 거버넌스 및 데이터 검색데이터브릭스는 유니티 카탈로그를 중심으로 데이터 거버넌스와 검색 기능을 대폭 강화했다.  아파치 아이스버그(Apache Iceberg) 상호 운용성 강화: 데이터브릭스는 유니티 카탈로그가 아파치 아이스버그 REST API를 완벽하게 지원한다고 발표했다. 이는 데이터 형식 종속성을 제거하고, 델타레이크와 아이스버그 간의 호환성 문제를 해결하며, 이전에 없던 상호 운용성을 제공한다.   비즈니스 사용자로의 거버넌스 확장: 유니티 카탈로그 지표(Metrics): 중앙에서 정의되고 인증된 비즈니스 지표를 지원하여, 파편화된 지표 정의로 인한 보고 불일치와 불신 문제를 해결한다. 이 기능은 AI/BI 대시보드, SQL, 레이크플로우(Lakeflow) 작업 등 모든 곳에서 재사용 가능한 시맨틱 레이어를 제공하며, 감사 및 계보 추적 기능이 기본으로 제공되어 향후 타블로(Tableau) 같은 주요 BI 도구 및 몬테카를로(Monte Carlo)와 같은 관측 가능성 도구와의 통합도 가능하게 한다.    디스커버(Discover) 경험: 비즈니스 도메인별(예: 영업, 마케팅, 재무)로 정리된 인증된 데이터 제품의 큐레이션된 내부 마켓플레이스를 제공하여, 사용자가 고가치 데이터 및 AI 자산을 쉽게 발견할 수 있도록 돕는다. 데이터 품질, 사용 패턴, 관계, 인증 상태를 강조하는 지능형 신호와 데이터브릭스 어시스턴트를 통한 자연어 질문 기능도 포함된다.    고급 거버넌스 기능: 속성 기반 접근 제어 (ABAC): 태그를 사용하여 카탈로그, 스키마, 테이블 수준에서 유연한 접근 정책을 정의할 수 있으며, 행 및 열 수준 보안에 적용된다.    태그 정책: 태그 생성, 할당, 사용 방식에 대한 거버넌스 계층을 강제하여 데이터 분류 및 비용 할당에 일관성을 보장한다.    데이터 분류: 유니티 카탈로그 내 민감 데이터를 지능적으로 감지하고 태그를 자동으로 지정하여 수동 작업을 최소화하고 ABAC와 연동하여 민감 데이터를 자동으로 보호한다.    외부 데이터 계보 통합: 데이트브릭스 외부에서 실행되는 워크로드(예: 첫 마일 ETL, 마지막 마일 BI)의 외부 계보 메타데이터를 유니티 카탈로그에 추가하여 엔드-투-엔드 계보 뷰를 제공한다.  그림 2 유니티 카탈로그의 통합 거버넌스 구조 이러한 유니티 카탈로그의 발전은 데이터 거버넌스가 더 이상 규제 준수를 위한 단순한 부담이 아니라, 데이터 자산의 신뢰도를 높이고, 비즈니스 사용자가 필요한 데이터를 더 쉽고 안전하게 찾아 활용하며, 궁극적으로 데이터 기반 의사결정의 속도와 정확성을 높이는 핵심적인 비즈니스 가치로 진화하고 있음을 보여준다. 특히 AI 기반 자동화는 거버넌스 오버헤드를 줄이면서 효율성을 극대화하는 방향으로 나아가고 있다. 데이터 접근 및 분석의 민주화데이터브릭스는 비즈니스 사용자들이 데이터에 더 쉽게 접근하고 활용할 수 있도록 지원하는 기능들을 선보였다.  레이크베이스(Lakebase) 아키텍처: 서버리스, 완전 관리형 Postgres 호환 OLTP 데이터베이스를 레이크하우스에 통합했다. 이 아키텍처는 ACID 준수, 10ms 미만의 낮은 지연 시간, 브랜칭, 시점 복구, 독립적인 컴퓨트 스케일링을 제공하여 트랜잭션 및 분석 워크로드를 통합하고 ETL 오버헤드 없이 실시간 하이브리드 애플리케이션을 가능하게 한다.  지니(Genie) AI/BI 및 딥리서치(Deep Research): 대화형 분석을 제공하는 지니 서비스가 사용 가능하고, 딥 리서치는 맥락 기억을 통한 다중 턴 추론으로 심층 분석을 가능하게 한다. 이는 비즈니스 사용자가 정적 대시보드를 넘어 설명 가능한 대화형 분석을 통해 더 깊은 통찰력을 얻도록 돕는다.   데이터브릭스 원(Databricks One): 클러스터나 노트북이 필요 없이, 대시보드, 지니, 앱에 접근하기 위한 간소화된 통합 UI를 제공한다. 이러한 기능들은 데이터 전문가가 아닌 일반 비즈니스 사용자도 데이터에 직접 질문하고, 대화형으로 분석하며, 복잡한 ETL 없이도 실시간 데이터를 활용할 수 있도록 한다. 비즈니스 사용자가 데이터와 AI에 더 쉽게 접근하고 활용할 수 있게 됨으로써, 기업 전체의 데이터 리터러시가 향상되고, 데이터 기반 의사결정 주기가 단축되며, 혁신 아이디어가 더 빠르게 실행될 수 있는 환경이 조성되는데, 이는 궁극적으로 기업의 경쟁력 강화로 이어질 수 있다.   그림 3 데이터브릭스 지니 화면 데이터 운영 및 마이그레이션 가속화데이터브릭스는 데이터 운영의 효율성을 높이고 기존 데이터 웨어하우스에서 레이크하우스로의 전환을 가속화하는 데 중점을 두었다.  레이크플로우 디자이너(Lakeflow Designer): AI 기반의 노코드 ETL 빌더로, 드래그 앤 드롭 및 자연어 인터페이스를 통해 레이크플로우 선언형 파이프라인을 생성한다. 이는 분석가와 엔지니어 간의 ETL 핸드오프를 간소화하여 프로토타이핑 속도를 높이고 거버넌스를 개선하며 파이프라인 개발 시간을 단축한다.  그림 4 레이크플로우 디자이너 화면레이크플로우 마이그레이션 프레임워크(Lakebridge Migration Framework): 블레이드브릿지(Bladebridge) 인수를 통해 확보한 무료 오픈 소스 툴킷으로, 데이터 웨어하우스 마이그레이션 워크플로우의 최대 80%를 자동화한다(프로파일링, SQL 변환, 검증 포함). 이는 복잡하고 비용이 많이 드는 마이그레이션 부담을 줄여 레이크하우스로의 전환을 가속화한다.  예측 최적화(Predictive Optimization) 및 자동 리퀴드 클러스터링(Automatic Liquid Clustering): 쿼리 패턴을 분석하여 최적의 클러스터링 키를 자동으로 선택하고 테이블을 클러스터링하여 쿼리 성능을 최대 10배 향상시키고 비용을 절감한다. 특히 자동화와 AI 기반 최적화는 수동 개입의 필요성을 최소화하여 데이터브릭스가 단순히 기능 확장을 넘어, 고객의 총 소유 비용(TCO)을 절감하고 운영 효율성을 극대화하는 데 중점을 두고 있음을 보여준다. 복잡한 데이터 환경에서 발생하는 비효율성을 제거함으로써, 기업은 더 많은 자원을 혁신적인 프로젝트에 투입할 수 있게 되며, 이는 장기적으로 데이터브릭스 플랫폼의 경제적 가치를 높이는 요인이 된다.   AI 개발 및 배포의 진화데이터브릭스는 생성형 AI 시대에 발맞춰 AI 개발 및 배포 환경을 크게 발전시켰다.  에이전트 브릭스(Agent Bricks): 프로덕션 수준의 AI 에이전트 생성을 간소화하는 새로운 프레임워크로, 노코드 작업 정의, 내장된 평가 생성, 프롬프트 튜닝, 파인튜닝, 보상 모델 등 자동화된 최적화 기술을 제공한다. 이를 통해 고품질의 비용 효율적인 에이전트를 신속하게 배포할 수 있으며, Flo Health와 같은 고객은 정확도를 두 배로 높이면서 LLM 비용을 최대 10배 절감했다고 보고했다. PDF 문서 처리 기능도 추가되어 마크다운으로 변환해서 에이전트 브릭스에서 활용할 수 있게 되었다.   서버리스 GPU 연산: 서버리스 컴퓨팅의 일부로, 커스텀 단일 및 멀티 노드 딥러닝 워크로드에 특화되어 있다. 사용자는 최신 프레임워크를 사용하여 모델을 훈련하고 파인튜닝할 수 있어 효율성, 성능, 품질을 극대화한다.   새로운 AI 함수들(Functions): ai_parse_document() 함수를 통해 비정형 문서에서 구조화된 콘텐츠를 추출하는 등, SQL 데이터 분석가도 LLM 모델에 직접 접근할 수 있는 기능을 제공한다.  LLM 모델 확장: 클로드 소넷 4, 클로드 오푸스, 라마 4 등 최신 LLM 모델들이 모자이크 AI 모델 서빙(Mosaic AI Model Serving) 및 파운데이션 모델 API를 통해 지원된다.  벡터 검색(Vector Search) 및 AI 게이트웨이(Gateway): 벡터 검색 인덱스를 사용하여 AI 플레이그라운드에서 도구 호출 생성형 AI 에이전트를 프로토타이핑하고, AI 게이트웨이가 커스텀 모델 서빙 엔드포인트를 지원하는 등 AI 개발 생태계를 확장했다.   이러한 광범위한 AI 관련 발표는 데이터브릭스가 레이크하우스 기반의 데이터 인텔리전스 플랫폼 비전을 통해, 기업이 생성형 AI를 실제 비즈니스에 적용하고 확장하는 데 필요한 엔드-투-엔드 인프라와 도구를 제공하려는 강력한 의지를 보여준다. 데이터브릭스는 데이터 관리와 분석을 넘어, AI 모델의 개발, 배포, 거버넌스까지 아우르는 통합 플랫폼으로서 생성형 AI 시대의 핵심 인프라 제공자로 자리매김하려 하고 있으며, 이는 스노우플레이크가 아직 따라잡지 못한 영역에서 데이터브릭스의 강점을 보여 준다. 맺으며: 데이터와 AI의 미래를 향한 데이터브릭스의 비전데이터브릭스는 레이크하우스 아키텍처를 기반으로 데이터 엔지니어링, 분석, 머신러닝, 그리고 생성형 AI까지 아우르는 통합 '데이터 인텔리전스 플랫폼'으로 진화하고 있음을 2025년의 여러 혁신을 통해 명확히 보여주고 있다. 오픈 소스에 대한 강력한 지지와 비즈니스 사용자 중심의 접근 방식은 이러한 비전을 현실화하는 핵심 동력으로 작용하고 있다.데이터 플랫폼 시장은 통합과 전문화라는 이중 트렌드를 동시에 보이고 있다. 스노우플레이크가 클라우드 데이터 웨어하우징 및 BI 분야에서 여전히 강력한 강점을 유지하는 전문화된 길을 걷는 반면, 데이터브릭스는 복잡한 데이터 엔지니어링, AI/ML 워크로드, 그리고 이제는 트랜잭션 데이터까지 포괄하는 통합 플랫폼으로서의 입지를 굳히고 있는데, 이는 기업들이 '단일 통합 플랫폼'을 선호할지, 아니면 '각 분야 최고의 전문 솔루션'을 조합할지에 대한 전략적 고민이 심해 지는 것을 의미한다.데이터브릭스는 전자의 길을 강력하게 추진하며, 특히 AI/ML 워크로드에 대한 통합적 접근을 통해 차별화를 꾀하고 있다. 2025년 발표된 유니티 카탈로그의 거버넌스 확장, 레이크베이스를 통한 OLTP 통합, 지니 AI/BI를 통한 비즈니스 사용자 민주화, 그리고 에이전트 브릭스를 통한 AI 에이전트 개발 간소화는 모두 이러한 통합 비전의 구체적인 구현 사례로서, 데이터와 AI의 융합이 가속화되는 미래 데이터 환경에서 데이터브릭스는 엔터프라이즈 AI의 핵심 인프라 제공자로서 중요한 역할을 수행할 것으로 전망된다. 기업은 자사의 특정 니즈와 워크로드 특성을 면밀히 분석하여, 두 플랫폼 중 어떤 것이 더 적합한지, 혹은 상호 보완적으로 활용될 수 있는지에 대한 심층적인 고려가 필요할 것이다.

대학 교육 기타데이터브릭스기술동향

윤며듦

🧪힐링 동아리 : 릴렉스랩 Relax Lab🧪

-힐링을 연구하는 동아리-힐링 연구원 모집중 💭나에게 맞는 스트레스 해소법, 힐링법이 있다는 것 아시나요? 👩🏻‍🔬어떤 분을 모집하나요?내게 맞는 힐링을 찾고계신 분자신만의 힐링 컨텐츠를 실현하고 싶으신 분휴식을 사랑하는 사람들사람들과 편안하게 이야기나누고 싶으신 분보석같은 장소를 찾아다니고 싶으신 분 🪵활동 내용▪주 활동 및 방문 했던 곳-LP Bar-서울 숲 뷰 카페-북캉스 ‘물밑서재’-그라운드 시소 전시-혜화동 연극&뮤지컬-안국/종로/신촌/홍대 이색카페 & 맛집-소품샵, 팝업-한강, 서울 숲 나들이-원데이클래스(점토 공방, 향수 공방)-배드민턴, 종강파티, 클라이밍 ☑모집일정[1차 서류모집]07.04 금 ~ 07.24 목*합격 및 2차 대면면접 안내 전화 일주일 이내 개별 연락(미합격자는 별도의 연락을 드리지 않습니다) [2차 대면면접]*2차 대면면접 후 최종합격 개별 연락 [최종 합격]입회비 입금 확인 후 카톡방 초대 ☑입회비 : 5,000원-MT, 공간대여, 생일 축하 등 동아리 운영을 위해 이용됩니다-예산안은 상반기/하반기로 투명하게 공개하고 있습니다(은행 거래내역서, 통장내역서 첨부) ☑활동-정기모임 : 매월 넷째 주(매달 활동에 따라 요일은 변동되며, 부원들의 일정에 맞게 투표 후 결정됩니다)-번개모임 및 시험기간 스터디 운영-활동 지역: 서울(자세한 내용은 동아리 소개를 참고해주세요!)-입회 후 세 달 동안 미참여하는 유령회원의 경우 정리 될 수 있습니다🥲 이후 새로운 부원을 뽑습니다! ❗저희 동아리는 대학생들에 의해 자치적으로 운영되며 정치, 종교, 시민단체와 관련이 없음을 알립니다.❗바라던 숲은 이성 교제 동아리가 아닙니다. 저희 동아리는 동아리 부원들의 자기계발, 힐링을 위한 동아리입니다. 📋동아리 신청서https://naver.me/FZ2jXaum 👉🏻문의https://open.kakao.com/o/s9Dq6iPg

힐링

[BE 클린코드/테스트코드 스터디] 1주차 회고

1주차 동안 무엇을 공부했는가?목차1주차 동안 학습한 목차는 다음과 같다.추상논리, 사고의 흐름객체 지향의 패러다임객체 지향 적용하기각 목차 별 본인이 생각하는 중점을 요약하자면 다음과 같다.추상추상은 단순, '인터페이스를 사용한다'와 같은 행위가 아니다.정말 구체적인 내용이 아닌 큰 흐름을 나타내는 것을 의미한다.논리, 사고의 흐름책을 읽듯이 코드를 읽기 편하게 작성하는 것이 중요하다.객체 지향 패러다임SOLID 원칙을 따르면서 코드를 작성하는 것이 유지보수적인 측면에서 도움이 된다.그렇다고 해서 이는 절대적인 규칙은 아니다.객체 지향 적용하기조합, Value Object, 일급 컬렉션 등 SOLID 원칙을 따르는 방법의 코드 작성을 지향하자미션미션 1. 추상과 구체의 예시해당 미션을 보고 CS 에서 사용되는 추상 예시를 작성할까 고민을 했었다.하지만, 이런 접근은 읽기 좋은 코드를 만든다는 것과 연관성이 크게 없는 것 같아서'식사를 한다.' 현실에서 언제든 이뤄지는 행위에 대해서 작성 했다.미션 2. SOLID 원칙과 코드 리팩토링SOLID 원칙을 스스로 생각하기 편한 형태의 글로 풀어 내려고 노력했다.사실 SOLID 원칙의 내용들을 그냥 읽으면 전부 비슷한 내용인 것 처럼 보이기 때문에 풀어서 작성하는 것이 도움이 많이 된 것같다.코드 리팩토링은 최근에 진행중인 프로젝트에서 형태만을 가지고 와서 진행했다.1주차 이후, 생각..나름 '객체 지향에 대해서 공부를 열심히 해보고, 코드에 녹아내려 봤다.'라고 생각했는데, 그냥 '레고 처럼 틀에 끼워맞추는 행위만 하지 않았나'라는 생각을 하게 되었다.공부하면서 필기를 거의 하지 않는 편이지만, 이번에는 옵시디언이라는 앱을 사용해서 전반적으로 정리해보려고 한다.  

백엔드

[BE 클린코드/테스트코드 스터디] 4주차 회고

4주차 동안 무엇을 공부했는가?목차4주차 동안 학습한 목차는 다음과 같다.Spring & JPA 기반 테스트Mock을 마주하는 자세더 나은 테스트를 작성하기 위한 구체적 조언Appendix각 목차 별 본인이 생각하는 중점을 요약하자면 다음과 같다.Spring & JPA 기반 테스트각 레이어별 어떻게 테스트 코드를 작성해야하는가Mock을 마주하는 자세Mock을 사용하는 방법 및 상황에 따른 Mock 사용더 나은 테스트를 작성하기 위한 구체적 조언테스트는 문서의 역할을 한다는 점을 생각하고 테스트를 작성하자Appendix학습 테스트를 통해 학습하는 방법 RestDocs를 사용한 테스트 코드로 API 작성 방법미션미션 5. 각 레이어의 특징과 테스트 작성 방법미션 6. 공통되는 테스트 코드가 존재한다면, 이를 setUp으로 뺄 것인가두 미션은 지금까지 공부한 내용을 정리하는 미션이었다.따라서 따로 고민하며 무언가를 수행하지는 않았고, 나만의 테스트 작성의 기준점을 세우는 시간이었다.4주차 이후, 생각..한 달 이라는 시간이 정말 빠르게 지나갔다고 생각한다.단순히 클린코드, 테스트 코드가 아닌 컨벤션, 다양한 방법중 단점이 적은 방법 등.. 핵심적인 내용들이 강의의 위주였다고 생각한다.해당 스터디를 진행하면서 개인 프로젝트에 리팩토링, 테스트 코드를 작성하였는데 많이 도움이 되었던 것 같다.아직 개인 프로젝트에 적용할 사항들이 많은데, 어려움을 느낄 때 마다 다시 강의를 보면서 진행하려고 한다.

[BE 클린코드/테스트코드 스터디] 2주차 회고

2주차 동안 무엇을 공부했는가?목차2주차 동안 학습한 목차는 다음과 같다.코드 다듬기리팩토링 연습기억하면 좋은 조언들각 목차 별 본인이 생각하는 중점을 요약하자면 다음과 같다.코드 다듬기주석, 코드의 나열 순서, 패키지 구조 또한 중요하다.결국 코드는 읽어야 하는 대상이기 때문에 읽기 좋게 구성하자리팩토링 연습스터디카페 예약 서비스 리팩토링을 진행하였다.기억하면 좋은 조언들모든 것에 정답은 없다.단지 저울질이 중요할 뿐이다. 미션미션 3. 스터디 카페 이용권 선택 시스템 리팩토링처음에는 전체적인 구조를 파악하고 구조를 나눌려고 하였다.하지만, 내가 만든 프로젝트가 아니기 때문에 상세 구현들을 쪼개는 것이 쉽지 않았다.이로 인해 다시 초기 상태를 복구하고 큰 단위에서 쪼개기 시작하였고, 처음에 목표한 구조와 비슷한 구성으로 리팩토링 할 수 있었다. 2주차 이후, 생각..미션을 진행하면서 작년에 지원한 우아한 테크코스가 많이 생각났다.그 당시 객체지향의 개념을 잘 알지못하였기 때문에 현실의 개념들을 프로젝트에 적용하려고 하다보니 쉽게 엉키는 경우가 많았고, 아쉬운 부분들이 많았다.물론 이번 리팩토링도 아쉬운 부분들이 분명 있었지만, 전체적으로 코드를 보는 시선이 달라졌다고 생각한다.특히 Solid 원칙을 전부 준수하는 코드를 작성하는 것이 가능한가? 라고 늘 의문을 가지고 있었지만, 전부 준수하지 않더라도 어느 정도까지 준수를 하는것이 바람직한 것 같다 라는 기준이 생기게 된 것 같다.

SEUNGJIN JANG

Java SE 17 Programmer 1 (Java silver) 1장 오답노트

Q1.이름공간?, 엑세스제어를 제공? 이게 무슨말이야.. 그리고 패키지에 속하지않은 클래스도 존재하는거아니야?A1.이름공간을 제공한다 -> 중복을 피하기위해, 이름을 다르게 설정가능하게 만든다라는 뜻.엑세스제어를 제공한다 -> public static default 같이 외부내부 패키지에따른 접근제어자를 뜻하는것.패키지에 속하지않은 클래스도 존재하는거 아님? -> 아님, 패키지 이름을 생략한 클래스는 무명패키지에 속해있는것. 클래스는 무조건 패키지안에 속해있음. Q2.자동으로 import되는것?A2.java.lang 패키지 (String, Integer...) 자동임포트됨 만약 안되면 java.lang.String = "A"이렇게 매번 적어서 사용해야함.또, 같은 패키지안 클래스도 자동 import됨 Q3.extends 문제, 다만 부모클래스의 패키지 선언이 안되어있고 자식클래스는 패키지 선언이 되어있음.-> 부모클래스 패키지 선언 안되어있는거 눈치를 못챔A3. 패키지가 서로 다르므로 컴파일 에러나옴package infopackage1; public class InfoSample extends Sample { public static void main(String[] args) { System.out.println(num); } } Sample 클래스는 무명클래스에 속해있으므로 extends에서 이미 컴파일 에러가 남Q4.어플리케이션의 엔트리포인트가 되는 메서드가 뭔소리야, 또 이 메서드가 되기위한 조건은?A4.엔트리포인트 메서드는 main 메서드를 의미함main 메서드가 되는 조건에 대한 문제.1.public2.static3.void4.메서드 이름은 main 이여야함5.String 배열형, 또는 가변형 -> public static void main(String... args) 도 가능Q5.java 커멘드의 실행에 관한문제. 해당 문제의 개념을 몰랐음.A5.java 커멘드란, JVM을 기동하기위한 커멘드.java 완전수식 클래스명 [인수 인수...][] 안에있는 인수는 기동 파라미터, 커멘드라인 인수 라고 부른다.java 커멘드 실행후 동작순서JVM 기동 -> 지정클래스로드 -> String배열 오브젝트 작성, 기동파라미터를 격납 -> 기동파라미터를 가지고있는 String배열의 오브젝트의 참조값을 인수로 전달후 main 메서드 실행예시문제java Asd sea bal java public class Asd { public static void main(String[] args){ System.out.println(args[0] + " " + args[1]); } }sea bal이 출력됨Q6.javac 커맨드의 개념과 Java SE 11 소스파일 모드A6.1.javac 커맨드의 개념javac는 자바 소스 파일(.java)을 컴파일해서 .class 바이트코드 파일로 만드는 명령어.Java SE 11 이전에는 항상 javac를 거쳐야 .class를 만들고 실행 가능. Java SE 11의 변화: 소스파일 모드 추가java 명령으로 .java 파일을 바로 실행할 수 있는 "소스파일 모드"가 추가.javac를 먼저 호출할 필요 없이 즉시 실행 예제public class Hello { public static void main(String... args) { System.out.println("Hello, Java 11!"); for (String arg : args) { System.out.println("Arg: " + arg); } } } java se 8javac Hello.java java Hello arg1 arg2java se 11 이후java Hello.java test1 test2  javac에만 존재하는 주요 옵션bashCopyEditjavac -d out Hello.java-d out: .class 파일의 출력 디렉토리 지정.  javac와 java 모두에서 사용 가능한 옵션bashCopyEditjavac --source 8 Hello.java java --source 8 Hello.java --source 8:소스코드의 문법을 Java 8 규칙으로 해석하도록 명시..java 파일 확장자가 아니거나 이전 버전 문법 강제할 때 유용.특별 사례javaCopyEdit// 파일명: Sample.java public class Test { public static void main(String... args) { System.out.println("Hello from Test class!"); } } bashCopyEditjava Sample.java 소스파일 모드에서는 public 클래스명과 파일명이 달라도 실행 가능(Java SE 11 이상에서만).Q7.기동파라미터와 더블쿼테이션 " 의 사용A7.스페이스(공백)를 각 기동파라미터를 나누는 기준으로 사용.java Sample a b c→ args = {"a", "b", "c"}만약 스페이스가 포함된 문자열을 하나의 파라미터로 넘기고 싶으면 " 더블쿼테이션으로 감쌈 java Sample "a b c"→ args = {"a b c"} (하나의 요소로 취급)" 더블쿼테이션 자체를 값으로 전달하려면 ¥" → 실제로는 \" 를 사용하여 escape해줌예: java Sample ¥"abc¥"→ args[0] = " \"abc\" "주의점Windows CMD는 "로 감싼 문자열 내부에 다른 문자열이 바로 붙어 있으면 그냥 붙여서 하나의 인자로 본다. "a "b → "a b"

학습일기

최준

워밍업 클럽 3기 Code 과정 Day 18 미션

1. @Mock, @MockBean, @Spy, @SpyBean, @InjectMocks 차이 @MockMockito의 기본 Mock 객체 생성객체의 동작 지정 안하면 기본 값 반환Spring Context 없이도 사용 가능  @MockBeanSpring이 관리하는 특정 Bean을 Mock 객체로 대체하는 것Spring Context 내에서 효과가 있음@SpringBootTest나 @WebMvcTest에서 사용MockBean말고 다른 Bean들은 실제 Bean 사용 가능@Autowired로 Mock 객체를 주입 @SpyMockito의 Spy 객체 생성특정 기능만 Mocking하고 나머지 기능은 원본 객체와 동일하게 수행when().thenReturn()으로 특정 메서드의 동작만 변경 가능Mock의 verify 메서드와 비슷 @SpyBeanSpring이 관리하는 특정 Bean을 Spy로 대체하는 것Spring Context 내에서 효과가 있음Bean을 일부만 Mocking하는 것@SpyBean이 인터페이스인 경우 구현체가 Spring Context에 등록되어 있어야 에러 발생 X @InjectionMocks@Mock이나 @Spy로 생성된 객체를 자동으로 주입생성자, 필드, setter를 통해 주입 가능수동으로 주입할 필요 없이 Mockito가 알아서 주입해줌 2. 테스트 항목 @BeforeEach, given절, when절에 배치"@BeforeEach void setUp() { 0-1. 사용자 생성에 필요한 내용 준비 0-2. 사용자 생성 0-3. 게시물 생성에 필요한 내용 준비 0-4. 게시물 생성 } @DisplayName(""사용자가 댓글을 작성할 수 있다."") @Test void writeComment() { // given 1-1. 댓글 생성에 필요한 내용 준비 // when 1-2. 댓글 생성 // then 검증 } @DisplayName(""사용자가 댓글을 수정할 수 있다."") @Test void updateComment() { // given 2-1. 댓글 생성에 필요한 내용 준비 2-2. 댓글 생성 // when 2-3. 댓글 수정 // then 검증 } @DisplayName(""자신이 작성한 댓글이 아니면 수정할 수 없다."") @Test void cannotUpdateCommentWhenUserIsNotWriter() { // given 3-1. 사용자2 생성에 필요한 내용 준비 3-2. 사용자2 생성 3-3. 사용자1의 댓글 생성에 필요한 내용 준비 3-4. 사용자1의 댓글 생성 // when 3-5. 사용자2가 사용자1의 댓글 수정 시도 // then 검증 }" Why?각 테스트에서 검증하려는 것이 무엇인지 고민해봤다.1번 테스트는 댓글 작성 가능 여부2번 테스트는 댓글 수정 가능 여부3번 테스트는 자신 외의 다른 사람이 댓글 수정 불가능 여부 그렇다면 검증하려는 것이 when에 들어가야 한다고 생각했다.그리고 이에 필요한 것들을 given에 넣었다. 그런데 사용자 생성과 게시물 생성은 각 테스트의 given에 공통적이라고 생각해 @BeforeEach로 넣었다.given에도 각 테스트에 필요한 것들만 준비하는 것이 좋다고 생각했다. 

최준

워밍업 클럽 3기 Code 과정 Day 16 미션

미션 내용Layered Architecture의 레이어별로1) 어떤 특징이 있고2) 어떻게 테스트를 하면 좋을지자기만의 언어로 정리해보기 Persistence Layer특징DB와 상호작용하는 LayerDB에 값을 넣고 가져오는 로직을 담당비즈니스 가공 로직이 있으면 X (역할과 책임 분리)데이터 CRUD에 집중단위 테스트 느낌 어떻게 테스트 하면 좋을지?사용하는 기술 (ex : jpa, querydsl, jpql)을 내가 잘 사용해서 DB와 상호 작용하는지 테스트기술을 잘못 사용하면 원하는 데이터를 받아올 수 없음jpa의 경우에도 쿼리 메서드를 잘 짜주겠지만 혹시 내가 메서드명을 잘못 지었을 수도 있기에 쿼리 메서드에 대해서도 테스트주로 List 형태로 메서드의 반환 값이 많이 반환될 것이기에 hasSize, extracting, containsExactlyInAnyOrder 메서드 활용하면 좋음데이터를 직접 넣기에 데이터 만드는 메서드가 정의되어 있으면 조금 더 보기 좋음 Business Layer특징비즈니스 로직이 구현된 곳도메인 객체의 로직도 존재트랜잭션 관련된 것에 주의해야 함persistence layer와 상호 작용persistence layer와 business layer 통합 테스트 느낌 어떻게 테스트 하면 좋을지?비즈니스 로직, 도메인 객체의 로직을 수행하는 메서드들에 대해 테스트 진행 (단위 테스트)각 로직들 메서드 단위로 분리를 잘하여 테스트하기 용이하게 해야 함LocalDateTime과 같이 테스트하기 어려운 것들이 존재한다면 분리하고 파라미터로 받게 하여 테스트 용이하게 해야 함도메인과 관련된 validation은 이 layer에서 테스트를 진행하는 것이 더 역할과 책임이 분리된 것역시 데이터 많이 만들기에 데이터 만드는 메서드 있으면 좋음 Presentation Layer특징외부와 상호작용하는 곳api로 파라미터를 받거나 값을 내려주는 곳응답 처리, 예외 처리, validation이 중요한 곳하위 layer들과 분리해서 테스트하는 곳단위 테스트 느낌 어떻게 테스트 하면 좋을지?하위 layer들과 분리해서 테스트하는 것이 좋다.이를 위해 MockMvc 및 mock 객체 사용andExpect 메서드를 잘 활용해야 함공통 응답이 잘 내려가는지 테스트 필요예외 발생 시 원하는 포맷, 메시지 등이 잘 응답되는지 테스트 필요쿼리 파라미터에 대한 validation 잘 이뤄지는지 테스트 필요여기에서의 validation은 기본적인 @NotNull, @NotBlank 같은 것을 테스트business layer의 validation과 분리하는 것이 필요

한국산업기술협회연수원

몰입기법을 이용한 현장 고질적인 불량 해결 실습 및 창의적 개선 실무 과정

한국산업기술협회연수원과 몰입아카데미가 주관하는 서울대학교 명예교수 황농문 교수님의 몰입 기반 실무 개선 전략 특강을 소개합니다.불량 문제의 근본 원인을 파악하고, 몰입을 통한 문제 해결 접근법에 관심이 있는 분들의 참가를 기다립니다. ● 주제 몰입적 사고 및 다각적인 시야를 통해 고질적인 현장의 문제를 정확히 파악과 해결, 몰입을 통한 변화로 효율성을 높여 생산성을 증가  ● 대상몰입적 사고 및 창의적 문제 해결을 학습하고자 하는 모든 분산업현장의 각 분야별 고질적인 불량 문제 및 현장의 반복적 문제 해결에 관심 있는 분기업의 연구개발 담당자, 신규사업 담당자, 현장개선 담당자 등 ● 일시2025년 9월 3일(수) ~ 9월 5일(금), 10:00~17:00 ● 장소한국산업기술협회연수원(서울시 금천구 범안로 1130, 14층) ● 교수 소개 : 황농문 교수現) 몰입아카데미 대표現) 한국산업기술협회연수원 수석교수現) 서울대학교 재료공학부 명예교수現) aSSIST 석좌교수저서 : '몰입 인생을 바꾸는 자기혁명', '몰입, 두번째 이야기', '공부하는 힘', '몰입 영어', '슬로싱킹'출강이력 : 삼성 사장단 협의회, 대우건설, 법무연수원, 청와대 이민포럼, 서울대학교, KAIST ● 내용 1일차)- 고질적인 불량 해결을 위한 몰입의 과학적 원리 이해- 몰입을 활용한 고질적 불량해결 사례 분석- 슬로싱킹을 통한 문제해결 및 불량대책 접근법 2일차)- 슬로싱킹 방법론- 고질적 불량해결을 위한 검증 및 보완 3일차)- 슬로싱킹 기반 산업현장 불량해결 실습- 조별 발표 및 교육 마무리 ● 신청 방법홈페이지 통해 신청  ● 혜택3인 동시신청 시 20% 할인5인 동시신청 시 30% 할인대학생, 대학원생 30% 할인 (3인, 5인 동시신청 시 추가할인 有) ● 문의한국산업기술협회연수원TEL : 02-6959-5252EMAIL : info@kitanet.or.kr홈페이지 : https://www.kitanet.or.kr/카카오톡 : '한국산업기술협회연수원' 검색 인스타그램 : @kita_0fficial 검색

커리어 · 자기계발 기타몰입기법슬로싱킹기업교육실무교육문제해결불량해결기술교육산업기술산업기술교육

스노우플레이크 서밋 2025 - 클라우드 데이터 산업을 재정의하다.

이 글은 제가 NIA [한국지능정보사회진흥원]의 < 디지털서비스 이슈리포트 > 2025년 6월호에 기고한 글입니다. 원본 글 '2025년 AI 현황 보고서 리뷰'를 이곳 브런치에서도 공유합니다. 이 글은 제가 가진 여러 개의 아이덴티티 중에서 "메가존 클라우드 기술 자문 엔지니어"의 역할에 충실하며 작성한 글입니다.들어가며지난달, 클라우드 데이터 업계의 두 거인 스노우플레이크(Snowflake)와 데이터브릭스(Databricks)는 각각 연례 글로벌 행사를 성공적으로 개최하며 데이터 및 AI 기술의 최신 트렌드와 혁신을 선보였다. 이 두 서비스는 현재 가장 널리 사용되는 데이터 웨어하우징 도구로 자주 비교되곤 한다.’ 본 글에서는 이 중 스노우플레이크와 관련된 내용을 심층적으로 분석할 예정이다.스노우플레이크 서밋 2025는 2025년 6월 2일부터 5일까지 샌프란시스코 모스콘 센터에서 개최한 연례 행사다. 200개 이상의 파트너사와 20,000명 이상의 참석자가 모인 이 행사는 클라우드 데이터 및 AI 분야의 주요 행사로 확고히 자리매김했다. 데이터 리더, 엔지니어, AI 연구원들이 한자리에 모여 데이터, AI, 클라우드 혁신에 대한 통찰력을 공유하고, 응용 사례, 확장 가능 아키텍처, 협업 솔루션 등에 중점을 둔 세션을 제공했다. 특히, 키노트에서 스노우플레이크 CEO 스리다르 라마스와미(Sridhar Ramaswamy)와 오픈AI 샘 알트만의 대담은 이번 서밋이 AI 시대의 데이터 전략에 있어 중대한 전환점임을 시사한다.그림 1 사라 구오(Sarah Guo)가 진행한 대담 스노우플레이크 소개스노우플레이크는 오늘날 기업들이 데이터에서 최대 가치를 찾을 수 있도록 지원하는 클라우드 기반 데이터 플랫폼이다. 이전에는 데이터 관리 및 활용에 있어 다음과 같은 문제들에 직면해 있었다.파편화된 데이터 환경 및 사일로 : 기업 데이터가 온프레미스 데이터베이스, 다양한 클라우드 서비스, 스프레드시트, 문서 등 여러 시스템에 분산되어 있어 통합된 시각을 얻기 어려웠다. 이는 데이터 사일로를 형성하여 비효율적인 의사 결정으로 이어졌다.복잡하고 비효율적인 데이터 파이프라인 : 데이터 수집, 변환, 로딩(ETL) 과정이 수동적이거나 복잡한 스크립트에 의존하여 시간 소모적이고 오류가 많았다. 특히 실시간 데이터 처리가 어려워 즉각적인 통찰을 얻기 힘들었다.기술 분석가 부족 및 데이터 접근성 한계 : 특정 기술 스택에 대한 전문 지식이 없으면 사용자가 직접 데이터에 접근하고 분석하기가 어려웠고, 이는 데이터 분석 전문가에 대한 의존도를 높여 데이터 활용의 민주화를 저해했다.높은 운영 부담 및 비용 비효율성 : 하드웨어 및 인프라를 설치, 구성, 유지보수하는 데 지속적인 관리가 필요했고, 확장이 비효율적이어서 과도한 비용이 발생하거나 성능 병목 현상이 일어났다.데이터 거버넌스 및 보안의 복잡성 : 민감 데이터의 식별, 분류, 접근 제어, 규제 준수 등이 수동으로 파편화되어 이루어지고 있었다.스노우플레이크는 클라우드 기반의 독자적인 아키텍처를 통해 이러한 문제점들을 해결하고 다음과 같은 방법으로 기업에 혁신적인 가치를 제공한다.통합된 데이터 클라우드 : 구조화된 데이터, 반정형 데이터, 비정형 데이터를 모두 지원하며, 거의 모든 데이터 소스에서 데이터를 통합할 수 있다. 이를 통해 기업은 단일 플랫폼에서 모든 데이터를 활용할 수 있다.간소화된 데이터 파이프라인 및 실시간 처리 : 오픈플로우(Openflow)는 데이터 추출 및 로딩 과정을 스노우플레이크 내에서 직접 처리하여 파이프라인 관리를 최소화 한다.데이터 활용의 민주화 : 비기술 사용자들도 코드 작성 없이 기업 데이터를 사용할 수 있게 하고, 접근성을 높여 직원들이 데이터의 잠재력을 최대한 활용할 수 있도록 돕는다.강화된 거버넌스 및 보안 : 민감 데이터를 자동으로 태그하고 라벨을 전파하며, 모델 수준의 역할 기반 접근 제어(RBAC)를 구현하여 AI 모델 접근을 통제한다.운영 효율성 및 비용 최적화 : 스노우플레이크는 완전 관리형 서비스로, 하드웨어 및 소프트웨어 관리 부담을 없애 준다. 리소스 크기 조정 및 공유를 자동화하여 예측 가능한 비용 관리를 가능하게 한다.개방성 및 유연성 : 아파치 아이스버그(Apache Iceberg) 및 포스트그레스(Postgres)와 같은 개방형 표준 및 기술을 통합하여 다양한 클라우드 환경과 도구를 자유롭게 결합할 수 있다.이러한 변화를 통해 스노우플레이크는 데이터 작업을 "더 간단하고, 저렴하며, 안전하게" 만들고 있다.스노우플레이크의 아키텍처는 기존의 공유 디스크(shared-disk) 및 공유 없음(shared-nothing) 데이터베이스 아키텍처의 장점을 결합한 하이브리드 형태이다. 공유 디스크 아키텍처와 유사하게, 스노우플레이크는 플랫폼 내의 모든 컴퓨팅 노드에서 접근 가능한, 영구적인 데이터를 위한 중앙 데이터 저장소를 사용한다. 하지만 공유 없음 아키텍처와 유사하게, 스노우플레이크는 MPP(대규모 병렬 처리) 컴퓨팅 클러스터를 사용하여 쿼리를 처리하며, 이 클러스터의 각 노드는 전체 데이터 세트의 일부를 로컬에 저장한다. 이러한 접근 방식은 공유 디스크 아키텍처의 데이터 관리 단순성을 제공하면서, 동시에 공유 없음 아키텍처의 성능 및 스케일 아웃(scale-out) 이점을 제공한다.그림 2. 스노우플레이크의 구조그림 2에서 볼 수 있듯이 스노우플레이크는 데이터베이스 스토리지, 쿼리 처리기, 클라우드 서비스의 세 계층으로 구성되어 있다. 퍼블릭 클라우드와 온프레미스 환경 모두에서 구동되며, 웹 UI, SQL 명령어, 다양한 프로그래밍 커넥터, 그리고 외부 도구들과 연동된다. 스노우플레이크 서밋 2025 주요 발표이번 스노우플레이크 서밋 2025에서는 혁신적인 신규 서비스와 기능들이 대거 발표되었다. 특히 AI 중심의 데이터 플랫폼 표준 제시, 데이터 거버넌스 및 보안 패러다임 변화 주도, 그리고 데이터 통합 및 상호 운용성의 새로운 지평 개척이라는 세가지 핵심 영역에서 두드러진 진보를 보였다. 각 영역별 주요 내용을 아래에서 자세히 살펴본다. AI 중심의 데이터 플랫폼 표준 제시스노우플레이크는 AI를 데이터 플랫폼의 핵심으로 통합하며 새료운 표준을 제시했다.스노우플레이크 인텔리전스: 비기술 사용자들도 자연어를 통해 기업 데이터와 대화하고 통찰을 얻을 수 있도록 돕는 새로운 자연어 인터페이스다. 앤스로픽이나 오픈AI의 최신 LLM을 스노우플레이크 보안 경계 내에서 활용하며, 내부적으로 코텍스 에이전트(Cortex Agents)를 통해 작업을 계획하고 분석, 검색 등의 보조 도구를 사용해 응답을 생성한다.데이터 사이언스 에이전트: 데이터 과학자를 위한 AI 코파일럿으로, 머신러닝 모델 개발 작업을 자동화하여 생산성을 높인다. 코드 생성, 파이프라인 제안, 실험 가속화 등을 지원하며, 머신러닝 워크플로우를 간소화하고 반복 프로세스를 빠르게 진행하며 작업 시간을 절약한다.그림 3. 스노우플레이크 인텔리전스와 데이터 사이언스 에이전트 데이터 거버넌스 및 보안의 패러다임 변화스노우플레이크는 데이터 거버넌스와 보안 분야에서도 혁신적인 개선을 이뤘다.개선된 호라이존 카탈로그(Horizon Catalog): 민감 데이터를 자동으로 태그하고 라벨을 생성하며, 코파일럿을 통해 “어떤 테이블에 PII(개인식별 정보)가 누락되었나요?” 와 같은 질문에 답변할 수 있도록 지원한다. 이는 수동 태깅의 시간 소모 문제를 해결하고, 태그 누락에 대한 가시성을 제공하며, AI 모델에 대한 일관되지 않은 접근 제어 문제를 해소하여 데이터 보안 및 규제 준수를 강화한다.포맷 유지 암호(FPE): 전화번호, 이메일, 고객 ID와 같이 특정 데이터 형식에 의존하는 시스템에 중요하며, 원래 구조를 변경하지 않고 민감 데이터를 보호하는 방법이다. FPE는 외부 데이터 공유 시 가독성을 유지하고 세분화된 접근 제어를 가능하게 하며, 다중 테넌트 SaaS 환경에서 테넌트 격리를 유지하는 데 도움을 준다.데이터 활동 모니터링: 잠재적으로 높은 위험이 있는 이상 징후를 감지하고 상세한 가시성을 제공한다.불변 스냅샷: 변경 불가능한 시점 복사본을 유지하여 랜섬웨어와 같은 위협에 대한 추가적인 보험 역할을 한다. 데이터 통합 및 상호 운용성의 새로운 지평스노우플레이크는 데이터 통합 및 상호 운용성을 강화하는 데 주력했다.오픈플로우(Openflow): 배치, 스트리밍, 그리고 구조화 및 비정형 데이터를 아우르는 다양한 워크플로우를 한 곳에서 지원하는 통합 프레임워크다. 아파치(Apache) NiFi를 기반으로 구축된 관리형 통합 서비스로, 사실상 모든 데이터 소스에서 모든 대상으로 데이터를 연결하고 이동할 수 있도록 설계되었다. 쉐어포인트, 슬랙, 구글 드라이브 등 여러 멀티모달 데이터 소스에 직접 연결되어 데이터 수집을 간소화하며, 고객은 오픈플로우를 스노우플레이크 관리 인프라 또는 자체 클라우드(BYOC) 내에 배포할 수 있어 운영 부담을 크게 줄일 수 있다. 이는 복잡하게 파편화된 데이터 스택과 수동적인 데이터 수집 작업을 없애 데이터 이동을 간편하게 하고, 궁극적으로 AI 기반 혁신을 신속하게 배포할 수 있도록 돕는다.그림 4. 스노우플레이크 오픈플로우 에코시스템개방형 레이크하우스 아키텍처에 지원 강화: 데이터 통합 및 상호 운용성을 더욱 확대한다. 아파치 아이스버그 통합 및 성능 향상은 VARIANT 지원 및 읽기 시 병합(Merge-on-Read) 기능을 통해 형식 격차를 줄이고 쿼리 속도를 높인다.이를 통해 고객은 고성능 엔진으로 거의 모든 아이스버그 테이블을 활성화하고, 더 많은 데이터에서 더 깊은 통찰을 얻을 수 있다. 이러한 움직임은 고객에게 저장 형식이나 엔진에 대한 '선택의 자유'를 제공하여 각 워크로드에 가장 적합한 도구를 사용할 수 있도록 한다.스노우플레이크 포스트그레스: 크런치 데이터(Crunchy Data) 인수를 통해 선보이는 서비스로 엔터프라이즈급 PostgreSQL을 플랫폼에 통합했다. 분석 워크로드와 트랜잭션 워크로드를 단일 플랫폼에서 처리할 수 있게 함으로써, 기존의 운영 데이터베이스와 분석 웨어하우스 간의 사일로를 허물고 데이터 파이프라인을 간소화한다.스노우플레이크 마켓플레이스 확장: 파트너 생태계의 중요성이 증가하고 있음을 명확히 보여준다. 에이전틱 앱과 코텍스 익스텐션(Cortex Knowledge Extensions)과 같은 사전 구축된 솔루션의 도입은 기업이 모든 워크플로우를 처음부터 개발하는 대신, 검증된 솔루션을 활용하여 AI 이니셔티브를 가속화할 수 있도록 '구축' 대 '구매' 결정을 돕는다. 이는 스노우플레이크 플랫폼 내에서 서드파티 AI 도우미를 직접 설치할 수 있게 함으로써, 데이터 이동 없이도 풍부한 기능과 전문 지식을 활용할 수 있는 환경을 조성한다.그림 5. 스노우플레이크 마켓 화면 맺으며이번 연례 행사를 통해 스노우플레이크는 단순한 클라우드 데이터 웨어하우스를 넘어, AI 시대의 핵심 데이터 플랫폼으로 진화하고 있음을 명확히 보여주었다. 개발자와 기업이 스노우플레이크 위에서 앱을 구축하고, AI를 활용하며, 워크플로우를 실행할 수 있는 완성형 생태계를 지향하며 클라우드 데이터 산업의 판을 주도하려는 야심을 드러냈다.이를 이용하는 고객으로서의 기업은 새로운 기술을 단순히 도입하는 것을 넘어, 강력한 데이터 기반을 구축하는 데 집중해야 한다. 이는 명확한 데이터 모델, 데이터 품질 및 접근성에 대한 명확한 소유권, 그리고 새로운 유연성 속에서 거버넌스를 확장하는 방법을 고민하는 것을 포함한다. AI 에이전트와 같은 새로운 기능은 데이터가 신뢰할 수 있을 때 비로소 진정한 가치를 발휘할 수 있으므로, 기업은 시맨틱 뷰를 통해 핵심 비즈니스 지표에 대한 공유된 의미를 확립하고, 민감 데이터 태그 지정을 활성화하며 , 메타데이터를 통해 AI의 신뢰성을 확보하는 데 투자해야 한다.다음 글에서는 데이터브릭스의 최근 행보와 클라우드 데이터 산업에 미치는 영향에 대해 정리할 예정이다.

대학 교육 기타

채널톡 아이콘