Agent Lee를 소개합니다 - Cloudflare 스택의 새로운 인터페이스 (새 탭에서 열림)

Cloudflare가 발표한 'Agent Lee'는 복잡한 대시보드 인터페이스를 자연어 중심의 지능형 에이전트로 전환하려는 시도의 결과물입니다. 이 에이전트는 사용자의 Cloudflare 계정 리소스를 깊이 있게 이해하며, 단순한 질의응답을 넘어 문제 해결(Troubleshooting)과 실제 인프라 설정 변경 및 배포까지 직접 수행할 수 있습니다. 결과적으로 개발자는 수많은 탭을 오가며 설정과 로그를 대조하는 번거로움 없이 단일 프롬프트만으로 전체 플랫폼을 제어할 수 있게 됩니다. ### Agent Lee의 주요 역량과 활용 * **문제 진단 및 즉각적인 해결**: Worker에서 발생하는 503 에러나 DNS 설정 오류 등 복잡한 장애 상황을 파악하고, 원인 분석뿐만 아니라 실제 수정 조치까지 제안하고 실행합니다. * **통합 리소스 관리**: R2 버킷 생성, Worker 연결, 도메인 Access 활성화 등 서로 다른 제품군에 걸친 작업을 명령 한 번으로 수행할 수 있습니다. * **맥락 기반의 정보 통합**: DNS, Workers, SSL/TLS, Cache 등 계정 내 모든 데이터를 통합적으로 이해하여 "내 Worker에서 발생하는 주요 에러 5개를 보여줘"와 같은 계정 특화 질문에 답변합니다. ### 기술적 구현: Codemode와 성능 최적화 * **TypeScript API 활용**: MCP(Model Context Protocol) 도구 정의를 모델에 직접 전달하는 대신, 이를 TypeScript API로 변환하는 'Codemode'를 채택했습니다. 이는 LLM이 코드 작성에 더 능숙하다는 점을 활용해 정확도를 높이기 위함입니다. * **라운드트립 최적화**: 다단계 작업이 필요한 경우 모델이 여러 도구 호출을 하나의 스크립트로 체이닝(Chaining)하여 실행함으로써 불필요한 통신 횟수를 줄입니다. * **샌드박스 실행**: 생성된 코드는 업스트림 MCP 서버에서 격리된 상태로 실행되며, Durable Objects를 통해 안전하게 프록시 처리됩니다. ### 보안 및 권한 관리 아키텍처 * **읽기/쓰기 권한 분류**: Durable Objects가 생성된 코드를 분석하여 단순 조회(Read)와 변경(Write) 작업을 구분합니다. * **명시적 승인 게이트(Elicitation Gate)**: 모든 '쓰기' 작업은 사용자의 명시적인 승인 없이는 실행될 수 없도록 설계되었습니다. 이는 UX 차원의 확인 창이 아닌, 아키텍처 수준에서 강제되는 보안 경계입니다. * **자격 증명 보호**: API 키는 코드 내에 포함되지 않으며, 서버 측 Durable Object 내부에 보관되었다가 호출 시점에만 주입되어 모델에 노출되지 않습니다. ### 생성형 UI(Generative UI)와 시각화 * **동적 컴포넌트 생성**: 텍스트 답변에 그치지 않고 대화 맥락에 따라 차트, 아키텍처 맵, 테이블 등 대화형 UI 요소를 실시간으로 렌더링합니다. * **적응형 그리드 시스템**: 사용자는 캔버스 위의 그리드를 드래그하여 새로운 UI 블록 공간을 만들고, 에이전트에게 필요한 시각화 자료를 요청하여 자신만의 대시보드를 구성할 수 있습니다. * **데이터 시각화**: 트래픽 추이를 물으면 분석 페이지로 이동하는 대신 대화창 내에 직접 인터랙티브한 선 그래프를 그려줍니다. Agent Lee는 현재 베타 단계로, Cloudflare의 Agents SDK와 Workers AI 등 실제 고객이 사용하는 것과 동일한 기술 스택으로 구축되었습니다. 복잡한 클라우드 인프라 관리를 자동화하고자 하는 개발자들에게 매우 유용하며, 특히 야간 장애 대응이나 복합적인 리소스 배포 시 작업 시간을 획기적으로 단축할 수 있는 도구가 될 것으로 보입니다. 다만 베타 버전인 만큼 중요 설정을 변경할 때는 에이전트가 제시하는 변경 내역을 꼼꼼히 확인하는 과정이 필요합니다.

ODW #2: ADK로 싱글/멀티 에이전트를 개발해 사내 시스템과 통합 (새 탭에서 열림)

LY Corporation은 사내 AI 활용의 개인차를 극복하고 업무 생산성을 높이기 위해 'ADK(Agent Development Kit)'를 활용한 싱글 및 멀티 에이전트 개발 워크숍을 진행했습니다. 이 워크숍은 개인 중심의 AI 도구 활용에서 벗어나, 팀 단위로 최적화된 AI 에이전트를 구축하고 MCP(Model Context Protocol)를 통해 사내 시스템과 통합하는 실무 지식을 공유하는 데 중점을 두었습니다. 결과적으로 복잡한 업무를 자동화하는 멀티 에이전트 시스템을 직접 구현함으로써 지식 사일로 현상을 해소하고 조직 차원의 기술 상향 평준화를 목표로 하고 있습니다. **사내 AI 활용의 한계와 워크숍의 필요성** * **지식의 사일로화:** 개인별로 로컬 AI 도구(Cline, Claude Code 등)를 사용하면서 활용 능력에 따른 생산성 격차가 발생하고, 유사한 문제에 대해 각자 프롬프트를 최적화하는 중복 작업이 빈번해졌습니다. * **싱글 에이전트의 한계:** 단일 LLM 기반 에이전트만으로는 복잡한 비즈니스 로직이나 전문적인 대응에 한계가 있으며, 이를 해결할 수 있는 멀티 에이전트 개념에 대한 이해가 부족한 상황이었습니다. * **정보 접근의 어려움:** Jira, Confluence 등 사내 시스템에 파편화된 정보를 검색하고 요약하는 데 많은 시간이 소요되어, 이를 자동화할 수 있는 중앙 집중형 에이전트 호스팅의 필요성이 대두되었습니다. **에이전트 개발 도구: ADK와 MCP** * **ADK (Agent Development Kit):** 에이전트의 동작을 정의하고 멀티 에이전트 시스템을 구현하기 위한 오픈소스 프레임워크입니다. Python 등을 활용해 함수를 정의하면 에이전트가 이를 도구(Tool)로 인식하여 실행할 수 있게 해줍니다. * **MCP (Model Context Protocol):** LLM을 Jira, Confluence와 같은 외부 시스템과 연결하는 표준 프로토콜입니다. 이를 통해 에이전트가 사내 문서나 업무 이력을 능동적으로 탐색하고 활용할 수 있는 환경을 제공합니다. * **컨텍스트 관리:** 너무 많은 도구를 에이전트 하나에 부여하면 정확도가 떨어지므로, 멀티 에이전트 구조를 통해 역할별로 컨텍스트를 분리하여 성능을 최적화합니다. **멀티 에이전트를 활용한 '프로젝트 추적기' 구현** * **순차적 에이전트(Sequential Agent) 구조:** 복잡한 프로젝트 관리 업무를 해결하기 위해 4개의 특화된 에이전트를 순차적으로 연결하는 파이프라인을 구성했습니다. * **단계별 역할 분담:** * 1단계: 진행 중인 작업 분석(Jira 데이터 수집) * 2단계: 할 일(Todo) 목록 분석 및 우선순위 파악 * 3단계: 수집된 정보를 종합하여 마크다운 형식의 리포트 생성 * 4단계: 생성된 리포트를 지정된 언어로 번역 * **실무 적용 효과:** 사용자가 일일이 데이터를 찾고 정리할 필요 없이, 멀티 에이전트 시스템이 사내 시스템에 접속하여 분석부터 번역까지 완료된 종합 보고서를 즉시 제공합니다. 단순히 AI 도구를 도입하는 것을 넘어, 팀의 고유한 도메인 지식과 사내 시스템을 결합한 '팀 전용 에이전트'를 구축하는 것이 중요합니다. ADK와 같은 프레임워크를 활용해 멀티 에이전트 환경을 구축하고 이를 호스팅하여 공유한다면, 개인의 프롬프트 엔지니어링 역량에 의존하지 않고 조직 전체의 업무 효율을 상향 평준화할 수 있습니다.

MCP 핵심 요약: 컨텍스트의 중요성과 활용 방법 | Figma 블로그 (새 탭에서 열림)

Figma가 Anthropic의 Model Context Protocol(MCP)을 도입하여 AI 에이전트가 디자인 캔버스를 직접 읽고 이해할 수 있는 환경을 구축했습니다. 이를 통해 개발자와 디자이너는 LLM이 디자인 파일의 레이어 구조와 속성을 실시간으로 파악하여 코드를 생성하거나 디자인 가이드를 작성하도록 명령할 수 있습니다. 결과적으로 AI는 단순한 채팅 도구를 넘어 디자인 도구 내부 데이터에 접근하여 실질적인 작업을 수행하는 협업 파트너로 진화하게 되었습니다. ### Model Context Protocol(MCP)의 통합과 역할 * Figma는 Anthropic이 공개한 오픈 표준인 MCP를 활용하여 AI 에이전트와 Figma 데이터 간의 직접적인 연결 고리를 마련했습니다. * 기존에는 사용자가 스크린샷을 찍어 AI에게 전달해야 했으나, 이제는 AI 에이전트가 직접 Figma API를 통해 디자인 객체의 메타데이터에 접근할 수 있습니다. * 이를 통해 AI는 레이어의 계층 구조, 오토 레이아웃(Auto Layout) 설정, 색상 및 타이포그래피 스타일 등 시각적 정보 너머의 세부 기술 정보를 정확하게 파악합니다. ### AI 에이전트의 디자인 데이터 활용 방식 * AI 에이전트는 특정 페이지나 프레임을 탐색하고, 디자인 시스템 내 구성 요소(Component)의 속성과 사용 현황을 분석할 수 있습니다. * 디자인 파일 내의 특정 영역을 기반으로 React, Tailwind CSS 등 실제 구현에 필요한 프론트엔드 코드를 고도로 정확하게 추출하는 것이 가능해집니다. * 복잡한 캔버스 안에서 특정 텍스트나 디자인 요소를 검색하고, 디자인 시스템 준수 여부를 확인하는 등 자동화된 감사(Audit) 업무를 수행할 수 있습니다. ### 워크플로우 효율화와 실무적 변화 * 디자인에서 개발로 넘어가는 핸드오프(Handoff) 과정에서 발생하는 정보 손실을 최소화하고, 반복적인 UI 구현 작업을 자동화합니다. * 디자인 변경 사항을 추적하여 자동으로 요약 문서를 작성하거나, 디자인 사양(Spec)에 기반한 릴리스 노트를 생성하는 등 문서화 공수를 획기적으로 줄여줍니다. * Claude Desktop과 같은 MCP 지원 클라이언트를 사용하는 사용자는 Figma MCP 서버를 연결함으로써 별도의 개발 없이도 자신의 디자인 데이터를 AI 모델의 컨텍스트로 즉시 활용할 수 있습니다. 이제 개발자와 디자이너는 Figma MCP 서버를 활용해 자신의 디자인 파일을 AI의 지식 베이스로 전환할 수 있습니다. 특히 복잡한 디자인 시스템을 운영하거나 디자인 기반의 코드 작성이 잦은 팀이라면, AI 에이전트에 Figma 접근 권한을 부여하여 워크플로우의 병목 구간을 해결해 보기를 권장합니다.

GitLab 19.0의 중대 변경 사항 가이드 (새 탭에서 열림)

GitLab 19.0은 이전 메이저 업데이트 대비 파괴적 변경 사항(Breaking Changes)의 수를 대폭 줄여 안정성을 높이는 한편, 최신 보안 표준과 현대적인 인프라 기술로의 전환을 가속화합니다. 이번 릴리스는 NGINX Ingress의 대체, PostgreSQL 최소 요구 버전 상향, 보안상 취약한 인증 방식 제거 등 시스템 운영의 핵심적인 변화를 포함하고 있어 사용자들의 철저한 사전 준비가 필요합니다. 각 배포 유형에 따라 2026년 5월부터 순차적으로 적용될 예정이므로, 운영 환경의 호환성을 미리 점검하고 마이그레이션을 계획해야 합니다. ### 배포 유형별 업데이트 일정 * **GitLab.com (SaaS):** 2026년 5월 4일~6일 사이에 주요 변경 사항이 적용되며, 5월 11일~13일이 예비 기간으로 설정되었습니다. * **Self-Managed:** 2026년 5월 21일부터 공식적으로 19.0 버전을 사용할 수 있습니다. * **GitLab Dedicated:** 배포판 관리 정책에 따라 2026년 6월 22일 주간의 유지보수 창 내에 업데이트가 진행됩니다. ### 인프라 및 네트워킹 구성의 변화 * **Gateway API 및 Envoy 전환:** NGINX Ingress가 2026년 3월 종료됨에 따라, GitLab Helm 차트의 기본 네트워킹 구성이 Envoy Gateway 기반의 Gateway API로 변경됩니다. 기존 NGINX 사용자는 20.0 버전 전까지 수동으로 활성화하여 유지할 수 있으나 조속한 마이그레이션이 권장됩니다. * **내장형 컴포넌트 제거:** 테스트 및 PoC 용도로 제공되던 Helm 차트 내 번들 PostgreSQL, Redis, MinIO가 라이선스 및 유지보수 이슈로 인해 완전히 제거됩니다. 해당 서비스를 사용하는 환경은 반드시 외부 서비스로 전환해야 합니다. * **OS 지원 종료:** Ubuntu 20.04의 표준 지원 종료에 맞춰 해당 OS용 리눅스 패키지 제공이 중단됩니다. 19.0 업그레이드 전 Ubuntu 22.04 이상의 지원 버전으로 OS를 교체해야 합니다. ### 데이터베이스 및 미들웨어 요구사항 강화 * **PostgreSQL 17 필수화:** PostgreSQL 16 지원이 중단되고 17 버전이 최소 요구 사항이 됩니다. 리눅스 패키지 사용자는 18.11 버전에서 자동 업그레이드가 시도될 수 있으며, 클러스터 사용자는 수동 업그레이드가 필수입니다. * **Redis 및 Valkey 지원:** Redis 6 지원이 종료됩니다. 외부 Redis 운영 환경은 Redis 7.2 또는 새롭게 지원되는 Valkey 7.2로 마이그레이션해야 합니다. (AWS, GCP 등 클라우드 매니지드 서비스 포함) ### 보안 및 빌드 환경 업데이트 * **ROPC OAuth 흐름 제거:** 보안상 결함이 있는 리소스 소유자 비밀번호 자격 증명(ROPC) 방식이 OAuth 2.1 표준에 따라 완전히 제거됩니다. 이를 사용하는 앱이나 통합 서비스는 Authorization Code flow 등 보안이 강화된 방식으로 수정해야 합니다. * **Auto DevOps 빌더 업데이트:** 클라우드 네이티브 빌드팩(CNB) 이미지가 heroku/builder:22에서 24 버전으로 업데이트됩니다. 이를 통해 최신 런타임 환경을 지원하며 관련 파이프라인의 빌드 방식이 변경될 수 있습니다. 성공적인 GitLab 19.0 전환을 위해 Self-Managed 운영자는 18.x 버전대에서 제공되는 PostgreSQL 17 마이그레이션 도구를 미리 활용하고, Helm 차트 사용자는 Gateway API로의 네트워크 인프라 전환 계획을 우선적으로 수립할 것을 권장합니다.

AWS Interconnect 정식 출시, 라스트 마일 연결을 간소화하는 새로운 옵션 제공 | Amazon Web Services (새 탭에서 열림)

AWS는 멀티클라우드 및 하이브리드 환경의 네트워크 구축을 간소화하는 매니지드 프라이빗 연결 서비스인 'AWS Interconnect'를 정식 출시했습니다. 이 서비스는 AWS VPC를 타사 클라우드나 온프레미스 데이터 센터에 직접 연결하여, 복잡한 VPN 관리나 물리적 인프라 구성 없이도 고속의 전용 네트워크를 구축할 수 있게 해줍니다. 기업은 이를 통해 인터넷을 거치지 않는 보안 경로를 확보하고, 일관된 네트워크 성능과 높은 가용성을 바탕으로 멀티클라우드 워크로드를 운영할 수 있습니다. ### 멀티클라우드 연결의 단순화와 보안성 강화 * **매니지드 Layer 3 연결**: AWS VPC와 타사 클라우드(현재 Google Cloud 지원, 2026년 Azure 지원 예정) 간의 전용 경로를 제공하며, 모든 트래픽은 공용 인터넷이 아닌 AWS 글로벌 백본과 파트너 네트워크를 통해 이동합니다. * **기본 암호화 및 가용성**: 모든 물리적 링크에 IEEE 802.1AE MACsec 암호화가 기본 적용되어 보안성이 높으며, 두 개 이상의 물리적 시설에 논리적 링크를 분산 배치하여 하드웨어 장애 시에도 연결이 중단되지 않는 회복탄력성을 갖추고 있습니다. * **오픈 사양 협업**: AWS는 Interconnect의 기반 기술 사양을 GitHub(Apache 2.0 라이선스)에 공개하여, 다른 클라우드 서비스 제공업체들이 표준화된 방식으로 연결 서비스에 참여할 수 있도록 독려하고 있습니다. ### 라스트 마일 연결의 편의성 * **기존 네트워크 활용**: AWS Interconnect - Last mile 기능을 통해 지사나 원격 데이터 센터에서 기존 네트워크 제공업체를 이용해 AWS로의 고속 프라이빗 연결을 쉽게 설정할 수 있습니다. * **운영 부담 감소**: 코로케이션 시설 관리나 제3자 네트워크 패브릭 설정과 같은 복잡한 작업(Undifferentiated heavy lifting)을 AWS가 관리함으로써 네트워크 팀이 핵심 비즈니스 애플리케이션에 집중할 수 있도록 지원합니다. ### 모니터링 및 관리 통합 * **CloudWatch 통합**: 각 연결에는 'Network Synthetic Monitor'가 포함되어 왕복 지연 시간(Latency)과 패킷 손실을 실시간으로 추적하며, 대역폭 사용량 지표를 통해 용량 계획을 수립할 수 있습니다. * **신속한 프로비저닝**: AWS Direct Connect 콘솔에서 대상 클라우드 사업자와 지역, 대역폭을 선택한 뒤 생성된 활성화 키를 상대 클라우드 측에 입력하는 것만으로 몇 분 내에 연결을 완료할 수 있습니다. 라우팅 정보가 양방향으로 자동 전파되므로 수동 설정의 번거로움이 없습니다. 멀티클라우드 전략을 추진 중이거나 지사 환경에서 안정적인 AWS 접속 경로가 필요한 기업은 AWS Interconnect를 통해 인프라 복잡성을 획기적으로 낮출 수 있습니다. 특히 인터넷 기반 VPN의 불규칙한 성능에 노출된 워크로드를 운영 중이라면, 예측 가능한 성능과 강력한 보안을 제공하는 이 매니지드 연결 서비스를 도입하는 것을 권장합니다.

비휴먼 ID 보안: 자동 회수, OAuth 및 범위 지정 권한 (새 탭에서 열림)

에이전트 기반 AI 시스템이 확산됨에 따라 스크립트나 AI 도구 같은 '비인간 ID(Non-human identities)'의 보안 관리가 현대 개발 환경의 핵심 과제로 부상하고 있습니다. 클라우드플레어는 이러한 비인간 ID를 안전하게 관리하기 위해 자격 증명 유출을 자동으로 탐지 및 무효화하고, 세분화된 RBAC(역할 기반 액세스 제어)를 통해 권한을 최소화하는 새로운 보안 업데이트를 도입했습니다. 이를 통해 개발자는 의도치 않은 토큰 유출이나 권한 남용으로 인한 데이터 손실 및 평판 훼손 리스크를 효과적으로 차단할 수 있습니다. **아이덴티티의 세 가지 기둥: 주체, 자격 증명, 정책** * **주체 (Principal - 여행자):** API에 접근하는 주체로, 인간 개발자뿐만 아니라 코드를 배포하는 에이전트나 서드파티 도구 등을 포함합니다. * **자격 증명 (Credential - 여권):** 신원을 증명하는 API 토큰입니다. 유출 시 누구나 해당 주체로 위장할 수 있으므로 철저한 보호가 필요합니다. * **정책 (Policy - 비자):** 인증된 주체가 수행할 수 있는 구체적인 작업을 정의하며, 검증된 신원이라도 필요한 자원에만 접근할 수 있도록 범위를 제한합니다. **자동화된 토큰 유출 탐지 및 무효화** * **GitHub 비밀번호 스캐닝 파트너십:** 공개 저장소에 클라우드플레어 토큰이 유출될 경우, GitHub이 이를 실시간으로 탐지하여 클라우드플레어에 알리고 즉각 무효화 처리합니다. * **스캔 효율성 개선:** 기존의 모호한 토큰 형식 대신 'cf' 접두사와 체크섬(Checksum)이 포함된 새로운 형식을 도입하여, 보안 도구들이 높은 정확도로 토큰을 식별하고 유효성을 검증할 수 있게 했습니다. * **사후 대응 자동화:** 유출 탐지 즉시 토큰이 취소되므로, 사용자가 실수를 인지하기 전에 이미 보안 위협이 차단되며 이후 이메일 알림을 통해 새 토큰 생성을 안내합니다. **Cloudflare One을 통한 전방위 보호** * **네트워크 및 이메일 보안:** Cloudflare Gateway와 Email Security를 통해 네트워크 트래픽이나 아웃룩 이메일 내에 포함된 토큰 유출을 실시간으로 감지하고 차단합니다. * **SaaS 및 AI 데이터 보호:** CASB를 통해 구글 드라이브나 원드라이브 등 클라우드 저장소 내 방치된 토큰을 스캔하며, AI Gateway를 통해 AI 모델로 입력되거나 출력되는 데이터 속의 민감 정보를 실시간 필터링합니다. **실용적인 보안 권장 사항** 비인간 ID 보안을 강화하기 위해 모든 신규 토큰 생성 시 스캔이 용이한 최신 형식을 사용하고, '리소스 범위 RBAC(Resource-scoped RBAC)'를 적용하여 각 에이전트가 업무 수행에 꼭 필요한 최소한의 권한만 가지도록 정책을 구성해야 합니다. 또한 Cloudflare One의 DLP(데이터 손실 방지) 프로필을 활성화하여 코드 저장소 외의 다양한 경로로 유출되는 토큰을 상시 모니터링하는 것이 권장됩니다.

MCP 도입 확대: 더 단순하고 안전하며 비용 효율적인 기업용 MCP 배포를 위한 참조 아키텍처 (새 탭에서 열림)

Cloudflare는 기업 전반에 걸친 모델 컨텍스트 프로토콜(MCP) 도입을 안전하고 효율적으로 확장하기 위해, 자사의 보안 플랫폼(Cloudflare One)과 개발자 플랫폼을 결합한 참조 아키텍처를 구축했습니다. 이 아키텍처는 로컬 MCP 서버의 보안 취약성을 해결하기 위해 중앙 집중식 원격 MCP 서버 모델을 채택하고, 인증 및 데이터 유출 방지(DLP) 기능을 통합하여 거버넌스를 강화했습니다. 이를 통해 기업은 권한 확산이나 프롬프트 인젝션과 같은 위험을 관리하는 동시에, 토큰 비용을 절감하고 생산성을 높이는 에이전트 워크플로우를 구현할 수 있습니다. **원격 MCP 서버를 통한 가시성과 제어권 확보** - 로컬에서 호스팅되는 MCP 서버는 검증되지 않은 소프트웨어 사용과 공급망 공격의 위험이 크며, IT 관리자의 중앙 통제가 불가능하다는 단점이 있습니다. - Cloudflare는 사내 모노레포(Monorepo) 내에 중앙 관리형 MCP 플랫폼을 구축하여, 직원이 템플릿을 통해 승인된 인프라 위에서 원격 MCP 서버를 신속하게 배포할 수 있도록 지원합니다. - 모든 원격 MCP 서버는 Cloudflare의 글로벌 네트워크를 통해 배포되므로 전 세계 어디서든 낮은 지연 시간으로 접근이 가능하며, 관리자는 모든 사용 내역에 대한 가시성을 가집니다. **Cloudflare Access 기반의 강력한 인증** - 내부 자산에 접근하는 MCP 서버를 보호하기 위해 Cloudflare Access를 OAuth 제공자로 통합하여 권한이 부여된 직원만 접근할 수 있도록 제한합니다. - 단일 로그인(SSO), 다요소 인증(MFA)뿐만 아니라 IP 주소, 위치, 기기 인증서와 같은 컨텍스트 기반의 속성을 검증하여 보안 수준을 높입니다. - 공개된 리소스(문서, 레이더 등)와 내부 프라이빗 리소스에 대한 접근 권한을 명확히 분리하여 운영합니다. **MCP 서버 포털을 통한 중앙 집중식 거버넌스** - 직원이 사용 가능한 모든 MCP 서버를 쉽게 찾을 수 있도록 'MCP 서버 포털'을 제공하여 검색성(Discovery) 문제를 해결합니다. - 포털 내에서 중앙 집중식 로깅과 데이터 유출 방지(DLP) 규칙을 적용하여 개인정보(PII) 등의 민감 데이터가 외부로 유출되는 것을 차단합니다. - 사용자 역할에 따라 도구 노출 범위를 다르게 설정하는 정책을 시행할 수 있습니다. (예: 재무팀은 읽기 전용 도구만, 엔지니어링팀은 읽기/쓰기 도구 모두 노출) **비용 절감과 보안 감지 기술** - 모든 API 엔드포인트를 개별 도구로 정의할 때 발생하는 토큰 비용 문제를 해결하기 위해, 에이전트가 코드를 생성하여 API와 상호작용하는 '코드 모드(Code Mode)'를 도입하여 컨텍스트 창 최적화를 달성했습니다. - Cloudflare Gateway를 활용한 '섀도우 MCP(Shadow MCP)' 감지 기능을 통해 조직 내에서 승인되지 않은 원격 MCP 서버가 사용되는 것을 식별하고 통제합니다. - 포털, 원격 서버, 인증 시스템이 모두 Cloudflare의 동일한 물리적 네트워크 노드 내에서 작동하므로 보안 검사 과정에서 발생하는 네트워크 지연을 최소화합니다. 기업이 MCP를 성공적으로 도입하려면 개별 사용자의 로컬 실행에 의존하기보다는, 인증과 거버넌스가 결합된 중앙 관리형 원격 아키텍처를 구축하는 것이 필수적입니다. 이를 통해 보안 리스크를 관리하는 동시에 AI 에이전트 운영에 드는 비용 효율성까지 확보할 수 있습니다.

Access를 위한 관리형 OAuth: 클릭 한 번으로 내부 앱을 에이전트 대응 가능하게 만들기 (새 탭에서 열림)

Cloudflare는 내부 애플리케이션을 보호하는 'Cloudflare Access'에 클릭 한 번으로 활성화 가능한 'Managed OAuth' 기능을 도입하여 AI 에이전트의 접근성 문제를 해결했습니다. 기존에는 에이전트가 인증 페이지의 리다이렉션을 처리하지 못해 내부 데이터에 접근할 수 없었으나, 이제 OAuth 2.0 표준을 통해 에이전트가 사용자 대신 안전하게 인증을 수행하고 권한을 위임받을 수 있습니다. 이를 통해 기업은 수많은 레거시 앱의 코드를 수정하지 않고도 AI 에이전트가 즉시 활용할 수 있는 환경을 구축할 수 있게 되었습니다. **Managed OAuth의 작동 원리와 기술 표준** * Cloudflare Access가 직접 권한 부여 서버(Authorization Server) 역할을 수행하여 인증되지 않은 에이전트에게 `www-authenticate` 헤더를 반환합니다. * 에이전트는 RFC 9728 표준에 따라 `/.well-known/oauth-authorization-server` 경로에서 인증 서버 정보를 자동으로 탐색합니다. * RFC 7591(동적 클라이언트 등록)을 통해 에이전트가 자신을 클라이언트로 등록하고, RFC 7636(PKCE) 기반의 인증 흐름을 통해 보안성을 확보합니다. * 사용자가 인증을 승인하면 에이전트는 사용자 ID가 포함된 JWT(JSON Web Token)를 발급받아 이후 요청에 활용합니다. **레거시 앱의 즉각적인 AI 대응 환경 구축** * 수많은 내부 앱과 위키, REST API 등을 AI 에이전트가 읽을 수 있도록 개별적으로 코드를 수정하거나 별도의 MCP(Model Context Protocol) 서버를 구축할 필요가 없습니다. * Cloudflare Access 전면에 Managed OAuth를 활성화하는 것만으로 기존 앱들을 에이전트 친화적인 환경으로 즉시 업그레이드할 수 있습니다. * 특히 내부 위키와 같은 서비스의 경우 'Markdown for Agents' 기능과 Managed OAuth를 결합하여 에이전트가 보호된 콘텐츠를 원활하게 소비하도록 지원합니다. **서비스 계정 방식의 보안 한계 극복** * 정적 자격 증명을 사용하는 서비스 계정(Service Account) 방식은 감사 로그에서 실제 행위자를 파악하기 어렵고 '혼동된 대리인(Confused Deputy)' 문제에 취약합니다. * Managed OAuth는 모든 에이전트의 작업을 실제 사용자의 ID와 연결하므로, 사용자가 가진 권한 범위 내에서만 에이전트가 동작하도록 엄격히 제어합니다. * 이를 통해 기업은 보안 정책을 유지하면서도 어떤 사용자의 에이전트가 어떤 데이터에 접근했는지 명확한 감사 추적(Audit Log)을 남길 수 있습니다. **에이전트 도구의 표준 채택 권고** * 현재 대부분의 에이전트용 'web fetch' 도구는 HTTP 응답의 `www-authenticate` 헤더를 처리하지 못하는 한계가 있습니다. * Cloudflare는 에이전트가 MCP 서버뿐만 아니라 일반적인 웹 페이지나 API에 접근할 때도 RFC 9728 표준을 준수하여 자동으로 OAuth 흐름을 수행할 것을 제안합니다. * 이를 위해 오픈소스 프로젝트인 OpenCode의 web fetch 도구에 해당 표준을 적용하는 예시를 제시하며 에이전트 생태계의 표준화를 촉구하고 있습니다. 내부 인프라의 보안을 유지하면서 AI 에이전트의 활용도를 높이고 싶다면, 정적 토큰이나 서비스 계정 대신 Managed OAuth를 활성화하여 사용자 중심의 권한 위임 체계를 구축하는 것이 권장됩니다. 이는 보안 감사 가시성을 확보하는 동시에 가장 빠르고 효율적으로 내부 앱을 AI 시대에 맞게 현대화하는 방법입니다.

모두를 위한 보안 프라이빗 네트워킹: 사용자, 노드, 에이전트, Workers — Cloudflare Mesh를 소개합니다 (새 탭에서 열림)

AI 에이전트의 부상으로 기존의 인간 중심적인 VPN이나 SSH 터널은 자율적으로 작동하는 소프트웨어의 네트워크 접근 요구를 충족하기 어려워졌습니다. Cloudflare Mesh는 AI 에이전트, 서비스, 사용자 기기를 아우르는 통합 보안 프라이빗 네트워크를 제공하여, 복잡한 설정 없이도 내부 리소스에 안전하게 접근하고 가시성을 확보할 수 있도록 돕습니다. 이는 Cloudflare One의 제로 트러스트 보안 체계와 직접 통합되어, 개발자부터 기업용 워크로드까지 유연하게 확장 가능한 에이전트 중심의 네트워크 인프라를 실현합니다. ### 에이전트 중심 시대를 위한 네트워크의 변화 * **기존 방식의 한계:** VPN은 수동 로그인이 필요하고 SSH 터널은 설정이 번거로우며, 서비스를 공용 인터넷에 노출하는 것은 보안 위험이 큼. 특히 자율적으로 동작하는 AI 에이전트에게는 부적합한 방식임. * **Cloudflare Mesh의 도입:** AI 에이전트가 스테이징 DB나 내부 API에 직접 접근할 수 있도록 네트워크를 연결하며, Cloudflare Workers 및 Agents SDK와 통합되어 서버리스 환경에서도 프라이빗 리소스에 도달할 수 있게 함. * **단일화된 인프라:** Cloudflare One의 SASE 아키텍처를 기반으로 하며, 'Mesh 노드'(기존 WARP Connector)와 'Cloudflare One Client'를 통해 인간과 에이전트 트래픽을 모두 수용함. ### 주요 에이전트 워크플로우와 활용 사례 * **개인용 에이전트 원격 접속:** 모바일 기기에서 집 안의 홈 네트워크에 있는 AI 에이전트(예: Mac mini에서 실행 중인 모델)에 안전하게 접속. 인터넷 노출 없이 셸 접근 및 파일 시스템 제어가 가능함. * **코딩 에이전트의 스테이징 환경 접근:** 개발자 노트북의 코딩 에이전트(Cursor, Claude Code 등)가 프라이빗 클라우드 VPC 내의 스테이징 데이터베이스나 API 서버에 직접 쿼리를 날릴 수 있도록 연결함. * **배포된 에이전트와 내부 서비스 통합:** Cloudflare Workers 기반의 에이전트가 퍼블릭 인터넷에 노출되지 않은 내부 API 및 DB와 통신할 때, 세밀한 권한 제어와 감사 추적(Audit Trail)을 제공함. ### Cloudflare One 기반의 통합 보안 및 관리 * **글로벌 네트워크 활용:** 전 세계 330개 이상의 도시에 걸친 Cloudflare 네트워크를 통해 프라이빗 IP로 라우팅되어 높은 안정성과 통제력을 확보함. * **자동화된 보안 정책:** Gateway 정책, 디바이스 포스처(Posture) 체크, DNS 필터링 등이 Mesh 트래픽에 자동으로 적용되어 추가 설정 없이 보안 수준을 강화함. * **확장성 있는 기능 제공:** 초기 설정 후 필요에 따라 SSH/RDP 세션 관리, 브라우저 격리, 데이터 손실 방지(DLP) 및 SaaS 보안(CASB) 등 고급 제로 트러스트 기능을 점진적으로 도입할 수 있음. 프라이빗 네트워킹이 필요한 개발자나 기업은 Mesh를 통해 수 분 내에 네트워크를 구축하고 에이전트에게 안전한 통로를 제공할 수 있습니다. 단순한 터널링을 넘어 향후 제로 트러스트 보안의 전체 스택으로 마이그레이션 없이 확장 가능하다는 점이 큰 장점입니다. 특히 자율적인 AI 에이전트의 활동에 대한 보안 통제가 필요한 환경에 Cloudflare Mesh 도입을 강력히 권장합니다.

GitLab과 Google Cloud Vertex AI: 에이전틱 개발의 발전 (새 탭에서 열림)

GitLab과 Google Cloud는 GitLab Duo Agent Platform과 Vertex AI를 결합하여 소프트웨어 개발 생명주기(SDLC) 전반에 걸친 '에이전틱(Agentic) AI' 워크플로우를 본격화하고 있습니다. 이 협업은 단순한 코드 생성을 넘어 기획, 리뷰, 보안 취약점 해결까지 자동화하며, 개발팀이 기존에 정의된 Google Cloud 보안 포스처 내에서 최신 파운데이션 모델을 안전하게 활용하도록 지원합니다. 결과적으로 기업은 복잡한 AI 인프라 관리 부담 없이 통합된 DevSecOps 제어 평면 위에서 소프트웨어 전달 속도를 획기적으로 높일 수 있습니다. ## SDLC 전반을 아우르는 지능형 에이전트의 역할 단일 작업에 집중하는 기존 AI 코딩 어시스턴트와 달리, GitLab Duo Agent Platform은 전체 소프트웨어 개발 프로세스를 유기적으로 연결합니다. * **통합된 컨텍스트 활용:** 백로그, 머지 리퀘스트(MR), 파이프라인 상태, 보안 결과 등 GitLab에 축적된 SDLC 데이터를 직접 참조하여 맥락에 맞는 의사결정을 내립니다. * **특화된 에이전트 협업:** 백로그를 분석하고 에픽을 구조화된 작업으로 나누는 'Planner Agent'와 보안 취약점을 우선순위별로 분류하고 해결책을 제시하는 'Security Analyst Agent'가 협업합니다. * **에이전틱 채팅(Agentic Chat):** 개발자는 자연어 쿼리를 통해 프로젝트의 전체 상태를 기반으로 한 다단계 추론 답변을 얻을 수 있으며, 이는 파편화된 도구를 사용할 때 발생하는 수동 핸드오프 문제를 해결합니다. ## Vertex AI 기반의 모델 유연성과 확장성 GitLab Duo는 모델 유연성을 핵심 설계 원칙으로 하며, Google Cloud의 Vertex AI를 통해 고성능 모델과 인프라를 제공받습니다. * **Vertex AI Model Garden 연동:** Gemini 모델뿐만 아니라 Model Garden에서 제공하는 다양한 써드파티 및 오픈소스 모델을 선택하여 성능, 비용, 규제 요건에 최적화된 모델을 사용할 수 있습니다. * **추론 성능 및 컨텍스트 확장:** 최신 Vertex AI 모델의 긴 컨텍스트 윈도우와 강화된 도구 사용(Tool Use) 능력을 통해 대규모 모노레포 보안 리뷰나 복잡한 백로그 분석과 같은 고난도 작업을 수행합니다. * **자체 모델 도입(BYOM):** GitLab 18.9부터 지원되는 BYOM 기능을 통해 고객은 승인된 프로바이더와 게이트웨이를 직접 구성하여 기업 고유의 보안 모델 내에서 AI 에이전트를 운영할 수 있습니다. ## 기업용 거버넌스와 클라우드 경제성 확보 Google Cloud 환경에서 GitLab Duo를 사용하는 기업은 보안 관리와 비용 최적화 측면에서 강력한 이점을 얻습니다. * **표준화된 AI 제어 평면:** 여러 개의 개별 AI 도구를 관리하는 대신, Vertex AI 기반의 모델들을 GitLab 내부에서 통합 관리함으로써 섀도우 AI(Shadow AI) 발생을 억제하고 보안 정책을 일관되게 적용합니다. * **데이터 프라이버시 보호:** Google Cloud의 업계 선도적인 데이터 프라이버시 및 모델 보호 기술을 그대로 활용하여 기업의 민감한 코드가 안전하게 처리되도록 보장합니다. * **운영 효율성 강화:** 개발자가 보안 취약점 수정 제안을 확인하고 검증하는 과정을 동일한 플랫폼 내에서 처리함으로써 컨텍스트 스위칭을 줄이고, 기존 Google Cloud 계약 범위 내에서 AI 사용량을 통합 관리하여 중복 지출을 방지합니다. GitLab과 Vertex AI의 통합은 AI 인프라의 복잡성을 제거하고 개발팀이 본연의 업무인 코드 작성에만 집중할 수 있는 환경을 제공합니다. 기업은 파편화된 AI 도구 체인을 관리하는 위험에서 벗어나, 검증된 단일 시스템 오브 레코드(System of Record) 내에서 안전하고 빠르게 혁신을 가속화할 수 있습니다.

AWS 주간 소식: Amazon Bedrock의 Claude Mythos 프리뷰, AWS Agent Registry 등 (2026년 4월 13일) | Amazon Web Services (새 탭에서 열림)

AWS는 이번 발표를 통해 AI 모델의 실험 단계를 넘어 실제 운영 환경에서의 비용 투명성과 관리 효율성을 높이는 데 주력하고 있습니다. 특히 Amazon Bedrock의 비용 할당 기능과 새로운 에이전트 레지스트리는 기업이 AI 자원을 체계적으로 거버넌스하고 최적화할 수 있는 기틀을 마련해 줍니다. 결과적으로 개발 가속화와 동시에 재무적 가시성을 확보하려는 기업들에게 실질적인 해결책을 제시하고 있습니다. ### AI 비용 관리 및 거버넌스 체계 구축 * **IAM 기반 Bedrock 비용 할당**: 이제 IAM 사용자 및 역할별로 Amazon Bedrock 사용 비용을 할당할 수 있습니다. 팀이나 비용 센터별로 태그를 지정해 AWS Cost Explorer 및 상세 비용 보고서(CUR)에서 모델 추론 비용을 명확히 추적할 수 있어 AI 투자의 가시성이 크게 향상되었습니다. * **AWS Agent Registry 출시**: 기업 내 AI 에이전트, 도구, MCP(Model Context Protocol) 서버 등을 통합 관리하는 프라이빗 카탈로그입니다. 시맨틱 검색과 승인 워크플로를 통해 중복 개발을 방지하고, CloudTrail을 통한 감사 추적 기능을 제공하여 에이전트 기반 시스템의 거버넌스를 강화합니다. ### 보안 및 관리형 AI 서비스 확장 * **Claude Mythos 프리뷰**: Anthropic의 가장 정교한 보안 특화 모델이 Amazon Bedrock에 연구 프리뷰 형태로 출시되었습니다. 소프트웨어 취약점 식별 및 대규모 코드베이스 분석에 탁월하며, 현재는 인터넷 주요 인프라 기업 및 오픈소스 유지 관리자를 중심으로 접근이 제한적으로 허용됩니다. * **Amazon WorkSpaces Advisor**: 생성형 AI를 활용하여 IT 관리자의 업무를 돕는 도구입니다. 가상 데스크톱 환경의 구성을 분석하고 문제를 자동으로 감지하여, 서비스 복구 및 성능 최적화를 위한 구체적인 권장 사항을 제공합니다. ### 고성능 데이터 스토리지 및 관측성 강화 * **Amazon S3 Files**: S3 버킷을 Amazon EFS 기술 기반의 파일 시스템으로 직접 연결하여 사용할 수 있습니다. 코드 수정 없이도 기존 파일 시스템 세맨틱을 유지하면서 초당 수 테라비트의 읽기 처리량을 확보할 수 있으며, S3 API와 파일 인터페이스를 동시에 사용할 수 있는 유연성을 제공합니다. * **OpenSearch 통합 관측성 지원**: Managed Prometheus 및 에이전트 트레이싱 기능이 추가되었습니다. 로그, 메트릭, 트레이스를 하나의 인터페이스에서 통합 관리할 수 있으며, 특히 LLM 실행 가시성을 위한 OpenTelemetry GenAI 시맨틱 컨벤션을 지원하여 AI 운영의 효율성을 높였습니다. ### 양자 컴퓨팅 및 고급 컴퓨팅 옵션 * **Rigetti 108 큐비트 QPU 지원**: Amazon Braket에서 Rigetti의 'Cepheus' 프로세서를 사용할 수 있게 되었습니다. 100 큐비트 이상의 초전도 양자 프로세서로, 펄스 수준의 제어가 가능하여 연구자들이 더 복잡한 양자 알고리즘을 테스트할 수 있는 환경을 제공합니다. * **AWS Lambda 매니지드 인스턴스**: 서버리스의 장점을 유지하면서도 메모리 집약적인 애플리케이션을 지원할 수 있도록 Lambda 인프라 옵션이 확장되어, 가벼운 워크로드를 넘어선 복잡한 계산 작업도 처리가 가능해졌습니다. 성공적인 AI 운영을 위해서는 도입 초기부터 **IAM 태그를 활용한 비용 할당 정책**을 수립하는 것이 권장됩니다. 또한, Amazon Bedrock에서 사용 중인 파운데이션 모델의 **생명주기(Lifecycle)** 문서를 정기적으로 확인하여, 모델 업데이트 및 단종 계획에 따른 서비스 중단 위험을 사전에 방지하시기 바랍니다.

입문자를 위한 GitHub: GitHub Pages 시작하기 (새 탭에서 열림)

제시해주신 텍스트는 기술 블로그의 본문이 아닌 작성자의 **프로필(Bio)** 정보입니다. 해당 내용을 바탕으로 요청하신 형식에 맞춰 요약해 드립니다. Kedasha는 GitHub의 Developer Advocate로서 자신의 개발 경험과 지식을 커뮤니티에 공유하며 타인의 성장을 돕는 데 주력하고 있습니다. 그녀는 소프트웨어 개발자로서 쌓은 실무적인 교훈을 전파하며, 기술 산업 내에서 교육적 가치를 창출하는 것을 핵심 역할로 삼고 있습니다. **Developer Advocate로서의 지식 공유** * GitHub 소속의 Developer Advocate로서 실무에서 얻은 인사이트와 교훈을 전 세계 개발자 커뮤니티와 활발하게 공유함. * 소프트웨어 개발자로서의 개인적인 여정과 경험을 바탕으로 기술 생태계의 학습 문화를 조성하는 데 기여함. **기술 교육에 대한 철학과 소통** * 타인이 기술 산업을 이해하고 새로운 지식을 습득하는 과정에서 보람을 느끼며, 이를 위해 교육적 멘토 역할을 수행함. * 소셜 미디어 플랫폼(@itsthatladydev)을 적극적으로 활용하여 온라인상에서 전 세계 개발