GitLab 18.11 릴리스 노트 | GitLab 문서 (새 탭에서 열림)

GitLab 18.11 버전부터 GitLab Duo 에이전트 플랫폼을 통한 '에이전틱 SAST 취약점 해결(Agentic SAST Vulnerability Resolution)' 기능이 정식 출시되었습니다. 이 기능은 SAST 스캔 과정에서 발견된 보안 취약점을 AI 에이전트가 자율적으로 분석하고, 코드 수정안이 포함된 머지 리퀘스트(MR)를 자동으로 생성하여 개발자의 보안 조치 속도를 획기적으로 높여줍니다. 특히 치명적(Critical) 및 높음(High) 심각도의 취약점에 대해 즉각적인 해결책을 제시함으로써 보안 부채를 효율적으로 관리할 수 있게 돕습니다. ### AI 기반의 자율적 취약점 분석 및 수정 * **문맥 중심 분석:** 단순한 패턴 매칭을 넘어, AI 에이전트가 취약점 주변의 코드 문맥을 스스로 파악하고 논리적으로 추론하여 최적의 해결책을 도출합니다. * **자동 수정 제안:** 분석 결과를 바탕으로 즉시 검토 및 반영이 가능한 머지 리퀘스트(MR)를 자동으로 생성하여 개발자의 수동 작업 부담을 줄여줍니다. * **유연한 실행 시점:** 전체 SAST 스캔 프로세스의 일부로 실행되거나, 오탐지 감지 단계 이후, 또는 특정 취약점 상세 페이지에서 사용자가 수동으로 트리거하여 실행할 수 있습니다. ### 신뢰도 높은 보안 워크플로우 제공 * **품질 평가 지표:** AI가 제안한 해결 방안에 대해 품질 평가(Quality assessments) 결과를 함께 제공하여, 리뷰어가 제안된 코드의 신뢰도를 신속하게 판단할 수 있도록 지원합니다. * **직관적인 관리:** 취약점 상세 정보 페이지에서 분석 내용을 확인하고, 제시된 해결책을 즉시 적용할 수 있는 통합된 사용자 경험을 제공합니다. * **우선순위 대응:** 보안 위협이 큰 치명적(Critical) 및 높음(High) 등급의 SAST 취약점을 우선적으로 처리하는 데 특화되어 있습니다. ### 서비스 이용 환경 및 대상 * **지원 대상:** 이 기능은 GitLab Ultimate 플랜 고객에게 제공됩니다. * **배포 환경:** GitLab.com(SaaS), Self-Managed, GitLab Dedicated 환경에서 모두 사용할 수 있습니다. 대규모 코드베이스에서 보안 취약점을 일일이 분석하고 수정하는 과정은 많은 시간과 비용이 소모됩니다. 이번에 정식 출시된 에이전틱 SAST 기능을 활용하면 보안 전문가의 개입 없이도 초동 조치가 가능해지므로, 개발팀은 보안 사고 예방 속도를 높이고 보다 고도화된 비즈니스 로직 개발에 집중할 것을 추천합니다.

GitLab 18.11: GitLab 크레딧을 위한 예산 가드레일 (새 탭에서 열림)

GitLab 18.11은 GitLab Duo Agent Platform의 온디맨드 크레딧 사용을 제어할 수 있는 '예산 가드레일(Budget Guardrails)' 기능을 도입했습니다. 조직은 구독 전체 또는 개별 사용자 단위로 지출 상한선을 설정함으로써 AI 도입에 따른 비용 불확실성을 해소하고 예산 예측 가능성을 확보할 수 있습니다. 이를 통해 기업은 갑작스러운 비용 발생 걱정 없이 AI 에이전트 활용을 전사적으로 안전하게 확장할 수 있게 되었습니다. ### 구독 수준의 지출 상한 설정 * **월간 하드 실링(Hard Ceiling) 도입**: 청구 관리자는 Customers Portal에서 전체 구독에 대한 월간 크레딧 소비 한도를 설정할 수 있습니다. * **자동 액세스 제어**: 온디맨드 사용량이 설정된 상한선에 도달하면, 다음 결제 주기가 시작될 때까지 모든 사용자의 Duo Agent Platform 액세스가 자동으로 일시 중단됩니다. * **유연한 조정**: 관리자는 월 중간에 상한선을 높이거나 기능을 비활성화하여 즉시 액세스를 복구하는 등 상황에 따라 예산을 유연하게 변경할 수 있습니다. ### 사용자별 크레딧 제한 및 차등 관리 * **공정한 자원 배분**: 특정 헤비 유저가 조직 전체의 크레딧을 독점하는 것을 방지하기 위해 사용자당 사용 한도를 설정할 수 있습니다. * **개별 맞춤형 한도 적용**: GraphQL API를 통해 모든 사용자에게 동일한 한도를 적용하거나, 더 많은 크레딧이 필요한 수석 엔지니어 등에게는 별도의 높은 한도를 부여하는 '오버라이드' 기능이 제공됩니다. * **부분적 서비스 중단**: 사용자가 개인 한도에 도달하더라도 GitLab의 일반적인 기능은 정상적으로 이용 가능하며, 오직 크레딧을 소비하는 Duo Agent Platform 활동만 제한됩니다. ### 가시성 확보 및 알림 시스템 * **실시간 알림**: 구독 상한선에 도달하면 청구 관리자에게 즉시 이메일 알림이 발송되어 예산 증액이나 크레딧 재배분 여부를 신속히 결정할 수 있게 합니다. * **관리자 모니터링**: 그룹 소유자나 인스턴스 관리자는 한도 초과로 인해 차단된 사용자를 확인하고 관리할 수 있는 권한을 가집니다. * **데이터 기반 의사결정**: 크레딧 대시보드에서 제공되는 사용자별 상세 데이터를 활용해 부서별 비용 배분(Chargeback) 정책을 수립하거나 분기별 예산 계획을 세울 수 있습니다. ### 효율적인 AI 비용 관리를 위한 제언 기존의 좌석당(Seat-based) 고정 가격 모델은 사용량과 관계없이 비용이 발생하여 비효율적일 수 있습니다. GitLab의 사용량 기반 모델과 이번에 도입된 가드레일 기능을 결합하면 실제 사용한 만큼만 비용을 지불하면서도 지출 총액을 엄격히 통제할 수 있습니다. 대규모 조직이라면 GraphQL API를 활용해 직무별로 차등화된 크레딧 할당 정책을 자동화하여 운영 효율을 극대화할 것을 추천합니다.

데스크톱 디스코드 화면 최적화: 눈이 편안해지는 디스플레이 설정 (새 탭에서 열림)

디스코드(Discord)는 단순한 테마 변경이나 이모지 제작을 넘어, 사용자의 시각적 편안함을 극대화할 수 있는 다양한 접근성 및 커스터마이징 옵션을 제공합니다. 이 글에서는 미디어 재생 제어, 색상 강도 조절, 콘텐츠 크기 변경 등 눈의 피로도를 낮추고 쾌적한 대화 환경을 조성하기 위한 구체적인 기능들을 소개합니다. 이러한 설정은 데스크톱과 웹 앱을 중심으로 상세히 설명되며, 모바일 환경에서도 유사한 기능을 통해 일관된 사용자 경험을 누릴 수 있습니다. **미디어 시청 및 재생 제어** * 미디어가 게시되는 즉시 재생되는 것이 아니라, 사용자가 원하는 시점에 본인의 속도에 맞춰 시청할 수 있도록 제어하는 토글 옵션을 제공합니다. * 갑작스러운 시각적 움직임이나 자동 재생으로 인한 피로감을 방지하여 대화 흐름을 더욱 편안하게 유지할 수 있습니다. **시각적 가독성 및 색상 최적화** * 앱 전반에 적용된 색상의 강도를 낮출 수 있는 옵션을 통해 강렬한 색감으로 인한 눈의 자극을 최소화할 수 있습니다. * 앱 내의 텍스트와 UI 콘텐츠 전체를 확대하거나 축소하는 기능을 지원하여, 각자의 시력이나 디스플레이 환경에 최적화된 크기로 조정이 가능합니다. **플랫폼별 일관된 접근성 제공** * 게이밍 데스크톱, 노트북, 웹 브라우저 등 다양한 PC 환경에서 이러한 가독성 향상 옵션을 동일하게 활용할 수 있습니다. * 대부분의 설정은 모바일 앱에서도 유사한 방식으로 작동하므로, 기기를 이동하며 사용하더라도 본인에게 맞는 최적의 시각 설정을 그대로 유지할 수 있습니다. 장시간 디스코드를 사용하며 눈의 피로를 느끼는 사용자라면, 설정 메뉴의 접근성 섹션을 방문하여 본인의 시력과 환경에 맞춰 미디어와 색상 옵션을 조정해 보시길 권장합니다. 작은 설정 변화만으로도 훨씬 더 편안하고 집중도 높은 대화 경험을 만들 수 있습니다.

Claude Opus 4.7을 이제 GitLab Duo Agent 플랫폼에서 사용할 수 있습니다. (새 탭에서 열림)

GitLab Duo Agent Platform에 Anthropic의 최신 AI 모델인 Claude Opus 4.7이 공식 도입되었습니다. 이 모델은 복잡한 다단계 추론과 정밀한 지시 이행 능력이 대폭 강화되어, 소프트웨어 개발 생애주기 전반에서 에이전트의 작업 효율을 극대화합니다. 사용자는 Agentic Chat 및 다양한 에이전트 기반 워크플로우에서 이 모델을 선택하여 더욱 신뢰도 높고 예측 가능한 자동화 결과를 얻을 수 있습니다. **추론 능력 및 지시 이행의 강화** - GitLab의 내부 평가 결과, Claude Opus 4.7은 이전 모델인 Sonnet 4.6 및 Opus 4.6보다 뛰어난 성능을 보이며 복잡하고 장기적인 작업을 더 효율적으로 처리합니다. - 조건부 작업에 대한 해석이 정밀해짐에 따라, 멀티스텝 취약점 조치(remediation)와 같이 정해진 단계를 충실히 따라야 하는 작업에서 오류를 최소화합니다. - 복합적인 도구를 사용하는 워크플로우에서 발생할 수 있는 '오류 누적' 문제를 개선하여, 결과물의 예측 가능성과 감사(Audit) 가능성을 높였습니다. **개발 수명 주기 전반의 워크플로우 최적화** - **코드 및 테스트 생성:** 에이전트가 결과를 사용자에게 보여주기 전 스스로 출력을 검증(Self-verification)함으로써, 개발자의 업무 흐름을 방해하는 불필요한 반복 작업을 줄여줍니다. - **보안 및 취약점 관리:** 강화된 지시 준수 능력을 바탕으로 에이전트가 정해진 범위 내에서 조치 시퀀스를 완수하며, 중간에 경로를 이탈하거나 추가적인 수정 지시를 요구하는 빈도가 낮아졌습니다. - **CI/CD 파이프라인:** 파이프라인 실패 시 로그 분석부터 해결책 제안까지 긴 호흡의(Long-horizon) 일관성을 유지합니다. 이를 통해 에이전트가 맥락을 잃지 않고 문제를 종결지을 수 있도록 지원합니다. **도입 방법 및 가용성** - Claude Opus 4.7은 현재 GitLab Duo Agent Platform 내 모델 선택 메뉴를 통해 즉시 사용할 수 있습니다. - 무료 체험판을 통해 모델 성능을 테스트해 볼 수 있으며, 기존 GitLab Premium 또는 Ultimate 구독자는 구독에 포함된 GitLab 크레딧을 사용하여 바로 활성화가 가능합니다. - 각 모델별 구체적인 크레딧 소모량과 상세 사양은 GitLab 공식 문서에서 확인할 수 있습니다. 복잡한 보안 조치나 대규모 CI/CD 장애 대응처럼 높은 수준의 추론이 필요한 환경이라면, Claude Opus 4.7의 강화된 에이전트 워크플로우를 활용하여 팀의 생산성을 높여볼 것을 추천합니다.

Apache Flink + RocksDB 튜닝으로 광고 Frequency Capping 실시간 집계를 일주일까지 확장하기 (새 탭에서 열림)

토스 데이터 서비스 플랫폼 팀은 광고 노출 집계의 정확성을 높이고 서빙 효율을 개선하기 위해, 기존 Airflow 배치와 Flink 스트리밍이 혼재된 시스템을 전면 Flink 기반의 실시간 슬라이딩 집계 시스템으로 전환했습니다. 1분부터 7일까지의 광범위한 집계 구간을 단일 Redis 조회로 제공하기 위해 집계 특성별로 Flink 앱을 분리하고, RocksDB 및 런타임 설정을 최적화하여 비즈니스 오차를 최소화했습니다. 이 과정에서 대규모 상태(State) 관리와 초기 데이터 적재의 정합성 문제를 해결하며 운영 신뢰성을 확보했습니다. ### 광고 노출 제어(Frequency Capping)의 중요성 * 광고주 예산 낭비를 막고 노출 기회 손실을 방지하기 위해 사용자별 광고 노출 횟수를 정확하게 카운트하고 제어하는 메커니즘입니다. * 광고 상품에 따라 '하루 3회', '7일간 1회' 등 집계 구간이 다양하므로, 1분부터 7일까지의 모든 구간에 대해 이벤트 단위의 정밀한 슬라이딩 윈도우 집계가 필요합니다. ### 기존 시스템의 한계와 개선 동기 * 기존에는 Airflow를 이용해 당일(Head), 과거(Mid), 경계 보정(Tail)의 3단계로 나누어 처리하는 배치 구조를 사용했으나, 유지보수해야 할 DAG가 너무 많고 구조가 복잡했습니다. * 서빙 시점에 구간별로 Redis를 최대 4회 조회해야 하는 구조적 번거로움이 있었으며, 실시간으로 변하는 슬라이딩 윈도우를 정밀하게 구현하는 데 한계가 있었습니다. ### 병목 패턴에 따른 앱 분리 및 아키텍처 * 집계 구간별 병목 현상이 다르다는 점에 착안하여 시스템을 **Minutes**(1~30분), **Hours**(최대 12시간), **Days**(최대 7일)의 3개 앱으로 분리했습니다. * **Minutes**: 빈번한 만료 처리로 인한 Write Stall이 주요 병목이며, RocksDB Write 경로 튜닝이 핵심입니다. * **Hours**: 대량의 광고 ID 누적으로 인한 Filter Block Cache Miss와 CPU 포화가 발생하여 Managed Memory 증설이 필요합니다. * **Days**: Savepoint가 230GB에 달하는 대규모 상태가 병목이며, Checkpoint I/O 문제를 해결하기 위해 Changelog State Backend를 활용합니다. * Flink State를 '단일 진실 공급원(SSOT)'으로 삼아, 장애 발생 시에도 Redis를 State로부터 언제든 다시 구성할 수 있도록 설계했습니다. ### 초기 적재와 전환 정합성 확보 * 7일치의 과거 데이터를 채우는 과정에서 '백필(카운트만 수행)'과 '캐치업(카운트와 만료 타이머 함께 등록)' 파이프라인을 분리하는 2단계 구조를 설계했습니다. * 백필 도중 만료 타이머가 미리 발화하여 집계가 틀어지는 문제를 방지하기 위해, 백필 완료 후 특정 시점부터만 Redis에 쓰기가 수행되도록 제어했습니다. * `withIdleness` 설정을 통해 특정 파티션의 지연이 전체 Watermark 진행을 막지 않도록 하고, `timerState`의 TTL을 윈도우보다 길게 설정해 지연 상황에서도 감소 로직이 누락되지 않도록 보장했습니다. ### RocksDB와 런타임 최적화 * **Minutes 앱**: Write Buffer Manager(WBM) 압박을 완화하여 RocksDB가 쓰기를 멈추는 Write Stall 현상을 방지했습니다. * **Hours 앱**: Bloom Filter 및 메모리 설정을 통해 캐시 미스를 줄여 CPU 효율을 높였습니다. * **Days 앱**: 거대한 SST 파일로 인한 체크포인트 부하를 줄이기 위해 레벨 최적화와 Changelog 메커니즘을 적용했습니다. 대규모 데이터를 다루는 실시간 집계 시스템에서는 모든 구간을 하나의 설정으로 처리하기보다, 데이터의 규모와 병목 지점에 따라 앱을 분리하고 각기 다른 RocksDB 튜닝 전략을 적용하는 것이 운영 안정성 측면에서 효과적입니다. 또한, 상태(State)를 시스템의 최상위 데이터 원천으로 관리하는 원칙을 지킬 때 장애 복구와 데이터 정합성 유지가 훨씬 용이해집니다.

AI가 생성한 합성 뉴런으로 뇌 지도 제작 가속화 (새 탭에서 열림)

Google Research는 뇌의 복잡한 연결망을 재구성하는 커넥토믹스(Connectomics) 분야의 효율을 높이기 위해 합성 뉴런 형태를 생성하는 AI 모델 'MoGen'을 개발했습니다. MoGen이 생성한 합성 데이터를 기존 재구성 모델인 PATHFINDER의 학습에 활용한 결과, 재구성 오류를 4.4% 줄였으며 이는 생쥐 뇌 전체 지도를 제작할 때 약 157년의 수동 검토 시간을 절약할 수 있는 획기적인 성과입니다. 이번 연구는 현대적인 생성형 AI 기법을 활용해 대규모 뇌 지도 제작의 최대 병목 구간인 인적 검증 과정을 크게 단축할 수 있음을 입증했습니다. **커넥토믹스의 거대한 규모와 수동 검증의 한계** * 커넥토믹스는 뇌세포인 뉴런을 재구성하여 뇌의 배선도를 만드는 분야로, 최근 초파리 뇌 전체 지도를 완성했으나 생쥐나 인간의 뇌는 그보다 수천 배 더 커서 현재 기술로는 한계가 있습니다. * 현미경 영상을 3D 뉴런 형상으로 변환하는 과정에서 AI가 사용되지만, 최종 결과물에 대한 전문가의 수동 검토(Proofreading) 단계가 여전히 가장 많은 시간을 소요하는 병목 현상으로 작용합니다. * 뉴런은 가늘고 긴 축삭(Axon)과 복잡하게 가지를 친 수지상 돌기(Dendrite) 등 매우 불규칙하고 복잡한 기하학적 구조를 가지고 있어 AI가 이를 정확히 파악하는 데 어려움을 겪습니다. **MoGen: 포인트 클라우드 기반의 뉴런 형태 생성** * 연구진은 'PointInfinity' 포인트 클라우드 흐름 매칭(flow matching) 모델을 기반으로 한 MoGen(Neuronal Morphology Generation)을 개발했습니다. * 이 모델은 무작위적인 3D 점들의 집합(포인트 클라우드)을 점진적으로 변형시켜 실제 뉴런과 흡사한 3D 형상을 생성합니다. * 검증된 생쥐 대뇌 피질의 축삭 데이터를 학습한 MoGen은 실제 뉴런의 구부러짐, 뒤틀림, 가지치기 등의 특성을 완벽하게 재현하며, 인간 전문가조차 실제와 합성 데이터를 구별하지 못할 정도의 정교함을 보여주었습니다. **재구성 모델 PATHFINDER의 성능 최적화** * 뉴런 재구성 모델인 PATHFINDER를 학습시킬 때 MoGen이 생성한 수백만 개의 합성 데이터를 10% 비중으로 포함했습니다. * 그 결과, 서로 다른 뉴런이 하나로 합쳐지는 '병합 오류(Merge error)'를 중심으로 전체 오류율이 4.4% 감소하는 성과를 거두었습니다. * 단순한 수치처럼 보일 수 있으나, 생쥐 뇌 전체 규모로 환산하면 전문가 한 명이 157년 동안 작업해야 하는 분량의 수동 수정을 대체할 수 있는 경제적 효과를 가집니다. **오픈 소스화 및 향후 확장 계획** * Google Research는 MoGen 모델과 종별로 학습된 모델들을 오픈 소스로 공개하여 커뮤니티의 연구를 지원하고 있습니다. * 향후에는 특정 뉴런 유형(길이, 분기 수 등)을 조절하여 생성하거나, 재구성 오류가 자주 발생하는 특정 기하학적 구조를 집중적으로 학습시켜 모델을 고도화할 계획입니다. * 생쥐 외에도 금화조, 초파리 등 다양한 종의 뉴런 생성 모델을 개발 중이며, 합성 뉴런을 활용해 전자현미경 이미지를 생성하는 방식 등 공정 전반에 걸친 데이터 증강을 모색하고 있습니다. 이 기술은 향후 생쥐 뇌 전체 지도 제작과 같은 거대 프로젝트를 수행하는 데 필수적인 기반 도구가 될 것으로 보이며, 연구자들은 MoGen을 통해 확보한 데이터로 뇌 과학 연구의 속도를 한층 더 높일 수 있을 것입니다.

바로 병합 가능한 AI 코드 수정으로 조치 자동화하기 (새 탭에서 열림)

GitLab 18.11은 AI 기반의 '에이전틱 SAST 취약점 해결(Agentic SAST Vulnerability Resolution)' 기능을 정식 출시하며 보안 병목 현상을 획기적으로 개선했습니다. 이 시스템은 취약점을 자동으로 분석하고 테스트를 거친 수정 코드를 제안함으로써, 개발자가 보안 이슈 해결을 위해 컨텍스트를 전환하거나 수동으로 연구하는 시간을 대폭 줄여줍니다. 결과적으로 보안 취약점이 운영 환경에 도달하기 전에 선제적으로 대응할 수 있는 자율적인 보안 파이프라인 구축이 가능해졌습니다. ### 에이전트 기반 자동 수정 및 개발 흐름 최적화 * **자율적 취약점 해결:** GitLab Duo 에이전트가 취약점의 맥락을 분석하여 근본 원인을 해결하는 코드를 자동 생성하고, 자동화된 테스트를 통해 검증까지 마친 '병합 준비 완료(ready-to-merge)' 상태의 MR을 제공합니다. * **신뢰도 점수 제공:** 개발자는 에이전트가 제안한 수정 사항과 함께 제공되는 신뢰도 점수를 확인하여 신속하고 정확한 의사결정을 내릴 수 있습니다. * **증분 스캐닝(Incremental Scanning):** 전체 스캔이 완료될 때까지 기다릴 필요 없이 변경된 코드 부분에 대한 보안 결과를 즉시 확인할 수 있어 파이프라인의 속도가 향상되었습니다. ### 비즈니스 리스크 중심의 스마트한 우선순위 지정 * **CVSS 4.0 적용:** 최신 산업 표준인 CVSS 4.0을 도입하여 실제 환경에서의 악용 가능성을 더욱 정교하게 반영한 취약점 점수를 제공합니다. * **정책 기반 심각도 재정의:** AppSec 팀은 CVE, CWE, 특정 파일 경로 등의 신호를 바탕으로 취약점 심각도 점수를 자동으로 조정하는 정책을 설정하여, 단순 스캐너 출력값이 아닌 실제 비즈니스 위험도에 따라 업무 우선순위를 정할 수 있습니다. * **실질적 위험 차단:** 알려진 악용 취약점(KEV) 상태나 악용 예측 점수 시스템(EPSS) 임계값을 기준으로 병합(Merge)을 차단하거나 경고하는 승인 정책을 구성할 수 있습니다. * **보안 대시보드 강화:** 새로운 'Top CWEs' 차트를 통해 프로젝트 전반에서 가장 빈번하게 발생하는 취약점 클래스를 파악하고 시스템적인 리스크를 관리할 수 있습니다. ### 보안 거버넌스 강화 및 운영 부담 완화 * **보안 관리자(Security Manager) 역할 도입:** 코드 수정이나 배포 권한 없이도 보안 정책을 설정하고 취약점 조치 워크플로우를 관리할 수 있는 전용 역할이 추가되어, 권한 분리 및 보안 전문성 강화가 가능해졌습니다. * **SAST 구성 프로필:** 개별 프로젝트마다 YAML 파일을 수정할 필요 없이, 단일 위치에서 그룹 내 모든 프로젝트에 일관된 보안 스캔 설정을 한 번에 적용할 수 있습니다. * **운영 효율성 제고:** 개발자에게 일일이 스캐너 설정을 요청하거나 각 프로젝트의 커버리지 격차를 수동으로 확인할 필요가 없어 보안 팀의 운영 오버헤드가 크게 줄어듭니다. --- 보안 팀이 개발 속도를 따라잡지 못해 고민이라면, GitLab 18.11의 에이전틱 보안 기능을 도입해 볼 것을 권장합니다. 특히 **GitLab Ultimate** 사용자라면 'Agentic SAST Vulnerability Resolution'을 통해 보안 부채를 자동으로 탕감하고, 개발자는 코드 작성에만 집중할 수 있는 환경을 구축할 수 있습니다.

CI 전문가 및 데이터 분석가 AI 에이전트, 개발 격차 해소 겨냥 (새 탭에서 열림)

GitLab 18.11 버전에서 새롭게 출시된 'CI Expert Agent'와 'Data Analyst Agent'는 AI로 인해 급증한 코드 생산량과 이를 뒷받침하지 못하는 기존 시스템 사이의 간극을 메우는 데 집중합니다. 이 에이전트들은 GitLab Duo Agent Platform을 기반으로 개발되었으며, 외부 도구와 달리 GitLab 내부의 실제 파이프라인 데이터와 개발 주기 맥락을 실시간으로 파악하여 맞춤형 해결책을 제시합니다. 결과적으로 개발팀은 복잡한 CI 설정이나 데이터 분석에 소요되는 시간을 획기적으로 줄이고 실제 혁신과 배포에 더 집중할 수 있게 되었습니다. ### 효율적인 파이프라인 구축을 위한 CI Expert Agent (Beta) 개발자가 코드를 작성한 후 실제 실행 가능한 파이프라인을 구축하기까지 발생하는 병목 현상을 해결합니다. * **저장소 자동 분석:** 저장소 내 코드를 직접 검사하여 사용된 언어와 프레임워크, 테스트 환경을 스스로 감지합니다. * **YAML 자동 생성:** 수동으로 `.gitlab-ci.yml` 파일을 작성할 필요 없이, 해당 프로젝트에 최적화된 실행 가능한 빌드 및 테스트 구성을 즉시 제안합니다. * **대화형 가이드:** Agentic Chat을 통해 파이프라인의 각 단계가 왜 필요한지 평이한 언어로 설명해주어, CI 설정 경험이 적은 개발자도 쉽게 이해할 수 있습니다. * **맥락 기반 최적화:** GitLab 내부에서 실행되므로 과거 파이프라인의 성공 및 실패 패턴을 학습하여 팀의 작업 방식에 맞게 지속적으로 개선됩니다. ### 자연어 기반 데이터 분석을 지원하는 Data Analyst Agent (GA) 소프트웨어 개발 수명 주기(SDLC)에서 발생하는 방대한 데이터를 복잡한 쿼리 없이 자연어로 간단히 분석할 수 있게 돕습니다. * **자연어 질의 및 시각화:** "MR 리뷰에 시간이 얼마나 걸리나요?"와 같은 질문을 던지면 즉시 데이터를 분석하여 시각화된 차트와 답변을 제공합니다. * **역할별 맞춤 인사이트:** 엔지니어링 매니저는 사이클 타임을, 개발자는 플래키(Flaky) 테스트 패턴을, 플랫폼 엔지니어는 러너 활용률을 즉각적으로 파악할 수 있습니다. * **확장된 분석 범위:** 정식 출시(GA) 단계인 이번 버전에서는 MR과 이슈를 넘어 프로젝트, 파이프라인, 개별 작업(Jobs)까지 분석 범위가 대폭 확대되었습니다. * **쿼리 호환성:** 생성된 GLQL(GitLab Query Language)은 복사하여 대시보드나 마크다운 문서 등 GitLab 내 어디서든 재사용할 수 있습니다. ### 통합 플랫폼 환경에서의 실용적 가치 GitLab은 AI가 단순히 코드 작성을 돕는 수준을 넘어, 생성된 코드를 안전하게 배포하고 그 성과를 측정하는 전 과정을 가속화해야 한다고 강조합니다. CI Expert Agent와 Data Analyst Agent는 GitLab 플랫폼의 고유한 데이터를 직접 활용하므로 별도의 외부 도구 동기화가 필요 없으며, 사용할수록 팀의 특성에 맞는 정교한 어시스턴트로 진화합니다. 현재 GitLab Duo Agent Platform 무료 체험을 통해 이러한 에이전트들의 성능을 직접 경험해 볼 수 있습니다.

현실 세계를 위한 합성 데이터셋 설계: 메커니즘 설계와 제1원칙에 기반한 추론 (새 탭에서 열림)

구글 연구진이 발표한 'Simula' 프레임워크는 합성 데이터 생성을 개별 샘플 최적화가 아닌 '데이터셋 수준의 메커니즘 설계'로 재정의하여 전문화된 AI 모델 학습의 데이터 부족 문제를 해결합니다. 추론 모델을 활용해 제1원칙(First principles)부터 데이터셋을 설계하는 이 방식은 데이터의 범위, 복잡성, 품질을 독립적으로 제어할 수 있는 확장 가능한 솔루션을 제공합니다. 특히 보안이나 법률과 같이 데이터가 희소하거나 개인정보에 민감한 영역에서 실제 세계의 데이터를 대체하거나 보완할 수 있는 고품질의 합성 데이터를 생성하는 데 탁월한 성능을 보입니다. **기존 합성 데이터 생성의 한계와 메커니즘 설계의 필요성** * **실제 데이터의 제약:** 수동 데이터 제작은 비용이 많이 들고 오류가 잦으며, 정적인 특성 때문에 모델의 안전성을 테스트하기 위한 에지 케이스(Edge case)를 선제적으로 생성하기 어렵습니다. * **기존 합성 방식의 문제:** 수동 프롬프트나 진화 알고리즘에 의존하는 방식은 확장성이 떨어지고, 생성 과정이 '블랙박스' 형태여서 설명 가능성이 부족하며, 개별 샘플 단위의 최적화에 그친다는 한계가 있습니다. * **프로그래밍 가능한 워크플로우:** Simula는 데이터를 코드처럼 버전 관리하고 재현하며 검사할 수 있는 '데이터 우선(Synthetic-first)' 접근법을 제안하며, 이를 위해 데이터셋 전체의 구조를 설계하는 메커니즘 디자인을 도입했습니다. **Simula: 추론 기반의 데이터 생성 4단계** * **전역적 다양화(Global Diversification):** 무작위 샘플링 대신 추론 모델을 사용해 대상 도메인의 개념 공간을 계층적 분류 체계(Taxonomy)로 맵핑합니다. '제안-수정' 루프를 통해 인간의 시드 데이터 없이도 도메인의 롱테일 영역까지 포괄하는 샘플링 토대를 구축합니다. * **지역적 다양화(Local Diversification):** 특정 개념 내에서의 변주를 확보하기 위해 '메타 프롬프트'를 생성합니다. 예를 들어 'SQL 인젝션'이라는 노드에서 수많은 서로 다른 시나리오를 파생시켜 데이터가 특정 형태에 매몰되는 '모드 붕괴(Mode collapse)'를 방지합니다. * **복잡화(Complexification):** 난이도를 독립적인 축으로 설정하여, 의미적 범위는 유지한 채 메타 프롬프트를 더 정교하고 어렵게 정제합니다. 이를 통해 실무자는 데이터셋의 난이도 분포를 자유롭게 조정할 수 있습니다. * **품질 검증(Quality Checks):** 인간의 개입 없이 정답의 정확성을 보장하기 위해 '이중 비평(Dual-critic)' 루프를 실행합니다. 이는 모델이 그럴싸한 답변에 무조건 동조하는 '아첨(Sycophancy)' 현상을 방지하고 레이블의 신뢰도를 높입니다. **추론 중심의 새로운 평가 지표** * **기존 지표의 한계:** 임베딩 기반의 코사인 유사도와 같은 표준 지표는 합성 데이터의 실제 유용성이나 구체적인 개선 방향을 제시하는 데 한계가 있습니다. * **새로운 측정 도구:** Simula는 분류 체계 기반의 '범위(Taxonomic Coverage)'와 LLM 간의 배치 비교를 통해 개별 데이터에 체스식 점수를 매기는 '보정된 복잡성 점수(Calibrated Complexity Scoring, Elo rating)'를 도입하여 데이터의 질을 입체적으로 평가합니다. **실험을 통해 증명된 합성 데이터의 원칙** * **메커니즘 설계의 필수성:** 사이버 보안, 법률, 수학 등 다양한 도메인에서 Simula로 생성된 데이터셋은 단순한 베이스라인 방식보다 일관되게 높은 성능을 기록했습니다. * **맥락에 따른 데이터 맞춤화:** 수학적 추론에서는 높은 복잡성이 성능을 10% 향상시켰으나, 법률 분야에서는 오히려 성능을 저하시켰습니다. 이는 데이터를 소비할 모델의 역량에 맞춰 데이터 난이도를 최적화해야 함을 시사합니다. * **양보다 질의 법칙:** 고품질의 합성 데이터는 적은 샘플 수로도 더 높은 성능을 달성했으며, 이는 AI 모델의 스케일링 법칙이 단순한 데이터의 양이 아닌 데이터의 내재적 속성에 의해 주도됨을 확인시켜 줍니다. 성공적인 AI 모델 전문화를 위해서는 단순히 데이터를 많이 생성하는 것이 아니라, 도메인의 지식 구조를 반영한 정교한 설계가 선행되어야 합니다. Simula 프레임워크와 같이 추론 모델을 활용해 데이터셋의 다양성과 복잡성을 능동적으로 제어하는 방식은 향후 데이터가 부족한 특수 분야 AI 개발의 핵심적인 방법론이 될 것입니다.

GitHub Copilot CLI로 개인용 정리 커맨드 센터 구축하기 (새 탭에서 열림)

GitHub의 개발자 애드보커시 시니어 디렉터인 Cassidy는 소프트웨어 구축과 스타트업 자문, 그리고 개발자 교육을 통해 더 나은 개발 생태계를 만드는 데 주력하고 있습니다. 그녀는 기술적 리더십을 발휘하는 동시에 커뮤니티와 긴밀히 소통하며 개발자들이 실무 능력을 향상시킬 수 있는 다양한 자원을 제공합니다. 결론적으로 Cassidy는 지속적인 학습과 실전 문제 풀이를 통해 개발자가 기술적으로 성장할 수 있는 환경을 조성하는 데 기여하고 있습니다. **GitHub에서의 리더십과 개발자 지원** * GitHub의 개발자 애드보커시(Developer Advocacy) 시니어 디렉터로서 개발자들의 기술적 성장을 돕는 전략을 수립하고 실행합니다. * 단순히 소프트웨어를 개발하는 것에 그치지 않고, 스타트업을 대상으로 기술적 자문을 제공하며 업계 전반의 기술 역량을 높이는 데 집중합니다. **지속적 성장을 위한 교육 및 뉴스레터 운영** * 개인 뉴스레터(cassidoo.co)를 매주 발행하여 개발자들에게 최신 기술 업데이트와 실무 지식을 전달합니다. * 뉴스레터에는 정기적인 코딩 연습 문제와 유머를 포함하여, 개발자들이 즐겁게 학습하고 기술적 예리함을 유지할 수 있도록 돕습니다. 개발자로서 기술적 역량을 꾸준히 유지하고 최신 동향을 파악하고 싶다면, Cassidy의 뉴스레터를 구독하여 정기적인 코딩 연습과 커뮤니티 인사이트를 얻어보는 것을 추천합니다.

Browser Run: 에이전트에게 브라우저를 제공하세요 (새 탭에서 열림)

Cloudflare는 기존의 'Browser Rendering' 서비스를 'Browser Run'으로 재브랜딩하며 AI 에이전트가 웹과 상호작용하는 데 최적화된 강력한 브라우징 인프라를 공개했습니다. 이 서비스는 Cloudflare의 글로벌 네트워크에서 전체 브라우저 세션을 실행하고, 에이전트가 사이트 탐색, 데이터 추출, 폼 작성 등을 대규모로 수행할 수 있도록 지원합니다. 결과적으로 개발자는 인프라 관리 부담 없이 AI 에이전트에게 실시간 모니터링, 인간 개입, 세밀한 제어 기능을 갖춘 브라우저를 제공할 수 있게 되었습니다. **에이전트 중심의 확장된 브라우저 인프라** * **온디맨드 인스턴스 실행:** Cloudflare 글로벌 네트워크를 통해 헤드리스 크롬(Chrome) 인스턴스를 즉시 생성하며, 버전 관리나 서버 유지보수 없이 저지연 환경에서 브라우징 세션을 운영할 수 있습니다. * **대규모 동시성 지원:** 동시 실행 가능한 브라우저 한도를 기존 30개에서 120개로 대폭 늘려, 대량의 작업을 동시에 처리해야 하는 에이전트의 요구사항을 충족합니다. * **에이전트 SDK 결합:** Agents SDK와 연동하여 웹을 탐색하고 정보를 기억하며 자율적으로 행동하는 장기 실행(Long-running) 에이전트 구축이 가능합니다. **CDP 엔드포인트를 통한 정밀한 제어** * **직접적인 프로토콜 노출:** Chrome DevTools Protocol(CDP) 엔드포인트를 직접 노출하여 에이전트가 브라우저에 대해 최대 수준의 제어권을 가질 수 있게 합니다. * **효율적인 모델 통신:** Puppeteer나 Playwright 같은 고수준 라이브러리를 거치지 않고 원시 CDP 메시지를 모델에 직접 전달할 수 있어, 토큰 효율적인 브라우저 제어가 가능합니다. * **간편한 이관:** 기존에 자체 호스팅 크롬에서 실행하던 CDP 기반 자동화 스크립트를 코드 한 줄의 설정 변경(WebSocket URL 교체)만으로 Browser Run에서 실행할 수 있습니다. **실시간 모니터링과 인간 협업 기능** * **Live View:** 에이전트가 현재 무엇을 보고 어떤 동작을 하는지 실시간으로 확인하며, 작업 실패 시 원인을 즉각 파악할 수 있습니다. * **Human in the Loop:** 로그인이나 예상치 못한 예외 상황 발생 시 에이전트가 작업을 중단하는 대신 인간에게 제어권을 넘기고, 문제가 해결되면 다시 제어권을 받아 작업을 이어가는 워크플로우를 지원합니다. * **세션 녹화(Session Recordings):** DOM 변경, 사용자 상호작용, 페이지 탐색을 포함한 모든 세션을 녹화하여 사후 디버깅 및 분석에 활용할 수 있습니다. **생태계 확장 및 차세대 웹 표준 지원** * **MCP(Model Context Protocol) 지원:** Claude Desktop, Cursor, OpenCode와 같은 AI 코딩 에이전트들이 Browser Run을 원격 브라우저로 사용할 수 있도록 지원합니다. * **WebMCP 도입:** 웹사이트가 에이전트가 수행 가능한 액션을 직접 선언하게 함으로써, 인간 중심의 웹 구조에서 발생하던 에이전트의 탐색 오류를 줄이고 신뢰성을 높입니다. Cloudflare Browser Run은 단순한 브라우저 자동화 도구를 넘어 AI 에이전트의 '눈'과 '손' 역할을 하는 필수 인프라로 자리 잡고 있습니다. 특히 복잡한 로그인 처리나 실시간 디버깅이 필요한 에이전트 환경을 구축하려는 개발자에게 CDP 직접 노출과 Human-in-the-loop 기능은 매우 강력한 이점을 제공할 것입니다.

에이전트에 음성 추가하기 (새 탭에서 열림)

Cloudflare는 기존 Agents SDK에 실시간 음성 기능을 통합할 수 있는 실험적 라이브러리인 `@cloudflare/voice`를 공개했습니다. 이 도구를 사용하면 별도의 음성 전용 프레임워크로 옮길 필요 없이, 기존의 Durable Object 아키텍처와 WebSocket 연결 모델을 그대로 유지하면서 에이전트에 음성 인터페이스를 추가할 수 있습니다. 이를 통해 개발자는 텍스트와 음성 입력을 동일한 상태 공간에서 처리하고 SQLite를 통해 대화 이력을 영속적으로 관리하는 고도화된 음성 에이전트를 구축할 수 있게 됩니다. **@cloudflare/voice의 주요 구성 요소 및 기능** * **고차 에이전트 함수**: 전체 음성 대화를 지원하는 `withVoice(Agent)`와 음성을 텍스트로 변환하는 기능만 제공하는 `withVoiceInput(Agent)`을 통해 용도에 맞는 에이전트를 설계할 수 있습니다. * **React 및 클라이언트 지원**: React 앱에서 음성 상태와 전사 내용을 쉽게 관리할 수 있는 `useVoiceAgent`, `useVoiceInput` 훅과 프레임워크에 구애받지 않는 `VoiceClient`를 제공합니다. * **내장 Workers AI 제공자**: 외부 API 키 설정 없이도 즉시 시작할 수 있도록 Deepgram Flux 및 Nova 3(실시간 STT), Deepgram Aura(TTS) 등 Cloudflare Workers AI 기반의 엔진을 기본 지원합니다. * **개방형 인터페이스**: 특정 기술 스택에 종속되지 않도록 인터페이스를 작게 설계하여, 개발자가 필요에 따라 다양한 음성, 통신, 전송 계층 제공자를 선택하고 조합할 수 있습니다. **서버 및 클라이언트 구현 방식** * **서버 측 로직**: `Agent` 클래스를 `withVoice`로 감싸고, `onTurn()` 메서드 내에서 사용자 발화에 대한 응답 로직을 작성합니다. 이때 전사기(Transcriber)와 TTS 인스턴스를 설정에 추가하는 것만으로 음성 에이전트 서버가 완성됩니다. * **클라이언트 측 연결**: 단일 WebSocket을 통해 16kHz 모노 PCM 오디오 데이터를 스트리밍하며, 클라이언트 라이브러리는 통화 상태(status), 실시간 전사(transcript), 음소거(mute) 기능 등을 자동으로 관리합니다. * **통합 아키텍처**: 음성 기능이 추가되어도 동일한 Durable Object 인스턴스와 SQLite 기반의 대화 기록을 공유하므로, 기존 텍스트 기반 에이전트의 지식과 맥락을 그대로 활용할 수 있습니다. **실시간 음성 파이프라인의 작동 원리** * **지속적 전사 및 턴 감지**: 통화가 시작되면 에이전트는 지속적인 전사 세션을 생성하며, STT 모델이 사용자의 발화 종료 시점을 스스로 판단하여 안정적인 텍스트 결과(Turn)를 앱 로직에 전달합니다. * **문장 단위 스트리밍**: `onTurn()` 메서드가 텍스트 스트림을 반환하면, 파이프라인이 이를 문장 단위로 분할(Chunking)하여 각 문장이 준비되는 즉시 실시간으로 음성을 합성해 클라이언트로 전송합니다. * **데이터 영속성**: 모든 사용자 메시지와 에이전트의 응답은 SQLite 데이터베이스에 자동으로 기록되어, 네트워크 연결이 끊기거나 서버가 재배포되어도 끊김 없는 대화 경험을 보장합니다. 이 라이브러리는 음성 기능을 복잡한 별도의 서비스로 분리하지 않고 에이전트의 라이프사이클 내에 자연스럽게 통합했다는 점에서 매우 실용적입니다. 기존 Cloudflare Agents SDK를 사용 중인 개발자라면 추가적인 인프라 구축 없이 Workers AI의 성능을 활용해 지연 시간이 낮은 실시간 대화형 AI를 구축할 수 있으므로, 단순 텍스트 인터페이스를 넘어선 다중 모달(Multi-modal) 환경으로의 확장을 적극 고려해 보길 추천합니다.

Project Think: Cloudflare에서 차세대 AI 에이전트 구축하기 (새 탭에서 열림)

Cloudflare는 차세대 AI 에이전트 구축을 위한 새로운 프레임워크인 'Project Think'를 공개했습니다. 이 프로젝트는 단순한 도구 모음을 넘어 내구성 있는 실행(Durable execution), 하위 에이전트 관리, 샌드박스 코드 실행 등을 포함한 강력한 프리미티브(Primitives)를 제공하여 에이전트가 중단 없이 장시간 작업을 수행할 수 있도록 돕습니다. 이를 통해 기존 에이전트의 높은 유지 비용과 확장성 문제를 해결하고, 인프라 수준에서 스스로 사고하고 동작하는 에이전트 환경을 구축하는 것을 목표로 합니다. ### 기존 에이전트 모델의 한계와 확장성 문제 * **로컬 및 고비용 환경의 제약:** 현재의 코딩 에이전트들은 주로 개인 노트북이나 비싼 VPS에서 실행되어 기기 간 협업이나 상태 공유가 어렵고, 사용하지 않을 때도 고정적인 비용이 발생합니다. * **1대1 서비스 구조의 비효율성:** 일반적인 앱은 하나의 인스턴스가 다수의 사용자를 처리하지만, 에이전트는 사용자 한 명당 하나의 인스턴스가 할당되는 '개인 셰프'와 같은 구조를 가집니다. 이는 수천만 명의 사용자를 대응할 때 기존 컨테이너 기반 방식으로는 비용 감당이 불가능함을 의미합니다. * **관리의 복잡성:** 의존성 설치, 업데이트 관리, 비밀번호 및 아이디 설정 등 수동으로 관리해야 할 요소가 많아 대규모 배포에 걸림돌이 됩니다. ### Durable Objects 기반의 지속성 아키텍처 * **액터 모델(Actor Model) 채택:** Cloudflare의 Durable Objects를 기반으로 각 에이전트에 고유한 식별자와 자체 SQLite 데이터베이스를 부여합니다. * **비용 최적화:** 에이전트가 활동하지 않을 때는 휴면(Hibernation) 상태로 전환되어 컴퓨팅 비용이 발생하지 않으며, 이벤트(HTTP, 이메일, 알람 등)가 발생할 때만 즉시 깨어나 상태를 로드합니다. * **자동 확장성:** 별도의 용량 관리 없이 수만 개의 에이전트를 동시에 운영할 수 있으며, 각 에이전트는 독립적인 상태와 로직을 유지합니다. ### Project Think의 핵심 기술 프리미티브 * **Fibers를 이용한 내구성 있는 실행:** `runFiber()` 함수를 통해 실행 중인 작업을 SQLite에 등록하고, `stash()`로 체크포인트를 설정하여 시스템 충돌이나 재시작 후에도 중단된 지점부터 작업을 재개할 수 있습니다. * **샌드박스 및 동적 실행:** Dynamic Workers를 활용해 에이전트가 안전한 격리 환경 내에서 직접 코드를 작성하고 실행할 수 있도록 지원하며, 런타임에 필요한 npm 패키지를 직접 해결합니다. * **계층 구조의 에이전트:** 하위 에이전트(Sub-agents)를 생성하여 복잡한 작업을 분담할 수 있으며, 이들은 각자의 SQLite 데이터베이스와 타입화된 RPC를 통해 부모 에이전트와 통신합니다. * **지능형 세션 관리:** 트리 구조의 메시지 기록, 포킹(forking), 컴팩션 및 전문 검색 기능을 제공하여 에이전트가 과거의 맥락을 정확하게 파악하고 활용할 수 있게 합니다. 프로젝트 Think는 에이전트를 단순히 '실행되는 프로그램'이 아니라 '지속되는 인프라'로 격상시킵니다. 대규모 사용자에게 맞춤형 AI 비서를 저렴한 비용으로 제공하고자 하는 개발자라면, Cloudflare Agents SDK의 내구성 있는 실행 모델과 액터 기반 아키텍처를 도입하여 복구 가능하고 확장성 있는 에이전트 서비스를 설계해 보시기 바랍니다.

에이전틱 시대를 위한 워크플로 컨트롤 플레인 재설계 (새 탭에서 열림)

Cloudflare의 워크플로우(Workflows) 컨트롤 플레인 재설계 과정을 다룬 이 글은, 인간 중심의 트리거에서 AI 에이전트 중심의 고속 트리거로 변화하는 기술 환경에 대응하기 위한 아키텍처 전환을 설명합니다. 기존의 중앙 집중식 구조에서 발생하는 병목 현상을 해결하기 위해 수평적 확장이 가능한 새로운 컴포넌트를 도입하였으며, 이를 통해 동시 실행 인스턴스 수를 기존 대비 10배 이상인 50,000개까지 확장하는 데 성공했습니다. 결과적으로 에이전트가 생성하는 방대한 양의 워크로드를 안정적이고 탄력적으로 처리할 수 있는 기반을 마련했습니다. ### 에이전트 시대의 워크로드 변화와 새로운 요구사항 * **트리거 주체의 변화:** 과거에는 사용자의 회원가입이나 주문 등 인간의 행동에 의해 워크플로우가 시작되었으나, 현재는 자율적인 AI 에이전트가 기계적인 속도로 워크플로우를 생성합니다. * **지속성 및 내구성의 중요성:** 에이전트가 며칠 동안 작업을 수행하거나 인간의 승인을 기다리는 동안, 워크플로우는 각 단계를 독립적으로 재시도하고 실패 시에도 진행 상황을 유지하는 내구성이 필요합니다. * **폭발적인 인스턴스 생성:** 단일 에이전트 세션이 수십 개의 워크플로우를 생성하고 수천 개의 인스턴스가 동시에 실행되는 환경에 대응하기 위해 더 높은 처리량이 요구됩니다. ### V1 아키텍처의 한계: 중앙 집중형 구조의 병목 * **단일 Durable Object(DO) 의존:** 모든 계정 레벨의 정보와 인스턴스 관리를 'Account'라는 단일 Durable Object가 담당하여 병목 현상이 발생했습니다. * **확장성 제약:** 인스턴스 생성, 업데이트, 조회 등의 모든 작업이 하나의 DO를 거쳐야 했으므로, 동시 실행 4,500개 및 10초당 100개의 생성 제한이라는 물리적인 한계에 부딪혔습니다. * **상태 불일치 가능성:** 워크플로우를 큐에 넣기 전 실제 실행 엔진(Engine)의 생성 여부를 확인하는 로직이 부족하여 비정상적인 상태가 발생할 가능성이 있었습니다. ### V2 아키텍처: 수평적 확장을 위한 재설계 원칙 * **엔진 중심의 진실 공급원(Source of Truth):** 특정 인스턴스의 존재 여부에 대한 권한을 해당 인스턴스의 실행 엔진(Engine)에만 부여하여 의존성을 분산했습니다. * **메타데이터의 최소화:** 계정 수준의 싱글톤(Singleton) 객체는 최소한의 메타데이터만 저장하고, 요청 수에 관계없이 일정한 성능을 유지하도록 설계했습니다. * **새로운 컴포넌트 도입:** 'Account' DO의 부하를 분산하기 위해 메타데이터와 생명주기 관리를 보조하는 **SousChef**와 동시성 제어 및 액세스를 담당하는 **Gatekeeper**를 새롭게 구축했습니다. ### 향상된 성능 지표 및 확장된 한계치 * **동시 실행 인스턴스:** 기존 4,500개에서 **50,000개**로 대폭 상향되었습니다. * **인스턴스 생성 속도:** 계정당 초당 100개에서 **초당 300개**로 향상되었습니다. * **대기열 용량:** 워크플로우당 대기 중인 인스턴스 수가 100만 개에서 **200만 개**로 두 배 늘어났습니다. AI 에이전트가 주도하는 애플리케이션을 구축하는 개발자라면, 이제 인프라의 한계에 구애받지 않고 고도로 병렬화된 워크플로우를 설계할 수 있습니다. Cloudflare Workflows의 V2 컨트롤 플레인은 대규모 자동화 인프라를 위한 강력하고 탄력적인 토대를 제공합니다.

빌드하는 곳 어디서나 도메인 등록: Cloudflare Registrar API 베타 출시 (새 탭에서 열림)

Cloudflare는 도메인 검색부터 구매까지의 전 과정을 프로그래밍 방식으로 처리할 수 있는 ‘Registrar API’ 베타 버전을 출시했습니다. 이번 서비스는 개발자가 코드 에디터나 터미널을 벗어나지 않고도 도메인을 즉시 확보할 수 있도록 설계되었으며, 특히 AI 에이전트가 사용자를 대신해 도메인을 제안하고 등록하는 ‘에이전트 중심 워크플로우’를 지원하는 데 중점을 두었습니다. 이를 통해 사용자는 프로젝트 빌드 과정에서 발생하는 도메인 구매의 번거로움을 최소화하고, Cloudflare의 정책에 따라 추가 수수료 없는 원가 수준의 도메인 서비스를 이용할 수 있습니다. **에이전트 및 자동화 중심의 설계** * **워크플로우 통합:** IDE(통합 개발 환경), 배포 파이프라인, 백엔드 서비스 등 소프트웨어가 구축되는 모든 환경에서 도메인 등록 기능을 직접 호출할 수 있습니다. * **AI 에이전트 최적화:** AI 에이전트가 이름 아이디어를 생성하고, 등록 가능 여부를 확인한 뒤, 사용자 승인을 거쳐 즉시 구매까지 완료하는 일련의 과정을 지원합니다. * **MCP(Model Context Protocol) 지원:** Cloudflare MCP를 통해 Cursor, Claude Code 등 MCP 호환 환경에서 별도의 커스텀 도구 정의 없이 바로 API를 발견하고 호출할 수 있습니다. **Registrar API의 핵심 기능** * **도메인 검색(Search):** 쿼리를 통해 후보 도메인 이름 목록과 예상 가격, 등록 가능 여부 등을 빠르게 반환합니다. * **실시간 가용성 확인(Check):** 캐시 데이터가 아닌 레지스트리에 직접 쿼리하여 실시간 가용성과 최종 확정 가격을 확인하며, 이는 등록 전 마지막 단계에서 데이터의 정확성을 보장합니다. * **도메인 등록(Register):** 최소한의 요청으로 구매를 완료하며, 계정에 설정된 기본 연락처와 결제 수단을 자동으로 사용합니다. 프리미엄 도메인 등록 시에는 명시적인 수수료 확인 절차를 포함합니다. **기술적 특징 및 보안** * **기본 개인정보 보호:** 도메인 등록 시 WHOIS 개인정보 보호 기능이 추가 비용 없이 기본적으로 활성화됩니다. * **비용 투명성:** Cloudflare Registrar의 철학에 따라 별도의 마크업(이윤) 없이 등록 대행 수수료 수준의 원가로 도메인을 제공합니다. * **비동기 처리 대응:** 즉시 완료되는 요청뿐만 아니라 시간이 소요되는 경우 폴링(polling)이 가능한 워크플로우 형태의 응답을 제공하여 시스템 안정성을 높였습니다. AI 기반 코딩 도구나 자동화된 인프라 구축 파이프라인을 운영 중인 개발자라면, Cloudflare Registrar API를 통해 도메인 확보 프로세스를 자동화해 보시기 바랍니다. 특히 새로운 프로젝트를 자주 런칭하는 팀의 경우, MCP를 활용해 AI 에이전트에게 도메인 관련 권한을 부여함으로써 아이디어 구상부터 서비스 연결까지의 시간을 획기적으로 단축할 수 있습니다.