agentic-ai

16 개의 포스트

GitLab 18.10: Agentic AI now open to even more teams on GitLab (새 탭에서 열림)

GitLab 18.10 업데이트를 통해 GitLab.com의 Free 티어 팀도 구독 등급을 업그레이드할 필요 없이 'GitLab Credits'를 구매하여 에이전트 기반 AI(Agentic AI) 기능을 즉시 사용할 수 있게 되었습니다. 이제 팀 규모나 구독 요금제에 구애받지 않고 사용한 만큼만 비용을 지불하는 방식으로 고성능 AI 에이전트와 워크플로우를 도입할 수 있습니다. 이를 통해 중소규모 팀도 자동화된 코드 리뷰, 기획 지원, 파이프라인 진단 등 고급 개발 도구를 활용하여 소프트웨어 개발 속도를 획기적으로 높일 수 있는 길이 열렸습니다. ### GitLab Credits를 통한 AI 접근성 확대 * **사용량 기반 과금 모델:** 사용자당 비용을 지불하는 대신, AI가 수행한 작업량에 따라 비용을 지불하는 공유 크레딧 풀 방식을 도입했습니다. * **즉각적인 도입:** 별도의 유료 요금제 업그레이드 없이 그룹 빌링 설정에서 월 단위 크레딧을 구매하는 것만으로 GitLab Duo Agent Platform 기능을 바로 사용할 수 있습니다. * **투명한 대시보드:** 관리자는 어떤 AI 에이전트와 흐름이 크레딧을 소비하고 있는지 실시간으로 모니터링하여 AI 투입 비용 대비 생산성을 직접 확인 가능합니다. ### 효율적인 개발을 돕는 주요 AI 워크플로우 * **Planner Agent:** 자연어로 요구사항을 설명하면 이를 구조화된 이슈(Issue)로 변환하고, 레이블 지정 및 관계 설정을 자동화하여 기획 시간을 단축합니다. * **Developer Flow:** 이슈의 맥락을 읽고 코드를 생성하며, 테스트 실행 후 병합 요청(Merge Request) 생성까지의 과정을 에이전트가 주도합니다. * **Code Review Flow:** 코드 변경 사항과 리포지토리 맥락을 분석하여 구조화된 인라인 피드백을 제공함으로써 인간 리뷰어의 피로도를 낮춥니다. * **Fix CI/CD Pipeline Flow:** 파이프라인 실패 로그를 분석하여 근본 원인을 추적하고 수정 사항을 제안하여 수동 디버깅 시간을 줄여줍니다. ### 코드 리뷰 비용의 예측 가능성 확보 * **정액제 적용:** 코드 리뷰 흐름은 병합 요청의 크기나 리포지토리의 복잡도에 상관없이 리뷰당 0.25 크레딧(1크레딧당 4회 리뷰 가능)의 고정 비용이 발생합니다. * **병목 현상 해소:** 수백 개의 코드 리뷰를 동시에 처리할 수 있어 리뷰 대기 시간을 없애고 전체 개발 사이클을 가속화합니다. * **비용 효율성:** 수동 리뷰 시 발생하는 시간 소모와 컨텍스트 스위칭 비용을 고려할 때, 규모가 커질수록 자동화된 코드 리뷰의 경제적 가치가 커집니다. ### Premium 요금제로의 확장 가치 * **번들 크레딧 제공:** GitLab Premium 사용자는 사용자당 월 12크레딧을 프로모션 혜택으로 제공받아 추가 비용 없이 대량의 AI 워크플로우를 운영할 수 있습니다. * **통합 개발 환경:** AI 기능 외에도 고성능 CI/CD, 병합 승인 프로세스(Merge Approvals), 코드 오너(Code Owners) 등의 거버넌스 기능을 함께 활용할 수 있습니다. * **확장성:** Free 티어에서 크레딧을 사용하며 AI의 효용성을 확인한 팀은 번들 크레딧과 고급 기능이 포함된 Premium 요금제로 자연스럽게 전환하여 운영 효율을 극대화할 수 있습니다. 소규모 팀이라면 우선 Free 티어에서 소량의 크레딧을 구매하여 자동 코드 리뷰와 기획 에이전트의 성능을 테스트해 보길 추천합니다. AI 도구가 팀의 핵심 워크플로우로 자리 잡고 리뷰량이 월 수백 건 이상으로 늘어난다면, 기본 크레딧이 포함된 Premium 요금제로 전환하는 것이 비용과 기능 측면에서 가장 합리적인 선택이 될 것입니다.

AWS Elemental Inference로 모 (새 탭에서 열림)

AWS는 라이브 및 주문형 비디오(VOD)를 모바일 시청 환경에 맞춰 자동으로 변환해주는 풀 매니지드 AI 서비스인 **AWS Elemental Inference**를 출시했습니다. 이 서비스는 기존의 가로형 방송 콘텐츠를 틱톡, 인스타그램 릴스, 유튜브 쇼츠 등에 최적화된 세로형 포맷으로 실시간 변환하며, 수동 편집이나 전문적인 AI 지식 없이도 대규모 시청자에게 도달할 수 있게 돕습니다. 에이전틱 AI를 활용해 지연 시간을 획기적으로 단축함으로써 방송사가 바이럴 순간을 놓치지 않고 모바일 플랫폼에 즉각 대응할 수 있는 환경을 제공하는 것이 핵심입니다. ### 실시간 지능형 크롭 및 포맷 변환 * **스마트 크롭(Smart Crop):** AI가 영상 내 주요 피사체와 액션을 지능적으로 추적하여 16:9 가로 영상을 9:16 세로 포맷으로 자동 변환합니다. * **초저지연 처리:** 기존 수동 포스트 프로덕션 방식이 몇 분 이상 소요되었던 것과 달리, 라이브 비디오와 병렬로 작동하여 6~10초 내외의 낮은 지연 시간으로 최적화를 완료합니다. * **품질 유지:** 방송 수준의 화질을 유지하면서 모바일 시청 환경에 맞춰 콘텐츠 레이아웃을 자율적으로 조정합니다. ### 에이전틱 AI 기반의 자동 클립 생성 * **하이라이트 감지:** 실시간 콘텐츠에서 축구의 골 장면이나 농구의 결정적인 플레이와 같은 주요 순간을 자동으로 감지하고 추출합니다. * **무개입 운영:** 사람이 직접 프롬프트를 입력하거나 개입할 필요 없이 AI가 독립적으로 다단계 변환을 수행하여 가치 있는 클립을 생성합니다. * **효율적인 프로세스:** "한 번의 처리로 어디서든 최적화(Process once, optimize everywhere)"하는 방식을 통해 동일한 비디오 스트림에서 여러 AI 기능을 동시에 실행하여 재처리 비용을 줄입니다. ### 기존 워크플로와의 원활한 통합 * **AWS Elemental MediaLive 연동:** 기존 MediaLive 채널 설정 내에서 탭 하나로 AI 기능을 활성화할 수 있어 아키텍처를 변경할 필요가 없습니다. * **유연한 배포 옵션:** 독립 실행형 콘솔을 통해 피드를 직접 생성하거나, MediaLive API를 통해 기존 워크플로에 프로그래밍 방식으로 통합할 수 있습니다. * **완전 관리형 모델:** AWS가 자동으로 업데이트하고 최적화하는 파운데이션 모델(FM)을 사용하므로 기업 내부에 별도의 AI 전담 팀이 없어도 최신 기술을 활용할 수 있습니다. ### 가용성 및 경제적 비용 구조 * **출시 지역:** 현재 미국 동부(버지니아 북부), 미국 서부(오레곤), 유럽(아일랜드), 아시아 태평양(뭄바이) 등 4개 리전에서 즉시 사용 가능합니다. * **종량제 가격 정책:** 선결제나 약정 없이 실제 처리된 비디오 분량과 사용한 기능에 대해서만 비용을 지불하므로, 대규모 이벤트 시에는 확장하고 비수기에는 비용을 최적화하기에 용이합니다. 소셜 미디어로의 빠른 확산이 중요한 스포츠 중계나 라이브 커머스 분야에서 이 서비스는 필수적인 도구가 될 것으로 보입니다. 특히 기존 AWS Elemental 서비스를 사용 중인 고객이라면 별도의 인프라 수정 없이 즉각적으로 모바일 전용 피드를 생성하여 시청자 접점을 확대할 것을 권장합니다.

행동하는 AI, 기업 통제: 자체 호스팅 듀오 에이전트 플랫폼과 BYOM (새 탭에서 열림)

GitLab 18.9 업데이트는 규제가 엄격한 산업군의 기업들이 데이터 레지던시와 거버넌스를 유지하면서도 에이전트 기반 AI(Agentic AI)를 도입할 수 있도록 '셀프 호스팅 Duo Agent Platform'과 '자체 모델 도입(BYOM)' 기능을 선보였습니다. 이번 배포를 통해 기업은 클라우드 라이선스를 사용하면서도 모델 추론은 자체 인프라에서 수행할 수 있게 되어, 보안과 유연성을 동시에 확보한 AI 컨트롤 플레인을 구축할 수 있습니다. 결과적으로 복잡한 DevSecOps 워크플로우 자동화를 강력한 규제 준수 환경 내에서 실현할 수 있게 되었습니다. **온라인 클라우드 라이선스를 위한 Duo Agent Platform 셀프 호스팅** 그동안 셀프 호스팅 모델을 통한 AI 워크플로우 자동화는 주로 오프라인이나 특정 라이선스 환경에 국한되었으나, 이제 온라인 클라우드 라이선스 고객도 이를 활용할 수 있게 되었습니다. * **데이터 레지던시 및 제어권 보장:** 기업은 자체 인프라나 승인된 클라우드 환경에 호스팅된 모델을 사용하면서 GitLab Duo Agent Platform을 운영할 수 있어, 추론 트래픽의 경로와 데이터 저장 위치를 완전히 통제할 수 있습니다. * **GitLab Credits 기반의 투명한 과금:** 사용량 기반 빌링 모델을 도입하여 각 요청별 측정(metering)이 가능해졌으며, 이를 통해 기업 내부의 비용 배분(Chargeback)과 규제 보고를 위한 상세한 비용 투명성을 제공합니다. * **규제 산업의 도입 가속화:** 외부 AI 벤더로 데이터를 전송할 수 없는 금융, 정부 기관, 주요 인프라 산업군에서 에이전트 기반 AI를 즉시 도입할 수 있는 환경을 마련했습니다. **자체 모델 도입 (Bring Your Own Model, BYOM)** 기업이 이미 투자한 특정 도메인 최적화 LLM이나 에어갭(Air-gapped) 환경의 모델을 GitLab 환경에 유연하게 통합할 수 있도록 지원합니다. * **AI Gateway를 통한 통합 거버넌스:** 기업이 보유한 서드파티 모델이나 자체 호스팅 모델을 GitLab AI Gateway에 연결하여, GitLab이 관리하는 모델과 동일한 수준의 제어 평면에서 관리할 수 있습니다. * **세분화된 모델 매핑:** 관리자는 등록된 모델을 특정 Duo Agent Platform의 흐름이나 기능에 정밀하게 매핑할 수 있어, 작업의 성격에 따라 최적화된 모델이 할당되도록 제어할 수 있습니다. * **자율적인 성능 및 위험 관리:** 모델의 유효성 검사, 성능 최적화, 위험 평가는 기업이 직접 담당하며, 이를 통해 조직의 고유한 보안 정책과 위험 수용 범위에 맞춘 모델 운용이 가능합니다. **활용 제언** 파편화된 AI 도구 사용으로 인해 거버넌스 공백을 겪고 있는 기업이라면, GitLab 18.9의 통합 컨트롤 플레인을 활용해 AI 전략을 중앙 집중화할 것을 권장합니다. 특히 특정 규제 준수가 필수적인 환경에서는 'BYOM' 기능을 통해 검증된 내부 모델을 DevSecOps 파이프라인에 직접 연결함으로써 보안 리스크를 최소화하면서도 자동화 효율을 극대화할 수 있습니다.

더 스마트한 광고를 위한 우리의 (새 탭에서 열림)

Spotify는 광고 비즈니스의 다양한 구매 채널 간에 발생하는 의사결정 로직의 파편화 문제를 해결하기 위해 멀티 에이전트 아키텍처를 도입했습니다. 기존의 하드코딩된 워크플로우 대신, 광고주의 의도를 이해하고 공유된 신호를 바탕으로 추론하는 '프로그래밍 가능한 의사결정 계층'을 구축하여 모든 채널에서 일관된 최적화를 달성하고자 합니다. 이를 통해 복잡한 비즈니스 제약 조건을 유연하게 처리하고, 기존 광고 서비스들을 에이전트가 활용하는 도구로 재정의함으로써 시스템 전반의 운영 효율성을 극대화하는 것이 이 글의 핵심입니다. ### 기존 워크플로우의 구조적 한계와 파편화 * **채널별 로직 불일치:** 동일한 백엔드 인프라를 공유함에도 불구하고 Direct, Self-Serve, Programmatic 등 각 구매 채널별로 의사결정 로직과 휴리스틱이 다르게 구현되어 동작의 불일치가 발생합니다. * **중복 구현과 기술 부채:** 예산 할당이나 인벤토리 선택과 같은 핵심 로직이 각 채널 및 사용자 접점(Spotify Ads Manager, Salesforce, Slack 등)마다 중복 구현되어 관리 비용이 증가하고 로직의 변질(Drift)이 일어납니다. * **의도 계층(Intent Layer)의 부재:** 기존 시스템은 "브라질 내 도달 범위 극대화 및 비디오 인벤토리 보호"와 같은 복합적인 목표를 이해하고 이를 실행 가능한 도구 호출 순서로 변환하는 능력이 부족했습니다. ### 멀티 에이전트 기반 의사결정 계층의 도입 * **모듈형 에이전트 구조:** 복잡하고 확률적인 광고 로직을 정적인 규칙 엔진(Rules Engine)에 가두는 대신, 상황에 따라 추론하고 실행하는 독립적인 에이전트들의 집합으로 구성했습니다. * **공유 신호 기반 최적화:** 모든 에이전트는 인벤토리, 오디언스, 성능 이력 등 동일한 기저 신호를 공유하며 광고주의 목표와 Spotify의 비즈니스 제약 조건을 동시에 고려하여 최적의 경로를 찾습니다. * **기존 서비스의 도구화:** 기존 광고 서비스들을 처음부터 다시 만드는 대신, 에이전트가 목적에 따라 호출하여 사용할 수 있는 '도구(Tools)'로 활용함으로써 오케스트레이션 성능을 높였습니다. ### 에이전트 중심 설계를 위한 기술적 패러다임 전환 * **API 설계의 변화:** 단순히 데이터를 생성하고 수정하는 CRUD 방식에서 벗어나, 에이전트가 특정 기능을 실행하기 위해 직관적으로 이해하고 사용할 수 있는 '도구 중심 API'로 재설계했습니다. * **행동 중심의 평가:** 전통적인 유닛/통합 테스트를 넘어, 에이전트가 내린 결정이 비즈니스 목표에 부합하는지 확인하는 '행동 평가(Behavioral Evaluation)' 체계를 구축했습니다. * **추론 과정의 관측성:** 시스템 성능 지표뿐만 아니라 "에이전트가 왜 그런 결정을 내렸는가"에 대한 추론 과정을 추적하여 투명성을 확보했습니다. * **자율성을 제어하는 가드레일:** 입력값 검증 수준을 넘어 반자율적인 에이전트의 결정이 비즈니스 규칙과 안전 가이드라인 내에서 유지되도록 하는 가드레일 메커니즘을 도입했습니다. 복잡한 비즈니스 로직이 여러 플랫폼에 흩어져 있다면, 이를 개별 서비스로 관리하기보다 통합된 '의사결정 엔진'으로서의 에이전트 플랫폼을 구축하는 것이 장기적인 유지보수와 기능 확장 면에서 유리합니다. Spotify는 이를 미디어 플래닝(Media Planning) 영역에 우선 적용하여 복잡한 변수 속에서도 일관된 최적화 성능을 증명하고 있습니다.

구글의 AI 우위: (새 탭에서 열림)

구글은 검색 시장의 독점적 지위를 이용해 검색 인덱싱용 크롤러로 생성형 AI를 위한 데이터를 함께 수집하며, 이는 발행자(Publisher)들에게 선택권 없는 데이터 제공을 강요하는 결과를 초래하고 있습니다. 영국의 경쟁시장청(CMA)은 구글을 '전략적 시장 지위(SMS)' 사업자로 지정하고 규제를 검토 중이나, 진정한 공정성을 확보하기 위해서는 검색용 크롤러와 AI 학습용 크롤러를 법적으로 분리해야 합니다. 이러한 크롤러 분리만이 발행자가 검색 노출은 유지하면서도 AI의 무단 데이터 사용을 거부할 수 있게 하여, 건강한 디지털 생태계와 공정한 AI 경쟁 환경을 조성할 수 있는 유일한 길입니다. ### 영국 CMA의 구글 시장 지배력 지정과 규제적 배경 * **디지털 시장 경쟁 체제 도입**: 영국은 2024년 디지털 시장, 경쟁 및 소비자법(DMCC)을 시행하며, 검색 및 검색 광고 분야에서 90% 이상의 점유율을 가진 구글을 '전략적 시장 지위(SMS)' 사업자로 지정했습니다. * **법적 구속력 있는 규제**: 이번 지정으로 인해 CMA는 구글의 AI 개요(AI Overviews) 및 AI 모드와 같은 검색 생태계 전반에 대해 법적 구속력이 있는 행동 요구사항을 부과할 수 있는 권한을 갖게 되었습니다. * **발행자 보호의 필요성**: CMA는 발행자들이 구글 검색의 시장 지배력 때문에 자신의 콘텐츠가 AI 서비스에 활용되는 것을 알고도 크롤링을 허용할 수밖에 없는 구조적 한계를 인식하기 시작했습니다. ### 발행자의 딜레마와 검색·AI 크롤링의 결합 문제 * **거부권의 부재**: 발행자들은 웹사이트 트래픽과 광고 수익의 핵심인 구글 검색 결과에서 제외되는 것을 감당할 수 없기에, 구글의 크롤러(Googlebot)를 차단하지 못하는 실정입니다. * **수익 모델의 붕괴**: 구글은 검색 크롤링을 통해 확보한 데이터를 AI Overviews 등에 활용하여 사용자에게 직접 답변을 제공하며, 이는 발행자 사이트로의 트래픽 유입을 급감시키고 광고 기반 비즈니스 모델을 위협합니다. * **불공정 경쟁 우위**: 구글은 검색봇을 통해 사실상 무료로 대규모 데이터를 확보하는 반면, 다른 AI 기업들은 발행자와 데이터 사용료를 협상해야 하는 불리한 위치에 놓여 시장 왜곡이 발생합니다. ### 클라우드플레어 데이터를 통해 본 구글의 압도적 우위 * **압도적인 크롤링 규모**: 클라우드플레어의 관측 데이터에 따르면, 구글봇은 GPTBot보다 약 1.76배, PerplexityBot보다는 무려 167배나 더 많은 고유 URL에 접근하고 있습니다. * **차단율의 현격한 차이**: 발행자들은 다른 AI 크롤러(ClaudeBot, GPTBot 등)는 적극적으로 차단하거나 robots.txt로 제한하는 반면, 검색 노출을 위해 구글봇에 대해서는 거의 차단을 설정하지 않습니다. * **네트워크 점유율**: 구글봇은 클라우드플레어 네트워크 내 관측된 고유 URL의 약 8%를 크롤링하고 있으며, 이는 다른 어떤 검색 엔진이나 AI 봇보다 월등히 높은 수치입니다. ### 크롤러 분리: 공정한 인터넷을 위한 실질적 대안 * **선택권의 보장**: 구글이 검색 인덱싱용 크롤러와 AI 학습/추론용 크롤러를 별도로 운영하도록 강제해야 합니다. 이를 통해 발행자는 검색 트래픽은 유지하면서 AI의 데이터 활용만 선택적으로 거부할 수 있습니다. * **데이터 시장의 정상화**: 크롤러가 분리되면 구글 또한 다른 AI 기업들과 마찬가지로 양질의 데이터를 확보하기 위해 발행자와 공정한 가치 산정 및 보상 협상에 임해야 할 유인이 생깁니다. * **기술적 규제 필요성**: 단순한 robots.txt 정책 준수를 넘어, 웹 응용 프로그램 방화벽(WAF) 등을 통해 발행자가 각 목적별 크롤러를 기술적으로 독립 제어할 수 있는 환경이 마련되어야 합니다. 구글의 검색 독점력이 AI 시장의 독점으로 전이되는 것을 막으려면, 규제 당국은 '검색 노출'을 볼모로 잡은 구글의 통합 크롤링 관행을 즉시 중단시켜야 합니다. 크롤러 분리는 발행자의 권익 보호와 더불어 AI 산업 전반의 공정한 경쟁을 가능케 하는 필수적인 안전장치입니다.

에이전틱 AI vs (새 탭에서 열림)

생성형 AI(Generative AI)가 사용자의 프롬프트에 따라 콘텐츠를 제작하는 수준을 넘어, 이제는 스스로 계획하고 행동하는 에이전틱 AI(Agentic AI)로 진화하고 있습니다. 생성형 AI는 아이디어 구상과 초안 작성을 담당하고 에이전틱 AI는 복잡한 다단계 업무를 자율적으로 실행함으로써, 두 기술의 결합은 단순한 결과물 생성을 넘어 실질적인 업무의 완결을 가능하게 합니다. 사용자는 이제 AI를 단순한 답변 도구가 아닌, 목표 달성을 위해 함께 협력하는 자율적인 파트너로 활용할 수 있습니다. ## 생성형 AI와 에이전틱 AI의 핵심 차이 * **역할의 정의**: 생성형 AI는 텍스트, 이미지, 코드 등 새로운 콘텐츠를 만드는 '제작'에 집중하는 반면, 에이전틱 AI는 설정된 목표를 달성하기 위해 스스로 계획을 세우고 실행하는 '행동'에 초점을 맞춥니다. * **자율성의 정도**: 생성형 AI는 사용자의 개별 프롬프트에 즉각 응답하는 수동적 비서와 같으나, 에이전틱 AI는 최소한의 지침만으로 의사결정을 내리고 도구를 사용하며 작업을 완수하는 능동적인 대리인 역할을 수행합니다. * **업무의 범위**: 생성형 AI가 이메일 작성이나 요약 같은 단발성 작업에 강점이 있다면, 에이전틱 AI는 프로젝트 관리나 다단계 연구와 같이 복잡한 워크플로우를 처리하는 데 적합합니다. ## 기술적 작동 원리의 차별점 * **생성형 AI의 토큰 예측**: 대규모 언어 모델(LLM)을 기반으로 다음에 올 가장 확률 높은 토큰(단어 조각)이나 픽셀을 예측하여 새로운 시퀀스를 생성합니다. * **에이전틱 AI의 자율 루프**: '인식(Perceive) - 계획(Plan) - 실행(Act) - 학습(Learn)'으로 이어지는 순환 구조를 따릅니다. 정보를 수집해 계획을 세우고, 앱과 도구를 활용해 실행한 뒤, 결과를 평가하여 다음 단계를 조정합니다. * **피드백 적응력**: 생성형 AI는 입력값에 고정된 결과를 내놓는 경향이 있지만, 에이전틱 AI는 업무 수행 과정에서 발생하는 변수에 맞춰 스스로 전략을 수정하며 목표에 접근합니다. ## 실무 적용 사례와 시너지 * **콘텐츠 생성 활용**: 생성형 AI를 통해 거친 아이디어를 정교한 보고서로 다듬거나, 메모를 기반으로 퀴즈나 스크립트 등 새로운 형식의 자료를 신속하게 제작할 수 있습니다. * **행동 중심의 워크플로우**: 에이전틱 AI는 회의 노트를 바탕으로 프로젝트 일정을 짜고, 담당자를 배정하며, 마감 기한을 추적하고 후속 이메일을 자동으로 발송하는 등의 실질적인 행정 업무를 처리합니다. * **엔드투엔드(End-to-End) 자동화**: 두 AI를 결합하면 생성형 AI가 콘텐츠 초안을 만들고, 에이전틱 AI가 이를 적절한 채널에 배포하고 피드백을 수집하여 관리하는 전체 프로세스의 자동화가 가능해집니다. 결론적으로 사용자는 단순한 '출력물(Output)' 생성에 만족하지 말고 '결과(Results)'를 도출하는 방향으로 AI 활용 전략을 수정해야 합니다. 복잡한 조정 및 관리 업무는 에이전틱 AI에게 맡기고, 인간은 창의적인 전략 수립과 최종 의사결정에 집중함으로써 업무 생산성을 극대화할 수 있습니다. 이미 많은 도구가 이러한 기능을 통합하고 있으므로, 기술적 전문 지식이 없더라도 적극적으로 이러한 자율적 기능을 업무 프로세스에 도입해 보는 것을 추천합니다.

GitLab Credits를 소개합니다 (새 탭에서 열림)

GitLab은 에이전트 기반 AI의 특성에 맞춰 기존의 사용자당 과금(Seat-based) 방식에서 벗어난 'GitLab Credits'라는 사용량 기반 과금 모델을 도입했습니다. 이는 AI 에이전트가 개별 사용자의 직접 호출뿐만 아니라 백그라운드 이벤트에 의해 자동 실행되는 환경에서 비용 효율성과 유연성을 극대화하기 위한 조치입니다. 이를 통해 기업 내 모든 구성원은 별도의 AI 시트를 구매하지 않고도 조직 내 공유된 크레딧을 사용하여 에이전틱 AI 기능을 자유롭게 활용할 수 있게 되었습니다. **사용자 중심에서 사용량 중심으로의 전환 배경** * 기존의 시트 기반 과금은 AI를 가끔 사용하는 팀원에게도 동일한 비용을 부과하여 팀 내 AI 도입의 격차를 유발하는 한계가 있었습니다. * GitLab Duo Agent Platform은 사용자가 직접 명령하는 채팅뿐만 아니라 소프트웨어 개발 생명주기(SDLC) 과정에서 발생하는 이벤트에 의해 자동 실행되는 '에이전틱 워크플로우'를 포함하므로 개별 시트 단위의 과금이 부적합합니다. * GitLab Credits는 조직 전체가 크레딧을 풀(Pool) 형태로 공유하고 실제 사용량에 따라 차감하는 방식을 채택하여 전사적 AI 활용도를 높이고 총소유비용(TCO)을 절감합니다. **GitLab Credits의 작동 방식 및 적용 범위** * 보안 분석가, 플래너, CI/CD 파이프라인 수정과 같은 기본 에이전트와 Anthropic Claude Code, OpenAI Codex 등의 외부 에이전트 사용 시 크레딧이 소모됩니다. * 사용자가 GitLab AI 카탈로그를 통해 직접 구축한 커스텀 에이전트 및 워크플로우 사용 시에도 동일한 크레딧 시스템이 적용됩니다. * 대규모 언어 모델(LLM)에 대한 요청 횟수를 기준으로 크레딧이 차감되며, 1크레딧의 온디맨드 가격은 1달러로 설정되어 투명한 비용 산정이 가능합니다. * 사용량은 매달 말에 정산되며, 연간 약정 고객에게는 사용량에 따른 볼륨 할인이 제공됩니다. **비용 거버넌스 및 관리 도구** * 대시보드를 통해 재무 담당자는 비용을 관리하고, 관리자는 운영 관점에서 사용량 통계 및 역사적 추이를 상세히 모니터링할 수 있습니다. * 특정 프로젝트나 팀별로 에이전트 접근 권한을 설정하거나 사용자 수준에서 크레딧 소모를 제어하는 기능을 통해 예기치 못한 비용 발생을 방지합니다. * 크레딧 사용량이 약정된 수량의 50%, 80%, 100%에 도달할 때마다 자동 이메일 알림을 발송하여 선제적인 비용 관리를 돕습니다. **기존 고객을 위한 혜택 및 전환 정책** * 한정 기간 프로모션으로 Premium 구독자는 인당 12달러, Ultimate 구독자는 인당 24달러 상당의 무료 크레딧을 매달 자동으로 제공받습니다. * 기존에 시트 기반의 Duo Pro 또는 Enterprise를 사용하던 고객은 남은 계약 금액을 GitLab Credits로 전환하여 전사적인 공유 모델로 업그레이드할 수 있습니다. * 모든 기능은 GitLab 18.8 버전부터 적용되며, 자체 관리형(Self-Managed) 및 전용(Dedicated) 고객도 해당 버전 업그레이드 후 사용 가능합니다. 에이전틱 AI를 전사적으로 도입하려는 기업은 기존의 경직된 라이선스 모델 대신 GitLab Credits를 통해 초기 비용 부담 없이 도입을 시작할 수 있습니다. 특히 Ultimate 구독자는 기본 제공되는 프로모션 크레딧을 활용해 보안 분석이나 파이프라인 자동화 에이전트의 효용성을 먼저 검증해 본 뒤, 실제 데이터에 기반하여 약정 규모를 결정하는 방식을 추천합니다.

Kanana-2 개발기 (2): 개선된 post-training recipe를 중심으로 (새 탭에서 열림)

카카오는 차세대 언어모델 Kanana-2를 공개하며, 단순한 대화형 AI를 넘어 에이전트 환경에 최적화된 성능을 구현하기 위한 고도화된 Post-training 레시피를 적용했습니다. 이번 모델은 Pre-training과 Post-training 사이의 'Mid-training' 단계를 도입하여 추론 능력을 극대화하는 동시에, 한국어 성능 저하 문제를 해결하기 위해 기존 학습 데이터를 재학습시키는 전략을 사용했습니다. 결과적으로 Kanana-2는 도구 호출(Tool Calling)과 복잡한 지시 이행 능력에서 비약적인 발전을 이루었으며, 특히 Thinking 모델은 고난도 수학 및 코딩 영역에서 글로벌 수준의 성능을 입증했습니다. ### 성능의 가교 역할을 하는 Mid-training * **도입 배경**: 일반적인 사전 학습(Pre-training)만으로는 복잡한 추론이나 도구 사용 능력을 갖추기 어렵기 때문에, 본격적인 미세 조정 전 단계로서 모델의 잠재력을 끌어올리는 중간 단계를 설계했습니다. * **데이터 구성**: 최신 고성능 모델에서 추출한 200B 규모의 고품질 영어 추론 데이터와 수학, 코드 데이터를 집중적으로 학습시켰습니다. * **치명적 망각(Catastrophic Forgetting) 방지**: 영어 추론 데이터 학습 시 한국어 성능이 하락하는 문제를 방지하고자, 사전 학습 데이터 중 한국어 데이터를 포함한 50B 토큰을 일정 비율로 섞어 학습(Replay 전략)함으로써 언어 균형을 유지했습니다. * **효과**: Mid-training을 거친 모델은 기본 모델 대비 수학(MATH) 및 코딩(HumanEval) 벤치마크에서 유의미한 향상을 보였으며, 이후 Instruct 학습 시 더 빠른 수렴 속도와 높은 최종 성능을 나타냈습니다. ### 에이전트 능력을 강화한 Instruct 모델 * **SFT 전략의 최적화**: 기존 Kanana-1.5 데이터셋에 Nemotron 등 오픈소스 고품질 데이터를 단순히 교체하기보다 추가로 통합(Supplementation)했을 때, 전반적인 성능과 지시 이행 능력의 균형이 가장 잘 유지됨을 확인했습니다. * **Agentic AI 역량**: 실질적인 도구 활용을 위해 단일·다중·병렬 도구 호출 능력을 강화했으며, 답변의 길이, 언어 설정, 특정 단어 제외 등 복잡한 제약 조건을 준수하는 지시 이행 능력을 고도화했습니다. * **Parallel RL 파이프라인**: 대화 스타일과 선호도를 학습하는 DPO(Direct Preference Optimization)와 객관적인 정답이 존재하는 추론/코딩 성능을 높이는 PPO(Proximal Policy Optimization)를 병렬로 적용하여 효율적인 학습 구조를 구축했습니다. * **신뢰성 개선**: RL 단계 이후 KTO(Kahneman-Tversky Optimization) 기반의 Calibration Tuning을 추가하여 모델 답변의 신뢰도를 높이고 환각 현상을 줄였습니다. ### 추론에 특화된 Thinking 모델 * **CoT 기반 학습**: 모델이 문제 해결 과정을 단계별로 사고하는 '사고의 사슬(Chain-of-Thought)'을 학습하도록 SFT 데이터를 구성했습니다. * **Rule-based RL**: 수학과 코딩처럼 정답이 명확한 도메인에 대해 규칙 기반 보상(Reward) 모델을 적용하여, 모델 스스로 더 나은 추론 경로를 탐색하고 검증하도록 유도했습니다. * **성능 도약**: Thinking 모델은 AIME25 벤치마크에서 기본 모델(9.21) 대비 약 5배 향상된 50.0점을 기록했으며, 실시간 코딩 테스트인 LiveCodeBench에서도 글로벌 수준의 경쟁력을 확보했습니다. 이번 Kanana-2 개발 과정은 대규모 추론 데이터 주입 시 발생하는 언어적 편향을 '사전 데이터 리플레이'로 해결하고, DPO와 PPO를 병렬로 활용하여 효율성을 극대화한 사례로 평가됩니다. 복잡한 추론과 도구 활용이 필요한 에이전트 서비스를 기획 중이라면, 단순 Instruct 모델보다 Mid-training을 통해 기초 체력을 다진 후 Thinking SFT가 적용된 모델을 활용하는 것이 더욱 안정적인 성능을 기대할 수 있는 방법입니다.

GitLab Duo 에이전트 (새 탭에서 열림)

GitLab은 개발자가 코드를 작성하는 시간을 넘어 소프트웨어 개발 수명 주기(SDLC) 전반의 혁신 속도를 높이기 위해 'GitLab Duo Agent Platform'의 정식 출시(GA)를 발표했습니다. 이 플랫폼은 단순히 코드를 생성하는 수준을 넘어, 지능적인 오케스트레이션과 에이전트 기반 AI 자동화를 통해 코드 리뷰, 보안 점검, 파이프라인 최적화 등 기존의 병목 구간을 해결하는 데 초점을 맞춥니다. 결과적으로 팀은 인간과 AI의 유기적인 협업을 통해 복잡한 작업을 자율적으로 수행하고 전체 개발 프로세스를 가속화할 수 있습니다. ### AI 패러독스 해결과 통합된 협업 경험 * **AI 패러독스 극복:** 개발자가 코드 작성에 할애하는 시간은 전체의 약 20%에 불과하며, 나머지 80%의 업무에서 발생하는 병목 현상을 해결하기 위해 에이전트 중심의 접근 방식을 도입했습니다. * **통합 UX:** GitLab 웹 UI와 IDE(VS Code, JetBrains, Cursor, Windsurf 등) 전반에서 'Duo Agentic Chat'을 사용할 수 있으며, 이슈, 병합 요청(MR), 파이프라인 활동 내에서 AI와 실시간으로 소통할 수 있습니다. * **상황 맥락 인식:** 단순 응답을 넘어 이슈, 보안 결과물, 파이프라인 상태 등 전체 수명 주기의 맥락을 이해하고 다단계 추론을 통해 정확한 가이드를 제공합니다. ### 지능형 에이전틱 채팅의 주요 기능 * **분석 및 분석:** 웹 UI에서 이슈, 에픽, MR을 생성하거나 요약할 수 있으며, 복잡한 프로젝트 구조와 의존성을 파악하는 데 도움을 줍니다. * **코드 및 인프라 자동화:** 다양한 언어와 프레임워크에 걸쳐 코드, 구성 파일, IaC(Infrastructure-as-Code)를 생성하며 버그 수정 및 아키텍처 현대화를 지원합니다. * **CI/CD 및 보안:** 기존 파이프라인의 문제를 해결하거나 새로 구축하며, 보안 취약점을 설명하고 도달 가능성에 기반해 수정 우선순위를 제안합니다. ### 전문화된 에이전트 시스템 * **기본 에이전트(Foundational Agents):** GitLab 전문가들이 사전 구축한 에이전트로, 업무를 구조화하는 'Planner Agent'와 취약점 영향을 분석하는 'Security Analyst Agent'가 포함됩니다. * **커스텀 에이전트(Custom Agents):** 조직 고유의 표준과 가이드라인을 학습시킨 에이전트를 'AI Catalog'를 통해 관리하고 공유할 수 있습니다. * **외부 에이전트(External Agents):** Anthropic의 Claude Code나 OpenAI의 Codex CLI와 같은 외부 AI 도구를 GitLab 플랫폼 내에서 네이티브하게 연결하여 사용할 수 있습니다. ### 복잡한 업무를 처리하는 자동화 플로우(Flows) * **Issue to MR 플로우:** 잘 정의된 이슈로부터 구조화된 병합 요청(MR)을 자동으로 생성하여 개발 착수 시간을 단축합니다. * **CI/CD 전환 및 수정:** 타 시스템의 파이프라인 구성을 GitLab CI/CD로 현대화하거나, 실패한 파이프라인을 분석하여 변경 사항을 제안합니다. * **코드 리뷰 플로우:** 코드 변경 사항과 댓글을 분석하여 AI 기반의 심층적인 피드백을 제공함으로써 리뷰 프로세스를 간소화합니다. ### 사용 권한 및 새로운 과금 체계 * **GitLab Credits 도입:** 사용량 기반 과금 방식인 'GitLab Credit'을 통해 에이전트 플랫폼을 이용할 수 있습니다. * **구독별 혜택:** Premium 구독자에게는 사용자당 월 $12, Ultimate 구독자에게는 월 $24 상당의 크레딧이 추가 비용 없이 매월 제공됩니다. * **기존 고객 전환:** Duo Pro 또는 Enterprise 사용자는 기존 계약 잔여분을 크레딧으로 전환하여 즉시 에이전트 플랫폼으로 마이그레이션할 수 있습니다. GitLab Duo Agent Platform은 단순한 AI 비서를 넘어 실제 업무를 수행하는 '가상 팀원'을 제공합니다. 조직의 생산성을 높이기 위해서는 먼저 기본 제공되는 Planner 및 Security 에이전트를 활용해보고, 점진적으로 조직 특화된 커스텀 에이전트와 자동화 플로우를 구축하여 개발 전체 사이클의 효율을 극대화할 것을 권장합니다.

새해 복 많이 받으세요! AWS 주간 소식: 10,000 AIdeas 대회, Amazon EC2, Amazon ECS 관리형 인스턴스 등 (2026년 1월 5일) (새 탭에서 열림)

2026년 새해를 맞아 AWS는 AI 혁신을 위한 대규모 경진대회와 교육 프로그램을 발표하며 커뮤니티 지원을 강화했습니다. 이와 동시에 Graviton4 기반의 새로운 EC2 인스턴스 출시와 ECS 관리형 인스턴스 도입 등 인프라 효율성을 높이는 주요 기술 업데이트를 공개했습니다. 사용자는 이를 통해 더 강력한 컴퓨팅 성능을 확보하고, 자동화된 도구를 활용해 보안 및 시스템 복원력을 효과적으로 검증할 수 있습니다. **AI 인재 양성 및 글로벌 아이디어 경진대회** * **BeSA 멘토링 프로그램**: 'Agentic AI on AWS'를 주제로 한 6주 과정의 무료 멘토링 프로그램이 2026년 2월 21일부터 시작됩니다. * **10,000 AIdeas 공모전**: 총 25만 달러의 상금과 AWS 크레딧이 제공되는 글로벌 경진대회로, 아이디어 접수 마감은 1월 21일까지입니다. * **참가 요건**: 개발 도구로 'Kiro'를 활용해야 하며, AWS 프리티어 범위 내에서 작동하는 독창적인 애플리케이션 아이디어를 코딩 없이도 제출할 수 있습니다. **Graviton4 기반 차세대 EC2 인스턴스 출시** * **M8gn 및 M8gb 인스턴스**: AWS Graviton4 프로세서를 탑재하여 이전 세대(Graviton3) 대비 연산 성능이 최대 30% 향상되었습니다. * **네트워크 및 스토리지 가속**: M8gn은 최대 600 Gbps의 네트워크 대역폭을, M8gb는 최대 150 Gbps의 EBS 대역폭을 지원하여 데이터 집약적인 워크로드에 최적화되었습니다. **인프라 안정성 및 보안 거버넌스 강화** * **Direct Connect 복원력 테스트**: AWS Fault Injection Service(FIS)를 사용하여 Direct Connect의 BGP 장애 조치(Failover) 상황을 시뮬레이션하고 애플리케이션의 대응 능력을 검증할 수 있습니다. * **AWS Control Tower 기능 확장**: 보안, 비용, 운영 효율성을 관리할 수 있는 176개의 Security Hub 컨트롤이 새롭게 추가되어 더욱 정교한 클라우드 거버넌스가 가능해졌습니다. **Amazon ECS 관리형 인스턴스 도입** * **EC2 용량 관리 자동화**: Amazon ECS가 EC2 인스턴스의 패치, 업데이트 및 크기 조정을 직접 관리하여 인프라 운영 부담을 줄여줍니다. * **운영 편의성**: 사용자는 기반 인프라 관리에 신경 쓰는 대신 컨테이너 기반 애플리케이션 개발에만 집중할 수 있는 환경을 구축할 수 있습니다. AI 분야에서 앞서나가고자 한다면 1월 21일 마감되는 AIdeas 경진대회에 아이디어를 제출하고, 고성능 서비스가 필요한 경우 Graviton4 기반의 신규 인스턴스 도입을 검토해 보시기 바랍니다.

더 똑똑하고 효율적인 Kanana-2 오픈소스 공개 (새 탭에서 열림)

카카오는 사용자의 명령 맥락을 파악하고 능동적으로 동작하는 에이전틱 AI(Agentic AI) 구현에 최적화된 차세대 언어모델 'Kanana-2'를 오픈소스로 공개했습니다. 글로벌 프런티어 모델인 Qwen3-30B-A3B와 대등한 성능을 갖춘 이번 모델은 도구 호출(Tool Calling)과 지시 이행 능력을 대폭 강화하여 실무적인 활용도를 극대화했습니다. 특히 한국어 처리 효율성을 30% 이상 개선하고 추론 특화 모델을 라인업에 추가함으로써, 고도화된 논리적 사고가 필요한 서비스 개발에 강력한 토대를 제공합니다. **다양한 연구 및 서비스 요구사항을 충족하는 세 가지 모델 라인업** * **Kanana-2-30b-a3b-base**: 사전 학습 단계의 웨이트를 포함한 기본 모델로, 연구자들이 자체 데이터를 활용해 자유롭게 파인 튜닝하여 새로운 모델을 개발할 수 있는 기초가 됩니다. * **Kanana-2-30b-a3b-instruct**: 사용자의 지시를 정확히 이해하고 수행하는 능력을 극대화한 버전으로, 일반적인 대화 및 작업 수행에 최적화되어 있습니다. * **Kanana-2-30b-a3b-thinking**: 카카오가 처음으로 선보이는 추론 특화 모델로, 수학이나 코딩 등 복잡한 논리적 사고가 필요한 과제에서 뛰어난 성능을 발휘하며 높은 지시 이행 능력을 동시에 유지합니다. **에이전틱 AI 구현을 위한 도구 호출 및 지시 이행 성능 강화** * **Multi-turn Tool Calling**: 외부 도구를 자유자재로 다루는 능력을 이전 모델(Kanana-1.5) 대비 3배 이상 개선하여, 모델 컨텍스트 프로토콜(MCP) 활용성을 극대화했습니다. * **정교한 지시 이행**: 사용자의 복잡하고 단계적인 요구사항을 정확히 파악하여 결과물을 생성하며, 추론 모델에서도 이러한 성능이 저하되지 않도록 설계되었습니다. * **다국어 지원 확대**: 기존 한국어와 영어에 더해 일본어, 중국어, 태국어, 베트남어까지 총 6개 국어를 지원하여 글로벌 서비스 대응 능력을 높였습니다. **대규모 트래픽 처리를 위한 아키텍처 및 효율성 개선** * **MLA(Multi-head Latent Attention)**: 메모리 점유를 압축하여 긴 문맥(Long Context)을 효율적으로 처리할 수 있도록 설계되었습니다. * **MoE(Mixture of Experts)**: 추론 시 필요한 파라미터만 활성화하는 전문가 혼합 구조를 통해 거대 모델의 성능은 유지하면서 연산 비용과 응답 속도를 획기적으로 개선했습니다. * **한국어 최적화 토크나이저**: 새롭게 학습된 토크나이저를 통해 기존 모델 대비 한국어 토큰 효율을 30% 이상 향상시켜, 더 적은 자원으로 빠른 응답(High Throughput)이 가능합니다. **실용적인 결론 및 제안** Kanana-2는 고성능과 효율성을 동시에 잡은 모델로, 특히 한국어 기반의 복잡한 에이전트 서비스를 구축하려는 개발자에게 최적의 선택지입니다. 허깅페이스(Hugging Face)를 통해 Base 모델부터 추론 특화 모델까지 모두 공개되어 있으므로, 목적에 맞는 모델을 선택해 즉시 파인 튜닝하거나 서비스에 적용해 보실 것을 추천합니다.

Dash가 더 스마트한 AI를 위해 (새 탭에서 열림)

Dropbox Dash는 단순한 검색 시스템을 넘어 사용자의 의도를 이해하고 실행하는 에이전트형 AI로 진화하면서, 모델에 제공되는 정보를 정교하게 관리하는 '컨텍스트 엔지니어링'을 핵심 전략으로 채택했습니다. 단순히 많은 정보를 제공하는 것이 아니라 모델이 추론하고 행동하는 데 꼭 필요한 정보만을 선별하여 전달함으로써, AI의 '분석 마비' 현상과 토큰 낭비를 방지했습니다. 결과적으로 이러한 전략적 컨텍스트 관리는 모델의 판단 속도와 작업 정확도를 동시에 높이는 성과를 거두었습니다. ### 도구 정의의 최소화와 통합 인터페이스 구축 * 모델에게 너무 많은 API 호출 선택지를 주면 판단 속도가 느려지고 정확도가 떨어지는 현상이 발생했습니다. 이를 해결하기 위해 개별 서비스(Confluence, Jira, Google Docs 등)의 검색 도구를 하나로 묶은 '유니버설 검색 인덱스' 기반의 단일 도구를 구축했습니다. * Model Context Protocol(MCP)을 활용하여 도구 설명을 간결하게 유지함으로써, 모델의 컨텍스트 창(Context Window)이 사용자 요청이라는 본연의 목적에 더 많이 할애되도록 설계했습니다. * 하나의 일관된 인터페이스를 통해 정보를 검색하게 함으로써 모델의 계획 수립 과정을 단순화하고 효율성을 극대화했습니다. ### 지식 그래프를 통한 맥락적 데이터 필터링 * 단순히 여러 API에서 데이터를 가져오는 것에 그치지 않고, 검색된 결과 중 가장 관련성 높은 정보만 모델에 전달되도록 필터링 시스템을 강화했습니다. * 통합 인덱스 위에 사람, 활동, 콘텐츠 간의 관계를 연결한 '지식 그래프'를 구축하여 사용자별 맞춤형 순위 산출이 가능하게 했습니다. * 모델이 런타임에 방대한 정보를 직접 분석하는 대신, 이미 관계가 정립된 고가치 정보만 수신함으로써 추론의 질을 높이고 성능 저하를 방지했습니다. ### 복잡한 작업을 위한 전담 에이전트 도입 * 검색 쿼리 생성과 같이 복잡한 지침과 예시가 필요한 작업은 메인 모델의 컨텍스트 창을 과도하게 점유하는 문제를 일으켰습니다. * 이를 해결하기 위해 메인 에이전트는 전체적인 계획만 세우고, 구체적인 쿼리 작성은 별도의 '전담 에이전트'에게 위임하는 구조를 도입했습니다. * 역할 분담을 통해 메인 모델은 복잡한 세부 사항에 매몰되지 않고 전체 작업의 흐름에 집중할 수 있으며, 각 에이전트는 자신에게 할당된 컨텍스트 내에서 최적의 결과를 도출합니다. 효과적인 에이전트형 AI를 구축하기 위해서는 무조건 많은 데이터를 입력하기보다 모델이 처리해야 할 정보의 양과 질을 전략적으로 제어해야 합니다. 도구의 통합, 지식 그래프 기반의 정교한 필터링, 그리고 전문 에이전트로의 역할 분담은 성능 향상과 비용 절감을 동시에 달성할 수 있는 실무적인 context engineering 방안이 될 것입니다.

MCP 서버 소개: 워크 (새 탭에서 열림)

Figma는 개발자가 LLM 기반 협업 도구에서 디자인 맥락을 실시간으로 활용할 수 있도록 지원하는 'Figma MCP(Model Context Protocol) 서버'를 베타 버전으로 출시했습니다. 이 서버는 단순한 이미지 전달을 넘어 디자인 시스템의 컴포넌트, 변수, 스타일링 정보를 AI에게 직접 제공함으로써, 개발자가 사용하는 코드베이스의 패턴에 최적화된 고품질 코드를 생성하도록 돕습니다. 결과적으로 Cursor, VS Code Copilot 등 AI 기반 코딩 도구에서 디자인 의도를 더욱 정확하고 효율적으로 구현할 수 있게 되었습니다. ### 디자인 의도를 코드로 전환하는 MCP 서버의 역할 * **표준화된 컨텍스트 제공**: MCP는 애플리케이션이 LLM에 맥락을 제공하는 표준 규격으로, 이를 통해 Figma의 디자인 데이터를 가공 없이 AI 에이전트(Cursor, Windsurf, Claude Code 등)에 직접 연결합니다. * **학습 데이터의 한계 극복**: LLM은 일반적인 코드는 잘 작성하지만 특정 팀의 고유한 코드 구조나 프레임워크 패턴은 알지 못합니다. MCP 서버는 팀 고유의 디자인 의도를 전달해 이 간극을 메웁니다. * **효율적인 워크플로우**: 단순히 디자인을 보고 코드를 짜는 단계를 넘어, AI가 디자인의 구조와 논리를 스스로 이해하고 멀티 레이어 애플리케이션 흐름을 구축할 수 있도록 지원합니다. ### 디자인 시스템 및 패턴 메타데이터 활용 * **정밀한 코드 매칭**: 디자인에 정의된 컴포넌트, 변수(Variable), 스타일 정보를 직접 전달합니다. AI가 단순히 비슷한 색상을 찾는 것이 아니라, 시스템에 정의된 정확한 토큰 이름과 변수명을 사용하게 합니다. * **Code Connect 연동**: Figma에 설정된 'Code Connect' 정보를 바탕으로 AI에게 해당 디자인이 구현된 실제 코드 파일의 경로를 정확히 안내하여 중복 컴포넌트 생성을 방지합니다. * **토큰 절약 및 정확도 향상**: 디자인 시스템의 패턴을 직접 참조함으로써 AI가 탐색에 소모하는 토큰 양을 줄이고, 디자인 시스템을 벗어난 코드를 생성할 확률을 낮춥니다. ### 시각적 정보와 상호작용의 결합 * **고수준 스크린샷 제공**: 텍스트 데이터로 설명하기 어려운 전체적인 화면 흐름, 반응형 레이아웃, 섹션 간의 관계를 스크린샷을 통해 AI에게 시각적으로 보완 설명합니다. * **인터랙션 및 의사 코드(Pseudocode)**: 복잡한 상태 변화나 UI 시퀀스를 설명하기 위해 '의사 코드' 형태의 프로토타입 데이터를 제공합니다. 이는 단순한 메타데이터 트리보다 AI가 컴포넌트의 동작 논리를 이해하는 데 훨씬 효과적입니다. * **선택적 컨텍스트 제어**: 사용자는 특정 도구가 반환하는 정보의 양을 설정하여, 현재 작업 중인 코드 구현에 가장 적합한 수준의 디자인 컨텍스트를 조절할 수 있습니다. ### 실용적인 활용 및 향후 계획 현재 Figma MCP 서버는 베타 단계로, VS Code의 Copilot이나 Cursor 같은 도구에 연결하여 즉시 디자인 기반 코드 생성을 테스트해 볼 수 있습니다. 향후 Figma는 원격 서버 기능 지원과 코드베이스와의 더욱 깊은 통합을 포함한 업데이트를 지속할 예정입니다. 디자인 시스템이 잘 구축된 팀일수록 이 서버를 통해 디자인과 코드 간의 일치성을 극대화하는 경험을 할 수 있을 것입니다.

Figma의 202 (새 탭에서 열림)

Figma의 2025년 AI 보고서는 인공지능이 단순한 기술적 기대를 넘어 실제 제품 개발 단계로 깊숙이 침투했음을 보여줍니다. 현재 제품 제작자의 3명 중 1명이 AI 기반 기능을 출시하고 있으며, 특히 스스로 판단하고 다단계 과업을 수행하는 '에이전트형 AI'가 핵심 트렌드로 부상했습니다. 보고서는 AI가 업무 효율을 크게 높였음에도 불구하고 결과물의 신뢰성 확보와 직군별 활용 격차 해소가 향후 성공의 관건이 될 것이라고 결론짓습니다. ### 에이전트형 AI(Agentic AI)의 급부상 * 단순한 텍스트나 이미지 생성을 넘어 스스로 추론하고 다단계 프로세스를 완수하는 에이전트형 AI가 가장 빠르게 성장하는 카테고리로 조사되었습니다. * AI 제품을 개발 중인 Figma 사용자의 51%가 에이전트를 구축하고 있으며, 이는 전년(21%) 대비 두 배 이상 증가한 수치입니다. * 에이전트 설계 시에는 AI가 사용자에게 확인을 요청하는 시점, 정보 공유의 양, 채팅 vs 버튼 기반 인터페이스 중 최적의 UI를 선택하는 등 고도의 기획력이 요구됩니다. ### 성공을 결정짓는 반복 설계와 인적 역량 * 성공적인 AI 제품을 출시한 팀의 60%는 여러 가지 디자인 및 기술적 접근 방식을 탐색한 반면, 실패한 팀은 39%만이 이러한 반복 과정을 거쳤습니다. * 빌더의 52%는 AI 제품에서 디자인이 기존 제품보다 더 중요하다고 답했으며, 95%는 최소한 동일한 수준의 중요성을 갖는다고 평가했습니다. * 기술이 빠르게 변하는 상황에서 신속한 프로토타이핑과 긴밀한 협업 루프 등 전통적인 제품 설계 원칙을 유연하게 적용하는 능력이 차별화 요소로 작용합니다. ### 소규모 기업의 공격적인 투자와 실험 * 직원 10인 이하 소규모 기업의 61%가 AI를 시장 점유율 확보를 위한 핵심 요소로 인식하고 있으며, 이는 대기업보다 훨씬 높은 비중입니다. * 규모가 작은 기업일수록 의사결정이 빨라 AI 기술을 실험하고 업무 프로세스에 통합하는 속도가 더 민첩한 것으로 나타났습니다. * AI가 소규모 조직의 비즈니스 성장을 가속화할 수 있다는 믿음이 깊어지면서, 이들의 AI 기반 제품 개발 비중은 작년 대비 두 배로 증가했습니다. ### 개발자와 디자이너 간의 활용도 및 만족도 격차 * 개발자의 82%가 AI 도구에 만족하고 68%가 업무 품질 개선을 경험했다고 답한 반면, 디자이너는 각각 69%와 54%로 상대적으로 낮은 수치를 보였습니다. * 이러한 차이는 핵심 업무 활용 방식에서 기인합니다. 개발자의 59%는 코드 생성 등 핵심 업무에 AI를 쓰지만, 디자이너는 31%만이 에셋 생성 등 핵심 업무에 AI를 활용합니다. * 개발 현장에서는 AI가 생성한 코드에 대한 만족도가 높지만, 디자인 분야에서는 AI 도구가 디자이너의 워크플로우에 어떻게 최적으로 녹아들지 여전히 탐색 단계에 있습니다. ### 효율성 향상과 결과물 신뢰성 사이의 과제 * 조사 대상자의 78%가 AI가 업무 효율성을 크게 높인다는 점에 동의했지만, AI의 출력물을 전적으로 신뢰할 수 있다는 응답은 32%에 불과했습니다. * 단순히 작업을 빠르게 수행하는 것을 넘어, AI가 어떻게 인간의 전문성을 강화하고 실제 업무에 유용한 결과물을 지속적으로 낼 수 있게 할 것인지가 향후 과제입니다. AI를 성공적으로 도입하기 위해서는 '속도'보다는 '품질과 신뢰'에 집중해야 합니다. 개발 단계에서 다양한 프로토타입을 반복적으로 테스트하고, AI의 자율성과 인간의 통제권 사이에서 적절한 균형을 찾는 디자인 전략이 뒷받침될 때 비로소 시장에서 경쟁력 있는 AI 제품을 완성할 수 있습니다.

더블 클릭: 코딩이 (새 탭에서 열림)

에이전트형 AI(Agentic AI)의 등장은 단순히 기술적인 진보를 넘어 사용자가 소프트웨어와 상호작용하는 근본적인 방식을 재정의하고 있습니다. 기존의 소프트웨어가 인간의 명령을 수행하는 '도구'였다면, 에이전트는 최소한의 감독으로도 복잡한 목표를 달성하는 '협업자'로 진화하며 UX 디자인의 패러다임을 '과정 중심'에서 '결과 중심'으로 이동시킵니다. 이러한 변화 속에서 디자이너는 AI의 자율성과 인간의 통제권 사이의 정교한 균형을 설계해야 하는 새로운 도전에 직면해 있습니다. **도구에서 협업자로의 UX 패러다임 전환** * 과거의 UI가 사용자가 버튼을 클릭해 특정 기능을 실행하는 방식이었다면, 에이전트형 AI는 사용자의 의도(Intent)를 파악해 스스로 워크플로우를 생성합니다. * 디자인의 초점은 세부적인 기능을 배치하는 것에서, AI가 내린 결정의 맥락을 사용자가 쉽게 이해하고 승인할 수 있는 시스템을 구축하는 것으로 이동합니다. * 사용자는 더 이상 모든 단계를 직접 조작하지 않고, AI가 제안한 결과물을 검토하고 수정하는 '관리자' 혹은 '편집자'의 역할을 수행하게 됩니다. **통제권 유지를 위한 '휴먼 인 더 루프(Human-in-the-Loop)'** * 에이전트가 자율적으로 행동할수록 발생할 수 있는 오류나 편향을 제어하기 위해, 결정적인 순간에 인간이 개입할 수 있는 설계가 필수적입니다. * AI가 수행 중인 작업의 진행 상황을 실시간으로 시각화하여 보여줌으로써 블랙박스 현상을 방지하고 시스템에 대한 신뢰를 쌓아야 합니다. * 에이전트가 작업을 완료하기 전 승인을 요청하거나, 작업의 근거를 설명하는 인터페이스를 통해 사용자가 결과에 대한 책임을 질 수 있는 환경을 제공합니다. **디자이너의 역할 변화와 새로운 역량** * 디자이너는 이제 개별 화면을 그리는 것을 넘어, AI 에이전트가 지켜야 할 가이드라인과 논리적인 가드레일(Guardrails)을 설계하는 시스템 설계자가 되어야 합니다. * 자연어 인터페이스(LUI)가 중요해짐에 따라, 텍스트와 대화를 통해 정보를 전달하고 행동을 유도하는 '대화형 디자인' 역량이 더욱 강조됩니다. * 단순한 효율성 증대를 넘어, AI와 인간이 공존할 때 발생하는 심리적 안전감과 사용자 경험의 질적인 측면을 깊이 있게 고민해야 합니다. 에이전트형 AI 시대의 UX는 단순히 더 똑똑한 기능을 제공하는 것이 아니라, 기술과 인간 사이의 새로운 신뢰 관계를 디자인하는 일입니다. 이를 위해 디자이너는 AI의 작동 원리를 깊이 이해하고, 기술이 인간의 의도를 벗어나지 않도록 투명하고 직관적인 피드백 루프를 설계하는 데 집중해야 합니다. 결국 훌륭한 에이전트 UX는 사용자에게서 통제권을 뺏는 것이 아니라, 복잡한 과정은 AI가 처리하되 최종 결정권은 여전히 인간에게 있음을 확인시켜 주는 디자인에서 나옵니다.