platform-engineering

3 개의 포스트

Software 3.0 시대, Harness를 통한 조직 생산성 저점 높이기 (새 탭에서 열림)

현재 많은 개발팀이 LLM을 도입하고 있지만, 실제 생산성은 엔지니어 개개인의 'LLM 리터러시'에 따라 극심한 격차를 보이고 있습니다. 이러한 '각자도생'의 한계를 극복하기 위해서는 LLM을 개인의 도구가 아닌 팀 차원의 시스템으로 편입시켜 전체적인 생산성의 저점(Floor)을 높이는 전략이 필요합니다. Claude Code와 같은 생태계를 활용해 팀의 노하우를 '실행 가능한 지식(Executable SSOT)'으로 자산화하는 것이 Software 3.0 시대의 핵심 경쟁력이 될 것입니다. **컨텍스트 엔지니어링과 LLM 리터러시의 격차** * 단순 질문을 반복하는 방식과 작업 전 팀의 가이드라인, 린트 규칙, 코드 패턴 등 '컨텍스트'를 먼저 주입하는 방식은 결과물에서 큰 차이를 만듭니다. * 이러한 생산성 격차는 코딩 실력이 아닌 LLM을 제어하는 노하우의 차이이며, 이를 개인의 센스에만 맡기는 것은 조직적 손실입니다. * 팀 전체의 역량을 상향 평준화하기 위해서는 누구나 최적의 맥락 위에서 작업할 수 있도록 돕는 시스템적 장치(Harness)가 필요합니다. **Claude Code와 마찰 없는 워크플로우 이식** * 브라우저 기반 챗봇으로 코드를 복사·붙여넣기 하는 과정에서 발생하는 문맥 교환(Context Switching) 비용을 최소화해야 합니다. * Claude Code가 제공하는 TUI(Terminal User Interface) 환경은 터미널 안에서 자연어와 코드가 끊김 없이 섞이는 매끄러운 경험을 제공합니다. * 이러한 낮은 진입 장벽은 설계된 AI 워크플로우를 팀원들에게 저항감 없이 전파할 수 있는 기반이 됩니다. **실행 가능한 진실의 원천(Executable SSOT)** * 기존의 위키나 노션 문서는 작성 즉시 낡은 정보가 되지만, 플러그인 형태의 지식은 사람이 읽는 매뉴얼인 동시에 LLM이 즉시 실행하는 시스템 프롬프트가 됩니다. * RAG(검색 증강 생성) 방식은 내부 로직의 불투명성으로 인해 어떤 컨텍스트가 주입될지 예측하기 어렵다는 단점이 있습니다. * 반면 플러그인 방식은 명시적인 코드로서 개발자가 주입되는 맥락을 100% 통제할 수 있어 높은 예측 가능성과 신뢰성을 제공합니다. **계층화된 아키텍처를 통한 거버넌스와 전파** * 지식을 전사 공통(Global), 팀/비즈니스 도메인(Domain), 특정 프로젝트(Local)의 3단계 레이어로 계층화하여 관리함으로써 지식의 파편화를 방지합니다. * `/new-feature`와 같은 슬래시 커맨드를 통해 숙련된 엔지니어의 노하우(이슈 발급, 브랜치 생성, 구현 계획 수립 등)를 모든 팀원에게 즉시 배포할 수 있습니다. * 단순한 린터를 넘어, 메인 브랜치 커밋 시도를 감지하고 정책에 맞는 브랜치 생성을 가이드하는 등 AI 에이전트 기반의 강력한 거버넌스 구현이 가능합니다. **엔지니어링의 본질: 플랫폼 엔지니어링과 데이터 플라이휠** * Software 1.0 시대에 공통 라이브러리로 중복 작업을 줄였듯, Software 3.0에서는 AI 워크플로우 플러그인을 통해 팀의 생산성을 최적화해야 합니다. * 규격화된 플러그인을 통해 축적된 양질의 데이터는 향후 도메인 특화 모델(sLLM)을 파인튜닝하고 평가하는 기반이 됩니다. * 사용자가 많아질수록 데이터가 쌓이고 모델이 정교해지는 '데이터 플라이휠' 구조를 구축하는 것이 AI-Native 조직의 최종 목표입니다. 이제 LLM 활용 능력은 개인의 역량을 넘어 팀이 설계하고 배포해야 할 시스템의 영역입니다. Claude Code의 마켓플레이스와 같은 도구를 활용해 팀 내에 흩어진 암묵지를 명시적인 워크플로우로 엮어내고, 우리 조직에 최적화된 '시스템 하네스'를 구축하는 것부터 시작해 보기를 추천합니다.

에이전틱 SDLC: GitLab (새 탭에서 열림)

GitLab과 TCS는 기업이 DevSecOps를 대규모로 확장하고 소프트웨어 개발 속도를 높일 수 있도록 AI 에이전트 기반의 '지능적 오케스트레이션(Intelligent Orchestration)' 협업 모델을 발표했습니다. 이 파트너십은 GitLab의 통합 데이터 모델 및 Duo Agent 플랫폼과 TCS의 산업 전문성을 결합하여, 파편화된 도구 체인을 통합하고 보안과 컴플라이언스가 내재화된 자동화된 워크플로우를 제공합니다. 이를 통해 기업은 복잡한 현대적 소프트웨어 개발 환경에서도 일관된 통제권을 유지하며 생산성을 극대화할 수 있습니다. ### 지능적 오케스트레이션과 에이전틱 워크플로우 * GitLab Duo Agent 플랫폼은 단순한 코드 생성을 넘어 다단계 추론, 보안 스캐닝, 파이프라인 자동 복구 등 소프트웨어 수명 주기 전반의 자율적 작업을 수행합니다. * TCS의 구조화된 에이전트 계층 구조와 통합되어, 도메인 에이전트가 GitLab의 전문 에이전트(플래너, 보안 분석가, 코드 리뷰어 등)를 호출하는 유기적인 협업 시스템을 구축합니다. * 모든 AI 에이전트의 작업은 프로젝트의 전체 맥락을 인식하며, 감사(Audit)가 가능하고 사전에 정의된 거버넌스 규칙에 따라 통제되어 수만 명의 엔지니어 조직에서도 신뢰성을 유지합니다. ### 플랫폼 엔지니어링을 통한 DevSecOps의 산업화 * 개별 파이프라인 관리를 넘어 표준화된 '내부 개발자 플랫폼(IDP)'을 구축함으로써, 개발자가 셀프 서비스 방식으로 안전한 '골든 패스(Golden Path)'를 이용할 수 있게 합니다. * 'Policy-as-code'를 통해 보안과 컴플라이언스를 개발 흐름에 기본으로 내장하여, 대규모 조직에서도 일관된 운영 효율성을 확보하는 'Day 2' 운영 표준화를 실현합니다. * GitLab은 IDP의 제어 평면(Control Plane) 역할을 수행하고, TCS는 이를 기반으로 기업별 맞춤형 설계와 대규모 마이그레이션 팩토리를 운영하여 도입 마찰을 줄입니다. ### GitLab과 TCS의 시너지와 차별점 * GitLab의 지능형 플랫폼 기술과 TCS의 수십 년간 축적된 도메인 지식, 대규모 마이그레이션 역량이 결합되어 규제가 엄격하거나 복잡한 레거시 환경에서도 신속한 도입이 가능합니다. * 단순한 도구 도입이 아닌, 기업의 운영 모델과 규모의 경제를 고려한 맥락 중심의 솔루션을 제공하여 AI 도입에 따른 신뢰 및 리스크 관리를 지원합니다. * 양사는 다중 클라우드 환경 전반에서 컴플라이언스가 보장된 빠른 소프트웨어 전달 체계를 구축하여 기업의 혁신 속도를 가속화합니다. 기업은 단순히 개별 AI 도구를 도입하는 수준을 넘어, 인간 개발자와 AI 에이전트가 공존하는 '에이전틱 SDLC'로의 전환을 준비해야 합니다. GitLab과 TCS가 제안하는 지능형 오케스트레이션 모델은 복잡한 규제와 기술적 부채를 가진 대기업이 안전하고 실질적으로 AI 기반의 소프트웨어 공급망을 구축할 수 있는 구체적인 경로를 제시합니다.

LY의 테크 컨퍼런스, 'Tech-Verse 2025' 후기 (새 탭에서 열림)

LY Corporation(이하 LY)은 기술 컨퍼런스 'Tech-Verse 2025'를 통해 합병 이후의 플랫폼 통합 전략과 AI 기업으로의 전환 비전을 제시했습니다. LY는 자체 프라이빗 클라우드 구축을 통해 압도적인 비용 절감과 보안 강화를 실현하고, 모든 서비스에 AI 에이전트를 도입하여 사용자 경험을 혁신할 계획입니다. 특히 생성형 AI를 활용한 개발 프로세스의 전면적인 진화로 엔지니어가 서비스 본질에 집중할 수 있는 환경을 구축하는 것이 핵심입니다. **CatalystOne: 고효율 통합 플랫폼 구축** * **자체 클라우드 기반의 비용 최적화**: 퍼블릭 클라우드 대비 약 4배의 비용 절감 효과를 거두고 있으며, 50만 대의 서버와 3Tbps에 달하는 대규모 트래픽을 효율적으로 관리하고 있습니다. * **플랫폼 통합(CatalystOne)**: 합병 후 중복된 인프라를 'CatalystOne'이라는 이름 아래 통합하여 기술, 엔지니어, 시설 등 핵심 자원의 운영 집중도를 높였습니다. * **보안 및 혁신 가속화**: 통합된 플랫폼을 통해 거버넌스를 강화하고, 폭발적인 데이터 성장과 생성형 AI 수요에 기민하게 대응할 수 있는 차세대 프라이빗 클라우드 'Flava'를 구축했습니다. **전 서비스의 AI 에이전트화와 개발 혁신** * **퍼스널 에이전트 구현**: 현재 44개 서비스에 생성형 AI를 도입했으며, 수천만 개의 에이전트를 연계하여 개별 사용자의 니즈를 정교하게 지원하는 것을 목표로 합니다. * **AI 기반 개발 솔루션 도입**: 2025년 7월부터 모든 엔지니어에게 AI 개발 솔루션을 전면 도입하며, RAG(검색 증강 생성) 기술로 사내 지식을 활용해 코드 품질을 높입니다. * **생산성 지표의 획기적 개선**: PoC 결과 'Code Assist'는 96%의 정답률을 기록했고, 'Auto Test' 도입으로 테스트 시간을 97% 단축하는 등 압도적인 개발 효율성 향상을 확인했습니다. **실용적인 결론** LY의 전략은 대규모 인프라를 운영하는 기업이 단순히 AI를 도입하는 것에 그치지 않고, 인프라 통합을 통한 비용 효율화와 AI를 활용한 개발 문화 혁신이 병행되어야 함을 보여줍니다. 특히 엔지니어링 환경에 AI를 적극적으로 이식하여 확보한 리소스를 사용자 가치 증대에 재투자하는 선순환 구조는 기술 기업들이 참고할 만한 모델입니다.