aws

27 개의 포스트

What’s Next with AWS, 2026 주요 발표 내용 | Amazon Web Services (새 탭에서 열림)

AWS는 2026 'What’s Next with AWS' 행사를 통해 에이전트(Agent) 중심의 비즈니스 혁신과 인공지능 생태계 확장이라는 비전을 제시했습니다. 이번 발표의 핵심은 개인용 AI 비서인 'Amazon Quick'의 대중화, 'Amazon Connect'의 산업별 전문 에이전트 솔루션으로의 진화, 그리고 OpenAI와의 파트너십 강화를 통한 최신 모델의 Bedrock 통합입니다. 이를 통해 AWS는 기업이 복잡한 워크플로우를 자동화하고 보안이 보장된 환경에서 최첨단 AI를 활용할 수 있는 토대를 마련했습니다. **Amazon Quick: 업무 효율을 높이는 범용 AI 어시스턴트** * **데스크톱 앱 출시(Preview):** 브라우저를 열지 않고도 로컬 파일, 캘린더, 커뮤니케이션 도구와 연결되어 개인화된 업무 경험을 제공합니다. * **접근성 확대:** AWS 계정 없이도 개인 이메일이나 기존 소셜 계정(Google, Apple 등)으로 가입할 수 있는 Free 및 Plus 요금제를 도입했습니다. * **시각 자료 생성:** 채팅 인터페이스에서 직접 전문적인 문서, 프레임워크, 인포그래픽 및 이미지를 즉석에서 생성할 수 있습니다. * **외부 앱 통합 확대:** Google Workspace, Zoom, Airtable, Dropbox, Microsoft Teams 등 주요 협업 툴과의 네이티브 연동을 지원합니다. **Amazon Connect: 4가지 산업 특화 에이전틱 AI 솔루션** * **Connect Decisions:** 아마존의 30년 운영 노하우가 집약된 공급망 계획 솔루션으로, 팀이 위기 대응을 넘어 선제적인 의사결정을 내릴 수 있도록 돕습니다. * **Connect Talent (Preview):** 대규모 채용을 위한 솔루션으로, AI 기반 인터뷰와 과학적 역량 평가를 통해 편향을 줄이고 우수 인재를 빠르게 선발합니다. * **Connect Customer:** 기존 Amazon Connect의 진화 버전으로, 전문 지식 없이도 몇 주 만에 대화형 AI를 설정하고 개인화된 고객 경험을 제공할 수 있도록 구성 능력을 강화했습니다. * **Connect Health:** 환자 인증, 예약 관리, 의료 기록 자동화(Ambient Documentation) 및 코딩을 지원하여 의료진이 진료에 더 집중할 수 있는 환경을 구축합니다. **AWS와 OpenAI의 파트너십 강화 및 Bedrock 통합** * **최신 모델 도입:** GPT-5.5 및 GPT-5.4 등 OpenAI의 최첨단 모델을 Amazon Bedrock API를 통해 보안과 거버넌스가 유지된 상태로 사용할 수 있습니다. * **Codex on Amazon Bedrock:** CLI, 데스크톱 앱, VS Code 확장 프로그램을 통해 OpenAI의 코딩 에이전트를 AWS 환경 내에서 직접 활용하고 클라우드 약정 비용을 적용받을 수 있습니다. * **OpenAI 기반 Managed Agents:** OpenAI의 모델 성능을 극대화하도록 설계된 'OpenAI Harness'를 기반으로, 더 빠른 실행 속도와 정교한 추론 능력을 갖춘 프로덕션급 에이전트를 클라우드에 쉽게 구축할 수 있습니다. 이번 발표는 기업들이 더 이상 AI 모델 선택에만 머물지 않고, 실제 산업 현장에 즉시 투입 가능한 '에이전트' 중심의 인프라를 구축해야 함을 시사합니다. 특히 OpenAI의 최신 모델을 AWS의 안정적인 인프라 위에서 사용할 수 있게 됨에 따라, 보안과 성능을 모두 중시하는 엔터프라이즈 고객들에게 Amazon Bedrock은 더욱 강력한 선택지가 될 것으로 보입니다.

AWS Weekly Roundup: Anthropic & Meta partnership, AWS Lambda S3 Files, Amazon Bedrock AgentCore CLI, and more (April 27, 2026) | Amazon Web Services (새 탭에서 열림)

이번 AWS 주간 소식은 Anthropic 및 Meta와의 전략적 파트너십 강화와 생성형 AI 에이전트 개발을 가속화하는 기술적 진보에 초점을 맞추고 있습니다. AWS는 실리콘 레벨에서의 최적화와 서버리스 기술의 고도화를 통해 복잡한 AI 워크로드를 더 효율적으로 처리할 수 있는 환경을 구축하고 있습니다. 결과적으로 개발자들은 하 인프라의 복잡성에서 벗어나 더 정교하고 협업 중심적인 AI 애플리케이션 구축에 집중할 수 있게 되었습니다. **Anthropic 및 Meta와의 전략적 파트너십 확대** - Anthropic은 AWS Trainium 및 Graviton 인프라를 활용해 최신 파운데이션 모델을 학습시키며, 하드웨어와 소프트웨어 스택 전반의 효율성을 극대화하기 위해 Annapurna Labs와 협력합니다. - Amazon Bedrock 내에서 'Claude Cowork'가 출시되어, 기업 고객들은 AWS의 보안 환경을 유지하면서 팀 단위의 협업 AI 워크플로우를 직접 배포할 수 있습니다. - Meta는 추론, 코드 생성, 다단계 작업 오케스트레이션 등 CPU 집약적인 에이전트 중심 AI 워크로드를 위해 수천만 개의 AWS Graviton 코어를 도입하기로 합의했습니다. **Lambda 및 Aurora의 서버리스 기능 강화** - **Lambda S3 Files:** Amazon EFS를 기반으로 구축된 이 기능을 통해 Lambda 함수가 S3 버킷을 파일 시스템으로 마운트할 수 있으며, 데이터 다운로드 없이 표준 파일 작업을 수행할 수 있어 AI 모델의 메모리 유지 및 상태 공유가 용이해졌습니다. - **Aurora Serverless 성능 향상:** 새로운 플랫폼 버전 4에서는 이전보다 최대 30% 향상된 성능과 스마트 스케일링 알고리즘을 제공하며, 사용하지 않을 때는 비용이 발생하지 않는 'Scale to zero' 기능을 유지합니다. - **EKS Hybrid Nodes 게이트웨이:** 온프레미스와 클라우드 간의 복잡한 네트워크 인프라 변경 없이도 하이브리드 Kubernetes 환경의 네트워킹을 자동화하여 포드 간 통신을 간소화합니다. **AI 에이전트 개발 및 운영 효율화 도구** - **Bedrock AgentCore:** 새로운 CLI와 관리형 하네스(Managed Harness)를 도입하여 오케스트레이션 코드 없이도 모델, 프롬프트, 도구를 정의해 즉시 에이전트 프로토타입을 실행하고 이를 IaC(AWS CDK 등)로 내보낼 수 있습니다. - **세분화된 비용 할당:** Amazon Bedrock 사용량을 태그 기반으로 상세하게 추적할 수 있게 되어, 여러 팀이나 프로젝트를 운영하는 조직에서 정밀한 비용 가시성과 비용 재청구(Chargeback)가 가능해졌습니다. - **SageMaker 추론 최적화 권장:** 생성형 AI 모델 배포 시 최적의 인스턴스 타입, 컨테이너, 추론 파라미터를 자동으로 식별하여 비용을 절감하고 응답 속도를 개선합니다. **실무자를 위한 교육 및 이벤트 정보** - **무료 마이크로디그리(Microcredentials):** AWS Skill Builder를 통해 실제 라이브 환경에서 구성, 트러블슈팅, 최적화 기술을 검증하는 실무형 인증 과정을 무료로 이용할 수 있습니다. - **AWS Summit Seoul:** 오는 5월 20일 서울에서 개최되는 서밋을 포함하여 전 세계 주요 도시에서 최신 클라우드 및 AI 혁신 사례를 공유하는 오프라인 행사가 진행될 예정입니다. 생성형 AI를 실제 서비스에 적용하려는 개발자라면 Bedrock AgentCore를 통한 신속한 프로토타이핑을 시도해보고, 비용 최적화를 위해 Graviton 기반 인스턴스와 SageMaker의 추론 권장 기능을 적극적으로 활용해 보시기 바랍니다.

AWS 주간 소식: AWS DevOps Agent 및 Security Agent 정식 출시(GA), 제품 수명 주기 업데이트 등 (2026년 4월 6일) | Amazon Web Services (새 탭에서 열림)

AWS는 최근 자율적으로 과업을 수행하는 '프론티어 에이전트'인 DevOps Agent와 Security Agent를 정식 출시하며 클라우드 운영 및 보안 자동화의 새로운 이정표를 제시했습니다. 이번 업데이트에는 주요 에이전트 서비스의 정식 출시(GA) 외에도 다양한 서비스의 라이프사이클 변경과 지속 가능성 보고 도구 등 운영 효율성을 높이기 위한 다각적인 기능들이 포함되었습니다. 특히 에이전트 기술을 통해 인시던트 대응 시간과 보안 테스트 비용을 획기적으로 줄인 고객사 사례를 통해 실질적인 기술적 이점이 증명되었습니다. ### AWS DevOps 및 Security 에이전트 정식 출시 * **AWS DevOps Agent**: 클라우드 운영 업무를 자율적으로 수행하며, 인시던트 조사 및 해결 시간을 단축하고 문제 발생을 사전에 방지합니다. 실제 고객사인 WGU는 문제 해결 시간을 수 시간에서 수 분으로 단축했으며, 평균 복구 시간(MTTR)을 최대 75%까지 감소시키는 성과를 거두었습니다. * **AWS Security Agent**: 개발 라이프사이클 전반에 걸쳐 지속적이고 문맥을 인식하는 모의 해킹(Penetration Testing)을 수행합니다. LG CNS와 같은 기업은 이를 통해 테스트 속도를 50% 이상 높이고 비용을 30% 절감했으며, 보안 탐지의 오탐률을 크게 낮추는 효과를 얻었습니다. * **환경 범용성**: 두 에이전트 모두 AWS 클라우드뿐만 아니라 멀티클라우드 및 온프레미스 환경에서도 작동하도록 설계되어, 인프라 위치에 상관없이 반복적인 운영 부담을 덜어줍니다. ### AWS 제품 라이프사이클 및 가용성 변경 사항 * **유지 관리(Maintenance) 서비스**: AWS App Runner, Audit Manager, CloudTrail Lake, Glue Ray jobs, Amazon SNS(Message Data Protection) 등 다수의 서비스가 유지 관리 단계로 전환되어 이에 따른 마이그레이션 가이드가 제공됩니다. * **일몰(Sunset) 예정 서비스**: Amazon RDS Custom for Oracle, Amazon WorkMail, Amazon WorkSpaces Thin Client, Amazon Chime SDK(Proxy Sessions) 등이 일몰 단계에 진입함에 따라 운영 중단을 최소화하기 위한 대체 서비스 확인이 필요합니다. * **지원 체계**: 가용성 변화가 운영에 미치는 영향을 고려하여 상세 문서와 AWS 서포트 팀을 통한 마이그레이션 지원을 강화했습니다. ### 기타 주요 기술 업데이트 및 모니터링 기능 * **컨테이너 및 컴퓨팅**: Amazon ECS 관리형 인스턴스를 위한 Managed Daemons 기능이 발표되었으며, Amazon Lightsail에는 최대 72 vCPU를 지원하는 컴퓨팅 최적화 인스턴스 번들이 추가되었습니다. * **AI 및 지속 가능성**: Amazon Bedrock AgentCore Evaluations가 정식 출시되었으며, 기업의 탄소 배출량을 통합 관리할 수 있는 'AWS Sustainability 콘솔'을 통해 Scope 1-3 보고가 가능해졌습니다. * **보안 및 관측성**: CloudFront에서 서명된 URL 및 쿠키에 SHA-256 지원을 시작했으며, Amazon EKS를 위한 OpenTelemetry 기반의 Container Insights 미리보기 버전이 출시되었습니다. 에이전트 중심의 AI 개발(Agentic AI)이 가속화됨에 따라 기업들은 단순 반복적인 운영 업무를 에이전트에게 위임하고 핵심 비즈니스 가치 창출에 집중할 수 있게 되었습니다. 특히 현재 사용 중인 서비스 중 라이프사이클 변경 대상이 있는지 정기적으로 점검하고, 새롭게 출시된 에이전트 도구들을 활용해 운영 비용과 인시던트 대응 시간을 최적화할 것을 권장합니다.

AWS Weekly Roundup: AWS AI/ML Scholars program, Agent Plugin for AWS Serverless, and more (March 30, 2026) | Amazon Web Services (새 탭에서 열림)

AWS는 2026 AI & ML Scholars 프로그램을 통해 전 세계 10만 명의 학습자에게 무료 교육 기회를 제공하며 AI 인재 양성에 박차를 가하고 있습니다. 이와 동시에 개발 생산성을 극대화하기 위해 AI 코딩 어시스턴트와의 통합을 강화하고, 서버리스 및 데이터베이스 서비스의 성능과 편의성을 대폭 개선했습니다. 이번 업데이트는 초보자부터 전문가까지 아우르는 교육적 지원과 고성능 워크로드 처리를 위한 기술적 진보를 동시에 포함하고 있습니다. **AWS AI & ML Scholars 및 글로벌 이벤트** - 전 세계 18세 이상 누구나 신청 가능한 '2026 AWS AI & ML Scholars' 프로그램이 시작되었으며, 상위 4,500명에게는 Udacity 나노디그리 장학금이 지원됩니다. - 4월 파리와 런던을 시작으로 전 세계 주요 도시에서 AWS Summit이 개최되어 클라우드 및 AI 기술에 관한 혁신 사례를 공유할 예정입니다. - 개발자 커뮤니티가 주도하는 'AWS Community Days'도 샌프란시스코와 루마니아 등에서 개최되어 기술 워크숍과 실습 기회를 제공합니다. **AI 코딩 도구 연동 및 개발자 경험 개선** - 'Agent Plugin for AWS Serverless' 출시로 Kiro, Claude Code, Cursor 등의 AI 코딩 어시스턴트에서 서버리스 애플리케이션의 구축과 관리가 더욱 간편해졌습니다. - Amazon SageMaker Studio가 Kiro와 Cursor IDE의 원격 연결을 지원하여, 개발자가 익숙한 로컬 환경에서 SageMaker의 확장 가능한 컴퓨팅 자원을 활용할 수 있게 되었습니다. - AWS 관리 콘솔에 시각적 커스터마이징 기능이 추가되어 계정별 색상을 지정하거나 사용하지 않는 리전 및 서비스를 숨김으로써 인지 부하를 줄일 수 있습니다. **서버리스 및 데이터베이스 성능 강화** - Amazon Aurora PostgreSQL에 'Express Configuration'이 도입되어 단 두 번의 클릭으로 몇 초 만에 서버리스 데이터베이스를 생성할 수 있습니다. - AWS 프리티어에 Aurora PostgreSQL이 포함되어 신규 가입자에게 크레딧 혜택을 제공하며, Ruby 개발자를 위한 Aurora DSQL 커넥터도 새롭게 출시되었습니다. - AWS Lambda의 파일 디스크립터 한도가 4,096개로 4배 상향되었으며, 최대 32GB 메모리와 16 vCPU를 지원하여 데이터 집약적인 워크로드를 인프라 관리 없이 처리할 수 있습니다. **Amazon Polly의 양방향 스트리밍 지원** - Amazon Polly에 새롭게 도입된 양방향 스트리밍 API는 텍스트가 생성되는 도중에 실시간으로 음성 합성을 시작할 수 있게 해줍니다. - 이는 LLM(거대언어모델) 응답과 같이 텍스트가 순차적으로 생성되는 대화형 AI 애플리케이션에서 지연 시간을 획기적으로 줄여줍니다. 이번 발표에서 주목할 점은 서버리스 환경의 성능 한계가 대폭 확장되었다는 것입니다. 고성능 컴퓨팅이 필요한 워크로드를 운영 중이라면 상향된 Lambda 리소스를 적극 활용해 보시기 바라며, AI 역량을 쌓고자 하는 분들은 6월 24일 마감되는 AWS AI & ML Scholars 프로그램에 지원해 보실 것을 추천합니다.

계정 색상, 리전 및 서비스 가시성을 포함한 시각적 설정을 통한 AWS 관리 콘솔 환경 맞춤 설정 | Amazon Web Services (새 탭에서 열림)

AWS는 사용자 경험 맞춤화(UXC) 기능을 통해 관리자가 팀의 필요에 맞춰 AWS 관리 콘솔의 UI를 최적화할 수 있도록 지원합니다. 이 기능을 사용하면 계정별로 색상을 지정해 환경을 시각적으로 구분하고, 사용하지 않는 리전과 서비스를 숨겨 작업 효율성을 높일 수 있습니다. 이를 통해 사용자는 불필요한 정보로 인한 인지 부하를 줄이고 핵심 업무에 더욱 집중할 수 있습니다. ### 시각적 계정 구분을 위한 색상 지정 * AWS 계정별로 고유한 색상을 지정하여 개발(주황색), 테스트(하늘색), 운영(빨간색) 등의 환경을 즉각적으로 식별할 수 있습니다. * 설정된 색상은 콘솔 상단 탐색바에 표시되어 사용자가 현재 어떤 환경에서 작업 중인지 실시간으로 인지하게 도와줍니다. * 콘솔 내 '계정(Account)' 설정 메뉴에서 선호하는 색상을 선택하는 것만으로 간단히 적용 가능합니다. ### 리전 및 서비스 가시성 제어 * 리전 선택기나 서비스 탐색 메뉴에서 팀에 필요한 항목만 나타나도록 설정하여 불필요한 클릭과 스크롤을 줄일 수 있습니다. * 통합 설정의 '계정 설정' 탭에서 표시할 리전과 서비스를 개별적으로 선택하거나 인기 서비스 카테고리를 활용해 구성할 수 있습니다. * 이 설정은 콘솔 UI상의 노출 여부만 제어하며, AWS CLI, SDK, API 또는 Amazon Q Developer를 통한 실제 서비스 접근 권한에는 영향을 주지 않습니다. ### CloudFormation을 활용한 프로그래밍 방식 설정 * 새로운 `AWS::UXC::AccountCustomization` 리소스 타입을 통해 CloudFormation 템플릿으로 콘솔 맞춤화 설정을 코드화할 수 있습니다. * `AccountColor`, `VisibleServices`, `VisibleRegions` 파라미터를 사용하여 조직 내 여러 계정에 일관된 UI 설정을 대규모로 배포할 수 있습니다. * 템플릿을 작성한 후 `aws cloudformation deploy` 명령어를 통해 손쉽게 설정을 적용하고 관리할 수 있습니다. 운영 환경에는 명확한 경각심을 주는 색상(예: 빨간색)을 적용하고, 실제로 사용하지 않는 리전은 숨김 처리하는 것을 추천합니다. 이러한 사소한 설정 변화만으로도 잘못된 환경에서의 작업을 방지하는 안전장치를 마련하고 팀의 전반적인 생산성을 향상시킬 수 있습니다.

AWS 클라우드와 함께한 20년 – 시간이 정말 빠르네요! | Amazon Web Services (새 탭에서 열림)

AWS는 지난 20년 동안 240개 이상의 클라우드 서비스를 구축하며 기술 혁신의 표준을 제시해 왔습니다. 단순한 인프라 제공을 넘어 딥러닝, 생성형 AI, 그리고 에이전트형 AI로 이어지는 기술 트렌드를 고객 중심의 관점에서 선도하고 있습니다. 특히 지난 10년은 컨테이너, 서버리스, 커스텀 실리콘, 그리고 AI 민주화를 통해 개발자와 기업이 이전에는 불가능했던 가치를 창출할 수 있도록 생태계를 확장해 온 과정이었습니다. ### 기술 트렌드에 대응하는 AWS의 혁신 철학 * 2006년 Amazon S3 출시 이후 AWS는 API 경제를 개척하며 개인 연구자와 기업 모두가 대규모 프로젝트를 수행할 수 있는 강력한 도구를 제공하기 시작했습니다. * AWS의 혁신은 단순히 화려한 유행을 쫓는 것이 아니라, 고객의 실제 목소리에 귀를 기울이고 가장 시급한 과제를 해결하는 '고객 중심'의 원칙을 따릅니다. * 기술 환경은 딥러닝의 등장에서 시작해 거대언어모델(LLM) 기반의 생성형 AI를 거쳐, 현재는 스스로 작업을 수행하는 에이전트형 AI(Agentic AI)로 빠르게 진화하고 있습니다. ### 클라우드 인프라와 데이터 아키텍처의 고도화 * **컨테이너 및 서버리스:** Amazon ECS와 EKS를 통해 대규모 컨테이너 관리를 단순화했으며, Fargate를 도입해 인프라 관리 부담 없이 서버리스 환경에서 컨테이너를 배포할 수 있게 했습니다. * **고성능 데이터베이스:** Amazon Aurora는 고가용성 관계형 DB의 표준을 세웠으며, 최근에는 0으로 스케일링이 가능한 Serverless v2와 초고속 분산 SQL 데이터베이스인 Aurora DSQL로 진화했습니다. * **하이브리드 클라우드:** AWS Outposts를 통해 저지연 데이터 처리가 필요한 온프레미스 환경에서도 AWS와 동일한 인프라 및 서비스를 사용할 수 있는 일관된 경험을 제공합니다. ### 커스텀 실리콘을 통한 성능 및 비용 최적화 * **AWS Graviton:** Arm 기반의 자체 프로세서를 개발하여 클라우드 워크로드에서 최고의 가격 대비 성능을 실현했으며, 현재 9만 명 이상의 고객이 이를 활용해 비용을 절감하고 있습니다. * **AI 전용 칩셋:** 추론용 Inferentia와 학습용 Trainium 칩을 통해 생성형 AI 애플리케이션 운영에 필요한 최적의 토큰 경제성을 제공하며, Anthropic과 같은 주요 AI 기업들의 워크로드를 지원합니다. ### AI 민주화와 에이전트 기술의 미래 * **Amazon Bedrock:** 다양한 업계 선도 모델을 안전하게 활용할 수 있는 플랫폼을 제공하며, 최근에는 'AgentCore'를 통해 복잡한 워크플로우를 자동화하는 에이전트 구축 기능을 강화했습니다. * **Amazon Nova 및 Titan:** 자체 모델인 Titan 시리즈에 이어 프론티어급 성능의 Nova 모델을 출시했으며, 특히 브라우저 UI 작업을 자동화하는 Nova Act 등 실질적인 업무 자동화 도구를 선보였습니다. * **차세대 AI 코딩:** Amazon Q Developer에서 한 단계 진화한 Kiro(에이전트형 AI 개발 도구)는 독립적인 개발 작업을 수행하는 자율 에이전트 기능을 통해 프로토타입부터 프로덕션까지의 개발 과정을 혁신하고 있습니다. AWS의 지난 20년은 기술이 소수의 전유물이 아닌 모두의 도구가 되는 과정이었습니다. 이제 기업들은 단순한 클라우드 전환을 넘어, SageMaker와 Bedrock 같은 플랫폼을 활용해 비즈니스 핵심에 AI를 내재화하고 에이전트 기술을 도입하여 운영 효율성을 극대화하는 'AI 퍼스트' 전략으로 나아가야 합니다.

Our First 2026 Heroes Cohort Is Here! | Amazon Web Services (새 탭에서 열림)

AWS는 기술적 전문성을 넘어 전 세계 개발자 커뮤니티의 성장을 이끌고 있는 세 명의 전문가를 '2026년 첫 번째 AWS 히어로(AWS Heroes)'로 선정했습니다. 이번에 선정된 히어로는 이탈리아, 싱가포르, 파나마 출신의 리더들로, 클라우드 아키텍처, 생성형 AI, 그리고 보안 분야에서 혁신적인 지식 공유와 인재 양성에 기여한 공로를 인정받았습니다. 이들은 단순한 기술 전파를 넘어 지역사회와 글로벌 생태계를 연결하는 가교 역할을 수행하며 클라우드 문화의 확산을 주도하고 있습니다. **마우리치오(Maurizio): 지역적 한계를 넘는 클라우드 생태계 구축** - 이탈리아 바실리카타 지역의 AWS 사용자 그룹(UG) 리더이자 CTO로서, 기술 불모지에 가까웠던 산악 마을에 국제적인 기술 컨퍼런스를 설립하여 클라우드 문화를 개척했습니다. - 클라우드 아키텍처, DevOps, 웹 스케일링 등 심도 있는 기술 세션과 독창적인 네트워킹 경험을 결합하여 전 유럽의 전문가와 지역 인재를 연결하고 있습니다. - 어린이를 위한 코딩 교육부터 대학생 및 전문가를 위한 클라우드 아키텍처 전환 멘토링까지, 세대를 아우르는 지식 전수 모델을 실천하고 있습니다. **레이 고(Ray Goh): 생성형 AI 교육의 대중화와 대규모 기술 확산** - 2018년부터 AWS 커뮤니티에서 활동해온 AI 전문가로, 2024년 생성형 AI 학습 커뮤니티인 'The Gen-C'를 설립하여 LLM 파인트레이닝(fine-tuning)과 AI 에이전트 기술 보급에 앞장서고 있습니다. - DBS 은행에서 3,100명 이상의 직원을 대상으로 세계 최대 규모의 기업용 AWS DeepRacer 프로그램을 주도했으며, 2025년에는 1,300명 이상의 아세안(ASEAN) 학생들에게 LLM 기술을 교육했습니다. - 기술 공유를 넘어 여성과 청소년을 대상으로 한 AI/ML 사회공헌 활동(CSR)을 전개하며, CNBC와 유로머니(Euromoney) 등 주요 매체에 소개될 만큼 영향력 있는 리더십을 발휘하고 있습니다. **쉐일라 리콕(Sheyla Leacock): 글로벌 보안 생태계 강화와 교육적 헌신** - 파나마 AWS 사용자 그룹을 이끌며 멕시코, 라틴아메리카(LATAM), AWS re:Invent 등 글로벌 무대에서 활동하는 IT 보안 전문가이자 기술 작가입니다. - 클라우드 컴퓨팅과 사이버 보안에 관한 교육 콘텐츠를 정기적으로 발행하고, 전 세계 20개 이상의 국제 컨퍼런스에서 강연하며 보안 생태계의 전문성을 높이고 있습니다. - 여러 대학의 객원 강사로 활동하며 신규 보안 인재 양성을 지원하고, 이론과 실무를 겸비한 교육을 통해 라틴아메리카 지역의 기술 수준을 한 단계 끌어올리고 있습니다. 전 세계 곳곳에서 활동하는 AWS 히어로들의 행보는 클라우드 기술이 지역과 세대의 경계를 어떻게 허물 수 있는지 잘 보여줍니다. 각 분야의 전문성을 쌓고자 하는 개발자라면 AWS 히어로 페이지를 방문하여 거주 지역 근처의 히어로와 연결되거나, 이들이 공유하는 기술 블로그와 컨퍼런스 자료를 통해 최신 클라우드 트렌드와 보안, AI 실무 지식을 학습해 보기를 권장합니다.

넷플릭스의 마운트 메 (새 탭에서 열림)

넷플릭스는 컨테이너 런타임을 현대화하는 과정에서 수백 개의 컨테이너가 동시에 부팅될 때 시스템이 멈추거나 헬스 체크가 실패하는 심각한 병목 현상에 직면했습니다. 조사 결과, 이는 컨테이너 보안을 위해 도입된 사용자 네임스페이스(User Namespace)의 `idmap` 마운트 작업이 리눅스 커널의 VFS(가상 파일 시스템) 전역 잠금 장치에서 경합을 일으키기 때문으로 밝혀졌습니다. 특히 이러한 현상은 구형 다중 소켓(NUMA) 하드웨어 아키텍처에서 더욱 두드러지게 나타났으며, 최신 단일 소켓 인스턴스로 전환함으로써 스케일링 성능을 크게 개선할 수 있었습니다. **컨테이너 보안 강화와 마운트 폭증의 관계** - 넷플릭스는 보안 강화를 위해 각 컨테이너에 고유한 사용자 범위를 할당하는 새로운 런타임(Kubelet + Containerd)으로 전환했습니다. - 파일 소유권을 실제로 변경하는 비용을 줄이기 위해 커널의 `idmap` 마운트 기능을 사용하는데, 이는 각 레이어마다 `open_tree`, `mount_setattr`, `move_mount` 등의 호출을 발생시킵니다. - 50개의 레이어를 가진 컨테이너 100개를 동시에 실행할 경우, 이론적으로 약 20,000번 이상의 마운트 관련 작업이 수행되며 이는 커널의 마운트 테이블 전역 락(Global Lock)에 엄청난 부하를 줍니다. **커널 및 하드웨어 수준의 병목 현상 진단** - 시스템 분석 결과, CPU는 커널의 `path_init()` 함수 내 시퀀스 락(Sequence Lock)을 기다리는 스핀 루프(Spin Loop)에서 대부분의 시간을 소비하며 'Pause' 명령어를 반복 실행했습니다. - TMA(Topdown Microarchitecture Analysis) 분석에 따르면 파이프라인 슬롯의 95.5%가 경합된 액세스로 인해 중단되었으며, 57%는 가짜 공유(False Sharing)로 인해 발생했습니다. - 여러 코어가 동일한 캐시 라인에 접근하려고 시도하면서 캐시 라인 바운싱(Cache Line Bouncing) 현상이 발생하여 시스템 성능이 급격히 저하되었습니다. **인스턴스 아키텍처에 따른 성능 차이** - 테스트 결과, 5세대 인텔 듀얼 소켓 인스턴스인 `r5.metal`은 100개 이상의 컨테이너가 동시에 실행될 때 성능이 급격히 저하되며 실패하는 모습을 보였습니다. - 반면, 단일 소켓 및 단일 NUMA 도메인을 사용하는 7세대 인스턴스(`m7i.metal-24xl`, `m7a.24xlarge`)는 높은 동시성 환경에서도 훨씬 낮은 지연 시간과 높은 성공률을 유지했습니다. - 이는 NUMA 아키텍처의 프로세서 간 상호 연결(Interconnect) 대기 시간이 전역 락 경합 상황에서 병목 현상을 수배로 증폭시키기 때문입니다. 대규모 컨테이너 환경을 운영한다면 컨테이너 이미지의 레이어 수를 최소화하여 마운트 발생 횟수를 줄여야 합니다. 또한, 컨테이너 생성 및 삭제가 빈번한 워크로드의 경우 다중 소켓 기반의 구형 인스턴스보다는 메모리 접근 대기 시간이 짧고 락 경합에 유리한 최신 단일 소켓 혹은 단일 NUMA 노드 아키텍처를 선택하는 것이 성능 안정성에 유리합니다.

대규모 환경에서 동적 (새 탭에서 열림)

에어비앤비(Airbnb)는 대규모 시스템에서 서비스 재시작 없이 런타임 동작을 변경할 수 있는 동적 설정 플랫폼 'Sitar'를 통해 개발의 유연성과 시스템의 안정성을 동시에 확보하고 있습니다. 설정을 코드처럼 관리(Config as Code)하고 단계별 배포 및 로컬 캐싱 전략을 도입함으로써, 설정 오류로 인한 장애 범위를 최소화하고 신속한 사고 대응이 가능한 환경을 구축했습니다. 이를 통해 에어비앤비는 수많은 마이크로서비스 환경에서도 안전하고 신뢰성 있는 설정 변경 프로세스를 운영하고 있습니다. **현대적인 동적 설정 플랫폼의 필수 요건** * **일관된 관리 경험:** 설정의 정의, 리뷰, 테스트, 배포에 이르는 전 과정을 통합된 워크플로우로 제공하여 개발자 경험을 개선합니다. * **설정의 코드화(Config as Code):** 모든 설정 변경은 서비스 코드와 마찬가지로 버전 관리, 코드 리뷰, 감사(Audit)가 가능해야 하며, 강력한 접근 제어가 수반되어야 합니다. * **격리된 환경에서의 테스트:** 운영 환경에 적용하기 전, 로컬이나 카나리(Canary) 환경에서 설정을 안전하게 검증할 수 있는 기능을 제공합니다. * **유연한 멀티테넌트 지원:** 서비스별 위험도에 따라 배포 전략(예: AWS 존 단위, 쿠키 단위, 포드 백분율 등)을 다르게 설정할 수 있어야 합니다. * **신속하고 통제된 사고 대응:** 장애 발생 시 긴급 설정을 즉시 배포할 수 있어야 하며, 변경 사항에 대한 높은 관측성(Observability)을 통해 원인을 빠르게 파악하고 롤백할 수 있어야 합니다. **Sitar 플랫폼의 4계층 아키텍처** * **개발자 지향 계층(Developer-facing layer):** 기본적으로 Git 기반 워크플로우를 사용하며, 긴급 상황이나 특정 운영 요구사항을 위해 웹 UI(Sitar-portal)를 병행 운영합니다. * **제어 평면(Control Plane):** 설정 변경의 오케스트레이션을 담당하며 스키마 검증, 권한 확인, 배포 범위 및 속도 결정 등 핵심 로직을 실행합니다. * **데이터 평면(Data Plane):** 설정 값의 원천(Source of Truth) 역할을 하며, 대규모 환경에서도 신속하고 일관되게 설정을 배포할 수 있는 확장성 있는 저장소 역할을 수행합니다. * **에이전트 및 클라이언트(Agents and Clients):** 서비스와 함께 실행되는 사이드카 에이전트가 설정을 가져와 로컬에 캐싱하며, 클라이언트 라이브러리는 애플리케이션이 이 설정에 빠르게 접근할 수 있도록 돕습니다. **안정성을 위한 핵심 설계 선택** * **Git 기반 워크플로우 활용:** GitHub Enterprise와 기존 CI/CD 도구를 재사용하여 코드 리뷰, 승인 절차, 변경 이력 관리 등 검증된 프로세스를 설정 관리에도 동일하게 적용합니다. * **단계별 배포(Staged Rollouts)와 빠른 롤백:** 변경 사항을 한꺼번에 적용하지 않고 범위를 점진적으로 확대하며, 회귀 장애 감지 시 즉시 알림을 보내고 신속하게 이전 상태로 되돌립니다. * **제어 및 데이터 평면의 분리:** '결정'하는 로직과 '전달'하는 메커니즘을 분리하여, 배포 전략을 수정하더라도 실제 데이터 저장 및 배포 인프라에 영향을 주지 않도록 설계했습니다. * **로컬 캐싱을 통한 회복 탄력성:** 사이드카 에이전트가 설정을 로컬에 저장하므로, 백엔드 시스템에 일시적인 장애가 발생하더라도 서비스는 마지막으로 확인된 정상 설정(Last known good config)으로 중단 없이 동작할 수 있습니다. 대규모 시스템에서 동적 설정을 안전하게 운영하기 위해서는 단순한 키-값 저장소를 넘어, **자동화된 스키마 검증, 단계별 배포, 그리고 인프라 장애 시에도 동작할 수 있는 로컬 캐싱 전략**이 필수적입니다. 설정을 코드와 동일한 수준의 엄격한 프로세스로 관리할 때, 비로소 유연성과 안정성이라는 두 마리 토끼를 잡을 수 있습니다.

사용자 정의 Amazon Nova 모델 (새 탭에서 열림)

Amazon SageMaker Inference에서 사용자 정의 Amazon Nova 모델 지원이 정식 출시되었습니다. 이를 통해 고객은 Nova Micro, Nova Lite, Nova 2 Lite 등 맞춤형으로 학습된 모델을 운영 환경에 최적화된 형태로 배포하고, 인스턴스 유형과 오토스케일링 정책 등을 유연하게 제어할 수 있습니다. 결과적으로 기업은 지연 시간과 비용, 정확도 간의 균형을 맞춘 고성능 추론 환경을 관리형 서비스 기반으로 손쉽게 구축할 수 있게 되었습니다. **맞춤형 Nova 모델 지원과 비용 최적화** * Nova Micro, Nova Lite, Nova 2 Lite 모델의 맞춤형 버전(Full-rank)을 SageMaker Inference 인프라에 원활하게 배포 가능합니다. * 고가의 P5 인스턴스 외에도 Amazon EC2 G5 및 G6 인스턴스를 활용할 수 있어, GPU 활용도를 높이고 추론 비용을 효과적으로 절감합니다. * 5분 단위의 사용 패턴에 기반한 오토스케일링(Auto-scaling) 기능을 통해 프로덕션 워크로드의 변동성에 유연하게 대응합니다. * 계속 사전 학습(Continued pre-training), 지도 미세 조정(SFT), 강화 학습 미세 조정(RLHF)을 거친 다양한 맞춤형 모델 아티팩트를 지원합니다. **유연한 인프라 및 추론 설정 제어** * 모델 체급별로 최적화된 인스턴스 선택권을 제공합니다. * **Nova Micro:** g5/g6(12xl, 24xl, 48xl) 및 p5.48xlarge 지원 * **Nova Lite:** g5.48xlarge, g6.48xlarge, p5.48xlarge 지원 * **Nova 2 Lite:** p5.48xlarge 지원 * 컨텍스트 길이(Context length), 최대 동시성(Max concurrency), 온도(Temperature), Top-P 등 상세 파라미터를 환경 변수로 설정하여 모델 성능을 미세 조정할 수 있습니다. * 특히 `reasoning_effort`(low, high) 옵션을 통해 복잡한 추론 작업에 대한 모델의 사고 과정을 제어할 수 있는 기능을 포함합니다. **통합된 개발 환경 및 배포 워크플로** * SageMaker Studio의 UI를 통해 클릭 몇 번으로 모델 아티팩트 선택부터 엔드포인트 생성까지 전 과정을 시각적으로 관리할 수 있습니다. * SageMaker AI SDK를 사용하여 모델 생성, 엔드포인트 구성, 배포 자동화 코드를 작성할 수 있으며, 컨테이너 이미지 URI와 S3 모델 경로를 직접 지정하는 구조를 가집니다. * 실시간 추론 시 스트리밍(Streaming) 및 비스트리밍 모드를 모두 지원하여 사용자 경험을 개선하며, 대량의 데이터 처리를 위한 비동기 엔드포인트 구성도 가능합니다. * 배포 완료 후에는 SageMaker Playground 탭에서 채팅 모드로 즉시 모델 성능을 테스트하고 프로토타이핑할 수 있습니다. 도메인 특화 데이터로 Nova 모델을 미세 조정하여 실제 서비스에 적용하려는 팀은 SageMaker Inference를 통해 관리 부담을 줄이면서도 최적의 가성비를 확보할 수 있습니다. 특히 비용 효율성이 중요한 경우 G6 인스턴스를 우선적으로 검토하고, 대규모 트래픽 처리가 필요한 경우 5분 단위 오토스케일링 정책을 결합하여 운영 효율을 극대화할 것을 추천합니다.

AWS 주간 요약: Amazon Bedrock의 Claude Opus 4.6, Apple로 AWS Builder ID 로그인, 기타 소식 (2026년 2월 9일) | Amazon Web Services (새 탭에서 열림)

AWS는 인프라 성능의 비약적인 향상과 보안 강화, 그리고 인공지능 모델의 고도화를 포함한 대규모 업데이트를 발표했습니다. 특히 차세대 인텔 프로세서 기반의 EC2 인스턴스와 Anthropic의 최신 모델인 Claude Opus 4.6의 도입은 성능과 지능형 워크로드 처리 능력을 획기적으로 높였습니다. 또한, 다중 계정 지원 및 인증 방식의 유연성을 확대하여 클라우드 관리의 편의성과 보안 장벽을 동시에 개선한 것이 이번 업데이트의 핵심입니다. **컴퓨팅 및 네트워크 인프라 강화** * **차세대 EC2 인스턴스 출시:** 인텔 제온 6 프로세서를 탑재한 C8id, M8id, R8id 인스턴스가 도입되었습니다. 이전 세대 대비 최대 43% 향상된 성능과 3.3배 더 넓은 메모리 대역폭을 제공하여 고성능 컴퓨팅 요구를 충족합니다. * **네트워크 비용 및 기능 개선:** AWS Network Firewall의 시간당 요금과 데이터 처리 비용이 인하되었으며, 특히 암호화된 트래픽을 검사하는 TLS(Transport Layer Security) 검사에 대한 추가 요금이 폐지되었습니다. * **ECS 배포 옵션 확장:** Amazon ECS가 Network Load Balancer(NLB)를 사용하는 서비스에 대해 선형(Linear) 및 카나리(Canary) 배포 방식을 지원합니다. 이를 통해 TCP/UDP 기반의 저지연 서비스도 안전하게 점진적인 트래픽 전환이 가능해졌습니다. **데이터 관리 및 거버넌스 효율화** * **DynamoDB 계정 간 복제:** 글로벌 테이블이 다중 AWS 계정 간 복제를 지원합니다. 이를 통해 계정 단위로 워크로드를 격리하면서도 복원력을 높일 수 있으며, 각 계정별로 별도의 보안 정책을 적용할 수 있습니다. * **RDS 연결 편의성 증대:** RDS 콘솔에서 Java, Python, Node.js 등의 프로그래밍 언어별 연결 코드 스니펫을 제공합니다. 사용 중인 인증 설정(예: IAM 인증)에 맞춰 코드가 자동 조정되며, CloudShell이 통합되어 콘솔 내에서 즉시 데이터베이스 접속이 가능합니다. * **AWS Config 지원 확대:** Amazon EKS, Amazon Q 등 30개의 새로운 리소스 유형이 추가되어, 더욱 광범위한 리소스에 대한 감사 및 규정 준수 여부를 자동으로 관리할 수 있습니다. **보안 및 신원 인증 체계의 고도화** * **인증 수단 다양화:** AWS Builder ID에 'Apple로 로그인' 기능이 추가되어 사용자 접근성이 개선되었습니다. 또한 AWS Management Console 상단 바에 계정 이름이 표시되도록 개선되어 여러 계정을 운영하는 환경에서 식별이 용이해졌습니다. * **세밀한 접근 제어:** AWS STS가 Google, GitHub, CircleCI 등 외부 ID 제공업체의 특정 클레임(Claim) 검증을 지원합니다. 이를 IAM 역할의 신뢰 정책 조건 키로 사용하여 연합 인증 사용자에 대한 정밀한 데이터 경계를 설정할 수 있습니다. * **CloudFront mTLS 지원:** 오리진 서버와의 통신에 상호 TLS(mTLS) 인증을 적용할 수 있습니다. 인증된 CloudFront 배포판만 백엔드에 접속할 수 있도록 강제함으로써 보안 수준을 한 단계 더 높였습니다. **인공지능(AI) 및 Bedrock 업데이트** * **Claude Opus 4.6 도입:** Anthropic의 가장 지능적인 모델인 Claude Opus 4.6이 Amazon Bedrock에서 사용 가능해졌습니다. 코딩, 복잡한 추론, 엔터프라이즈급 에이전트 워크플로우에서 업계 최고 수준의 성능을 발휘합니다. * **구조화된 출력(Structured Outputs):** Bedrock에서 파운데이션 모델의 응답을 정의된 JSON 스키마에 맞춰 고정할 수 있는 기능을 지원합니다. 별도의 후처리 없이도 기계가 읽기 쉬운 일관된 형식의 응답을 얻을 수 있어 서비스 안정성이 강화되었습니다. 이번 업데이트는 특히 AI 기반 애플리케이션을 구축하는 개발자들에게 강력한 도구를 제공합니다. Claude Opus 4.6과 구조화된 출력 기능을 활용하면 더 정교하고 안정적인 에이전트 서비스를 구현할 수 있습니다. 또한, 운영 측면에서는 새로운 RDS 연결 도구와 ECS 배포 옵션을 통해 개발 생산성을 높이고, CloudFront mTLS를 통해 백엔드 보안을 강화할 것을 권장합니다.

경계 보안부터 제로트러스트 보안까지, 고도화 여정 (새 탭에서 열림)

토스페이먼츠는 기존의 단일 방어선 중심의 열악한 보안 환경을 극복하고, 지난 4년간 IDC와 AWS를 아우르는 하이브리드 환경에서 체계적인 다층 방어(Defense in Depth) 체계를 구축했습니다. 암호화 트래픽 가시성 확보부터 컨테이너 런타임 보안까지 단계별 방어 전략을 수립하여, 외부 공격 차단은 물론 내부 침투와 이상 행위까지 실시간으로 탐지하고 대응할 수 있는 고도화된 보안 기틀을 마련했습니다. ### 경계보안 고도화 및 하이브리드 체계 구축 * **암호화 트래픽 가시성 확보**: HTTPS로 암호화된 트래픽 속에 숨겨진 악성 페이로드를 탐지하기 위해 SSL/TLS 복호화 기능을 전면 도입하여 보안 사각지대를 해소했습니다. * **하이브리드 보안 아키텍처**: IDC에는 DDoS 방어, SSL 복호화, IPS/WAF 이중 보안을 배치하고, AWS에는 AWS WAF와 GuardDuty를 활용한 AI 기반 위협 탐지 체계를 구축했습니다. * **가맹점 협력적 대응**: 가맹점을 통한 악성 트래픽 유입 시 단순히 차단하는 데 그치지 않고, 공격 유형과 조치 가이드를 포함한 상세 안내를 통해 가맹점과 함께 보안 수준을 높이는 생태계를 조성했습니다. ### 서버단 내부망 보안 및 측면 이동 방어 * **Wazuh 통합 모니터링(IDC)**: 오픈소스 보안 플랫폼인 Wazuh를 도입하여 서버 간 측면 이동(Lateral Movement) 공격을 감시하고, 여러 OS의 시스템 및 인증 로그를 중앙에서 통합 관리합니다. * **지능형 위협 탐지(AWS)**: GuardDuty의 Malware Protection을 활용해 EC2 인스턴스의 악성코드를 스캔하고, 일반 계정의 루트 권한 획득(Privilege Escalation)과 같은 이상 징후를 실시간으로 포착합니다. * **실시간 알림 및 화이트리스트**: 서버 내 이상 행위에 대한 실시간 알림 체계를 구축하고, 화이트리스트 기반의 예외 관리를 통해 탐지 효율성을 극대화했습니다. ### 컨테이너 런타임 보안과 최후의 방어선 * **Falco 기반 실시간 감시**: 빠르게 변하는 컨테이너 환경을 보호하기 위해 CNCF 오픈소스 도구인 Falco를 도입, 시스템 호출(Syscall)을 실시간으로 분석하여 비정상적인 행동을 탐지합니다. * **런타임 위협 식별**: 컨테이너 내부에서의 민감 파일(`/etc/shadow` 등) 접근, 신규 바이너리 실행, 컨테이너 탈출 시도 등을 즉각적으로 식별합니다. * **이벤트 전달 체계**: Falco Sidekick을 통합하여 탐지된 보안 이벤트를 실시간으로 관련 시스템에 전달함으로써, 경계 및 서버 보안을 우회한 공격에 대해서도 즉각적인 대응이 가능하도록 설계했습니다. 단순히 외부 침입을 막는 것을 넘어, 내부망의 모든 움직임을 검증하고 가맹점과 보안 가치를 공유하는 다각적인 접근이 현대적인 금융 보안의 핵심입니다. 기술적 솔루션 도입과 더불어 보안 사고 발생 시 파트너사가 자생력을 가질 수 있도록 돕는 협력 모델을 구축하는 것이 지속 가능한 보안 환경을 만드는 실무적인 정답이 될 것입니다.

AWS 주간 요약: Amazon EC2 G7e 인스턴스, Amazon Corretto 업데이트 등 (2026년 1월 26일) | 아마존 웹 서비스 (새 탭에서 열림)

2026년 첫 AWS 주간 소식은 NVIDIA의 최신 Blackwell 아키텍처를 채택한 EC2 G7e 인스턴스의 정식 출시와 함께 시작되었습니다. 이번 업데이트는 생성형 AI 추론 성능의 비약적인 향상뿐만 아니라 개발자 도구의 보안 강화, 컨테이너 저장소의 효율성 개선 등 클라우드 운영 전반을 아우르는 주요 개선 사항들을 담고 있습니다. 이를 통해 사용자는 더 복잡한 인공지능 모델과 워크로드를 고성능 환경에서 더욱 경제적으로 실행할 수 있게 되었습니다. **NVIDIA Blackwell 기반 EC2 G7e 인스턴스 출시** * NVIDIA RTX PRO 6000 Blackwell Server Edition GPU를 탑재하여 이전 세대(G6e) 대비 추론 성능이 최대 2.3배 향상되었습니다. * 기존 대비 2배 늘어난 GPU 메모리를 제공하며, 최대 8개의 GPU 구성을 통해 총 768GB의 대용량 GPU 메모리를 활용할 수 있습니다. * FP8 정밀도를 지원하여 단일 GPU에서도 최대 700억(70B) 개의 매개변수를 가진 중형 모델을 실행할 수 있어 생성형 AI, 공간 컴퓨팅, 과학 계산 워크로드에 최적화되었습니다. **개발 도구 업데이트 및 컨테이너 스토리지 최적화** * **Amazon Corretto 분기별 업데이트**: OpenJDK LTS 버전(25, 21, 17, 11, 8)에 대한 2026년 1월 보안 및 성능 패치가 배포되어 Java 애플리케이션의 안정성을 높였습니다. * **Amazon ECR 레이어 공유 지원**: Blob 마운팅 방식을 통해 리포지토리 간 공통 이미지 레이어를 공유할 수 있게 되었습니다. 이를 통해 이미지를 업로드(Push)하는 속도를 높이고, 중복 저장을 방지하여 스토리지 비용을 절감할 수 있습니다. **운영 인사이트 및 고객 서비스 기능 강화** * **CloudWatch Database Insights 지역 확장**: 뉴질랜드, 타이베이, 태국, 멕시코 리전으로 서비스가 확대되었습니다. 머신러닝을 기반으로 데이터베이스 성능 병목 현상을 식별하고 구체적인 해결 방안을 제공합니다. * **Amazon Connect 단계별 가이드 개선**: 상담원용 가이드에 조건부 로직을 도입하여 사용자 입력에 따라 UI가 동적으로 변하도록 설정할 수 있습니다. 또한 실시간 데이터 새로고침 기능을 통해 상담원이 항상 최신 정보를 바탕으로 고객을 지원할 수 있습니다. **AWS 기술 교육 및 커뮤니티 이벤트** * **Best of AWS re:Invent (1월 28-29일)**: 작년 re:Invent의 핵심 발표와 기술 세션을 요약하여 전달하는 무료 가상 이벤트가 개최됩니다. * **AWS Community Day Ahmedabad (2월 28일)**: 인도에서 열리는 커뮤니티 중심의 컨퍼런스로, 전문가 세션과 실시간 데모를 통해 실무 지식을 공유하는 자리가 마련됩니다. 이번 업데이트 중 특히 G7e 인스턴스의 출시는 대규모 언어 모델(LLM)을 실무에 도입하려는 기업들에게 중요한 전환점이 될 것입니다. FP8 정밀도를 활용해 단일 GPU에서 70B 규모의 모델을 구동할 수 있게 된 만큼, 생성형 AI 서비스의 아키텍처 설계 시 비용과 성능의 균형을 재검토해 보시길 추천합니다.

AWS 주간 요약: Kiro CLI 최신 기능, AWS 유럽 주권 클라우드, EC2 X8i 인스턴스 등 (2026년 1월 19일) (새 탭에서 열림)

이 글은 2026년 1월 셋째 주 AWS의 주요 기술 업데이트와 커뮤니티 소식을 다루며, 특히 Kiro CLI의 기능 강화와 유럽 주권 클라우드의 정식 출시를 핵심 성과로 제시합니다. 또한 고성능 메모리 최적화 인스턴스인 EC2 X8i의 상용화와 Amazon Quick Suite를 통한 AI 에이전트 활용 사례를 통해 더욱 고도화된 클라우드 생태계를 구축했음을 보여줍니다. 이번 소식은 엔터프라이즈급 성능 요구 사항과 지역별 규제 준수, 그리고 AI 기반 생산성 향상이라는 세 가지 측면에서 AWS의 진보를 요약하고 있습니다. **Kiro CLI의 제어 및 사용자 경험 강화** * 웹 호출(web fetch) URL에 대한 세밀한 제어 기능을 도입하여, 허용 목록(allowlist)과 차단 목록(blocklist)을 통해 에이전트가 접근할 수 있는 URL 범위를 엄격하게 제한할 수 있습니다. * 커스텀 에이전트를 위한 전용 키보드 단축키와 개선된 Diff 뷰를 제공하여, 단일 세션에서 여러 전문화된 에이전트와 협업할 때 발생하는 마찰을 최소화했습니다. **AWS 유럽 주권 클라우드 정식 출시** * 2023년부터 추진해 온 독립적인 클라우드 인프라인 'AWS European Sovereign Cloud'가 모든 고객을 대상으로 정식 서비스(GA)를 시작했습니다. * 유럽 내 가장 엄격한 데이터 주권 및 규제 요건을 충족할 수 있도록 설계되었으며, 포괄적인 AWS 서비스 세트를 제공하여 유럽 고객들의 컴플라이언스 대응을 지원합니다. **메모리 최적화 EC2 X8i 인스턴스 상용화** * AWS 전용 커스텀 Intel Xeon 6 프로세서를 탑재한 EC2 X8i 인스턴스가 정식 출시되었으며, 모든 코어에서 최대 3.9GHz의 터보 주파수를 유지합니다. * SAP 인증을 획득한 이 인스턴스는 클라우드 내 인텔 기반 프로세서 중 최고 수준의 성능과 메모리 대역폭을 제공하여 메모리 집약적인 워크로드에 최적화되어 있습니다. **생산성 향상을 위한 AI 에이전트 및 도구** * AI 에이전트 동료인 'Amazon Quick Suite'를 통해 비즈니스 질문에 답을 구하고 인사이트를 행동으로 전환하는 생산성 활용 사례가 공유되었습니다. * GitHub Actions를 사용하여 Amazon Bedrock AgentCore에 AI 에이전트를 자동 배포하는 방법이 소개되어, 개발자들이 더욱 효율적으로 AI 기능을 운영 환경에 적용할 수 있게 되었습니다. 이번 업데이트는 강력한 보안과 규제 준수가 필요한 유럽 시장부터, 고성능 컴퓨팅이 요구되는 엔터프라이즈 환경, 그리고 실무 효율을 높이는 AI 에이전트 기술까지 폭넓은 영역을 아우르고 있습니다. 기술 조직은 특히 강화된 Kiro CLI와 Bedrock AgentCore 배포 자동화 가이드를 참고하여 사내 AI 에이전트 운영 환경을 최적화하고 개발 생산성을 한 단계 더 끌어올릴 수 있을 것입니다.

수천 개의 API/BATCH 서버를 하나의 설정 체계로 관리하기 (새 탭에서 열림)

토스페이먼츠는 수천 개의 API 서버와 배치 설정을 관리하기 위해 설정을 단순한 텍스트가 아닌 '진화하는 코드'로 정의하여 운영합니다. 복사-붙여넣기식의 중복 설정을 제거하기 위해 오버레이 아키텍처와 템플릿 패턴을 도입했으며, 이를 통해 오타나 설정 오류로 인한 대규모 정산 장애 리스크를 원천 차단합니다. 결과적으로 인프라 설정을 테스트 가능한 영역으로 끌어올려 대규모 하이브리드 클라우드 환경에서도 높은 안정성과 유연성을 확보했습니다. ### 실시간 API 서버: 오버레이와 템플릿의 결합 * **오버레이 아키텍처:** 설정을 `global`, `cluster`, `phase`, `application` 순서의 계층형 구조로 설계하여 하위 계층이 상위 계층의 기본값을 덮어쓰도록 구성했습니다. 이를 통해 공통 설정은 한 번만 정의하고 각 환경에 필요한 차이점만 관리할 수 있습니다. * **템플릿 패턴 도입:** YAML의 단순 오버레이만으로는 해결하기 어려운 긴 문자열(예: JVM 옵션) 내의 특정 값만 수정하기 위해 `{{MAX_HEAP}}`과 같은 변수 치환 방식을 사용합니다. * **동적 설정 주입:** 설정 파일 내부에 파이썬 스크립트를 삽입하여 랜덤 포트 생성이나 외부 API 호출을 통한 동적 값 할당이 가능하며, 클러스터 이름에 따른 조건부 로직을 적용해 복잡한 환경 변수 요구사항을 해결합니다. ### 배치 서버: DSL과 GitOps를 통한 단순화 * **Jenkins 기반의 단순화:** 대규모 정산 데이터를 다루는 배치 환경일수록 단순함이 강력하다는 원칙 아래, Jenkins를 활용하면서도 수동 조작의 단점을 보완하는 방향을 택했습니다. * **Groovy DSL 활용:** Jenkins의 웹 UI를 통한 수동 설정을 배제하고, Groovy 기반의 자체 DSL(Domain Specific Language)을 구축하여 수천 개의 배치 Job을 코드 형태로 관리합니다. * **GitOps 체계:** 모든 배치 설정을 코드 저장소에서 관리하고 CI/CD 파이프라인과 통합함으로써, 개발자가 직접 Jenkins에 접속하지 않고도 표준화된 환경에서 배치 작업을 배포할 수 있도록 개선했습니다. ### 인프라의 코드화와 검증 자동화 * **테스트 가능한 설정:** 설정값에 대한 오타나 논리적 오류를 방지하기 위해 설정 코드에 대한 유닛 테스트를 수행합니다. 이를 통해 수천 개의 설정 중 단 하나의 오타가 치명적인 금융 장애로 이어지는 것을 사전에 방지합니다. * **유연한 확장성:** 고정된 설정 체계에 안주하지 않고, 인프라의 변화와 개발자의 요구사항에 맞춰 설정 인프라 자체가 계속해서 진화할 수 있는 구조를 지향합니다. 단순히 설정 파일을 잘 작성하는 것에 그치지 않고, 인프라 설정을 애플리케이션 코드와 동일한 수준의 설계와 테스트를 거쳐 관리하는 것이 대규모 시스템의 안정성을 보장하는 핵심입니다. 초기에 다소 복잡해 보일 수 있는 오버레이나 DSL 도입은 장기적으로 중복을 제거하고 휴먼 에러를 막는 가장 확실한 투자입니다.