AWS / amazon-ec2

12 개의 포스트

aws

AWS Weekly Roundup: Amazon Connect Health, Bedrock AgentCore Policy, GameDay Europe, and more (March 9, 2026) | Amazon Web Services (새 탭에서 열림)

이번 주 AWS는 헬스케어 전용 AI 에이전트인 Amazon Connect Health의 정식 출시와 함께 Amazon Bedrock을 활용한 보안 및 개발 편의성 강화에 중점을 두었습니다. 인프라 측면에서는 VPC 암호화 제어의 유료화 전환과 데이터베이스 예약 플랜의 지원 범위 확대 등 운영 효율과 비용 최적화를 위한 실질적인 업데이트가 이루어졌습니다. 전 세계적으로 개최된 JAWS Days 2026과 케냐의 커뮤니티 이벤트를 통해 AI 기반 개발 팀 구축과 클라우드 네이티브 엔지니어링에 대한 뜨거운 관심을 확인할 수 있었습니다. **AI 에이전트 및 헬스케어 특화 서비스** - **Amazon Connect Health 정식 출시**: 환자 인증, 예약 관리, 환자 통찰력 제공, 진료 문서화 및 의료 코딩을 지원하는 5가지 전용 AI 에이전트를 선보였습니다. HIPAA를 준수하며 기존 임상 워크플로에 수일 내로 배포가 가능합니다. - **Amazon Bedrock AgentCore 정책 지원**: 에이전트 코드 외부에서 도구 간 상호작용을 중앙 집중식으로 제어할 수 있습니다. 자연어로 정의된 보안 규칙은 AWS의 오픈소스 정책 언어인 Cedar로 자동 변환되어 적용됩니다. - **Lightsail 기반 OpenClaw 도입**: 사용자의 클라우드 인프라에 프라이빗 자율 AI 에이전트를 원클릭 HTTPS 및 기기 페어링 인증을 통해 안전하게 배포하고 Slack이나 Discord 등에 연결할 수 있습니다. **인프라 보안 및 비용 관리 업데이트** - **VPC 암호화 제어 유료화**: 2026년 3월 1일부터 프리뷰 기간이 종료되어 유료로 전환됩니다. 리전 내외의 모든 트래픽 암호화를 모니터링하거나 강제할 수 있는 기능을 제공합니다. - **데이터베이스 Savings Plans 확대**: Amazon OpenSearch 서비스 및 Neptune Analytics가 지원 대상에 추가되어, 1년 약정 시 최대 35%의 비용을 절감할 수 있게 되었습니다. - **콘솔 내 IAM 역할 생성 간소화**: EC2, Lambda, EKS, Glue 등 주요 서비스의 워크플로 내에서 IAM 콘솔로 이동하지 않고도 즉시 역할을 생성하고 구성할 수 있는 패널이 추가되었습니다. **개발자 경험 및 운영 자동화** - **Elastic Beanstalk AI 분석 기능**: 환경 상태가 악화될 경우 Amazon Bedrock이 로그와 인스턴스 상태를 분석하여 단계별 트러블슈팅 권장 사항을 제공합니다. - **GameLift 서버 DDoS 보호**: 추가 비용 없이 릴레이 네트워크를 통해 클라이언트 트래픽을 인증하고 플레이어당 트래픽 제한을 설정하여 멀티플레이어 게임을 공격으로부터 보호합니다. - **Lambda 지속성 함수 개발 지원**: AI 에이전트 기반 개발 도구인 'Kiro'를 통해 재실행 모델, 에러 처리, 동시 실행 패턴 등 복잡한 워크플로 개발에 필요한 가이드를 동적으로 제공받을 수 있습니다. 이번 업데이트를 통해 AWS는 AI를 단순한 모델 제공을 넘어 의료 현장의 실무나 인프라 장애 조치와 같은 구체적인 운영 영역에 깊숙이 통합하고 있음을 보여줍니다. 특히 보안 정책을 자연어로 관리하거나 인프라 진단에 AI를 활용하는 기능들은 운영 부담을 크게 줄여줄 것으로 기대되므로, 현재 운영 중인 서비스의 효율성을 높이기 위해 이러한 도구들을 적극적으로 검토해 보시길 권장합니다.

aws

AWS Weekly Roundup: Claude Sonnet 4.6 in Amazon Bedrock, Kiro in GovCloud Regions, new Agent Plugins, and more (February 23, 2026) | Amazon Web Services (새 탭에서 열림)

AWS는 Amazon Bedrock에 Claude Sonnet 4.6 모델을 도입하고 Kiro의 가용성을 GovCloud로 확장하며 AI 에이전트 개발 및 배포 지원을 대폭 강화했습니다. 이번 발표는 고성능 컴퓨팅(HPC) 인스턴스 출시와 데이터베이스 보안 자동화를 포함하여, 개발자가 AI 기술을 실제 운영 환경에 더 쉽고 안전하게 적용할 수 있도록 돕는 데 중점을 두고 있습니다. 특히 인간과 AI가 공동 개발자로 협력하는 '재탄생하는 소프트웨어(Renascent Software)' 개념을 실현하기 위한 구체적인 도구와 에코시스템을 제시하고 있습니다. **Claude Sonnet 4.6 및 AI 모델 고도화** * **Claude Sonnet 4.6 출시:** Amazon Bedrock에서 사용 가능한 이 모델은 코딩, 에이전트 수행, 전문 업무 전반에서 최상위 성능을 제공하며, Opus 4.6 수준의 지능을 더 낮은 비용과 빠른 속도로 구현합니다. * **SageMaker 기반 Nova 모델 최적화:** Amazon SageMaker Inference를 통해 커스텀 Nova 모델의 인스턴스 유형, 오토스케일링 정책, 동시성 설정을 사용자의 요구에 맞춰 구성할 수 있습니다. * **자동화된 추론과 신뢰:** AI가 생성한 코드나 결정의 정확성을 검증하기 위해 AWS가 지난 10년간 다듬어온 '자동화된 추론(Automated Reasoning)' 기술을 에이전틱 시스템에 적용하고 있습니다. **컴퓨팅 인프라 및 가상화 혁신** * **EC2 Hpc8a 인스턴스:** 5세대 AMD EPYC 프로세서를 탑재하여 기존 대비 최대 40% 향상된 성능과 300 Gbps의 Elastic Fabric Adapter(EFA) 네트워킹을 제공하며, 복잡한 HPC 시뮬레이션에 최적화되었습니다. * **중첩 가상화(Nested Virtualization):** 가상 EC2 인스턴스 위에서 KVM이나 Hyper-V를 실행할 수 있게 되어, 모바일 앱 에뮬레이터나 차량용 하드웨어 시뮬레이션, Windows용 Linux 하위 시스템(WSL) 실행이 가능해졌습니다. **보안 및 규제 환경 대응** * **Aurora 기본 암호화:** 모든 신규 Amazon Aurora 데이터베이스 클러스터에 AWS 소유 키를 사용한 서버 측 암호화(SSE)가 기본 적용됩니다. 이는 별도의 비용이나 성능 저하 없이 투명하게 관리됩니다. * **Kiro의 GovCloud 확장:** 엄격한 보안 통제가 필요한 정부 기관 및 규제 환경의 개발 팀도 Kiro의 에이전틱 AI 도구를 활용하여 미션을 수행할 수 있습니다. **에이전트 개발 생태계 및 도구** * **오픈 소스 에이전트 플러그인:** 'deploy-on-aws'와 같은 플러그인을 통해 코딩 에이전트가 직접 아키텍처 추천, 비용 추정, 인프라 코드(IaC) 생성을 수행할 수 있도록 지원합니다. * **AWS DevOps Agent의 성과:** 운영 효율성을 높이기 위해 도입된 DevOps 에이전트는 Amazon 내부에서 수천 건의 에스컬레이션을 처리하며 86% 이상의 근본 원인 파악률을 기록했습니다. * **커뮤니티 및 이벤트:** 25개의 MCP 도구를 통합한 Kiro Power 사례와 함께, 총 4만 달러의 상금이 걸린 'Amazon Nova AI 해커톤'을 통해 에이전틱 AI 및 멀티모달 솔루션 개발을 장려하고 있습니다. 개발자들은 Claude Sonnet 4.6과 새로운 에이전트 플러그인을 활용해 단순 코딩을 넘어 인프라 배포까지 자동화하는 고성능 AI 에이전트를 구축할 수 있습니다. 특히 운영 효율을 극대화하려는 기업은 AWS DevOps Agent의 모범 사례를 참고하고, 다가오는 AWS Summit이나 해커톤을 통해 최신 에이전틱 AI 기술 역량을 확보하는 것을 추천합니다.

aws

Amazon EC2 Hpc8a Instances powered by 5th Gen AMD EPYC processors are now available | Amazon Web Services (새 탭에서 열림)

최신 5세대 AMD EPYC 프로세서를 탑재한 Amazon EC2 Hpc8a 인스턴스가 정식 출시되었습니다. 이 인스턴스는 이전 세대인 Hpc7a 대비 최대 40% 향상된 성능과 42% 높은 메모리 대역폭을 제공하여 계산 집약적인 고성능 컴퓨팅(HPC) 워크로드에 최적화되었습니다. 특히 기상 모델링, 유체 역학 시나리오, 복잡한 충돌 시뮬레이션 등 고도의 연산 능력이 필요한 결합형(Tightly Coupled) HPC 작업에서 탁월한 가성비를 보여줍니다. **Hpc8a 인스턴스의 주요 하드웨어 사양 및 성능** - 최대 4.5GHz의 클럭 속도를 제공하는 5세대 AMD EPYC 프로세서를 기반으로 구동됩니다. - 이전 세대(Hpc7a)와 비교했을 때 성능은 40%, 메모리 대역폭은 42% 향상되었으며, 가격 대비 성능(Price-performance)은 약 25% 개선되었습니다. - 단일 인스턴스 크기인 '96xlarge'로 제공되며, 192개의 코어와 768GiB의 메모리(코어 대 메모리 비율 1:4)를 탑재하고 있습니다. - 대규모 노드 간 통신을 위해 300Gbps 대역폭의 EFA(Elastic Fabric Adapter) 네트워킹을 지원하여 지연 시간을 최소화합니다. **HPC 최적화를 위한 아키텍처 및 유연성** - 가상화, 스토리지, 네트워킹 기능을 전용 하드웨어로 오프로드하는 6세대 AWS Nitro 카드를 사용하여 시스템 성능과 보안성을 극대화했습니다. - HPC 워크로드의 일관된 성능을 보장하기 위해 동시 멀티스레딩(SMT) 기능이 기본적으로 비활성화되어 있습니다. - 인스턴스 시작 시 사용자가 필요한 코어 수를 직접 맞춤 설정할 수 있어, 특정 워크로드 요구 사항에 맞춰 리소스를 효율적으로 조정할 수 있습니다. **통합 에코시스템 및 서비스 활용** - AWS ParallelCluster 및 AWS Parallel Computing Service(AWS PCS)와 연동하여 클러스터 생성 및 워크로드 제출 과정을 간소화할 수 있습니다. - Amazon FSx for Lustre 스토리지와 결합 시 밀리초 미만의 지연 시간과 초당 수백 기가바이트의 처리량을 확보하여 데이터 병목 현상을 해결합니다. - 현재 미국 동부(오하이오) 및 유럽(스톡홀름) 리전에서 사용 가능하며, 온디맨드 또는 세이빙 플랜(Savings Plan)을 통해 구매할 수 있습니다. 복잡한 시뮬레이션의 실행 시간을 단축하고 운영 비용을 절감하고자 하는 HPC 사용자들에게 Hpc8a 인스턴스는 강력한 선택지가 될 것입니다. 특히 대규모 노드 확장이 필요한 유체 역학이나 고해상도 기상 예측 모델을 운영 중이라면 300Gbps EFA와 개선된 메모리 대역폭을 적극 활용해 보시기 바랍니다.

aws

Announcing Amazon SageMaker Inference for custom Amazon Nova models | Amazon Web Services (새 탭에서 열림)

Amazon SageMaker Inference에서 사용자 정의 Amazon Nova 모델 지원이 정식 출시되었습니다. 이를 통해 고객은 Nova Micro, Nova Lite, Nova 2 Lite 등 맞춤형으로 학습된 모델을 운영 환경에 최적화된 형태로 배포하고, 인스턴스 유형과 오토스케일링 정책 등을 유연하게 제어할 수 있습니다. 결과적으로 기업은 지연 시간과 비용, 정확도 간의 균형을 맞춘 고성능 추론 환경을 관리형 서비스 기반으로 손쉽게 구축할 수 있게 되었습니다. **맞춤형 Nova 모델 지원과 비용 최적화** * Nova Micro, Nova Lite, Nova 2 Lite 모델의 맞춤형 버전(Full-rank)을 SageMaker Inference 인프라에 원활하게 배포 가능합니다. * 고가의 P5 인스턴스 외에도 Amazon EC2 G5 및 G6 인스턴스를 활용할 수 있어, GPU 활용도를 높이고 추론 비용을 효과적으로 절감합니다. * 5분 단위의 사용 패턴에 기반한 오토스케일링(Auto-scaling) 기능을 통해 프로덕션 워크로드의 변동성에 유연하게 대응합니다. * 계속 사전 학습(Continued pre-training), 지도 미세 조정(SFT), 강화 학습 미세 조정(RLHF)을 거친 다양한 맞춤형 모델 아티팩트를 지원합니다. **유연한 인프라 및 추론 설정 제어** * 모델 체급별로 최적화된 인스턴스 선택권을 제공합니다. * **Nova Micro:** g5/g6(12xl, 24xl, 48xl) 및 p5.48xlarge 지원 * **Nova Lite:** g5.48xlarge, g6.48xlarge, p5.48xlarge 지원 * **Nova 2 Lite:** p5.48xlarge 지원 * 컨텍스트 길이(Context length), 최대 동시성(Max concurrency), 온도(Temperature), Top-P 등 상세 파라미터를 환경 변수로 설정하여 모델 성능을 미세 조정할 수 있습니다. * 특히 `reasoning_effort`(low, high) 옵션을 통해 복잡한 추론 작업에 대한 모델의 사고 과정을 제어할 수 있는 기능을 포함합니다. **통합된 개발 환경 및 배포 워크플로** * SageMaker Studio의 UI를 통해 클릭 몇 번으로 모델 아티팩트 선택부터 엔드포인트 생성까지 전 과정을 시각적으로 관리할 수 있습니다. * SageMaker AI SDK를 사용하여 모델 생성, 엔드포인트 구성, 배포 자동화 코드를 작성할 수 있으며, 컨테이너 이미지 URI와 S3 모델 경로를 직접 지정하는 구조를 가집니다. * 실시간 추론 시 스트리밍(Streaming) 및 비스트리밍 모드를 모두 지원하여 사용자 경험을 개선하며, 대량의 데이터 처리를 위한 비동기 엔드포인트 구성도 가능합니다. * 배포 완료 후에는 SageMaker Playground 탭에서 채팅 모드로 즉시 모델 성능을 테스트하고 프로토타이핑할 수 있습니다. 도메인 특화 데이터로 Nova 모델을 미세 조정하여 실제 서비스에 적용하려는 팀은 SageMaker Inference를 통해 관리 부담을 줄이면서도 최적의 가성비를 확보할 수 있습니다. 특히 비용 효율성이 중요한 경우 G6 인스턴스를 우선적으로 검토하고, 대규모 트래픽 처리가 필요한 경우 5분 단위 오토스케일링 정책을 결합하여 운영 효율을 극대화할 것을 추천합니다.

aws

AWS Weekly Roundup: Amazon EC2 M8azn instances, new open weights models in Amazon Bedrock, and more (February 16, 2026) | Amazon Web Services (새 탭에서 열림)

AWS는 최근 고성능 컴퓨팅을 위한 Amazon EC2 M8azn 인스턴스 출시와 더불어 Amazon Bedrock에 6개의 새로운 오픈 가중치(Open weights) 모델을 추가하며 인프라와 AI 역량을 동시에 강화했습니다. 이번 업데이트는 클라우드 업계 최고 수준인 5GHz의 CPU 주파수를 제공하여 고성능 요구 워크로드를 지원하는 한편, 개발자들이 다양한 오픈 소스 모델을 OpenAI API 규격과 호환되는 환경에서 더욱 유연하게 사용할 수 있도록 돕는 데 초점을 맞추고 있습니다. 이를 통해 기업들은 실시간 금융 분석부터 복잡한 추론 및 코딩 에이전트 구축까지 더욱 폭넓은 기술 선택지를 갖게 되었습니다. ### Amazon EC2 M8azn 인스턴스 정식 출시 * **압도적인 클라우드 성능:** 5세대 AMD EPYC 프로세서를 탑재하여 클라우드 사상 최고 수치인 최대 5GHz의 CPU 주파수를 제공합니다. * **이전 세대(M5zn) 대비 대폭 개선:** 컴퓨팅 성능은 최대 2배, 메모리 대역폭은 4.3배 향상되었으며, L3 캐시는 10배 더 커져 데이터 처리 효율이 극대화되었습니다. * **네트워크 및 스토리지 강화:** Nitro 시스템 6세대 카드를 기반으로 네트워크 처리량은 2배, Amazon EBS 처리량은 3배까지 향상되었습니다. * **주요 활용 분야:** 높은 주파수와 저지연 성능이 필수적인 실시간 금융 분석, 고성능 컴퓨팅(HPC), 고주파 매매(HFT), 게임 서버 및 시뮬레이션 모델링에 최적화되어 있습니다. ### Amazon Bedrock의 AI 모델 라인업 및 보안 기능 확장 * **6종의 신규 오픈 가중치 모델 추가:** DeepSeek V3.2, MiniMax M2.1, GLM 4.7/Flash, Kimi K2.5, Qwen3 Coder Next를 이제 Bedrock에서 사용할 수 있습니다. * **용도별 최적화:** 복잡한 추론과 에이전트 지능에 특화된 모델부터 긴 출력 윈도우를 지원하는 자율 코딩 모델, 그리고 운영 비용 효율성을 높인 모델까지 다양한 선택지를 제공합니다. * **Project Mantle 기반 연동:** 새로운 분산 추론 엔진인 Project Mantle을 통해 OpenAI API 규격과 즉시 호환되며, 서버레스 추론 환경에서 높은 수준의 쿼터 관리와 서비스 품질 제어를 지원합니다. * **AWS PrivateLink 지원 확대:** `bedrock-runtime`뿐만 아니라 `bedrock-mantle` 엔드포인트에 대해서도 PrivateLink를 지원하여, 데이터가 공용 인터넷을 거치지 않고 보안이 강화된 전용 네트워크를 통해 통신할 수 있습니다. ### 운영 편의성 및 비용 최적화를 위한 서비스 업데이트 * **Amazon EKS Auto Mode 로깅 강화:** CloudWatch Vended Logs를 통해 컴퓨팅 자동 확장, 스토리지, 네트워킹 등 관리형 쿠버네티스 기능의 로그를 더 저렴한 가격으로 수집하고 관리할 수 있습니다. * **OpenSearch Serverless 컬렉션 그룹:** 여러 컬렉션 간에 OpenSearch 컴퓨팅 유닛(OCU)을 공유할 수 있게 되어 전체적인 비용을 절감할 수 있으며, 지연 시간에 민감한 앱을 위해 최소 OCU 할당량을 지정할 수 있는 기능이 추가되었습니다. * **Amazon RDS 스냅샷 복원 개선:** 스냅샷을 복원하는 시점에 백업 유지 기간과 백업 창 설정을 즉시 수정할 수 있게 되었습니다. 기존에는 복원 완료 후 설정을 변경해야 했던 번거로움이 사라져 워크플로우가 간소화되었습니다. 고성능 단일 코어 성능이 필요한 조직은 M8azn 인스턴스 도입을 검토하여 실시간 처리 역량을 강화할 수 있습니다. 또한, AI 모델 선택의 폭이 넓어진 만큼 특정 작업(코딩, 추론 등)에 최적화된 오픈 가중치 모델을 Amazon Bedrock에서 테스트하여 성능과 비용의 균형을 맞춘 효율적인 AI 애플리케이션 개발 전략을 세우는 것을 추천합니다.

aws

AWS Weekly Roundup: Claude Opus 4.6 in Amazon Bedrock, AWS Builder ID Sign in with Apple, and more (February 9, 2026) | Amazon Web Services (새 탭에서 열림)

AWS는 인프라 성능의 비약적인 향상과 보안 강화, 그리고 인공지능 모델의 고도화를 포함한 대규모 업데이트를 발표했습니다. 특히 차세대 인텔 프로세서 기반의 EC2 인스턴스와 Anthropic의 최신 모델인 Claude Opus 4.6의 도입은 성능과 지능형 워크로드 처리 능력을 획기적으로 높였습니다. 또한, 다중 계정 지원 및 인증 방식의 유연성을 확대하여 클라우드 관리의 편의성과 보안 장벽을 동시에 개선한 것이 이번 업데이트의 핵심입니다. **컴퓨팅 및 네트워크 인프라 강화** * **차세대 EC2 인스턴스 출시:** 인텔 제온 6 프로세서를 탑재한 C8id, M8id, R8id 인스턴스가 도입되었습니다. 이전 세대 대비 최대 43% 향상된 성능과 3.3배 더 넓은 메모리 대역폭을 제공하여 고성능 컴퓨팅 요구를 충족합니다. * **네트워크 비용 및 기능 개선:** AWS Network Firewall의 시간당 요금과 데이터 처리 비용이 인하되었으며, 특히 암호화된 트래픽을 검사하는 TLS(Transport Layer Security) 검사에 대한 추가 요금이 폐지되었습니다. * **ECS 배포 옵션 확장:** Amazon ECS가 Network Load Balancer(NLB)를 사용하는 서비스에 대해 선형(Linear) 및 카나리(Canary) 배포 방식을 지원합니다. 이를 통해 TCP/UDP 기반의 저지연 서비스도 안전하게 점진적인 트래픽 전환이 가능해졌습니다. **데이터 관리 및 거버넌스 효율화** * **DynamoDB 계정 간 복제:** 글로벌 테이블이 다중 AWS 계정 간 복제를 지원합니다. 이를 통해 계정 단위로 워크로드를 격리하면서도 복원력을 높일 수 있으며, 각 계정별로 별도의 보안 정책을 적용할 수 있습니다. * **RDS 연결 편의성 증대:** RDS 콘솔에서 Java, Python, Node.js 등의 프로그래밍 언어별 연결 코드 스니펫을 제공합니다. 사용 중인 인증 설정(예: IAM 인증)에 맞춰 코드가 자동 조정되며, CloudShell이 통합되어 콘솔 내에서 즉시 데이터베이스 접속이 가능합니다. * **AWS Config 지원 확대:** Amazon EKS, Amazon Q 등 30개의 새로운 리소스 유형이 추가되어, 더욱 광범위한 리소스에 대한 감사 및 규정 준수 여부를 자동으로 관리할 수 있습니다. **보안 및 신원 인증 체계의 고도화** * **인증 수단 다양화:** AWS Builder ID에 'Apple로 로그인' 기능이 추가되어 사용자 접근성이 개선되었습니다. 또한 AWS Management Console 상단 바에 계정 이름이 표시되도록 개선되어 여러 계정을 운영하는 환경에서 식별이 용이해졌습니다. * **세밀한 접근 제어:** AWS STS가 Google, GitHub, CircleCI 등 외부 ID 제공업체의 특정 클레임(Claim) 검증을 지원합니다. 이를 IAM 역할의 신뢰 정책 조건 키로 사용하여 연합 인증 사용자에 대한 정밀한 데이터 경계를 설정할 수 있습니다. * **CloudFront mTLS 지원:** 오리진 서버와의 통신에 상호 TLS(mTLS) 인증을 적용할 수 있습니다. 인증된 CloudFront 배포판만 백엔드에 접속할 수 있도록 강제함으로써 보안 수준을 한 단계 더 높였습니다. **인공지능(AI) 및 Bedrock 업데이트** * **Claude Opus 4.6 도입:** Anthropic의 가장 지능적인 모델인 Claude Opus 4.6이 Amazon Bedrock에서 사용 가능해졌습니다. 코딩, 복잡한 추론, 엔터프라이즈급 에이전트 워크플로우에서 업계 최고 수준의 성능을 발휘합니다. * **구조화된 출력(Structured Outputs):** Bedrock에서 파운데이션 모델의 응답을 정의된 JSON 스키마에 맞춰 고정할 수 있는 기능을 지원합니다. 별도의 후처리 없이도 기계가 읽기 쉬운 일관된 형식의 응답을 얻을 수 있어 서비스 안정성이 강화되었습니다. 이번 업데이트는 특히 AI 기반 애플리케이션을 구축하는 개발자들에게 강력한 도구를 제공합니다. Claude Opus 4.6과 구조화된 출력 기능을 활용하면 더 정교하고 안정적인 에이전트 서비스를 구현할 수 있습니다. 또한, 운영 측면에서는 새로운 RDS 연결 도구와 ECS 배포 옵션을 통해 개발 생산성을 높이고, CloudFront mTLS를 통해 백엔드 보안을 강화할 것을 권장합니다.

aws

Amazon EC2 C8id, M8id, and R8id instances with up to 22.8 TB local NVMe storage are generally available | Amazon Web Services (새 탭에서 열림)

AWS가 커스텀 Intel Xeon 6 프로세서와 최대 22.8TB의 대용량 로컬 NVMe SSD를 탑재한 Amazon EC2 C8id, M8id, R8id 인스턴스를 출시했습니다. 이번 8세대 인스턴스는 이전 6세대 대비 컴퓨팅 성능은 최대 43%, 메모리 대역폭은 3.3배 향상되어 고성능 I/O가 요구되는 데이터베이스 및 실시간 분석 워크로드에 최적화되었습니다. 특히 최대 384개의 vCPU와 3TiB의 메모리를 지원하여 대규모 애플리케이션의 확장성과 운영 효율성을 획기적으로 개선했습니다. ### 인스턴스 패밀리별 특화 용도 * **C8id (컴퓨팅 최적화):** 비디오 인코딩, 이미지 조작 등 고속·저지연 로컬 스토리지가 필수적인 컴퓨팅 집약적 작업에 적합합니다. * **M8id (범용):** 데이터 로깅, 미디어 처리 등 컴퓨팅과 메모리 리소스의 균형이 필요한 워크로드에 최적의 성능을 제공합니다. * **R8id (메모리 최적화):** 대규모 SQL/NoSQL 데이터베이스, 인메모리 DB, 대규모 데이터 분석 및 AI 추론 등 고용량 메모리가 필요한 환경을 위해 설계되었습니다. ### 하드웨어 사양 및 확장성 * 6세대 인스턴스 대비 vCPU, 메모리, 로컬 스토리지 용량이 각각 3배 증가했습니다. * 최대 96xlarge 크기에서 384 vCPU, 3TiB RAM, 22.8TB 스토리지를 제공하며, 물리 리소스에 직접 접근해야 하는 환경을 위해 두 가지 베어메탈 사이즈(metal-48xl, metal-96xl)도 지원합니다. * I/O 집약적인 데이터베이스 워크로드에서 최대 46% 높은 성능을, 실시간 데이터 분석 쿼리에서 최대 30% 빠른 결과를 보여줍니다. ### 고급 네트워킹 및 가상화 기술 * **IBC(Instance Bandwidth Configuration):** 네트워크와 Amazon EBS 대역폭 사이에서 리소스를 유연하게 할당할 수 있으며, 필요에 따라 각 대역폭을 25%까지 확장할 수 있습니다. * **6세대 AWS Nitro 카드:** CPU 가상화, 스토리지, 네트워킹 기능을 전용 하드웨어로 오프로드하여 성능 병목을 줄이고 보안성을 강화했습니다. * **드라이버 호환성:** ENA(Elastic Network Adapter) 및 NVMe 드라이버가 포함된 최신 AWS Windows 및 Linux AMI를 통해 즉시 성능을 활용할 수 있습니다. ### 로컬 NVMe 스토리지 보안 및 관리 * **자동 인식:** 별도의 블록 디바이스 매핑 설정 없이도 부팅 후 `/dev/nvme` 장치로 자동 인식되어 사용이 간편합니다. * **하드웨어 암호화:** 모든 로컬 데이터는 XTS-AES-256 블록 암호를 통해 하드웨어 수준에서 암호화되며, 인스턴스 종료 시 고유 키가 파기되어 보안을 유지합니다. * **휘발성 주의:** 로컬 NVMe 스토리지의 데이터는 인스턴스의 수명 주기와 동일하므로, 인스턴스 중지(Stop)나 종료(Terminate) 시 데이터가 보존되지 않음에 유의해야 합니다. 현재 이 인스턴스들은 미국 동부(버지니아 북부, 오하이오), 미국 서부(오리건) 리전에서 사용 가능하며, 고성능 로컬 스토리지가 필요한 실시간 분석이나 대규모 데이터베이스를 운영하는 기업에 강력한 성능 향상 기회를 제공할 것입니다.

aws

AWS Weekly Roundup: Amazon EC2 G7e instances, Amazon Corretto updates, and more (January 26, 2026) | Amazon Web Services (새 탭에서 열림)

2026년 첫 AWS 주간 소식은 NVIDIA의 최신 Blackwell 아키텍처를 채택한 EC2 G7e 인스턴스의 정식 출시와 함께 시작되었습니다. 이번 업데이트는 생성형 AI 추론 성능의 비약적인 향상뿐만 아니라 개발자 도구의 보안 강화, 컨테이너 저장소의 효율성 개선 등 클라우드 운영 전반을 아우르는 주요 개선 사항들을 담고 있습니다. 이를 통해 사용자는 더 복잡한 인공지능 모델과 워크로드를 고성능 환경에서 더욱 경제적으로 실행할 수 있게 되었습니다. **NVIDIA Blackwell 기반 EC2 G7e 인스턴스 출시** * NVIDIA RTX PRO 6000 Blackwell Server Edition GPU를 탑재하여 이전 세대(G6e) 대비 추론 성능이 최대 2.3배 향상되었습니다. * 기존 대비 2배 늘어난 GPU 메모리를 제공하며, 최대 8개의 GPU 구성을 통해 총 768GB의 대용량 GPU 메모리를 활용할 수 있습니다. * FP8 정밀도를 지원하여 단일 GPU에서도 최대 700억(70B) 개의 매개변수를 가진 중형 모델을 실행할 수 있어 생성형 AI, 공간 컴퓨팅, 과학 계산 워크로드에 최적화되었습니다. **개발 도구 업데이트 및 컨테이너 스토리지 최적화** * **Amazon Corretto 분기별 업데이트**: OpenJDK LTS 버전(25, 21, 17, 11, 8)에 대한 2026년 1월 보안 및 성능 패치가 배포되어 Java 애플리케이션의 안정성을 높였습니다. * **Amazon ECR 레이어 공유 지원**: Blob 마운팅 방식을 통해 리포지토리 간 공통 이미지 레이어를 공유할 수 있게 되었습니다. 이를 통해 이미지를 업로드(Push)하는 속도를 높이고, 중복 저장을 방지하여 스토리지 비용을 절감할 수 있습니다. **운영 인사이트 및 고객 서비스 기능 강화** * **CloudWatch Database Insights 지역 확장**: 뉴질랜드, 타이베이, 태국, 멕시코 리전으로 서비스가 확대되었습니다. 머신러닝을 기반으로 데이터베이스 성능 병목 현상을 식별하고 구체적인 해결 방안을 제공합니다. * **Amazon Connect 단계별 가이드 개선**: 상담원용 가이드에 조건부 로직을 도입하여 사용자 입력에 따라 UI가 동적으로 변하도록 설정할 수 있습니다. 또한 실시간 데이터 새로고침 기능을 통해 상담원이 항상 최신 정보를 바탕으로 고객을 지원할 수 있습니다. **AWS 기술 교육 및 커뮤니티 이벤트** * **Best of AWS re:Invent (1월 28-29일)**: 작년 re:Invent의 핵심 발표와 기술 세션을 요약하여 전달하는 무료 가상 이벤트가 개최됩니다. * **AWS Community Day Ahmedabad (2월 28일)**: 인도에서 열리는 커뮤니티 중심의 컨퍼런스로, 전문가 세션과 실시간 데모를 통해 실무 지식을 공유하는 자리가 마련됩니다. 이번 업데이트 중 특히 G7e 인스턴스의 출시는 대규모 언어 모델(LLM)을 실무에 도입하려는 기업들에게 중요한 전환점이 될 것입니다. FP8 정밀도를 활용해 단일 GPU에서 70B 규모의 모델을 구동할 수 있게 된 만큼, 생성형 AI 서비스의 아키텍처 설계 시 비용과 성능의 균형을 재검토해 보시길 추천합니다.

aws

Announcing Amazon EC2 G7e instances accelerated by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs (새 탭에서 열림)

Amazon은 NVIDIA RTX PRO 6000 Blackwell 서버 에디션 GPU를 탑재한 새로운 EC2 G7e 인스턴스의 정식 출시를 발표했습니다. 이 인스턴스는 생성형 AI 추론 워크로드에서 뛰어난 비용 효율성을 제공하며, 이전 세대인 G6e 대비 최대 2.3배 향상된 추론 성능을 자랑합니다. 공간 컴퓨팅 및 과학적 컴퓨팅과 같이 높은 그래픽 성능이 요구되는 작업에 최적화된 하이엔드 솔루션입니다. ### NVIDIA Blackwell GPU 기반의 성능 혁신 * **메모리 용량 및 대역폭:** NVIDIA RTX PRO 6000 Blackwell GPU를 통해 G6e 대비 2배의 GPU 메모리(개당 96GB)와 1.85배의 메모리 대역폭을 제공합니다. * **대규모 모델 처리:** 향상된 메모리 사양 덕분에 단일 GPU 환경에서도 FP8 정밀도로 최대 700억 개(70B) 파라미터 규모의 중간급 모델을 실행할 수 있습니다. * **컴퓨팅 파워:** 최신 Intel Emerald Rapids 프로세서를 탑재하여 강력한 CPU 성능과 GPU 성능의 조화를 이룹니다. ### 멀티 GPU 효율성 및 상호 연결 기술 * **NVIDIA GPUDirect P2P 지원:** 단일 GPU 메모리를 초과하는 대규모 모델을 위해 PCIe 인터커넥트를 통한 GPU 간 직접 통신을 지원하여 지연 시간을 최소화합니다. * **대역폭 향상:** G6e에 탑재된 L40s GPU 대비 GPU 간 대역폭이 최대 4배 증가하여, 멀티 GPU 워크로드의 처리 효율이 비약적으로 상승했습니다. * **확장성:** 단일 노드에서 최대 8개의 GPU를 사용하여 총 768GB의 GPU 메모리를 확보할 수 있어, 거대 언어 모델(LLM) 추론에 유리합니다. ### 네트워킹 및 스토리지 가속화 * **고속 네트워크:** G6e 대비 4배 더 넓은 최대 1,600Gbps의 네트워크 대역폭을 제공하여 소규모 멀티 노드 워크로드에 적합합니다. * **지연 시간 감소:** Elastic Fabric Adapter(EFA)를 통한 GPUDirect RDMA를 지원하여 원격 GPU 간 통신 시 병목 현상을 줄였습니다. * **데이터 로딩 최적화:** Amazon FSx for Lustre와 GPUDirectStorage를 결합하여 최대 1.2Tbps의 처리량을 지원하므로, 대용량 모델 데이터를 매우 빠르게 로드할 수 있습니다. ### 상세 인스턴스 사양 * **인스턴스 구성:** 최소 `g7e.2xlarge`(1 GPU, 8 vCPU)부터 최대 `g7e.48xlarge`(8 GPU, 192 vCPU)까지 총 6가지 크기를 제공합니다. * **시스템 자원:** 최대 2,048GiB의 시스템 메모리와 15.2TB의 로컬 NVMe SSD 스토리지를 선택할 수 있어 데이터 집약적인 작업에 대응합니다. 생성형 AI 모델의 크기가 커짐에 따라 고용량 GPU 메모리와 빠른 상호 연결 성능이 필수적인 환경에서 G7e 인스턴스는 최적의 선택지입니다. 특히 기존 G6e 인스턴스 사용자가 성능 한계를 느끼거나, 70B급 모델을 보다 효율적으로 서빙하고자 하는 개발 팀에게 이 인스턴스로의 전환을 적극 추천합니다. 현재 미국 동부(버지니아 북부) 및 미국 서부(오레곤) 리전에서 바로 사용할 수 있습니다.

aws

AWS Weekly Roundup: Kiro CLI latest features, AWS European Sovereign Cloud, EC2 X8i instances, and more (January 19, 2026) (새 탭에서 열림)

이 글은 2026년 1월 셋째 주 AWS의 주요 기술 업데이트와 커뮤니티 소식을 다루며, 특히 Kiro CLI의 기능 강화와 유럽 주권 클라우드의 정식 출시를 핵심 성과로 제시합니다. 또한 고성능 메모리 최적화 인스턴스인 EC2 X8i의 상용화와 Amazon Quick Suite를 통한 AI 에이전트 활용 사례를 통해 더욱 고도화된 클라우드 생태계를 구축했음을 보여줍니다. 이번 소식은 엔터프라이즈급 성능 요구 사항과 지역별 규제 준수, 그리고 AI 기반 생산성 향상이라는 세 가지 측면에서 AWS의 진보를 요약하고 있습니다. **Kiro CLI의 제어 및 사용자 경험 강화** * 웹 호출(web fetch) URL에 대한 세밀한 제어 기능을 도입하여, 허용 목록(allowlist)과 차단 목록(blocklist)을 통해 에이전트가 접근할 수 있는 URL 범위를 엄격하게 제한할 수 있습니다. * 커스텀 에이전트를 위한 전용 키보드 단축키와 개선된 Diff 뷰를 제공하여, 단일 세션에서 여러 전문화된 에이전트와 협업할 때 발생하는 마찰을 최소화했습니다. **AWS 유럽 주권 클라우드 정식 출시** * 2023년부터 추진해 온 독립적인 클라우드 인프라인 'AWS European Sovereign Cloud'가 모든 고객을 대상으로 정식 서비스(GA)를 시작했습니다. * 유럽 내 가장 엄격한 데이터 주권 및 규제 요건을 충족할 수 있도록 설계되었으며, 포괄적인 AWS 서비스 세트를 제공하여 유럽 고객들의 컴플라이언스 대응을 지원합니다. **메모리 최적화 EC2 X8i 인스턴스 상용화** * AWS 전용 커스텀 Intel Xeon 6 프로세서를 탑재한 EC2 X8i 인스턴스가 정식 출시되었으며, 모든 코어에서 최대 3.9GHz의 터보 주파수를 유지합니다. * SAP 인증을 획득한 이 인스턴스는 클라우드 내 인텔 기반 프로세서 중 최고 수준의 성능과 메모리 대역폭을 제공하여 메모리 집약적인 워크로드에 최적화되어 있습니다. **생산성 향상을 위한 AI 에이전트 및 도구** * AI 에이전트 동료인 'Amazon Quick Suite'를 통해 비즈니스 질문에 답을 구하고 인사이트를 행동으로 전환하는 생산성 활용 사례가 공유되었습니다. * GitHub Actions를 사용하여 Amazon Bedrock AgentCore에 AI 에이전트를 자동 배포하는 방법이 소개되어, 개발자들이 더욱 효율적으로 AI 기능을 운영 환경에 적용할 수 있게 되었습니다. 이번 업데이트는 강력한 보안과 규제 준수가 필요한 유럽 시장부터, 고성능 컴퓨팅이 요구되는 엔터프라이즈 환경, 그리고 실무 효율을 높이는 AI 에이전트 기술까지 폭넓은 영역을 아우르고 있습니다. 기술 조직은 특히 강화된 Kiro CLI와 Bedrock AgentCore 배포 자동화 가이드를 참고하여 사내 AI 에이전트 운영 환경을 최적화하고 개발 생산성을 한 단계 더 끌어올릴 수 있을 것입니다.

aws

Amazon EC2 X8i instances powered by custom Intel Xeon 6 processors are generally available for memory-intensive workloads (새 탭에서 열림)

AWS가 Intel Xeon 6 프로세서를 탑재한 차세대 메모리 최적화 인스턴스인 Amazon EC2 X8i의 정식 출시를 발표했습니다. 이 인스턴스는 이전 세대인 X2i 대비 최대 1.5배의 메모리 용량과 3.4배의 대역폭을 제공하여 대규모 데이터베이스 및 분석 작업에 최적화되었습니다. 특히 SAP 인증을 획득하여 SAP HANA와 같은 고성능 인메모리 워크로드에서 압도적인 효율성을 보여줍니다. **커스텀 Intel Xeon 6 기반의 독보적인 성능** * AWS 전용으로 설계된 커스텀 Intel Xeon 6 프로세서를 탑재하여 전 코어 3.9GHz의 지속적인 터보 주파수를 제공합니다. * 이전 세대(X2i)와 비교했을 때 전체적으로 최대 43%의 성능 향상을 실현했습니다. * 최대 6TB의 메모리 용량을 지원하며, 메모리 대역폭은 3.4배 더 넓어져 데이터 집약적인 처리에 유리합니다. **주요 워크로드별 벤치마크 및 비용 효율성** * SAP HANA 워크로드에서 이전 세대 대비 최대 50% 향상된 SAPS(SAP Application Performance Standard) 성능을 기록했습니다. * PostgreSQL 성능은 최대 47%, Memcached는 최대 88%, AI 추론 성능은 최대 46%까지 개선되었습니다. * 실제 고객 사례인 Orion의 경우, X8i의 높은 성능 덕분에 활성 코어 수를 줄이면서도 동일 성능을 유지하여 SQL Server 라이선스 비용을 50% 절감했습니다. **유연한 인스턴스 규격과 대역폭 옵션** * 가상화 인스턴스(48xlarge, 64xlarge, 96xlarge 등)부터 베어메탈(metal-48xl, metal-96xl)까지 총 14가지 크기를 제공합니다. * 최대 100Gbps의 네트워크 대역폭(EFA 지원)과 80Gbps의 Amazon EBS 대역폭을 통해 대규모 데이터 전송 병목 현상을 최소화합니다. * IBC(Instance Bandwidth Configuration) 기능을 지원하여 사용자가 필요에 따라 네트워크와 EBS 대역폭 할당량을 조정할 수 있습니다. **가용성 및 구매 방식** * 현재 미국 동부(버지니아 북부), 미국 서부(오레곤), 유럽(프랑크푸르트, 아일랜드), 아시아 태평양(시드니, 도쿄) 리전에서 즉시 사용 가능합니다. * 온디맨드, 예약 인스턴스(RI), Savings Plans 및 스팟 인스턴스 등 다양한 구매 옵션을 통해 비용을 최적화할 수 있습니다. SAP HANA와 같은 대규모 인메모리 데이터베이스를 운영하거나, 높은 컴퓨팅 파워와 방대한 메모리가 동시에 필요한 EDA(전자 설계 자동화) 및 데이터 분석 환경이라면 X8i 인스턴스로의 전환을 통해 성능 향상과 라이선스 비용 절감 효과를 동시에 거둘 수 있을 것입니다.

aws

Happy New Year! AWS Weekly Roundup: 10,000 AIdeas Competition, Amazon EC2, Amazon ECS Managed Instances and more (January 5, 2026) (새 탭에서 열림)

2026년 새해를 맞아 AWS는 AI 혁신을 위한 대규모 경진대회와 교육 프로그램을 발표하며 커뮤니티 지원을 강화했습니다. 이와 동시에 Graviton4 기반의 새로운 EC2 인스턴스 출시와 ECS 관리형 인스턴스 도입 등 인프라 효율성을 높이는 주요 기술 업데이트를 공개했습니다. 사용자는 이를 통해 더 강력한 컴퓨팅 성능을 확보하고, 자동화된 도구를 활용해 보안 및 시스템 복원력을 효과적으로 검증할 수 있습니다. **AI 인재 양성 및 글로벌 아이디어 경진대회** * **BeSA 멘토링 프로그램**: 'Agentic AI on AWS'를 주제로 한 6주 과정의 무료 멘토링 프로그램이 2026년 2월 21일부터 시작됩니다. * **10,000 AIdeas 공모전**: 총 25만 달러의 상금과 AWS 크레딧이 제공되는 글로벌 경진대회로, 아이디어 접수 마감은 1월 21일까지입니다. * **참가 요건**: 개발 도구로 'Kiro'를 활용해야 하며, AWS 프리티어 범위 내에서 작동하는 독창적인 애플리케이션 아이디어를 코딩 없이도 제출할 수 있습니다. **Graviton4 기반 차세대 EC2 인스턴스 출시** * **M8gn 및 M8gb 인스턴스**: AWS Graviton4 프로세서를 탑재하여 이전 세대(Graviton3) 대비 연산 성능이 최대 30% 향상되었습니다. * **네트워크 및 스토리지 가속**: M8gn은 최대 600 Gbps의 네트워크 대역폭을, M8gb는 최대 150 Gbps의 EBS 대역폭을 지원하여 데이터 집약적인 워크로드에 최적화되었습니다. **인프라 안정성 및 보안 거버넌스 강화** * **Direct Connect 복원력 테스트**: AWS Fault Injection Service(FIS)를 사용하여 Direct Connect의 BGP 장애 조치(Failover) 상황을 시뮬레이션하고 애플리케이션의 대응 능력을 검증할 수 있습니다. * **AWS Control Tower 기능 확장**: 보안, 비용, 운영 효율성을 관리할 수 있는 176개의 Security Hub 컨트롤이 새롭게 추가되어 더욱 정교한 클라우드 거버넌스가 가능해졌습니다. **Amazon ECS 관리형 인스턴스 도입** * **EC2 용량 관리 자동화**: Amazon ECS가 EC2 인스턴스의 패치, 업데이트 및 크기 조정을 직접 관리하여 인프라 운영 부담을 줄여줍니다. * **운영 편의성**: 사용자는 기반 인프라 관리에 신경 쓰는 대신 컨테이너 기반 애플리케이션 개발에만 집중할 수 있는 환경을 구축할 수 있습니다. AI 분야에서 앞서나가고자 한다면 1월 21일 마감되는 AIdeas 경진대회에 아이디어를 제출하고, 고성능 서비스가 필요한 경우 Graviton4 기반의 신규 인스턴스 도입을 검토해 보시기 바랍니다.