2025년 4분기 DDoS 위협 보고서: 기록적인 31.4 Tbps 공격이 대규모 DDoS 공격의 한 해를 마무리하다 (새 탭에서 열림)

2025년 DDoS 공격은 전년 대비 121% 급증하며 총 4,710만 건에 달했고, 연말에는 31.4 Tbps라는 역대 최대 규모의 공격이 발생하며 위협의 정점을 찍었습니다. 특히 안드로이드 TV를 감염시킨 'Aisuru-Kimwolf' 봇넷의 출현으로 초당 수억 개의 요청을 보내는 하이퍼 볼류메트릭(Hyper-volumetric) 공격이 일상화되었으며, 통신 및 IT 인프라를 겨냥한 공격의 강도가 그 어느 때보다 강력해졌습니다. 클라우드플레어는 이러한 거대 공격들을 자율 방어 시스템을 통해 성공적으로 차단하며 진화하는 봇넷 위협에 대응하고 있습니다. ### 2025년 DDoS 공격의 급격한 양적 팽창 * 2025년 한 해 동안 발생한 DDoS 공격은 총 4,710만 건으로, 이는 2023년 대비 236%나 증가한 수치입니다. * 클라우드플레어는 매시간 평균 5,376건의 공격을 자동으로 완화했으며, 이 중 네트워크 계층 공격은 시간당 3,925건에 달했습니다. * 특히 네트워크 계층(Network-layer) 공격은 전년 대비 3배 이상 폭증하며 4분기 전체 공격의 78%를 차지하는 주된 위협으로 자리 잡았습니다. ### 'Aisuru-Kimwolf' 봇넷과 크리스마스 캠페인 * 2025년 12월 19일부터 시작된 "The Night Before Christmas" 캠페인은 클라우드플레어 인프라와 고객을 대상으로 초당 2억 건(200 Mrps)이 넘는 HTTP DDoS 공격을 퍼부었습니다. * 이 공격의 주체인 Aisuru-Kimwolf 봇넷은 전 세계적으로 100만~400만 대에 달하는 감염된 안드로이드 TV 기기들로 구성되어 있습니다. * 캠페인 기간 중 최대 9 Bpps(초당 패킷 수), 24 Tbps, 205 Mrps의 기록적인 수치가 관측되었으며, 이는 국가 전체의 통신 연결을 방해할 수 있는 파괴적인 수준입니다. ### 하이퍼 볼류메트릭 공격의 기록적 갱신 * 2025년 4분기 하이퍼 볼류메트릭 공격은 전 분기 대비 40% 증가했으며, 공격의 절대적인 규모는 2024년 말과 비교해 700% 이상 커졌습니다. * 특히 31.4 Tbps 규모의 역대 최대 공격이 발생했으나, 클라우드플레어의 자율 DDoS 방어 시스템이 단 35초 만에 이를 감지하고 자동으로 차단했습니다. * 이러한 거대 공격은 주로 통신사, ISP(인터넷 서비스 제공업체), 게이밍 산업 및 생성형 AI 서비스 기업들을 집중적으로 겨냥했습니다. ### 공격 대상 산업 및 지역의 변화 * **산업별:** 통신 서비스 산업이 정보 기술(IT) 서비스를 제치고 가장 많이 공격받은 산업 1위에 올랐으며, 도박 및 카지노, 게이밍 산업이 그 뒤를 이었습니다. * **지역별:** 중국이 여전히 가장 많은 공격을 받는 가운데, 홍콩이 12계단 상승해 2위를 기록했고 영국은 한 분기 만에 36계단이나 급등하며 6위로 부상했습니다. * 공격자들은 즉각적인 경제적 타격이 크거나 사회적 기반 시설 역할을 하는 지점을 전략적으로 선택하여 공격의 효과를 극대화하고 있습니다. 기업과 기관은 이제 단순한 트래픽 차단을 넘어, 수백만 대의 IoT 기기를 동원하는 초거대 규모의 하이퍼 볼류메트릭 공격에 대비해야 합니다. 특히 통신, 게이밍, AI 서비스와 같이 레이턴시에 민감한 산업군은 실시간 자동 완화 기능을 갖춘 클라우드 기반 보안 체계를 구축하여 예고 없이 찾아오는 대규모 공격에 상시 대응할 수 있는 능력을 갖추는 것이 필수적입니다.

플로리다 애틀란틱 대학교의 지속적인 글쓰기 지원 확장 (새 탭에서 열림)

플로리다 대학교(FAU)는 학생들의 작문 능력을 향상시키고 교수진의 채점 부담을 줄이기 위해 그래머리(Grammarly)를 전사적으로 도입했습니다. 이 시스템은 학생들이 글쓰기 과정에서 실시간 피드백을 받게 함으로써 기초적인 문법 오류를 스스로 수정하게 하고, 교수진은 글의 구조나 논리와 같은 고차원적인 피드백에 집중할 수 있는 환경을 조성했습니다. 결과적으로 FAU는 학생들의 중도 탈락률 감소, 학점(GPA) 상승, 특히 STEM 및 필수 교양 과목의 이수율 향상이라는 유의미한 교육적 성과를 거두었습니다. **낮은 진입 장벽과 교수 자율성 기반의 도입 체계** * **기존 워크플로우 유지:** 학생들이 사용하는 워드, 구글 문서, 아웃룩, 지메일 및 브라우저 확장 프로그램에 그래머리를 직접 통합하여, 새로운 플랫폼에 적응해야 하는 번거로움을 최소화했습니다. * **교수진의 교육적 자율성:** 대학 전체에 라이선스를 제공하되, 교수진이 각자의 수업 방식에 맞춰 도입 여부와 수준을 결정하도록 하여 교수법의 자율성을 보장했습니다. * **교정의 1선 방어선 역할:** 기본적인 문법 및 기계적인 오류 수정을 AI에게 맡김으로써, 수업 시간을 아이디어 전개와 논증 구축에 더 많이 할애할 수 있는 '교육적 완충 지대'를 마련했습니다. **학생 성공 지표의 실질적 개선** * **학업 지속성 및 이수율 향상:** 그래머리 사용자의 과정 이수율은 79.5%로 비사용자(74.2%)보다 높았으며, 프로그램 중도 포기나 전학 없이 학업을 지속하는 비율이 5.3%포인트 상승했습니다. * **관문 과목(Gateway Course) 성과:** 졸업을 위해 필수적인 글쓰기 집중 과정에서 이수율이 3.3%포인트 증가했으며, 특히 STEM 분야 세션에서는 4.3%포인트의 높은 상승 폭을 기록했습니다. * **장기적인 작문 역량 강화:** 2023년 가을부터 2024년까지 지속적인 사용자의 작문 점수가 76.7점에서 81.3점으로 향상되었으며, 이는 단기적인 교정을 넘어 실질적인 기술 습득이 이루어지고 있음을 시사합니다. * **학점(GPA)과의 상관관계:** 그래머리를 빈번하게 사용하는 학생들의 평균 GPA는 3.69로, 저빈도 사용자나 비사용자(3.29)에 비해 약 0.4점 더 높은 성적을 거두었습니다. **교육 현장의 변화와 교수진의 피드백 질 향상** * **피드백의 질적 전환:** 반복적인 기계적 오류 수정을 AI가 대신하면서, 교수진은 학생들의 글을 읽는 데 드는 피로도를 줄이고 글의 핵심 주장과 구조를 가이드하는 데 더 많은 시간을 투자하게 되었습니다. * **학습자 스스로의 패턴 인식:** 학생의 초안 작성 과정에서 실시간 지원이 이루어지기 때문에, 학생들은 자신이 반복하는 실수 패턴을 가시적으로 확인하고 스스로 수정하는 능력을 기를 수 있었습니다. **성공적인 AI 도구 도입을 위한 전략적 제언** 교육 현장에 AI 지원 도구를 도입할 때는 보편적 접근권(Access)과 선택권(Choice)을 동시에 제공하는 것이 중요합니다. FAU의 사례처럼 학생들이 이미 글을 쓰고 있는 환경에 도구를 통합하여 마찰을 줄이고, 중도 탈락률이나 이수율과 같은 핵심 성공 지표(Success Metrics)를 지속적으로 추적함으로써 기술 도입의 교육적 가치를 증명해야 합니다. 특히 다국어 학습자나 신입생처럼 집중적인 지원이 필요한 그룹에게는 이러한 비대면, 온디맨드 방식의 지원이 심리적 장벽을 낮추는 데 효과적입니다.

피닉스 대학의 캠퍼 (새 탭에서 열림)

피닉스 칼리지(Phoenix College)는 다국어 학습자와 성인 학습자가 겪는 학업적 글쓰기의 어려움을 해결하기 위해 'Grammarly for Education'을 전면 도입하여 학생들의 성공적인 학업 이수를 지원했습니다. 모든 학생과 교수진이 기존의 작업 환경에서 즉각적인 글쓰기 피드백을 받을 수 있도록 접근성을 극대화한 결과, 학점(GPA) 향상과 높은 학기 등록 유지율이라는 가시적인 성과를 거두었습니다. 이 사례는 기술 도구가 학생의 자율적인 학습을 돕고 교수진이 핵심 교육 가치에 집중할 수 있는 환경을 어떻게 구축하는지 잘 보여줍니다. **학업적 글쓰기 장벽과 접근성 중심의 해결책** - 피닉스 칼리지 학생들은 대학 수준의 글쓰기 요구 사항과 실제 실력 사이의 간극으로 인해 학업 중단 위기를 겪었으며, 교수진은 기계적인 문법 교정에 과도한 시간을 할애해야 했습니다. - 학교 측은 학생이나 교수가 새로운 플랫폼을 익혀야 하는 번거로움을 없애기 위해 워드 프로세서, 브라우저, 학습 관리 시스템(LMS) 등 기존 워크플로우 내에서 작동하는 글쓰기 지원 도구를 도입했습니다. - 모든 등록 학생과 교수에게 동일한 수준의 접근 권한을 부여함으로써, 자원과 시간이 부족한 성인 학습자나 편입생들이 제약 없이 지원을 받을 수 있는 환경을 조성했습니다. **데이터로 입증된 학업 수료율 및 성과 향상** - LXD 리서치의 독립적 연구에 따르면, 2023-2024 학년도 동안 도구를 사용한 학생(569명)은 비사용자(3,067명)에 비해 글쓰기 집중 과정에서 더 높은 수료율을 보였습니다. - 학습 형태와 관계없이 수료율이 향상되었는데, 온라인 학습자는 6.4%, 하이브리드 학습자는 5.0%, 대면 학습자는 5.2%의 수료율 상승을 기록했습니다. - 도구를 지속적으로 사용한 학생일수록 더 높은 GPA를 기록했으며, 다음 학년도에 재등록하여 학업을 이어가는 비율(Retention) 또한 유의미하게 높아졌습니다. **교수진의 역할 변화와 교육의 질적 개선** - 자동화된 글쓰기 지원 덕분에 교수들은 단순한 기계적 오류 수정에서 벗어나 글의 구조, 논리적 사고, 전공별 심화 내용에 대한 고차원적인 피드백에 더 많은 시간을 할애할 수 있게 되었습니다. - 글쓰기를 단순히 최종 결과물을 제출하는 과정이 아닌, 초안 작성과 수정, 정제 과정을 거치는 '성장의 과정'으로 재정의하는 교육적 변화가 일어났습니다. - 일부 교수진은 과제 설계를 변경하여 학생들이 글쓰기 보고서를 활용해 자신의 작성 과정을 성찰하고 의도적으로 수정 단계에 참여하도록 유도했습니다. **성공적인 도입을 위한 전략적 제언** - **마찰 없는 통합:** 새로운 플랫폼을 강요하기보다 학생들이 이미 사용 중인 도구에 기술을 통합하여 심리적·물리적 진입 장벽을 낮추는 것이 중요합니다. - **교수진의 자율성 보장:** 도구 활용 방식을 교수 개인의 수업 방식에 맞춰 유연하게 적용할 수 있도록 허용하고, 워크숍과 동료 간 사례 공유를 통해 유기적인 확산을 유도해야 합니다. - **데이터 기반의 성과 모니터링:** 수료율, GPA, 재등록률 등 구체적인 지표를 지속적으로 추적하여 기술 도입이 실제 학생의 성공에 기여하고 있는지 검증하는 과정이 필요합니다.

AI 도구가 접근성을 높 (새 탭에서 열림)

구글 리서치는 장애인 커뮤니티와의 긴밀한 협력을 통해 사용자의 고유한 요구에 실시간으로 적응하는 '기본 적응형 인터페이스(Natively Adaptive Interfaces, NAI)' 프레임워크를 공개했습니다. NAI는 정적인 디자인에서 벗어나 멀티모달 AI 에이전트를 활용함으로써, 디지털 환경을 단순한 도구가 아닌 사용자의 맥락을 이해하는 능동적인 협업자로 변모시키는 것을 핵심으로 합니다. 이를 통해 기술이 사용자의 특성에 맞춰 스스로 형태를 바꾸는 진정한 의미의 유니버설 디자인을 구현하고, 기능 출시와 보조 기술 지원 사이의 시차인 '접근성 격차'를 해소하고자 합니다. **공동 설계: "우리 없이 우리에 대해 논하지 말라"** * 장애인 커뮤니티의 오랜 원칙인 "Nothing About Us Without Us"를 개발 생애 주기 전반에 도입하여 실질적인 생활 경험을 기술의 중심에 두었습니다. * RIT/NTID, The Arc, RNID, Team Gleason과 같은 전문 단체들과 협력하여 다양한 의사소통 방식을 이해하는 AI 도구를 공동 개발하고 있습니다. * 이러한 협력 모델은 단순히 도구를 만드는 것을 넘어, 장애인 커뮤니티 내의 경제적 역량 강화와 고용 기회 창출로 이어지는 선순환 구조를 지향합니다. **에이전트 중심의 다중 시스템 아키텍처** * 복잡한 메뉴를 사용자가 직접 탐색하는 대신, 중앙 관리자인 '오케스트레이터(Orchestrator)'가 사용자의 문맥을 파악하고 적절한 하위 에이전트에게 작업을 할당합니다. * **요약 에이전트(Summarization Agent):** 방대한 정보를 분석하여 사용자가 이해하기 쉬운 핵심 통찰로 변환합니다. * **설정 에이전트(Settings Agent):** 텍스트 크기 조절 등 UI 요소를 실시간으로 동적 변경하여 최적의 가독성을 제공합니다. * 이를 통해 사용자는 특정 기능을 찾기 위해 버튼을 헤맬 필요 없이, 시스템과 직관적으로 상호작용하며 문제를 해결할 수 있습니다. **멀티모달 유창성을 활용한 주요 프로토타입** * 제미나이(Gemini) 모델의 시각, 음성, 텍스트 동시 처리 능력을 활용하여 주변 환경을 실시간으로 설명하고 질의응답을 주고받는 기능을 구현했습니다. * **StreetReaderAI:** 시각 장애인을 위한 가상 가이드로, 과거 시각 프레임을 기억하여 "방금 지나친 버스 정류장이 어디인가요?"와 같은 질문에 "뒤로 12미터 지점에 있습니다"라고 구체적으로 답변합니다. * **MAVP (Multimodal Agent Video Player):** 정적인 음성 해설을 넘어, 검색 증강 생성(RAG) 기술을 통해 사용자가 영상 속 특정 세부 사항(예: 등장인물의 의상)을 질문하면 실시간으로 응답하는 양방향 비디오 시청 경험을 제공합니다. * **Grammar Laboratory:** 미국 수어(ASL)와 영어를 동시에 지원하는 이중 언어 AI 학습 플랫폼으로, 사용자의 학습 패턴에 맞춘 맞춤형 콘텐츠와 피드백을 제공합니다. **유니버설 디자인의 확장: 커브 컷 효과** * 장애인을 위해 설계된 기능이 결과적으로 모든 사용자의 편의를 증진하는 '커브 컷 효과(Curb-cut effect)'를 강조합니다. * 시각 장애인을 위해 개발된 음성 인터페이스가 멀티태스킹이 필요한 비장애인에게도 유용하게 쓰이듯, NAI 프레임워크는 모든 사용자에게 더 나은 디지털 경험을 제공합니다. * 학습 장애를 지원하기 위한 요약 및 합성 도구는 복잡한 정보를 빠르게 파악해야 하는 모든 현대인에게 보편적인 가치를 제공하게 됩니다. AI 기술은 이제 단순한 접근성 지원 도구를 넘어, 모든 사람의 고유한 개성과 상황에 맞춰 인터페이스가 스스로 진화하는 '개인화된 유니버설 디자인' 시대를 열고 있습니다. 개발자와 디자이너들은 설계 초기 단계부터 장애인 사용자를 파트너로 참여시키고, 멀티모달 AI를 활용해 정적인 UI를 동적인 에이전트 시스템으로 전환함으로써 더욱 포용적인 디지털 세상을 구축할 수 있습니다.

Pinterest의 차세대 DB 인 (새 탭에서 열림)

Pinterest는 기존의 파편화된 배치 기반 DB 적재 시스템을 개선하기 위해 Iceberg와 CDC(Change Data Capture) 기술을 결합한 통합 프레임워크를 구축했습니다. 이 시스템은 데이터 지연 시간을 24시간 이상에서 수 분 단위로 단축하고, 변경된 데이터만 처리하는 방식으로 인프라 비용을 획기적으로 절감했습니다. 이를 통해 분석, 머신러닝, 규정 준수 등 현대적인 데이터 요구사항에 기민하게 대응할 수 있는 고성능 데이터 생태계를 마련했습니다. ### 통합 CDC 프레임워크의 계층 구조 * **CDC 레이어**: Debezium 및 TiCDC를 활용해 MySQL, TiDB, KVStore의 변경 사항을 1초 미만의 지연 시간으로 포착하여 Kafka에 기록합니다. * **스트리밍 레이어**: Flink 작업이 Kafka의 이벤트를 실시간으로 처리하여 S3에 위치한 'CDC Iceberg 테이블'에 추가 전용(Append-only) 방식으로 저장합니다. * **배치 레이어**: Spark 작업이 주기적으로(15~60분) CDC 테이블의 최신 변경 사항을 읽어 `Merge Into` 구문을 통해 최종 'Base Iceberg 테이블'에 업서트(Upsert)를 수행합니다. * **부트스트랩 및 유지보수**: 초기 데이터 로드를 위한 전용 파이프라인과 소형 파일 압축(Compaction) 및 스냅샷 만료 관리를 위한 유지보수 작업을 포함합니다. ### CDC 테이블과 베이스 테이블의 이원화 관리 * **CDC 테이블**: 모든 변경 이력을 담은 시계열 원장으로, 5분 미만의 지연 시간을 유지하며 원천 데이터의 변경 로그를 보존합니다. * **베이스 테이블**: 온라인 DB의 현재 상태를 그대로 반영하는 스냅샷 테이블입니다. CDC 테이블로부터 최신 레코드를 추출하여 정합성을 맞춥니다. * **동기화 로직**: `ROW_NUMBER()` 함수를 활용해 기본 키(PK)별로 가장 최신 업데이트(최근 타임스탬프 및 GTID 기준)를 식별한 후, 삭제 유형은 제거하고 나머지는 업데이트 또는 삽입합니다. ### 성능 및 비용 최적화 전략 * **Merge-on-Read (MOR) 방식 채택**: Copy-on-Write(COW) 방식은 업데이트 시 대규모 파일을 다시 작성해야 하므로 스토리지와 계산 비용이 높습니다. Pinterest는 비용 효율성을 극대화하기 위해 MOR 방식을 표준 전략으로 선택했습니다. * **기본 키 해시 버킷팅(Bucketing)**: 베이스 테이블을 PK의 해시값(예: `bucket(100, id)`)으로 파티셔닝하여 Spark가 업서트 작업을 병렬로 효율적으로 처리할 수 있도록 설계했습니다. * **증분 처리 효율성**: 매일 전체 테이블을 덤프하던 방식에서 변경된 데이터(통상 5% 미만)만 처리하는 방식으로 전환하여 연산 리소스 낭비를 차단했습니다. 방대한 양의 데이터베이스를 데이터 레이크로 통합할 때는 Iceberg의 `Merge Into` 기능을 활용한 증분 업데이트가 필수적입니다. 특히 읽기 성능과 쓰기 비용 사이의 균형을 위해 MOR 전략을 사용하고, 쓰기 병목을 해소하기 위해 기본 키 기반의 버킷팅을 적용하는 것이 실무적으로 매우 효과적인 접근임을 보여줍니다.

Amazon EC2 C8id, M8id, R8id 인스턴스, 최대 22.8 TB 로컬 NVMe 스토리지 일반 제공 | 아마존 웹 서비스 (새 탭에서 열림)

AWS가 커스텀 Intel Xeon 6 프로세서와 최대 22.8TB의 대용량 로컬 NVMe SSD를 탑재한 Amazon EC2 C8id, M8id, R8id 인스턴스를 출시했습니다. 이번 8세대 인스턴스는 이전 6세대 대비 컴퓨팅 성능은 최대 43%, 메모리 대역폭은 3.3배 향상되어 고성능 I/O가 요구되는 데이터베이스 및 실시간 분석 워크로드에 최적화되었습니다. 특히 최대 384개의 vCPU와 3TiB의 메모리를 지원하여 대규모 애플리케이션의 확장성과 운영 효율성을 획기적으로 개선했습니다. ### 인스턴스 패밀리별 특화 용도 * **C8id (컴퓨팅 최적화):** 비디오 인코딩, 이미지 조작 등 고속·저지연 로컬 스토리지가 필수적인 컴퓨팅 집약적 작업에 적합합니다. * **M8id (범용):** 데이터 로깅, 미디어 처리 등 컴퓨팅과 메모리 리소스의 균형이 필요한 워크로드에 최적의 성능을 제공합니다. * **R8id (메모리 최적화):** 대규모 SQL/NoSQL 데이터베이스, 인메모리 DB, 대규모 데이터 분석 및 AI 추론 등 고용량 메모리가 필요한 환경을 위해 설계되었습니다. ### 하드웨어 사양 및 확장성 * 6세대 인스턴스 대비 vCPU, 메모리, 로컬 스토리지 용량이 각각 3배 증가했습니다. * 최대 96xlarge 크기에서 384 vCPU, 3TiB RAM, 22.8TB 스토리지를 제공하며, 물리 리소스에 직접 접근해야 하는 환경을 위해 두 가지 베어메탈 사이즈(metal-48xl, metal-96xl)도 지원합니다. * I/O 집약적인 데이터베이스 워크로드에서 최대 46% 높은 성능을, 실시간 데이터 분석 쿼리에서 최대 30% 빠른 결과를 보여줍니다. ### 고급 네트워킹 및 가상화 기술 * **IBC(Instance Bandwidth Configuration):** 네트워크와 Amazon EBS 대역폭 사이에서 리소스를 유연하게 할당할 수 있으며, 필요에 따라 각 대역폭을 25%까지 확장할 수 있습니다. * **6세대 AWS Nitro 카드:** CPU 가상화, 스토리지, 네트워킹 기능을 전용 하드웨어로 오프로드하여 성능 병목을 줄이고 보안성을 강화했습니다. * **드라이버 호환성:** ENA(Elastic Network Adapter) 및 NVMe 드라이버가 포함된 최신 AWS Windows 및 Linux AMI를 통해 즉시 성능을 활용할 수 있습니다. ### 로컬 NVMe 스토리지 보안 및 관리 * **자동 인식:** 별도의 블록 디바이스 매핑 설정 없이도 부팅 후 `/dev/nvme` 장치로 자동 인식되어 사용이 간편합니다. * **하드웨어 암호화:** 모든 로컬 데이터는 XTS-AES-256 블록 암호를 통해 하드웨어 수준에서 암호화되며, 인스턴스 종료 시 고유 키가 파기되어 보안을 유지합니다. * **휘발성 주의:** 로컬 NVMe 스토리지의 데이터는 인스턴스의 수명 주기와 동일하므로, 인스턴스 중지(Stop)나 종료(Terminate) 시 데이터가 보존되지 않음에 유의해야 합니다. 현재 이 인스턴스들은 미국 동부(버지니아 북부, 오하이오), 미국 서부(오리건) 리전에서 사용 가능하며, 고성능 로컬 스토리지가 필요한 실시간 분석이나 대규모 데이터베이스를 운영하는 기업에 강력한 성능 향상 기회를 제공할 것입니다.

디스플레이가 없나요 (새 탭에서 열림)

메타는 XR 기기와 같이 화면이 없거나 접근이 어려운 장치에서 QR 코드 없이도 패스키 인증을 수행할 수 있는 새로운 접근 방식을 도입했습니다. 이 방식은 기존 FIDO 얼라이언스의 표준인 CTAP 하이브리드 프로토콜을 기반으로 하며, 모바일 컴패니언 앱을 보안 메시지 전송 통로로 활용하여 기기 간 근접성 및 신뢰 요구 사항을 충족합니다. 이를 통해 디스플레이 제약이 있는 다양한 IoT 및 웨어러블 기기에서도 안전하고 편리한 무암호 인증 생태계를 구축할 수 있는 길을 열었습니다. ### 화면 없는 장치의 인증 한계 * 기존의 기기 간 패스키 인증은 데스크톱이 표시하는 QR 코드를 스마트폰 카메라로 스캔하여 두 기기를 연결하는 방식에 의존합니다. * 하지만 헤드마운트 디스플레이(HMD)를 사용하는 XR 기기나 스마트 홈 허브, 산업용 센서 등은 QR 코드를 표시할 화면이 없거나 외부 기기가 스캔하기 어려운 위치에 있는 경우가 많습니다. * 단순히 블루투스 근접성만 활용할 경우, 사용자가 올바른 기기에서 올바른 트랜잭션을 승인하고 있다는 시각적 확신을 주기 어려워 보안 및 사용성 측면에서 위험이 존재합니다. ### 컴패니언 앱을 통한 보안 메시지 전송 * 메타는 기기와 동일한 계정으로 로그인된 컴패니언 앱(Meta Horizon 앱)을 활용하여 QR 코드 스캔 과정을 대체합니다. * 인증이 시작되면 기기는 QR 코드에 담길 정보를 포함한 FIDO URL을 생성하고, 이를 인증된 푸시 알림 채널을 통해 사용자의 스마트폰으로 직접 전송합니다. * 사용자는 스마트폰에 뜬 알림을 탭하는 것만으로 즉시 OS 수준의 패스키 인터페이스에 진입할 수 있으며, 알림이 꺼진 경우에도 앱 실행 시 백엔드 쿼리를 통해 대기 중인 인증 요청을 확인할 수 있습니다. ### 하이브리드 패스키 인증의 기술적 프로세스 * **페이로드 생성**: 메타 퀘스트 브라우저는 ECDH 공개 키, 세션별 비밀값, 라우팅 정보 등을 포함한 페이로드를 생성하고 이를 표준 하이브리드 전송 메커니즘인 FIDO URL로 인코딩합니다. * **푸시 전달**: 생성된 FIDO URL은 GraphQL 기반의 구조화된 데이터 형태로 앱에 전달되며, 앱은 이를 시스템 URL 런처를 통해 실행하여 모바일 OS의 패스키 흐름을 호출합니다. * **보안 채널 형성**: URL이 실행되면 모바일 기기는 표준 하이브리드 전송 시퀀스에 따라 BLE 광고를 브로드캐스트하고, 대상 기기와 암호화된 터널을 구축합니다. * **서명 및 완료**: 사용자의 생체 인증(UV)이 성공하면 모바일 기기는 관련 키 자료를 사용해 패스키 응답을 생성하고, 이를 보안 채널을 통해 대상 기기로 전달하여 인증 서버와의 거래를 완료합니다. 메타의 이 새로운 구현은 기존 WebAuthn 표준을 준수하면서도 디스플레이의 제약을 극복한 실용적인 사례입니다. 스마트 홈 기기나 산업용 하드웨어를 설계하는 개발자들은 이와 같은 컴패니언 앱 기반의 하이브리드 흐름을 참조하여, 사용자에게 익숙한 모바일 환경을 활용한 안전한 패스키 도입을 고려해볼 수 있습니다.

Scaling to Infinity: 한계를 넘어서는 LY Corporation의 관측 가능성 플랫폼 진화기 (새 탭에서 열림)

LY Corporation은 수만 대의 서버와 컨테이너 환경에서 발생하는 일간 수조 건의 지표를 효율적으로 처리하기 위해 독자적인 시계열 데이터베이스(TSDB)를 개발하여 운영하고 있습니다. 초기 MySQL과 OpenTSDB의 한계를 극복하고자 인메모리(IMDB), Cassandra, S3를 결합한 다중 계층 저장소 아키텍처를 구축함으로써 데이터 폭증에 유연하게 대응하고 있습니다. 이를 통해 개발자와 운영자가 인프라 관리 부담 없이 서비스의 건강 상태를 즉각적으로 파악하고, 향후 AI 기반의 지능형 관찰가능성 플랫폼으로 진화하는 것을 목표로 합니다. **시계열 데이터의 규모와 저장소의 중요성** * **기하급수적인 데이터 증가:** 서버 1대의 CPU 지표(15초 주기)는 연간 약 562 MiB를 차지하며, 수천 대 규모의 인프라에서는 연간 테비바이트(TiB) 단위의 저장 공간이 필요합니다. * **고해상도 데이터의 필요성:** 장애 징후를 사전에 포착하고 정밀하게 모니터링하기 위해 1분 미만의 고해상도 지표 수집이 필수적이지만, 이는 범용 데이터베이스에 엄청난 쓰기 부하를 줍니다. * **클라우드 네이티브의 복잡성:** 쿠버네티스 환경에서는 파드(pod)의 잦은 생성과 소멸로 인해 관리해야 할 대상(Cardinality)이 폭증하며, 이를 수용할 유연한 스키마 구조가 요구됩니다. **자체 시계열 데이터베이스 엔진 개발 과정** * **기존 솔루션의 한계:** MySQL은 쓰기 성능과 경직된 스키마 문제로, OpenTSDB는 태그 개수 제한 및 문자열 제약, 쿼리 전 웜업(warm-up) 필요성 등의 운영상 한계가 있었습니다. * **Gorilla 논문 기반 최적화:** 데이터 조회의 85%가 최근 26시간 이내에 집중된다는 점에 착안하여, 최근 데이터는 IMDB에 저장하고 과거 데이터는 디스크 기반 저장소로 보내는 전략을 수립했습니다. * **사용자 편의성 유지:** 백엔드 아키텍처를 근본적으로 교체하면서도 기존 API와의 호환성을 완벽히 유지하여, 사용자가 코드 수정 없이도 성능 향상의 혜택을 누리게 했습니다. **데이터 홍수에 대응하는 계층형 저장 구조** * **가중치 기반 부하 분산:** 서로 다른 스펙의 노드가 혼재된 환경에서도 성능을 극대화할 수 있도록 IMDB의 부하 분산 알고리즘을 개선했습니다. * **S3 기반의 하이브리드 저장소:** 고성능 처리가 필요한 최근 14일치 데이터는 Cassandra에, 그 이전의 방대한 데이터는 비용 효율적인 S3 호환 저장소에 적재하는 3단계 계층 구조를 도입했습니다. * **데이터 파이프라인 최적화:** IMDB의 데이터를 슬롯 단위로 읽어 블록화하여 S3에 저장하는 '덤퍼(Dumper)'와, 읽기 성능을 위해 디스크 캐싱을 수행하는 'Storage Gateway'를 구축했습니다. **기술적 난관 극복과 협업의 성과** * **메모리 고갈 문제 해결:** 스토리지 게이트웨이의 I/O 과정에서 페이지 캐시 점유율이 급증하는 문제를 발견하고, 직접 I/O(Direct I/O) 대신 커널 페이지 캐시를 효율적으로 쓰는 B+ 트리 기반 캐시로 전환했습니다. * **부서 간 협업:** 직접 I/O 적용 시 발생할 수 있는 클라우드 스토리지 대역폭 문제를 유관 부서와 긴밀히 소통하여 조기에 파악하고 최적의 해답을 도출했습니다. 대규모 시스템의 관찰가능성을 확보하기 위해서는 데이터의 접근 패턴에 맞춘 계층형 저장소 설계가 필수적입니다. 단순한 저장소 확장을 넘어, 파편화된 데이터를 통합하고 AI를 활용한 예측 모델을 결합함으로써 시스템의 안정성을 선제적으로 관리하는 지능형 플랫폼으로 나아가야 합니다.

순차적 어텐션: 정확 (새 탭에서 열림)

구글 리서치에서 발표한 **Sequential Attention**은 대규모 머신러닝 모델의 효율성을 극대화하기 위해 개발된 서브셋 선택(Subset Selection) 알고리즘입니다. 이 기술은 모델 학습 과정 중에 가장 정보 가치가 높은 구성 요소(특징, 레이어, 블록 등)를 순차적·적응적으로 선택함으로써, 정확도 손실 없이 모델의 크기를 줄이고 추론 속도를 높입니다. 특히 복잡한 비선형 상호작용을 효과적으로 포착하면서도 기존 탐욕적 선택 알고리즘의 막대한 계산 비용 문제를 해결했다는 점이 핵심입니다. ### 서브셋 선택의 난제와 순차적 접근 * **비선형 상호작용의 복잡성:** 현대 딥러닝에서 특정 특징(Feature)은 단독으로는 무의미해 보일 수 있으나 다른 특징과 결합할 때 필수적이 되기도 하며, 반대로 단독으로는 중요해 보여도 다른 특징에 의해 중복 처리가 될 수 있습니다. * **NP-난해(NP-hard) 문제:** 수많은 변수 중 최적의 조합을 찾는 것은 수학적으로 매우 어려운 문제이며, 이를 해결하기 위한 전통적인 탐욕 알고리즘은 모델을 반복해서 재학습시켜야 하므로 비용이 너무 큽니다. * **통합적 최적화:** Sequential Attention은 가중치 프루닝(Pruning), 임베딩 차원 튜닝, 특징 선택 등 다양한 최적화 문제를 '서브셋 선택'이라는 하나의 틀로 보고 접근합니다. ### Sequential Attention의 작동 원리 * **순차적 의사결정:** 모든 후보를 한 번에 평가하는 일반적인 '원샷(one-shot)' 어텐션과 달리, 이미 선택된 구성 요소들을 컨텍스트로 활용하여 '그다음으로 가장 중요한' 요소를 하나씩 찾아냅니다. * **소프트맥스 기반 중요도 평가:** 어텐션 메커니즘의 소프트맥스 점수를 활용하여 후보들의 상대적 중요도를 수치화합니다. * **한 번의 학습 내 최적화:** 별도의 반복적인 재학습 없이, 단일 모델 학습 프로세스 내에서 선택 과정을 통합하여 연산 오버헤드를 최소화합니다. ### 주요 장점 및 기대 효과 * **한계 이득(Marginal Gain) 반영:** 이미 선택된 특징들과의 중복성을 고려하여 점수를 재계산하므로, 모델이 불필요한 중복 정보를 배제하고 가장 효율적인 구조를 갖추게 합니다. * **해석 가능성(Interpretability):** 연구자들은 산출된 어텐션 점수를 통해 모델이 특정 결정을 내릴 때 어떤 입력값에 우선순위를 두었는지 명확하게 파악할 수 있습니다. * **이론적 보장:** 선형 회귀 모델에 적용할 경우 검증된 알고리즘인 OMP(Orthogonal Matching Pursuit)와 수학적으로 동일함이 증명되어 성능의 신뢰성을 뒷받침합니다. ### 실제 적용 사례: 특징 선택 및 블록 희소화 * **특징 선택(Feature Selection):** 이미지 인식, 활동 인식 등 다양한 벤치마크에서 기존 방식보다 적은 특징으로도 업계 최고 수준(SOTA)의 정확도를 달성했습니다. * **블록 희소화(Block Sparsification):** 'SequentialAttention++'를 통해 불필요한 매개변수 블록을 제거합니다. 이는 단순한 가중치 제거를 넘어 하드웨어 가속에 최적화된 블록 단위의 희소성을 구현하여 실제 추론 속도를 대폭 향상시킵니다. * **미분 가능한 프루닝과의 결합:** 학습 가능한 파라미터를 사용하는 방식과 조합 최적화 알고리즘의 장점을 결합하여 더욱 정교한 모델 구조를 설계합니다. 모델의 비대화로 인한 비용 효율성 문제가 중요해지는 시점에서, Sequential Attention은 대규모 신경망의 성능을 유지하면서도 자원 소모를 줄일 수 있는 실용적인 프레임워크를 제공합니다. 효율적인 모델 배포가 필요한 엔지니어라면 이 알고리즘을 통해 특징 선택이나 블록 단위 프루닝을 최적화하는 것을 고려해 볼 수 있습니다.

Amazon Web Services": | Amazon (새 탭에서 열림)

AWS IAM Identity Center가 멀티 리전 복제 기능을 지원함에 따라 외부 ID 공급자(IdP)를 사용하는 조직의 가동 중지 리스크를 줄이고 전 세계적인 서비스 가용성을 확보할 수 있게 되었습니다. 이제 기본 리전의 ID 정보와 권한 세트 등을 추가 리전에 복제하여, 기본 리전 장애 시에도 추가 리전의 액세스 포털을 통해 중단 없는 AWS 계정 접속이 가능합니다. 또한 사용자나 데이터 세트와 가까운 리전에 애플리케이션을 배치함으로써 성능 최적화와 데이터 레지던시 요구 사항을 동시에 충족할 수 있습니다. ### 서비스 복원력 및 애플리케이션 성능 향상 * 기본 리전의 조직 인스턴스에 연결된 인력 ID, 권한 세트, 메타데이터를 사용자가 지정한 추가 리전으로 복제하여 고가용성을 확보합니다. * 기본 리전에서 서비스 중단이 발생하더라도, 이미 프로비저닝된 권한을 바탕으로 추가 리전의 활성 AWS 액세스 포털 엔드포인트를 통해 계정에 접속할 수 있습니다. * AWS 관리형 애플리케이션을 데이터와 가까운 지역에 배포하여 사용자 경험을 개선하고, 규정에 따른 데이터 지역 제한 요구 사항을 준수할 수 있습니다. ### 설정 요구 사항 및 멀티 리전 KMS 구성 * 이 기능을 사용하려면 Microsoft Entra ID 또는 Okta와 같은 외부 IdP에 연결된 IAM Identity Center의 **조직 인스턴스**를 사용해야 합니다. * 암호화를 위해 고객 관리형 **멀티 리전 AWS KMS 키**가 필수적이며, 복제하려는 리전에 해당 키를 미리 복제하고 관련 권한을 구성해야 합니다. * 기본 리전 콘솔의 '설정' 메뉴에서 멀티 리전 KMS 키 사용 여부를 확인한 후, 원하는 리전을 선택하여 복제 프로세스를 시작할 수 있습니다. ### 외부 IdP 연동 및 운영 제어 방식 * 멀티 리전 환경을 지원하기 위해서는 외부 IdP(예: Okta 관리 콘솔) 설정에 추가된 리전의 **ACS(Assertion Consumer Service) URL**을 등록해야 합니다. * 사용자가 각 리전의 액세스 포털을 쉽게 찾을 수 있도록 IdP 내에 리전별 북마크 애플리케이션을 생성하는 방식이 권장됩니다. * 모든 중앙 구성 관리(ID 및 권한 관리 등)는 기본 리전에서 수행되며, 추가 리전에서는 애플리케이션 관리 및 세션 취소와 같은 제한된 작업만 가능합니다. * 모든 사용자 작업은 해당 작업이 수행된 리전의 AWS CloudTrail에 기록되어 중앙 집중식 모니터링과 보안 감사가 가능합니다. 비즈니스 연속성(BCP)이 중요한 기업은 이 기능을 활용해 인증 서비스 장애에 대비한 '브레이크 글래스(Break-glass)' 액세스 전략을 강화할 것을 권장합니다. 현재 기본적으로 활성화된 17개의 상업용 AWS 리전에서 추가 비용 없이(KMS 비용 별도) 즉시 도입할 수 있습니다.

장인 정신을 담아: Figma (새 탭에서 열림)

피그마는 디자이너가 외부 편집 도구 없이도 캔버스 안에서 고해상도 이미지 작업을 완결할 수 있도록 세 가지 새로운 AI 기반 이미지 편집 도구를 도입했습니다. 이번 업데이트의 핵심은 디자인 흐름을 끊지 않으면서도 정교한 편집 기능을 제공하여 생산성을 극대화하는 데 있습니다. 이를 통해 디자이너는 복잡한 마스킹이나 배경 제거 작업을 클릭 몇 번만으로 해결하며 창의적인 작업에 더 집중할 수 있게 되었습니다. ### 배경 제거 (Remove Background) - 기존의 서드파티 플러그인 의존도를 낮추고 피그마 내부에서 네이티브하게 배경을 제거할 수 있는 기능을 제공합니다. - AI가 피사체와 배경을 정교하게 구분하여 머리카락이나 미세한 경계면까지 깔끔하게 처리합니다. - 원본 데이터를 손상시키지 않는 비파괴 편집 방식을 지원하여, 편집 후에도 언제든 원본으로 복구하거나 마스크 영역을 수정할 수 있습니다. ### 객체 선택 및 마스킹 (Object Selection) - 이미지 내의 특정 사물이나 인물을 자동으로 인식하여 클릭 한 번으로 개별 선택할 수 있는 지능형 선택 도구입니다. - 선택된 객체는 즉시 별도의 레이어로 분리하거나 정교한 마스크를 씌우는 등 독립적인 요소로 제어할 수 있습니다. - 이미지 전체를 다시 편집할 필요 없이 특정 부분만 수정하거나 레이어 순서를 조정하는 등의 세밀한 디자인 워크플로우를 지원합니다. ### 이미지 생성 및 교체 (Generative Replace & Expand) - 생성형 AI를 활용하여 이미지의 부족한 여백을 자연스럽게 채워주는 이미지 확장 기능을 지원합니다. - 특정 영역을 선택하고 프롬프트를 입력하여 새로운 개체를 추가하거나, 기존 요소를 디자인 맥락에 맞는 다른 이미지로 교체할 수 있습니다. - 스톡 이미지의 구도나 구성 요소가 디자인 의도와 맞지 않을 때, 외부 툴로 이동하지 않고 피그마 안에서 즉시 에셋을 맞춤형으로 변형할 수 있습니다. 이 새로운 도구들은 피그마가 단순한 벡터 도구를 넘어 통합 디자인 플랫폼으로 진화하고 있음을 보여줍니다. 포토샵 등 외부 툴과의 맥락 전환(Context Switching)을 최소화하고 싶다면, 이번 AI 편집 기능을 적극적으로 워크플로우에 통합하여 작업 속도를 높여보시길 권장합니다.

R2 로컬 업로드로 글로벌 (새 탭에서 열림)

Cloudflare는 전 세계 어디에서나 R2 객체 스토리지의 업로드 성능을 극대화할 수 있는 'Local Uploads' 기능을 오픈 베타로 출시했습니다. 이 기능은 클라이언트와 가장 가까운 위치에 데이터를 먼저 기록한 뒤 버킷이 위치한 지역으로 비동기 복제하는 방식을 통해, 지리적 거리로 인한 업로드 지연 시간을 최대 75%까지 단축합니다. 특히 데이터의 즉각적인 접근성과 강력한 일관성을 유지하면서도 글로벌 서비스의 쓰기 성능을 획기적으로 개선한 것이 핵심입니다. ### 전 세계 업로드 성능의 비약적 향상 * **TTLB(Time to Last Byte) 감축**: 내부 테스트 결과, 클라이언트와 버킷의 지역이 다를 때 업로드 완료까지 걸리는 시간이 최대 75% 감소했습니다. * **성능 벤치마크**: 북미 서부에서 아시아 태평양 지역 버킷으로 5MB 크기의 객체를 업로드할 때, 기존 약 2초 소요되던 시간이 Local Uploads 적용 후 약 500ms 수준으로 단축되었습니다. * **글로벌 사용자 경험 최적화**: 전 세계에 분산된 사용자로부터 미디어 콘텐츠를 수집하거나 IoT 장치의 로그 및 텔레메트리 데이터를 전송받는 애플리케이션에 이상적입니다. ### 데이터 처리 메커니즘과 거리 문제 해결 * **기존 방식의 한계**: 기존에는 사용자가 어디에 있든 데이터가 버킷이 지정된 지역의 스토리지까지 물리적으로 이동해야 했으므로, 거리가 멀수록 대기 시간과 불안정성이 증가했습니다. * **로컬 우선 쓰기**: 클라이언트가 버킷과 다른 지역에 있을 경우, R2 게이트웨이는 데이터를 클라이언트 인근 스토리지 인프라에 즉시 기록하고 메타데이터만 버킷 지역에 게시합니다. * **즉각적인 가용성**: 로컬에 쓰기가 완료되는 즉시 객체에 접근할 수 있으며, 배경에서 복제 작업이 진행되는 중에도 데이터 읽기가 가능해 대기 시간이 전혀 없습니다. ### 아키텍처 및 내부 구현 기술 * **Cloudflare Queues 활용**: 복제 작업(Replication Task)을 비동기적으로 처리하기 위해 Cloudflare Queues를 도입했습니다. 이를 통해 실패 시 재시도 처리와 부하 조절(Rate limiting)을 효율적으로 관리합니다. * **원자적 작업 처리**: 메타데이터 저장 시 객체 메타데이터 저장, 보류 중인 복제 키 생성, 복제 작업 마커 생성을 원자적(Atomic)으로 수행하여 데이터 무결성을 보장합니다. * **구성 요소**: 인증과 라우팅을 담당하는 'R2 Gateway Worker', 메타데이터를 관리하는 'Durable Object Metadata Service', 그리고 실제 암호화된 데이터를 저장하는 분산 스토리지 인프라가 협업합니다. ### 사용 환경 및 권장 사항 * **적용 방법**: Cloudflare 대시보드 설정이나 Wrangler 명령(`npx wrangler r2 bucket local-uploads enable [BUCKET]`)을 통해 기존 버킷에서 즉시 활성화할 수 있습니다. * **제한 사항**: 데이터 주권 준수가 필요한 지역 제한(Jurisdiction restriction, 예: EU 전용) 버킷에서는 이 기능을 사용할 수 없습니다. * **활용 팁**: 대시보드의 R2 버킷 메트릭 페이지에서 '지역별 요청 분포'를 확인하여, 읽기/쓰기 요청이 전 세계적으로 분산되어 있다면 Local Uploads를 활성화하는 것이 성능 최적화에 큰 도움이 됩니다.

아이디어에서 데모까지 이 (새 탭에서 열림)

Superhuman은 2025년 해커톤을 통해 엔지니어링, 제품, 디자인, 마케팅 등 전 직군이 협업하여 AI 기술을 실제 제품 워크플로우에 어떻게 녹여낼 수 있는지를 탐구했습니다. 참가자들은 Claude Code와 Cursor 같은 최신 AI 도구를 적극 활용해 단 이틀 만에 고도화된 MVP를 구축했으며, 이는 AI 에이전트 시대에 걸맞은 새로운 사용자 경험(UX)과 데이터 활용 방식의 가능성을 입증했습니다. 특히 이번 행사는 기술적 장벽을 넘어 비개발 직군까지 제작 과정에 참여함으로써 AI가 주도하는 '제작의 민주화'를 실현했다는 점에서 큰 의미가 있습니다. ### 모든 곳에서의 Superhuman 커맨드(SCE) * Superhuman Mail의 핵심인 '커맨드 센터' 기능을 브라우저 전체로 확장하여, 이메일뿐만 아니라 Grammarly 등 다양한 도구의 기능을 단축키로 제어할 수 있게 합니다. * 사용자는 마우스 없이 키보드만으로 Grammarly의 교정 제안을 수락(E)하거나 거절(D)하고, 'J'와 'K' 키로 카드 사이를 이동하며 작업을 완수할 수 있는 워크플로우를 제공합니다. * 프론트엔드 개발 경험이 부족한 팀원들도 AI를 활용한 이른바 '바이브 코딩(vibe-coding)'을 통해 단 몇 시간 만에 복잡한 통합 기능을 구현해냈으며, 이는 키보드 중심의 새로운 AI 인터페이스 패러다임을 제시했습니다. ### Coda 내 화이트보드 및 AI 다이어그램 * Coda 문서 내에서 직접 브레인스토밍과 다이어그램 작성을 할 수 있는 화이트보드 기능을 구축하여, 문서 작업과 시각적 협업의 단절을 해소했습니다. * 사용자가 텍스트로 원하는 내용을 설명하면 AI가 이를 즉시 편집 가능한 형태의 다이어그램으로 생성해 주는 기능이 포함되어 있습니다. * 개발 배경이 없는 고객 성공 매니저(CSM)가 Claude Code와 Cursor를 활용해 독자적으로 MVP를 완성했으며, 기능 확장보다는 실제 사용자가 느끼는 UX의 부드러움과 직관성을 최우선으로 정교화했습니다. ### 데이터 통합을 통한 Superhuman Listening * Salesforce, Gong, Zendesk 등 여러 채널에 흩어진 파편화되고 구조화되지 않은 고객 피드백을 하나의 '진실 공급원(Single Source of Truth)'으로 통합하는 프로젝트입니다. * LLM API를 호출하여 고객 지원 티켓에서 긴급도와 감정을 추출하고, 이를 Coda 기반의 제품 로드맵과 연동하여 특정 기능에 대한 고객의 니즈를 정량적으로 파악합니다. * 13명의 다학제 팀이 협업하여 데이터의 노이즈를 제거하고 유의미한 제품 피드백 신호만을 포착하는 모델링 검증에 집중했습니다. ### 포용적 언어 에이전트(Inclusive Language Agent) * 업무 소통 중 무의식적으로 발생할 수 있는 편향되거나 비포용적인 표현을 감지하고, 더 나은 대안을 제안하는 언어 교정 도구입니다. * 언어학자들이 주도하여 단어 선택이 기업 문화와 고객 신뢰에 미치는 영향을 분석하고, AI가 조직 내 신뢰와 기회의 평등을 강화할 수 있도록 설계했습니다. 이번 해커톤의 결과물들은 AI 도구가 단순한 보조를 넘어 개발 생산성을 비약적으로 높이고, 사용자 인터페이스(UI)를 키보드 중심으로 재편할 수 있음을 보여줍니다. 특히 비개발자가 AI의 도움을 받아 복잡한 기능을 직접 구현한 사례는, 향후 제품 개발 프로세스에서 직군 간 경계가 허물어지고 창의적인 아이디어의 실현 속도가 더욱 빨라질 것임을 시사합니다.

실제 가상 진료 환경 (새 탭에서 열림)

구글은 가상 진료 서비스 제공업체인 '인클루디드 헬스(Included Health)'와 협력하여 실제 의료 현장에서 대화형 AI의 성능을 평가하는 대규모 전국 단위 무작위 연구를 시작합니다. 이번 연구는 시뮬레이션이나 과거 데이터를 분석하던 기존 방식에서 벗어나, 실제 임상 워크플로우 내에서 AI의 안전성과 효용성을 검증하는 것을 목표로 합니다. 이를 통해 의료 AI 기술이 전문적인 의료 지식에 대한 접근성을 높이고 의료진의 업무 부담을 줄이는 데 실질적으로 기여할 수 있는지에 대한 엄격한 증거를 구축할 계획입니다. ### 실규모 전국 단위 연구의 목표와 체계 * **실제 진료 환경에서의 검증:** 시뮬레이션이 아닌 실제 가상 진료 워크플로우에 AI를 적용하여 전국 각지의 환자와 다양한 질환군을 대상으로 대규모 데이터를 수집합니다. * **무작위 대조군 시험(RCT):** 동의한 참여자를 대상으로 표준 임상 관행과 AI 기반 진료를 비교하는 무작위 대조군 시험 방식을 채택하여 연구의 신뢰도를 높입니다. * **책임감 있는 기술 도입:** 의학적 개입에 요구되는 수준과 유사한 높은 증거 생성 기준을 적용함으로써, AI 시스템이 환자와 의료진에게 안전하고 유익하다는 신뢰를 구축하고자 합니다. ### 단계적 연구 진화 과정 * **초기 진단 역량 연구:** 초기에는 AI의 진단 추론 능력과 의사 보조 효과를 확인하였으며, 모의 환자를 활용하여 1차 진료 의사와의 대화 역량을 비교하는 실험을 거쳤습니다. * **단일 센터 타당성 조사:** 베스 이스라엘 데이커니스 의료센터(BIDMC)와 협력하여 실제 임상 현장에서의 안전성(안전 감독자의 개입 빈도 등)을 측정하는 소규모 연구를 선행했습니다. * **전국 단위 확산:** 단일 기관 연구를 통해 확인된 안전성 지표를 바탕으로, 이제 전국 단위의 규모 확장을 통해 임상적 유용성과 환자 경험을 심층 분석하는 단계로 진입했습니다. ### AI 시스템의 기반이 되는 핵심 기술 * **AMIE (진단 및 관리 추론):** 시뮬레이션 학습을 통해 1차 진료 의사 수준의 진단 정확도와 대화 품질을 확보한 기술로, 환자 이력과 임상 가이드라인을 바탕으로 후속 치료 계획을 수립합니다. * **PHA (개인화된 건강 통찰):** 웨어러블 기기의 데이터를 분석하여 수면 및 활동 패턴에 따른 맞춤형 건강 코칭을 제공하며, 환자의 일상적인 건강 맥락을 파악하는 역할을 합니다. * **Wayfinding AI (정보 탐색 지원):** 사용자가 온라인에서 건강 정보를 검색할 때 능동적인 가이드를 제공하여, 실질적인 건강 여정에 필요한 정확한 정보를 찾을 수 있도록 돕습니다. 이번 연구는 실험실 수준의 '가능성'을 증명하는 단계를 넘어, 대규모 임상 데이터를 통해 AI가 의료 시스템의 표준으로 자리 잡을 수 있는 근거를 마련한다는 점에서 큰 의의가 있습니다. 향후 이러한 엄격한 증거 기반 접근 방식은 의료 AI가 단순한 기술적 혁신을 넘어 환자 치료 결과(Outcome)를 실질적으로 개선하는 신뢰할 수 있는 도구로 인정받는 표준이 될 것으로 기대됩니다.

AWS 주간 업데이트: Amazon Bedrock (새 탭에서 열림)

이번 AWS Weekly Roundup은 생성형 AI 에이전트의 워크플로우 강화와 데이터 보안 및 운영 효율성을 높이는 다양한 업데이트를 다루고 있습니다. 특히 Amazon Bedrock의 서버 측 도구 지원과 S3의 암호화 관리 방식 개선 등 개발자가 더욱 안전하고 고도화된 애플리케이션을 구축할 수 있도록 돕는 기능들이 대거 출시되었습니다. 이번 업데이트들을 통해 기업들은 인프라 관리의 복잡성을 줄이면서도 고성능의 탄력적인 클라우드 환경을 구현할 수 있게 되었습니다. ### Amazon Bedrock 및 AI 에이전트 워크플로우 강화 * **서버 측 도구 지원**: Bedrock 에이전트가 AWS 보안 경계 내에서 웹 검색, 코드 실행, 데이터베이스 업데이트 등의 작업을 수행할 수 있는 서버 측 도구 기능이 추가되었습니다. (OpenAI GPT OSS 20B/120B 모델 지원) * **프롬프트 캐싱 TTL 확장**: 멀티 턴(multi-turn) 대화의 성능을 높이고 비용을 절감하기 위해 프롬프트 캐싱에 1시간 TTL(Time-to-Live) 옵션이 도입되었습니다. * **자연어 기반 배포(MCP Server)**: AI 에이전트가 자연어 프롬프트만으로 AWS CDK 인프라를 생성하고 CloudFormation 스택을 배포할 수 있는 표준 운영 절차(SOP)가 미리보기로 제공됩니다. ### 데이터 보안 및 네트워크 연결성 최적화 * **S3 객체 암호화 변경**: `UpdateObjectEncryption` API를 통해 데이터를 이동하거나 다시 업로드하지 않고도 기존 객체의 서버 측 암호화 유형(SSE-S3에서 SSE-KMS 등)을 변경하거나 키를 교체할 수 있습니다. * **SageMaker Unified Studio 프라이빗 연결**: AWS PrivateLink를 지원하여 공용 인터넷을 거치지 않고 VPC와 SageMaker Unified Studio 간의 안전한 데이터 통신이 가능해졌습니다. * **Network Firewall 가시성**: 생성형 AI 애플리케이션 트래픽을 식별하는 웹 카테고리가 추가되어, AI 도구에 대한 액세스 제어 및 URL 수준의 필터링이 가능합니다. ### 데이터베이스 및 이벤트 기반 아키텍처 성능 향상 * **Amazon Keyspaces 테이블 예열(Pre-warming)**: 높은 읽기/쓰기 트래픽이 예상되는 시점에 미리 테이블을 예열하여 콜드 스타트 지연 없이 즉각적인 처리량을 확보할 수 있습니다. * **EventBridge 페이로드 용량 확대**: 이벤트 페이로드 제한이 기존 256KB에서 1MB로 크게 늘어나, 대규모 JSON 구조나 텔레메트리 데이터를 외부 저장소 없이 한 번에 전송할 수 있습니다. * **DynamoDB MRSC 결함 주입 테스트**: AWS Fault Injection Service와 통합되어 다중 리전 강력한 일관성(MRSC) 글로벌 테이블의 리전 장애 시뮬레이션 및 복원력 검증이 가능합니다. ### 모니터링 및 운영 도구 개선 * **Lambda-Kafka 관측성 강화**: Kafka 이벤트 소스 매핑에 대한 CloudWatch 로그 및 지표가 추가되어, 폴링 설정 및 스케일링 상태를 더욱 세밀하게 모니터링할 수 있습니다. * **AI 지원 관측성 워크플로우**: Amazon CloudWatch Application Signals와 Kiro의 통합으로 AI 에이전트의 도움을 받아 서비스 상태 및 SLO 준수 여부를 더 빠르게 조사할 수 있습니다. 이번 업데이트의 핵심은 AI 에이전트가 실제 비즈니스 로직을 안전하게 수행하도록 돕는 인프라를 구축하고, 대규모 데이터 처리 시 발생하는 운영상의 병목 현상을 제거하는 데 있습니다. 특히 S3 암호화 변경이나 EventBridge 용량 확대와 같은 기능은 기존 아키텍처의 수정 없이도 운영 효율을 즉각적으로 개선할 수 있는 실용적인 변화이므로 적극적인 도입 검토를 추천합니다.