Osprey: 규칙 엔진 오픈 소 (새 탭에서 열림)

많은 온라인 플랫폼이 유사한 안전 위협에 직면함에도 불구하고 매번 도구를 처음부터 다시 개발하는 비효율을 겪고 있습니다. 이를 해결하기 위해 ROOST와 internet.dev 팀은 실시간 활동 조사와 동적 규칙 배포가 가능한 오픈 소스 안전 규칙 엔진인 'Osprey'를 공개했습니다. Osprey를 통해 팀은 최소한의 엔지니어링 비용으로 새로운 위협에 신속하게 대응하고 플랫폼의 안전 조치를 강화할 수 있습니다. **플랫폼 안전 도구 개발의 중복성 해결** - 대다수 온라인 플랫폼이 보안 및 안전 문제에 대해 각자 도구를 개발하느라 자원을 낭비하는 문제를 해결하고자 합니다. - Osprey는 검증된 안전 조치 시스템을 오픈 소스로 제공하여 기업들이 기초 단계부터 시스템을 재발명할 필요 없이 즉시 보안 체계를 강화할 수 있도록 돕습니다. **Osprey의 실시간 대응 메커니즘** - 실시간 모니터링: 플랫폼 전반에서 발생하는 활동을 실시간으로 조사하여 잠재적인 위험 요소를 즉각 파악할 수 있습니다. - 동적 규칙 배포: 새롭게 등장하는 위협에 대응하기 위해 복잡한 엔지니어링 공정 없이도 유연하게 안전 규칙을 설정하고 즉시 적용할 수 있습니다. - 최소한의 운영 비용: 엔지니어링 오버헤드를 최소화하도록 설계되어, 소규모 팀에서도 강력한 안전 엔진을 효율적으로 운영할 수 있습니다. 플랫폼 안전 시스템을 처음부터 구축하는 데 어려움을 겪고 있다면, Osprey 오픈 소스를 활용해 신속하고 강력한 대응 체계를 구축해 보시기 바랍니다. 이를 통해 기술적 부채를 줄이면서도 최신 위협에 유연하게 대처하는 보안 환경을 조성할 수 있습니다.

디스코드 체크포인트가 출시 (새 탭에서 열림)

Discord는 2025년을 마무리하며 사용자의 활동 기록을 한눈에 살펴볼 수 있는 첫 번째 연말 결산 기능인 ‘Discord 체크포인트(Discord Checkpoint)’를 출시했습니다. 이 기능을 통해 사용자는 지난 한 해 동안 보낸 메시지 수, 음성 채팅 시간, 가장 많이 대화한 친구 등 플랫폼 내에서의 활동을 구체적인 데이터로 확인할 수 있습니다. 이는 사용자가 한 해 동안 Discord에서 쌓은 추억과 기여를 되돌아보고 커뮤니티와의 유대감을 강화하는 계기를 제공합니다. **Discord 체크포인트의 주요 통계 및 확인 방법** * 지난 1년간 전송한 메시지 총량과 음성 채팅 채널에 머문 시간 등 활동량을 수치로 보여줍니다. * 가장 자주 사용한 이모지, 가장 오래 머무른 서버, 그리고 가장 빈번하게 소통한 '베스트 프렌드'가 누구인지 분석하여 제공합니다. * 데스크톱 앱 우측 상단의 깃발 아이콘이나 모바일 앱 '사용자(You)' 탭에 표시되는 체크포인트 배너를 통해 바로 접속할 수 있습니다. * 체크포인트를 확인하기 위해서는 앱을 최신 버전으로 업데이트해야 하며, 설정 내 ‘데이터를 사용하여 환경 개인화’ 옵션이 활성화되어 있어야 합니다. **개인별 카드 매칭과 한정판 보상** * 사용자의 활동 패턴에 따라 총 10가지의 서로 다른 '체크포인트 카드' 중 하나가 결과로 부여됩니다. * 각 카드에는 그에 어울리는 전용 아바타 장식이 포함되어 있어, 본인의 활동 성향을 프로필에 표현할 수 있습니다. * 제공되는 한정판 아바타 장식은 2026년 1월 15일까지 착용할 수 있어 연말연시 분위기를 더해줍니다. **공유 옵션 및 프라이버시 관리** * 분석된 결과 요약본을 채팅창에 간편하게 공유하여 친구들과 결과를 비교하거나 대화를 나눌 수 있습니다. * 모든 데이터는 기본적으로 본인만 볼 수 있는 비공개 상태로 유지되며, 공유 여부는 사용자가 직접 결정할 수 있습니다. * 활동량이 충분하지 않은 계정의 경우 요약 데이터가 생성되지 않을 수 있으므로 참고가 필요합니다. Discord를 꾸준히 이용해 온 사용자라면 지금 바로 앱을 업데이트하여 본인의 2025년 기록을 확인해 보시기 바랍니다. 특히 기간 한정으로 제공되는 아바타 장식은 자신의 활동 정체성을 나타낼 좋은 기회이므로, 잊지 말고 체크포인트를 방문하여 보상을 수령하고 친구들과 추억을 공유해 보시는 것을 추천합니다.

디스코드 패치 노트: 20 (새 탭에서 열림)

디스코드는 서비스의 성능, 안정성, 응답성 및 사용성을 개선하기 위해 진행된 주요 변경 사항을 공유하는 '패치 노트(Patch Notes)' 시리즈를 운영하고 있습니다. 이번 업데이트는 전반적인 버그 수정과 시스템 최적화 내용을 담고 있으며, 사용자들에게 더욱 쾌적한 통신 환경을 제공하는 것을 목표로 합니다. 모든 수정 사항은 이미 코드 커밋과 병합이 완료되어 각 플랫폼별로 순차적인 배포가 진행 중입니다. ### 서비스 품질 및 성능 최적화 * 성능, 신뢰성, 응답성, 사용성 등 서비스 전반의 핵심 지표를 개선하기 위한 다양한 기술적 수정을 진행했습니다. * 일반적인 버그들을 식별하고 해결하여 사용자가 경험하는 불편함을 최소화하고 전반적인 서비스 완성도를 높였습니다. * 모든 기술적 변경 사항은 내부 검증을 거쳐 병합되었으며, 플랫폼에 따라 순차적으로 적용되어 최신 상태를 유지하게 됩니다. ### 커뮤니티 기반의 버그 제보 시스템 * 사용자가 발견한 버그를 직접 공유할 수 있도록 레딧(r/DiscordApp) 내에 '격월 버그 메가스레드(Bimonthly Bug Megathread)'를 운영합니다. * 커뮤니티를 통해 접수된 피드백은 디스코드 엔지니어링 팀이 직접 검토하여 실제 서비스 개선에 적극적으로 반영하고 있습니다. ### TestFlight를 통한 사전 기능 테스트 * iOS 사용자들을 대상으로 공식 출시 전 최신 기능을 미리 체험해 볼 수 있는 TestFlight 버전을 제공합니다. * 사용자는 정식 출시 전의 기능을 테스트하고 잠재적인 버그를 사전에 찾아냄으로써 서비스의 품질 향상에 직접 기여할 수 있습니다. * 관심 있는 사용자는 전용 링크(dis.gd/testflight)를 통해 테스트 프로그램에 참여가 가능합니다. 디스코드의 성능 개선에 기여하고 싶은 사용자라면 레딧의 메가스레드를 활용해 적극적으로 피드백을 남기는 것이 권장됩니다. 특히 새로운 기능을 남들보다 먼저 경험하고 싶은 iOS 사용자에게는 TestFlight 프로그램을 통한 얼리어답터 활동을 추천합니다.

디스코드 테마를 변경 (새 탭에서 열림)

디스코드는 사용자가 데스크톱과 모바일 환경 모두에서 자신만의 개성을 표현할 수 있도록 앱의 시각적 테마 기능을 강화했습니다. 모든 사용자는 네 가지 기본 테마를 자유롭게 선택할 수 있으며, 니트로(Nitro) 구독자에게는 더욱 폭넓은 색상 옵션과 커스텀 기능이 제공됩니다. 이를 통해 기존의 단순한 라이트·다크 모드를 넘어 더욱 다채로운 사용자 인터페이스 환경을 구축할 수 있게 되었습니다. **사용자 권한에 따른 테마 선택 폭** * **일반 사용자:** 앱의 룩앤필을 변경할 수 있는 4가지 기본 테마가 모든 사용자에게 무료로 제공됩니다. * **니트로 멤버 전용 혜택:** 니트로 구독자는 기본 테마 외에 28가지의 추가 컬러 테마를 즉시 사용할 수 있습니다. * **커스텀 테마 제작:** 니트로 멤버는 제공된 프리셋을 사용하는 것에 그치지 않고, 본인의 취향에 맞는 고유한 커스텀 테마를 직접 제작하여 적용할 수 있습니다. **설정 편의성 및 플랫폼 호환성** * **멀티 디바이스 지원:** 테마 설정은 데스크톱 앱과 모바일 앱 모두에서 동일하게 적용되어 어디서든 일관된 시각적 경험을 유지합니다. * **직관적인 인터페이스:** 기존의 라이트 모드나 다크 모드를 전환하던 방식과 동일하게 설정 메뉴에서 간편하게 새로운 테마를 탐색하고 적용할 수 있습니다. 기존의 단조로운 배경색에서 벗어나 자신만의 소통 환경을 꾸미고 싶다면 디스코드 설정의 테마 메뉴를 확인해 보시기 바랍니다. 특히 니트로 사용자라면 제공되는 다양한 색상 조합과 커스텀 기능을 활용해 최적화된 시각적 분위기를 연출해 보는 것을 추천합니다.

GitLab, 서비스 크레딧으로 (새 탭에서 열림)

GitLab이 GitLab.com 및 GitLab Dedicated를 사용하는 Ultimate 요금제 고객을 대상으로 99.9% 가용성 보장 및 서비스 수준 계약(SLA) 미달 시 서비스 크레딧을 제공하는 정책을 발표했습니다. 이번 정책은 미션 크리티컬한 DevSecOps 워크플로우의 안정성을 보장하고 플랫폼 신뢰도에 대한 책임을 강화하기 위해 도입되었습니다. 가용성이 기준치 아래로 떨어질 경우, 고객은 향후 인보이스에서 차감 가능한 크레딧을 청구하여 비즈니스 연속성을 지원받을 수 있습니다. **신뢰 기반의 가용성 보장과 서비스 크레딧** * 현대적인 소프트웨어 개발 환경에서는 코드 푸시, 병합 요청(MR), 이슈 트래킹이 실시간으로 발생하므로 플랫폼의 가동 중단은 전체 워크플로우의 정지로 이어집니다. * GitLab은 99.9% 가용성 SLA를 통해 고객의 개발 속도가 인프라 문제로 저해되지 않도록 보장하며, 서비스 크레딧 제도를 통해 플랫폼 신뢰도에 대한 금전적 책임을 명시했습니다. * 이는 단순한 가용성 수치 달성을 넘어 고객의 비즈니스 성과와 GitLab의 성공을 일치시키려는 전략적 의도를 담고 있습니다. **SLA 적용 대상 및 핵심 서비스 범위** * DevSecOps 워크플로우의 핵심인 이슈 관리와 병합 요청(Merge Requests) 기능이 포함됩니다. * HTTPS 및 SSH를 통한 Git 작업(push, pull, clone)과 컨테이너 및 패키지 레지스트리 운영이 보호 대상입니다. * 위 항목들과 관련된 API 요청 또한 SLA 범위에 포함되며, 구체적인 제외 항목은 GitLab 핸드북을 통해 투명하게 공개됩니다. **가동 중단(Downtime)의 기술적 정의와 측정 방식** * 전 세계 여러 지리적 위치에서 자동화된 모니터링 도구를 사용하여 실제 고객이 체감하는 가용성을 정밀하게 측정합니다. * 특정 '분' 단위 시간 동안 유효한 고객 요청의 5% 이상이 서버 오류(HTTP 5xx status codes) 또는 30초 이상의 연결 시간 초과를 발생시킬 경우 이를 '가동 중단 분'으로 정의합니다. * 서버측 실패 외에도 기능 사용을 불가능하게 만드는 애플리케이션 버그나 성능 저하 이슈에 대해서는 자동 모니터링 결과와 별개로 고객의 청구를 종합적으로 검토하여 반영합니다. **서비스 크레딧 청구 및 처리 절차** * 가동 중단이 발생한 달이 종료된 후 30일 이내에 GitLab 지원 센터(support.gitlab.com)를 통해 크레딧 청구를 제출해야 합니다. * GitLab 기술 팀은 제출된 청구 내용을 검토하고 내부 모니터링 데이터를 바탕으로 가동 중단 시간을 검증합니다. * 승인된 서비스 크레딧은 고객의 다음번 발행 인보이스에 적용되어 비용을 절감해 줍니다. GitLab Ultimate 사용 기업은 이번 SLA 정책을 통해 더욱 안정적인 개발 환경을 구축할 수 있게 되었습니다. 플랫폼 장애 발생 시 비즈니스 피해를 최소화하기 위해, 장애 발생 시점의 로그를 기록해두고 월 종료 후 30일 이내에 잊지 말고 크레딧을 청구하여 비용 효율성을 극대화하시기 바랍니다.

Pinterest의 Apache Spark에서 (새 탭에서 열림)

Pinterest는 대규모 Spark 환경에서 빈번하게 발생하는 OOM(Out-of-Memory) 오류를 해결하기 위해 'Auto Memory Retries' 기능을 도입했습니다. 이 시스템은 태스크 수준에서 리소스 요구량을 동적으로 판단하고, 실패 시 더 큰 메모리 프로필을 가진 실행기(Executor)에서 태스크를 재시도하도록 자동화합니다. 이를 통해 수동 튜닝의 번거로움을 줄이고 자원 효율성을 높여 전체적인 작업 실패율과 운영 비용을 획기적으로 낮추는 성과를 거두었습니다. ### 기존 Spark 리소스 관리의 한계와 문제점 * Pinterest의 Spark 클러스터는 하드웨어 대비 높은 메모리 요구량으로 인해 OOM 오류가 잦았으며, 전체 작업 실패 원인의 약 4.6%가 메모리 부족에서 기인했습니다. * 사용자가 모든 스테이지와 태스크의 메모리 요구량을 정확히 예측하여 수동으로 설정하는 것은 매우 어렵고 시간이 많이 소요되는 작업입니다. * 데이터 스큐(Skew) 현상으로 인해 같은 스테이지 내에서도 특정 태스크만 과도한 메모리를 사용하는 경우가 많아, 모든 태스크를 최대치에 맞춰 설정하면 심각한 자원 낭비가 발생합니다. * 제품 팀의 우선순위 문제로 인해 비용 절감을 위한 수동 최적화가 지속적으로 이루어지기 어려운 구조적 한계가 있었습니다. ### Auto Memory Retries의 단계별 대응 전략 * **CPU 할당량 증설을 통한 메모리 확보 (1단계):** 실행기에 1개 이상의 코어가 있는 경우, OOM 발생 시 첫 번째 재시도에서 태스크당 CPU 할당량(`spark.task.cpus`)을 두 배로 늘립니다. 이를 통해 실행기 내 동시 실행 태스크 수를 줄여 개별 태스크가 사용할 수 있는 공유 메모리 공간을 즉각적으로 확보합니다. * **물리적으로 큰 실행기 투입 (2단계):** CPU 조절만으로 해결되지 않거나 단일 태스크가 이미 실행기 전체 메모리를 사용 중인 경우, 물리적으로 더 큰 메모리를 가진 새로운 실행기를 동적으로 런칭합니다. * **하이브리드 확장 프로필 적용:** 기본 설정의 2배, 3배, 4배 크기의 리소스 프로필을 미리 등록하고 단계별로 순차 적용합니다. Apache Gluten을 사용하는 워크로드의 경우 Off-heap 메모리도 함께 증설하여 가속화된 연산을 지원합니다. ### 시스템 구현 및 Spark 엔진 확장 * **태스크 수준의 리소스 프로필:** 기존 Spark의 고정된 리소스 할당 방식에서 벗어나, `Task` 객체에 개별 리소스 프로필 ID(`taskRpId`)를 저장할 수 있도록 확장하여 동일한 TaskSet 내에서도 태스크마다 사양을 다르게 가질 수 있게 구현했습니다. * **스케줄링 로직 최적화:** `TaskSetManager`는 OOM 감지 시 즉시 상위 프로필을 할당하며, `TaskSchedulerImpl`은 증설된 CPU 속성을 가진 태스크를 기존 실행기에서 우선 실행할 수 있게 하여 리소스 재사용 속도를 높였습니다. * **동적 리소스 할당:** `ExecutorAllocationManager`가 상위 프로필을 필요로 하는 대기 태스크를 실시간으로 추적하고, 물리적으로 큰 실행기가 필요한 시점에 맞춰 Kubernetes 등에 자원을 요청합니다. * **사용자 경험 개선:** 사용자가 어떤 태스크가 더 많은 자원을 사용했는지 쉽게 파악할 수 있도록 Spark UI의 태스크 목록에 리소스 프로필 ID를 표시하는 기능을 추가했습니다. 효율적인 Spark 운영을 위해서는 모든 작업을 최대 메모리 요구량에 맞추기보다, 상위 90%(P90) 수준의 일반적인 설정으로 실행하고 예외적인 태스크만 'Auto Memory Retries'로 구제하는 탄력적 전략이 권장됩니다. 이는 데이터 스큐가 심한 대규모 파이프라인에서 운영 안정성을 확보함과 동시에 인프라 비용을 최적화할 수 있는 강력한 해법이 될 것입니다.

데이터 사이언티스트로서 영향력을 (새 탭에서 열림)

피그마(Figma)는 데이터 규모가 급격히 팽창함에 따라 기존 배치 기반 파이프라인의 한계를 극복하기 위해 CDC(Change Data Capture) 및 스트리밍 아키텍처로의 대대적인 전환을 단행했습니다. Apache Iceberg와 Kafka, Debezium을 결합한 새로운 파이프라인을 통해 데이터 지연 시간을 수일에서 수분 단위로 단축했으며, 수백 개의 데이터베이스 샤드로부터 발생하는 대규모 데이터를 안정적으로 처리할 수 있는 기반을 마련했습니다. 이 글은 급성장하는 서비스에서 데이터 일관성과 실시간성을 동시에 확보하기 위한 피그마 엔지니어링 팀의 여정과 기술적 결정을 다룹니다. ### 기존 배치 파이프라인의 한계와 병목 현상 * 초기 피그마는 Embulk를 이용해 수백 개의 RDS 샤드에서 데이터를 추출하여 S3에 저장하고 이를 Snowflake로 로드하는 배치 방식을 사용했으나, 데이터 양이 늘어남에 따라 지연 시간이 며칠씩 발생했습니다. * 소스 데이터베이스에 직접 쿼리를 날려 데이터를 추출하는 방식은 운영 중인 DB에 과도한 부하를 주었으며, 이를 피하기 위해 읽기 전용 복제본(Read Replica)을 사용함에도 불구하고 스케일 아웃의 한계에 직면했습니다. * 스키마 변경이 발생할 때마다 파이프라인이 수동 개입 없이는 중단되거나 데이터 정합성이 깨지는 등 운영상의 복잡도가 임계치를 넘어서는 문제가 있었습니다. ### CDC 및 Kafka 기반의 실시간 스트리밍 도입 * 데이터베이스의 바이너리 로그(Binlog)를 읽어 변경 사항을 즉시 캡처하는 CDC 방식을 도입하여 원본 DB에 가하는 부하를 최소화했습니다. * Debezium 커넥터를 AWS MSK(Managed Streaming for Kafka)와 연결해 수백 개의 샤드에서 발생하는 변경 이벤트를 중앙 Kafka 클러스터로 실시간 수집하는 구조를 설계했습니다. * Confluent Schema Registry를 활용해 Avro 포맷으로 데이터를 직렬화함으로써, 업스트림의 스키마 변경이 다운스트림 파이프라인에 안전하고 자동화된 방식으로 전파되도록 구현했습니다. ### Apache Iceberg를 활용한 데이터 레이크 현대화 * S3에 저장되는 데이터를 관리하기 위해 오픈 소스 테이블 포맷인 Apache Iceberg를 도입하여 대규모 데이터셋에 대한 ACID 트랜잭션과 시간 여행(Time Travel) 기능을 확보했습니다. * 기존의 단순 파일 저장 방식과 달리 Iceberg는 메타데이터를 효율적으로 관리하므로, Snowflake와 같은 데이터 웨어하우스에서 쿼리 시 불필요한 파일을 스캔하지 않아도 되어 성능과 비용을 최적화했습니다. * Kafka Connect의 Iceberg 싱크를 사용하여 스트리밍 데이터를 즉시 Iceberg 테이블로 기록함으로써 데이터 신선도를 극대화했습니다. ### 시스템 전환의 성과와 운영 효율화 * 새로운 아키텍처 도입 후 데이터 가용 지연 시간이 수일에서 5분 이내로 줄어들었으며, 분석가와 엔지니어들이 거의 실시간에 가까운 인사이트를 얻을 수 있게 되었습니다. * 데이터 파이프라인의 가시성을 높이기 위해 사용자 정의 모니터링 대시보드와 알림 시스템을 구축하여, 특정 샤드나 커넥터에서 발생하는 문제를 즉각적으로 파악하고 대응할 수 있는 환경을 만들었습니다. * 인프라의 확장성이 크게 개선되어 향후 데이터베이스 샤드가 추가되거나 트래픽이 급증하더라도 파이프라인의 구조적 변경 없이 유연하게 대응할 수 있는 능력을 갖추게 되었습니다. 서비스 규모가 커짐에 따라 전통적인 배치 방식은 성능과 운영 면에서 한계에 부딪힐 수밖에 없습니다. 피그마의 사례처럼 CDC와 Kafka, 그리고 Iceberg와 같은 현대적인 데이터 스택을 조합하면 데이터 신선도를 획기적으로 높이면서도 시스템의 안정성을 동시에 확보할 수 있습니다. 대규모 샤딩 환경에서 데이터 파이프라인을 고민하는 팀이라면 이벤트 중심의 아키텍처와 스키마 레지스트리를 통한 자동화에 집중할 것을 권장합니다.

Claude Opus 4.6, (새 탭에서 열림)

GitLab은 Anthropic의 가장 강력한 AI 모델인 Claude Opus 4.6을 GitLab Duo 에이전트 플랫폼에 도입하여 개발자들에게 더욱 강력한 자율 성능을 제공합니다. 이 모델은 복잡한 개발 과업을 주도적으로 수행하는 '에이전틱(Agentic)' 역량이 극대화되었으며, 100만 토큰에 달하는 방대한 컨텍스트 창을 지원하는 것이 특징입니다. 개발자들은 이제 GitLab의 풍부한 DevSecOps 데이터와 결합된 최신 AI를 통해 대규모 코드베이스 분석부터 다단계 워크플로우 자동화까지 한층 높은 차원의 개발 경험을 누릴 수 있게 되었습니다. **Claude Opus 4.6의 핵심 에이전트 역량** * **능동적 과업 수행:** 이전 모델보다 적은 가이드로도 스스로 행동을 결정하고 작업을 추진하며, 복잡한 워크플로우를 해결하기 위해 하위 에이전트를 생성하거나 도구 호출을 병렬로 처리하는 능력이 탁월합니다. * **심화 및 적응형 추론:** 테스트 시간 연산(test-time compute)을 통해 문제의 난이도에 따라 사고 과정을 스스로 조정하며, 단순한 질문에는 빠르게 답하고 복잡한 문제에는 깊이 있는 추론을 적용합니다. * **압도적인 컨텍스트 창:** 기존 4.5 모델보다 5배 확장된 100만 토큰의 컨텍스트 창을 통해 전체 코드베이스, 상세 문서, 프로젝트 전체 이력을 단 한 번의 상호작용으로 파악할 수 있습니다. **GitLab Duo 플랫폼과의 통합 및 활용** * **풍부한 컨텍스트 제공:** GitLab 리포지토리, 병합 요청(MR), 파이프라인, 보안 결과물 등 플랫폼 내의 실제 DevSecOps 데이터를 활용하여 더욱 정확한 결과물을 산출합니다. * **지원 범위:** GitLab.com의 모든 에이전트와 에이전틱 채팅(Agentic Chat) 내 모델 선택기에서 사용할 수 있으며, 지원되는 IDE 내에서의 모델 선택 기능도 곧 출시될 예정입니다. (Duo Classic 기능은 제외) * **엔터프라이즈급 제어:** 인간 참여형(Human-in-the-loop) 제어 기능과 그룹 기반 액세스 권한 관리를 통해 고성능 AI를 안전하고 신뢰할 수 있는 방식으로 워크플로우에 통합할 수 있습니다. **모델 사용을 위한 크레딧 정책** * **프롬프트 크기별 차등 적용:** 200k 토큰 이하의 요청은 크레딧당 1.2회 사용 가능하며, 200k 토큰을 초과하는 대규모 요청은 크레딧당 0.7회의 비율로 계산됩니다. * **효율적 활용:** 방대한 데이터를 처리하는 작업일수록 크레딧 소모율이 달라지므로, 작업의 복잡도에 맞게 모델을 선택하여 사용하는 것이 권장됩니다. 현재 GitLab Duo 에이전트 플랫폼을 사용 중인 고객은 모델 선택기에서 즉시 Claude Opus 4.6으로 전환하여 그 성능을 체험할 수 있습니다. 대규모 마이그레이션이나 복잡한 보안 취약점 해결과 같이 고도의 지능이 필요한 작업에 이 모델을 적극 활용하여 팀의 생산성을 극대화해 보시기 바랍니다.

5세대 AMD EPYC 프로세 (새 탭에서 열림)

최신 5세대 AMD EPYC 프로세서를 탑재한 Amazon EC2 Hpc8a 인스턴스가 정식 출시되었습니다. 이 인스턴스는 이전 세대인 Hpc7a 대비 최대 40% 향상된 성능과 42% 높은 메모리 대역폭을 제공하여 계산 집약적인 고성능 컴퓨팅(HPC) 워크로드에 최적화되었습니다. 특히 기상 모델링, 유체 역학 시나리오, 복잡한 충돌 시뮬레이션 등 고도의 연산 능력이 필요한 결합형(Tightly Coupled) HPC 작업에서 탁월한 가성비를 보여줍니다. **Hpc8a 인스턴스의 주요 하드웨어 사양 및 성능** - 최대 4.5GHz의 클럭 속도를 제공하는 5세대 AMD EPYC 프로세서를 기반으로 구동됩니다. - 이전 세대(Hpc7a)와 비교했을 때 성능은 40%, 메모리 대역폭은 42% 향상되었으며, 가격 대비 성능(Price-performance)은 약 25% 개선되었습니다. - 단일 인스턴스 크기인 '96xlarge'로 제공되며, 192개의 코어와 768GiB의 메모리(코어 대 메모리 비율 1:4)를 탑재하고 있습니다. - 대규모 노드 간 통신을 위해 300Gbps 대역폭의 EFA(Elastic Fabric Adapter) 네트워킹을 지원하여 지연 시간을 최소화합니다. **HPC 최적화를 위한 아키텍처 및 유연성** - 가상화, 스토리지, 네트워킹 기능을 전용 하드웨어로 오프로드하는 6세대 AWS Nitro 카드를 사용하여 시스템 성능과 보안성을 극대화했습니다. - HPC 워크로드의 일관된 성능을 보장하기 위해 동시 멀티스레딩(SMT) 기능이 기본적으로 비활성화되어 있습니다. - 인스턴스 시작 시 사용자가 필요한 코어 수를 직접 맞춤 설정할 수 있어, 특정 워크로드 요구 사항에 맞춰 리소스를 효율적으로 조정할 수 있습니다. **통합 에코시스템 및 서비스 활용** - AWS ParallelCluster 및 AWS Parallel Computing Service(AWS PCS)와 연동하여 클러스터 생성 및 워크로드 제출 과정을 간소화할 수 있습니다. - Amazon FSx for Lustre 스토리지와 결합 시 밀리초 미만의 지연 시간과 초당 수백 기가바이트의 처리량을 확보하여 데이터 병목 현상을 해결합니다. - 현재 미국 동부(오하이오) 및 유럽(스톡홀름) 리전에서 사용 가능하며, 온디맨드 또는 세이빙 플랜(Savings Plan)을 통해 구매할 수 있습니다. 복잡한 시뮬레이션의 실행 시간을 단축하고 운영 비용을 절감하고자 하는 HPC 사용자들에게 Hpc8a 인스턴스는 강력한 선택지가 될 것입니다. 특히 대규모 노드 확장이 필요한 유체 역학이나 고해상도 기상 예측 모델을 운영 중이라면 300Gbps EFA와 개선된 메모리 대역폭을 적극 활용해 보시기 바랍니다.

사용자 정의 Amazon Nova 모델 (새 탭에서 열림)

Amazon SageMaker Inference에서 사용자 정의 Amazon Nova 모델 지원이 정식 출시되었습니다. 이를 통해 고객은 Nova Micro, Nova Lite, Nova 2 Lite 등 맞춤형으로 학습된 모델을 운영 환경에 최적화된 형태로 배포하고, 인스턴스 유형과 오토스케일링 정책 등을 유연하게 제어할 수 있습니다. 결과적으로 기업은 지연 시간과 비용, 정확도 간의 균형을 맞춘 고성능 추론 환경을 관리형 서비스 기반으로 손쉽게 구축할 수 있게 되었습니다. **맞춤형 Nova 모델 지원과 비용 최적화** * Nova Micro, Nova Lite, Nova 2 Lite 모델의 맞춤형 버전(Full-rank)을 SageMaker Inference 인프라에 원활하게 배포 가능합니다. * 고가의 P5 인스턴스 외에도 Amazon EC2 G5 및 G6 인스턴스를 활용할 수 있어, GPU 활용도를 높이고 추론 비용을 효과적으로 절감합니다. * 5분 단위의 사용 패턴에 기반한 오토스케일링(Auto-scaling) 기능을 통해 프로덕션 워크로드의 변동성에 유연하게 대응합니다. * 계속 사전 학습(Continued pre-training), 지도 미세 조정(SFT), 강화 학습 미세 조정(RLHF)을 거친 다양한 맞춤형 모델 아티팩트를 지원합니다. **유연한 인프라 및 추론 설정 제어** * 모델 체급별로 최적화된 인스턴스 선택권을 제공합니다. * **Nova Micro:** g5/g6(12xl, 24xl, 48xl) 및 p5.48xlarge 지원 * **Nova Lite:** g5.48xlarge, g6.48xlarge, p5.48xlarge 지원 * **Nova 2 Lite:** p5.48xlarge 지원 * 컨텍스트 길이(Context length), 최대 동시성(Max concurrency), 온도(Temperature), Top-P 등 상세 파라미터를 환경 변수로 설정하여 모델 성능을 미세 조정할 수 있습니다. * 특히 `reasoning_effort`(low, high) 옵션을 통해 복잡한 추론 작업에 대한 모델의 사고 과정을 제어할 수 있는 기능을 포함합니다. **통합된 개발 환경 및 배포 워크플로** * SageMaker Studio의 UI를 통해 클릭 몇 번으로 모델 아티팩트 선택부터 엔드포인트 생성까지 전 과정을 시각적으로 관리할 수 있습니다. * SageMaker AI SDK를 사용하여 모델 생성, 엔드포인트 구성, 배포 자동화 코드를 작성할 수 있으며, 컨테이너 이미지 URI와 S3 모델 경로를 직접 지정하는 구조를 가집니다. * 실시간 추론 시 스트리밍(Streaming) 및 비스트리밍 모드를 모두 지원하여 사용자 경험을 개선하며, 대량의 데이터 처리를 위한 비동기 엔드포인트 구성도 가능합니다. * 배포 완료 후에는 SageMaker Playground 탭에서 채팅 모드로 즉시 모델 성능을 테스트하고 프로토타이핑할 수 있습니다. 도메인 특화 데이터로 Nova 모델을 미세 조정하여 실제 서비스에 적용하려는 팀은 SageMaker Inference를 통해 관리 부담을 줄이면서도 최적의 가성비를 확보할 수 있습니다. 특히 비용 효율성이 중요한 경우 G6 인스턴스를 우선적으로 검토하고, 대규모 트래픽 처리가 필요한 경우 5분 단위 오토스케일링 정책을 결합하여 운영 효율을 극대화할 것을 추천합니다.

AWS 주간 요약: Amazon EC2 M8azn 인스턴스, Amazon Bedrock의 새로운 오픈 가중치 모델 등 (2026년 2월 16일) | 아마존 웹 서비스 (새 탭에서 열림)

AWS는 최근 고성능 컴퓨팅을 위한 Amazon EC2 M8azn 인스턴스 출시와 더불어 Amazon Bedrock에 6개의 새로운 오픈 가중치(Open weights) 모델을 추가하며 인프라와 AI 역량을 동시에 강화했습니다. 이번 업데이트는 클라우드 업계 최고 수준인 5GHz의 CPU 주파수를 제공하여 고성능 요구 워크로드를 지원하는 한편, 개발자들이 다양한 오픈 소스 모델을 OpenAI API 규격과 호환되는 환경에서 더욱 유연하게 사용할 수 있도록 돕는 데 초점을 맞추고 있습니다. 이를 통해 기업들은 실시간 금융 분석부터 복잡한 추론 및 코딩 에이전트 구축까지 더욱 폭넓은 기술 선택지를 갖게 되었습니다. ### Amazon EC2 M8azn 인스턴스 정식 출시 * **압도적인 클라우드 성능:** 5세대 AMD EPYC 프로세서를 탑재하여 클라우드 사상 최고 수치인 최대 5GHz의 CPU 주파수를 제공합니다. * **이전 세대(M5zn) 대비 대폭 개선:** 컴퓨팅 성능은 최대 2배, 메모리 대역폭은 4.3배 향상되었으며, L3 캐시는 10배 더 커져 데이터 처리 효율이 극대화되었습니다. * **네트워크 및 스토리지 강화:** Nitro 시스템 6세대 카드를 기반으로 네트워크 처리량은 2배, Amazon EBS 처리량은 3배까지 향상되었습니다. * **주요 활용 분야:** 높은 주파수와 저지연 성능이 필수적인 실시간 금융 분석, 고성능 컴퓨팅(HPC), 고주파 매매(HFT), 게임 서버 및 시뮬레이션 모델링에 최적화되어 있습니다. ### Amazon Bedrock의 AI 모델 라인업 및 보안 기능 확장 * **6종의 신규 오픈 가중치 모델 추가:** DeepSeek V3.2, MiniMax M2.1, GLM 4.7/Flash, Kimi K2.5, Qwen3 Coder Next를 이제 Bedrock에서 사용할 수 있습니다. * **용도별 최적화:** 복잡한 추론과 에이전트 지능에 특화된 모델부터 긴 출력 윈도우를 지원하는 자율 코딩 모델, 그리고 운영 비용 효율성을 높인 모델까지 다양한 선택지를 제공합니다. * **Project Mantle 기반 연동:** 새로운 분산 추론 엔진인 Project Mantle을 통해 OpenAI API 규격과 즉시 호환되며, 서버레스 추론 환경에서 높은 수준의 쿼터 관리와 서비스 품질 제어를 지원합니다. * **AWS PrivateLink 지원 확대:** `bedrock-runtime`뿐만 아니라 `bedrock-mantle` 엔드포인트에 대해서도 PrivateLink를 지원하여, 데이터가 공용 인터넷을 거치지 않고 보안이 강화된 전용 네트워크를 통해 통신할 수 있습니다. ### 운영 편의성 및 비용 최적화를 위한 서비스 업데이트 * **Amazon EKS Auto Mode 로깅 강화:** CloudWatch Vended Logs를 통해 컴퓨팅 자동 확장, 스토리지, 네트워킹 등 관리형 쿠버네티스 기능의 로그를 더 저렴한 가격으로 수집하고 관리할 수 있습니다. * **OpenSearch Serverless 컬렉션 그룹:** 여러 컬렉션 간에 OpenSearch 컴퓨팅 유닛(OCU)을 공유할 수 있게 되어 전체적인 비용을 절감할 수 있으며, 지연 시간에 민감한 앱을 위해 최소 OCU 할당량을 지정할 수 있는 기능이 추가되었습니다. * **Amazon RDS 스냅샷 복원 개선:** 스냅샷을 복원하는 시점에 백업 유지 기간과 백업 창 설정을 즉시 수정할 수 있게 되었습니다. 기존에는 복원 완료 후 설정을 변경해야 했던 번거로움이 사라져 워크플로우가 간소화되었습니다. 고성능 단일 코어 성능이 필요한 조직은 M8azn 인스턴스 도입을 검토하여 실시간 처리 역량을 강화할 수 있습니다. 또한, AI 모델 선택의 폭이 넓어진 만큼 특정 작업(코딩, 추론 등)에 최적화된 오픈 가중치 모델을 Amazon Bedrock에서 테스트하여 성능과 비용의 균형을 맞춘 효율적인 AI 애플리케이션 개발 전략을 세우는 것을 추천합니다.

AI에게 지도 읽는 법 가 (새 탭에서 열림)

구글 연구진은 멀티모달 거대언어모델(MLLM)이 지도의 기하학적 구조를 이해하고 경로를 추적할 수 있도록 돕는 합성 데이터 생성 파이프라인인 'MapTrace'를 제안했습니다. 기존 모델들이 이미지 내 객체 인식에는 능숙하지만 벽과 길을 구분하는 정밀한 공간 추론에는 한계를 보인다는 점에 착안하여, 200만 개의 데이터 쌍을 자동으로 생성해 학습시키는 방법론을 정립했습니다. 연구 결과, 이러한 합성 데이터를 통한 미세 조정(Fine-tuning)만으로도 모델의 공간 추론 능력을 비약적으로 향상시킬 수 있음이 증명되었습니다. **공간 추론 능력 결여와 데이터 확보의 어려움** * 기존 MLLM은 물리적 세계에 대한 '접지(Grounding)'가 부족하여 지도의 선을 벽으로 인식하지 못하고 통과하는 등 물리적 제약을 무시하는 경향이 있습니다. * 이를 해결하기 위한 정밀한 경로 데이터는 수동으로 구축하기에 비용이 지나치게 비싸고, 쇼핑몰이나 테마파크 같은 복잡한 지도는 대개 저작권 문제로 수집이 어렵습니다. * 결과적으로 모델은 지도를 구조화된 공간이 아닌 단순한 픽셀의 집합으로만 인식하게 되는 '데이터 병목 현상'을 겪게 됩니다. **MapTrace: 4단계 합성 데이터 생성 파이프라인** * **다양한 지도 생성:** LLM이 동물원, 쇼핑몰 등 다양한 장소에 대한 묘사를 생성하면, 이를 이미지 생성 모델(Imagen-4 등)에 입력하여 복잡한 지도 이미지를 얻습니다. * **이동 가능 영역 식별(Mask Critic):** 색상 기반 클러스터링으로 통행 가능한 경로 마스크를 추출한 뒤, MLLM '마스크 비평가'가 실제 사람이 다닐 수 있는 길인지 품질을 검증합니다. * **내비게이션 그래프 구축:** 검증된 2D 마스크를 노드(교차로)와 엣지(길)로 구성된 디지털 그래프 형태로 변환하여 계산 가능한 네트워크를 만듭니다. * **최적 경로 생성 및 검증(Path Critic):** 다익스트라(Dijkstra) 알고리즘으로 최단 경로를 계산한 후, 최종적으로 '경로 비평가' MLLM이 해당 경로가 논리적이고 인간의 이동 양식에 부합하는지 최종 승인합니다. **성능 검증 및 기술적 성과** * 연구진은 생성된 200만 개의 Q&A 쌍 중 일부(23,000개)만으로 Gemma 3 27B 및 Gemini 2.5 Flash 모델을 학습시켰으며, 실제 지도 데이터셋인 MapBench에서 성능 향상을 확인했습니다. * 성능 측정에는 두 좌표 시퀀스 사이의 거리를 비교하는 NDTW(Normalized Dynamic Time Warping) 지표를 활용하여 경로의 정확도를 정밀하게 평가했습니다. * 이미지 생성 과정에서 텍스트 렌더링 오류가 간혹 발생하지만, 경로 추적의 정확성 측면에서는 합성 데이터만으로도 충분한 학습 효과를 거둘 수 있음을 시사합니다. **실용적 제언** AI 모델에 물리적 공간에 대한 상식을 부여하고 싶다면 대규모 수동 레이블링 대신 '비평가(Critic)' 모델이 포함된 자동화된 합성 데이터 파이프라인을 구축하는 것이 비용 효율적입니다. 특히 복잡한 제약 조건이 있는 도메인일수록 모델의 크기를 키우는 것보다 특정 태스크에 맞춤화된 '공간 문법'을 데이터로 가르치는 것이 더 효과적입니다.

Claude Code에서 Figma로: 프로덕 (새 탭에서 열림)

피그마가 AI 모델과 디자인 데이터를 긴밀하게 연결하기 위해 'Model Context Protocol(MCP)' 서버를 공식 출시했습니다. 이 기술을 통해 개발자는 클로드(Claude)와 같은 AI 어시스턴트에게 피그마 디자인에 대한 직접적인 접근 권한을 부여하고, 디자인 스펙을 바탕으로 코드를 생성하거나 자산을 추출하는 작업을 자동화할 수 있습니다. 결과적으로 디자인과 개발 간의 핸드오프 과정을 획기적으로 단축하고, AI가 디자인 맥락을 정확히 이해한 상태에서 협업할 수 있는 환경을 구축했습니다. ### MCP를 통한 디자인 데이터의 개방 * **표준화된 연결성**: MCP는 디자인 도구와 LLM(대형 언어 모델) 사이의 가교 역할을 하는 오픈 소스 프로토콜로, AI가 복잡한 설정 없이도 피그마의 라이브 데이터에 접근할 수 있게 합니다. * **맥락 유지**: 개발자가 디자인 파일을 일일이 캡처하거나 수동으로 수치를 입력할 필요 없이, AI 에이전트가 직접 피그마 API를 호출하여 최신 디자인 상태를 파악합니다. * **도구 간 장벽 완화**: 디자인 도구에 익숙하지 않은 개발자도 채팅 인터페이스만으로 필요한 디자인 정보(색상값, 간격, 텍스트 스타일 등)를 실시간으로 가져올 수 있습니다. ### Figma MCP 서버의 핵심 기능 * **파일 탐색 및 검색**: 파일 이름, 프로젝트, 팀 정보를 바탕으로 필요한 디자인 파일을 AI가 스스로 검색하고 식별할 수 있습니다. * **레이어 및 속성 검사**: 특정 레이어를 선택하여 속성을 확인하거나, 구성 요소의 계층 구조와 CSS 스타일 정보를 추출하여 코드 구현에 즉시 활용합니다. * **이미지 및 자산 내보내기**: 디자인 파일 내의 이미지를 AI가 직접 렌더링하거나 내보내기(Export) 기능을 수행하여 개발 환경으로 가져올 수 있습니다. * **데브 모드(Dev Mode) 연동**: 피그마 데브 모드와의 연결을 지원하여, AI가 생성한 코드와 실제 디자인 스펙 간의 일관성을 검증하는 데 도움을 줍니다. ### AI 기반 개발 워크플로우의 변화 * **정확한 코드 생성**: 디자인의 세부 수치와 제약 조건을 AI가 직접 읽기 때문에, 환각 현상(Hallucination)을 줄이고 정밀한 UI 컴포넌트 코드를 작성할 수 있습니다. * **반복 작업 자동화**: 아이콘 추출, 스타일 가이드 문서화, 반복적인 CSS 작성 등 단순 작업을 AI에게 맡겨 개발 생산성을 높입니다. * **실시간 피드백 루프**: 디자인이 변경되었을 때 AI에게 "최신 디자인에 맞춰 코드를 수정해줘"라고 요청하는 것만으로 변경 사항을 반영할 수 있는 유연한 워크플로우가 가능해집니다. 현재 이 기능은 오픈 소스로 공개되어 있으며, 클로드 데스크톱(Claude Desktop) 사용자는 피그마에서 제공하는 MCP 서버 설정 값을 통해 즉시 자신의 워크플로우에 통합할 수 있습니다. 디자인 시스템을 효율적으로 관리하고 디자인-투-코드(Design-to-Code) 자동화를 구현하고자 하는 팀에게 이 MCP 서버는 매우 유용한 도구가 될 것입니다.

디자인의 미래는 코드와 (새 탭에서 열림)

피그마는 기존의 '디자인에서 코드'로 이어지는 단방향 흐름을 넘어, 실제 프로덕션 코드를 다시 편집 가능한 피그마 디자인으로 변환하는 혁신적인 접근 방식을 제안합니다. 앤스로픽(Anthropic)의 Claude Code를 활용해 코드베이스의 시각적 요소를 분석하고 이를 피그마의 레이어와 컴포넌트 구조로 재구성함으로써, 디자인과 개발 사이의 동기화 문제를 해결하고자 합니다. 이를 통해 팀은 실제 구현된 최신 코드를 바탕으로 디자인 자산을 실시간으로 업데이트하고 관리할 수 있습니다. **코드 기반의 디자인 복원 메커니즘** * React, Tailwind CSS 등 실제 프론트엔드 코드에 정의된 스타일 속성과 UI 구조 정보를 정밀하게 추출합니다. * 단순한 시각적 복제를 넘어, 추출된 데이터를 피그마의 오토 레이아웃(Auto Layout), 변수(Variables), 컴포넌트 등 편집 가능한 고유 객체로 변환합니다. * 텍스트 스타일, 색상 값, 간격 등 코드에 명시된 속성이 피그마의 속성 시스템과 일대일로 매핑되어 디자이너가 즉시 수정할 수 있는 상태로 생성됩니다. **Claude Code와의 통합 및 지능형 자동화** * 앤스로픽의 AI 에이전트인 Claude Code를 CLI 환경에서 실행하여 코드베이스 내의 시각적 논리를 추론하고 피그마 플러그인 API와 상호작용합니다. * AI가 복잡한 CSS 계층 구조나 컴포넌트 의존성을 분석하여 피그마 파일 내에서 가장 효율적인 레이어 구조로 재구성하도록 돕습니다. * 개발자가 코드 변경 후 특정 명령어를 실행하는 것만으로 디자인 파일에 해당 변경 사항을 자동으로 반영하는 워크플로우를 실험합니다. **디자인 시스템의 무결성 유지 및 협업 효율화** * 디자인 파일이 실제 프로덕션 코드보다 뒤처지는 '디자인 부채(Design Debt)' 현상을 근본적으로 방지합니다. * 디자이너는 실제 코드에 구현된 제약 사항과 로직이 반영된 캔버스 위에서 작업하므로, 구현 불가능한 디자인을 설계할 위험이 줄어듭니다. * 코드를 디자인의 '단일 진실 공급원(Single Source of Truth)'으로 삼아, 별도의 수동 작업 없이 대규모 디자인 시스템의 일관성을 유지할 수 있습니다. 이 기술적 시도는 디자인과 개발의 경계를 허물고, 실제 제품의 결과물이 다시 디자인 프로세스의 시작점이 되는 선순환 구조를 시사합니다. 개발 중심의 워크플로우를 가진 팀이라면 Claude Code와 피그마 API를 결합하여 디자인 자산의 관리 비용을 획기적으로 낮추는 방향을 고려해 볼 수 있습니다.