cloud-storage

2 개의 포스트

packages.gitlab.com의 변경 사항: 알아야 할 내용 (새 탭에서 열림)

GitLab은 더욱 효율적이고 안정적인 패키지 호스팅을 위해 `packages.gitlab.com`의 인프라를 새로운 시스템으로 이전하고 있습니다. 기본 도메인은 유지되지만, URL 형식, GPG 키 위치, 네트워크 허용 목록 및 UI 등 주요 구성 요소가 변경되므로 사용자의 대응이 필요합니다. 기존 구성에 대한 하위 호환성은 2026년 9월 30일까지 유지되지만, 서비스 중단을 방지하기 위해 기한 내에 새로운 설정으로 전환해야 합니다. ### 주요 변경 일정 및 인프라 전환 * **2026년 3월 31일**: 기존 PackageCloud 시스템과 관련 UI가 완전히 종료됩니다. * **2026년 9월 30일**: 이전 URL 형식을 새 형식으로 연결해 주던 재작성(Rewrite) 규칙이 제거되어, 이후에는 새로운 URL로만 접근이 가능합니다. * **저장소 백엔드 변경**: 패키지 저장소가 기존 AWS CloudFront에서 Google Cloud Storage(GCS)로 이전되었습니다. ### 리눅스 패키지 저장소(DEB/RPM) 설정 업데이트 * **DEB 저장소 경로 변경**: `gitlab/*` 관련 저장소(gitlab-ee, gitlab-ce 등)의 URL 구조에 배포판 코드네임(예: jammy)이 경로 세그먼트로 추가되었습니다. 표준 데비안 저장소 형식에 맞게 변경된 것이며, `runner/*` 저장소는 이번 변경에서 제외됩니다. * **설치 스크립트 재실행**: 가장 간단한 업데이트 방법은 GitLab에서 제공하는 최신 설치 스크립트(`script.deb.sh` 또는 `script.rpm.sh`)를 다시 다운로드하여 실행하는 것입니다. * **GPG 키 주소 변경**: 기존 `https://packages.gitlab.com/gpg.key` 주소가 `https://packages.gitlab.com/gpgkey/gpg.key`로 변경되었으므로 설정을 갱신해야 합니다. ### 네트워크 및 방화벽 설정 요구사항 * **GCS 허용 목록 추가**: 패키지 다운로드 시 GCS로 리다이렉트되므로, 엄격한 방화벽이나 프록시를 사용하는 환경에서는 `https://storage.googleapis.com/packages-ops` 주소를 허용 목록에 반드시 추가해야 합니다. 이를 누락할 경우 503 오류나 연결 시간 초과가 발생할 수 있습니다. ### GitLab Runner 및 자동화 스크립트 수정 * **Runner RPM 아키텍처 경로**: RPM 기반 배포판(RHEL/CentOS 등)에서 GitLab Runner 관련 `noarch` 패키지들이 `x86_64` 경로로 이동되었습니다. 관련 자동화 설정이 있다면 경로를 수정해야 합니다. * **직접 다운로드 URL**: 기존 PackageCloud 방식의 `download.deb` 또는 `download.rpm` 형식의 URL은 더 이상 지원되지 않습니다. 새로운 UI에서 제공하는 직접적인 패키지 경로를 사용하도록 자동화 스크립트를 수정해야 합니다. 가장 권장되는 방법은 GitLab 공식 문서의 최신 가이드를 따라 설치 스크립트를 다시 실행하여 저장소 구성을 자동으로 갱신하는 것입니다. 2026년 9월 호환성 종료 기간에 임박하기 전, 미리 방화벽 규칙과 패키지 경로 설정을 점검하여 운영 환경의 연속성을 확보하시기 바랍니다.

Amazon S3 20주년과 다음 단계 구축 | Amazon Web Services (새 탭에서 열림)

Amazon S3는 2006년 출시 이후 20년 동안 단순한 객체 스토리지를 넘어 전 세계 데이터 및 AI 워크로드의 핵심적인 보편적 기반으로 진화했습니다. 기술적 혁신을 통해 11나인(99.999999999%)의 내구성과 완벽한 하위 호환성을 유지하면서도, 비용을 85% 절감하고 엑사바이트 단위의 확장을 실현하며 클라우드 인프라의 표준을 제시하고 있습니다. **비약적인 규모의 확장과 경제성 확보** * 2006년 당시 1PB 수준이었던 총 용량은 현재 500조 개 이상의 객체와 수백 엑사바이트의 데이터를 수용하는 규모로 성장했습니다. * 최대 객체 크기는 5GB에서 50TB로 1만 배 증가했으며, 초당 요청 수는 전 세계적으로 2억 건을 상회합니다. * 기가바이트당 비용은 출시 초기 15센트에서 현재 약 2센트로 85% 감소했으며, 'S3 Intelligent-Tiering'을 통해 고객들은 표준 대비 60억 달러 이상의 비용을 절감했습니다. * S3 API는 업계 표준이 되어 수많은 벤더가 이를 채택하고 있으며, 2006년에 작성된 코드가 수정 없이 오늘날에도 그대로 동작할 만큼 엄격한 하위 호환성을 보장합니다. **규모의 한계를 극복하는 엔지니어링 혁신** * **지속적 데이터 감사:** 마이크로서비스 기반의 감사(Auditor) 시스템이 모든 바이트를 실시간으로 검사하며, 열화 징후가 발견되는 즉시 자동 복구 시스템을 가동하여 데이터 손실을 방지합니다. * **수학적 정확성 증명:** 인덱스 하위 시스템과 액세스 정책 등에 정형 기법(Formal methods)과 자동 추론을 적용하여 시스템의 일관성과 정확성을 수학적으로 증명합니다. * **Rust 언어 전환:** 성능에 민감한 요청 경로와 디스크 스토리지 코드를 Rust로 재작성하여 메모리 안전성을 확보하고, 대규모 운영 환경에서 발생할 수 있는 버그를 컴파일 단계에서 제거했습니다. * **규모의 경제 활용:** "규모가 곧 장점"이라는 철학 아래 시스템이 커질수록 개별 워크로드 간의 상관관계가 낮아지도록 설계하여 전체적인 안정성을 높였습니다. **데이터와 AI를 위한 미래 지향적 기능** * **S3 Tables:** Apache Iceberg 테이블을 완전 관리형으로 제공하며, 자동화된 유지보수를 통해 쿼리 효율을 높이고 스토리지 비용을 최적화합니다. * **S3 Vectors:** RAG(검색 증강 생성) 및 시맨틱 검색을 위해 최대 20억 개의 벡터를 인덱싱하며, 100ms 미만의 낮은 지연 시간으로 네이티브 벡터 검색을 지원합니다. * **S3 Metadata:** 대규모 버킷을 일일이 나열(List)하지 않고도 중앙 집중식 메타데이터를 통해 즉각적으로 데이터를 발견할 수 있어 데이터 레이크 분석 시간을 획기적으로 단축합니다. **권장 사항** S3는 이제 데이터를 저장만 하는 공간이 아니라, 데이터를 이동시키지 않고도 직접 분석하고 AI 모델에 활용할 수 있는 통합 플랫폼입니다. 비용 효율성을 극대화하기 위해 'Intelligent-Tiering'을 기본적으로 활용하고, 복잡한 데이터 파이프라인 대신 'S3 Tables'나 'S3 Metadata' 같은 최신 기능을 도입하여 데이터 관리의 복잡성을 줄이는 전략이 필요합니다.