디스코드 패치 노트: 2025년 8월 4 (새 탭에서 열림)

디스코드는 앱의 성능, 신뢰성, 응답성 및 사용성을 개선하기 위한 최신 변경 사항을 공유하는 '패치 노트(Patch Notes)' 시리즈를 운영하고 있습니다. 엔지니어링 팀은 커뮤니티 피드백을 적극적으로 수용하여 버그를 수정하고 서비스의 전반적인 품질을 높이는 데 주력하고 있습니다. 모든 업데이트 사항은 코드 병합 후 플랫폼별로 순차 배포되며, 사용자는 베타 프로그램을 통해 정식 출시 전 기능을 미리 경험하며 개선 과정에 참여할 수 있습니다. **지속적인 성능 및 사용성 개선** * 디스코드는 성능 최적화와 시스템 신뢰성 강화를 위해 지속적으로 코드를 수정하고 개선 사항을 적용하고 있습니다. * 단순한 버그 수정을 넘어 앱의 응답 속도를 높이고 전반적인 사용 편의성을 개선하는 작업이 포함됩니다. * 모든 수정 사항은 이미 커밋(Commit) 및 머지(Merge)가 완료된 상태이지만, 개별 플랫폼의 배포 환경에 따라 실제 적용 시점은 다를 수 있습니다. **커뮤니티 협업 기반의 버그 추적** * 사용자 커뮤니티인 레딧(r/DiscordApp)의 '격월 버그 메가스레드(Bimonthly Bug Megathread)'를 통해 실시간 사용자 이슈를 수집합니다. * 사용자가 겪는 구체적인 불편 사항을 엔지니어링 팀이 직접 확인하고 검토하여 해결 프로세스에 즉각 반영합니다. **iOS TestFlight를 통한 베타 테스팅** * 최신 기능을 정식 출시 전에 미리 체험하고자 하는 사용자들을 위해 iOS용 TestFlight 버전(dis.gd/testflight)을 운영합니다. * 베타 테스터는 미출시 기능을 먼저 사용해 보며 잠재적인 버그를 사전에 발견하고 보고함으로써 서비스 완성도를 높이는 데 기여합니다. 디스코드를 더욱 쾌적하게 이용하려면 레딧 커뮤니티를 통해 적극적으로 의견을 개진하고, 최신 기능을 남보다 먼저 확인하고 싶다면 iOS 베타 프로그램에 참여하는 것이 좋습니다.

디자인에 마우스가 필요 (새 탭에서 열림)

Figma의 '코드 레이어(Code Layers)' 기능은 정적인 디자인 환경을 실제 작동하는 인터랙티브 웹 경험으로 전환하는 혁신적인 도구입니다. 이 기능을 통해 디자이너와 개발자는 HTML, CSS, JavaScript 등 실제 코드를 Figma 디자인 파일 내부에 직접 삽입하여 라이브 프로토타입이나 웹사이트를 구축할 수 있습니다. 이는 디자인과 개발의 경계를 허물고, 프로토타이핑 단계에서 실제 제품 수준의 사용자 경험을 완벽하게 재현하는 것을 목표로 합니다. **코드 레이어를 통한 인터랙션의 진화** * 기존의 복잡한 프로토타이핑 기능(Smart Animate 등)으로 구현하기 어려웠던 정교한 인터랙션을 실제 코드로 간단히 대체할 수 있습니다. * React나 HTML/CSS와 같은 표준 웹 기술을 지원하여, 개발자가 이미 작성한 컴포넌트를 디자인 파일에 그대로 가져와 테스트할 수 있습니다. * 디자인 툴 내에서 실제 입력 폼, 라이브 지도, 3D 임베드(Spline 등)를 직접 작동시켜 보며 사용자 흐름을 더욱 정밀하게 검토할 수 있습니다. **실시간 데이터 시각화와 외부 API 연동** * 단순한 이미지 형태의 차트가 아닌, 실제 데이터를 기반으로 실시간으로 반응하는 동적 차트와 그래프를 디자인에 포함할 수 있습니다. * 외부 API를 호출하여 날씨 정보, 주식 시세, 소셜 미디어 피드 등을 실시간으로 반영하는 동적인 목업 제작이 가능합니다. * 사용자 입력에 따라 결과값이 변하는 계산기나 필터링 시스템 등 논리적인 로직이 포함된 인터페이스를 별도의 개발 과정 없이 디자인 단계에서 검증합니다. **Figma Sites와의 시너지 및 배포 효율성** * 코드 레이어로 구성된 디자인은 Figma의 새로운 웹 퍼블리싱 기능인 'Figma Sites'를 통해 클릭 몇 번만으로 실제 웹사이트로 즉시 배포될 수 있습니다. * 디자이너는 코드 레이어를 활용해 반응형 레이아웃과 고차원 애니메이션이 적용된 고품질 웹사이트를 직접 제작할 수 있는 권한을 갖게 됩니다. * 개발자는 디자인 단계에서 이미 검증된 코드 조각을 활용함으로써 구현 과정에서의 불확실성을 줄이고, 협업의 효율성을 극대화할 수 있습니다. 단순한 화면 설계에서 벗어나 실제 작동하는 제품의 가치를 빠르게 검증하고 싶다면 코드 레이어를 적극 도입해 보시기 바랍니다. 특히 데이터 중심의 대시보드나 복잡한 인터랙션이 요구되는 마케팅 페이지 제작 시, 디자인과 개발 사이의 커뮤니케이션 비용을 획기적으로 줄여줄 것입니다.

일 평균 30억 건을 처리하는 결제 시스템의 DB를 Vitess로 교체하기 - 2. 개발 및 운영기 (새 탭에서 열림)

LINE Billing Platform 팀은 일 평균 30억 건의 요청을 처리하는 대규모 결제 시스템을 운영하기 위해 기존 Nbase-T에서 Vitess로 성공적인 데이터베이스 마이그레이션을 수행했습니다. 이 글에서는 성능 문제와 개발 편의성을 고려해 gRPC 대신 MySQL 프로토콜을 선택한 과정과 효율적인 데이터 처리를 위한 샤딩 전략을 상세히 다룹니다. 또한 VTOrc와 Prometheus를 활용한 자동 복구 및 모니터링 체계를 구축하여 분산 데이터베이스 환경에서도 높은 안정성을 확보한 실무 노하우를 공유합니다. ### 프로토콜 선정 및 개발 환경 구축 * VTGate는 gRPC와 MySQL 프로토콜을 모두 지원하지만, gRPC 사용 시 `http2: frame too large` 에러와 CPU 오버헤드가 발생하여 최종적으로 MySQL 프로토콜을 채택했습니다. * Java 클라이언트 사용 시 gRPC 프로토콜은 쿼리 결과를 객체로 변환하는 과정이 번거롭고 Vitess 측에서도 현재 MySQL 프로토콜 사용을 권장하고 있습니다. * 익숙한 MySQL 프로토콜을 사용함으로써 기존 개발 경험을 유지하면서도 Vitess의 샤딩 기능을 안정적으로 활용할 수 있게 되었습니다. ### 키스페이스 설계 및 데이터 처리 방식 * 시스템은 크게 두 개의 키스페이스로 분리되어 있습니다. '글로벌 키스페이스'는 단일 샤드로 구성되어 자동 증가(Auto-increment)하는 샤딩 키를 관리합니다. * 실제 데이터가 저장되는 '서비스 키스페이스'는 N개의 샤드로 분산되어 있으며, 코인 잔액 및 충전/사용 내역 등의 데이터를 저장합니다. * 서비스 키스페이스는 'Hash Vindex'를 사용하여 데이터를 균등하게 분산하며, 애플리케이션이 쿼리에 샤딩 키를 포함하면 VTGate가 해당 샤드를 자동으로 특정해 효율적인 요청 처리가 가능합니다. ### MySQL 호환성 및 주요 기능 활용 * 트랜잭션 격리 수준은 단일 샤드일 경우 `REPEATABLE READ`, 다중 샤드일 경우 `READ COMMITTED`가 적용됩니다. * Vitess는 MySQL 프로토콜을 지원하지만 일부 쿼리 제약 사항이 존재하므로, `unsupported_cases.json`을 통해 사전에 호환성을 확인해야 합니다. * 분산 샤드 간 트랜잭션을 지원하는 'Two-Phase Commit(2PC)' 기능과 쿼리 실행 계획을 분석하는 'VEXPLAIN/VTEXPLAIN' 등을 통해 분산 환경의 제약을 보완하고 있습니다. ### 안정적인 운영을 위한 모니터링 및 장애 복구 * 자동 복구 도구인 'VTOrc'를 도입하여 토폴로지 서버와 VTTablet의 데이터를 기반으로 문제를 자동 감지하고 복구합니다. * Prometheus를 통해 VTOrc의 지표(Metrics)를 수집하며, 장애 발생 시 이메일과 Slack으로 알람이 전달되도록 구성했습니다. * VTAdmin 웹 UI를 활용해 복구 내역을 시각적으로 확인하고, `tablet_alias`를 통해 문제가 발생한 MySQL 노드를 즉각적으로 식별하여 운영 효율성을 높였습니다. 대규모 분산 환경에서 Vitess를 도입할 때는 성능과 유지보수를 위해 gRPC보다는 MySQL 프로토콜 사용을 우선적으로 고려하는 것이 좋습니다. 또한 단일 샤드와 다중 샤드 간의 트랜잭션 격리 수준 차이 및 쿼리 제약 사항을 면밀히 검토하여 애플리케이션 로직을 설계해야 하며, VTOrc와 같은 도구를 적극 활용하여 고가용성 운영 체계를 구축하는 것이 중요합니다.

MLE-STAR: 최첨단 머 (새 탭에서 열림)

MLE-STAR는 웹 검색 기능과 정밀한 코드 블록 최적화 메커니즘을 결합한 차세대 머신러닝 엔지니어링 에이전트로, 복잡한 ML 파이프라인 구축 과정을 자동화합니다. 기존 에이전트들이 LLM의 사전 지식에만 의존하거나 코드 전체를 한 번에 수정하려 했던 한계를 극복하기 위해, 성능에 가장 큰 영향을 미치는 특정 구성 요소를 식별하고 이를 집중적으로 개선하는 방식을 채택했습니다. 그 결과 MLE-Bench-Lite의 Kaggle 경진 대회에서 63%의 메달 획득률을 기록하며 기존 기술들을 압도하는 성능을 증명했습니다. **웹 검색을 통한 최신 기법 도입 및 초기 솔루션 구축** * LLM의 내장된 지식에만 의존할 때 발생하는 특정 라이브러리(예: scikit-learn) 편향 문제를 해결하기 위해 실시간 웹 검색 기능을 활용합니다. * 주어진 과제와 데이터 모달리티에 가장 적합한 최신(State-of-the-art) 모델과 방법론을 검색하여 초기 솔루션 코드를 생성하는 기반으로 삼습니다. **어블레이션 연구 기반의 타겟 코드 블록 정제** * 전체 파이프라인 코드를 무작위로 수정하는 대신, '어블레이션 연구(Ablation Study)'를 수행하여 피처 엔지니어링이나 모델 구조 등 성능 기여도가 가장 높은 특정 코드 블록을 찾아냅니다. * 식별된 핵심 블록에 대해 이전 시도의 실행 결과와 피드백을 반영하며 집중적인 반복 실험을 수행함으로써, 특정 파이프라인 단계에서의 최적화를 심도 있게 진행합니다. **지능형 솔루션 앙상블 전략** * 단순한 성능 기반 투표 방식에서 벗어나, 에이전트가 스스로 여러 후보 솔루션을 병합할 수 있는 최적의 앙상블 전략을 직접 설계하고 제안합니다. * 병렬로 생성된 다양한 해결책들을 유기적으로 결합하며, 이 과정 또한 반복적인 피드백 루프를 통해 지속적으로 개선하여 최종 예측 성능을 극대화합니다. **시스템 안정성 및 신뢰성 강화를 위한 모듈** * **디버깅 에이전트:** 파이썬 스크립트 실행 중 발생하는 트레이스백(Traceback) 오류를 분석하고 즉각적으로 코드를 교정합니다. * **데이터 누수(Data Leakage) 체크:** 테스트 데이터의 정보가 학습 과정에 유입되는 위험을 방지하기 위해 실행 전 스크립트의 논리적 무결성을 검증합니다. * **데이터 사용 확인 도구:** 에이전트가 CSV와 같은 단순한 데이터만 사용하고 다른 중요한 데이터 소스를 누락하지 않도록 모든 제공된 데이터를 활용하는지 감시합니다. MLE-STAR는 단순한 코드 생성을 넘어 데이터 분석, 전략 수립, 오류 수정 및 검증에 이르는 머신러닝 엔지니어링의 전 과정을 수행할 수 있음을 보여줍니다. 특히 Kaggle과 같은 실제 경쟁 환경에서 높은 성과를 낸 만큼, 향후 기업 현장에서 복잡한 데이터 파이프라인을 효율적으로 구축하고 실험 비용을 절감하는 데 실질적인 도움을 줄 것으로 기대됩니다.

듀오링고 메소드: (새 탭에서 열림)

VS Code 팀은 개발자가 코드를 작성하고, 빌드하고, 실행하여 결과를 확인하는 이른바 '이너 루프(Inner Loop)'를 최적화하는 것이 소프트웨어 생산성 향상의 핵심이라고 강조합니다. 이들은 단순한 도구의 성능 개선을 넘어 개발 프로세스와 팀 문화 전체를 이 사이클의 속도를 높이는 데 최우선 순위를 둡니다. 결과적으로 피드백 루프를 수 초 내로 단축하고 개발자가 몰입을 유지할 수 있는 환경을 조성하는 것이 고품질 소프트웨어를 지속적으로 배포하는 VS Code 방식의 근간입니다. **이너 루프(Inner Loop) 최적화와 마찰 제거** - 이너 루프는 코드 수정 후 변경 사항이 반영되는 것을 확인하기까지의 반복 과정을 의미하며, 이 과정에서의 아주 작은 지연도 개발자의 집중력을 흐트러뜨리는 큰 비용으로 간주합니다. - VS Code 팀은 증분 빌드(Incremental builds)와 효율적인 모듈 구조를 통해 빌드 시간을 최소화하여, 개발자가 수정한 코드를 거의 즉각적으로 테스트할 수 있는 환경을 유지합니다. - 도구의 속도뿐만 아니라 불필요한 회의나 복잡한 승인 절차 등 개발자의 흐름을 끊는 모든 '행정적 마찰'을 제거하는 것을 기술적 부채 해결만큼 중요하게 다룹니다. **실시간 독푸딩(Dogfooding)을 통한 품질 검증** - 개발팀은 매일 아침 전날 밤에 빌드된 최신 'Insiders' 버전을 직접 설치하여 실제 업무에 사용하며, 자신이 만든 기능을 스스로 가장 먼저 테스트합니다. - 이를 통해 별도의 대규모 QA 단계에 의존하기 전에 개발자가 직접 버그를 발견하고 즉시 수정하는 선순환 구조를 만듭니다. - 실제 사용 환경에서 발생하는 사소한 불편함을 개발자가 실시간으로 체감함으로써 사용자 경험(UX) 중심의 기능 개선이 자연스럽게 이루어집니다. **자율성과 투명성에 기반한 엔지니어링 문화** - 개별 엔지니어에게 기능 설계부터 구현, 문서화, 버그 수정까지 이어지는 광범위한 소유권(Ownership)을 부여하여 의사결정 속도를 극대화합니다. - 한 달 단위의 공개적인 반복 계획(Iteration Plan)을 통해 팀의 목표를 투명하게 공유하며, 이를 통해 불필요한 상태 보고 회의를 줄이고 작업의 우선순위를 명확히 합니다. - 깃허브(GitHub) 이슈를 통해 사용자와 직접 소통하며 피드백을 빠르게 수용하고, 이를 통해 제품의 실제 가치와 직결되는 작업에 집중합니다. **몰입을 위한 시간 확보와 집중력 관리** - 주간 일정 중 회의가 없는 날을 지정하거나 최소한의 동기적 소통만을 허용하여, 엔지니어가 '딥 워크(Deep Work)'를 수행할 수 있는 긴 시간을 확보합니다. - 개발 도구 자체의 성능(Startup time, Typing latency 등)을 핵심 지표로 관리하여, 개발자가 도구의 반응 속도 때문에 리듬을 잃지 않도록 기술적 디테일에 집착합니다. 성공적인 개발 환경을 구축하기 위해서는 단순히 최신 프레임워크를 도입하는 것보다, 개발자가 수정한 코드를 확인하기까지의 시간을 단 1초라도 줄이려는 노력이 선행되어야 합니다. 빌드 도구의 최적화, 철저한 독푸딩, 그리고 개발자의 몰입을 방해하는 조직적 요소를 제거하는 것이 결합될 때 비로소 엔지니어링 팀의 진정한 속도가 발휘될 수 있습니다.

피그마, IPO (새 탭에서 열림)

피그마(Figma)는 어도비(Adobe)와의 합병 무산 이후 독자 노선을 걷기로 결정하고, 기업공개(IPO)를 위한 본격적인 행보인 로드쇼를 공식적으로 시작했습니다. 이번 로드쇼를 통해 피그마는 기관 투자자들에게 자사의 재무 건전성과 디자인 생태계에서의 압도적인 시장 지배력을 입증할 계획입니다. 최종적으로 이번 상장은 피그마가 단순한 디자인 도구를 넘어 협업 플랫폼으로서의 장기적 가치를 시장에서 평가받는 중요한 전환점이 될 것입니다. **IPO 로드쇼의 전략적 목표** * **기관 투자자 유치**: 주요 금융 허브를 순회하며 잠재적 투자자들에게 피그마의 비즈니스 모델, 성장 전략 및 기술적 차별점을 설명합니다. * **공모가 및 발행 규모 확정**: 로드쇼 기간 중 형성된 수요를 바탕으로 최종 주식 발행 가격과 상장 시기를 결정하여 시장 내 최적의 포지셔닝을 확보합니다. * **독립 경영 의지 표명**: 대형 인수 합병 대신 자립적인 상장을 선택함으로써, 독자적인 혁신을 지속하고 사용자 중심의 제품 개발을 이어가겠다는 강력한 신호를 시장에 보냅니다. **비즈니스 모델 및 제품 경쟁력** * **멀티 프로덕트 전략**: UI/UX 디자인 도구인 'Figma'를 넘어, 화이트보드 협업 툴인 'FigJam', 개발 워크플로우를 혁신하는 'Dev Mode' 등으로 제품군을 다각화하여 매출원을 확장했습니다. * **생성형 AI 기술 통합**: AI를 활용한 디자인 자동화 및 콘텐츠 생성 기능을 도입하여, 디자인 생산성을 획기적으로 높이는 기술적 우위를 강조합니다. * **강력한 커뮤니티 및 에코시스템**: 수만 개의 플러그인과 템플릿이 공유되는 커뮤니티 생태계를 통해 사용자 락인(Lock-in) 효과를 극대화하고 진입 장벽을 구축했습니다. **재무 지표와 시장 전망** * **지속적인 매출 성장**: 연간 반복 매출(ARR)의 가파른 상승 곡선과 높은 순매출 유지율(Net Revenue Retention)을 통해 비즈니스의 안정성을 증명합니다. * **엔터프라이즈 시장 확대**: 포춘 500대 기업을 포함한 대기업 고객층의 비중 확대를 통해 대규모 계약 기반의 수익 모델을 강화하고 있습니다. 피그마의 이번 IPO는 침체되었던 글로벌 SaaS 및 테크 시장의 활기를 되찾는 중요한 가늠자가 될 것입니다. 투자자들은 피그마가 제시하는 AI 기반의 디자인 미래 비전과 엔터프라이즈 시장에서의 추가적인 확장 가능성을 핵심 투자 포인트로 고려해야 합니다.

두 매개변수 구조 (새 탭에서 열림)

피그마는 디자인과 실제 구현물 사이의 해상도 차이를 극복하기 위해 디자인 캔버스 내에 실제 코드를 결합하는 '코드 레이어(Code layers)' 기술을 도입했습니다. 이를 통해 사용자는 피그마에서 디자인한 결과물을 별도의 변환 과정 없이 실제 웹사이트로 즉시 게시할 수 있는 'Figma Sites'를 구축할 수 있게 되었습니다. 이번 변화는 단순히 디자인을 코드로 내보내는 수준을 넘어, 디자인 환경 자체가 웹 엔진의 원리와 동일하게 작동하도록 캔버스의 근본적인 구조를 재설계했다는 점에 의의가 있습니다. ### 디자인 캔버스와 웹 브라우저의 기술적 통합 * 기존 피그마 캔버스는 C++로 작성된 고유의 렌더링 엔진을 통해 그래픽을 처리했지만, Figma Sites를 위해 이를 웹 표준인 HTML/CSS와 정렬시켰습니다. * 피그마의 오토 레이아웃(Auto Layout) 개념을 CSS Flexbox 및 Grid와 직접 매핑하여, 디자이너가 캔버스에서 작업하는 방식이 브라우저의 렌더링 방식과 1:1로 대응되도록 구현했습니다. * 웹 어셈블리(WASM)를 기반으로 작동하는 피그마 엔진 내부에 리액트(React) 기반의 렌더링 계층을 통합하여, 디자인 요소가 실제 코드 노드로 기능할 수 있게 했습니다. ### 코드 레이어의 핵심 메커니즘 * '코드 레이어'는 캔버스 위에서는 일반 디자인 객체처럼 보이지만, 내부적으로는 실제 HTML 요소와 그에 따른 스타일 속성을 보유합니다. * 디자인 속성(색상, 간격, 폰트 등)을 단순한 메타데이터가 아닌 '라이브 코드' 상태로 유지함으로써, 게시 버튼을 누르는 즉시 실제 웹 환경에서 동일하게 재현됩니다. * 정적 자산을 넘어서 비디오, 입력 폼(Forms), 인터랙티브 요소와 같은 동적 컴포넌트를 디자인 캔버스에서 직접 제어할 수 있는 구조를 갖추었습니다. ### AI를 활용한 시맨틱 구조화 및 최적화 * 전통적인 디자인 파일은 계층 구조가 복잡하거나 논리적이지 않은 경우가 많으나, 피그마는 AI를 활용해 이를 깨끗하고 의미 있는(Semantic) 코드 구조로 변환합니다. * AI 모델은 디자이너가 구성한 레이어의 시각적 배치를 분석하여 적절한 HTML 태그(header, nav, section 등)를 추천하고, 반응형 레이아웃을 위한 미디어 쿼리 설정을 자동화합니다. * 비정형적인 디자인 데이터를 웹 표준에 맞는 정제된 코드로 변환하는 과정에서 발생할 수 있는 오류를 AI가 사전에 검사하고 최적화하여 성능을 높였습니다. ### 실무적 가치와 전망 피그마의 이러한 변화는 디자인 '핸드오프(Hand-off)'라는 개념 자체를 사라지게 만들 수 있습니다. 디자이너가 캔버스에서 내린 결정이 곧 최종 코드가 되는 환경은 개발 주기를 획기적으로 단축하며, 디자인의 의도가 실제 제품에서 훼손되지 않도록 보장합니다. 이제 피그마는 단순한 드로잉 도구가 아니라, 코드를 시각적으로 조작하는 '비주얼 개발 환경'으로 진화하고 있습니다.

회귀 언어 모델을 활용한 (새 탭에서 열림)

구글 리서치와 딥마인드 팀은 모든 수치 예측 문제를 텍스트-투-텍스트(text-to-text) 방식으로 해결하는 '회귀 언어 모델(Regression Language Model, RLM)'을 제안했습니다. 이 방법론은 복잡하고 구조화되지 않은 대규모 시스템의 데이터를 텍스트로 변환하여 LLM이 직접 수치를 예측하게 함으로써, 기존의 정형 데이터 기반 회귀 모델이 가졌던 한계를 극복합니다. 특히 구글의 클러스터 관리 시스템인 Borg의 효율성 예측에서 기존 모델보다 뛰어난 성능과 유연성을 입증하며 대규모 시스템 시뮬레이션의 새로운 가능성을 제시했습니다. **텍스트 기반 회귀 모델의 메커니즘** * 모든 입력 데이터($x$)와 타깃 수치($y$)를 구조화된 텍스트 스트링(예: YAML, JSON)으로 표현하여 모델에 입력합니다. * 모델은 일반적인 LLM과 마찬가지로 다음 토큰 예측(Next Token Prediction) 방식을 사용하며, 교차 엔트로피 손실 함수를 통해 학습합니다. * 별도의 피처 엔지니어링이나 데이터 정규화 과정이 필요 없으며, 사전 학습된 모델을 활용하거나 처음부터 무작위 초깃값으로 학습시키는 것 모두 가능합니다. * 수치를 텍스트로 처리함으로써 새로운 데이터 유형이나 하드웨어 사양, 워크로드 패턴이 추가되더라도 모델 구조를 변경하지 않고 유연하게 대응할 수 있습니다. **구글 Borg 시스템을 통한 실증 연구** * 구글의 컴퓨팅 인프라인 Borg의 자원 효율성 지표인 'MIPS per GCU'를 예측하는 데 RLMs를 적용했습니다. * 약 6,000만 개의 파라미터를 가진 2레이어 인코더-데코더 구조의 모델을 사용해 대규모 클러스터의 상태를 시뮬레이션했습니다. * 입력 데이터가 최대 100만 토큰에 달하는 경우, 중요도가 높은 피처를 앞쪽에 배치하는 전처리 과정을 통해 모델의 토큰 제한(8,000개) 내에서도 핵심 정보를 보존했습니다. * 퓨샷(few-shot) 그래디언트 업데이트만으로도 새로운 태스크와 데이터 유형에 빠르게 적응하는 성능을 보여주었습니다. **확률 분포 캡처 및 불확실성 모델링** * RLM의 출력 결과를 여러 번 샘플링함으로써 단순한 점 예측을 넘어 출력값 $y$의 확률 밀도(Density)를 정확하게 추정할 수 있습니다. * 이를 통해 시스템 내부의 고유한 무작위성(우연적 불확실성, Aleatoric Uncertainty)과 관측 데이터 부족으로 인한 불확실성(인식적 불확실성, Epistemic Uncertainty)을 동시에 파악합니다. * 실험 결과, RLM은 복잡한 다봉형(multimodal) 분포를 가진 타깃 값도 기존의 MLP(다층 퍼셉트론)나 XGBoost보다 훨씬 정교하게 모사하는 능력을 갖췄음이 확인되었습니다. **성능 비교 및 확장성** * 데이터 양이 적은 상황(Low-data regime)에서 RLM은 전통적인 회귀 모델들보다 월등히 높은 예측 정확도를 기록했습니다. * 복잡한 시스템의 설정값, 로그 정보, 메타데이터 등을 텍스트 형태로 통합 학습함으로써 시스템 전반에 대한 깊은 이해를 바탕으로 한 시뮬레이션이 가능해졌습니다. * 구글은 이 방법론을 누구나 활용할 수 있도록 'regress-lm'이라는 오픈소스 라이브러리를 공개하여 연구 커뮤니티의 참여를 독려하고 있습니다. 복잡하고 변화가 빠른 시스템에서 데이터 스키마를 정의하고 피처를 추출하는 데 드는 비용을 줄이고 싶다면, 입력을 텍스트로 직렬화하여 RLM을 적용해 보는 것을 추천합니다. 특히 시뮬레이션 대상의 불확실성이 크고 데이터가 비정형인 환경일수록 텍스트 기반 회귀 모델이 기존 방식보다 더 강력한 범용 근사 도구가 될 수 있습니다.

DDD를 Merchant 시스템 구축에 활용한 사례를 소개합니다 (새 탭에서 열림)

기존의 음식 배달 중심 시스템에서 벗어나 소매 상품 판매에 최적화된 새로운 Merchant 시스템을 구축하기 위해 도메인 주도 설계(DDD)를 도입했습니다. 이번 프로젝트는 DDD가 단순히 코드 구현 기술이 아니라, 도메인의 역할과 책임을 명확히 정의하고 이를 바탕으로 조직 구조와 협업 방식을 설계하는 방법론임을 보여줍니다. 클린 아키텍처와 비동기 이벤트 기반의 모듈 구성을 통해 시스템의 확장성을 확보하고, 글로벌 팀 간의 원활한 협업 체계를 마련하며 성공적으로 시스템을 론칭했습니다. **소매 플랫폼으로의 전환과 도메인 정의** * 기존 시스템의 '음식점 기반 소매 판매' 한계를 극복하기 위해 독립적인 Merchant 시스템을 설계했습니다. * Merchant 시스템은 점포, 상품, 재고 등의 정보를 제공하고, 실제 판매는 '소비자 플랫폼'에서 담당하는 구조로 역할을 분리했습니다. * 핵심 도메인을 점포(shop), 상품(item), 카테고리(category), 재고(inventory), 주문(order)의 다섯 가지로 정의하여 복잡도를 낮추었습니다. **클린 아키텍처를 활용한 시스템 설계** * 도메인 엔티티가 외부 환경의 변화에 영향을 받지 않도록 클린 아키텍처를 채택했습니다. * 모든 팀원이 쉽게 이해하고 따를 수 있는 명확한 계층 구조를 통해 유지보수 편의성을 높였습니다. * 의존성 방향을 내부(도메인)로만 허용하여 비즈니스 로직의 순수성을 유지했습니다. **비동기 기반의 모듈 및 통신 구조** * 시스템을 외부 요청을 받는 'API' 모듈과 비즈니스 로직을 처리하는 '엔진' 모듈로 분리하여 가용성을 높였습니다. * gRPC를 통한 API 제공과 Apache Kafka 기반의 내부 통신을 결합했으며, Decaton 라이브러리를 사용해 파티션 대비 높은 처리량을 확보했습니다. * 플랫폼 특성을 고려하여 즉각적인 응답보다는 최종 일관성(Eventual Consistency)과 빠른 API 응답 능력에 초점을 맞춘 비동기 구조를 설계했습니다. **글로벌 협업과 조직의 일치(Conway's Law)** * 한국 팀은 핵심 도메인(Core)을, 일본 팀은 현지 시스템 연계(Link, BFF)를 담당하도록 조직을 구성해 콘웨이의 법칙을 실천했습니다. * 의사결정 과정과 논의 배경을 기록하는 ADR(Architectural Decision Record)을 활용해 조직 간의 공감대를 형성하고 불필요한 재논의를 방지했습니다. * 추상화된 연계 계층을 통해 새로운 소비자 플랫폼이 추가되더라도 핵심 도메인의 변화는 최소화되는 유연한 구조를 만들었습니다. 성공적인 DDD 적용을 위해서는 헥사고날 아키텍처와 같은 기술적인 구현에만 매몰되지 않는 것이 중요합니다. 도메인의 역할과 책임을 먼저 명확히 정의하고, 그 경계에 맞춰 팀 조직과 소통 구조를 설계할 때 진정한 설계의 이점을 얻을 수 있습니다. 시스템의 아키텍처가 조직의 소통 구조를 반영한다는 점을 인지하고, 기술과 조직 관리의 균형을 맞추는 접근이 권장됩니다.

SensorLM: 웨어 (새 탭에서 열림)

구글 리서치가 발표한 SensorLM은 약 6,000만 시간 분량의 방대한 웨어러블 센서 데이터를 자연어와 연결하여 학습한 새로운 유형의 센서-언어 파운데이션 모델입니다. 이 모델은 스마트워치 등이 수집하는 복잡한 센서 신호를 인간이 이해할 수 있는 정교한 설명으로 변환함으로써, 단순한 수치 기록을 넘어 행동의 맥락과 원인을 파악하는 헬스케어의 새로운 지평을 열었습니다. 대규모 멀티모달 학습을 통해 제로샷 활동 인식 및 텍스트 생성 분야에서 기존 모델을 뛰어넘는 성능을 입증하며 개인 맞춤형 건강 관리의 가능성을 제시합니다. **데이터셋 구축 및 자동화된 캡션 생성** - 127개국 10만 명 이상의 동의를 얻은 익명화된 핏빗(Fitbit) 및 픽셀 워치 데이터를 활용하여 총 5,970만 시간 분량의 역대 최대 규모 센서-언어 데이터셋을 구축했습니다. - 사람이 일일이 데이터를 라벨링하는 비용 문제를 해결하기 위해, 센서 데이터의 통계 정보와 추세, 주요 이벤트를 분석하여 자동으로 상세한 설명을 생성하는 '계층적 파이프라인'을 개발했습니다. - 이를 통해 기존 연구들보다 수십 배 큰 규모의 데이터를 확보함으로써 고차원 센서 신호와 자연어 사이의 미세한 상관관계를 학습할 수 있는 기반을 마련했습니다. **대조 학습과 생성 학습의 통합 아키텍처** - 센서 조각과 텍스트 설명을 매칭하는 '대조 학습(Contrastive Learning)'을 적용하여 수영이나 근력 운동 같은 서로 다른 활동을 정밀하게 구분하는 능력을 갖췄습니다. - 고차원 센서 신호로부터 직접 맥락에 맞는 텍스트 캡션을 생성하는 '생성형 사전 학습(Generative Pre-training)'을 결합하여 데이터의 의미를 능동적으로 해석하도록 설계했습니다. - 두 학습 전략을 단일 프레임워크로 통합함으로써 센서 데이터의 통계적 특성뿐만 아니라 구조적, 의미론적 차원까지 아우르는 깊이 있는 이해가 가능해졌습니다. **활동 인식 및 교차 모달 검색 능력** - 별도의 미세 조정(Fine-tuning) 없이도 20가지 활동을 정확히 분류하는 제로샷(Zero-shot) 성능을 보여주며, 일반적인 거대 언어 모델(LLM)보다 월등히 높은 정확도를 기록했습니다. - 소량의 데이터만으로 새로운 작업에 적응하는 퓨샷(Few-shot) 학습 능력이 뛰어나, 개인별로 다른 활동 패턴이나 특수한 건강 상태에도 유연하게 대응할 수 있습니다. - 텍스트로 특정 센서 패턴을 찾거나 반대로 센서 데이터를 통해 자연어 설명을 추출하는 '교차 모달 검색' 기능을 통해 전문가의 데이터 분석 효율성을 극대화했습니다. **고도화된 상황 인식 캡션 생성** - 웨어러블 기기에서 발생하는 복잡한 신호를 입력받아 계층적이고 문맥에 맞는 자연어 설명을 생성하며, 기존 비전담 LLM 대비 사실 관계가 정확하고 일관성 있는 텍스트를 출력합니다. - 단순한 활동 요약을 넘어 센서 신호에 담긴 통계적 추이와 구조적 변화를 인간의 언어로 번역함으로써 사용자가 자신의 건강 데이터를 훨씬 직관적으로 이해할 수 있도록 돕습니다. SensorLM은 단순히 수치를 기록하는 기기를 넘어 사용자의 상태를 이해하고 설명해 주는 지능형 건강 비서로의 진화를 예고합니다. 이러한 기술은 향후 전문가 수준의 건강 분석 도구나 개인 맞춤형 웰니스 서비스에 핵심 기술로 활용될 것으로 기대됩니다.

피그마, IPO 공모가 (새 탭에서 열림)

Figma가 기업공개(IPO)를 위한 본격적인 로드쇼를 시작하며 상장 절차의 마지막 단계에 돌입했습니다. 이번 행보는 디자인 협업 플랫폼 시장의 선두 주자로서 Figma의 시장 가치를 공식적으로 입증하고, 글로벌 투자자들에게 향후 비즈니스 전략과 비전을 제시하기 위한 중요한 이정표가 될 것입니다. **IPO 로드쇼의 시작과 투자 수요 확보** * Figma는 잠재적 투자자들을 대상으로 회사의 재무 상태, 성장 가능성, 그리고 시장 내 경쟁 우위를 설명하는 일련의 기업 설명회(Roadshow)를 개최합니다. * 이번 로드쇼를 통해 투자자들의 반응을 살피고 최종 공모 가격을 결정하며, 상장 후 안정적인 자금 조달을 위한 기반을 마련합니다. * 단순히 숫자를 제시하는 것을 넘어, 디자인과 엔지니어링의 경계를 허무는 독보적인 제품 철학을 투자 시장에 설득하는 것이 핵심 목적입니다. **독자적 성장 동력과 비즈니스 로드맵** * Adobe와의 인수 합병 무산 이후, Figma가 독자적인 경로를 통해 얼마나 강력한 자생력을 갖추었는지 증명하는 자리가 될 것입니다. * 'Inside Figma'와 'Behind the scenes' 세션을 통해 제품 개발 프로세스의 효율성과 엔터프라이즈 시장에서의 확장 가능성을 구체적으로 공유합니다. * 웹 기반 협업 환경의 기술적 우위를 바탕으로, 단순 디자인 도구를 넘어 소프트웨어 제작 전체 공정을 아우르는 에코시스템 구축 비전을 제시합니다. **실용적인 전망** Figma의 이번 IPO는 협업 소프트웨어 산업에 새로운 활력을 불어넣을 것으로 보입니다. 상장을 통해 확보된 자본은 인공지능(AI) 기반 기능 강화와 개발자 도구 확장 등 제품 고도화에 집중 투입될 것으로 예상되며, 이는 디자인 및 IT 업계 전반의 생산성 향상으로 이어질 것입니다.

제품 아이콘의 제작 과정 (새 탭에서 열림)

UX 라이팅은 단순히 적절한 단어를 선택하는 일을 넘어, 소프트웨어 개발과 유사한 엄격한 버전 관리와 반복적인 실험 과정을 필요로 합니다. Figma의 브랜칭 기능을 활용하면 라이터는 메인 디자인에 영향을 주지 않으면서도 다양한 언어적 시도를 자유롭게 할 수 있으며, 이는 최종적으로 더욱 의도적이고 정교한 사용자 경험으로 이어집니다. 결과적으로 UX 라이팅의 가치는 최종적으로 선택된 단어뿐만 아니라, 그 선택에 이르기까지 검토된 수많은 대안과 의사결정 과정에 있습니다. ### 단어의 무게를 측정하는 반복 프로세스 * UX 라이터는 단순히 '맞는 단어'를 찾는 것이 아니라, 각 단어가 사용자에게 전달하는 뉘앙스, 톤, 명확성을 다각도로 비교합니다. * 하나의 버튼 텍스트나 알림 문구를 결정하기 위해 수십 가지의 대안을 나열하고, 각 단어가 UI 디자인 내에서 시각적, 기능적으로 어떻게 작동하는지 끊임없이 검증합니다. * 이 과정은 정답을 맞히는 과정이 아니라, 가장 적절한 사용자 경험을 위해 선택지를 좁혀나가는 고도의 편집 과정입니다. ### 브랜칭(Branching)을 통한 안전한 실험 환경 * Figma의 브랜칭 기능을 활용해 디자인 원본을 훼손하지 않고도 카피의 변주를 실험할 수 있는 '라이팅 샌드박스'를 구축합니다. * 글자 수의 변화가 레이아웃에 미치는 영향이나, 텍스트가 변경되었을 때의 시각적 균형을 실시간 UI 맥락 안에서 확인하며 작업할 수 있습니다. * 이를 통해 라이터는 기술적인 제약에 얽매이지 않고 창의적인 언어적 시도를 마음껏 펼칠 수 있는 환경을 확보하게 됩니다. ### 의사결정의 기록과 협업의 효율화 * 버전 관리를 통해 특정 카피가 왜 채택되었고, 다른 후보들은 왜 탈락했는지에 대한 '히스토리'를 기록으로 남깁니다. * 이는 디자이너, 개발자, 프로덕트 매니저와의 협업 시 논리적인 근거를 제공하며, 불필요한 재논의를 줄여주는 강력한 커뮤니케이션 도구가 됩니다. * 제품의 언어가 진화하는 과정을 투명하게 공개함으로써 팀 전체가 제품의 톤앤매너와 방향성에 대해 깊은 공감대를 형성할 수 있습니다. UX 라이터에게 가장 중요한 도구는 단순히 글을 쓰는 캔버스가 아니라, 최선의 선택을 위해 수많은 '실패한 버전'들을 안전하게 관리하고 검토할 수 있는 시스템입니다. 도구를 활용해 단어 하나하나의 무게를 신중히 다루는 습관을 들일 때, 사용자에게 더욱 명확하고 친절한 제품의 목소리를 전달할 수 있습니다.

합성 및 연합: 모바일 애플리케이션을 위한 LLM 기반 개인정보 보호 도메인 적응 (새 탭에서 열림)

구글 리서치는 개인정보를 보호하면서도 모바일 사용자 경험을 혁신하기 위해 거대언어모델(LLM)을 활용한 합성 데이터 생성과 연합 학습(Federated Learning) 기술을 결합하는 방안을 제시했습니다. 이 기술은 Gboard의 오타 교정, 다음 단어 예측 등 핵심 기능을 고도화하는 데 사용되며, 실제 사용자 데이터를 직접 노출하지 않고도 모델의 도메인 적응 성능을 획기적으로 높였습니다. 결과적으로 차등 개인정보 보호(Differential Privacy)가 적용된 연합 학습 모델이 실제 서비스에 성공적으로 배포되어, 보안과 성능을 동시에 확보할 수 있음을 입증했습니다. **LLM을 활용한 고품질 합성 데이터 생성** * 공개된 데이터를 학습한 강력한 LLM을 사용하여 모바일 사용자의 타이핑 특성을 반영한 합성 데이터를 생성합니다. * 사용자의 민감한 개인 데이터에 직접 접근하는 대신, LLM이 공개 데이터셋에서 모바일 상호작용과 유사한 텍스트를 필터링하거나 직접 생성하도록 유도하는 프롬프트 엔지니어링을 활용합니다. * 이렇게 생성된 합성 데이터는 소형 모델(Small LM)의 사전 학습 단계에서 활용되어, 개인정보 암기 위험을 최소화하면서도 타겟 도메인에 최적화된 성능을 낼 수 있도록 돕습니다. **연합 학습과 차등 개인정보 보호의 결합 (DP-FL)** * Gboard의 모든 생산용 언어 모델은 사용자 기기 내에서 데이터를 처리하는 연합 학습(FL)과 데이터 노출을 통계적으로 제한하는 차등 개인정보 보호(DP) 기술을 적용합니다. * 새로운 알고리즘인 'BLT-DP-FTRL'을 도입하여 개인정보 보호 수준과 모델 성능 사이의 최적의 균형을 유지하며, 배포의 편의성을 높였습니다. * 온디바이스 환경에 최적화된 'SI-CIFG' 모델 아키텍처를 사용하여 기기 내에서의 효율적인 학습과 DP 알고리즘 간의 호환성을 확보했습니다. **오류 교정 및 도메인 적응 성능 강화** * LLM을 통해 정제된 텍스트를 생성한 후, 의도적으로 오타나 문법 오류를 삽입하여 '오류-교정' 쌍의 합성 데이터를 대량으로 확보합니다. * 이 합성 데이터로 모델을 학습시킴으로써 모바일 기기에서의 교정 제안 및 맞춤법 검사 기능을 정교화했습니다. * 실제 환경 적용 결과, 주요 생산성 지표에서 3%~13%의 성능 향상을 기록하며 모바일 타이핑 경험을 실질적으로 개선했습니다. 합성 데이터와 연합 학습의 조합은 개인정보를 철저히 보호하면서도 고성능 AI 서비스를 제공할 수 있는 강력한 기술적 프레임워크를 제공합니다. 특히 데이터 보안이 중요한 모바일 환경에서 LLM의 생성 능력을 활용해 데이터 부족 문제를 해결하고 모델을 고도화하는 전략은 향후 다양한 AI 애플리케이션의 핵심적인 표준이 될 것으로 기대됩니다.

Figma Make를 이제 모든 사용 (새 탭에서 열림)

Figma의 'Make Designs'(구 Figma Make)는 AI를 활용해 디자이너가 아이디어를 시각적인 초안으로 빠르게 전환할 수 있도록 돕는 강력한 도구입니다. 단순히 명령어를 입력하는 것을 넘어, 구체적인 컨텍스트와 스타일 가이드를 제공함으로써 반복적인 작업을 줄이고 창의적인 문제 해결에 집중할 수 있게 합니다. 이 글은 AI를 디자인 워크플로우에 완벽하게 통합하여 최상의 결과물을 얻기 위한 8가지 핵심 전략을 제시합니다. **명확한 목적과 컨텍스트 설정** * 단순히 '로그인 페이지'라고 입력하기보다 '친환경 여행 가이드를 위한 모바일 로그인 화면'처럼 구체적인 서비스 성격과 대상을 명시해야 합니다. * 사용자가 해당 화면에서 수행해야 할 핵심 동작(예: 예약하기, 사진 업로드)을 프롬프트에 포함하여 AI가 기능적인 레이아웃을 생성하도록 유도합니다. **시각적 스타일과 분위기 지정** * '미니멀한', '활기찬', '전문적인' 등 디자인의 무드를 결정하는 형용사를 활용하여 브랜드 정체성에 맞는 결과물을 도출합니다. * 다크 모드나 특정 색상 대비와 같은 시각적 제약 조건을 미리 설정하면 후속 수정 작업을 크게 줄일 수 있습니다. **UI 구성 요소의 구체적 요청** * 히어로 섹션, 가격 테이블, 사용자 리뷰 카드 등 화면에 반드시 포함되어야 할 특정 UI 요소를 명확히 나열합니다. * 필요한 버튼의 개수나 내비게이션 바의 위치 등 구조적인 세부 사항을 지시하여 디자인의 완성도를 높입니다. **반복적인 프롬프트 수정과 개선** * 첫 번째 결과물에 만족하기보다는 프롬프트를 조금씩 수정하며 여러 버전을 생성해 보는 과정이 필요합니다. * 생성된 디자인 중 마음에 드는 부분을 유지하면서 특정 섹션만 다시 생성하도록 요청하여 결과물을 점진적으로 발전시킵니다. **레이어 구조 및 명명 규칙 확인** * AI가 생성한 결과물의 레이어 패널을 확인하여 그룹화와 이름 지정이 논리적으로 되어 있는지 점검합니다. * 자동으로 생성된 오토 레이아웃(Auto Layout) 설정을 확인하고, 필요에 따라 수치를 조정하여 디자인 시스템과의 일관성을 확보합니다. **아이디어 확장을 위한 브레인스토밍 도구로 활용** * 완성된 디자인을 얻으려는 목적 외에도, 레이아웃에 대한 영감을 얻거나 다양한 디자인 옵션을 빠르게 탐색하는 용도로 사용합니다. * 익숙한 디자인 패턴에서 벗어나 AI가 제안하는 예상치 못한 구조를 참고하여 창의적인 시안을 구상합니다. **기존 디자인 시스템과의 통합** * AI가 생성한 컴포넌트를 라이브러리에 등록된 실제 컴포넌트로 교체하여 프로젝트의 일관성을 유지합니다. * 생성된 텍스트와 이미지는 가이드로 삼되, 실제 브랜드의 보이스앤톤과 고해상도 자산으로 업데이트하여 실무에 적용합니다. AI는 디자이너의 대체재가 아니라 작업을 가속화하는 '패스트 포워드(Fast-forward)' 버튼입니다. AI가 제안한 초안을 바탕으로 디자이너의 고유한 감각과 논리를 더해 디테일을 다듬을 때 가장 가치 있는 결과물이 탄생합니다. 처음부터 완벽한 디자인을 기대하기보다는, 여러 번의 시도를 통해 AI와 협업하는 방식을 익히는 것이 중요합니다.