Figma Make를 캔버 (새 탭에서 열림)

Figma가 'Figma Make'를 통해 텍스트 프롬프트만으로 디자인 시안과 프로토타입을 생성할 수 있는 생성형 AI 기능을 모든 사용자에게 전격 공개했습니다. 이 도구는 초기 아이디어 구상부터 복잡한 상호작용 설정까지의 과정을 자동화하여 디자이너의 업무 속도를 획기적으로 높이는 것을 목표로 합니다. 이제 사용자는 단순 반복 작업에서 벗어나 더 높은 차원의 전략적 설계와 창의적인 문제 해결에 집중할 수 있게 되었습니다. ### 프롬프트를 활용한 고품질 UI 생성 (Make Designs) * 사용자가 입력한 텍스트 설명을 바탕으로 모바일 앱이나 웹 사이트의 인터페이스 레이아웃을 즉시 생성합니다. * 단순한 이미지 형태가 아닌, 수정 가능한 Figma의 레이어와 컴포넌트 구조로 결과물을 제공하여 즉각적인 커스텀이 가능합니다. * 다양한 디자인 대안을 순식간에 탐색할 수 있어, 프로젝트 초기 단계에서 '빈 화면'으로부터 시작해야 하는 심리적 부담과 물리적 시간을 줄여줍니다. ### 클릭 한 번으로 완성되는 프로토타이핑 (Make Prototype) * 정적인 화면들을 지능적으로 분석하여 클릭 한 번으로 인터랙티브한 흐름을 구축합니다. * AI가 각 화면의 버튼과 네비게이션 요소를 파악하여 논리적인 연결선(Wiring)과 전환 효과(Transition)를 자동으로 설정합니다. * 수동으로 수많은 화면을 일일이 연결해야 했던 번거로운 작업을 자동화하여, 사용자 경험(UX) 테스트를 위한 프로토타입 제작 기간을 단축합니다. ### 지능형 콘텐츠 관리 및 디자인 정리 * **맥락 기반의 콘텐츠 생성:** 'Lorem Ipsum' 대신 디자인의 의도에 맞는 실제적인 텍스트와 이미지를 자동으로 채워 넣어 시안의 완성도를 높입니다. * **레이어 자동 정리:** 무질서하게 나열된 레이어 이름을 구조에 맞게 자동으로 변경하고 정리하여 개발자와의 협업 및 핸드오프 과정을 원활하게 만듭니다. * **시각적 자산 검색:** 팀 내 라이브러리에서 특정 이미지나 컴포넌트와 유사한 요소를 시각적으로 검색하여 디자인 시스템의 재사용성을 극대화합니다. Figma Make는 디자인의 완전한 자동화가 아닌 '강력한 시작점'을 제공하는 도구입니다. AI가 생성한 초안을 바탕으로 브랜드의 아이덴티티에 맞춰 세부 사항을 다듬는 방식으로 활용할 때 가장 큰 효율을 낼 수 있습니다. 사용자는 더 구체적이고 명확한 프롬프트를 작성하는 능력을 기름으로써 AI와의 협업 시너지를 높여야 합니다.

에어비앤비의 차세대 (새 탭에서 열림)

에어비앤비는 기존의 키-값(Key-Value) 저장소인 Mussel v1의 운영 복잡성과 확장성 한계를 극복하기 위해, NewSQL 백엔드 기반의 Mussel v2로 아키텍처를 전면 재설계했습니다. 새로운 시스템은 쿠버네티스 네이티브 환경에서 대규모 벌크 로드와 실시간 스트리밍 처리를 동시에 지원하며, 한 자릿수 밀리초 단위의 읽기 성능을 안정적으로 제공합니다. 결과적으로 에어비앤비는 데이터 일관성 제어권 확보와 비용 투명성 강화는 물론, 미션 크리티컬한 서비스들을 중단 없이 성공적으로 마이그레이션하는 성과를 거두었습니다. ### v1의 한계와 재설계 배경 * **운영 복잡성:** EC2와 Chef 스크립트에 의존했던 v1은 노드 확장이나 교체에 수 시간이 소요되었으나, v2는 쿠버네티스 매니페스트를 통한 자동화로 이를 수 분 이내로 단축했습니다. * **데이터 핫스팟:** 정적 해시 파티셔닝(Static Hash Partitioning) 방식은 특정 노드에 부하가 쏠리는 문제를 야기했으나, v2는 동적 범위 샤딩(Dynamic Range Sharding)을 도입하여 100TB 이상의 테이블에서도 안정적인 지연 시간을 유지합니다. * **가시성 부족:** 리소스 사용량이 불투명했던 과거와 달리, v2는 네임스페이스별 테넌시 관리와 쿼터 할당, 대시보드를 통해 비용 통제력을 높였습니다. ### Mussel v2의 핵심 아키텍처 * **Dispatcher:** 상태가 없는(Stateless) 쿠버네티스 서비스로, 클라이언트의 API 호출을 백엔드 쿼리로 변환하며 이중 쓰기(Dual-write)와 섀도우 리드(Shadow-read)를 관리합니다. * **이벤트 기반 쓰기:** 모든 쓰기 작업은 내구성을 위해 Kafka에 먼저 기록된 후 Replayer를 통해 백엔드에 반영되어, 트래픽 급증을 유연하게 흡수하고 일관성을 보장합니다. * **읽기 최적화:** 논리적 테이블 매핑을 통해 포인트 룩업, 범위 쿼리, 접두사 쿼리를 최적화하며, 지연 시간을 줄이기 위해 로컬 복제본으로부터의 읽기(Stale Read) 기능을 제공합니다. ### 벌크 로드 및 데이터 만료(TTL) 시스템 * **고성능 인입:** S3에 업로드된 대규모 데이터를 쿠버네티스 워커 플릿이 병렬로 처리하여 기존 테이블에 병합하거나 교체하는 벌크 로드 프로세스를 최적화했습니다. * **토폴로지 인지형 TTL:** 데이터 범위를 서브 태스크로 나누어 병렬로 스캔하고 삭제하는 서비스를 도입하여, 대규모 데이터셋에서도 라이브 쿼리에 영향을 주지 않고 효율적으로 스토리지를 관리합니다. ### 무중단 마이그레이션 전략 * **Blue/Green 방식 적용:** 기존 v1에 CDC(Change Data Capture) 기능이 부족했음에도 불구하고, Kafka 스트림을 활용한 맞춤형 파이프라인을 구축해 v1과 v2 간의 최종 일관성을 유지했습니다. * **단계적 전환:** 모든 트래픽을 v1으로 보내는 단계부터 v2에서 성능을 검증하는 섀도우 단계, v2를 주 저장소로 사용하는 리버스 단계를 거쳐 최종 컷오버(Cutover)를 진행했습니다. * **안정성 장치:** 테이블 단위로 마이그레이션을 수행하고 자동 서킷 브레이커와 즉시 롤백 로직을 구현하여, 데이터 손실이나 서비스 중단 없이 100개 이상의 유스케이스를 이전했습니다. 성공적인 저장소 엔진 교체는 단순히 성능 향상에 그치지 않고, 운영 자동화와 유연한 확장성을 통해 비즈니스 요구사항에 기민하게 대응할 수 있는 기반을 마련해 줍니다. 특히 대규모 데이터 마이그레이션 시 Kafka를 중간 매개체로 활용하고 단계별 검증 과정을 거치는 전략은 시스템 안정성을 확보하는 데 필수적인 요소입니다.

디자인 맥락에 관심을 (새 탭에서 열림)

디자인 시스템과 AI의 결합은 그동안 범용 대규모 언어 모델(LLM)이 개별 기업의 고유한 디자인 언어를 이해하지 못한다는 한계에 부딪혀 왔습니다. 하지만 Anthropic이 발표한 MCP(Model Context Protocol) 서버는 AI가 로컬이나 기업 내부의 디자인 데이터에 직접 접근할 수 있는 표준화된 통로를 제공함으로써 이 문제를 해결합니다. 이를 통해 AI는 단순한 코드 작성을 넘어 조직의 특정 디자인 토큰, 컴포넌트 라이브러리, 가이드라인을 완벽히 준수하는 '전문가급 보조 도구'로 진화하게 됩니다. ### 범용 AI의 한계와 디자인 시스템의 파편화 * **지식의 공백:** 기존 LLM은 인터넷상의 공개 데이터로 학습되었기 때문에, 특정 기업 내부의 비공개 디자인 시스템이나 최신 업데이트된 디자인 토큰에 대한 정보가 없습니다. * **할루시네이션(환각):** AI가 존재하지 않는 컴포넌트 이름을 지어내거나, 기업 표준과 맞지 않는 임의의 색상 값(Hex code)을 제안하여 실무 적용에 어려움을 겪습니다. * **맥락 유지의 어려움:** 디자인 시스템은 계속 변화하지만, AI 모델은 훈련 시점에 고정되어 있어 실시간으로 변경되는 디자인 규격이나 최신 문서를 반영하지 못합니다. ### MCP(Model Context Protocol)의 역할과 작동 원리 * **표준화된 인터페이스:** MCP는 AI 모델이 로컬 파일, 데이터베이스, API 등 다양한 데이터 소스에 안전하게 접근할 수 있도록 돕는 개방형 프로토콜입니다. * **AI를 위한 'USB 포트':** 마치 컴퓨터에 주변기기를 연결하듯, MCP 서버를 통해 기업의 디자인 시스템 저장소를 AI에 직접 연결하여 실시간 컨텍스트를 제공합니다. * **데이터 보안 유지:** 기업의 핵심 자산인 디자인 자산을 외부 모델에 학습시키지 않고도, 필요할 때만 AI가 참조할 수 있도록 설계되어 보안성이 높습니다. ### 디자인 시스템 전용 MCP 서버의 활용 시나리오 * **실시간 토큰 참조:** AI가 코드 작성 시 `design-tokens.json` 파일에 직접 접근하여, 최신 브랜드 컬러나 간격(Spacing) 값을 정확하게 가져와 적용합니다. * **컴포넌트 라이브러리 통합:** 기업 내부의 React나 Vue 컴포넌트 명세서를 AI가 실시간으로 읽어 들여, 조직의 코딩 컨벤션에 맞는 정확한 UI 코드를 생성합니다. * **문서화 및 가이드 준수:** 디자인 원칙이나 접근성 가이드라인이 담긴 문서를 MCP를 통해 연결하면, AI가 이를 바탕으로 코드 리뷰를 수행하거나 가이드를 위반한 부분을 지적할 수 있습니다. ### AI 기반 디자인 시스템의 미래와 생산성 향상 * **프로토타이핑 속도 극대화:** 디자이너나 개발자가 말로 설명하는 것만으로도, 시스템 규격에 맞는 고충실도(High-fidelity) 프로토타입을 즉시 구현할 수 있습니다. * **커뮤니케이션 비용 절감:** 디자인과 개발 사이의 간극을 AI가 채워줌으로써, 사소한 스타일 수정이나 컴포넌트 사용법에 대한 논의 시간을 획기적으로 줄여줍니다. * **일관성 유지:** 수많은 팀원이 협업하는 대규모 조직에서도 AI가 일관된 디자인 시스템 수호자 역할을 수행하여 제품 전반의 품질을 상향 평준화합니다. 성공적인 AI 워크플로우를 구축하기 위해서는 디자인 토큰과 컴포넌트 문서를 머신 러닝이 읽기 쉬운 구조로 정리하고, 이를 MCP 서버로 연결하는 기반 작업이 선행되어야 합니다. 이제 디자인 시스템 팀의 역할은 단순히 에셋을 만드는 것을 넘어, AI가 조직의 디자인 언어를 원활하게 소비할 수 있도록 '데이터의 다리'를 놓는 방향으로 확장될 것입니다.

AfriMed-QA (새 탭에서 열림)

Google Research와 아프리카 현지 파트너들은 아프리카 보건 의료 맥락에 특화된 최초의 대규모 의료 벤치마크 데이터셋인 'AfriMed-QA'를 개발했습니다. 이 데이터셋은 기존 서구권 중심의 의료 벤치마크가 반영하지 못했던 아프리카 특유의 질병 분포, 언어적 특성, 문화적 배경을 포함하여 LLM의 실질적인 성능을 평가하도록 설계되었습니다. 연구 결과 대규모 모델일수록 높은 정확도를 보였으며, 이 데이터셋은 Google의 최신 의료 특화 모델인 MedGemma 학습에도 활용되었습니다. ### AfriMed-QA 데이터셋의 구성과 특징 * **데이터 규모 및 구성**: 약 15,000개의 임상 질문과 답변으로 이루어져 있으며, 4,000개 이상의 전문가용 객관식(MCQ), 1,200개 이상의 단답형(SAQ), 10,000개의 소비자 질의(CQ)를 포함합니다. * **광범위한 출처**: 아프리카 12개국, 60개 이상의 의과대학에서 온 621명의 기여자가 참여하여 데이터를 구축했습니다. * **전문 분야 포괄**: 산부인과, 신경외과, 내과, 응급의학, 전염병 등 총 32개의 세부 의료 전공 분야를 망라합니다. * **수집 플랫폼**: Intron Health가 개발한 웹 기반 크라우드소싱 플랫폼을 활용하여 아프리카 현지의 다양한 억양과 다국어 환경을 반영할 수 있는 인터페이스를 구축했습니다. ### 지역적 맥락 반영의 필요성 및 가치 * **분포 변화 대응**: 기존 USMLE MedQA와 같은 데이터셋은 서구 중심의 데이터에 치우쳐 있어, 아프리카 지역의 질병 패턴이나 증상의 맥락적 차이를 평가하는 데 한계가 있었습니다. * **언어적 다양성**: 영어를 사용하더라도 지역마다 다른 언어적 변종(linguistics)과 현지 지식을 정확히 이해해야 실질적인 의료 지원이 가능합니다. * **사회적 영향력**: 본 연구는 저자원 환경에서 LLM이 임상 진단 정확도를 높이고 다국어 의사결정 지원 도구로 기능할 수 있음을 입증하여 ACL 2025에서 '최우수 사회적 영향 논문상'을 수상했습니다. ### LLM 성능 평가 및 시사점 * **평가 대상**: 소형부터 대형 모델에 이르는 총 30개의 일반 및 바이오메디컬 LLM(오픈 소스 및 폐쇄형 포함)을 대상으로 평가를 진행했습니다. * **평가 방법론**: 객관식은 정답 선택 정확도를 측정하고, 단답형은 참조 답변과의 문장 수준 중첩도 및 의미적 유사성을 분석했습니다. * **모델 크기와 성능의 상관관계**: 대규모 모델이 소형 모델보다 AfriMed-QA에서 더 높은 성능을 보였는데, 이는 온디바이스(On-device)나 엣지 배포가 필요한 저자원 환경에서 소형 전문 모델의 개선이 필요함을 시사합니다. ### 데이터 공개 및 향후 활용 * **오픈 소스화**: 아프리카 보건 의료 AI 발전을 위해 벤치마크 데이터셋은 Hugging Face에, 평가 코드는 GitHub에 전면 공개되었습니다. * **실제 모델 적용**: 이 데이터셋은 Google의 최신 의료 특화 오픈 모델인 'MedGemma'의 학습 및 검증에 직접적으로 활용되었습니다. * **확장성**: 본 프로젝트에서 사용된 데이터 수집 및 평가 방법론은 디지털화된 벤치마크가 부족한 다른 지역(locale)에도 확장 적용될 수 있는 가이드라인을 제시합니다.

스케일링 뮤즈: 넷플릭스가 조단위 데이터에서 데이터 기반 창의적 인사이트를 제공하는 방법 | 넷플릭스 기술 블로그 | 넷플릭스 기술 블로그 (새 탭에서 열림)

넷플릭스의 내부 데이터 분석 플랫폼인 'Muse'는 수조 건 규모의 데이터를 분석하여 홍보용 미디어(아트웍, 영상 클립)의 효과를 측정하고 창작 전략을 지원합니다. 급증하는 데이터 규모와 복잡한 다대다(Many-to-Many) 필터링 요구사항을 해결하기 위해, 넷플릭스는 HyperLogLog(HLL) 스케치와 인메모리 기술인 Hollow를 도입하여 데이터 서빙 레이어를 혁신했습니다. 이를 통해 데이터 정확도를 유지하면서도 수조 행의 데이터를 실시간에 가깝게 처리할 수 있는 고성능 OLAP 환경을 구축했습니다. ### 효율적인 고유 사용자 집계를 위한 HLL 스케치 도입 * **근사치 계산을 통한 성능 최적화:** 고유 사용자 수(Distinct Count)를 계산할 때 발생하는 막대한 리소스 소모를 줄이기 위해 Apache Datasketches의 HLL 기술을 도입했습니다. 약 0.8%~2%의 미세한 오차를 허용하는 대신 집계 속도를 비약적으로 높였습니다. * **단계별 스케치 생성:** Druid 데이터 수집 단계에서 '롤업(Rollup)' 기능을 사용해 데이터를 사전 요약하고, Spark ETL 과정에서는 매일 생성되는 HLL 스케치를 기존 데이터와 병합(hll_union)하여 전체 기간의 통계를 관리합니다. * **데이터 규모 축소:** 수개월에서 수년 치의 데이터를 전수 비교하는 대신, 미리 생성된 스케치만 결합하면 되므로 데이터 처리량과 저장 공간을 획기적으로 절감했습니다. ### Hollow를 활용한 인메모리 사전 집계 및 서빙 * **초저지연 조회 구현:** 모든 쿼리를 Druid에서 처리하는 대신, 자주 사용되는 '전체 기간(All-time)' 집계 데이터는 넷플릭스의 오픈소스 기술인 'Hollow'를 통해 인메모리 방식으로 서빙합니다. * **Spark와 마이크로서비스의 연계:** Spark 작업에서 미리 계산된 HLL 스케치 집계 데이터를 Hollow 데이터셋으로 발행하면, Spring Boot 기반의 마이크로서비스가 이를 메모리에 로드하여 밀리초(ms) 단위의 응답 속도를 제공합니다. * **조인(Join) 병목 해결:** 복잡한 시청자 성향(Audience Affinity) 필터링과 같은 다대다 관계 연산을 메모리 내에서 처리함으로써 기존 아키텍처의 한계를 극복했습니다. ### 데이터 검증 및 아키텍처 현대화 * **신뢰성 보장:** 아키텍처 변경 전후의 데이터 정합성을 확인하기 위해 내부 디버깅 도구를 활용하여 사전/사후 데이터를 정밀하게 비교 검증했습니다. * **기술 스택 고도화:** React 프런트엔드와 GraphQL 레이어, 그리고 gRPC 기반의 Spring Boot 마이크로서비스 구조를 통해 확장성 있는 시스템을 구축했습니다. * **분석 역량 강화:** 이를 통해 단순한 대시보드를 넘어 이상치 감지(Outlier Detection), 미디어 간 성과 비교, 고급 필터링 등 사용자들의 고도화된 분석 요구를 수용할 수 있게 되었습니다. 대규모 OLAP 시스템을 설계할 때 모든 데이터를 실시간으로 전수 계산하기보다는, HLL과 같은 확률적 자료구조와 Hollow 기반의 인메모리 캐싱을 적절히 조합하는 것이 성능 최적화의 핵심입니다. 특히 수조 건 규모의 데이터에서는 완벽한 정확도와 성능 사이의 트레이드오프를 전략적으로 선택하는 것이 시스템의 유연성을 결정짓습니다.

시계열 파운데이션 모델 (새 탭에서 열림)

구글 리서치는 시계열 파운데이션 모델인 TimesFM에 '인-맥락 파인튜닝(In-Context Fine-tuning, ICF)' 기법을 도입하여, 추론 시점의 몇 가지 예시만으로 예측 성능을 극대화하는 퓨샷 학습(Few-shot Learning) 접근법을 제안했습니다. 기존의 제로샷 모델이 가진 한계를 극복하기 위해 지속적인 사전 학습(Continued Pre-training)을 활용했으며, 이를 통해 사용자가 복잡한 추가 학습을 수행하지 않고도 태스크별로 최적화된 정교한 예측 결과를 얻을 수 있음을 입증했습니다. ## 기존 모델의 한계와 퓨샷 학습의 필요성 * 시계열 예측은 비즈니스 전반에 필수적이지만, 기존 방식은 각 태스크마다 특화된 모델을 개별적으로 구축해야 하므로 시간과 비용이 많이 소모됨. * 제로샷 모델인 TimesFM은 별도 학습 없이도 준수한 성능을 보이지만, 관련 있는 과거 데이터나 유사한 사례(예: 인근 도로의 교통량)를 참고하여 성능을 더 높일 수 있는 유연성이 부족했음. * TimesFM-ICF는 모델이 추론 시점에 주어진 몇 개의 관련 예시(In-Context Examples)로부터 스스로 학습하여 예측에 반영하도록 설계됨. ## 구분자 토큰(Separator Token)을 통한 데이터 혼선 방지 * 서로 다른 출처의 데이터를 단순히 나열하여 입력하면 모델이 이를 하나의 연속된 흐름으로 오해하여 잘못된 패턴(예: 갑작스러운 급증락)을 학습할 위험이 있음. * 이를 해결하기 위해 학습 가능한 '공통 구분자 토큰'을 도입하여 각 예시 데이터 사이의 경계를 명확히 설정함. * 모델은 이 구분자를 통해 개별 예시들을 독립적으로 인식하며, 각 데이터의 고유한 패턴만 추출하여 현재 예측하려는 시계열에 적용할 수 있게 됨. ## 모델 구조 및 지속적 사전 학습 방식 * TimesFM의 기본 구조인 패치 데코더(Patched Decoder)를 유지하며, 32개의 시점을 하나의 토큰으로 변환한 뒤 트랜스포머 스택을 거쳐 128개 시점을 예측함. * 인-맥락 예시와 구분자 토큰이 포함된 새로운 데이터셋으로 '지속적 사전 학습'을 수행하여 모델이 예시로부터 정보를 얻는 방법을 익히게 함. * 인과적 자기 주의 집중(Causal Self Attention, CSA) 레이어를 통해 미래 데이터를 참조하지 않으면서도 과거의 맥락 정보를 효율적으로 통합함. ## 성능 검증 및 벤치마크 결과 * 모델이 학습 과정에서 한 번도 본 적 없는 23개의 데이터셋을 대상으로 성능을 평가함. * 실험 결과, TimesFM-ICF는 기존 제로샷 방식보다 월등한 성능을 보였으며, 훨씬 더 복잡한 과정인 지도 파인튜닝(Supervised Fine-tuning)과 대등한 수준의 정확도를 기록함. * 특히 시계열 데이터 처리 능력이 부족한 GPT-4o와 같은 일반적인 대규모 언어 모델(LLM)들에 비해 훨씬 더 정교하고 효율적인 예측 성능을 입증함. TimesFM-ICF는 시계열 예측 분야에서 모델의 재학습 없이도 도메인별 맥락을 즉각적으로 반영할 수 있는 실용적인 해결책을 제시합니다. 사용자는 예측하고자 하는 데이터와 유사한 소수의 샘플을 함께 입력하는 것만으로도 전문가 수준의 최적화된 예측 결과를 얻을 수 있습니다.

디자인 맥락, 제품을 (새 탭에서 열림)

Figma가 Anthropic에서 공개한 오픈 표준인 MCP(Model Context Protocol)를 지원하는 서버를 출시하며, 디자인 데이터를 AI 워크플로우에 직접 통합할 수 있는 길을 열었습니다. 이제 개발자는 AI 어시스턴트에게 Figma 파일의 링크를 제공하는 것만으로 디자인의 구체적인 맥락을 파악하게 하거나, 이를 기반으로 코드를 생성하도록 요청할 수 있습니다. 결과적으로 디자인과 개발 사이의 간극을 줄이고, 디자인 시스템을 코드 구현 과정에서 실시간으로 참조할 수 있는 환경이 구축되었습니다. ### MCP(Model Context Protocol)를 통한 디자인 맥락의 통합 * MCP는 LLM(거대언어모델)이 로컬이나 원격의 데이터 소스 및 도구에 안전하고 쉽게 접근할 수 있도록 돕는 오픈 표준 프로토콜입니다. * Figma MCP 서버는 AI 에이전트(예: Claude Desktop)가 Figma의 API를 통해 디자인 레이어, 속성, 구성 요소 등에 직접 접근할 수 있는 통로 역할을 합니다. * 이를 통해 개발자는 수동으로 디자인 수치를 복사해서 붙여넣는 대신, AI가 직접 디자인의 '진실의 원천(Source of Truth)'을 읽고 이해하도록 설정할 수 있습니다. ### Figma MCP 서버의 주요 기능 및 데이터 처리 * **컴포넌트 및 레이어 탐색:** AI가 특정 Figma 파일 내의 노드 구조를 탐색하고, 각 레이어의 시각적 속성(색상, 타이포그래피, 간격 등)을 추출할 수 있습니다. * **디자인 속성 읽기:** 텍스트 내용, 사용된 스타일 이름, 라이브러리 컴포넌트 정보 등을 정밀하게 파악하여 코드 생성 시 정확도를 높입니다. * **보안 및 인증:** 사용자의 Figma 개인 액세스 토큰(Personal Access Token)을 기반으로 작동하며, 명시적으로 허용된 범위 내에서만 AI가 데이터에 접근하도록 제어합니다. ### 개발 워크플로우의 실질적인 변화 * **디자인-투-코드 가속화:** "이 버튼 컴포넌트의 CSS를 추출해줘" 또는 "이 레이아웃을 React 컴포넌트로 만들어줘"와 같은 명령을 내릴 때, AI가 실제 디자인 데이터를 바탕으로 정확한 코드를 작성합니다. * **디자인 시스템 준수:** AI가 Figma에 정의된 디자인 토큰과 시스템 컴포넌트를 직접 참조하므로, 개발자가 가이드라인을 이탈하는 실수를 방지할 수 있습니다. * **피드백 루프 단축:** 개발자는 별도의 툴 전환 없이 AI 채팅창 내에서 디자인 사양을 즉시 확인하고 구현 전략을 논의할 수 있어 협업 효율이 극대화됩니다. 이 기능을 활용하려면 Figma MCP 서버를 로컬 환경에 설치하고 Claude Desktop과 같은 MCP 호환 클라이언트에 연결해야 합니다. 디자인 데이터를 프롬프트의 강력한 컨텍스트로 활용하고자 하는 개발팀이라면, 이를 통해 수동 작업을 줄이고 코드의 일관성을 획기적으로 높일 수 있을 것입니다.

P-Canvas, 팀을 이해하기 위한 엔지니어링 기법 (새 탭에서 열림)

매니징 엔지니어링이란 관계와 감정 케어 같은 복잡한 관리 업무를 체계화하여 재생산 비용을 낮추는 시도로, P-Canvas는 이러한 철학을 담아 팀원을 깊이 있게 이해하기 위해 고안된 시각화 프레임워크입니다. 이 도구는 자율성이라는 명목하에 발생할 수 있는 방임을 방지하고, 추상적인 격려에 그치기 쉬운 1on1 미팅을 데이터 기반의 구체적인 소통 창구로 전환합니다. 결과적으로 리드와 멤버는 점수 자체가 아닌 지표의 '변화량'을 통해 숨겨진 문제를 조기에 발견하고, 성장을 위한 실질적인 해법을 함께 모색할 수 있게 됩니다. **매니징 엔지니어링과 P-Canvas의 탄생 배경** * **자율과 방임의 경계:** 리더가 환경 조성에만 집중하고 멤버의 상태를 세밀히 살피지 않으면, 자율성이 방임으로 변질되어 팀원의 불만이 쌓일 수 있습니다. * **1on1 미팅의 한계 극복:** 대화 주제가 모호하거나 리드 주도로 흐르기 쉬운 기존 미팅의 단점을 보완하기 위해, 멤버가 직접 작성한 데이터를 바탕으로 대화를 시작하는 시스템이 필요했습니다. * **재생산 비용의 절감:** 반복되는 매니징의 고민을 프레임워크화하여, 매번 같은 문제로 골머리를 앓지 않고 본질적인 케어에 집중할 수 있도록 '매니징의 엔지니어링'을 지향합니다. **P-Canvas를 구성하는 핵심 지표** * **2차원 좌표계:** 소통의 적극성, 성장과 성과의 관계, 과제에 대한 감정 상태(안정 vs 도전)를 평면에 표시하여 멤버의 현재 위치를 직관적으로 파악합니다. * **척도형 지표:** 업무 비중, 참여도, 만족도, 자기 동기, 그리고 조직 내에서 얼마나 솔직하게 소통하고 있는지를 나타내는 '완전한 솔직함' 지표를 측정합니다. * **헥사곤 스킬 차트:** 직무 전문성뿐만 아니라 팀의 핵심 가치(플랫폼에서 일 잘하는 법)와 상위 조직의 문화 기여도 등 6가지 관점에서 역량을 입체적으로 시각화합니다. * **변화 추적 중심:** 단일 회차의 점수보다 5개월간의 변화 궤적을 관찰함으로써, 특정 지표가 급변했을 때 그 원인을 탐색하는 것에 초점을 맞춥니다. **데이터 기반의 문제 도출과 해결 프로세스** * **이상 신호의 조기 감지:** 만족도나 동기 지표가 급락하거나 상반된 지표가 동시에 나타날 때, 이를 리드가 주목해야 할 '버그' 신호로 간주하고 즉각적인 대화를 시도합니다. * **구체적 대화의 물꼬:** "어떻게 지내세요?"라는 막연한 질문 대신 "이번 달 이 지표가 왜 변했나요?"라는 데이터 중심의 질문으로 멤버의 실제 고충(이해관계자 갈등 등)을 빠르게 끌어냅니다. * **공동의 해법 탐색:** 도출된 문제를 바탕으로 조직의 R&R 조정, 프로세스 개선, 중재 등 리드가 취해야 할 액션을 명확히 하고 멤버의 회복과 성장을 지속적으로 추적합니다. **실용적인 결론 및 제언** P-Canvas는 단순한 평가 도구가 아니라 리드와 멤버 사이의 신뢰를 구축하고 성장의 방향을 맞추는 나침반입니다. 도입 시 점수가 높고 낮음을 비난하기보다, 지표의 변화 뒤에 숨겨진 맥락을 읽어내려는 리드의 공감 능력이 결합될 때 가장 큰 효과를 발휘합니다. 매니징이 막연하게 느껴진다면, 이처럼 팀의 특성에 맞는 지표를 시스템화하여 '데이터에 기반한 공감'을 실천해 보길 추천합니다.

테스트 시점 디퓨전을 활용 (새 탭에서 열림)

Google Cloud 연구진이 발표한 **TTD-DR(Test-Time Diffusion Deep Researcher)**은 인간의 반복적인 연구 방식을 모방하여 고품질의 연구 보고서를 작성하는 새로운 프레임워크입니다. 이 시스템은 초안을 '노이즈'가 섞인 상태로 간주하고 검색된 정보를 통해 이를 점진적으로 정제하는 '디퓨전(Diffusion)' 모델의 원리를 도입했습니다. 이를 통해 TTD-DR은 장문 보고서 작성 및 복잡한 다단계 추론 작업에서 기존 모델들을 능가하는 최첨단(SOTA) 성능을 기록했습니다. ### 디퓨전 프로세스를 활용한 보고서 정제 * **노이즈 제거로서의 수정:** 가공되지 않은 거친 초안을 이미지 생성 모델의 '노이즈' 상태로 정의하고, 검색 도구를 통해 확보한 새로운 사실 정보를 '디노이징(Denoising)' 단계로 활용하여 보고서의 품질을 단계적으로 높입니다. * **인간의 연구 패턴 모방:** 계획 수립, 초안 작성, 추가 조사, 피드백 기반 수정으로 이어지는 인간의 비선형적이고 반복적인 연구 과정을 알고리즘화했습니다. * **지속적인 루프:** 단발성 답변 생성에 그치지 않고, 검색된 정보를 바탕으로 기존 초안의 논리를 강화하거나 누락된 정보를 보충하며 최종 결과물에 도달할 때까지 반복 수정을 거칩니다. ### 핵심 아키텍처: 백본 DR 디자인 * **연구 계획 수립:** 사용자 쿼리를 분석하여 최종 보고서에 필요한 핵심 영역을 구조화된 계획서 형태로 우선 생성합니다. * **반복적 검색(Iterative Search):** 계획서와 이전 검색 맥락을 바탕으로 검색 질문을 생성하는 단계(2a)와, 검색된 문서에서 정답을 요약·추출하는 RAG 기반 단계(2b)가 유기적으로 작동합니다. * **최종 보고서 합성:** 수집된 모든 정보(계획서, 질의응답 쌍)를 통합하여 일관성 있고 포괄적인 형태의 전문 보고서를 작성합니다. ### 컴포넌트 단위의 자기 진화(Self-evolution) 알고리즘 * **다양성 확보:** 각 단계에서 여러 답변 변형을 생성하여 더 넓은 탐색 공간에서 최적의 정보를 찾습니다. * **LLM 기반 평가 및 피드백:** 'LLM-as-a-judge' 시스템을 통해 유용성과 포괄성을 평가하고, 자동화된 평점과 텍스트 피드백을 생성하여 수정 방향을 제시합니다. * **교차 결합(Cross-over):** 여러 차례 수정을 거친 다양한 답변 변형들을 하나의 고품질 출력물로 병합함으로써, 각 진화 경로의 장점만을 취합합니다. ### 성능 검증 및 실무적 시사점 * **SOTA 달성:** 장문 작성 벤치마크인 'LongBench-Write'에서 GPT-4o와 O1 등 기존의 강력한 모델들을 뛰어넘는 성능을 입증했습니다. * **복잡한 추론 능력:** HotpotQA, Bamboogle과 같은 다단계(Multi-hop) 추론 작업에서 단순 검색 이상의 깊이 있는 분석 능력을 보여주었습니다. * **적용 권장:** 이 기술은 단순한 정보 나열을 넘어, 논리적 완성도가 중요한 학술적 조사, 기업 분석 보고서, 복잡한 정책 연구 등 전문적인 글쓰기 자동화 분야에 매우 효과적으로 적용될 수 있습니다.

Intercom AI 서밋의 (새 탭에서 열림)

Figma의 Config 2025 시각적 정체성은 단순한 미학적 선택을 넘어 제품이 만들어지는 '제작의 과정(The craft of building)'과 그 이면의 복잡함을 긍정하는 데 초점을 맞췄습니다. 디자인 팀은 논리적인 구조와 창의적인 영감이 충돌하고 융합되는 지점을 시각화하기 위해 시스템 중심의 유연한 디자인 언어를 구축했습니다. 이를 통해 아이디어가 실제 제품으로 구현되는 여정을 모든 브랜드 접점에서 일관되게 전달하며, 디자인과 엔지니어링의 경계를 허무는 브랜드 경험을 제공합니다. **제작 과정의 시각화: "Messy Middle"** - 완벽하게 정제된 결과물보다는 아이디어가 구체화되는 중간 단계의 가치를 조명하기 위해 청사진, 가이드라인, 와이어프레임 등의 요소를 핵심 디자인 모티프로 사용했습니다. - 제품을 만드는 과정에서 발생하는 수많은 시도와 수정을 시각적 레이어로 쌓아 올려 '만들기'의 즐거움과 고충을 동시에 표현했습니다. **논리와 마법의 결합 (Logic and Magic)** - 엄격한 그리드 시스템과 구조적인 정밀함(논리) 위에, 생동감 넘치는 컬러 팔레트와 유기적인 형태(마법)를 결합하여 피그마의 제품 철학을 담아냈습니다. - 엔지니어링의 정밀함과 디자인의 직관적인 감각이 만나는 지점을 시각적 대비를 통해 극명하게 드러냈습니다. **시스템 중심의 유연한 디자인 프레임워크** - 단순한 그래픽 작업에 그치지 않고, 피그마의 변수(Variables)와 컴포넌트 기능을 활용하여 모든 매체에 즉각적으로 대응할 수 있는 확장 가능한 시스템을 구축했습니다. - 디지털 화면부터 오프라인 행사장 구조물까지, 브랜드 아이덴티티가 환경에 따라 유연하게 변형되면서도 일관된 맥락을 유지하도록 설계했습니다. **인터랙티브 모션과 사용자 경험의 확장** - 인터페이스의 움직임을 닮은 모션 그래픽을 적용하여, 정지된 이미지가 아닌 살아있는 제품처럼 느껴지는 브랜드 경험을 설계했습니다. - 실제 도구를 사용하는 듯한 시각적 효과를 통해 컨퍼런스 참가자들이 피그마의 생태계 안에 깊이 몰입할 수 있도록 유도했습니다. 브랜드의 정체성을 구축할 때 최종 결과물만 보여주기보다, 그 브랜드가 추구하는 ‘방식’과 ‘도구적 특성’을 시각 언어에 직접 투영하는 것이 사용자에게 훨씬 강력한 공감을 불러일으킬 수 있습니다. 특히 기술 기반의 서비스라면 시스템 중심의 디자인 접근법을 통해 브랜드의 전문성과 확장성을 동시에 확보할 것을 추천합니다.

Sensible Agent: 능동형 (새 탭에서 열림)

구글 XR 연구팀이 개발한 'Sensible Agent'는 사용자의 명시적인 음성 명령 없이도 실시간 맥락을 파악해 능동적으로 도움을 주는 AR 에이전트 프레임워크입니다. 이 시스템은 시선, 손의 사용 가능 여부, 주변 소음 등의 데이터를 분석하여 지원의 내용(What)과 전달 방식(How)을 동시에 결정함으로써 일상생활의 흐름을 방해하지 않는 비침해적 상호작용을 구현합니다. 결과적으로 사회적 어색함과 인지적 부담을 줄여 AR 기기가 일상에 자연스럽게 통합될 수 있는 기술적 토대를 제시합니다. ### 능동형 지원의 핵심: 무엇을(What)과 어떻게(How)의 결합 * **지능적 판단 구조:** 에이전트는 사용자의 상황을 실시간으로 감지하여 도움의 필요성(Action)뿐만 아니라, 그 도움을 어떤 UI 형태(아이콘, 선택지 등)와 매체(시각, 청각 등)로 전달할지 스스로 판단합니다. * **상황별 맞춤형 대응:** 예를 들어 사용자가 식당에서 메뉴판을 볼 때는 인기 메뉴를 추천하고, 마트에서는 장바구니 목록을 조용히 띄워주는 식의 능동적인 지원이 가능합니다. * **비침해성 유지:** 주변이 시끄럽거나 대화 중인 상황에서는 음성 대신 시각적 아이콘을 사용하고, 손이 자유롭지 않을 때는 고개 끄덕임 등으로 입력을 받는 등 주변 환경과 조화를 이루는 상호작용 방식을 선택합니다. ### 맥락 분석 및 쿼리 생성 프로세스 * **맥락 파서(Context Parser):** 헤드셋 카메라의 영상을 분석하는 시각 언어 모델(VLM)과 주변 소음을 감지하는 오디오 분류기(YAMNet)를 통해 사용자의 현재 활동과 환경적 제약을 파악합니다. * **능동형 쿼리 생성기:** 파악된 맥락을 바탕으로 LLM의 '사고의 사슬(Chain-of-Thought)' 추론 기법을 활용해 단계별 문제를 해결하고 최적의 제안을 생성합니다. * **퓨샷 러닝(Few-shot Learning):** 데이터 수집 연구에서 도출된 사례들을 학습 가이드로 활용하여, 모델이 특정 상황에서 어떤 행동(예: 번역, 추천)과 출력 방식(예: 오디오 전용, 시각 전용)이 적절한지 정확하게 결정하도록 돕습니다. ### 맥락에 최적화된 비침해적 상호작용 모듈 * **다중 모달리티 인터페이스:** 안드로이드 XR(Android XR) 및 WebXR 기반으로 구현된 이 프로토타입은 텍스트 음성 변환(TTS)과 시각적 패널 렌더링을 상황에 맞춰 혼합 사용합니다. * **적응형 입력 관리:** 환경과 사용자의 상태에 따라 가장 적합한 입력 방식(머리 제스처, 손 제스처, 음성 명령, 시선 처리 등)을 활성화합니다. * **사회적 맥락 존중:** 사용자가 요리 중이라 손을 쓸 수 없을 때는 고개 흔들기로 제안을 거절할 수 있게 하거나, 공공장소에서는 조용히 시각 정보만 노출하여 사회적 불편함을 최소화합니다. ### 실용적 결론 및 전망 Sensible Agent는 기존 AR 시스템이 가졌던 '명시적 명령 기반'의 한계를 극복하고, 사용자의 인지 부하를 낮추는 방향으로 진화했습니다. 이는 향후 AR 글래스가 단순한 정보 표시 장치를 넘어, 사용자의 의도를 선제적으로 파악하고 상황에 맞게 행동하는 '사회적으로 지능적인' 파트너로 발전할 수 있음을 보여줍니다. 실제 일상에서의 실용성을 높이기 위해서는 다양한 소음 환경과 복합적인 사회적 시나리오에서의 정밀한 맥락 인식 기술이 더욱 중요해질 것으로 보입니다.

Figma 렌더링: Web (새 탭에서 열림)

Figma는 웹 브라우저라는 제한적인 환경에서 고성능 그래픽 도구를 구현하기 위해 전통적인 웹 개발 방식을 넘어선 혁신적인 엔지니어링 접근법을 취하고 있습니다. 핵심은 C++ 엔진과 WebAssembly를 활용한 저수준 최적화, 그리고 독자적인 데이터 구조를 통해 데스크톱 애플리케이션에 필적하는 속도와 안정성을 확보한 것입니다. 이러한 성능 최적화는 단순한 기능 개선을 넘어 수만 개의 레이어가 포함된 대규모 협업 환경에서도 지연 없는 사용자 경험을 제공하는 Figma의 핵심 경쟁력이 되었습니다. ### WebAssembly와 C++ 기반의 핵심 엔진 * 브라우저의 JavaScript 엔진이 가진 가비지 컬렉션(GC) 성능 저하와 예측 불가능한 실행 속도를 극복하기 위해, 서비스의 핵심 로직을 C++로 작성했습니다. * 작성된 C++ 코드를 WebAssembly(Wasm)로 컴파일하여 브라우저에서 실행함으로써, 네이티브 앱에 가까운 실행 속도를 확보하고 메모리 레이아웃을 직접 정밀하게 제어합니다. * 이를 통해 복잡한 벡터 연산이나 대량의 객체 렌더링 시에도 일정한 프레임 레이트를 유지하며, 대규모 디자인 파일 로딩 성능을 비약적으로 향상시켰습니다. ### 고성능 렌더링 파이프라인 및 GPU 활용 * 웹 표준 렌더링 방식의 한계를 넘기 위해 Skia 기반의 독자적인 렌더링 엔진을 구축하고, GPU 가속을 적극적으로 활용합니다. * 화면의 변경된 부분만 효율적으로 업데이트하는 '더티 렉트(Dirty Rect)' 알고리즘과 타일링 기법을 적용하여 불필요한 연산을 최소화합니다. * 고해상도 디스플레이 환경에서도 줌인/줌아웃 및 패닝(Panning) 시 끊김 없는 부드러운 화면 전환을 위해 픽셀당 연산 과정을 최적화했습니다. ### 실시간 협업을 위한 데이터 동기화 아키텍처 * 여러 사용자가 동시에 편집하는 환경에서 데이터 충돌을 방지하고 일관성을 유지하기 위해 CRDT(Conflict-free Replicated Data Types) 개념을 응용한 동기화 엔진을 운용합니다. * 전체 파일 데이터를 다시 전송하는 대신, 변경된 속성(Diff)만을 최소 단위로 패키징하여 전송함으로써 네트워크 대역폭 사용량을 획기적으로 줄였습니다. * 사용자의 조작을 로컬에서 즉각 반영하는 '낙관적 업데이트'와 서버와의 비동기 통신을 정교하게 결합하여, 네트워크 지연 시간이 있는 상황에서도 체감 속도를 높였습니다. ### 대규모 프로젝트를 위한 메모리 관리 전략 * 브라우저의 메모리 제한(특히 32비트 환경의 한계)을 극복하기 위해 64비트 WebAssembly를 도입하고 메모리 파티셔닝 기술을 적용했습니다. * 파일 내의 수많은 레이어와 에셋을 한꺼번에 불러오지 않고, 화면에 보이는 요소나 필요한 데이터만 우선적으로 로드하는 지연 로딩(Lazy Loading) 기법을 사용합니다. * 지속적인 성능 프로파일링을 통해 메모리 누수를 감지하고, 불필요한 객체를 즉각 해제하는 엄격한 리소스 관리 체계를 구축하여 장시간 작업 시에도 안정성을 유지합니다. Figma의 사례는 웹 기술의 한계를 탓하기보다 WebAssembly와 GPU 가속 같은 최신 표준을 밑바닥부터 활용하여 문제를 해결하는 방식의 중요성을 보여줍니다. 성능 최적화는 단기적인 작업이 아니라 제품의 설계 단계부터 고려되어야 하는 핵심 원칙이며, 특히 협업 툴에서는 성능이 곧 사용자의 생산성과 직결된다는 점을 명심해야 합니다. 최신 웹 기술 스택을 고려 중인 엔지니어라면 성능 병목 지점을 해결하기 위해 저수준 제어권을 확보하는 전략을 검토해 볼 필요가 있습니다.

모든 레이어를 사용하여 LLM (새 탭에서 열림)

구글 리서치(Google Research)는 대형 언어 모델(LLM)의 환각 현상을 줄이고 사실적 정확성을 높이기 위한 새로운 디코딩 전략인 **SLED(Self Logits Evolution Decoding)**를 공개했습니다. 이 방법은 모델의 마지막 레이어뿐만 아니라 모든 내부 레이어에서 생성된 정보를 결합하여 모델이 이미 보유한 지식을 최대한 활용하도록 유도합니다. 별도의 외부 데이터나 추가적인 파인튜닝 없이도 객관식 문제, 추론, 개방형 생성 등 다양한 작업에서 성능을 일관되게 향상시킨다는 점이 핵심입니다. ### 기존 디코딩의 한계와 환각 문제 * LLM은 텍스트를 생성할 때 토큰별로 확률 분포를 계산하며, 일반적으로 가장 마지막 레이어의 결과값(logits)만을 사용하여 다음 단어를 예측합니다. * 이러한 방식은 훈련 데이터에서 자주 등장하는 '대중적인' 답변에 치우치기 쉬워, 문맥상 더 정확한 정보가 모델 내부에 있음에도 불구하고 잘못된 정보를 출력하는 환각 현상을 야기합니다. * 기존의 해결책인 검색 증강 생성(RAG)은 외부 지식 베이스를 구축해야 하는 복잡성이 있으며, 파인튜닝은 높은 비용과 자원이 소모된다는 단점이 있습니다. ### 모든 레이어를 활용하는 SLED의 메커니즘 * SLED는 트랜스포머 구조의 중간 레이어들에서 발생하는 '조기 종료(early exit)' 로짓을 활용합니다. * 중간 레이어의 로짓에 마지막 투영 행렬(projection matrix)을 재사용하여, 모든 레이어에서 각각의 토큰 확률 분포를 생성합니다. * 각 레이어에서 얻은 예측값들을 가중 평균(weighted average)하여 최종 확률 분포를 산출함으로써, 모델의 처리 단계별 정보를 통합하고 예측을 정교화합니다. * 이 과정은 모델 내부의 잠재된 지식을 더 명확하게 끌어내어, 마지막 레이어에서 왜곡될 수 있는 정보를 보정하는 역할을 합니다. ### 사실 관계 확인 및 추론 능력 향상 사례 * **지식 추출:** "브리티시컬럼비아의 주도는 어디인가?"라는 질문에 일반 모델은 인지도가 높은 '밴쿠버'를 답할 확률이 높지만, SLED는 중간 레이어의 정보를 종합하여 정답인 '빅토리아'를 선택할 확률을 높여줍니다. * **단계별 추론(CoT):** 수학 문제 풀이 과정에서 일반 모델은 $A \times B = C$와 같은 단순 패턴에 매몰되어 할인율 적용 등을 누락하기 쉽습니다. SLED는 중간 레이어에서 '등호(=)' 대신 추가 연산 기호가 나올 확률이 높다는 점을 포착하여 더 정확한 계산 결과를 도출합니다. * **범용성:** SLED는 다양한 규모와 설정의 LLM에 유연하게 적용 가능하며, 다른 사실성 강화 디코딩 기법과 결합하여 환각을 더욱 효과적으로 억제할 수 있습니다. SLED는 모델의 아키텍처를 변경하거나 외부 시스템을 도입하지 않고도 LLM의 신뢰성을 높일 수 있는 실용적인 대안입니다. 모델 내부의 계층적 정보를 최대한 활용하려는 접근 방식은 특히 고도의 정확성이 요구되는 추론 작업이나 전문 지식 답변 서비스에서 강력한 효과를 발휘할 것으로 기대됩니다. 오픈 소스로 공개된 코드를 통해 기존 워크플로우에 즉시 통합하여 성능 개선을 시도해 볼 수 있습니다.

나만의 방식대로 배우기: (새 탭에서 열림)

구글 리서치가 발표한 'Learn Your Way'는 생성형 AI를 활용해 모든 학생에게 동일하게 제공되던 기존 교과서를 개별 학습자에게 최적화된 다중 매체 학습 도구로 재구성하는 연구 프로젝트입니다. 교육 전문 모델인 LearnLM과 Gemini 2.5 Pro를 기반으로 한 이 시스템은 학습자의 관심사와 학년 수준에 맞춰 내용을 변형하며, 실험 결과 일반적인 디지털 리더를 사용한 학생들보다 학습 기억력 점수가 11%p 더 높게 나타나는 성과를 거두었습니다. **학습자 맞춤형 개인화 파이프라인** * 학습자가 자신의 학년과 관심사(스포츠, 음악, 음식 등)를 설정하면 AI가 원본 PDF의 내용은 유지하면서 난이도를 적절하게 재조정합니다. * 교과서 속의 일반적이고 딱딱한 예시들을 학습자가 선택한 관심사와 관련된 사례로 전략적으로 교체하여 학습 동기를 부여합니다. * 이렇게 개인화된 텍스트는 이후 생성되는 마인드맵, 오디오 강의, 슬라이드 등 모든 다른 형식의 콘텐츠를 생성하는 근간이 됩니다. **학습 효과를 극대화하는 다중 표상 기술** * 이중 부호화 이론(Dual Coding Theory)에 근거하여, 텍스트 외에도 이미지, 마인드맵, 타임라인 등 다양한 시각적·청각적 형식을 제공함으로써 뇌의 개념 체계 형성을 돕습니다. * 단순한 이미지 생성을 넘어, 일반적인 AI 모델이 어려워하는 교육용 정밀 일러스트레이션을 생성하기 위해 특화된 전용 모델을 미세 조정(Fine-tuning)하여 활용했습니다. * 다단계 에이전트 워크플로우를 통해 나레이션이 포함된 슬라이드 제작과 같이 복잡한 교육학적 과정이 필요한 콘텐츠를 자동 생성합니다. **Learn Your Way의 주요 인터페이스 구성** * **몰입형 텍스트(Immersive Text):** 긴 본문을 소화하기 쉬운 단위로 나누고, 생성된 이미지와 임베디드 질문을 배치해 수동적인 독서를 능동적인 학습 경험으로 전환합니다. * **섹션별 퀴즈:** 실시간 응답을 기반으로 학습자가 자신의 지식 격차를 파악할 수 있도록 돕고, 학습 경로를 다시 최적화하는 피드백 루프를 제공합니다. * **슬라이드 및 오디오 강의:** 전체 학습 내용을 요약한 프레젠테이션과 빈칸 채우기 활동, 그리고 이동 중에도 들을 수 있는 오디오 강의를 제공하여 다양한 학습 환경에 대응합니다. 이 연구는 생성형 AI가 단순히 정보를 요약하는 수준을 넘어, 교육학적 원리를 기술적으로 구현하여 학습자 중심의 개인화된 교육 환경을 구축할 수 있음을 보여줍니다. 향후 교과서는 정적인 텍스트가 아니라 학습자의 반응과 필요에 따라 실시간으로 변화하는 유연한 학습 파트너의 역할을 하게 될 것으로 기대됩니다.

Viaduct, 5년 후: (새 탭에서 열림)

에어비앤비는 자사의 데이터 중심 서비스 메시인 'Viaduct'의 5년간의 운영 성과를 공유하며, 이를 오픈소스로 공개하고 차세대 아키텍처인 'Viaduct Modern'으로의 전환을 발표했습니다. Viaduct는 중앙 집중식 스키마와 서버리스 비즈니스 로직 호스팅, 재진입(Re-entrancy) 구조를 통해 트래픽이 8배 성장하는 과정에서도 운영 효율성과 비용 선형성을 유지해 왔습니다. 이번 개편은 파편화되었던 API를 단순화하고 실행 엔진과 비즈니스 로직 사이의 추상화 경계를 강화하여, 거대해진 코드베이스의 유지보수성과 개발 생산성을 높이는 데 중점을 두었습니다. ### Viaduct의 핵심 설계 원칙 * **중앙 스키마(Central Schema):** 전사의 모든 도메인을 하나의 통합된 그래프로 연결합니다. 개발은 팀별로 분산되어 진행되지만, 사용자는 단일한 접점을 통해 모든 데이터와 기능에 접근할 수 있어 내부 요청의 75%가 Viaduct 내에서 처리됩니다. * **호스팅된 비즈니스 로직(Hosted Business Logic):** GraphQL 서버를 단순한 게이트웨이로 사용하는 대신, 비즈니스 로직을 직접 실행하는 서버리스 플랫폼으로 운영합니다. 이를 통해 개별 마이크로서비스 운영 부담을 줄이고 개발자가 로직에만 집중할 수 있는 환경을 제공합니다. * **재진입성(Re-entrancy):** Viaduct에 호스팅된 로직이 다른 로직을 호출할 때 GraphQL 프래그먼트와 쿼리를 사용하도록 설계되었습니다. 이는 대규모 코드베이스에서 직접적인 코드 의존성을 방지하고 모듈성을 유지하는 핵심 장치입니다. ### Viaduct Modern의 API 단순화 * **Tenant API의 통합:** 과거에는 기능 구현 방식이 복잡하고 파편화되어 있었으나, 이를 '노드 리졸버(Node Resolver)'와 '필드 리졸버(Field Resolver)' 두 가지 메커니즘으로 대폭 통합하여 개발자 경험을 개선했습니다. * **결정 트리 제거:** 구현 방식을 고민해야 했던 복잡한 결정 과정을 없애고, 스키마 자체의 정의에 따라 리졸버 유형이 자연스럽게 결정되도록 설계하여 학습 곡선을 낮췄습니다. ### 테넌트 모듈성과 협업 구조 * **테넌트 모듈(Tenant Module):** 스키마와 구현 코드를 팀별 소유권 단위로 묶어 관리합니다. 팀 간의 직접적인 코드 참조는 지양하고 GraphQL 인터페이스를 통해서만 소통합니다. * **선언적 데이터 의존성:** 예를 들어 '메시징 팀'이 '사용자 팀'의 타입에 새로운 필드를 추가할 때, `@Resolver` 어노테이션에 필요한 데이터 필드(예: 성, 이름)를 선언하기만 하면 됩니다. * **코드 의존성 해소:** 데이터 수요를 선언적으로 명시함으로써, 다른 팀의 내부 로직이나 데이터 소스가 무엇인지 알 필요 없이 독립적으로 기능을 확장할 수 있습니다. ### 프레임워크 계층화 및 유지보수성 * **강력한 추상화 경계:** GraphQL 실행 엔진, 테넌트 API, 애플리케이션 코드 사이의 인터페이스를 명확히 분리했습니다. 과거의 느슨했던 경계를 강화하여 서비스 로직의 중단 없이 엔진 성능을 개선하거나 라이브러리를 업데이트할 수 있는 구조를 갖췄습니다. * **운영 안정성:** 이러한 구조적 개선을 통해 개발자 수와 코드 라인 수가 급격히 증가함에도 불구하고 장애 시간을 절반으로 줄이는 성과를 거두었습니다. Viaduct는 대규모 조직에서 데이터 접근 방식을 통합하고 비즈니스 로직을 효율적으로 관리하려는 팀에게 강력한 모델을 제시합니다. 특히 마이크로서비스의 복잡도를 낮추고 싶은 조직이라면, Viaduct의 재진입 구조와 서버리스 호스팅 개념을 도입하여 개발 민첩성과 시스템 안정성을 동시에 확보하는 방향을 고려해 볼 만합니다.