accessibility

3 개의 포스트

달리는 기차 바퀴 칠하기: 7년만의 컬러 시스템 업데이트 (새 탭에서 열림)

토스 디자인 시스템(TDS)은 서비스의 글로벌 확장과 다양한 플랫폼 대응을 위해 7년 만에 컬러 시스템을 전면 개편했습니다. 인지적으로 균일한 색공간인 OKLCH를 도입하여 시각적 일관성과 접근성을 확보하고, 디자이너가 직접 제어하는 자동화된 토큰 관리 체계를 구축했습니다. 이번 개편을 통해 TDS는 단순한 디자인 가이드를 넘어, 비즈니스 성장을 뒷받침하는 확장 가능한 기술 인프라로 진화했습니다. ### 기존 컬러 시스템의 한계와 부채 - **명도 불일치**: 동일한 명도 단계(예: 100)임에도 색상(Grey, Blue, Red 등)에 따라 실제 느껴지는 밝기가 달라 UI가 얼룩덜룩해 보이는 문제가 있었습니다. - **모드 간 이격**: 라이트모드와 다크모드의 명도 기준이 달라 다크모드에서 특정 색이 너무 튀거나 가독성이 떨어지는 현상이 발생했습니다. - **관리 체계의 파편화**: 웹, iOS, 안드로이드, 디자인 에디터 등 각 플랫폼에서 컬러를 개별 관리하면서 싱글 소스 오브 트루스(SSOT)가 무너지고 커뮤니케이션 비용이 증가했습니다. ### OKLCH 색공간을 통한 인지적 균일함 확보 - **지각적 평등성**: 수치상 명도와 인간이 느끼는 밝기가 다른 HSL 모델 대신, 인지적으로 균일한 OKLCH 및 HSLuv 색공간을 활용해 모든 색상의 명도를 통일했습니다. - **접근성 자동화**: 정의된 명도 체계를 바탕으로, 외부 브랜드 컬러를 입력하더라도 TDS 기준에 맞는 배경-텍스트 대비를 자동으로 추출하는 로직을 구현했습니다. - **디바이스 최적화**: RGB 환경에서 표현하기 어려운 OKLCH 색상을 위해 채도(Chroma)를 클램핑(Clamp)하여 색조와 명도를 유지하면서도 기기 호환성을 높였습니다. ### 심미성과 접근성을 위한 시각 보정 - **Dark Yellow 문제 해결**: 수치적으로만 맞춘 노란색은 탁해 보이거나 너무 진해 보일 수 있어, 노란색 계열에 한해 별도의 명도 진행 단계를 적용하는 시각 보정을 거쳤습니다. - **다크모드 시인성 강화**: 인간의 눈이 어두운 배경에서 대비를 더 낮게 인식하는 특성을 고려하여, 최신 명도대비 메트릭인 APCA를 참고해 다크모드의 대비를 더 강하게 설계했습니다. - **시맨틱 토큰 정비**: 색상의 값(Primitive)이 아닌 사용 의도(Semantic)에 집중한 토큰 체계를 정립하여 디자인 결정 시간을 단축하고 일관성을 보장했습니다. ### 디자이너 중심의 토큰 자동화 시스템 - **통합 파이프라인**: Figma 플러그인(Token Studio)과 GitHub를 연동하여 디자이너가 컬러를 수정하고 커밋하면 모든 플랫폼의 코드가 자동으로 생성되도록 구축했습니다. - **실험적 환경**: 개발자의 수동 작업 없이도 디자이너가 직접 토큰을 변경하고 빠르게 실험할 수 있는 환경을 만들어 디자인 시스템의 운영 효율을 극대화했습니다. 성공적인 디자인 시스템 개편을 위해서는 단순한 심미적 수정을 넘어, 데이터 기반의 색공간 설계와 엔지니어링 관점의 자동화가 필수적입니다. 특히 비즈니스가 확장되는 시점이라면 컬러 시스템을 개별 컴포넌트가 아닌, 모든 플랫폼을 관통하는 하나의 '코드'이자 '인프라'로 접근하는 태도가 필요합니다.

StreetReaderAI: 문맥 인식 (새 탭에서 열림)

StreetReaderAI는 구글 리서치에서 개발한 시각장애인 및 저시력자를 위한 혁신적인 스트리트 뷰 프로토타입으로, 멀티모달 AI인 Gemini를 활용해 시각적 정보를 실시간 음성 정보로 변환합니다. 기존 지도 서비스가 제공하지 못했던 스트리트 뷰 이미지의 맥락과 지리적 특성을 실시간 대화형 인터페이스로 설명함으로써, 시각장애인이 가상 세계를 자유롭게 탐색하고 실제 경로를 미리 파악할 수 있도록 돕는 것이 이 기술의 핵심입니다. **사용자 중심의 직관적 내비게이션** * 키보드 화살표 키나 음성 명령을 사용하여 게임을 하듯 가상 공간 내 시점 전환 및 이동이 가능합니다. * 사용자가 시점을 회전할 때마다 현재 방위(예: "북동쪽을 보고 있습니다")와 정면에 랜드마크나 장소가 있는지를 음성으로 즉각 피드백합니다. * "가상 걸음(Virtual steps)" 기능을 통해 앞뒤로 이동하며 이동 거리와 도로 정보, 주변 상점 및 시설물에 대한 정보를 실시간으로 수신할 수 있습니다. **AI 디스크라이버(AI Describer)를 통한 상황별 맥락 인식** * 단순한 이미지 분석을 넘어 사용자의 위도·경도, 도로 데이터, 현재 시야의 스트리트 뷰 이미지를 결합해 맞춤형 설명을 생성합니다. * 보행 안전과 내비게이션 정보에 집중하는 '기본 모드'와 지역의 역사적·건축적 배경을 상세히 설명하는 '투어 가이드 모드'를 제공합니다. * 사용자가 현재 장면에서 궁금해할 만한 후속 질문(예: "저 건물의 입구는 어디인가요?")을 AI가 스스로 예측하여 제안함으로써 탐색의 효율성을 높였습니다. **AI 채팅과 강력한 세션 메모리 기능** * Gemini Multimodal Live API를 활용하여 사용자와 실시간 대화가 가능하며, 사용자의 질문에 맞춰 시각적 정보를 해석합니다. * 약 100만 토큰 이상의 긴 컨텍스트 윈도우를 활용해 사용자가 세션 동안 탐색한 모든 경로와 이미지를 기억합니다. * 이를 통해 "방금 지나온 버스 정류장에 벤치가 있었니?" 또는 "아까 본 편의점에서 여기까지 얼마나 떨어져 있어?"와 같은 과거의 맥락이 포함된 복합적인 질문에 정확히 답변할 수 있습니다. **사용자 평가 및 실무적 시사점** 11명의 시각장애인을 대상으로 한 연구 결과, 사용자들은 StreetReaderAI를 통해 목적지의 지형지물을 미리 확인하고 보행 경로를 계획하는 데 큰 도움을 얻었습니다. 이 기술은 수조 개의 스트리트 뷰 이미지를 텍스트 기반의 데이터로 변환할 필요 없이, 필요할 때마다 실시간으로 AI가 해석해 준다는 점에서 확장성이 매우 높습니다. 향후 이와 같은 멀티모달 AI 기술이 지도 앱에 통합된다면 시각장애인의 이동권과 정보 접근성을 획기적으로 개선할 수 있을 것입니다.

음원 정위 기술로 그룹 대 (새 탭에서 열림)

구글 리서치와 딥마인드가 발표한 '스피치컴퍼스(SpeechCompass)'는 다중 마이크를 활용한 음원 위치 추적 기술을 통해 모바일 자막 서비스의 가독성과 접근성을 혁신적으로 개선합니다. 기존의 실시간 자막 앱들이 여러 명의 발화 내용을 구분 없이 나열하던 한계를 극복하기 위해, 이 시스템은 소리가 들려오는 방향을 실시간으로 계산하여 발화자별로 색상과 화살표 지표를 제공합니다. 이를 통해 사용자는 복잡한 설정 없이도 그룹 대화에서 '누가, 어느 방향에서' 말하고 있는지를 직관적으로 파악할 수 있습니다. ### 기존 모바일 자막 기술의 한계와 해결책 * **인지 부하 문제:** 기존의 실시간 자막(Live Transcribe) 서비스는 모든 대화 내용을 하나의 텍스트 흐름으로 합쳐서 보여주기 때문에, 여러 명의 대화자가 섞여 있을 때 누가 어떤 말을 했는지 구분하기 어렵고 사용자의 인지적 부담이 큽니다. * **기존 방식의 제약:** 시각 정보를 활용한 발화자 분리는 카메라 시야 확보가 필요하고, 음성 특징점(Voiceprint) 기반 방식은 각 화자의 목소리를 미리 등록해야 하는 번거로움과 프라이버시 문제가 존재합니다. * **위치 기반 접근:** SpeechCompass는 대화자들이 물리적으로 서로 다른 위치에 있다는 점에 착안하여, 소리의 방향 정보를 활용해 발화자를 분리(Diarization)하고 시각적 가이드를 제공합니다. ### 다중 마이크를 이용한 실시간 음원 위치 추적 * **TDOA 알고리즘:** 각 마이크에 소리가 도달하는 시간 차이(Time-Difference of Arrival)를 이용해 소리의 도달 각도를 계산합니다. * **GCC-PHAT 적용:** 위상 변환을 이용한 일반화된 상호 상관(Generalized Cross Correlation with Phase Transform) 기법을 사용하여 소음 환경에서의 내성을 높이고 연산 속도를 최적화했습니다. * **정밀도 향상:** 커널 밀도 추정(Kernel Density Estimation)과 같은 통계적 기법을 결합하여 위치 추적의 정밀도를 높였으며, 4개의 마이크를 탑재한 전용 케이스는 360도 전 방향 감지를 지원합니다. 일반 스마트폰의 마이크 2개로도 소프트웨어 구현을 통해 180도 범위 내에서 작동이 가능합니다. ### 하드웨어 및 소프트웨어 구현의 효율성 * **저사양 최적화:** 별도의 거대 머신러닝 모델이나 가중치가 필요 없는 알고리즘 기반 방식이므로, 저전력 마이크로컨트롤러와 제한된 메모리 환경에서도 원활하게 작동합니다. * **낮은 지연 시간과 프라이버시:** 음성의 고유 특성을 추출할 필요 없이 소리의 물리적 성질만 활용하므로 실시간 처리가 가능하며, 개인 식별 정보나 비디오 데이터를 요구하지 않아 사용자 프라이버시를 강력하게 보호합니다. * **범용성:** 특정 언어에 의존하지 않는 기술이므로 전 세계 모든 언어에 즉시 적용 가능하며, 대화 장소를 옮기거나 휴대폰 위치를 바꿔도 즉각적으로 환경에 재적응합니다. ### 사용자 인터페이스와 실용성 * **시각적 분리:** 안드로이드 앱 인터페이스에서 각 발화자는 고유의 색상으로 구분되며, 대화창 옆에 표시되는 화살표 아이콘을 통해 발화자의 방향을 실시간으로 알려줍니다. * **접근성 향상:** 청각 장애인이나 난청 사용자가 그룹 대화의 흐름을 놓치지 않도록 돕고, 회의록 작성이나 다국어 번역 시에도 발화 주체를 명확히 하는 데 유용합니다. SpeechCompass는 복잡한 하드웨어나 클라우드 연산 없이도 모바일 기기 자체의 마이크 배열만으로 그룹 대화의 접근성을 획기적으로 높일 수 있음을 보여줍니다. 이 기술은 향후 다양한 모바일 접근성 도구에 통합되어, 청각 장애인뿐만 아니라 복잡한 회의 환경에서 기록이 필요한 일반 사용자들에게도 실질적인 도움을 줄 것으로 기대됩니다.