assistive-technology

2 개의 포스트

StreetReaderAI: 문맥 인식 (새 탭에서 열림)

StreetReaderAI는 구글 리서치에서 개발한 시각장애인 및 저시력자를 위한 혁신적인 스트리트 뷰 프로토타입으로, 멀티모달 AI인 Gemini를 활용해 시각적 정보를 실시간 음성 정보로 변환합니다. 기존 지도 서비스가 제공하지 못했던 스트리트 뷰 이미지의 맥락과 지리적 특성을 실시간 대화형 인터페이스로 설명함으로써, 시각장애인이 가상 세계를 자유롭게 탐색하고 실제 경로를 미리 파악할 수 있도록 돕는 것이 이 기술의 핵심입니다. **사용자 중심의 직관적 내비게이션** * 키보드 화살표 키나 음성 명령을 사용하여 게임을 하듯 가상 공간 내 시점 전환 및 이동이 가능합니다. * 사용자가 시점을 회전할 때마다 현재 방위(예: "북동쪽을 보고 있습니다")와 정면에 랜드마크나 장소가 있는지를 음성으로 즉각 피드백합니다. * "가상 걸음(Virtual steps)" 기능을 통해 앞뒤로 이동하며 이동 거리와 도로 정보, 주변 상점 및 시설물에 대한 정보를 실시간으로 수신할 수 있습니다. **AI 디스크라이버(AI Describer)를 통한 상황별 맥락 인식** * 단순한 이미지 분석을 넘어 사용자의 위도·경도, 도로 데이터, 현재 시야의 스트리트 뷰 이미지를 결합해 맞춤형 설명을 생성합니다. * 보행 안전과 내비게이션 정보에 집중하는 '기본 모드'와 지역의 역사적·건축적 배경을 상세히 설명하는 '투어 가이드 모드'를 제공합니다. * 사용자가 현재 장면에서 궁금해할 만한 후속 질문(예: "저 건물의 입구는 어디인가요?")을 AI가 스스로 예측하여 제안함으로써 탐색의 효율성을 높였습니다. **AI 채팅과 강력한 세션 메모리 기능** * Gemini Multimodal Live API를 활용하여 사용자와 실시간 대화가 가능하며, 사용자의 질문에 맞춰 시각적 정보를 해석합니다. * 약 100만 토큰 이상의 긴 컨텍스트 윈도우를 활용해 사용자가 세션 동안 탐색한 모든 경로와 이미지를 기억합니다. * 이를 통해 "방금 지나온 버스 정류장에 벤치가 있었니?" 또는 "아까 본 편의점에서 여기까지 얼마나 떨어져 있어?"와 같은 과거의 맥락이 포함된 복합적인 질문에 정확히 답변할 수 있습니다. **사용자 평가 및 실무적 시사점** 11명의 시각장애인을 대상으로 한 연구 결과, 사용자들은 StreetReaderAI를 통해 목적지의 지형지물을 미리 확인하고 보행 경로를 계획하는 데 큰 도움을 얻었습니다. 이 기술은 수조 개의 스트리트 뷰 이미지를 텍스트 기반의 데이터로 변환할 필요 없이, 필요할 때마다 실시간으로 AI가 해석해 준다는 점에서 확장성이 매우 높습니다. 향후 이와 같은 멀티모달 AI 기술이 지도 앱에 통합된다면 시각장애인의 이동권과 정보 접근성을 획기적으로 개선할 수 있을 것입니다.

그잼 스크린 리더 (새 탭에서 열림)

Figma는 디자인 도구가 시각적 경험에만 국한되지 않고 모든 사용자가 접근 가능해야 한다는 비전 아래, 새로운 스크린 리더 프로토타입 베타 버전을 발표했습니다. 이는 디자인 프로세스 전반에 걸쳐 장벽을 허물려는 Figma의 지속적인 노력의 일환으로, 시각 장애가 있는 디자이너와 협업자가 디자인 파일의 구조와 내용을 더 깊이 있게 이해할 수 있도록 돕는 것을 목표로 합니다. **디자인 접근성 강화를 위한 비전** * Figma는 "모두를 위한 디자인(Design for all)"이라는 철학을 바탕으로, 시각 중심적인 인터페이스 때문에 디자인 소외 계층이 발생하던 문제를 해결하고자 합니다. * 단순한 도구 사용의 편의성을 넘어, 디자인 결과물뿐만 아니라 디자인 과정 자체에 누구나 참여할 수 있는 포용적인 환경을 구축하는 데 집중하고 있습니다. * 이를 위해 내부 연구팀과 접근성 전문가들이 협업하여 시각적 정보를 텍스트와 음성으로 전환하는 최적의 메커니즘을 탐구해 왔습니다. **스크린 리더 프로토타입 베타의 주요 기능** * 이번에 공개된 프로토타입은 캔버스 내 레이어의 구조, 텍스트 내용, 그리고 각 디자인 요소의 속성을 스크린 리더가 인식할 수 있는 형태로 변환하여 제공합니다. * 사용자는 디자인 파일 내에서 논리적인 순서에 따라 요소를 탐색할 수 있으며, 복잡한 디자인 시스템의 계층 구조를 음성을 통해 파악할 수 있습니다. * 현재 단계에서는 베타 버전을 통해 실제 사용자들의 피드백을 수집하며, 디자인 객체 간의 관계성을 더 명확하게 전달할 수 있도록 알고리즘을 고도화하고 있습니다. **지속적인 연구와 커뮤니티 협력** * Figma는 접근성 개선이 단발성 기능 업데이트가 아닌 장기적인 연구(Research)와 설계(Design)가 필요한 과제임을 강조합니다. * 내부 팀인 'Inside Figma'를 중심으로 접근성 기술의 한계를 테스트하고 있으며, 실제 장애를 가진 사용자 그룹과의 긴밀한 협력을 통해 실질적인 해결책을 모색하고 있습니다. * 이번 베타 발표는 접근성 로드맵의 시작점이며, 향후 더 넓은 범위의 사용자들이 디자인 생태계에 참여할 수 있도록 기술적 지원을 확대할 계획입니다. Figma의 이번 시도는 단순히 기능을 추가하는 것을 넘어 디자인 도구의 표준을 확장하려는 중요한 발걸음입니다. 시각 장애가 있는 동료와 협업하거나 디자인 시스템의 접근성을 검토해야 하는 조직은 이번 베타 버전에 참여하여 피드백을 제공함으로써, 더욱 포용적인 디자인 워크플로우를 함께 구축해 나갈 수 있습니다.