computational-neuroscience

2 개의 포스트

ZAPBench를 통한 (새 탭에서 열림)

구글 리서치와 HHMI Janelia, 하버드 대학교 연구진은 제브라피쉬 유충의 뇌 전체 활동을 단일 세포 수준에서 기록한 데이터셋이자 벤치마크인 'ZAPBench'를 공개했습니다. 이 프로젝트는 뇌의 구조적 연결망인 커넥토믹스와 실제 신경세포의 동적 활동 데이터를 결합하여, 척추동물의 뇌가 복잡한 행동을 어떻게 생성하는지 정밀하게 모델링하는 것을 목표로 합니다. 연구자들은 ZAPBench의 오픈소스 데이터와 평가 표준을 활용해 신경 활동 예측 모델의 정확도를 객관적으로 비교하고 개선할 수 있습니다. **커넥토믹스와 동적 활동 데이터의 통합** * 기존의 커넥토믹스는 신경세포 간의 정적인 연결 구조를 파악하는 데 집중했으나, 실제 뇌의 작동 원리를 이해하려면 시간 흐름에 따른 동적인 활동 정보가 필수적입니다. * ZAPBench는 약 7만 개의 신경세포로 구성된 제브라피쉬 유충의 뇌 전체 활동을 기록하며, 현재 진행 중인 전체 커넥토미 도표 작성 작업과 결합되어 구조와 기능의 상관관계를 직접 조사할 수 있게 합니다. * 이는 쥐 시각 피질의 극히 일부(0.1% 미만)만을 다루던 기존 벤치마크와 달리, 척추동물 뇌 전체를 포괄한다는 점에서 차별화됩니다. **라이트 시트 현미경과 가상 현실을 이용한 데이터 수집** * 몸 전체가 투명하여 뇌 활동 관찰에 용이한 6일 차 제브라피쉬 유충을 실험 대상으로 선정했습니다. * 신경 세포가 활성화될 때 녹색 빛을 내는 칼슘 지표인 'GCaMP'를 활용하고, 라이트 시트 현미경(Light Sheet Microscope)으로 뇌 전체를 얇은 단면 단위로 스캔하여 3D 이미지를 생성했습니다. * 가상 현실 환경에서 물의 흐름, 명암 변화 등 9가지 시각 자극을 제공함과 동시에, 꼬리에 부착된 전극으로 근육 활동을 기록하여 자극-뇌 활동-행동 사이의 상관관계를 2시간 동안 정밀하게 측정했습니다. **예측 모델 평가를 위한 네 가지 핵심 과제** * **자기회귀(Autoregressive) 예측**: 과거의 신경 활동 데이터를 기반으로 미래의 활동 패턴을 얼마나 잘 예측하는지 평가합니다. * **자극 조건부(Stimulus-conditioned) 예측**: 가상 현실을 통해 제공된 시각적 자극에 대해 뇌가 어떻게 반응할지 모델링합니다. * **행동 조건부(Behavior-conditioned) 예측**: 물고기의 특정 행동(꼬리 움직임 등)과 연관된 뇌 활동의 변화를 예측합니다. * **개체 간(Cross-individual) 예측**: 한 마리의 물고기 데이터로 학습된 모델이 다른 개체의 뇌 활동에도 보편적으로 적용될 수 있는지 테스트합니다. ZAPBench는 뇌 활동 모델링을 위한 표준화된 플랫폼을 제공함으로써 신경과학 분야의 '데이터 기반 혁신'을 가속화할 것으로 기대됩니다. 연구자들은 공개된 데이터셋과 튜토리얼을 통해 자신의 모델을 검증할 수 있으며, 이는 향후 생물학적으로 타당한 인공지능 구조를 설계하거나 복잡한 뇌 질환의 메커니즘을 이해하는 데 중요한 밑거름이 될 것입니다.

LLM 표상을 통한 인간 뇌 (새 탭에서 열림)

거대 언어 모델(LLM)의 문맥적 임베딩이 실제 대화 중인 인간의 뇌 신경 활동과 선형적으로 정렬된다는 연구 결과가 발표되었습니다. 연구팀은 LLM의 내부 표현이 인간의 언어 이해 및 생성 과정을 설명하는 강력한 프레임워크가 될 수 있음을 증명했습니다. 결과적으로 이는 LLM이 단순히 성능이 뛰어난 도구를 넘어, 인간의 복잡한 언어 처리 메커니즘을 해독하는 핵심적인 열쇠로 작용할 수 있음을 시사합니다. **LLM과 인간 뇌의 언어 처리 유사성** * 기존의 심리언어학 모델은 상징적인 문법 규칙에 의존했으나, LLM은 다음 단어 예측과 강화 학습을 통해 언어의 통계적 구조를 다차원 임베딩 공간에 인코딩합니다. * 구글 리서치와 프린스턴 대학교 등 공동 연구진은 5년간의 연구를 통해 모델의 내부 표현(임베딩)과 자유로운 대화 중 발생하는 뇌 신경 활동 사이의 유사성을 탐구했습니다. * 연구 결과, 모델의 단어 수준 임베딩이 인간의 언어 중추인 브로카 영역(Broca’s area)과 상측두회(STG) 등의 활동 패턴과 긴밀하게 일치함을 확인했습니다. **Whisper 모델을 통한 신경망 분석 및 정렬** * Transformer 기반의 음성-텍스트 변환 모델인 'Whisper'를 활용해 실제 대화 중인 피험자의 뇌 신호와의 상관관계를 분석했습니다. * 분석을 위해 모델의 음성 인코더에서 추출한 '음성(Speech) 임베딩'과 디코더에서 추출한 단어 기반 '언어(Language) 임베딩'을 사용했습니다. * 두개강 내 전극(Intracranial electrodes)으로 측정된 뇌 활동 데이터에 선형 변환을 적용하여, 모델의 임베딩 값으로 뇌의 신경 신호를 예측하는 모델을 구축했습니다. **언어 이해와 생성의 신경학적 시퀀스** * **언어 이해(Comprehension):** 단어가 들릴 때 먼저 상측두회(STG)에서 음성 임베딩이 신경 활동을 예측하고, 수백 밀리초 후 브로카 영역(IFG)에서 언어 임베딩이 의미 해독 과정을 예측하는 순차적 흐름을 보입니다. * **언어 생성(Production):** 단어를 뱉기 약 500밀리초 전, 브로카 영역에서 언어 임베딩이 활동을 예측하며 발화를 계획합니다. 이후 운동 피질(MC)에서 음성 임베딩이 조음 과정을 예측하는 역순의 역동성이 관찰됩니다. * **자기 모니터링:** 발화 직후에는 자신의 목소리를 듣고 모니터링하기 위해 상측두회의 청각 영역에서 다시 한번 음성 임베딩과 신경 활동의 정렬이 나타납니다. 이 연구는 인공지능의 내부 메커니즘이 인간의 생물학적 언어 처리 과정을 모사하고 있음을 보여줍니다. 따라서 향후 뇌 기능 장애의 이해나 더 정교한 뇌-컴퓨터 인터페이스(BCI) 개발에 LLM의 임베딩 구조를 활용하는 것이 매우 효과적인 전략이 될 것입니다.