Command Palette
Search for a command to run...
THINGS-MEG 脑磁图数据集
THINGS-MEG 是由美国国立卫生研究院(NIH)国家心理健康研究所、德国马克斯·普朗克学会人类认知与脑科学研究所联合吉森大学医学院等机构发布的一个面向物体认知研究的脑磁图(MEG)数据集,记录了受试者观看物体图像时的毫秒级脑电磁活动,用于分析物体加工过程的时间动态。
该数据集隶属于 THINGS-data,相关论文成果为:THINGS-data, a multimodal collection of large-scale datasets for investigating object representations in human brain and behavior. THINGS-data 包含 1,854 个物体概念和 26,107 张经过人工筛选与标注的自然场景物体图像。
在 MEG 实验中,参与者观看了 THINGS 图像的一个代表性子集。实验共分为 12 个独立会话(受试者 N=4),包含 22,448 张独特图像,覆盖全部 1,854 个物体类别。图像以快速连续方式呈现(平均间隔约 1.5±0.2 秒),要求参与者始终保持中央注视。为确保注意力参与,实验设置了奇异刺激检测任务,参与者需要对偶尔出现的人工生成异常图像作出反应。此外,每个会话中有一部分图像(n=200)重复呈现,用于分析表征稳定性。
除核心的任务态 MEG 数据外,还采集了以下辅助数据:
- T1 加权结构 MRI(用于皮层源定位)
- 实验过程中记录的眼动数据(用于确认受试者保持中央注视)