@ 2022.09.16 , 19:17

给清醒的狗狗看视频,做MRI扫描,借助AI创建视觉信息与神经活动之间的联系

把可爱的狗放入磁共振成像仪MRI里,给它播放家庭录像的时候,扫描它的大脑。这类实验在人类身上早已司空见惯,但以前狗狗少有机会享受这一待遇。

一支科学家团队做到了,他们使用机器学习来解码小狗头脑中的神经视觉过程。他们发现了犬类和人类之间的迷人差异:狗在视觉上更能适应动作,而不太关注动作的对象和发出者。

这可能是犬类认知的重要组成部分,因为它揭示了狗的大脑在视觉方面的优先级。

“虽然我们的实验仅基于两条狗,但它提供了对犬科动物有效的概念证明。”当时在普林斯顿工作的、埃默里大学的神经科学家Erin Phillips 介绍说,“我希望这篇论文有助于为其他研究人员将这些方法应用其他物种铺平道路,这样我们就可以获得更多数据,更深入地了解不同动物的神经机制。”

正如Phillips所说,实验用到了两只狗,黛西和布博。团队使用万向节和自拍杆拍摄了三段各30分钟的视频,其中包含狗的特定内容。有狗跑来跑去、人类与狗互动。其他活动包括经过的车辆、人与人之间的互动、过马路的鹿、房子里的猫。

黛西和布博分别观看了3段视频,总共花了90 分钟,同时在fMRI中无拘无束地放松。这一非凡的成就是通过心理学家Gregory Berns设计的训练技术来实现的,他在10年前设法对一只完全清醒、不受约束的狗进行了核磁共振成像。

因此,研究人员还能够扫描黛西和布博的大脑,它们清醒、警觉、舒适地坐在机器里,观看专为它们拍摄的家庭录影。

“它们甚至不需要零食。这很有趣,因为它是一门严肃的科学,投入了大量的时间和精力,但归根结底是要狗观看其他狗和人类有点蠢的视频。”

视频数据按时间戳进行分割。信息以及两只狗的脑活动被输入名为 Ivis 的神经网络,该网络旨在将大脑活动映射到分类器上。

有两位人类参与者作为对照组,也在接受核磁共振检查时观看了这些视频。数据同样提交给了Ivis。

AI能够以99%的准确率将人脑数据映射到分类器上。但对象分类器对狗根本不起作用。然而,对于动作分类器,人工智能的准确率在75%到88%之间。

“我们人类非常 面向对象。在英语中,名词的数量是动词的 10 倍,因为我们特别痴迷于命名物体。狗似乎不太关心它们看到的是谁或什么,而更关心动作本身。”

他补充说,与人类相比,狗在感知世界的方式上存在显著差异。它们仅区分人眼光谱中蓝色和黄色部分,但具有更高密度的运动敏感视觉感受器。

这可能是因为狗需要比人类更关注环境中的威胁;或者与感官依赖有关;或者两者兼而有之。人类非常依赖视觉,但对于狗来说,它们的嗅觉是最强大的,它们的大脑中用于处理嗅觉信息的比例更大。

将脑活动映射到嗅觉输入可能是更棘手的实验,但它也可能具有启发性。

该研究已发表在《可视化实验杂志》上。

https://www.sciencealert.com/fascinating-study-gives-a-unique-glimpse-into-how-dogs-see-the-world

支付宝打赏 [x]
您的大名: 打赏金额:
赞一个 (3)