你的大脑有能力在人群中听到一个声音 - 这是它的工作原理
这是在多扬声器环境中的大脑活动的可视化。
哥伦比亚LED研究提供了对大脑听力中心的新洞察力;提供了解受到大脑启发的助听器技术的路线图。
我们的大脑具有显着的能力,可以从许多人中挑出一个声音。现在,哥伦比亚大学神经衰老员的团队发现了大脑中发生的步骤,使这一壮举成为可能。今天的发现有助于解决一个长期的科学问题,即听到大脑的听力中心如何解码和放大其他声音 - 在闪电快速速度下。这个新发现的知识也能够刺激助剂技术和脑电脑界面的刺激,更像大脑。
这些调查结果于2019年10月21日在神经元报告。
“我们在储蓄派对上专注于我们旁边的人的能力,同时挖掘周围的噪音是非凡的,但我们对所有作品的知识了解这么少,”博士学位的高级作者和主要调查员博士说在哥伦比亚的昏暗B. Zuckerman介意大脑行为学院。“今天的研究带来了这么需要的理解,这将为科学家和创新者致力于改善言论和听力技术的关键。”
我们最终的目标是更好地了解大脑如何能够听到这么好,以及创造帮助人们的技术 - 无论是如此卒中幸存者是否可以与亲人交谈,否则听力障碍可以在拥挤的人中更容易交谈派对。
听觉皮层是大脑的听力枢纽。内耳发出这种大脑区域电信号,代表了外部世界的混合声波。然后,听觉皮质必须从那混乱中挑出有意义的声音。
“学习听觉皮层的种类不同的声音就像试图在一个大型湖上发生什么 - 每艘船,游泳运动员和鱼都在移动,以及只有在水中的涟漪模式才能快速一个指导,“梅加兰博士博士说,哥伦比亚工程中也是电气工程副教授。
今天的论文在团队2012年的研究中,表明人类大脑是对听到的声音的选择性。该研究表明,当一个人倾听有人说话时,他们的大脑波浪就会改变扬声器声音的功能并调整其他声音。研究人员想了解如何在听觉皮层的解剖内发生这种情况。
这里收集的信息可以用作人为地复制这种生物过程的算法的基础,例如在助听器中。
“我们很久都知道听觉皮层的区域被安排在层次结构中,并且在每个阶段发生了越来越复杂的解码,但我们没有观察到特定扬声器的声音是如何沿着这条路径处理的,”James O'说Sullivan,博士学位,这篇论文的第一作者在Mesgarani实验室的博士后研究员完成了这项工作。“要了解这一过程,我们需要直接从大脑记录神经活动。”
研究人员对听觉皮层的两个部分特别感兴趣:Heschl的回血(Hg)和较高的颞克鲁斯(STG)。来自耳朵的信息首先达到HG,通过它并稍后到达STG。
要了解这些大脑地区,研究人员与神经外科医生Ashesh Mehta,MD,博士,Guy Mckhann,MD,博士,博士,博士,博士,博士,博士,博士,以及同事何塞·赫雷罗,博士和艾略特史密斯,博士学位。基于哥伦比亚大学的欧文医疗中心和诺韦尔健康,这些医生治疗癫痫患者,其中一些人必须经过常规的大脑手术。对于这项研究,患者自愿聆听博士时谈论人们的录音。Mesgarani和O'Sullivan通过植入患者的HG或STG地区的电极监测他们的脑波。
“我们在淘汰周围噪音的同时,我们在鸡尾酒会旁边专注于我们旁边的人的能力是非凡的,但我们谈到这一切都很了解。” - Nima Mesgarani博士
电极允许团队识别两个大脑区域在解释声音中的角色之间的明确区别。数据显示HG产生声音混合的丰富和多维表示,由此每个扬声器通过频率差异分开。该区域对一个语音或另一个声音显示不偏好。然而,从STG收集的数据讲述了一个明显不同的故事。
“我们发现,通过正确加权来自HG的输出信号,可以通过正确加权输出信号来放大一个扬声器的语音。基于我们的录音,STG地区表现该加权是合理的,“O'Sullivan博士说。
在一起,这些调查结果揭示了这两个听觉皮层的这两个领域之间清晰的职责声明:HG代表,而STG选择。这一切都发生在左右150毫秒,似乎瞬间到听众。
研究人员还发现了STG的额外作用。选择后,STG形成了听觉对象,声音的表示类似于我们用眼睛所看到的物体的心理表达。这表明即使声音被另一个发言者遮挡 - 例如当两个人互相交谈时 - STG仍然可以将所需的扬声器代表为统一的整体,这些整体不受竞争声音的体积不受影响。
这里收集的信息可以用作人为地复制这种生物过程的算法的基础,例如在助听器中。今年早些时候Mesgarani博士和他的团队宣布开发脑控制的助听器,它利用一种这样的算法来放大一个扬声器的声音。
研究人员计划在具有更多扬声器的越来越复杂的情景中学习HG和STG活动,或者包括视觉提示。这些努力将有助于创建一个详细和精确的照片,了解了听觉皮质的每个区域运作的运作方式。
“我们的最终目标是更好地了解大脑如何理解我们如何听到这么良好,以及创造帮助人们的技术 - 无论是如此卒中幸存者是否可以与他们所爱的人交谈,否则听力障碍可以更容易发生拥挤的派对,“梅加兰博士说。“而今天的研究是沿着这条道路的批判方式。”
###
参考:“多讲话者演说中的参与听觉对象的分层编码”由詹姆斯·奥沙利文,何塞·赫拉罗,艾略特·史密斯,凯瑟琳·斯·斯图翁,Guy M. Mckhann,同名的A. Sheth,Ashesh D. Mehta和Nima Mesgarani,2019年10月21日,neuron.doi:
10.1016 / J.NEURON.2019.09.007
该研究得到了国家卫生研究院(NIDCD-DC014279,S10 OD018211),PEW慈善信托和PEW生物医学学者计划支持。
作者报告没有财务或其他利益冲突。