在一台机器人的参照下,一名受试者在说某些词汇时,将下巴向外突出了一些。(图片提供:The Centre for Research on Language, Mind and Brain)
儿童通过倾听别人的谈话来学习语言,但如果这种直线式交流模式发生了故障怎么办?令人意想不到的是,一些在成年后耳聋的人依然能够在事后的许多年里清晰地聊天。如今,在一台可以调节下巴运动的机器人的帮助下,科学家终于搞清了其中的道理。
加拿大蒙特利尔市McGill大学的神经科学家David Ostry和Sazzad Nasir推测,除了听觉之外,人们还通过注意自己面部、舌头和声道肌肉的运动来判断是否发出了正确的读音。为了验证自己的假设,两位科学家招募了11名成年志愿者——其中一些人具有正常的听觉,而另一些志愿者则在过去的20年中丧失了听力,但他们都佩戴了人工耳蜗。
试验的关键在于扭曲说话时的肌肉感觉。研究人员将受试者与一台机器人连接起来,后者的下颚被略微向外拉伸。之后,两组受试者被要求说一些类似于“sass”和“saw”的词语 ——这些词语开始发音时的口型基本上是一致的,并且由于元音的关系而使嘴张得很大。与此同时,这台下巴向外伸出了几毫米的机器人也做出了发音的动作。Ostry指出,嘴部位置的细微变化并不会改变这些词汇的发音。但是如果不依赖于任何声音线索,这些受试者如何调整他们的发音方式呢?
在试验过程中,研究人员要求那些耳聋的受试者摘去他们的人工耳蜗。在重复数百个词汇后,所有的5名耳聋志愿者都开始将他们的下巴些微地向外伸出,以便能够更加吻合机器人的口型。Ostry表示:“这只是一些很小的变化,但是即便你的运动只产生了细微的偏差,神经系统也能够觉察得到。”这一发现意味着来自下颚和声道的感觉能够单独用来学习讲话。研究人员在最近的英国《自然—神经学》(Nature Neuroscience)网络版上报告了这一研究成果。
美国马萨诸塞州沃尔瑟姆市布兰德斯大学的神经科学家James Lackner认为:“这是一项完美的工作。”并未参与该项研究的McGill大学神经语言学家Shari Baum则表示,有朝一日 ,这些发现将为语言障碍矫正提供新的方法——让那些患者注意嘴部的位置变化,而非倾听声音的变化。但是她强调,不要忘记倾听的重要性,特别是对于那些正在学习语言的儿童而言尤为如此。(生物谷Bioon.com)
生物谷推荐原始出处:
Nature Neuroscience,doi:10.1038/nn.2193,Sazzad M Nasir & David J Ostry
Speech motor learning in profoundly deaf adults
Sazzad M Nasir1 & David J Ostry1,2
AbstractSpeech production, like other sensorimotor behaviors, relies on multiple sensory inputs—audition, proprioceptive inputs from muscle spindles and cutaneous inputs from mechanoreceptors in the skin and soft tissues of the vocal tract. However, the capacity for intelligible speech by deaf speakers suggests that somatosensory input alone may contribute to speech motor control and perhaps even to speech learning. We assessed speech motor learning in cochlear implant recipients who were tested with their implants turned off. A robotic device was used to alter somatosensory feedback by displacing the jaw during speech. We found that implant subjects progressively adapted to the mechanical perturbation with training. Moreover, the corrections that we observed were for movement deviations that were exceedingly small, on the order of millimeters, indicating that speakers have precise somatosensory expectations. Speech motor learning is substantially dependent on somatosensory input.
1 Department of Psychology, McGill University, 1205 Dr. Penfield Avenue, Montreal, Quebec H3A 1B1, Canada.
2 Haskins Laboratories, 300 George Street, New Haven, Connecticut 06511, USA.