• 您当前的位置:首页 > 科技资讯 > 生命医学 > 为什么我们的大脑如此嘈杂?对思考方式有惊人重要性
  • 为什么我们的大脑如此嘈杂?对思考方式有惊人重要性

    时间:2019-01-26  来源:新浪科技  作者:新浪科技

    新浪科技讯 北京时间1月25日消息,据国外媒体报道,大脑中的自发秩序和噪音对我们的思考方式有惊人的重要性。

    现代人工智能(AI)的核心挑战之一可以用一辆黄色校车来说明。如果是在乡村公路上正面观察,深度学习的神经网络可以自信地准确识别出校车。然而,如果校车侧方位停在马路正对面,那算法可能就会很有自信地认为它是一辆扫雪车。如果从某个角度从下往上看,它又会被当作一辆垃圾车。

    问题之一在于情境。当一张新图像与训练图像集足够不同时,即使差别只是简单的旋转或障碍物,深度学习的视觉识别也会发生错误。相反地,情境的生成似乎取决于某种非同寻常的连线和信号生成功能——至少在人类大脑中是这样。

    Matthias Kaschube是德国法兰克福高等研究院的神经科学家,主要研究大脑回路的组成、功能和维持,他通过建立模型来研究大脑中的神经元连线,并在模型中描述了在实验中观察到的大脑活动。他和法兰克福高等研究院、马克斯普朗克佛罗里达神经科学研究所、明尼苏达大学和其他研究机构的同行们发现,大脑有着许多与计算机形成鲜明对比的特征:自发活动、相关的动态情境生成、不稳定的传输,以及直接的噪音。有人将大脑称为宇宙中最复杂的物体,而这些似乎正是大脑的基本特征。在接受nautilus网站的采访时,Matthias Kaschube阐述了大脑和人工智能在处理视觉信息时的差异,以及大脑中自发神经活动带来的启示。

    计算机电路与大脑回路之间最大的区别是什么?

    计算机属于数字设备,它们使用的是可以打开或关闭的二进制单元,而我们的神经元是模拟设备。它们的输出是二元的——神经元在给定时刻发出或不发出信号——但输入却是分层级的。神经元的活动取决于许多因素。而且,我们所建立的计算系统,比如计算机,是确定性的。你提供了特定的输入,就会得到特定的输出。当你反复提供相同的输入时,就会得到相同的输出。这与大脑中的情况非常不同。在大脑中,即使你选择了完全相同的刺激,每次试验得到的反应也会有所不同。

    大脑中这种可变的反应来自何处?

    现在有各种假说。例如,可能存在不稳定的突触传递。工程师通常不会在一个系统中构建这种东西。当一个神经元处于活动状态,并且信号沿着轴突运行时,该信号并不能保证实际到达下一个神经元。它跨越突触的概率可能只有一半,甚至更少。这会给系统带来很多噪音。

    另一个因素是大脑其他部分的持续活动。例如,视觉皮层会被视觉场景激活,但它也从其他大脑区域接收大量信息。由于存在大量交叉的连线,因此大脑的这些其他部分可以在任何给定时间影响视觉皮层中的活动模式。这可以非常显著地调制输入信号。部分这种调制可能在生成情境和编码预期时很有用。当你听到狗的吠叫后,你会转身,然后寻找那只狗。我们越来越认识到,大脑的一部分反应多变性实际上是有意义的,并且包含重要的背景信息或情境信息。

    大脑中的自发活动有什么作用?

    即使你没有任何视觉输入,视觉皮层也不会沉默。它能显示出广泛而强烈的活动模式,有时与真实视觉刺激引起的活动一样强烈,并且在结构上也可能十分相似。鉴于这种相似性,自发活动可能代表了某种视觉想象。你看到了某些东西,但与此同时,你在视觉上想到了昨天看到的东西。自发活动可能是逐次试验中大脑反应多变的原因之一。

    我们是否理解大脑中噪音的本质?

    我们在实验中看到的波动是否真的有意义?是否包含我们尚未理解的信息?或者它们只是由生化过程的随机性引起的噪音,而大脑需要对它们忽略或平衡?这些问题都还存在争论。为了获得更好的持续波动模型,我们必须了解这些波动的来源。举例来说,我们可以通过观察动物行为来做到这一点。动物处理视觉刺激的神经活动取决于视觉对象是否移动,以及是否值得警惕。如果你能记录许多神经元的活动,你就能理解皮层中某一部分的多变性可能是其他部分的活动造成的。一旦我们能够同时记录大脑大部分区域的活动,我们就能理解这种多变性。

    大脑中的噪音真的有用吗?

    大脑不是完全确定性的,即每次我们看同样的事情时,大脑处理的方式会略有不同。这一点可能是有用的。对相同刺激做出略有不同的反应可以帮助我们察觉场景中的不同方面。然而,外部世界中有许多与我们无关的细节。视觉场景可以有成千上万的特征,其中许多都无关紧要。做出略微嘈杂的反应可能有助于我们忽略一些不太相关的特征。想一下演化,随机突变之后便是适者生存。以此作为类比,可能大脑增加噪音的目的是采集外界事物呈现的不同特征。通过探索潜在表征的范围,大脑可能会尝试找出最适合当前情境的那个特征。噪音可能促进了这种搜索。

    发育中的大脑何时出现自发活动?

    有趣的是,在任何结构性的感觉输入之前,自发性神经活动的模式就已经在大脑发育早期高度结构化。例如,在视觉皮层中,这种自发活动出现在眼睛睁开之前。在眼睛睁开之后,其中一些自发活动模式会与实际视觉刺激联系起来。这种联系一旦建立,就可能是终生稳定持续的。

      这些早期模式是否与“先天还是后天”的争论有关?

    这种自发活动模式很早就出现了,但我们尚未理解是什么造就了它们的结构。有可能是这种结构是硬连线,并且由基因预先决定,但似乎更合理的解释是,它是自组织过程的结果。动力系统理论中有一些概念描述了自组织系统如何形成复杂的模式。起点可能只是几种基本规则,决定了神经元如何形成回路,以及神经回路活动反过来如何在回馈环路中重塑连接性。实际上,这与“先天还是后天”关系不大,而是一个你实际需要多少先天因素来建立系统的问题。你可以说整个大脑都在我们的基因中,但这是不可能的,因为我们DNA中的遗传信息太少了,不足以决定所有的突触连接。基因所能编码的只是一些简单的规则,可以建立能够演化并生成结构的动态系统。在大脑发育的早期阶段,(神经元活动)基本上是自主的,而在后期阶段更多地受到感觉输入的影响。

    您是如何探测早期自发活动的基因组成的?

    一个有趣的可能方法是观察同卵双胞胎。几年前,我们确实在这些方面做了一些工作。我们进行了一项研究,观察一群猫中的同窝幼猫。我们发现,同窝幼猫的视觉皮层中,活动区域之间的间距相关性高于来自不同窝的个体。这表明存在某种遗传因素,决定了这一基本特征。另一种可能方法是观察这些结构首次出现时的更早期发育阶段,并尝试操纵它们。

    这种早期的自发活动都是短程的吗?

    我们通过实验和建模发现,尽管早期突触连接都是局部的,但可能会出现有趣的长程相关活动。这在成熟皮层中并不令人惊讶,因为那里已经有了实际的长程解剖学连接。但即使在早期,当长程连接还不存在时,依然可以获得长程相关性。长程相关性很有意思,因为它们连接了执行不同处理过程的模块。例如,当你的视觉皮层在处理场景的不同部分时,视觉空间信息的整合可能就涉及到长程相关性。

      大脑会使用纠错编码吗?

    这是非常合理的想法。举例来说,很早之前就有一种称为“吸引子网络”(attractor network)的概念,描述的是一个收敛到一组有限的活动状态的网络。当你提供某些输入时,你会到达其中一个吸引子;当你提供邻近的输入时,也会到达同一个吸引子。这就使网络能够抵抗少量的输入变化和噪音。关于这种网络已经讨论了许多年,但目前仍然很难在大脑中获得很好的实验性证据。在足够稳定的条件下,将获取自足够数量细胞的记录与允许我们直接改变神经活动的方法结合起来,将会很有帮助。

    现在的人工智能与大脑相比如何?

    深度神经网络是目前在众多任务中表现最好的人工智能,它们显然受到了大脑回路的启发。深度网络具有神经元,这是一种层级结构,具有连接可塑性。它们可能可以,也可能无法很好地类比大脑内部最初处理阶段时实际发生的情况,这在该领域还存在激烈的争论。但是,目前人工智能的一个问题是,它具有高度的情境特异性。你可以在数据集上训练深度神经网络,它也适用于特定的数据集,但是当你提供不同的数据集时,它并不能做出调整。这当中缺少的便是情境的概念。当情境变化时,人工智能必须以另一种方式来解读输入信号。这种灵活性对目前的人工智能来说是巨大的挑战。显然,大脑在这方面做得很好。

    我们将如何解决情境问题?

    我们需要从大脑中获得更多灵感。例如,对大脑中自发活动的一种解释是,它能对情境进行编码。这在人工智能中可能也很有用处。此外,大脑对逐次试验的反应多变性可能暗示着我们需要对人工智能做些什么。与大脑中存在的不稳定突触传递一样,机器学习有时候也可以使用类似的方式来避免过度匹配。这是一个有趣的方向,我认为其中还有更多值得学习的地方。

    您观察到的自发性长程有序度是否可以为情境如何动态生成提供线索?

    是的,很有可能。发育早期的大脑中出现的(自发性长程有序度)可以解释为视觉表征(涉及不同物体之间的关系及其在视觉空间中的分布)的神经基础。在视觉场景处理中,我们所需要的很多东西,都是在对象和我们看到的对象部分之间形成正确的关系,而这可能就与长程相关性有关。这只是推测,因为理解这些相关性的功能含义是很困难的。但是,自发性长程有序度引人联想,并且在直觉上可以合理地推测出,大脑中不同功能模块之间的相关性在场景处理中发挥着某种作用。

    深度学习网络的连线方式是否和大脑一样?

    深度神经网络被批评很多的一点是,它们的连接通常是前馈的方式,意味着活动从输入层通过一系列中间层传播,直到到达最终的输出层。前馈网络没有环路。在给定层次中,环式连接(recurrent connection,即神经元之间的连接)或者不存在,或者以粗糙的方式建模。卷积神经网络具有一个卷积内核,它有点像环式连接,但是相对较少使用更现实和长程的连接。此外,通常没有任何自上而下的连接会朝输入层的方向发回信息。环式连接和自上而下连接未被采用的部分原因是,它们使网络训练变得更加困难。但是,在大脑皮层中,自上而下连接很多,环式连接更是占绝大多数。前馈网络实际上是一种粗糙的过度简化,与大脑中高度互连的网络非常不同。

    深度学习网络能否像大脑一样对刺激做出反应?

    即使在视觉信息的第一个皮层处理阶段,在视觉皮层中,携带着眼睛输入信息的连接仍然是所有连接中很小的一部分,在大脑内部的差别甚至更大。大部分神经活动是各个大脑区域之间持续的交流互动,感觉输入有时似乎只在这种内部活动中起到调节作用。这与你在深度神经网络中见到的情况非常不同,后者的神经元基本上只有在提供输入时才会被激活。因此,无论是在解剖结构还是功能特性方面,大脑的运作方式似乎都与深度神经网络非常不同。真正的只能与所谓“人工智能”之间仍然有相当大的差距。(任天)

    关键词:
    最近更新
    推荐资讯