当前,以 ChatGPT 为代表的认知智能大模型正在加速发展,如何让人工智能(AI)像人类大脑一样聪明,神经网络扮演着重要的角色。
上世纪四十年代,科学家受大脑神经元的启发,提出了人工神经网络模型,通过模拟大脑神经元和神经网络的结构和功能,使计算机能够学习并做出类似人类思维的决策。
近期,OpenAI 发布的 GPT-4o 模型的“类人”交互能力表现惊人,它的音频响应速度甚至已经达到和人类相似的水平。这是否意味着神经网络已达到人类大脑处理信息的能力?
近日,来自 Flatiron Institute 和印第安纳大学的研究团队发现,尽管人工神经网络在不同程度和层次上可以模仿人脑神经系统的信息处理功能,但其距离人脑神经元系统的运行机制仍存在很大差距。他们表示,人工神经网络并未捕捉到真实神经元的所有计算能力,而且可能会阻碍人工智能的发展。
相关研究论文以“The neuron as a direct data-driven controller”为题,已发表在Proceedings of the National Academy of Sciences 上。
据介绍,他们开发了一种 DD-DC(direct data-driven control)新型神经元网络模型,其证明单个神经元对周围环境的控制力比之前想象的更强。他们认为,DD-DC 神经元网络模型可能会生成更强大的人工神经网络,还能更好地模仿大脑的运作。
该论文的通讯作者 Dmitri Chklovskii 表示:“过去 60 年来,神经科学已经取得了长足的进步,我们现在认识到以前的神经元模型非常简陋,神经元其实比这个模型复杂得多、也聪明得多。”
神经元网络新突破
人工神经网络由许多神经元连接形成一个网络结构,当神经元从前一层神经元接收到的总输入超过某个阈值时,它才会将信息传递到下一层。模型在训练时,信息仅单向通过某个神经元,且无法影响神经元从链中较早的神经元接收到的信息。
尽管人工神经网络已经在各领域取得了显著的进步,但受生物神经元固有的可变性限制,目前神经元的参数还难以量化,构建可推广的大脑功能模型仍然是神经科学领域的一项艰巨挑战。
在此前的研究中,科学家们提出效率编码与预测信息理论等理论,试图通过优化未来相关信息的编码,将神经元生理学概念化为计算目标的优化。然而,这些观点并没能很好地解释神经元的某些生理属性。
为了实现大脑在反馈控制的功能,DD-DC 神经元网络模型将神经元建模为周边环境的反馈控制器,避开受控动态系统的显式表示和潜在状态的显式推断,直接将观测结果映射到控制信号。
DD-DC 神经元网络模型从单个假设开始,为多种先前不相关的神经生理现象提供了解释,每一个解释都只提供间接证据,但它们的多样性可以为 DD-DC 模型提供支持。
Chklovskii 表示,这种更逼真的神经元控制器模型可能对于提高许多机器学习应用的性能和效率至关重要。但他也表示,“虽然 AI 取得了令人瞩目的成就,但仍存在许多问题。目前的应用可能会给你错误的答案,或者产生幻觉,而且需要大量的训练成本。”
DD-DC 神经元网络模型利用先进的数据驱动控制框架,说明了生物神经元作为有效反馈控制器的可行性,提出神经元不仅可以预测,还可以通过其输出积极影响其未来的输入。
研究人员表示,DD-DC 神经元网络模型将加深人们对大脑的理解,或许有助于受生物学启发的人工神经网络的发展。
将神经元视为微型控制器
该研究揭示了在神经回路中,后期处理链中的神经元可以反馈影响早期处理链中的神经元,这与传统概念中的单向流动完全不同。就像恒温器维持房屋或建筑物的温度一样,大脑神经网络需要保持自身稳定,从而避免身体系统被活动压垮。
研究发现,在神经元连接点(突触)处,电信号的传递偶尔会被随机干扰,这种随机性实际上有助于神经元适应不断变化的环境,从而提高它们的性能。
更具体地说,在一个神经元与另一个神经元连接的“突触”部分,经常会出现神经元传输电信号但下游耦合神经元未收到消息的情况。下游神经元是否收到、何时接收突触信号,似乎很大程度上取决于偶然性。
Chklovskii 说,将神经元视为微型控制器也可以解释一些以前无法解释的生物现象。例如,人们长期以来一直认为大脑中存在大量噪声,这种生物随机性的目的一直存在争议,但该研究团队通过建模发现,某些类型的噪声实际上可以增强神经元的性能。
研究人员表示,人们认为大脑是一个整体,甚至是大脑的一部分,但没有人认为单个神经元可以做到这一点。控制是一项计算密集型任务,神经元很难拥有足够的计算能力。
尽管一些科学家推测这种随机性只是小型生物系统的本质,对神经元行为并不重要。但研究团队发现,向模型添加噪声,有助于神经元适应不断变化的环境,从而提高它们的性能。随机性对于复制真实神经元的功能似乎也很重要。
然而,尽管这一新模型展示了其优越性,但其计算需求较高,尤其是在大规模神经网络的实际应用中。
因此,研究团队建议将其更多地应用于特定领域的深入分析,如视觉环境中的神经元行为研究。未来的研究将继续探索不同类型神经元的行为,并将这一新模型与其他技术结合,如对抗性训练和强化学习,从而进一步提高 AI 模型的可靠性和准确性。
他们也计划分析不适合这一新模型的神经元类型。例如,视网膜中的神经元接收来自视觉环境的直接输入。这些神经元可能无法像大脑深处的神经元那样控制它们的输入,但可能会使用研究团队发现的一些相同原理。
Chklovskii 说:“控制和预测实际上非常相关,如果不预测你的行为对世界的影响,你就无法有效地进行控制。”
参考资料:
https://www.pnas.org/doi/10.1073/pnas.2311893121#executive-summary-abstract
(文章内容来源于学术头条。)