构建更加通用的人工智能,让模型具有更加广泛和通用的认知能力,是当前人工智能(AI)领域发展的重要目标。目前流行的大模型路径是基于Scaling Law(尺度定律)去构建更大、更深和更宽的神经网络,可称之为“基于外生复杂性”的通用智能实现方法。这一路径面临着计算资源及能源消耗难以为继、可解释性不足等问题。极悦娱乐李国齐、徐波研究团队联合清华大学、重庆大学等借鉴大脑神经元复杂动力学特性,提出了“基于内生复杂性”的类脑神经元模型构建方法,改善了传统模型通过向外拓展规模带来的计算资源消耗问题,为有效利用神经科学发展人工智能提供了示例。

    本研究首先展示了脉冲神经网络神经元LIF(Leaky Integrate and Fire)模型和HH(Hodgkin-Huxley)模型

    评论链接:


    [1] HH神经元模型,全称为Hodgkin-Huxley模型,由英国生理学家Alan Hodgkin和Andrew Huxley在1952年基于鱿鱼巨型轴突的电生理实验数据提出,用以描述神经脉冲的产生和传导,并因此获得了1963年的诺贝尔医学或生理学奖。该模型是一组描述神经元细胞膜电生理现象的非线性微分方程,直接反映了细胞膜上离子通道的开闭情况及其与膜电位变化之间的关系。HH模型是神经科学领域中的一个重要里程碑,它首次从分子水平上解释了动作电位的产生机制,为后续神经元电生理研究奠定了基础。


    附件: