龙空技术网

超常大脑大讲堂:深度神经网络能模拟大脑活动吗?

金博智慧 89

前言:

目前兄弟们对“c 神经网络”可能比较重视,你们都想要知道一些“c 神经网络”的相关内容。那么小编也在网络上汇集了一些关于“c 神经网络””的相关文章,希望咱们能喜欢,同学们快快来了解一下吧!

昨天我们讲到了人工神经网络的基本原理,大家可以回顾一下。超常大脑大讲堂:什么是人工神经网络?它和我们的大脑有本质区别吗?

我们知道人工神经网络是通过模拟神经元的工作原理,从而实现类似人脑功能;人脑各区域分工不同,神经元之间是通过复杂的相互连接,实现记忆、抽象理解等等,那么人工神经网络能实现吗?答案当然是可以!但是要理解这个问题,我们就要首先理解记忆的原理。

记忆,其实有两部分构成,记,信息的存储和传递;,信息的处理和输出举个简单的例子,解下面这个简单的方程组:

①5xa=15;

②a+b=10;

③b-c=1,求a、b、c各是多少?

这个题目非常简单,从①我们能够知道a=3;之后把a=3的结果带入②,可以得出b=7;再把b结果带入③得出c=6。在上面的计算过程里,从①我们能够知道a=3就是“记”;把a=3的结果带入②,可以得出b=7,这个就是“忆”

大脑在处理上面的计算时,会有多组神经元参与,因此就形成了网络;如果要通过程序实现上面的功能,也需要组成类似的网络,这就涉及了我们今天要讲的——神经网络结构。

如上图所示,它是大脑中的神经网络处理视觉的过程。视觉区分了V1~V6数层,每层都有特定功能,比如V1 的主要功能是识别点和不同角度的线段、感知颜色等,然后再传导给V2......最后形成了我们眼中丰富的色彩。

目前的深度神经网络主要是三种结构, DNN(全连接的),CNN(卷积), RNN(循环)。

DNN结构

CNN结构

RNN结构

看起来有些复杂吧?没关系,只要知道它们是用来模拟人脑的各种神经网络结构,从而处理各类复杂问题而设计的就可以了。

那么深度神经网络,是怎么像人脑那样,实现记忆的呢?

首先,人脑的神经网络在工作时,相当于DNN+ CNN + RNN,再加电脉冲作为编码方式(可以理解为峰电位代表1,后电位代表0)进行信息处理,实现记、忆这两个步骤的。

在深度神经网络中,我们也可以通过程序来模拟DNN、CNN、RNN的结构,并通过各种算法、校验等,来模拟神经元之间的电脉冲。例如我们可以通过PyTorch(基于Python语言的一个工具集),来模拟DNN、CNN和RNN的结构,从而实现复杂问题的处理。(例如图像识别等等)

当然,其中涉及的原理,比如加权算法、校验、纠错等等,就不再展开赘述了,为什么要和大家讲这个问题呢?有家长说你们不是做神经反馈训练吗?这和人工神经网络有什么关系?因为人工神经网络就是下一代BCI的发展方向,像通过意念打字、神经反馈训练中赛车、吃豆精灵等训练项目,都属于人工神经网络的具体应用。

加州大学旧金山分校设计的嵌入式电极阵列,实现通过意念打字等功能。可见,未来神经反馈训练和人工神经网络技术相结合,会为注意力训练带来更大的突破。

超常大脑的生物学,解剖学特征分析

超常大脑大讲堂:人的记忆是如何产生的?

超常大脑大讲堂:什么是人工神经网络?和我们大脑有本质区别吗?

标签: #c 神经网络