龙空技术网

AI算法和人脑有多大的不同?

底层技术栈 281

前言:

此刻咱们对“bp算法通俗理解”都比较注意,各位老铁们都想要学习一些“bp算法通俗理解”的相关知识。那么小编也在网上网罗了一些对于“bp算法通俗理解””的相关知识,希望各位老铁们能喜欢,咱们一起来学习一下吧!

#头条创作挑战赛#

深度学习的出现,让AI算法在视觉识别、语音识别上取得了极大的进展。

在围棋、蛋白质解析领域,也获得了很大的进展。

在一定程度上,AI算法代替了人的相当一部分功能,让人不得不去从事更复杂的工作。

那么,AI算法和人脑到底有多大的不同?

从数学上看,深度学习人脑的信息处理机制,差别不大。

1,深度学习,是以权值矩阵+激活函数来构造神经网络的。

人脑,实际上也是一个神经网络。

人脑,依靠的也是很多神经元之间的复杂连接+非线性激活机制。

leaky_relu激活函数

古话说,“久在鲍肆,而不闻其臭”,为什么?

意思就是,人在一个充满了无害气味的地方久了,关于这种气味的神经反应就不激活了

为什么?

因为激活这种反应也没用,咸鱼的气味无害,就是难闻罢了,那在这种场合长期工作的人,总不能天天呕吐吧。

怎么办?

时间长了就习惯了,这也是样本对神经网络的训练,也是BP算法[呲牙]

当然人的神经反应比电脑算法要慢得多,估计要连续训练15天以上才可以,但它们的机制是类似的。

人对不熟悉的语言,不熟悉的领域,也是看上去跟天书差不多。但是经过一段时间的训练之后,也就学会了,这也是训练。

人的知识能力,大多数不是天生的,而是后天训练的。

婴儿除了会哭、会吃奶,不会别的。

哭和吃奶来自于遗传,但遗传也是古代训练出来的网络模型[捂脸]这要追溯起来,大概要追溯到寒武纪

2,你以为AI做不到的东西,只是因为没有样本信息的训练。

我不会法语,为什么?没学过。

这也是因为没有经过样本信息的训练。

我会英语,因为之前学过。

AI算法,是从大量样本里训练出来的统计信息,人又何尝不是呢?

人识别陌生物体的速度,比AI算法要快得多:让婴儿看看苹果,然后告诉Ta这是苹果,Ta下次就认识了。

但这是因为Ta的视觉模型的“前端是训练好的”:视觉系统是从父母那里继承来的,只需要训练后端的物体到语音的对应部分。

卷积神经网络

婴儿学东西的时候,实际只是对上图最后部分的“再训练”,而不是对整个网络的全训练!

动物几亿年遗传下来的视觉基因,比只出现了几年的AI前端,暂时是强的多的,但是AI的运算速度快啊。

在这一点上轻视AI,认为人脑的神经模型与电脑的“神经”模型有本质的差别,是不对的。

搞AI算法时,你也可以把别人前半部分的权值拿过来,只用不同的样本训练最后一层[捂脸]

3,人脑给出来的,也不是全局最优解。

人做事也是一步步地来,而且遇到复杂的事,人也有不同的看法,而且这些看法里有的对、有的不对、甚至都不对。

这些情况并不奇怪。

人类社会的发展,总的来说,是靠着人数来累积正确率。

电脑神经网络,当然也可以不同的算法工程师用不同的初始权值和样本,去训练不同的模型。

这与不同人有不同的阅历、不同的看法,有本质区别吗?

还真不一定有。

当然,人脑的神经系统是可以生长的,可以把不用的连接完全断开,而电脑只能把权值设置成0。

电脑也不是不能用稀疏矩阵,只是内存没那么紧张,懒得再转化而已:并不是做不到。

4,人脑看起来更灵活,还是来自于外界信息的不断输入。

1402年,靖难之变后,朱允炆的儿子朱文圭被囚禁在凤阳大半辈子,好几十岁的人了连牛马都不认识:

科学的角度来看,他没见过牛马,他的大脑没经过类似的训练,他怎么能凭空认识呢?

方程:2x - 1234 = 0,

移项:2x = 1234,

最后:x = 617.

这不是梯度下降算法,是什么?[大笑]

标签: #bp算法通俗理解