龙空技术网

从AI的算法,看人类学习的方法

蛋壳花生 275

前言:

现在咱们对“算法怎么学好”大致比较着重,我们都想要学习一些“算法怎么学好”的相关文章。那么小编同时在网上汇集了一些关于“算法怎么学好””的相关文章,希望看官们能喜欢,大家快快来了解一下吧!

最近在研究ChatGPT背后的Transformer网络,也就是造就ChatGPT神话的背后算法逻辑。

虽然很多专业术语搞不懂,但是源于对于ChatGPT涌现智能这件事的好奇,一直想要搞明白Transformer网络的工作原理。

科学界从很早很早之前对人工智能的产生就有三种思路,它们分别是符号主义,联结主义和行为主义。

符号主义注重规则和逻辑,就是在AI的训练场景里输入明确的规则和逻辑,来让AI掌握智能,就像人类通过学习语法和词义来掌握语言一样。

联结主义注重数据,大量的数据,在大量的数据里,让AI自己琢磨出规则,就像人类大量的阅读来培养语感,从而掌握语言规则,掌握语言。

最后的行为主义,就是把AI放到实际环境里去摔摔打打,让它自己在实践中掌握学习,就像老师教孩子写作文,一遍又一遍的改,在不断反馈中提升语言能力。

谷歌的Transformer就是联结主义的技术方向,当然这个方向为什么最近10几年才占据主流,原因就是黄教主的GPU芯片,也就是算力跟上了,数据的量也能支撑了,量变也就有了质变。

这三种人工智能的技术路线,反应的是我们人类对于学习,对于智慧增长的理解。

符号主义注重演绎法,给你几条底层逻辑,是否可以演绎出千变万化的世界,是否可以产生无穷的智慧?

很多哲学家都有这样的思考,他们认为世界的底层是简单的,整个宇宙的底层就那么几条数学定律,为什么计算机不行呢?

理论上当然可以,但是这对于算力要求太高了,也只有全知全能的上帝能做到了。

站在人类角度也一样,真正能够通过几条简单的规则就能处理这个世界上各种乱七八糟的事情,各种艰难的挑战的人都是极少数。

不管是坚持几条原则从而过好一生,还是第一性原理做任何事情,都是需要强大的算力支持,不管是意志力上的算力,还是智慧上的算力。

联结主义,也就是ChatGPT在数据里涌现智慧的算法网络,也有两个前提,一个是数据足够多,一个是算力足够强。

放在人的身上,数据决定了你的模型是什么样,一旦给你喂了有毒数据,出来的模型也会有问题。

同时,算力决定了你能不能坚持到智慧涌现的那一刻。

也就是说,一方面我们要多读书,读好书,多去和优秀的人聊天,多去接受好的“数据”,另一方面这件事要足够的持久,才能坚持到“智慧”涌现的那一刻。

最近看董宇辉的经历,特别是看他看的那些书,这么些年的坚持,还有看《钱钟书传》时,看到钱钟书夫妇俩那爱书如命的人生,就有一种特别的感觉——他们就像ChatGPT一样,在不断的用数据优化算法,从而提升大脑模型的版本。

最后一个变成文采张口就来的知识博主,一个写出了大成之作《管锥编》。

至于最后一个行为主义,则是我们在现实教育中用的最多的方法,也是摸着石头过河,从实践中见真知这些格言的背后逻辑。

它是我们获取智慧的另外一条路径,也是大部分人学习的路径,它最直接,也最真切,这个方法也最有效。

毕竟反馈是快速成长的最佳方式之一。

不过研究了ChatGPT的整个算法逻辑以后,觉得单从认知这个维度看,数据和算力两个维度就是一个非常好的视角。

但凡想要训练自己的大脑成为一个有用,高效,有智慧的大模型,那你就得多读书。

而且,还要防住毒数据的攻击——少刷抖音,少听八卦!哈哈哈

标签: #算法怎么学好