前言:
目前大家对“聚类系数大小”大体比较注重,看官们都需要知道一些“聚类系数大小”的相关文章。那么小编同时在网上搜集了一些对于“聚类系数大小””的相关内容,希望姐妹们能喜欢,看官们快快来学习一下吧!导语
我们的行为无时无刻不受到好奇心驱使。好奇心对人类探索和认识周遭世界至关重要,可是,到底什么是好奇心?它是如何产生的?来自美国宾州大学的 Dani S. Bassett 教授从复杂网络视角研究人类的信息行为,发现在人们浏览维基百科的行为数据中,就蕴含着好奇心的产生机制。
研究领域:好奇心,复杂网络,人类行为
郭瑞东 | 作者
徐恩峤 | 审校
邓一雪 | 编辑
所谓好奇心(curiosity),是指并非为了当下的外在需求,而是由内心驱动的搜索知识的行为。经由好奇心得到的信息,可能在未来为你提供新奇的和具有挑战性的刺激,并促进个人幸福感。
之前的研究将好奇行为分为两类,分别是漫游者(busybody)与信息猎人(hunter)。前者的特点是“分心”和“从不定居在任何地方”,Ta会浏览各种信息,但不会回到之前看过的主题上,也不会按图索骥;而信息猎人则恰恰相反,Ta始终追寻一组信息,从一个概念转到另一个密切相关的概念。
不同的人在呈现好奇心时会有不同的模式,而随着时间推移,不同类型的好奇心将导致不同类型的信息积累。漫游者的信息存储比信息猎人的更多样化,但信息猎人的信息存储在更少的主题上包含更大的深度。
图1:图论方法区分信息猎人和漫游者这两种好奇心风格
从网络科学的视角来看,将每个信息看成节点,将信息之间的相似性看成连边。那么两种好奇心模式会产生具有不同特征的网络,信息猎人的网络两点之间最短路径的平均值小,聚集系数高。漫游者则相反。
在相关研究中参与实验的149名被试,连续21天每天浏览维基百科界面15分钟,获得上述知识网络。研究者将参与者的信息寻求行为,根据页面之间的语义相似性表示为知识网络,更高的边权重表示由边连接的两个节点中包含的文本相似程度更高。
图2:受试者浏览的维基百科界面构成的知识网络
受试者在参与实验之前填写问卷,通过问卷,判定个人由于缺少特定信息驱动的好奇的程度,又被称为剥夺感驱动的好奇心(Deprivation curiosity)。该理论来自心理学界,指出人的好奇心是由于存在信息差。个体之间对信息差的敏感度不同,有的人会觉得遇到不懂的不查清楚不舒服,有的人则对存在的信息差视若无睹。结果指出,对信息剥夺越敏感的人,浏览信息的模式越接近信息猎人,其聚类系数更高,节点之间的平均路径长度更短。
图3. 不同的信息剥夺敏感程度和(a, b)平均聚集系数,及(c, d)代表性路径长度的散点图
心理学中对好奇心来源的解释,还包括追求感官刺激。研究通过对被试每天的日记进行文本分析,判定其追求感官刺激的多少,再将被试浏览维基百科的21天分为三个阶段,试听判断同一人在不同阶段好奇心呈现模式的差异。结果发现,在追求感官刺激时,个体的好奇心会趋向于“漫游者”型,见图4。
图4:个人在不同阶段根据追求感官刺激的程度,与 (b) 浏览形成的知识网络中平均节点权重,(c) 聚集系数,及 (d) 边的长度的散点图。
基于同一批数据,研究者之后试图通过分析知识网络生成过程中拓扑特征的变化,发现好奇心的产生机制。
该研究对好奇心的解释,其中之一就是信息差(information gap),即人们之所以好奇,是由于人类对世界的知识可以容忍有限数量的不确定性。暴露于少量以前未知的信息会使人们关注知识差距的存在,使不确定性水平超过一个可接受的阈值。这种增加的不确定性促使人们寻找信息来填补知识空白并解决未知问题。
而对该理论的验证来自图论中的拓扑空腔(topological cavity),拓扑空腔可以理解为两个未连接节点之间的间隙,当两个节点通过第三个节点连接时,该间隙被填充,使得位于空隙的节点处于网络中的关键位置。在好奇心研究的背景下,处于空隙中的节点可被视为信息差。通过将拓扑空腔在网络生成过程中的动力学与零模型对比,研究者验证了信息差确实可以部分解释好奇心的成因。拓扑空腔的数量在真实的只是网络上高于零模型,指出即使我们获得了更多的信息,熟悉的概念之间的联系仍然未被发现
图5:在不同维度下(见A、D、G),信息差位于知识网络的结构洞之中。在个体浏览维基百科构建的知识网络中(见B、E、H),相比随机重连形成的零假设,真实网络生成过程中,0维的拓扑空腔的数目先上升再减少,1维及2维的拓扑空腔的数目都显著多于随机情况。图C,F,G分别对应集体层面知识网络的构建过程中不同维度下拓扑空腔的数目。集体可能比个人更容易填补这些空腔(与零模型的差异值相比个体的知识网络更小),因为科学领域内的跨学科子领域被激励去连接不同的知识子领域
对好奇心的另一个解释,是通过探索,可以对世界构建一个更精简的压缩后的模型。例如在读了很多宋词之后,将词人分为婉约豪放两派,这样做的好处是存储新信息时更简单。量化地看,在一个15个节点的网络(如图6a所绘)中随机行走,其序列对应的信息熵是2比特,而当将所有节点视作一个聚簇时,随机游走时对应的信息熵变为了0比特,此时信息熵的减少可视为模型压缩带来的收益。聚簇的个数越少,压缩带来的收益越多。
图6:量化模型压缩带来的收益,发现对于个人(图6c)和群体(图6d),知识网络在构建时,其压缩带来的收益都超过了零假设,从而支持了好奇心是由模型压缩驱动带来的这一假说。
以上两种对好奇心的解释,各自有各自的不足。信息差假设下,学习者只追求知识的成长和完整性。而在压缩收益的解释下,追随好奇心是为了努力揭示世界的潜在组织。但在一个更复杂的环境中,随着新的未知事物的出现,无知的边界迅速扩大,好奇心所要承担的责任,不仅是有效地添加或放弃信息,更包括承认我们已经拥有的东西的价值。然而以上两种解释,都只关注了新增信息的价值,没有考虑对已有信息之间关联的改变带来的收益。
由此,作者对好奇心提供了一种新的解释,将好奇心定义为知识网络构建过程中局部内部刚性(rigidity)和全局外部灵活性(flexibility)之间的平衡。刚性和灵活性是一种需要将感兴趣的对象嵌入到物理空间中的机械概念。假设知识网络嵌入在欧几里得空间中,网络拥有多个自由度。灵活性可以看成网络经过构象变化而不改变其拓扑结构的能力。
刚性和灵活性是两个来自机械网络的概念。如图7a中的网络就具有刚性,而图7b的网络则具有灵活性,通过将具有刚性和灵活性的网络模块组合,可以生成图c这样即具有局部刚性、又具有全局灵活性的网络。通过节点之间边的重连,也可以生成包含338个节点、672个边的quadrifolium,该网络在局部是稳定的,在全局来看又具有很高的自由度。
图7. 机械网络中的构象变化示意图
节点之间代表全局灵活性的指标d,在个体和集体的知识网络构建过程中显著高于随机连接的网络,从而支持好奇心的驱动力是构建在全局具有灵活性的知识网络,以及个人重视可根据新获得的信息来重新考虑已知事物的能力。该理论将好奇心视为构建机械上灵活的知识网络的实践。
图8:好奇心构象变化理论的支持证据。图b和c表明个体独特的信息获取导致了基于语境的概念关系的频繁重塑。图d和e表明在集体建立的知识网络中,感兴趣的机械特征的演化不能与它们在零模型数据中的演化区分开来。
对比并总结以上对于好奇心的解释,最初人们认为好奇心要么是为了填补认知空缺,例如觉得自己缺少古诗词知识而读一个个古人的作品,或是为了满足感官刺激。之后认为人们的好奇心是为了能够构建出一个对世界的简化模型,例如将宋词分为豪放婉约两类;新研究则提出了对好奇心的新解释,即人们追求新信息是为了让关于旧信息的模型能更具灵活性,例如通过阅读更多的东坡诗词,意识到苏轼既不能被简单归于豪放派,也不应归于婉约派。该研究的证据指出好奇心的获得机制是多元的,是由以上所述的各种机制共同驱动的。
之前对于好奇心的心理学研究多为定性分析,而基于网络科学提供的工具,该研究首次以定量方式研究好奇心及背后的驱动机制。通过将好奇心作为知识网络构建的过程,这些研究提供了可计算的、基于理论的度量,如拓扑空腔、可压缩性和构象自由度,可以用来描述信息寻求的纵向过程,既适用于在实验室实验,也可用于真实场景下。未来重要的发展方向包括将每个网络度量映射到最合适的好奇心子类型,并扩展当前的子类型分类,以适应新的网络理论视角。
通过多维度地审视好奇心,该研究扩展了传统心理学对好奇心的分类。借助这些发现,相关人员可通过引导受到不同类型好奇心驱动的探索行为,在未来为教育政策的制订提出建议,也可用于提升用户留存及满意度。
该研究基于的数据来自相对较小样本在实验控制下的浏览行为,随着流媒体的流行,在诸如知乎这样的知识社区中,海量用户自发的探索行为,可以帮助科学家在更真实的场景下,探索人类不同情况下呈现的好奇心模式,并通过与用户个人属性,例如性别、年龄、教育程度等的关联,做出更多有趣又有意义的发现。
更进一步,好奇心不仅与人类有关,而且与人工智能的研究有关。例如,可压缩性最初被提出作为一种指导强化学习的内在学习信号。该研究提供了几个候选指标——如拓扑空腔的数量、网络可压缩性和构象灵活性——可以作为合适的基于好奇心的任务设置信号。
强化学习要求智能体在与环境的互动中,必须在开发和探索之间取得平衡。在许多现实世界中,外部奖励是非常罕见的,甚至完全没有,因此自然不能可靠地指导行为。在这种稀疏的奖励环境中,类似于好奇心的内在动机仍然可以促进探索行为,并进一步提高任务表现。强化学习的内在(或基于好奇心的)奖励信号的设计是进一步研究的一个重要领域,可能受益于对人类行为的计算洞察,比如该研究中得出的主要结论。
转载内容仅代表作者观点
不代表中科院物理所立场
如需转载请联系原公众号
原标题:好奇心从何而来?知识网络数据揭示好奇心的多种产生机制
来源:集智俱乐部
编辑:Garrett
标签: #聚类系数大小