龙空技术网

机器学习中使用的不同类型的距离

林小婵的店 346

前言:

当前兄弟们对“欧氏距离相似度算法是什么时候学的”大约比较着重,各位老铁们都想要剖析一些“欧氏距离相似度算法是什么时候学的”的相关知识。那么小编也在网络上搜集了一些关于“欧氏距离相似度算法是什么时候学的””的相关内容,希望朋友们能喜欢,各位老铁们一起来学习一下吧!


在机器学习中,我们需要测量很多东西。要么了解它们之间的距离,要么分析它们彼此之间的相似程度,以便我们可以检测到它们的模式并做出预测。为了解决这些问题,我们使用了不同类型的距离测量,例如欧几里得距离,曼哈顿距离,余弦距离等。

欧几里得距离:

为了测量两点之间的直接距离,我们使用欧几里得距离。它的一些用例是测量飞行距离,或者分析两点之间的距离,以便我们了解它们是否相似或不同。

假设我们有两个点,如上图所示(x1,y1)和(x2,y2),然后使用毕达哥拉斯定理获得它们之间的距离。在x轴上,我们可以相减x2-x1,在y轴上y2-y1,斜边d将是它们之间的距离。如果必须将其应用于更大的维度上,则可以简单地添加一个变量,例如z,计算公式如下:

曼哈顿距离:

曼哈顿距离的测量就像欧几里得距离一样,不同之处在于我们测量的不是两点之间的直接距离而是|x1 - x2| + |y1 - y2|。上图中,粉色的线是欧氏距离,蓝色的线是曼哈顿起点到终点的距离。它主要用于测量地图上的距离和分析两个点的相似程度。

Minkowski距离:

闵可夫斯基距离是赋范向量空间(n维实空间)中两点之间的距离或相似性度量,是欧氏距离和曼哈顿距离的推广。

在N维空间中,一个点表示为(x1,x2,…,xN)。

考虑两个点P1和P2

当p = 2时,闵可夫斯基距离等于欧几里得距离。

当p = 1时,闵可夫斯基距离等于曼哈顿距离。

范数L1、L2、Ln

L1范数基本上就是曼哈顿距离

L2模基本上是欧氏距离

Ln或l_∞范数基本上是一个向量的最大值。

汉明距离:

因为我们在分类值之间没有排序,所以我们只能测量分类值是否相同。基本上,我们测量的是属性值重叠的程度。汉明 距离 可用于测量必须更改多少个属性才能相互匹配。我们可以通过简单的匹配系数计算出两个数据点之间的相似度(或差值)的比值:

no Of MatchAttributes / no Of Attributes

余弦距离和相似度:

余弦相似度是用来衡量事物相似程度的度量标准。数学上,它测量的是投影在多维空间中的两个向量夹角的余弦值。余弦相似度很有用,因为即使两个相似的对象在欧几里得距离(由于它的大小)下相距很远,它们仍然有可能更靠近在一起。夹角越小,余弦相似度越高。在推荐系统中,它被广泛用于度量两个事物之间的相似性。

结论:

所有这些类型的距离测量都有一个相似的目的,即确定两个事物之间有多相似或多接近,从而分析数据中的模式。希望本文能够帮助您理解机器学习中使用的这些不同类型的距离。

标签: #欧氏距离相似度算法是什么时候学的