龙空技术网

简单好用:手把手教你用R语言实现聚类分析

小AI咨询 489

前言:

此刻兄弟们对“用层次聚类算法进行词语聚类分析”可能比较关怀,你们都想要了解一些“用层次聚类算法进行词语聚类分析”的相关知识。那么小编也在网络上搜集了一些有关“用层次聚类算法进行词语聚类分析””的相关资讯,希望看官们能喜欢,大家一起来了解一下吧!

本文将详细介绍如何运用R语言进行聚类分析,包括直接从原始数据中聚类和根据距离矩阵进行聚类,并附有聚类结果可视化教程,教程非常详细,即学即用。

距离/不相似矩阵计算加载数据

data(iris)str(iris)

输出

聚类分析是无监督的分类,删除数据中给定原始分类,最后可以将聚类的结果和给定的分类做一个比较,定量地看看聚类的性能怎么样。

iris$Species<-NULL
不相似矩阵计算

不相似矩阵计算,也就是距离矩阵计算,在R中采用 dist()函数,或者 cluster表中的 daisy()函数。 dist()函数的基本形式是:

dist(x, method = "euclidean", diag = FALSE, upper = FALSE, p = 2)

其中 x是数据框(数据集),而方法可以指定为欧式距离 "euclidean", 最大距离 "maximum", 绝对值距离 "manhattan"和明氏距离 "minkowski"等。默认是计算欧式距离,所有的属性必须是相同的类型。比如都是连续类型,或者都是二值类型。

dd<-dist(iris)str(dd)

输出

距离矩阵可以使用 as.matrix()函数转化为矩阵的形式,方便显示。

dd<-as.matrix(dd)

输出

Iris 数据共150例,样本间距离矩阵为 150行列的方阵。下面显示了 1~5号样本间的欧式距离。

输出

hclust()进行谱系聚类(层次聚类)聚类函数

R中自带的聚类函数是 hclust(),为谱系聚类法。基本的函数指令是:

 结果对象 <- hclust(距离对象, method=方法)

hclust() 可以使用的类间距离计算方法包含离差法 "ward",最短距离法 "single", 最大距离法 "complete",平均距离法 "average", "mcquitty", 中位数法 "median" 和重心法 "centroid"。下面采用平均距离法聚类。

hc <- hclust(dist(iris), method="ave")

输出

聚类结果

聚类结果对象包含很多聚类分析的结果,可以使用数据分量的方法列出相应的计算结果。

str(hc)

输出

下面列出了聚类结果对象hc 包含的 merge和 height结果值的前6个。

行编号表示聚类过程的步骤,X1,X2表示在该步合并的两类,该编号为负代表原始的样本序号,编号为正代表新合成的类变量height 表示合并时两类类间距离。比如第1步,合并的是样本 102和 143,其样本间距离是 0.0,合并后的类则使用该步的步数编号代表,即样本 -102和 -143合并为 1类。再如第 6行表示样本 11和 49合并,该两个样本的类间距离是 0.1,合并后的类称为 6类

head (hc$merge,hc$height)

输出

下面显示的聚类结果对象 hc包含的 merge和 height结果值的 50~55步的结果。第 50步结果表明样本 43与 13类(即第 13步的聚类合类结果)合并。所有的类编号负数j 表示原数据的样本编号,正数i 表示聚类过程的第 i步形成的新类。再如 54步,表示聚类过程第 7步和第 37步形成的类合并为新类,新类成为第 54类,其类间距离是 0.2641715。

输出

绘制聚类图

聚类完成后可以使用 plot()绘制出聚类的树图。

plot(hc, hang = -1, labels=iris$Species)

输出

指定分类和类中心聚类

通过观察树形图,可见由于数据例很多,使图形很乱,不容易确定合理的分类,为简化图形,使用 cutree() 来确定最初的分类结果,先初步确定各个样本的最初分类的类数后,然后用 hclust()再次聚类,重新聚类后,得出最后的分类结果。

memb <- cutree(hc, k = 10) #确定10个分类table(memb) #各类中的样本数

输出

为了进行重新聚类,需要计算各类的类中心,这里用各类的均向量来代表各类的类中心,计算程序如下。

cent <- NULLfor(k in 1:10){  cent <- rbind(cent, colMeans(iris[memb == k, , drop = FALSE]))}

输出

有了各类的类中心后,再次使用 hclust()函数,从 10类起重新开始聚类。hclust() 函数这时需要指定各类的类中心,并采用中心法来聚类。

hc1 <- hclust(dist(cent), method = "centroid", members = table(memb))plot(hc1)hc1

输出

再次聚类的树形图就很精简了。从树形图上看,确定为三类是比较合适的。

输出最终分类结果

使用 cutree()来确定输出各个样本的最后分类。

memb <- cutree(hc, k =3 #确定3个分类table(memb) #各类中的样本数

输出

下面将聚类结果和原始的分类比较可见聚类结果是不错的。错误率约为 14/150=9.33%。

输出

根据距离矩阵聚类

可以直接输入距离矩阵,然后用 as.dist()函数转为 hclust()可以使用的距离阵对象,然后再用 hclust()再进行聚类分析。

x<-read.table(text="id BA  FI  MI  VO  RM  TOBA  0  662  877  255  412  996FI  662  0  295  468  268  400MI  877  295  0  754  564  138VO  255  468  754  0  219  869RM  412  268  564  219  0  669TO  996  400  138  869  669  0 ", header=T)row.names(x)<-x$idx$id<-NULLx

输出

转换为距离矩阵

x<-as.dist(x)

输出

hc <-hclust(x)     
显示聚类过程
data.frame(hc$merge,hc$height)

输出

绘制聚类图

plot(hc2)

输出

从聚类图可见聚为两类比较合适。

cutree(hc2,2)

输出

所以BA、VO、RM聚为1类而TO、FI、MI聚为另一类。

标签: #用层次聚类算法进行词语聚类分析 #用层次聚类算法进行词语聚类分析的步骤是什么 #数据聚类算法r语言代码 #聚类算法c语言 #r语言实现聚类分析