计算机工程与应用
計算機工程與應用
계산궤공정여응용
COMPUTER ENGINEERING AND APPLICATIONS
2014年
21期
184-188
,共5页
谱聚类%空间临近信息%相似性矩阵%Nystrom逼近策略%近邻传播聚类算法
譜聚類%空間臨近信息%相似性矩陣%Nystrom逼近策略%近鄰傳播聚類算法
보취류%공간림근신식%상사성구진%Nystrom핍근책략%근린전파취류산법
spectral clustering%spatial adjacency information%similarity matrix%Nystrom approximation%Affinity Propa-gation(AP)algorithm
针对传统谱聚类算法应用于图像分割时仅采用特征相似性信息构造相似性矩阵,而忽略了像素分布的空间临近信息的缺陷,提出一种新的相似性度量公式——加权欧氏距离的高斯核函数,充分利用图像特征相似性信息和空间临近信息构造相似性矩阵。在谱映射过程中,采用Nystrom逼近策略近似估计相似性矩阵及其特征向量,大大减少了求解相似性矩阵的运算复杂度,降低了内存消耗。对得到的低维向量子空间采用一种新型的聚类算法——近邻传播聚类算法进行聚类,避免了传统谱聚类采用K-means算法对初始值敏感,易陷入局部最优的缺陷。实验表明该算法获得了比传统谱聚类算法更好的分割效果。
針對傳統譜聚類算法應用于圖像分割時僅採用特徵相似性信息構造相似性矩陣,而忽略瞭像素分佈的空間臨近信息的缺陷,提齣一種新的相似性度量公式——加權歐氏距離的高斯覈函數,充分利用圖像特徵相似性信息和空間臨近信息構造相似性矩陣。在譜映射過程中,採用Nystrom逼近策略近似估計相似性矩陣及其特徵嚮量,大大減少瞭求解相似性矩陣的運算複雜度,降低瞭內存消耗。對得到的低維嚮量子空間採用一種新型的聚類算法——近鄰傳播聚類算法進行聚類,避免瞭傳統譜聚類採用K-means算法對初始值敏感,易陷入跼部最優的缺陷。實驗錶明該算法穫得瞭比傳統譜聚類算法更好的分割效果。
침대전통보취류산법응용우도상분할시부채용특정상사성신식구조상사성구진,이홀략료상소분포적공간림근신식적결함,제출일충신적상사성도량공식——가권구씨거리적고사핵함수,충분이용도상특정상사성신식화공간림근신식구조상사성구진。재보영사과정중,채용Nystrom핍근책략근사고계상사성구진급기특정향량,대대감소료구해상사성구진적운산복잡도,강저료내존소모。대득도적저유향양자공간채용일충신형적취류산법——근린전파취류산법진행취류,피면료전통보취류채용K-means산법대초시치민감,역함입국부최우적결함。실험표명해산법획득료비전통보취류산법경호적분할효과。
Aiming at the default that when the traditional spectral clustering algorithm is applied to image segmentation, it only uses the feature similarity information to construct similarity matrix and ignores the spatial adjacency information defect of spatial distribution of pixels, this paper presents a new similarity measure formula—weighted euclidean distance of the Gaussian kernel function, making full use of image feature similarity information and spatial adjacency information to structure similarity matrix. In the spectral mapping process, using Nystrom approximation strategy to approximate simi-larity matrix and eigenvectors, it greatly reduces the computational complexity to solve similarity matrix and reduces the memory consumption. This paper applies a new clustering algorithm—Affinity Propagation to the low-dimensional sub-space. It avoids the defect that traditional spectral clustering using K-means algorithm can not automatically determine the number of clusters and it is sensitive to initial value and easy to fall into local optimum. The experiments prove that the proposed algorithm obtains better segmentation results than the traditional spectral clustering algorithm.