基于多视图双支持向量机半监督学习机
Semi-Supervised Learning Machine Based on Multi-View Twin Support Vector Machine

作者: 姚瑞 :新疆大学,数学与系统科学学院,新疆 乌鲁木齐;

关键词: 半监督学习分类问题支持向量机多视图Semi-Supervised Learning Classification Support Vector Machines Multi-View

摘要: 在机器学习的诸多实际问题中,数据有多个视图,多个视图优势互补,分类效果更好。本文主要针对多视图双支持向量机的半监督方法进行了研究,根据不同的特征将数据分成多个视图,分别给每个视图找两个非平行超平面,构建模型,求解对偶问题。实验结果表明,本文的算法可以对数据进行降维,有很好的分类精确度,该算法较双支持向量机算法缩短了运行时间,减少了计算复杂度,预测性能较好。

Abstract: In many practical problems of machine learning, the data has multi-views; multi-views complement each other; and the classification effect is better. This paper mainly studies the semi-supervised method of multi-view dual support vector machine, and divides the data according to different characteristics. Multi-views are used to find two non-parallel hyperplanes for each view, and the model is constructed to solve the dual problem. Experimental results show that the proposed algorithm can reduce the dimension of the data and has good classification accuracy. The support vector machine algorithm shortens the running time, reduces the computational complexity, and predicts better performance.

1. 引言

多视图学习(MVL)可用于表示多个不同特征的数据集 [1],不同的特征经常互相补充信息,与传统的单视图学习相反,MVL分别为每个特征视图构造一个学习函数,然后通过利用相同输入数据的冗余视图共同优化学习函数。到目前为止,已经提出了许多MVL算法,可以分为两组:协同训练 [2] 和协同正则化算法 [3]。协同训练算法通过迭代,最大化多个不同视图上的学习函数,以确保在相同数据的一致性。在协同正则化算法中,需要最小化不同视图学习目标函数中的正则项,典型的方法包括稀疏多视图SVMs [4],multiview Laplacian SVMs [5],多视图矢量值多重正则化方法 [6]。

半监督学习是一种综合学习方法,它使用少量标记数据来训练初始分类器,并使用大量未标记数据来进一步提高初始分类器的性能,最终实现准确学习。在学习过程中,学习机在训练过程中使用的样本是一个混合样本集,标签样本较少,未标记样本较多。它不仅利用标记样本的优点来精确描述单个样本,而且还可以发现未标记样本在整个样本集中的重要作用 [7]。

支持向量机(SVM)是一种机器学习方法,主要针对小样本分类问题,遵守结构风险极小化原则,获取全局最优解。1982年Vapnik首次提出支持向量机 [8],他将支持向量机归结为一个二次型方程求解问题。其学习的基本想法是求解能够正确划分训练数据集并且使得几何间隔最大的分离超平面。在近几年的研究中,支持向量机在人脸检测、语音识别、文字识别、手写识别、图像处理等研究方面取得了很多研究成果并受到了许多领域学者的关注。因此,研究也从最初的简单模式发展到各种互补应用。研究人员通过添加函数、变量或系数来对公式进行变形,以生成具有独特优势或一系列应用的新算法,例如:B. Schlkopf等人提出的γ-SVM算法 [9],主要通过γ参数控制支持向量的个数和误差;Lee等人通过引入光滑函数来近似正类样本标签从而提出一种光滑支持向量机(Smooth SVM, SSVM) [10],Mangasarian等人提出的一种拉格朗日支持向量机(Lagrangian SVM, LSVM) [11],Fung等人提出的近似支持向量机(Proximal SVM, PSVM) [12],以及Lee等人提出的约简支持向量机(Reduced SVM, RSVM)等 [13]。

半监督支持向量机 [14] 是一种能够同时兼顾标签与无标签样本的学习方法,因而半监督支持向量机的学习方法在处理大规模数据识别与分类的过程中处理良好。半监督支持向量机最初应用于文本分类 [15],研究人员之后提出了用于解决半监督支持向量机目标函数非凸问题的一系列方法,主要的研究方法有:梯度下降法(Gradient descent) [16];凹凸法(Convex-Concave Procedure) [17];确定性煺火方法(Deterministic annealing) [18] 等。

本文提出了一种基于多视图的双支持向量机的半监督学习方法,此方法将双支持向量机 [19] 与半监督多视图 [20] 学习相结合。给定训练集,将训练集分成两个视图,分别给视图一和视图二找两个非平行的超平面,构造两个二次规划模型,求解相应对偶问题,每个视图分别得到一个超平面,并可以求出决策函数。事实上,基于多视图双支持向量机半监督学习方法是对数据集进行降维。数据表明,与双支持向量机相比,多视图双支持向量机半监督学习方法训练的耗时更少,缩短了运行时间,减少了计算复杂度,有较高的准确率。

本文结构如下:第2节介绍了支持向量机及半监督多视图学习的基本思想;第3节介绍了基于多视图双支持向量机半监督学习的优化模型推导及算法;第4节对基于多视图双支持向量机半监督学习方法进行人工数据和UCI数据的数值实验,并与其它的分类算法进行比较;第5节给出一些结论及展望。

2. 相关工作

2.1. 支持向量机

对于训练集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , , ( x l , y l ) } ,其中, x i R n 是输入的样本点, y i Y = { 1 , 1 } 是输出的标签。线性的标准支持向量机要寻找一个超平面f(x)将两类点分开。

f ( x ) = w T x + b = 0 , (1)

其中, w R n b R 分别是超平面的法向量和截距。引入松弛变量 ξ ,标准支持向量机的矩阵形式可以表示为:

min w , b , ξ 1 2 ( A w + e 1 b 2 + c e 2 T ξ , s .t . ( B w + e 2 b ) e 2 ξ , ξ 0 , (2)

其中, A ( m × n ) c 0 是惩罚参数, e 1 e 2 是相应的维数为的1向量。我们通过求解(2)式的对偶问题可以得到使得 w b ,从而可以得到两个平行的支持超平面 w T x + b = 1 w T x + b = 1

2.2. 线性可分的双支持向量机

对于训练集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , , ( x l , y l ) } ,其中 x i R n 是输入的样本点, y i Y = { 1 , 1 } 是输出的标签。

双支持向量机 [19] 寻找两个非平行的超平面 f 1 ( x ) f 2 ( x ) 使得其中的一个超平面离一类样本点尽可能近,而离另一类样本点尽可能远,反之亦然。

f 1 ( x ) = w 1 T x + b 1 = 0 , f 2 ( x ) = w 2 T x + b 2 = 0 , (3)

其中, w 1 , w 2 R n b 1 , b 2 R 分别是两个非平行超平面的法向量和截距。引入松弛变量 ξ ,线性双支持向量机的模型为:

TWSVMM 1 : min w 1 , b 1 , ξ 1 2 ( A w 1 + e 1 b 1 2 + c 1 e 2 T ξ , s .t . ( B w 1 + e 2 b 1 ) e 2 ξ ξ 0 , (4)

TWSVMM 2 : min w 2 , b 2 , ξ 1 2 ( B w 2 + e 2 b 2 2 + c 2 e 1 T ξ , s .t . A w 2 + e 1 b 2 e 1 ξ , ξ 0 , (5)

其中, A ( m 1 × n ) B ( m 2 × n ) c 1 > 0, c 2 > 0 是惩罚参数, e 1 e 2 > 0 是相应维数的单位向量。

简单的说,双支持向量机是一对二次规划问题,对每个小的二次规划问题构造拉格朗日函数,求解对偶问题,可以得到 w 1 , w 2 , b 1 , b 2 ,进而可得到双支持向量机的决策函数:

f ( x ) = arg min k = 1 , 2 | w k T x + b k | w k , (6)

其中, k = 1 , 2 分别对应正负类标签 { + 1 , 1 }

2.3. 线性不可分的双支持向量机

显然,并不是所有问题都是线性可分的,对于非线性分划问题,我们可以选择一个适当的内核 K ,用曲面 g 1 ( x ) g 2 ( x ) 代替平面 f 1 ( x ) f 2 ( x )

g 1 ( x ) = K ( x T , C T ) u 1 + b 1 = 0 , g 2 ( x ) = K ( x T , C T ) u 2 + b 2 = 0 , (7)

其中 C T = [ A B ] T ,定义 w 1 = C T u 1 w 2 = C T u 2 ,根据2.2节可构造优化问题如下:

KTWSVM 1 : min u 1 , b 1 , ξ 1 2 ( K ( A , C T ) u 1 + e 1 b 1 ) 2 + c 1 e 2 T ξ , s .t . [ K ( B , C T ) u 1 + e 2 b 1 ] e 2 ξ , ξ 0 , (8)

TWSVM 2 : min u 2 , b 2 , ξ 1 2 ( K ( B , C T ) u 2 + e 2 b 2 2 + c 2 e 1 T ξ , s .t . K ( A , C T ) u 2 + e 1 b 2 e 1 ξ , ξ 0 , (9)

其中 c 1 > 0, c 2 > 0 是惩罚参数, e 1 e 2 > 0 是相应维数的单位向量。构造拉格朗日函数求解对偶问题,便可得到其决策函数。

2.4. 半监督多视图学习

多视图用于表示数据的不同特征集,本文研究的均为双视图。在多视图学习算法中,给定有标签数据集 { ( x i , y i ) } i = 1 l 和无标签数据 { x i } i = l + 1 l + u ,任意一个数据点 x 我们都可以分成两个视图 x ( 1 ) x ( 2 ) ,即 x = ( x ( 1 ) , x ( 2 ) ) ,其中 x i R n y i Y = { 1 , 1 } ,则目标函数可以表示为 f = ( f ( 1 ) , f ( 2 ) ) f ( 1 ) f ( 2 ) 分别为两个视图下的目标函数。半监督多视图学习方法中,在协同正则化最小二乘方法下的目标函数为:

f = arg min i = 1 l [ y i f ( 1 ) ( x i ( 1 ) ) ] 2 + μ i = 1 l [ y i f ( 2 ) ( x i ( 2 ) ) ] 2 + γ 1 f ( 1 ) 2 + γ 2 f ( 2 ) 2 + γ C l + u i = 1 l + u [ f ( 1 ) ( x i ( 1 ) ) f ( 2 ) ( x i ( 2 ) ) ] 2 , (10)

其中, μ 是平衡两个视图的参数, γ 1 γ 2 是正则化参数, γ C 是耦合参数,用于调节无标签数据的兼容性。

根据表示定理(10)式可表示为:

f = min [ i = 1 l + u α i K ( 1 ) ( x ( 1 ) , x i ( 1 ) ) , i = 1 l + u β i K ( 2 ) ( x ( 2 ) , x i ( 2 ) ) ] , i = 1 , 2 , , l + u (11)

其中, K ( 1 ) K ( 2 ) 是核函数。 α β 可以通过下列线性方程组求出:

[ 1 l J K 1 + γ 1 I + γ C l + u K 1 ] α γ C l + u K 2 β = 1 l Y ] , [ u l J K 2 + γ 2 I + γ C l + u K 2 ] [ β γ C l + u K 1 α = u l Y ] , (12)

其中, J Y 构成的对角矩阵, K 1 K 2 是核函数 K ( 1 ) K ( 2 ) 的格拉姆矩阵。

3. 基于多视图双支持向量机的半监督学习方法

针对分类问题,本文提出了基于多视图双支持向量机的半监督学习方法,此方法将双支持向量机应用到多视图半监督学习中。给定训练集 T = { ( x 1 , y 1 ) , , ( x l , y l ) } { x l + 1 , , x l + u } ,其中 x i R n , i = 1 , , l , l + 1 , l + u , y i Y = { 1 , 1 } ,需要找到与 { x i } i = l + 1 l + u 对应的输出值 y u = ( y l + 1 , , y l + u ) T 和在多视图双支持向量机中的决策函数:

f ( x ) = min { f 1 ( x ) , f 2 ( x ) } = min { min | w ( 1 i ) T x + b ( 1 i ) | , min | w ( 2 i ) T x + b ( 2 i ) | } , i = 1 , 2 ,

本文提出的多视图双支持向量机半监督学习方法是将(2.2)节中的矩阵 A , B 分别从两个视图进行描述,得到线性可分的多视图双支持向量机的半监督学习(MV-TWSVM)的优化模型为:

MV-TWSVM 1 : min 1 2 ( A 1 w ( 11 ) + e 1 b ( 11 ) 2 + A 2 w ( 12 ) + e 1 b ( 12 ) 2 ) + c 11 e 2 T ξ ( 11 ) + c 12 e 2 T ξ ( 12 ) + 1 2 γ 1 c 1 ( U 1 w ( 11 ) + e 3 b ( 11 ) ) ( U 2 w ( 12 ) + e 3 b ( 12 ) ) 2 , s .t . ( B 1 w ( 11 ) + e 2 b ( 11 ) ) e 2 ξ ( 11 ) , ( B 2 w ( 12 ) + e 2 b ( 12 ) ) e 2 ξ ( 12 ) , ξ ( 11 ) 0 , ξ ( 12 ) 0 , (13)

MV-TWSVM2 : min 1 2 ( B 1 w ( 21 ) + e 2 b ( 21 ) 2 + B 2 w ( 22 ) + e 2 b ( 22 ) 2 ) + c 21 e 1 T ξ ( 21 ) + c 22 e 2 T ξ ( 22 ) + 1 2 γ 2 c 2 ( U 1 w ( 21 ) + e 3 b ( 21 ) ) ( U 2 w ( 22 ) + e 3 b ( 22 ) ) 2 , s .t . ( A 1 w ( 21 ) + e 1 b ( 21 ) ) e 1 ξ ( 21 ) , ( A 2 w ( 22 ) + e 1 b ( 22 ) ) e 1 ξ ( 22 ) , ξ ( 21 ) 0, ξ ( 22 ) 0 , (14)

其中, A v ( m 1 × n ) B v ( m 2 × n ) m 1 m 2 表示数据点的数量,v表示视图的个数, γ 1 γ 2 c 1 c 2 是参数, e 1 e 2 e 3 表示相应维数的单位向量 ξ ( 1 v ) ξ ( 2 v ) 是损失项。

对(3.2)式引入拉格朗日乘子并构造拉格朗日函数为:

L ( w ( 11 ) , w ( 12 ) , b ( 11 ) , b ( 12 ) , α 11 , α 12 , β 11 , β 12 ) = 1 2 ( A 1 w ( 11 ) + e 1 b ( 11 ) ) T ( A 1 w ( 11 ) + e 1 b ( 11 ) ) + 1 2 ( A 2 w ( 12 ) + e 1 b ( 12 ) ) T ( A 2 w ( 12 ) + e 1 b ( 12 ) ) + 1 2 [ ( U 1 w ( 11 ) + e 3 b ( 11 ) ) ( U 2 w ( 12 ) + e 3 b ( 12 ) ) ] T [ ( U 1 w ( 11 ) + e 3 b ( 11 ) ) ( U 2 w ( 12 ) + e 3 b ( 12 ) ) ] + α 11 T [ B 1 w ( 11 ) + e 2 b ( 11 ) + e 2 ξ ( 11 ) ] + α 12 T [ B 2 w ( 12 ) + e 2 b ( 12 ) + e 2 ξ ( 12 ) ] + c 11 e 2 T ξ ( 11 ) + c 12 e 2 T ξ ( 12 ) β 11 T ξ ( 11 ) β 12 T ξ ( 12 ) , (15)

L 的分量求导并令其为0得:

w ( 11 ) L : A 1 T ( A 1 w ( 11 ) + e 1 b ( 11 ) ) + γ 1 c 1 U 1 T [ ( U 1 w ( 11 ) + e 3 b ( 11 ) ) ( U 2 w ( 12 ) + e 3 b ( 12 ) ) ] + B 1 T α 11 = 0 , (16)

w ( 12 ) L : A 2 T ( A 2 w ( 12 ) + e 1 b ( 11 ) ) + γ 1 c 1 U 2 T [ ( U 1 w ( 11 ) + e 3 b ( 11 ) ) ( U 2 w ( 12 ) + e 3 b ( 12 ) ) ] + B 2 T α 12 = 0, (17)

b ( 11 ) L : e 1 T ( A 1 w ( 11 ) + e 1 b ( 11 ) ) + γ 1 c 1 e 3 T [ ( U 1 w ( 11 ) + e 3 b ( 11 ) ) ( U 2 w ( 12 ) + e 3 b ( 12 ) ) ] + e 2 T α 11 = 0 , (18)

b ( 12 ) L : e 1 T ( A 2 w ( 12 ) + e 1 b ( 12 ) ) γ 1 c 1 e 3 T [ ( U 1 w ( 11 ) + e 3 b ( 11 ) ) ( U 2 w ( 12 ) + e 3 b ( 12 ) ) ] + e 2 T α 12 = 0 , (19)

ξ ( 11 ) L : c 11 e 2 T α 11 T β 11 = 0 , (20)

ξ ( 12 ) L : c 12 e 2 T α 12 T β 12 = 0 , (21)

α 11 L : α 11 T ( B 1 w ( 11 ) + e 2 b ( 11 ) ξ ( 11 ) ) = 0 , (22)

α 12 L : α 12 T ( B 2 w ( 12 ) + e 2 b ( 12 ) ξ ( 12 ) ) = 0 , (23)

β 11 L : β 11 T ξ ( 11 ) = 0 , (24)

β 12 L : β 12 T ξ ( 12 ) = 0 , (25)

( B 1 w ( 11 ) + e 2 b ( 11 ) ) + ξ ( 11 ) e 2 , (26)

( B 2 w ( 11 ) + e 2 b ( 12 ) ) + ξ ( 12 ) e 2 , (27)

由(16)和(18)得:

( [ A 1 T e 1 T ] [ A 1 e 1 ] + c 1 γ 1 [ u 1 T e 3 T ] [ u 1 e 3 ] ) [ w ( 11 ) b ( 11 ) ] c 1 γ 1 [ u 1 T e 3 T ] [ u 2 e 3 ] [ w ( 12 ) b ( 12 ) ] + α 11 [ B 1 T e 2 T ] α 12 = 0 , (28)

由(17)和(19)得:

c 1 γ 1 [ U 2 T e 3 T ] [ U 1 e 3 ] [ w ( 11 ) b ( 11 ) ] + ( [ A 2 T e 1 T ] [ A 2 e 1 ] + c 1 γ 1 [ U 2 T e 3 T ] [ U 2 e 3 ] ) [ w ( 12 ) b ( 12 ) ] + [ B 2 T e 2 T ] α 12 = 0 , (29)

定义

H 1 = [ A 1 e 1 ] , H 2 = [ A 2 e 1 ] ,

P 1 = [ U 1 e 3 ] , P 2 = [ U 2 e 3 ] ,

G 1 = [ B 1 e 2 ] T , G 2 = [ B 2 e 2 ] T ,

H = H 1 T H 1 + c 1 γ 1 P 1 T P 1 , F = c 1 γ 1 P 1 T P 2 , P = H 2 T H 2 + c 1 γ 1 P 2 T P 2 , Q = F 1 H P 1 F T , u 1 = [ w ( 11 ) b ( 11 ) ] T , u 2 = [ w ( 12 ) b ( 12 ) ] T , (30)

由(28)和(29)可到:

H u 1 + F u 2 = G 1 α 11 , (31)

F T u 1 + P u 2 = G 2 α 12 , (32)

由(31)和(32)可解得:

u 1 = Q 1 F 1 G 1 α 11 + Q 1 P 1 G 2 α 12 , (33)

u 2 = Q H 1 G 1 α 11 + Q ( F T ) 1 G 2 α 12 , (34)

由(33)式(34)式及KKT条件可以得到MV-TWSVM1的对偶问题(DMV-TWSVM1)

max 1 2 α 1 T M α 1 + e 2 T α 1 , s .t . 0 α 1 c 1 , (35)

其中

M = ( M 1 M 2 M 3 M 4 ) , α 1 = ( α 11 α 12 ) , c 1 = ( c 11 c 12 ) ,

M 1 = M 11 T H M 11 + M 13 T P M 13 M 11 T F M 13 M 13 T F T M 11 2 G 1 T M 11 ,

M 2 = M 12 T H M 12 + M 14 T P M 14 M 12 T F M 14 M 14 T F T M 12 2 G 2 T M 12 ,

M 3 = M 11 T H M 12 M 13 T P M 14 + M 11 T F M 14 + M 13 T F T M 12 2 G 1 T M 12 ,

M 4 = M 12 T H M 11 M 14 T P M 13 + M 12 T F M 13 + M 14 T F T M 11 2 G 2 T M 13 ,

M 11 = Q 1 F 1 G 1 , M 12 = Q 1 F 1 G 2 ,

M 13 = Q H 1 G 1 , M 14 = Q ( F T ) 1 G 2 ,

同理,对MV-TWSVM2引入拉格朗日乘子并构建拉格朗日函数:

( [ B 1 T e 2 T ] [ B 1 e 2 ] + c 2 γ 2 [ U 1 T e 3 T ] [ U 1 e 3 ] ) [ w ( 21 ) b ( 21 ) ] c 2 γ 2 [ U 1 T e 3 T ] [ U 2 e 3 ] [ w ( 22 ) b ( 22 ) ] + α 21 [ A 1 T e 1 T ] = 0 , (36)

c 2 γ 2 [ U 2 T e 3 T ] [ U 1 e 3 ] [ w ( 21 ) b ( 21 ) ] + ( [ B 2 T e 2 T ] [ B 2 e 2 ] + c 2 γ 2 [ U 2 T e 3 T ] [ U 2 e 3 ] ) [ w ( 22 ) b ( 22 ) ] + [ A 2 T e 1 T ] α 22 = 0 (37)

定义

X = G 1 T G 1 + c 2 γ 2 P 1 T P 1 , Y = c 2 γ 2 P 1 T P 2 , R = G 2 T G 2 + c 2 γ 2 P 2 T P 2 , S = Y 1 X R 1 Y T , v 1 = [ w ( 21 ) b ( 21 ) ] T , v 2 = [ w ( 22 ) b ( 22 ) ] T , (38)

由(36) (37)和(38)可解得:

v 1 = S 1 Y 1 H 1 α 21 + S 1 R 1 H 2 α 22 , (39)

v 2 = S X 1 H 1 α 21 + S ( Y T ) 1 H 2 α 22 , (40)

由(39)式(40)式及KKT条件可以得到MV-TWSVM2的对偶问题(DMV-TWSVM2):

max 1 2 α 2 T N α 2 + e 1 T α 2 , s .t . 0 α 2 c 2 , (41)

其中

N = ( N 1 N 2 N 3 N 4 ) , α 2 = ( α 21 α 22 ) , c 2 = ( c 21 c 22 ) ,

N 1 = M 21 T X M 21 + M 23 T R M 23 M 21 T Y M 23 M 23 T Y T M 21 2 G 1 T M 21 ,

N 2 = M 22 T X M 22 + M 24 T R M 24 M 22 T Y M 24 M 24 T Y T M 22 2 G 2 T M 22 ,

N 3 = M 21 T X M 22 M 23 T R M 24 + M 21 T Y M 24 + M 23 T Y T M 22 2 G 1 T M 22 ,

N 4 = M 22 T X M 21 M 24 T R M 23 + M 22 T Y M 23 + M 24 T Y T M 21 2 G 2 T M 23 ,

M 21 = S 1 Y 1 G 1 , M 22 = S 1 Y 1 G 2 ,

M 23 = S X 1 G 1 , M 24 = S ( Y T ) 1 G 2 ,

由上述过程可导出如下算法:

算法3.1:多视图双支持向量机半监督学习方法:

输入:训练集 T

输出:决策函数 f

1) 输入训练集 T γ 1 , γ 2 > 0 ,选择参数 c 11 , c 12 , c 21 , c 22 > 0

2) 计算(35),(41)得到 α 1 α 2

3) 计算(33),(34),(39),(40)得到 u 1 , u 2 , v 1 , v 2

4) 由(30),(38)得到 ( w ( 11 ) , b ( 11 ) ) , ( w ( 12 ) , b ( 12 ) ) , ( w ( 21 ) , b ( 21 ) ) , ( w ( 22 ) , b ( 22 ) )

5) 得到决策函数。

f ( x ) = min { min | w ( 1 i ) T x + b ( 1 i ) | , min | w ( 2 i ) T x + b ( 2 i ) | } , i = 1 , 2.

4. 数值实验

在本节中,将本文的方法MV-TWSVM与TWSVM进行比较。本文的数值结果是在内存4.00 GB,64位操作的Windows7系统中用软件MATLAB,R2014a运行得到的。

4.1. 人工数据

本节图1中,月牙型数据为视图1,由直线 y = 2 x + 3 y = 2 x 3 生成的样本点加入白噪声得到的数据集为视图2。图中直线是用MV-TWSVM得到的两个视图下的分划线。可以看出分划线很好的表示出了数据的分布,并且有较高的准确率,视图1的准确率达到83.6759%,视图2的准确率达到99.3781%。

Figure 1. The left figure is view 1, and the right figure is view 2. The line in the figure is the partition hyperplane obtained by MV-TWSVM calculation of artificial data set

图1. 左图是视图1,右图是视图2。图中直线是MV-TWSVM计算人工数据集得到的分划超平面

4.2. UCI数据

在UCI数据上找了Australian,pima,German,spectf,parkinsons,breast六个数据集,表1是数据集的详细信息,其中数据Australian,pima,German选用了该数据的百分之三十进行数值实验。用本文提出的方法对六个数据集计算正确率,并与TWSVM进行比较,如表2。表中加粗的部分正确率较高。

表2是线性的TWSVM,MV-TWSVM对所有数据集计算的正确率,表格分为两部分,第一部分是TWSVM方法,第二部分是本文的方法,其中第一表示TWSVM方法下的正确率,第二列表示在视图1下的正确率,第三列表示在视图2下的正确率,第四列表示原始数据的正确率。奇数行表示将数据集前一半作为视图1,剩余部分作为视图二;偶数行表示将数据集随机分成两部分,一部分作为视图1,另一部分作为视图2。表中可以看出数据spectf,Australian,pima在本文提出的方法下正确率较高。

当我们选择不同比例无标签的数据点时,正确率也会不同,如表3表3分别取了50%,80%,90%,无标签的数据点,计算正确率和耗时。从表中可以看出,数据集spectf,parkinsons,breast,Pim-a,German,的无标签点增多时,在本文的方法下正确率增大。

此外,本节还对MV-TWSVM与TWSVM进行了时间耗时比较,如图2,数据集仍然是Australian,pima,German,spectf,parkinsons,breast 6个数据集,从图中可以看出,MV-TWSVM比TWSVM耗时少很多,从而说明MV-TWSVM对数据降维事实相符。

Table 1. The details of the data set

表1. 数据集的详细信息

Table 2. The accuracy of linear TWSVM, MV-TWSVM for all data sets (mean (std)%)

表2. 线性的TWSVM,MV-TWSVM对所有数据集计算的正确率

*是指用该数据集的33%进行数值实验。黑体表示几个方法中最高的正确率。

Table 3. The accuracy of MV-TWSVM in computing unlabeled data sets with different ratios (mean (std)%)

表3. MV-TWSVM 对不同比率的无标签的数据集计算的正确率

*是指用该数据集的33%进行数值实验。黑体表示几个方法中最高的正确率。

Figure 2. Comparison of training time between TWSVM and MV-TWSVM under different characteristics

图2. 不同的特征下,TWSVM与MV-TWSVM的训练时间之间的比较

5. 结论与展望

本文将双支持向量机应用到多视图半监督学习中,将数据分成两个视图进行描述,降低了数据的维数,减少了计算的复杂度,有效地缩短了运行时间。对于不同的数据,多视图双支持向量机半监督学习方法取得了较好的正确率。

进一步,我们将研究如何选择不同的核函数将线性划分推广到非线性划分。另外,现有的多视图学习方法实际上是双视图,如何推广到更多视图上的研究也是一个需要考虑的问题。

文章引用: 姚瑞 (2019) 基于多视图双支持向量机半监督学习机。 运筹与模糊学, 9, 177-188. doi: 10.12677/ORF.2019.92021

参考文献

[1] Xu, J., Han, J., Nie, F. and Li, X. (2017) Re-Weighted Discriminatively Embedded K-Means for Multi-View Clustering. IEEE Transactions on Image Processing, 26, 3016-3027.
https://doi.org/10.1109/TIP.2017.2665976

[2] Balcan, M.F., Blum, A. and Yang, K. (2004) Co-Training and Expansion: Towards Bridging Theory and Practice. Proceedings of the Neural Information Processing Systems Conferences, Vancouver, December 2004, 89-96.

[3] Farquhar, J.D.R., Hardoon, D.R., Meng, H., Shawe-Taylor, J. and Szedmak, S. (2005) Two View Learning: SVM-2k, Theory and Practice. Advances in Neural Information Processing Systems, 18, 355-362.

[4] Sun, S. and Shawe-Taylor, J. (2010) Sparse Semi-Supervised Learning Using Conjugate Functions. Journal of Machine Learning Research, 11, 2423-2455.

[5] Sun, S. (2011) Multi-View Laplacian Support Vector Machines. 7th International Conference on Advanced Data Mining and Applications, Beijing, 17-19 December 2011, 209-222.
https://doi.org/10.1007/978-3-642-25856-5_16

[6] Luo, Y., Tao, D., Xu, C., Liu, H. and Wen, Y. (2013) Multiview Vector Valued Manifold Regularization for Multilabel Image Classification. IEEE Transactions on Neural Networks and Learning Systems, 24, 709-722.
https://doi.org/10.1109/TNNLS.2013.2238682

[7] 赵莹. 半监督支持向量机学习算法研究[D]: [博士学位论文]. 哈尔滨: 哈尔滨工程大学, 2010.

[8] Vapnik, V.N. (1995) The Nature of Statistical Learning Theory. Spring, New York.
https://doi.org/10.1007/978-1-4757-2440-0

[9] Schlkopf, B., Smola, A., Williamson, R. and Bartlett, P.L. (2000) New Support Vector Algorithms. Neural Computation, 12, 1207-1245.
https://doi.org/10.1162/089976600300015565

[10] Lee, Y.J. and Mangasarian, O.L. (2001) SSVM: A Smooth Support Vector Machine for Classification. Computational Optimization and Applications, 20, 5-22.
https://doi.org/10.1023/A:1011215321374

[11] Mangasarian, O.L. and Musicant, D.R. (2001) Lagrangian Support Vector Machines. Journal of Machine Learning Research, 1, 161-177.

[12] Fung, G.M. and Mangasarian, O.L. (2005) Multicategory Proximal Support Vector Machine Classifiers. Machine Learning, 59, 77-97.
https://doi.org/10.1007/s10994-005-0463-6

[13] Lee, Y.J. and Huang, S.Y. (2007) Reduced Support Vector Ma-chines: A Statistical Theory. IEEE Transactions on Neural Networks, 18, 1-13.
https://doi.org/10.1109/TNN.2006.883722

[14] Bennett, K. and Demiriz, A. (1998) Semi-Supervised Support Vector Machines. In: Proceedings of the 1998 Conference on Advances in Neural Information Processing Systems II, MIT Press, Cambridge, 368-374.

[15] Joachims, T. (1999) Transductive Inference for Text Classification Using Support Vector Machines. In: Proceedings of the Sixteenth International Conference on Machine Learning, Morgan Kaufmann Publishers Inc., San Francisco, 200-209.

[16] Chapelle, O., Zien, A., Cowell, R., et al. (2005) Semi-Supervised Classification by Low Density Separation. Encyclopedia of Biostatistics, 34, 57-64.

[17] Collobert, R., Sinz, F., Weston, J. and Bottou, L. (2006) Large Scale Transductive SVMs. Journal of Machine Learning Research, 7, 1687-1712.

[18] Sindhwani, V., Keerthi, S. and Chapelle, O. (2006) Deterministic Annealing for Semi-Supervised Kernel Machines. Proceedings of International Conference on Machine Learning, Pittsburgh, June 2006, 108-116.
https://doi.org/10.1145/1143844.1143950

[19] Jayadeva, Khemchandani, R. and Chandra, S. (2007) Twin Support Vector Machines for Pattern Classification. IEEE Transactions on Pattern Analysis and Machine Intelligence, 29, 905-910.
https://doi.org/10.1109/TPAMI.2007.1068

[20] Sindhwani, V. (2007) On Semi-Supervised Kernel Methods. The University of Chicago, Chicago.

分享
Top