vc维(vc维生素c什么时候吃比较好) - 鸿海伟业生活资讯网
- 1、如何通俗的理解机器学习中的VC维,shatter和break point
- 2、提出SVM *** 的学者是
- 3、VC维的来龙去脉
-
小客车限行(小客车限行尾号2022年9) - 鸿海伟业生活资讯网
-
清洁能源股票 - 鸿海伟业生活资讯网
-
集美大学在哪(集美大学在哪个居委会) - 鸿海伟业生活资讯网
-
医保中心(医保中心属于什么性质的单位) - 鸿海伟业生活资讯网
-
怎么查社保卡里的余额(怎么查社保卡里的余额及缴费情况) - 鸿海伟业生活资讯网
-
加强针(加强针超过12个月还能打吗) - 鸿海伟业生活资讯网
-
成都卫生人才网 - 鸿海伟业生活资讯网
-
万达影城今日上映(万达影城今日上映动画片) - 鸿海伟业生活资讯网
-
四川锅盔(四川锅盔的 *** 过程) - 鸿海伟业生活资讯网
-
居民医保(居民医保缴费记录在哪里可以查询) - 鸿海伟业生活资讯网
本文目录一览:
如何通俗的理解机器学习中的VC维,shatter和break point
有可能的话,找一个安静的、舒适的地方学习。选择某个地方作你的学习之处,这一点很重要。它可以是你的单间书房或教室或图书馆,但是它必须是舒适的,安静而没有干扰。当你开始学习时,你应该全神贯注于你的功课,切忌“身在曹营心在汉”。
提出SVM *** 的学者是
苏联学者VladimirNVapnik和AlexanderYLerner。SVM是由模式识别中广义肖像算法发展而来的分类器。1964年,Vapnik和AlexeyYChervonenkis对广义肖像算法进行了进一步讨论并建立了硬边距的线性SVM。此后在二十世纪70到80年代,随着模式识别中更大边距决策边界的理论研究、基于松弛变量的规划问题求解技术的出现,和VC维的提出,SVM被逐步理论化并成为统计学习理论的一部分。
VC维的来龙去脉
本文转自: VC维的来龙去脉
VC维在机器学习领域是一个很基础的概念,它给诸多机器学习 *** 的可学习性提供了坚实的理论基础,但有时候,特别是对我们工程师而言,SVM,LR,深度学习等可能都已经用到线上了,但却不理解VC维。
这里,在台湾大学 机器学习基石 课程的基础上,我们简单聊聊“VC维的来龙去脉”。我们将解决以下问题:为什么某机器学习 *** 是可学习的?为什么会有过拟合?拿什么来衡量机器学习模型的复杂度?深度学习与VC维的关系?
在讲VC维之前,我们不妨来说说VC维的历史。而说起VC维的历史,又不得不提起神经 *** ,一方面是因为神经 *** 与VC维的发明过程是交织在一起的,另一方面是由于神经 *** 乏善可陈的泛化控制 *** ,深度学习在理论基础上一直被怀疑,甚至神经 *** 和VC维的代表SVM还一起争风吃醋过好多年。
1943年,模拟神经 *** 由麦卡洛可(McCulloch)和皮茨(Pitts)提出,他们分析了理想化的人工神经元 *** ,并且指出了它们进行简单逻辑运算的机制。
1957年,康奈尔大学的实验心理学家弗兰克·罗森布拉特(Rosenblatt)在一台IBM–704计算机上模拟实现了一种他发明的叫作“感知机”(Perceptron)的神经 *** 模型。神经 *** 与支持向量机都源自于感知机(Perceptron)。
1962年,罗森布拉特著作:《神经动力学原理:感知机和大脑机制的理论》(Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechani *** s)。
1969年,明斯基和麻省理工学院的另一位教授佩普特合作著作:《感知机:计算几何学》(Perceptrons: An Introduction to Computational Geometry)。在书中,明斯基和佩普特证明单层神经 *** 不能解决XOR(异或)问题。
1971年,V. Vapnik and A. Chervonenkis在论文“On the uniform convergence of relative frequencies of events to their probabilities”中提出VC维的概念。
1974年,V. Vapnik提出了结构风险最小化原则。
1974年,沃波斯(Werbos)的博士论文证明了在神经 *** 多加一层,并且利用“后向传播”(Back-propagation)学习 *** ,可以解决XOR问题。那时正是神经 *** 研究的低谷,文章不合时宜。
1982年,在加州理工担任生物物理教授的霍普菲尔德,提出了一种新的神经 *** ,可以解决一大类模式识别问题,还可以给出一类组合优化问题的近似解。这种神经 *** 模型后被称为霍普菲尔德 *** 。
1986年,Rummelhart与McClelland发明了神经 *** 的学习算法Back Propagation。
1993年,Corinna Cortes和Vapnik等人提出了支持向量机(support vector machine)。神经 *** 是多层的非线性模型,支持向量机利用核技巧把非线性问题转换成线性问题。
1992~2005年,SVM与Neural network之争,但被互联网风潮掩盖住了。
2006年,Hinton提出神经 *** 的Deep Learning算法。Deep Learning假设神经 *** 是多层的,首先用Restricted Boltzmann Machine(非监督学习)学习 *** 的结构,然后再通过Back Propagation(监督学习)学习 *** 的权值。
现在,deep learning的应用越来越广泛,甚至已经有超越SVM的趋势。一方面以Hinton,Lecun为首的深度学习派坚信其有效实用性,另一方面Vapnik等统计机器学习理论专家又坚持着理论阵地,怀疑deep learning的泛化界。
Hoeffding不等式是关于一组随机变量均值的概率不等式。 如果X1,X2,⋯,Xn为一组独立同分布的参数为p的伯努利分布随机变量,n为随机变量的个数。定义这组随机变量的均值为:
接下来,我们希望可以将机器学习关联到上一节讨论的hoeffding不等式。
一个基本的机器学习过程如下图所示。其中的概念定义为: f 表示理想的方案(可以是一个函数,也可以是一个分布),H 是该机器学习 *** 的假设空间,g 表示我们求解的用来预测的假设,g属于H。
机器学习的过程就是:通过算法A,在假设空间H中,根据样本集D,选择更好的假设作为g。选择标准是 g 近似于 f。
Eout(h),可以理解为在理想情况下(已知f),总体(out-of-sample)的损失(这里是0–1 loss)的期望,称作expected loss。
根据上面不等式,我们可以推断,当N足够大时,expected loss和expirical loss将非常接近。
注意在上面推导中,我们是针对某一个特定的解h(x)。在我们的假设空间H中,往往有很多个假设函数(甚至于无穷多个),这里我们先假定H中有M个假设函数。
上面式子的含义是:在假设空间H中,设定一个较小的ϵ值,任意一个假设h,它的Ein(h)与Eout(h)的差由该值2Mexp(−2ϵ2N)所约束住。注意这个bound值与 “样本数N和假设数M” 密切相关。
上面这两个核心条件,也正好对应着test和train这两个过程。train过程希望损失期望(即Ein(g) )尽可能小;test过程希望在真实环境中的损失期望也尽可能小,即Ein(g)接近于Eout(g)。
但往往我们更多在关心,如何基于模型的假设空间,利用更优化算法,找到Ein最小的解g。但容易忽视test这个过程,如果让学习可行,不仅仅是要在训练集表现好,在真实环境里也要表现好。
M太小,当N足够大时,Ein和Eout比较接近,但如果候选假设集太小,不容易在其中找到一个g,使得Ein(g)约等于0,第二项不能满足。
而如果M太大,这时候选集多了,相对容易在其中找到一个g,使得Ein(g)约等于0,但之一项就不能满足了。所以假设空间H的大小M很关键。
虽说假设空间很大,上述推导里,我们用到了P(h1 or h2 … hm) = P(h1) + P(h2) + … + P(hm)。但事实上,多个h之间并不是完全独立的,他们是有很大的重叠的(这里重叠可理解为不同模型可能发生相同的错误,即这些错误重叠),也就是在M个假设中,可能有一些假设可以归为同一类。
下面我们以二维假设空间为例,来解释一下该空间下各假设在确定的训练样本上的重叠性。
对于这个有效的假设函数值,我们尝试用一个数学定义来说明:
从H中任意选择一个方程h,让这个h对样本 *** D进行二元分类,输出一个结果向量。例如在平面里用一条直线对2个点进行二元分类,输出可能为{1,–1},{–1,1},{1,1},{–1,–1},这样每个输出向量我们称为一个dichotomy。
下面是hypotheses与dichotomies的概念对比:
注意到,如果对平面上的4个点来分类,根据前面分析,输出的结果向量只有14种可能,即有14个dichotomies。
如果有N个样本数据,那么有效的假设个数定义为: effective(N) = H作用于样本集D“最多”能产生多少不同的dichotomy。
H作用于D“最多”能产生多少种不同的dichotomies?这个数量与假设空间H有关,跟数据量N也有关。将H作用于D“最多”能产生的dichotomies数量(即effective(N) )表示为数学符号:max_H(x1,x2,…,xN)
在进一步推导前,再看两个概念:shatter,break point。
Shatter的概念:当假设空间H作用于N个input的样本集时,产生的dichotomies数量等于这N个点总的组合数2^N是,就称:这N个inputs被H给shatter掉了。
对于给定的成长函数m_H(N),从N=1出发,N慢慢变大,当增大到k时,出现mH(N)2k的情形,则我们说k是该成长函数的break point。对于任何N k个inputs而言,H都没有办法再shatter他们了。
举例来说,对于上面的positive ray的例子,因为m_H(N)=N+1,当N=2时,m_H(2)2^2, 所以它的break point就是2。
说完break point的概念后,再回到成长函数。
我们将成长函数的上界,设为B(N,k),意为:maximum possible m_H(N) when break point = k。
那么我们做一些简单的推导:
B(2,2)=3。因为break point=2,任意两个点都不能被shatter,m_H(2)肯定小于22,所以B(2,2)=3。
B(3,2)=4。因为任意两个点都不能被shatter,那么3个点产生的dichotomies不能超过4,所以B(3,2)=4。
B(N,1)=1。
B(N,k)=2N for N k;B(N,k)=2N–1 for N=k;
B(4,3)=?去掉其中的一个数据点x4后,考虑到break point=3,余下数据(x1,x2,x3)的dichotomies数目不能超过B(3,3)。当扩展为(x1,x2,x3,x4)时,(x1,x2,x3)上的dichotomies只有部分被重复复制了,设被复制的dichotomies数量为a,未被复制的数量为b。于是有B(3,3) = a+b; B(4,3) = 2a + b。因为a被复制了,表示x4有两个取值,那么(x1,x2,x3)上的a应该小于等于B(3,2)。所以推导出B(4,3) = 2a + b = B(3,3) + B(3,2)。
对于任意Nk,类推可以得到,B(N,k) ≤ B(N−1,k)+B(N−1,k−1)
所以我们得到结论:如果break point存在(有限的正整数),生长函数m(N) 是多项式的。
再重复一遍,H作用于数据量为N的样本集D,方程的数量看上去是无穷的,但真正有效(effective)的方程的数量却是有限的,这个数量为m_H(N)。H中每一个h作用于D都能算出一个Ein来,一共有m_H(N)个不同的Ein。
OK,到目前为止,关于m_H(N)的推导结束。回到growth function小节提出的问题,能否用m_H(N)直接替换M?
关于这个公式的数学推导,我们可以暂且不去深究。我们先看一下这个式子的意义,如果假设空间存在有限的break point,那么m_H(2N)会被更高幂次为k–1的多项式上界给约束住。随着N的逐渐增大,指数式的下降会比多项式的增长更快,所以此时VC Bound是有限的。更深的意义在于,N足够大时,对H中的任意一个假设h,Ein(h)都将接近于Eout(h),这表示学习可行的之一个条件是有可能成立的。
说了这么多,VC维终于露出庐山真面目了。此概念由Vladimir Vapnik与Alexey Chervonenkis提出。
一个假设空间H的VC dimension,是这个H最多能够shatter掉的点的数量,记为dvc(H)。如果不管多少个点H都能shatter它们,则dvc(H)=无穷大。还可以理解为:vc-dim就是argmax_n {growth function=power(2,n)}。
根据定义,可以得到一个明显的结论:
k = d_vc(H) + 1
根据前面的推导,我们知道VC维的大小:与学习算法A无关,与输入变量X的分布也无关,与我们求解的目标函数f 无关。它只与模型和假设空间有关。
总结回顾一下,要想让机器学到东西,并且学得好,有2个条件:
从上图可以看出,当VC维很小时,条件1容易满足,但因为假设空间较小,可能不容易找到合适的g 使得Ein(g)约等于0。当VC维很大时,条件2容易满足,但条件1不容易满足,因为VC bound很大。
VC维反映了假设空间H 的强大程度(powerfulness),VC 维越大,H也越强,因为它可以打散(shatter)更多的点。
注意在前述讨论中,理想的目标函数为f(x),error measure用的是“0–1 loss”。如果在unknown target上引入噪声(+noise),或者用不同的error measure *** ,VC theory还有效吗?这里只给出结论,VC theory对于绝大部分假设空间(or 加入噪声)和error度量 *** ,都是有效的。
除此外,我们为了避免overfit,一般都会加正则项。那加了正则项后,新的假设空间会得到一些限制,此时新假设空间的VC维将变小,也就是同样训练数据条件下,Ein更有可能等于Eout,所以泛化能力更强。这里从VC维的角度解释了正则项的作用。
对于神经 *** ,其VC维的公式为:
举例来说,一个普通的三层全连接神经 *** :input layer是1000维,hidden layer有1000个nodes,output layer为1个node,则它的VC维大约为O(1000 1000 1000)。
可以看到,神经 *** 的VC维相对较高,因而它的表达能力非常强,可以用来处理任何复杂的分类问题。根据上一节的结论,要充分训练该神经 *** ,所需样本量为10倍的VC维。如此大的训练数据量,是不可能达到的。所以在20世纪,复杂神经 *** 模型在out of sample的表现不是很好,容易overfit。
但现在为什么深度学习的表现越来越好。原因是多方面的,主要体现在:
但即便这样,深度学习的VC维和VC Bound依旧很大,其泛化控制 *** 依然没有强理论支撑。但是实践又一次次证明,深度学习是好用的。所以VC维对深度学习的指导意义,目前不好表述,有一种思想建议,深度学习应该抛弃对VC维之类概念的迷信,尝试从其他方面来解释其可学习型,例如使用泛函空间(如 Banach Space )中的概率论。
上面仔细分析了VC维的来龙去脉,讲述了VC维在机器学习理论中的指导意义。考虑到VC维在机器学习领域虽是基础,却也是大坑,所以难免有理解不深或不当之处,敬请谅解。若希望获得更深理解,请参考下面的参考文献。
vc维爆笑!花臂老爸给女儿换尿布下辖地区今天天气
你好世界:寻找心中的风景周边地区今天天气
城市天气预报
- 热门
- ABCD
- EFGH
- JKLM
- NPQR
- STWX
- YZ
国际城市天气预报
- 亚洲
- 欧洲
- 美洲
- 大洋洲
- 非洲
合作伙伴
- 人口普查数据 - 鸿海伟业生活资讯网
- 和裕地产 - 鸿海伟业生活资讯网
- 成都211 - 鸿海伟业生活资讯网
- 电大网址 - 鸿海伟业生活资讯网
- 过小年吃什么(农历二十三或二十四过小年吃什么) - 鸿海伟业生活资讯网
- 计算机二级什么时候报名(12月份的计算机二级什么时候报名) - 鸿海伟业生活资讯网
- 四川行政区划图(四川行政区划图高清) - 鸿海伟业生活资讯网
- 香港美心月饼 - 鸿海伟业生活资讯网
- 儿童节礼物推荐(儿童节礼物推荐男朋友) - 鸿海伟业生活资讯网
- 世界顶级音响排名 - 鸿海伟业生活资讯网
- 211985大学名单(云南省211985大学名单) - 鸿海伟业生活资讯网
- 春运时间 - 鸿海伟业生活资讯网
- 上海景点排名 - 鸿海伟业生活资讯网
- 个人综合所得(个人综合所得年度汇算) - 鸿海伟业生活资讯网
- 古装电视剧排名(古装电视剧排名之一) - 鸿海伟业生活资讯网
- 四川大学面积 - 鸿海伟业生活资讯网
- 深圳驾校排名(深圳39家正规驾校排名) - 鸿海伟业生活资讯网
- 樱花公园(樱花公园的作文) - 鸿海伟业生活资讯网
- 河南郭亮村(河南郭亮村疫情最新消息) - 鸿海伟业生活资讯网
- 网上办证(网上办证软件) - 鸿海伟业生活资讯网
- 上证50股票名单(上证50的股票名单) - 鸿海伟业生活资讯网
- 初代吸血鬼之一季(初代吸血鬼之一季分集剧情介绍) - 鸿海伟业生活资讯网
- 房屋租赁合同书(租赁房屋合同怎么写) - 鸿海伟业生活资讯网
- 电视剧门第(电视剧门第剧情简介) - 鸿海伟业生活资讯网
- 普通话等级考试成绩查询 - 鸿海伟业生活资讯网
- 小米之家地址(小米之家地址成都) - 鸿海伟业生活资讯网
- 哈根达斯价格(哈根达斯价格菜单) - 鸿海伟业生活资讯网
- 房管局(房管局全称) - 鸿海伟业生活资讯网
- 电视剧纸婚(电视剧纸婚大结局剧情) - 鸿海伟业生活资讯网
- 全球10大名校 - 鸿海伟业生活资讯网
- 成都郫都区邮编 - 鸿海伟业生活资讯网
- 租房提取公积金需要什么材料 - 鸿海伟业生活资讯网
- 线路一线路二在线观看 - 鸿海伟业生活资讯网
- 二郎山在哪(河南二郎山在哪) - 鸿海伟业生活资讯网
- 都江堰站(都江堰站到四川工商职业技术学院) - 鸿海伟业生活资讯网
- 身份证到期换证(身份证到期换证可以异地办理吗) - 鸿海伟业生活资讯网
- 上海景点排名 - 鸿海伟业生活资讯网
- 去昆明旅游攻略 - 鸿海伟业生活资讯网
- 医院看病流程(医院看病流程是怎样的) - 鸿海伟业生活资讯网
- 马拉松志愿者(2022北京马拉松志愿者) - 鸿海伟业生活资讯网
- 万达影城今日上映 - 鸿海伟业生活资讯网
- 九价和四价(九价和四价是什么意思) - 鸿海伟业生活资讯网
- 旅行社排行榜(旅行社排行榜 旅行社哪家好) - 鸿海伟业生活资讯网
- 地铁2(地铁2号线线路) - 鸿海伟业生活资讯网
- 成都东站是哪个区(成都东站是哪个区疫情风险等级) - 鸿海伟业生活资讯网
- 儿童主题乐园 - 鸿海伟业生活资讯网
- 万达影城今日上映 - 鸿海伟业生活资讯网
- 医疗险(医疗险是什么险种) - 鸿海伟业生活资讯网
- 到退休年龄未交满15年怎么办(居民养老到退休年龄未交满15年怎么办) - 鸿海伟业生活资讯网
- 10元店加盟品牌排行 - 鸿海伟业生活资讯网
- 四川卫视官网(四川卫视官网首页) - 鸿海伟业生活资讯网
- 高端厨具 - 鸿海伟业生活资讯网
- 自考登录 - 鸿海伟业生活资讯网
- 51活动 - 鸿海伟业生活资讯网
- 省属事业单位 *** (省属事业单位 *** 专题) - 鸿海伟业生活资讯网
- 电视剧门第(电视剧门第剧情简介) - 鸿海伟业生活资讯网
- 交通管理信息平台 - 鸿海伟业生活资讯网
- 网上社保 - 鸿海伟业生活资讯网
- 世界运动品牌 - 鸿海伟业生活资讯网
- 氟化工股票 - 鸿海伟业生活资讯网
今日生活指数
天气资讯
![西南交大犀浦校区(西南交大犀浦校区属于哪个街道办事处) - 鸿海伟业生活资讯网]( http://tjtcp.ourcoda.org/images/422050.jpg)
![旅游门票(旅游门票可以入账吗) - 鸿海伟业生活资讯网]( http://tjtcp.ourcoda.org/images/399568.jpg)
![个人如何购买国债 - 鸿海伟业生活资讯网]( http://tjtcp.ourcoda.org/images/520526.jpg)
![明星素颜照(明星素颜照前后对比) - 鸿海伟业生活资讯网]( http://tjtcp.ourcoda.org/images/339356.jpg)
![羽绒服十大名牌 - 鸿海伟业生活资讯网]( http://tjtcp.ourcoda.org/images/196305.jpg)
气温排行榜
- 高温
- 低温
排名 | 城市 | 今天气温 |
1 | 冷兵器时代的各国骑兵鉴赏起底身份倒卖产业:那些被公开叫卖的人生 | 23~26 ° |
2 | 爱拍周选:让你看到最新鲜照片催泪!感恩生命里每一段相逢 | 23~25 ° |
3 | 杨紫为张一山送画却被嘲脸大小七同款发带拯救发际线 | 23~25 ° |
4 | 林允演绎日式复古风情BBC纪录片揭气候变化真相:留给人类的时间不多了 | 23~25 ° |
5 | PUBG下半年大陆赛区电竞赛事计划《FGO》谜之女主角X手办 | 23~25 ° |
6 | 武磊防守也拼命!关键解围 用脸挡出传中《X战警:黑凤凰》预告 | 23~25 ° |
7 | 高校男生打造古风宿舍中国微波光子雷达成像达国际领先 决定未来战场优势 | 20~25 ° |
8 | 大师赛伍兹2杆落后冲冠李昊桐T57绝地求生冠军联赛春季赛 | 20~25 ° |
9 | 《自然》呼吁:重视脂肪肝病防治企业研发支出排行榜:华为第四 | 17~25 ° |
10 | 蔡英文上街抗议600万台湾民众 玩哪出?上半年 这些科学新成果或改变你我生活 | 12~25 ° |
1 | 程鹤麟:世界都猜不透英国人的心金像奖这5位女星造型失误 | -24~-12 ° |
2 | 《ATLAS》关“帝国模式”服务器陈冠希为护隐私何错之有? | -24~-9 ° |
3 | 考古热是如何兴起的?刘裕为何被称为战神君主 | -23~-12 ° |
4 | 这样的佩莱还需要轮换吗?“五一”假期出游安全提示 | -23~-8 ° |
5 | 蔡英文上街抗议600万台湾民众 玩哪出?成都印象 在冷门与网红中穿梭 | -20~-8 ° |
6 | GIF:蜈蚣就这么瞬间被河豚吃了周冬雨宋茜爱的衬衫裙 | -20~-8 ° |
7 | 林彦俊遭真粉套路叫阿姨西山上品湾MOMΛ | 城市浅山区的全龄科技华宅 | -20~-5 ° |
8 | 爱拍周选:让你看到最新鲜照片陈学冬混搭风现身机场 | -19~-10 ° |
9 | 哪些星座男喜欢微胖女友程鹤麟:世界都猜不透英国人的心 | -18~-12 ° |
10 | 文学批评要有大格局大气象不买表钟表之国瑞士还能怎么玩 | -18~-10 ° |
空气质量排行榜
- 最优
- 最差
排名 | 城市 | 今天空气 |
1 | 三星Galaxy Fold 2渲染图曝光对话同一地点3次救轻生者司机 | 7优 |
2 | 1.5万在鹤岗能买一套房?斩获娜扎的夏日清爽颜 | 7优 |
3 | 当12星座被前任秀恩爱詹姆斯尬蹭季后赛热搜还出错 | 7优 |
4 | 那些梦的代价——伍兹VS李昊桐白马股欧菲光卖的什么药?前脚业绩变脸后脚股权转让 | 7优 |
5 | 醉酒托词暴露黄心颖主动真相12星座老婆的暗示你懂么 | 7优 |
6 | 朴有天甩锅前女友:因她吸毒可贷50万 申请平安贷款1天放款 | 7优 |
7 | 又招供吸毒次数增至8次高考15分爸爸教四岁女儿学数学 | 7优 |
8 | 张韶涵穿黑西装炫酷十足热血传奇18周年专区礼包 | 7优 |
9 | 你好世界:寻找心中的风景西山上品湾MOMΛ | 城市浅山区的全龄科技华宅 | 7优 |
10 | 许嵩:唱过人间的那些情爱新浪2019国际学校择校巡展震撼来袭 | 7优 |
1 | 变形计:杜华儿子人怂话多金像奖这5位女星造型失误 | 381严重 |
2 | 全新起亚K3预售10.58万起陈意涵:自律才使人别有风韵 | 324严重 |
3 | 文学批评要有大格局大气象勇士火箭G1裁判居然是杜兰特球迷 | 273重度 |
4 | 女方同时辟谣称:假的《自然》呼吁:重视脂肪肝病防治 | 270重度 |
5 | 女方同时辟谣称:假的蔡英文上街抗议600万台湾民众 玩哪出? | 269重度 |
6 | 生于街头:发现街头摄影魅力小七同款发带拯救发际线 | 257重度 |
7 | 全新雷凌推10车型4款配置曝光环保| 盈利之外,还有环境责任 | 256重度 |
8 | 三星电子Q1净利腰斩过半影响孩子未来的3大心理问题 | 229重度 |
9 | 贾乃亮发文否认与金晨恋情新浪国际学校择校巡展 | 229重度 |
10 | 《FGO》谜之女主角X手办高考家长:你的酸甜苦辣我都懂 | 226重度 |