03
—
GMM给出属于每个类的得分值
现在,货运公司帮我们拉来了一大车苹果,并告知我们这批苹果是从烟台,威海,青岛拉过来的,现在车上的这些都混合到一起了,并且给了我们一张表格,详细的记录每个苹果的质量得分,最好的为1.0,最次的接近0.0,并且大致上,烟台的苹果质量是最好的,威海的其次,青岛的最次。
根据这些信息,检验员想着如何对它们分类,哪些苹果来自于烟台,哪些来自威海,哪些来自青岛呢,这是一个典型的高斯混合模型,那么GMM最终预测的结果是什么? 注意GMM最终预测会得到每个数据(苹果)属于每个类别的概率值,而不是简单的属于谁。GMM会分析得出苹果k来自烟台的概率为0.8,来自威海的概率为0.12,自然来自青岛的概率为0.08,然后根据概率最大的原则确定来自于哪,对于这个苹果k,很确定的说来自于烟台吧。
这种能得出一个概率值是由很大好处的,因为概率值我们可以转化为一个得分值,比单纯的得出一个Bool型的值要好,尤其是在某些特殊场合,GMM的意义会更为凸显。
假如一个检测报告出来的结果:某项体侧正常;另外一家医院给同一个人做同样的检测出来的报告:51%正常。你说谁的预测更全面,当然是后者,因为49%的可能性意味着不正常,有可能是亚健康吧,这时候可以早发现早治疗呀,比第一家只告诉你正常好吧,你还以为自己99%健康的,结果再去胡吃海塞,导致机体。。。
04
—
GMM理论分析
一般地,假设高斯混合模型由 个高斯分布组成,每个高斯分布称为一个component,这些 component 线性组合在一起就构成了高斯混合模型的概率密度函数:
上式就是GMM的概率密度函数,可以看到它是K个高斯模型的线性叠加,其中每个高斯分布对GMM整体的概率密度所做的贡献为系数 。
还记得在最大期望讲解时,用到了来自于烟台和威海两处的苹果好坏的二项分布的各自的参数求解过程吧。现在GMM只不过比这个例子多一些子模型,并且那个例子是二项分布,现在这个例子component是连续型随机变量的高斯分布。但是,它们之间是有很多相似的,可以结合起来理解。
05
—
展望
GMM的概率密度函数模型,我们已经确定了,下一步该确定上面的3个参数了吧。已知的条件:一堆数据。一般地,根据数据确定分布参数的利器是最大似然估计吧,GMM这里求解参数也不列外,不过,GMM首先要确定数据样本 x 来自于component k的概率(和威海烟台苹果好坏的EM算法差不多),也可以理解为样本 x 对component k做的贡献,并且component k 又对整体的GMM做贡献,这样间接地样本 x 对整体的GMM做了一些贡献(有点链式的感觉),这样带出了;然后再用最大似然估计确定所有的样本点对component k 的影响进而获得分布参数:均值和方差,一共确定这3个参数吧。
可以看到,确定以上3个参数的过程和EM算法是非常相似的。等我们拿到这3个参数后,我们就能得到结果了:最终会得到 N个样本点,每个样本点属于K个component的概率,(N,K)的二维数组。
预知这3个参数的求解过程,请关注明天的推送! 谢谢您的阅读!
来源: https://mp.weixin.qq.com/s?__biz=MzI3NTkyMjA4NA==&mid=2247484352&idx=1&sn=fe344b7898f3f1d8a73b862f18bab688&chksm=eb7c2e0bdc0ba71d7fed9259586faabb069e8ff7909d248f7f72ed3bfed6cd8f83de4a31c381#rd