User Tools

Site Tools


keynote:lesson04

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
Next revision Both sides next revision
keynote:lesson04 [2010/03/31 21:13]
hongxin
keynote:lesson04 [2010/06/20 16:15]
10921021
Line 2: Line 2:
 ====== 4.1 聚类 ====== ====== 4.1 聚类 ======
 ===== 4.1.1 聚类的简介 =====  ===== 4.1.1 聚类的简介 ===== 
-**1.定义** +====1.定义==== 
 聚类是将数据点集分成由类似的点组成的多个类的过程,它是一种非监督的学习过程。\\ 聚类是将数据点集分成由类似的点组成的多个类的过程,它是一种非监督的学习过程。\\
 {{:​keynote:​11.jpg}} ​ {{:​keynote:​11.jpg}} ​
  
-**2.聚类与分类的区别**+====2.聚类与分类的区别====
     * **聚类**     * **聚类**
         * 实例: $\{ {\mathbf{x}}\}_{i=1}^N $          * 实例: $\{ {\mathbf{x}}\}_{i=1}^N $ 
Line 17: Line 17:
 <note tip> 聚类所要求划分的类是未知的。</​note>​ <note tip> 聚类所要求划分的类是未知的。</​note>​
   ​   ​
-**3.聚类的应用**+====3.聚类的应用====
 聚类方法可以运用于图像分割领域,​ 下图就是两个运用Mean-shift方法作图像分割的例子。\\ 聚类方法可以运用于图像分割领域,​ 下图就是两个运用Mean-shift方法作图像分割的例子。\\
  ​{{:​keynote:​14.jpg}} \\  ​{{:​keynote:​14.jpg}} \\
Line 23: Line 23:
  
 ===== 4.1.2 几种聚类方法 ===== ===== 4.1.2 几种聚类方法 =====
-**1.层次(从顶到下)聚类**+==== 1.层次(从顶到下)聚类 ​====
   * **__思想__:** 顺序地将最近的两个点/​类合并;   * **__思想__:** 顺序地将最近的两个点/​类合并;
   * **__具体过程__**   * **__具体过程__**
Line 33: Line 33:
          - 单点距离: ​ \[ d_{kl} = min_{x_i \in C_k, x_j \in C_l} d(x_i, d_j)\]          - 单点距离: ​ \[ d_{kl} = min_{x_i \in C_k, x_j \in C_l} d(x_i, d_j)\]
          - 平均点距离:\[ d_{kl} = \frac{1}{ |C_k| + |C_l| } \sum_{x_i \in C_k, x_j \in C_l} {d(x_i, d_j)} \]          - 平均点距离:\[ d_{kl} = \frac{1}{ |C_k| + |C_l| } \sum_{x_i \in C_k, x_j \in C_l} {d(x_i, d_j)} \]
-         - 质心距离: ​ \[ d_{kl} = d(c_l, c_k), c_l = \frac{1}{ |C_k|  } \sum_{x_i \in C_l} {x_i} \]+         - 质心距离: ​ \[ d_{kl} = d(c_l, c_k), c_k = \frac{1}{ |C_k|  } \sum_{x_i \in C_k} {x_i} \]
  
   * **__层次聚类的树形图表示__** ​     * **__层次聚类的树形图表示__** ​  
Line 40: Line 40:
   * 其中,每一对数据点之间的高度为两个类之间的距离。   * 其中,每一对数据点之间的高度为两个类之间的距离。
  
-**2.频谱聚类**+==== 2.频谱聚类 ​====
   * **__三要素__**   * **__三要素__**
     - 最近点邻接图{{:​keynote:​22.jpg|}};     - 最近点邻接图{{:​keynote:​22.jpg|}};
Line 57: Line 57:
   * **__频谱聚类的实例__**   * **__频谱聚类的实例__**
   * {{:​keynote:​29.jpg|}}   * {{:​keynote:​29.jpg|}}
-* **3.Flat聚类方法** + 
-    - **K-means聚类**+==== 3.Flat聚类方法 ​==== 
 +=== 1.K-means聚类 ​===
       * **__思想__**       * **__思想__**
-      * {{:​keynote:​30.jpg|Unordered List Item}}+      * {{:​keynote:​30.jpg|}}
       * **__具体过程__**       * **__具体过程__**
-      * {{:​keynote:​31.jpg|Unordered List Item}} +      * {{:​keynote:​31.jpg|}} 
-    - **混合高斯聚类** +=== 2.混合高斯聚类 ​===
-<note important>​ Revised by Zhang Xiaoli(张晓丽),​ <​zhangxiaoli@zjucadcg.cn>​ </​note>​+
  
 +K-means 是一种 hard-assign 的聚类方法,就是说,在 K-means 中一个数据点“确定地”属于某一个类别,而混合高斯聚类(Gaussian Mixture Model, GMM)中则采用了一种 soft-assign 的方法,它并不确定地将一个数据点划分到某个类别,而是给出了该点属于不同类别的概率,一方面,我们可以直接选取概率最大的那个分类,进行 hard-assign ,另一方面,由于有了概率信息,我们通常可以做更多的事情,例如拒绝处理“模糊不清”的边界点等等。
  
 +具体来说,GMM 假设数据是服从一个混合高斯分布,也就是许多个独立的高斯模型的加权,聚类的过程实际上就是对这个 model 进行 fitting 的过程,恢复出各个高斯模型的参数之后,每个数据点属于该类别的概率也就很自然地使用该高斯模型生成这个数据的概率来表示了。通常我们都使用最大似然的方式来对概率模型进行 fitting ,但是混合高斯模型由于对多个高斯分布进行加权,结果的概率式子很难解析地或者直接地求得最大似然的解,所以在计算的过程中采用了分布迭代的过程,具体是使用了一种叫做 Expectation Maximization (EM) 的方法,进行迭代求解。
  
 +GMM 有一些缺点,比如有时候其中一个 Gaussian component 可能会被 fit 到一个很小的范围内的点或者甚至单个数据点上,这种情况被称作 degeneration ,这个时候该模型的协方差矩阵会很小,而那里的概率值会变得非常大甚至趋向于无穷,这样一来我们可以得到极大的似然值,但是这样的情况通常并没有什么实际用处。解决办法通常是给模型参数加上一些先验约束,或者显式地检测和消除 degeneration 的情况。
  
 +另一个比较明显的缺点就是 GMM 模型中需要 fit 的参数非常多,特别是在维度较高的时候,协方差矩阵中需要 fit 的参数就极具增加了,这样的结果通常会导致很严重的 overfitting ,陷入唯独灾难中。一些可能的解决办法是限制协方差矩阵的结构,从而降低参数的个数。
  
 +<note important>​ Revised by Zhang Xiaoli(张晓丽),​ <​zhangxiaoli@zjucadcg.cn>​ </​note>​
 +<note important>​Extended by  --- //​[[pluskid@gmail.com|张驰原]] 2010/04/26 14:53// GMM</​note>​
  
   ​   ​
Line 233: Line 239:
 **Viterbi 算法**(N是状态数目,T是序列长度)\\ **Viterbi 算法**(N是状态数目,T是序列长度)\\
 初始化: ​ 初始化: ​
-\[ \delta_1(i)=a_{oi}b_i(O_1) $\psi_1(i)=0\]+\[ \delta_1(i)=a_{oi}b_i(O_1) ​\psi_1(i)=0 \]
 递归: 递归:
 \[\delta_t(j)=max_i[\delta_{i-1}(i)a_{ij}]b_j(O_t) \qquad t=2,…T \qquad j=1…N \] \[\delta_t(j)=max_i[\delta_{i-1}(i)a_{ij}]b_j(O_t) \qquad t=2,…T \qquad j=1…N \]
Line 393: Line 399:
  
 {{:​keynote:​qfqf23.jpg|}}\\ {{:​keynote:​qfqf23.jpg|}}\\
 +<note important>​ Revised by Feiwei Qin(秦飞巍),​ <​qinfeiwei@zjucadcg.cn>​ </​note>​
 +
  
  
keynote/lesson04.txt · Last modified: 2023/08/19 21:02 (external edit)