无监督学习方法总结

   日期:2020-05-08     浏览:108    评论:0    
核心提示:文章目录1. 无监督学习方法的关系和特点1.1 各种方法之间的关系1.2 无监督学习方法1.3 基础人工智能

文章目录

    • 1. 无监督学习方法的关系和特点
      • 1.1 各种方法之间的关系
      • 1.2 无监督学习方法
      • 1.3 基础机器学习方法

1. 无监督学习方法的关系和特点

八种常用的统计机器学习方法:

  • 聚类方法(层次聚类、k均值聚类)
  • 奇异值分解(SVD)
  • 主成分分析(PCA)
  • 潜在语义分析(LSA)
  • 概率潜在语义分析(PLSA)
  • 马尔可夫链蒙特卡罗法(MCMC,包括Metropolis-Hastings算法、吉布斯抽样)
  • 潜在狄利克雷分配(LDA)
  • PageRank算法

三种常用的统计机器学习方法,非负矩阵分解(NMF)、变分推理、幂法
这些方法通常用于无监督学习的 聚类、降维、话题分析、图分析

1.1 各种方法之间的关系

1.2 无监督学习方法

  • 聚类有硬聚类和软聚类,层次聚类、k均值聚类是硬聚类方法
  • 高斯混合模型是软聚类方法
  • 层次聚类基于启发式算法,k均值聚类基于迭代算法,高斯混合模型学习通常基于EM算法
  • 降维有线性降维和非线性降维,PCA是线性降维方法。PCA基于SVD
  • 话题分析兼有聚类降维特点,有非概率模型、概率模型
  • LSA、NMF是非概率模型,PLSA、LDA是概率模型
  • PLSA不假设模型具有先验分布,学习基于极大似然估计
  • LDA假设模型具有先验分布,学习基于贝叶斯学习,具体地后验概率估计
  • LSA的学习基于SVD,NMF可以直接用于话题分析
  • PLSA的学习基于EM算法
  • LDA的学习基于吉布斯抽样或变分推理
  • 图分析的一个问题是链接分析,即结点的重要度计算
  • PageRank是链接分析的一个方法。PageRank通常基于幂法

1.3 基础机器学习方法

  • 矩阵分解基于不同假设:SVD基于正交假设,即分解得到的左右矩阵是正交矩阵,中间矩阵是非负对角矩阵
  • 非负矩阵分解基于非负假设,即分解得到的左右矩阵皆是非负矩阵
  • 含有隐变量的概率模型的学习有两种方法:迭代计算方法、随机抽样方法
  • EM算法 和 变分推理(包括变分EM算法)属于迭代计算方法
  • 吉布斯抽样 属于随机抽样方法
  • 变分EM算法是EM算法的推广
  • 矩阵的特征值与特征向量求解方法中,幂法是常用的算法
 
打赏
 本文转载自:网络 
所有权利归属于原作者,如文章来源标示错误或侵犯了您的权利请联系微信13520258486
更多>最近资讯中心
更多>最新资讯中心
0相关评论

推荐图文
推荐资讯中心
点击排行
最新信息
新手指南
采购商服务
供应商服务
交易安全
关注我们
手机网站:
新浪微博:
微信关注:

13520258486

周一至周五 9:00-18:00
(其他时间联系在线客服)

24小时在线客服