如何通俗的解释机器学习的10大算法?



作者:OVERLORD
来源:悟空问答

由于机器学习的十个算法内容比较多,我的回答篇幅会较长些,我尽量浓缩每个知识点,欢迎各位讨论指点。

算法一:逻辑回归

逻辑回归模型算法是一种被广泛使用的分类算法,通过训练数据中的正负样本,学习样本特征到样本标签之间的假设函数,逻辑回归模型是典型的线性分类器,由于算法复杂读低、容易实现等特点,在工业界得到广泛的应用。如:利用逻辑回归实现广告的点击率预估。

算法二:支持向量机(SVM)

支持向量机是由Vapnik等人于1995年提出来的,之后随着统计理论的发展,支持向量机SVM也逐渐受到了各领域研究者的关注,在很短的时间就得到了很广泛的应用。从目前实现和工业应用情况看,SVM是被公认的比较优秀的分类模型。

算法三:集成学习

  集成学习就是将很多分类器集成在一起,每个分类器有不同的权重,将这些分类器的分类结果合并在一起,作为最终的分类结果。最初集成方法为贝叶斯决策,现在多采用error-correcting output coding, bagging, and boosting等方法进行集成。

算法四:聚类算法

聚类算法是典型的无监督学习,其训练样本中只包含样本的特征,不包含样本的标签信息,在聚类算法中,利用样本的特征,将具有相似属性的样本划分到同一个类别中。

算法五:决策树

决策树是人类在思考过程中最常用的逻辑结构,映射到机器学习问题上,在分类问题中,决策树算法通过样本中某一纬属性的值,将样本划分到不同的类别中。是基于树形结构进行决策的一种分类算法。

算法六:朴素贝叶斯分类器

朴素贝叶斯分类是一种十分简单的分类算法,一个含有贝叶斯思想的例子可以这样。你在路上看到一个黑人且比较高,你十有八九猜他是从非洲来的。

因为在没有其他可用信息的前提下,一般来说大部分非洲人符合这种特征,所以你会选择最大概率是非洲人,这种思想就是贝叶斯思想。

算法七:主成分分析(PCA)

主成分分析(PCA)是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中表示,并期望在所投影的维度上数据的方差最大,以此使用较少的数据维度,同时保留住较多的原数据点的特性。

算法八:最小二乘法

最小二乘法可以说是在我们数学课程学习过程中肯定会涉及到的一个算法,这个算法的核心思想在于怎么尽量把各个离散的点拟合在一起,通过各个点到拟合线段的最小距离,最后就能得到一个最优的拟合函数。

算法九:SVD矩阵分解

SVD矩阵分解算法是一个比较复杂压缩过程,给定一个m 行、n列的矩阵M,那么M矩阵可以分解为M = UΣV。U和V是酉矩阵,Σ为对角阵。PCA实际上就是一个简化版本的SVD分解,核心思想就是想把挑选特征明显的、显得比较重要的信息保留下来。

算法十:独立成分分析(ICA)

ICA是一门统计技术,用于发现存在于随机变量下的隐性因素。举个简单的例子,在一个大厅里,有n个人在随机聊天。在大厅的不同角落,布置n个麦克风记录大厅的声音,每秒一个记录,一共记录m秒。麦克风记录的混合声音,多个麦克风记录不同位置的混合声音。ICA的目标,就是从混声录音中将每个人的声音分离出来。

如果你对学习人工智能和科技新闻感兴趣,可以订阅我的头条号,我会在这里发布所有与算法、机器学习以及深度学习有关的有趣文章。偶尔也回答有趣的问题,有问题可随时在评论区回复和讨论,看到即回。


0