机器学习入门之《统计学习方法》笔记整理——逻辑斯蒂回归

逻辑回归(logistic regression)是统计学习中的经典分类方法。其多用在二分类{0,1}问题上。最大嫡是概率模型学习的一个准则将其推广到分类问题得到最大熵模型(maximum entropy model)。逻辑回归模型与最大熵模型都属于对数线性模型。

机器学习入门之《统计学习方法》笔记整理——逻辑斯蒂回归
机器学习入门之《统计学习方法》笔记整理——K近邻算法

k近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例,这K个实例的多数属于某个类,就把该输入实例分类到这个类中。

机器学习入门之《统计学习方法》笔记整理——K近邻算法
机器学习入门之《统计学习方法》笔记整理——决策树

决策树是一种基本的分类和回归算法。 决策树模型呈树形结构,可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。 决策树模型由结点和有向边组成,结点分为内部结点和叶结点,内部结点表示特征,叶结点表示类,有向边表示某一特征的取值。

机器学习入门之《统计学习方法》笔记整理——决策树
机器学习入门之《统计学习方法》笔记整理——最大熵模型

最大熵原理是概率模型学习的一个准则,最大熵原理认为,学习概率模型时,在所有的可能的概率模型中,熵最大的模型是最好的模型。通常用约束条件来确定概率模型的集合,所以,熵最大原理也可以描述为在满足约束条件的模型集合中选取熵最大的模型。

机器学习入门之《统计学习方法》笔记整理——最大熵模型
机器学习入门之《统计学习方法》笔记整理——支持向量机

支持向量机(support vector machines, SVM)是一种二类分类模型。它的基本模型是定义在特征空间上的间隔最大的线性分类器;支持向量机还包括核技巧,这使它成为实质上的非线性分类器。支持向量机的学习策略就是间隔最大化,可形式化为一个求解凸二次规划(convex quadratic programming)的问题,也等价于正则化的合页损失函数的最小化问。支持向量机的学习算法是**求解凸二次规划的最优化算法。

机器学习入门之《统计学习方法》笔记整理——支持向量机