master
aolingwen 5 years ago
parent 07f0574513
commit f81049b827

@ -1,31 +1,31 @@
# 以距离为尺-AGNES算法
AGNES 算法是一种聚类算法,最初将每个对象作为一个簇,然后这些簇根据某些距离准则被一步步地合并。两个簇间的相似度有多种不同的计算方法。聚类的合并过程反复进行直到所有的对象最终满足簇数目。所以理解 AGNES 算法前需要先理解一些距离准则。
`AGNES`算法是一种聚类算法,最初将每个对象作为一个簇,然后这些簇根据某些距离准则被一步步地合并。两个簇间的相似度有多种不同的计算方法。聚类的合并过程反复进行直到所有的对象最终满足簇数目。所以理解`AGNES`算法前需要先理解一些距离准则。
# 距离准则
## 为什么需要距离
AGNES 算法是一种自底向上聚合的层次聚类算法它先会将数据集中的每个样本看作一个初始簇然后在算法运行的每一步中找出距离最近的两个簇进行合并直至达到预设的簇的数量。所以AGNES算法需要不断的计算簇之间的距离这也符合聚类的核心思想物以类聚人以群分因此怎样度量两个簇之间的距离成为了关键。
`AGNES`算法是一种自底向上聚合的层次聚类算法它先会将数据集中的每个样本看作一个初始簇然后在算法运行的每一步中找出距离最近的两个簇进行合并直至达到预设的簇的数量。所以AGNES算法需要不断的计算簇之间的距离这也符合聚类的核心思想物以类聚人以群分因此怎样度量两个簇之间的距离成为了关键。
## 距离的计算
衡量两个簇之间的距离通常分为最小距离、最大距离和平均距离。在 AGNES 算法中可根据具体业务选择其中一种距离作为度量标准。
衡量两个簇之间的距离通常分为最小距离、最大距离和平均距离。在`AGNES`算法中可根据具体业务选择其中一种距离作为度量标准。
### 最小距离
最小距离描述的是两个簇之间距离最近的两个样本所对应的距离。例如下图中圆圈和菱形分别代表两个簇,两个簇之间离得最近的样本的**欧式距离**为 3.3 ,则最小距离为 3.3
最小距离描述的是两个簇之间距离最近的两个样本所对应的距离。例如下图中圆圈和菱形分别代表两个簇,两个簇之间离得最近的样本的**欧式距离**为`3.3`,则最小距离为`3.3`
<div align=center><img src="../img/59.jpg"/></div>
<div align=center><img src="./img/59.jpg", height="200" width="300"/></div>
假设给定簇$$C_i$$与$$C_j$$,则最小距离为:$$d_{min}=min_{x\in i,z\in j}dist(x,z)$$
### 最大距离
最大距离描述的是两个簇之间距离最远的两个样本所对应的距离。例如下图中圆圈和菱形分别代表两个簇,两个簇之间离得最远的样本的**欧式距离**为 23.3 ,则最大距离为 23.3
最大距离描述的是两个簇之间距离最远的两个样本所对应的距离。例如下图中圆圈和菱形分别代表两个簇,两个簇之间离得最远的样本的**欧式距离**为`23.3`,则最大距离为`23.3`
<div align=center><img src="../img/60.jpg"/></div>
<div align=center><img src="./img/60.jpg", height="200" width="300"/></div>
假设给定簇$$C_i$$与$$C_j$$,则最大距离为:$$d_{min}=max_{x\in i,z\in j}dist(x,z)$$
@ -33,13 +33,13 @@ AGNES 算法是一种自底向上聚合的层次聚类算法,它先会将数
平均距离描述的是两个簇之间样本的平均距离。例如下图中圆圈和菱形分别代表两个簇,计算两个簇之间的所有样本之间的欧式距离并求其平均值。
<div align=center><img src="../img/61.jpg"/></div>
<div align=center><img src="./img/61.jpg", height="200" width="300"/></div>
假设给定簇$$C_i$$与$$C_j$$$$|C_i|,|C_j|$$分别表示簇 i 与簇 j 中样本的数量,则平均距离为:$$d_{min}=\frac{1}{|C_i||C_j|}\sum_{x\in i}\sum_{z\in j}dist(x, z)$$
# AGNES 算法流程
AGNES 算法是一种自底向上聚合的层次聚类算法,它先会将数据集中的每个样本看作一个**初始簇**,然后在算法运行的每一步中找出距离最近的两个簇进行合并,直至达到预设的簇的数量。
`AGNES`算法是一种自底向上聚合的层次聚类算法,它先会将数据集中的每个样本看作一个**初始簇**,然后在算法运行的每一步中找出距离最近的两个簇进行合并,直至达到预设的簇的数量。
举个例子,现在先要将西瓜数据聚成两类,数据如下表所示:
@ -51,21 +51,21 @@ AGNES 算法是一种自底向上聚合的层次聚类算法,它先会将数
| 4 | 3.5 | 6.9 |
| 5 | 1.5 | 2.5 |
一开始,每个样本都看成是一个簇( 1 号样本看成是 1 号簇, 2 号样本看成是 2 号簇,... 5 号样本看成是 5 号簇),假设簇的集合为 C=\[[1], [2], [3], [4], [5]]
一开始,每个样本都看成是一个簇(`1`号样本看成是`1`号簇,`2`号样本看成是`2`号簇,...`5`号样本看成是`5`号簇),假设簇的集合为`C=[[1], [2], [3], [4], [5]]`
假设使用簇间最小距离来度量两个簇之间的远近,从表中可以看出 1 号簇与 3 号簇的簇间最小距离最小。因此需要将 1 号簇和 3 号簇合并,那么此时簇的集合 C=\[[1, 3], [2], [4], [5]]
假设使用簇间最小距离来度量两个簇之间的远近,从表中可以看出 `1`号簇与`3`号簇的簇间最小距离最小。因此需要将`1`号簇和`3`号簇合并,那么此时簇的集合`C=[[1, 3], [2], [4], [5]]`
然后继续看这 4 个簇中哪两个簇之间的最小距离最小,我们发现 2 号簇与 4 号簇的最小距离最小,因此我们要进行合并,合并之后 C=\[[1, 3], [2, 4], [5]]
然后继续看这`4`个簇中哪两个簇之间的最小距离最小,我们发现 `2`号簇与`4`号簇的最小距离最小,因此我们要进行合并,合并之后`C=[[1, 3], [2, 4], [5]]`
然后继续看这 3 个簇中哪两个簇之间的最小距离最小,我们发现 5 号簇与 [1, 3] 簇的最小距离最小,因此我们要进行合并,合并之后 C=\[[1, 3, 5], [2, 4]]
然后继续看这`3`个簇中哪两个簇之间的最小距离最小,我们发现 `5`号簇与`[1, 3]`簇的最小距离最小,因此我们要进行合并,合并之后`C=[[1, 3, 5], [2, 4]]`
这个时候 C 中只有两个簇了,达到了我们的预期目标(想要聚成两类),所以算法停止。算法停止后会发现,我们已经将 5 个西瓜,聚成了两类,一类是小西瓜,另一类是大西瓜。
这个时候`C`中只有两个簇了,达到了我们的预期目标(想要聚成两类),所以算法停止。算法停止后会发现,我们已经将`5`个西瓜,聚成了两类,一类是小西瓜,另一类是大西瓜。
如果将整个聚类过程中的合并,与合并的次序可视化出来,就能看出为什么说 AGNES 是自底向上的层次聚类算法了。
如果将整个聚类过程中的合并,与合并的次序可视化出来,就能看出为什么说`AGNES`是自底向上的层次聚类算法了。
<div align=center><img src="../img/62.jpg"/></div>
<div align=center><img src="./img/62.jpg", height="200" width="300"/></div>
所以 AGNES 伪代码如下:
所以`AGNES`伪代码如下:
```python
#假设数据集为D想要聚成的簇的数量为k

@ -1,4 +1,21 @@
本资料主要介绍一些机器学习的入门知识,例如什么是机器学习,常见的机器学习算法原理,常用的模型性能评估指标,怎样快速入门 sklearn 等内容。
# 前言
机器学习(`Machine Learning`)是一门多领域交叉学科,涉及概率论、统计学、最优化、算法复杂度理论等多个学科方向。专门研究如何借助计算机模拟实现人类的学习行为,以获取新的知识或技能,或者更好地组织已有的知识结构。机器学习是人工智能的核心,是使计算机具有智能的根本途径之一,其应用遍及人工智能的各个领域。
机器学习正在迅速改变我们的世界,我们几乎每天都会看到机器学习如何改变日常的生活。如果你在淘宝或者京东这样的电商平台购买商品,或者只是进行一次百度搜索,就已经触碰到了机器学习的应用。使用这些服务的用户会产生数据,这些数据会被手机,在进行预处理之后用来训练模型,而模型会通过这些数据来提供更好的用户体验。此外,还有很多使用机器学习技术的产品或服务即将在我们的生活当中普及。可以说如果想要深入机器学习的应用开发当中,现在是一个非常理想的时机。
# 说明
本书主要介绍一些机器学习的入门知识,例如什么是机器学习,常见的机器学习算法原理,常用的模型性能评估指标,怎样快速入门`sklearn`等内容。
若想更加全面,系统的学习机器学习相关知识,可以在本书的最后扫码体验整套机器学习实训课程。该课程是与南京大学合作共建的实训课程,总共有`65`个实践任务,涵盖了《机器学习》中的前十章内容,并已在南京大学投入使用。可以通过扫码查看整套课程。
<div align=center><img src="./img/1562573820.png", height="250" width="250"/></div>
若想更加全面,系统的学习机器学习相关知识,可以在本书的最后扫码体验整套机器学习实训课程。该课程是与南京大学合作共建的实训课程,总共有 65 个实践任务,涵盖了《机器学习》中的前十章内容,并已在南京大学投入使用。

@ -1,30 +1,35 @@
# 机器学习
* [简介](README.md)
* [机器学习概述](machine_learning.md)
* [常见机器学习算法](algorithm.md)
* [近朱者赤近墨者黑-kNN](kNN.md)
* [最简单的回归算法-线性回归](linear_regression.md)
* [使用回归的思想进行分类-逻辑回归](logistic_regression.md)
* [最接近人类思维的算法-决策树](decision_tree.md)
* [群众的力量是伟大的-随机森林](random_forest.md)
* [物以类聚人以群分-kMeans](kMeans.md)
* [以距离为尺-AGNES](AGNES.md)
* [模型评估指标](metrics.md)
* [分类性能评估指标](classification_metrics.md)
* [回归性能评估指标](regression_metrics.md)
* [聚类性能评估指标](cluster_metrics.md)
* [使用sklearn进行机器学习](sklearn.md)
* [综合实战案例]()
* [泰坦尼克生还预测]()
* [简介](./titanic/introduction.md)
* [探索性数据分析(EDA)](./titanic/EDA.md)
* [特征工程](./titanic/feature engerning.md)
* [构建模型进行预测](./titanic/fit and predict.md)
* [调参](./titanic/tuning.md)
* [使用强化学习玩乒乓球游戏]()
* [什么是强化学习](./pingpong/what is reinforce learning.md)
* [Policy Gradient原理](./pingpong/Policy Gradient.md)
* [使用Policy Gradient玩乒乓球游戏](./pingpong/coding.md)
* [第1章机器学习概述](machine_learning.md)
* [1.1 什么是机器学习](what's machine_learning.md)
* [1.2 机器学习常见术语](some term.md)
* [1.3 机器学习项目流程](work flow.md)
* [第2章常见机器学习算法](algorithm.md)
* [2.1 kNN](kNN.md)
* [2.2 线性回归](linear_regression.md)
* [2.3 逻辑回归](logistic_regression.md)
* [2.4 多分类学习](multi-class-learning.md)
* [2.5 决策树](decision_tree.md)
* [2.6 随机森林](random_forest.md)
* [2.7 朴素贝叶斯分类器](bayes.md)
* [2.8 支持向量机](svm.md)
* [2.9 kMeans](kMeans.md)
* [2.10 AGNES](AGNES.md)
* [第3章模型评估指标](metrics.md)
* [3.1 常用分类性能评估指标](classification_metrics.md)
* [3.2 常用回归性能评估指标](regression_metrics.md)
* [3.3 常用聚类性能评估指标](cluster_metrics.md)
* [第4章使用sklearn进行机器学习](sklearn.md)
* [第5章综合实战案例](xx introduction.md)
* [5.1 泰坦尼克生还预测](./titanic/introduction.md)
* [5.1.1 探索性数据分析(EDA)](./titanic/EDA.md)
* [5.1.2 特征工程](./titanic/feature engerning.md)
* [5.1.3 构建模型进行预测](./titanic/fit and predict.md)
* [5.1.4 调参](./titanic/tuning.md)
* [5.2 使用强化学习玩乒乓球游戏](./xx introduction.md)
* [5.2.1 什么是强化学习](./pingpong/what is reinforce learning.md)
* [5.2.2 Policy Gradient原理](./pingpong/Policy Gradient.md)
* [5.2.3 使用Policy Gradient玩乒乓球游戏](./pingpong/coding.md)
* [实训推荐](recommand.md)

@ -1 +1,14 @@
本章主要介绍一些常见的机器学习算法(模型)的原理,理解模型的原理对于以后使用一些机器学习库实现业务功能时是有好处的。
本章主要介绍`10`种常见的机器学习算法(模型)的原理,理解模型的原理对于以后使用一些机器学习库实现业务功能时是有好处的。
本章主要涉及的知识点有:
- kNN
- 线性回归
- 逻辑回归
- 多分类学习
- 决策树
- 随机森林
- 朴素贝叶斯分类器
- 支持向量机
- k-Means
- AGNES

@ -0,0 +1,233 @@
# 用概率说话-朴素贝叶斯分类器
朴素贝叶斯分类算法是基于贝叶斯理论和特征条件独立假设的分类算法。对于给定的训练集,首先基于特征条件独立假设学习数据的概率分布。然后基于此模型,对于给定的特征数据`x`,利用贝叶斯定理计算出标签`y`。朴素贝叶斯分类算法实现简单,预测的效率很高,是一种常用的分类算法。
##条件概率
朴素贝叶斯分类算法是基于贝叶斯定理与特征条件独立假设的分类方法,因此想要了解朴素贝叶斯分类算法背后的算法原理,就不得不用到概率论的一些知识,首当其冲就是**条件概率**。
###什么是条件概率
概率指的是某一事件`A`发生的可能性,表示为`P(A)`。而条件概率指的是某一事件`A`已经发生了条件下,另一事件`B`发生的可能性,表示为`P(B|A)`,举个例子:
今天有`25%`的可能性下雨,即`P(下雨)=0.25`;
今天`75%`的可能性是晴天,即`P(晴天)=0.75`;
如果下雨,我有`75%`的可能性穿外套,即`P(穿外套|下雨)=0.75`;
如果下雨,我有`25%`的可能性穿T恤即`P(穿T恤|下雨)=0.25`;
从上述例子可以看出,条件概率描述的是`|`右边的事件已经发生之后,左边的事件发生的可能性,**而不是两个事件同时发生的可能性!**
###怎样计算条件概率
设`AB`是两个事件,且`P(A)>0`,称`P(B|A)=P(AB)/P(A)`为在事件`A`发生的条件下,事件`B`发生的条件概率。(**其中`P(AB)`表示事件A和事件B同时发生的概率**)
举个例子,**现在有一个表格,表格中统计了甲乙两个厂生产的产品中合格品数量、次品数量的数据。数据如下:**
| | 甲厂 |乙厂 |合计 |
| ------------ | ------------ | ------------ | ------------ |
| 合格品 | 475 | 644 | 1119 |
| 次品| 25 | 56 | 81 |
| 合计| 500 | 700 | 1200 |
现在想要算一下已知产品是甲厂生产的,那么产品是次品的概率是多少。这个时候其实就是在算条件概率,计算非常简单。
假设事件`A`为产品是甲厂生产的,事件`B`为产品是次品。则根据表中数据可知`P(AB)=25/1200``P(A)=500/1200`。则`P(B|A)=P(AB)/P(A)=25/500`。
###乘法定理
将条件概率的公式两边同时乘以`P(A)`,就变成了**乘法定理**,即`P(AB)=P(B|A)*P(A)`。那么乘法定理怎么用呢?举个例子:
**现在有一批产品共`100`件,次品有`10`件,从中不放回地抽取`2`次,每次取`1`件。现在想要算一下第一次为次品,第二次为正品的概率。**
从问题来看,这个问题问的是第一次为次品,第二次为正品这两个事件同时发生的概率。所以可以用乘法定理来解决这个问题。
假设事件`A`为第一次为次品,事件`B`为第二次为正品。则`P(AB)=P(A)*P(B|A)=(10/100)*(90/99)=0.091`。
##全概率公式
**贝叶斯公式**是**朴素贝叶斯分类算法**的核心数学理论,在了解贝叶斯公式之前,我们需要先了解**全概率公式**的相关知识。
###引例
小明从家到公司上班总共有三条路可以直达,如下图:
<div align=center><img src="./img/1018.jpg", height="300" width="400"/></div>
但是每条路每天拥堵的可能性不太一样,由于路的远近不同,选择每条路的概率如下表所示:
| L1 | L2 | L3 |
| ------------ | ------------ | ------------ |
| 0.5 | 0.3 | 0.2 |
每天从上述三条路去公司时不堵车的概率如下表所示:
| L1不堵车 | L2不堵车 | L3不堵车 |
| ------------ | ------------ | ------------ |
| 0.2 | 0.4 | 0.7 |
如果不堵车就不会迟到,现在小明想要算一算去公司上班不会迟到的概率是多少,应该怎么办呢?
其实很简单,假设事件`C`为小明不迟到,事件`A1`为小明选`L1`这条路并且不堵车,事件`A2`为小明选`L2`这条路并且不堵车,事件`A3`为小明选`L3`这条路并且不堵车。那么很显然`P(C)=P(A1)+P(A2)+P(A3)`。
那么问题来了,`P(A1)`、`P(A2)`和`P(A3)`怎么算呢?其实只要会算`P(A1)`其他的就都会算了。我们同样可以假设事件`D1`为小明选择`L1`路,事件`E1`为不堵车。那么`P(A1)=P(D1)*P(E1)`。但是在从表格中我们只知道`P(D1)=0.5`,怎么办呢?
回忆一下上面介绍的**乘法定理**,不难想到`P(A1)=P(D1)*P(E1|D1)`。从表格中可以看出`P(E1|D1)=0.2`。因此`P(A1)=0.5*0.2=0.1`。
然后依葫芦画瓢可以很快算出,`P(A2)=0.3*0.4=0.12``P(A3)=0.2*0.7=0.14`。所以`P(C)=0.1+0.12+0.14=0.36`。
###全概率公式
当为了达到某种目的,但是达到目的有很多种方式,如果想知道通过所有方式能够达到目的的概率是多少的话,就需要用到**全概率公式****上面的例子就是这种情况!**)。全概率公式的定义如下:
若事件$$B_1$$,$$B_2$$,...,$$B_n$$两两互不相容,并且其概率和为`1`。那么对于任意一个事件`C`都满足:
<center>
$$
P(C)=P(B_1)P(C|B_1)+...+P(B_n)P(C|B_n)=\sum_{i=1}^{n}P(B_i)P(C|B_i)
$$
</center>
<br>
引例中小明选择哪条路去公司的概率是**两两互不相容的**(只能选其中一条路去公司),**并且和为`1`**。所以小明不迟到的概率可以通过全概率公式来计算,而引例中的计算过程就是用的全概率公式。
##贝叶斯公式
当已知引发事件发生的各种原因的概率,想要算该事件发生的概率时,我们可以用**全概率公式**。但如果现在反过来,已知事件已经发生了,但想要计算引发该事件的各种原因的概率时,我们就需要用到**贝叶斯公式**了。
贝叶斯公式定义如下,其中$$A$$表示已经发生的事件,$$B_i$$为导致事件$$A$$发生的第$$i$$个原因:
<center>
$$
P(B_i|A)=\frac{P(A|B_i)P(B_i)}{\sum_{i=1}^nP(A|B_i)P(B_i)}
$$
</center>
<br>
贝叶斯公式看起来比较复杂,其实非常简单,分子部分是**乘法定理**,分母部分是**全概率公式**(分母等于$$P(A)$$)。
如果我们对贝叶斯公式进行一个简单的数学变换(两边同时乘以分母,再两边同时除以$$P(B_i)$$)。就能够得到如下公式:
<center>
$$
P(A|B_i)=\frac{P(B_i|A)P(A)}{P(B_i)}
$$
</center>
<br>
##贝叶斯算法流程
在炎热的夏天你可能需要买一个大西瓜来解暑,但虽然你的挑西瓜的经验很老道,但还是会有挑错的时候。尽管如此,你可能还是更愿意相信自己经验。假设现在在你面前有一个纹路清晰,拍打西瓜后声音浑厚,按照你的经验来看这个西瓜是好瓜的概率有`80`%,不是好瓜的概率有`20`%。那么在这个时候你下意识会认为这个西瓜是好瓜,因为它是好瓜的概率大于不是好瓜的概率。
###朴素贝叶斯分类算法的预测流程
**朴素贝叶斯分类算法的预测思想和引例中挑西瓜的思想一样,会根据以往的经验计算出待预测数据分别为所有类别的概率,然后挑选其中概率最高的类别作为分类结果。**
假如现在一个西瓜的数据如下表所示:
| 颜色 | 声音 | 纹理 | 是否为好瓜 |
| ------------ | ------------ | ------------ | ------------ |
| 绿 | 清脆 | 清晰 | |
若想使用朴素贝叶斯分类算法的思想,根据这条数据中`颜色`、`声音`和`纹理`这三个特征来推断是不是好瓜,我们需要计算出这个西瓜是好瓜的概率和不是好瓜的概率。
假设事件`A1`为好瓜,事件`B`为绿,事件`C`为清脆,事件`D`为清晰,则这个西瓜是好瓜的概率为`P(A1|BCD)`。根据贝叶斯公式可知:
<center>
$$
P(A_1|BCD)=\frac{P(A_1)P(B|A_1)P(C|A_1)P(D|A_1)}{P(BCD)}
$$
</center>
<br>
同样,假设事件`A2`为好瓜,事件`B`为绿,事件`C`为清脆,事件`D`为清晰,则这个西瓜不是好瓜的概率为`P(A2|BCD)`。根据贝叶斯公式可知:
<center>
$$
```latex
P(A_2|BCD)=\frac{P(A_2)P(B|A_2)P(C|A_2)P(D|A_2)}{P(BCD)}
```
$$
</center>
<br>
朴素贝叶斯分类算法的思想是取概率最大的类别作为预测结果,所以如果满足下面的式子,则认为这个西瓜是好瓜,否则就不是好瓜:
<center>
$$
\frac{P(A_1)P(B|A_1)P(C|A_1)P(D|A_1)}{P(BCD)}>\frac{P(A_2)P(B|A_2)P(C|A_2)P(D|A_2)}{P(BCD)}
$$
</center>
<br>
从上面的式子可以看出,`P(BCD)`是多少对于判断哪个类别的概率高没有影响,所以式子可以简化成如下形式:
<center>
$$
P(A_1)P(B|A_1)P(C|A_1)P(D|A_1)>P(A_2)P(B|A_2)P(C|A_2)P(D|A_2)
$$
</center>
<br>
所以在预测时,需要知道`P(A1)``P(A2)``P(B|A_1)``P(C|A_1)``P(D|A_1)`等于多少。而这些概率在训练阶段可以计算出来。
###朴素贝叶斯分类算法的训练流程
训练的流程非常简单,主要是计算各种**条件概率**。假设现在有一组西瓜的数据,如下表所示:
| 编号 | 颜色 | 声音 | 纹理 | 是否为好瓜 |
| ------------ | ------------ | ------------ | ------------ | ------------ |
| 1 | 绿 | 清脆 | 清晰 | 是 |
| 2 | 黄 | 浑厚 | 模糊 | 否 |
| 3 | 绿 | 浑厚 | 模糊 | 是 |
| 4 | 绿 | 清脆 | 清晰 | 是 |
| 5 | 黄 | 浑厚 | 模糊 | 是 |
| 6 | 绿 | 清脆 | 清晰 | 否 |
从表中数据可以看出:
`P(是好瓜)=4/6`
`P(颜色绿|是好瓜)=3/4`
`P(颜色黄|是好瓜)=1/4`
`P(声音清脆|是好瓜)=1/2`
`P(声音浑厚|是好瓜)=1/2`
`P(纹理清晰|是好瓜)=1/2`
`P(纹理模糊|是好瓜)=1/2`
`P(不是好瓜)=2/6`
`P(颜色绿|不是好瓜)=1/2`
`P(颜色黄|是好瓜)=1/2`
`P(声音清脆|不是好瓜)=1/2`
`P(声音浑厚|不是好瓜)=1/2`
`P(纹理清晰|不是好瓜)=1/2`
`P(纹理模糊|不是好瓜)=1/2`
当得到以上概率后,训练阶段的任务就已经完成了。我们不妨再回过头来预测一下这个西瓜是不是好瓜。
| 颜色 | 声音 | 纹理 | 是否为好瓜 |
| ------------ | ------------ | ------------ | ------------ |
| 绿 | 清脆 | 清晰 | |
假设事件`A1`为好瓜,事件`B`为绿,事件`C`为清脆,事件`D`为清晰。则有:
<center>
$$
P(A_1)P(B|A_1)P(C|A_1)P(D|A_1)=\frac{4}{6}*\frac{3}{4}*\frac{1}{2}*\frac{1}{2}=\frac{1}{8}
$$
</center>
<br>
假设事件`A2`为不是瓜,事件`B`为绿,事件`C`为清脆,事件`D`为清晰。则有:
<center>
$$
P(A_2)P(B|A_2)P(C|A_2)P(D|A_2)=\frac{2}{6}*\frac{1}{2}*\frac{1}{2}*\frac{1}{2}=\frac{1}{24}
$$
</center>
<br>
由于$$\frac{1}{8}>\frac{1}{24}$$,所以这个西瓜是好瓜。

@ -13,22 +13,22 @@
| 4 | 1 | 1 |
| 5 | 2 | 3 |
很明显,连小朋友都能算出来该模型的准确度为 3/5
很明显,连小朋友都能算出来该模型的准确度为`3/5`
那么准确对越高就能说明模型的分类性能越好吗?非也!举个例子,现在我开发了一套癌症检测系统,只要输入你的一些基本健康信息,就能预测出你现在是否患有癌症,并且分类的准确度为 0.999 。您认为这样的系统的预测性能好不好呢?
那么准确对越高就能说明模型的分类性能越好吗?非也!举个例子,现在我开发了一套癌症检测系统,只要输入你的一些基本健康信息,就能预测出你现在是否患有癌症,并且分类的准确度为`0.999`。您认为这样的系统的预测性能好不好呢?
您可能会觉得,哇,这么高的准确度!这个系统肯定很牛逼!但是我们知道,一般年轻人患癌症的概率非常低,假设患癌症的概率为 0.001 ,那么其实我这个癌症检测系统只要一直输出您没有患癌症,准确度也可能能够达到 0.999
您可能会觉得,哇,这么高的准确度!这个系统肯定很牛逼!但是我们知道,一般年轻人患癌症的概率非常低,假设患癌症的概率为 0.001 ,那么其实我这个癌症检测系统只要一直输出您没有患癌症,准确度也可能能够达到`0.999`
假如现在有一个人本身已经患有癌症,但是他自己不知道自己患有癌症。这个时候用我的癌症检测系统检测发现他没有得癌症,那很显然我这个系统已经把他给坑了(耽误了治疗)。
看到这里您应该已经体会到了,一个分类模型如果光看准确度是不够的,尤其是对这种样本**极度不平衡**的情况( 10000 条健康信息数据中,只有 1 条的类别是患有癌症,其他的类别都是健康)。
看到这里您应该已经体会到了,一个分类模型如果光看准确度是不够的,尤其是对这种样本**极度不平衡**的情况(`10000`条健康信息数据中,只有`1`条的类别是患有癌症,其他的类别都是健康)。
##混淆矩阵
想进一步的考量分类模型的性能如何,可以使用其他的一些性能指标,例如精准率和召回率。但这些指标计算的基础是**混淆矩阵**。
继续以癌症检测系统为例,癌症检测系统的输出不是有癌症就是健康,这里为了方便,就用 1 表示患有癌症, 0 表示健康。假设现在拿 10000 条数据来进行测试,其中有 9978 条数据的真实类别是 0 ,系统预测的类别也是 0 ,有 2 条数据的真实类别是 1 却预测成了 0 ,有 12 条数据的真实类别是 0 但预测成了 1 ,有 8 条数据的真实类别是 1 ,预测结果也是 1
继续以癌症检测系统为例,癌症检测系统的输出不是有癌症就是健康,这里为了方便,就用`1`表示患有癌症,`0`表示健康。假设现在拿`10000`条数据来进行测试,其中有`9978`条数据的真实类别是`0`,系统预测的类别也是`0` ,有`2`条数据的真实类别是`1`却预测成了`0`,有`12`条数据的真实类别是`0`但预测成了`1`,有`8`条数据的真实类别是`1` ,预测结果也是`1`
如果我们把这些结果组成如下矩阵,则该矩阵就成为**混淆矩阵**。
@ -44,16 +44,16 @@
| 0 | 预测 0 正确的数量 | 预测 1 错误的数量 |
| 1 | 预测 0 错误的数量 | 预测 1 正确的数量 |
如果将正确看成是 True ,错误看成是 False 0 看成是 Negtive 1 看成是 Positive 。然后将上表中的文字替换掉,混淆矩阵如下:
如果将正确看成是`True`,错误看成是`False` `0`看成是 `Negtive``1`看成是`Positive`。然后将上表中的文字替换掉,混淆矩阵如下:
| 真实\预测 | 0 | 1 |
| ------------ | ------------ | ------------ |
| 0 | TN | FP |
| 1 | FN | TP |
因此 TN 表示真实类别是 Negtive ,预测结果也是 Negtive 的数量; FP 表示真实类别是 Negtive ,预测结果是 Positive 的数量; FN 表示真实类别是 Positive 预测结果是Negtive 的数量; TP 表示真实类别是 Positive ,预测结果也是 Positive 的数量。
因此`TN`表示真实类别是`Negtive`,预测结果也是`Negtive`的数量; `FP`表示真实类别是`Negtive`,预测结果是`Positive`的数量; `FN`表示真实类别是`Positive`,预测结果是`Negtive`的数量; `TP`表示真实类别是`Positive`,预测结果也是`Positive`的数量。
很明显,当 FN 和 FP 都等于 0 时,模型的性能应该是最好的,因为模型并没有在预测的时候犯错误。即如下混淆矩阵:
很明显,当`FN`和`FP`都等于`0`时,模型的性能应该是最好的,因为模型并没有在预测的时候犯错误。即如下混淆矩阵:
| 真实\预测 | 0 | 1 |
| ------------ | ------------ | ------------ |
@ -64,11 +64,14 @@
## 精准率
**精准率(Precision)**指的是模型预测为 Positive 时的预测准确度,其计算公式如下:
**精准率(Precision)**指的是模型预测为`Positive`时的预测准确度,其计算公式如下:
<center>
$$
Precisioin=\frac{TP}{TP+FP}
$$
</center>
<br>
假如癌症检测系统的混淆矩阵如下:
@ -77,18 +80,21 @@ $$
| 0 | 9978 | 12 |
| 1 | 2 | 8 |
则该系统的精准率=8/(8+12)=0.4
则该系统的精准率为:`8/(8+12)=0.4`
0.4 这个值表示癌症检测系统的预测结果中如果有 100 个人被预测成患有癌症,那么其中有 40 人是真的患有癌症。**也就是说,精准率越高,那么癌症检测系统预测某人患有癌症的可信度就越高。**
`0.4`这个值表示癌症检测系统的预测结果中如果有`100`个人被预测成患有癌症,那么其中有`40`人是真的患有癌症。**也就是说,精准率越高,那么癌症检测系统预测某人患有癌症的可信度就越高。**
##召回率
**召回率(Recall)**指的是我们关注的事件发生了,并且模型预测正确了的比值,其计算公式如下:
<center>
$$
Recall=\frac{TP}{FN+TP}
$$
</center>
<br>
假如癌症检测系统的混淆矩阵如下:
@ -97,72 +103,81 @@ $$
| 0 | 9978 | 12 |
| 1 | 2 | 8 |
则该系统的召回率=8/(8+2)=0.8
则该系统的召回率为:`8/(8+2)=0.8`
从计算出的召回率可以看出,假设有 100 个患有癌症的病人使用这个系统进行癌症检测,系统能够检测出 80 人是患有癌症的。**也就是说,召回率越高,那么我们感兴趣的对象成为漏网之鱼的可能性越低。**
从计算出的召回率可以看出,假设有`100`个患有癌症的病人使用这个系统进行癌症检测,系统能够检测出`80`人是患有癌症的。**也就是说,召回率越高,那么我们感兴趣的对象成为漏网之鱼的可能性越低。**
##精准率与召回率之间的关系
假设有这么一组数据,菱形代表 Positive ,圆形代表 Negtive
假设有这么一组数据,菱形代表`Positive`,圆形代表`Negtive`
<div align=center><img src="./img/66.jpg"/></div>
<div align=center><img src="./img/66.jpg", height="50" width="300"/></div>
现在需要训练一个模型对数据进行分类,假如该模型非常简单,就是在数据上画一条线作为分类边界。模型认为边界的左边是 Negtive ,右边是 Positive 。如果该模型的分类边界向左或者向右移动的话,模型所对应的精准率和召回率如下图所示:
现在需要训练一个模型对数据进行分类,假如该模型非常简单,就是在数据上画一条线作为分类边界。模型认为边界的左边是`Negtive`,右边是`Positive`。如果该模型的分类边界向左或者向右移动的话,模型所对应的精准率和召回率如下图所示:
<div align=center><img src="./img/67.jpg"/></div>
<div align=center><img src="./img/67.jpg", height="120" width="300"/></div>
从上图可知,**模型的精准率变高,召回率会变低,精准率变低,召回率会变高。**
##F1 Score
上一中提到了精准率变高,召回率会变低,精准率变低,召回率会变高。那如果想要同时兼顾精准率和召回率,这个时候就可以使用**F1 Score**来作为性能度量指标了。
上一中提到了精准率变高,召回率会变低,精准率变低,召回率会变高。那如果想要同时兼顾精准率和召回率,这个时候就可以使用**F1 Score**来作为性能度量指标了。
F1 Score 是统计学中用来衡量二分类模型精确度的一种指标。它同时兼顾了分类模型的准确率和召回率。F1 Score 可以看作是模型准确率和召回率的一种加权平均,它的最大值是 1 最小值是0 。其公式如下:
`F1 Score`是统计学中用来衡量二分类模型精确度的一种指标。它同时兼顾了分类模型的准确率和召回率。`F1 Score`可以看作是模型准确率和召回率的一种加权平均,它的最大值是`1`,最小值是`0` 。其公式如下:
<center>
$$
F1=\frac{2*precision*recall}{precision+recall}
$$
</center>
<br>
- 假设模型 A 的精准率为 0.2 ,召回率为 0.7 ,那么模型 A 的 F1 Score 为 0.31111 。
- 假设模型`A`的精准率为`0.2`,召回率为`0.7`,那么模型`A`的`F1 Score`为`0.31111`
- 假设模型 B 的精准率为 0.7 ,召回率为 0.2 ,那么模型 B 的 F1 Score 为 0.31111
- 假设模型`B`的精准率为`0.7`,召回率为`0.2`,那么模型`B`的`F1 Score`为`0.31111`
- 假设模型 C 的精准率为 0.8 ,召回率为 0.7 ,那么模型 C 的 F1 Score 为 0.74667
- 假设模型`C`的精准率为`0.8`,召回率为`0.7`,那么模型`C`的`F1 Score`为`0.74667`
- 假设模型 D 的精准率为 0.2 ,召回率为 0.3 ,那么模型 D 的 F1 Score 为 0.24
- 假设模型`D`的精准率为`0.2`,召回率为`0.3`,那么模型`D`的`F1 Score`为`0.24`
从上述 4 个模型的各种性能可以看出模型C的精准率和召回率都比较高因此它的 F1 Score 也比较高。而其他模型的精准率和召回率要么都比较低,要么一个低一个高,所以它们的 F1 Score 比较低。
从上述`4`个模型的各种性能可以看出模型C的精准率和召回率都比较高因此它的`F1 Score`也比较高。而其他模型的精准率和召回率要么都比较低,要么一个低一个高,所以它们的`F1 Score`比较低。
这也说明了只有当模型的精准率和召回率都比较高时 F1 Score 才会比较高。这也是 F1 Score 能够同时兼顾精准率和召回率的原因。
这也说明了只有当模型的精准率和召回率都比较高时`F1 Score`才会比较高。这也是`F1 Score`能够同时兼顾精准率和召回率的原因。
## ROC曲线
ROC曲线(Receiver Operating Characteristic Curve)描述的 TPRTrue Positive Rate与 FPRFalse Positive Rate)之间关系的曲线。
`ROC`曲线(`Receiver Operating Characteristic Curve`)描述的是`TPR``True Positive Rate`)与 `FPR``False Positive Rate`)之间关系的曲线。
TPR 与 FPR 的计算公式如下:
`TPR`与`FPR`的计算公式如下:
<center>
$$
TPR=\frac{TP}{TP+FN}
$$
</center>
<br>
<center>
$$
FPR=\frac{FP}{FP+TN}
$$
</center>
<br>
其中 TPR 的计算公式您可能有点眼熟,没错!就是召回率的计算公式。**也就是说 TPR 就是召回率**。**所以 TPR 描述的是模型预测 Positive 并且预测正确的数量占真实类别为 Positive 样本的比例。而 FPR 描述的模型预测 Positive 并且预测错了的数量占真实类别为 Negtive 样本的比例。**
其中`TPR`的计算公式您可能有点眼熟,没错!就是召回率的计算公式。**也就是说 TPR 就是召回率**。**所以 TPR 描述的是模型预测 Positive 并且预测正确的数量占真实类别为 Positive 样本的比例。而 FPR 描述的模型预测 Positive 并且预测错了的数量占真实类别为 Negtive 样本的比例。**
和精准率与召回率一样, TPR 与 FPR 之间也存在关系。假设有这么一组数据,菱形代表 Positive ,圆形代表 Negtive
和精准率与召回率一样,`TPR`与`FPR`之间也存在关系。假设有这么一组数据,菱形代表`Positive`,圆形代表`Negtive`
<div align=center><img src="./img/66.jpg"/></div>
<div align=center><img src="./img/66.jpg", height="50" width="300"/></div>
现在需要训练一个逻辑回归的模型对数据进行分类,假如将从 0 到 1 中的一些值作为模型的分类阈值。若模型认为当前数据是 Positive 的概率**小于**分类阈值则分类为 Negtive **否则**就分类为 Positive **假设分类阈值为 0.8 ,模型认为这条数据是 Positive 的概率为 0.7 0.7 小于 0.8 ,那么模型就认为这条数据是 Negtive**)。在不同的分类阈值下,模型所对应的 TPR 与 FPR 如下图所示(竖线代表分类阈值,模型会将竖线左边的数据分类成 Negtive ,竖线右边的分类成 Positive
现在需要训练一个逻辑回归的模型对数据进行分类,假如将从`0`到 `1`中的一些值作为模型的分类阈值。若模型认为当前数据是 `Positive`的概率**小于**分类阈值则分类为 Negtive **否则**就分类为`Positive`**假设分类阈值为 0.8 ,模型认为这条数据是 Positive 的概率为 0.7 0.7 小于 0.8 ,那么模型就认为这条数据是 Negtive**)。在不同的分类阈值下,模型所对应的`TPR`与`FPR`如下图所示(竖线代表分类阈值,模型会将竖线左边的数据分类成`Negtive`,竖线右边的分类成`Positive`
<div align=center><img src="./img/68.jpg"/></div>
<div align=center><img src="./img/68.jpg", height="120" width="300"/></div>
从图中可以看出,**当模型的 TPR 越高 FPR 也会越高, TPR 越低 FPR 也会越低。这与精准率和召回率之间的关系刚好相反。**并且,模型的分类阈值一但改变,就有一组对应的 TPR 与 FPR 。假设该模型在不同的分类阈值下其对应的 TPR 与 FPR 如下表所示:
从图中可以看出,**当模型的 TPR 越高 FPR 也会越高, TPR 越低 FPR 也会越低。这与精准率和召回率之间的关系刚好相反。**并且,模型的分类阈值一但改变,就有一组对应的`TPR`与`FPR`。假设该模型在不同的分类阈值下其对应的`TPR`与`FPR`如下表所示:
| TPR | FPR |
| ------------ | ------------ |
@ -177,28 +192,31 @@ $$
| 0.92 | 0.41 |
| 0.93 | 0.42 |
若将 FPR 作为横轴, TPR 作为纵轴,将上面的表格以折线图的形式画出来就是 ROC曲线
若将`FPR`作为横轴,`TPR`作为纵轴,将上面的表格以折线图的形式画出来就是**ROC曲线**
<div align=center><img src="./img/69.jpg"/></div>
<div align=center><img src="./img/69.jpg"/, height="300" width="300"></div>
假设现在有模型 A 和模型 B ,它们的 ROC 曲线如下图所示(其中模型 A 的 ROC曲线 为黄色,模型 B 的 ROC曲线 为蓝色)
假设现在有模型`A`和模型`B`,它们的`ROC`曲线如下图所示(其中模型`A`的`ROC`曲线为黄色,模型`B`的`ROC`曲线为蓝色)
<div align=center><img src="./img/70.jpg"/></div>
<div align=center><img src="./img/70.jpg", height="300" width="300"/></div>
那么模型 A 的性能比模型 B 的性能好,因为模型 A 当 FPR 较低时所对应的 TPR 比模型 B 的低 FPR 所对应的 TPR 更高。由由于随着 FPR 的增大, TPR 也会增大。所以 ROC 曲线与横轴所围成的面积越大,模型的分类性能就越高。而 ROC曲线 的面积称为 AUC
那么模型`A`的性能比模型`B`的性能好,因为模型`A`当`FPR`较低时所对应的`TPR`比模型`B`的低`FPR`所对应的`TPR`更高。由由于随着`FPR`的增大,`TPR`也会增大。所以ROC曲线与横轴所围成的面积越大模型的分类性能就越高。而ROC曲线的面积称为`AUC`
#####AUC
很明显模型的 AUC 越高,模型的二分类性能就越强。 AUC 的计算公式如下:
很明显模型的`AUC`越高,模型的二分类性能就越强。`AUC`的计算公式如下:
<center>
$$
AUC=\frac{\sum_{ie positive class}rank_i-\frac{M(M+1)}{2}}{M*N}
$$
</center>
<br>
其中 M 为真实类别为 Positive 的样本数量, N 为真实类别为 Negtive 的样本数量。 ranki 代表了真实类别为 Positive 的样本点额预测概率从小到大排序后,该预测概率排在第几。
其中`M`为真实类别为`Positive`的样本数量,`N`为真实类别为 `Negtive`的样本数量。`ranki`代表了真实类别为`Positive`的样本点额预测概率从小到大排序后,该预测概率排在第几。
举个例子,现有预测概率与真实类别的表格如下所示(其中 0 表示 Negtive 1 表示 Positive
举个例子,现有预测概率与真实类别的表格如下所示(其中`0`表示 `Negtive` `1`表示`Positive`
| 编号 | 预测概率 | 真实类别 |
| ------------ | ------------ | ------------ |
@ -207,7 +225,7 @@ $$
| 3 | 0.3 | 1 |
| 4 | 0.8 | 1 |
想要得到公式中的 rank ,就需要将预测概率从小到大排序,排序后如下:
想要得到公式中的`rank` ,就需要将预测概率从小到大排序,排序后如下:
| 编号 | 预测概率 | 真实类别 |
| ------------ | ------------ | ------------ |
@ -216,8 +234,11 @@ $$
| 2 | 0.4 | 0 |
| 4 | 0.8 | 1 |
排序后的表格中,真实类别为 Positive 只有编号为 3 和编号为 4 的数据,并且编号为 3 的数据排在第 2 ,编号为 4 的数据排在第 4 。所以 rank=[2, 4]。又因表格中真是类别为 Positive 的数据有 2 条Negtive 的数据有 2 条。因此 M 为2N 为2。所以根据 AUC 的计算公式可知:
排序后的表格中,真实类别为`Positive`只有编号为`3`和编号为`4`的数据,并且编号为`3`的数据排在第`2` ,编号为`4`的数据排在第`4`。所以`rank=[2, 4]`。又因表格中真是类别为 `Positive`的数据有`2`条,`Negtive`的数据有`2`条。因此`M`为`2``N`为`2`。所以根据`AUC`的计算公式可知:
<center>
$$
AUC=\frac{(2+4)-\frac{2(2+1)}{2}}{2*2}=0.75
$$。
$$
</center>
<br>

@ -8,21 +8,33 @@
想要计算上述指标来度量聚类的性能,首先需要计算出$$a$$$$c$$$$d$$$$e$$。假设数据集$$E=\{x_1,x_2,...,x_m\}$$。通过聚类模型给出的簇划分为$$C=\{C_1,C_2,...C_k\}$$,参考模型给出的簇划分为$$D=\{D_1,D_2,...D_s\}$$。$$\lambda$$与$$\lambda^*$$分别表示$$C$$与$$D$$对应的簇标记,则有:
<center>
$$
a=|\{(x_i, x_j)|\lambda_i=\lambda_j, \lambda^*_i=\lambda^*_j,i < j\}|
$$
</center>
<br>
<center>
$$
b=|\{(x_i, x_j)|\lambda_i=\lambda_j, \lambda^*_i\neq\lambda^*_j, i < j\}|
$$
</center>
<br>
<center>
$$
c=|\{(x_i, x_j)|\lambda_i\neq\lambda_j, \lambda^*_i=\lambda^*_j, i < j\}|
$$
</center>
<br>
<center>
$$
d=|\{(x_i, x_j)|\lambda_i\neq\lambda_j, \lambda^*_i\neq\lambda^*_j, i < j\}|
$$
</center>
<br>
举个例子,参考模型给出的簇与聚类模型给出的簇划分如下:
@ -48,9 +60,12 @@ $$
**JC系数**根据上面所提到的$$a$$$$b$$$$c$$来计算,并且值域为$$[0, 1]$$,值越大说明聚类性能越好,公式如下:
<center>
$$
JC=\frac{a}{a+b+c}
$$
</center>
<br>
因此刚刚的例子中,$$JC=\frac{2}{2+1+4}=\frac{2}{7}$$
@ -58,9 +73,12 @@ $$
**FM指数**根据上面所提到的$$a$$$$b$$$$c$$来计算,并且值域为$$[0, 1]$$,值越大说明聚类性能越好,公式如下:
<center>
$$
FMI=\sqrt{\frac{a}{a+b}*\frac{a}{a+c}}
$$
</center>
<br>
因此刚刚的例子中,$$FMI=\sqrt{\frac{2}{2+1}*\frac{2}{2+4}}=\sqrt{\frac{4}{18}}$$
@ -68,9 +86,12 @@ $$
**Rand指数**根据上面所提到的$$a$$和$$d$$来计算,并且值域为$$[0, 1]$$,值越大说明聚类性能越好,假设$$m$$为样本数量,公式如下:
<center>
$$
RandI=\frac{2(a+d)}{m(m-1)}
$$
</center>
<br>
因此刚刚的例子中,$$RandI=\frac{2*(2+8)}{6*(6-1)}=\frac{2}{3}$$。
@ -82,9 +103,12 @@ $$
**DB指数**又称 DBI ,计算公式如下:
<center>
$$
DBI=\frac{1}{k}\sum_{i=1}^kmax(\frac{avg(C_i)+avg(C_j)}{d_c(\mu_i,\mu_j)}), i \neq j
$$
</center>
<br>
公式中的表达式其实很好理解,其中$$k$$代表聚类有多少个簇,$$\mu_i$$代表第$$i$$个簇的中心点,$$avg(C_i)$$代表$$C_i$$第$$i$$个簇中所有数据与第$$i$$个簇的中心点的平均距离。$$d_c(\mu_i, \mu_j)$$代表第$$i$$个簇的中心点与第$$j$$个簇的中心点的距离。
@ -101,35 +125,56 @@ $$
从表格可以看出:
<center>
$$
k=2
$$
</center>
<br>
<center>
$$
\mu_1=(\frac{(3+2+3)}{3}, \frac{(4+3+4)}{3})=(2.67,3.67)
$$
</center>
<br>
<center>
$$
\mu_2=(\frac{(6+7+8)}{3}, \frac{(9+10+11)}{3})=(7,10)
$$
</center>
<br>
<center>
$$
d_c(\mu_1, \mu_2)=\sqrt{(2.67-7)^2+(3.67-10)^2}=7.67391
$$
</center>
<br>
<center>
$$
avg(C_1)=(\sqrt{(3-2.67)^2+(4-3.67)^2}+\sqrt{(2-2.67)^2+(3-3.67)^2}+\sqrt{(3-2.67)^2+(4-3.67)^2})/3=0.628539
$$
</center>
<br>
<center>
$$
avg(C_2)=(\sqrt{(6-7)^2+(9-10)^2}+\sqrt{(7-7)^2+(10-10)^2}+\sqrt{(8-7)^2+(11-10)^2})/3=0.94281
$$
</center>
<br>
因此有:
<center>
$$
DBI=\frac{1}{k}\sum_{i=1}^kmax(\frac{avg(C_i)+avg(C_j)}{d_c(\mu_i,\mu_j)})=0.204765
$$
</center>
<br>
**DB指数越小就越就意味着簇内距离越小同时簇间距离越大也就是说DB指数越小越好。**
@ -139,13 +184,16 @@ $$
**Dunn指数**又称DI计算公式如下
<center>
$$
DI=min_{1\leq i\leq k}\{min_{i\neq j}(\frac{d_min(C_i,C_j)}{max_{1\leq l\leq k}diam(C_l)})\}
$$
</center>
<br>
公式中的表达式其实很好理解,其中$$k$$代表聚类有多少个簇,$$d_{min}(C_i,C_j)$$代表第$$i$$个簇中的样本与第$$j$$个簇中的样本之间的最短距离,$$diam(C_l)$$代表第$$l$$个簇中相距最远的样本之间的距离。
还是这个例子,现在有 6 条西瓜数据$$\{x_1,x_2,...,x_6\}$$,这些数据已经聚类成了 2 个簇。
还是这个例子,现在有`6`条西瓜数据$$\{x_1,x_2,...,x_6\}$$,这些数据已经聚类成了 2 个簇。
| 编号 | 体积 | 重量 | 簇 |
| ------------ | ------------ | ------------ | ------------ |
@ -158,26 +206,41 @@ $$
从表格可以看出:
<center>
$$
k=2
$$
</center>
<br>
<center>
$$
d_{min}(C_1,C_2)=\sqrt{(3-6)^2+(4-9)^2}=5.831
$$
</center>
<br>
<center>
$$
diam(C_1)=\sqrt{(3-2)^2+(4-2)^2}=1.414
$$
</center>
<br>
<center>
$$
diam(C_2)=\sqrt{(6-8)^2+(9-11)^2}=2.828
$$
</center>
<br>
因此有:
<center>
$$
DI=min_{1\leq i\leq k}\{min_{i\neq j}(\frac{d_min(C_i,C_j)}{max_{1\leq l\leq k}diam(C_l)})\}=2.061553
$$
</center>
<br>
**Dunn指数越大意味着簇内距离越小同时簇间距离越大也就是说Dunn指数越大越好。**

@ -4,9 +4,9 @@
决策树说白了就是一棵能够替我们做决策的树,或者说是我们人的脑回路的一种表现形式。比如我看到一个人,然后我会思考这个男人有没有买车。那我的脑回路可能是这样的:
<div align=center><img src="./img/21.jpg"/></div>
<div align=center><img src="./img/21.jpg", height="300" width="300"/></div>
其实这样一种脑回路的形式就是我们所说的决策树。所以从图中能看出决策树是一个类似于人们决策过程的树结构,从根节点开始,每个分枝代表一个新的决策事件,会生成两个或多个分枝,每个叶子代表一个最终判定所属的类别。很明显,如果我现在已经构造好了一颗决策树的话,现在我得到一条数据(男, 29),我就会认为这个人没有买过车。所以呢,关键问题就是怎样来构造决策树了。
其实这样一种脑回路的形式就是我们所说的决策树。所以从图中能看出决策树是一个类似于人们决策过程的树结构,从根节点开始,每个分枝代表一个新的决策事件,会生成两个或多个分枝,每个叶子代表一个最终判定所属的类别。很明显,如果我现在已经构造好了一颗决策树的话,现在我得到一条数据`(男, 29)`,我就会认为这个人没有买过车。所以呢,关键问题就是怎样来构造决策树了。
构造决策树时会遵循一个指标,有的是按照**信息增益**来构建,这种叫**ID3算法**,有的是**信息增益比**来构建,这种叫**C4.5**算法,有的是按照**基尼系数**来构建的,这种叫**CART**算法。在这里主要介绍一下**ID3算法**。
@ -23,7 +23,7 @@
从这个公式也可以看出,如果我概率是 $$0$$ 或者是 $$1$$ 的时候,我的熵就是 $$0$$ 。(因为这种情况下我随机变量的不确定性是最低的),那如果我的概率是 $$0.5$$ 也就是五五开的时候,我的熵是最大也就是 $$1$$ 。(就像扔硬币,你永远都猜不透你下次扔到的是正面还是反面,所以它的不确定性非常高)。所以呢,**熵越大,不确定性就越高**。
在我们实际情况下,我们要研究的随机变量基本上都是多随机变量的情况,所以假设有随便量(X,Y),那么它的联合概率分布是这样的:
在我们实际情况下,我们要研究的随机变量基本上都是多随机变量的情况,所以假设有随便量`(X,Y)`,那么它的联合概率分布是这样的:
$$
P(X=x_i, Y=y_j)=p_{ij}, i=1,2,...,n; j=1,2,...,m
@ -33,33 +33,33 @@ $$
**当然条件熵的一个性质也熵的性质一样,我概率越确定,条件熵就越小,概率越五五开,条件熵就越大**。
OK现在已经知道了什么是熵,什么是条件熵。接下来就可以看看什么是信息增益了。所谓的信息增益就是表示我已知条件 $$X$$ 后能得到信息 $$Y$$ 的不确定性的减少程度。就好比,我在玩读心术。您心里想一件东西,我来猜。我已开始什么都没问你,我要猜的话,肯定是瞎猜。这个时候我的熵就非常高对不对。然后我接下来我会去试着问你是非题,当我问了是非题之后,我就能减小猜测你心中想到的东西的范围,这样其实就是减小了我的熵。那么我熵的减小程度就是我的**信息增益**。
现在已经知道了什么是熵,什么是条件熵。接下来就可以看看什么是信息增益了。所谓的信息增益就是表示我已知条件 $$X$$ 后能得到信息 $$Y$$ 的不确定性的减少程度。就好比,我在玩读心术。您心里想一件东西,我来猜。我已开始什么都没问你,我要猜的话,肯定是瞎猜。这个时候我的熵就非常高对不对。然后我接下来我会去试着问你是非题,当我问了是非题之后,我就能减小猜测你心中想到的东西的范围,这样其实就是减小了我的熵。那么我熵的减小程度就是我的**信息增益**。
所以信息增益如果套上机器学习的话就是,如果把特征 $$A$$ 对训练集 $$D$$ 的信息增益记为 $$g(D, A)$$ 的话,那么 $$g(D, A)$$ 的计算公式就是:$$g(D,A)=H(D)-H(D|A)$$。
如果看到这一堆公式可能会懵逼,那不如举个栗子来看看信息增益怎么算。假设我现在有这一个数据表,第一列是性别,第二列是活跃度, 第三列是客户是否流失的 $$label$$。
<div align=center><img src="./img/22.jpg"/></div>
<div align=center><img src="./img/22.jpg", height="300" width="200"/></div>
那如果我要算性别和活跃度这两个特征的信息增益的话,首先要先算总的熵和条件熵。( $$5/15$$ 的意思是总共有 $$15$$ 条样本里面 $$label$$ 为 $$1$$ 的样本有 $$5$$ 条,$$3/8$$ 的意思是性别为男的样本有 $$8$$ 条,然后这 $$8$$ 条里有 $$3$$ 条是 $$label$$ 为 $$1$$,其他的数值以此类推)
总熵= (-5/15)*log(5/15)-(10/15)*log(10/15)=0.9182
`总熵= (-5/15)*log(5/15)-(10/15)*log(10/15)=0.9182`
性别为男的熵= -(3/8)*log(3/8)-(5/8)*log(5/8)=0.9543
`性别为男的熵= -(3/8)*log(3/8)-(5/8)*log(5/8)=0.9543`
性别为女的熵= -(2/7)*log(2/7)-(5/7)*log(5/7)=0.8631
`性别为女的熵= -(2/7)*log(2/7)-(5/7)*log(5/7)=0.8631`
活跃度为低的熵= -(4/4)*log(4/4)-0=0
`活跃度为低的熵= -(4/4)*log(4/4)-0=0`
活跃度为中的熵= -(1/5)*log(1/5)-(4/5)*log(4/5)=0.7219
`活跃度为中的熵= -(1/5)*log(1/5)-(4/5)*log(4/5)=0.7219`
活跃度为高的熵= -0-(6/6)*log(6/6)=0
`活跃度为高的熵= -0-(6/6)*log(6/6)=0`
现在有了总的熵和条件熵之后我们就能算出性别和活跃度这两个特征的信息增益了。
性别的信息增益=总的熵-(8/15)*性别为男的熵-(7/15)*性别为女的熵=0.0064
`性别的信息增益=总的熵-(8/15)*性别为男的熵-(7/15)*性别为女的熵=0.0064`
活跃度的信息增益=总的熵-(6/15)*活跃度为高的熵-(5/15)*活跃度为中的熵-(4/15)*活跃度为低的熵=0.6776
`活跃度的信息增益=总的熵-(6/15)*活跃度为高的熵-(5/15)*活跃度为中的熵-(4/15)*活跃度为低的熵=0.6776`
那信息增益算出来之后有什么意义呢?回到读心术的问题,为了我能更加准确的猜出你心中所想,我肯定是问的问题越好就能猜得越准!换句话来说我肯定是要想出一个信息增益最大的问题来问你,对不对?其实**ID3算法**也是这么想的。**ID3算法**的思想是从训练集 $$D$$ 中计算每个特征的信息增益,然后看哪个最大就选哪个作为当前节点。然后继续重复刚刚的步骤来构建决策树。
@ -71,20 +71,20 @@ OK现在已经知道了什么是熵什么是条件熵。接下来就可以
一开始我们已经算过信息增益最大的是活跃度,所以决策树的根节点是活跃度 。所以这个时候树是这样的:
<div align=center><img src="./img/23.jpg"/></div>
<div align=center><img src="./img/23.jpg", height="100" width="100"/></div>
然后发现训练集中的数据表示当我活跃度低的时候一定会流失,活跃度高的时候一定不流失,所以可以先在根节点上接上两个叶子节点。
<div align=center><img src="./img/24.jpg"/></div>
<div align=center><img src="./img/24.jpg", height="250" width="250"/></div>
但是活跃度为中的时候就不一定流失了,所以这个时候就可以把活跃度为低和为高的数据屏蔽掉,屏蔽掉之后 $$5$$ 条数据,接着把这 $$5$$ 条数据当成训练集来继续算哪个特征的信息增益最高,很明显算完之后是性别这个特征,所以这时候树变成了这样:
<div align=center><img src="./img/25.jpg"/></div>
<div align=center><img src="./img/25.jpg", height="250" width="300"/></div>
这时候呢,数据集里没有其他特征可以选择了(总共就两个特征,活跃度已经是根节点了),所以就看我性别是男或女的时候那种情况最有可能出现了。此时性别为男的用户中有 $$1$$ 个是流失,$$1$$ 个是不流失,五五开。所以可以考虑随机选个结果当输出了。性别为女的用户中有全部都流失,所以性别为女时输出是流失。所以呢,树就成了这样:
<div align=center><img src="./img/26.jpg"/></div>
<div align=center><img src="./img/26.jpg", height="300" width="350"/></div>
好了,决策树构造好了。从图可以看出决策树有一个非常好的地方就是模型的解释性非常强!!很明显,如果现在来了一条数据(男, 高)的话,输出会是不流失。
好了,决策树构造好了。从图可以看出决策树有一个非常好的地方就是模型的解释性非常强!!很明显,如果现在来了一条数据`(男, 高)`的话,输出会是不流失。

Binary file not shown.

After

Width:  |  Height:  |  Size: 9.4 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 28 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 35 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 23 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 24 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 35 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 21 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 12 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 16 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 17 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 16 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 17 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 17 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 11 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 8.7 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 8.0 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 8.4 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 13 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 12 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 8.5 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 12 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 14 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 5.2 KiB

@ -17,7 +17,14 @@
`3.`将每个类别的质心更新为新的类别中心。
`4.`重复步骤`2`、`3`,直到类别中心的变化小于阈值。
过程示意图如下(其中 X 表示类别的中心,数据点的颜色代表不同的类别):
过程示意图如下(其中 X 表示类别的中心,数据点的颜色代表不同的类别,总共迭代`12`次,下图为部分迭代的结果
![](./img/29.gif)
<div align=center><img src="./img/1019.jpg", height="300" width="350"/></div>
<div align=center><img src="./img/1020.jpg", height="300" width="350"/></div>
<div align=center><img src="./img/1021.jpg", height="300" width="350"/></div>
<div align=center><img src="./img/1022.jpg", height="300" width="350"/></div>
<div align=center><img src="./img/1023.jpg", height="300" width="350"/></div>

@ -1,18 +1,18 @@
# 近朱者赤近墨者黑-kNN
**kNN算法**其实是众多机器学习算法中最简单的一种,因为该算法的思想完全可以用 8 个字来概括:**“近朱者赤,近墨者黑”**。
**kNN算法**其实是众多机器学习算法中最简单的一种,因为该算法的思想完全可以用`8`个字来概括:**“近朱者赤,近墨者黑”**。
## kNN算法解决分类问题
假设现在有这样的一个样本空间(由样本组成的一个空间),该样本空间里有宅男和文艺青年这两个类别,其中红圈表示宅男,绿圈表示文艺青年。如下图所示:
![](./img/8.jpg)
<div align=center><img src="./img/8.jpg", height="300" width="350"/></div>
其实构建出这样的样本空间的过程就是**kNN算法**的训练过程。可想而知**kNN算法**是没有训练过程的,所以**kNN算法**属于懒惰学习算法。
假设我在这个样本空间中用黄圈表示,如下图所示:
![](./img/9.jpg)
<div align=center><img src="./img/9.jpg", height="300" width="350"/></div>
现在使用**kNN算法**来鉴别一下我是宅男还是文艺青年。首先需要计算我与样本空间中所有样本的距离。假设计算得到的距离表格如下:
@ -21,29 +21,29 @@
| 标签 | 宅男 | 宅男 | ... | 文艺青年 | 文艺青年 |
| 距离 | 11.2 | 9.5 | ... | 23.3 | 37.6 |
然后找出与我距离最小的 k 个样本( k 是一个超参数,需要自己设置,一般默认为 5 ),假设与我离得最近的 5 个样本的标签和距离如下:
然后找出与我距离最小的`k`个样本(`k`是一个超参数,需要自己设置,一般默认为`5`),假设与我离得最近的`5`个样本的标签和距离如下:
| 样本编号 | 4 | 5 | 6 | 7 | 8 |
| ------------ | ------------ | ------------ | ------------ | ------------ | ------------ |
| 标签 | 宅男 | 宅男 | 宅男 | 宅男 | 文艺青年 |
| 距离 | 11.2 | 9.5 | 7.7 | 5.8 | 15.2 |
最后只需要对这 5 个样本的标签进行统计,并将票数最多的标签作为预测结果即可。如上表中,宅男是 4 票,文艺青年是 1 票,所以我是宅男。
最后只需要对这`5`个样本的标签进行统计,并将票数最多的标签作为预测结果即可。如上表中,宅男是`4`票,文艺青年是`1`票,所以我是宅男。
**注意**:有的时候可能会有票数一致的情况,比如 k = 4 时与我离得最近的样本如下:
**注意**:有的时候可能会有票数一致的情况,比如`k = 4`时与我离得最近的样本如下:
| 样本编号 | 4 | 9 | 11 | 13 |
| ------------ | ------------ | ------------ | ------------ | ------------ |
| 标签 | 宅男 | 宅男 | 文艺青年 | 文艺青年 |
| 距离 | 4.2 | 9.5 | 7.7 | 5.8 |
可以看出宅男和文艺青年的比分是 2 : 2 ,那么可以尝试将属于宅男的 2 个样本与我的总距离和属于文艺青年的 2 个样本与我的总距离进行比较。然后选择总距离最小的标签作为预测结果。在这个例子中预测结果为文艺青年(宅男的总距离为 4.2 + 9.5 ,文艺青年的总距离为 7.7 + 5.8 )。
可以看出宅男和文艺青年的比分是`2 : 2`,那么可以尝试将属于宅男的`2`个样本与我的总距离和属于文艺青年的`2`个样本与我的总距离进行比较。然后选择总距离最小的标签作为预测结果。在这个例子中预测结果为文艺青年(宅男的总距离为`4.2 + 9.5`,文艺青年的总距离为`7.7 + 5.8`)。
## kNN算法解决回归问题
很明显,刚刚我们使用**kNN算法**解决了一个分类问题,那**kNN算法**能解决回归问题吗?当然可以!
在使用`kNN`算法解决回归问题时的思路和解决分类问题的思路基本一致,只不过预测标签值是多少的的时候是将距离最近的 k 个样本的标签值加起来再算个平均,而不是投票。例如离待预测样本最近的 5 个样本的标签如下:
在使用`kNN`算法解决回归问题时的思路和解决分类问题的思路基本一致,只不过预测标签值是多少的的时候是将距离最近的`k`个样本的标签值加起来再算个平均,而不是投票。例如离待预测样本最近的`5`个样本的标签如下:
| 样本编号 | 4 | 9 | 11 | 13 | 15 |
| ------------ | ------------ | ------------ | ------------ | ------------ | ------------ |

@ -8,21 +8,21 @@
从理论上来说,这式子满足线性系统的性质(至于线性系统是什么,可以查阅相关资料,这里就不多做赘述了,不然没完没了)。您可能会觉得疑惑,这一节要说的是线性回归,我说个这么 low 直线方程干啥?其实,说白了,线性回归就是在 N 维空间中找一个形式像直线方程一样的函数来拟合数据而已。比如说,我现在有这么一张图,横坐标代表房子的面积,纵坐标代表房价。
<div align=center><img src="./img/10.jpg"/></div>
<div align=center><img src="./img/10.jpg", height="300" width="350"/></div>
然后呢,线性回归就是要找一条直线,并且让这条直线尽可能地拟合图中的数据点。
那如果让 1000 位朋友来找这条直线就可能找出 1000 种直线来,比如这样
<div align=center><img src="./img/11.jpg"/></div>
<div align=center><img src="./img/11.jpg", height="300" width="350"/></div>
这样
<div align=center><img src="./img/12.jpg"/></div>
<div align=center><img src="./img/12.jpg", height="300" width="350"/></div>
或者这样
<div align=center><img src="./img/13.jpg"/></div>
<div align=center><img src="./img/13.jpg", height="300" width="350"/></div>
喏,其实找直线的过程就是在做线性回归,只不过这个叫法更有高大上而已。
@ -30,7 +30,7 @@
那既然是找直线那肯定是要有一个评判的标准来评判哪条直线才是最好的。OK道理我们都懂那咋评判呢其实只要算一下实际房价和我找出的直线根据房子大小预测出来的房价之间的差距就行了。说白了就是算两点的距离。当我们把所有实际房价和预测出来的房价的差距距离算出来然后做个加和我们就能量化出现在我们预测的房价和实际房价之间的误差。例如下图中我画了很多条小数线每一条小数线就是实际房价和预测房价的差距距离
<div align=center><img src="./img/14.jpg"/></div>
<div align=center><img src="./img/14.jpg", height="300" width="350"/></div>
然后把每条小竖线的长度加起来就等于我们现在通过这条直线预测出的房价与实际房价之间的差距。那每条小竖线的长度的加和怎么算?其实就是欧式距离加和,公式为:$$\sum_{i=1}^m(y^{(i)}-y\hat{^{(i)}})^2$$(其中$$y(i)$$表示的是实际房价,$$y \hat (i)$$表示的是预测房价)。
@ -40,10 +40,12 @@
如果假设$$h_{(\theta)}(x)$$表示当权重为$$\theta$$,输入为$$x$$时计算出来的$$y \hat (i)$$,那么线性回归的损失函数$$J(\theta)$$就是:
<center>
$$
J(\theta)=\frac{1}{2}\sum^m_{i=1}(h_\theta(x^i)-y^i)^2
$$
</center>
<br>
## 怎样计算出线性回归的解?
@ -53,7 +55,7 @@ $$
其实梯度下降不是一个机器学习算法,而是一种基于搜索的最优化方法。因为很多算法都没有正规解的,所以需要通过一次一次的迭代来找到找到一组参数能让我们的损失函数最小。损失函数的大概套路可以参看这个图:
<div align=center><img src="./img/16.jpg"/></div>
<div align=center><img src="./img/16.jpg", height="300" width="350"/></div>
所以说,梯度下降的作用是不断的寻找靠谱的权重是多少。
@ -61,18 +63,18 @@ $$
这个性质怎么理解呢?举个栗子。假如我是个想要成为英雄联盟郊区王者的死肥宅,然后要成为郊区王者可能有这么几个因素,一个是英雄池的深浅,一个是大局观,还有一个是骚操作。他们对我成为王者来说都有一定的权重。如图所示,每一个因素的箭头都有方向(也就是因素对于我成为王者的偏导的方向)和长度(偏导的值的大小)。然后在这些因素的共同作用下,我最终会朝着一个方向来训练(好比物理中分力和合力的关系),这个时候我就能以最快的速度向郊区王者更进一步。
<div align=center><img src="./img/17.jpg"/></div>
<div align=center><img src="./img/17.jpg", height="300" width="350"/></div>
也就是说我如果一直朝着最终的那个方向努力的话,理论上来说我就能以最快的速度成为郊区王者。
OK。现在我们知道了梯度的方向是函数增长最快的方向,那我在梯度前面取个负号(反方向),那不就是函数下降最快的方向了么。所以,梯度下降它的本质就是更新权重的时候是沿着梯度的反方向更新。好比下面这个图,假如我是个瞎子,然后莫名其妙的来到了一个山谷里。现在我要做的事情就是走到山谷的谷底。因为我是瞎子,所以我只能一点一点的挪。要挪的话,那我肯定是那我的脚在我四周扫一遍,觉得哪里感觉起来更像是在下山那我就往哪里走。然后这样循环反复一发我最终就能走到山谷的谷底。
现在我们知道了梯度的方向是函数增长最快的方向,那我在梯度前面取个负号(反方向),那不就是函数下降最快的方向了么。所以,梯度下降它的本质就是更新权重的时候是沿着梯度的反方向更新。好比下面这个图,假如我是个瞎子,然后莫名其妙的来到了一个山谷里。现在我要做的事情就是走到山谷的谷底。因为我是瞎子,所以我只能一点一点的挪。要挪的话,那我肯定是那我的脚在我四周扫一遍,觉得哪里感觉起来更像是在下山那我就往哪里走。然后这样循环反复一发我最终就能走到山谷的谷底。
<div align=center><img src="./img/18.jpg"/></div>
<div align=center><img src="./img/18.jpg", height="300" width="350"/></div>
所以,梯度下降的伪代码如下:
<div align=center><img src="./img/19.jpg"/></div>
<div align=center><img src="./img/19.jpg", height="250" width="350"/></div>
循环干的事情就相当于我下山的时候在迈步子,代码里的 $$\alpha$$ 高端点叫学习率,实际上就是代表我下山的时候步子迈多大。值越小就代表我步子迈得小,害怕一脚下去掉坑里。值越大就代表我胆子越大,步子迈得越大,但是有可能会越过山谷的谷底。

@ -8,10 +8,19 @@
当一看到“**回归**”这两个字,可能会认为逻辑回归是一种解决回归问题的算法,然而逻辑回归是通过回归的思想来解决**二分类**问题的算法。
那么问题来了,回归的算法怎样解决分类问题呢?其实很简单,逻辑回归是将样本特征和样本所属类别的概率联系在一起,假设现在已经训练好了一个逻辑回归的模型为$$f(x)$$,模型的输出是样本$$x$$的标签是$$1$$的概率,则该模型可以表示成$$\hat p=f(x)$$。若得到了样本$$x$$属于标签$$1$$的概率后,很自然的就能想到当$$\hat p>0.5$$时$$x$$属于标签$$1$$,否则属于标签 $$0$$ 。所以就有$$\hat y=\begin{cases}
那么问题来了,回归的算法怎样解决分类问题呢?其实很简单,逻辑回归是将样本特征和样本所属类别的概率联系在一起,假设现在已经训练好了一个逻辑回归的模型为$$f(x)$$,模型的输出是样本$$x$$的标签是$$1$$的概率,则该模型可以表示成$$\hat p=f(x)$$。若得到了样本$$x$$属于标签$$1$$的概率后,很自然的就能想到当$$\hat p>0.5$$时$$x$$属于标签$$1$$,否则属于标签 $$0$$ 。所以就有:
<center>
$$
\hat y=\begin{cases}
0 & \hat p <0.5 \\
1 & \hat p >0.5
\end{cases}$$(其中$$\hat y$$为样本 $$x$$ 根据模型预测出的标签结果,标签 $$0$$ 和标签 $$1$$ 所代表的含义是根据业务决定的,比如在癌细胞识别中可以使 $$0$$ 代表良性肿瘤,$$1$$ 代表恶性肿瘤)。
\end{cases}
$$
</center>
<br>
(其中$$\hat y$$为样本 $$x$$ 根据模型预测出的标签结果,标签 $$0$$ 和标签 $$1$$ 所代表的含义是根据业务决定的,比如在癌细胞识别中可以使 $$0$$ 代表良性肿瘤,$$1$$ 代表恶性肿瘤)。
**由于概率是 $$0$$ 到 $$1$$ 的实数,所以逻辑回归若只需要计算出样本所属标签的概率就是一种回归算法,若需要计算出样本所属标签,则就是一种二分类算法。**
@ -21,7 +30,7 @@
$$sigmoid$$ 函数的公式为:$$\sigma(t)=1/1+e^{-t}$$。函数图像如下图所示:
![](./img/20.jpg)
<div align=center><img src="./img/20.jpg", height=300/></div>
从$$sigmoid$$函数的图像可以看出当$$t$$趋近于$$-\infty$$时函数值趋近于$$0$$,当$$t$$趋近于$$+\infty$$时函数值趋近于$$1$$。可见$$sigmoid$$函数的值域是$$(0,1)$$,满足我们要将$$(-\infty,+\infty)$$的实数转换成$$(0,1)$$的概率值的需求。因此**逻辑回归**在预测时可以看成$$\hat p=1/(1+e^{-Wx+b})$$,如果$$\hat p>0.5$$时预测为一种类别,否则预测为另一种类别。

@ -1,103 +1,10 @@
# 什么是机器学习
机器学习的定义有很多种,但是最准确的定义是:"A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E."
这个定义除了非常押韵之外,还体现了机器学习的几个关键点,即:"task", "experience" 和 "performance"。
## task
**task** 指的是机器学习所需要完成的任务。机器学习能够完成的任务主要有:**分类、回归、聚类**。
### 分类
假如现在有一些苹果、西瓜和香蕉的图片作为训练集(**有标签**),现在想要机器学习算法能够根据新的测试图片来分辨出该图片中的是苹果、西瓜还是香蕉。像这样的任务我们称为**分类**任务。
<div align=center><img src="./img/4.jpg"/></div>
### 回归
假如现在有一些苹果的售价数据作为训练集(**有标签**),现在想要机器学习算法能够根据新的测试图片来分辨出该图片中的苹果能卖多少钱。像这样的任务我们称为**回归**任务。
<div align=center><img src="./img/5.jpg"/></div>
### 聚类
假如现在有一些水果的图片作为训练集(**无标签**),现在想要机器学习算法能够根据训练集中的图片将这些图片进行归类,但是并不知道这些类别是什么。像这样的任务我们称为**聚类**任务。
<div align=center><img src="./img/6.jpg"/></div>
细心的您可能注意到了,**分类和回归问题的训练集中都是带有标签的**。也就是说数据已经告诉了机器学习算法我这条数据的答案是这个,那条数据的答案是那个,就像有老师在监督学生做题目一样,一看到学生做错了就告诉他题目做错了,看到学生做对了就鼓励他。所以用来解决**分类和回归**问题的机器学习算法又称为**监督学习**。而像用来解决**聚类**问题的机器学习算法又称为**无监督学习**。
## experience
**experience**指的根据历史数据总结归纳出规律的过程,即学习过程,或模型的训练过程。**模型**这个词看上去很高大上,其实我们可以把他看成是一个函数。例如:现在想用机器学习来识别图片里的是香蕉还是苹果,那么机器学习所的事情就是得到一个比较好的函数,当我们输入一张香蕉图片时,能得到识别结果为香蕉的输出,当我们输入一张苹果图片时,能得到识别结果为苹果的输出。
<div align=center><img src="./img/63.jpg"/></div>
至于这样一个函数(**模型**)里面长什么样子,这就与具体的机器学习算法有关了。对机器学学习算法感兴趣可以阅读**常见机器学习算法**章节。
## performance
**performance**指的是模型的性能。对于不同的任务,我们有不同的衡量模型性能的标准。例如分类时可能会根据模型的**准确率****精准率****召回率****AUC**等指标来衡量模型的好坏,回归时会看看模型的**MSE****RMSE****r2 score**等指标,回归时会以**FM指数****DB指数**等指标来衡量聚类的效果怎么样。对各种性能指标感兴趣可以阅读**模型评估指标**章节。
# 机器学习常用术语
## 训练集,测试集,样本,特征
假设我们收集了一份西瓜数据:
| 色泽 | 纹理 | 声音 | 甜不甜 |
| ------------ | ------------ | ------------ | ------------ |
| 青绿 | 清晰 | 清脆 | 不甜 |
| 青绿 | 模糊 | 浑浊 | 甜|
| 乌黑 | 清晰 | 清脆 | 不甜 |
| 乌黑 | 模糊 | 浑浊 | 甜 |
并假设现在已经使用机器学习算法根据这份数据的特点训练出了一个很厉害的模型,成为了一个挑瓜好手,只需告诉它这个西瓜的色泽,纹理和声音就能告诉你这个西瓜甜不甜。
我们通常将这种喂给机器学习算法来训练模型的数据称为**训练集**,用来让机器学习算法预测的数据称为**测试集**。
训练集中的所有行称为**样本**。由于我们的挑瓜好手需要的西瓜信息是色泽、纹理和声音,所以此训练集中每个样本的前`3`列称为**特征**。挑瓜好手给出的结果是甜或不甜,所以最后`1`列称为**标签**。
因此,这份数据是一个有`4`个**样本**`3`个**特征**的**训练集**,训练集的**标签**是“甜不甜”。
## 欠拟合与过拟合
最好的情况下,我们的模型应该不管在训练集上还是测试集上,它的性能都不错。但是有的时候,我们的模型在训练集上的性能比较差,那么这种情况我们称为**欠拟合**。那如果我们的模型在训练集上的性能好到爆炸,但在测试集上的性能却不尽人意,那么这种情况我们称为**过拟合**。
其实欠拟合与过拟合的区别和我们生活中学生考试的例子很像。如果一个学生在平时的练习中题目的正确率都不高,那么说明这个学生可能基础不牢或者心思没花在学习上,所以这位学生可能欠缺基础知识或者智商可能不太高或者其他种种原因,像这种情况可以看成是**欠拟合**。那如果这位学生平时练习的正确率非常高,但是他不怎么灵光,喜欢死记硬背,只会做已经做过的题,一碰到没见过的新题就不知所措了。像这种情况可以看成时是**过拟合**。
那么是什么原因导致了欠拟合和过拟合呢?
当我们的模型过于简单,很可能会导致欠拟合。如果模型过于复杂,就很可能会导致过拟合。
<div align=center><img src="./img/64.jpg"/></div>
## 验证集与交叉验证
在真实业务中,我们可能没有真正意义上的测试集,或者说不知道测试集中的数据长什么样子。那么我们怎样在没有测试集的情况下来验证我们的模型好还是不好呢?这个时候就需要**验证集**了。
那么验证集从何而来,很明显,我们可以从训练集中抽取一小部分的数据作为验证集,用来验证我们模型的性能。
但如果仅仅是从训练集中抽取一小部分作为验证集的话,有可能会让我们对模型的性能有一种偏见或者误解。
比如我们现在要对手写数字进行识别,那么我就可能会训练一个分类模型。但可能模型对于数字 1 的识别准确率比较低 ,而验证集中没多少个数字为 1 的样本,然后用验证集测试完后得到的准确率为 0.96 。然后您可能觉得哎呀,我的模型很厉害了,但其实并不然,因为这样的验证集让您的模型的性能有了误解。那有没有更加公正的验证算法性能的方法呢?有,那就是**k-折交叉验证**
在**K-折交叉验证**中,我们把原始训练数据集分割成 K 个不重合的⼦数据集,然后我们做 K 次模型训练和验证。每⼀次,我们使⽤⼀个⼦数据集验证模型,并使⽤其它 K1 个⼦数据集来训练模型。在这 K 次训练和验证中,每次⽤来验证模型的⼦数据集都不同。最后,我们对这 K 次在验证集上的性能求平均。
K 的值由我们自己来指定,如以下为 5 折交叉验证。
<div align=center><img src="./img/65.jpg"/></div>
# 机器学习概述
近年来,全球新一代信息技术创新浪潮迭起。作为全球信息领域产业竞争的新一轮焦点,人工智能的发展也迎来了第三次浪潮,它正在推动工业发展进入新的阶段,掀起第四次工业革命的序幕。而作为人工智能的重要组成部分,机器习也成了炙手可热的概念。本章将向您介绍机器学习的基础知识,为后面的学习打好基础。
本章主要涉及的知识点有:
- 什么是机器学习
- 机器学习的主要任务
- 机器学习中常见的术语
- 机器学习项目的流程

@ -1 +1,8 @@
本章主要介绍分类,回归以及聚类时常用的模型性能评估指标。
当模型训练好之后,我们需要有指标来量化我们的模型的性能好不好。而且模型的性能不单单只有一个维度,所以模型的好坏通常会用多个指标来进行衡量。例如,现在想要衡量一个分类模型的性能,您可能第一时间会想到用准确率来衡量模型的好坏,但是准确率高并不一定就代表模型的性能高,因此可能会需要使用如`f1 score`、`AUC`等指标来衡量。所以在什么情况下使用什么样的性能评估指标,每个指标的数值的含义时什么,是我们在评估模型性能时必须要学会的知识。
本章主要涉及的知识点有:
- 常用分类性能评估指标
- 常用回归性能评估指标
- 常用聚类性能评估指标

@ -0,0 +1,39 @@
# 二分类算法解决多分类问题
现实中常遇到多分类学习任务。有些二分类算法可以直接推广到多分类但在更多情形下我们是基于一些策略利用二分类算法来解决多分类问题。例如OvO、OvR。
## OvO
假设现在训练数据集的分布如下图所示(其中`A``B``C`代表训练数据的类别):
<div align=center><img src="./img/1011.jpg", height="300" width="400"/></div>
如果想要使用逻辑回归算法来解决这种`3`分类问题,可以使用`OvO`。`OvO`(`One Vs One`)是使用二分类算法来解决多分类问题的一种策略。从字面意思可以看出它的核心思想就是**一对一**。所谓的“一”,指的是类别。而“对”指的是从训练集中划分不同的两个类别的组合来训练出多个分类器。
划分的规则很简单,就是组合($$C_n^2$$,其中`n`表示训练集中类别的数量,在这个例子中为`3`)。如下图所示(其中每一个矩形框代表一种划分)
<div align=center><img src="./img/1012.jpg", height="500" width="400"/></div>
分别用这`3`种划分,划分出来的训练集训练二分类分类器,就能得到`3`个分类器。此时训练阶段已经完毕。如下图所示:
<div align=center><img src="./img/1013.jpg", height="500" width="400"/></div>
在预测阶段,只需要将测试样本分别扔给训练阶段训练好的`3`个分类器进行预测,最后将`3`个分类器预测出的结果进行投票统计,票数最高的结果为预测结果。如下图所示:
<div align=center><img src="./img/1014.jpg", height="300" width="400"/></div>
## OvR
如果想要使用逻辑回归算法来解决这种`3`分类问题,可以使用`OvR`。`OvR`(`One Vs Rest`)是使用二分类算法来解决多分类问题的一种策略。从字面意思可以看出它的核心思想就是**一对剩余**。一对剩余的意思是当要对`n`种类别的样本进行分类时,分别取一种样本作为一类,将剩余的所有类型的样本看做另一类,这样就形成了`n`个二分类问题。所以和`OvO`一样,在训练阶段需要进行划分。
划分也很简单,如下图所示:
<div align=center><img src="./img/1015.jpg", height="400" width="400"/></div>
分别用这`3`种划分,划分出来的训练集训练二分类分类器,就能得到`3`个分类器。此时训练阶段已经完毕。如下图所示:
<div align=center><img src="./img/1016.jpg", height="400" width="400"/></div>
在预测阶段,只需要将测试样本分别扔给训练阶段训练好的`3`个分类器进行预测,最后选概率最高的类别作为最终结果。如下图所示:
<div align=center><img src="./img/1017.jpg", height="300" width="400"/></div>

BIN
my.pdf

Binary file not shown.

@ -2,33 +2,33 @@
## Policy Gradient的核心思想
其实 Policy Gradient 的核心思想非常简单,就是找一个函数$$\pi$$,这个函数$$\pi$$能够根据现在环境的状态(state)来产生接下来要采取的行动或者动作(action)。即$$\pi(state)\rightarrow action$$。
`Policy Gradient`的核心思想非常简单,就是找一个函数$$\pi$$,这个函数$$\pi$$能够根据现在环境的状态(state)来产生接下来要采取的行动或者动作(action)。即$$\pi(state)\rightarrow action$$。
函数$$\pi$$其实可以看成是一个模型,那么想在无数次尝试中寻找出能让 Agent 尽量拿高分的模型应该怎样来找呢?我相信您应该猜到了!没错!就是神经网络!
我们可以将游戏画面传给神经网络作为输入,然后神经网络预测一下当前游戏画面下,下一步动作的概率分布。
<div align=center><img src="../img/1004.jpg"/></div>
<div align=center><img src="../img/1004.jpg", height=250/></div>
细心的您可能会发现,如果每次取概率最高的动作作为下一步的动作,那不就成分类了么。其实 Policy Gradient 的并不是每次都选取概率最高的动作,而是根据动作的概率分布进行采样。也就是说就算我预测出来的向上挪的概率为 80% ,也不一定会向上挪。
细心的您可能会发现,如果每次取概率最高的动作作为下一步的动作,那不就成分类了么。其实`Policy Gradient`的并不是每次都选取概率最高的动作,而是根据动作的概率分布进行采样。也就是说就算我预测出来的向上挪的概率为`80%`,也不一定会向上挪。
那么为什么采样而不是直接选取概率最大的呢?因为这样很有灵性。可以想象一下,我们和别人下棋的时候,如果一直按照套路来下,那么对手很可能能够猜到我们下一步棋会怎么走,从而占据主动。如果我们时不时地不按套路出牌,但是这种不按套路的动作不会降低太多对于我们能够赢下这一局棋的几率。那么对手很可能会不知所措,主动权就掌握在我们手里。就像《天龙八部》中虚竹大破珍珑棋局时一样,可能有灵性一点,会有意想不到的效果。
<div align=center><img src="../img/1005.jpg"/></div>
<div align=center><img src="../img/1005.jpg", width=250, height=150/></div>
## Policy Gradient 的原理
现在已经知道 Policy Gradient 是通过神经网络来训练模型,该模型需要根据环境状态来预测出下一步动作的概率分布,并根据这个概率分布进行采样,将采样到的动作作为下一步的动作。
现在已经知道`Policy Gradient`是通过神经网络来训练模型,该模型需要根据环境状态来预测出下一步动作的概率分布,并根据这个概率分布进行采样,将采样到的动作作为下一步的动作。
那么会有一个灵魂拷问,就是怎样来鉴定我的神经网络是好还是坏呢?很显然,当然是赢的越多越好了!所以我们不妨假设,让计算机玩 10 把乒乓球游戏,那么可能会有这样的一个统计结果。
那么会有一个灵魂拷问,就是怎样来鉴定我的神经网络是好还是坏呢?很显然,当然是赢的越多越好了!所以我们不妨假设,让计算机玩`10`把乒乓球游戏,那么可能会有这样的一个统计结果。
<div align=center><img src="../img/1006.jpg"/></div>
<div align=center><img src="../img/1006.jpg", height=350/></div>
那么怎样评价这 10 把游戏打的好还是不好呢?也很明细,把 10 把游戏的所有反馈全部都加起来就好了。如果把这些反馈的和称为总反馈(总得分),那么就有**总反馈(总得分)=第1把反馈1+第1把反馈2+...+第10把反馈m**。也就是说总反馈越高越好。
那么怎样评价这`10`把游戏打的好还是不好呢?也很明细,把`10`把游戏的所有反馈全部都加起来就好了。如果把这些反馈的和称为总反馈(总得分),那么就有**总反馈(总得分)=第1把反馈1+第1把反馈2+...+第10把反馈m**。也就是说总反馈越高越好。
说到这,有一个问题需要弄清楚:假设总共玩了 100 把,每 10 把计算一次总反馈,那么这 10 次的总反馈会不会是一模一样的呢?其实仔细想想会发现不会一摸一样,因为:
说到这,有一个问题需要弄清楚:假设总共玩了`100`把,每`10`把计算一次总反馈,那么这`10`次的总反馈会不会是一模一样的呢?其实仔细想想会发现不会一摸一样,因为:
- 游戏的状态实时在变,所以环境状态不可能一直是一样的。
- 动作是从一个概率分布中采样出来的。
@ -37,14 +37,14 @@
首先我们可以将每一把游戏看成一个游戏序列(**状态1->动作1->反馈1->状态2->动作2->反馈2 ... 状态N->动作N->反馈N**)。那么每一个游戏序列(即每一把游戏)的**反馈=反馈1+反馈2+...+反馈N**。因此,若假设$$R(\tau)$$表示游戏序列$$\tau$$的反馈,则有:$$R(\tau)=\sum_{n=1}^N\tau_n$$。
如果我们把整个乒乓球游戏所有可能出现的状态,动作,反馈组合起来看成是玩了 N(N很大很大) 把游戏,就会有 N 个游戏序列(**游戏序列1游戏序列2游戏序列3, ... , 游戏序列N**)。那么我们在玩游戏时所得到的游戏序列实际上就是从这 N 个游戏序列中采样得到的。
如果我们把整个乒乓球游戏所有可能出现的状态,动作,反馈组合起来看成是玩了`N`(`N`很大很大) 把游戏,就会有`N`个游戏序列(**游戏序列1游戏序列2游戏序列3, ... , 游戏序列N**)。那么我们在玩游戏时所得到的游戏序列实际上就是从这`N`个游戏序列中采样得到的。
所以我们游戏的总的反馈期望$$\overline{R_\theta}$$可表示为:$$\overline{R_\theta}=\sum_\tau R(\tau)P(\tau|\theta)$$。这个公式看起来复杂,其实不难理解。
<div align=center><img src="../img/1007.jpg"/></div>
<div align=center><img src="../img/1007.jpg", height=150/></div>
假设我们玩了 10 把游戏,就相当于得到了 10 个游戏序列[$$\tau_1, \tau_2, ..., \tau_{10}$$]。这 10 个游戏序列就相当于从 P 中采样了 10 次$$\tau$$。所以总反馈期望$$\overline{R_\theta}$$又可以近似的表示为:
假设我们玩了`10`把游戏,就相当于得到了`10`个游戏序列[$$\tau_1, \tau_2, ..., \tau_{10}$$]。这`10`个游戏序列就相当于从`P`中采样了`10`次$$\tau$$。所以总反馈期望$$\overline{R_\theta}$$又可以近似的表示为:
<center>
$$
@ -55,7 +55,7 @@ $$
由于$$\overline{R_\theta}$$的值越大越好,所以我们可以使用梯度上升的方式来更新$$\theta$$。所以就有如下数学推导:
<div align=center><img src="../img/1008.jpg"/></div>
<div align=center><img src="../img/1008.jpg", height=300/></div>
又由于:
@ -116,8 +116,8 @@ $$
$$P(a_t|s_t,\theta)$$其实就是我们神经网络根据环境状态预测出来的下一步的动作概率分布。
<div align=center><img src="../img/1009.jpg"/></div>
<div align=center><img src="../img/1009.jpg", height=150/></div>
OK到这里Policy Gradient 的数学推导全部推导完毕了。我们不妨用一张图来总结一下 Policy Gradient 的算法流程。流程如下:
到这里,`Policy Gradient`的数学推导全部推导完毕了。我们不妨用一张图来总结一下`Policy Gradient`的算法流程。流程如下:
<div align=center><img src="../img/1010.jpg"/></div>
<div align=center><img src="../img/1010.jpg", height=300/></div>

@ -2,12 +2,12 @@
## 安装 gym
想要玩乒乓球游戏,首先得有乒乓球游戏。OpenAI 的 gym 为我们提供了模拟游戏的环境。使得我们能够很方便地得到游戏的环境状态,并作出动作。想要安装 gym 非常简单,只要在命令行中输入`pip install gym`即可。
想要玩乒乓球游戏,首先得有乒乓球游戏。`OpenAI`的`gym`为我们提供了模拟游戏的环境。使得我们能够很方便地得到游戏的环境状态,并作出动作。想要安装`gym`非常简单,只要在命令行中输入`pip install gym`即可。
## 安装 atari_py
由于乒乓球游戏是雅达利游戏机上的游戏,所以需要安装 atari_py 来实现雅达利环境的模拟。安装 atari_py 也很方便,只需在命令行中输入`pip install --no-index -f https://github.com/Kojoley/atari-py/releases atari_py` 即可。
由于乒乓球游戏是雅达利游戏机上的游戏,所以需要安装 `atari_py`来实现雅达利环境的模拟。安装`atari_py`也很方便,只需在命令行中输入`pip install --no-index -f https://github.com/Kojoley/atari-py/releases atari_py` 即可。
## 开启游戏
@ -30,7 +30,7 @@ while True:
## 游戏画面预处理
由于`env.step`返回出来的 observation 是一张RGB的三通道图,而且我们的挡板怎么移动只跟挡板和球有关系,所以我们可以尝试将三通道图转换成一张二值化的图,其中挡板和球是 1 ,背景是 0
由于`env.step`返回出来的`observation`是一张`RGB`的三通道图,而且我们的挡板怎么移动只跟挡板和球有关系,所以我们可以尝试将三通道图转换成一张二值化的图,其中挡板和球是`1` ,背景是`0`
```python
@ -58,7 +58,7 @@ prev_x = cur_x
## 搭建神经网络
神经网络可以根据自己的喜好来搭建,在这里我使用最简单的只有两层全连接层的网络模型来进行预测,由于我们挡板的动作只有上和下,所以最后的激活函数为 sigmoid 函数。
神经网络可以根据自己的喜好来搭建,在这里我使用最简单的只有两层全连接层的网络模型来进行预测,由于我们挡板的动作只有上和下,所以最后的激活函数为`sigmoid`函数。
```python
# 神经网络中神经元的参数

@ -0,0 +1,11 @@
# 使用强化学习玩乒乓球游戏
`2013`年伦敦的一家人工智能公司`Deep Mind`发表了一篇论文`“Playing Atari with Deep Reinforcement Learning”`,一个月后`Google`就收购了这家公司。从那之后,`Reinforcement Learning`在人工智能领域就火了起来。`2016`年`AlphaGo`赢了与人类的围棋比赛,它也是用的强化学习。
在本章中就不下围棋了,我们尝试使用`Policy Gradient`(强化学习中的一种算法)让计算机程序自己玩雅达利的乒乓球游戏。本章主要涉及的知识点有:
- 什么是强化学习
- `Policy Gradient`原理
- 使用`Policy Gradient`玩乒乓球游戏

@ -2,29 +2,29 @@
强化学习是一类算法,是让计算机实现从一开始完全随机的进行操作,通过不断地尝试,从错误中学习,最后找到规律,学会了达到目的的方法。这就是一个完整的强化学习过程。让计算机在不断的尝试中更新自己的行为,从而一步步学习如何操自己的行为得到高分。
它主要包含四个元素Agent、环境状态、行动、奖励强化学习的目标就是获得最多的累计奖励。
它主要包含四个元素,`Agent`、环境状态、行动、奖励,强化学习的目标就是获得最多的累计奖励。
让我们想象一下比赛现场:
计算机有一位虚拟的裁判,这个裁判他不会告诉你如何行动,如何做决定,他为你做的事只有给你的行为打分,最开始,计算机完全不知道该怎么做,行为完全是随机的,那计算机应该以什么形式学习这些现有的资源,或者说怎么样只从分数中学习到我应该怎样做决定呢?很简单,只需要记住那些高分,低分对应的行为,下次用同样的行为拿高分, 并避免低分的行为。
计算机就是 Agent,他试图通过采取行动来操纵环境,并且从一个状态转变到另一个状态,当他完成任务时给高分(奖励),但是当他没完成任务时,给低分(无奖励)。这也是强化学习的核心思想。
计算机就是`Agent`,他试图通过采取行动来操纵环境,并且从一个状态转变到另一个状态,当他完成任务时给高分(奖励),但是当他没完成任务时,给低分(无奖励)。这也是强化学习的核心思想。
<div align=center><img src="../img/1001.jpg"/></div>
在强化学习中有很多算法,如果按类别划分可以划分成 model-based (基于模型)和 model-free (不基于模型)两大类。
在强化学习中有很多算法,如果按类别划分可以划分成 `model-based`(基于模型)和`model-free`(不基于模型)两大类。
如果我们的 Agent 不理解环境,环境给了什么就是什么,我们就把这种方法叫做 model-free这里的 model 就是用模型来表示环境,理解环境就是学会了用一个模型来代表环境,所以这种就是 model-based 方法。
如果我们的`Agent`不理解环境,环境给了什么就是什么,我们就把这种方法叫做`model-free`,这里的`model`就是用模型来表示环境,理解环境就是学会了用一个模型来代表环境,所以这种就是 `model-based`方法。
Model-free 的方法有很多, 像 Q learning、Sarsa、Policy Gradients 都是从环境中得到反馈然后从中学习。而 model-based 只是多了一道程序,为真实世界建模,也可以说他们都是 model-free 的强化学习, 只是 Model-based 多出了一个虚拟环境,我们可以先在虚拟环境中尝试,如果没问题,再拿到现实环境中来。
`Model-free`的方法有很多, 像`Q learning`、`Sarsa`、`Policy Gradients`都是从环境中得到反馈然后从中学习。而 `model-based`只是多了一道程序,为真实世界建模,也可以说他们都是`model-free`的强化学习, 只是`Model-based`多出了一个虚拟环境,我们可以先在虚拟环境中尝试,如果没问题,再拿到现实环境中来。
model-free 中, Agent 只能按部就班,一步一步等待真实世界的反馈,再根据反馈采取下一步行动。而 model-based,能通过想象来预判断接下来将要发生的所有情况,然后选择这些想象情况中最好的那种,并依据这种情况来采取下一步的策略,这也就是围棋场上 AlphaGo 能够超越人类的原因。
`model-free`中, `Agent`只能按部就班,一步一步等待真实世界的反馈,再根据反馈采取下一步行动。而`model-based`,能通过想象来预判断接下来将要发生的所有情况,然后选择这些想象情况中最好的那种,并依据这种情况来采取下一步的策略,这也就是围棋场上`AlphaGo`能够超越人类的原因。
<div align=center><img src="../img/1002.jpg"/></div>
<div align=center><img src="../img/1002.jpg", height=400/></div>
在这里主要介绍一下 model-free 中基于策略的一种算法Policy Gradient。在介绍该算法之前,我们先要明确一下这个雅达利乒乓球游戏中的**环境状态**是游戏画面,**Agent**是我们操作的挡板,**奖励**是分数,**动作**是上或者下。
在这里主要介绍一下`model-free`中基于策略的一种算法,`Policy Gradient`。在介绍该算法之前,我们先要明确一下这个雅达利乒乓球游戏中的**环境状态**是游戏画面,**Agent**是我们操作的挡板,**奖励**是分数,**动作**是上或者下。
<div align=center><img src="../img/1003.jpg"/></div>
<div align=center><img src="../img/1003.jpg", height=400/></div>

@ -35,7 +35,7 @@ $$
**Bagging**训练过程如下图所示:
![](./img/27.jpg)
<div align=center><img src="./img/27.jpg", height="250" width="400"/></div>
### Bagging方法如何预测
@ -43,7 +43,7 @@ $$
**Bagging**预测过程如下图所示:
![](./img/28.jpg)
<div align=center><img src="./img/28.jpg", height="250" width="400"/></div>
## 随机森林

@ -18,7 +18,7 @@
也可通过扫码查看整套课程,二维码如下:
<div align=center><img src="./img/999.png"/></div>
<div align=center><img src="./img/999.png", height="250" width="250"/></div>

@ -44,7 +44,7 @@ $$
其中$$y_{mean}$$表示所有测试样本标签值的均值。为什么这个指标会有刚刚我们提到的性能呢?我们分析下公式:
![](/img/71.jpg)
<div align=center><img src="./img/71.jpg"/></div>
其实分子表示的是模型预测时产生的误差,分母表示的是对任意样本都预测为所有标签均值时产生的误差,由此可知:

@ -16,7 +16,7 @@ scikit-learn(简记sklearn),是用 python 实现的机器学习算法库。skl
sklearn 提供的接口都封装在不同的目录下的不同的 py 文件中,所以对 sklearn 的目录结构有一个大致的了解,有助于我们更加深刻地理解 sklearn 。目录结构如下:
<div align=center><img src="./img/29.jpg"/></div>
<div align=center><img src="./img/29.jpg", height="250" width="250"/></div>
其实从目录名字可以看出目录中的 py 文件是干啥的。比如 cluster 目录下都是聚类算法接口, ensem 目录下都是集成学习算法的接口。
@ -26,7 +26,7 @@ sklearn 提供的接口都封装在不同的目录下的不同的 py 文件中
想要识别手写数字首先需要有数据。sklearn 中已经为我们准备好了一些比较经典且质量较高的数据集,其中就包括手写数字数据集。该数据集有 1797 个样本,每个样本包括 8*8 像素(实际上是一条样本有 64 个特征,每个像素看成是一个特征,每个特征都是 float 类型的数值)的图像和一个 [0, 9] 整数的标签。比如下图的标签是 2
<div align=center><img src="./img/31.jpg"/></div>
<div align=center><img src="./img/31.jpg", height="250" width="250"/></div>
想要使用这个数据很简单,代码如下:

@ -0,0 +1,51 @@
# 机器学习常用术语
## 训练集,测试集,样本,特征
假设我们收集了一份西瓜数据:
| 色泽 | 纹理 | 声音 | 甜不甜 |
| ------------ | ------------ | ------------ | ------------ |
| 青绿 | 清晰 | 清脆 | 不甜 |
| 青绿 | 模糊 | 浑浊 | 甜|
| 乌黑 | 清晰 | 清脆 | 不甜 |
| 乌黑 | 模糊 | 浑浊 | 甜 |
并假设现在已经使用机器学习算法根据这份数据的特点训练出了一个很厉害的模型,成为了一个挑瓜好手,只需告诉它这个西瓜的色泽,纹理和声音就能告诉你这个西瓜甜不甜。
我们通常将这种喂给机器学习算法来训练模型的数据称为**训练集**,用来让机器学习算法预测的数据称为**测试集**。
训练集中的所有行称为**样本**。由于我们的挑瓜好手需要的西瓜信息是色泽、纹理和声音,所以此训练集中每个样本的前`3`列称为**特征**。挑瓜好手给出的结果是甜或不甜,所以最后`1`列称为**标签**。
因此,这份数据是一个有`4`个**样本**`3`个**特征**的**训练集**,训练集的**标签**是“甜不甜”。
## 欠拟合与过拟合
最好的情况下,我们的模型应该不管在训练集上还是测试集上,它的性能都不错。但是有的时候,我们的模型在训练集上的性能比较差,那么这种情况我们称为**欠拟合**。那如果我们的模型在训练集上的性能好到爆炸,但在测试集上的性能却不尽人意,那么这种情况我们称为**过拟合**。
其实欠拟合与过拟合的区别和我们生活中学生考试的例子很像。如果一个学生在平时的练习中题目的正确率都不高,那么说明这个学生可能基础不牢或者心思没花在学习上,所以这位学生可能欠缺基础知识或者智商可能不太高或者其他种种原因,像这种情况可以看成是**欠拟合**。那如果这位学生平时练习的正确率非常高,但是他不怎么灵光,喜欢死记硬背,只会做已经做过的题,一碰到没见过的新题就不知所措了。像这种情况可以看成时是**过拟合**。
那么是什么原因导致了欠拟合和过拟合呢?
当我们的模型过于简单,很可能会导致欠拟合。如果模型过于复杂,就很可能会导致过拟合。
<div align=center><img src="./img/64.jpg", height="250" width="350"/></div>
## 验证集与交叉验证
在真实业务中,我们可能没有真正意义上的测试集,或者说不知道测试集中的数据长什么样子。那么我们怎样在没有测试集的情况下来验证我们的模型好还是不好呢?这个时候就需要**验证集**了。
那么验证集从何而来,很明显,我们可以从训练集中抽取一小部分的数据作为验证集,用来验证我们模型的性能。
但如果仅仅是从训练集中抽取一小部分作为验证集的话,有可能会让我们对模型的性能有一种偏见或者误解。
比如我们现在要对手写数字进行识别,那么我就可能会训练一个分类模型。但可能模型对于数字`1`的识别准确率比较低 ,而验证集中没多少个数字为`1`的样本,然后用验证集测试完后得到的准确率为`0.96`。然后您可能觉得哎呀,我的模型很厉害了,但其实并不然,因为这样的验证集让您的模型的性能有了误解。那有没有更加公正的验证算法性能的方法呢?有,那就是**k-折交叉验证**
在**K-折交叉验证**中,我们把原始训练数据集分割成`K`个不重合的⼦数据集,然后我们做`K`次模型训练和验证。每⼀次,我们使⽤⼀个⼦数据集验证模型,并使⽤其它`K1`个⼦数据集来训练模型。在这`K`次训练和验证中,每次⽤来验证模型的⼦数据集都不同。最后,我们对这`K`次在验证集上的性能求平均。
`K`的值由我们自己来指定,如以下为`5`折交叉验证。
<div align=center><img src="./img/65.jpg", height="200" width="400"/></div>

467
svm.md

@ -0,0 +1,467 @@
# 支持向量机
## 线性可分支持向量机
例如逻辑回归这种广义线性模型对数据进行分类时,其实本质就是找到一条 **决策边界** ,然后将数据分成两个类别(边界的一边是一种类别,另一边是另一种类别)。如下图中的两条线是两种模型产生的 **决策边界**
<div align=center><img src="./img/1024.jpg", height="250"/></div>
图中的绿线与黄线都能很好的将图中的红点与蓝点给区分开。但是,哪条线的泛化性更好呢?可能你不太了解泛化性,也就是说,我们的这条直线,不仅需要在训练集 **(已知的数据)** 上能够很好的将红点跟蓝点区分开来,还要在测试集 **(未知的数据)** 上将红点和蓝点给区分开来。
假如经过训练,我们得到了黄色的这条决策边界用来区分我们的数据,这个时候又来了一个数据,即黑色的点,那么你觉得黑色的点是属于红的这一类,还是蓝色的这一类呢?
<div align=center><img src="./img/1025.jpg", height="250"/></div>
如上图,根据黄线的划分标准,黑色的点应该属于红色这一类。可是,我们肉眼很容易发现,黑点离蓝色的点更近,它应该是属于蓝色的点。这就说明,黄色的这条直线它的泛化性并不好,它对于未知的数据并不能很好的进行分类。那么,如何得到一条泛化性好的直线呢?这个就是支持向量机考虑的问题。
### 基本思想
支持向量机的思想认为,一条决策边界它如果要有很好的泛化性,它需要满足一下以下两个条件:
- 能够很好的将样本划分
- 离最近的样本点最远
比如下图中的黑线:
<div align=center><img src="./img/1026.jpg", height="250"/></div>
它能够正确的将红点跟蓝点区分开来,而且,它还保证了对未知样本的容错率,因为它离最近的红点跟蓝点都很远,这个时候,再来一个数据,就不会出现之前黄色决策边界的错误了。
<div align=center><img src="./img/1027.jpg", height="250"/></div>
无论新的数据出现在哪个位置,黑色的决策边界都能够很好的给它进行分类,这个就是支持向量机的基本思想。
### 间隔与支持向量
在样本空间中,决策边界可以通过如下线性方程来描述:
<center>
$$
w^Tx+b=0
$$
</center>
<br>
其中$$w=(w_1,w_2,..,w_d)$$为法向量,决定了决策边界的方向。`b`为位移项,决定了决策边界与原点之间的距离。显然,决策边界可被法向量和位移确定,我们将其表示为`(w,b)`。样本空间中的任意一个点`x`,到决策边界`(w,b)`的距离可写为:
<center>
$$
r=\frac{|w^Tx+b|}{||w||}
$$
</center>
<br>
假设决策边界`(w,b)`能够将训练样本正确分类,即对于任何一个样本点$$(x_i,y_i)$$,若它为正类,即$$y_i=+1$$时,$$w^Tx+b\geq +1$$。若它为负类,即$$y_i=-1$$时,$$w^Tx+b\leq -1$$。
<div align=center><img src="./img/1028.jpg", height="250"/></div>
如图中,距离最近的几个点使两个不等式的等号成立,它们就被称为 **支持向量** ,即图中两条黄色的线。两个异类支持向量到超平面的距离之和为:
<center>
$$
r=\frac{2}{||w||}
$$
</center>
<br>
它被称为 **间隔** ,即蓝线的长度。欲找到具有“最大间隔”的决策边界,即黑色的线,也就是要找到能够同时满足如下式子的`w`与`b`:
<div align=center><img src="./img/1029.jpg", height="150"/></div>
显然,为了最大化间隔,仅需最大化$$||w||^{-1}$$,这等价于最小化$$||w||^2$$,于是,条件可以重写为:
<center>
$$
min \frac{1}{2}||w||^2
$$
</center>
<center>
$$
s.t. y_i(w^Tx+b)\geq1
$$
</center>
<br>
这就是**线性可分支持向量机**的基本型。
### 对偶问题
我们已经知道了支持向量机的基本型,问题本身是一个凸二次规划问题,可以用现成的优化计算包求解,不过可以用更高效的方法。支持向量机的模型如下:
<center>
$$
min\frac{1}{2}||W||^2
$$
</center>
<center>
$$
s.t. y_i(w^Tx+b)\geq1
$$
</center>
<br>
对两式子使用拉格朗日乘子法可得到其 **对偶问题** 。具体为,对式子的每条约束添加拉格朗日乘子$$\alpha\geq0$$,则该问题的拉格朗日函数可写为:
<center>
$$
L(w,b,\alpha)=\frac{1}{2}||w||^2+\sum^m_{i=1}\alpha_i(1-y_i(w^Tx_i+b))......(1)
$$
</center>
<br>
其中$$\alpha=(\alpha_1,\alpha_2,..,\alpha_m)$$。令$$L(w,b,\alpha)$$对$$w$$和$$b$$的偏导为零可得:
<center>
$$
w=\sum_{i=1}^m\alpha_iy_ix_i......(2)
$$
</center>
<center>
$$
0=\sum_{i=1}^m\alpha_iy_i......(3)
$$
</center>
<br>
将式子`2`带入式子`1`,则可将`w`和`b`消去,再考虑式子`3`的约束,就可得到原问题的 **对偶问题**
<center>
$$
max(\sum^m_{i=1}\alpha_i-\frac{1}{2}\sum_{i=1}^m\sum_{j=1}^m\alpha_i\alpha_jy_iy_jx_i^Tx_j)
$$
</center>
<center>
$$
s.t. \sum_{i=1}^m\alpha_iy_i=0
$$
</center>
<center>
$$
\alpha_i\geq0
$$
</center>
<br>
解出$$\alpha$$后,求出`w`与`b`即可得到模型:
<center>
$$
f(x)=w^Tx+b=\sum_{i=1}^m\alpha_iy_ix_i^Tx+b......(4)
$$
</center>
<br>
从对偶问题解出的$$\alpha_i$$是拉格朗日乘子,它恰对应着训练样本$$(x_i,y_i)$$,由于原问题有不等式的约束,因此上述过程需满足`KKT(Karush-Kuhn-Tucker)`条件,即要求:
<center>
$$
\begin{cases}
\alpha_i\geq0\\
y_if(x_i)-1\geq0\\
\alpha_i(y_if(x_i)-1)=0
\end{cases}
$$
</center>
<br>
于是,对任意训练样本$$(x_i,y_i)$$,总有$$\alpha_i=0$$或$$y_if(x_i)=1$$。若$$\alpha_i=0$$,则该样本将不会出现在式子`4`中,也就不会对$$f(x)$$,有任何影响。若$$\alpha_i>0$$,则必有$$y_if(x_i)=1$$,所对应的样本点位于最大间隔边界上,是一个支持向量。这显示出支持向量机的一个重要性质:**训练完后,大部分的训练样本都不需要保留,最终模型仅与支持向量有关** 。
## 线性支持向量机
假如现在有一份数据分布如下图:
<div align=center><img src="./img/1030.jpg", height="250"/></div>
按照线性可分支持向量机的思想,黄色的线就是最佳的决策边界。很明显,这条线的泛化性不是很好,造成这样结果的原因就是数据中存在着异常点,那么如何解决这个问题呢,支持向量机引入了 **软间隔最大化** 的方法来解决。
所谓的 **软间隔** ,是相对于硬间隔说的,刚刚在 **间隔与支持向量** 中提到的间隔就是硬间隔。
接着我们再看如何可以软间隔最大化呢?`SVM`对训练集里面的每个样本$$(x_i,y_i)$$引入了一个松弛变量$$\xi_i\geq0$$,使函数间隔加上松弛变量大于等于`1`,也就是说:
<center>
$$
y_i(w^Tx+b)\geq1-\xi
$$
</center>
<br>
对比硬间隔最大化,可以看到我们对样本到超平面的函数距离的要求放松了,之前是一定要大于等于`1`,现在只需要加上一个大于等于`0`的松弛变量能大于等于`1`就可以了。也就是允许支持向量机在一些样本上出错,如下图:
<div align=center><img src="./img/1031.jpg", height="250"/></div>
当然,松弛变量不能白加,这是有成本的,每一个松弛变量$$\xi_i$$, 对应了一个代价$$\xi_i$$,这个就得到了我们的 **软间隔最大化的支持向量机** ,模型如下:
<center>
$$
min \frac{1}{2}||w||^2+C\sum^{m}_{i=1}\xi_i
$$
</center>
<center>
$$
s.t. y_i(w^Tx_i+b)\geq1-\xi_i
$$
</center>
<center>
$$
\xi_i\geq0
$$
</center>
<br>
这里,`C>0`为惩罚参数,可以理解为我们一般回归和分类问题正则化时候的参数。`C`越大,对误分类的惩罚越大,`C`越小,对误分类的惩罚越小。也就是说,我们希望权值的二范数尽量小,误分类的点尽可能的少。`C`是协调两者关系的正则化惩罚系数。在实际应用中,需要调参来选择。
同样的,使用 **拉格朗日函数** 将软间隔最大化的约束问题转化为无约束问题,利用相同的方法得到数学模型:
<center>
$$
max(\sum^m_{i=1}\alpha_i-\frac{1}{2}\sum_{i=1}^m\sum_{j=1}^m\alpha_i\alpha_jy_iy_jx_i^Tx_j)
$$
</center>
<center>
$$
s.t. \sum_{i=1}^m\alpha_iy_i=0
$$
</center>
<center>
$$
0\leq\alpha_i\leq C
$$
</center>
<br>
这就是软间隔最大化时的 **线性支持向量机** 的优化目标形式,和之前的硬间隔最大化的线性可分支持向量机相比,我们仅仅是多了一个约束条件:
<center>
$$
0\leq\alpha_i\leq C
$$
</center>
<br>
## smo算法
**序列最小优化算法** (`smo`算法)是一种启发式算法, `SVM`中的模型参数可以使用该算法进行求解。其基本思路是:如果所有变量的解都满足此最优化问题的`KKT`条件,那么这个最优化问题的解就得到了。因为`KKT`条件是该最优化问题的充分必要条件。否则,选择两个变量,固定其他变量,针对这两个变量构建一个二次规划问题。这个二次规划问题关于这两个变量的解应该更接近原始二次规划问题的解,因为这会使得原始二次规划问题的目标函数值变得更小。重要的是,这时子问题可以通过解析方法求解,这样就可以大大提高整个算法的计算速度。子问题有两个变量,一个是违反`KKT`条件最严重的那一个,另一个由约束条件自动确定。如此,`smo`算法将原问题不断分解为子问题并对子问题求解,进而达到求解原问题的目的。具体如下:
选择两个变量$$\alpha_1,\alpha_2$$,其它变量$$\alpha_i,i=3,4,..m$$是固定的。
于是,`smo`的最优化问题的子问题可以写成:
<center>
$$
min(\frac{1}{2}k_{11}\alpha_1^2+\frac{1}{2}k_{22}\alpha2^2+y_1y_2k_{12}\alpha_1\alpha_2-(\alpha_1+\alpha_2)+y_1\alpha_1\sum_{i=3}^my_i\alpha_ik_{i1}+y_2\alpha_2\sum_{i=3}^my_i\alpha_ik_{i2})
$$
</center>
<center>
$$
s.t. \alpha_1y_1+\alpha_2y_2=-\sum_{i=3}^my_i\alpha_i=\xi
$$
</center>
<center>
$$
0\leq\alpha_i\leq C,i=1,2
$$
</center>
<br>
其中:$$k_{ij}=k(x_i,x_j)$$
### smo算法目标函数的优化
为了求解上面含有这两个变量的目标优化问题,我们首先分析约束条件,所有的$$\alpha_1,\alpha_2$$都要满足约束条件,然后在约束条件下求最小。
根据上面的约束条件$$\alpha_1y_1+\alpha_2y_2=\xi,0\leq\alpha_i\leq C,i=1,2$$,又由于$$y_1,y_2$$均只能取值`1`或者`-1`, 这样$$\alpha_1,\alpha_2$$在`[0,C]`和`[0,C]`形成的盒子里面,并且两者的关系直线的斜率只能为`1`或者`-1`,也就是说$$\alpha_1,\alpha_2$$的关系直线平行于`[0,C]`和`[0,C]`形成的盒子的对角线,如下图所示:
<div align=center><img src="./img/1032.jpg", height="200"/></div>
由于$$\alpha_1,\alpha_2$$的关系被限制在盒子里的一条线段上,所以两变量的优化问题实际上仅仅是一个变量的优化问题。不妨我们假设最终是$$\alpha_2$$的优化问题。由于我们采用的是启发式的迭代法,假设我们上一轮迭代得到的解是$$\alpha^{old}_1,\alpha^{old}_2$$,假设沿着约束方向$$\alpha_2$$未经剪辑的解是$$\alpha_2^{new,unc}$$。本轮迭代完成后的解为$$\alpha^{new}_1,\alpha^{new}_2$$。
由于$$\alpha_2^{new}$$必须满足上图中的线段约束。假设`L`和`H`分别是上图中$$\alpha_2^{new}$$所在的线段的边界。那么很显然我们有:
<center>
$$
L\leq\alpha_2^{new}\leq H
$$
</center>
<br>
而对于`L`和`H`,我们也有限制条件如果是上面左图中的情况,则:
<center>
$$
L=max(0,\alpha^{old}_2-\alpha^{old}_1),H=min(C,C+\alpha^{old}_2-\alpha^{old}_1)
$$
</center>
<br>
如果是上面右图中的情况,我们有:
<center>
$$
L=max(0,\alpha^{old}_2+\alpha^{old}_1-C),H=min(C,\alpha^{old}_2+\alpha^{old}_1)
$$
</center>
<br>
也就是说,假如我们通过求导得到的$$\alpha_2^{new,unc}$$,则最终的$$\alpha_2^{new}$$应该为:
<center>
$$
\alpha_2^{new,unc}=\begin{cases}
H,\alpha_2^{new,unc}>H\\
\alpha_2^{new,unc},L\leq\alpha_2^{new,unc}\leq H\\
L,\alpha_2^{new,unc}< L
\end{cases}
$$
</center>
<br>
那么如何求出$$\alpha_2^{new}$$呢?很简单,我们只需要将目标函数对$$\alpha2$$求偏导数即可。首先我们整理下我们的目标函数。为了简化叙述,我们令:
<center>
$$
E_i=g(x_i)-y_i
$$
</center>
<br>
其中:
<center>
$$
g(x)=w.\varnothing(x)+b
$$
</center>
<center>
$$
v_i=g(x_i)-\sum_{j=1}^2y_j\alpha_jk(x_i,x_j)-b
$$
</center>
<br>
最终可以计算得:
<center>
$$
\alpha_2^{new,unc}=\alpha_2^{old}+\frac{y_2(E_1-E_2)}{k_{11}+k_{22}-2k_{12}}
$$
</center>
<br>
### smo算法两个变量的选择
`smo`算法需要选择合适的两个变量做迭代,其余的变量做常量来进行优化,那么怎么选择这两个变量呢?
一般来说,我们首先选择违反$$0 < \alpha_i < C$$这个条件的点。如果这些支持向量都满足`KKT`条件,再选择违反$$\alpha_i=0$$和$$\alpha_i=C$$的点。
`smo`算法称选择第二一个变量为内层循环,假设我们在外层循环已经找到了$$\alpha_1$$, 第二个变量$$\alpha_2$$的选择标准是让`|E1E2|`有足够大的变化。由于$$\alpha_1$$定了的时候,`E1`也确定了,所以要想`|E1E2|`最大,只需要在`E1`为正时,选择最小的`Ei`作为`E2` 在`E1`为负时,选择最大的`Ei`作为`E2`,可以将所有的`Ei`保存下来加快迭代。
如果内存循环找到的点不能让目标函数有足够的下降, 可以采用遍历支持向量点来做$$\alpha_2$$,直到目标函数有足够的下降, 如果所有的支持向量做$$\alpha_2$$都不能让目标函数有足够的下降,可以跳出循环,重新选择$$\alpha_1$$。
### 计算阈值b和差值Ei
在每次完成两个变量的优化之后,需要重新计算阈值`b`。当$$0<\alpha_1^{new}< C$$时,我们有:
<center>
$$
y_1-\sum_{i=1}^m\alpha_iy_ik_{i1}-b_1=0
$$
</center>
<br>
于是新的$$b_1^{new}$$为:
<center>
$$
b_1^{new}=y_1-\sum_{i=3}^m\alpha_iy_ik_{i1}-\alpha_1^{new}y_1k_{11}-\alpha2^{new}y_2k_{21}
$$
</center>
<br>
用$$E_1$$表示为:
<center>
$$
b_1^{new}=-E_1-y_1k_{11}(\alpha_1^{new}-\alpha_1^{old})-y_2k_{21}(\alpha_2^{new}-\alpha_2^{old})-b^{old}
$$
</center>
<br>
同样的,如果$$0<\alpha_2^{new}< C$$,则:
<center>
$$
b_2^{new}=-E_2-y_1k_{12}(\alpha_1^{new}-\alpha_1^{old})-y_2k_{22}(\alpha_2^{new}-\alpha_2^{old})-b^{old}
$$
</center>
<br>
最终:
<center>
$$
b^{new}=\frac{b^{new}_1+b^{new}_2}{2}
$$
</center>
继续更新得:
<center>
$$
E_i=\sum_sy_j\alpha_jk(x_i,x_j)+b^{new}-y_i
$$
</center>
其中`s`为所有支持向量$$x_j$$的集合。
### 序列最小优化算法流程
`1`.取初始值$$\alpha^0=0,k=0$$
`2`.计算$$\alpha_2^{new,unc}$$,即:
<center>
$$
\alpha_2^{new,unc}=\alpha_2^{old}+\frac{y_2(E_1-E_2)}{k_{11}+k_{22}-2k_{12}}
$$
</center>
`3`.计算$$\alpha_2^{k+1}$$,即:
<center>
$$
\alpha_2^{k+1}=\begin{cases}
H,\alpha_2^{new,unc}>H\\
\alpha_2^{new,unc},L\leq\alpha_2^{new,unc}\leq H\\
L,\alpha_2^{new,unc}< L
\end{cases}
$$
</center>
`4`.利用$$\alpha_2^{k+1}$$和$$\alpha_1^{k+1}$$关系求出$$\alpha_1^{k+1}$$
`5`.计算$$b^{k+1}$$和$$E_i$$
`6`.在精度范围内检查是否满足如下的终止条件:
<center>
$$
\sum_{i=1}^m\alpha_iy_i=0
0\leq\alpha_i\leq C
\alpha_i^{k+1}=0
0<\alpha_i^{k+1}<C
\alpha_i^{k+1}=C
$$
</center>
`7`.如果满足则结束,返回$$\alpha^{k+1}$$,否则转向步骤`2`

@ -1,10 +1,10 @@
# 探索性数据分析(EDA)
探索性数据分析(EDA)说白了就是通过可视化的方式来看看数据中特征与特征之间,特征与目标之间的潜在关系,看看有什么有用的线索可以挖掘,例如哪些数据是噪声,有哪些特征的相关性比较低,后续可以造出哪些新的特征等。
探索性数据分析(`EDA`)说白了就是通过可视化的方式来看看数据中特征与特征之间,特征与目标之间的潜在关系,看看有什么有用的线索可以挖掘,例如哪些数据是噪声,有哪些特征的相关性比较低,后续可以造出哪些新的特征等。
## 初窥
当然在EDA之前先要加载数据我们不妨先将训练集train.csv读到内存中并看一看。
当然,在`EDA`之前先要加载数据,我们不妨先将训练集`train.csv`读到内存中,并看一看。
```python
import numpy as np
@ -18,9 +18,9 @@ data=pd.read_csv('./Titanic/train.csv')
data.head()
```
<div align=center><img src="../img/32.jpg"/></div>
<div align=center><img src="../img/32.jpg"/, height="200" width="550"></div>
从图中可以看出数据是由 11 个特征和 1 个标签(Survived)组成的。其中各个特征和标签的意义如下:
从图中可以看出数据是由`11`个特征和`1`个标签(Survived)组成的。其中各个特征和标签的意义如下:
@ -45,10 +45,10 @@ data.head()
data.isnull().sum()
```
<div align=center><img src="../img/33.jpg"/></div>
<div align=center><img src="../img/33.jpg", height="200" width="150"/></div>
可以看出 AgeCabin 和 Embarked 这三个特征中有缺失值,我们需要处理这些缺失值。怎样处理呢?先不着急,我们可以先看看数据中有哪些信息可以挖掘。
可以看出`Age``Cabin`和`Embarked`这三个特征中有缺失值,我们需要处理这些缺失值。怎样处理呢?先不着急,我们可以先看看数据中有哪些信息可以挖掘。
## 有多少人活了下来
@ -68,7 +68,7 @@ plt.show()
<div align=center><img src="../img/34.jpg"/></div>
从图中可以看出泰坦尼克沉船事件中还是凶多吉少的。因为在 891 名船客中,只有约 38% 左右的人幸免于难,那么接下来尝试使用数据集中不同的特征,来看看他们的生还率有多少。其实这样一个过程我们可以看出大概有哪些类型的船客活了下来。
从图中可以看出泰坦尼克沉船事件中还是凶多吉少的。因为在`891`名船客中,只有约`38%`左右的人幸免于难,那么接下来尝试使用数据集中不同的特征,来看看他们的生还率有多少。其实这样一个过程我们可以看出大概有哪些类型的船客活了下来。
## 性别与生还率的关系
@ -93,11 +93,11 @@ plt.show()
<div align=center><img src="../img/36.jpg"/></div>
从图中可以看出一个比较有趣的现象,船上的男人是比女人多了 200 多人,但是女人生还的人数几乎是男人生还的人数的两倍,女人的存活率约为 75% ,而男人的存活率约为 19% 的样子。所以 Sex 这个特征应该是一个能够很好的区分一个人是否生还的特征。而且对于生还来说,好像是女士优先。
从图中可以看出一个比较有趣的现象,船上的男人是比女人多了 `200`多人,但是女人生还的人数几乎是男人生还的人数的两倍,女人的存活率约为`75%`,而男人的存活率约为`19%`的样子。所以 `Sex`这个特征应该是一个能够很好的区分一个人是否生还的特征。而且对于生还来说,好像是女士优先。
## 船票类型与生还率的关系
船票类型分三个档次,其中 1 为一等舱, 2 为二等舱, 3 为三等舱。既然船舱分三六九等,那么是不是越高级的舱,它的生还率越高呢?
船票类型分三个档次,其中`1`为一等舱,`2`为二等舱,`3`为三等舱。既然船舱分三六九等,那么是不是越高级的舱,它的生还率越高呢?
```python
f,ax=plt.subplots(1,2,figsize=(18,8))
@ -111,7 +111,7 @@ plt.show()
<div align=center><img src="../img/37.jpg"/></div>
虽然说钱不是万能的,但从可视化结果可以看出,一等舱的生还率最高,大于为 63%,二等舱的生还率约为 48% ,而且虽然三等舱的船客人数是最多的,但生还率确是最低的。所以不难看出,金钱地位还是很重要的,也许一等舱周围有比较多的救生设备。
虽然说钱不是万能的,但从可视化结果可以看出,一等舱的生还率最高,大于为`63%`,二等舱的生还率约为`48%` ,而且虽然三等舱的船客人数是最多的,但生还率确是最低的。所以不难看出,金钱地位还是很重要的,也许一等舱周围有比较多的救生设备。
## 上流女性与生还率的关系
@ -140,7 +140,7 @@ print('Average Age on the ship:',data['Age'].mean(),'Years')
<div align=center><img src="../img/39.jpg"/></div>
年纪最大的是80岁的老爷爷或者老太太最小的是刚出生的小 baby 平均年龄快 30 岁。这个还是符合常理的。接下来我们看看船舱等级,年龄和生还率的关系,以及性别,年龄和生还率的关系。
年纪最大的是`80`岁的老爷爷或者老太太,最小的是刚出生的小 `baby`,平均年龄快`30`岁。这个还是符合常理的。接下来我们看看船舱等级,年龄和生还率的关系,以及性别,年龄和生还率的关系。
```python
f,ax=plt.subplots(1,2,figsize=(18,8))
@ -159,17 +159,17 @@ plt.show()
从可视化结果可以看出:
- 儿童的数量随着船舱等级的增加而增加,10 岁以下的小朋友存活率仿佛都还挺高的,跟船舱等级好像没有太大关系。
- 儿童的数量随着船舱等级的增加而增加,`10`岁以下的小朋友存活率仿佛都还挺高的,跟船舱等级好像没有太大关系。
- 来自一等舱的 20-50 岁的船客的存活率很高,而且对女性的生还率一如既往的高。
- 来自一等舱的`20-50`岁的船客的存活率很高,而且对女性的生还率一如既往的高。
- 对于男性来说,年纪越大,生还率越低。
不过我们的年龄是有缺失值的,如果图简单,可以使用平均年龄来填充缺失的年龄。但是这样做并不合适,比如人家只是个 5 岁的小屁孩,但是你把人家强行改成 29 岁显然是不合适的。那有没有能够更加准确地知道缺失的年龄是多少的方法呢?有!我们可以根据姓名来推断缺失的年龄,因为姓名中有很多类似 Mr 或者 Mrs 这样的前缀,所以我们可以根据姓名的前缀来填充缺失的年龄。
不过我们的年龄是有缺失值的,如果图简单,可以使用平均年龄来填充缺失的年龄。但是这样做并不合适,比如人家只是个`5`岁的小屁孩,但是你把人家强行改成`29`岁显然是不合适的。那有没有能够更加准确地知道缺失的年龄是多少的方法呢?有!我们可以根据姓名来推断缺失的年龄,因为姓名中有很多类似`Mr`或者`Mrs`这样的前缀,所以我们可以根据姓名的前缀来填充缺失的年龄。
## 填充缺失年龄
外国人的姓名和我们中国人的姓名不太一样,一般都会有 Mr 、 Mrs 、Miss 、Dr 等特殊前缀。所以我们可以先提取姓名中的前缀。
外国人的姓名和我们中国人的姓名不太一样,一般都会有`Mr`、 `Mrs`、`Miss`、`Dr`等特殊前缀。所以我们可以先提取姓名中的前缀。
```python
data['Initial']=0
@ -177,7 +177,7 @@ for _ in data:
data['Initial']=data.Name.str.extract('([A-Za-z]+)\.')
```
这样我们能够提取出诸如:Capt 、Col 、Don 、Lady 、Major 、Sir 等前缀,接着我们可以将这些前缀替换成 Miss 、 Mr 、 Mrs 、 Other 这四个类别,并统计这四个类别的平均年龄。
这样我们能够提取出诸如:`Capt`、`Col`、`Don`、`Lady`、`Major`、`Sir`等前缀,接着我们可以将这些前缀替换成`Miss`、`Mr`、`Mrs`、`Other`这四个类别,并统计这四个类别的平均年龄。
```python
data['Initial'].replace(['Mlle','Mme','Ms','Dr','Major','Lady','Countess','Jonkheer','Col','Rev','Capt','Sir','Don'],['Miss','Miss','Miss','Mr','Mr','Mrs','Mrs','Other','Other','Other','Mr','Mr','Mr'],inplace=True)
@ -213,7 +213,7 @@ plt.show()
<div align=center><img src="../img/42.jpg"/></div>
从图中可以看出 5 岁以下的小屁孩的生还率比较高80 岁的老人活下来了。
从图中可以看出`5`岁以下的小屁孩的生还率比较高,`80`岁的老人活下来了。
```python
sns.factorplot('Pclass','Survived',col='Initial',data=data)
@ -238,7 +238,7 @@ plt.show()
<div align=center><img src="../img/44.jpg"/></div>
可以看出从 C 号口岸上船的生还率最高,最低的是 S 号口岸。嗯,好像并没有什么线索,我们可以再深入一点。
可以看出从`C`号口岸上船的生还率最高,最低的是`S`号口岸。嗯,好像并没有什么线索,我们可以再深入一点。
```python
f,ax=plt.subplots(2,2,figsize=(20,15))
@ -258,10 +258,10 @@ plt.show()
现在能看出很多信息了:
- 上船人数最多的口岸是 S 号口岸,而且在 S 号口岸上船的人大多数都是三等舱的船客。
- C 号口岸上船的生还率最高,可能大部分 C 口岸上船的人是一等舱和二等舱船客吧。
- 虽然有很多一等舱的土豪们基本上都是在 S 口岸上船的,但是 S 口岸的的生还率最低。这是因为 S 口岸上船的人中有很多都是三等舱的船客。
- Q 号口岸上船的人中有 90% 多都是三等舱的船客。
- 上船人数最多的口岸是`S`号口岸,而且在`S`号口岸上船的人大多数都是三等舱的船客。
- `C`号口岸上船的生还率最高,可能大部分`C`口岸上船的人是一等舱和二等舱船客吧。
- 虽然有很多一等舱的土豪们基本上都是在`S`口岸上船的,但是 `S`口岸的的生还率最低。这是因为`S`口岸上船的人中有很多都是三等舱的船客。
- `Q`号口岸上船的人中有`90%`多都是三等舱的船客。
```python
sns.factorplot('Pclass','Survived',hue='Sex',col='Embarked',data=data)
@ -273,14 +273,14 @@ plt.show()
我们可以看出:
- 一等舱和二等舱的女性的生还率几乎为 100% 这与女性是一等舱还是二等舱没啥关系。
- S 号口岸上船并且是三等舱的,不管是男的还是女的,生还率都很低。金钱决定命运。。。
- Q 号口岸上船的男性几乎团灭因为Q 号口岸上船的基本上都是三等舱船客。
- 一等舱和二等舱的女性的生还率几乎为`100%` 这与女性是一等舱还是二等舱没啥关系。
- `S`号口岸上船并且是三等舱的,不管是男的还是女的,生还率都很低。金钱决定命运。。。
- `Q`号口岸上船的男性几乎团灭,因为`Q`号口岸上船的基本上都是三等舱船客。
## 填充缺失口岸
由于大多数人都是从 S 号口岸上的船,我们可以假设由于人多,所以在 S 口岸登记信息时漏了几位船客,所以不妨用 S 号口岸填充缺失值。
由于大多数人都是从`S`号口岸上的船,我们可以假设由于人多,所以在`S`口岸登记信息时漏了几位船客,所以不妨用`S`号口岸填充缺失值。
```python
data['Embarked'].fillna('S',inplace=True)
@ -300,7 +300,7 @@ plt.show()
<div align=center><img src="../img/47.jpg"/></div>
从图可以看出,如果一位船客是单独一个人上船旅游,没有兄弟姐妹而且是单身,那么他有大约 34% 的生还率,生还率比较低。如果兄弟姐妹的数量变多,那么生还率还是呈下降趋势的。这其实挺合理的,因为如果是一个家庭在船上的话,可能会设法救他们而不是救自己,这样一来可能谁都救不了。
从图可以看出,如果一位船客是单独一个人上船旅游,没有兄弟姐妹而且是单身,那么他有大约`34%`的生还率,生还率比较低。如果兄弟姐妹的数量变多,那么生还率还是呈下降趋势的。这其实挺合理的,因为如果是一个家庭在船上的话,可能会设法救他们而不是救自己,这样一来可能谁都救不了。
## 父母的数量与生还率的关系
@ -318,7 +318,7 @@ plt.show()
<div align=center><img src="../img/48.jpg"/></div>
从图上看会发现结果和上面的比较相似,父母在船上的船客有更大的生还机会。而且对于那些在船上有 1-3 个父母的人来说,生还率还是比较高的。
从图上看会发现结果和上面的比较相似,父母在船上的船客有更大的生还机会。而且对于那些在船上有`1-3`个父母的人来说,生还率还是比较高的。
## 花费与生还率的关系
@ -349,7 +349,7 @@ plt.show()
<div align=center><img src="../img/50.jpg"/></div>
从图中可以看出平均花费其实是二等舱的普遍消费水平,但是三等舱的人数是最多的,而三等舱的人群中花费人数最多的是 10 左右,因此平均 32 的花费是被有钱的大佬给提上去的。
从图中可以看出平均花费其实是二等舱的普遍消费水平,但是三等舱的人数是最多的,而三等舱的人群中花费人数最多的是`10`左右,因此平均`32`的花费是被有钱的大佬给提上去的。
## 简单总结一下
@ -357,15 +357,15 @@ plt.show()
- 性别:女性的生还率高
- 船舱等级:越有钱越容易活下来,头等舱的生还率最高,三等舱的生还率最低。
- 年龄:10 岁以下的小朋友的存活率比较高15-35 岁的年轻人存活率低。可能年轻人就是炮灰吧。
- 口岸:即使大多数一等舱的船客在 S 号口岸上的船, 但生还率不是最高的。 Q 号口岸的基本上是三等舱的船客。
- 兄弟姐妹父母爱人数量:有 1-2 个兄弟姐妹,配偶在船上,或 1-3 个父母的生还率比较高,独自一人或者一个大家庭都在船上的生还率比较低。
- 年龄:`10`岁以下的小朋友的存活率比较高,`15-35`岁的年轻人存活率低。可能年轻人就是炮灰吧。
- 口岸:即使大多数一等舱的船客在`S`号口岸上的船, 但生还率不是最高的。`Q`号口岸的基本上是三等舱的船客。
- 兄弟姐妹父母爱人数量:有`1-2`个兄弟姐妹,配偶在船上,或 `1-3`个父母的生还率比较高,独自一人或者一个大家庭都在船上的生还率比较低。
## 特征之间的相关性系数
相关性分为正相关与负相关,正相关指的是:如果特征 A 的数值变大会导致特征 B 的数值变大;负相关指的是:如果特征 A 的数值变小会导致特征 B 的数值变大。通常使用 [-1, 1] 的数值来表示两个特征之间的相关性,这个值称为**相关性系数**。若该系数为 1 那么表示两个特征之间完全正相关,若为 -1 则表示完全负相关,若为 0 则表示两个特征之间没有相关性(线性的)。
相关性分为正相关与负相关,正相关指的是:如果特征`A`的数值变大会导致特征`B`的数值变大;负相关指的是:如果特征`A`的数值变小会导致特征`B`的数值变大。通常使用`[-1, 1]`的数值来表示两个特征之间的相关性,这个值称为**相关性系数**。若该系数为`1`那么表示两个特征之间完全正相关,若为`-1`则表示完全负相关,若为`0`则表示两个特征之间没有相关性(线性的)。
如果现在两个特征高度相关或者完全相关,这就意味着这两个特征都包含高度相似的信息,并且信息的差异非常小,所以其中一个特征是多余的。在构建模型时,我们应该尽量消除这种多余的特征,因为这样能减少训练的时间,也可以在某种程度上缓解过拟合。
@ -378,6 +378,6 @@ fig.set_size_inches(10,8)
plt.show()
```
<div align=center><img src="../img/51.jpg"/></div>
<div align=center><img src="../img/51.jpg", height="400" width="400"/></div>
从热力图上可以看出这些特征之间没有太大的相关性,最高的也就 SibSp与Parch值为 0.41
从热力图上可以看出这些特征之间没有太大的相关性,最高的也就 `SibSp`与`Parch`,值为`0.41`

@ -1,13 +1,13 @@
# 特征工程
什么是特征工程?其实每当我们拿到数据时,并不是所有的特征都是有用的,可能有许多冗余的特征需要删掉,或者根据 EDA 的结果,我们可以根据已有的特征来添加新的特征,这其实就是特征工程。
什么是特征工程?其实每当我们拿到数据时,并不是所有的特征都是有用的,可能有许多冗余的特征需要删掉,或者根据`EDA`的结果,我们可以根据已有的特征来添加新的特征,这其实就是特征工程。
接下来我们来尝试对一些特征进行处理。
## 年龄离散化
年龄是一个连续型的数值特征,有的机器学习算法对于连续性数值特征不太友好,例如决策树、随机森林等 tree-base model。所以我们可以考虑将年龄转换成年龄段。例如将年龄小于 16 的船客置为 0 16 到 32 岁之间的置为 1 等。
年龄是一个连续型的数值特征,有的机器学习算法对于连续性数值特征不太友好,例如决策树、随机森林等`tree-base model`。所以我们可以考虑将年龄转换成年龄段。例如将年龄小于`16`的船客置为`0` `16`到`32`岁之间的置为`1`等。
```python
data['Age_band']=0
@ -18,7 +18,7 @@ data.loc[(data['Age']>48)&(data['Age']<=64),'Age_band']=3
data.loc[data['Age']>64,'Age_band']=4
```
![](../img/52.jpg)
<div align=center><img src="../img/52.jpg", height="200" width="450"/></div>
我们可以看一下转换成年龄段后,年龄段与生还率的关系。
@ -27,9 +27,9 @@ sns.factorplot('Age_band','Survived',data=data,col='Pclass')
plt.show()
```
![](../img/53.jpg)
<div align=center><img src="../img/53.jpg"/></div>
可以看出和我们之前 EDA 的结果相符,年龄越大,生还率越低。
可以看出和我们之前`EDA`的结果相符,年龄越大,生还率越低。
## 家庭成员数量与是否孤身一人
@ -55,16 +55,16 @@ plt.close(3)
plt.show()
```
![](../img/54.jpg)
<div align=center><img src="../img/54.jpg"/></div>
从图中可以很明显的看出,如果你是一个人,那么生还的几率比较低,而且对于人数大于 4 人的家庭来说生还率也比较低。感觉,这可能也是一个比较好的特征,可以再深入的看一下。
从图中可以很明显的看出,如果你是一个人,那么生还的几率比较低,而且对于人数大于`4`人的家庭来说生还率也比较低。感觉,这可能也是一个比较好的特征,可以再深入的看一下。
```python
sns.factorplot('Alone','Survived',data=data,hue='Sex',col='Pclass')
plt.show()
```
![](../img/55.jpg)
<div align=center><img src="../img/55.jpg"/></div>
可以看出,除了三等舱的单身女性的生还率比非单身女性的生还率高外,单身并不是什么好事。
@ -83,7 +83,7 @@ sns.factorplot('Fare_cat','Survived',data=data,hue='Sex')
plt.show()
```
![](../img/56.jpg)
<div align=center><img src="../img/56.jpg"/, height=300></div>
很明显,花费越多生还率越高,金钱决定命运。
@ -104,7 +104,7 @@ data['Initial'].replace(['Mr','Mrs','Miss','Master','Other'],[0,1,2,3,4],inplace
- 票:票这个特征感觉是一堆随机的字符串,所以删掉。
- 花费:和年龄一样,删掉。
- 船舱:由于有很多缺失值,不好填充,所以可以考虑删掉。
- 船客IDID和生死应该没啥关系所以删掉。
- 船客`ID``ID`和生死应该没啥关系,所以删掉。
```python
data.drop(['Name','Age','Ticket','Fare','Cabin','PassengerId'],axis=1,inplace=True)

@ -1,11 +1,13 @@
# 写在前面的话
# 泰坦尼克生还预测
## 写在前面的话
怎样处理数据,使用什么样的机器学习模型并没有所谓的正确答案。这篇文章只是抛砖引玉,若您是刚刚接触数据科学,我相信这一篇不错的指引;若您已经是老手,我相信文中的一些技巧您肯定也用过,可以温故而知新;所以希望这篇文章对您或多或少的有所帮助。
# 泰坦尼克生还问题简介
## 泰坦尼克生还问题简介
泰坦尼克号的沉船事件是是历史上最臭名昭著的沉船事件之一。1912年4月15日泰坦尼克在航线中与冰山相撞2224 名乘客中有 1502 名乘客丧生。
泰坦尼克号的沉船事件是是历史上最臭名昭著的沉船事件之一。`1912`年`4`月`15`日,泰坦尼克在航线中与冰山相撞,`2224`名乘客中有`1502`名乘客丧生。
泰坦尼克号数据集是目标是给出一个模型来预测某位泰坦尼克号的乘客在沉船事件中是生还是死。而且该数据集是一个非常好的数据集,能够让您快速的开始数据科学之旅。
![](../img/1000.jpg)
<div align=center><img src="../img/1000.jpg", height=400/></div>

@ -4,7 +4,7 @@
网格搜索的意思其实就是遍历所有我们想要尝试的参数组合,看看哪个参数组合的性能最高,那么这组参数组合就是模型的最佳参数。
sklearn 为我们提供了网格搜索的接口,我们能很方便的进行网格搜索。
`sklearn`为我们提供了网格搜索的接口,我们能很方便的进行网格搜索。
```python
from sklearn.model_selection import GridSearchCV
@ -24,7 +24,7 @@ print(grid_search.best_score_)
<div align=center><img src="../img/58.jpg"/></div>
可以看到经过调参之后,我们的随机森林模型的性能提高到了 0.8323 ,提升了接近 1% 的准确率。然后我们使用最佳参数构造随机森林,并对测试集测试会发现,测试集的准确率达到了 0.8525。
可以看到经过调参之后,我们的随机森林模型的性能提高到了 `0.8323`,提升了接近`1%`的准确率。然后我们使用最佳参数构造随机森林,并对测试集测试会发现,测试集的准确率达到了 `0.8525`
```python
Y_train = data['Survived']

@ -0,0 +1,47 @@
# 什么是机器学习
机器学习的定义有很多种,但是最准确的定义是:`"A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E."`
这个定义除了非常押韵之外,还体现了机器学习的几个关键点,即:`task`, `experience``performance`
## task
**task** 指的是机器学习所需要完成的任务。机器学习能够完成的任务主要有:**分类、回归、聚类**。
### 分类
假如现在有一些苹果、西瓜和香蕉的图片作为训练集(**有标签**),现在想要机器学习算法能够根据新的测试图片来分辨出该图片中的是苹果、西瓜还是香蕉。像这样的任务我们称为**分类**任务。
<div align=center><img src="./img/4.jpg", height="250" width="350"/></div>
### 回归
假如现在有一些苹果的售价数据作为训练集(**有标签**),现在想要机器学习算法能够根据新的测试图片来分辨出该图片中的苹果能卖多少钱。像这样的任务我们称为**回归**任务。
<div align=center><img src="./img/5.jpg", height="250" width="350"/></div>
### 聚类
假如现在有一些水果的图片作为训练集(**无标签**),现在想要机器学习算法能够根据训练集中的图片将这些图片进行归类,但是并不知道这些类别是什么。像这样的任务我们称为**聚类**任务。
<div align=center><img src="./img/6.jpg", height="250" width="350"/></div>
细心的您可能注意到了,**分类和回归问题的训练集中都是带有标签的**。也就是说数据已经告诉了机器学习算法我这条数据的答案是这个,那条数据的答案是那个,就像有老师在监督学生做题目一样,一看到学生做错了就告诉他题目做错了,看到学生做对了就鼓励他。所以用来解决**分类和回归**问题的机器学习算法又称为**监督学习**。而像用来解决**聚类**问题的机器学习算法又称为**无监督学习**。
## experience
**experience**指的根据历史数据总结归纳出规律的过程,即学习过程,或模型的训练过程。**模型**这个词看上去很高大上,其实我们可以把他看成是一个函数。例如:现在想用机器学习来识别图片里的是香蕉还是苹果,那么机器学习所的事情就是得到一个比较好的函数,当我们输入一张香蕉图片时,能得到识别结果为香蕉的输出,当我们输入一张苹果图片时,能得到识别结果为苹果的输出。
<div align=center><img src="./img/63.jpg", height="250" width="300"/></div>
至于这样一个函数(**模型**)里面长什么样子,这就与具体的机器学习算法有关了。对机器学学习算法感兴趣可以阅读**常见机器学习算法**章节。
## performance
**performance**指的是模型的性能。对于不同的任务,我们有不同的衡量模型性能的标准。例如分类时可能会根据模型的**准确率****精准率****召回率****AUC**等指标来衡量模型的好坏,回归时会看看模型的**MSE****RMSE****r2 score**等指标,回归时会以**FM指数****DB指数**等指标来衡量聚类的效果怎么样。对各种性能指标感兴趣可以阅读**模型评估指标**章节。

@ -0,0 +1,44 @@
# 机器学习项目流程
当我们拿到一个项目需求想要使用机器学习来实现时,我们往往会按照**理解问题与问题转换、获取数据、数据清洗与预处理、特征工程、模型训练与调优**这`5`个步骤来走。
## 1.理解实际问题,抽象为机器学习能处理的数学问题
理解实际业务场景问题是机器学习的第一步。机器学习的特征工程和模型训练通常都是一件非常耗时的过程,胡乱尝试时间成本是非常高的。深入理解要处理的问题,能避免走很多弯路。
理解问题,包括明确可以获得什么样的数据,机器学习的目标是一个分类、回归还是聚类。如果都不是的话,要考虑将它们转变为机器学习问题。
## 2.获取数据
获取数据包括获取原始数据以及从原始数据中经过特征工程从中提取训练、测试数据。机器学习比赛中原始数据都是直接提供的,但是实际问题需要自己获得原始数据。
有句名言是:**“数据决定机器学习结果的上限,而算法只是尽可能的逼近这个上限”**,可见数据在机器学习中的作用。总的来说数据要有具有 **“代表性”** ,否则必然会过拟合。对于分类问题,数据偏斜不能过于严重,不同类别的数据数量不要有数个数量级的差距。
## 3.数据清洗与预处理
**数据预处理、数据清洗是很关键的步骤**,往往能够使得算法的效果和性能得到显著提高。归一化、离散化、因子化、缺失值处理、去除共线性等,数据挖掘过程中很多时间就花在它们上面。这些工作简单可复制,收益稳定可预期,是机器学习的基础必备步骤。
## 4.特征工程
特征工程包括从原始数据中**特征构建、特征提取、特征选择**,非常有讲究。深入理解实际业务场景下的问题,丰富的机器学习经验能帮助我们更好的处理特征工程。**特征工程做的好能发挥原始数据的最大效力,往往能够使得算法的效果和性能得到显著的提升,有时能使简单的模型的效果比复杂的模型效果好。**
**筛选出显著特征、摒弃非显著特征,需要机器学习工程师反复理解业务**。这对很多结果有决定性的影响。特征选择需要运用特征有效性分析的相关技术,如**相关系数、卡方检验、平均互信息、条件熵、后验概率、逻辑回归权重**等方法。
## 5.模型训练、诊断与调优
现在有很多的机器学习算法的工具包,例如`sklearn`,使用非常方便,**真正考验水平的根据对算法的理解调节(超)参数,使模型达到最优**。
**过拟合、欠拟合的模型状态判断是模型诊断中至关重要的一步**。常见的方法如:交叉验证,绘制学习曲线等。过拟合的基本调优思路是增加训练的数据量,降低模型复杂度。欠拟合的基本调优思路是提高特征数量和质量,增加模型复杂度。 
诊断后的模型需要进行进一步调优,调优后的新模型需要重新诊断,这是一个反复迭代不断逼近的过程,需要不断的尝试,进而达到最优的状态。

@ -0,0 +1,4 @@
# 综合实战案例
纸上得来终觉浅,绝知此事要躬行。当我们学会了机器学习算法原理,知道了怎样使用`sklearn`来快速编写机器学习程序之后,我们需要进行大量的实战演练来提升我们的技能和实操能力。所以在本章中提供了两个综合实战案例:一个是`kaggle`中最为经典的也是最适合入门的机器学习比赛---泰坦尼克生还预测。另一个是使用强化学习来让程序自己玩乒乓球游戏。希望通过这两个实战案例,能够提升您对机器学习的兴趣以及使用机器学习技术解决实际问题的能力。
Loading…
Cancel
Save