慢慢 6 years ago
commit ee31cdf85a

@ -19,7 +19,8 @@
* [第四章 Spark图数据计算与分析实战](/chapter4/4Spark图数据计算简介.md)
* [4.1 SparkGraphX计算生成最短路径](/chapter4/4.1SparkGraphX计算生成最短路径.md)
* [第五章 Spark机器学习实战](/chapter5/5Spark机器学习实战简介.md)
* [5.1 Spark机器学习](/chapter5/5.1Spark机器学习实战.md)
* [5.1 Spark机器学习入门](/chapter5/5.1Spark机器学习入门.md)
* [5.2 Spark机器学习实战](/chapter5/5.2Spark机器学习实战.md)

@ -22,7 +22,7 @@
接下来解压,在平台已经将`spark`安装包下载到`/opt`目录下了,所以不需要再下载了。
```
tar -zxvf spark-2.2.2-bin-hadoop2.7/ -C /app
tar -zxvf spark-2.2.2-bin-hadoop2.7.tgz -C /app
```
将压缩包解压到`/app`目录下。
@ -64,13 +64,9 @@ export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_111
export SCALA_HOME=/app/scala-2.12.7
export HADOOP_HOME=/usr/local/hadoop/
export SPARK_MASTER_IP=machine_name # machine_name 根据自己的主机确定
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
export SPARK_MASTER_IP=machine_name // machine_name 根据自己的主机确定
export SPARK_LOCAL_IP=machine_name // machine_name 根据自己的主机确定
export SPARK_LOCAL_IP=machine_name # machine_name 根据自己的主机确定
```
@ -80,8 +76,6 @@ export SPARK_LOCAL_IP=machine_name // machine_name 根据自己的主机确
| - | - |
| JAVA_HOME | Java的安装路径 |
|SCALA_HOME|Scala的安装路径|
| HADOOP_HOME| Hadoop的安装路径 |
| HADOOP_CONF_DIR| Hadoop配置文件的路径|
| SPARK_MASTER_IP | Spark主节点的IP或机器名|
| SPARK_LOCAL_IP | Spark本地的IP或主机名 |
@ -111,4 +105,4 @@ export SPARK_LOCAL_IP=machine_name // machine_name 根据自己的主机确
</p>
好了,如果你能到这一步就已经完成了伪分布式`Spark`的安装啦。
好了,如果你能到这一步就已经完成了单机版`Spark`的安装啦。

@ -0,0 +1,52 @@
## 5.1 Spark 机器学习入门
### 5.1.1 机器学习的定义
在维基百科上对机器学习提出以下几种定义:
- “机器学习是一门人工智能的科学,该领域的主要研究对象是人工智能,特别是如何在经验学习中改善具体算法的性能”。
- “机器学习是对能通过经验自动改进的计算机算法的研究”。
- “机器学习是用数据或以往的经验,以此优化计算机程序的性能标准。”
可以看出机器学习强调三个关键词:算法、经验、性能,其处理过程如下图所示。
![](https://www.educoder.net/api/attachments/457570)
上图表明机器学习是数据通过算法构建出模型并对模型进行评估,评估的性能如果达到要求就拿这个模型来测试其他的数据,如果达不到要求就要调整算法来重新建立模型,再次进行评估,如此循环往复,最终获得满意的经验来处理其他的数据。
### 5.1.2 机器学习的基本任务
机器学习基于数据,并以此获取新知识、新技能。它的任务有很多,分类是其基本任务之一。 所谓分类,就是将新数据划分到合适的类别中,一般用于类别型的目标特征。如果目标特征为连续型,则往往采用回归方法。回归是对新目标特征进行预测 是机器学习中使用非常广泛的方法之一。
分类和回归,都是先根据标签值或目标值建立模型或规则,然后利用这些带有目标值 的数据形成的模型或规则 ,对新数据进行识别或预测。这两种方法都属于监督学习。与监督学习相对的
是无监督学习,无监督学习不指定目标值或预先无法知道目标值,它可以把相似或相近的数据划分到相同的组里,聚类就是解决这一类问题的方法之一。
![](https://www.educoder.net/api/attachments/457573)
### 5.1.3 如何选择合适的算法
当我们接到一个数据分析或挖掘的任务或需求时,如果希望用机器学习来处理,首先 要做的是根据任务或需求选择合适算法,选择算法一般步骤如下图所示:
![](https://www.educoder.net/api/attachments/458857)
充分了解数据及其特性,有助于我们更有效地选择机器学习算法。采用以上步骤在一定程度上可以缩小算法的选择范围,使我们少走些弯路,但在具体选择哪种算法方面,一般并不存在最好的算法或者可以给出最好结果的算法。在实际做项目的过程中,这个过程往往需要多次尝试,有时还要尝试不同算法。过先用一种简单熟悉的方法,然后,在这个基础上不断优化,时常能收获意想不到的效果。
### 5.1.4 Spark 机器学习的步骤
关于机器学习,我们有一个几乎固定的“套路”,简单来分就四大步骤了。
1. 读取数据文件
2. 通过某种算法建立数据模型
3. 再用测试数据评估数据模型的准确性
4. 运行模型进行数据预测.

@ -0,0 +1,208 @@
## 5.1 Spark机器学习实战
坦克图片识别分类
### 5.1.1 数据集介绍
三种坦克图片数据集,如下图所示:
![](https://www.educoder.net/api/attachments/458868)
![](https://www.educoder.net/api/attachments/458870)
![](https://www.educoder.net/api/attachments/458871)
以上有三种数据集,分别是以`bmp-2`开头的`BMP-2`步兵战车的图片、以`btr-70`开头的`BTR-70`装甲输送车的图片、以`t-72`开头的`T-72`主战坦克的图片。
#### 5.1.2 数据集处理
##### 5.1.2.1 加载图片数据集
我们可以使用`opencv_python`计算机视觉库来读取一幅图像。
在读取图像之前,我们需要对图像的构造有一定的理解,怎么理解呢?
简单来说图像就是一个矩阵,在`OpenCV for Python`中,图像就是`NumPy`中的数组!
我们知道图像就是一个矩阵了,之后我们通过代码来读取呢?
示例:
```
# 读入图像文件返回numpy数组
img = cv2.imread('/root/1.jpg', cv2.IMREAD_GRAYSCALE)
rows, columns = img.shape
# 将二维数组转一维数组
img = img.reshape(rows*columns)
```
##### 5.1.2.2 将一维数组转换成 Spark 中的向量
上一步我们将图片转换成一维的数组之后了,接下来我们将一维数组转换成 Spark 中的向量。
可能你会有疑问?为什么要将一维数组转换成 Spark 中的向量呢?
简单来说就是类型不匹配了。
示例:
```
import cv2
img = cv2.imread("testing2\\bmp-2-1.jpg", cv2.IMREAD_GRAYSCALE)
rows, columns = img.shape
img = img.reshape(rows * columns)
print(type(img))
```
结果如下:
```
<class 'numpy.ndarray'>
```
我们都知道`numpy.ndarray`是`Python`中的类型,`Spark`是由`Scala`编写的,它怎么可能识别的了`numpy.ndarray`类型呢?
那我们怎么将将一维数组转换成 Spark 中的向量呢?
很简单,直接使用`from pyspark.ml.linalg import Vectors`中的`Vectors`来进行转换即可!
在`pyspark`中,有两种向量,分别是稠密向量和稀疏向量。
`DenseVctor` :稠密向量 其创建方式 `Vector.dense(数据)`
`SparseVector` :稀疏向量 其创建方式有两种:
方法一:`Vector.sparse(向量长度,索引数组,与索引数组所对应的数值数组)`
方法二:`Vector.sparse(向量长度,(索引,数值),(索引,数值),(索引,数值),...(索引,数值))`
比如向量`1,0,3,4`的创建有三种方法:
稠密向量:直接`Vectors.dense(1,0,3,4)`
稀疏向量:
方法一:`Vector.sparse(4,(0,2,3),(1,3,4))`
表示该向量的第`0`个,第`2`个,第`3`个位置,`(1,3,4)` 表示`0,2,3`位置对应的数值分别为`1,3,4`
方法二:`Vector.sparse(4,(0,1),(2,3),(3,4))`
`0,1`就是`(索引,数值)`的形式。位置`0`的数值为`1`, 位置`2`的数值为`3`,位置`3`的数值为`4`。
一般我们会直接将数组转换成稠密向量。
##### 5.1.2.3 将向量与标签进行绑定并将其转换成Dataframe
上面的两步,我们已经加载了图片数据并将其转换成`Spark`中的向量了,但是这样还远远不够,为什么呢?
因为我将图片数据转换成向量之后,这样只能得出该图片的特征,但是我们还没有指定特征的标签。
我们回到最初加载图片数据那步,这里我们在读取图片数据的同时获取图片的文件名,我们通过文件名进行打标签,具体要求如下:
- 如果文件名包含 `btr-70` `label` 设置为 `0` ;
- 如果文件名包含 `t-72` `label` 设置为 `1`;
- 其他的,`label` 设置为 `2`
我们得到标签之后,我们将特征向量与该标签进行绑定,构建一个元组。
构建元组之后,我们使用`pandas`将元组数据加载成`Dataframe`并将特征向量列的列名设置为`features`,标签的列的列名设置为`label`。
为什么要这样做呢?
我们查看下`LogisticRegression`算法的源码
构造函数源码如下:
```
@keyword_only
def __init__(self, featuresCol="features", labelCol="label", predictionCol="prediction",
maxIter=100, regParam=0.0, elasticNetParam=0.0, tol=1e-6, fitIntercept=True,
threshold=0.5, thresholds=None, probabilityCol="probability",
rawPredictionCol="rawPrediction", standardization=True, weightCol=None,
aggregationDepth=2, family="auto",
lowerBoundsOnCoefficients=None, upperBoundsOnCoefficients=None,
lowerBoundsOnIntercepts=None, upperBoundsOnIntercepts=None):
super(LogisticRegression, self).__init__()
self._java_obj = self._new_java_obj(
"org.apache.spark.ml.classification.LogisticRegression", self.uid)
self._setDefault(maxIter=100, regParam=0.0, tol=1E-6, threshold=0.5, family="auto")
kwargs = self._input_kwargs
self.setParams(**kwargs)
self._checkThresholdConsistency()
```
通过`__init__`函数中的参数,我们可以看到`featuresCol`的默认值为`features``labelCol`的默认值为`label`。
通过`pandas`构建了 `Dataframe`之后指定了列名这样做的话,就可以不用设置`featuresCol`、`labelCol`了,同时增强了代码可读性。
#### 5.1.3 Spark 加载数据集
上面我们已经把数据集处理完毕之后,然后我们可以通过`Spark`来加载数据集。
```
spark = SparkSession.builder.master("local[*]").appName("demo").getOrCreate()
sparkDF = spark.createDataFrame(df) # df是我们通过pandas构建的Dataframe
```
#### 5.1.4 将数据集拆分训练集和测试集
上面我们把图片数据集加载到`Spark`中了,之后我们要把数据集划分成两部分,一部分为训练集,另一部分为测试集。
简单来说,训练集就是用来训练模型的,测试集就是来评测这样模型的好与坏的。
关于训练集与测试集的比例问题,一般来说训练集越多越好,我们一般将训练集与测试集的比例调整为`8:2`或者`7:3`。
```
train_df, test_df = sparkDF.randomSplit([0.7, 0.3])
```
#### 5.1.5 创建LR分类器
逻辑回归是一种用于预测分类响应的流行方法。这是广义线性模型的一种特殊情况,可以预测结果的可能性。在`spark.ml`逻辑回归中,可以通过使用二项式逻辑回归来预测二进制结果,或者在使用多项式逻辑回归时可以将其预测为多类结果。使用该`family` 参数在这两种算法之间进行选择,或者将其保留为未设置状态,`Spark`会推断出正确的变体。
- 通过将`family`参数设置为“多项式”,可以将多项式逻辑回归用于二进制分类。它将产生两组系数和两个截距。
- 当对具有恒定非零列的数据集进行`LogisticRegressionModel`拟合而没有截距时,`Spark MLlib`为恒定非零列输出零系数。
创建`LR`分类器用来训练模型:
```
lr = LogisticRegression(family="multinomial")
```
#### 5.1.6 训练模型
上一步,我们已经把`LR`分类器构建好了并且我们把数据集划分成训练集与测试集了,接下来我们就是训练模型了。
```
model = lr.fit(train_df)
```
#### 5.1.7 评估模型
我们已经把模型训练好了,接下来就是评估模型了。
```
predict_df = model.transform(test_df)
# 对测试集做predict, 生成(预测分类, 正确分类)
def build_predict_target(row):
return (float(row.prediction), float(row.label))
predict_and_target_rdd = predict_df.rdd.map(build_predict_target)
# 统计模型效果
metrics = BinaryClassificationMetrics(predict_and_target_rdd)
print(metrics.areaUnderROC)
```
以上代码就是统计模型效果了,由于我们使用的是逻辑回归,我们只要获取`AUC`的值了,`AUC`越大,模型的准确度越高。

@ -0,0 +1,18 @@
# 第五章Spark机器学习
开始学习`spark`机器学习了,都知道`spark`是继`hadoop`后的大数据利器,很多人都在使用`spark`的分布式并行来处理大数据。`spark`中也提供了机器学习的包,就是`MLlib`。
`MLlib``Spark` 的机器学习(`ML`)库。其目标是使实用的机器学习可扩展且容易。在较高级别,它提供了以下工具:
- `ML`算法:常见的学习算法,例如分类,回归,聚类和协作过滤;
- 特征化:特征提取,变换,降维和选择;
- 管道:用于构建,评估和调整`ML`管道的工具;
- 持久性:保存和加载算法,模型和管道;
- 实用程序:线性代数,统计信息,数据处理等。
接下来我们就进入`spark`机器学习的世界吧!
Loading…
Cancel
Save