本地环境初

master
慢慢 6 years ago
parent d2644d5fdc
commit 68229c4d84

@ -5,6 +5,7 @@
* [1.1 Scala环境搭建](/chapter1/1.1Scala环境搭建.md)
* [1.2 Spark单机版环境搭建](/chapter1/1.2Spark单机版环境搭建.md)
* [1.3 Spark完全分布式环境搭建](/chapter1/1.3Spark完全分布式环境搭建.md)
* [1.4 Windows+Pycharm搭建Python版Spark开发环境](/chapter1/1.4Windows+Pycharm搭建Python版Spark开发环境.md)
* [第二章 Spark结构化数据分析与处理](/chapter2/2结构化数据分析与处理简介.md)
* [2.1SparkSQL入门](/chapter2/2.1SparkSQL入门.md)

@ -38,7 +38,7 @@
### 1.3.3 下载Spark安装包
到`Spark`官网:<a href="https://archive.apache.org/dist/spark/spark-2.3.4/" target="view_frame">下载地址</span> </a> 下载
到`Spark`官网:<a href="https://archive.apache.org/dist/spark/spark-2.3.4/" target="view_frame">下载地址 </a> 下载
`Hadoop`版本为`2.7``Spark`版本为`2.3.4`的`spark`安装包。

@ -0,0 +1,63 @@
## 1.4 Windows+Pycharm搭建Python版Spark开发环境
### 1.4.1 JDK安装
在DOC命令行窗口输入java -version出现下图所示即表示已经安装成功。如未安装成功请自行百度。本教程所使用的spark版本需要使用jdk1.8版本以上。
![](/api/attachments/458936)
### 1.4.2 Python安装
在DOC命令行窗口输入python出现下图所示即表示已经安装成功。如未安装成功请自行百度。本教程所使用的python版本需要使用python2.7版本以上。
![](/api/attachments/458940)
### 1.4.3 scala安装
本教程所使用的python版本推荐使用scala2.11.x版本。
打开官网https://www.scala-lang.org/download/2.11.8.html下载对应安装包。
下载页面的底部点击如下所示红框处即可下载。
![](/api/attachments/458970)
解压配置环境变量在DOC命令行窗口输入scala出现下图所示即表示已经安装成功。
![](/api/attachments/459087)
### 1.4.4 spark安装
到`Spark`官网:<a href="https://archive.apache.org/dist/spark/spark-2.3.4/" target="view_frame">下载地址 </a> 下载
`Hadoop`版本为`2.7``Spark`版本为`2.3.4`的`spark`安装包。
解压配置环境变量在DOC命令行窗口输入spark-shell出现下图所示即表示已经安装成功(图示报错不影响spark运行该报错表示未安装hadoop)。
![](/api/attachments/459186)
### pycharm环境安装
打开pycharm创建一个项目如下图
![](/api/attachments/459196)
添加pyspark.zip和py4j包到项目中这两个文件在spark安装目录\python\lib中
点击 file >> setting >> Project:pspark >> Project Structure
![](/api/attachments/459207)
新建一个python文件执行以下代码输出了你的spark版本无报错即安装成功了。
```
from pyspark.sql import SparkSession
spark = SparkSession \
.builder \
.appName("Python Spark SQL basic example") \
.config("spark.some.config.option", "some-value") \
.getOrCreate()
print(spark.version)
```
Loading…
Cancel
Save