Windows 10 下单机 Spark 环境搭建

发布时间:2020-06-12 18:07:22 作者:RQSLT
来源:网络 阅读:2080

【目的】

  Windows 10 裸机搭建 Spark 环境,使能运行 PySpark Shell。


【原料】


【安装 JDK】

# 可通过 echo %JAVA_HOME% 检验
JAVA_HOME: C:\Program Files\Java\jdk1.8.0_162
# 可通过 echo %CLASS_PATH% 检验
CLASS_PATH: C:\Program Files\Java\jdk1.8.0_162\lib
# 可通过 echo %PATH% 检验
Path: C:\Program Files\Java\jdk1.8.0_162\bin


【安装 Python3】

# 安装ipython
pip3 install ipython -i https://pypi.doubanio.com/simple/
# 安装pyreadline
pip3 install pyreadline -i https://pypi.doubanio.com/simple/


【安装 Spark】

Windows 10 下单机 Spark 环境搭建

SPARK_HOME: D:\spark\spark-2.3.2-bin-hadoop2.7
PATH: D:\spark\spark-2.3.2-bin-hadoop2.7\bin


【安装 Hadoop】

HADOOP_HOME: D:\spark\hadoop-2.7.7
PATH: D:\spark\hadoop-2.7.7\bin
# 因为 JAVA_HOME 环境变量有空格,所以做如下修改
set JAVA_HOME=%JAVA_HOME%
# --->>>
set JAVA_HOME=C:\PROGRA~1\Java\\jdk1.8.0_162
Hadoop 2.7.7
Subversion Unknown -r c1aad84bd27cd79c3d1a7dd58202a8c3ee1ed3ac
Compiled by stevel on 2018-07-18T22:47Z
Compiled with protoc 2.5.0
From source with checksum 792e15d20b12c74bd6f19a1fb886490
This command was run using /D:/spark/hadoop-2.7.7/share/hadoop/common/hadoop-common-2.7.7.jar


【winutils.exe】


【Python 脚本测试】

from pyspark import SparkConf, SparkContext

conf = SparkConf().setMaster("local").setAppName("My App")
sc = SparkContext(conf = conf)
print('***************************** %s' % sc.appName)
sc.stop()
***************************** My App


【FAQ】

      可能你用的 spark 版本对 Windows 10 太新了,换成 Spark 2.3.2 或以下的版本即可。


【相关阅读】


*** walker ***

推荐阅读:
  1. Windows下ant环境搭建
  2. windows 基于docker下的 spark 开发环境搭建

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

pyspark 环境搭建 spar

上一篇:在Vue中同时使用过渡和动画

下一篇:Oracle 之 管理

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》