Python如何安装spark

发布时间:2022-03-04 15:12:42 作者:小新
来源:亿速云 阅读:255

小编给大家分享一下Python如何安装spark,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

一.配置版本

Java JDK 1.8.0_111
Python 3.9.6
Spark 3.1.2
Hadoop 3.2.2

二.配置环境

 1.配置JDK

从官网下载相应JDK的版本安装,并进行环境变量的配置
(1)在系统变量新建JAVA_HOME,根据你安装的位置填写变量值

Python如何安装spark

(2)新建CLASSPATH
变量值:.;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar;(注意前面所需的符号)

Python如何安装spark

(3)点击Path

Python如何安装spark

在其中进行新建:%JAVA_HOME%\bin

Python如何安装spark

(4)配置好后进行确定
(5)验证,打开cmd,输入java -version和javac进行验证

Python如何安装spark
Python如何安装spark

此上说明jdk环境变量配置成功

2.配置Spark

(1)下载安装:
Spark官网:spark-3.1.2-bin-hadoop3.2下载地址

Python如何安装spark

(2)解压,配置环境

Python如何安装spark

(3)点击Path,进行新建:%SPARK_HOME%\bin,并确认
(4)验证,cmd中输入pyspark

Python如何安装spark

这里提醒我们要安装Hadoop

3.配置Hadoop

(1)下载:
Hadoop官网:Hadoop 3.2.2下载地址

Python如何安装spark

(2)解压,配置环境

Python如何安装spark

注意:解压文件后,bin文件夹中可能没有以下两个文件:

Python如何安装spark

下载地址:https://github.com/cdarlint/winutils
配置环境变量CLASSPATH:%HADOOP_HOME%\bin\winutils.exe
(3)点击Path,进行新建:%HADOOP_HOME%\bin,并确认
(4)验证,cmd中输入pyspark

Python如何安装spark

由上可以看出spark能运行成功,但是会出现如下警告:

WARN ProcfsMetricsGetter: Exception when trying to compute pagesize, as a result reporting of ProcessTree metrics is stopped

这里因为spark为3.x版本有相关改动,使用spar2.4.6版本不会出现这样的问题。
不改版本解决方式(因是警告,未尝试):
方式一:解决方法一
方式二:解决方法二

三.Pycharm配置spark

(1)Run–>Edit Configurations

Python如何安装spark

(2)对Environment Variables进行配置

Python如何安装spark

(3)File–>Settings–>Project Structure–>Add Content Root
找到spark-3.1.2-bin-hadoop3.2\python\lib下两个包进行添加

Python如何安装spark

选择结果:

Python如何安装spark

(4)测试

# 添加此代码,进行spark初始化
import findspark

findspark.init()


from datetime import datetime, date

from pyspark.sql import SparkSession

spark = SparkSession.builder.getOrCreate()

rdd = spark.sparkContext.parallelize([
    (1, 2., 'string1', date(2000, 1, 1), datetime(2000, 1, 1, 12, 0)),
    (2, 3., 'string2', date(2000, 2, 1), datetime(2000, 1, 2, 12, 0)),
    (3, 4., 'string3', date(2000, 3, 1), datetime(2000, 1, 3, 12, 0))
])
df = spark.createDataFrame(rdd, schema=['a', 'b', 'c', 'd', 'e'])
df.show()

运行结果:

Python如何安装spark

四.使用anconda中python环境配置spark

 1.创建虚拟环境

conda create -n pyspark_env python==3.9.6

查看环境:

conda env list

运行结果:

Python如何安装spark

2.安装pyspark

切换到pyspark_env并进行安装pyspark

pip install pyspark

Python如何安装spark

3.环境配置

运行上面的实例,会出现以下错误:

Python如何安装spark

这说明我们需要配置py4j,SPARK_HOME
SPARK_HOME:

Python如何安装spark

PYTHONPATH设置:

Python如何安装spark

HADOOP_HOME设置:

Python如何安装spark

path中设置:

Python如何安装spark

4.运行

Python如何安装spark

# 添加此代码,进行spark初始化
import findspark

findspark.init()


from datetime import datetime, date

from pyspark.sql import SparkSession

spark = SparkSession.builder.getOrCreate()

rdd = spark.sparkContext.parallelize([
    (1, 2., 'string1', date(2000, 1, 1), datetime(2000, 1, 1, 12, 0)),
    (2, 3., 'string2', date(2000, 2, 1), datetime(2000, 1, 2, 12, 0)),
    (3, 4., 'string3', date(2000, 3, 1), datetime(2000, 1, 3, 12, 0))
])
df = spark.createDataFrame(rdd, schema=['a', 'b', 'c', 'd', 'e'])
df.show()

运行结果同上

以上是“Python如何安装spark”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!

推荐阅读:
  1. Spark入门及安装与配置
  2. spark集群更换python安装环境

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

python spark

上一篇:Docker创建容器后再修改hostname的方法是什么

下一篇:springboot+hutool如何批量生成二维码压缩导出功能

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》