spark集群更换python安装环境

发布时间:2020-07-10 12:13:08 作者:viking714
来源:网络 阅读:1996
    由于需要用到很多第三方的包,比如numpy,pandas等,而生产环境又无法上网单个包安装太麻烦,因此考虑把之前安装的python的独立环境换成Anaconda的集成开发环境。以下是具体步骤:
            1安装Anaconda3-5.0.1-Linux-x86_64.sh脚本
            2给/opt/modules/anaconda3/bin/python3.6建立软链接

ln -s /opt/modules/anaconda3/bin/python /usr/bin/python3
3修改root环境变量
/root/.bashrc
/root/.bash_profile
修改hdfs用户环境变量,因为集群操作大多有hdfs用户完成。
su - hdfs
~/.bashrc
export PATH="/usr/bin:$PATH"
4修改pyspark2命令
vi /usr/bin/pyspark2
修改spark2-submit命令
vi /usr/bin/spark2-submit
修改PYSPARK_PYTHON这个变量
几个节点都要修改,之后spark更换到新的python,常用的包都有了。

推荐阅读:
  1. python安装spyder开发环境的方法
  2. Python安装环境搭建的方法是什么

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

spark python spar

上一篇:HTML加密解密/HTML乱码分析/防360拦截/前端万能解密器

下一篇:nagios监控系统解决方案及与cacti监控的整合

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》