博客
关于我
mac下Python2运行SparkSQL
阅读量:96 次
发布时间:2019-02-26

本文共 601 字,大约阅读时间需要 2 分钟。

1. 环境如下

参考:https://blog.csdn.net/qq_21383435/article/details/79240276

##1.1 安装Anaconda

https://www.anaconda.com/download/#macos

这里写图片描述

注意:这里建议下载Python 2.7 version *,因为最新的spark可能不支持

1.2 配置环境变量

lcc@lcc ~$ vim .bash_profileexport SPARK_HOME=/Users/lcc/soft/spark/spark-2.0.1-bin-hadoop2.7export PATH=$PATH:$SPARK_HOME/binexport PYTHONPATH=/Users/lcc/soft/spark/spark-2.0.1-bin-hadoop2.7/python:/Users/lcc/soft/spark/spark-2.0.1-bin-hadoop2.7/python/lib/py4j-0.10.3-src.zipexport PYSPARK_DRIVER_PYTHON=/anaconda2/bin/ipython# added by Anaconda2 5.2.0 installerexport PATH="/anaconda2/bin:$PATH"

##1.3 配置PyCharm</

你可能感兴趣的文章