目录

pyspark使用指定版本的python

目录

pyspark使用指定版本的python

系统中同时装了python2 和python3,如何让spark使用指定的python?

只要在系统中设定一个环境变量PYSPARK_PYTHON 把该环境变量指向对应的python即可。

比如我在windows中添加一个系统环境变量PYSPARK_PYTHON 然后把值指向d:\python3