Spark에서 드라이버의 Python 버전을 어떻게 설정합니까? 스파크와 함께 파이썬 3을 사용할 수 있도록 스파크 1.4.0-rc2를 사용하고 있습니다. export PYSPARK_PYTHON=python3.bashrc 파일에 추가 하면 python 3과 함께 Spark를 대화 형으로 실행할 수 있습니다. 그러나 로컬 모드에서 독립 실행 형 프로그램을 실행하려면 오류가 발생합니다. Exception: Python in worker has different version 3.4 than that in driver 2.7, PySpark cannot run with different minor versions 드라이버의 Python 버전을 어떻게 지정할 수 있습니까? 설정 export PYSPARK_DRI..