Apache Spark を Windows10 にインストールして上手くいかなかったときにやったこと

Spark をダウンロードして解答する tgz
http://spark.apache.org/downloads.html 

winutils.exe をダウンロードして Spark の bin ディレクトリに置く
https://github.com/steveloughran/winutils/blob/master/hadoop-2.7.1/bin/winutils.exe

この後、起動がうまくいかなたっかのだけれど
SparkをCドライブ直下に置いたら解決した

C:\spark-2.2.0-bin-hadoop2.7

環境変数
HADOOP_HOME : C:\spark-2.2.0-bin-hadoop2.7
SPARK_HOME :  C:\spark-2.2.0-bin-hadoop2.7

Spark 起動
C:\spark-2.2.0-bin-hadoop2.7\bin\spark-shell


Program Files とか空白を含むディレクトリの下だとダメなのかも