必要なもの
環境変数
## Hadoop export PATH=$HOME/data/hadoop-2.7.1/bin:${PATH} export JAVA_HOME=`/usr/libexec/java_home` ## Spark export PATH=$HOME/data/spark-1.6.0-bin-without-hadoop/bin:${PATH} export SPARK_DIST_CLASSPATH=`hadoop classpath` export HADOOP_CONF_DIR=$HOME/data/hadoop-2.7.1/etc/hadoop
osxでJAVA_HOMEを適切に設定するには、/usr/libexec/java_homeを用いると簡便で良い。 うっとおしいので、spark-1.6.0-bin-without-hadoop/conf/log4j.propertiesを作成し、 log4j.rootCategory=WARN, consoleとしておく。
osxの場合、普通に実行すると snappy が云々という例外投げられて死ぬ。これは
pyspark --driver-java-options -Dspark.io.compression.codec=lzfとするとエラーとならない
env PYSPARK_PYTHON=ipython-2.7 pyspark --driver-java-options -Dspark.io.compression.codec=lzf --master 'local[*]'として、iPython-2.7 をフロントエンドに、pythonから4並列でデータ処理ができた。