[SPARK] 安裝 Spark 2.1.2 測試環境
在很久以前, 曾經裝了一次Spark 1.6,
不過, 後來因為時間緣故, 就沒有繼續玩下去,
現在重新開始, Spark也到2.2版了,
於是就重新安裝並建立單機的測試環境開始,
希望能夠介紹一系列的Spark基礎.
主要的安裝過程參考這篇:
大數據運算系列:SPARK FOR UBUNTU LTS 16.04 安裝指引
想說這篇文章寫得很詳細就不重複列出過程了,
基本上指令複製貼上就可以完成,
有興趣安裝可以直接去引用連結, 或是去之前Spark 1.6的文章連結,
兩者只差在Spark 1.6版沒有安裝SBT,
不過, 在這篇引用文章中, 仍有一些錯誤 (或是混淆),
於是幫忙澄清一下:
1. 在安裝JAVA時:
#加入路徑,請先確認位置是否正確
JAVA_HOME="/usr/lib/jvm/java-9-oracle"
應該是: JAVA_HOME="/usr/lib/jvm/java-8-oracle"
2. PYTHON 3 在Ubuntu 16.04.3版本中是自帶, 應該不用安裝
3. 加入環境變數部分, 原文修改.bash_profile, 應該沒問題,
不過個人比較習慣修改.bashrc, 對圖形化介面比較友善
兩者差異: http://www.arthurtoday.com/2015/04/difference-between-bashrc-and-bash-profile.html
整份安裝完之後, .bashrc會多出以下內容:
4. 最後執行SparkPi時, 可以找一下Pi的結果, 確認執行是否正確,
(或是沒有ERROR應該就OK了), 如下圖:
不過, 後來因為時間緣故, 就沒有繼續玩下去,
現在重新開始, Spark也到2.2版了,
於是就重新安裝並建立單機的測試環境開始,
希望能夠介紹一系列的Spark基礎.
主要的安裝過程參考這篇:
大數據運算系列:SPARK FOR UBUNTU LTS 16.04 安裝指引
想說這篇文章寫得很詳細就不重複列出過程了,
基本上指令複製貼上就可以完成,
有興趣安裝可以直接去引用連結, 或是去之前Spark 1.6的文章連結,
兩者只差在Spark 1.6版沒有安裝SBT,
不過, 在這篇引用文章中, 仍有一些錯誤 (或是混淆),
於是幫忙澄清一下:
1. 在安裝JAVA時:
#加入路徑,請先確認位置是否正確
JAVA_HOME="/usr/lib/jvm/java-9-oracle"
應該是: JAVA_HOME="/usr/lib/jvm/java-8-oracle"
2. PYTHON 3 在Ubuntu 16.04.3版本中是自帶, 應該不用安裝
3. 加入環境變數部分, 原文修改.bash_profile, 應該沒問題,
不過個人比較習慣修改.bashrc, 對圖形化介面比較友善
兩者差異: http://www.arthurtoday.com/2015/04/difference-between-bashrc-and-bash-profile.html
整份安裝完之後, .bashrc會多出以下內容:
4. 最後執行SparkPi時, 可以找一下Pi的結果, 確認執行是否正確,
(或是沒有ERROR應該就OK了), 如下圖:
留言
張貼留言