[关闭]
@gekeshi 2016-05-04T01:19:44.000000Z 字数 784 阅读 333

Spark Standalone模式安装

Spark standalone Hadoop


Apache Spark 是一个新兴的大数据处理通用引擎,提供了分布式的内存抽象。Spark正如其名,最大的特点就是快(Lightning-fast),可比Hadoop MapReduce的处理速度快100倍。此外Spark提供了简单易用的API,几行代码就能实现 WordCount。

实验环境

安装Spark

  1. 解压
    此处解压到/home/
  2. 修改配置文件
    安装后,需要在 ./conf/spark-env.sh 中修改 Spark 的 Classpath,执行如下命令拷贝一个配置文件:
  1. cp ./conf/spark-env.sh.template ./conf/spark-env.sh

编辑./conf/spark-env.sh(vim ./conf/spark-env.sh),在最后面加上如下内容:

  1. export SCALA_HOME=/usr/lib/scala-2.10.2
  2. export JAVA_HOME=/usr/lib/jdk1.7.0
  3. export SPARK_MASTER_IP=192.168.229.128 /*master IP*/
  4. export SPARK_WORKER_MEMORY=3g
  5. export MASTER=spark://192.168.229.128:7077

同样的方法,修改slaves文件

  1. master
  2. worker1
  3. worker2

最后将Spark文件夹复制到另外两个节点
3. 检查安装是否成功
访问web界面:http://masternode:8080

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注