[关闭]
@hadoopMan 2019-03-25T14:33:48.000000Z 字数 935 阅读 1232

IDEA创建spark工程及源码导入

spark
想学习spark,hadoop,kafka等大数据框架,请加群459898801,满了之后请加2群224209501。后续文章会陆续公开。

1,首先启动

  1. cd /opt/modules/idea-IC-141.178.9/
  2. bin/idea.sh

2,导入scala插件

1.png-94.7kB
2.png-158.5kB
3.png-18.9kB
4.png-67.3kB
5.png-65.3kB

3,导入spark源码

6.png-19kB
7.png-31.5kB
8.png-21.9kB
9.png-50.4kB
10.png-37.5kB
11.png-20.4kB
12.png-47.8kB
13.png-56.8kB
14.png-19.3kB
15.png-80.8kB
16.png-77.4kB

4,创建scala工程

1.png-76.6kB
2.png-28.4kB
3.png-37kB
4.png-51.5kB
创建三个目录.png-52.6kB
5.png-61.3kB
6.png-32.8kB
7.png-67.4kB
9.png-47.2kB
10.png-111.1kB
11.png-74.7kB
12.png-110.9kB
13.png-78.9kB
14.png-115.7kB

5,导出jar包

15.png-97.2kB
16.png-32.9kB
17.png-43kB
18.png-75.5kB
19.png-107.1kB
20.png-113.2kB

6,示例代码

前提是
1,启动hdfs的namenode,datanode。
2,启动spark的master和slaves,本地测试无需启动。

  1. package sparkIDEProgram
  2. import org.apache.spark.SparkContext
  3. import org.apache.spark.SparkConf
  4. /**
  5. * Created by hadoop on 1/1/16.
  6. */
  7. object SimpleApp {
  8. def main(args: Array[String]) {
  9. val logFile = "hdfs://spark.learn.com:8020/user/hadoop/spark/input/wc.input" // Should be some file on your system
  10. val conf = new SparkConf()
  11. .setAppName("Simple Application")
  12. .setMaster("spark://spark.learn.com:7077")//本地测试需要修改为local
  13. val sc = new SparkContext(conf)
  14. val logData = sc.textFile(logFile, 2).cache()
  15. val numAs = logData.filter(line => line.contains("a")).count()
  16. val numBs = logData.filter(line => line.contains("b")).count()
  17. println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
  18. sc.stop()
  19. }
  20. }

7,提交打包好的应用

  1. bin/spark-submit /opt/sparkTest/sparkTest.jar

webapp运行成功.png-65.4kB
运行成功.png-35.8kB
输出结果.png-44.6kB

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注