packagemydemoimportorg.apache.spark.{SparkConf,SparkContext}objectMyWordContextDemo{defmain(args:Array[String]):Unit={//创建一个Configvalconf=newSparkConf().setAppName("MyWordContext")//创建SparkContext对象valsc=newSparkContext(conf)//使用sc对象执行相应的算子sc.textFile(args(0))//从第一个参数获取文件路径并打开.flatMap(_.split(""))//先map再压平.map((_,1))//将单词和1构成元组.reduceByKey(_+_)//根据Key进行Reduce,并将value累加.saveAsTextFile(args(1))//将结果输出到文件//停止SparkContext对象sc.stop()}}

==>运行程序:

--->首先将程序打包成jar包

--->执行以下命令

spark-submit--masterspark://bigdata0:7077--classmydemo.MyWordContextDemoscalawordcontext.jarhdfs://192.168.10.210:9000:/output/scala/wordcontext.txt

--->命令解释:

----spark-submitspark命令

---- --master spark://bigdata0:7077

---- --class指定类名

---- scalawordcontext.jar将自己与的程序打成的jar包

----hdfs://192.168.10.210:9000/out/scala/wordcontext.txt指定处理好的数据输出的文件