怎么进行Spark example的运行过程分析

发布时间:2021-12-17 11:52:55 作者:柒染
来源:亿速云 阅读:122

这篇文章将为大家详细讲解有关怎么进行Spark example的运行过程分析,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。

pom.xml

  1. <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"

  2.     xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">

  3.     <modelVersion>4.0.0</modelVersion>

  4.     <groupId>active </groupId>

  5.     <artifactId>spark-test</artifactId>

  6.     <version>0.0.1-SNAPSHOT</version>


  7.     <dependencies>

  8.         <dependency>

  9.             <groupId>org.apache.spark</groupId>

  10.             <artifactId>spark-core_2.10</artifactId>

  11.             <version>2.1.0</version>

  12.         </dependency>

  13.     </dependencies>

  14. </project>

SparkTest.java

  1. import java.util.Arrays;


  2. import org.apache.spark.SparkConf;

  3. import org.apache.spark.api.java.JavaPairRDD;

  4. import org.apache.spark.api.java.JavaRDD;

  5. import org.apache.spark.api.java.JavaSparkContext;


  6. import scala.Tuple2;


  7. public class SparkTest {


  8.     public static void main(String[] args) {

  9.         SparkConf conf = new SparkConf().setAppName("Test").setMaster("local");

  10.         JavaSparkContext sc = new JavaSparkContext(conf);

  11.         JavaRDD<String> file = sc.parallelize(Arrays.asList("Hello test", "Hello test2", "dds"));

  12.         JavaRDD<String> words = file.flatMap(s -> Arrays.asList(s.split(" |\t|\n|\r")).iterator());

  13.         JavaPairRDD<String, Integer> counts = words.mapToPair(s -> new Tuple2<String, Integer>(s, 1));        

  14.         counts = counts.reduceByKey((x, y) -> x + y);

  15.         

  16.         System.out.println(counts.collect());

  17.         sc.close();

  18.     }


  19. }

可以单独运行,也可以提交到spark集群: spark-submit.cmd --class SparkTest D:\workspace\spark-test\target\spark-test-0.0.1-SNAPSHOT.jar

关于怎么进行Spark example的运行过程分析就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。

推荐阅读:
  1. Spark 读取Hbase表数据并实现类似groupByKe
  2. spark sql如何进行读写数据

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

spark example

上一篇:Windows 10中如何安装Spark2.1

下一篇:python匿名函数怎么创建

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》