spark大数据框架入门

程序你得看得懂 2024-10-25 06:22:36
Spark大数据入门1. Spark概述定义:Spark是一种快速、通用、可扩展的大数据分析计算引擎。它基于内存计算,提高了在大数据环境下数据处理的实时性,同时保证了高容错性和高可伸缩性。发展历程:Spark于2009年诞生于加州大学伯克利分校AMPLab,2010年开源,2013年6月成为Apache孵化项目,2014年2月成为Apache顶级项目。与Hadoop的关系:Spark与Hadoop都是大数据处理的重要工具,但Spark在计算层面相较于Hadoop的MapReduce有巨大的性能优势。Spark可以使用Hadoop的YARN和Apache Mesos作为资源管理和调度器,并且可以处理所有Hadoop支持的数据,包括HDFS、HBase等。然而,Spark仅做计算,而Hadoop生态圈不仅有计算(MapReduce)也有存储(HDFS)和资源管理调度(YARN)。2. Spark框架模块Spark Core:Spark的基础,提供了内存计算的能力,是分布式处理大数据集的基础。它将分布式数据抽象为弹性分布式数据集(RDD),并为运行在其上的上层组件提供API。Spark SQL:基于SparkCore之上,提供结构化数据的处理模块。SparkSQL支持以SQL语言对数据进行处理,同时基于SparkSQL,Spark提供了StructuredStreaming模块,可以以SparkSQL为基础,进行数据的流式计算。Spark Streaming:以SparkCore为基础,提供数据的流式计算功能。MLlib:以SparkCore为基础,进行机器学习计算,内置了大量的机器学习库和API算法等,方便用户以分布式计算的模式进行机器学习计算。GraphX:以SparkCore为基础,进行图计算,提供了大量的图计算API,方便用户以分布式计算模式进行图计算。3. Spark的优势速度快:Spark基于内存计算,能够比基于磁盘的计算快很多。对于迭代式算法和交互式数据挖掘任务,这种速度优势尤为明显。易用性:Spark支持多种语言,包括Java、Scala、Python和R,提供了丰富的内置API,可以帮助开发人员更快地构建和运行应用程序。通用性:Spark提供了多种组件,可以支持不同类型的计算任务,包括批处理、交互式查询、流处理、机器学习和图形处理等。兼容性:Spark可以与多种数据源集成,包括Hadoop分布式文件系统(HDFS)、Apache Cassandra、Apache HBase和Amazon S3等。容错性:Spark提供了弹性分布式数据集(RDD)抽象,可以帮助开发人员更快地构建容错应用程序。Spark大数据代码示例import org.apache.spark.sql.SparkSession object WordCount { def main(args: Array[String]): Unit = { // 创建SparkSession对象,它是Spark Application的入口 val spark = SparkSession.builder .appName("Word Count") .master("local[*]") // 在本地运行Spark程序,使用所有可用的处理器核心 .getOrCreate() // 读取文本文件并创建Dataset val textFile = spark.read.textFile("path/to/your/textfile.txt") // 使用flatMap转换将文本分割为单词,并使用reduceByKey转换计算每个单词的数量 val counts = textFile .flatMap(line => line.split(" ")) .groupByKey(identity) .count() // 显示结果 counts.show() // 停止SparkSession spark.stop() } }我们首先创建了一个SparkSession对象,然后读取了一个文本文件,接着使用flatMap方法将每一行文本拆分成单词,并使用groupByKey和count方法计算了每个单词的出现次数,最后打印了结果。 要运行这个示例代码,你需要确保已经安装了Apache Spark,并且设置了正确的开发环境。你可以在IDE中创建一个新的Scala项目,然后将上述代码粘贴到主类文件中,运行程序即可看到单词计数的输出。
0 阅读:11

程序你得看得懂

简介:感谢大家的关注