这篇文章将为大家详细讲解有关如何解析spark sql 非业务调优,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。1,jvm调优这个是扯不断,理还乱。建议能加内存就加内存,没事调啥JVM,你都不了解JVM和你的任务数据。默认的参数已经很好了,对于GC算法,spark sql可以尝试一些 G1。下面文章建议多读几遍,记住最好。必背|spark 内存,GC及数据结构调优
2,内存调优缓存表spark2.+采用:spark 1.+采用:Sparksql仅仅会缓存必要的列,并且自动调整压缩算法来减少内存和GC压力。属性默认值介绍spark.sql.inMemoryColumnarStorage.compressedtrue假如设置为true,SparkSql会根据统计信息自动的为每个列选择压缩方式进行压缩。spark.sql.inMemoryColumnarStorage.batchSize10000控制列缓存的批量大小。批次大有助于改善内存使用和压缩,但是缓存数据会有OOM的风险3,广播大小表进行join时,广播小表到所有的Worker节点,来提升性能是一个不错的选择。Spark提供了两个参数可以调整,不同版本会有些许不一样,本文以Spark2.2.1为例讲解。属性默认值描述spark.sql.broadcastTimeout300广播等待超时时间,单位秒spark.sql.autoBroadcastJoinThreshold10485760 (10 MB)最大广播表的大小。设置为-1可以禁止该功能。当前统计信息仅支持Hive Metastore表广播的变量的使用其实,有时候没啥用处。在任务超多,夸stage使用数据的时候才能凸显其真正作用。任务一趟跑完了,其实广播不广播无所谓了。。。4,分区数据的调控分区设置spark.sql.shuffle.partitions,默认是200.对于有些公司来说,估计在用的时候会有Spark 香港云主机 sql处理的数据比较少,然后资源也比较少,这时候这个shuffle分区数200就太大了,应该适当调小,来提升性能。也有一些公司,估计在处理离线数据,数据量特别大,而且资源足,这时候shuffle分区数200,明显不够了,要适当调大。适当,就完全靠经验。5,文件与分区这个总共有两个参数可以调整:一个是在读取文件的时候一个分区接受多少数据;另一个是文件打开的开销,通俗理解就是小文件合并的阈值。文件打开是有开销的,开销的衡量,Spark 采用了一个比较好的方式就是打开文件的开销用,相同时间能扫描的数据的字节数来衡量。参数介绍如下:属性名称默认值介绍spark.sql.files.maxPartitionBytes134217728 (128 MB)打包传入一个分区的最大字节,在读取文件的时候。spark.sql.files.openCostInBytes4194304 (4 MB)用相同时间内可以扫描的数据的大小来衡量打开一个文件的开销。当将多个文件写入同一个分区的时候该参数有用。该值设置大一点有好处,有小文件的分区会比大文件分区处理速度更快(优先调度)。spark.sql.files.maxPartitionBytes该值的调整要结合你想要的并发度及内存的大小来进行。spark.sql.files.openCostInBytes说直白一些这个参数就是合并小文件的阈值,小于这个阈值的文件将会合并。6,文件格式建议parquet或者orc。Parquet已经可以达到很大的性能了。性能指标,网上一堆,在这里浪尖就不啰嗦了。7,sql调优听天由命吧。主要要熟悉业务,熟悉数据,熟悉sql解析的过程。关于调优多说一句:对于Spark任务的调优,要深入了解的就是数据在整个spark计算链条中,在每个分区的分布情况。有了这点的了解,我们就会知道数据是否倾斜,在哪倾斜,然后在针对倾斜进行调优。分区数该增大增大,该减少减少。内存要尽可能大。表别动不动就缓存,有时候重新加载比缓存速度都快。关于如何解析spark sql 非业务调优就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
这期内容当中小编将会给大家带来有关怎么实现docker环境搭建,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。vagrant、virtualbox、centos7、xshell:链接:https://pan.baidu.com…
免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。