spark rdd转dataframe 写入mysql的实例讲解


dataframe是在spark1.3.0中推出的新的api,这让spark具备了处理大规模结构化数据的能力,在比原有的RDD转化方式易用的前提下,据说计算性能更还快了两倍。spark在离线批处理或者实时计算中都可以将rdd转成dataframe进而通过简单的sql命令对数据进行操作,对于熟悉sql的人来说在转换和过滤过程很方便,甚至可以有更高层次的应用,比如在实时这一块,传入kafka的topic名称和sql语句,后台读取自己配置好的内容字段反射成一个class并利用出入的sql对实时数据进行计算,这种情况下不会spark streaming的人也都可以方便的享受到实时计算带来的好处。    下面的示例为读取本地文件成rdd并隐式转换成dataframe对数据进行查询,最后以追加的形式写入mysql表的过程,scala代码示例如下上面代码textFile开发云主机域名中的示例数据如下,数据来自hive,字段信息分别为 分区号、用户id、注册时间、第三方号这里注意字段类型映射,即case class类到dataframe映射,从官网的截图如下更多明细可以查看官方文档 Spark SQL and DataFrame Guide以上这篇spark rdd转dataframe 写入mysql的实例讲解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持开发云。

相关推荐: MYSQL存储过程即常用逻辑知识点总结

Mysql存储过程1.创建存储过程语法(格式)解析:2.存储过程内具体语法与逻辑A.定义变量语法:注:可以在参数类型后面加 DEFAULT NULL; 来设置初始值。B.变量赋值:方式1(直接对变量进行赋值):方式2(sql查询的结果直接赋值给变量):方式3(…

免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。

Like (0)
Donate 微信扫一扫 微信扫一扫
Previous 06/09 19:12
Next 06/09 19:12

相关推荐