1、保证spark-sql已经使用mysql作为metadata存储介质2、启动thrift网关$SPARK_HOME/sbin/start-thriftserver.sh –driver-cl 香港云主机ass-path
/usr/local/spark/spark-1.3.0-bin-hadoop2.3/lib/mysql-connector-java-5.1.6-bin.jar
–master spark://hd1:7077 –executor-memory 2g –total-executor-cores 103、确认是否正确beeline>!connect jdbc:hive2://hd1:10000user:hadooppassword:******show databases;show tables;如果能够看到和本地启动的spark-sql一样的结果,就是确认成功了。
这篇文章主要介绍了Nginx如何自定义记录及启用日志缓冲区的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇Nginx如何自定义记录及启用日志缓冲区文章都会有所收获,下面我们一起来看看吧。访问日志nginx 在处理请求后立即在访问日志…
免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。