怎样使用Alluxio提速数据查询,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。下面介绍在生产环境中使用Alluxio的经验,以及为什么Alluxio能够带来显著的性能提升。使用Alluxio将原先的批处理查询将转换为交互式查询,这使百度能够以交互方式分析数据,从而提升了生产力,并改善了用户体验。业务挑战百度作为中国最大的搜索引擎,这意味着我们有很多的数据,如何管理这种规模的数据并快速提取其中的有用信息一直是一个挑战。举例来说,庞大的数据量常常会导致查询需要花费数十分钟甚至数小时才能完成,因此需要让产品经理等待数小时才能开始下一个查询。更令人沮丧的是,改动查询后将需要重新运行整个过程。大约在一年前,我们意识到需要一个特殊的查询引擎来解决这些问题。首先,我们提出了一个目标规范:该查询引擎需要管理数PB的数据,并能在30秒内完成95%的查询。我们将查询引擎从Hive切换到了Spark SQL(许多用例已经证明了它在延迟方面相对Hadoop MapReduce具有优势),我们期望Spark SQL能将平均查询时间降到几分钟之内。但是,它没有达到我们所希望的查询响应时间。虽然Spark SQL确实将平均查询速度提升了4倍,但仍需10分钟左右才能完成。因此,我们再次仔细思考,挖掘分析更多细节。事实证明,这个阶段的查询瓶颈不再是CPU而是数据传输网络。由于PB级别的数据分布在多个数据中心,因此数据查询很可能需要将数据从远程数据中心传输到计算所在数据中心,这就是导致用户运行查询时出现很大延迟的原因。由于数据存储中心节点和数据计算中心节点具有不同的最优硬件规格,因此解决方案并不是将计算过程移动到存储数据中心那么简单。我们需要一个内存级的存储系统来存储常用的“热”数据,并且该系统能够位于计算节点上。为什么选择Alluxio我们需要一个内存级的存储系统。该存储系统不仅能够提供高性能和可靠性,还能管理数PB的数据。我们开发了一个使用Spark SQL作为其计算引擎的查询系统,将Alluxio作为本地内存级存储解决方案。我们使用百度内部的标准查询作为压力测试方案,需要从远程数据中心提取6TB数据,然后在数据之上运行其他分析,整个压力测试持续了1个月。结果表明,Alluxio带来了优异的性能提升。如果系统仅使用Spark SQL,平均查询需要100-150秒才能完成。加上Alluxio后,平均查询耗时10-15秒。此外,如果所有数据都存储在Alluxio本地节点上,则只需要大约5秒钟,比单独使用Spark SQL快30倍。基于以上结果和系统可靠性方面考虑,我们围绕Alluxio和Spark SQL构建了一个完整的大数据查询系统。我们的系统包含以下组件:操作管理器:包装Spark SQL的持久化Spark应用程序。它接受来自查询UI的查询,并提供查询解析和查询优化功能。视图管理器:管理缓存元数据并处理来自操作管理器的查询请求。Alluxio:用作存储常用数据内存级存储系统,提供计算本 香港云主机地性。数据仓库:基于HDFS系统的远程数据中心,用于存储数据。下面,我们将介绍整个系统的执行流程:查询已提交。操作管理器分析查询并询问视图管理器数据是否已在Alluxio中。如果数据已经在Alluxio中,操作管理器从Alluxio中获取数据并对其执行分析。如果数据不在Alluxio中,那么该数据未命中缓存。操作管理器将直接从数据仓库请求数据。同时,视图管理器启动另一个作业以从数据仓库请求相同的数据并将数据存储在Alluxio中。这样下次提交相同的查询时,数据已经在Alluxio中。
收益系统部署后,我们使用典型的百度查询测量其性能。使用原始的Hive系统,需要超过1,000秒才能执行完成该典型查询。仅使用Spark SQL,耗时能够降低至150秒,而加上Alluxio后,耗时能够进一步降低至约20秒。该查询运行速度提高了50倍,并满足了我们为项目设置的交互式查询要求。因此,通过使用Alluxio,能够将执行耗时为15分钟的批量查询转换为耗时不到30秒的交互式查询。在过去的一年中,该系统已部署在一个拥有100多个节点的集群中,Alluxio系统存储管理了超过2 PB数据并且使用了Alluxio高级功能——分层存储。此功能允许我们将内存作为一级存储,SSD作为二级存储,HDD作为最后级存储。将这些存储介质组合在一起,我们可以提供超过2 PB的存储空间。除了查询性能方面的改进之外,对我们来说更重要的是整个系统的可靠性。在过去的一年中,Alluxio一直在我们的数据基础设施中稳定运行,很少遇到问题,这给了我们很多信心。因此,我们正在准备大规模部署Alluxio。首先,我们通过部署拥有1000个Alluxio worker节点的集群来验证Alluxio的可扩展性。在过去的一个月里,这个拥有1000个Alluxio worker节点的集群一直运行稳定,该集群提供超过50 TB的内存空间。据我们所知,这是目前世界上最大的Alluxio集群之一。我们已经验证了Alluxio能够极大地提高性能,并且可靠可扩展。接下来,我们正在逐步将不同的百度工作负载任务迁移到Alluxio集群上。例如,为了提高在线图像服务和在线图像分析的性能,我们正在与Alluxio社区密切合作,试图在Alluxio之上开发一个高性能的Key-Value存储。这样,只需要Alluxio一个存储系统:Key-Value存储可以执行有效的在线服务;对于离线分析,我们可以直接访问Alluxio获取图像数据。这大大降低了我们的开发和运营成本。作为Alluxio的早期使用者,我们验证了它所描述的“以内存为中心的分布式存储系统,以内存速度跨集群框架实现可靠的数据共享”。除了可靠且具有内存速度之外, Alluxio还提供了一种基于内存的扩展存储以提供足够存储容量。看完上述内容是否对您有帮助呢?如果还想对相关知识有进一步的了解或阅读更多相关文章,请关注开发云行业资讯频道,感谢您对开发云的支持。
相关推荐: from __future__ import division怎么使用
这篇文章主要讲解了“from __future__ import divisio 香港云主机n怎么使用”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“from __future__ import division…
免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。