如何解析Apache Spark中的决策树


这期内容当中小编将会给大家带来有关如何解析Apache Spark中的决策树,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。Apache Spark中的决策树决策树是在顺序决策问题进行分类,预测和促进决策的有效方法。决策树由两部分组成:决策(Desion)结果(Outcome)决策树包含三种类型的节点:根节点(Root node):包含所有数据的树的顶层节点。分割节点(Splitting node):将数据分配给子组(subgroup)的节点。终端节点(Terminal node):最终决定(即结果)。(分割节点(Splitting node),仅就离散数学中的树的概念而言,就是指分支节点,下面的翻译为了强调”分支”有时会翻译成分支结点,译者注)为了抵达终端结点或者说获得结果,该过程从根节点开始。根据在根节点上做出的决定,选择分支节点。基于在分支节点上做出的决定,选择下一个子分支节点。这个过程继续下去,直到我们到达终端节点,终端节点的值是我们的结果。Apache Spark中的决策树Apache Spark中没有决策树的实现可能听起来很奇怪。然而从技术上来说是有的。在Apache Spark中,您可以找到一个随机森林算法的实现,该算法实现可以由用户指定树的数量。因此,Apache Spark使用一棵树来调用随机森林。在Apache Spark中,决策树是在特征空间上执行递归二进制分割的贪婪算法。树给每个***部(即叶子结点)分区预测了相同的标签。为了***化树的节点处的信息增益,通过在一组可能的分支中选择其中的***分割来贪婪地选择每个分支结点。节点不纯度(impurity)是节点上标签一致性的度量。目前的实施提供了两种不纯的分类方法(Gini杂质和熵(Gini impurity and entropy))。停止规则在满足以下列条件之一的情况下,在节点处停止递归树构建(即只要满足一个就停止,译者注):节点深度等于训练用的 maxDepth 参数。没有候选的分割结点导致信息收益大于 minInfoGain 。没有候选的分割结点去产生(至少拥有训练minInstancesPerNode实例)的子节点 。有用的参数algo:它可以是分类或回归。numClasses:分类类的数量。maxDepth:根据节点定义树的深度。minInstancesPerNode:对于要进一步拆分的节点,其每个子节点必须至少接收到这样的训练实例数(即实例数必须等于这个参数)。minInfoGain:对于一个 香港云主机节点进一步拆分,必须满足拆分后至少提高这么多信息量。maxBins:离散连续特征时使用的bin数。准备决策树的训练数据您不能直接向决策树提供任何数据。它需要一种特殊的格式来提供。您可以使用 HashingTF 技术将训练数据转换为标记数据,以便决策树可以理解。这个过程也被称为数据的标准化。(数据)供给和获得结果一旦数据被标准化,您就可以提供相同的决策树算法进来行分类。但在此之前,您需要分割数据以用于训练和测试目的; 为了测试的准确性,你需要保留一部分数据进行测试。你可以像这样提供数据:在这里,数据是我的标准化输入数据,为了训练和测试目的,我将其分成7:3的比例。我们正在使用***深度的为5的”gini” 杂质(“gini” impurity)。一旦模型生成,您也可以尝试预测其他数据的分类。但在此之前,我们需要验证最近生成的模型的分类准确性。您可以通过计算”test error”来验证其准确性。上述就是小编为大家分享的如何解析Apache Spark中的决策树了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注开发云行业资讯频道。

相关推荐: linux怎么共享文件夹

本篇内容介绍了“linux怎么共享文件夹”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!1 香港云主机、首先2台服务器都需要安装nfs和rpcbind服务 查看是…

免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。

Like (0)
Donate 微信扫一扫 微信扫一扫
Previous 09/23 17:04
Next 09/23 17:04

相关推荐