Adaboost决策树桩
嘿,所有的,
我对Adaboost算法中的决策树墩有一个问题,因为在文献中建议使用“弱学习者”。
首先,我在Adaboost Operator中执行了一个决策树桩,并进行了10次迭代,但这些树看起来是一样的,我的结果并不像预期的那样。我看到在Adaboost算法的教程过程中使用了深度为10的决策树。但是Adaboost的优势不就是你使用弱学习器通过迭代学习获得更好的结果吗?
使用默认的决策树,结果很好,但我不明白为什么这里可以使用正常的决策树。
在这个过程之后,我得到了模型的精度,在结果中有一个“w”的值,这是每个树桩的权重之和吗?我找不到任何解释。抱歉,如果这个问题已经过时了,我对Rapidminer没有那么久的兴趣。
问候
MSTRPC
我对Adaboost算法中的决策树墩有一个问题,因为在文献中建议使用“弱学习者”。
首先,我在Adaboost Operator中执行了一个决策树桩,并进行了10次迭代,但这些树看起来是一样的,我的结果并不像预期的那样。我看到在Adaboost算法的教程过程中使用了深度为10的决策树。但是Adaboost的优势不就是你使用弱学习器通过迭代学习获得更好的结果吗?
使用默认的决策树,结果很好,但我不明白为什么这里可以使用正常的决策树。


在这个过程之后,我得到了模型的精度,在结果中有一个“w”的值,这是每个树桩的权重之和吗?我找不到任何解释。抱歉,如果这个问题已经过时了,我对Rapidminer没有那么久的兴趣。

问候

MSTRPC
标记:
0
最佳答案
-
sara20 成员职位:110
独角兽
@MSTRPC
你好
根据我的理解,如果你看一下决策树和决策树桩的定义,你就会找到答案。
Decision Stump操作符用于生成只有一个分裂的决策树。生成的树可以用于对未见过的例子进行分类。当使用AdaBoost等操作器时,该操作器可以非常高效。给定ExampleSet的示例有几个属性,每个示例都属于一个类(如yes或no)。决策树的叶节点包含类名,而非叶节点是决策节点。决策节点是一个属性测试,其中每个分支(到另一个决策树)是该属性的一个可能值。(定义来自链接)
因此,你可以首先可视化你的数据并查看你的数据,以便找到更多关于它的信息,然后根据你的数据进行任何有用的处理并选择最佳算法。此外,Auto模型是rapidminer的一个很好的组成部分,用于显示算法和比较它们的结果。
想了解更多信息,你可以看看这里:
https://docs.www.turtlecreekpls.com/latest/studio/operators/modeling/predictive/trees/decision_stump.html
我希望这对你有帮助
莎拉7
答案
谢谢你的回答,这真的帮助我解决了这个问题
问候,
MSTRPC