Adaboost决策树桩

MSTRPCMSTRPC 成员职位:2新手
嘿,所有的,
我对Adaboost算法中的决策树墩有一个问题,因为在文献中建议使用“弱学习者”。

首先,我在Adaboost Operator中执行了一个决策树桩,并进行了10次迭代,但这些树看起来是一样的,我的结果并不像预期的那样。我看到在Adaboost算法的教程过程中使用了深度为10的决策树。但是Adaboost的优势不就是你使用弱学习器通过迭代学习获得更好的结果吗?

使用默认的决策树,结果很好,但我不明白为什么这里可以使用正常的决策树。


在这个过程之后,我得到了模型的精度,在结果中有一个“w”的值,这是每个树桩的权重之和吗?我找不到任何解释。抱歉,如果这个问题已经过时了,我对Rapidminer没有那么久的兴趣。


问候微笑:

MSTRPC
标记:

最佳答案

答案

  • MSTRPCMSTRPC 成员职位:2新手
    你好,

    谢谢你的回答,这真的帮助我解决了这个问题:)

    问候,

    MSTRPC
    sara20
登录注册置评。