5.6决策树
决策树是一个预测模型;他代表的是对象属性与对象值之间的一种映射关系。树中每个节点表示某个对象,而每个分叉路径则代表某个可能的属性值,而每个叶节点则对应从根节点到该叶节点所经历的路径所表示的对象的值。决策树仅有单一输出,若欲有复数输出,可以建立独立的决策树以处理不同输出。 数据挖掘中决策树是一种经常要用到的技术,可以用于分析数据,同样也可以用来作预测。
决策树包含三种类型的节点:
决策节点:通常用矩形框来表示
机会节点:通常用圆圈来表示
终结点:通常用三角形来表示
决策树的优点
(1) 决策树易于理解和实现.人们在通过解释后都有能力去理解决策树所表达的意义。
(2) 对于决策树,数据的准备往往是简单或者是不必要的.其他的技术往往要求先把数据一般化,比如去掉多余的或者空白的属性。
(3) 能够同时处理数据型和常规型属性。其他的技术往往要求数据属性的单一。
(4) 是一个白盒模型如果给定一个观察的模型,那么根据所产生的决策树很容易推出相应的逻辑表达式。
(5) 易于通过静态测试来对模型进行评测。表示有可能测量该模型的可信度。
(6) 在相对短的时间内能够对大型数据源做出可行且效果良好的结果。
决策树剪枝过程试图检测和去掉多余的分枝,以提高对未知类标号的数据进行分类时的准确性
最后修改: 2023年04月20日 星期四 10:23