一聚教程网:一个值得你收藏的教程网站

热门教程

python机器学习基础决策树与随机森林概率论

时间:2022-06-25 01:35:44 编辑:袖梨 来源:一聚教程网

本篇文章小编给大家分享一下python机器学习基础决策树与随机森林概率论,文章介绍的很详细,小编觉得挺不错的,现在分享给大家供大家参考,有需要的小伙伴们可以来看看。

一、决策树原理概述

1.决策树原理

决策树的分类原理,相当于程序中的if-then结构,通过条件判断,来决定结果。

2.信息论

①信息熵

假设有32支球队,在不知道任何信息的情况下,以二分法去猜冠军,最多猜log(2)32 = 5次。此时:每个球队的夺冠概率为1/32,那么:

5 = -(1/32log1/32 + 1/32log1/32 + ......)共32项相加。

若事先可以得知一点点信息,则使用二分法猜冠军的时候,次数一定比5次小,那么它的准确信息量应该是:

H = -(p1logp1 + p2logp2 + ... + p32logp32)

则H称为信息熵,单位为比特bit。

根据以上内容,可知,信息是和消除不确定性相联系的。当毫无信息的时候,信息熵最大,只要有了一定的信息,那么信息熵就会减小,不确定性也会减小。

②决策树的分类依据

信息增益:当得知一个特征条件之后,减少的信息熵的大小。计算公式如下:

每一个特征所对应的信息增益都可以通过上式计算出来,通过比较,信息增益最大的作为首要的分类标准。也就是说,每一个特征都可能对减小信息熵有作用,并且作用大小不一样。作用越大,减少的信息熵越大,则该特征越重要,便可首先拿这个最重要的作为分类标准。

③其他决策树使用的算法

其中,基尼系数对样本的划分更加仔细,甚至能对训练集分类达到100%,但通常这种情况下,会导致模型在测试集中的表现不好,因为它为了达到更高的拟合度,会过于针对训练集样本,由此降低了普遍性。

④决策树API

二、决策树算法案例

1.案例概述

本案例中,使用泰坦尼克号上的乘客数据作为样本,是否存活作为目标值。样本特征包含年龄、性别、目的地、船舱类型等等。我们在模型训练中,只使用了船舱类型(Pclass),性别(Sex),年龄(Age)这三个作为训练集样本特征。

2.数据处理

假设已经获取到了数据集,并赋值给titan

找出特征值和目标值:x = titan[['Pclass', 'Age', 'Sex']] y = titan['Survived']

缺失值处理:x['Age'].fillna(x['Age'].mean(), inplace=True)

分割数据集:x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25)

3.特征工程

由于船舱类型和性别的数据都不是数字,因此需要用one-hot编码来代替特征数据。通过字典数据处理,即可生成。因此,需要将训练集转换为字典,通过DictVectorizer转换即可。(注意:转换的是整个训练集,而不是单独转换某几列)

实例化转换器:dict = DictVectorizer(sparse = False)

对训练集转换:x_train = dict.fit_transform(x_train.to_dict,(orient='records'))

对测试集转换:x_test = dict.transform(x_test.to_dict(orient='records'))

4.使用决策树进行预测

预测后可以使用graphviz查看图像化的决策树。需要先安装,将导出的dot文件直接放在graphviz目录下,在命令行,通过 dot -Tpng tree.dot -o tree.png命令即可导出png图像。

dec = DecisionTreeClassifier()

训练算法:dec.fit(x_train,y_train)

打印准确率:print(dec.score(x_test, y_test))

导出树的结构:tree.export_graphviz(dec, out_file='D:/Graphviz/tree.dot', feature_names= [","])

注意,最后一个feature_names,直接在特征工程中,调用dict.get_feature_names,即可输出所需内容。

5.决策树优缺点及改进

优点:

原理及解释较为简单,并且可以将树木可视化

需要很少的数据准备,其他技术通常需要数据归一化

缺点:

决策树学习者可以创建不能很好地推广数据的过于复杂的树,这被称为过拟合。

决策树可能不稳定,因为数据的小变化可能会导致完全不同的树被生成

改进:

减枝cart算法、随机森林

三、随机森林

1.集成学习方法

集成学习通过建立几个模型组合的来解决单一预测问题。它的工作原理是生成多个分类器/模型,各自独立地学习和作出预测。这些预测最后结合成单预测,因此优于任何一个单分类的做出预测。

随机森林就是一种继承学习方法,定义:在机器学习中,随机森林是一个包含多个决策树的分类器,并且其输出的类别是由个别树输出的类别的众数而定。

2.单个树建立过程

①随机在N个样本中,有放回地选择一个样本,重复N次,样本可能重复

②随机在M个特征中选出m个特征,m取值小于总特征M

假如建立了10棵决策树,他们的样本以及特征大多都是不一样的。使用随机有返回的抽样(bootstrap抽样)。

3.随机森林API

随机森林超参数:

n_estimator:决策树数量

max_depth:每棵树深度限制

4.随机森林使用案例

还是用上面决策树的案例,假设已经准备好了训练集x_train, y_train,测试集x_test, y_test

rf = RandomForestClassifier()

由于随机森林有超参数n_estimator,max_depth,因此可以使用网格搜索交叉验证,对不同的参数组合进行一一验证,寻找最好的参数组合模型。

设置超参数取值:param = {'n_estimator':[100,200,300,400,500], 'max_depth':[5,10,15,20]}

实例化算法:gc = GridSearchCV(rf, param_grid=param, cv=2) (假设使用二折验证)

训练算法:gc.fit(x_train, y_train)

输出准确率:gc.score(x_test, y_test)

查看所选择的参数模型:gc.best_params_

5.随机森林的优点

①在当前所有算法中,具有极好的准确率

②能够有效地运行在大数据集上(样本数、特征数)

③能够处理具有高维特征的输入样本,而且不需要降维

④能够评估各个特征在分类问题上的重要性

热门栏目