随机森林算法与集成学习

作者: pdnbplus | 发布时间: 2024/06/25 | 阅读量: 279

随机森林算法与集成学习 -- 潘登同学的Machine Learning笔记

@

书接上文,经典决策树CART、ID3与C4.5,我们构建了一颗树来解决分类、拟合问题,但是一棵树的缺点也很明显,就是容易过拟合;再说了,就算一棵树再强大,也不可能强过好几颗吧,正所谓 ~~三个诸葛亮顶个臭皮匠~~嘛... 而随机森林就是这样一个有很多颗小树组成的一片森林,核心思路就是让每颗小树投票解决;

聚合模型

同权重

$$ G(X) = sign(\sum_{t=1}^T 1*g_t(x)) $$

变量解释:

  • $G(X)$表示最终结果,$sign$是一个判断符号函数,最终判断为0或1
  • $g_t(x)$表示每颗小树给出的预测结果
  • $\sum$后面跟的1表示每颗小树的权重

不同权重

$$ G(X) = sign(\sum_{t=1}^T \alpha_t*g_t(x)) $$

其中,$\alpha_t$则表示第t颗小树的权重,之所以这样设置,目的是更相信某些树,可能有预想不到的结果,因为有时在村里面投票时,德高望重的村长可能能投两票;

如何生成$g(x)$

因为聚合模型需要很多颗不同的小树来构成,而现在我们要解决的问题就是,如何在同一组数据下生成不同的小树?

  • 用同样的数据,但用不同的超参
  • 同样的超参,不同样本(同一个data,但不给全部样本,给一部分)
  • 同样的超参,不同属性(同一个data,但有的小树,只给一部分属性)
  • 同样的超参,同样的样本和属性,但是数据权重不同

对于决策树算法来说,$g(t)$的构成也有两种思路:

Bagging(一袋子模型)

对训练集进行抽样,将抽样的结果用于训练集$g(x)$,可以并行、独立训练;如:随机森林。

Boosting(提升模型)

利用训练集训练出的模型,根据这次训练的预测结果,调整训练集,然后利用调整后的训练集训练下一个模型,串行;如:adaboost、GBDT、Xgbosst。

注意: Bagging与Boosting是一种集成学习的思路,可以用在机器学习的任何算法上,例如:

flowchart TD

id1[(Database)] --> id2((SVM)) & id3((LR)) & id4((DT))
id2((SVM)) --预测值1--> id5((LR))
id3((LR)) --预测值2--> id5((LR))
id4((DT)) --预测值3--> id5((LR))
id5((LR)) --> 最终预测值

随机森林

而随机森林就是聚合模型中的同权重那一类(Uniform Blending Voting for Classification)

思想:Bagging思想 + 决策树作为base model(每颗小树都是 fully gorwn CART) + Uniform Blending Voting

随机森林算法

  • 还记得前面的sign吗?

在随机森林中,sign就理解为少数服从多数,假如小树有100个,最终小树分别投票的结果是正例:负例 = 60:40,那么最终sign后的结果就是1;否则为0;

  • 特点:
    • 高效并行
    • 继承决策树的优点
    • 减少决策树的过拟合问题

OOB问题(Out of bag data)

因为在构建小树的时候是随机抽样的,那么就会有没有被抽出的数据

数据样本数为m,一条数据m轮没有被抽到的概率为 $$ (1-\frac{1}{m})^m $$

当m趋近于无穷时 $$ \lim_{m\to\infty}(1-\frac{1}{m})^m = \frac{1}{e} $$

所以在大样本,很多棵小树的随机森林里,总会有$\frac{1}{e}$的样本是不会纳入训练集中的,这些数据可以作为测试集;

所以使用随机森林时,不需要对数据集进行划分,随机森林的OOB可以自我验证;

实战鸢尾花数据集

多种模型 + bagging

比较逻辑回归、随机森林、SVM、与将前面三个模型bagging起来的模型

from sklearn.ensemble import RandomForestClassifier
from sklearn.ensemble import VotingClassifier
from sklearn.linear_model import LogisticRegression
from sklearn.svm import SVC
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.ensemble import BaggingClassifier
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score

#VotingClassifier
log_clf = LogisticRegression()
rnd_clf = RandomForestClassifier()
svm_clf = SVC()

voting_clf = VotingClassifier(
    estimators=[('lr', log_clf), ('rf', rnd_clf), ('svc', svm_clf)],
    voting='hard'  #hard表示投票 除此之外还有soft 是把对分类最确定的(概率最大)的那个分类器的结果当做最终结果
)

iris = load_iris()
X = iris.data[:, :2]  # 花萼长度和宽度
y = iris.target
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=2)

# voting_clf.fit(X, y)


for clf in (log_clf, rnd_clf, svm_clf, voting_clf):
    clf.fit(X_train, y_train)
    y_pred = clf.predict(X_test)
    print(clf.__class__.__name__,'%.2f%%' %accuracy_score(y_test, y_pred))
  • 结果如下:

显示的是错误率

集成学习4个模型结果

随机森林OOB

上面采用的还是划分测试集与训练集的方式,而随机森林是不需要划分的,自己验证即可

#%%BaggingClassifier
iris = load_iris()
X = iris.data[:, :2]  # 花萼长度和宽度
y = iris.target


bag_clf = BaggingClassifier(
    DecisionTreeClassifier(), n_estimators=10,
    max_samples=1.0, bootstrap=True, n_jobs=1
)
#划分训练集和测试集的准确率
bag_clf.fit(X_train, y_train)
y_pred = bag_clf.predict(X_test)
print(y_pred)
y_pred_proba = bag_clf.predict_proba(X_test)
print(y_pred_proba)
print("bagging", accuracy_score(y_test, y_pred)) #查看正确率


# oob (利用随机森林本身的特点来查看正确率)
bag_clf = BaggingClassifier(
    DecisionTreeClassifier(), n_estimators=500,   #n_estimators表示500科小树
    bootstrap=True, n_jobs=1, oob_score=True      #bootstrap有放回抽样
)
bag_clf.fit(X, y)
print('oob',bag_clf.oob_score_)
# y_pred = bag_clf.predict(X_test)
# print(accuracy_score(y_test, y_pred))

print(bag_clf.oob_decision_function_)  #与上面y_pred_proba作用相似,只不过这里不需要测试集
  • 采用测试集与OOB的验证结果

前者是采用测试集与训练集划分的结果,后者是OOB的方式,两者的差别不大

随机森林

随机森林算法与集成学习, 继续下一章吧!pd的Machine Learning