衡阳派盒市场营销有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

XGBoost原理概述 XGBoost和GBDT的區別

WpOh_rgznai100 ? 來源:網絡整理 ? 2019-07-16 18:54 ? 次閱讀

作者 |梁云1991

一、XGBoost和GBDT

xgboost是一種集成學習算法,屬于3類常用的集成方法(bagging,boosting,stacking)中的boosting算法類別。它是一個加法模型,基模型一般選擇樹模型,但也可以選擇其它類型的模型如邏輯回歸等。

xgboost屬于梯度提升樹(GBDT)模型這個范疇,GBDT的基本想法是讓新的基模型(GBDT以CART分類回歸樹為基模型)去擬合前面模型的偏差,從而不斷將加法模型的偏差降低。相比于經典的GBDT,xgboost做了一些改進,從而在效果和性能上有明顯的提升(劃重點面試常考)。第一,GBDT將目標函數泰勒展開到一階,而xgboost將目標函數泰勒展開到了二階。保留了更多有關目標函數的信息,對提升效果有幫助。第二,GBDT是給新的基模型尋找新的擬合標簽(前面加法模型的負梯度),而xgboost是給新的基模型尋找新的目標函數(目標函數關于新的基模型的二階泰勒展開)。第三,xgboost加入了和葉子權重的L2正則化項,因而有利于模型獲得更低的方差。第四,xgboost增加了自動處理缺失值特征的策略。通過把帶缺失值樣本分別劃分到左子樹或者右子樹,比較兩種方案下目標函數的優劣,從而自動對有缺失值的樣本進行劃分,無需對缺失特征進行填充預處理。

此外,xgboost還支持候選分位點切割,特征并行等,可以提升性能。

二、XGBoost原理概述

下面從假設空間,目標函數,優化算法3個角度對xgboost的原理進行概括性的介紹。

1,假設空間

2,目標函數

3,優化算法

基本思想:貪心法,逐棵樹進行學習,每棵樹擬合之前模型的偏差。

三、第t棵樹學什么?

要完成構建xgboost模型,我們需要確定以下一些事情。

1,如何boost? 如果已經得到了前面t-1棵樹構成的加法模型,如何確定第t棵樹的學習目標?

2,如何生成樹?已知第t棵樹的學習目標的前提下,如何學習這棵樹?具體又包括是否進行分裂?選擇哪個特征進行分裂?選擇什么分裂點位?分裂的葉子節點如何取值?

我們首先考慮如何boost的問題,順便解決分裂的葉子節點如何取值的問題。

四、如何生成第t棵樹?

xgboost采用二叉樹,開始的時候,全部樣本都在一個葉子節點上。然后葉子節點不斷通過二分裂,逐漸生成一棵樹。

xgboost使用levelwise的生成策略,即每次對同一層級的全部葉子節點嘗試進行分裂。對葉子節點分裂生成樹的過程有幾個基本的問題:是否要進行分裂?選擇哪個特征進行分裂?在特征的什么點位進行分裂?以及分裂后新的葉子上取什么值?葉子節點的取值問題前面已經解決了。我們重點討論幾個剩下的問題。

1,是否要進行分裂?

根據樹的剪枝策略的不同,這個問題有兩種不同的處理。如果是預剪枝策略,那么只有當存在某種分裂方式使得分裂后目標函數發生下降,才會進行分裂。但如果是后剪枝策略,則會無條件進行分裂,等樹生成完成后,再從上而下檢查樹的各個分枝是否對目標函數下降產生正向貢獻從而進行剪枝。xgboost采用預剪枝策略,只有分裂后的增益大于0才會進行分裂。

2,選擇什么特征進行分裂?

xgboost采用特征并行的方法進行計算選擇要分裂的特征,即用多個線程,嘗試把各個特征都作為分裂的特征,找到各個特征的最優分割點,計算根據它們分裂后產生的增益,選擇增益最大的那個特征作為分裂的特征。

3,選擇什么分裂點位?

xgboost選擇某個特征的分裂點位的方法有兩種,一種是全局掃描法,另一種是候選分位點法。

全局掃描法將所有樣本該特征的取值按從小到大排列,將所有可能的分裂位置都試一遍,找到其中增益最大的那個分裂點,其計算復雜度和葉子節點上的樣本特征不同的取值個數成正比。

而候選分位點法是一種近似算法,僅選擇常數個(如256個)候選分裂位置,然后從候選分裂位置中找出最優的那個。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • GBDT
    +關注

    關注

    0

    文章

    13

    瀏覽量

    3917
  • XGBoost
    +關注

    關注

    0

    文章

    16

    瀏覽量

    2244

原文標題:30分鐘看懂XGBoost的基本原理

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    PyInstaller打包xgboost算法包等可能出現問題是什么

    PyInstaller 打包 xgboost算法包等可能出現問題
    發表于 07-16 14:35

    基于xgboost的風力發電機葉片結冰分類預測 精選資料分享

    xgboost中文叫做極致梯度提升模型,官方文檔鏈接:https://xgboost.readthedocs.io/en/latest/tutorials/model.html2018年9月6日筆記
    發表于 07-12 06:58

    基于xgboost的風力發電機葉片結冰分類預測 精選資料下載

    xgboost中文叫做極致梯度提升模型,官方文檔鏈接:https://xgboost.readthedocs.io/en/latest/tutorials/model.html2018年9月6日筆記
    發表于 07-12 06:44

    通過學習PPT地址和xgboost導讀和實戰地址來對xgboost原理和應用分析

    關于xgboost的原理網絡上的資源很少,大多數還停留在應用層面,本文通過學習陳天奇博士的PPT和xgboost導讀和實戰地址,希望對xgboost原理進行深入理解。
    的頭像 發表于 01-02 10:18 ?6582次閱讀
    通過學習PPT地址和<b class='flag-5'>xgboost</b>導讀和實戰地址來對<b class='flag-5'>xgboost</b>原理和應用分析

    面試中出現有關Xgboost總結

    介紹 Xgboost是GB算法的高效實現,xgboost中的基學習器除了可以是CART(gbtree)也可以是線性分類器(gblinear)
    發表于 03-20 16:48 ?4492次閱讀

    基于Xgboost算法的高錳鋼表面粗糙度預測

    基于Xgboost算法的高錳鋼表面粗糙度預測
    發表于 06-19 15:09 ?14次下載

    在幾個AWS實例上運行的XGBoost和LightGBM的性能比較

    XGBoost(eXtreme Gradient Boosting)是一個在Gradient Boosting Decision Tree(GBDT)框架下的開源機器學習庫(https://github.com/dmlc/xgboost
    的頭像 發表于 10-24 10:24 ?1504次閱讀

    XGBoost超參數調優指南

    對于XGBoost來說,默認的超參數是可以正常運行的,但是如果你想獲得最佳的效果,那么就需要自行調整一些超參數來匹配你的數據,以下參數對于XGBoost非常重要
    的頭像 發表于 06-15 18:15 ?867次閱讀
    <b class='flag-5'>XGBoost</b>超參數調優指南

    XGBoost中無需手動編碼的分類特征

    XGBoost 中無需手動編碼的分類特征
    的頭像 發表于 07-05 16:30 ?719次閱讀

    XGBoost 2.0介紹

    XGBoost是處理不同類型表格數據的最著名的算法,LightGBM 和Catboost也是為了修改他的缺陷而發布的。近日XGBoost發布了新的2.0版,本文除了介紹讓XGBoost的完整歷史以外
    的頭像 發表于 11-03 10:12 ?535次閱讀
    <b class='flag-5'>XGBoost</b> 2.0介紹

    xgboost超參數調優技巧 xgboost在圖像分類中的應用

    一、XGBoost超參數調優技巧 XGBoost(eXtreme Gradient Boosting)是一種基于梯度提升決策樹(GBDT)的高效梯度提升框架,在機器學習競賽和實際業務應用中取得了卓越
    的頭像 發表于 01-31 15:16 ?82次閱讀

    xgboost在圖像分類中的應用

    XGBoost(eXtreme Gradient Boosting)是一種高效的機器學習算法,它基于梯度提升框架,通過構建多個弱學習器(通常是決策樹)來提高模型的性能。XGBoost因其出色的性能
    的頭像 發表于 01-19 11:16 ?371次閱讀

    xgboost的并行計算原理

    在大數據時代,機器學習算法需要處理的數據量日益增長。為了提高數據處理的效率,許多算法都開始支持并行計算。XGBoost作為一種高效的梯度提升樹算法,其并行計算能力是其受歡迎的原因
    的頭像 發表于 01-19 11:17 ?372次閱讀

    xgboost與LightGBM的優勢對比

    在機器學習領域,集成學習算法因其出色的性能和泛化能力而受到廣泛關注。其中,XGBoost和LightGBM是兩種非常流行的梯度提升框架。 1. 算法基礎 XGBoost(eXtreme
    的頭像 發表于 01-19 11:18 ?388次閱讀

    使用Python實現xgboost教程

    使用Python實現XGBoost模型通常涉及以下幾個步驟:數據準備、模型訓練、模型評估和模型預測。以下是一個詳細的教程,指導你如何在Python中使用XGBoost。 1. 安裝XGBoost
    的頭像 發表于 01-19 11:21 ?396次閱讀
    莫斯科百家乐官网的玩法技巧和规则 | 高碑店市| 百家乐游戏厅| 塘沽区| 仕達屋百家乐的玩法技巧和规则 | 百家乐官网正式版| 威尼斯人娱乐城活动lm0| 百家乐官网真人赌场娱乐网规则| 大发888赌博网站大全| 百家乐梅花图标| 游戏机百家乐官网的玩法技巧和规则| 大发888娱乐场下载 df888ylc3403| 百家乐官网分析下载| 百家乐baccarat| 百家乐官网永利赌场娱乐网规则 | bet365娱乐平台| 百家乐博彩通博彩网皇冠网澳门赌场真人赌博 | 百家乐官网算牌方| 松潘县| 威尼斯人娱乐城评价| 新宝百家乐网址| 百家乐官网下载免费软件| 百家乐长t恤| 百家乐官网真人视频出售| 大发888洗码| 太阳城百家乐公司| 游戏百家乐官网的玩法技巧和规则 | 大发888官方6| 百家乐经典路单| 真钱百家乐官网游戏大全| 大发888 casino组件下载| 百家乐官网群lookcc| 百家乐官网有作弊的吗| 大发888官方注册| 百家乐路单| 百家乐官网庄闲路| 牙克石市| 大发888官方注册| 百家乐注册开户送彩金| 网上百家乐官网破战| 帝豪百家乐官网利来|