ブースティング入門(シリーズ機械学習の数理:7月)

2020年度7月開講分、お申込受付中です。こちらからお申込みいただけます。

講座の概要

この講座はシリーズ機械学習の数理の7月分です。

ブースティングはKarns-Valiant問題(1988, 1989)に、Shapire(1990)が肯定的な結果を出したことに端を発します。大雑把に説明すると「あまり精度の良くない予測器から高い精度の予測器を作る」手法の例としてブースティングは提案されました。

Shapire(1990)の結果を受けて、実用的なブースティング手法の研究が進んできました。代表例として

  • Freund-Shapire(1997) : AdaBoost
  • Friedman(1999) : Gradient Boosting
  • Chen-Guestrin(2016) : XGBoost

などが提案され、いずれも機械学習の代表的な手法として定着しています。

この講座では、

  • ブースティング手法の基本的なアイディア
  • 代表的なブースティング手法の学習アルゴリズム
  • 変数重要度の計算方法

の3つに注目して解説します。

受講にあたって

受講する上で必要な知識

カリキュラム

1.ブースティングの基本(2時間)

一般的なブースティング手法に見られる学習アルゴリズムの共通点を事前に説明します。そして、アルゴリズムの実例としてAdaBoostアルゴリズムを紹介し、簡単なデータセットを用いたAdaBoostのデモンストレーションを行います。また、AdaBoostの統計モデルとしての解釈を与え、AdaBoostへの理解を深めます。

2.勾配ブースティング(3時間)

Friedmanが提案したGradient Boostingの学習アルゴリズムについて勾配降下法を参考にしながら説明し、簡単なデータセットを用いたGradient Boostingのデモンストレーションを行います。また、アルゴリズムの収束性・早期終了(early stopping)・変数重要度の計算方法について紹介します。

3.ニュートンプースティング(3時間)

Chen-Guestrinが提案したXGBoostの学習アルゴリズムについてNewton法を参考にしながら説明し、簡単なデータセットを用いたXGBoostのデモンストレーションを行います。また、XGBoostに改良を加えたLightGBMを紹介し、LightGBMにおける変数重要度の計算方法・カテゴリ変数のエンコーディング (adaptive encoding)・欠測の扱いについて紹介します。

お申込み

お申し込みは、お申込フォームからお願いします。
※お手数ですが、件名について『ブースティング入門(シリーズ機械学習の数理:7月)』を選択のうえ送信をお願いします。

名称 ブースティング入門(シリーズ機械学習の数理:7月)
講師 内場崇之
日程 計2回の集中講義になります。
第1回 7月12日(日) 10:00-15:00
第2回 7月19日(日) 10:00-15:00
場所

Zoomによるオンライン講座となります。

教科書 講師オリジナルテキスト
※ テキスト代は受講料に含まれています。
受講料

全2回34,500円

クレジットカード支払いはこちらのページから。

持ち物 ・筆記用具
・Pythonをインストールしたパソコン

お申込

お名前 (必須)


件名(必須)

お問合せ内容 詳細