第1章 機械学習と人工知能の概要および単回帰分析
1.1 機械学習の概要
1.2 人工知能の概要
1.3 回帰分析の概要
1.4 線形単回帰分析
1.5 相関
1.6 決定係数
第2章 多項式回帰
2.1 多項式回帰
2.2 訓練データとテストデータ
2.3 モデルの性能評価
2.4 過学習と正則化
2.5 バイアス・バリアンス分解
第3章 重回帰分析
3.1 重回帰分析
3.2 重相関係数と決定係数
3.3 自由度調整済み決定係数
3.4 多重共線性
3.5 偏回帰係数の区間推定
第4章 ロジスティック回帰による二値分類
4.1 ロジスティック回帰
4.2 ロジスティック回帰の原理
4.3 オッズと結果の解釈
4.4 ニュートン法
4.5 連立非線形方程式に対するニュートン法
4.6 ロジスティック回帰の実装
第5章 ソフトマックス回帰による多値分類
5.1 One-VS-Rest
5.2 One-VS-One
5.3 ソフトマックス回帰
5.4 ソフトマックス関数に関する注意
5.5 ソフトマックス回帰の行列表現
5.6 勾配降下法によるソフトマックス回帰
5.7 重みの初期値
第6章 決定木
6.1 決定木とは
6.2 決定木の手順と特徴
6.3 情報利得と不純度
6.4 ランダムフォレスト
6.5 ブースティング
第7章 ナイーブベイズ分類
7.1 ベイズの定理
7.2 ナイーブベイズ分類
7.3 文書分類
7.4 TF-IDF
7.5 ゼロ頻度問題
7.6 ガウシアンナイーブベイズ分類
7.7 クラス分類の性能評価
7.8 ROC曲線とAUC
7.9 多クラス分類の性能評価
第8章 k近傍法とk-means法
8.1 パラメトリックモデルとノンパラメトリックモデル
8.2 k近傍法
8.3 k-means法
第9章 主成分分析
9.1 2次形式と正定値行列
9.2 共分散行列
9.3 主成分分析と分散
9.4 主成分分析の導出
9.5 寄与率
9.6 主成分分析の例
第10章 サポートベクトルマシン(SVM)
10.1 サポートベクトルマシンの概要
10.2 ハードマージンSVM の定式化
10.3 ハードマージンSVM に対する双対問題
10.4 勾配降下法を用いたαˆの推定
10.5 決定境界のパラメータwˆbˆの計算
10.6 ソフトマージンSVM
10.7 ソフトマージンSVM に対する双対問題
10.8 ソフトマージンSVM に対する双対問題の解法
第11章 カーネル法
11.1 カーネルSVM の概要
11.2 カーネルSVM の原理
11.3 カーネルSVM の実装
11.4 カーネル主成分分析
11.5 白色化
第12章 深層学習入門
12.1 人工ニューラルネットワーク
12.2 活性化関数
12.3 バックプロパゲーション
12.4 学習と確率的勾配降下法
12.5 勾配の計算
12.6 出力層におけるδkの計算
12.7 順伝播と逆伝播の計算の行列表示
12.8 勾配消失問題について
第13章 畳み込みニューラルネットワーク(CNN)
13.1 畳み込みニューラルネットワーク(CNN) の概要
13.2 畳み込み層
13.3 プーリング層
13.4 全結合層
13.5 データ拡張
13.6 ニューラルネットワークの学習におけるテクニック
13.7 CNN の学習と予測
第14章 再帰型ニューラルネットワーク(RNN)
14.1 RNN の構造
14.2 RNN 層の順伝播
14.3 出力層の順伝播と損失関数
14.4 RNN 層の逆伝播
14.5 出力層の逆伝播
14.6 重みの初期値
14.7 RNN の問題点