機械学習の全体像を整理してみる。
機械学習アルゴリズムへの招待 を元ネタに。
アルゴリズム
一覧にしてみたけど、さっぱり。
まぁそのうちわかるようになるじゃろう。
Wikipedia でページを見つけたものはリンクにしています。
類似性 | アルゴリズム |
---|---|
回帰法 | 最小二乗法(OLS) |
〃 | ロジスティック回帰 |
〃 | ステップワイズ回帰 |
〃 | 多変量適応回帰スプライン(MARS) |
〃 | LOESS |
インスタンスベースの方法 | K近傍法(k-NN) |
〃 | 学習ベクトル量子化(LVQ) |
〃 | 自己組織化マップ(SOM) |
正則化法 | リッジ回帰 |
〃 | LASSO |
〃 | エラスティックネット |
決定木学習 | 分類木と回帰木(CART) |
〃 | ID3 |
〃 | C4.5 |
〃 | CHAID |
〃 | 決定株 |
〃 | ランダムフォレスト |
〃 | 多変量適応回帰スプライン(MARS) |
〃 | 勾配ブースティングマシン(GBM) |
ベイズ法 | ナイーブベイズ |
〃 | AODE |
〃 | ベイジアン信念ネットワーク(BBN) |
カーネル法 | サポートベクターマシン(SVM) |
〃 | 放射基底関数(RBF) |
〃 | 線形判別分析(LDA) |
クラスタリング手法 | K-平均法 |
〃 | 期待値最大化(EM) |
相関ルール学習 | アプリオリアルゴリズム |
〃 | eclatアルゴリズム |
人工ニューラルネットワーク | パーセプトロン |
〃 | バックプロパゲーション |
〃 | ホップフィールド・ネットワーク |
〃 | 自己組織化マップ(SOM) |
〃 | 学習ベクトル量子化(LVQ) |
深層学習 | 制限付きボルツマンマシン(RBM) |
〃 | ディープビリーフネット(DBN) |
〃 | 畳み込みネットワーク |
〃 | Stackedオートエンコーダ |
次元削減 | 主成分分析(PCA) |
〃 | 部分最小二乗回帰(PLS) |
〃 | サモンマッピング |
〃 | 多次元尺度法(MDS) |
〃 | 射影追跡(PPR) |
アンサンブル法 | ブースティング |
〃 | バギング |
〃 | エイダブースト |
〃 | Stacked Generalization(blending) |
〃 | 勾配ブースティングマシン(GBM) |
〃 | ランダムフォレスト |
アルゴリズムの類似性能
表にしてみたが、わかったようなわからんような。
理解できない言葉が多々あるので、まぁわかっとらんですね。
類似性 | Description |
---|---|
回帰法 | 2つの変数間の関係をモデル化し、誤差の測度を用いて繰り返し精度を上げていく手法。 |
インスタンスベースの方法 | 重要または必要とみなされる訓練データのインスタンスや例を用いた決定問題で。 |
正則化法 | 他の方法(主に回帰法)を拡張した手法です。 複雑なモデルに罰金項を課し、シンプルで一般化しやすいモデルを支持します。 |
決定木学習 | データ属性の実価に基づいた決定モデルを構築します。 決定木は、分類と回帰のデータを対象とします。 |
ベイズ法 | 分類や回帰問題などのためにベイズの定理を適用している手法。 |
カーネル法 | カーネル法では分類問題や回帰問題がよりモデル化しやすいよう、データを高次元のベクトル空間上へ写像します。 |
クラスタリング手法 | データの内在構造を用い、類似度ごとのグループにデータを分類します。 |
相関ルール学習 | あるデータの変数の関係性に最もあてはまるルールを抽出する方法です。 |
人工ニューラルネットワーク | 人工ニューラルネットワークは生物の神経回路の構造や機能に触発されたモデルです。 |
深層学習 | 人工ニューラルネットワークに更新を加えて、潤沢で低価格なコンピュータによる計算を活用しているのが深層学習です。 |
次元削減 | クラスタリング手法と同じようにデータの内在構造を探して活用します。 |
アンサンブル法 | 独立して訓練されている複数の弱い学習モデルを組み合わせて、個々の予測を統合して全体予測とする手法です。 |
学習スタイル
ちからつきた。。
- 教師あり学習法
- 教師なし学習法
- 半教師あり学習
- 強化学習