« Python Copy Special Exercise in Japanese | トップページ

2010-05-29

R packages for machine learning and statistical learning

R package ElemStatLearn では, 統計学習の教科書 Elements of Statistical Learning に対する R package を紹介しましたが, これを紹介しているページ CRAN Task View: Machine Learning & Statistical Learning にある, 機械学習, 統計学習のための他の R パッケージを 以下のような項目にしました.

  • 人工神経回路網 (neural networks)
    • nnet: 単一隠れ層の人工神経回路網
  • 決定木, 回帰木
    • rpart: CART のような木構造を作るのにお勧め. (base R に付属)
    • mvpart: rpart を多変量の出力に対応した版.
    • tree
    • Weka + RWeka インターフェイス. Weka には, C4.5 の Java による実装 J4.8 などがあります.
    • party: 変数選択, 統計的停止基準を含む再帰的分割アルゴリズムの実装. 二分木の図示.
      • 関数 ctree(): 応答変数と入力変数の間の独立性を確認する ノンパラメトリック条件付推論の手続き.
      • 関数 mob(): 分割パラメトリックモデル用.
    • knnTree: 決定木/回帰木の各頂点において近傍法を 用いたアルゴリズム.
    • LogicReg: 二値入力変数に対する論理回帰分析.
    • maptree: 決定木/回帰木の図示.
    • pinktoe: 決定木/回帰木の図示.
    • TWIX: 特別な分割により不安定な問題を扱える.
    • REEMtree: 確率的要素を含む経度データのモデル化
  • ランダムフォレスト
    • randomForest: 回帰, 分類用のランダムフォレストアルゴリズム.
    • ipred: 回帰, 分類, 生存解析のためのブートストラップ集約法 (bagging) など.
    • party: ランダムフォレストの類似方法.
    • randomSurvivalForest: センサーデータに対するランダムフォレストアルゴリズム.
    • varSelRF: ランダムフォレストアルゴリズムによる変数選択.
  • 正則化法と収縮法
    • lasso2: パラメータ推定に制約のある回帰
    • lars: パラメータ推定に制約のある回帰
    • grplasso: パラメータのグループに対して同時にパラメータ更新する Lasso (グループに対する Lasso).
    • glmpath: 一般化線形モデルと Cox モデルに対する L1 正規化経路を得るための関数を含んでいる.
    • elasticnet: 線形回帰, ロジスティック回帰, 多項分布回帰に対する 伸縮性ネット正規化経路を得るためのパッケージ.
    • glmnet: 線形回帰, ロジスティック回帰, 多項分布回帰に対する lasso 全体, または, 伸縮性ネット正規化経路を得るためのパッケージ.
    • penalized: 一般線形モデルと Cox モデルに対する lasso (L1), ridge (L2) 正規化回帰 モデルの実装.
    • relaxo: 緩和 lasso と呼ばれる, 線形回帰に対する lasso の一般化の実装.
    • pamr: 収縮重心分類器と遺伝子発現解析のユーティリティ.
    • earth: 多変量適応的回帰スプラインの実装.
    • penalizedSVM: (SCAD, または, L1) 正規化モデルにおける SVM のクローン選択による 変数選択の実装.
  • 押し上げ法 (boosting)
    • gbm: 勾配によるさまざまな押し上げ法の実装.
    • GAMBoost: 押し上げ法による一般化加法モデルの当てはめ.
    • mboost: 一般化線形モデル, 一般化加法モデル, ノンパラメトリックモデル に対する押し上げ法.
    • CoxBoost: Cox に対する尤度に基づく押し上げ法.
  • サポートベクタマシンとカーネル法
    • e1071:
      • svm() 関数: LIBSVM ライブラリのインターフェイス
    • kernlab: SVM, RVM などのカーネルに基づく学習法に対する柔軟な枠組の実装.
    • klaR: (一対全の分類のみの) SVMlight へのインターフェイス.
    • rdetools: カーネル特徴空間における, データの説明に必要な次元の推定. モデル選択と予測の手続きも入っている.
  • ベイズの手法
    • BayesTree: 弱学習器の和により定義されるモデルである, ベイズの加法的回帰木 (Bayesian Additive Regression Tree; BART) の実装.
    • tgp: ベイズの非定常, 準パラメトリック非線形回帰など.
    • BPHO: 高次の関係を取り入れたベイズロジスティック回帰モデル.
    • predbayescor: 変数選択を伴う二値分類のためのベイズ流の素朴ベイズモデル.
  • 遺伝的アルゴリズムを使った最適化
    • gafit: 遺伝的アルゴリズムによる最適化ルーチン.
    • rgenoud: 遺伝的アルゴリズムによる最適化ルーチン.
  • 相関ルール
    • arules: 疎な二値データに対する効率的データ構造. 頻出アイテムセット, 極頻出アイテムセット, 閉頻出アイテムセット, 相関ルールを見つける Apriori, Eclat の実装.
  • モデル選択と検証
    • e1071:
      • tune(): ハイパーパラメータの調整.
    • ipred:
      • errorest(): 誤り率の推定.
    • svmpath: サポートベクタマシンのコストパラメータ C の選択.
    • ROCR: ROC 解析や分類器を比較するための図示のための関数.
    • caret: 予測モデルを構築するための関数. 並列計算機への実装でも利用可能.

« Python Copy Special Exercise in Japanese | トップページ

numerical programming」カテゴリの記事

R」カテゴリの記事

コメント

コメントを書く

コメントは記事投稿者が公開するまで表示されません。

(ウェブ上には掲載しません)

トラックバック

この記事のトラックバックURL:
http://app.f.cocolog-nifty.com/t/trackback/1174621/34942834

この記事へのトラックバック一覧です: R packages for machine learning and statistical learning :

« Python Copy Special Exercise in Japanese | トップページ