Notebook

機械学習

統計的学習の基礎 2章のメモ

統計的学習の基礎を買ったのでそのメモを公開します.どこか,変な所がございましたらコメントをお願いいたします! 統計的学習の基礎 ―データマイニング・推論・予測―作者: Trevor Hastie,Robert Tibshirani,Jerome Friedman,杉山将,井手剛,神嶌敏弘,栗田多…

初心に帰って変分ベイズ(2)::9/17

fgjiutx.hatenablog.com この記事の続きです 4.2. 変分事後分布の算出 4.3. 予測分布の計算 4.4. 実装 4.4.1. アインシュタインの縮約記法 スカラー値×ベクトル 2次元行列×ベクトル=ベクトル($Ax=b$) $\boldsymbol a^{T}\boldsymbol W\boldsymbol b,\boldsy…

初心に帰って変分ベイズ(1)::8/31

1. 確率モデルの近似法 2. エントロピーとKLダイバージェンス 2.1. エントロピー pとrの分布 qとrの分布 2.2. KLダイバージェンス 3. 変分ベイズ 3.1. 変分下界 3.2. 分解による近似分布の計算 4. 変分混合ガウス分布 4.1. 事前分布の定義 1. 確率モデルの近…

初心に帰ってベイズ線形多項式回帰(2):エビデンス近似編::8/15

エビデンス近似 先日の記事日記(8/5):初心に帰ってベイズ線形多項式回帰(1) - 日記帳では,線形回帰に対してベイズ的な取り扱いを導入しましたが,ハイパーパラメータにあたる$\alpha,\beta$をあらかじめ決める必要があり,完全にベイズ的な取り扱いである回…

RVMとRails::8/11

時刻 したこと 10:00 起床 14:00 PRML7章 17:00 Rails環境構築 関連ベクトルマシン(RVM) gist.github.com 関連ベクトルマシン(RVM)ガウス過程と似た方法で,重みパラメータが無限大に発散することによってそのパラメータの事後分布を0近辺に集中させることで…

初心に帰ってベイズ線形多項式回帰(1)::8/5

時刻 行動 10:00 起床 13:00 外出 17:00 読書など ベイズ線形回帰 おとといの記事日記(8/2):初心に帰って回帰分析 - 日記帳では,線形回帰モデルのパラメータを最尤推定というアプローチで決めた. しかしながら,このモデルでは過学習を抑えるために正則化…

初心に帰って回帰分析::8/2

時刻 行動 11:00 起床 14:00 帰省開始 15:00 日吉駅発 18:00 土浦駅着 22:00 PRML読書 帰省するだけで結構疲れて辛いものがある. PRML 1.1. 例:多項式曲線フィッティング ベイズ理論ばっかり載ってるイメージのPRMLだけど最初の数ページは普通の回帰分析の…

VAEって何?[実装編]::8/1

時刻 行動 7:50 起床 10:00 バ始 19:00 バ終 21:00 帰宅 21:30 PRML読書 22:00 VAE実装の続き Kerasを使ってVAEを実装する. 原著論文:[1312.6114] Auto-Encoding Variational Bayes まとめ殴り書き:#10 Auto-Encoding Variational Bayes - HackMD 実装Noteb…

VAEって何?[殴り書き編]::7/31

時刻 行動 7:40 起床 9:00 都市工学期末試験 12:00 メディア文化論期末レポート 13:30 夏休み! 14:00 論文読書 18:00 VRoid体験 めでたく夏休みに突入した.長期休暇何かとだらけがちになるので,意識して進捗を生んでいきたい所存(果たしてそのやる気がい…