Notebook

2018-01-01から1年間の記事一覧

統計的学習の基礎 2章のメモ

統計的学習の基礎を買ったのでそのメモを公開します.どこか,変な所がございましたらコメントをお願いいたします! 統計的学習の基礎 ―データマイニング・推論・予測―作者: Trevor Hastie,Robert Tibshirani,Jerome Friedman,杉山将,井手剛,神嶌敏弘,栗田多…

Flask+Nginx+uWSGI+CentOS7でアプリケーションを作る際にやったこと+日記::12/9

久々の日記です.サーバサイドで消耗した話と他愛もない日記を書きました.

GCPの無料枠で何か作りたかった::10/20

こんなものを作りました. http://instasan.kcs18.net/ 追記:開発途中なので容赦なく止まったり不可解な行動を起こす場合があるので優しく扱おう GCPのプロモが折角あるので利用することにしました. Github上のmasterにプッシュするとCloud Buildが実行され…

日記::10/12

FlaskとJavascriptを触ってなんかできた.

Large Scale GAN Training for High Fidelity Natural Image Synthesis(BigGAN)::10/6

話題の論文Large Scale GAN Training for High Fidelity Natural Image Synthesis/BigGANを読んだ(実装は厳しいものがある)

日記(9月)

日記のレイアウトを大幅に変えました.しっくり来たのでこれで行こうかと思います. とあるところでバイト(インターン)を始めました.実務に触れる機会としてはインターンは本当に有用ですよね.実際に何か学問を学ぶという場合でも,先に自分の求める分野の…

初心に帰って変分ベイズ(2)::9/17

fgjiutx.hatenablog.com この記事の続きです 4.2. 変分事後分布の算出 4.3. 予測分布の計算 4.4. 実装 4.4.1. アインシュタインの縮約記法 スカラー値×ベクトル 2次元行列×ベクトル=ベクトル($Ax=b$) $\boldsymbol a^{T}\boldsymbol W\boldsymbol b,\boldsy…

🐜本の進捗(ベルマンフォード/ダイクストラ/クラスカル)::9/14

🐜本を解いたよ.(経路探索と最小全域木について学んだ)

🐜本の進捗(優先度付きキューとUnionFind木)::9/13

蟻本をといたよ

初心に帰って変分ベイズ(1)::8/31

1. 確率モデルの近似法 2. エントロピーとKLダイバージェンス 2.1. エントロピー pとrの分布 qとrの分布 2.2. KLダイバージェンス 3. 変分ベイズ 3.1. 変分下界 3.2. 分解による近似分布の計算 4. 変分混合ガウス分布 4.1. 事前分布の定義 1. 確率モデルの近…

RustでAtcoder Beginner Contest100のD問題を解いた::8/20

D - Patisserie ABC 高橋君はプロのパティシエになり, AtCoder Beginner Contest 100 を記念して, 「ABC洋菓子店」というお店を開いた. ABC洋菓子店では, $N$ 種類のケーキを売っている.各種類のケーキには「綺麗さ」「おいしさ」「人気度」の $3$つの値を持…

Rustを触ってみた::8/19

タイムラインでRustという言語についての話題で盛り上がっていたので試しにABC100のA-C*1を解いてみることにした. D問題については構造体とtraitやownership関係でイザコザして解けなかった.後程に解答を見て学習してみたいところ. D問題: fgjiutx.hatena…

初心に帰ってベイズ線形多項式回帰(2):エビデンス近似編::8/15

エビデンス近似 先日の記事日記(8/5):初心に帰ってベイズ線形多項式回帰(1) - 日記帳では,線形回帰に対してベイズ的な取り扱いを導入しましたが,ハイパーパラメータにあたる$\alpha,\beta$をあらかじめ決める必要があり,完全にベイズ的な取り扱いである回…

RVMとRails::8/11

時刻 したこと 10:00 起床 14:00 PRML7章 17:00 Rails環境構築 関連ベクトルマシン(RVM) gist.github.com 関連ベクトルマシン(RVM)ガウス過程と似た方法で,重みパラメータが無限大に発散することによってそのパラメータの事後分布を0近辺に集中させることで…

::8/10

日 やったこと 8/07 ベイズ線形回帰のエビデンス近似 8/08 ガウス過程の学習と実装(PRML) 8/09 休息の日とarchive 8/10 GPとNNとarXiv PRMLを6章まで読み進めた.理解はまだできていない. 8/9はCiv5を終始やってた.ちょっと30分やる予定だったが,気付いた…

進捗まとめ

最終更新:2018/08/10 書籍 機械学習 Python機械学習プログラミング 達人データサイエンティストによる理論と実践 (impress top gear) 作者: Sebastian Raschka,株式会社クイープ,福島真太朗 出版社/メーカー: インプレス 発売日: 2016/06/30 メディア: 単行…

初心に帰ってベイズ線形多項式回帰(1)::8/5

時刻 行動 10:00 起床 13:00 外出 17:00 読書など ベイズ線形回帰 おとといの記事日記(8/2):初心に帰って回帰分析 - 日記帳では,線形回帰モデルのパラメータを最尤推定というアプローチで決めた. しかしながら,このモデルでは過学習を抑えるために正則化…

初心に帰って回帰分析::8/2

時刻 行動 11:00 起床 14:00 帰省開始 15:00 日吉駅発 18:00 土浦駅着 22:00 PRML読書 帰省するだけで結構疲れて辛いものがある. PRML 1.1. 例:多項式曲線フィッティング ベイズ理論ばっかり載ってるイメージのPRMLだけど最初の数ページは普通の回帰分析の…

VAEって何?[実装編]::8/1

時刻 行動 7:50 起床 10:00 バ始 19:00 バ終 21:00 帰宅 21:30 PRML読書 22:00 VAE実装の続き Kerasを使ってVAEを実装する. 原著論文:[1312.6114] Auto-Encoding Variational Bayes まとめ殴り書き:#10 Auto-Encoding Variational Bayes - HackMD 実装Noteb…

VAEって何?[殴り書き編]::7/31

時刻 行動 7:40 起床 9:00 都市工学期末試験 12:00 メディア文化論期末レポート 13:30 夏休み! 14:00 論文読書 18:00 VRoid体験 めでたく夏休みに突入した.長期休暇何かとだらけがちになるので,意識して進捗を生んでいきたい所存(果たしてそのやる気がい…

日記(7/23)

時刻 行動 6:00 起床 9:45 大学着 10:30 グラフィック表現論期末試験 11:25 昼食 13:00 非線形工学期末試験 14:45 電気機器システム期末試験 17:00 帰宅 19:00 日課(Youtube) 22:00 日課(Twitter) 期末考査 想定以上に簡単だった気がする.特に非線形工学で…

日記(7/20)

精神的に余裕が出てきた. ここ20日間やる気が極限まで低下していて何もする気が起きなかった. Pythonでロジスティック写像(やったのは7/16) 非線形工学という講義を取っているんだが,内容が非常に高度でテスト前でもがき苦しんでる.でも,内容自体は非常…

🐜(6/30)

動的計画法,解答見てあ〜ってなることしか出来なくて萎える. 動的計画法01 ナップサック問題 重量と価値が$w_i,v_i$である$N$個の荷物を,重量の総和が$W$を超えないように選んでナップサックに詰め込んだとき,価値の総和の最大値を出力せよ. 手法1 メモ…

🐜本の進捗(6/25)

本棚の奥底にあった蟻本を取り出した. プログラミングコンテストチャレンジブック [第2版] ?問題解決のアルゴリズム活用力とコーディングテクニックを鍛える?作者: 秋葉拓哉,岩田陽一,北川宜稔出版社/メーカー: マイナビ発売日: 2012/01/28メディア: 単行本…

#5 Spectral Normalization for Generative Adversarial Networks

#9 Spectral Normalization for Generative Adversarial Networks - HackMD おわり.

#4 Improved Techniques for Training GANs

// "; } node = node.nextSibling; node.parentNode.removeChild(node.previousSibling); } str += ""; newnode = document.createElement("span"); node.parentNode.replaceChild(newnode,node); newnode.innerHTML = str; } } if (document.createElementN…

#3 Self-Attention Generative Adversarial Networks

※この記事は以下の論文を翻訳したものです.学習不足のため至らない点,意味不明な翻訳あるかと思いますが了承してください.なにもかも了承ください. #8 Self-Attention Generative Adversarial Networks - HackMD https://arxiv.org/abs/1805.08318 要旨 …

通読 #2 Improved Training of Wasserstein GANs

数式の調子が悪い. https://arxiv.org/abs/1704.00028 要旨 GANは強力な生成モデルだが,学習が不安定という弱点がある.Wasserstein GANを用いることで,学習にある程度の安定性を持たせたが,特定のダメなサンプルのみを生成してしまうことや,収束の失敗…

精読 #1 An Introduction to Image Synthesis with Generative Adversarial Nets

https://arxiv.org/abs/1803.04469 要旨 GANはここ数年CVやNLP分野で劇的な進化を遂げている.特に画像合成は最も研究されている分野の一つである. この論文では,画像合成に使われる手法の分類,GANと異なるtext2imageやimage2imageのモデルとの比較,及び…

日記(5/12-5/13)

レポートのせいで土日が潰れた.おわり. 5/11に書いたQ学習合ってるか自信無いから強い人に見て欲しい~