機械学習
畳み込みニューラルネットを使ってるときにバッチ正規化したら, BN層のパラメータが(ch数×4)になった. これはchごとに正規化していて,各chに含まれる各要素(各画素や各時刻の電圧)をそれぞれ正規化しているわけではない. BNの解説では,ミニバッチに含…
の係数が,の係数をで割ると.
モチベーション 点推定よりも多くのことがわかる 分布全体がわかる 推定量の自信のなさがわかる ベイズ推論と「ベイズの定理」の関係 ベイズの定理は確率分布と確率分布の組み合わせ方を示すだけ 事前分布(常識とか前知識)と尤度関数(観測したこと)とを…
ベイズでありがちな確率とか積分とか総和とかが入り混じった式を陽的に表現する方法はないのか
https://arxiv.org/abs/1806.07366 neural ODEがわからない.この理由として考えるのは, のfがどうなってるのかわからない tがどのようにfの中でパラメータ化されてるかがわからない neural ODEがResNetやニューラルネットの拡張であることを考えれば, fに…
https://www.microsoft.com/en-us/research/people/cmbishop/prml-book/ https://cbrnr.github.io/2018/12/17/whitening-pca-zca/ PRMLのp.574の確率的主成分分析(PPCA)に関する式(12.45) において, とした(確率的ではない普通のPCAとした)上で, とすれ…
https://arxiv.org/abs/1806.07366Neural ODE https://jontysinai.github.io/jekyll/update/2019/01/18/understanding-neural-odes.html adjoint sensitivity methodの解説? https://rkevingibson.github.io/blog/neural-networks-as-ordinary-differential…
Bayesian linear discriminant analysis (BLDA)の論文 https://ieeexplore.ieee.org/document/5166506 https://www.sciencedirect.com/science/article/pii/S0165027007001094