本日も引き続き発散の原因を追う。 →ステップサイズを小さくしたら発散しなくなった…。職人芸じゃないかこんなの。NLMSみたく発散しない条件がほしいな。

本当に既存研究がないか、再度調査。

自然勾配を適応的に計算する方法を試している。無論、定義式通りに計算するのは問題ないことは確かめているが、計算量が気になるのです。

パラメータを色々といじりつつ、論文も参照してそれなりのパラメータを見つける。 パラメータについては Adaptive Natural Gradient Method for Learning of Stochastic Neural Networks in Mini-Batch Mode を皮切りに調査開始。

Toy-problemとして中央値の逐次推定とかアリではと、少しだけ思った。