トイデータ対象の実験スクリプトを作ってた。で、RLSが強いことが分かった。 定常的なガウス雑音(ラプラス雑音でも!)環境下では、指数レートよりも早く最適解に入っていく。 途中で最適係数を変えると収束は他よりも鈍くなる。そこを突くべきか。 (RLSの忘却係数を0.8くらいにしないと同等にならない。)

また、正規化込みの自然勾配法はNLMSと同程度の収束レートだった。ていうか性能ほぼ同じ。 →入力に強い相関をもたせる(x[t] += x[t-1] * 0.97)とNLMSの性能が大幅悪化することを確認した。 入力に相関がない場合は(自己相関行列が等方的になるので)NLMSと同等になるようだ。