これまでの結果をまとめることを試みる。いい加減グダグダ実験するのはやめ。
- パラメータ(LPC係数)は多いほうが低いロスを達成する
- ロスの減少は頭打ちになるが、実用的な範囲(8192サンプルフレームに256パラメータまで)は下がり続ける
- 2層構成が最も低いロスを達成することが多かった
- ただし、パラメータを各層に等しく振り分けた場合。
- パラメータを各層で変えた場合は、3層でよりよい構成が見つかる場合が多数あった。
- 1層目は分割しないほうがロスが小さい
- はっきりとした傾向として出ている。
- これが何故良いのかはっきりと説明できない。以下に仮説を述べる。
- プリエンファシスで見たように相関を消せるから。またその相関を消すには長い区間で分析すべきだから。(正確な統計量を計算すべきだから)
- マルチスケールで分析できているから。分割しないで計算すると長区間の傾向を捉えることができる
- 2層目以降の分割は法則が見えない
- 分割時に見る波形に依存してパフォーマンスがブレるから
- これは適応的に定めるべきかと。分割数を変えて最も低いロスを出す構成を探すのが良い
- 学習はいつでも有効。学習率を上げすぎると発散する
- Momentumで加速する。プラトーにもあんまりはまらない。単調に減っていく。
- 初期値をLebinson-Durbin法で設定すると良い。ランダム初期値/ゼロ初期値よりも低いロスを達成していた。
で、コーデックにどう還元していくか。
- 2層をベースに、2層目の適応分割をおこなって性能を見る。
- 学習実装
- 学習による改善は少ないように思える。絶対値にして2~3の改善はどれくらい圧縮に効いてくるか不明…
- しかしLebinson-Durbin法によって設定するより確実によい係数が見つかっている。