後ろ向き残差を含めた定式化、試しているが微妙。 音量が小さい音源で改善が見られたが、POPSなど音圧の大きい音源で悪化の傾向。実際に大きなデータセットで試してみないことには結論が出せないので、やるに限る。この結果を見て執筆の大枠を詰めていく。

負荷が大きいのは、やはり補助関数法を連打しているのが大きい。。。分割決定時にも実行しているので尚更という感じ。

そしてまたPARCOR符号化の符号長の議論を思い出す。

分割探索時には、LPCの誤差分散をつかってやってみると、圧縮率は(二乗誤差だから)当然落ちているが、早くなっている。アイデアとしてはあり。

他、補助関数の評価関数値で比較するのもやってみた(その場での予測がいらなくなる)が、僅かに性能悪化。これは、後ろ向き残差項も追加で考えてしまっているからと考える。

を見ると、初期値をLD法やBurg法で定めている。あれ?と思った。前日にゼロ初期化よりも性能悪化を確認したんだが。 改めて初期値をLDで定めてみたら速度、圧縮率共に改善の傾向。前日に見た結果と食い違っとる。。。今日、構造決定とパラメータ決定で補助関数法の繰り返し回数を揃えたのが効いているのだろうか。。。(前は構造決定で5回、パラメータ決定で20回だった。)

初期値はBurg法の方が良いというのも気になっている。実装するか。 今まで試行してた実装があったのでそれで試したが、LDとどっこいどっこいに見える。LDでも十分に見えるので、一旦取り下げ。

エンコード遅い問題はなんとかしたい。補助関数法の呼び出し回数が減らせればいい感じなんだが。。。