22はイベ。疲労か23は全く動けなかった。全く動けないのは問題。

今日からC言語実装を試していく。まずは2層で様子見。分割の探索も試す。 8月以内にはバックプロパゲーション学習も実装したい。

分割の探索を導入したところ、当然というか、固定分割よりも向上(4分割固定だったのを可変にしたら0.8%向上。明らかによいので導入)

1層目も可変分割にしたら僅かであるが確かに減る。というわけで全ての層で可変分割を入れる。

層を重ねると予想外に減っていくことに気づく。メモしていく。

1層のパラメータが16のとき
層数 \ 音源 ワンツー SPARKLE
0(なし) 80.85 69.49
1 73.03 61.49
2 71.51 60.05
3 71.20 59.68
4 71.04 59.53
8 70.79 59.38
1層のパラメータが32のとき
層数 \ 音源 ワンツー SPARKLE
0(なし) 80.85 69.49
1 72.68 61.15
2 71.00 59.65
3 70.69 59.29
4 70.53 59.15
8 70.20 59.01
  • 層を増やしても圧縮率は単調減少。
    • 直感的にも層ごとに二乗誤差最小化しているので増えることは無いのは分かる。
    • 減り方は頭打ち。1層->2層が最も意義があり、1.5%改善する。
  • 層構造の前に次数低め(4, 8)のLPC予測を分割せず突っ込むと0.2%~0.3%ほど改善
    • 擬似的に分割のない1層目が実現できているからと思われる。

あとはパラメータをこねくり回すだけになるので、引き続き学習を実装しよう。