「音声の高能率符号化」の3.4節「予測符号化」で予測による分散(ひいてはビット数)の減少について記述がある。 これをリフティングで考えるとどうなるだろうか? 誤差分散を最小にしようとすると線形予測符号化にぶつかってしまうが、リフティングによる効果を知りたい。

ロスレス圧縮に組み込む前に、やはりもう少し調査したい。 リフティングで帯域分割した信号に対してLMSしたとき、さてエントロピーは改善するのか?

ステップサイズを変えつつ観察したら、どのステップサイズでもエントロピーが減少していた。実データで1bit程度(16bitPCMの仮定で)の減少。これは大きい。

さらに、多段に帯域分割したときはさらにエントロピーが減少していた。

計算負荷的にはCDF(4,2)を推したい。C言語で実装して、整数値でエントロピーがマジで減ってるか見てみたい。