つまるところ、以下の計算をどうやるか?に尽きる。
\(\varepsilon(n)\) はi.i.d.(独立に同一の分布)から発生しているので、\(x(n-m), x(n-k)\) には依存しない(予測係数にも依らず)で勝手に揺れると考える。
でもそんな計算は見たことがない。そもそもLADの文脈でこの話は出ているはずで、「Laplace Distribution linear regression」で検索掛けていたら、
- Robust Mean Change-Point Detecting through Laplace Linear Regression Using EM Algorithm を見つけた。
- イントロで「 ラプラス分布は正規分布の混合で表せる 」と「 混合を前提にしたEMアルゴリズムが存在する 」というのを見つけて、論文探しが改めて動く。混合ガウス分布をEMアルゴリズムで学習する話はよく聞くから、本質的なのは正規分布の混合で表せていることか。
- ROBUST MIXTURE REGRESSION MODEL FITTING BY LAPLACE DISTRIBUTION は2013年の論文。印象的なのは、 IRLSはEMアルゴリズムの一種だということ。
- ラプラス確率的フロンティアモデルのベイズ推定 は日本語でラプラス分布の混合について述べた論文
- The Bayesian Lasso はLASSOを、パラメータの事前分布をラプラス分布としたものとして定式化している。ラプラス分布は直接扱わず、混合を考えている。
- イントロで「 ラプラス分布は正規分布の混合で表せる 」と「 混合を前提にしたEMアルゴリズムが存在する 」というのを見つけて、論文探しが改めて動く。混合ガウス分布をEMアルゴリズムで学習する話はよく聞くから、本質的なのは正規分布の混合で表せていることか。
実験で試している、勾配ベクトルに分散行列(ヘッセ行列)の逆行列を掛ける行為は、ウィーナーフィルタに等しい。しかしウィーナーフィルタは観測分散行列 \(\ve{XX}^{\mathsf{T}}\) が正則でないと計算できない。そこで、観測分散行列の低ランク近似を行ってその擬似逆行列を使ってフィルタ係数を更新していく手法がある。それを Reduced rank adaptive filters というらしい。
- A New Approach to Adaptive Signal Processing で触れていた。この論文は適応フィルタを広汎的に見ており、有益。
- Reduced-Rank Adaptive Filtering Based on Joint Iterative Optimization of Adaptive Filters ではReduced rank adaptive filtersのフィルタバンク版
邪念が動いて、パーティクルフィルター(粒子フィルター)でパラメータ決められんか考えてる。でも、LMSは状態空間モデルの範疇に入るのだろうか?(カルマンフィルタの一部だから当てはまったはず)。また、一般の状態空間モデルと違って状態は常に観測できるよな。またパーティクルフィルターもシミュレーションベースなので負荷が高そう。
\(\mathrm{E}\left[ \delta(\varepsilon(n)) x(n - m) x(n - k) \right]\) の解釈
結局 \(\mathrm{E}\left[ \delta(\varepsilon(n)) x(n - m) x(n - k) \right]\) の解釈から逃げている...。もう少し考えていたら、残差 \(\varepsilon\) は入力ベクトル \(x\) と独立であることを思い出した。ここから、次が言える。
ここで、 \(\mathrm{E} \left[ \delta(\varepsilon(n)) \right]\) はお察しの通りで、以下の通りに、やはり残差が0となる確率が出てくる。
よって、
\(P(\varepsilon = 0)\) を考える。まず注意したいのは、連続型確率分布においては一点0をとる確率は0ということ(測度0だから)。近似するしかなく、方針としては、
- 残差の閾値を定めて、それ以下の数値を残差0とみなして確率を求める
- 離散型確率分布で考える
ラプラス分布の基本的なことをおさらいすると、確率密度関数 \(f(x, \mu, \sigma)\) は、
で、観測 \(x_{1}, ..., x_{N}\) が得られた時の尤度関数 \(L(\mu, \sigma)\) と対数尤度関数は、
\(\mu\) の最尤推定量は標本中央値となる。\(\mu\) が求まったとして、次は \(\sigma\) の最尤推定値を考える。対数尤度関数を \(\sigma\) で偏微分すると、
\(\frac{\partial}{\partial \sigma} \log L(\mu, \sigma) = 0\) とおいて \(\sigma\) について解くと、
\(\sigma\) の最尤推定値は偏差の絶対値の標本平均となる。次に離散ラプラス分布を考える( ここ を参考にしている)。離散ラプラス分布は次の確率(質量)関数 \(P\) を持つ:
ここで、
よって、
これは離散型確率分布であることに注意。
連続版かつ \(\mu=0\) で、 \(|x|\) がある閾値 \(\delta > 0\) 以下となる確率は次のように計算できる:
この式により分散行列にかける係数を決めることを考えると、次が考察される。
- \(\delta\) が大きい(分散 \(\sigma\) が小さい)と確率が1に近づき、分散行列はLMSのそれと近くなる。
- 逆に \(\delta\) が小さい(分散 \(\sigma\) が大きい)と分散行列に小さいスカラーを乗じる。分散行列の逆行列をとると、大きいスカラーを乗じることになり、勾配ベクトルのノルムが大きくなりそう。
- ノイズレベル(\(\approx\) 分散)が小さいときは勾配が小さくなり極値付近を精密に調べ、大きい場合は勾配が大きくなりダイナミックに探索空間を動き回りそう。
LMSの性能解析に関する文献
色々さまよっているうちに出てきた。
- Adaptive Filter Theory and Applications にLMSのステップサイズのとり方に関する記述あり。証明に有益。
TODO
- 評価を続ける。評価がまとまったら結果共有に入りたい。
- LMSの適応動作は、単層パーセプトロンの学習にも該当する。NNの観点からも引き続き論文調査を行うべし。
- OMPを使う。
- メッセージパッシング使えない?
- 何らかの確率モデル化をせよ、というふうに受け取った。
- AMP, Survay-Propagation(三村さん、樺島さん)がありえる。
- → AMP, Survay-Propagationについて調査すべし。
- いろんな論文で自然勾配をどうやって定義しているか要観察。
優先度低
- パーティクルフィルター使えない?
- 今日検討した結果、ちょっと今は保留。大量のサンプルが必要そうに見える。計算負荷を気にした結果、優先度を低くした。