3.1 線形基底関数モデル
PRML上巻の主題は、代表的な学習問題である「回帰」と「識別」である。
このうち「回帰」問題の目標は、ある観測値とそれに対する目標値からなる訓練集合が与えられたとき、新たな入力に対する未知の目標値を予測することである。
例えば、
1、4、5、2
という入力に対して、
1、16、25、4
という出力からなる集合を与えられたとき、次の入力「3」に対する出力を予測することなどが挙げられる。
このことは、暗にこの問題の裏に存在する関数を見つけ出すことを意味している。
実際、回帰問題の最も簡単なアプローチは、新しい入力変数に対応する値が予測変数の予測値となるような適当な関数を直接構成することである。
この問題をより確率論的に解くならば、予測分布をモデル化するベイズ的なアプローチが利用できる。
2つのアプローチについては、それぞれ3.1節と3.3節で詳しく解説されている。
今日は前者のアプローチ、線形基底関数モデルについて学習する。
線形基底関数モデル
線形基底関数モデルでは、予測のための関数を、
とモデル化する。
は基底関数と呼ばれ、文字通り関数の基底、すなわち表現を決定するものである。
基底関数の例としては、
- 多項式基底
- ガウス基底
- シグモイド基底
などがある。
当然、回帰のためには基底関数をどのように推定するかも重要となってくるが、本節を含めしばらくは基底関数は与えられているものとし、基底関数を倍するパラメータベクトルを推定することを目標とする。