「AIC」と「BIC」とは。モデルの当てはまりを示す指標を理解しよう

AICとBICのアイキャッチ画像 統計

はじめに

統計モデリングにおいて、複数のモデルがある場合、どのモデルが最もデータに適合しているかを判断するために利用される指標が「AIC(Akaike Information Criterion)」と「BIC(Bayesian Information Criterion)」です。これらの指標は、モデルの当てはまりと複雑さをバランスよく評価するために使用されます。

「AIC」、「BIC」など、モデルを評価する指標は多く存在します。その際にどの数値を見ればいいかわかっていなければビジネス適用は難しいです。これらについて、経験豊富な方とマンツーマンで学習していくのもオススメです。

AICとBICに用いられる尤度について

尤度はパラメータの推定に用いられる指標となります。こちらの記事にて記載しているので、参考にしてください。

統計学で用いられる「尤度」とは。わかりやすく紹介
はじめに統計学において「尤度(ゆうど)」は、データが観測された際に、そのデータがある特定のモデルやパラメータによってどれだけ「もっとも(尤も)らしい」かを示す指標です。この概念は、特に統計モデルの評価やパラメータの推定において重要...

AICとは

AICは、1974年に提唱された情報量規準です。モデルの適合度とパラメータの数を考慮し、よりシンプルで当てはまりの良いモデルを選択するための基準となります。具体的には、次のように定義されます。

$$ AIC = -2\ln(\hat{L}) + 2k $$

ここで、\( \hat{L} \)はモデルの尤度、\( k \)はモデルのパラメータの数を表します。AICが小さいほど、モデルの当てはまりが良く、かつ過剰適合(overfitting)を避けたシンプルなモデルであると判断されます。

もしいくつかのモデルがデータを同程度に説明し、より多くのパラメータを持っている場合は、少ないパラメータのシンプルモデルを採用するよう定義されます。

BICとは

BIC(Bayesian Information Criterion)は、モデルの適合度とパラメータ数を考慮しますが、より厳しいペナルティを課すことで複雑なモデルに対して慎重になります。BICは以下のように定義されます。

$$ BIC = -2\ln(\hat{L}) + k \ln(n) $$

ここで、\( n \)はサンプルサイズを表します。AICと比較すると、BICはサンプルサイズが大きくなるほどパラメータの数に対するペナルティが大きくなり、よりシンプルなモデルを選びやすくなります。

AICとBICの違い

AICとBICの主な違いは、ペナルティ項にあります。AICはパラメータの数に応じて一定のペナルティを課すのに対し、BICはさらにサンプルサイズに依存したペナルティを課します。このため、BICは大規模なデータセットにおいて、よりシンプルなモデルを選びやすく、過剰適合を避ける傾向があります。

まとめ

AICとBICは、モデル選択において重要な役割を果たします。AICとBICの違いを理解し、適切な場面で使い分けることで、より良いモデル選択が可能となります。

コメント

Copied title and URL