線形回帰

概要




目次




定義

xj説明変数(explanatory variable) , y目的変数(objective variable) とする.

$$ \begin{aligned} &j \in \{ 1, \ldots , m \} \subset \mathbb{N} \\ &x_{j} : \text{explanatory variable} \\ &y : \text{objective variable} \end{aligned} $$

次のモデルを 線形回帰(linear regression)モデル という.

$$ \begin{aligned} y &= \beta_{0} + \beta_{1} x_{1} + \cdots + \beta_{j} x_{j} + \cdots + \beta_{m} x_{m} + \epsilon \\ &= \beta_{0} + \sum_{j=1}^{m} \beta_{j} x_{j} + \epsilon : \text{linear regression} \end{aligned} $$

ベクトルの内積として書くこともできる.

$$ \begin{aligned} y &= \beta_{0} + \sum_{j=1}^{m} \beta_{j} x_{j} + \epsilon \\ &= \beta_{0} + \left( \begin{array}{c} x_{1} \\ \vdots \\ x_{j} \\ \vdots \\ x_{m} \end{array} \right) ^{\mathrm{T}} \left( \begin{array}{c} \beta_{1} \\ \vdots \\ \beta_{j} \\ \vdots \\ \beta_{m} \end{array} \right) + \epsilon \\ \\ &= \left( \begin{array}{c} 1 \\ x_{1} \\ \vdots \\ x_{j} \\ \vdots \\ x_{m} \end{array} \right) ^{\mathrm{T}} \left( \begin{array}{c} \beta_{0} \\ \beta_{1} \\ \vdots \\ \beta_{j} \\ \vdots \\ \beta_{m} \end{array} \right) + \epsilon \\ \end{aligned} $$

ϵ誤差(error) といい, 次を満たす 確率変数 である.

$$ \begin{aligned} &E[ \epsilon ] = 0 \\ &\text{Var}( \epsilon ) = \sigma ^ 2 \end{aligned} $$




線形回帰という名前について

線形回帰モデル は, 回帰係数βjについて線形なモデルであるため線形回帰モデルという.

よって, 次のモデルも 線形回帰モデル といえる.

$$ \begin{aligned} y = \beta_{0} + \beta_{1} x + \beta_{2} x^{2} + \epsilon \end{aligned} $$




関連項目




参考文献








このページでは, 数式の表現に MathJax を利用しています.

このページでは, シンタックスハイライト(プログラムのコードに色を付ける機能)に Google Code Prettify を利用しています.


更新日: 2020/09/01

Copyright (C) 2020 laplaciannin102 All Rights Reserved.