xjを 説明変数(explanatory variable) , yを 目的変数(objective variable) とする.
$$ \begin{aligned} &j \in \{ 1, \ldots , m \} \subset \mathbb{N} \\ &x_{j} : \text{explanatory variable} \\ &y : \text{objective variable} \end{aligned} $$
次のモデルを 線形回帰(linear regression)モデル という.
$$ \begin{aligned} y &= \beta_{0} + \beta_{1} x_{1} + \cdots + \beta_{j} x_{j} + \cdots + \beta_{m} x_{m} + \epsilon \\ &= \beta_{0} + \sum_{j=1}^{m} \beta_{j} x_{j} + \epsilon : \text{linear regression} \end{aligned} $$
ベクトルの内積として書くこともできる.
$$ \begin{aligned} y &= \beta_{0} + \sum_{j=1}^{m} \beta_{j} x_{j} + \epsilon \\ &= \beta_{0} + \left( \begin{array}{c} x_{1} \\ \vdots \\ x_{j} \\ \vdots \\ x_{m} \end{array} \right) ^{\mathrm{T}} \left( \begin{array}{c} \beta_{1} \\ \vdots \\ \beta_{j} \\ \vdots \\ \beta_{m} \end{array} \right) + \epsilon \\ \\ &= \left( \begin{array}{c} 1 \\ x_{1} \\ \vdots \\ x_{j} \\ \vdots \\ x_{m} \end{array} \right) ^{\mathrm{T}} \left( \begin{array}{c} \beta_{0} \\ \beta_{1} \\ \vdots \\ \beta_{j} \\ \vdots \\ \beta_{m} \end{array} \right) + \epsilon \\ \end{aligned} $$
ϵ は 誤差(error) といい, 次を満たす 確率変数 である.
$$ \begin{aligned} &E[ \epsilon ] = 0 \\ &\text{Var}( \epsilon ) = \sigma ^ 2 \end{aligned} $$
線形回帰モデル は, 回帰係数βjについて線形なモデルであるため線形回帰モデルという.
よって, 次のモデルも 線形回帰モデル といえる.
$$ \begin{aligned} y = \beta_{0} + \beta_{1} x + \beta_{2} x^{2} + \epsilon \end{aligned} $$
このページでは, 数式の表現に
MathJax
を利用しています.
このページでは, シンタックスハイライト(プログラムのコードに色を付ける機能)に Google Code Prettify を利用しています.
更新日: 2020/09/01
Copyright (C) 2020 laplaciannin102 All Rights Reserved.