Regressão linear múltipla

O modelo de regressão linear múltiplo estabelece então que uma determinada variável dependente pode ser explicada com recurso, não apenas a uma simples variável independente, mas a várias. Portanto, de acordo com este modelo cada valor observado pela variável depende (y) do conjunto de valores observados para cada uma das variáveis independentes (x). Ou seja, $$y_{1} = \beta_0+\beta_{\color{magenta}1} x_{1,\color{magenta}1}+\beta_{\color{magenta}2} x_{1,\color{magenta}2}+...+\beta_{\color{magenta}k} x_{1,\color{magenta}k}+\varepsilon_{1}\\ y_{2} = \beta_0+\beta_{\color{magenta}1} x_{2,\color{magenta}1}+\beta_{\color{magenta}2} x_{2,\color{magenta}2}+...+\beta_{\color{magenta}k} x_{2,\color{magenta}k}+\varepsilon_{2}\\ \cdots \\ y_{n} = \beta_0+\beta_{\color{magenta}1} x_{n,\color{magenta}1}+\beta_{\color{magenta}2} x_{n,\color{magenta}2}+...+\beta_{\color{magenta}k} x_{n,\color{magenta}k}+\varepsilon_{n}$$ Em termos matriciais teremos $$\textbf{y}=\begin{bmatrix} y_1\\y_2\\ \vdots \\ y_n \end{bmatrix} X = \begin{bmatrix} 1 & x_{1,1} & x_{1,2} & \cdots & x_{1,k} \\ 1 & x_{2,1} & x_{2,2} & \cdots & x_{2,k} \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 1&x_{n,1} & x_{n,2} & \cdots & x_{n,k} \end{bmatrix} \boldsymbol \beta=\begin{bmatrix} \beta_0\\ \beta_1\\ \beta_2 \\ \vdots \\ \beta_k \end{bmatrix} \boldsymbol \varepsilon=\begin{bmatrix} \varepsilon_{1}\\\varepsilon_{2}\\ \vdots \\ \varepsilon_{n} \end{bmatrix}$$ onde \(X \) é uma matriz com dimensão \( (n \times k+1) \), \(\textbf{y}\), \( \boldsymbol \beta\) e \(\boldsymbol \varepsilon\) são três vectores com dimensões \( (n \times 1) \), \( (k+1 \times 1) \) e \( (n \times 1) \), respectivamente. ou seja, $$\textbf{y} = X \boldsymbol \beta + \boldsymbol \varepsilon$$ Portanto, cada elemento de \( \textbf{y} \) pode ser representado genericamente através de uma das seguintes formas: $$y_{i} = \beta_0+\beta_{1} x_{i,1}+\beta_{2} x_{i, 2}+...+\beta_{k} x_{i,k}+\varepsilon_{i}$$ ou, em termos matriciais $$y_{i} = \textbf{x}_{i}^{'} \boldsymbol \beta +\varepsilon_{i}$$ Neste sentido, podemos escrever $$\varepsilon_{i} = y_{i} - \textbf{x}_{i}^{'} \boldsymbol \beta $$