name: xaringan-title class: left, middle # Econometr铆a I <br> ## Regresi贸n Multiple <br> <br> <img src="images/lognig.png" width="280" /> ### Carlos Yanes Guerra | Departamento de Econom铆a | 2024-04-08 --- exclude: true <style type="text/css"> @media print { .has-continuation { display: block !important; } } </style> --- background-size: 100% background-image: url(https://media.giphy.com/media/kMM3vtBEgSsLu/giphy.gif) ??? Image test. Taken from google. --- class: middle, inverse .left-column[ # 馃槙 ] .right-column[ # Preguntas de la sesion anterior? ] --- # Preliminar La 煤ltima vez: 1. Estimamos regresi贸n simple **M.C.O** 1. Tenemos los primeros **test** de Par谩metros 1. Estuvimos con el tema de retornos `salarios f(Experiencia)` --- class: title-slide-section-red, middle # Formas funcionales <br> <img src="images/lognig.png" width="380" /> --- # Formas Funcionales -- | Modelo | Ecuaci贸n | `\(\beta_{1}\)` | Lectura | |-------------|------------------------------|------------------------------------------|----------------------------------------------------------------------------| | N-N | `\(y=\beta_{0}+\beta_{1}x\)` | `\(\frac{\triangle y}{ \triangle x}\)` | `\(y\)` cambia en `\(\beta_{1}\)` unidades ante un cambio de x | | N-L | `\(y=\beta_{0}+\beta_{1}Ln(x)\)` | `\(\frac{\triangle y}{\triangle x/x}\)` | `\(y\)` cambia en `\(\beta_{1}/100\)` unidades ante un cambio del 1% de x | | L-N | `\(Ln(y)=\beta_{0}+\beta_{1}x\)` | `\(\frac{\triangle y / y}{\triangle x}\)` | `\(y\)` cambia en `\(\beta_{1}*100\%\)` unidades ante un cambio de una unidad de x | | L-L | `\(Ln(y)=\beta_{0}+\beta_{1}Ln(x)\)` | `\(\frac{\triangle y / y}{\triangle x/x}\)` | Elasticidad: `\(y\)` cambia en `\(\beta_{1} \%\)` ante un cambio de un 1% de x | --- class: title-slide-section-grey, middle # 馃摏 para este tipo de ajustes --- # Formas Funcionales -- Un gr谩fico de dispersi贸n <img src="Class06_files/figure-html/trans1 figure start-1.svg" style="display: block; margin: auto;" /> --- # Formas Funcionales `\(y_i = \beta_0 + u_i\)` <img src="Class06_files/figure-html/trans figure 0-1.svg" style="display: block; margin: auto;" /> --- # Formas Funcionales `\(y_i = \beta_0 + \beta_1 x + u_i\)` <img src="Class06_files/figure-html/trans figure 1-1.svg" style="display: block; margin: auto;" /> --- # Formas Funcionales `\(y_i = \beta_0 + \beta_1 x + \beta_2 x^2 + u_i\)` <img src="Class06_files/figure-html/trans figure 2-1.svg" style="display: block; margin: auto;" /> --- # Formas Funcionales `\(y_i = \beta_0 + \beta_1 x + \beta_2 x^2 + \beta_3 x^3 + u_i\)` <img src="Class06_files/figure-html/trans figure 3-1.svg" style="display: block; margin: auto;" /> --- # Formas Funcionales `\(y_i = \beta_0 + \beta_1 x + \beta_2 x^2 + \beta_3 x^3 + \beta_4 x^4 + u_i\)` <img src="Class06_files/figure-html/trans figure 4-1.svg" style="display: block; margin: auto;" /> --- # Formas Funcionales `\(y_i = \beta_0 + \beta_1 x + \beta_2 x^2 + \beta_3 x^3 + \beta_4 x^4 + \beta_5 x^5 + u_i\)` <img src="Class06_files/figure-html/trans figure 5-1.svg" style="display: block; margin: auto;" /> --- # Formas Funcionales `\(y_i = 2 e^{x} + u_i\)` **siendo este el m谩s real** <img src="Class06_files/figure-html/trans figure 6-1.svg" style="display: block; margin: auto;" /> --- class: title-slide-section-red, middle # Regresi贸n M煤ltiple <br> <img src="images/lognig.png" width="380" /> --- # Regresi贸n M煤ltiple --
Cuando se controla (adiciona) mas variables a una regresi贸n, los modelos de regresi贸n lineal se vuelven herramientas mucho mas completas a la hora de estimar **efectos** sobre una variable _objetivo_. Desde luego tienden a ser .blue[mejores] modelos. -- `$$Y_{i}=\color{#e64173}{\beta}_{0}+\color{#e64173}{\beta}_{1}X_{1}+\color{#e64173}{\beta}_{2}X_{2}+\cdots+\color{#e64173}{\beta}_{\rho}X_{\rho}+\mu_{i}$$` -- - Los par谩metros distintos al .blue[aut贸nomo] ser谩n considerados como .grey[par谩metros] de pendiente. -- - Son modelos que se manejan de forma similar a la .blue[regresi贸n simple]. -- - El supuesto mas importante: -- `$$E(u|x_{1},x_{2},x_{3}, \cdots, x_{k})=0$$` -- - Los efectos parciales se miden: -- `$$\bigtriangleup \hat{Y}=\bigtriangleup X_{1} \hat{\beta_{1}}+\bigtriangleup X_{2} \hat{\beta_{2}}$$` --- # Regresi贸n M煤ltiple -- .black[Importante:] la regresi贸n lineal permite "ajustar" v铆a coeficientes `\(\color{#e64173}{\beta}_0,\, \ldots,\, \color{#e64173}{\beta}_p\)` la mejor forma o manera de tratar un problema. Estos coeficientes o .grey[par谩metros] se denominan _marginales_. -- `$$\begin{align} \color{#6A5ACD}{\hat{y}_i} = \color{#e64173}{\hat{\beta}}_0 + \color{#e64173}{\hat{\beta}}_1 x_{1,i} + \color{#e64173}{\hat{\beta}}_2 x_{2,i} + \cdots + \color{#e64173}{\hat{\beta}}_p x_{p,i} + \varepsilon_i \end{align}$$` -- Esto suelen aplicarse en dos escenarios distintos con objetivos bastante diferenciados: -- 1. **Inferencia Causal** Estimar e interpretar .grey[los coeficientes]. 1. **Predicci贸n** El enfoque solo es estimar .RUred[resultados]. -- Independientemente del objetivo, la forma de "ajustar" (estimar) el modelo es la misma. --- # Regresi贸n M煤ltiple -- #### Ajuste de la recta de regresi贸n -- Como ocurre con muchos m茅todos de aprendizaje estad铆stico, la .black[regresi贸n] se centra en **minimizar** alguna medida de p茅rdida/error. `$$\begin{align} e_i = \color{#F33F18}{y_i} - \color{#6A5ACD}{\hat{y}_i} \end{align}$$` -- Tenemos entonces que usar para **regresi贸n** lo que es (RSS) _Residual Sum Squares_ (siglas en ingles) o la suma de los .black[residuos al cuadrado] de la regresi贸n. -- `$$\begin{align} \text{RSS} = e_1^2 + e_2^2 + \cdots + e_n^2 = \sum_{i=1}^n e_i^2 \end{align}$$` -- El MCO escoge el(los) mejores `\(\color{#e64173}{\hat{\beta}_j}\)` que minimizan la .black[RSS]. --- # Regresi贸n M煤ltiple -- #### Elecci贸n del modelo -- Una primera forma para mirar que tanto ajuste tiene un modelo es el `\(R^2\)`, pero, tambi茅n es bueno mirar _el residuo est谩ndar de la regresi贸n (RSE)_ -- .black[Residuo est谩ndar de la regresi贸n] (.black[RSE]) -- `$$\begin{align} \text{RSE}=\sqrt{\dfrac{1}{n-p-1}\text{RSS}}=\sqrt{\dfrac{1}{n-p-1}\sum_{i=1}^{n} \left( y_i - \hat{y}_i \right)^2} \end{align}$$` -- Recuerde que la formula del .black[R-cuadrado] (**R.super[2]**) es: -- `$$\begin{align} R^2 = \dfrac{\text{TSS} - \text{RSS}}{\text{TSS}} = 1 - \dfrac{\text{RSS}}{\text{TSS}} \quad \text{donde} \quad \text{TSS} = \sum_{i=1}^{n} \left( y_i - \overline{y} \right)^2 \end{align}$$` --- # Regresi贸n M煤ltiple -- En la **comparaci贸n** de modelos vamos a ver que el `\(R^2\)` por si solo tiende a sobrestimar la capacidad de los modelos. -- `$$\begin{align} R^2 = 1 - \dfrac{\text{RSS}}{\text{TSS}} \end{align}$$` -- .black[Al adherir nuevas variables] la RSS `\(\downarrow\)` pero en cambio TSS no lo hace. As铆, `\(R^2\)` se incrementa. -- Cuando usamos la .black[RSE], esta penaliza .grey[ligeramente] la incorporaci贸n de nuevas variables: -- `$$\begin{align} \text{RSE}=\sqrt{\dfrac{1}{n-p-1}\text{RSS}} \end{align}$$` -- Pero ocurre que .black[al adicionar una nueva variable:] RSS `\(\downarrow\)` pero `\(p\)` se incrementa. As铆, los cambios en el RSE son inciertos. --- # Regresi贸n M煤ltiple -- Volvemos al .RUred[problema], si .black[a帽adimos] mas variables al modelo, el `\(R^2\)` *autom谩ticamente* se incrementa. -- **Soluci贸n:** Penalizar el n煤mero de variables, pero mediante _p.e._, `\(R^2\)` Ajustado: $$ \overline{R}^2 = 1 - \dfrac{\sum_i \left( y_i - \hat{y}_i \right)^2/(n-k-1)}{\sum_i \left( y_i - \overline{y} \right)^2/(n-1)} $$ *Nota:* El `\(R^2\)` ajustado no necesariamente esta entre 0 y 1. --- class: title-slide-section-grey, middle # Ok... y entonces? <br> <img src="images/lognig.png" width="380" /> --- # Regresi贸n M煤ltiple -- #### R2-Ajustado -- Entonces el RSE no es la 煤nica forma para penalizar la .black[adici贸n] de nuevas variables... -- .black[R.super[2] ajustado] es otra forma cl谩sica de .grey[soluci贸n]. -- `$$\begin{align} R^2\text{Ajustado} = 1 - \dfrac{\text{RSS}\color{#6A5ACD}{/(n - k - 1)}}{\text{TSS}\color{#6A5ACD}{/(n-1)}} \end{align}$$` -- R.super[2] Ajustado ayuda a penalizar esta adici贸n -- - `\(\text{RSS}\)` siempre decrece cuando se adhiere una nueva variable. -- - `\(\color{#6A5ACD}{\text{RSS}/(n-k-1)}\)` podr铆a incrementarse o decrecer con una nueva variable. --- # Regresi贸n M煤ltiple --
(1)
(2)
(3)
(4)
(Intercept)
-0.424
-0.193
-0.207 *
-0.168
(0.590)
(0.147)
(0.091)
(0.091)
x1
1.253 ***
1.088 ***
1.004 ***
0.985 ***
(0.317)
(0.079)
(0.049)
(0.049)
x2
4.754 ***
4.933 ***
4.921 ***
(0.123)
(0.078)
(0.076)
x3
2.083 ***
2.038 ***
(0.166)
(0.164)
x4
0.083 *
(0.038)
Observaciones
100
100
100
100
R2
0.138
0.947
0.980
0.981
*** p < 0.001; ** p < 0.01; * p < 0.05.
--- # Regresi贸n M煤ltiple con R2 Ajustado
(1)
(2)
(3)
(4)
(Intercept)
-0.424
-0.193
-0.207 *
-0.168
(0.590)
(0.147)
(0.091)
(0.091)
x1
1.253 ***
1.088 ***
1.004 ***
0.985 ***
(0.317)
(0.079)
(0.049)
(0.049)
x2
4.754 ***
4.933 ***
4.921 ***
(0.123)
(0.078)
(0.076)
x3
2.083 ***
2.038 ***
(0.166)
(0.164)
x4
0.083 *
(0.038)
Observaciones
100
100
100
100
R2 Ajustado
0.129
0.946
0.979
0.980
*** p < 0.001; ** p < 0.01; * p < 0.05.
--- exclude: true ```r # Set parameters set.seed(123) N = 2e3 n = 500 p = n - 1 # Generar datos X = matrix(data = rnorm(n = N*p), ncol = p) 尾 = matrix(data = rnorm(p, sd = 0.005), ncol = 1) y = X %*% 尾 + matrix(rnorm(N, sd = 0.01), ncol = 1) # Crear una tabla pop_dt = X %>% data.matrix() %>% as.data.table() setnames(pop_dt, paste0("x", str_pad(1:p, 4, "left", 0))) pop_dt[, y := y %>% unlist()] # Subconjunto sub_dt = pop_dt[1:n,] out_dt = pop_dt[(n+1):N,] Nn = N - n # Para j en 1 to p: fit a model, record R2 and RSE fit_dt = mclapply(X = seq(1, p, by = 5), mc.cores = 12, FUN = function(j) { # Ajuste lm_j = lm(y ~ ., data = sub_dt[, c(1:j,p+1), with = F]) # Performance y_hat = predict(lm_j, newdata = out_dt[, c(1:j,p+1), with = F]) out_rss = sum((out_dt[,y] - y_hat)^2) out_tss = sum((out_dt[,y] - mean(out_dt[,y]))^2) # Miramos data.table( p = j, in_rse = summary(lm_j)$sigma, in_r2 = summary(lm_j)$r.squared, in_r2_adj = summary(lm_j)$adj.r.squared, out_rse = sqrt(1 / (Nn - j - 1) * out_rss), out_r2 = 1 - out_rss/out_tss, out_r2_adj = 1 - ((out_rss) / (Nn - j - 1)) / ((out_tss) / (Nn-1)) ) }) %>% rbindlist() # Salvamos resultados #saveRDS(fit_dt, file = "my_data.rds") library(readxl) write.csv(fit_dt, file = 'datafil/reloaded.csv') ``` --- # Regresi贸n M煤ltiple -- <img src="Class06_files/figure-html/r2 ploted-1.svg" style="display: block; margin: auto;" /> --- # Regresi贸n M煤ltiple <img src="Class06_files/figure-html/adjusted r2 plot-1.svg" style="display: block; margin: auto;" /> **La soluci贸n:** `\(\color{#e64173}{R^2}\)` .pink[Ajustado] --- class: title-slide-section-red, middle # Regresi贸n con variables cualitativas y cuantitativas <br> <img src="images/lognig.png" width="380" /> --- # Regresion M煤ltiple con variable continua y discreta `\(y_i = \beta_0 + \beta_1 x_{1i} + \beta_2 x_{2i} + u_i \;\)` donde `\(x_1\)` es continua y `\(\; x_2\)` es categ贸rica <img src="Class06_files/figure-html/ploty 1-1.svg" style="display: block; margin: auto;" /> --- # Regresion M煤ltiple con variable continua y discreta El intercepto y la variable categ贸rica `\(x_2\)` controla la media por grupos. <img src="Class06_files/figure-html/ploty 2-1.svg" style="display: block; margin: auto;" /> --- # Regresion M煤ltiple con variable continua y discreta Cuando es removida `\(x_2\)` <img src="Class06_files/figure-html/ploty 3-1.svg" style="display: block; margin: auto;" /> --- # Regresion M煤ltiple con variable continua y discreta El par谩metro `\(\hat{\beta}_1\)` estima la relaci贸n entre `\(y_i\)` y `\(x_1\)` despu茅s de mantener constante a `\(x_2\)`. <img src="Class06_files/figure-html/ploty 4-1.svg" style="display: block; margin: auto;" /> --- # Regresion M煤ltiple Otra forma de verlo <img src="Class06_files/figure-html/ploty 5-1.svg" style="display: block; margin: auto;" /> --- # Regresion M煤ltiple Si buscamos un **estimador** -- Esto en un modelo de regresi贸n .blue[simple] `\(y_i = \beta_0 + \beta_1 x_i + u_i\)` -- `$$\begin{aligned} \hat{\beta}_1 &= \\ &= \dfrac{\sum_i \left( x_i - \overline{x} \right) \left( y_i - \overline{y} \right)}{\sum_i \left( x_i -\overline{x} \right)} \\ &= \dfrac{\sum_i \left( x_i - \overline{x} \right) \left( y_i - \overline{y} \right)/(n-1)}{\sum_i \left( x_i -\overline{x} \right) / (n-1)} \\ &= \dfrac{\mathop{\hat{\text{Cov}}}(x,\,y)}{\mathop{\hat{\text{Var}}} \left( x \right)} \end{aligned}$$` --- # Regresion M煤ltiple Estimador lineal .blue[simple] `$$\hat{\beta}_1 = \dfrac{\mathop{\hat{\text{Cov}}}(x,\,y)}{\mathop{\hat{\text{Var}}} \left( x \right)}$$` -- cuando vamos a la parte de regresi贸n .blue[m煤ltiple], el estimador **cambia** solo un poco: -- `$$\hat{\beta}_1 = \dfrac{\mathop{\hat{\text{Cov}}}(\color{#e64173}{\tilde{x}_1},\,y)}{\mathop{\hat{\text{Var}}} \left( \color{#e64173}{\tilde{x}_1} \right)}$$` Donde `\(\color{#e64173}{\tilde{x}_1}\)` es el *residuo* de la variable `\(x_1\)` la variaci贸n que queda en `\(x\)` despu茅s de controlar las otras variables explicativas. --- # Regresion M煤ltiple Formalmente tenemos nuestro **Modelo** de .blue[Regresi贸n M煤ltiple] de la siguiente forma: -- `$$y_i = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \beta_3 x_3 + u_i$$` -- Ya residualizado `\(x_{1}\)` (el cual nombramos `\(\color{#e64173}{\tilde{x}_1}\)`) se obtiene de la regresi贸n de `\(x_1\)` sobre un intercepto y todas las dem谩s variables explicativas y del final de los residuos, _p.e._, -- `$$\begin{aligned} \hat{x}_{1i} &= \hat{\gamma}_0 + \hat{\gamma}_2 \, x_{2i} + \hat{\gamma}_3 \, x_{3i} \\ \color{#e64173}{\tilde{x}_{1i}} &= x_{1i} - \hat{x}_{1i} \end{aligned}$$` -- Lo que nos permite entender mejor el **estimador** de la regresi贸n m煤ltiple `$$\hat{\beta}_1 = \dfrac{\mathop{\hat{\text{Cov}}}(\color{#e64173}{\tilde{x}_1},\,y)}{\mathop{\hat{\text{Var}}} \left( \color{#e64173}{\tilde{x}_1} \right)}$$` --- class: clear, middle <img src="Class06_files/figure-html/venn_iv-1.svg" style="display: block; margin: auto;" /> --- class: title-slide-section-red # Otra forma de verlo
-- ## Estan las matrices -- - Concepto de matrices - Matriz identidad, nula, vectores - Operaciones de matrices -- ### Esto tomelo como repaso --- # Enfoque matricial -- <ru-blockquote>Una **matriz** es una colecci贸n de n煤meros ordenados rectangularmente.</ru-blockquote> -- `$$\left [ X \right ]=\begin{bmatrix} x_{11}& x_{12} & \cdots & x_{1k} \\ x_{21} & x_{22} & \cdots & x_{2k}\\ \cdots & \cdots & \cdots & \cdots \\ x_{n1} & x_{n2} & \cdots & x_{nk} \end{bmatrix}_{n*k}$$` -- <ru-blockquote> La **matriz identidad** es una matriz cuya _diagonal_ principal tiene n煤meros uno (1).</ru-blockquote> -- `$$\left [ X \right ]=\begin{bmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \cdots & \cdots & 1 & \cdots \\ 0 & 0 & \cdots & 1 \end{bmatrix}_{n*k}$$` --- # Enfoque matricial > **Transpuesta** cambiar los elementos de una _fila_ por una _columna_ -- - Se obtiene creando una matriz cuya i-esima .blue[fila] es la misma j-esima .black[columna]. -- `$$A=\begin{bmatrix} 1 & 2 & 3 & 4\\ 5 & 6 & 7 & 8\\ 9 & 10 & 11 & 12 \end{bmatrix} \quad A'=\begin{bmatrix} 1 & 5 & 9\\ 2 & 6 & 10\\ 3 & 7 & 11\\ 4 & 8 & 12 \end{bmatrix}$$` -- > **Vectores** estos son lineas de las matrices -- - Est谩n los tipo **fila** y los tipo .blue[columna] `$$X=\begin{bmatrix} \color{#e64173}{x_{11}} & \color{#e64173}{x_{12}} & \color{#e64173}{x_{13}} & \color{#e64173}{x_{1k}}\\ \cdots & \color{#6A5ACD}{x_{22}} & \cdots & \cdots \\ \cdots & \color{#6A5ACD}{x_{32}} & \cdots & \cdots \\ \cdots & \color{#6A5ACD}{x_{n2}} & \cdots & \cdots \end{bmatrix}$$` --- # Enfoque matricial -- #### Operaciones con matrices: Suma > **Suma de Matrices** deben tener mismo tama帽o y funciona sumando cada uno de los elementos de una matriz con los de la siguiente matriz. -- `$$X=\begin{bmatrix} x_{11} &x_{12} & \cdots & x_{1k}\\ x_{21} & x_{22} & \cdots & x_{2k}\\ \cdots & \cdots & \cdots & \cdots\\ x_{n1} &x_{n2} &\cdots&x_{nk} \end{bmatrix} \; A=\begin{bmatrix} a_{11} &a_{12} & \cdots& a_{1k}\\ a_{21} & a_{22} & \cdots & a_{2k}\\ \cdots & \cdots & \cdots & \cdots\\ a_{n1} & {a_{n2}} & {\cdots } & {a_{nk}} \end{bmatrix}$$` -- `$$X+A=\begin{bmatrix} x_{11} +a_{11} & x_{12} +a_{12} & \cdots& x_{1k} +a_{1k}\\ x_{21}+a_{21} & x_{22} +a_{22} & \cdots & x_{2k} +a_{2k}\\ \cdots & \cdots & \cdots & \cdots \\ x_{n1} +a_{n1} & x_{n2} +a_{n2} & \cdots & x_{nk} +a_{nk}\end{bmatrix}$$` --- # Enfoque matricial -- #### Operaciones con matrices: Multiplicaci贸n Para esto hay que tener en consideraci贸n: - No es necesario que sean cuadradas. - Deben ser siempre **conformables**. -- >Para que una matriz sea _conformable_ debe considerarse lo siguiente: -- `$$A_{m*n}*X_{n*p} = C_{m*p}$$` -- _Debe coincidir o ser de igual tama帽o las columnas de la primera matriz con las filas de la siguiente matriz en el orden de la operaci贸n_. --- # Enfoque matricial -- #### Operaciones con matrices: Multiplicaci贸n Si tenemos dos vectores `\(A=(a_{1},a_{2},...,a_{n})\)` y `\(B=(b_{1},b_{2},...,b_{n})\)` entonces: -- `$$a*b=a_{1}*b_{1}+a_{2}*b_{2}+...+a_{n}*b_{n}$$` -- `$$A= \begin{bmatrix} \color{#6A5ACD}{1} & \color{#6A5ACD}{2} & \color{#6A5ACD}{3} & \color{#6A5ACD}{4}\\ 5 & 6 & 7 & 8\\ 9 & 10 & 11 & 12 \end{bmatrix}_{3*4} \quad B=\begin{bmatrix} \color{#6A5ACD}{3} & 7 & 9\\ \color{#6A5ACD}{4} & 9 & 2\\ \color{#6A5ACD}{2} & 7 & 1\\ \color{#6A5ACD}{4} & 7 & 2 \end{bmatrix}_{4*3} \quad A \times B=\begin{bmatrix} \color{#6A5ACD}{33} & \cdots & \cdots \\ \cdots & \cdots & \cdots \\ \cdots & \cdots & \cdots \end{bmatrix}_{3*3}$$` --
es importante que conozca las propiedades de la *multiplicaci贸n*: --
A*I=A
Ley asociativa `\((AB)C=A(BC)\)`
Ley distributiva `\(A(B+C)=AB+AC\)`
Ley transpuesta: `\((AB)'=B'A'\)` --- class: title-slide-section-red, middle # De vuelta al estimador ahora matricial de M.C.O --- # Forma matricial del modelo
Hasta ahora lo que hemos deducido es el estimador de m铆nimos cuadrados ordinarios MCO para una variable dependiente y una independiente. --
Debemos observar ahora como se "deriva" el **estimador** cuando se tiene .black[m谩s] de una variable **independiente**. -- > Debemos recordar que la informaci贸n que se tiene cuando se estima un **modelo de regresi贸n** tiene la siguiente forma: (Las variables se organizan por columnas). -- `$$\begin{bmatrix} Y_{1}\\ Y_{2}\\ \vdots \\ Y_{n} \end{bmatrix}_{n*1}= \begin{bmatrix} 1 & x_{12} & \cdots & x_{1k}\\ 1 & x_{22} & \vdots & x_{2k}\\ \cdots & \cdots & \cdots & \cdots \\ 1 & x_{n2} & \vdots & x_{nk} \end{bmatrix}_{n*k} \times \begin{bmatrix} \beta _{0}\\ \beta _{1}\\ \vdots \\ \beta _{k} \end{bmatrix}_{k*1} + \begin{bmatrix} \mu _{1}\\ \mu _{2}\\ \vdots \\ \mu _{n} \end{bmatrix}_{n*1}$$` --- # Forma matricial del modelo Tenemos por cada observaci贸n una **ecuaci贸n** que debe ser escrita: `$$\begin{aligned} Y_{1} &=\beta _{0} +\beta _{1} X_{11} +\cdots +\beta _{k} X_{1k} +\mu _{1}\\ Y_{2} &=\beta _{0} +\beta _{1} X_{21} +\cdots +\beta _{k} X_{2k} +\mu _{2}\\ \cdots &=\cdots +\cdots +\cdots +\cdots +\cdots \\ Y_{n} &=\beta _{0} +\beta _{1} X_{n1} +\cdots +\beta _{k} X_{nk} +\mu _{n} \end{aligned}$$` --- # Forma matricial del modelo - Lo cual nos permite tener un sistema as铆: -- `$$Y=XB+U$$` -- `$$S=( y-X\beta ) '( y-X\beta ) = \mu '\mu$$` -- Donde `$$y'y-y'X \beta - \beta 'X'y+\beta 'X'X \beta$$` -- `$$\beta' X'y=( \beta 'X'y) = y'X\beta$$` -- `$$y'y-2\beta 'X'y+X'X\beta ^{2}$$` -- Debe derivar B: `$$\frac{\partial S}{\partial \beta } =-2X'y+2X'X\beta =0$$` -- `$$\beta =( X'X)^{-1} X'Y$$` --- class: title-slide-section-grey # Bibliograf铆a
脕lvarez, R. A. R., Calvo, J. A. P., Torrado, C. A. M., & Mondrag贸n, J. A. U. (2013). *Fundamentos de econometr铆a intermedia: teor铆a y aplicaciones*. Universidad de los Andes.
Stock, J. H., Watson, M. W., & Larri贸n, R. S. (2012). *Introducci贸n a la Econometr铆a*.
Wooldridge, J. M. (2015). *Introductory econometrics: A modern approach*. Cengage learning. --- class: title-slide-final, middle # Gracias! ## Alguna pregunta adicional? ### Carlos Andres Yanes Guerra
cayanes@uninorte.edu.co
keynes37