class: center, middle, inverse, title-slide # Conceptos de Estabilidad ### David Camposeco ### ITAM ### Last updated: 2020-08-24 --- ### Modelos AR(1) Consideremos la ecuación de expectativas adaptativas ("Backward-looking"): `$$x_{t} = \alpha x_{t-1} + \epsilon_t$$` **Rezagando** esta ecuación un periodo: `$$x_{t-1} = \alpha x_{t-2} + \epsilon_{t-1}$$` Lo que nos permite proceder recursivamente: $$ `\begin{align*} x_{t} &= \alpha x_{t-1} + \epsilon_{t} \\ x_{t-1} &= \alpha x_{t-2} + \epsilon_{t-1} \\ \Rightarrow x_{t} &= \alpha (\alpha x_{t-2} + \epsilon_{t-1}) + \epsilon_{t} \\ \Rightarrow x_{t} &= \alpha^2 x_{t-2} + \alpha \epsilon_{t-1} + \epsilon_{t} \\ x_{t-2} &= \alpha x_{t-3} + \epsilon_{t-2} \\ \Rightarrow x_{t} &= \alpha^2 (\alpha x_{t-3} + \epsilon_{t-2}) + \alpha \epsilon_{t-1} + \epsilon_{t} \\ \Rightarrow x_{t} &= \alpha^3 x_{t-3} + \alpha^2 \epsilon_{t-2} + \alpha \epsilon_{t-1} + \epsilon_{t} \\ \end{align*}` $$ --- ### Solución Backward Looking Siguiendo el procedimiento anterior podemos expresar: `$$x_{t} = \alpha^k x_{t-k} +\sum_{i=1}^{k} \alpha^{i-1} \epsilon_{t-i-1}$$` La solución de esta ecuación es estable si `\(|\alpha| < 1\)` --- ### Modelos Forward Looking: Ahora consideremos la ecuación de expectativas racionales ("Forward-looking"): `$$y_{t} = \gamma \mathbb{E}_t[ y_{t+1}] + \upsilon_t$$` **Adelantando** esta ecuación un periodo: `$$y_{t+1} = \gamma \mathbb{E}_{t+1}[ y_{t+2} ]+ \upsilon_{t+1}$$` Lo que nos permite proceder recursivamente: `$$\begin{align*} y_{t} &= \gamma\mathbb{E}_t [y_{t+1}] + \upsilon_t \\ y_{t+1} &=\gamma \mathbb{E}_{t+1}[ y_{t+2}] + \upsilon_{t+1} \\ \Rightarrow y_{t} &= \gamma\mathbb{E}_t [\gamma \mathbb{E}_{t+1}[ y_{t+2}] + \upsilon_{t+1}] + \upsilon_t \\ \Rightarrow y_{t} &= \mathbb{E}_t[ \gamma^2 y_{t+2} + \gamma \upsilon_{t+1}] + \upsilon_t \\ ... & \\ \Rightarrow y_{t} & = \mathbb{E}_t[\gamma^k y_{t+k} + \sum_{i=1}^k \gamma^{i-1} \upsilon_{t+i-1} ] \end{align*}$$` --- ### Intuición <iframe src="https://davidcamposeco.shinyapps.io/AR1Simulation/" allowfullscreen="" width="100%" height="200%" frameborder="0"></iframe> --- ### Resúmen En resúmen: * La ecuación de expectativas adaptativas ("Backward-looking") `\(x_{t} = \alpha x_{t-1} + \epsilon_t\)` tiene una solución estable cuando `\(|\alpha| < 1\)` * La ecuación de expectativas racionales ("Forward-looking") `\(y_{t} = \gamma \mathbb{E}_t[ y_{t+1}] + \upsilon_t\)` tiene una solución estable cuando `\(|\gamma| < 1\)` De manera matricial, estas dos ecuaciones se pueden representar asi: `$$\begin{bmatrix} x_{t} \\ \mathbb{E}_t y_{t+1} \end{bmatrix} = \begin{bmatrix} \alpha & 0 \\ 0 & \frac{1}{\gamma} \end{bmatrix} \begin{bmatrix} x_{t-1} \\ y_{t} \end{bmatrix} + \begin{bmatrix} \epsilon_{t} \\ -\frac{1}{\gamma} \upsilon_{t} \end{bmatrix}$$` Nota como en este caso, las condiciones de estabilidad son: `\(|\alpha|<1 \text{ y } |\frac{1}{\gamma}|>1\)` --- class: inverse, center, middle # Repaso Matemático --- ### Definiciones **Def:** Un vector <sup>1</sup> `\(\mathbf{v} \text{ con } \left( \mathbf{v}\neq0 \right)\)` es un **eigenvector** de la matríz cuadrada `\(A\)` si `\(A\mathbf{v}\)` es un escalar de `\(\mathbf{v}\)`. Es decir si satisface que `$$\underbrace{A}_\text{nxn}\underbrace{\mathbf{v}}_\text{nx1}= \lambda\underbrace{\mathbf{v}}_\text{nx1}$$` **Def**: Una matriz `\(A\)` es **diagonalizable** si existe una matriz invertible `\(P\)` tal que `\(P^{-1}AP = \Lambda\)` donde `\(\Lambda\)` es una matriz diagonal. .footnote[ [1] En esta sección las minúsculas son escalares, letras minúsculas en negritas son vectores y las letras mayúsculas son matrices. ] --- ### Eigen-descomposición De manera explícita, si `\(A\)` es diagonalizable, existe P que cumple: `$$AP = P \begin{bmatrix} \lambda_1 & & & & \\ &\lambda_2 & & &\\ & &\lambda_3 & &\\ & & & \ddots & \\ & & & &\lambda_n \\ \end{bmatrix}$$` Si reescribimos la matriz `\(P\)` como `\(P=[\mathbf{v}_1, \mathbf{v}_2, \mathbf{v}_3, \dots, \mathbf{v}_n]\)` donde `\(\mathbf{v}_i\)` es un vector (nx1), la ecuación anterior puede ser reescrita como: `$$A\mathbf{v}_i = \lambda_i \mathbf{v}_i \qquad (i=1\dots n)$$` Nota que esta ecuación es la misma que la definición de un **eigenvector**. Lo que implica que si la matriz A es diagonalizable, A puede ser expresada como `\(A=P\Lambda P^{-1}\)`. Que exista `\(P^{-1}\)` implica que los eigenvectores de una matriz diagonalizable son linealmente independientes y que `\(\mathbf{v}_i\neq \mathbf{0}\)`. --- ### Eigen-descomposición La eigen-descomposición de una matrix (expresar `\(A=P\Lambda P^{-1}\)`) es muy útil por varias razones. Nota que si definimos `\(A^2=AA\)` y en general `\(A^n = A\underbrace{A\dots A}_{\text{n veces}}\)` podemos ver que `$$A^2 = (P\Lambda P^{-1})(P\Lambda P^{-1}) = P\Lambda^2 P^{-1}$$` y en general, `$$A^n = P\Lambda^n P^{-1}$$` Nota que `\(\Lambda^n\)` es muy fácil de calcular: `\(\Lambda^n= diag(\lambda_i^n)\)` y si `\(\lambda_i<1\; \forall i \Rightarrow \lim_{n\rightarrow \infty} A^n = 0\)` --- class: inverse, center, middle # Condiciones de Blanhard y Kahn --- ### Condiciones de Blanhard y Kahn Recordemos que habíamos llegado a la intuición de que en un sitema como: `$$\begin{bmatrix} x_{t} \\ \mathbb{E}_t y_{t+1} \end{bmatrix} = \begin{bmatrix} \alpha & 0 \\ 0 & \frac{1}{\gamma} \end{bmatrix} \begin{bmatrix} x_{t-1} \\ y_{t} \end{bmatrix} + \begin{bmatrix} \epsilon_{t} \\ -\frac{1}{\gamma} \upsilon_{t} \end{bmatrix}$$` Las condiciones de estabilidad son: `$$|\alpha|<1 \text{ y } |\frac{1}{\gamma}|>1$$` Entonces, si queremos generalizar esto, llamemos a `\(\mathbf{x_t}\)` el **vector** (kx1) de variables "backward-looking" y el **vector** `\(\mathbb{E}_t\mathbf{y_{t+1}}\)` (mx1) como el "forward-looking". Podemos representar al sistema de ecuaciones que describe el modelo como: `$$B\begin{bmatrix} \mathbf{x_{t+1}} \\ \mathbb{E}_t\mathbf{y_{t+1}} \end{bmatrix} = C \begin{bmatrix} \mathbf{x_{t}} \\ \mathbf{y_{t}} \end{bmatrix} + \begin{bmatrix} \epsilon_{t+1} \\ 0 \end{bmatrix}$$` --- ### Condiciones de Blanhard y Kahn Pero si en este modelo, asumimos que `\(B^{-1}C=A\)` y `\(A\)` es diagonalizable, podemos reescribir `$$\begin{align*} \begin{bmatrix} \mathbf{x_{t+1}} \\ \mathbb{E}_t\mathbf{y_{t+1}} \end{bmatrix} &= P\Lambda P^{-1} \begin{bmatrix} \mathbf{x_{t}} \\ \mathbf{y_{t}} \end{bmatrix} +B^{-1} \begin{bmatrix} \epsilon_{t+1} \\ 0 \end{bmatrix} \\ \Rightarrow P^{-1} \begin{bmatrix} \mathbf{x_{t+1}} \\ \mathbb{E}_t\mathbf{y_{t+1}} \end{bmatrix} &= \Lambda P^{-1} \begin{bmatrix} \mathbf{x_{t}} \\ \mathbf{y_{t}} \end{bmatrix} + P^{-1}B^{-1} \begin{bmatrix} \epsilon_{t+1} \\ 0 \end{bmatrix} \\ \Rightarrow \begin{bmatrix} \mathbf{\tilde{x}_{t+1}} \\ \mathbb{E}_t\mathbf{\tilde{y}_{t+1}} \end{bmatrix} &= \Lambda \begin{bmatrix} \mathbf{\tilde{x}_{t}} \\ \mathbf{\tilde{y}_{t}} \end{bmatrix} +\Theta \begin{bmatrix} \epsilon_{t+1} \\ 0 \end{bmatrix} \\ \end{align*}$$` Nota que en el último caso, `\(\Lambda\)` es una matriz diagonal. Esto tiene importantes implicaciones, el sistema es estable y tiene una solución unica si las primeras (k) entradas de `\(\Lambda\)` son menores a 1 y las últimas m entradas son mayores a 1 (donde m+k=n). --- class: inverse, center, middle # Gracias