guiasjuridicas.es - Documento
El documento tardará unos segundos en cargarse. Espere, por favor.
Autocorrelación

Autocorrelación

La autocorrelación de una variable discreta es la correlación o dependencia consigo misma a lo largo del tiempo.

Contabilidad y finanzas

Concepto

Desde el punto de vista estadístico la autocorrelación de una variable discreta es la correlación o dependencia consigo misma a lo largo del tiempo.

En un modelo de regresión lineal dado por la expresión: Υt = Χ´t β+ ut, t=1,....,T, uno de los supuestos iniciales que se establece en el modelo lineal general es que las perturbaciones no están correlacionadas, es decir, Cov(ut, us)≠0, ∀t≠s, pero, si este supuesto deja de cumplirse, Cov(ut, us)≠0, ∀t≠s, entonces existe autocorrelación.

Causas

En los datos de series temporales un problema habitual es la presencia de autocorrelación de las perturbaciones. Entre las causas de esta correlación serial podemos destacar las siguientes:

  • a) La omisión de variables relevantes en el modelo que estén correlacionadas a lo largo del tiempo.
  • b) La existencia de ciclos o de tendencia en la variable endógena no explicados por las variables exógenas del modelo.
  • c) La especificación una relación lineal entre las variables cuando la verdadera relación es no lineal (mala especificación de la forma funcional).
  • d) La existencia de una relación dinámica y no estocástica entre las variables.

Consecuencias

Las consecuencias más importantes de la existencia de la autocorrelación son:

  • a) Las estimaciones de los parámetros utilizando mínimos cuadrados ordinarios dejan de ser eficientes, ya que no es el estimador lineal e insesgado de mínima varianza, el estimador que tendría esas propiedades sería el que se obtiene aplicando mínimos cuadrados generalizados.
  • b) La inferencia estadística basada en la matriz de varianzas y covarianzas del estimador por mínimos cuadrados ordinarios será errónea.

Formas de detectar la autocorrelación

Los procedimientos para detectar la existencia de autocorrelación se basan principalmente en dos instrumentos: los estadísticos y los gráficos.

Contrastes de autocorrelación

Los principales estadísticos, que permiten contrastar la existencia o no de autocorrelación, se calculan utilizando los residuos del modelo original estimado por mínimos cuadrados ordinarios. Los principales contrastes son:

  • a) Estadístico Durbin-Watson

    Es el contraste de autocorrelación más antiguo y fue planteado por Durbin y Watson (1950,1951), para detectar la existencia de un autorregresivo de primer orden, (AR(1)).

    En el modelo Yt = X´tβ + ut este contraste plantea que los residuos siguen un AR(1), es decir, ut = øut-1 + εt, donde εt es ruido blanco. La hipótesis nula es la ausencia de autocorrelación, es decir, H0: ø = 0, frente a la alternativa que indica la existencia de autocorrelación de primer orden, H1: ut = øut-1 + εt.

    El estadístico del contraste es:

    Esta aproximación es buena si el número de datos de la muestra es lo suficientemente grande y, es el estimador MCO de ø en la ecuación ut = øut-1 + εt.

    El rango de valores que puede tomar este estadístico dependerán de los valores de , y serán: DW ≃ 0 si el valor estimado del parámetro es cero (indicaría que no habría autocorrelación); por otro lado, el DW tomará valores comprendidos entre 2 y 4, cuando las estimaciones del parámetro ∈ [-1,0), es decir, existirá autocorrelación negativa; tendrá valores comprendidos entre 0 y 2, cuando las estimaciones del parámetro ∈ (0,1], es decir, existirá autocorrelación positiva.

    Sin embargo, la distribución del estadístico bajo la hipótesis no es conocida, por lo que, Durbin y Watson tabularon los valores máximo (ds) y mínimo (di) que pueden tomar dichos valores críticos cuando existe autocorrelación positiva (H1: ø > 0), si los regresores son fijos y existe término constante en el modelo. En este caso, se rechaza la H0 si DW<di, no se rechaza si DW>ds y no se puede concluir cual es el resultado del contraste cuando el valor del estadístico está comprendido entre di y ds. Si, por el contrario, se pretende contrastar H0:ø= 0 frente la existencia de autocorrelación negativa (H1:ø<0), ya que el estadístico toma valores comprendidos entre 2 y 4, será necesario comparar el DW los valores tabulados 4-di y 4-ds y así, aceptar o no la hipótesis nula según sean los resultados del contraste.

  • b) Estadístico de Breusch y Godfrey

    Es un procedimiento alternativo al anterior, introducido por Breusch (1978) y Godfrey (1978), que permite incluir en la hipótesis alternativa especificaciones más generales que un sencillo AR(1).

    Para llevar a cabo este contraste es necesario estimar el modelo por mínimos cuadrados ordinarios, obtener los residuos y estimar una regresión de los residuos sobre p retardos de ellos. De esta última regresión se obtiene el coeficiente de determinación, (R2), con el fin de comparar TR2 con el valor crítico obtenido de las tablas de una distribución χ2p. Se rechazará la hipótesis nula de ausencia de autocorrelación si TR2 es superior al valor crítico.

  • c) Estadístico de Box y Pierce

    Este estadístico plantea como hipótesis nula que las primeras p-correlaciones son nulas (no existe autocorrelación) frente a la alternativa de que son estadísticamente diferentes de cero. En este caso, cuando el vector de variables explicativas contiene solo variables exógenas, entonces se utiliza el estadístico Q de Box-Pierce, definido como: Q = T rzj donde, rj = .

    Este estadístico sigue una distribución χ2p. Así si el valor del estadístico es mayor que el valor crítico obtenido a partir de la χ2p, entonces, se rechaza la hipótesis nula, lo que indicaría que existe autocorrelación. Mientras que, por el contrario, si el valor del estadístico es menor que el valor crítico entonces se acepta la hipótesis nula de ausencia de autocorrelación.

    Este estadístico posteriormente fue revisado por Ljung-Box obteniéndose mejores resultados para muestras pequeñas si se utilizaba la expresión alternativa propuesta por ellos: Q´ = T (T + 2) .

Contrastes gráficos

La autocorrelación en los residuos se puede detectar a través de diferentes tipos de gráficos (en los cuales se pueden apreciar rachas de residuos), como por ejemplo, el gráfico de los residuos del modelo original estimados por mínimos cuadrados ordinarios estandarizados, el gráfico de los residuos en un período frente a los residuos del período anterior, la función de autocorrelación simple (FAC) y la función de autocorrelación parcial (FACP). La FAC y FACP permite no solo detectar si existe autocorrelación o no sino el tipo de autocorrelación.

  • a) Función de autocorrelación simple

    En estadística, la autocorrelación de una serie temporal discreta de un proceso estocástico (Yt), mide la correlación que existe entre dicho proceso y los valores de la serie temporal entre los cuales transcurre un lapso de tiempo de k periodos, (Yt-k). Esta función vendrá dada por el conjunto de los diferentes coeficientes de autocorrelación, Ρκ(t), calculados como el cociente entre la covarianza de Yt e Yt-k y sus respectivas varianzas de la siguiente forma:

    Por ejemplo, el correlograma para un AR(1) con parámetro positivo sería:

  • b) Función de autocorrelación parcial

    La autocorrelación parcial de orden k de un proceso estocástico (Yt), mide la correlación existente entre Yt e Yt-k, pero eliminado los efectos de los periodos producidos por las variables de los periodos intermedios (Yt-1,..., Yt-k-1). La función de autocorrelación parcial es el conjunto de autocorrelaciones parciales para cada retardo especificado.

    La función de autocorrelación parcial junto con la función de autocorrelación simple, son por lo tanto unos instrumentos muy importantes para la identificación del tipo de autocorrelación.

    Por ejemplo, la función de autocorrelación parcial estimada para un AR(1) con parámetro positivo sería:

    La función de autocorrelación parcial junto con la función de autocorrelación simple son, por lo tanto, unos instrumentos muy importantes para la identificación del tipo de autocorrelación.

    Por ejemplo, la función de autocorrelación parcial estimada para un AR(1) con parámetro positivo sería:

    Entre las principales propiedades de las funciones de autocorrelación podemos destacar las siguientes: son adimiensionales, simétricas (razón por la cual se suele representar siempre la parte positiva), alcanza su valor máximo en el origen (Ρ0=1), están acotadas entre -1 y 1, el primer valor de la FAC y de la FACP es el mismo con independencia del proceso estocástico y para un proceso estocástico estacionario decrecen de forma hacía cero.

Procedimiento de estimación cochrane-orcutt

Este procedimiento permite estimar los parámetros de un modelo de regresión cuando el término de error presenta autocorrelación y el parámetro de autocorrelación es desconocido.

Para determinar los diferentes pasos, que son necesarios llevar a cabo, en este procedimiento iterativo, partimos del siguiente modelo de regresión en el que las perturbaciones del término de error siguen un proceso autorregresivo de primer orden:

Υt = α + Xtβ + ut

ut = øut-1 + εt

Las etapas de este método son las siguientes:

a) Se estima el modelo de regresión por mínimos cuadrados ordinarios ignorando la existencia de la autocorrelación de primer orden.

Por ejemplo, para dos variables trimestrales obtenemos los siguientes resultados de la estimación:

Tanto el DW como la FAC y FACP estimadas de los residuos de este modelo, nos muestran que existe autocorrelación de primer orden:

b) Con los residuos obtenidos por mínimos cuadrados ordinarios realizar una regresión de sobre para estimar el parámetro ø.

Que en nuestro ejemplo sería:

c) Con la estimación se transforman las variables del modelo de la siguiente forma: Y*t = Yt - Yt-1; X*t = Xt - Xt-1.

d) Estimar por mínimos cuadrados ordinarios el modelo con las variables transformadas para obtener las estimaciones de los parámetros.

Estas estimaciones de los parámetros en nuestro ejemplo (en las que los residuos ya son ruido blanco) serían:

e) Sin embargo, si las estimaciones de los residuos no fuesen ruido blanco, entonces, con las nuevas estimaciones de los parámetros se obtiene una nueva serie de residuos con la que se podrá estimar otra vez el parámetro ø.

f) Se repetirá el proceso hasta que el estadístico Durbin-Watson indique que los residuos son ruido blanco, o alternativamente, se puede finalizar el proceso cuando se alcance un criterio de convergencia que podría ser, por ejemplo, que las diferencias entre las estimaciones sucesivas del parámetro ø difieran en menos de una cantidad prefijada, que podría estar en torno a los valores 0,01 o 0,005.

El término independiente se recupera a través de la relación: α* = α (1- ).

Este procedimiento de estimación se puede generalizar a más de una variable explicativa y a un orden de autocorrelación superior a uno.

Recuerde que...

  • En los datos de series temporales un problema habitual es la presencia de autocorrelación de las perturbaciones.
  • Los principales estadísticos son: el estadístico Durbin-Watson, el estadístico de Breusch y Godfrey y el estadístico de Box y Pierce
  • La autocorrelación en los residuos se puede detectar a través de diferentes tipos de gráficos: el gráfico de los residuos del modelo original estimados por mínimos cuadrados ordinarios estandarizados, el gráfico de los residuos en un período frente a los residuos del período anterior, la función de autocorrelación simple (FAC) y la función de autocorrelación parcial (FACP).
  • La función de autocorrelación parcial junto con la función de autocorrelación simple son instrumentos muy importantes para la identificación del tipo de autocorrelación.
  • El procedimiento de estimación cochrane-orcutt permite estimar los parámetros de un modelo de regresión cuando el término de error presenta autocorrelación y el parámetro de autocorrelación es desconocido.
Subir