Temaa 3 (2014)

Apunte Español
Universidad Universidad de Barcelona (UB)
Grado Administración y Dirección de Empresas - 3º curso
Asignatura Econometria
Año del apunte 2014
Páginas 16
Fecha de subida 10/12/2014
Descargas 20
Subido por

Vista previa del texto

OBSERVACIONES RARAS 1. observaciones con influencia potencial: se caracterizan por su especial posición respecto a los regresores (variables explicativas, X) 2. observaciones con influencia real: se caracterizan por el carácter dominante y efectivo que tiene su presencia en la definición del ajuste y en las variaciones de la estimación – especial posición en los regresores y en la variable dependiente -.
3. observaciones atípicas: no se caracterizan por las cuestiones asociadas a las medidas de influencia, sino que tiene su característica especial en los errores puntuales de la estimación, y sobre todo si su valor es relevante respecto al conjunto.
Efectos de las observaciones atípicas: 1. puede tener influencia sobre el ajuste global del modelo 2. puede indicar la inexactitud del modelo a estimar: formas no lineales, omisión de variables relevantes, heteroscedasticidad, no normalidad 3. puede señalar observaciones con un interés particular: errores de medida, grupos específicos Condición de atipicidad: 1. las observaciones se caracterizan por ser heterogéneos respecto al conjunto 2. una medida natural de esta atipicidad podría ser el error correspondiente a la observación 3. si una observación es atípica debería mostrar un error mayor que el resto Medidas para detectar observaciones atípicas: 1. el error estandarizado a. error dividido por la estimación de la desviación estándar del término de e perturbación à ) i σu b. no siempre es acertada utilizarla como medida de referencia. Por ejemplo, si se dan simultáneamente atipicidad e influencia real en una observación el error no detecta la atipicidad, puesto que su influencia real hace que éste no sea especialmente relevante c. el residuo estandarizado, cuando la muestra es de un tamaño elevado, se puede e →∞ comparar con una distribución normal tipificado o N(0,1) à ) i N → N(0 ,1) σu 2. el error estudentizado ei a. error dividido por la desviación del error en el punto à ) σ u · (1 − h ii ) b. la varianza del residuo es V(e) = σˆ u2 ·(I − H) entonces la varianza del error en un punto es V(e i ) = σˆ u2 ·(1 − h ii ) c. consigue reducir en parte el efecto de las observaciones influyentes al intervenir en su calculo la varianza del residuo d. el residuo estudentizado, cuando la muestra es de un tamaño elevado, se puede comparar con una distribución t-Student con n-k-1 grados de libertad à ei N→∞ → t ( n−k −1) ) σ u · (1 − h ii ) e. si el tamaño de la muestra es reducido NO está garantizada la Independencia entre numerador y denominador y la comparación con una distribución t es incorrecta f. el residuo estudentizado tiene en cuenta la posible influencia de la observación, y cuando esta influencia existe, hace que el valor de este residuo aumente mucho, alejándose del comportamiento de la distribución t-Student con n-k-1 g. Valores del residuo estudentizado que provienen de una distribución t y que toman valores inferiores a 2 o –2 pueden tratarse como aceptables; en caso contrario, las observaciones deberán considerarse atípicas, con los efectos que esas observaciones puedan tener en algunos de los supuestos del modelo.
h. El residuo estudentizado incorpora el elemento ponderador, en consecuencia, cuando una observación tiene una varianza del error baja, el valor del error se ponderará al alza y, de esta forma, una observación con un residuo reducido puede ser declarada como atípica si su influencia potencial es muy elevada (lo que equivale a una menor varianza del error).
h ii elevada ) ⇒ σ iu · (1 − h ii ) varianza del error menor ei ⇒ )i residuo estudentizado elevado σ u · (1 − h ii ) i. la distancia de Cook puede expresarse en función del residuo estudentizado Di = § ado 2 (e estudentiz ) h ii ( yˆ − yˆ ( i ) ) k (e i2 ·h ii ) k e i2 σˆ u2 ·(1 − h ii )2 i · h · = = = ii k k 1 − h ii σˆ u2 σˆ u2 ·(1 − h ii ) valor alto de hii (cercano a 1) à eleva Di sea cual sea el valor del residuo estudentizado § valor bajo de hii (cercano a 0) à rebaja Di sea cual sea el valor del residuo estudentizado à NO clasifica a una observación como realmente influyente a pesar de ser atípica 3. el error estudentizado con omisión o corregido a. suprime el punto atípico en la estimación del error estándar del término de perturbación ei b. error dividido por la desviación corregida del error en el punto à ) i σ u · (1 − h ii ) c. la corrección de la omisión hace que se pueda comparar correctamente con la distribución t-Student con n-k-1 EJEMPLO MULTICOLINEALIDAD 1. se utiliza el término multicolinealidad para referirse a un elevado grado de correlación entre las variables exógenos (var. Explicativas) del modelo de regresión que provoca distorsiones notables en el cálculo y en los resultados de la estimación del modelo 2. se distinguen 3 situaciones en relación a la correlación existente en la matriz de regresores: a. correlación exacta (correlación igual a 1 o –1) à situación teórica b. ausencia de correlación (correlación igual a 0) à situación teórica c. grado de correlación diferente a 0 o a 1 / -1 à situación más habitual a. correlación exacta: correlación igual a 1 § existencia de una combinación lineal exacta entre los regresores del modelo à a1·X1,i + a 2 ·X 2 ,i + ... + a k ·X k ,i = 0 § el rango de la matriz es inferior a k à Rango( X' X ) < k § el determinante es nulo X' X = 0 § no existe la inversa de X’X: (X' X )−1 § el sistema de ecuaciones para estimar los parámetros tiene infinitas soluciones § no se pueden estimar individualmente el valor de los parámetros § se puede estimar el efecto conjunto si se conoce la combinación lineal entre los regresores b. ausencia de correlación: correlación igual a 0 § la matriz X’X se convierte en una matriz diagonal debido a la ortogonalidad entre los regresores, fuera de la diagonal todo son ceros § se pierde la componente de covarianzas entre los regresores por la incorrelación de los mismos § las estimaciones de los coeficientes del modelo múltiple coinciden con las estimaciones que se obtendrían con un modelo simple para cada una de las variables por separado § no existe diferencia entre estimar un modelo múltiple o modelos simples por separado c. correlación distinta de 0 y 1: alta correlación (superior a 0,70) § No existencia de una combinación lineal exacta entre los regresores del modelo à a1·X1,i + a 2 ·X 2 ,i + ... + a k ·X k ,i ≈ 0 , pero los regresores están altamente correlacionados § Se cumple que el rango de la matriz es igual a k à Rango( X' X ) = k § el determinante de la matriz puede llegar a ser muy pequeño, X' X ≈ 0 § existe la inversa de X’X, (X' X )−1 , pero sus valores son muy elevados lo que provoca que las varianzas y covarianzas de los parámetros estimados también sean muy elevados, puesto que depende de esta inversa à Var(βˆ ) = σˆ u2 ·( X' X )−1 § ∆rx i x j ⇒ ∇ X' X ⇒ ∆(X' X )−1 las variaciones en el determinante y en la inversa de (X’X) son más que proporcional al aumento de la correlación entre xi y xj rx2 x3 ( X'X) X'X (X'X) -1 0 120 61,004614 66,708938 61,004614 31,090011 33,912942 66,708938 33,912942 37,192264 0,9 120 61,004614 57,283422 61,004614 31,090011 29,191517 57,283422 29,191517 27,424042 0,13888 3,377475 -5,782412 -0,899793 -5,782412 68,364564 -60,692330 -0,899793 -60,692330 66,519899 0,99 120 61,004614 58,487073 61,004614 31,090011 29,807718 58,487073 29,807718 28,579785 0,01354 3,381193 -9,791567 3,292823 -9,791567 652,724630 -660,731100 3,292823 -660,731100 682,415830 1 6,220273 -6,603373 -5,135692 -6,603373 12,989269 0 -5,135692 0 9,238395 § las consecuencias fundamentales de una alta correlación entre los regresores son: Ø βˆ = (X' X )−1·X' Y sigue siendo un estimador Lineal, Insesgado y Óptimo, ya que estás propiedades dependen de las características del Término de Perturbación y no de la correlación entre los regresores Ø pero una elevada multicolinealidad influye en los valores de (X' X )−1 lo que hará que βˆ = (X' X )−1·X' Y sea muy impreciso Ø Var(βˆ ) = σˆ u2 ·( X' X )−1 sigue siendo mínima Ø pero una elevada multicolinealidad influye en los valores de (X' X )−1 lo que hará que Var(βˆ ) = σˆ u2 ·( X' X )−1 pueda ser muy elevada Ø los contrastes de la t para contrastar la significación individual de los regresores tenderá a aceptar la hipótesis nula rx i x j elevado ⇒ (X' X )−1 elevada ⇒ Var(βˆ ) elevada ⇒ βˆ Var(βˆ ) dis min uye 3. Principales criterios de detección para la Multicolinealidad Con la finalidad de ilustrar analíticamente el problema de la multicolinealidad se realizan a continuación distintos supuestos sobre la relación existente entre dos regresores. Considérese el siguiente modelo, y t = β 0 + β1x1t + β 2 x 2t + u t con t=1, 2, …, n El vector de estimadores de los parámetros β1 y β 2 tendrá la siguiente expresión:  βˆ 1  ˆ  = β 2  1 ∑ x12t ∑ x 22t − (∑ x1t x 2t ) 2 ( ) 2  ∑ x 22 t  − ∑ x1t x 2t ( − ∑ x1t x 2t   ∑ y t x1t    ∑ x12t  ∑ y t x 2t  ) 2 siendo ∑ x12t = ∑ X1t − X1 y ∑ x 22 t = ∑ X 2t − X 2 es decir los valores en desviaciones.
La relación entre los regresores X1 y X2 se puede cuantificar mediante el coeficiente de determinación simple (o coeficiente de correlación lineal), r122 , cuya expresión es, 2 r12 = (∑ x1t x 2t )2 ∑ x12t ∑ x 22t ∑ x12t ∑ x 22t Multiplicando y dividiendo por 2 r12 = (∑ x1t x 2t )2 , 2 2 x x ∑ 1t ∑ 2t  βˆ  la expresión de  1  y teniendo en cuenta βˆ 2  el vector de estimadores de los parámetros β1 y β 2 se puede expresar en función de los coeficientes de determinación o correlación entre los regresores X1 y X2, de la siguiente forma:    βˆ 1  1  ˆ  = 2  β 2  1 − r12 −  1 ∑ r12 − x12t ∑ x12t ∑ x 22t r12 1 ∑ x 22t ∑ x12t ∑ x 22t   1  −1 Por lo tanto, (X' X ) = 2  1 − r12 −  1 ∑ − x12t r12     ∑ y t x1t   y x   ∑ t 2 t   r12 ∑ x12t ∑ x 22t 1 ∑ x 22t ∑ x12t ∑ x 22t       La correspondiente estimación de la matriz de varianzas y covarianzas de los estimadores, var(βˆ ) , será, de acuerdo con var(βˆ ) = σˆ β2ˆ = σˆ u2 ·(X' X )−1 , y utilizando la equivalencia 2 r12 = (∑ x1t x 2t )2 ∑ x12t ∑ x 22t ,   σˆ 2  ˆ var(β) = 2  1 − r12 −  1 ∑ x12t − r12 ∑ x12t ∑ x 22t r12 ∑ x12t ∑ x 22t 1 ∑ x 22t       Supuesto de ausencia de relación lineal entre X1 y X2 En el caso de que los regresores sean ortogonales, el coeficiente de determinación, r122 , será 0.
El vector de estimadores de los parámetros β1 y β 2 tiene, bajo este supuesto la siguiente expresión:  ∑ y t x1t   βˆ 1   ∑ x12t  ˆ  =  y x  β 2   ∑ t 2t  2  ∑ x 2 t  Obsérvese que las expresiones de βˆ1 y βˆ2 que aparecen son equivalentes a las obtenidas cuando, en lugar de estimar el modelo, se estiman los modelos simples.
Adicionalmente, la matriz de varianzas y covarianzas, var(βˆ ) , adopta la siguiente forma:  1  0   2 2  ∑ x1t ˆ  var(β) = σˆ 1     0 ∑ x 22t   De todo lo anterior se deduce que, cuando los regresores del modelo sean ortogonales, el proceso de estimación de sus parámetros y de las varianzas se podrá simplificar extraordinariamente procediendo a realizar regresiones simples entre el regresando y cada uno de los regresores.
Supuesto de relación lineal exacta entre X1 y X2 En el caso de que los regresores tengan una relación lineal exacta, es decir, que 2 X1t = λ·X 2t , el coeficiente de determinación, r12 , será igual a 1.
Bajo este supuesto, el determinante de la matriz X'X será igual a cero.
Ello implica que no existe la matriz inversa de X'X, con lo cual ni siquiera será posible la obtención de valores únicos de los estimadores de los parámetros del modelo.
Este caso se conoce con la denominación de multicolinealidad perfecta.
Supuesto de relación lineal NO exacta entre X1 y X2 Los supuestos anteriores responden realmente a situaciones extremas, es decir, a situaciones en las que el coeficiente de determinación lineal simple toma los valores límite.
Sin embargo, en la práctica, es muy improbable que se presente un caso de multicolinealidad perfecta, siendo frecuente la presencia de un cierto grado de multicolinealidad en las observaciones correspondientes a los regresores del modelo. A este caso se hace referencia con la denominación de multicolinealidad no perfecta. El 2 valor del coeficiente de determinación simple entre X1 y X2, r12 , es un indicador del grado de multicolinealidad en un modelo como el establecido. Distinguimos a continuación dos casos: 2 a.
Si r12 se encuentra próximo a cero, la colinealidad entre los regresores no constituye un problema grave. Las estimaciones de los parámetros del modelo serán estables, es decir, no se producirán cambios apreciables en las estimaciones al aumentar o disminuir el número de observaciones de la muestra, y, generalmente, los signos de las estimaciones serán los predichos por la teoría económica. (Por tanto, un signo inesperado puede ser indicio de que la multicolinealidad es un problema.) 2 b.
Si r12 se encuentra cerca del valor unidad, es decir, si existe un grado elevado de multicolinealidad entre las observaciones correspondientes a las variables X1 y X2 en el modelo, la varianza estimada de los estimadores tenderá a ser grande. No 2 obstante, conviene tener en cuenta, además de r12 otros factores que aparecen en la expresión de la varianza estimada de βˆ y βˆ .
1 2 Obsérvese que de la matriz de varianzas y covarianzas estimada, var(βˆ ) , que aparece en la expresión anterior se obtiene la siguiente expresión de la varianza estimada de βˆ : 1 var(βˆ 1 ) = σˆ 2 1 2 1 − r12 ∑ x12t Siendo r122 cercano a uno, la estimación de la varianza de βˆ1 será tanto menor cuanto mayor sea ∑ x12t ∑ x 22t y/o cuanto menor sea σˆ 2 .
Es decir, si la varianza muestral del regresor X1 es suficientemente grande, aun en el caso de que r122 se aproxime a uno, el denominador será mayor y, consiguientemente, la var(βˆ ) , menor que si los valores de X1 a lo largo de la muestra se encuentran muy 1 agrupados o concentrados en torno a un conjunto relativamente pequeño de valores.
Adicionalmente, si las perturbaciones aleatorias del modelo tienen una varianza pequeña, el numerador será también pequeño, con lo cual la estimación de la varianza de βˆ1 puede estar dentro de unos límites razonables. Una condición importante para que la varianza de las perturbaciones y, consiguientemente, su estimación sean pequeñas es que el término de perturbación no contenga ninguna variable relevante en la explicación de las variaciones del regresando Y.
Por tanto, aunque, en la mayor parte de los casos, valores de r122 cercanos a la unidad puedan provocar problemas importantes de multicolinealidad, las varianzas del regresor considerado y de la perturbación aleatoria también son elementos a tener en cuenta a la hora de juzgar la gravedad del problema.
Por otra parte, las estimaciones de los parámetros del modelo pueden perder la estabilidad, llegando incluso a sufrir un cambio de signo. Ello es debido a la imposibilidad de separar adecuadamente el efecto de los dos regresores colineales sobre la variable endógena, o regresando. Esto se puede ilustrar por contraposición al supuesto de regresores ortogonales, en el cual los efectos de los regresores X1 y X2 son hasta tal punto separables, que la estimación conjunta de los parámetros correspondientes que aparece en la expresión conjunta es completamente equivalente a la estimación independiente obtenida a partir de las regresiones individuales.
1 σˆ 2 ˆ corresponde a la estimación de la varianza del La expresión var(β1 ) = 2 1 − r12 ∑ x12t estimador de un parámetro en el caso de un modelo con dos regresores (además del posible regresor ficticio correspondiente al término independiente).
Sin embargo, en el caso de regresión lineal múltiple, la estimación de la varianza de un estimador cualquiera - por ejemplo, βˆ 1 - puede formularse mediante una expresión que guarda una gran analogía con la anterior. Concretamente, la estimación de la varianza σˆ 2 1 de βˆ 1 viene dada por var(βˆ i ) = donde Ri2 es el coeficiente de 2 2 1 − R i ∑ x it determinación (o coeficiente de correlación lineal múltiple) obtenido al efectuar la regresión de Xi sobre el resto de los regresores del modelo ( ) Modelo original: y t = β 0 + β1x1t + β 2 x 2t + ... + β i x it + ... + β k x kt + u t Estimamos: x it = γ 0 + γ1x1t + γ 2 x 2 t + ... + γ i−1x i−1t + γ i+1x i+1t + ... + γ k x kt + v t à Ri2 σˆ 2 ˆ Todos los comentarios que se hicieron respecto a la fórmula var(β1 ) = 2 1 − r12 son aplicables a la expresión var(βˆ i ) = ( σˆ 2 1 − R i2 1 )∑x 2 it 1 ∑ x12t ) , con sólo sustituir el coeficiente de determinación simple, r122 , por el coeficiente de determinación múltiple, Ri2 .
En resumen, se puede decir que cuando existe un problema de multicolinealidad no perfecta de una cierta gravedad se presentan los siguientes problemas al realizar inferencias con el modelo lineal básico: a) Las varianzas de los estimadores son muy grandes.
b) Se puede aceptar con frecuencia la hipótesis nula de que un parámetro es cero, aun cuando la correspondiente variable sea relevante.
c) Los coeficientes estimados serán muy sensibles ante pequeños cambios en los datos.
Como la multicolinealidad es un problema muestral, ya que va asociada a la configuración concreta de la matriz X, no existen contrastes estadísticos, propiamente dichos, que sean aplicables para su detección.
En cambio, se han desarrollado numerosas reglas prácticas que tratan de determinar en qué medida la multicolinealidad afecta gravemente a la estimación y contraste de un modelo. Estas reglas no son siempre fiables, siendo en algunos casos muy discutibles.
A continuación se van a exponer dos procedimientos (el factor de agrandamiento de la varianza y el número de condición) que son los que gozan de mayor soporte especialmente el segundo - en la literatura econométrica actual.
Factor de agrandamiento de la varianza En un modelo de regresión múltiple, si el regresor r-ésimo fuera ortogonal con respecto σˆ 2 1 a los demás regresores, la fórmula var(βˆi ) = 2 (1 − Ri ) ∑ xit2 para la varianza quedaría reducida a var(βˆ *i ) = σˆ 2 ∑ x it2 El cociente entre las dos expresiones es precisamente el factor de agrandamiento de la 1 varianza (FAV), cuya expresión será FAV(βˆ i ) = 1 − R i2 ( ) Así, pues, el FAV(βˆ i ) es la razón entre la varianza observada y la que habría sido en caso de que Xi estuviera incorrelacionada con el resto de regresores del modelo.
Dicho de otra forma, el FAV muestra en qué medida se «agranda» la varianza del estimador como consecuencia de la no ortogonalidad de los regresores.
El problema que tiene el FAV es que no suministra ninguna información que pueda utilizarse para corregir el problema.
Número de condición Esté procedimiento de detección de la multicolinealidad es el más adecuado entre los actualmente disponibles.
El número de condición, H(X), es igual a la raíz cuadrada de la razón entre la raíz característica más grande ( λ max ) y la raíz característica más pequeña ( λ min ) de la matriz X'X, es decir, H( X ) = λ max λ min El número de condición mide la sensibilidad de las estimaciones mínimo-cuadráticas ante pequeños cambios en los datos.
De acuerdo con los estudios realizados, tanto con datos observados como con datos simulados, el problema de la multicolinealidad es grave cuando el número de condición toma un valor entre 20 y 30.
Naturalmente, si este indicador superase el valor de 30, el problema sería ya manifiestamente grave.
Estos valores vienen generalmente referidos a regresores medidos con escala de longitud unidad (es decir, con los regresores divididos por la raíz cuadrada de la suma de los valores de las observaciones), pero no centrados. Parece que no es conveniente centrar los datos (es decir, restarles sus correspondientes medias), ya que esta operación oscurece cualquier dependencia lineal que implique al término independiente.
Contradicción entre los test individuales de la t y el test conjunto de la F Un síntoma de multicolinealidad en el modelo vendrá dado por la contradicción de resultados en esos dos contrastes: los tests individuales de la t conducen a aceptar la NO significación de los parámetros, mientras que el test conjunto de la F conduce a aceptar la significación conjunta del modelo.
§ la multicolinealidad afecta a la varianza de los coeficientes estimados y éstas a su vez afecta al contraste individual § la multicolinealidad no se manifiesta en los elementos que intervienen en el cálculo de contraste de significación conjunta, por ello no distorsiona este contraste Descomposición de la varianza del estimador Obsérvese que, el determinante de X'X tomará un valor pequeño cuando una o más raíces estén próximas a 0 y se alejen de los valores tomados por las otras raíces; en este caso, el número de condición será elevado.
Por el contrario, cuando todas las raíces características estén próximas entre sí es cuando el determinante de X'X tomará un valor relativamente elevado, y el número de condición estará próximo a 1, que es la cota mínima de este indicador.
A fin de determinar cómo inciden las diferentes raíces características en la varianza de cada estimador, es conveniente expresar la matriz de covarianzas de βˆ en términos de las raíces características de X'X. La matriz de covarianzas de βˆ se puede descomponer de la siguiente forma: E[βˆ − β][βˆ − β]' = σ 2 ( X' X )−1 = σ 2 (PΛP)−1 = σ 2 PΛ−1P' =  p11 p 2  21 =σ  ...
 p k1 p12 p 22 ...
p k2  k p12j  ∑  j=1 λ j k p 2 j p1j 2 ∑ =σ  λj  j=1 ...
 k p  kj p1j ∑   j=1 λ j ... p1k  1 λ1 0   ... p 2k  0 1 λ 2 . · ... ...   ...
...
 ... p kk   0 0 k p1j p 2 j j=1 λj ∑ k p 22 j ∑λ j=1 k ∑ j=1 j ...
p kjp 2 j λj 0   p11  ...
0  p12 · ...
...   ...
 ... 1 λ k  p 1k ...
p 21 p 22 ...
p 2k ... p k1  ... p k 2  . = ... ...   ... p kk  p1jp kj    j=1 λ j  k p p 2 j kj  ... ∑ . j=1 λ j  ...
...
 k p2  kj ...
∑λ  j=1 j  ...
k ∑ k 2 p hj j=1 λj En consecuencia, la varianza del estimador βˆ h , por ejemplo, será var(βˆ h ) = σ 2 ∑ De aquí se desprende que las raíces características pequeñas contribuyen a que el valor de var(βˆ h ) sea grande. Con objeto de precisar la contribución de cada raíz es 2 p hj conveniente calcular los coeficientes de participación, φ hj , dados por φ hj = λj k 2 p hj ∑λ j=1 j Una vez calculados estos coeficientes se puede construir el cuadro 5.1, de descomposición de la varianza de los estimadores.
Cuadro 5.1. Descomposición de la varianza de los estimadores.
Raíz característica var(βˆ1 ) var(βˆ2 ) λ1 φ11 φ 21 λ2 φ 12 φ 22 … … … λk φ 1k φ 2k … … var(βˆk ) … φk2 … … φ k1 … φ kk En cada fila del cuadro 5.1 aparece la contribución de cada una de las raíces características a la varianza de los distintos coeficientes. Deben ser objeto de especial atención las contribuciones de las raíces características más pequeñas, ya que son las que pueden plantear los problemas de multicolinealidad más serios.
4. Soluciones a la multicolinealidad En principio, el problema de la multicolinealidad está relacionado con deficiencias en la información muestral. El diseño muestral no experimental es, a menudo, el responsable de estas deficiencias. Sin embargo, la aproximación cuantitativa a los conceptos teóricos puede ser inadecuada, haciendo que en el término de perturbación se absorban errores de especificación. Veamos a continuación algunas de las soluciones propuestas para resolver el problema de la multicolinealidad.
Mejora del diseño muestral El aprovechamiento de la información muestral disponible es siempre un objetivo importante en la construcción de un modelo econométrico. Ahora bien, cuando en este modelo aparecen problemas de multicolinealidad, dicho objetivo debe considerarse prioritario. La imposibilidad de estimar con precisión todos los parámetros del modelo debe conducir en primer lugar a extraer de forma adecuada la máxima información de los datos muéstrales.
Ejemplo 5.2. La solución al problema de la multicolinealidad planteado en el ejemplo 5.1 consistiría en tratar de mejorar el diseño muestral subdividiendo la muestra en 2 submuestras: una para varones y otra para mujeres. Dadas las diferencias observadas en la situación de las mujeres en relación a los varones con respecto al mercado de trabajo, la división de la muestra, además de otras medidas, puede resultar beneficiosa.
La principal razón es que, en el caso de las mujeres, la edad y la experiencia se encuentran mucho menos correlacionadas que en el caso de los varones. Así, se puede realizar una regresión independiente para la muestra de mujeres de acuerdo con la siguiente especificación: ln SiM = α 0 + α1 EiM + α 2 NEiM + α 3 EXPiM + U iM Dicha división de la muestra se beneficia, además de una considerable mejora en el diseño muestral, de la posibilidad de estimar independientemente el efecto de la edad sobre el salario en dos grupos (mujeres y varones) cuya relación con el mercado de trabajo ha sido diferente hasta ahora.
Eliminación de variables Siguiendo con la situación planteada en el ejemplo 5.2, en la regresión para el grupo de los varones se debería prescindir de uno de los regresores colineales, por no poder separar sus efectos. Dado el objetivo del modelo, la variable a conservar sería la edad, eliminándose, por tanto, la variable experiencia, ya que las variaciones de la productividad quedan recogidas por la variable edad en el caso de los varones. Así, por tanto, la especificación adecuada para la submuestra de varones será ln SiV = γ 0 + γ 1EiV + γ 2 NEiV + γ 3 EXPiV + U iV El estimador de γ 1 será sesgado, debido a la omisión de la variable relevante EXP, pero, sin embargo, su error cuadrático medio puede ser menor que el correspondiente al estimador del parámetro de la variable edad en el modelo que incluye también la variable experiencia. En el apartado correspondiente a Errores de Especificación, se demuestra que la razón entre los errores cuadráticos medios (ECM) de ambos estimadores depende del coeficiente de correlación entre las variables implicadas y el estadístico t «verdadero» correspondiente a la variable omitida (en nuestro caso, la experiencia).
Aumento del tamaño de la muestra Teniendo en cuenta que un cierto grado de multicolinealidad acarrea problemas cuando aumenta ostensiblemente la varianza muestral de los estimadores, las soluciones deben ir encaminadas a reducir esta varianza.
Existen dos vías: por un lado, se puede aumentar la variabilidad a lo largo de la muestra de los regresores colineales introduciendo observaciones adicionales. Esta solución no siempre es viable, puesto que los datos utilizados en las contrastaciones empíricas proceden generalmente de fuentes estadísticas diversas, interviniendo en contadas ocasiones el/la económetra en la recogida de información.
Por otro lado, cuando se trate de diseños experimentales, se podrá incrementar directamente la variabilidad de los regresores sin necesidad de incrementar el tamaño de la muestra.
Finalmente, conviene no olvidar que el término de perturbación no debe contener ningún factor que sea realmente relevante para la explicación de las variaciones del regresando, con el fin de reducir todo lo posible la varianza del término de perturbación.
Utilización de información extramuestral Otra posibilidad es la utilización de información extramuestral, bien estableciendo restricciones sobre los parámetros del modelo, bien aprovechando estimadores procedentes de otros estudios.
El establecimiento de restricciones sobre los parámetros del modelo reduce el número de parámetros a estimar y, por tanto, palia las posibles deficiencias de la información muestral. En cualquier caso, para que estas restricciones sean útiles deben estar inspiradas en el propio modelo teórico o, al menos, tener un significado económico.
Ejemplo 5.3. Considérese la siguiente función de ventas: Vt = β 0 + β1Pt + β 2GPt + β 3GPt −1 + β 4GPt −2 + β 5GPt −3 + u t Las ventas de una empresa en el momento t (Vt) dependen de un índice de precios (Pt) y de los gastos en publicidad (GPt) correspondientes al período corriente, así como de los gastos en publicidad retardados uno, dos y tres períodos (GPt-1, GPt-2 y GPt-3, respectivamente).
La variable gasto en publicidad está representada en el modelo mediante cuatro regresores, entre los que generalmente se da un alto grado de multicolinealidad.
Eliminar las variables retardadas correspondientes a los gastos en publicidad no sería adecuado, teniendo en cuenta que la publicidad no solamente produce un impacto instantáneo, sino que tendrá efectos en los períodos siguientes, aunque dichos efectos sean cada vez menores.
Parece evidente que se puede establecer una relación entre los parámetros β 2 , β 3 , β 4 y β 5 del modelo de ventas. Caben dos posibilidades: en primer lugar, propugnar una ley de decrecimiento de los mencionados parámetros (decrecimiento de tipo aritmético, exponencial, etc.), lo que dará lugar a una restricción en dicho subconjunto de parámetros del modelo, y estimar el modelo sujeto a dicha restricción.
En este caso, el número de parámetros se ha reducido drásticamente, y, por tanto, se paliará la insuficiencia de la información muestral que teníamos inicialmente.
En segundo lugar, puesto que los estimadores de los gastos en publicidad correspondientes a los diferentes períodos serán muy poco precisos, se podría obtener una estimación del efecto a largo plazo de los gastos en publicidad sobre las ventas que sería la suma de los coeficientes estimados, βˆ 2 + βˆ 3 + βˆ 4 + βˆ 5 . Dicho efecto a largo plazo tiene una interpretación económica de gran utilidad.
A menudo nos encontramos con que el problema objeto de estudio ha sido ya analizado por diferentes investigadores e investigadoras utilizando datos correspondientes a otros períodos de tiempo, o datos de corte transversal. En este sentido, si se dispone de estimaciones en las que se ha utilizado otro conjunto de datos, se pueden incorporar dichas estimaciones en el modelo objeto de estudio.
Utilización de ratios o primeras diferencias Cuando el problema de la multicolinealidad se presenta en una muestra de serie temporal, la tendencia aproximadamente común (o del mismo orden) en los regresores podría ser la principal responsable de dicho problema.
En este caso, si estimásemos el modelo utilizando todas las variables en primeras diferencias, la correlación entre los regresores del modelo disminuiría.
Alternativamente, se podrían utilizar ratios donde la variable del denominador de éstos sería uno de los regresores colineales.
Las soluciones de este tipo resultan muy atractivas, por su sencillez de aplicación. Sin embargo, las transformaciones de las variables originales del modelo utilizando ratios y primeras diferencias deben hacerse con cuidado, ya que esta práctica puede provocar otro tipo de problemas.
Suponiendo admisibles las hipótesis básicas con respecto a las perturbaciones originales del modelo, ambas transformaciones modificarían implícitamente dichas hipótesis básicas, de tal manera que las perturbaciones del modelo transformado utilizando ratios ya no serían perturbaciones homoscedásticas, sino heteroscedásticas.
Por otra parte, la transformación por diferencias daría lugar a perturbaciones autocorrelacionadas. Si, por el contrario, partimos de hipótesis no básicas respecto al comportamiento de las perturbaciones aleatorias del modelo original, este tipo de soluciones pueden resultar adecuadas para resolver conjuntamente ambos tipos de problemas.
...