Ciencia y Sociedad

Investigadores UdeC desarrollan un nuevo método estadístico

Trabajo ejecutado junto a expertos de España se centra en afrontar la ausencia de un supuesto que es fundamental del modelamiento de datos con dependencia temporal y realizar predicciones confiables.

Por: Natalia Quiero 25 de Diciembre 2021
Fotografía: Guillermo Ferreira y Joel Muñoz

“Estacionariedad” se llama uno de los supuestos fundamentales para el modelamiento de datos registrados secuencialmente en el tiempo e investigadores del Departamento de Estadística de la Universidad de Concepción (UdeC) participaron de un trabajo de colaboración internacional que creó una nueva metodología estadística para enfrentar la ausencia de este supuesto.

Los doctores Guillermo Ferreira y Joel Muñoz son los académicos de la casa de estudios penquista que integraron el grupo del que también fueron parte Jorge Mateu de la Universidad Jaime I y José Vilar de la Universidad de La Coruña, ambas de España, que realizó una investigación de dos años que derivó en el desarrollo de la herramienta, hito publicado de manera reciente en la prestigiosa revista científica de la disciplina “Test” a través del artículo “Bootstrapping Regression Models with Locally Stationary Disturbances” (“Modelos de regresión Bootstrap con errores localmente estacionarias”, en español).

Supuesto, ausencia e impacto

Para comprender el potencial de impacto del avance, primero hay que centrarse en la estacionariedad, sobre la que el doctor Guillermo Ferreira, director del Departamento de Estadística, resalta que “sin este supuesto no se pueden utilizar las metodologías tradicionales para enfrentar datos con dependencia temporal y realizar predicciones confiables”.

El punto es que la mayoría de las bases de datos con registros en el tiempo no cumplen con este supuesto, es decir, son lo que se conocen como “datos no-estacionarios”. Ello se traduce en que muchos investigadores realizan transformaciones a los datos para poder conseguir la anhelada propiedad de la estacionariedad.

Como ejemplo el experto plantea que en el campo de la econometría, que aplica métodos estadísticos al estudio de la economía, puede suceder que bajo no-estacionariedad los estimadores de mínimos cuadrados sean significativos cuando no lo son (falso positivo) y ello llevar a los analistas a dar conclusiones erróneas sobre cierto fenómeno. “En este contexto, nuestro trabajo proporciona una metodología para determinar con mayor exactitud el grado de dependencia de ciertas variables bajo el supuesto de no-estacionariedad”, asevera Ferreira, evitando así llegar a conclusiones que son equivocadas, sino que conducir a realizar predicciones confiables.

Al respecto, es importante aclarar que el grupo de científicos de Chile y España aporta con una herramienta estadística aplicable a modelos matemáticos de regresión, aquellos que permiten relacionar de manera lineal variables observacionales. Las variables registradas secuencialmente en el tiempo son un conjunto de datos que se registran en un periodo de tiempo fijo, es decir, todas las observaciones deben tener la misma unidad de medida temporal como por ejemplo diaria, mensual o anual. En la práctica, entre estos registros se encuentran el Índice de precios al consumidor (IPC), precio del cobre o de las acciones y la temperatura.

Sobre ello, el investigador precisa que “la propuesta del paper es conseguir las estimaciones de los parámetros del modelo de regresión mediante la técnica de mínimos cuadrados ordinarios”, la que aclara que es muy usada por los econometristas para estimar los efectos “ceteris paribus” de una variable, término que aplicado a la economía significa “con los demás factores constantes”.

El estudio

Para lograr la creación del nuevo método estadístico, durante los años de desarrollo de la investigación los científicos utilizaron tres herramientas distintas.

En este sentido, el grupo reconoce que el trabajo que han realizado cohesiona metodologías que antes requerían una enorme carga computacional, entre las que están las Bootstrap, una técnica de remuestreo que permite obtener las distribuciones empíricas o muestrales de las principales características estadísticas de los datos y que se propuso en el siglo XX, y también el modelamiento de procesos localmente estacionarios.

Y para dar solución a dicha dificultad es que los autores del artículo usaron técnicas de paralelización computacional, es decir, la utilización de múltiples núcleos (cores de computador) para trabajar simultáneamente en diferentes partes de un problema, el cual reduce los tiempos de cómputo, logrando ser más eficiente o lo que se conoce como computación de alto rendimiento. 

Etiquetas

Notas Relacionadas