cresta

Cresta: Descubre la Nueva Revolución en el Diseño de Páginas Web

Bienvenidos al fascinante mundo de Cresta, la plataforma innovadora que está causando revuelo en la industria del diseño web. Si alguna vez te has preguntado cómo darle un aspecto moderno y elegante a tu página, Cresta es la respuesta que estabas buscando. En este artículo, exploraremos cómo esta nueva herramienta puede transformar por completo la apariencia de tu sitio web, sin necesidad de ser un experto en diseño. ¡Prepárate para deslumbrar a tus visitantes con una estética de vanguardia y una experiencia de usuario excepcional!

Una técnica para eliminar la multicolinealidad en modelos de datos.

Más de 1,8 millones de profesionales utilizan CFI para aprender contabilidad, análisis financiero, modelado y más. Comience con una cuenta gratuita para explorar más de 20 cursos siempre gratuitos y cientos de plantillas financieras y hojas de trucos.

¿Qué es una cresta?

La regresión de crestas es el método para analizar la multicolinealidad en datos de regresión múltiple. Funciona mejor cuando un conjunto de datos contiene más variables predictivas que observaciones. El segundo mejor escenario es cuando ocurre multicolinealidad en una multitud.

cresta

La multicolinealidad ocurre cuando las variables predictoras tienen correlación entre sí. La regresión de cresta tiene como objetivo reducir el error estándar agregando cierto sesgo a las estimaciones de la regresión. La reducción del error estándar en las estimaciones de regresión aumenta significativamente la confiabilidad de las estimaciones.

Resumen

  • La regresión de crestas es una técnica para eliminar la multicolinealidad en modelos de datos.
  • En el caso de que haya menos observaciones que variables predictivas, la regresión de crestas es la técnica más adecuada.
  • Las variables de restricción de regresión de margen forman una forma circular cuando se trazan, a diferencia del gráfico LASSO que tiene forma de diamante.

Estandarización de variables en la regresión de crestas.

La estandarización de variables es el primer procedimiento en la regresión de crestas. Tanto las variables independientes como las dependientes requieren estandarización restando sus valores promedio y dividiendo el resultado por las desviaciones estándar. Es una práctica común indicar en una fórmula si las variables que contiene están estandarizadas o no.

Por lo tanto, todos los cálculos de regresión de crestas utilizan variables estandarizadas para evitar la anotación sobre si las variables individuales han sido estandarizadas. Los coeficientes se pueden restablecer a sus escalas originales al final.

Regresión de cresta versus mínimos cuadrados

La regresión de crestas es un mejor predictor que la regresión de mínimos cuadrados cuando las variables predictivas son mayores que las observaciones. Los mínimos cuadrados no pueden distinguir entre variables predictoras más y menos útiles e incluyen todos los predictores al desarrollar un modelo. Esto reduce la precisión del modelo, lo que provoca sobreajuste y redundancia.

Todos los desafíos anteriores se abordan mediante Ridge Regression. La regresión de crestas tiene la ventaja de que no requiere estimadores insesgados; más bien, agrega sesgo a los estimadores para reducir el error estándar. Esto añade suficiente sesgo para que las estimaciones sean una representación confiable de la población de datos.

Contracción y regularización

Un estimador de crestas es una herramienta de contracción que se utiliza en la regresión de crestas. Un estimador de contracción es un parámetro que produce nuevos estimadores que se han reducido para obtener un valor más cercano a los parámetros de población reales. Una estimación de mínimos cuadrados se puede reducir utilizando un estimador de cresta para mejorar la estimación, especialmente cuando los datos tienen multicolinealidad.

La regularización en la regresión de crestas implica aplicar una penalización a los coeficientes. Para la contracción, se aplica el mismo factor a los coeficientes. Esto significa que no se omite ningún coeficiente al construir el modelo.

Multicolinealidad

La multicolinealidad es la presencia de una correlación entre variables independientes en datos modelados. Esto puede dar lugar a imprecisiones en las estimaciones de los coeficientes de regresión. También puede aumentar los errores estándar de los coeficientes de regresión y reducir la eficiencia de todas las pruebas t. Puede generar resultados y valores p engañosos y aumentar la redundancia de un modelo, haciendo que su previsibilidad sea ineficiente y menos confiable.

La multicolinealidad se puede introducir en los datos de diversas fuentes, p. B. durante la recopilación de datos, debido a limitaciones del modelo lineal o de población, o un modelo sobredefinido. Huiro especificación o selección del modelo.

La recopilación de datos puede dar lugar a multicolinealidad si se determina utilizando una técnica de muestreo inadecuada. Los datos pueden provenir de un subconjunto más pequeño de lo esperado, de ahí el efecto. Las limitaciones de la población o del modelo causan multicolinealidad debido a restricciones físicas, legales o políticas que son naturales independientemente del tipo de método de muestreo utilizado.

La sobredefinición de un modelo también conduce a la multicolinealidad porque hay más variables que observaciones. Es evitable durante el desarrollo de un modelo. La elección o especificación del modelo también puede resultar en multicolinealidad debido al uso de variables independientes que previamente interactuaron en el conjunto inicial de variables. Los valores atípicos son valores variables extremos que pueden causar multicolinealidad. La multicolinealidad se puede revertir eliminando los valores atípicos antes de aplicar la regresión de crestas.

Detección y corrección de multicolinealidad.

Detectar la multicolinealidad es clave para reducir los errores estándar en los modelos de eficiencia de previsibilidad. En primer lugar, esto se puede ver examinando la correlación de las variables independientes en diagramas de dispersión por pares. Las altas correlaciones por pares de variables independientes pueden indicar la presencia de multicolinealidad.

En segundo lugar, la multicolinealidad se puede detectar considerando los factores de inflación de varianza (VIF). Una puntuación VIF de 10 o más indica que las variables son colineales. En tercer lugar, se puede detectar la multicolinealidad comprobando si los valores propios de la matriz de correlación son cercanos a cero. Se deben utilizar los números de condición, en lugar de utilizar las cantidades numéricas de los valores propios. Cuanto mayores sean los números de condición, mayor será la multicolinealidad.

La corrección de multicolinealidad depende de la causa. Por ejemplo, si la fuente de colinealidad es la recopilación de datos, la corrección implica recopilar datos adicionales de la subpoblación correcta. Si la causa radica en la elección del modelo lineal, la corrección pasa por simplificar el modelo mediante métodos adecuados de selección de variables. Si las causas de la multicolinealidad son observaciones específicas, elimine las observaciones. La regresión de crestas también es un medio eficaz para eliminar la multicolinealidad.

Recursos adicionales

Para avanzar aún más en su carrera, los siguientes recursos adicionales de CFI le resultarán útiles:

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

Deja un comentario

¡Contenido premium bloqueado!

Desbloquear Contenido
close-link