ganancia de tono

Tener una piel radiante y tonificada es el sueño de muchas personas, pero lograrlo puede parecer toda una odisea. Sin embargo, con el nuevo método revolucionario conocido como «ganancia de tono», este sueño está al alcance de todos. En este artículo, te revelaremos los secretos detrás de esta técnica que ha conquistado el mundo de la belleza y te enseñaremos cómo puedes beneficiarte de ella. No te pierdas esta oportunidad de descubrir cómo conseguir un tono de piel envidiable de manera sencilla y efectiva. ¡Comencemos!

Un método para construir modelos predictivos.

Más de 1,8 millones de profesionales utilizan CFI para aprender contabilidad, análisis financiero, modelado y más. Comience con una cuenta gratuita para explorar más de 20 cursos siempre gratuitos y cientos de plantillas financieras y hojas de trucos.

¿Qué es el aumento de gradiente?

El aumento de gradiente es una técnica para construir modelos predictivos. La técnica se utiliza principalmente en procesos de regresión y clasificación. Los modelos de predicción suelen representarse como árboles de decisión para seleccionar la mejor predicción. Al igual que con otros métodos de impulso, la construcción de modelos en el impulso de gradiente es gradual y al mismo tiempo permite la generalización y optimización de funciones de pérdida diferenciables.

ganancia de tono

El concepto de aumento de gradiente proviene del estadístico estadounidense Leo Breiman, quien descubrió que la técnica se puede aplicar como algoritmo de optimización a las funciones de costos correspondientes. El método se desarrolló aún más para optimizar las funciones de costos mediante la selección iterativa de hipótesis débiles o una función de gradiente negativo.

Resumen

  • El aumento de gradiente es un método para construir modelos predictivos.
  • Las técnicas de regularización se utilizan para reducir los efectos del sobreajuste y eliminar la degradación garantizando que el proceso de ajuste esté restringido.
  • El algoritmo de aumento de gradiente estocástico es más rápido que el método tradicional de aumento de gradiente porque los árboles de regresión ahora requieren el ajuste de conjuntos de datos más pequeños.

Tamaños de árboles

Tome j como parámetro en el aumento de gradiente, que indica los nodos finales del número de árbol. El parámetro j es ajustable dependiendo de los datos que se procesan y controla la frecuencia con la que interactúan las variables en un modelo. Si hay dos puntos de decisión, es decir, j = 2, no se permiten interacciones entre variables en el modelo.

Cuando los valores de decisión aumentan a tres, es decir, j=3, los efectos de interacción solo se permiten para hasta dos variables. Dependiendo del número de tomas de decisión, la tendencia continúa de esta manera.

Sin embargo, el número más adecuado de puntos de decisión es entre cuatro y ocho puntos de decisión. Los puntos de decisión inferiores a cuatro no son suficientes para la mayoría de las aplicaciones, mientras que los puntos de decisión superiores a ocho son demasiados e innecesarios.

Regularización de aumento de gradiente

Cuando los conjuntos de entrenamiento se ajustan demasiado, tienden a degradar su capacidad para generalizar un modelo. Las técnicas de regularización reducen el efecto de sobreajuste y evitan la degradación al garantizar que el proceso de ajuste sea limitado.

Un parámetro de regularización popular es M, que indica el número de iteraciones de aumento de gradiente. M representa el número de árboles de decisión en todo el modelo cuando el árbol de decisión es el alumno base.

Una mayor cantidad de iteraciones de aumento de gradiente reduce los errores del conjunto de entrenamiento. Aumentar demasiado el número de gradientes, aumentar las iteraciones y aumentar el sobreajuste. Monitorear el error de predicción en un conjunto de datos de validación específico puede ayudar a seleccionar el valor óptimo para la cantidad de iteraciones de aumento de gradiente.

Además de utilizar el número de iteraciones de refuerzo de gradientes como parámetro de regularización, se puede utilizar la profundidad de los árboles como parámetro de regularización eficiente. A medida que aumenta la profundidad de los árboles, es probable que el modelo se ajuste demasiado a los datos de entrenamiento.

El gradiente aumenta la contracción

La contracción es un método de regularización que aumenta el gradiente y ayuda a cambiar la regla de actualización respaldada por un parámetro llamado tasa de aprendizaje. El uso de tasas de aprendizaje inferiores a 0,1 da como resultado mejoras que son importantes para la generalización de un modelo.

Las mejoras espectaculares se observan en el aumento de gradiente sin contracción, donde el parámetro de tasa de aprendizaje es igual a 1. Sin embargo, se aumenta el tiempo de cálculo, lo que resulta más costoso en consultas y formación. Porque cuando la tasa de aprendizaje es baja, aumenta el número de iteraciones necesarias.

Aumento del gradiente estocástico

Friedman se sintió motivado a proponer una mejora en el algoritmo de aumento de gradiente mediante la técnica de ensacado o agregación bootstrap de Breiman. Friedman sugirió que el algoritmo podría mejorarse haciendo coincidir las iteraciones de los alumnos base con las respectivas submuestras y que el conjunto de entrenamiento podría seleccionarse aleatoriamente sin sustitución. La modificación desde la perspectiva de Friedman mejoró significativamente la precisión del algoritmo.

El tamaño de una submuestra es una fracción constante del tamaño del conjunto de entrenamiento. Si la submuestra es igual a 1, el algoritmo se vuelve determinista. Cuando los valores de la submuestra son pequeños, el algoritmo experimenta aleatoriedad, lo que reduce la posibilidad de sobreajuste. También actúa como un método de regularización conocido como aumento de gradiente estocástico.

El algoritmo de aumento de gradiente estocástico es más rápido que el algoritmo de aumento de gradiente tradicional. El algoritmo es más rápido porque el Árboles de regresión Ahora es necesario incluir conjuntos de datos más pequeños en cada iteración, a diferencia de los conjuntos de datos más grandes del método tradicional.

El submuestreo es similar al embolsado, donde permite definir errores fuera de bolsa para mejorar el rendimiento de la predicción. Al evaluar predicciones anteriores, los alumnos básicos pueden corregir las deficiencias para mejorar la predicción actual. Estimar los errores fuera de bolsa ayuda a evitar la validación independiente de conjuntos de datos.

Penalizar la complejidad del árbol

Otro método para aumentar el gradiente es penalizar la complejidad de los árboles. La complejidad de un modelo se puede definir como el número proporcional de hojas de un árbol. La optimización del modelo se puede realizar podando los árboles para reducir la complejidad del modelo, eliminando así todas las ramas que no pueden alcanzar el umbral de pérdida.

Recursos adicionales

Gracias por leer la guía de CFI para aumentar el gradiente. Para avanzar aún más en su carrera, los siguientes recursos adicionales de CFI le resultarán útiles:

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

Deja un comentario

¡Contenido premium bloqueado!

Desbloquear Contenido
close-link