Aumentar

Aumentar es uno de los deseos más comunes en la vida de las personas. Ya sea aumentar nuestros ingresos, nuestro conocimiento o nuestra felicidad, siempre buscamos la manera de crecer y mejorar. En este artículo, exploraremos distintas formas de aumentar en diferentes aspectos de la vida. Descubre cómo alcanzar tus metas y superarte a ti mismo en todas las áreas. ¡Prepárate para el crecimiento personal y profesional más emocionante!

Un algoritmo que ayuda a reducir la variación y el sesgo en un conjunto de aprendizaje automático

Más de 1,8 millones de profesionales utilizan CFI para aprender contabilidad, análisis financiero, modelado y más. Comience con una cuenta gratuita para explorar más de 20 cursos siempre gratuitos y cientos de plantillas financieras y hojas de trucos.

¿Qué es impulsar?

Boosting es un algoritmo que ayuda a reducir la variación y el sesgo en un conjunto de aprendizaje automático. El algoritmo ayuda a convertir a los alumnos débiles en alumnos fuertes combinando N alumnos.

Aumentar
Fuente: siracornio [CC BY-SA]

El impulso también puede mejorar las predicciones de los modelos para los algoritmos de aprendizaje. Los alumnos débiles son corregidos gradualmente por sus predecesores y transformados en alumnos fuertes.

Formas de impulso

El impulso puede adoptar varias formas, entre ellas:

1. Impulso adaptativo (Adaboost)

Adaboost tiene como objetivo fusionar varios alumnos débiles en un único alumno fuerte. Adaboost se centra en los alumnos débiles, que a menudo son árboles de decisión de una sola división, comúnmente conocidos como fragmentos de decisión. El primer fragmento de decisión en Adaboost contiene observaciones que tienen el mismo peso.

Los errores anteriores se corrigen y cualquier observación que haya sido mal clasificada recibe más peso que otras observaciones que no tuvieron un error en la clasificación. Los algoritmos Adaboost se utilizan a menudo en procesos de regresión y clasificación. El error encontrado en modelos anteriores se ajusta mediante ponderación hasta que se crea un predictor preciso.

2. Aumento del gradiente

Como cualquier otra técnica de aprendizaje automático de conjuntos, el aumento de gradiente implica agregar predictores al conjunto uno a la vez y seguir el orden de corrección de los predictores anteriores para llegar a un predictor preciso al final de la técnica. Adaboost corrige sus errores anteriores ajustando los pesos para cada observación incorrecta en cada iteración. Sin embargo, el aumento de gradiente tiene como objetivo encajar un nuevo predictor en los errores residuales cometidos por el predictor anterior.

El aumento de gradiente utiliza el descenso de gradiente para identificar los desafíos en las predicciones utilizadas anteriormente por los alumnos. El error anterior se resalta y, al combinar un alumno débil con el siguiente, el error se reduce significativamente con el tiempo.

3. XGBoost (aumento de gradiente extremo)

XGBoostimg implementa árboles de decisión con mayor gradiente, rendimiento y velocidad mejorados. La implementación de máquinas de impulso de gradiente es relativamente lenta debido al entrenamiento del modelo que debe seguir una secuencia. Por tanto, debido a su lentitud, carecen de escalabilidad.

XGBoost se basa en el rendimiento de un modelo y la velocidad informática. Ofrece varias ventajas, como paralelización, computación distribuida, optimización de caché y computación fuera del núcleo.

XGBoost proporciona paralelización en la construcción de árboles mediante el uso de núcleos de CPU durante el entrenamiento. También distribuye la computación al entrenar modelos grandes utilizando grupos de máquinas. La computación fuera del núcleo se utiliza para conjuntos de datos más grandes que no caben en el tamaño de almacenamiento tradicional. La optimización de la caché también se utiliza para algoritmos y estructuras de datos para optimizar el uso del hardware disponible.

Ventajas y desventajas del impulso.

Como modelo de conjunto, Boosting tiene un algoritmo fácil de leer e interpretar, lo que hace que las interpretaciones de predicciones sean fáciles de manejar. La capacidad de predicción es eficiente mediante el uso de métodos de clonación como el ensacado o el bosque aleatorio y los árboles de decisión. El impulso es un método sólido que frena fácilmente el sobreajuste.

Una desventaja del impulso es que es sensible a los valores atípicos porque se requiere que cada clasificador corrija los errores de sus predecesores. Por lo tanto, el método depende demasiado de los valores atípicos. Otra desventaja es que el método es difícilmente escalable. Esto se debe a que la precisión de cada estimador se basa en los predictores anteriores, lo que dificulta la agilización del proceso.

¿Qué son los árboles de opciones?

Los árboles de opciones reemplazan a los árboles de decisión. Representan clasificadores de conjuntos al tiempo que infieren una estructura única. La diferencia entre árboles de opciones y árboles de decisión es que el primero incluye nodos de opción y nodos de decisión, mientras que el segundo solo incluye nodos de decisión.

Clasificar una instancia requiere filtrar a través del árbol. Se requiere un nodo de decisión para seleccionar una de las ramas, mientras que un nodo de opción debe tomar el conjunto completo de ramas. Esto significa que con un nodo de opciones terminas con varias hojas que tendrían que combinarse en una clasificación para obtener una predicción al final. Por lo tanto, se requiere votación en el proceso, donde una mayoría de votos significa que el nodo ha sido seleccionado como predicción para este proceso.

El proceso anterior deja claro que los nodos de opción no deberían tener dos opciones porque si no encuentran un ganador claro, terminarán perdiendo la votación. La otra opción es promediar las estimaciones de probabilidad de diferentes caminos siguiendo enfoques como el enfoque bayesiano o el método del promedio no ponderado.

Los árboles de opciones también se pueden desarrollar modificando los aprendices de los árboles de decisión existentes o creando un nodo de opciones en el que se correlacionen múltiples divisiones. Cualquier árbol de decisión dentro de un límite de tolerancia permitido se puede convertir en árboles de opciones.

Más recursos

Para desarrollar y mejorar aún más sus conocimientos de inteligencia empresarial, recomendamos encarecidamente los siguientes recursos adicionales de CFI:

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

Deja un comentario

¡Contenido premium bloqueado!

Desbloquear Contenido
close-link