Clase 8 - Ensambles y boosting Flashcards
(6 cards)
Bagging y Boosting trabajan de forma distinta. ¿Cómo es cada uno?
Bagging trabaja de forma paralela (hace varias cosas “al lado de otra” y junta los resultados), mientras que boosting trabaja de forma secuencial (cada paso entrena sobre lo del paso anterior).
¿Cuál es la idea básica de Boosting?
(Los pasos genéricos con los que trabaja)
- Entrena un árbol de decisión
- Se fija en qué observaciones predijo mal
- Construye un segundo árbol de decisión, enfocándose en las observaciones que predijo mal antes
- Como predicción final, toma una cierta combinación entre las predicciones anteriores
Dentro de un algoritmo de boosting. ¿Cómo son los árboles individuales?
Suelen ser pequeños y con pocos cortes
¿Por qué es difícil de paralelizar un algoritmo de boosting?
Porque cada árbol nuevo adicional depende de lo que predijeron los anteriores. Entonces, para empezar el árbol nuevo, el anterior debe estar terminado.
¿Cómo maneja XGBoost los valores faltantes?
Para cada variable, se fija cuál es la ganancia máxima si pasa los missings a la derecha, y cuál es la ganancia máxima si pasa los missings a la izquierda. Se elije el caso que mayor ganancia genere.
(Sparcity aware split-finding)
¿Cuáles son los hiperparámetros más importantes de XGBoost?
- nrounds: número de árboles
- max_depth: profundidad máxima de los árboles
- eta: learning rate
- gamma: mínima reducción del error para generar un corte
- lambda: parámetro de regularización
- colsample_bytree: variables a muestrear y considerar en cada árbol
- min_child_weight: mínima cantidad de observaciones en los hijos para considerar un corte
- subsample: muestreo de observaciones a considerar en cada árbol