tema_2 Flashcards
(48 cards)
¿Qué es una Máquina de Vectores Soporte (SVM)?
Es un clasificador no paramétrico basado en funciones discriminantes lineales que busca encontrar un hiperplano óptimo para separar dos clases.
¿Cómo se define el margen en un clasificador SVM?
Es la distancia entre el hiperplano de separación y los puntos más cercanos de cada clase, llamados vectores soporte.
¿Qué problema soluciona el método Soft Margin en SVM?
Permite manejar datos que no son linealmente separables, introduciendo una variable de holgura para minimizar errores de predicción.
¿Para qué se usa la técnica del kernel en SVM?
Se usa para transformar datos no separables linealmente en un espacio de mayor dimensión donde sí puedan separarse.
¿Qué es el parámetro C en SVM?
Es un hiperparámetro que regula la penalización de los errores de clasificación y el ancho del margen.
¿Cómo funciona el algoritmo Random Forest?
Combina múltiples árboles de decisión entrenados en subconjuntos aleatorios de datos para mejorar la precisión y reducir el sobreajuste.
¿Cómo se diferencian Bagging y Boosting?
Bagging entrena clasificadores en paralelo con datos muestreados aleatoriamente, mientras que Boosting entrena secuencialmente, dando más peso a errores anteriores.
¿Cuál es la principal ventaja de AdaBoost frente a otros algoritmos de clasificación?
Mejora la precisión combinando clasificadores débiles en una decisión final ponderada.
¿SVM solo funciona con problemas de clasificación binaria? (Sí/No)
No, puede adaptarse a problemas multiclase con estrategias como One-vs-Rest.
¿El hiperplano óptimo en SVM maximiza el margen entre clases? (Sí/No)
Sí.
¿El parámetro C en SVM controla la rigidez del margen? (Sí/No)
Sí.
¿El kernel lineal es el único disponible en SVM? (Sí/No)
No, también existen el polinomial, gaussiano y RBF, entre otros.
¿El algoritmo Random Forest es un método de Bagging? (Sí/No)
Sí.
¿AdaBoost entrena sus clasificadores en paralelo? (Sí/No)
No, lo hace de manera secuencial.
¿Un valor alto de gamma en SVM con kernel RBF genera una frontera de decisión más curva? (Sí/No)
Sí.
¿Bagging reduce la varianza de un modelo? (Sí/No)
Sí.
En SVM, los puntos más cercanos al hiperplano se llaman ____.
vectores soporte.
La función del kernel en SVM permite transformar los datos a un espacio de mayor ____.
dimensión.
Un margen más ancho en SVM reduce el ____, pero puede aumentar el ____.
sobreajuste, error de clasificación.
El algoritmo Random Forest usa múltiples ____ de decisión entrenados en subconjuntos de datos.
árboles.
Boosting ajusta el peso de cada ____ en función de su precisión.
clasificador débil.
AdaBoost pondera cada clasificador en función de su ____.
error de predicción.
En Random Forest, el uso de diferentes subconjuntos de datos se conoce como ____.
bootstrapping.
En Boosting, los clasificadores posteriores intentan corregir los errores de los ____.
anteriores.