Tema4 Flashcards
(48 cards)
¿Qué es el descenso del gradiente y para qué se utiliza?
Es un algoritmo de optimización utilizado para minimizar funciones, especialmente en aprendizaje automático y redes neuronales.
Explica la analogía entre el descenso del gradiente y el descenso de una montaña.
Se compara con bajar una montaña buscando el punto más bajo, donde cada paso se ajusta según la pendiente del terreno.
¿Cuál es el papel de la tasa de aprendizaje en el descenso del gradiente?
Controla el tamaño del paso en cada iteración; si es muy grande, el algoritmo puede no converger, y si es muy pequeño, el proceso será lento.
¿Por qué es importante que la función objetivo sea derivable en el descenso del gradiente?
Porque el algoritmo usa derivadas para calcular la dirección y magnitud del ajuste en cada iteración.
¿Cómo afecta la convexidad de la función objetivo en la optimización?
Si la función es convexa, cualquier mínimo encontrado será el mínimo global; si no lo es, podría ser solo un mínimo local.
¿Qué diferencia hay entre descenso del gradiente por lotes y estocástico?
El primero usa todo el conjunto de datos en cada iteración, mientras que el estocástico actualiza el modelo con cada dato individualmente.
¿En qué situaciones se recomienda el uso de la entropía cruzada como función de coste?
En problemas de clasificación, especialmente cuando se trabaja con distribuciones probabilísticas.
¿Cómo influye la elección de la función de coste en el rendimiento del descenso del gradiente?
Diferentes funciones de coste pueden afectar la estabilidad y la convergencia del algoritmo según el problema a resolver.
La tasa de aprendizaje constante siempre es la mejor opción en descenso del gradiente. (V/F)
Falso. Puede ser más eficiente ajustarla dinámicamente según el problema.
Una función convexa garantiza encontrar un mínimo global. (V/F)
Verdadero. En una función convexa, cualquier mínimo encontrado es global.
La función de coste en aprendizaje supervisado siempre es cuadrática. (V/F)
Falso. Existen otras opciones como la entropía cruzada.
El descenso del gradiente estocástico utiliza todos los datos en cada iteración. (V/F)
Falso. Actualiza el modelo con datos individuales.
El descenso del gradiente se usa en problemas de optimización y aprendizaje automático. (V/F)
Verdadero. Es un método ampliamente utilizado en estos campos.
La entropía cruzada se usa en problemas de regresión. (V/F)
Falso. Se usa en clasificación.
Una tasa de aprendizaje demasiado alta puede evitar que el modelo converja. (V/F)
Verdadero. Puede hacer que el algoritmo salte entre valores sin estabilizarse.
El descenso del gradiente por lotes suele ser más lento que el estocástico. (V/F)
Verdadero. Procesar todo el conjunto de datos en cada iteración lo hace más lento.
El descenso del gradiente es un algoritmo de ___________ que minimiza funciones.
optimización.
La ___________ controla el tamaño del paso en cada iteración del descenso del gradiente.
tasa de aprendizaje.
Una función convexa garantiza que cualquier mínimo encontrado es ___________.
global.
La función de ___________ mide qué tan bien se ajusta el modelo a los datos.
coste.
En aprendizaje supervisado, el descenso del gradiente se usa para minimizar el ___________.
error.
La entropía cruzada se usa como función de coste en problemas de ___________.
clasificación.
En descenso del gradiente, un aprendizaje demasiado ___________ puede hacer que el modelo nunca alcance una solución óptima.
pequeño.
El descenso del gradiente ___________ actualiza el modelo después de procesar cada muestra individualmente.
estocástico.