Tema4 Flashcards

(48 cards)

1
Q

¿Qué es el descenso del gradiente y para qué se utiliza?

A

Es un algoritmo de optimización utilizado para minimizar funciones, especialmente en aprendizaje automático y redes neuronales.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Explica la analogía entre el descenso del gradiente y el descenso de una montaña.

A

Se compara con bajar una montaña buscando el punto más bajo, donde cada paso se ajusta según la pendiente del terreno.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

¿Cuál es el papel de la tasa de aprendizaje en el descenso del gradiente?

A

Controla el tamaño del paso en cada iteración; si es muy grande, el algoritmo puede no converger, y si es muy pequeño, el proceso será lento.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

¿Por qué es importante que la función objetivo sea derivable en el descenso del gradiente?

A

Porque el algoritmo usa derivadas para calcular la dirección y magnitud del ajuste en cada iteración.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

¿Cómo afecta la convexidad de la función objetivo en la optimización?

A

Si la función es convexa, cualquier mínimo encontrado será el mínimo global; si no lo es, podría ser solo un mínimo local.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

¿Qué diferencia hay entre descenso del gradiente por lotes y estocástico?

A

El primero usa todo el conjunto de datos en cada iteración, mientras que el estocástico actualiza el modelo con cada dato individualmente.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

¿En qué situaciones se recomienda el uso de la entropía cruzada como función de coste?

A

En problemas de clasificación, especialmente cuando se trabaja con distribuciones probabilísticas.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

¿Cómo influye la elección de la función de coste en el rendimiento del descenso del gradiente?

A

Diferentes funciones de coste pueden afectar la estabilidad y la convergencia del algoritmo según el problema a resolver.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

La tasa de aprendizaje constante siempre es la mejor opción en descenso del gradiente. (V/F)

A

Falso. Puede ser más eficiente ajustarla dinámicamente según el problema.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Una función convexa garantiza encontrar un mínimo global. (V/F)

A

Verdadero. En una función convexa, cualquier mínimo encontrado es global.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

La función de coste en aprendizaje supervisado siempre es cuadrática. (V/F)

A

Falso. Existen otras opciones como la entropía cruzada.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

El descenso del gradiente estocástico utiliza todos los datos en cada iteración. (V/F)

A

Falso. Actualiza el modelo con datos individuales.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

El descenso del gradiente se usa en problemas de optimización y aprendizaje automático. (V/F)

A

Verdadero. Es un método ampliamente utilizado en estos campos.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

La entropía cruzada se usa en problemas de regresión. (V/F)

A

Falso. Se usa en clasificación.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Una tasa de aprendizaje demasiado alta puede evitar que el modelo converja. (V/F)

A

Verdadero. Puede hacer que el algoritmo salte entre valores sin estabilizarse.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

El descenso del gradiente por lotes suele ser más lento que el estocástico. (V/F)

A

Verdadero. Procesar todo el conjunto de datos en cada iteración lo hace más lento.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

El descenso del gradiente es un algoritmo de ___________ que minimiza funciones.

A

optimización.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

La ___________ controla el tamaño del paso en cada iteración del descenso del gradiente.

A

tasa de aprendizaje.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Una función convexa garantiza que cualquier mínimo encontrado es ___________.

A

global.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

La función de ___________ mide qué tan bien se ajusta el modelo a los datos.

21
Q

En aprendizaje supervisado, el descenso del gradiente se usa para minimizar el ___________.

22
Q

La entropía cruzada se usa como función de coste en problemas de ___________.

A

clasificación.

23
Q

En descenso del gradiente, un aprendizaje demasiado ___________ puede hacer que el modelo nunca alcance una solución óptima.

24
Q

El descenso del gradiente ___________ actualiza el modelo después de procesar cada muestra individualmente.

A

estocástico.

25
¿Qué controla la tasa de aprendizaje en el descenso del gradiente? A) La cantidad de datos usados B) El número de iteraciones C) El tamaño del paso en cada iteración
El tamaño del paso en cada iteración.
26
¿Cuál es la función de coste más común en clasificación? A) Error cuadrático medio B) Entropía cruzada C) Regresión logística
Entropía cruzada.
27
¿Qué tipo de descenso del gradiente es más rápido pero menos preciso? A) Por lotes B) Estocástico C) Mini-lotes
Estocástico.
28
¿Qué representa el gradiente en una función? A) La pendiente en cada dimensión B) El número de iteraciones necesarias C) La función objetivo
La pendiente en cada dimensión.
29
¿Qué significa que una función sea convexa? A) Que tiene múltiples mínimos locales B) Que cualquier mínimo encontrado es global C) Que no es derivable
Que cualquier mínimo encontrado es global.
30
¿Qué puede ocurrir si la tasa de aprendizaje es muy alta? A) El modelo converge rápido B) El modelo no convergerá C) No afecta el aprendizaje
El modelo no convergerá.
31
¿Cuál es una desventaja del descenso del gradiente por lotes? A) Es más lento B) No usa toda la información C) Genera resultados inestables
Es más lento.
32
¿Cuál es la función del gradiente en el descenso del gradiente? A) Indicar la dirección de mayor incremento B) Indicar la dirección de menor incremento C) Indicar la tasa de aprendizaje
Indicar la dirección de menor incremento.
33
Define el descenso del gradiente.
Es un algoritmo de optimización usado para minimizar funciones mediante ajustes iterativos.
34
¿Qué es la función de coste?
Es una función que mide el error del modelo y guía su optimización.
35
¿Qué es la convexidad de una función?
Es una propiedad que asegura que cualquier mínimo encontrado es global.
36
¿Cómo afecta la tasa de aprendizaje al proceso de optimización?
Determina la velocidad y estabilidad del ajuste del modelo.
37
¿Cuál es la diferencia entre descenso por lotes y estocástico?
El primero usa todos los datos, el segundo los procesa uno a uno.
38
¿Por qué la entropía cruzada es útil en clasificación?
Porque mide la diferencia entre distribuciones probabilísticas.
39
¿Qué problema tiene una función de coste con valles?
El gradiente varía muy poco y ralentiza la convergencia.
40
¿Cómo se ajusta la tasa de aprendizaje dinámicamente?
Disminuyéndola en función del número de iteraciones y el gradiente.
41
¿Por qué el descenso del gradiente es útil en aprendizaje automático?
Porque permite optimizar funciones de coste en modelos supervisados, ajustando parámetros para minimizar errores y mejorar la precisión de predicción.
42
Explica la diferencia entre el descenso del gradiente por lotes, estocástico y mini-batch.
El descenso por lotes usa todo el conjunto de datos en cada iteración, el estocástico usa una muestra individual a la vez y el mini-batch usa pequeños subconjuntos, combinando precisión y velocidad.
43
¿Qué consecuencias tiene elegir una tasa de aprendizaje demasiado alta o demasiado baja?
Una tasa muy alta puede hacer que el modelo no converja, mientras que una muy baja puede ralentizar demasiado el proceso y quedar atrapado en mínimos locales.
44
¿Por qué la función de coste debe ser derivable en el descenso del gradiente?
Porque el algoritmo usa el gradiente para calcular la dirección y magnitud del ajuste en cada iteración, lo que no es posible si la función no tiene derivada.
45
¿Cómo se evita quedar atrapado en un mínimo local en el descenso del gradiente?
Se pueden usar múltiples puntos de inicio, reducir gradualmente la tasa de aprendizaje o usar técnicas avanzadas como momentum o descenso adaptativo.
46
¿Por qué la convexidad de la función afecta la optimización con descenso del gradiente?
En funciones convexas, cualquier mínimo encontrado es global, mientras que en funciones no convexas, el algoritmo podría detenerse en mínimos locales sin encontrar la mejor solución.
47
¿Cómo influye la elección de la función de coste en la eficacia del descenso del gradiente?
Una función de coste mal elegida puede hacer que el modelo no aprenda correctamente. Por ejemplo, en clasificación se prefiere la entropía cruzada, mientras que en regresión se usa el error cuadrático medio.
48
¿Qué estrategias pueden mejorar la eficiencia del descenso del gradiente en problemas con grandes volúmenes de datos?
Usar mini-batch gradient descent, reducir la tasa de aprendizaje dinámicamente y aplicar técnicas como el descenso acelerado con momentum o optimizadores adaptativos como Adam.