Tema3 Flashcards

(48 cards)

1
Q

¿Cuál es la función principal del algoritmo de regresión lineal OLS?

A

Encontrar una combinación lineal de atributos que minimice el error cuadrático medio (MSE).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

¿Cómo se interpreta el coeficiente w_1 en un modelo de regresión lineal simple?

A

Representa la pendiente de la recta, indicando el cambio en y por cada unidad de cambio en x.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

¿Qué representa el coeficiente de determinación R^2 en regresión lineal?

A

Indica qué porcentaje de la variabilidad de la variable dependiente es explicado por el modelo.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

¿Por qué es importante la tasa de aprendizaje en el descenso de gradiente?

A

Controla la magnitud de los cambios en los coeficientes para minimizar la función de costo.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

¿Qué problemas pueden surgir si los atributos en regresión lineal no son independientes?

A

Puede producirse multicolinealidad, afectando la interpretabilidad y estabilidad del modelo.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

¿Cómo afecta la normalización de los datos a KNN?

A

Mejora la precisión evitando que atributos con escalas mayores dominen el cálculo de distancias.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

¿Cómo se seleccionan los vecinos más cercanos en KNN?

A

Se eligen en función de la menor distancia según una métrica definida, como Minkowski o Euclídea.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

¿Por qué la selección de atributos es crucial en KNN?

A

Reduce la dimensionalidad del problema y mejora la eficiencia y precisión del modelo.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

¿El algoritmo OLS minimiza la suma de errores absolutos? (Sí/No)

A

No, minimiza la suma de los errores al cuadrado.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

¿El valor de R^2 puede ser negativo? (Sí/No)

A

Sí, indica que el modelo es peor que la predicción por media.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

¿El descenso de gradiente garantiza encontrar el óptimo global en todos los casos? (Sí/No)

A

No, en problemas no convexos puede quedar atrapado en mínimos locales.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

¿El modelo KNN requiere un proceso de entrenamiento complejo? (Sí/No)

A

No, solo almacena los datos de entrenamiento.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

¿Un mayor valor de k en KNN siempre mejora la precisión? (Sí/No)

A

No, puede suavizar demasiado la predicción y perder precisión.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

¿Qué función de distancia se usa más comúnmente en KNN?

A

La distancia Euclídea.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

¿El modelo de regresión lineal es adecuado para datos con relaciones no lineales? (Sí/No)

A

No, suposiciones de linealidad limitan su eficacia en esos casos.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

¿El algoritmo KNN puede utilizar pesos en la distancia para mejorar la precisión? (Sí/No)

A

Sí, los pesos pueden ajustar la influencia de cada vecino.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

La función objetivo en OLS es minimizar el ____ de los errores.

A

cuadrado.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

La tasa de aprendizaje en descenso de gradiente controla el ____ de los pasos en cada iteración.

A

tamaño.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

En regresión lineal, el término w_0 representa la ____ de la recta.

A

intersección.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Si R^2=1, significa que el modelo tiene una ____ perfecta.

21
Q

KNN determina la clase o valor de una instancia basándose en sus ____ más cercanos.

22
Q

La distancia de Minkowski se convierte en distancia Euclídea cuando p es ____.

23
Q

La selección de atributos en regresión lineal evita el problema de la ____.

A

multicolinealidad.

24
Q

En KNN, la normalización de los datos es crucial para evitar ____ de ciertos atributos.

25
¿Qué métrica de evaluación NO es usada en regresión lineal? A) MSE B) MAE C) Precisión
C) Precisión
26
¿Cuál de las siguientes es una desventaja de KNN? A) No requiere entrenamiento B) Puede ser lento en predicción C) No utiliza funciones de distancia
B) Puede ser lento en predicción
27
¿Cuál es la principal suposición de la regresión lineal? A) No hay correlación entre atributos B) La distribución de datos es binaria C) No existen valores atípicos
A) No hay correlación entre atributos
28
¿Qué técnica se usa para reducir el sobreajuste en regresión lineal? A) Aumento del conjunto de datos B) Regularización (Ridge/Lasso) C) Incrementar la tasa de aprendizaje
B) Regularización (Ridge/Lasso)
29
¿Qué significa que un modelo tenga un R^2 negativo? A) El modelo predice perfectamente B) Es peor que predecir usando la media C) No puede ser interpretado
B) Es peor que predecir usando la media
30
¿Qué factor afecta más la eficacia de KNN? A) La normalización de los datos B) El número de instancias C) El número de atributos
A) La normalización de los datos
31
¿Qué problema surge al usar atributos con diferentes escalas en KNN? A) Cálculo erróneo de la distancia B) Mayor velocidad de predicción C) Eliminación de atributos
A) Cálculo erróneo de la distancia
32
¿Qué método usa KNN para determinar la predicción en regresión? A) Media de los vecinos B) Moda de los vecinos C) Mediana de los vecinos
A) Media de los vecinos
33
Describe el proceso de entrenamiento en regresión lineal OLS.
Se busca minimizar el error cuadrático medio (MSE) ajustando los coeficientes mediante descenso de gradiente o solución analítica.
34
¿Cómo afecta la multicolinealidad a la regresión lineal?
Provoca inestabilidad en los coeficientes y dificulta la interpretación del modelo.
35
¿Qué representa la tasa de aprendizaje en descenso de gradiente?
Controla el tamaño de los pasos que da el algoritmo al ajustar los coeficientes para minimizar la función de costo.
36
Explica la diferencia entre regresión lineal simple y múltiple.
La regresión simple usa un solo atributo como predictor, mientras que la múltiple utiliza varios atributos para predecir la variable dependiente.
37
¿Qué representa la línea de referencia en la gráfica de evaluación de regresión?
La línea x=y indica el punto ideal donde la predicción es igual al valor real.
38
¿Cuál es el propósito de la normalización en KNN?
Igualar la escala de los atributos para evitar que unos influyan más que otros en el cálculo de distancias.
39
¿Cómo se determina el número óptimo de vecinos k en KNN?
Se selecciona probando distintos valores y evaluando la métrica de error en validación cruzada.
40
¿Por qué la distancia Euclídea es la más utilizada en KNN?
Porque es intuitiva y mide la similitud entre puntos en un espacio multidimensional.
41
Explica por qué el descenso de gradiente es útil en regresión lineal.
Permite encontrar los coeficientes óptimos ajustando iterativamente los pesos para minimizar el error.
42
¿Cómo se interpreta un R^2 cercano a 1 y a 0 en regresión?
Un R^2 cercano a 1 indica que el modelo explica bien la variabilidad, mientras que un R^2 cercano a 0 indica baja capacidad predictiva.
43
¿Por qué KNN no tiene un proceso de entrenamiento tradicional?
Porque simplemente almacena los datos y calcula distancias en la fase de predicción.
44
Explica cómo la selección de atributos mejora KNN.
Reduce la dimensionalidad, eliminando atributos irrelevantes que pueden agregar ruido y disminuir la precisión.
45
¿Cómo afecta el número de vecinos k al sesgo y la varianza en KNN?
Un k pequeño genera alta varianza y bajo sesgo, mientras que un k grande genera bajo sesgo y alta varianza.
46
¿Cómo influye la homocedasticidad en la regresión lineal?
Permite que los errores del modelo sean constantes y no dependan de los valores de los atributos.
47
Explica la diferencia entre sobreajuste y subajuste en KNN.
Un k muy bajo causa sobreajuste, adaptándose demasiado a los datos de entrenamiento, mientras que un k muy alto causa subajuste, generando predicciones imprecisas.
48
¿Cómo mejora el uso de ponderaciones en los vecinos más cercanos?
Asigna mayor influencia a vecinos más cercanos, mejorando la precisión en problemas donde la distancia es un factor crítico.