APRENDIZAJE SUPERVISADO Flashcards
(34 cards)
Aprendizaje supervisado ?
conocido como CLASIFICACIÓN o aprendizaje INDUCTIVO
Atributo de clase
es la etiqueta
OBjetivos
- produccir una función de predicción/clasificacion
- predecir etiquetas futuras
- f(x) es llamada modelo de clasificación
- Es supervisado, porque las etiquetas son dadas.
cuando es supervisado o no ?
Si se tienen la etiquetas es SUPERSIVADO si no se tienen la etiquetas es NO SUPERVISADOS
HIPOTESIS de Aprendizaje automátizado
Es que los datos de entrenamiento tienen una distribución similar a los datos de prueba, incluyendo los datos futuros.
¿Cual es el flujo completo del aprendizaje?
- Entrenamiento
- Aprendizaje
- Modelo
- Prueba
- Precisión
¿Qué es un DECISION TREE ?
Es una de las técnicas más usadas para la clasificación.
¿Cuántos tipos de nodos poseen ? Detalle cada uno
- Nodos Decisión: Son internos y especifican una pregunta con respecto a un atributo.
- Nodos Hoja: Indican una clase
¿Cómo esta construido un DECISION TREE ? (inducción) Explique
Esta construido mediante la partición de los datos, de tal forma que los subconjuntos de datos sean lo más puros posible. La pureza de un conjunto es cuando solo se posee una sola etiqueta.
¿Cómo se puede transformar un DECISION TREE en sentencias IF-THEN?
- Cada ruta de la RAIZ hasta la hoja es una regla.
- Todos los nodos de decisión a lo largo del camino forman las condiciones de la regla. El nodo hoja forma la clase.
- Para cada regla, se asocia un valor de confianza y el número de ejemplos de soporte.
Minería de reglas de Asociación
Es el intento de buscar todas las reglas que están en cierto intervalo de confiabilidad.
¿Cuál es la propiedad más importante de los DECISION TREE ?
Es que el conjunto de reglas resultantes es MUTUAMENTE EXCLUSIVO y EXHAUSTIVO. Cada caso esta cubierto por solo una regla, es decir, satisface las condiciones de la regla.
TB: es una representación mas compacto de los datos.
¿Por qué los DECISSION TREE se consideran algortimos GREEDY sin BACKTRACKING?
Una vez que sea creado un nodo de alguna partición pureza, esta no sera vuelta a revisar.
Dos funciones de Impureza
- Information Gain
- Information Gain Ratio
Relación ENTROPIA / PUREZA
Cuando la entropia toma valores pequeños, el conjunto de datos es más puro.
Information GAIN
- Se calcula la entropía del conjunto de datos entero.
- Buscar un atributo que mejor reduzcan la impureza, si se va a utilizar para particionar. v es el número posible que puede tomar el atributo y se escoge el que menor la reduzca.
- Normalmente se elige una cota inferior y ahi el algoritmo para.
Desventajas de INFORMATION GAIN
- Tomando el caso de atributos como los IDS, la partición de los datos sería cero. En este caso la métrica es inútil. (Es extremo pero se da con atributos de muchos valores potenciales)
INFORMATION GAIN RATIO
- Mejora el sesgo de la métrica anterior normalizando las ganancias.
- Utiliza la entropía de los datos con respecto a los valores de cada atributo.
DECISION TREE con atributos continuos
- Se dividen en intervalos.
- Escoger una cota que maximice la ganancia.
- En la practica hay r-1 splits posibles.
- La cota puede ser el punto medio, o el lado derecho. Si escoge este lado de los datos se garantiza su aparición.
OVERFITTING
- El aprendizaje no fue efectivo y los modelos no generaliza los datos de buena forma.
- Hay overfitting cuando un clasificador C1 es mejor en rendimiento que C2 en los datos de entrenamientos, pero en datos de prueba es lo contrario.
PRE-PRUNING
- Detiene la exploración del arbol tempranamente, solucionando overfitting.
- No sabe que pasará si el árbol se sigue extendiendo.
POST-PRUNING
- Se detiene la exploración despues de que el arbol fue construido.
RULE-PRUNING
La idea es convertir el árbol en un set de reglas.
• El objetivo es eliminar algunas condiciones que hacen las reglas más cortas.
• Las que quedan redundantes ahora se eliminan.
• Por lo general, este nuevo set es mejor, ya que tiene menos chances de hacer overfitting a los datos.
• Pruning también es conocido como generalización ya que hace las reglas más generales.
• Una regla con más condiciones es más específica que una con menos condiciones.
• Las reglas después de la poda, no necesariamente se excluyen mutuamente, y tampoco son exhaustivas.
• Es decir, van a haber casos que van a satisfacer muchas reglas.
• Por eso se establece algún ordenamiento.
• También puede suceder que ninguna regla se satisfaga, para esto normalmente se aplica la clase mayoritaria.
Clases desbalanceadas
- Los árboles de decisión no se comportan bien cuando uno tiene muchas más instancias de una clase que de otra.
- Se puede hacer oversampling de las clases menores.
- Hacer ajustes de acuerdo a cuan probable van a ser las clases menores.