Aprendizaje de conjuntos
El aprendizaje de conjuntos es una aplicación de aprendizaje automático en el que las estimaciones de varios modelos se consideran juntas. El objetivo es obtener una estimación más hábil de la que obtendría cualquier modelo de forma aislada. Aunque un único modelo entrenado con un conjunto específico de hiperparámetros puede parecer que resuelve un problema de clasificación o regresión, no es necesariamente la forma óptima de resolver el problema. Los estudios han demostrado que la agregación de estimaciones de múltiples modelos, especialmente un conjunto diverso de modelos, tiende a conducir a mejores estimaciones.
Por ejemplo, puede entrenar varios modelos en el problema de la encuesta de videojuegos. Uno de los modelos se puede entrenar mediante una regresión logística; otro podría ser entrenado usando Bayes ingenuo; otro utilizando un árbol de decisión; y así sucesivamente. Cada modelo puede alcanzar un cierto nivel de habilidad, dependiendo de cómo mida esa habilidad. Simplemente elegir el modelo que tiene lo mejor de cualquier medición de habilidad no le garantiza resultados ideales. En su lugar, muchos métodos de aprendizaje de conjuntos utilizan un sistema de votación por mayoría que selecciona la clase que está determinada por la mayoría de los modelos. Por ejemplo, los siguientes modelos determinan un clasificador binario para el problema de los videojuegos:
- Modelo de regresión logística
- Exactitud: 78%
- Estimación: Clase 1
- Modelo bayesiano ingenuo
- Exactitud: 86%
- Estimación: Clase 0
- Modelo CART
- Exactitud: 81%
- Estimación: Clase 1
Por lo tanto, el método de conjunto determinaría la clase 1 porque es la mayoría. A pesar de que el modelo que bayesiano ingenuo tenía la mayor precisión, su estimación de 0 no se considera tan útil como el voto mayoritario. Esto puede parecer contraintuitivo, pero considere cómo funciona la probabilidad: cuando se tira un dado de seis caras, la probabilidad de obtener cualquier número es de aproximadamente el 16,66 %. Si tira el dado 100 veces, es posible que no obtenga una distribución uniforme de aproximadamente 16 resultados para cada número. Sin embargo, cuantos más tiros realice, mayores serán sus posibilidades de obtener esa distribución uniforme. Tirar el dado 100.000 veces tendrá una mayor probabilidad de acercarse a esa división uniforme del 16,66 %. Esto es similar a por qué el aprendizaje de conjuntos es tan efectivo: más modelos pueden conducir a mejores resultados.