Paralelización
Para reducir la cantidad de tiempo necesario para ejecutar un algoritmo de entrenamiento, es posible que necesite escalar verticalmente el hardware o agregar más recursos para satisfacer la demanda. En algunos casos, puede escalar verticalmente adecuadamente agregando más procesadores a un único computador. Al escalar en cantidades relativamente pequeñas, un único computador puede ser realmente más rápido que varios computadores porque evita los retrasos causados por las redes.
Sin embargo, para un escalamiento masivo, se necesitan varias máquinas. La paralelización le permite escalar verticalmente el rendimiento de su entorno de aprendizaje automático dividiendo las tareas entre varios procesadores. Esto implica establecer una configuración de hardware con más procesadores y memoria, proporcionar el software y la configuración adecuados para admitirlos y usar algoritmos de aprendizaje automático que puedan dividir las tareas de computación en varias subtareas que luego se pueden delegar a varios procesadores que se ejecutan en paralelo.
La paralelización puede reducir significativamente el tiempo necesario para ejecutar un algoritmo de entrenamiento; por ejemplo, de varias semanas a solo unas pocas horas en algunos casos. Esto ahorra tiempo, lo que hace que sea más práctico experimentar con varios modelos. Esto permite volver a entrenar los modelos con datos nuevos con más frecuencia. Agregar potencia de procesamiento a través de la paralelización también hace que sea más práctico ajustar con precisión sus modelos, lo que le permite alcanzar niveles de rendimiento que, de otro modo, tardarían demasiado tiempo en entrenarse.