Programa del Curso

Introducción a la optimización de modelos grandes

  • Información general sobre arquitecturas de modelos grandes
  • Desafíos en el ajuste fino de modelos grandes
  • Importancia de la optimización rentable

Técnicas de Entrenamiento Distribuido

  • Introducción al paralelismo de datos y modelos
  • Frameworks para la formación distribuida: PyTorch y TensorFlow
  • Escalado a través de múltiples GPUs y nodos

Cuantificación y poda de modelos

  • Comprensión de las técnicas de cuantificación
  • Aplicación de poda para reducir el tamaño del modelo
  • Compensaciones entre precisión y eficiencia

Optimización de hardware

  • Elegir el hardware adecuado para las tareas de ajuste
  • Optimización de la utilización GPU y de TPU
  • Uso de aceleradores especializados para modelos grandes

Eficiente Data Management

  • Estrategias para administrar grandes conjuntos de datos
  • Preprocesamiento y procesamiento por lotes para mejorar el rendimiento
  • Técnicas de aumento de datos

Implementación de modelos optimizados

  • Técnicas para implementar modelos ajustados
  • Supervisión y mantenimiento del rendimiento del modelo
  • Ejemplos reales de implementación de modelos optimizados

Técnicas Avanzadas de Optimización

  • Explorando la adaptación de bajo rango (LoRA)
  • Uso de adaptadores para el ajuste fino modular
  • Tendencias futuras en la optimización de modelos

Resumen y próximos pasos

Requerimientos

  • Experiencia con frameworks de aprendizaje profundo como PyTorch o TensorFlow
  • Familiaridad con grandes modelos de lenguaje y sus aplicaciones
  • Comprensión de los conceptos de computación distribuida

Audiencia

  • Ingenieros de aprendizaje automático
  • Especialistas en IA en la nube
 21 Horas

Número de participantes


Precio por Participante​

Próximos cursos

Categorías Relacionadas