La familia CUDA sigue creciendo, y hoy toca hablar de una actualización que, aunque pueda parecer menor sobre el papel, llega con varias mejoras que interesan —y mucho— a quienes trabajan con hardware de alto rendimiento. NVIDIA acaba de lanzar CUDA 13.0 Update 2, la nueva revisión de su pila de computación tanto para Windows como para Linux.
Para ubicarnos un momento: la versión general de CUDA 13.0 salió en agosto, seguida de su primera actualización en septiembre. Y ahora, en pleno noviembre, tenemos esta segunda actualización incremental que pule el sistema y mejora el rendimiento en áreas clave.
CUDA 13.0 Update 2 continúa funcionando junto a los controladores de la serie NVIDIA 580, actualizados ahora a la versión 580.95.05 en Linux. Esta combinación trae unas optimizaciones especialmente pensadas para el nuevo hardware NVIDIA DGX Spark, diseñado para cargas de trabajo duras de IA y computación acelerada.
Más velocidad en DGX Spark: mejoras en GEMM para FP16, BF16 y FP8
Una de las novedades que más destacan es el empujón de rendimiento que recibe el DGX Spark en operaciones GEMM utilizando distintos formatos de precisión: FP16/BF16 y también FP8. Estas mejoras llegan a través de modificaciones en cuBLAS, la biblioteca de referencia para operaciones de álgebra lineal en CUDA.
Si trabajas con entrenamientos rápidos, inferencias a gran escala o cargas mixtas donde cada milisegundo importa, este tipo de optimizaciones se nota. Y mucho.
Emulación de punto fijo para FP64 MATMUL: velocidad sin sacrificar precisión
Otra novedad interesante es que cuBLAS incorpora ahora una emulación opt-in de punto fijo para operaciones MATMUL FP64, pensada para mejorar tanto el rendimiento como la eficiencia energética.
Esta emulación sigue el esquema Ozaki-1 y utiliza un método automático de dinamic precision, o precisión dinámica, que mantiene la fidelidad de los cálculos al nivel FP64 mientras reduce el coste computacional. Es decir, intenta darte lo mejor de los dos mundos: la precisión que necesitas, con menos consumo y más velocidad.
No sustituye a FP64 real, pero sí puede ser una herramienta útil en flujos de trabajo donde se puede elegir entre la precisión absoluta y un equilibrio más práctico.
Soporte añadido: emulación BF16x9 en FP32 para cuBLAS
La actualización también añade soporte en cuBLAS para la emulación BF16x9 en FP32, lo que extiende aún más las opciones de cálculo para arquitecturas y modelos que usan estas precisiones híbridas.
Este tipo de flexibilidades se ha convertido en algo fundamental en entornos de IA moderna, donde los modelos combinan distintos formatos de precisión para ahorrar memoria y acelerar cómputos sin perder demasiada calidad numérica.
Un update pequeño, pero con impacto
Aunque CUDA 13.0 Update 2 no llega cargado de funciones nuevas —al fin y al cabo, es una actualización incremental— sí trae mejoras muy enfocadas que pueden marcar una diferencia importante en los entornos adecuados, especialmente en el ecosistema DGX Spark. Más rendimiento en GEMM, nuevas opciones de emulación y soporte ampliado en cuBLAS son cambios que hacen que esta actualización merezca una mirada si trabajas con cómputo intensivo o cargas de IA complejas.
Es un update discreto, pero efectivo. Uno de esos que, sin hacer ruido, terminan acelerando tu flujo de trabajo más de lo que esperabas. Si ya estás en la rama 13.0, actualizar a esta versión es un paso natural y muy recomendable.
Fuente: Phoronix
Añadir comentario
Comentarios