Solo noticias

y ya

martes 3 de de 2025

COGNATE: La Revolución del Aprendizaje por Transferencia en Aceleradores Dispersos

COGNATE es una novedosa propuesta que utiliza el aprendizaje por transferencia para optimizar programas de tensores dispersos en hardware emergente. Esta innovadora estructura aprovecha datos económicos de hardware general para entrenar modelos de costos y después afinar con unos cuantos ajustes en el hardware de vanguardia. Esta metodología resulta ser sumamente eficiente, empleando tan solo el 5% de los datos requeridos por modelos específicos de aceleradores para alcanzar un rendimiento comparable.

Una de las principales ventajas de COGNATE es su capacidad para adaptarse a distintas plataformas de hardware, alcanzando aceleraciones promedio de 1.47× y hasta 5.46× en operaciones tipo SpMM y 1.39× hasta 4.22× en SDDMM. Este arsenal permite superar técnicas anteriores gracias a su enfoque en la reutilización eficiente de características entre distintas plataformas y la mitigación de la heterogeneidad, lo cual es fundamental para el temprano desarrollo de aceleradores donde los datos de simulación son a menudo costosos.

Bajo este enfoque, Spade (un acelerador acechando entre la cumbre de la tecnología) exhibe sus propias arquitecturas configurables, dotadas de ISA flexible que, sumado a COGNATE, asegura un margen de error bajo en los modelos de costo transferidos en nuevas plataformas sparse. Por su parte, los GPU como el NVIDIA A100 también se han visto beneficiados, mostrando un prometedor potencial al escalarse sobre una amplia gama de matrices reales.

Más allá de la optimización específica de SpMM y SDDMM, COGNATE se proyecta como una herramienta generalizable, diseñada para rápidamente adaptarse a otros aceleradores, mientras su universo de margen se presta para enriquecer el drive de tensors dispersos cada día más acuciante en el ámbito del aprendizaje profundo y la analítica de grafos.

En conclusión, a través de este marco de trabajo, se disminuye la necesidad de simulaciones tediosas y costosas, permitiendo así un camino más eficiente hacia el desarrollo de hardware optimizado sin sacrificar el rendimiento. Esto posibilita un futuro donde la innovación se encuentra con la práctica y el benchmarking constante, promoviendo decisiones más informadas en la evolución de los aceleradores sparse.