La empresa china de inteligencia artificial DeepSeek anunció el lanzamiento de su modelo experimental V3.2-Exp, una actualización que introduce la tecnología DeepSeek Sparse Attention (DSA) para optimizar el entrenamiento.
“DeepSeek Sparse Attention (DSA) logra una atención dispersa y detallada por primera vez, lo que ofrece mejoras sustanciales en el entrenamiento en un contexto prolongado y en la eficiencia de inferencia mientras mantiene una calidad de salida del modelo prácticamente idéntico”, informó la compañía.
El nuevo modelo se construye sobre V3.1-Terminus y busca mejorar la eficiencia computacional sin sacrificar la calidad de las respuestas.
“Esta versión experimental representa nuestra investigación en curso sobre arquitecturas de transformadores más eficientes, centrándonos especialmente en mejorar la eficiencia computacional al procesar secuencias de texto extendidas”, detalló la empresa tecnológica.
DeepSeek precisó que V3.2-Exp ya está disponible en su aplicación, en la web y a través de API, cuyo costo se redujo en más del 50 %.
Al tratarse de un modelo de código abierto, la compañía permite que investigadores, desarrolladores y empresas de todo el mundo accedan, estudien y modifiquen libremente la tecnología, fomentando la innovación en el campo de la inteligencia artificial.