La aplicación del modelo de IA vietnamita atrae millones de visitas |
Desarrollado por el equipo de ingeniería vietnamita de Zalo, este amplio modelo de lenguaje, con 13 mil millones de parámetros, ofrece una serie de aplicaciones prácticas que atraen a un gran número de usuarios cada mes. Cabe destacar que el Asistente de Preguntas y Respuestas de Kiki Info funciona como una Cuenta Oficial de Zalo (OA), ofreciendo tres funciones: preguntas y respuestas sobre diversos temas, como ciencia, historia, normas de tránsito, etc.; creación de contenido (como escribir, redactar correos electrónicos, publicar en redes sociales, etc.); y entretenimiento con sugerencias sobre destinos turísticos, música y libros.
Las estadísticas del equipo de desarrollo muestran que este asistente ha tenido hasta 1 millón de usuarios accediendo a su cuenta OA en Zalo en poco menos de 2 meses.
![]() |
Kiki Info integrado en la plataforma de mensajería Zalo. |
Otra aplicación desarrollada por el amplio modelo de lenguaje de Zalo son las tarjetas con IA, que ya han alcanzado los 15 millones de tarjetas creadas y enviadas por los usuarios. Estos datos se recopilaron en un plazo de dos meses. Los usuarios usan tarjetas con IA para felicitar a familiares y amigos en festividades importantes.
Las aplicaciones son muy apreciadas por los usuarios por su experiencia inteligente, que ayuda a reducir el tiempo dedicado a buscar y tomar decisiones. Al mismo tiempo, facilita que las relaciones sean más interesantes y atractivas.
El modelo LLM de Zalo se desarrolla utilizando una técnica de entrenamiento desde cero: implementa todos los procesos desde la inicialización de parámetros, la decisión sobre la arquitectura del modelo hasta los algoritmos de entrenamiento en un conjunto de datos determinado, lo que ayuda a los vietnamitas a dominar y controlar completamente el proceso de entrenamiento, así como el modelo.
A finales de 2024, el modelo LLM de Zalo se ubicó en el segundo puesto del ranking VMLU (Conjunto de Referencia de Comprensión del Lenguaje Multitarea Vietnamita para Modelos Lingüísticos Grandes (LLM), una plataforma para evaluar y clasificar el dominio del idioma vietnamita. En concreto, el modelo lingüístico grande de Zalo ascendió al segundo puesto en el ranking de modelos entrenados desde cero, justo detrás de Llama-3-70B de Meta, superando oficialmente a grandes nombres como GPT-4 (OpenAI), gemma-2-9b-it (Google) y microsoft/Phi-3-small-128k-instruct (Microsoft).
![]() |
Ranking 2024 de LLMs creados desde cero con el modelo LLM de Zalo en el Top 2. |
Este es un gran éxito para un modelo de lenguaje de gran tamaño desarrollado por vietnamitas, especialmente considerando las numerosas limitaciones que experimentó en sus inicios. Si bien grandes empresas del mundo poseían miles de las GPU más recientes de Nvidia, en Vietnam, en aquel entonces, los ingenieros no contaban con la infraestructura de servidores necesaria.
Al mismo tiempo, el vietnamita también se encuentra entre los países con recursos de datos mucho más escasos que el inglés o el chino. Además, Vietnam presenta limitaciones en recursos humanos y experiencia en formación de maestrías en derecho (LLM) en comparación con los países desarrollados.
Zalo cuenta con una estrategia de desarrollo para superar las limitaciones del entorno de formación en comparación con el resto del mundo. Al equipar la infraestructura informática con 8 servidores DGX H100, el modelo LLM se desarrolló directamente utilizando la línea de GPU más reciente y escasa de Nvidia en aquel momento, con un rendimiento de hasta 256 petaFLOPS (operaciones de punto flotante por segundo; un petaFLOP equivale a 10 billones de cálculos por segundo).
![]() |
El sistema de servidor de Zalo tiene una capacidad de procesamiento superior. |
Al mismo tiempo, se invierte en datos de entrenamiento de calidad para compensar la falta de fuentes de datos vietnamitas. Mediante una serie de estudios realizados con pequeñas GPU civiles, los ingenieros de Zalo también han aprovechado la oportunidad para adquirir los conocimientos y la capacidad necesarios para entrenar a LLM y crear una plataforma lista para usar en cuanto cuenten con una gran infraestructura informática.
La correcta orientación del desarrollo ha ayudado a Zalo a desarrollar con éxito un amplio modelo lingüístico con 7 mil millones de parámetros centrado en el vietnamita tras tan solo seis meses de capacitación en 2023, alcanzando el 150 % de su capacidad en comparación con el GPT3.5 de OpenAI en el VMLU Benchmark. Ahora, ha superado a varias empresas globales en la clasificación VMLU 2024, a la vez que ha puesto en práctica el modelo de investigación para la comunidad.
![]() |
El modelo LLM de Zalo compite con una serie de modelos en el mundo como ChatGPT 3.5, ChatGPT 4.0, Llama, PhoGPT y un jugador real en el primer lanzamiento en 2023. |
Según Zalo, el modelo LLM seguirá invirtiendo en formación para ofrecer a los usuarios más aplicaciones de IA de clase mundial. De esta manera, se dominará la tecnología avanzada de IA, apuntando a la era del desarrollo tecnológico del país con una orientación innovadora en ciencia , tecnología, innovación y transformación digital nacional.
Fuente: https://znews.vn/ung-dung-cua-mo-hinh-ai-viet-dang-thu-hut-hang-trieu-luot-truy-cap-post1563330.html
Kommentar (0)