Análisis técnico revela causas del bajo rendimiento inicial de ALIA, IA española

El modelo IA español ALIA-40b, con 40B parámetros, fue lanzado tras entrenar solo 2.3B tokens sin ajuste. Mejora en lenguas cooficiales y contexto, pero limita su desempeño por falta de datos, cóm https://tinyurl.com/4dkvrefv

M
MIIA
editorial
28 de diciembre de 2025·5 min de lectura
Análisis técnico revela causas del bajo rendimiento inicial de ALIA, IA española

Empecemos con lo fundamental: ALIA, el modelo de inteligencia artificial desarrollado en España, no debería haber sido lanzado cuando lo fue.

En una charla con uno de sus principales responsables, pudimos entender mejor sus objetivos y alcance, así como por qué compararlo con ChatGPT no solo es injusto, sino también inapropiado.

ALIA-40b es un modelo fundacional de IA, es decir, una inteligencia artificial a gran escala entrenada con enormes y variados volúmenes de información, que sirve como base para múltiples aplicaciones. Este proyecto está liderado por el Barcelona Supercomputing Center (BSC-CNS), y aunque contó con el apoyo del superordenador MareNostrum 5, ese respaldo fue bastante limitado.

Comparar el rendimiento de ALIA-40b con el de modelos como GPT-5 o Gemini 3 no tiene sentido si no entendemos de dónde viene este proyecto y sus metas reales. Su desarrollo es mucho más modesto pero igualmente prometedor, muy distinto a los grandes modelos propiedad de empresas estadounidenses o a los modelos abiertos más llamativos que están surgiendo en China. Conozcamos qué ocurrió con ALIA y qué podemos esperar.

El 20 de enero de 2025, el presidente del Gobierno español, Pedro Sánchez, anunciaba el lanzamiento de ALIA. La idea era clara: crear una familia de modelos de IA en español y lenguas cooficiales para impulsar la investigación y desarrollar soluciones tecnológicas en nuestro idioma, un idioma con gran relevancia global y online.

Se habló incluso de poner a prueba ALIA en proyectos piloto en la Agencia Tributaria y en atención primaria médica. Según el BSC-CNS, ALIA-40b era el modelo fundacional multilingüe público más avanzado de Europa, con 40.000 millones de parámetros y entrenado durante más de 8 meses con casi 7 billones de tokens en 35 lenguas europeas. Su versión final apuntaba a entrenarse con hasta 9,2 billones de tokens.

Sin embargo, la realidad fue distinta. Las pruebas iniciales dejaron claro que su rendimiento era bajo, comparable a Llama-2-34b, un modelo de código abierto lanzado en 2023. Un estudio de la Universidad de Valencia confirmó que ALIA obtuvo peores resultados incluso en tests de matemáticas tipo test, comportándose por debajo de lo esperado. Quedó claro que estaba muy por detrás de otros modelos y ni siquiera aparece en comparativas reconocidas con cientos de modelos.

¿Por qué pasó esto? La explicación es sencilla: ALIA fue lanzado antes de estar listo. Aitor González-Agirre, uno de los desarrolladores, cuenta que la decisión no fue técnica sino estratégica. Tuvieron que interrumpir el proceso de entrenamiento, que originalmente debía abarcar 12 billones de tokens, y lanzar el modelo cuando apenas había aprendido con 2,3 billones. En ese momento, el modelo seguía en una etapa inicial y sin refinar.

Además, ALIA-40b se lanzó como un modelo preentrenado, sin instrucciones ni alineamiento, lo que significa que no estaba preparado para responder preguntas de forma coherente o segura. Era un modelo "crudo", capaz solo de predecir palabras siguientes sin entender el contexto o las preguntas, lo que llevó a muchas respuestas incoherentes y decepción entre quienes lo probaron.

Para entender esto, hay que saber que el desarrollo de un modelo de IA pasa por distintas fases: primero se preentrena para prever palabras, luego se ajusta con instrucciones para responder mejor, y finalmente se alinea para garantizar seguridad, ética y coherencia en las respuestas. ALIA-40b apenas había completado la primera fase cuando salió al público.

Meses después, el modelo ha avanzado mucho. Ahora se compara favorablemente con otros en euskera, catalán y gallego, y su capacidad ha mejorado enormemente, ampliando su ventana de contexto de 4.000 a 160.000 tokens. Sin embargo, todavía queda trabajo por delante.

Uno de los mayores retos está en los conjuntos de datos disponibles para entrenar. A diferencia de grandes compañías con recursos legales y económicos para usar casi cualquier dato, el equipo de ALIA debe respetar derechos de autor y no utiliza datos de modelos comerciales ni fuentes protegidas sin permiso. Esto limita sus materiales de entrenamiento y complica su desarrollo.

Además, el acceso a capacidad computacional ha ido decreciendo: después de utilizar cientos de nodos especializados del MareNostrum 5, ahora solo cuentan con 16, lo que impide hacer preentrenamiento a gran escala. Esto limita la posibilidad de hacer múltiples versiones y mejoras, algo habitual en grandes compañías como OpenAI.

Otro problema es que ALIA no tiene actualmente una plataforma pública para que el público en general pueda probarlo en vivo y generar datos de uso que ayuden a mejorar el modelo. Esto complica recopilar información clave sobre cómo interactúan los usuarios y qué ajustes se necesitan.

El equipo destaca que esta iniciativa pública busca ofrecer una alternativa abierta, accesible y alineada con los valores y la cultura de España y sus regiones. No pretenden competir con gigantes comerciales, sino garantizar que haya una opción soberana, transparente y libre de sesgos relacionados con género, raza o edad.

También subrayan el talento existente en España y Europa, pero están conscientes de la falta de recursos para retenerlo y promover un ecosistema sólido de IA local.

Enfrentados a la creciente competencia de modelos abiertos chinos y otros actores internacionales, prefieren apostar por la transparencia y la soberanía tecnológica. Para finales de año, esperan tener versiones más usables y con capacidades mejoradas, que incorporen razonamiento, funciones avanzadas y puedan interactuar con herramientas externas.

Si bien el camino es complicado y menos espectacular que el de las grandes firmas que lanzan novedades constantemente sin pedir permiso, el resultado podría ser valioso para España y Europa, ofreciendo una IA adaptada a nuestras realidades, cultura y necesidades.

fuente original
https://www.xataka.com/robotica-e-ia/arranque-alia-modelo-ia-espanol-ha-sido-erratico-decepcionante-ahora-sabemos-que
Prueba MIIA

Agentes de IA para WhatsApp, Instagram y Messenger. Configurados en 10 minutos.

Seguir leyendo

relacionado con #inteligencia artificial · #modelos fundacionales · #españa
Prueba MIIA gratis →
WhatsApp