Gaceta Crítica

Un espacio para la información y el debate crítico con el capitalismo en España y el Mundo. Contra la guerra y la opresión social y neocolonial. Por la Democracia y el Socialismo.

El tsunami de Inteligencia Artificial de código abierto en China frente al poder corporativo de EEUU.

Nilesh Jasani (ASIA TIMES), 11 de Noviembre de 2025

La IA china se adelanta a sus rivales occidentales con la adopción de la tecnología «Mixture of Experts», que reduce costes e impulsa la eficiencia.

Imagen: GenInnov

La innovación nunca sigue un guion. Se acelera, tropieza y sorprende. Hace dos años, un memorándum filtrado de Google advertía que los modelos de código abierto algún día erosionarían la barrera que parecía proteger a los desarrolladores de sistemas de gestión de aprendizaje (LLM) propietarios.

Durante un tiempo, los desarrolladores de software propietario desafiaron esta profecía, avanzando a pasos agigantados en cuanto a capacidades y reputación. Hoy en día, el informe parece más acertado que las peores predicciones de la época. Y lo que es más importante, pocos podrían haber anticipado el tipo y la cantidad de actores que aprovecharían la oportunidad.

Hace un año, la idea de que China liderara la IA parecía inverosímil. Nuestra serie de artículos, que comenzó con el titulado  «Un ascenso silencioso: el auge de los innovadores chinos en IA»,  generó más dudas sobre el contenido que análisis del panorama. Incluso después de DeepSeek, el mundo asumía que los modelos chinos eran derivados o copias, con afirmaciones exageradas e indemostrables, y que sus laboratorios estaban limitados por las sanciones y los costos. 

Esa perspectiva ahora parece obsoleta. A mediados de 2025, los desarrolladores chinos lanzaron más LLM públicos que nadie. Han comenzado a dominar las listas de descargas. DeepSeek, Qwen, MiniMax y Kimi ya no son nombres marginales. Este cambio se inició antes de los últimos lanzamientos que aparecieron en las últimas semanas.

Cuando comenzamos a redactar el artículo a principios de semana, ocho de los diez modelos abiertos con mejor puntuación eran chinos. ¡Increíblemente, la ventaja se ha ampliado desde entonces! Mientras escribíamos, justo este viernes (7 de noviembre), recibimos el primer modelo de código abierto, este de Kimi, que afirma superar las capacidades de los mejores modelos propietarios en una lista de pruebas de rendimiento populares.

El cambio ya no se limita solo a los algoritmos. Se trata de cómo la economía de la IA experimentará más cambios en 2026.

La cascada hacia el oeste

Antes de analizar los detalles de los cambios que se están produciendo, examinemos las pruebas de su aceptación.

Por diversas razones nacionalistas, idealistas, históricas y de otra índole, los modelos chinos han suscitado escepticismo en los medios de comunicación debido a sus elevados costes, problemas de seguridad y privacidad, la autenticidad de las innovaciones que se les atribuyen y la legalidad del hardware que pudieran haber utilizado. Ninguna de estas cuestiones tiene una respuesta satisfactoria para todos, pero en muchos ámbitos occidentales, el escepticismo no se limitó a la discusión, sino que perduró con el uso.

Según informes de prensa, los ingenieros de Cursor ahora utilizan modelos abiertos chinos para potenciar sus agentes de generación de código. El innovador SWE-1.5 de Cognition se construyó discretamente sobre un modelo base chino. Airbnb, que en un principio se esperaba que adoptara OpenAI, utiliza Qwen de Alibaba para sus bots de atención al cliente.

Hace quince días, su director ejecutivo, Brian Chesky, lo calificó de “rápido, bueno y barato”. Chamath Palihapitiya, fundador de Social Capital, afirmó que algunas de sus empresas migraron múltiples cargas de trabajo de Anthropic y OpenAI a Kimi de Moonshot, describiéndolo como “mucho más eficiente y muchísimo más económico”.

Se podría descartar la reciente noticia de que los modelos chinos superan a otros modelos en el trading de criptomonedas y acciones (pruebas independientes publicadas  aquí  y  aquí ) como un caso aislado, idiosincrásico y sin suficiente trayectoria. Sin embargo, cada vez hay más pruebas de paridad. 

Lo que se observa en la adopción de la producción por parte de un pequeño número de empresas estadounidenses tiene implicaciones a largo plazo. Modelos que antes se descartaban por problemas de seguridad o fiabilidad ahora son la base de negocios que no cambiarían sus preferencias sin ventajas demasiado grandes como para ignorarlas. Evidentemente, las dudas sobre filtraciones de información o subsidios estatales se disipan cuando la eficiencia se impone. 

Los modelos chinos están estableciendo nuevas normas y estándares de transparencia. Cada lanzamiento importante en China incluye un documento, un conjunto de datos de referencia y ponderaciones que cualquiera puede descargar gratuitamente, sin coste alguno ni condiciones ocultas. 

Arquitecturas en movimiento

En el centro de este auge se encuentra un principio: hacer más con menos. La tecnología que sustenta esta nueva ola es la Combinación de Expertos (CE). La conclusión es simple: los modelos chinos han adoptado universalmente la CE. Ahora están innovando dentro de este marco, creando nuevas y constantes oleadas de eficiencia.

En cambio, algunos modelos occidentales clave, como Claude de Anthropic, se resisten por completo al enfoque de eficiencia. Otros lo han adoptado, pero sin la misma obsesión por la eficiencia. En China, la competencia ahora es feroz.

La cantidad de nuevas directrices, la rapidez de los anuncios y la calidad de la ejecución son impresionantes. El resto de la sección puede omitirse para quienes no estén interesados ​​en los detalles generales del Ministerio de Educación.

Para quienes estén interesados ​​en los detalles, conviene comprender el contexto. La mayoría de los observadores siguen el desarrollo de la IA a grandes rasgos. La primera ola, en 2023, se centró en el tamaño. Fue una carrera por modelos cada vez más grandes.

La segunda ola, en 2024, se centró en el razonamiento, a medida que las técnicas de «cadena de pensamiento» se convertían en estándar. Muchos adoptaron este cambio rápidamente. Algunos, como Llama y Mistral, no lo lograron y sufrieron consecuencias duraderas. La característica principal del período actual es esta mezcla de expertos.

Este método, originario de Google, es una estrategia de eficiencia. El MoE transforma un único modelo masivo en una federación de modelos más pequeños. En lugar de activar todos los parámetros para cada consulta, el MoE activa únicamente los expertos necesarios para una tarea específica. El resto permanece inactivo, lo que reduce costos sin disminuir la escala total.

La genialidad del MoE radica en que fomenta la variación. Una vez que un modelo se convierte en un conjunto de especialistas en lugar de un monolito, cada laboratorio puede decidir cómo organizar y asignar a esos especialistas. Algunos los agrupan por habilidades, donde un grupo de expertos podría dedicarse al lenguaje, otro a las matemáticas y otro al razonamiento. Otros pueden distribuirlos por profundidad, con expertos con conocimientos básicos para respuestas rápidas y expertos con conocimientos avanzados para tareas complejas.

Algunos algoritmos, como MiniMax, cambian de expertos dinámicamente dentro de una misma consulta, tratando cada paso como un problema de enrutamiento independiente. DeepSeek agrupa a sus expertos jerárquicamente, pasando los resultados parciales a través de un árbol hasta que la mejor capa completa la respuesta.

Qwen busca la eficiencia mediante el uso de «compuertas dispersas», permitiendo que múltiples expertos de pequeño tamaño compartan espacios de activación para que ningún proceso de cómputo quede inactivo. Kimi, la más reciente, combina el enrutamiento modular con la atención a largo plazo, invocando a diferentes expertos para cada etapa de una cadena de razonamiento.

Estas decisiones de diseño pueden sonar a jerga técnica, pero se traducen en mejoras tangibles. Modelos más rápidos. Menor coste. Ventanas de contexto más amplias. En una sola generación, Minimax ha demostrado una extrema escasez, alcanzando un rendimiento máximo con tan solo 10 de 230 mil millones de parámetros.

Kimi está combinando MoE con un nuevo mecanismo de atención que parece crecer linealmente, a diferencia del crecimiento cuadrático de los transformadores tradicionales, lo que promete grandes ventajas para contextos largos. DeepSeek está rediseñando la lógica central de enrutamiento experto, mientras que Tencent sorprendió a todos recientemente con el concepto de pesos no fijos.

Los equipos chinos han demostrado que no existe una única fórmula óptima para la gestión de la eficiencia, sino infinitas maneras de combinar expertos. Cada combinación supone un pequeño avance en eficiencia o profundidad de razonamiento.

La lección más importante es que MoE demuestra lo lejos que aún está el campo de los límites teóricos del transformador. El ritmo de progreso indica que es improbable que las arquitecturas actuales se acerquen a un diseño final y optimizado. La creencia generalizada de que simplemente reducir el tamaño garantiza el progreso está obsoleta.

El MoE nos recuerda que la heurística, no las leyes, guía esta ciencia. No existe un camino fijo. Los avances en eficiencia pueden surgir del enrutamiento, la escasez, la memoria o de algo aún inimaginable. La única certeza es que cuanto más se exploran métodos, mayor es la probabilidad de un avance significativo. China es, en este momento, el centro de dicha exploración.

Economía de la apertura

El código abierto no significa cero ingresos. Cambia la procedencia de los ingresos.

Ejecutar un modelo de gran tamaño sigue requiriendo capacidad de cómputo. Alojar un modelo abierto a escala empresarial exige racks de GPU o acceso a capacidad en la nube. El coste de capital se traslada de la licencia a la infraestructura. Para la mayoría de los usuarios, esta disyuntiva favorece pagar al creador del modelo por el acceso a la API en lugar de autoalojarlo.

Ese es el modelo de negocio oculto de la apertura. Conocimiento gratuito, comodidad de pago.

El modelo de DeepSeek, con 671 mil millones de parámetros, costó menos de seis millones de dólares, y se maneja una cifra similar para el último modelo de Kimi, que compite directamente con los mejores de OpenAI en las pruebas de referencia más populares.

Independientemente de si los costes reales de entrenamiento se corresponden con lo que se cree o son varias veces superiores, estos modelos se entrenan con una rentabilidad extremadamente baja. Por consiguiente, los equipos chinos pueden cobrar precios ínfimos y aun así obtener márgenes de beneficio. Sus API son entre 10 y 50 veces más baratas que sus equivalentes occidentales. Necesitan menos usuarios para alcanzar el punto de equilibrio.

El coste de la cognición (por cada millón de tokens)

La nueva brutalidad

La competencia ha pasado de ser simbólica a existencial. Los laboratorios chinos envían nuevos modelos cada pocas semanas, a menudo con mejoras significativas. Como hemos visto en los últimos días, algunos desarrolladores de modelos occidentales han comenzado a presionar para obtener protecciones normativas.

La verdadera consecuencia, sin embargo, es que, dada la intensidad de las innovaciones y el progreso, ninguno de los principales centros regionales de innovación ni los equipos corporativos pueden permitirse el lujo de ralentizar sus esfuerzos. Si algunos fracasan estrepitosamente en cuanto a los objetivos de costes, tendrán que encontrar otras capacidades que les permitan liderar la innovación. 

No sorprende que Jensen Huang considere que China está a una fracción de segundo de distancia en inteligencia artificial. Incluso con las restricciones de hardware, su motor de innovación no ha mostrado signos de estancamiento. Algunos argumentan que las limitaciones solo han contribuido a que se centren más en la eficiencia. 

A primera vista, creemos que mejorar la eficiencia multiplica la demanda. Cada mejora en el coste del modelo abre la puerta a nuevos usos: generación de vídeo, búsqueda multimodal y agentes autónomos.

Un solo vídeo de 30 segundos puede consumir más recursos computacionales que páginas de inferencia de texto. Dicho esto, seremos los primeros en creer en cualquier hipótesis de este tipo basándonos simplemente en «sensaciones», «historia» o una ley con un nombre rimbombante.  

A medida que nos acercamos a 2026, dos grandes carreras se intensifican. Una se centra en el desarrollo de modelos, como se describió anteriormente, y la otra en el diseño de chips personalizados. Los participantes en esta carrera, como se mencionó brevemente en la sección central de  este informe , incluyen a las empresas de hardware más importantes del mundo, con los presupuestos más abultados. El anuncio de la TPU Ironwood de Google hace un par de días demostró que también podría deparar sorpresas impredecibles. 

La verdad es que las predicciones son peligrosas. Nadie previó que las pesas abiertas chinas se convertirían en líderes mundiales. Y nadie puede saber qué línea de innovación dominará el próximo año. 

La única regla inquebrantable es la flexibilidad. Es mejor recordamos constantemente que debemos aprender de los acontecimientos a medida que se desarrollan, en lugar de esperar que sigan un camino preestablecido. Invertir con base en evidencia exige flexibilidad a la hora de seleccionar o desinvertir, y un aprendizaje continuo, por muy complejo que parezca.

Deja un comentario

Acerca de

Writing on the Wall is a newsletter for freelance writers seeking inspiration, advice, and support on their creative journey.