La IA de código abierto

Por: Chris Wright, Senior vice president and chief technology officer, Red Hat.

Hace más de tres décadas, Red Hat vio el potencial de cómo el desarrollo y las licencias de código abierto podían crear un software superior que impulse la innovación en TI.

Treinta millones de líneas de código más tarde, Linux evolucionó no solo hasta convertirse en el software open source más exitoso hasta la fecha. Nuestro compromiso con los principios open source siguen vigentes, no solo en nuestro modelo de negocio, sino también en nuestra cultura corporativa. Si se hace en la forma correcta, creemos que estos conceptos pueden tener el mismo impacto en la inteligencia artificial (IA). No obstante, existen opiniones dispares respecto de lo que sería “la forma correcta” en el universo tecnológico.

No se puede considerar a la IA, en especial a los modelos de lenguaje de gran tamaño (LLM) que impulsan la IA generativa (gen AI), del mismo modo que al software open source.

A diferencia del software, los modelos de IA consisten principalmente en pesos del modelo, que son parámetros numéricos que determinan cómo un modelo procesa los datos de entrada, así como las conexiones que establece entre varios puntos de datos.

Los pesos del modelo entrenado son el resultado de un proceso de entrenamiento extenso que involucra grandes cantidades de datos de entrenamiento que se preparan, mezclan y procesan con sumo cuidado.

En el open source, al código fuente se lo define comúnmente como la «forma preferida» de introducir modificaciones en el software. Los datos de entrenamiento por sí solos no cumplen esta función, debido a su gran tamaño habitual y al complicado proceso previo al entrenamiento que genera una conexión tenue e indirecta entre cualquier dato de entrenamiento y los pesos entrenados y el comportamiento resultante del modelo.

La mayoría de las mejoras y optimizaciones de los modelos de IA que hoy se llevan a cabo en la comunidad no involucran el acceso a los datos de entrenamiento originales ni su manipulación. En cambio, son el resultado de modificaciones de los pesos del modelo o de un proceso de ajuste fino que también puede servir para ajustar el rendimiento del modelo. Tener la libertad de realizar esas mejoras en el modelo exige que los pesos se publiquen con todos los permisos que los usuarios reciben bajo las licencias de código abierto.

IA de código abierto

Red Hat considera que el umbral mínimo de la IA de código abierto son los pesos de los modelos con licencia open source combinados con componentes de software open source. Este es un punto de partida de la IA de código abierto, no su destino final.

Alentamos a la comunidad open source, a las autoridades regulatorias y al sector a seguir luchando por lograr una mayor transparencia y adecuación a los principios de desarrollo open source a la hora de entrenar y ajustar los modelos de IA.

Esta es la visión de Red Hat sobre cómo nosotros, como ecosistema de software open source, podemos trabajar con la IA de código abierto de manera concreta. No pretendemos brindar una definición formal, como lo hace la Open Source Initiative (OSI) con su Definición de la IA de código abierto (OSAID).

La IA de código abierto debe ser factible y accesible para el mayor conjunto de comunidades, organizaciones y proveedores.

Este punto de vista queda materializado a través de nuestro trabajo en las comunidades open source, puesto de relieve por el proyecto InstructLab liderado por Red Hat y nuestra colaboración con IBM Research en relación con la familia de modelos Granite con licencia de código abierto.

Las repercusiones de los recientes anuncios de DeepSeek muestran cómo la innovación open source puede afectar a la IA, a nivel de modelo y más allá. El enfoque de DeepSeek genera evidentes preocupaciones, como, por ejemplo, que la licencia del modelo no aclara cómo se produjo, lo que refuerza aún más la necesidad de transparencia. Dicho esto, esta disrupción confirma nuestra visión del futuro de la IA: un futuro abierto, centrado en modelos abiertos más pequeños y optimizados que se puedan personalizar según el uso específico de los datos que haga la empresa en cualquier lugar de la nube híbrida.

La IA de código abierto más allá de los modelos

La tecnología y los principios de desarrollo open source constituyen la esencia de nuestras ofertas de IA, al igual que de nuestro portafolio de Red Hat AI. Red Hat OpenShift AI toma sus raíces de Kubernetes, KubeFlow y contenedores compatibles con la Open Container Initiative (OCI), así como de otras tecnologías open source nativas de la nube. Red Hat Enterprise Linux AI (RHEL AI) incorpora la familia de LLM Granite con licencia de código abierto de IBM y el proyecto open source InstructLab.

Además, participamos activamente en una cantidad de proyectos y comunidades de desarrollo cada vez mayor y hemos iniciado muchos más proyectos por nuestra cuenta, que incluyen los siguientes, entre otros:

  • RamaLama, un proyecto open source que tiene como objetivo hacer que la gestión y el servicio local de modelos de IA sean mucho menos problemáticos y complejos;
  • TrustyAI, un conjunto de herramientas open source para crear flujos de trabajo de IA más responsables;
  • Climatik, un proyecto dedicado a ayudar a que la IA sea más sostenible en lo que respecta al consumo de energía;
  • Podman AI Lab, un kit de herramientas de desarrollo enfocado en facilitar la experimentación con LLM open source.

Nuestro reciente anuncio relacionado con Neural Magic promueve aún más nuestra visión de IA, porque permite a las organizaciones alinear modelos de IA más pequeños y optimizados —que incluyen modelos con licencia open source— con sus datos, donde sea que se encuentren en la nube híbrida. Las organizaciones de TI pueden usar el servidor de inferencia de los vLLM para impulsar las decisiones y los resultados de estos modelos y ayudar así a construir una IA afianzada en tecnologías transparentes y compatibles.

Para Red Hat, la IA de código abierto vive y respira en la nube híbrida. La nube híbrida proporciona la flexibilidad tan requerida para elegir el mejor entorno para cada carga de trabajo de IA y optimiza el rendimiento, los costos, la escalabilidad y los requisitos de seguridad.

Vislumbramos un futuro que engloba el trabajo transparente con los modelos y su entrenamiento. Seguiremos apoyando y promoviendo aquellas iniciativas que extiendan los límites de lo que significa democratizar y abrir el mundo de la IA.