Red Hat, Inc., el proveedor de soluciones open source, anunció hoy el lanzamiento de Red Hat Enterprise Linux AI (RHEL AI), una plataforma de modelos fundacionales que permite a los usuarios desarrollar, probar e implementar modelos de IA generativa (GenAI) de manera más ?integrada. RHEL AI combina la familia de modelos de lenguaje de gran tamaño (LLM) Granite con licencia open source de IBM Research, las herramientas de alineación de modelos InstructLab basadas en la metodología LAB (Large-scale Alignment for chatBots) y un enfoque para el desarrollo de modelos impulsado por la comunidad a través del proyecto InstructLab.
La solución completa se ofrece empaquetada como una imagen de RHEL de inicio optimizada para implementaciones de servidores individuales en toda la nube híbrida y también como parte de OpenShift AI, la plataforma híbrida de operaciones de aprendizaje automático (MLOps) de Red Hat, para ejecutar modelos e InstructLab a escala en entornos de clústeres distribuidos.
“La GenAI constituye un avance revolucionario para las empresas, pero solo si las organizaciones de tecnología son capaces de implementar y utilizar los modelos de IA de una forma que se ajuste a sus necesidades empresariales específicas. RHEL AI y el proyecto InstructLab, junto con Red Hat OpenShift AI a escala, se concibieron con el objeto de reducir muchas de las barreras que enfrenta la GenAI en toda la nube híbrida, desde el déficit de habilidades en ciencia de datos hasta la cantidad de recursos requeridos, mientras impulsan la innovación tanto en las implementaciones empresariales como en las comunidades de desarrollo,” dijo Jorge Payró, Country Manager de Red Hat para Argentina.
Para reducir eficazmente las barreras de acceso a la innovación en IA, las empresas necesitan poder ampliar la lista de personas capaces de trabajar en iniciativas de IA y, al mismo tiempo, controlar los costos. En un esfuerzo por eliminar estos obstáculos, Red Hat pretende extender los beneficios de los verdaderos proyectos open source (de libre acceso y reutilizables, totalmente transparentes y abiertos a colaboraciones) a la GenAI gracias a las herramientas de alineación InstructLab, los modelos Granite y RHEL AI.
La implementación de una estrategia de IA exige algo más que la simple elección de un modelo. Además de solventar los grandes costos de implementar la IA, las empresas tecnológicas requieren de conocimientos especializados para adaptar un modelo determinado a un caso de uso específico. Al déficit de habilidades en ciencia de datos se le suman importantes requisitos financieros, entre ellos:
- La adquisición de infraestructura de IA o el consumo de servicios de IA
- El complejo proceso de adaptar los modelos de IA a necesidades empresariales específicas
- La integración de la IA en las aplicaciones empresariales
- La gestión del ciclo de vida tanto de las aplicaciones como de los modelos.
Crear IA de manera abierta con InstructLab
IBM Research creó la técnica Large-scale Alignment for chatBots (LAB), un método de alineación de modelos que utiliza la generación de datos sintéticos guiada por taxonomía y un novedoso sistema de ajuste de múltiples etapas. Al reducir la dependencia de costosas anotaciones humanas y modelos patentados, este enfoque hace que el desarrollo de modelos de IA sea más abierto y accesible para todos los usuarios. Con el método LAB, los modelos se pueden mejorar al especificar las habilidades y los conocimientos vinculados a una taxonomía. Esto genera datos sintéticos a partir de esa información a escala que influyen en el modelo y utiliza los datos generados para el entrenamiento de modelos.
Luego de comprobar que el método LAB podía ayudar a mejorar el rendimiento de los modelos de forma significativa, IBM y Red Hat decidieron lanzar InstructLab, una comunidad de código abierto creada en torno al método LAB y a los modelos de código abierto IBM Granite. El proyecto InstructLab pretende poner el desarrollo de LLM en manos de los desarrolladores al hacer que la creación y la contribución a un LLM sean tan sencillas como la contribución a cualquier otro proyecto de código abierto.
Como parte del lanzamiento de InstructLab, IBM también hizo pública una familia de modelos de lenguaje y código Granite en inglés. Estos modelos se publican con licencia Apache con total transparencia respecto de los conjuntos de datos utilizados para entrenarlos. El modelo de lenguaje Granite 7B en inglés se integró a la comunidad InstructLab, en la que los usuarios finales pueden aportar sus habilidades y sus conocimientos para mejorar este modelo entre todos del mismo modo que lo harían al contribuir a cualquier proyecto de código abierto. Próximamente, habrá disponible un soporte similar para los modelos de código Granite.
Innovación en IA de código abierto sobre un eje estructural de Linux
RHEL AI se funda en este enfoque abierto de la innovación en IA e incorpora una versión del proyecto InstructLab y modelos de lenguaje y código Granite para la empresa combinados con la plataforma Linux empresarial líder del mundo con el objeto de simplificar las implementaciones en infraestructuras híbridas. Esto genera una plataforma de modelos fundacionales que pretende llevar los modelos de GenAI con licencia de código abierto a la empresa.
A medida que las empresas experimenten y ajusten nuevos modelos de IA en RHEL AI, dispondrán de una vía de acceso lista para escalar estos flujos de trabajo con Red Hat OpenShift AI, la cual incluirá RHEL AI y en la cual podrán aprovechar OpenShift Kubernetes Engine para entrenar y servir modelos de IA a escala, así como las capacidades de MLOps integradas de OpenShift AI para gestionar el ciclo de vida de los modelos. OpenShift AI y RHEL AI también se integrarán con IBM watsonx, que aporta capacidades adicionales para el desarrollo de IA empresarial, la gestión de datos y el gobierno de modelos.