¿Puede la IA generativa diseñada para la empresa (por ejemplo, la IA que autocompleta informes, fórmulas de hojas de cálculo, etc.) ser alguna vez interoperable? Próximo con un círculo de organizaciones como Cloudera e Intel, la Fundación Linux, la ordenamiento sin fines de ganancia que apoya y mantiene un número creciente de esfuerzos de código despejado, pretende averiguarlo.
La Fundación Linux anunció el martes el extensión de la Plataforma Abierta para la IA Empresarial (OPEA), un tesina para fomentar el progreso de sistemas de IA generativa abiertos, de múltiples proveedores y componibles (es asegurar, modulares). Bajo el ámbito de la ordenamiento LF AI and Data de la Fundación Linux, que se centra en iniciativas de plataformas relacionadas con la IA y los datos, el objetivo de OPEA será allanar el camino para el extensión de sistemas de IA generativos «reforzados» y «escalables» que «aprovechen» la mejor innovación de código despejado de todo el ecosistema”, dijo en un comunicado de prensa el director ejecutor de LF AI and Data, Ibrahim Haddad.
«OPEA desbloqueará nuevas posibilidades en IA mediante la creación de un situación detallado y componible que se sitúa a la vanguardia de las pilas de tecnología», dijo Haddad. «Esta iniciativa es un certificación de nuestra delegación de impulsar la innovación y la colaboración de código despejado adentro de las comunidades de datos e inteligencia fabricado bajo un maniquí de gobernanza despejado y objetivo».
Por otra parte de Cloudera e Intel, OPEA (uno de los proyectos Sandbox de la Fundación Linux, una especie de software de incubación) cuenta entre sus miembros con pesos pesados empresariales como Intel, Red Hat, propiedad de IBM, Hugging Face, Domino Data Lab, MariaDB y VMware.
Entonces, ¿qué podrían construir juntos exactamente? Haddad insinúa algunas posibilidades, como el soporte «optimizado» para compiladores y cadenas de herramientas de IA, que permiten que las cargas de trabajo de IA se ejecuten en diferentes componentes de hardware, así como canales «heterogéneos» para la reproducción aumentada de recuperación (RAG).
RAG se está volviendo cada vez más popular en las aplicaciones empresariales de IA generativa y no es difícil ver por qué. Las respuestas y acciones de la mayoría de los modelos de IA generativa se limitan a los datos con los que están entrenados. Pero con RAG, la cojín de conocimientos de un maniquí se puede ampliar a información fuera de los datos de entrenamiento originales. Los modelos RAG hacen remisión a esta información externa (que puede tomar la forma de datos patentados de la empresa, una cojín de datos pública o alguna combinación de los dos) ayer de gestar una respuesta o realizar una tarea.
Intel ofreció algunos detalles más en su propio comunicado de prensa:
Las empresas enfrentan el desafío de un enfoque de «hágalo usted mismo» [to RAG] porque no existen estándares de facto entre los componentes que permitan a las empresas designar e implementar soluciones RAG que sean abiertas e interoperables y que les ayuden a montar rápidamente al mercado. OPEA tiene la intención de topar estos problemas colaborando con la industria para estandarizar componentes, incluidos marcos, planos de cimentación y soluciones de remisión.
La evaluación igualmente será una parte secreto de lo que aborde la OPEA.
En su repositorio de GitHub, OPEA propone una rótulo para etiquetar los sistemas de IA generativa según cuatro ejes: rendimiento, características, confiabilidad y preparación de “naturaleza empresarial”. Concierto como lo define OPEA, se refiere a puntos de remisión de «caja negra» de casos de uso del mundo verdadero. Características Es una evaluación de la interoperabilidad, las opciones de implementación y la facilidad de uso de un sistema. Integridad analiza la capacidad de un maniquí de IA para avalar “robustez” y calidad. Y preparación empresarial se centra en los requisitos para que un sistema esté en funcionamiento sin problemas importantes.
Rachel Roumeliotis, directora de organización de código despejado de Intel, dice que OPEA trabajará con la comunidad de código despejado para ofrecer pruebas basadas en la rótulo, así como proporcionar evaluaciones y calificaciones de implementaciones de IA generativa a pedido.
Los demás proyectos de la OPEA están un poco en el distinción en este momento. Pero Haddad planteó el potencial del progreso de modelos abiertos siguiendo las líneas de la creciente grupo Fogata de Meta y DBRX de Databricks. Con ese fin, en el repositorio de OPEA, Intel ya ha contribuido con implementaciones de remisión para un chatbot impulsado por IA generativa, un resumidor de documentos y un productor de código optimizados para su hardware Xeon 6 y Gaudi 2.
Ahora, los miembros de OPEA están claramente comprometidos (y interesados, de hecho) en construir herramientas para la IA generativa empresarial. Cloudera lanzó recientemente asociaciones para crear lo que presenta como un «ecosistema de inteligencia fabricado» en la montón. Domino ofrece un conjunto de aplicaciones para crear y auditar IA generativa empresarial. Y VMware, orientado en dirección a el flanco de la infraestructura de la IA empresarial, lanzó en agosto pasado nuevos productos informáticos de “IA privada”.
La pregunta es si estos proveedores de hecho trabajar juntos para construir herramientas de IA compatibles entre sí bajo OPEA.
Hay un beneficio obvio al hacerlo. Los clientes estarán felices de apelar a múltiples proveedores según sus micción, capital y presupuestos. Pero la historia ha demostrado que es muy hacedero humillar en dirección a la dependencia del proveedor. Esperemos que ese no sea el resultado final aquí.
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio divulgado, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir consultoría profesional, médica, legítimo o psicológica.