Una startup francesa ha recaudado una importante inversión auténtico para “rediseñar la infraestructura informática” para los desarrolladores que quieran crear y entrenar aplicaciones de IA de forma más efectivo.
FlexAI, como se candela la empresa, ha estado operando de forma sigilosa desde octubre de 2023, pero la empresa con sede en París se lanzará formalmente el miércoles con una financiación de 28,5 millones de euros (30 millones de dólares), mientras muestra su primer producto: un servicio en la cúmulo bajo demanda. para el entrenamiento de IA.
Este es un cambio considerable para una ronda semilla, lo que normalmente significa un pedigrí sustancial del fundador, y ese es el caso aquí. El cofundador y director ejecutor de FlexAI, Brijesh Tripathi, fue anteriormente ingeniero de diseño senior en el titán de las GPU y ahora el privilegiado de la IA, Nvidia, antiguamente de establecerse varios puestos senior de ingeniería y cimentación en Apple; Tesla (que trabaja directamente bajo las órdenes de Elon Musk); Zoox (antiguamente de que Amazon adquiriera la startup de conducción autónoma); y, más recientemente, Tripathi fue vicepresidente de la plataforma de supercomputación e inteligencia sintético de Intel, AXG.
El cofundador y director de tecnología de FlexAI, Dali Kilani, incluso tiene un currículum impresionante, ya que ocupó varios puestos técnicos en empresas como Nvidia y Zynga, y más recientemente ocupó el puesto de director de tecnología en la startup francesa Lifen, que desarrolla infraestructura digital para la industria de la salubridad.
La ronda auténtico estuvo liderada por Alpha Intelligence Caudal (AIC), Elaia Partners y Heartcore Caudal, con la décimo de Frst Caudal, Motier Ventures, Partech y el CEO de InstaDeep, Karim Beguir.
El enigma de la computación
Para comprender lo que Tripathi y Kilani están intentando con FlexAI, primero vale la pena entender a qué se enfrentan los desarrolladores y profesionales de la IA en términos de entrada a la «computación»; esto se refiere a la potencia de procesamiento, la infraestructura y los posibles necesarios para soportar a parte tareas computacionales como procesar datos, ejecutar algoritmos y ejecutar modelos de formación necesario.
“Utilizar cualquier infraestructura en el espacio de la IA es complicado; No es para los débiles de corazón ni para los inexpertos”, dijo Tripathi a TechCrunch. «Requiere que sepas demasiado sobre cómo construir infraestructura antiguamente de poder utilizarla».
Por el contrario, el ecosistema de cúmulo pública que ha evolucionado en las últimas dos décadas sirve como un buen ejemplo de cómo ha surgido una industria a partir de la carencia de los desarrolladores de crear aplicaciones sin preocuparse demasiado por el back-end.
“Si es un pequeño desarrollador y desea escribir una aplicación, no necesita memorizar dónde se está ejecutando ni cuál es el back-end; solo necesita activar una instancia EC2 (cúmulo de Amazon Elastic Compute) y podrá Ya terminamos”, dijo Tripathi. «Hoy en día no se puede hacer eso con la computación de IA».
En el ámbito de la IA, los desarrolladores deben determinar cuántas GPU (unidades de procesamiento de gráficos) necesitan para interconectarse a través de qué tipo de red, administradas a través de un ecosistema de software cuya configuración son totalmente responsables. Si una GPU o una red defecto, o si poco en esa prisión sale mal, la responsabilidad de solucionarlo recae en el desarrollador.
«Queremos soportar la infraestructura informática de IA al mismo nivel de simplicidad al que ha llegado la cúmulo de propósito normal; luego de 20 abriles, sí, pero no hay ninguna razón por la que la informática de IA no pueda obtener los mismos beneficios», afirmó Tripathi. «Queremos impresionar a un punto en el que ejecutar cargas de trabajo de IA no requiera que uno se convierta en entendido en centros de datos».
Con la lectura presente de su producto avanzando con un puñado de clientes beta, FlexAI lanzará su primer producto comercial a finales de este año. Básicamente es un servicio en la cúmulo que conecta a los desarrolladores con una “computación imaginario heterogénea”, lo que significa que pueden ejecutar sus cargas de trabajo e implementar modelos de IA en múltiples arquitecturas, pagando según el uso en zona de traspasar GPU por dólares por hora.
Las GPU son engranajes vitales en el explicación de la IA y sirven para entrenar y ejecutar grandes modelos de jerga (LLM), por ejemplo. Nvidia es uno de los actores más destacados en el espacio de las GPU y uno de los principales beneficiarios de la revolución de la IA provocada por OpenAI y ChatGPT. En los 12 meses transcurridos desde que OpenAI lanzó una API para ChatGPT en marzo de 2023, permitiendo a los desarrolladores incorporar la funcionalidad ChatGPT en sus propias aplicaciones, las acciones de Nvidia se dispararon de más o menos de 500 mil millones de dólares a más de 2 billones de dólares.
Los LLM ahora están saliendo de la industria tecnológica, y la demanda de GPU se dispara a la vez. Pero el funcionamiento de las GPU es caro y alquilarlas para trabajos más pequeños o casos de uso ex profeso no siempre tiene sentido y puede resultar prohibitivamente caro; Es por eso que AWS ha estado incursionando en alquileres por tiempo definido para proyectos de IA más pequeños. Pero traspasar sigue siendo traspasar, razón por la cual FlexAI quiere generalizar las complejidades subyacentes y permitir que los clientes accedan a la computación de IA según sea necesario.
“Multinube para la IA”
El punto de partida de FlexAI es que la mayoría de los desarrolladores no en ingenuidad se preocupan en su anciano parte por las GPU o chips que utilizan, ya sea Nvidia, AMD, Intel, Graphcore o Cerebras. Su principal preocupación es poder desarrollar su IA y crear aplicaciones internamente de sus limitaciones presupuestarias.
Aquí es donde entra en gozne el concepto de «computación de IA universal» de FlexAI, donde FlexAI toma los requisitos del usufructuario y los asigna a cualquier cimentación que tenga sentido para ese trabajo en particular, encargándose de todas las conversiones necesarias en las diferentes plataformas, ya sea Gaudí de Intel. infraestructura, Rocm de AMD o CUDA de Nvidia.
«Lo que esto significa es que el desarrollador sólo se centra en construir, entrenar y utilizar modelos», dijo Tripathi. “Nosotros nos encargamos de todo lo que hay debajo. Nosotros gestionamos las fallas, la recuperación y la confiabilidad, y usted paga por lo que usa”.
En muchos sentidos, FlexAI se propone acelerar para la IA lo que ya ha estado sucediendo en la cúmulo, lo que significa más que replicar el maniquí de plazo por uso: significa la capacidad de sobrevenir a la «multinube» apoyándose en las diferentes Beneficios de diferentes infraestructuras de GPU y chips.
FlexAI canalizará la carga de trabajo específica de un cliente en función de cuáles sean sus prioridades. Si una empresa tiene un presupuesto definido para capacitar y ajustar sus modelos de IA, puede configurarlo internamente de la plataforma FlexAI para obtener la máxima cantidad de computación por su inversión. Esto podría significar acogerse a Intel para obtener una computación más baratura (pero más lenta), pero si un desarrollador tiene una ejecución pequeña que requiere el resultado más rápido posible, entonces puede canalizarla a través de Nvidia.
En el fondo, FlexAI es básicamente un «agregador de demanda», que alquila el hardware a través de medios tradicionales y, utilizando sus «fuertes conexiones» con la clan de Intel y AMD, asegura precios preferenciales que distribuye entre su propia almohadilla de clientes. Esto no significa necesariamente dejar de banda al rey Nvidia, pero posiblemente sí signifique que en gran medida (con Intel y AMD peleando por los restos de GPU que quedan tras Nvidia) hay un gran incentivo para que jueguen con agregadores como como FlexAI.
“Si puedo hacer que funcione para los clientes y atraer de decenas a cientos de clientes a su infraestructura, ellos [Intel and AMD] Estaré muy atinado”, dijo Tripathi.
Esto contrasta con reproductores de cúmulo de GPU similares en el espacio, como los perfectamente financiados CoreWeave y Lambda Labs, que se centran directamente en el hardware de Nvidia.
«Quiero soportar la computación con IA al punto en que se encuentra la presente computación en la cúmulo de propósito normal», señaló Tripathi. “No se puede hacer multinube con IA. Debe aspirar hardware específico, cantidad de GPU, infraestructura, conectividad y luego mantenerlo usted mismo. Hoy en día, esa es la única forma de obtener computación de IA”.
Cuando se le preguntó quiénes son exactamente los socios de divulgación, Tripathi dijo que no podía nombrarlos a todos adecuado a la yerro de “compromisos formales” de algunos de ellos.
«Intel es un socio esforzado, definitivamente proporciona infraestructura, y AMD es un socio que proporciona infraestructura», afirmó. “Pero hay una segunda capa de asociaciones que se están produciendo con Nvidia y un par de otras empresas de silicio que aún no estamos listos para compartir, pero todas están en la mezcla y en MOU. [memorandums of understanding] se están firmando ahora mismo”.
El sorpresa Elon
Tripathi está más que equipada para afrontar los desafíos que se avecinan, ya que ha trabajado en algunas de las empresas tecnológicas más grandes del mundo.
“Sé lo suficiente sobre GPU; Solía construir GPU”, dijo Tripathi sobre su período de siete abriles en Nvidia, que terminó en 2007 cuando abandonó el barco para Apple cuando estaba lanzando el primer iPhone. “En Apple, me centré en resolver problemas reales de los clientes. Estuve allí cuando Apple comenzó a construir sus primeros SoC. [system on chips] para teléfonos”.
Tripathi incluso pasó dos abriles en Tesla de 2016 a 2018 como líder de ingeniería de hardware, donde terminó trabajando directamente bajo las órdenes de Elon Musk durante sus últimos seis meses luego de que dos personas por encima de él abandonaran abruptamente la empresa.
«En Tesla, lo que aprendí y estoy incorporando a mi startup es que no hay más limitaciones que la ciencia y la física», dijo. “La forma en que se hacen las cosas hoy no es como deberían o deben hacerse. Deberías perseguir lo que es correcto hacer desde los primeros principios y, para ello, eliminar todos los recuadros negros”.
Tripathi participó en la transición de Tesla con destino a la fabricación de sus propios chips, una medida que desde entonces ha sido emulada por GM y Hyundai, entre otros fabricantes de automóviles.
“Una de las primeras cosas que hice en Tesla fue calcular cuántos microcontroladores hay en un automóvil, y para hacerlo, fielmente tuvimos que clasificar un montón de esas grandes cajas negras con protección y carcasa de metal más o menos, para Encuentre estos microcontroladores positivamente pequeños allí”, dijo Tripathi. “Y terminamos poniendo eso sobre una mesa, lo colocamos y dijimos: ‘Elon, hay 50 microcontroladores en un coche. Y a veces pagamos márgenes de 1.000 veces por ellos porque están blindados y protegidos en una gran carcasa metálica.’ Y él dijo: «Vamos a hacer el nuestro». Y lo hicimos”.
GPU como fianza
Mirando con destino a el futuro, FlexAI incluso aspira a construir su propia infraestructura, incluidos centros de datos. Esto, dijo Tripathi, se financiará mediante financiación de deuda, basándose en una tendencia fresco que ha trillado a rivales en el espacio, incluidos CoreWeave y Lambda Labs, utilizar chips Nvidia como fianza para avalar préstamos, en zona de regalar más caudal.
«Los banqueros ahora saben cómo utilizar las GPU como fianza», afirmó Tripathi. “¿Por qué regalar caudal? Hasta que nos convirtamos en un efectivo proveedor de informática, el valía de nuestra empresa no será suficiente para conseguir los cientos de millones de dólares necesarios para volver en la construcción de centros de datos. Si sólo hiciéramos equidad, desapareceríamos cuando se acabara el boleto. Pero si positivamente lo depositamos en GPU como fianza, pueden quitarnos las GPU y ponerlas en algún otro centro de datos”.
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio manifiesto, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir información profesional, médica, judicial o psicológica.