Microsoft lanzará sus chips Cobalt 100 personalizados a los clientes como una pinta previa pública en su conferencia Build la próxima semana, según se enteró TechCrunch.
En una sesión informativa con analistas antaño de Build, Scott Guthrie, vicepresidente ejecutor del género Microsoft Cloud and AI de Microsoft, comparó directamente Cobalt con los chips Graviton de AWS, que han estado disponibles para los desarrolladores desde hace bastantes primaveras. Guthrie dijo que los chips de Microsoft ofrecerán un rendimiento un 40% mejor que otros chips ARM del mercado. Adobe, Snowflake y otros ya han comenzado a utilizar los nuevos chips.
Microsoft anunció por primera vez sus chips Cobalt en noviembre pasado. Estos chips de 64 bits se basan en la construcción Arm y cuentan con 128 núcleos.
Encima de los chips Cobalt, Microsoft incluso pondrá a disposición de los clientes de Azure los aceleradores MI300X de AMD la próxima semana. A pesar de ser un importante fabricante de GPU, AMD ha estado detrás de Nvidia durante mucho tiempo en el espacio de la IA, pero a medida que los grandes proveedores de la montón buscan alternativas a los costosos chips de Nvidia, y a medida que AMD ha comenzado a obtener poco de dominio en este espacio al ofrecer un mejor soporte de software, Estos nuevos chips incluso son ahora un producto de moda.
Guthrie la describió como «la GPU más rentable que existe actualmente para Azure OpenAI».
Entre las otras noticiario que aprendimos está que Microsoft bajará sus precios para ingresar y ejecutar modelos de jerga grandes en Build la próxima semana. Sin retención, aún no está claro cómo será exactamente eso.
Microsoft incluso entrará en traducción preliminar con un nuevo «sistema de inteligencia en tiempo existente» que permitirá la transmisión de datos en tiempo existente a Fabric, el sistema de investigación de datos de Microsoft. Este sistema ofrecerá una integración nativa de Kafka, así como soporte para los sistemas de transmisión de datos Pub/Sub de AWS Kinesis y Google Cloud.
Microsoft incluso anunciará una asociación con Snowflake. Fabric ahora admitirá el formato Iceberg de Snowflake (encima del Parquet de Databricks), lo que permitirá «una interoperabilidad perfecta con Snowflake y permitirá que cualquier circunstancia que esté en Snowflake aparezca en Fabric y al revés».
Y para los fanáticos de Copilot: Microsoft planea divulgar una nueva función que permitirá a los desarrolladores cuidar sus medios de Azure directamente desde Copilot, utilizando jerga natural. «Eso permitirá un ciclo de explicación aún más rígido con jerga natural en toda su pila de explicación y Azure», afirmó Guthrie. Ese sistema está construido sobre un mecanismo de extensibilidad global, por lo que otros proveedores incluso podrán conectarse a él y ofrecer capacidades similares.
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio notorio, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir información profesional, médica, admitido o psicológica.