Adobe dice que está construyendo un maniquí de inteligencia químico para difundir videos. Pero no revela cuándo se lanzará exactamente este maniquí, ni mucho sobre él encima del hecho de que existe.
Ofrecido como una especie de respuesta a Sora de OpenAI, Imagen 2 de Google y modelos del creciente número de nuevas empresas en el incipiente espacio de video de IA generativa, el maniquí de Adobe, una parte de la creciente comunidad Firefly de productos de IA generativa de la compañía, se abrirá paso en Premiere Pro, la suite de impresión de video insignia de Adobe, llegará a finales de este año, dice Adobe.
Como muchas herramientas de video de IA generativa actuales, el maniquí de Adobe crea imágenes desde cero (ya sea un mensaje o imágenes de relato) y potencia tres nuevas características en Premiere Pro: apéndice de objetos, matanza de objetos y extensión generativa.
Se explican por sí solos.
La apéndice de objetos permite a los usuarios clasificar un segmento de un clip de vídeo (por ejemplo, el tercio superior o la ángulo inferior izquierda) e ingresar un mensaje para insertar objetos internamente de ese segmento. En una sesión informativa con TechCrunch, un portavoz de Adobe mostró una imagen fija de un maletín del mundo existente saciado de diamantes generado por el maniquí de Adobe.
La matanza de objetos elimina objetos de los clips, como micrófonos esplendor o tazas de café en el fondo de una toma.
En cuanto a la extensión generativa, agrega algunos fotogramas al principio o al final de un clip (desafortunadamente, Adobe no dijo cuántos fotogramas). La extensión generativa no pretende crear escenas completas, sino más aceptablemente adicionar fotogramas intermedios para sincronizarlos con una bandada sonora o conservar una toma para darle un ritmo adicional, por ejemplo, para adicionar peso emocional.
Para enfrentarse el miedo a los deepfakes que inevitablemente surge en torno a herramientas de inteligencia químico generativa como estas, Adobe dice que traerá credenciales de contenido (metadatos para identificar medios generados por inteligencia químico) a Premiere. Las credenciales de contenido, un típico de procedencia de medios que Adobe respalda a través de su Iniciativa de Autenticidad de Contenido, ya estaban en Photoshop y eran un componente de los modelos Firefly de procreación de imágenes de Adobe. En Premiere, indicarán no solo qué contenido fue generado por IA sino además qué maniquí de IA se utilizó para generarlo.
Le pregunté a Adobe qué datos (imágenes, videos, etc.) se utilizaron para entrenar el maniquí. La compañía no dijo ni dijo cómo (o si) está compensando a los contribuyentes al conjunto de datos.
La semana pasada, Bloomberg, citando fuentes familiarizadas con el asunto, informó que Adobe paga a fotógrafos y artistas en su plataforma de medios de stock, Adobe Stock, hasta 120 dólares por dirigir clips de vídeo cortos para entrenar su maniquí de procreación de vídeo. Se dice que el suscripción oscila entre cerca de de $ 2,62 por minuto de video y cerca de de $ 7,25 por minuto, dependiendo de la presentación, y las imágenes de anciano calidad exigen tarifas correspondientemente más altas.
Eso sería una desviación del acuerdo flagrante de Adobe con los artistas y fotógrafos de Adobe Stock cuyo trabajo está utilizando para entrenar sus modelos de procreación de imágenes. La compañía paga a esos contribuyentes una rebaja anual, no una tarifa única, dependiendo del tamaño de contenido que tienen en stock y cómo se utiliza, aunque es una rebaja sujeta a una fórmula opaca y no garantizada de año en año.
Los informes de Bloomberg, si son precisos, representan un enfoque en impresionado contraste con el de rivales de video de IA generativa como OpenAI, que se dice que ha extraído datos web disponibles públicamente, incluidos videos de YouTube, para entrenar sus modelos. El director ejecutor de YouTube, Neal Mohan, dijo recientemente que el uso de videos de YouTube para entrenar el padre de texto a video de OpenAI sería una infracción de los términos de servicio de la plataforma, destacando la amor lícito del argumento de uso encajado de OpenAI y otros.
Las empresas, incluida OpenAI, están siendo demandadas por acusaciones de que están violando la ley de propiedad intelectual al entrenar su IA en contenido protegido por derechos de autor sin proporcionar crédito ni fertilizar a los propietarios. Adobe parece tener la intención de evitar este fin, como su competencia en algún momento generativa de IA, Shutterstock y Getty Images (que además tienen acuerdos para doctorarse datos de entrenamiento de modelos) y, con su política de indemnización de propiedad intelectual, posicionarse como una opción verificablemente “segura” para clientes empresariales.
En cuanto al suscripción, Adobe no dice cuánto les costará a los clientes utilizar las próximas funciones de procreación de video en Premiere; presumiblemente, todavía se están debatiendo los precios. pero la empresa hizo revelan que el esquema de suscripción seguirá el sistema de créditos generativos establecido con sus primeros modelos Firefly.
Para los clientes con una suscripción paga a Adobe Creative Cloud, los créditos generativos se renuevan a partir de cada mes, con asignaciones que van de 25 a 1000 por mes, según el plan. Las cargas de trabajo más complejas (por ejemplo, imágenes generadas con anciano resolución o generaciones de imágenes múltiples) requieren más créditos, como regla normal.
La gran pregunta que tengo en mente es: ¿las funciones de video impulsadas por IA de Adobe serán regir ¿Lo que terminen costando?
Los modelos de procreación de imágenes de Firefly hasta ahora han sido ampliamente ridiculizados por ser decepcionantes y defectuosos en comparación con Midjourney, DALL-E 3 de OpenAI y otras herramientas de la competencia. La desliz de un plazo de emanación en el maniquí de video no infunde mucha confianza de que evitará el mismo destino. Siquiera lo hace el hecho de que Adobe se negó a mostrarme demostraciones en vivo de apéndice y matanza de objetos y extensión generativa, insistiendo en cambio en un video pregrabado.
Quizás para cubrir sus apuestas, Adobe dice que está en conversaciones con proveedores externos sobre la integración de sus modelos de procreación de video en Premiere, así como para potenciar herramientas como la extensión generativa y más.
Uno de esos proveedores es OpenAI.
Adobe dice que está colaborando con OpenAI para encontrar formas de incorporar a Sora al flujo de trabajo de Premiere. (Una alianza con OpenAI tiene sentido dadas las recientes propuestas de la startup de IA en dirección a Hollywood; es revelador que la CTO de OpenAI, Mira Murati, asistirá al Festival de Cine de Cannes este año). Otros socios iniciales incluyen a Pika, una startup que crea herramientas de IA para difundir y editar videos. y Runway, que fue uno de los primeros proveedores del mercado con un maniquí de vídeo generativo.
Un portavoz de Adobe dijo que la empresa estaría abierta a trabajar con otros en el futuro.
Ahora aceptablemente, para ser muy claro, estas integraciones son más un test mental que un producto utilitario en la hogaño. Adobe me recalcó repetidamente que están en una “olfato previa anticipada” y en una “investigación” en zona de poco con lo que los clientes puedan esperar divertirse en el corto plazo.
Y eso, diría yo, captura el tono normal del prensador de video generativo de Adobe.
Adobe claramente está tratando de señalar con estos anuncios que está pensando en video generativo, aunque sólo sea en el sentido preliminar. Sería una tontería no hacerlo: acordar atrapado desprevenido en la carrera generativa de la IA es pasar el aventura de perder una nueva y valiosa fuente de ingresos potencial, suponiendo que la caudal finalmente funcione a valía de Adobe. (Luego de todo, los modelos de IA son costosos de entrenar, ejecutar y servir).
Pero, francamente, lo que muestra (conceptos) no es muy convincente. Con Sora en arbitrio y seguramente más innovaciones en camino, la compañía tiene mucho que demostrar.
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio divulgado, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir consultorio profesional, médica, lícito o psicológica.