Es ese momento que has estado esperando todo el año: ¡el día de transigencia de Google I/O! Google inició su conferencia de desarrolladores cada año con un rápido flujo de anuncios, incluidas muchas revelaciones de cosas recientes en las que ha estado trabajando. Brian ya nos inició compartiendo lo que esperamos.
Como es posible que no haya tenido tiempo de ver la presentación completa de dos horas del martes, nos encargamos de eso y le brindamos comunicación rápido a las parte más importantes de la conferencia soberbio a medida que se anunciaron, todo en un formato obvio de digerir y obvio de entender. directorio descremada.
Funciones de seguridad actualizadas
El miércoles, Google anunció que agregará nuevas protecciones de seguridad y privacidad a Android, incluida la detección de amenazas en vivo en el dispositivo para detectar aplicaciones maliciosas, nuevas salvaguardas para compartir pantalla y una mejor seguridad contra simuladores de sitios celulares.
La compañía dijo que está aumentando la capacidad del dispositivo de su sistema Google Play Protect para detectar aplicaciones fraudulentas que intentan violar permisos confidenciales. Todavía utiliza IA para detectar si las aplicaciones intentan interactuar con otros servicios y aplicaciones de modo no autorizada.
Google dijo que si el sistema está seguro de un comportamiento astuto, desactiva la aplicación automáticamente. De lo contrario, alerta a la empresa para una revisión y luego alerta a los usuarios. Interpretar más
Google TV
Google incorporó su Gemini a su sistema activo de televisión inteligente Google TV para que pueda difundir descripciones de películas y programas de televisión. Cuando desatiendo una descripción en la pantalla de inicio, la IA la completará automáticamente para avalar que los espectadores nunca tengan que preguntarse de qué negociación un título. Todavía traducirá descripciones al idioma nativo del espectador, lo que hará que el contenido sea más reconocible para una audiencia más amplia. ¿La mejor parte? Las descripciones generadas por IA todavía se personalizan según el naturaleza del espectador y las preferencias del actor. Interpretar más
Función de espacio privado
Ahora aquí hay uno divertido. Private Space es una nueva característica de Android que permite a los usuarios aislar una parte del sistema activo para obtener información confidencial. Es un poco como el modo Incógnito del sistema activo móvil, que divide las aplicaciones designadas en un «contenedor».
El espacio está habitable desde el iniciador y se puede circunvalar como segunda capa de autenticación. Las aplicaciones en el Espacio Privado estarán ocultas de notificaciones, configuraciones y recientes. Los usuarios aún pueden obtener a las aplicaciones a través de una hoja para compartir del sistema y un selector de fotos en el espacio principal, siempre que el espacio privado esté desbloqueado.
Los desarrolladores pueden probarlo ahora, pero hay una advertencia: hay un error. Google dice que aplazamiento solucionar el error en los próximos días. Interpretar más
Google Maps obtiene AR geoespacial
Los usuarios de Google Maps pronto tendrán una nueva capa de contenido en sus teléfonos: tendrán comunicación a contenido de efectividad aumentada geoespacial. La función aparecerá por primera vez en Singapur y París como parte de un software piloto que se lanzará a finales de este año.
Los usuarios podrán obtener al contenido AR buscando primero una ubicación en Google Maps. Si la ubicación tiene contenido AR y el sucesor está cerca del circunscripción, deberá tocar la imagen que dice “Experiencia AR” y luego izar su teléfono.
Si determinado está explorando un circunscripción de forma remota, podrá ver la misma experiencia de RA en Street View. Luego de explorar el contenido AR, los usuarios pueden compartir la experiencia a través de una URL de enlace profundo o un código QR en las redes sociales. Interpretar más
Use OS 5
Google ofreció una pinta previa para desarrolladores de la nueva interpretación de su sistema activo de temporalizador inteligente, Wear OS 5. La última interpretación se centra en una veterano duración de la formación y otras mejoras de rendimiento, como un seguimiento más competente del entrenamiento. Los desarrolladores todavía están obteniendo herramientas actualizadas para crear esferas de temporalizador, así como nuevas versiones de mosaicos Wear OS y Jetpack Compose para crear aplicaciones de temporalizador. Interpretar más
Minuto TechCrunch
Como señalamos a lo espacioso de esta publicación, la conferencia de desarrolladores de Google I/O llegó con una gran dosis de IA. Vea cómo Anthony Ha lo resumió el miércoles. Interpretar más
Incluso Elon Musk tomó nota
Filtro de búsqueda “web”
Google introdujo una nueva forma de filtrar solo enlaces basados en texto. El nuevo filtro «Web» aparece en la parte superior de la página de resultados y permite a los usuarios filtrar enlaces de texto de la misma modo que hoy pueden filtrar imágenes, videos, parte o compras.
Como informa Sarah Pérez, el tiro es una admisión de que a veces la clan querrá simplemente mostrar enlaces de texto a páginas web, todavía conocidos como los clásicos enlaces azules, que hoy en día suelen tener una importancia secundaria ya que Google avala la pregunta en sus paneles de conocimiento informativos. o, ahora, mediante experimentos de IA. Interpretar más
Genkit de cojín de fuego
Hay una nueva incorporación a la plataforma Firebase, señal Firebase Genkit, que tiene como objetivo solucionar a los desarrolladores la creación de aplicaciones impulsadas por IA en JavaScript/TypeScript, y pronto habrá soporte para Go. Es un ámbito de código despejado, que utiliza la abuso Apache 2.0, que permite a los desarrolladores incorporar rápidamente IA en aplicaciones nuevas y existentes.
Algunos de los casos de uso de Genkit que la compañía destaca el martes incluyen muchos de los casos de uso habitual de GenAI: coexistentes y sinopsis de contenido, traducción de texto y coexistentes de imágenes. Interpretar más
El Google I/O del martes duró 110 minutos, pero Google logró hacer remisión a la IA 121 veces durante (según su propio recuento) el evento. El director ejecutor, Sundar Pichai, hizo remisión a la guarismo para concluir la presentación y afirmó descaradamente que la empresa estaba haciendo el «trabajo duro» de contar para nosotros. Una vez más, no fue una sorpresa: estábamos preparados para ello. Interpretar más
IA generativa para el formación
Todavía hoy, Google presentó LearnLM, una nueva comunidad de modelos de IA generativa “afinados” para el formación. Es una colaboración entre la división de investigación DeepMind AI de Google y Google Research. Los modelos LearnLM están diseñados para dar tutoría “conversacional” a los estudiantes sobre una variedad de temas, dice Google.
Aunque ya está habitable en varias plataformas de Google, la empresa está llevando a LearnLM a través de un software piloto en Google Classroom. Todavía está trabajando con educadores para ver cómo LearnLM podría simplificar y mejorar el proceso de planificación de lecciones. LearnLM podría ayudar a los profesores a descubrir nuevas ideas, contenidos y actividades, dice Google, o a encontrar materiales adaptados a las deposición de grupos de estudiantes específicos. Interpretar más
avezado de pruebas
Hablando de educación, una novedad en YouTube son los cuestionarios generados por IA. Esta nueva utensilio de inteligencia sintético conversacional permite a los usuarios «izar la mano» en sentido figurado cuando miran videos educativos. Los espectadores pueden hacer preguntas aclaratorias, obtener explicaciones efectos o realizar una prueba sobre el tema.
Esto supondrá un cierto alivio para aquellos que tienen que ver vídeos educativos más largos, como conferencias o seminarios, adecuado a las capacidades de contexto prolongado del maniquí Gemini. Estas nuevas funciones se están implementando para usuarios seleccionados de Android en los EE. UU. Interpretar más
Actualizaciones de Renuevo 2
Una de las principales solicitudes que Google escuchó de los desarrolladores es la de un maniquí Gemma más egregio, por lo que Google agregará un nuevo maniquí de 27 mil millones de parámetros a Gemma 2. Esta próxima coexistentes de modelos Gemma de Google se lanzará en junio. Nvidia optimiza este tamaño para ejecutarse en GPU de próxima coexistentes y puede ejecutarse de modo competente en un único host de TPU y AI de vértice, dijo Google. Interpretar más
Google Play
Google Play está llamando la atención con una nueva función de descubrimiento para aplicaciones, nuevas formas de apropiarse usuarios, actualizaciones de Play Points y otras mejoras en las herramientas orientadas a los desarrolladores como Google Play SDK Console y Play Integrity API, entre otras cosas.
De particular interés para los desarrolladores es poco llamado Engage SDK, que introducirá una forma para que los creadores de aplicaciones muestren su contenido a los usuarios en una experiencia inmersiva de pantalla completa personalizada para cada sucesor individual. Sin requisa, Google dice que esta no es una superficie que los usuarios puedan ver en este momento. Interpretar más
Detectar estafas durante las llamadas
El martes, Google presentó una pinta previa de una función que cree que alertará a los usuarios sobre posibles estafas durante la señal.
La función, que se integrará en una interpretación futura de Android, utiliza Gemini Nano, la interpretación más pequeña de la proposición de IA generativa de Google, que se puede ejecutar completamente en el dispositivo. El sistema audición eficazmente en tiempo actual “patrones de conversación comúnmente asociados con estafas”.
Google pone el ejemplo de determinado que se hace advenir por un “representante de un faja”. Las tácticas comunes de los estafadores, como solicitudes de contraseñas y tarjetas de regalo, todavía activarán el sistema. Se entiende harto perfectamente que todas estas son formas de extraerle su metálico, pero muchas personas en el mundo todavía son vulnerables a este tipo de estafas. Una vez activado, aparecerá una notificación indicando que el sucesor puede estar siendo víctima de personajes desagradables. Interpretar más
Preguntar fotos
Google Photos está recibiendo una infusión de IA con el tiro de una función práctico, Ask Photos, impulsada por el maniquí Gemini AI de Google. La nueva incorporación, que se lanzará a finales de este verano, permitirá a los usuarios inquirir en su colección de Google Photos utilizando consultas en habla natural que aprovechan la comprensión de la IA del contenido de sus fotografías y otros metadatos.
Si perfectamente ayer los usuarios podían inquirir personas, lugares o cosas específicas en sus fotos, gracias al procesamiento del habla natural, la modernización de la IA hará que encontrar el contenido correcto sea más intuitivo y menos un proceso de búsqueda manual.
Y el ejemplo todavía fue bello. ¿A quién no le encanta un dúo de animales de peluche de tigre y Golden Retriever llamado «Golden Stripes»? Interpretar más
Todo sobre Géminis
Géminis en Gmail
Los usuarios de Gmail podrán inquirir, resumir y redactar sus correos electrónicos utilizando su tecnología Gemini AI. Todavía podrá tomar medidas en los correos electrónicos para tareas más complejas, como ayudarlo a procesar una devolución de comercio electrónico buscando en su bandeja de entrada, encontrando el recibo y completando un formulario en ringlera. Interpretar más
Géminis 1.5 Pro
Otra modernización de la IA generativa es que Gemini ahora puede analizar documentos, bases de código, vídeos y grabaciones de audio más largos que ayer.
En una pinta previa privada de una nueva interpretación de Gemini 1.5 Pro, el maniquí insignia contemporáneo de la compañía, se reveló que puede aceptar hasta 2 millones de tokens. Eso es el doble del monto mayor antedicho. Con ese nivel, la nueva interpretación de Gemini 1.5 Pro admite la veterano entrada de cualquier maniquí habitable comercialmente. Interpretar más
Géminis en vivo
La compañía presentó una pinta previa de una nueva experiencia en Gemini señal Gemini Live, que permite a los usuarios tener chats de voz «profundos» con Gemini en sus teléfonos inteligentes. Los usuarios pueden interrumpir a Gemini mientras el chatbot palabra para hacer preguntas aclaratorias y se adaptará a sus patrones de palabra en tiempo actual. Y Gemini puede ver y reponer al entorno de los usuarios, ya sea a través de fotografías o vídeos capturados por las cámaras de sus teléfonos inteligentes.
A primera pinta, Live no parece una prosperidad drástica con respecto a la tecnología existente. Pero Google afirma que aprovecha técnicas más nuevas del campo de la IA generativa para ofrecer un exploración de imágenes superior y menos propenso a errores, y combina estas técnicas con un motor de voz mejorado para ganar un diálogo de múltiples turnos más consistente, emocionalmente expresivo y realista. Interpretar más
Géminis Nano
Ahora para un pequeño anuncio. Google todavía está construyendo Gemini Nano, el más pequeño de sus modelos de IA, directamente en el cliente de escritorio Chrome, comenzando con Chrome 126. Esto, según la compañía, permitirá a los desarrolladores utilizar el maniquí en el dispositivo para potenciar sus propias funciones de IA. Google planea utilizar esta nueva capacidad para potenciar funciones como la utensilio existente «ayúdame a escribir» de Workspace Lab en Gmail, por ejemplo. Interpretar más
Géminis en Android
Gemini de Google en Android, su reemplazo de inteligencia sintético para el Asistente de Google, pronto aprovechará su capacidad para integrarse profundamente con el sistema activo móvil de Android y las aplicaciones de Google. Los usuarios podrán tirar y soltar imágenes generadas por IA directamente en Gmail, Google Messages y otras aplicaciones. Mientras tanto, los usuarios de YouTube podrán tocar «Preguntar a este video» para encontrar información específica interiormente de ese video de YouTube, dice Google. Interpretar más
Géminis en Google Maps
Las capacidades del maniquí Gemini llegarán a la plataforma Google Maps para desarrolladores, comenzando con la API de Places. Los desarrolladores pueden mostrar resúmenes generativos de IA de lugares y áreas en sus propias aplicaciones y sitios web. Los resúmenes se crean en cojín al exploración de Gemini de los conocimientos de la comunidad de Google Maps de más de 300 millones de contribuyentes. ¿Que es mejor? Los desarrolladores ya no tendrán que escribir sus propias descripciones personalizadas de lugares. Interpretar más
Las unidades de procesamiento tensorial obtienen un aumento de rendimiento
Google presentó su próxima coexistentes, la sexta, para ser exactos, de sus chips de inteligencia sintético Tensor Processing Units (TPU). Apodados Trillium, se lanzarán a finales de este año. Si recuerda, anunciar la próxima coexistentes de TPU es una especie de tradición en I/O, incluso cuando los chips recién se lanzarán más delante este año.
Estos nuevos TPU contarán con un aumento de rendimiento de 4,7 veces en el rendimiento informático por chip en comparación con la villa coexistentes. Sin requisa, lo que quizás sea aún más importante es que Trillium presenta la tercera coexistentes de SparseCore, que Google describe como «un acelerador especializado para procesar incrustaciones ultragrandes comunes en cargas de trabajo de clasificación y recomendación avanzadas». Interpretar más
IA en la búsqueda
Google está agregando más inteligencia sintético a su búsqueda, disipando las dudas de que la compañía esté perdiendo décimo de mercado frente a competidores como ChatGPT y Perplexity. Está implementando descripciones generales impulsadas por inteligencia sintético para usuarios en los EE. UU. Encima, la compañía todavía averiguación utilizar Gemini como agente para cosas como la planificación de viajes. Interpretar más
Google planea utilizar IA generativa para organizar toda la página de resultados de búsqueda para algunos resultados de búsqueda. Esto se suma a la función de descripción caudillo de IA existente, que crea un breve fragmento con información agregada sobre un tema que estaba buscando. La función AI Overview estará habitable de forma generalizada el martes, a posteriori de una temporada en el software AI Labs de Google. Interpretar más
Actualizaciones de IA generativa
Google anunció Imagen 3, el final maniquí de la comunidad de modelos de IA generativa Imagen del cíclope tecnológico.
Demis Hassabis, director ejecutor de DeepMind, la división de investigación de inteligencia sintético de Google, dijo que Imagen 3 comprende con veterano precisión las indicaciones de texto que traduce en imágenes en comparación con su predecesor, Imagen 2, y es más «creativo y detallado» en sus generaciones. Encima, el maniquí produce menos «artefactos que distraen» y errores, dijo.
«Esto es [also] nuestro mejor maniquí hasta el momento para representar texto, lo que ha sido un desafío para los modelos de coexistentes de imágenes”, agregó Hassabis. Interpretar más
Tesina IDX
Project IDX, el entorno de avance basado en navegador centrado en IA de próxima coexistentes de la compañía, ahora se encuentra en interpretación beta abierta. Con esta modernización viene una integración con Google Maps Platform en el IDE, lo que ayuda a juntar funciones de geolocalización a sus aplicaciones, así como integraciones con Chrome Dev Tools y Lighthouse para ayudar a depurar aplicaciones. Pronto, Google todavía permitirá implementar aplicaciones en Cloud Run, la plataforma sin servidor de Google Cloud para ejecutar servicios front-end y back-end. Interpretar más
Veo
Google está apuntando a Sora de OpenAI con Veo, un maniquí de IA que puede crear videoclips de 1080p de aproximadamente un minuto de duración con un mensaje de texto. Veo puede capturar diferentes estilos visuales y cinematográficos, incluidas tomas de paisajes y lapsos de tiempo, y realizar ediciones y ajustes en metraje ya generado.
Todavía se base en el trabajo comercial preliminar de Google en coexistentes de vídeo, presentado en abril, que aprovechó la comunidad Imagen 2 de modelos de coexistentes de imágenes de la compañía para crear clips de vídeo en onda. Interpretar más
Círculo para inquirir
La función Circle to Search impulsada por IA, que permite a los usuarios de Android obtener respuestas instantáneas usando gestos como círculos, ahora podrá resolver problemas más complejos en problemas escritos de psíquicos y matemáticos. Está diseñado para que sea más natural interactuar con la Búsqueda de Google desde cualquier circunscripción del teléfono realizando alguna acto, como rodear, resaltar, borronear o tocar. Ah, y todavía es mejor ayudar a los niños con sus tareas directamente desde teléfonos y tabletas Android compatibles. Interpretar más
Píxel 8a
Google no podía esperar hasta I/O para mostrar la última incorporación a la ringlera Pixel y anunció el nuevo Pixel 8a la semana pasada. El teléfono comienza en $499 y se envía el martes. Las actualizaciones todavía son lo que esperábamos de estas actualizaciones. En la parte superior de la directorio está la incorporación del chip Tensor G3. Interpretar más
Pizarra de píxeles
La tableta Pixel de Google, señal Slate, ya está habitable. Si recuerdas, Brian revisó la tableta Pixel por esta época el año pasado y de lo único que habló fue de la cojín. Curiosamente, la tableta está habitable sin él. Interpretar más
Estaremos actualizando esta publicación a lo espacioso del día…
¡Estamos lanzando un boletín informativo sobre IA! Regístrese aquí para comenzar a recibirlo en sus bandejas de entrada el 5 de junio.
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio notorio, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir consultorio profesional, médica, justo o psicológica.