El director ejecutivo de Google, Sundar Pichai, habla en la conferencia de desarrolladores Google I/O.
Andréi Sokolov | Alianza de imágenes | imágenes falsas
Google El martes, la compañía celebró su conferencia anual de desarrolladores de E/S y presentó una gama de productos de inteligencia artificial, desde nuevas funciones de búsqueda y chat hasta hardware de inteligencia artificial para clientes de la nube. Los anuncios subrayan el enfoque de la compañía en la IA mientras defiende a competidores como OpenAI.
Muchas de las funciones o herramientas introducidas por Google se encuentran solo en fases de prueba o limitadas a los desarrolladores, pero brindan una idea de cómo piensa el gigante tecnológico sobre la IA y dónde está invirtiendo. Google gana dinero con la IA cobrando a los desarrolladores que utilizan sus modelos y a los clientes que pagan por Gemini Advanced, el competidor de ChatGPT. El programa cuesta $19,99 por mes y puede ayudar a los usuarios a resumir archivos PDF, Google Docs y más.
Los anuncios del martes siguen a eventos similares de sus competidores de IA. A principios de este mes, AmazonasLa empresa respaldada por Anthropic anunció su primera oferta empresarial y una aplicación gratuita para iPhone. Mientras tanto, OpenAI lanzó el lunes un nuevo modelo de IA y una versión de escritorio de ChatGPT, así como una nueva interfaz de usuario.
Google anunció esto.
Actualizaciones de la IA de Géminis
Google ha lanzado actualizaciones para Gemini 1.5 Pro, su modelo de inteligencia artificial que pronto podrá procesar aún más datos; por ejemplo, la herramienta puede resumir 1.500 páginas de texto cargadas por un usuario.
También hay un nuevo modelo Gemini 1.5 Flash AI, que según la compañía es más rentable y está diseñado para tareas más pequeñas como resumir rápidamente conversaciones, subtitular imágenes y videos y recuperar datos de documentos grandes.
El director ejecutivo de Google, Sundar Pichai, destacó las mejoras en las traducciones de Gemini y agregó que estarán disponibles para todos los desarrolladores de todo el mundo en 35 idiomas. En Gmail, Gemini 1.5 Pro analiza archivos PDF y videos adjuntos y crea resúmenes y más, dijo Pichai. Esto significa que si te perdiste un hilo de correo electrónico largo mientras estabas de vacaciones, Gemini puede resumirlo junto con los archivos adjuntos.
Las nuevas actualizaciones de Gemini también son útiles al realizar búsquedas en Gmail. Un ejemplo que dio la compañía: si ha comparado precios de diferentes contratistas para reparar su techo y está buscando un resumen que lo ayude a elegir, Gemini podría enviarle tres cotizaciones junto con las fechas de inicio estimadas que figuran en los distintos correos electrónicos que se ofrecen. hilos.
Google dijo que Gemini eventualmente reemplazará al Asistente de Google en los teléfonos Android, lo que sugiere que será un competidor más poderoso. manzanas Siri en iPhone.
Google Veo, Imagen 3 y resúmenes de audio
Google anunció Veo, su último modelo para generar vídeo de alta resolución, e Imagen 3, su modelo de conversión de texto a imagen de mayor calidad que promete imágenes realistas y «menos artefactos visuales que distraigan que nuestros modelos anteriores».
Las herramientas estarán disponibles para desarrolladores seleccionados a partir del lunes y estarán disponibles en Vertex AI, la plataforma de aprendizaje automático de Google que ayuda a los desarrolladores a entrenar e implementar aplicaciones de IA.
La empresa también introdujo «Audio Overviews», la capacidad de generar debates de audio basados en la entrada de texto. Por ejemplo, si un usuario sube un plan de lección, el chatbot puede leer un resumen del mismo. Si estás pidiendo un ejemplo de un problema científico de la vida real, puedes hacerlo a través de audio interactivo.
![Sundar Pichai, director ejecutivo de Alphabet: con la IA generativa, podemos realizar búsquedas en Google mucho mejor](https://image.cnbcfm.com/api/v1/image/107414946-17157214361715721434-34527075380-1080pnbcnews.jpg?v=1715721436&w=750&h=422&vtcrop=y)
Por otra parte, la compañía también presentó «AI Sandbox», un conjunto de herramientas de inteligencia artificial generativa para crear música y sonidos desde cero según las aportaciones del usuario.
Sin embargo, las herramientas de IA generativa, como los chatbots y los creadores de imágenes, siguen teniendo problemas con la precisión.
El jefe de búsqueda de Google, Prabhakar Raghavan, dijo a los empleados el mes pasado que los competidores «pueden tener un nuevo dispositivo con el que a la gente le gusta jugar, pero aun así acuden a Google para comprobar lo que ven, porque es la fuente confiable, y esa es». volviendo cada vez más importante en la era de la IA generativa”.
A principios de este año, Google presentó el generador de imágenes basado en Gemini. Los usuarios descubrieron imprecisiones históricas que se volvieron virales en línea y la compañía retiró la función y dijo que la relanzaría en las próximas semanas. La función aún no se ha vuelto a publicar.
Nuevas funciones de búsqueda
El gigante tecnológico implementará “Descripciones generales de IA” en la Búsqueda de Google en los EE. UU. el lunes, según Liz Reid, directora de Búsqueda de Google. Las descripciones generales de IA muestran un resumen rápido de las respuestas a las preguntas de búsqueda más complejas. Por ejemplo, si un usuario busca la mejor manera de limpiar botas de cuero, la página de resultados podría mostrar una «descripción general de IA» en la parte superior con un proceso de limpieza de varios pasos derivado de la información recopilada en la web.
La empresa planea introducir funciones de programación tipo asistente directamente en la búsqueda. Explicó que los usuarios pueden buscar algo como «Crear un plan de alimentación de tres días para un grupo que sea fácil de preparar» y obtendrán un punto de partida con una amplia gama de recetas de Internet.
En cuanto a los avances en la provisión de «multimodalidad» o la integración de más imágenes y videos en herramientas de inteligencia artificial generativa, Google dijo que comenzará a probar la capacidad de los usuarios de hacer preguntas a través de videos, como por ejemplo, sobre un problema con un producto que poseen, filman o cargan. y pídale al motor de búsqueda que resuelva el problema. En un ejemplo, Google mostró a alguien filmando un tocadiscos roto y preguntando por qué no funcionaba. La búsqueda en Google encontró el modelo del tocadiscos y sospechó que podría estar funcionando mal porque no está equilibrado correctamente.
Otra característica nueva que se está probando se llama «AI Teammate» y se integrará en el Google Workspace del usuario. Puede crear una colección de trabajos con capacidad de búsqueda a partir de mensajes e hilos de correo electrónico con más archivos PDF y documentos. Por ejemplo, un aspirante a fundador podría preguntarle al compañero de equipo de IA: «¿Estamos listos para el lanzamiento?» y el asistente le proporcionará un análisis y un resumen basado en la información a la que puede acceder en Gmail, Google Docs y otras aplicaciones del espacio de trabajo.
Proyecto Astra
El Proyecto Astra es la última evolución de Google de su asistente de inteligencia artificial, desarrollado por la unidad de inteligencia artificial DeepMind de Google. Es solo un prototipo por el momento, pero puedes considerarlo como el objetivo de Google de desarrollar su propia versión de JARVIS, el omnisciente asistente de inteligencia artificial de Tony Stark del Universo Marvel.
En el vídeo de demostración presentado en Google I/O, el asistente, a través de vídeo y audio en lugar de una interfaz de chatbot, pudo ayudar al usuario a recordar dónde dejó sus gafas, revisar el código y responder preguntas para responder una parte específica de un par de gafas Se llama al orador si ese orador se muestra en el video.
Google dijo que un chatbot verdaderamente útil debe permitir a los usuarios «hablar con él de forma natural y sin demoras ni retrasos». La conversación en el vídeo de demostración se desarrolló en tiempo real y sin demoras. La demostración siguió a la presentación del lunes de OpenAI de una conversación de audio similar con ChatGPT.
Demis Hassabis, director ejecutivo de DeepMind, dijo en el escenario que “reducir el tiempo de respuesta a algo conversacional es un desafío técnico difícil”.
Pichai dijo que espera que el Proyecto Astra se lance en Gemini a finales de este año.
Hardware de IA
Google también anunció Trillium, su unidad de procesamiento TPU, o Tensor, de sexta generación, hardware esencial para ejecutar operaciones complejas de inteligencia artificial, que estará disponible para los clientes de la nube a fines de 2024.
Por ejemplo, los TPU no pretenden competir con otros chips Nvidia Procesadores gráficos. Por ejemplo, Pichai señaló durante I/O que Google Cloud comenzará a ofrecer las GPU Blackwell de Nvidia a principios de 2025.
Nvidia dijo en marzo que Google utilizará la plataforma Blackwell para «varias implementaciones internas y será uno de los primeros proveedores de nube en ofrecer instancias basadas en Blackwell», y que el acceso a los sistemas de Nvidia ayudará a Google a lograr implementaciones extensas para proporcionar herramientas para empresas. desarrolladores que construyen grandes modelos de lenguaje.
En su discurso, Pichai destacó la «asociación de larga data de Google con Nvidia». Las empresas han trabajado juntas durante más de una década y Pichai ha dicho en el pasado que espera que sigan haciéndolo dentro de una década.
![Vea la entrevista completa de CNBC con el director ejecutivo de Alphabet, Sundar Pichai](https://image.cnbcfm.com/api/v1/image/107414943-17157213211715721317-34527054768-1080pnbcnews.jpg?v=1715721320&w=750&h=422&vtcrop=y)