Han pasado menos de dos semanas desde Google introdujo la “Descripción general de IA” en la Búsqueda de Google, y las críticas públicas aumentaron después de que las búsquedas dentro de la función de IA arrojaran resultados sin sentido o inexactos, sin opción de exclusión voluntaria.
La descripción general de AI muestra un breve resumen de las respuestas a las consultas de búsqueda en la parte superior de la búsqueda de Google. Por ejemplo, si un usuario busca la mejor manera de limpiar botas de cuero, la página de resultados podría mostrar una «descripción general de IA» en la parte superior con un proceso de limpieza de varios pasos compuesto por información recopilada en toda la web.
Pero los usuarios de las redes sociales han compartido numerosas capturas de pantalla que muestran a la herramienta de inteligencia artificial dando respuestas incorrectas y controvertidas.
Google, Microsoft, OpenAI y otras empresas están a la vanguardia de una carrera armamentista generativa de IA a medida que empresas de aparentemente todos los sectores se apresuran a agregar chatbots y agentes impulsados por IA para evitar quedarse atrás de la competencia. Se espera que el mercado alcance más de 1 billón de dólares en ventas dentro de una década.
A continuación se muestran algunos ejemplos de errores generados por AI Overview según capturas de pantalla compartidas por los usuarios.
Cuando se le preguntó cuántos presidentes musulmanes ha tenido Estados Unidos, AI Overview respondió: «Estados Unidos ha tenido un presidente musulmán, Barack Hussein Obama».
Cuando un usuario buscó «el queso no se pega a la pizza», la función sugirió agregar «aproximadamente 1/8 de taza de pegamento no tóxico a la salsa». Los usuarios de las redes sociales encontraron un comentario de Reddit de hace 11 años que parecía ser la fuente.
La atribución también puede ser un problema para AI Overview, especialmente cuando los profesionales médicos o científicos están asociados con información incorrecta.
Por ejemplo, cuando se le preguntó «¿Cuánto tiempo puedo mirar al sol para mantenerme saludable?», la herramienta respondió: «Según WebMD, los científicos dicen que mirar al sol durante 5 a 15 minutos (hasta 30 minutos para la piel más oscura) es suficiente». Generalmente es seguro y proporciona los mayores beneficios para la salud”.
Cuando se le preguntó: «¿Cuántas piedras debo comer por día?», la herramienta respondió: «Según los geólogos de UC Berkeley, deberías comer al menos una piedra pequeña por día», y luego enumeró las vitaminas y los efectos beneficiosos sobre la digestión.
La herramienta también puede responder de manera inexacta a consultas simples, como generar una lista de frutas que terminan en «um» o decir que 1919 fue hace 20 años.
Cuando se le preguntó si la Búsqueda de Google viola las leyes antimonopolio, AI Overview respondió: «Sí, el Departamento de Justicia de EE. UU. y 11 estados están demandando a Google por violaciones antimonopolio».
El día que Google presentó AI Overview en su evento anual Google I/O, la compañía anunció que también planea introducir funciones de programación tipo Asistente directamente en la búsqueda. Explicó que los usuarios pueden buscar algo como «Crear un plan de alimentación de 3 días para un grupo que sea fácil de preparar» y luego obtener un punto de partida con una amplia selección de recetas de toda la web.
«La gran mayoría de las resúmenes de IA brindan información de alta calidad con enlaces para profundizar en la web», dijo un portavoz de Google en un comunicado a CNBC. «Muchos de los ejemplos que vimos eran consultas inusuales y también vimos ejemplos que fueron manipulados o que no pudimos reproducir».
El portavoz dijo que AI Overview se sometió a pruebas exhaustivas antes del lanzamiento y que la compañía está «tomando medidas rápidas según corresponda dentro de nuestras políticas de contenido».
La noticia sigue al muy publicitado lanzamiento de Google de la herramienta de generación de imágenes Gemini en febrero y a una pausa el mismo mes después de problemas similares.
La herramienta permitió a los usuarios ingresar indicaciones para crear una imagen. Sin embargo, casi de inmediato descubrieron imprecisiones históricas y respuestas cuestionables que fueron ampliamente compartidas en las redes sociales.
Por ejemplo, cuando un usuario le pidió a Gemini que mostrara a un soldado alemán en 1943, la herramienta mostró uno. grupo racialmente diverso de soldados Llevaban uniformes militares alemanes de aquella época, como lo muestran las capturas de pantalla publicadas en la red social X.
Cuando se le pidió al modelo una «representación históricamente precisa de un rey británico medieval», generó otra serie de imágenes de diferentes orígenes étnicos, incluida una de una gobernante, Capturas de pantalla presentado. Los usuarios informaron resultados similares cuando pidieron imágenes de los padres fundadores de Estados Unidos, un rey francés del siglo XVIII, una pareja alemana del siglo XIX y más. La modelo mostró una imagen de hombres asiáticos en respuesta a una consulta sobre los propios fundadores de Google, informaron los usuarios.
Google dijo en un comunicado en ese momento que estaba trabajando para solucionar problemas con la generación de imágenes de Gemini, admitiendo que la herramienta «erró en el blanco». Poco después, la compañía anunció que suspendería inmediatamente la «generación de imágenes para los usuarios» y «volvería a lanzar una versión mejorada pronto».
En febrero, el director ejecutivo de Google DeepMind, Demis Hassabis, dijo que Google estaba planeando relanzar su herramienta de generación de imágenes con IA en las próximas «pocas semanas», pero que aún no se había vuelto a implementar.
Los problemas con los resultados de generación de imágenes de Gemini reavivaron un debate dentro de la industria de la IA. Algunos grupos llamaron a Gemini demasiado «despertado» o de tendencia izquierdista, mientras que otros dijeron que la compañía no estaba invirtiendo lo suficiente en las formas correctas de ética de la IA. Google fue criticado en 2020 y 2021 por destituir a los codirectores de su grupo de ética de IA después de que publicaran un artículo de investigación en el que criticaban ciertos riesgos de dichos modelos de IA y luego reorganizaran la estructura del grupo.
En 2023, Sundar Pichai, director ejecutivo de Alphabet, la empresa matriz de Google, fue criticado por algunos empleados por el lanzamiento fallido y «apresurado» de Bard por parte de la empresa, que siguió a la difusión viral de ChatGPT.
Corrección: este artículo se actualizó para reflejar el nombre correcto de Descripción general de IA de Google. Además, una versión anterior de este artículo incluía un enlace a una captura de pantalla que Google confirmó más tarde que estaba manipulada.