Banner de aplicaciones

Monitor Software


Google mejora sus búsquedas

Google mejora sus búsquedas
Multibúsqueda: búsquedas con imagen y texto a la vez

Publicación:30-09-2022
++--

Para que sean más intuitivas y visuales.

Desde hace ya bastantes meses, Google ha ido viendo cómo el nivel de uso de su buscador iba bajando. Los usuarios, especialmente los más jóvenes, recurrían ya a otros servicios para encontrar lo que buscaban. Desde foros como Reddit hasta redes sociales como TikTok. En la compañía tenían claro que para recuperar usuarios tenían que dar un empujón a su buscador, y eso es justo lo que han hecho. Y han aprovechado su evento Search On 2022 para anunciar todos los cambios y mejoras que han agregado al buscador de Google.

En la compañía señalan que a partir de ahora, encontrar información con su buscador será un proceso más natural e intuitivo. Para ello, entre otras cosas, en Google se han apoyado en la Inteligencia Artificial, y han hecho evolucionar las búsquedas para que puedan realizarse, en función de lo que quiera el usuario, mediante la combinación de imágenes, sonidos, texto.

Esto quiere decir que se podrá buscar en Google haciendo preguntas, con menos palabras, o incluso con ninguna y a partir de una imagen, y que el buscador entienda lo que el usuario pretende decirle y necesita. Además, cuanto aparezcan los resultados de las búsquedas, estarán organizadas de manera que resulte lógica para los usuarios.

Así, ahora en los resultados pueden aparecer, por ejemplo, resultados de Reddit y Quora, debidamente identificados y separados del resto de resultados. También vídeos, imágenes, indicaciones, noticias y otra información relacionada, en función de la búsqueda realizada en cada caso.

Multibúsqueda: búsquedas con imagen y texto a la vez

En primer lugar, en Google han desarrollado lo que llaman Multibúsqueda, un sistema para que las búsquedas visuals sean más naturales, que permite hacer búsquedas con imágenes y texto al mismo tiempo. El proceso, que se hace con la colaboración de Google Lens, es muy parecido al proceso que se sigue al apuntar en la vida real a algo o alguien y preguntar a una persona por lo que se señala.

Multibúsqueda ya lleva disponible en fase de prueba desde hace unas semanas en Estados Unidos, y en el evento que Google ha celebrado para explicar la evolución de sus búsquedas sus responsables han anunciado que en los próximos meses van a ampliarlo para que cubra 70 idiomas en los próximos meses.

Además, van a aportar más potencia a la Multibúsqueda con la posibilidad de hacer búsquedas de elementos cercanos con «Multibúsqueda cerca de mí». Con esta función podrá sacar una fotografía de un objeto desconocido, como un plato de comida o una planta, y encontrarlo en un lugar cercano a tu posición, ya sea un restaurante o una tienda de jardinería. El despliegue de esta última función empezará en Estados Unidos, y en inglés, a lo largo de este otoño.

Inteligencia Artificial para comprender lo que te rodea

Los avances que se han experimentado en Inteligencia Artificial han llegado a un nivel tal que ya no solo es posible utilizarla para traducir texto de manera automática y en unos instantes. Ahora también se pueden «traducir» en imágenes. De hecho, la gente ya usa Google para traducir el texto que encuentra en imágenes más de 1.000 millones de veces cada mes, y en más de 100 idiomas. De esta manera pueden entender lo que pone en placas, menús o señales, entre otras cosas.

Pero dado que en muchas ocasiones, lo que añade contexto a estos textos es una combinación de palabras y de lo que les rodea, en Google han desarrollado un sistema para acoplar el texto traducido a la imagen de fondo en la que estaba. Para ello han utilizado una tecnología de machine learning llamada Generative Adversarial Networks (Redes adversarias generativas, o GANs). Gracias a este sistema, al apuntar con la cámara de un móvil a una revista en un idioma que no comprender, se verá el texto traducido colocado de manera realista en las imágenes que tenga.

Mejoras en Google Maps

Google también va a mejorar las búsquedas sobre mapas, mejorándolos con la ayuda de modelos predictivos y visión por ordenador para que explorarlos sea lo más natural y parecido a cómo se ve el mundo real. Eso ha llevado a que los mapas en 2D de Google Maps evolucionarán hasta convertirse en visiones multidimensionales del mundo real, que además resulten más útiles.

En la compañía se han referido a cómo la integración de información sobre el tráfico hizo que Google Maps fuese mucho más útil, para dar una idea de por dónde van lo cambios en mapas. En esta ocasión, la compañía va a dotar a los mapas de información útil, como información sobre el tiempo, o sobre si un establecimiento está más o menos lleno.

Estos y otros datos aparecerán con una vista inmersiva en Google Maps. Además, Google Maps podrá predecir lo lleno que estará un sitio no solo en el momento en el que se hace la búsqueda, sino también durante otros días, en base a estadísticas de ocupación.

La primera fase de estos avances se ha hecho para 250 puntos de Estados Unidos, y en cuanto a la vista inmersiva, en los próximos meses llegará a cinco grandes ciudades, a las que seguirán muchas otras más.



« Especial »