Google permitirá ahora buscar cosas que ni siquiera se pueden describir.
La nueva característica, llamada Google Lens Multisearch, significa que las personas podrán utilizar una imagen para explicar la cosa que están buscando.
Si alguien ha encontrado un vestido que le gusta pero lo quiere en verde en lugar del amarillo que tiene en una foto, por ejemplo, puede subir esa foto y decirle a Google que busque “verde”. Si tiene una planta que quiere cuidar pero no sabe el nombre, puede hacer una foto y añadir “instrucciones de cuidado” para saber cómo debe tratarse.
Google describe la herramienta como “una forma totalmente nueva de buscar”. Dice que forma parte de un intento de que la gente “vaya más allá del cuadro de búsqueda y haga preguntas sobre lo que ve”.
La función se basa en las actualizaciones de la inteligencia artificial de Google, que, según dice, facilitará a los usuarios encontrar lo que buscan. En el futuro, la función podría mejorarse con “MUM”, o Modelo Unificado de Multitarea, una nueva tecnología que, según Google, facilitará mucho las búsquedas.
Google lleva tiempo trabajando en esa herramienta y anunció una serie de cambios en torno a ella en un evento “Search On” el año pasado.
La función ya está en fase beta y se puede encontrar en la versión de la aplicación para iOS y Android. Sólo estará disponible para los usuarios de Estados Unidos.
Para encontrarla, los usuarios sólo tienen que abrir la aplicación y se les presentará la opción de utilizar la cámara o la voz, así como el texto.
Comments