Google周三在其“Search On”活动中宣布,Google的一项新功能将允许用户使用图片和文字相结合的方式进行搜索,以找到提供他们正在寻找的服装、家居用品或食品的当地零售商,该功能将很快向美国的用户推出。该公司曾在今年5月的GoogleI/O开发者大会上预览了这一功能,预示着这一发展似乎是建立在AR眼镜可以用来启动搜索的未来。
这项功能建立在Google4月推出的人工智能驱动的“Multisearch”功能之上,该功能让用户结合照片和文字来制作自定义搜索,最初是围绕服装购物。例如,用户可以用一张连衣裙的照片在Google上搜索,然后输入“绿色”一词,以将搜索结果限制为仅显示该连衣裙有该特定颜色的搜索结果。
同时,Multisearch Near Me进一步扩展了这一功能,因为它可以将用户指向有绿色裙子库存的当地零售商。它还可以用来定位其他类型的商品,如家居用品、硬件、鞋子,甚至是当地餐馆最喜欢的一道菜。
Google副总裁兼搜索部总经理Cathy Edwards说:“这种新的搜索方式实际上是帮助你与当地企业建立联系,无论你是想支持你当地的邻里商店,还是你只是马上需要一些东西,不能等待运输。”
在Google的开发者大会上,该公司已经预览了这项功能将如何工作,因为用户可以利用他们的手机摄像头或上传图片来开始这种不同类型的搜索查询。该公司还展示了有一天用户可以用相机围绕他们面前的场景来了解他们面前的物体--有人猜测,这一功能将成为AR眼镜的一个引人注目的补充。
然而,这项功能本身在当时还没有向用户开放--它只是一个预览。
周三,Google说Multisearch Near Me将在“今年秋天”向美国用户推出英语版本。它没有给出一个确切的推出日期。
此外,Multisearch功能本身也将在未来几个月内扩展到支持70多种语言。