Google在周三的Search On活动中宣布,Google多重语言搜索工具--可以让用户同时使用图片和一些文字进行搜索--将在未来几个月内扩展到全球70多种语言。多重搜索通过使用Google Lens让用户更容易搜索那些仅用文字可能难以挖掘的东西。
比方说当用户看到一件自己喜欢的夹克但想找到它的另一种颜色,有了多重搜索,他就可以在Google的Android或iOS应用中打开Google Lens,然后拍下夹克的照片并输入自己想找到的夹克颜色,随后搜索。通过在更多语言中提供多重搜索,更多的人将能使用它。该工具最初于4月推出,不过当时仅在美国进行测试,目前则在全球范围内提供英语版本。
然而,有一项新的多语言搜索功能即将推出,据悉,它将率先在美国使用。在今年的GoogleI/O大会上,该公司预览了“我附近的多重搜索”,它可以让用户在当地找到东西。例如,如果正在寻找某道菜而这道菜可能在附近的一家餐馆有售,这可能很有用。在搜索大会上,Google宣布这项功能将在今年秋天的某个时候登陆美国。
Google还展示了其他一些看起来很方便的搜索功能。从周三开始,Google的iOS应用将开始在搜索栏下显示快捷键以显示搜索已经可以做的强大功能如用相机翻译文本或允许用户哼唱搜索歌曲。Google副总裁兼搜索部总经理Cathy Edwards在一次新闻发布会上说,这些快捷方式将很快出现在Android应用中。
该公司还推出了一些新的工具以帮助用户发现更多关于某个特定主题的信息。如当开始在搜索框中输入东西时,Google正在建立一个功能从而将建议用户点击关键词和主题选项以帮助填写其查询。
这听起来可能像自动完成,但在实践中似乎会有一些不同。用户可以在下面的GIF中了解它是如何工作的。另外,Google还可以在这些建议下向用户显示天气等信息。这项功能将在未来几个月在美国的手机上推出英文版本。
而在实际结果中,Google计划以一种更直观的方式来展示事物。在向媒体展示的一个例子中,Google显示了信息框,其中包括天气和在该市拍摄的视频,而不是只有关于瓦哈卡的链接列表。这些变化将在未来几个月在美国的英文版本中出现,同时也会在手机上出现。