谷歌宣布搜索引擎多个新 AI 功能,听歌识曲 15 秒完成匹配

你有没有哼着一首歌却怎么也想不起歌名的情况?Google 发布了一些搜索功能的更新,其中就有一个“听歌识曲”功能,现在用户可以通过哼唱 10 到 15 秒匹配到想找的歌曲了。

Google 称,其已经通过人工智能和机器学习来改善用户体验,除了听歌识曲还更新了拼写和搜索查询功能。

谷歌更新 AI 功能,提供多种搜索支持

Google 表示,听歌识曲功能目前在 iOS 上以英语提供,在 Android 上以大约 20 种语言提供,将来在两种平台上都会提供更多语言支持。

现在,用户可以通过点击 mic 图标并说:“这是什么歌”,对着手机向 Google 哼歌,机器学习算法将提供匹配的歌曲。

image.png

除了听歌识曲,谷歌更新的 AI 功能还涵盖了拼写和常规的搜索查询。包括使用深度神经网络的新拼写算法,Google 称该算法大大提高了其查询拼写错误的能力。

新的拼写算法可以帮助理解拼写错误的单词的上下文,在 3 秒内找到正确的结果。同时,搜索现在将为页面中的各个段落建立索引,以允许定位所搜索文本块的特定位置。

神经网络也已被用于理解围绕兴趣的子主题,Google 表示,当用户进行广泛搜索时,这将有助于提供更大的内容多样性。

举例来说,如果用户搜索“家庭健身器材”,Google 会通过了解相关的副主题,比如器材的价格、品质或者占用空间等,在搜索结果页面上显示更多内容,这项功能将在今年年底开始推出。

利用数据共享,搜索结果更加多样化

2018 年 Google 启动了 Data Commons Project,从美国人口普查局、劳工统计局和世界银行等机构收集数据,将这些数据投入使用,通过搜索使信息更容易获取和使用。

比如,当你查询“芝加哥有多少人工作”这样的问题时,自然语言处理会将搜索映射到 Data Commons 数十亿个数据点中的一个特定集合,以一种可视化、易于理解的方式提供正确的数据。

Google 还指出,它的 BERT 语言理解系统现在已经被用于几乎所有的英语查询,这有助于用户得到更高质量的问题结果。通过使用人工智能,它现在可以理解视频的深层语义,并自动识别关键点。不过,这个功能目前正在测试中,它将在视频中标记时刻。

图像查询可识别 150 亿种事物

Google 还宣布了在学习和购物时使用 Google Lens 和增强现实的新方法。

通过拍摄照片或截图进行搜索已经可行,现在用户可以在 Google 应用或者 Android 上的 Chrome 点击并保存图片,而 Lens 会找到相同或相似的项目,并提出设计方法。该功能即将在 iOS 上的 Google 应用中推出。

Google Lens 现在可以识别 150 亿种事物,帮助识别植物、动物和地标,它还可以翻译 100 多种语言。

Google 还宣布了其处理冠状病毒相关查询的方式的一些改进,帮助用户更容易的保持社交距离。Google 还在 Live View 中添加了一个新功能,可以获得企业的基本信息,帮助用户了解公司是否有戴口罩的要求,是否需要提前约或者是否有其他安全措施,比如提问检查等。

segmentfault 公众号


芒果果
3.4k 声望63 粉丝

一路走走看看,顺便留下点什么。