智东西
作者 | ZeR0
编辑 | 漠影
智东西2月9日报道,昨夜,谷歌在巴黎直播活动上宣布了一系列人工智能(AI)相关进展,涉及搜索、翻译和地图应用。
跟微软同日发布的嵌入ChatGPT功能的新版Bing相比,谷歌发布的内容略显“温和”,仅对周一公布的对话式AI聊天服务Bard做了非常简短的演示,更多将重心放在介绍Google Len、翻译和导航体验的优化上。
Bard构建于谷歌对话式AI语言模型LaMDA的轻量级模型版本之上,目前仅对“受信任的测试人员”开放。谷歌的态度一如既往很谨慎,并没有透露计划何时公开,估计是打算等Bard足够完善后再正式发布。
现场谷歌做了个简短的Bard演示,比如询问观星时最佳星座建议,生成式AI能够生成直观的搜索结果。看起来跟微软新版Bing的聊天功能大差不差。
谷歌搜索的许多功能都是由AI驱动的。谷歌基于图像识别和OCR技术的AI应用Google Lens的每月使用量已超过100亿次。
谷歌高级副总裁Prabhakar Raghavan认为Google Lens将“超越传统的搜索概念”,比如当你购物时,方便你找到与目标物相似的产品。
“多重搜索”功能使用Google Lens照片和文本输入
谷歌将在安卓手机上推出“搜索屏幕”功能。只需长按安卓手机上的主页按钮,就能调出谷歌助手和“搜索屏幕”选项,无需离开当前应用程序,即可执行搜索功能,了解有关它们的更多详细信息。该功能适用于照片、视频、网站和应用程序。
安卓上新的“搜索屏幕”功能
谷歌“多重搜索”(Google Multisearch)功能将使得用户能够根据图像本身获得更多信息和上下文。借助这一功能,你可以为想要购买的产品拍照,然后为其输入不同的颜色。这个功能正在改进中,将在全球范围推出。
“多重搜索”功能将在移动设备的搜索结果页面上运行
还有跟艺术文化相关的AI新功能,比如搜索数千位艺术家的名画,并对其进行细致入微的研究。
超过10亿人正在使用谷歌翻译。一种新的Zero-shot机器翻译技术,无需传统训练方式即可学习翻译成另一种语言。谷歌用这种方法增加了对24种新语言的翻译支持。
目前谷歌正在改进英语、法语、德语、日语和西班牙语的上下文翻译,具有多重含义的单词和短语将根据文本的上下文进行翻译,让译句更加自然。这项更新将在未来几周推出,并会在未来几个月内支持更多的语言。
去年,谷歌更新了安卓版谷歌翻译,现在iOS应用功能和用户界面也进行了更新,并新增了对33种语言的离线翻译支持。更新后的App在底部中心有一个大麦克风,用户语音输入文本更方便。
此外,新App设计添加了手势,比如向下滑动以访问最近的翻译和按住语言按钮以快速选择最近使用的语言。
谷歌的“沉浸式视图”(immersive view)功能使用AI技术融合了数十亿张街景和航拍图像,创建了一个世界的数字模型,并添加有不同图层,方便用户快速查看不同天气下的地标和交通状况。
该功能还可以显示某个地方的繁忙程度、进入路线以及附近有哪些景点。沉浸式视图将率先在伦敦、洛杉矶、纽约、旧金山和东京提供。阿姆斯特丹、都柏林、佛罗伦萨和威尼斯将在未来几个月内获得该功能。
谷歌地图的AR功能已经被广泛应用。只需打开手机摄像头,对准周边环境,数字信息就会显示在屏幕上。比如当你将摄像头对准某家咖啡店,你可以在手机屏幕上看到这家店的评论。
还有面向机场、火车站和购物中心等室内环境的“室内实时视图(Indoor Live View)”功能,用AR箭头进行导航,帮助用户更快找到附近的餐馆、自动取款机或交通枢纽,生活更加便利。谷歌未来几个月将在各地机场、火车站和购物中心新增1000个站点。
在导航方面,谷歌也面向电动汽车车主推出了新的地图功能,让AI推荐最佳充电站,它会考虑到交通、充电水平和旅行的能耗,并会突出显示“非常快速的充电站”,帮助消除“里程焦虑”。
总体来看,谷歌今天公布的一系列进展,可以用“让生活更便利”加以概之,搜索调用更加轻便高效,翻译功能支持更多国家,地图借助AI和AR功能将导航视觉化,让找路变得更容易。
当然期待值最高的还是谷歌在AI搜索和聊天功能方面的动向,虽说Bard仍处在有限测试状态,但在微软Bing的刺激下,相信无论是Bard还是加入聊天功能的谷歌搜索,发布之日都不远了。