具体来看,Smart Canvas允许工作人员将会议记录、项目路线图和头脑风暴表插入Google文档。它允许Workspace用户通过@提及来标记团队成员,创建一个目标清单,概述团队成员在项目开始前可能需要做的任何前期工作,然后提出产品想法,接着再由其他团队成员进行投票,也可以列出头脑风暴完成后团队需要采取的下一步行动。 同时,谷歌也对既有功能Google Meet做了一些改进,包括在通话时允许大家一起展示文档、工作表和幻灯片。另外,Google Meet还带来了"伴侣模式",至于声音降噪、画质优化等,当然也是正常操作了。
第四代TPU和量子计算 谷歌在现场宣布了第四代TPU(张量处理器,Tensor Processing Unit) Pods,并宣称其速度是上一版本的两倍。 依据谷歌CEO劈柴的介绍,这些芯片整合了4096个v4 TPU,每秒能浮点运算次数达到百亿亿次(1 exaflops)。未来,这款芯片将被用在谷歌的数据中心。
"这是我们在Google部署过的最快的系统,对我们来说是历史性的里程碑,"劈柴表示,"以前要想获得1个exaflops的算力,通常需要建立一个定制的超级计算机,但我们今天已经部署了许多这样的计算机,很快就会在我们的数据中心有几十个TPU v4 pods,其中许多将以90%或接近90%的无碳能源运行。而我们的TPU v4 pods将在今年晚些时候提供给我们的云客户。" 与此同时,谷歌也首次向外界展示了量子AI计算中心,我们可以在其中看到多款设备,其中甚至包括了谷歌量子计算机。谷歌方面表示,他们的目标是"纠错的量子计算机"。
新一代自然语言理解模型——LaMDA 2018年,谷歌BERT模型正式发布,彼时号称是谷歌在NLP方向的最强模型,而在今晚,谷歌带来了新一代的自然语言理解模型——LaMDA(Language Model for Dialogue Applications)。 不同于BERT,LaMDA的最大特色在于能够在多个话题之间自由切换,让对话的过程更为自然。这与它的训练方式有关,不同于一般的模型,LaMDA是基于对话进行训练的,其训练过程中会学习不同形式语言的开放式对话,同时分辨对话的上下文是否具有关联性。
对此,谷歌举例,当有人说出"我刚刚开始上吉他课",虽然这句话本身并不是发问,但是这位说话者可能希望有人能够夸赞他,比如"感觉好棒啊,我妈也常常弹奏她的古董马丁吉他"。可以看到,虽然前后不具备直接关联性,但却能够呼应前言。 目前,LaMDA模型虽然还处于研发过程中,但是劈柴表示,最终的目标是将其整合进Google Assistant、Google Search与Workspace等产品和功能中。 MUM——能看会道的多任务统一模型 MUM全称为"Multitask Unified Model",是谷歌开发出来试着更了解人们搜索意图的多模态AI模型,官方宣称,其性能比BERT要强大1000倍,接受75多种语言的培训,能够同时做到理解文字、视频和图像。 大会现场,讲解者展示了一个关于登山准备的复杂案例。比如有人搜索英文"hiking",MUM模型会判断他可能会想要健身,进而推荐适合的装备;又或者有人这样搜索"我已攀过亚当斯山,现计划明年秋天爬富士山,请问我还要做好其它准备嘛?",MUM模型最终给出的反馈是:"富士山高度与之相当,但温度更冷,所以请备好相关装备。"
Google Lens——拍照即购物 此次Google Lens的更新主要集中在两点,分别是教育翻译和拍照购物。 教育翻译功能下,用户甚至可以拍下数学题的照片,随即Google Lens会以当地语言翻译答案和信息。 |