首页 >民生救助

谷歌用十年时间完成了AI起步未来将成为业

2019-01-13 15:18:20 | 来源: 民生救助

谷歌用十年时间完成了AI起步 未来将成为业务中心

5月26道 文/卡卡落

刚刚结束的谷歌I/O大会让我眼睛一亮,往届大会谷歌的重点都在移动终端Android系统,但今年Android O只不过是一个附加项目,并没有重点介绍。谷歌将主要的内容都放在AI(人工智能)领域的一项又一项产品上,可见谷歌认为未来AI(人工智能)的重要性已经超过了其它,而且能够衍生出更多种可能性,所以才一口气展示了众多新技术和新产品。

去年年底到今年年初谷歌阿法狗大战中韩围棋高手的事情大家应该还历历在目,连续横扫棋坛众多的职业高手,达到了全胜无败的战绩,素有棋圣称号的聂卫平也没能拿下阿法狗。人工智能一下走进了普通老百姓而不仅仅是局限在行业内和科幻电影当中的词汇。实际上,谷歌达到了今天的成绩也仅仅是人工智能时代的起步阶段,或者说大门刚刚开启了一道缝隙,尽管他们早在十年前就开始了布局。

谷歌这十年都干了些什么?

实际上谷歌早在2006年就提出了深度学习理论,机器学习是人工智能的子集,而深度学习是机器学习的子集,使用复杂结构的多个处理层对数据进行高度抽象的一系列算法。从而瞄准了AI领域的增长点,要知道Android系统是在2007年年底才正式推出的,可见AI在谷歌这里并不是什么新项目。

到了2010年,他们又挖到了斯坦福大学的吴恩达博士,组建Google Brain团队,次年推出第一代深度学习基础架构DistBelief。关于吴恩达大家可能更熟悉的是他在百度做首席科学家的故事(现在已经离开百度)。该部门从事的项目证明了深度学习的技术价值以及未来的可行性。

2013年谷歌通过收购创业公司DNNreserch引入了深度学习之父Geoffrey Hinton,经过了两年的开发一直到了2015年歌发布开源的第二代深度学习框架平台TensorFlow,在AI开发领域迅速占据了先发优势。

谷歌从事AI的研究不仅仅是自己单打独斗,之所有能够走在前列,不仅仅是靠庞大的数据量和重金收购

谷歌用十年时间完成了AI起步未来将成为业

,而是通过一套完整的、免费的开源平台,引入大量垂直领域的开发者。

厚积薄发的I/O大会

实际上谷歌在I/O大会上展示的仅仅是AI领域做出工作的一部分或者说是一扇小小的窗口,但对于开发者和用户来说打开窗户之后的风景是无限的。可以说利用这十余年的时间,谷歌已经彻底完成了AI领域的战略布局和起步,构成了包括开发框架、开发社区、数据基础设施和计算基础在内的主要要素。

从产品端看则展示出了现在AI领域比较可靠的落地项目。我们知道深度学习是AI领域的核心,但目前为止延伸到用户能够理解和使用的层面必须是一个又一个的具体产品,比如阿法狗,就是深度学习领域的佼佼者,可以很直观的展示出谷歌的强大和AI的强大。

第二代Tensor处理单元:Google第一代的TPU在针对不同用途时,仍然需要分开单独培训,这样的培训需要花费很多的时间成本。于是乎他们设计了一个全新的机器学习系统,以消除瓶颈并最大限度地提高整体性能。谷歌称之为Cloud TPU,它可以训练和运行机器学习模型。

新的产品可以有效地减少机器学习的培训时间,以往一个大型的翻译模组,如果选择32个最好的商用GPU用上一整天的时间完成,现在只需要八分之一的TPU数量就可以达到同样的效果,精准度也能够得到保证。

Google Home:去年就在开发者大会上公布了这一产品。现在这款产品可以在嘈杂的房间中理解用户的语言。在不到1年时间里,语音识别错误率下降了近半。通过深度学习它正在越来越聪明,已经可以分辨出家庭中不同的用户,甚至通过你的声音和前后语意来判断究竟你口中的妈妈到底是用户自己的母亲还是岳母。

这款产品是基于Google Assistant语音助手的,实际上亚马逊基于Alexa语音助手推出了Echo,苹果很快也会基于Siri在WWDC推出自己的同类别产品,不同的是后两者考虑到现在AI还不能够股尽善尽美的给予用户体验,所以新版本的Echo和苹果的同类设备都会提供一块屏幕,用来弥补语音助手在接受信息和表达上的不足,个人认为在起步阶段这是非常必要而且值得谷歌学习的。

Google Lens与Google Photos:作为一个图片工具Google Photos会对照片进行压缩处理,并且利用精准的Autotag进行自动识别和分类,对于很多Android用户来说这是非常不错的选择,而且提供了大容量的络存储空间。以往如果你将某个人的照片发送给同一个号码或电子邮件数次,下一次拍这个人照片的时候,Google Photos 将会建议你使用该号码或电子邮件地址来分享。当然这仅仅是表现的稍微有点小聪明而已,加入了Google Lens之后就更与众不同了。

现在它能够识别照片里面的建筑物,识别油画作品信息。甚至拍下的名片,它也能自动识别并且保存成联系人。基于图像识别和OCR技术的人工智能应用,能够让机器学会看图说话。Google Lens能实时识别用智能相机所拍摄的物品并提供与之相关的内容,都是通过利用强大的计算机视觉算法实现的。实际上这个技术不仅仅会集成到Google Photos中,还有Google Assistant也会使用。

Android O为什么变成了配角?

虽然在这次I/O大会上谷歌还没有让Andorid O系统变成一带而过的角色,但重要程度已经逐年递减甚至到了不太引人关注的地步。是什么让谷歌如此轻视新系统的公布?

大家可以先看一组数据,根据第三方调查机构的数据,现在谷歌Android平台已占据了全球智能市场80%以上的份额,甚至有望达到90%,大有一统天下的气势,官方宣布采用该系统的设备已经超过了20亿台。也就是说在没有特别威胁性的竞争对手面前谷歌依然保持了危机感,认为Android不可能很长时间的占据市场,因此在不断尝试,甚至通过谷歌对于AI布局来看甚至他们有可能为未来的移动终端提供出更多可能性。

从Andorid O的变化上也能看出,开关机的速度大幅度优化、功能增加的并不算太多主要是针对AI的布局和底层优化调整。另外还记得谷歌曾经开发了很久并持续关注的Project Ara模块化么,在已经做了大量工作甚至原型比较成熟的前提下,他们还是放弃了这款产品,可见他们并不看好以现阶段技术条件下硬件的变化或者新概念,或许这些都将在AI面前不值一提。因此Android O不是变得不重要了,而是未来引领潮流的AI或许可以存在到其他的形式上面,有可能移动终端都不再是,而是其他的形态,Android O从某种角度上看,可以看出移动终端已经走到了自己的巅峰,未来怎样谁也说不好,但有一点是肯定的就是进化。

未来的终端设备什么样?

畅想一下,未来的智能终端可能不会拘泥于、手表或者其他什么形态,随着技术的发展一定会有更好的展现,而且AI的发展拓宽了终端输入输出的方式,不局限于屏幕显示,语音或者其他方式让终端具备了更多样化的可能性。

当然更多的方式我们还不好想象,但如果语音和屏幕达到了同等高度已经非常成熟的话,一条项链或许就能当作智能终端,实现导航、信息提示、记录图像影像等等很多功能。总之AI对于普通用户的重要性和短期内对我们未来生活的影响远比想象的大。

猜你喜欢