您的位置:主页 > 公司动态 > 公司新闻 > 公司新闻

深度学习盈利将尽,AI 是否又面临「殒命之谷」

陷入又一轮 AI 隆冬?

人工智能存在于许多我们天天与之交互的手艺中,好比最常见的语音助手和个性化推荐,以及不停成熟的自动驾驶。从去年到现在,AI 领域更是好新闻不停,OpenAI 的,它在下棋和游戏前完全不知道游戏规则,完全通过自己试探赢得棋局。一时间,「AI 将替换人类」的声音不绝于耳。

但另一面,人类丰满的 AI 梦,也正在撞上骨感的现实。近期,IBM 旗下的 Watson Health 被传出将甩手卖掉,这个曾想替人类解决肿瘤治疗的 AI 部门 6 年来从未盈利。更致命的是,Watson Health 的诊断精度和专家效果只有 30% 的重合。

看向海内,「AI 四小龙」中的商汤科技和旷视科技,时不时传出设计上市的新闻,但似乎都中了「上市难」的魔咒。旷视科技的创始人印奇在去年 7 月,曾对媒体示意 AI 的快速发作期发生在五六年前,现在正处于「殒命之谷」的泡沫期。繁荣表象之外的冰凉现实,都能让人想到「人工智能的隆冬」:与 AI 有关的研究或其他项目难以获得资金,人才和公司停滞不前。

清华大学人工智能研究院院长张钹曾示意,行业崇尚深度学习,但它自己的「缺陷」决议了其应用的空间被局限在特定的领域——大部门都集中在图像识别、语音识别。而现在深度学习似乎已经到了瓶颈期,就算财力和算力仍在不停投入,但深度学习的回报率却没有响应的增进。

「现在基于深度学习的人工智能在手艺上已经触及天花板,此前由这一手艺门路带来的『事业』在 AlphaGo 获胜后未再泛起,而且估量未来也很难继续大量泛起。」张钹说。

被寄予厚望的深度学习,是否会让人工智能陷入又一轮隆冬?「在每一次人工智能『隆冬』到来之前,科学家都市强调他们的研究的潜力。仅仅说他们的算法善于某一项义务还不够,他们恨不得说 AI 能解决所有事。」历久研究数据科学和 AI 的作者 Thomas Nield 说道。但真正的通用人工智能,离我们似乎还很遥远。

深度学习是什么?

就在 AI 逐步寂静,酿成「隐学」的时刻,Geoffrey Hinton、Yoshua Bengio 和 Yann LeCon 三位学者默默最先了 AI 的一个主要分支——神经网络——的研究。

简朴来说,神经网络就是一层层的数字,这些数字又被称为「神经元」。之以是这样命名,是由于科学家以为这些数字相互联系,通报信号,就像大脑里的神经元通过突触来通报神经刺激一样。而神经网络里的每一层数字都通过一些约定的数学规则从上一层的数字盘算获得。

而「深度学习」的观点源于神经网络的研究,是研究神经网络的学问。这里的「深度」,指的就是神经网络含有无数隐层,深不能测。

机械要模拟人类行为,要先获取数据,然后经由预处置、特征提取、特征选择,再到推理、展望或识别。其中最要害的,就是中心的三个步骤,同时也是系统中最花费盘算的部门。在现实中,一样平常都是靠人工提取特征,而深度学习的思绪是自动学习特征。

深度学习模子一样平常由输入层,隐层和输出层组成。基本思想是:上一层的输出作为下一层的输入,来实现对输入信息的分级表达,进而通过组合低层特征形成加倍抽象的高层示意属性种别或特征,以发现数据的分布式特征。也就是说,机械学会「抽象思索」了。

上述三位 AI 泰斗坚持着自己的学术偏向,把神经网络推广到了更多的领域,好比盘算机视觉、自然语言处置等等。终于在几十年后,他们等来了属于深度学习的时代。互联网和移动端的兴起让海量的数据唾手可得,而盘算机硬件在人类一次又一次挑战着纳米天下的极限中,顺着摩尔的预言一起狂奔。2012 年,深度学习暴得台甫,由于 Geoffrey Hinton 基于卷积神经网络的 AlexNet 以惊人优势赢下 ImageNet 视觉识别挑战赛。另外在这个实验中,人们发现,只有图像的样本量够大,隐层够多,识别率就能大幅提高,这极大地鼓舞了学界和企业。

数据越多,越智能?

OpenAI 最新的自然语言处置模子 GPT-3,几乎是把整个互联网的众多内容所有读完了。它总共阅读了约莫 5000 亿词,模子大概有 1750 亿参数。系统有上万个 CPU/GPU,它们 24 小时不间断地「阅读」任何领域的信息,半个月读完了整个互联网的内容。猛灌数据量,是这个 AI 模子的「暴力」所在。

但 GPT-3 也并不能因此变得完全像人,好比,它对不符合人类常理的「伪问题」也会应答,这恰恰证实它并不明白问题自己。前 Uber 人工智能实验室的负责人 Gary Marcus 就曾对深度学习多次泼冷水:「人类可以凭据明确的纪律学习,好比学会一元二次方程的三种形式以后就可以用来解种种问题;见过了京巴、柴犬之后,再见到德牧就知道它也是一种狗。然而深度学习不是这样的,「越多的数据 = 越好的模子显示」,就是深度学习的基本纪律,它没有能力从字面上给出的纪律学习。」

「深度学习是寻找那些重复泛起的模式,因此重复多了就被以为是纪律(真理),因此谣言重复一千遍就被以为真理,以是为什么大数据有时会做出异常荒唐的效果,由于不管对不对,只要重复多了它就会根据这个纪律走,就是谁说多了就是谁。」张钹院士也示意深度学习「没有那么玄」。

由于它不能真正明白知识,「深度学习学到的知识并不深入,而且很难迁徙。」Marcus 说道。而 AI 系统动辄拥有千亿参数,俨然就是一个黑匣子一样平常的谜。深度学习的不透明性将引致 AI 私见等系列问题。最主要的是,AI 照样要为人所用,「你要它做决议,你不明白它,飞机就让它开,谁敢坐这架飞机?」张钹强调 AI 必须拥有可注释性。

最主要的是,给 AI 猛灌数据的做法极其考验算力。MIT 研究人员明白深度学习性能和算力之间的联系,剖析了 Arxiv.org 上的 1058 篇论文和资料,主要剖析了图像分类、目的检测、问题回覆、命名实体识别和机械翻译等领域两方面的盘算需求:

1、每一网络遍历的盘算量,或给定深度学习模子中单次遍历(即权值调整)所需的浮点运算数。

2、训练整个模子的硬件肩负,用处置器数目乘以盘算速度和时间来估算。

结论显示,训练模子的提高取决于算力的大幅提高,具体来说,盘算能力提高 10 倍相当于 3 年的算法改善功效。换言之,算力提高的背后,实在现目的所隐含的盘算需求——硬件、环境和款项等成本将变得无法蒙受。

摩尔定律假定盘算能力每两年翻一番。OpenAI 一项研究注释,AI 训练中使用的盘算能力每三到四个月翻一番。自 2012 年以来,人工智能要求盘算能力增添三十万倍,而根据摩尔定律,则只能将 AI 提升 7 倍。人们从来没有想到芯片算力极限会这么快到来。

算力供不起是一回事,但业界甚至以为这种「暴力」模式偏向错了。「知识、履历、推理能力,这是人类理性的基本。现在形成的人工智能系统都异常懦弱容易受攻击或者诱骗,需要大量的数据,而且不能注释,存在异常严重的缺陷,这个缺陷是本质的,由其方式自己引起的。」张钹示意,「深度学习的本质就是行使没有加工处置过的数据用概率学习的『黑箱』处置方式来寻找它的纪律,它只能找到重复泛起的模式,也就是说,你光靠数据,是无法到达真正的智能。」

深度学习盈利将尽,但 AI 还在生长

在张钹看来,既然深度学习在根子上就错了,那么手艺改良也就很难彻底解决 AI 的基本性缺陷。正是这些缺陷决议了其应用的空间被局限在特定的领域——大部门都集中在图像识别、语音识别两方面。「我看了一下,中国人工智能领域 20 个独角兽 30 个准独角兽企业,近 80% 都跟图像识别或者语音识别有关系。」

他示意,「只要选好合适的应用场景,行使成熟的人工智能手艺去做应用,另有较大的空间。现在在学术界围绕战胜深度学习存在的问题,正睁开深入的研究工作,希望企业界,特别是中小企业要亲切注视研究工作的希望,实时地将新手艺应用到自己的产物中。固然像谷歌、BAT 这样规模的企业,他们都市去从事相关的研究工作,他们会把研究、开发与应用结合起来。」

一直在给深度学习泼冷水的 Gary Marcus, 提出要为深度学习祛魅:「我不以为我们就要放弃深度学习。相反,我们需要将它重新观点化:它不是一种万能药,而仅仅是作为众多工具中的一种,在这个天下上,就像我们还需要锤子、扳手和钳子。」

「深度学习只是现在人工智能手艺的一部门,人工智能另有更大更宽的领域需要去研究,知识示意、不确定性处置、人机交互,等等一大片地方,不能说深度学习就是人工智能。」张钹说。

另外,中科院自动化研究所副所长刘成林曾示意,「现在的 AI 热潮实在主要依赖模式识别和深度学习的乐成。深度学习的盈利将逐渐用尽,但 AI 的许多偏向(感知、认知、学习语言明白、机械人、夹杂智能、博弈等)还会继续生长,总体上不会跌入深谷。