雷锋网 AI 科技评论按:曾被誉为人工智能的三驾马车——算法、算力、数据,到了需要反思的时刻。特别是深度学习在学术前沿的后续发展乏力,恐难支撑 AI 能力继续升级。
步入新的十年后,如今 AI 可能已经到了一个拐点时刻。
那么接下来,AI 技术将如何发展、应用?随着国内疫情的结束,这逐渐成为领域内众多研究者和从业者亟需回答的一个关键问题。
4 月 9 日,中国科协学会学术部、中国科学报联合腾讯科协、腾讯发展研究办公室举办了一场非常及时的线上论坛活动,主题为“人工智能:科技与经济融合新引擎”。众多学者专家纷纷回答了疫后人工智能科技与经济融合发展的诸多问题。
雷锋网 AI 科技评论本着对人工智能技术重点关注,选取中科院计算所研究员、中科视拓创始人山世光的报告内容做以整理,分享给大家。
山世光研究员的报告分为两大部分,先是从研究的角度,他认为 AI 方法论将从「数据驱动」转向「知识+数据联合驱动」;在后一部分,他从行业发展的层面提出了五大观点和建议。这些内容具有深刻的洞见性。
1、从学术前沿视角来看,深度学习已成强弩之末
在过去十年里,人工智能的研究从过去依靠规则、知识来设计人工智能算法这样一套方法论,逐渐过渡到了以数据为主要驱动力的方法论。
在这个方法论的指导下,靠着“三驾马车”——算法、大数据、强算力,支撑起了现在的 AI 能力。算法上主要以深度学习为主,数据则强调要足够大(且是有监督的标注数据),由于深度学习动辄需要通过训练设定上亿的参数也导致了非常依赖强大算力的支撑。
于是,只要满足下面两个条件的 AI 任务,都能够得到好的解决:
1)专用 AI 任务(而非通用 AI)。例如医疗影像中,看肺炎的 AI 就只能看肺炎,不能看肝炎;看 CT 的 AI 就只能看 CT,不能看核磁。
2)“好”数据肥沃(通过商业模式大量获取数据)。所谓好数据,一方面要有较大的规模,另一方面则是要有好的标注。
但这样的 AI,离我们所期望的相距甚远。
微软亚洲研究院院长洪小文博士曾提出如下的 AI 能力金字塔(黄色字体是山世光增加内容):
按照这种金字塔层次,目前的 AI 技术仍还停留在第二层的「感知和简单推理」上面,也即相当于非人类灵长类动物的层次。
如何更进一步,向上做到认知、情感、创造,甚至智慧呢?
山世光认为我们至少需要做以下几种能力的提升——
然而,现有的 AI 方法论并不足以支撑 AI 能力继续升级。
首先,算法、算力、数据这三架马车已略显疲软。算力提升和大数据收集都需要投入资源,但算法却大多是一个模型对一个任务,现在是问题很多,方法却有限。
其次,深度学习在工业界还在靠大数据和大算力进行应用研究,由于没有强大的理论支撑,有些算力和数据会浪费在试错上,这一点现在已经变得越来越明显。
而另一方面,在学术前沿上,深度学习显示出的潜力有限。为什么呢?因为它本身无法克服高度数据依赖问题,无法像人一样基于“弱”、“小”数据进行精确而且鲁棒的学习!现有研究还都寄希望于基于深度学习来解决数据依赖的问题,希望能够赋予机器学习从弱监督、小数据来学习的能力,但从原理上来说,如果没有别的数据或知识做支撑,这几乎是不可能的。我们必须找到全新的方法。
2、未来 10 年的 AI 方法论:知识+数据联合驱动
AI 能力的升级,必须依赖 AI 方法论的升级,而这归结到本质,还是算法的革新。
山世光研究员提出如下几种亟需发展的 AI 算法——
举例来说,算法能否在数据量减小到原来 10% 甚至1%,同时还保持和原来相当的能力呢?在现有的算法(纯数据驱动)中,是否可以加入知识,或者已有的其他数据或模型,做到知识和数据联合驱动?……事实上,已经有许多研究单位在做,也是当下 AI 算法上最值得探索的几个研究方向之一。
针对以上内容,山世光从「数据依赖」的角度做了详细说明。前面提到,当前人工智能的方法是强大 (强监督、大规模) 数据依赖。但我们知道人类智能并不是如此,简单举几例人类的能力:
-
归纳和演绎推理:从个别到一般,再从一般到个别;
-
举一反三&触类旁通:类似推演&迁移学习;
-
吃一堑长一智:从少量错误中学习(修改模型);
-
预测检验:时刻预测并修正误差;自纠错学习;
-
元方法:道生一,一生二,二生三,三生万物;
-
融会贯通:多模态、多学科知识校验和融合;
-
想象力和创造力:无中生有,外插而非内插。
从这些能力中,我们可以看出,人类的智能本质上是一种知识+弱小(弱监督、小样本)数据驱动的方法。这种特性值得我们参考。
山世光研究员认为,人类能够做到小数据的学习,原因在于有知识的积累。因此如何把知识融合到机器当中,对于 AI 算法非常重要。这里的知识既可能是人类总结出的知识,也可以是已有 AI 学到的知识,他把后面这种知识称之为“机器知识”。
所谓“机器知识”,不同于“人类知识”,很可能不是人类可阅读的,甚至不是人类可理解的。如山世光研究员所说,当我们已经用算法解决了N个任务(例如识别人脸、猴脸、马脸、狗脸、牛脸等)后,机器就有可能从这些任务中总结出一些通用任务的规则,作为“元”模型。
有了“机器知识”,即使是小数据/无数据的任务,也能够获得好的性能。例如可以借助上述从人 / 猴、马、狗、牛等学习到的脸部识别模型,得出一个关于脸的“元”模型,用来识别考拉脸、鱼脸、熊猫脸等。
(现在的方法则往往是,识别一个动物,就要收集大量这个动物的脸部照片,换种动物就得重新收集和学习,既不高效,也不优雅,甚至笨拙的有点可笑。)
事实上,这种研究本质上是多任务协同的问题,在 2018 年已经有人在做,CVPR 2018 的最佳论文正是其中的代表,这个工作研究了 26 个不同任务之间的关系,以及如何可以互相支撑,从而减少对标注数据的需求。
基于以上的分析,山世光研究员认为,AI 的方法论,在过去十年逐渐变为以强、大数据驱动为主,但接下来的十年或更长时间里,知识和数据联合驱动将成为主流。当然这里的知识,并不仅仅指人类可以理解的知识,也可能是许多人类无法理解的“机器知识”。
3、五大观点&建议
在报告的后半部分,山世光研究员针对目前我国的人工智能发展,提出了五大观点和建议,如下:
1)AI 应用研究方面差距不大
中美(欧)之间在应用研究上差距不大,但我们在各行业纵深应用(即在其他研究领域)上仍需努力。例如,AI 在生物信息领域的应用,西方的积淀很多,深度学习也渗透了很多,而我国在这方面就需要努力赶超。
2)AI 基础研究方面差距不容小觑
中美(欧)差距在缩小,但中国加速度不够。过去十年最具代表性的方法主要还是来自欧美大学或企业,平起平坐恐怕至少还需要5-10 年或更久。我们存在的问题在于,对基础研究长期性的认知不足,缺乏起码的耐心!重大基础研究项目评估周期过短,甚至要求技术路线清晰,2 年出成果。但基础研究往往是“无心插柳柳成荫,有心栽花花不开”。以深度卷积神经网络(DCNN)为例,它是 1980 年代的产物,过了近 20 年才开始发挥出威力。
3)AI 基础设施方面差距不小
这包括三个方面,分别是硬件、软件和智件。
国内在基础硬件平台上的投入很大,但存在重复建设,尚未形成合力,不能充分发挥效力;另外由于深度学习的理论基础较为薄弱,无效试错导致算力浪费的现象也存在。
而另一方面,在基础软件平台上中国投入需要提升(相较北美至少落后4-8 年),深度学习的主流底层框架(TensorFlow,Pytorch,MxNet)主要还是由北美国家建设,10 年后,这方面可能会恰如今日之“芯片产业”,成为我们的“隐患”;最近中国有不少企业单位(百度,华为,旷视,清华,鹏城实验室…)相继发布或拟发布开源框架,希望能形成合力。山世光建议,针对低门槛的 AI 研发平台和工具,我们需要尽快抢占先机。
此外,山世光建议,我们在基础智件体系投入上要加大(包括基础算法研究),建议加强基础智件体系研究:从过去已有的计算中心和数据中心开始,如何建设算法中心,知识中心等,建议尽快建设国家级的“知识中心”,包括人类知识中心(通用知识+领域知识)和机器知识(成熟 AI 算法和模型)中心,做到已实现的 AI 算法可以像水、电、煤一样取用,从而避免大量重复劳动。
4)AI 人才培养的倾斜力度还不够
尽管最近大家都说 AI 人才缺口很大,但实际上 AI 相关专业的研究生数量仍然不足,这种不足现在主要靠其他非 AI 专业的学生主动或被动 AI 化来缓解,这不是长久之计。国家如果真的认为人工智能是一个战略方向,应该在 AI 人才的培养上多一些倾斜,例如分配更多的研究生名额给 AI 专业。
5)产学研各自定位仍需优化
近些年,我们会注意到一个现象,就是企业大学化,大学和机构企业化。典型的表现就是,企业在发文章,而大学科研机构则在做短期的技术。背后的原因很多,包括对 Long-term 基础研究究竟如何评估值得探讨,帽子文化也催生了很多快餐式科研成果等。最近国家也不断的提出要破“四唯”,但更建议不要采取“一刀切”的科研评价模式,应该根据不同的领域、不同的人才类型采取不同的评价方式。此外,对企业科技创新的支持导向性也值得商榷,企业该做什么样子的创新,大学和科研机构应该做什么样的创新,可能要有一个更加正确的分类。