中国论文遭大撤稿 陆汝钤院士:学术道德气氛营造不够

作者|章剑锋

出品|网易科技《科学大师》栏目

俄乌开战后,西方国家不仅打出金融核弹,将俄罗斯踢出SWIFT(环球银行同业金融电讯协会),并且发起高科技卡脖子,全面限制俄进口计算机和电子产品等一系列商品。

有声音认为,这对中国是又一次提醒,不自力更生,不拥有自己的科技原创能力,是不行的。

中国正在推进创新型国家建设,今年已经明确要把科技自立自强作为国家发展的战略支撑。

“必须走别人没有走过的路,不能老跟在别人屁股后面,那样你永远做不出开创性的工作。”中国科学院院士陆汝钤对网易科技《科学大师》说,搞科研不能固步自封,要敢想敢试敢于挑战。

中国论文遭大撤稿 陆汝钤院士:学术道德气氛营造不够

今年87岁的陆汝钤院士,是中国人工智能领域的开拓者和先驱之一,中国人工智能最高奖“吴文俊人工智能最高成就奖”的首位获得者,师承著名数学家华罗庚先生。

陆汝钤在国际上率先研究异构型分布式人工智能(DAI),把机器辩论引进人工智能,设计并主持实现分布式逻辑推理和基于分布式推理的城市交通管理软件等成果应用 。在大知识工程方面,也有着国际学界承认的科研建树,给出了大知识和大知识工程的初步定义及其生命周期模型,指导实现了全生命周期大知识图谱支撑平台。

在人工智能领域,中国是投入最多的国家之一,根据国家人工智能三步走战略,到2025年,中国人工智能基础理论要实现重大突破,部分技术与应用达到世界领先水平,2030年则要实现人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。

40年来,一直在人工智能领域潜心钻研的陆汝钤,经历过人工智能的低潮,也看到了当前人工智能的热潮,他告诉网易科技《科学大师》,人工智能的应用是国际比拼的焦点,谁能率先实现商业应用,谁就能领跑。但对于科学家来说,不能跟风凑热闹,要尊重科学规律,同时他也提醒那些在追逐一轮又一轮风口的人们,要理性,要有科学辨识能力,以免掉进骗局里。

1、人工智能理论西方原创,

但中国科学家并非无所作为

《科学大师》:我们国家提出要加强原创性引领性科技攻关,在科研上摸索了一辈子,您自己的体会是什么样的,在科研创新上有什么方法?

陆汝钤:对于我来说,做研究不是一味跟随社会上的什么潮流风口去赶时髦凑热闹,有一个重要的驱动力是个人的兴趣推动,一般来说可能不是每个人都认同这一点。

比如我最感兴趣的一项研究是计算机动画的自动生成,它是人工智能的一块试金石,人工智能有没有解决问题的能力,可以在其中试一试,因为这里面所需要的新技术是无穷的,有数不尽的创新点待我们去开发。所以我的感受就是做科研一定要从内心感到兴趣,否则你不会有决心长期坐冷板凳。

当然,在这个基础上,搞创新也不能闭门造车,你还得密切关注世界科学发展的潮流和前沿,特别是本专业的发展趋势,从里面会发现新的空白点。另外,还要根据国家的迫切需要,主动迎合响应,让科研能够解决实际问题,同时你也得符合科学研究的规律,既不能固步自封,也不能异想天开,要脚踏实地一步一步地向前走,这中间也要有一种初生牛犊不怕虎的勇气,敢想敢试敢于挑战,要有舍我其谁的大志向。

创新就是这样。我以前给学生布置题目,有的学生第一反应说这个问题没人做过,或者说这个方法没有人试验过。我是最不喜欢这种说法的,没人试过你就不能试了?你就不能第一个做了?必须人家在前面做过了,你再去做?别人都做了,还要你干什么?

《科学大师》:有一种说法是,人工智能基础理论都是西方原创,我们中国科学家有能力重新构建一套吗?

陆汝钤:现代人工智能确实最早起源于西方,但人工智能作为一门科学是不断发展的,许多国家都做了贡献,我们中国也不例外。不过不是重新构建一套,而是不断创新。

比如吴文俊院士(中国科学院1955年学部委员、著名数学家、国家最高科学技术奖获得者),他的数学机械化理论就是原创,我记得国外有一本最有代表性的权威人工智能杂志,叫《artificial intelligence》,就专门用了一期的专题讨论他的理论,这是很不容易的,说明中国科学家在人工智能领域也有开创性贡献。

吴先生在上世纪70年代就开始研究数学机械化并发表这方面的第一篇文章,当时人工智能研究在中国还没有兴起。

还有原来吉林大学的王湘浩院士(中国科学院院士、著名数学家),很早研究定理机器证明,还在1979年就组织了全国的人工智能研讨会,那次会议我也参加了,学到很多东西,也是推动我从事人工智能的重要关键点。他还推动知识工程研究,组织学生很早就开发出一些专家系统,支持国家建设,培养了一大批人才。

这说明中国的科学家是有远见、有眼光的,能够站在科学发展的潮头,引领科学的发展。

《科学大师》:基础都是人家的,我们还有别的路可走?

陆汝钤:我说了,基础并不都是人家的。从理论上说基础也没有一个终极的局限性,它是可以继续发展的。例如,最近北邮的钟义信教授提出要重视人工智能基础研究,主张把历史上出现的各种人工智能研究机制综合起来,推陈出新,并把这种理念称之为机制主义。我觉得就很有道理。如果说要走“别的路”,也许这也算吧?

其实,“路”就在我们眼前。只不过路不是现成的,是探险者开辟出来的。攻克科学难题,是路;直面国家需求,更是路。在这方面,对科学家有一个特殊的要求,就是科学必须能走别人没有走过的路,一定是这样的。不能老是在别人走过的路上添点花加点草,那样你会永远做不出开创性的成果。

2、发论文很重要

但不是创新的唯一衡量指标

《科学大师》:衡量一国人工智能科研水平,高影响力的论文(指引用次数及发表量)是重要的维度,您是多份学术期刊的编委,领域内这些年高影响力论文的表现怎么样?

陆汝钤:重视高影响力论文的数量和被引用次数,我认为是有道理的、必须的,因为引用次数越多,表示大家对你的研究的关注程度越高,但是我觉得也不应该太极端。因为很可能有些重要的创新思想在初期并没有人注意到,如果你只是以论文引用率作为唯一导向,可能就会产生误导,甚至于错失创新的机会。现在国内已经提出不要唯SCI引用,不要唯影响因子高;还有单位考核时只要求个人提供少量代表性论文,多了不算数,就是针对把论文指标过度定量化的。

举一个最极端的例子,钱学森先生的导师冯卡门教授,是国际非常有名的科学家,冯卡门有一篇开创性论文,开始居然没有被著名的科学刊物采用,后来是在一个非常普通的杂志上登出来的。德国著名科学家佩特里的许多重要论文都是以技术报告形式发表的,但却被学术界视作经典。我国民间有谚语:“英雄不问出身”,对学术论文也应该不问出身。

《科学大师》:去年《自然》杂志报道说, 2021年国际上的科学期刊撤回370篇和论文工厂有关联的稿件,而大多数问题论文来自中国,特别是医院,您怎么看这种大量撤稿的事情?

陆汝钤:论文是我们人才考评的重要依据,但如果片面强调,就会出这种问题,其根源在于我们对于学术的诚实性或者严谨性强调还不够,在学术道德方面的气氛营造工作也做得还不够,所以这种事就有些防不胜防。

据我平时的观察,发问题论文主要还不是学生,以在职的研究人员为主。如果把论文作为提升职称或职务晋升的唯一考核标准,这肯定会出问题,所以不但需要加强学术道德的教育和宣传力度,用人考核机制也要进行改革,这样才能减少这种现象。

至于你提到的医学界撤稿比较突出,这有着深刻的社会原因。由于医疗资源紧张,临床医生们往往超负荷工作,可同时有些单位又要求他们发表高质量论文,否则职称提升无望。在重重压力下就容易出现这种现象。而这种状况又被社会上的投机势力利用来发不义之财。我认为应该在改革职称评审制度和打击社会投机势力两方面同时下手,才能解决这个问题。

中国论文遭大撤稿 陆汝钤院士:学术道德气氛营造不够

2018年,中国人工智能最高荣誉“吴文俊人工智能最高成就奖”颁奖现场,陆汝钤院士(右二)携家人出席。/图片由受访者提供

3、人工智能国际比拼

谁最先投入应用谁就抢占制高点

《科学大师》:国际上在人工智能科研方面的比拼竞争,焦点或重心是什么?

陆汝钤:人工智能比拼主要还是在应用方面,就是说谁能最先把某些应用开发出来,谁就占领了人工智能高地。

像军事方面的应用,比如现代战争,会用到无人机,有人机跟无人机混合编队怎么对抗,可能是非常重要的问题,影响巨大,因为未来的空战很可能就是有人机和无人机混合编队互相较量的战争。

历史上的教训就是这样,在科学上一旦出现了某种新的技术或者新的理念,守旧的那一方肯定是输定了。人工智能也会是如此。

当然有些国家可能已经掌握先进的人工智能技术,却不一定公开,也不可能发文章讨论,只有在发生事情的时候才会用出来。实际上这对我们的挑战就更严峻了,我们在这方面的研究肯定不能落后,需要抓紧。

4、人工智能大规模应用

需要跨越这些坑和坎

《科学大师》:人工智能技术不断在发展,有什么需要特别注意和当心的问题?

陆汝钤:在人工智能应用上,有一个坎比较难过,凡是涉及重大的国家利益或者人的生命安全,现在还不敢让计算机来自主做决定,比如病人,医生给他开药方和机器人给他开方子,是不一样的。现在要让机器人来开药或者做手术,这在一定水平上都能做到,但还得有人监督着,毕竟人命关天,还不能够完全放手。

另外,人工智能的伦理挑战,确实也是值得重视。如果有一种人工智能,它能提前判断胎儿的性别,甚至于去改变性别,这就很有风险,在人工智能应用上肯定就要划出禁区。

再有,像能不能允许机器人在执行特别任务的时候主动杀人,这也是争论焦点。

在人的控制之下,机器人可以执行指令,比如遇到绑架劫持,对于犯罪分子怎么劝都没用,这时候就可以派机器人把罪犯干掉,这个事只能由执法机构来决策,不应该由机器人自主决策。

这是因为如果授予机器人完全主动的能力,让它自行判断决策,会存在很大风险,当前还没有办法让机器人有这种能力,去判断什么人该杀什么人不该杀,什么情况下可以杀人什么情况下不可以杀人。

我们中国在这方面是有相应限制的,但美国人在这方面放得比较宽,他们是允许机器人自主决策的。

在人工智能的社会功能方面,我总的观点是:人工智能就好像一把枪,它起的作用是好是坏,要看它掌握在什么人手里。

《科学大师》:人工智能的发展依托于大数据,一直以来大家都非常关心数据被滥用的问题。

陆汝钤:这肯定是应该注意的,我也注意到有一些企业平台利用大数据做不恰当的事情,比如大数据杀熟,如果你是个老顾客,平台觉得你反正离不开我,那以后东西我卖你就贵一点。

再像你快递上的个人信息,被人拿出去卖,或者在疫情期间,商家要你扫码登记,你的地址、电话号码、身份证号码都扫出去了,有些人获取后,也可以拿去卖钱。

从国家监管来讲,是可以有安全手段保护大家的,比如我对你这个人的认知是零,你是个好人还是个坏人,我也不知道,这个没关系,你的信息都在公共系统上,你去住酒店,其实并不需要酒店人员查你的个人信息,只要把你身份证在系统上一刷,你的个人信息直接就传到公安部门了,中间的商家只知道你是否是合法顾客,除此之外不了解、也没有办法扩散你的个人信息,一旦将来有事情,警察就可以从系统上查到你。

这些技术都是可以做到的,这就是信息保护。

《科学大师》:具体到人工智能商业化,多年来包括科研人员在内都有讨论,就是投机、虚火的现象,这种非理性行为是不是也会破坏领域的发展?

陆汝钤:确实是这样,有些人跟风跟得很快,现在不是元宇宙很热么?以元宇宙的名义行骗的已经很多了。

元宇宙实际上就是虚拟现实的扩大,把真实的环境跟虚拟的环境组合在一起,它肯定是有用的,但我认为没有有的人说的那么玄乎,好像今后人工智能就是元宇宙独大了,现在不是很多公司都把元宇宙作为自己的发展方向吗?包括元宇宙方面的股票交易也是搞得很活跃。我觉得这是一股风,但是在跟风之前,大家还是要头脑冷静想一想。

从本质上来看,元宇宙一个最大的用处还是娱乐,而不是真正参与生产活动。

如果你一家人分散在全国各地,特想全家在一起吃年夜饭,元宇宙可以提供一个虚拟空间让大家坐在一桌,每个人有一个虚拟人代表在一起吃饭,这是可以的,元宇宙也就是起这种作用,因为都是虚的。其他就没太大用处了。

至于说很多人想从中赚快钱,这源于一般人的趋利心理和本性,看到什么地方有利益他们就往什么地方钻,这需要有相应的政策规范来限制他们,也需要有科学理论上的普及,让大家了解元宇宙的实质。

中国论文遭大撤稿 陆汝钤院士:学术道德气氛营造不够

5、人机专家会诊治病救人,

这种智能化50年内可实现

《科学大师》:您今年87岁了,还在带学生,您目前对人工智能发展的思考或关注侧重点是什么?

陆汝钤:有些博士生还没有毕业,所以还在带。我重点关心的是大知识的发展问题。在上世纪末(1997年),大数据这个概念在国际上被提出来,引起社会广泛关注,到2010年,学界又提出很多大数据的标准模型(三V、四V、五V等,这里英文字母V代表以V打头的一个英文词,例如volume代表数量大,velocity代表数据产生速度快),在讨论大数据时也提到了大知识,一个重要问题是怎么从大数据中获取大知识,因为我们面对的海量数据,它里面能获取的知识一定也应该很多。

在现实生活中我们面临着很多从大数据生成大知识的问题。比如上海市在2019年做了5年一次的第六次全市综合交通调查,得到大量数据,上海有多少条公交路线、每天有多少人出行、上班族在路上要花去多少时间等等,这些经过整理、分析的数据,以及从中得到的相关结论就构成了有关上海市交通的大知识。

再举一个例子,中国历史大家知道从黄帝开始,经夏、商、周一代一代下来的,但国外有人一直否认,认为中国没有5,000年历史,不存在夏朝,那么你要反驳,就要去做考古,获取大量考古信息和数据,证明中国历史确实有五千年,确实存在过夏朝,并且从哪一年到哪一年有几个皇帝,每个皇帝在位时间等等,这就是有关中国远古历史的大知识。

但是尽管许多人都提到大知识,国内外却一直没有人出来给出大知识的规范定义,更没有人给出过类似于3V、4V、5V大数据模型这样的大知识模型。我们从2016年开始研究这个问题,到2019年发表第一篇论文,其中给出了大知识的5MC模型,大知识系统的10MC模型(这里M代表海量,C代表特征),以及大知识工程的生命周期模型。接下来,如何从大数据获取大知识将是我们的重点研究课题。

《科学大师》:包括大知识工程在内,目前人工智能从基础科研到商业应用,发展得怎么样?

陆汝钤:有些方面现在已经做得很好了,在实际应用中像模式识别,以医学为例,已经能区别出人体内的正常细胞和癌细胞。但是目前主要还是在科研阶段,离商业应用还有距离。现在还没有任何医院敢于把疑难病人直接交给人工智能去全权处理。

我们比较关心人工智能在医学方面的应用,让人工智能造福人类健康。但是为了实现这个目标,单纯发展人工智能的某一方面技术肯定是不够的。医学人工智能需要的是人工智能技术的全面发展。我们目前的切入点就在于如何构造和利用医学大知识来支持机器人医学专家。

我们每个人去医院看病,对一些疑难杂症,医生会组织会诊,有很多专家来讨论,他们会有不同的意见,通过会诊最后形成一个治疗结论。

我们也想让计算机和人类专家一样参加会诊,比如会诊的时候有5个是真人医生,另有5个是计算机代表,讨论的时候,你区分不出来哪个参加者是人,哪个参加者是计算机。

如果能够实现,很多医疗问题将来就都可以由计算机解决,比如我们开展网上的自动化医疗,任何一个病人有需求,病不是非常严重,在网上就可以咨询机器人,由机器人给出方案。这是一项实实在在的大知识工程。

《科学大师》:这中间需要攻克的技术障碍是什么?

陆汝钤:机器不具备人的感知、意识等等,在医院里会诊,各科室都有自己的专家和知识,每个医生经验都不一样,机器人与此类似,人机协同会诊就是不同的机器人专家和人类专家的联合会诊。

要让机器人专家参加会诊,是一个比较难的问题,需要用海量的医学大知识(包括最新的医学科技进展)来武装它、支持它,这就涉及大知识的获取、整理和升华的问题。

但这不是问题的全部。医生会诊还是一个涉及多学科信息交流、问题分析、方案制定的过程,不仅有会商,还可能有激烈的辩论。能想象一群人类专家和机器人专家面对面坐在一起就重大决策进行辩论并最后决策吗?这就是主要难点之一。

另外还要想到人类专家是按领域知识和学科分类区别的,机器人专家也不例外。这不仅对机器人专家的医学智能提出了很高的要求,而且还增加了他们交流合作的困难。

《科学大师》:这种计算机参与会诊的人工智能模式,需要多长的周期实现?

陆汝钤:科学家正在研究这个问题,如果要求在医学领域全面实施人机会诊,也许50年内能实现,我觉得不一定需要100年时间。到时候大家上医院看病,会诊专家当中没准就有机器人了。在人工智能领域的重大应用中,我觉得这应该是能率先实现的目标。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注