特约专栏丨高新波教授:人工智能未来发展趋势分析

2022-7-20 16:55| 发布者: admin| 查看: 444| 评论: 0

文 / 高新波


如果按照聪明和笨、勤奋和懒惰来划分,世人大致可分为四类:聪明且勤奋、笨但勤奋、聪明却懒惰、笨且懒惰。一般而言,前两种人成功的几率会比较大。因此,人们总结出“勤能补拙是良训,一份汗水一份才”的成功经验。进而得出了 “聪明人都在下笨功夫,愚蠢的人都在找捷径”这样看似很有道理的名言警句。与此同时,人们又常说“聪明是一种天赋,勤奋是一种选择”,因此大家往往会把勤奋看成一种美德,而把聪明贬低为“小聪明”。但是,在现实生活中靠勤奋成功的人,总是给人一种很悲壮的感觉,令人尊重但并不让人羡慕。如果可以选择,我们当然希望选择聪明。


聪明往往是指一个人机智灵活,学习中具有举一反三、触类旁通的能力。这样的人不费多少力气就能掌握某种知识和技能,而且善于解决复杂问题,尤其是以前没有处理过的问题。而勤奋则是指认认真真努力干好每一件事情,不怕吃苦,踏实肯干。这样的人默默持久的坚持,有一种水滴石穿、永不言弃的精神。


经过了60多年的发展,人工智能(Artificial Intelligence, AI)就是父母口中所说的那个别人家的孩子,看上去毫不费力却取得了很大的成功。其实,今天的AI只是一个勤奋、听话、精力充沛、几近完美的“笨小孩”。比如,打败围棋九段柯洁和李世石的AlphaGo存储了多达100万盘棋谱,它正是通过学习这些数据才总结出柯洁和李世石下棋的策略,进而提前做出布局。而柯洁和李世石两个人加起来终其一生也不可能下到100万盘棋。尽管后来AlphaGo的升级版AlphaGo Zero已经无需再输入棋谱,而是从零基础开始,通过自己左右互搏自学成才。AlphaGo Zero不断探索和累积经验,现在已碾压AlphaGo。但是,我们却很难把AlphaGo和AlphaGo Zero与“聪明”关联起来。因为它们的成功更多来自“勤能补拙”,就像是我们自己家的那个懂事勤奋又刻苦的孩子,确实取得了很大成功,但是着实相当不易,非常辛苦!我们由衷地为孩子高兴,却又总觉得苦了孩子,总希望他们能多一点聪明,少一点辛劳!同样的道理,我们也希望未来的AI更多地赢在“智能”而不是“人工”上。


对于未来AI的发展,大家都做出了很多预测。概括起来,大致可以总结为以下六个方面的发展趋势。如果在这些方面不断取得新突破,就会使AI不仅勤奋而且聪明,可更好地满足人们的需要。







一、绿色低碳更灵巧的人工智能



2021年10月24日,中共中央、国务院《关于完整准确全面贯彻新发展理念做好碳达峰碳中和工作的意见》提出大力发展绿色低碳产业,为 AI赋能产业提出了新要求——绿色化助力碳中和。清华大学智能产业研究院院长张亚勤提出AI+IoT绿色低碳应用场景,一是清洁能源和传统能源的融合领域,AIoT技术可以监测碳排放,智能调度;二是信息和通信技术产业本身,大型的数据中心、5G等快速发展,消耗了很多能源,AI可以应用其中实现节能减排;三是新兴产业,比如在绿色城市、绿色交通等领域,AIoT也大有可为。


其实,未来AI自身的发展也应该沿着绿色低碳方向进行。当下的AI正在“野蛮生长”,其算法、数据和算力这三大基石也在进行规模扩张式发展。深度神经网络的模型规模越来越大,参数越来越多,因此所需要训练样本的规模越来越大,训练网络所需的算力必须越来越强,对资源的消耗必然越来越高。这样的发展显然是与绿色低碳背道而驰。以OpenAI提出的自然语言处理领域的GPT模型为例,其强大的功能是建立在超大的训练语料、超多的模型参数,以及超强的计算资源之上。GPT模型的参数量为1.17亿,预训练数据量5GB;GPT-2的参数量为15亿,预训练数据量40GB;GPT-3的参数量为1750亿,预训练数据量45GB。据说,GPT-4的参数量将达到100万亿,比GPT-3还要大500倍。同时,针对监督学习来说,数据量的增长需要很多人力进行样本标注,从而产生了一批又一批被AI“累死”的人。为此,有人提出了“难道有多少人工,才有多少智能?”这样的灵魂拷问。


反观人类的智慧体现在“否定”“遗忘”“有所为有所不为”等哲学上。这样的智慧是在做减法,通过主动“选择”走上了一条绿色极简的发展道路。为了实现绿色低碳智能系统,我们希望未来AI的发展方向应该是做“减法”而不是做“加法”。一方面构建更为灵巧的网络模型,通过轻量化的模型降低对数据量和算力的需求;另一方面,构建更为高效广泛的共享复用机制,针对AI大模型,加大开放、共享的广度和深度,提高预训练模型的效益,从而从宏观上实现绿色低碳的总体效果。总之,“创新、协调、绿色、开放、共享”五大发展理念为未来AI的发展指明了方向,提出了根本遵循。


二、知识数据双驱动的人工智能



人工智能的发展历程经常被划分为两代,即知识驱动的AI和数据驱动的AI。第一代AI主要基于知识库和推理机来模拟人类的推理和思考行为。其代表性成果就是IBM公司的Deep Blue和Deeper Blue,于1997年5月打败了当时的国际象棋冠军卡斯帕罗夫。知识驱动的AI具有很好的可解释性,而且知识作为一种数据和信息高度凝练的体现 , 也往往意味着更高的算法执行效率。但是,其缺点在于完全依赖专家知识。一方面,将知识变成机器可理解可执行的算法十分费时费力;另一方面,还有大量的知识或经验难以表达建模。因此,知识驱动的AI的应用范围非常有限。


第二代AI则基于深度学习来模拟人类的感知,如视觉、听觉、触觉等。其代表性成果就是深度神经网络,通过收集大量的训练数据并进行标注,然后训练设计好的深度网络。这类AI不需要领域知识,只需要通过大数据的训练就可以达到甚至超过人类的感知或识别水平。这类AI具有通用性强、端到端的“黑箱”或傻瓜特性。但是,也正是由于其“黑箱”特性,才使得第二代AI算法非常脆弱,依赖高质量、带标记的大数据和强大的算力。因此,具有鲁棒性差、不可解释,以及不太可靠等瓶颈问题。


为此,清华大学张钹院士提出第三代AI,希望将知识驱动和数据驱动结合起来,充分发挥知识、数据、算法和算力四要素的作用,建立可解释的鲁棒AI理论。为了探索知识与数据双驱动AI的落地,华为云提出了知识计算的概念。它把各种形态的知识,通过一系列AI技术进行抽取、表达后协同大量数据进行计算,进而产生更为精准的模型,并再次赋能给机器和人。目前,知识计算在若干垂直行业获得初步成功。为此,华为云把明确定义的应用场景、充沛的算力、可以演进的AI、组织与人才的匹配归纳为影响行业AI落地的4个关键要素。但是,这种垂直行业成功的AI距离通用AI却是渐行渐远。未来,数据与知识双驱动的通用AI将是一项极具挑战性的课题。


三、人机物融合的混合人工智能



习近平总书记在2021年5月中国科协第十次全国代表大会上的讲话指出:“以信息技术、人工智能为代表的新兴科技快速发展,大大拓展了时间、空间和人们认知范围,人类正在进入一个人机物三元融合的万物智能互联时代”。为此,我们的研究对象将由过去的物理 - 信息系统(CPS)向物理-信息-人类社会更复杂的系统扩展。人类所面临的许多问题具有不确定性、脆弱性和开放性,同时人类也是智能机器的服务对象和最终“价值判断”的仲裁者,因此,人类智能与机器智能的协同将是贯穿始终的。这就需要将人的作用或认知模型引入到AI中,从而形成“人机混合智能”或“混合增强智能”。


人机混合增强智能有两种形态,一种是人在回路中(Human-in-the-loop)的混合增强智能;一种是人在回路上(Human-on-the-loop)的混合增强智能,或者说基于认知计算的混合增强智能。前者将人作为一个计算节点或者决策节点放置于整个智能回路中;后者则将人的认知模型引入到AI系统,形成一种类人的AI。其实“人机混合”这一概念并不陌生,人与动物一个最重要的区别就是人会制造和使用工具,而人使用工具的过程就是“人机混合”的过程。机械化时代,人机混合延伸和增强人的体力;信息化时代,人机混合延伸和增强人的感知力;在今天的智能化时代,人机混合增强人类的智力,将是人脑主导的“感知力增强”和“智力增强”。比如,可穿戴设备,智能手表、智能眼镜、智能服装等,都帮助我们构建以人为中心的智能系统。人机混合增强智能系统的技术瓶颈在于人机的自然交互或接口技术,这将是未来AI研究的难点和关键核心问题。


当前,人机混合智能已经有了很多尝试。比如,可穿戴搬运机器人在马达驱动下支撑人的上半身,减轻搬运重物时腰部负担;一些科学家还尝试将电极植入人脑中,让人脑可以随时直接从计算机中下载或上传数据,大幅提升人类的认知能力。未来人机混合增强智能希望能够建立以人为中心的智能形态,保证它“可用、好用”,而且“可控”。此外,当前的AI由于尚没有自主的意识,其价值观主要是由使用者的价值观决定。因此,我们需要通过人机混合的方式为AI“立心”,从而让AI更好的为人类“立功”。


四、可信可靠可解释的人工智能



机器学习尤其是深度学习的发展使得人工智能模型越来越复杂,而这些更复杂更强大的模型变得越来越不透明。再加上这些模型基本上仍然是围绕相关性和关联性建立的,从而导致很多挑战性的问题,如虚假的关联性、模型调试性和透明性的缺失、模型的不可控,以及不受欢迎的数据放大等。其中,最核心的问题就是AI的可解释性。这一问题不解决,AI系统就会存在不可信、不可控和不可靠的软肋。2019年欧盟出台《人工智能道德准则》,明确提出AI的发展方向应该是“可信赖的”,包含安全、隐私和透明、可解释等。


2016年,来自谷歌机器学习科学家Ali Rahimi在NIPS大会上表示,当前有一种把机器学习当成炼金术来使用的错误趋势。同年,美国国防高级研究计划局制定了“DARPA Explainable AI (XAI) Program”,希望研究出可解释性的AI模型。关于“可解释性”,来自谷歌的科学家在2017年ICML会议上给出一个定义——可解释性是一种以人类理解的语言 ( 术语 ) 给人类提供解释的能力(Interpretability as the ability to explain or to present in understandable terms to a human)。人有显性知识和隐性知识,隐性知识就是经验直觉,人可以有效地结合两种不同的知识;而我们在解释、理解事物时必须是利用显性知识。当前的深度学习是以概率模型得到了隐性的知识,而显性知识适合用知识图谱来模拟。但是,目前深度学习和知识图谱这两个世界还没有很好地走到一起。


可解释性要求对AI系统的技术过程和相关的决策过程能够给出合理解释。技术可解释性要求AI做出的决策是可以被人们所理解和追溯。在AI系统会对人类的生命造成重大影响时,就需要AI系统的决策过程有一个合理的解释、提前的预判与合法的控制。因此可解释性AI有三大需求,第一是使深度神经网组件变得透明;第二是从深度神经网里面学习到语义图;第三是生成人能理解的解释。


AI系统不一定有意识,但可以有目的。机器学习的真正难点在于保证机器的目的与人的价值观一致。AI面临的重要挑战不是机器能做多少事,而是知道机器做的对不对。


五、非深度神经网络的人工智能



今天AI的成功在很大程度上是大数据和深度学习的成功。如果把AI未来的发展全部寄托在深度神经网络上,总让人感到有些单调,尽管目前的网络形态也是多种多样的。为了保持“物种的多样性”,有必要研究深度神经网络以外的AI系统。


南京大学周志华教授认为,深度神经网络之所以成功的原因主要是基于逐层加工处理、内置特征变换和模型复杂度三个关键因素。但是,这三个因素并没有“要求”我们必须使用神经网络模型;只要能同时做到这三点,别的模型应该也能做深度学习。为此,他们提出了“深度森林”这种非神经网络的新型深度学习模型。深度森林的基础构件是不可微的决策树,其训练过程并不基于BP算法,甚至不依赖于梯度计算。“深度森林”具有训练简单、效率高等优点,小规模训练数据也可运转,而且在理论分析方面也更容易。因此,成为非深度神经网络AI系统的一种尝试。


此外,华南理工大学陈俊龙教授认为,虽然深度结构网络非常强大,但大多数网络都被极度耗时的训练过程所困扰。其中最主要的原因是,上述深度网络都结构复杂并且涉及到大量的超参数。为此,他提出了宽度神经网络系统。相对于“深度”结构来说,“宽度”结构由于没有层与层之间的耦合而非常简洁。同样,由于没有多层连接,宽度网络亦不需要利用梯度下降来更新权值,所以计算速度大大优于深度学习。在网络精度达不到要求时,可以通过增加网络的“宽度”来提升精度,而增加宽度所增加的计算量与深度网络增加层数相比,可以说是微乎其微。当然,也有学者认为,现有的宽度学习仅适用于数据特征不多,但对预测实时性要求较高的场景。


不管是深度森林还是宽度网络,它们的意义在于为我们提供了未来AI系统的更多可能,以及多元化的新选择。从而避免出现人们不得不被迫选择深度神经网络的无奈。我们相信,未来一定还会有更多的非深度神经网络的AI系统,因为系统多样性是改善AI生态环境的重要保障。


六、开放环境自适应的人工智能



今天AI取得的成功基本上都是封闭环境中的成功,其中的机器学习有许多假设条件,比如针对数据的独立同分布假设,以及数据分布恒定假设等。我们通常要假定样本类别恒定,测试数据的类别是与训练数据的类别一致,不会出现训练时没有遇到的类别。此外,样本属性也是恒定的,在测试时也要求属性特征完备。而实际情况是,我们现在越来越多地碰到所谓的开放动态环境。在这样的环境中可能一切都会发生变化,这就要求未来的AI必须具备环境自适应能力,或者说要求AI的鲁棒性要强。


比如,在自动驾驶或无人驾驶领域,在实验室的封闭环境下,无论采集多少训练样本都不可能涵盖所有情况,因为现实世界远比我们想象的丰富。这样在自动驾驶的过程中会遇到越来越多的以前没有见到的特殊情况,尤其是越是突发事件,越是很少出现的场景,这就对AI系统的自适应性或鲁棒性提出极大的挑战。因此,未来AI的发展必须能应对“开放环境”的问题,即如何在一个开放环境下通过机器学习进行数据分析和建模。


此外,现有AI技术依赖大量的高质量训练数据和计算资源来充分学习模型的参数。在系统初始建模阶段,由于数据充分能够得到比较理想的效果。然而,在投入使用一段时期后,在线数据内容的更新,就会产生系统性能上的偏差,严重时直接导致系统下线。在训练数据量有限的情况下,一些规模巨大的深度神经网络也容易出现过拟合,使得在新数据上的测试性能远低于之前测试数据上的性能。同时,在特定数据集上测试性能良好的深度神经网络,很容易被添加少量随机噪声的“对抗”样本欺骗,从而导致系统很容易出现高可信度的错误判断。因此,发展鲁棒性、可扩展性强的智能学习系统必定会成为下一代AI系统的重要研究课题。


从以上未来AI系统发展的六种形态以及各自的发展趋势来看,下一步的研究需要系统、全面地借鉴人类的认知机理,不仅是神经系统的特性,还有认知系统(包括知识表示、更新、推理等),发展更加具有生物合理性,以及更灵活、更可信可靠的AI系统。唯有如此,未来AI系统才能够实现“不仅勤奋而且更聪明更有智慧”的理想。


让我们共同努力,一起向未来!


(参考文献略)
回复

使用道具 举报

上一篇:恐怖故事:女生寝室之难道是诅咒?

下一篇:一文看懂物联网、云计算、大数据、人工智能、5G、和区块链

sitemap.txt | sitemap.xml | sitemap.html |Archiver|手机版|小黑屋|创业那点事 ( 湘ICP备17022177号-2 )

GMT+8, 2024-12-23 13:44 , Processed in 0.465078 second(s), 26 queries .

快速回复 返回顶部 返回列表