打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
【研报】“人工智能 ”时代呼啸而来(上)

分析师新财富路演



来源:招商计算机 刘泽晶--独角兽智库会员,新财富请支持刘泽晶团队第一


【摘要】

 

我们看好人工智能开源平台百舸争流争夺AI生态圈会极大加速产业发展。我们看好人工智能芯片不断进化下的AI算法效率大幅提升。“人工智能 ”时代呼啸而来,我们先期看好专用人工智能的普及,中长期看好通用人工智能的普及。

 

第三次浪潮:人工智能奇点临近。人工智能在两次高潮和低谷之后迎来第三次浪潮,各国纷纷把人工智能上升到国家战略层面,美国白宫组织四场研讨会讨论人工智能,日本提出“超智能社会”,中国发布《“互联网 ”人工智能三年行动实施方案》。仿佛一夜间,各国对人工智能热情大增,我们看到人工智能领域巨头们的卡位战争已经上升到开源平台、芯片以及应用。相关一级创投金额5年增长了12倍,我们预计二级市场的机会随时来临。

 

开源平台:超越AndroidAI生态圈之争极大加速产业发展。我们看到各大科技巨头和科研机构纷纷争夺开源人工智能技术,如GoogleTensorFlow、微软的DMTKFacebookTorchnetOpenAIBaiduPaddle等,百舸争流千帆竞,以此来获得大量的用户需求和开发人员,建立开放共享、互利共赢的人工智能生态圈,我们认为人工智能开源平台有望成为引爆产业的导火线,从而比Android更深远地影响世界。

 

人工智能芯片:从通用到专用,类脑计算不断进化,效率大幅提升。我们认为人工智能芯片效率的提升和突破将带领产业实现跳跃式发展。GPU王者Nvidia,与其合作的组织2年增长30多倍。FPGA兼顾性能与灵活性,与GPU强强对决。我们预计人工智能专用芯片在竞争中有望实现超越摩尔定律的发展速度,硬件的春天即将来临。

 

应用:“人工智能 ”时代呼啸而来,改变IT的命运。我们先期看好专用人工智能的普及,中长期看好通用人工智能的普及。人工智能在未来几乎会给各行各业带来升级重构,包括安防、制造业、金融、交通、教育、法律、医疗等行业,AI的触角伸向每个行业和每个人,从而改变IT未来的走向。

 

投资建议:建议从两个角度选择A股相关标的:1、数据能力;2、应用能力。重点推荐:“人工智能 安防”:东方网力;“人工智能 金融”:同花顺;“人工智能 医疗”:思创医惠;“人工智能 底层操作系统”:中科创达;“人工智能 大数据”:神州泰岳。关注:科大讯飞、佳都科技、汉王科技。

 

风险提示:政策支持力度低于预期;核心技术发展遭遇瓶颈。



【正文】

 

一、人工智能第三次浪潮:从开源平台、芯片到应用的竞争白热化,创投金额5 年间增长了12

 

人工智能(Artificial IntelligenceAI)是对人的意识、思维的信息过程的模拟,它是一门研究、开发用于模拟、延伸和扩展人的智能的理论及应用系统的技术科学,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等,除了计算机科学以外,人工智能还涉及信息论、控制论、自动化、仿生学、生物学、心理学、数理逻辑、语言学、医学和哲学等多门学科。

 

人工智能本质上是为了研制出具有类人智能的机器,能够模拟、延伸和扩展人类智能的理论、方法、技术以及应用形式。

 

如果把人工智能与人对比,要实现以下功能:听说读写、行动思考学习等。

 

语音语义:语音识别、说话人识别、机器翻译;语音合成、人机对话等。

 

计算机视觉:图像识别、人脸识别、虹膜识别、文字识别、车牌识别等。

 

行动:智能机器人、无人驾驶汽车、无人机等。

 

思考:人机对弈、定理证明、自动推理和搜索方法、医疗诊断等。

 

学习:机器学习、知识获取、知识处理、知识表示等。


 

1、人工智能发展历程:在两次高潮和低谷之后迎来第三次浪潮

 

人工智能作为一门学科诞生至今已有60年的历史,期间经历了2次高潮和低谷。而从2010年到现在又迎来人工智能发展的第三次浪潮。

 

人工智能60年的发展,道路虽然起伏曲折,但进展也可谓硕果累累。无论是基础理论创新,关键技术突破,还是规模产业应用,都是精彩纷呈,使我们每一天无不享受着这门学科带来的便利。人工智能因其十分广阔的应用前景和对一个国家的重大战略意义,近年来日益得到政府部门、学术界的高度关注。

 

11956年达特茅斯会议:人工智能学诞生

 

1956年夏,达特茅斯学院助教约翰·麦卡锡(JohnMcCarthy)、哈佛大学马文·闵斯基(Marvin Minsky)、贝尔电话实验室克劳德·香农(Claude Shannon)、IBM公司信息研究中心纳撒尼尔·罗切斯特(Nathaniel Rochester)、卡内基梅隆大学艾伦·纽厄尔(Allen Newell)和赫伯特·西蒙(Herbert Simon)等先驱在美国达特茅斯学院行了以此为其两个月的学术讨论会,从不同学科的角度探讨用机器模拟人类智能等问题,并首次提出了人工智能的概念,达特茅斯会议上AI的名称和任务得以确定,同时出现了最初的成就和最早的一批研究者,因此标志着人工智能学科的诞生。



21956年至1974年:人工智能的第一次大发展

 

1956 年达特茅斯会议之后的十几年是人工智能的黄金年代。从50年代后期到60年代涌现了大批成功的AI程序和新的研究方向,其中最有影响力的包括搜索式推理、自然语言、微世界等。在这段时间内,计算机被用来解决代数应用题、证明几何定理、学习和使用英语。初期研究取得了显著的成果,这些成果在得到广泛赞赏的同时也让研究者们对开发出完全智能的机器信心倍增。

 

19636月,MIT从新建立的ARPA(即后来的DARPA,国防高等研究计划局)获得了220万美元经费,用于资助MAC工程,其中包括MinskyMcCarthy五年前建立的AI研究组。此后ARPA每年提供三百万美元,直到七十年代为止,在麻省理工、卡内基梅隆大学、斯坦福大学、爱丁堡大学建立的人工智能项目都获得了来自 ARPA等政府机构的大笔资金,在接下来的许多年间,这四个研究机构一直是AI学术界的研究(和经费)中心。不过,这些投入却并没有让当时的乐观预言得以实现。


 

31974年至1980年:人工智能的第一次低谷

 

70年代初,人工智能遭遇了瓶颈。由于计算机性能的瓶颈、计算复杂性的指数级增长、数据量缺失等问题,AI研究者们遭遇了无法克服的基础性障碍。例如,在今天已经比较常见的机器视觉功能在当时找不到足够大的数据库来支撑程序学习,机器无法吸收足够的数据量,因此很难实现视觉方面的智能化。

 

由于缺乏进展,对人工智能提供资助的机构(如英国政府,DARPANRC)对无方向的AI研究逐渐停止了资助。到了1974年已经很难再找到对人工智能项目的资助,研究经费被转移到那些目标明确的特定项目上。人工智能遭遇了 6 年左右的低谷。

 

1969MinskyPapert出版了著作《感知器》,书中暗示感知器具有严重局限,而感知器是神经网络的一种形式,它最终将能够学习,做出决策和翻译语言。这本书的影响是破坏性的,联结主义的研究因此停滞了十年。

 

1970年代后期,尽管遭遇了公众的误解,人工智能在逻辑编程、常识推理等一些领域还是有所进展。

 

41980年至1987年:人工智能的第二次大发展

 

80年代,一类名为“专家系统”的AI程序开始为全世界的公司所采纳,知识库系统和知识工程成为了80年代AI研究的主要方向。专家系统是一种程序,能够依据一组从专门知识中推演出的逻辑规则在某一特定领域回答或解决问题。专家系统仅限于一个很小的知识领域,从而避免了常识问题;其简单的设计又使它能够较为容易地编程实现或修改,实践证明了这类程序的实用性。

 

1980年卡内基·梅隆大学为DECDigitalEquipment Corporation,数字设备公司)设计了一个名为XCON的专家系统,这套系统在 1986 年之前能为公司每年节省四千万美元。全世界的公司都开始研发和应用专家系统,到1985年它们已在AI上投入十亿美元以上,大部分用于公司内设的AI部门。为之提供支持的产业应运而生,其中包括SymbolicsLisp Machines等硬件公司和IntelliCorpAion等软件公司。

 

1981年,日本经济产业省拨款8.5亿美元支持第五代计算机项目,目标是制造出能够与人对话、翻译语言、解释图像,并且能像人一样推理的机器。随后,英国、美国也纷纷响应,开始向 AI 和信息技术领域的研究提供大量资金。

 

1986年,人工智能领域著名的BPAlgorithmError Back Propagation Algorithm,误差反向传播算法)被RumelhartMcCelland等大师提出,这使1970年以来一直遭人遗弃的联结主义重获新生。

 

51987年至1993年:人工智能的第二次低谷

 

1987AI硬件市场需求突然下跌。AppleIBM生产的台式机性能不断提升,到1987年时其性能已经超过了Symbolics和其他厂家生产的昂贵的Lisp机。老产品失去了存在的理由:一夜之间这个价值五亿美元的产业土崩瓦解。XCON等最初大获成功的专家系统维护费用居高不下,暴露出各种问题,专家系统的实用性仅仅局限于某些特定情景。

 

80 年代晚期,战略计算促进会大幅削减对AI的资助。1991 年,人们发现十年前日本人宏伟的“第五代工程”并没有实现。这些事实情况让人们从对“专家系统”的狂热追捧中逐步走向失望。人工智能研究再次遭遇寒冬。

 

尽管遇到各种批评,这一领域仍在不断前进。来自机器人学这一相关研究领域的Rodney BrooksHans Moravec提出了一种全新的人工智能方案,号召“自底向上”地创造智能,他们认为感知运动技能对于常识推理等高层次技能是至关重要的。

 

61993年至2010年:人工智能复苏期

 

1993年到2010年这一阶段,人工智能处于稳步发展时期,互联网推动人工智能不断创新和实用。

 

人工智能已被成功地用在技术产业中,取得了一些里程碑式的成果:19975月,IBM研发的计算机“深蓝”(Deep Blue)战胜了国际象棋冠军卡斯帕罗夫;2005年,Stanford开发的一台机器人在一条沙漠小径上成功地自动行驶了131英里,赢得了DARPA挑战大赛头奖;2009 年,洛桑联邦理工学院发起的蓝脑计划声称已经成功地模拟了部分鼠脑。

 

200811IBM提出“智慧地球”概念,数字化、网络化和智能化,被公认为是未来社会发展的大趋势,而与“智慧地球”密切相关的物联网、云计算等,更成为科技发达国家制定本国发展战略的重点。自2009年以来,美国、欧盟、日本和韩国等纷纷推出本国的物联网、云计算相关发展战略。


 

72010年到现在:人工智能进入爆发式增长期

 

大数据、云计算支撑人工智能产业爆发,人工智能将成为下一轮技术变革的核心。

 

人工智能新一轮的爆发包括大数据、云计算和算法三个核心要素。

 

第一,数据的急剧增长。得益于互联网、社交媒体、移动设备和廉价的传感器,这个世界产生的数据量指数型增长。大数据是人工智能发展的助推剂,这是因为有些人工智能技术使用统计模型来进行数据的概率推算,比如图像、文本或者语音,有了大量的数据才能为模型的训练提供原材料。

 

第二,计算能力的进步。云计算和大规模GPU并行计算的发展为深度学习的应用提供了计算基础。当人们把原本用于游戏中处理高质量画面的GPU拿来运行深度学习算法后,计算机可以几百倍地加快模型的训练速度。目前,AlphaGo的计算能力是IBM深蓝的近3万倍。未来随着速度更快的芯片乃至量子计算的发展,运算速度会进一步提高,成本也会大幅降低。

 

第三,算法的发展,特别是深度学习的应用。算法是解决一个设计程序或完成任务的路径方法。与大部分传统算法相比,深度学习的效果随着数据量的增大有显著的提升,因而更大量的数据可以提高算法的表现。深度学习增加了神经网络的层数,因此网络才有了更强大的特征挖掘能力。机器学习算法目前被开源使用,这种情形将促成更大进步,因为在开源环境下开发人员可以补足和增强彼此的工作。

 

2、人工智能全球热潮上升到国家战略层面

 

人工智能已经成为国家服务业、工业和军事的核心竞争力,因此世界各国制定了国家级发展战略:



20165月美国白宫计划组织四场研讨会讨论人工智能。白宫还成立了人工智能委员会,用于协调全美各界在人工智能领域的行动。美国交通部宣布历时10年投资40亿美元的提案,旨在实现无人驾驶汽车上路。

 

日本从2016年开始执行的“第五期科学技术基本计划”中,日本政府列入总额约26万亿日元的研发经费,重点研发物联网及人工智能系统,提出要实现领先于世界的“超智能社会”(即Society5.0)。

 

2016525日我国四部委发布《“互联网 ”人工智能三年行动实施方案》,到2018年形成千亿级的人工智能市场应用规模。201688日发布的《“十三五”国家科技创新规划》多次讲到人工智能。

 

3、人工智能巨头竞争白热化:从开源平台、芯片到应用

 

1)开源人工智能基础平台

 

同时各大科技巨头纷纷开源人工智能技术,以此来获得大量的用户需求和开发人员,建立开放共享、互利共赢的人工智能生态圈,典型的例子有:

 

谷歌开源了人工智能基础平台TensorFlow

 

Facebook开源了人工智能基础平台Torchnet

 

微软开源了人工智能基础平台DMTK

 

IBM开源了人工智能基础平台SystemML

 

雅虎开源CaffeOnSpark

 

百度开源AI人工智能Warp-CTC源代码;

 

特斯拉创始人Elon Musk 等共同创立非营利开源人工智能公司 OpenAI等。

 

2)布局人工智能芯片

 

人工智能芯片定义了AI产业链和生态圈的基础计算架构,核心芯片是人工智能时代的战略制高点。GoogleIBM、英伟达、Intel、中科院都在积极布局人工智能芯片。

 

2016817日,英特尔表示将开发人工智能技术的专用芯片;

 

IBM正在设计基于大脑结构的芯片TrueNorth

 

今年5月,谷歌自主研发新型芯片支持人工智能;

 

英伟达推出人工智能超级芯片特斯拉P100 GPU

 

中科院研发出全球首个能够“深度学习”的“神经网络”处理器芯片“寒武纪”;

 

Facebook、微软以及Twitter都在通过设计新的芯片加强人工智能研发。

 

3)研发人工智能核心技术

 

GoogleIBMMicrosoftFacebookAmazon、百度等企业巨头充分认识到人工智能技术引领新一代信息产业发展的战略意义,纷纷投入重金收购企业、招募人才和研发核心技术,力图掌握人工智能时代的主动权:

 

Google正在研发自动驾驶汽车、Deepmind人机博弈;

 

IBM投资10亿美元组建Watson人工智能部门,在医疗金融等领域推广应用;

 

微软推出聊天机器人小冰和人工智能助理小娜;

 

Facebook专注于人工智能助理、图像视频识别等技术;

 

百度开发无人驾驶、语音识别、百度度秘等人工智能多领域的应用产品。



4、人工智能领域的投资并购如火如荼,创投金额5年间增长了12

 

1Google成并购人工智能创业公司最活跃的收购巨头

 

当前,全球范围内人工智能产业化应用蓬勃发展。谷歌、IBMIntel、苹果、Yahoo等国际巨头纷纷抢滩布局人工智能产业链,力图掌握人工智能时代的主动权。从2013年起,巨头对人工智能公司的并购呈现密集化趋势。

 

Google成为人工智能公司收购热潮中的领军者,自2011年起,Google先后收购了近10AI领域的创业公司,Twitter紧追其后,将MagicPony MadbitsWhetlab等公司收入囊中,而苹果公司和Salesforce自去年开始以收购方式布局人工智能后各并购3AI创业公司。此外,IntelIBMYahoo等也都在积极收购AI创业公司。



2Intel成为人工智能风投领域最活跃的机构投资者



2011年至今,在风投领域,Intel是最活跃的机构投资者。在Intel Capital的投资组合中有医疗健康领域的Lumiata,机器学习平台DataRobot以及图片视频公司Perfant等等。谷歌也在AI领域投资了10家公司,包括Building Robotics ClarifaiKensho等等。谷歌在人工智能领域无疑是领先者,通过进一步分析我们可以发现在并购市场上谷歌主要收购的对象是人工智能的底层技术,而在风投市场主要投资的是人工智能在特定场景下的应用。同时,在谷歌内部,深度学习也被广泛应用。谷歌的许多产品如AndroidGmail、地图、翻译、YouTube等都有深度学习在背后支撑。

 

近日,Intel宣布收购计算机视觉处理器公司Movidius,加速进军无人机、机器人以及VR领域。Movidius 的杀手级产品就是花费 9 年时间完全从零开始自主研制的全新架构低功耗视觉处理器。

 

3)人工智能领域的创投金额5年间增长了12


 

从已经披露的人工智能领域投资来看,2011年到2016年的五年间,无论是总体融资额还是交易次数都在逐年上升。随着人工智能在各个专业领域的技术突破,投资者对于人工智能产业的兴趣和信心逐渐增加,都在试图抓住这一热潮,掌握更多的主动权。



对使用人工智能算法的创业公司的交易与投资在 2016 年创了记录。这一趋势正在变革包括医疗、商业智能、广告在内的数个产业。特别是创业公司使用机器学习和自然语言处理解决金融方面的问题在过去几年吸引了投资者的兴趣。



 

二、人工智能开源平台:百舸争流千帆竞,争夺生态圈话语权,比Android更深远地影响世界

 

同时各大科技巨头和科研机构纷纷开源人工智能技术,以此来获得大量的用户需求和开发人员,建立开放共享、互利共赢的人工智能生态圈,可以说人工智能开源平台,会比Android更深远地影响世界。

 

1Google TensorFlow:最受欢迎的人工智能开源平台

 

作为Google第二代深度学习系统,TensorFlow被寄予厚望。TensorFlowGoogle201511月宣布开源的第二代深度学习系统,主要用于编译执行机器学习算法的代码,是2011年所推出的第一代人工智能系统DistBelief的升级版本。DistBelief是一款非常成功的深度学习系统,Google在此系统上建立起了庞大的神经网络模型并取得不少令人瞩目的技术成就,比如DistBelief曾从Youtube上没有被标记的海量视频中识别出包含猫的视频,将Google应用中的语音识别水平提高25%等,但DistBelief仅以神经网络为目的,在实际配置及应用中存在明显局限性。

 

TensorFlow的设计架构克服了DistBelief通用性差、不够灵活等缺点,在运行速度、可扩缩性和与产品可衔接性方面均有大幅改善,而且整个系统完全开源。作为Google所推出的第二代开源深度学习系统,TensorFlow所具备的优异性能有望进一步降低深度学习的使用门槛,成为深度学习领域标杆式开发平台,加速推进人工智能行业新产品的研发进度。



 

TensorFlow专注解决深度学习问题。TensorFlow的命名生动体现了其运算模式的架构理念:Tensor一词本意为张量,代表一个N维数组,比如该数组为1维数组时就表示向量,2维时表示矩阵,更高维的数据流比如图像则可以用三维张量(行、列、色彩)来代表;Flow(流动)则意味着基于数据流图的运算流程。TensorFlow则意味着张量在数据流图上流动过程,也即运算处理过程。TensorFlow的基本架构从多个角度考虑到了对深度学习的适应性,具体而言包括以下四个方面:1)用一个或多个张量(Tensor)神经网络中的每一层(Layer);2)建立专用于深度学习的运算库,包括:2D3D卷积、PoolingSoftma等高阶运算;标准损失函数,如Corss EntropyL1L2等;多种优化方法,如Gradient DescentAdaGradL-BFGS等;3)自动计算相关微分导数;4)易于混合使用多种不同模型进行训练,包括LSTMs、卷积模型、注意力模型,增强学习、类图灵机模型等。



背靠Google强大技术支撑,TensorFlow整体性能显著提升。TensorFlow可以被架设在各类常见计算平台上,无论是智能手机、计算机、大型服务器,还是由GPU组成的分布式系统,都能实现通用;在编程语言方面,TensorFlow支持包括PythonCudaC 等在内多种程序语言,系统自带的深度学习模型库功能丰富且方便易用。在TensorFlow在建立和训练神经网络速度等主要指标方面,TensorFlow要比DistBelief5倍左右。此外,TensorFlow配备的芯片是Google自主研发的人工智能专用处理芯片TPU,同时能够调用Google庞大的计算资源和海量用户基数,在处理大规模分布式训练方面具有无可比拟的明显优势。



20165月,经过长达半年的测试与评估过程,DeepMind宣布放弃此前一直使用的开源机器学习平台Torch7,转而使用TensorFlow系统,这也意味着AlphaGo未来的测试训练将在TensorFlow上展开。

 

由于具有优异的性能以及Google方面庞大的维护团队,Tensorflow一经面世就广受欢迎,HackerNews曾开展一个深度学习工具受欢迎程度的投票,时间范围为715日到815日,结果显示TensorFlow受欢迎程度高居第一,且得分遥遥领先于第二名。



TensorFlow更新及时,开源程度不断加深。TensorFlow自从201511月发布0.1创始版本以来,短短9个月内已经完成了9次更新,TensorFlow系统正在加速完善成熟。最具有里程碑意义的一次更新时今年4月推出的TensorFlow0.8版,实现了分布式联机功能。虽然Google内部所用TensorFlow可在数以千计的服务器上同时运行,但对外发布的低于0.8版本的系统却只能在单台机器上运行,这使得TensorFlow在大规模并行应用方面受到了极大限制,这也是此前TensorFlow受业界诟病的主要原因之一。而随着0.8版本TensorFlow的发布,这一缺陷已弥补,标准着TensorFlow开源透明程度的巨大提高。



2、微软DMTK:机器学习算法 大数据的强大交叠

 

DMTK,微软机器学习开源工具的扛鼎力作。在Google宣布开源TensorFlow系统的同一天(2015.11.9),微软也宣布将分布式机器学习工具包DMTK开源。DMTK由一个服务于分布式机器学习的框架和一组分布式机器学习算法构成,是一个将机器学习算法应用在大数据上的强大工具包,适用于在超大规模数据上灵活稳定地训练大规模机器学习模型。此外,DMTK拥有丰富易用的API接口,能有效降低分布式机器学习的门槛,研发人员只需要专注于数据、模型和模型训练等机器学习的核心逻辑部分。DMTK目前的工具包主要包含以下3个部分:

 

1)分布式机器学习框架(Multiverso):由参数服务器(ParameterServer)和客户端软件开发包(Client SDK)两部分构成。参数服务器支持存储混合数据结构模型,接受并聚合工作节点服务器的数据模型更新、控制模型同步逻辑,在原有基础上从性能和功能上都得到了进一步提升。客户端软件开发包(Client SDK)则支持维护节点模型缓存(与全局模型服务器同步)、节点模型训练和模型通讯的流水线控制、以及片状调度大模型训练等;



2LightLDA主题模型:LightLDA主题模型是一种全新的计算复杂度与主题数目无关的高效算法,能够在一个普通计算机集群上处理超大规模的数据和模型,主要应用于互联网社交平台上的海量文本信息挖掘,得出相关的主题(Topic),为后续的机器学习和文本理解提供基础素材。据微软团队介绍,DMTKLightLDA算法是目前世界上唯一一款能在2千亿训练样本(Token)上训练100万个主题的机器学习算法,其相关参数已达到万亿级别,却仅使用了一共搭载300余个CPU内核的20台服务器就完成了运算过程,而其他同类算法若要实现上述运算过程一般需部署数千台计算机集群;

 

3)分布式词向量训练模型(DistributeWord EmbeddingDWE):词向量模型通过挖掘文本数据,赋予一个词若干个指标维度(语义相关匹配),即将普通文本处理为词向量。近来被普遍地应用于计算词汇的语义表示,它可以用作很多自然语言处理任务的词特征。目前DMTK为两种计算词向量的算法提供了高效的分步式实现:一种是标准的word2vec算法,另一种是可以对多义词计算多个词向量的新算法。



DMTK有望助力微软在线产品实现性能跃升。DMTK中包含的LightLDA DWE组合所拥有的高效复杂处理能力,以及分布式开源架构,将DWE模型推升了一个前所未有的全新高度,有望给整个搜索、语义处理等相关产业带来颠覆性变革。目前在微软内部,DMTK已经被应用到Bing搜索引擎、聊天机器人、广告服务等多款在线产品当中,借助DMTK的强大且高效的算力,有望给上述产品带来实质性的优化改善。以微软聊天机器人小冰为例,在短短1年时间内,第三代小冰与数千万人类用户平均每次对话轮数已经达到了18轮,而此前最领先同类聊天机器人平均对话轮数仅有1.52轮,目前小冰3还具备了自我进化功能,表明借助DMTK微软在语义分析和理解方面已经取得显著突破。



 

3Facebook Torchnet:轻量化机器学习开源工具集

 

“小而美”的Torchnet20166月,Facebook人工智能研究实验室(FAIR)发表一篇论文,首次介绍该团队开发了一款基于Torch7的轻量级机器学习开源工具Torchnet,目前该平台的源代码已经在Github开源。Facebook没有像GoogleMicrosoftTesla等公司难那样从头开始构建机器学习平台,而是直接在机器学习框架Torch 7的基础上实现。Torch 7作为主流封装脚本语言的轻量级学习框架,针对常见代数运算效率很高,但是它不能执行抽象和公式化(Boilerplate)的代码实现。针对这一缺陷,Torchnet采用了可抽象和公式化逻辑的开源框架,提供种类丰富的样本代码(Boilerplate Code)、关键抽象概念(Key Abstractions)和参考执行代码(Reference Implementations)等基本概念和代码集,且允许模块化编程和代码重复使用,从而减少Bug几率;此外,由于Torchnet采用的是Torch上通用的Lua编程语言,能直接对接异步数据输入和多GPU/标准x86芯片运算,能有效提高运算效率。Facebook目前还没有公布Torchnet的具体应用,但预计是涉及图像识别、自然语言处理、机器聊天等与Facebook现有核心业务相关的任务。



 

4OpenAI:非盈利性开源人工智能组织

 

OpenAI的诞生初衷:既为战更为止战。OpenAI成立于201512月,投资者包括特斯拉CEOElon Musk、创业孵化器Y Combinator总裁Sam AltmanPayPal的联合创始人Peter Thiel以及Amazon Web Service等知名人士或公司,累计投资金额达10亿美元。作为行业内少见的非营利性组织,OpenAI成立的初衷即是为了解决Elon Musk所担心的“人工智能威胁论(the Threat of Bad AI)”,其长期目标和最终使命是以最大限度造福全人类的方式发展利用人工智能。根据Musk的“人工智能威胁论”,人类对人工智能的认知程度仍停留在初级阶段,对其发展方向的掌控能力也极为有限,一旦人工智能自我进化出邪恶意识将形成巨大威胁,因此极有必要全面深入理解乃至掌控人工智能发展;另一方面,目前主流研究团体如GoogleFacebookMicrosoft等都是盈利性公司,难免会出于商业竞争目的而滥用、乱用、误用人工智能技术,加剧人工智能威胁的潜在风险。因此,设立一家非盈利性开源人工智能组织,分享全世界范围内的最新研究成果,消除企业界不完全公开研究细节的弊端,是发展人工智能的最佳实践方式之一。由于没有商业竞争和盈利的需求,OpenAI或将会对自己的技术优势完全开源透明而不会有所保留。

 

专注非监督式学习和增强学习,完备的环境集成是最大亮点。据OpenAI研发团队介绍,其研究内容主要为三个方向:1)模拟算法生成(Training Generative Models),主要任务是快速感知与学习不同类型数据并生成新的信息,既包含监督学习,也有无监督学习;2)从数据中推断算法的算法(Algorithms for Inferring Algorithms from Data),即神经网络图灵机,主要目的是让机器能够学习算法和程序等更为复杂信息,从而具备更强大推理能力;3)增强学习算法研发(New Approaches to Reinforcement Learning),重点在于实现机器的自我学习能力,这也是AlphaGO所采用的技术手段。目前OpenAI已发布其第一款增强学习算法测试开源工具包OpenAI Gym,其中最大的亮点在于包括了种类丰富研发测试环境集成,包括模拟RL-GlueRL-PyArcade Learning Environment等,主要适用于研发和比较增强学习算法,OpenAIGym也整合了加州大学伯克利分校关于深度强化学习算法基准测试方面的最新研究成果。未来OpenAI还将继续发布非监督式学习和增强学习方面开源工具。




5Baidu Paddle:厚积薄发的深度学习开源平台

 

厚积薄发,广获肯定。早在2013年,百度深度学习实验室((Institute of Deep LearningIDL))发现深度神经网络在训练数据方面相比传统单GPU训练平台有绝对优势,为此实验室搭建了分布式深度学习平台Paddle(Parallel Asynchronous Distributed Deep Learning)。但创世版PADDLE是一个独立的深度学习平台,不能很好地支持其他平台数据的接入需求,限制了其性能发挥。为解决这一性能瓶颈,IDL团队开发了Spark on PADDLE平台,让PADDLE变成百度Spark生态系统的一个功能模块,提高其在跨平台应用上的通用性,目前Paddle已经发展成为Baidu成熟的分布式深度学习平台,广泛应用于图像处理、语音识别、自然语言理解、无人驾驶等领域。自2016831日,最新版本Paddle宣布开源以来,迅速受到众多业内研究人员和相关机构的测试,在性能和各项指标上,Paddle获得了测试人员的广泛肯定。


简洁、稳定、高效,Paddle拥有出色架构。Paddle是一个云端托管的分布式深度学习平台,对于序列输入、稀疏输入和大规模数据的模型训练有着良好的支持,支持GPU运算,支持数据并行和模型并行。根据Baidu研发团队的介绍,Paddle的架构是Spark异构系统计算平台,其运行流程主要分以下3步:1App Master启动用户应用程序(Scala Driver),向Apache Yarn请求其所需的资源,其中GPUFPGA对应不同的资源类别;2)用户应用程序取得所有资源,由App Master在相应的App Slave上启动Container运行用户程序的一个Scala Worker3)按照程序Scala Worker的需求,调用相应的C OpenCL程序,把所分配的数据传输到GPUFPGA上,同时启动特定的OpenCL Kernel对输入数据进行处理并完成计算。Paddle所拥有的出色架构,以及Baidu在多年的内部使用中对其不断优化,已经使之成为一款较为成熟的深度学习开发平台,尤其是具备代码简洁、设计干净、运行高效、支持拓展性强等亮点。



Baidu现有产品深度融合,未来应用场景广阔。作为Baidu在深度学习领域里程碑式的研究成果,Paddle目前被用于Baidu旗下的各类的产品和服务中,已经拥有大量用户群体,具体应用场景包括广告点击率(CTR)预测、大规模图像分类、光学字符识别(OCR)、搜索排名、计算机病毒检测、用户精准推荐等。Paddle在百度现有业务布局中几乎无处不在,且并大幅度地提升了这些产品的准确度,取得了良好效果。借助Paddle平台,Baidu在未来有望开发出更灵活高效的大规模深度学习系统,并通过和各产品团队合作将其应用不同的产品中,打造出更为智能优质的产品和服务。

 

6、其他开源工具:CaffeTheanoMXNetCNTKDL4J

 

1Caffe

 

Caffe诞生于加州伯克利分校,由贾扬清在该校从事博士后工作期间开发,于201312月宣布开源,目前该校视觉与学习中心(Berkeley Vision and Learning CenterBVLC)负责系统的维护工作。Caffe全称是ConvolutionalArchitecture for Fast Feature Embedding,开发语言为C ,主要针对卷积架构的网络提供解决方案,而对于循环神经网络、递归神经网络没有提供支持。Caffe的特点是高性能、配置简单、适用平台多元等。Caffe适用于图像分类、目标识别、图像分割等图像处理领域,同样也可用于处理非图像数据的分类、回归问题。

 

2Theano

 

2008年,Theano诞生于蒙特利尔理工学院,派生了大量深度学习Python软件包,最著名的包括BlocksKerasTheano基于PythonC 开发,支持全平台、CPU/GPU切换运行,特点是使用灵活、功能强大,可以自己设计神经单元和神经连接,支持MLPCNNRNN-LSTM等多种深度神经网络。Theano的缺点在于C 代码的编译过程较为缓慢,PythonTheano包的导入也偏慢。由于Theano的程序已经被打包,所以很难对Theano本身做出改进。

 

3MXNet

 

MXNetDMLCDistributed(Deep) Machine Learning Community)组织开发,是一款快速高质量的开源深度学习工具。DMLC该组织为一群来自多家高校和IT公司(包括卡耐基梅隆大学、MIT、华盛顿大学、微软、英特尔等)的极客发起成立,其成员曾是CXXNetMinervaPurine等项目主要开发者。MXNet主要采用C 编写,但同时也具备Rpythonjulia等语言的接口,该工具强调高内存使用效率,甚至能在智能手机上运行诸如图像识别等任务。

 

4CNTK

 

Computational Network Toolkit (CNTK)是微软研究院(MicrosoftResearch)出品的开源深度学习工具包,20161月宣布开源,目前已经发展成一个通用、独立的深度学习系统。CNTK是基于C 并且跨平台的深度学习工具,目前还没有Python或者其他高级语言的接口,支持CPUGPU模式,部署简单、性能强大。在CNTK中,神经网络会被指定为向量运算的符号图结构,叶节点代表输入或者网络参数,其他节点计代表算步骤,运算的组合则会形成神经网络的层。CNTK不支持ARM架构,限制了其在移动设备上的部署能力。

 

5DL4J

 

DL4J/Deeplearning4jDeepLearning for Java)是一款基于Java的深度学习开源工具,由创业公司Skymind20146月发布,属于首个商用级别(非研究工具目的)深度学习开源工具。DL4JJavaScalaClojure均兼容,其深度学习框架包括分布式、多线程框架,以及普通的单线程深度学习框架,通过集群进行定型过程来实现快速处理大量数据的功能。DL4J以即插即用为目标,可与HadoopSpark深度集成,并通过多项预设的使用方便开发者在快速集成深度学习功能,其用户包括埃森哲、雪佛龙、IBM等知名公司。

 

7、人工智能开源平台争夺生态圈话语权,争夺下一个时代的“Android

 

我们将人工智能开源平台对比整理如下。同时各大科技巨头和科研机构纷纷开源人工智能技术,以此来获得大量的用户需求和开发人员,建立开放共享、互利共赢的人工智能生态圈,可以说人工智能开源平台,会比Android更深远地影响世界。




本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
持续耕耘四年后,百度飞桨定义了一套深度学习开源平台的游戏规则
有助于你掌握机器学习的十三个框架
必备!这十大人工智能课程,带你从入门到精通
零基础学AI,看完你就get了
转型AI产品经理需要掌握的硬知识:AI产品能力模型和AI概念梳理
GitHub大神总结的22个顶级开源AI项目,你不会还没用过吧
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服