打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
如果你对AI一无所知,这篇文章是最好的扫盲文

从2016年的人“狗”围棋之战到《西部世界》,再到智能音箱,人工智能不再是科幻里的触不可及,而是在身边逐渐落地的真实。“如果一台机器能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份,那么称这台机器具有智能。”是的,图灵设想的人工智能来了。

近期,一张来自《纽约客》杂志的封面毫无征兆地在朋友圈里刷了屏。人类坐地行乞,机器人则扮演了施予者的角色,意指明显——在未来社会,人类的工作机会被不断进化的机器人剥夺,从而沦为了流落街头的弱者。

《纽约客》杂志的封面

再来看一份最可能被AI取代的20大岗位吧:

AI取代的20大行业

其实,这是一个老生常谈的话题,当机器人概念走红的时候,人类被取代的话题就已经被热议,“AI志向”不是单纯的模仿人类,而是超越人类,因此催生“无用阶层”是需要我们正面面对的问题,当然也会创造新的岗位。有人说,人工智能被认为是引领第四次工业革命的先锋,也有人说,AlphaGo是引发第五次工业革命的标志性机器。

作为小编的我,看到一份来自调研机构的预测,记者也在高危失业人群中,顿时心塞了,趁着失业前在本期《发现AI》中好好和大家扒一扒“人工智能”。

AI取代的行业

现在张口不带“人工智能”、“AI”都感觉自己跟不上时代。那么问题来了,人工智能有哪些类型呢?

人工智能的类型

弱人工智能:特定场景下角色型的任务,如擅长于聊天的Siri、擅长下棋的AlphaGo;

通用人工智能:包含人类水平的任务,可以替代大部分人类工作,涉及机器的持续学习;

强人工智能:比人类更聪明的机器。

从弱到强,需要一个过程,那么就来看看人工智能的发展史吧。

人工智能的发展史

人工智能发展史

人工智能的孕育期

1950年,图灵测试诞生,图灵还预言在未来人类有创造出具有真正智能的机器的可能性。以图灵为代表的科学家为AI提供了理论基础和使用工具。

人工智能的早期发展(1956~1979)

1956年的夏天,在美国举行的达特矛斯学术会议,以冯·诺依曼、图灵为首的科学家试图通过符号化编程实现人工智能。之后的十几年是AI的第一个黄金期,一台叫做“STUDENT”的机器于1964年解除了应用题,一台叫做“ELIZA”的机器于1966年实现了简单的人机对话。

人工智能的中期发展(1980~1990)

人工智能的中期推动者还要从日本说起,日本经济产业省拨款八亿五千万美元用以研发第五代计算机项目,而这个计算机就是可以与人对话、进行翻译、进行推理的AI计算机。随后英国、美国也开始向信息技术领域投入大量资金。

在这次的资金热潮下,AI程序“专家系统”问世,它是一个存储加推理的能手,不过在经过七年的“辉煌期”之后被1987年苹果和IBM生产的台式机打败了。

人工智能的热潮期(1990年后)

这一阶段的情况就不多介绍了,我们正在感受人工智能新一轮的爆发。人工智能已成为创业和投资的热点。

关于AI简史我们就不再用太多篇幅来介绍了,与非小编已经按照大事件对此进行了梳理,可以查看《AI技术简史:从理论到应用的质变》。

人工智能如何为人所用?

“深度学习”是当前我们所听到的与人工智能相关最常用的一个词,这源于:当前人工智能主流应用还是基于深度学习神经网络。从针对特定任务的标记数据中学习,而训练过程需要消耗大量人类标注样本。

天风海外何翩翩认为在很多现实场景下,特定垂直领域的数据并不足以支持系统建构,那么尝试解决对人类标注样本的依赖的强化学习很有机会成为下一个机器学习商业成功的驱动力。

下面透过几张图,来深度看一下AI:

AI产业化

AI产业化

AI产业化

AI产业化

AI产业化

如果用一句话总结AI如何为人所用,那就是它正在变革它能触及到的各行各业,从医疗保健到零售,广告,金融,交通,教育,农业等等。如今,快速发展的AI技术主要由大型企业通过机器学习和预测分析来使用。下面举几个简单的例子:

1. 安全认证与风险管理

数据、数据处理能力和商业变现场景是金融领域计算机面临的三大要素,而人工智能恰恰能很好的因对这三大元素带来的挑战。或许金融行业是最适合AI施展“才华”的领域。如今,花旗等银行开始利用人工智能为客户定制服务,开发理财产品;对于信息安全、投资风控等,人工智能也逐渐被应用。

2. 自动驾驶

对于AI与汽车电子的结合,被认为天作之合的无疑是“自动驾驶”。

3. 医疗及生命科学

Arterys使用深度学习来加快医学图像分析,这项技术应用于GE Healthcare MRI机器上,协助进行心脏疾病的诊断;Enlitic运用深度学习来分析医学图像,以找出肿瘤、近乎看不到的破裂处和其他疾病。有了AI后,放射科医生将更加高效的工作,将精力集中在困难病例上。

4.零售行业

个性化推荐提高在线销售销量、精准的市 场预测将降低库存成 本,人工智能技术将带来4200亿人民币的本与增益价值。

在日渐智能的算法下,机器可以学习、说话、做出明智的决策,并以一种越来越有效的方式执行复杂的任务。看到AI可创造的价值,就不难理解为何企业蜂拥而至了:

AI价值

那么,现在就不难回答谁在推动AI的发展这个问题了,快速增长背后不仅仅是科技巨头在引领了这场竞赛,更是技术、资本、企业。

AI公司

AI基础层生态解读

人工智能是一个大话题,由基础层、技术层、应用层组成。基础层主要是计算平台和数据中心,属于计算智能;技术层通过机器学习建模,开发面向不同领域的算法和技术,包括感知智能和认知智能;应用层主要实现人工智能在不同场景下的应用。

我国与美国是AI浪潮中最强劲的两股势力。美国AI公司多聚焦于应用层,对于技术层和基础层企业,实力强且企业相对集中。与此相比,应用层实力接近,在基础和技术层有差距,尤其是基础层的实力较弱。美国有英伟达GPU、英特尔CPU与FPGA、赛灵思FPGA、谷歌TPU,我国有寒武纪与深鉴,但从产业规模来看,差距还较大。

下面我们就透过AI背后的AI芯实力。

AI框架

神经网络的两个主要阶段是训练和推理。在深度学习上游训练端,GPU毫无悬念是第一选择,ASIC包括谷歌TPU、寒武纪NPU也如雨后春笋为市场提供更多可能与选择;下游推理端更接近终端应用,需求更加细分,GPU主流芯片之外,包括CPU/FPGA/ASIC也会在这个领域发挥各自的优势特点。那么就从训练端与推理端分别看看其特色:

训练端

GPU:多维计算及大规模并行计算架构,可实现通用、灵活、强大的特点,广泛契合当前AI监督深度学习以及生成式对抗网络(GAN)/强化学习所需要的密集数据和多维并算处理需求,在3-5年内GPU仍然是深度学习市场的第一选择。这个市场英伟达有着至高无上的话语权,而同样拥有GPU产品的AMD却只能看着眼馋,如今英特尔有望涉足此领域,不知道未来是何种局面。

ASIC:以谷歌TPU为代表,针对特定框架进行深度优化定制,但开发周期长,通用性较低。比特币价格疯长刺激挖矿机的不断升级,如今很多挖矿机从GPU转向了ASIC专用矿机。

CPU:通用性强,但难以适应于人工智能时代大数据并行计算工作。

推理端

GPU:英伟达Volta GPU也开始布局推理端,并且也将成为主导。英伟达依靠Volta构架升级以及广泛成熟的开发生态环境,自上而下的对训练、推理兼顾,扩张版图。以2016年为例,全年服务器市场出货量约在1110万台,在只有7%用于人工智能workload,其中约3.4%配置GPU,总量仅2.6万台。所以全球新增服务器中GPU的渗透率仅为0.24%,据天风海外预测2020年前全球服务器GPU渗透率将达4倍以上增长。

ASIC:下游推理端更接近终端应用,需求更加细分,英伟达DLA、寒武纪NPU等将依靠特定优化和效能优势,在此领域获得一定市场份额。

FPGA:依靠电路级别的通用性,加上可编程性,适用于开发周期较短的IoT产品、传感器数据预处理工作以及小型开发试错升级迭代阶段等。FPGA厂商寥寥无几,包括Xilinx、Altera(英特尔)、Lattice及Microsemi。

深度学习

深度学习

GPU主流趋势下,ASIC也将割据一地

都是通用芯片,为何GPU成为AI最强“收割机”

先要强调一点,机器学习得以普及的一个重要原因就是是计算能力的提升和GPU的出现。

由于GPU在执行复杂的多维计算和几何计算中十分有效,因此被广泛地运用在图像和图形处理中。但GPU只作为图形处理芯片还真的有点屈才,其并行特性大数据等多任务处理中表现突出,因此成为AI浪潮中的“收割者”。

都是通用芯片,GPU比CPU拥有更多的运算器。在处理庞大的数据中,GPU可以做得更高效。一个CPU核可以同时执行4项32位指令(用CPU中的128位SSE指令集)或者通过256位高级矢量扩展指令集(AVX)执行8个指令集。但GPU如AMD的Radeon HD 5970,则可以执行3200个32位的指令(通过其3200个运算器)。二者之间的运算效率的差距达到800倍(如果使用AVX则是400倍)之多。GPU的高运算性能让它能够应用在科学计算、密码破解、数值分析、海量数据处理等方面。

2012年,英伟达与谷歌的人工智能团队合作,建造最大的人工神经网络,并首次将人工智能用于分析YouTube的视频内容。2016年4月,英伟达发布Pascal架构GPU Tesla P100。黄仁勋表示,该款GPU较之以往产品可以让深度学习神经网络的处理速度提高12倍。

谷歌TPU

谷歌设计了一款为人工智能运算定制的硬件设备,张量处理单元TPU芯片。

TPU的主要特点是:

1. 从硬件层面适配TensorFlow深度学习系统,是一款定制的ASIC芯片,谷歌将TPU插放入其数据中心机柜的硬盘驱动器插槽里来使用;

2. 数据的本地化,减少了从存储器中读取指令与数据耗费的大量时间;

3. 芯片针对机器学习专门优化,尤其对低运算精度的容忍度较高,这就使得每次运算所动用的晶体管数量更少,在同时间内通过芯片完成的运算操作也会更多。研究人员就可以使用更为强大的机器学习模型来完成快速计算。

值得注意的是TPU虽然理论上支持所有深度学习开发框架,但目前只针对TensorFlow进行了深度优化。而英伟达GPU支持包括TensorFlow、Caffe等在内所有主流AI框架。

谷歌曾在论文中将TPU与英特尔、英伟达产品进行对比:

1. 针对自身产品的人工智能负载,推理阶段,TPU处理速度比CPU和GPU快15-30倍;

2. TPU的功耗效率(TOPS/Watt,万亿次运算/瓦特)也较传统芯片提升了30-80倍;

3. 基于TPU和TensorFlow框架的神经网络应用代码仅需100-1500行。

TPU的设计思路比GPU更接近一个浮点运算单元,是一个直接连接到服务器主板的简单矩阵乘法协处理器。TPU上的DRAM是作为一个独立的并行单元,TPU类似CPU、GPU一样是可编程的,并不针对某一特定神经网络设计的,而能在包括CNN、LSTM和大规模全连接网络上都执行CISC指令。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
AI芯片和普通芯片有何不同?全球AI芯片公司大全都在这里了
追踪报道:谷歌 TPU 处理器实现 4 大机器学习突破
Google的这款AI芯片TPU凭什么自称“超级”?与传统CPU有何差异?
从 GPU、FPGA 到 ASIC,后摩尔定律时代下 AI 芯片领域会产生哪些独角兽公司?
人工智能芯片的竞争:GPU正红,ASIC拥抱未来
AI芯片:人工智能时代的“开路先锋”
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服