AI芯片,将引发“智联网”大变革

2018-03-15 14:28:21来源:物联江湖 热度:
物联网被认为是继计算机、互联网之后世界信息产业发展的第三次浪潮,未来5-10年会对人类生产、生活产生深远影响,随着AI的蓬勃发展,IoT开始迈入AI+IoT智联网时期。
 
 一、什么是AIoT 
 
智联网(AIoT)概念明确提出是在2017 年2 月,《人工智能芯片助阵,物联网将进化为AI+IoT》一文提到,“受过训练的AI系统,目前在特定领域的表现已可超越人类,而相关软件技术迅速发展的背后,与专用芯片的进步息息相关。在芯片对人工智能的支持更加完善后,物联网(IoT)将可望进化成AIoT(AI+IoT)。智能机器人的遍地开花只是个开端,人工智能终端芯片引领的边缘运算,其所将带来的商机更让人引颈期盼”。
 
具体来说,AIOT是指融合AI技术和IoT技术,通过物联网产生、收集海量的数据存储于云端、边缘端,再通过大数据分析,以及更高形式的人工智能,形成智能化的应用场景和应用模式,服务实体经济,为人类的生产活动,生活所需提供更好的服务,实现万物数据化、万物互联化。
 
AIoT是AI与IoT融会发展的产物。IoT通过各种设备(比如传感器、RFID、 WIFI、LPWA、使能平台、连接平台等)将现实世界的物体“万物互联”,以实现信息的传递和处理。
 
对于AI而言,物联网肩负了一个至关重要的任务:内外部环境信息获取后,产生海量的数据,上传至云端或者边缘节点,为感知、云计算、控制、认知提供源源不断的信息供给。
 
AI构建了一个大脑,凭借其算法与行业规则引擎,形成“逻辑”、“想法”、“指令”、“调优”能力;AI 算法的“智能”只能通过不断分析、数据验证、调参、改进算法模型才会变得“聪明”。
 
IoT则相当于大脑之外的神经网络,既能搜集数据,也能传递反馈信息,IoT一旦内嵌AI,IoT由连接变成分析、逻辑、推理与智能,懂得外在环境和应用场景的交互,具备自感知、自改进,从而自动高效应用到产业,进而提升生产效能,丰富用户体验。
 
影响和渗透是双向的,借助IoT,AI不再是科研和实验技术,AI+IoT可以渗透若干场景,落地到现实生活,借助来源丰富的数据不断更新提升AI算法效能,让AI更具生命力和活力。
 
 二、AIoT的变化与趋势 
 
可以说AI与IOT两者形成一种奇妙的化学反应,创造出更多科技创新应用,简单的IoT“互联”上升到AIoT“智联”程度,在可预见的未来,AIOT必将改变现有物联网发展格局,颠覆既有市场形态、产品形式,服务模式,开启全新的社会生产生活,形成经济发展新动能,推动新经济发展,进一步改善生活体验。
 
经历IoT与AI的蓬勃发展,2018年之后的AIoT趋势将更加快速的到来。比如在2018CES展上,出尽风头的日产汽车研发的“脑控车(Brain-to-Vehicle,简称B2V)”技术,将驾驶者的反应更加快速地传达给车辆,使车辆根据驾驶情况的变化不断做出相应的调整。
 
Google的智能语音助理Google Assistant整合进来4亿台物联设备,不仅控制各类智能家居设备,比如插座、电风扇、电灯、时钟收音机等,还将内置Google车载系统 Android Auto,开启智能操控新时代等等。
 
AIoT赋能未来生活将无处不在。
 
三、AI芯片成突破支点 
 
AI突破性发展需要技术基础,也就是三驾马车,分别是算法(Algorithms)、大数据(Big Data)、运算能力(Compute Power)。近年来,AI的三驾马车已经取得长足发展。
 
1.算法(Algorithms)变革与突破
 
从过去的神经网络开始,一直到近年的深度学习(Deep Learning),尤其是多层神经网络技术飞速发展,算法进步让看似不可能的运算带入认知、拟人的学习推理领域。
 
早在2015年,微软ResNet系统采用152层的神经网络架构,让计算机对影像进行辨识并对物体开展检测,错误率降低到3.5%,正式超越人类的5.1%水平;吴恩达先后在谷歌x实验室采用了参数多达17亿个的神经网络,在斯坦福大学做了更大的神经网络,采用参数多达112亿个神经网络。
 
人工神经元正在步步逼近人脑神经元,多层架构深度神经网络算法引起一阵风潮,复杂AI的算法正在迈入超越人类认知水平的时代。
 
2.大数据(Big Data)数据库领域
 
巨量数据/大数据(Big Data)伴随光纤、移动宽带网络普及、电商、物联网发展快速聚集,预计2020年全球数据量将超过40ZB,相对2010年增长到40倍,1ZB数据意味着福斯电视(FoxTV)热门影集《24》连续播放1.25亿年,可见数据爆炸超出想象;人们对数据结构化的技术推陈出新,如NoSQL\ MongoDB等;通过良好的数据分类与标注,搭配搜索引擎与算法,让数据平台快速找到海量数据背后的隐藏的规律信息。
 
3.运算能力(Compute Power)
 
2012年微软人工智能平台辨识单个猫需要16000颗传统CPU的运算能力才能达成,但类似的工作,2016年采用绘图芯片GPU大概只需要2颗。
 
就一个复杂棋局而言,AlphaGO第一代下一盘棋需要1920 CPUs 和280 GPUs,同时有64个搜索线程;Alpha 第二代需要50个TPU(1个TPU算力大致相对于10个同级别GPU);随着AI算力的大幅提升,算力仍然是AI的最大成本,据统计,算力成本(包括底层的硬件,GPU/CPU/FPGA以及其他信号处理等半导体成本、能耗成本)占AI成本在70%左右,AlphaGo下一盘棋,其背后的服务器的总耗电量折算成电费是3000美元; 计算的时大量耗热,通过吹风才能散热。算法、数据库基本可以实现平台化、软件化、工具化,边际成本趋向为O,决定AI普及的核心是算力和对应的能耗。
 
将算力低成本化,是AI与IoT融合并落地到具体场景,加速AI渗透到社会各角度,使能行业发展的关键,也是AIoT智联网规模发展的支点。其中,新出现的AI嵌入式芯片将FPGA发挥了主导作用。
 
AI爆发之前,嵌入式芯片在物联网领域早已广泛应用,用于传感与智能硬件,通常采用CPU进行计算,CPU特点兼顾计算和控制,70%晶体管用来构建Cache 还有一部分控制单元,芯片设计用来处理复杂逻辑和提高指令的执行效率, CPU计算通用性强,适用于处理计算复杂度高业务、串行数据处理,但计算性能一般。提升CPU性能需要增加CPU核数、提高CPU频率,或者修改CPU架构增加计算单元FMA(fused multiply-add)个数实现,提升算力同时也带来了高计算成本与能耗。
 
随着AI快速发展应用,尤其是图像处理数据量大,快速响应,CPU不再是好的选择。GPU芯片逐渐成为深度神经网络(DNN, Deep Neural Network)计算的主流。
 
GPU特点是能够大幅精简CPU Cache和逻辑控制单元,让出大量的计算单元。有限的尺寸中的晶体管更多用于计算,图形处理特点是算法本身复杂度低,计算强度高,数据之间相关性低特点,GPU通过简单控制器,让数千计算单位执行相同程序,并行、流水化、高密度处理海量低关联数据,大幅提升数据计算、吞吐能力。
 
GPU相对CPU更适合低层次大量重复运算领域,例如AI语音、视频、图片识别以及海量数据处理领域,不论是CNN(卷积神经网络)、RNN(循环神经网络)、还是DNN(深度神经网络),通过高强度类似蒙卡特罗实验计算,找出最优解,而无需复杂程度的运算。
 
可以说GPU在AI算力上比CPU有了大幅提升,每秒每瓦所执行的浮点运算达到29G次数(29GFLOPS/W),是CPU的3倍多,能耗也随着提升,散热性与安全性成为问题。如下表1;这也一定程度说明了AI的能耗成为不能承受之重
 
 
随着更多图像、视频和语音、物联网等非结构数据涌现,数据量继续急剧增长,AI算法加速创新,不断加深神经网络层次,参数数量不断增多,模型算法复杂度持续提高,必然对计算带宽、内存带宽和存储要求越来越高,能耗成为很大问题。
 
更重要的是GPU内部架构通用,很难针对某个领域进行特殊优化,日新月异的物联、传感与AI行业应用要求芯片能够处理新类型的计算任务;在GPU之外如果没有新的嵌入式芯片选择,AI无法随着IoT大规模落地到具体应用场景,无法与实体经济,生产生活紧密结合。
 
不同于 GPU 的运行原理,FPGA 是以门电路直接进行运算,硬件描述语言在执行时会被翻译成电路,也就是FPGA不采用指令和软件,是软硬件合一的器件。对FPGA进行编程仅仅使用硬件描述语言即可,硬件描述语言描述的逻辑可以直接被编译为晶体管电路的组合。所以FPGA实际上直接用晶体管电路实现用户的算法,没有通过指令系统的翻译。
 
在运算速度上,FPGA由于算法是定制的,所以没有CPU和GPU的取指令和指令译码过程,数据流直接根据定制的算法进行固定操作,计算单元在每个时钟周期上都可以执行,所以可以充分发挥浮点计算能力,计算效率高于CPU和GPU,具有很大优势。
 
在功耗上,由于 FPGA 低延迟、低功耗的特性,近年来,微软、百度等公司在自家的数据中心里大量部署 FPGA,百度在线上服务使用的 FPGA 版百度大脑,在同样的性能下,其功耗是天河二号超级计算机的十分之一。
 
国内的初创公司深鉴科技用 FPGA 搭建神经网络深度学习方案(深度压缩技术、FPGA专用编辑器以及专用处理架构),在语音识别的场景,相同的处理量FPGA 方案性能比GPU 高 3 倍,功耗降低 3.5 倍。FPGA功耗如上表1,FPGA功耗近CPU的1/10,CPU的1/5。
 
在应用场景上,FPGA的低功耗、高性能非常适合无源的物联网应用与具体产品,比如深圳初创公司零度智控推出的无人机产品,采用基于FPGA神经网络机器学习技术,能够实现物体以及行人的检测和实时跟踪拍摄、手势识别、人脸识别、安防监控等功能。
 
可以说,FPGA芯片技术出现,在提升运算效率的同时,降低了功耗,增加了特定场景应用的适用性。FPGA芯片为推动AIOT落地社会各个角度,使能行业发展,推动企业迈向物联化、智能化,为经济发展新动能提供了支点。

责任编辑:黄焱林

为您推荐

美公司绕开运营商 在中国推手机电视芯片

绕开移动运营商,新电视手机免费收看电视与电信运营商抢先推出手机电视业务相比,一项更令老百姓乐见的电视手机悄然问世。由美国天成科技公司推出的国内首款手机电视双模信号芯片已经面世。据悉,手机在安装这一芯片后,均可在手机上免费收看CCTV的电视节目。芯

手机加芯片可看免费电视 明年国内将上市

只要往手机上装一款芯片,就能免费享受手机电视,这样的手机明年上半年将在国内市场问世。近日,美国天成科技(TELEGENTSYSTEMS)公司副总裁王瀚青博士表示,国内首个手机电视的双模信号芯片已经问世,通过安装这款芯片,在全国各地都可以通过手机收看CCTV的电视节目。天成科技目前正在与几家大型手机厂商谈判,芯片将内置于手机中销售,约400多元。王瀚青介绍说,该手机电视采用的是模拟信号和数字信号,手机装上该芯片后,直接可以像电视机装上有线天线一样,收看电视节目,“目前可以收到的有近10套电视节目。”据悉,天成科技上海分公司目前正在注册,马上就要开张。突破性意义还在于缓解耗电,该芯片可以支持持续收

东南大学研制出我国首颗WCDMA手机芯片

由东南大学与东大通信公司联合研制的Noah3000手机芯片日前通过了包括通话和数据业务传输在内的系统测试,结果表明该芯片各项性能指标均达到了WCDMA国际标准要求。这标志着我国已具备了开发世界移动通信领域三大标准的所有核心技术的能力。Noah3000手机芯片系统测试的成功,是东南大学与东大通信公司联合承担的国家“863”集成电路专项重大项目研发取得的重要进展,是继2003年该校成功开发出国内首颗符合CDMA2000国际标准的手机芯片Noah2000并形成系列产品后所取得的又一重大成果。记者从东南大学了解到,Noah3000手机芯片集16项国内外发明专利为一体,它所采用的多径能量窗技术,能使手机

机顶盒技术趋势与芯片解决方案分析

目前,中国市场供应的机顶盒主要包括卫星机顶盒和有线机顶盒。由于中国数字电视节目的卫星广播事实上是基于欧洲的