物联网世界(智联网)

Mark wiens

发布时间:2022-10-21

物联网世界(智联网)

 

物联网被认为是继计算机、互联网之后世界信息产业发展的第三次浪潮,未来5-10年会对人类生产、生活产生深远影响,随着人工智能的蓬勃发展,物联网+人工智能的模式,让IoT开始迈入AI+IoT智联网时期。

一、什么是AIoT

智联网(AIoT)概念明确提出是在2017 年2 月,《人工智能芯片助阵,物联网将进化为AI+IoT》一文提到,受过训练的AI系统,目前在特定领域的表现已可超越人类,而相关软件技术迅速发展的背后,与专用芯片的进步息息相关。在芯片对人工智能的支持更加完善后,物联网(IoT)将可望进化成AIoT(AI+IoT)。智能机器人的遍地开花只是个开端,人工智能终端芯片引领的边缘运算,其所将带来的商机更让人引颈期盼。

具体来说,AIOT是指融合AI技术和IoT技术,通过物联网产生、收集海量的数据存储于云端、边缘端,再通过大数据分析,以及更高形式的人工智能,形成智能化的应用场景和应用模式,服务实体经济,为人类的生产活动,生活所需提供更好的服务,实现万物数据化、万物互联化。

互联网小常识:入侵防护系统的分类:基于主机的入侵防护系统、基于网络的入侵防护系统(一般串联在防火墙与路由器之间)和应用入侵防护系统。

AIoT是AI与IoT融会发展的产物。IoT通过各种设备(比如传感器、RFID、 WIFI、LPWA、使能平台、连接平台等)将现实世界的物体万物互联,以实现信息的传递和处理。

对于AI而言,物联网肩负了一个至关重要的任务:内外部环境信息获取后,产生海量的数据,上传至云端或者边缘节点,为感知、云计算、控制、认知提供源源不断的信息供给。

AI构建了一个大脑,凭借其算法与行业规则引擎,形成逻辑、想法、指令、调优能力;AI 算法的智能只能通过不断分析、数据验证、调参、改进算法模型才会变得聪明。

IoT则相当于大脑之外的神经网络,既能搜集数据,也能传递反馈信息,IoT一旦内嵌AI,IoT由连接变成分析、逻辑、推理与智能,懂得外在环境和应用场景的交互,具备自感知、自改进,从而自动高效应用到产业,进而提升生产效能,丰富用户体验。

影响和渗透是双向的,借助IoT,AI不再是科研和实验技术,AI+IoT可以渗透若干场景,落地到现实生活,借助来源丰富的数据不断更新提升AI算法效能,让AI更具生命力和活力。

二、AIoT的变化与趋势

可以说AI与IOT两者形成一种奇妙的化学反应,创造出更多科技创新应用,简单的IoT互联上升到AIoT智联程度,在可预见的未来,AIOT必将改变现有物联网发展格局,颠覆既有市场形态、产品形式,服务模式,开启全新的社会生产生活,形成经济发展新动能,推动新经济发展,进一步改善生活体验。

经历IoT与AI的蓬勃发展,2018年之后的AIoT趋势将更加快速的到来。比如在2018CES展上,出尽风头的日产汽车研发的脑控车(Brain-to-Vehicle,简称B2V)技术,将驾驶者的反应更加快速地传达给车辆,使车辆根据驾驶情况的变化不断做出相应的调整。

Google的智能语音助理Google Assistant整合进来4亿台物联设备,不仅控制各类智能家居设备,比如插座、电风扇、电灯、时钟收音机等,还将内置Google车载系统 Android Auto,开启智能操控新时代等等。

AIoT赋能未来生活将无处不在。

三、AI芯片成突破支点

AI突破性发展需要技术基础,也就是三驾马车,分别是算法(Algorithms)、大数据(Big Data)、运算能力(Compute Power)。近年来,AI的三驾马车已经取得长足发展。

1.算法(Algorithms)变革与突破

从过去的神经网络开始,一直到近年的深度学习(Deep Learning),尤其是多层神经网络技术飞速发展,算法进步让看似不可能的运算带入认知、拟人的学习推理领域。

早在2015年,微软ResNet系统采用152层的神经网络架构,让计算机对影像进行辨识并对物体开展检测,错误率降低到3.5%,正式超越人类的5.1%水平;吴恩达先后在谷歌x实验室采用了参数多达17亿个的神经网络,在斯坦福大学做了更大的神经网络,采用参数多达112亿个神经网络。

人工神经元正在步步逼近人脑神经元,多层架构深度神经网络算法引起一阵风潮,复杂AI的算法正在迈入超越人类认知水平的时代。

互联网小常识:路由器一般根据背板的交换能力来划分,背板交换能力大于40Gbps的路由器称作高端路由器,小于40Gbps的称为中低端路由器。

2.大数据(Big Data)数据库领域

巨量数据/大数据(Big Data)伴随光纤、移动宽带网络普及、电商、物联网发展快速聚集,预计2020年全球数据量将超过40ZB,相对2010年增长到40倍,1ZB数据意味着福斯电视(FoxTV)热门影集《24》连续播放1.25亿年,可见数据爆炸超出想象;人们对数据结构化的技术推陈出新,如NoSQL\ MongoDB等;通过良好的数据分类与标注,搭配搜索引擎与算法,让数据平台快速找到海量数据背后的隐藏的规律信息。

3.运算能力(Compute Power)

2012年微软人工智能平台辨识单个猫需要16000颗传统CPU的运算能力才能达成,但类似的工作,2016年采用绘图芯片GPU大概只需要2颗。

就一个复杂棋局而言,AlphaGO第一代下一盘棋需要1920 CPUs 和280 GPUs,同时有64个搜索线程;Alpha 第二代需要50个TPU(1个TPU算力大致相对于10个同级别GPU);随着AI算力的大幅提升,算力仍然是AI的最大成本,据统计,算力成本(包括底层的硬件,GPU/CPU/FPGA以及其他信号处理等半导体成本、能耗成本)占AI成本在70%左右,AlphaGo下一盘棋,其背后的服务器的总耗电量折算成电费是3000美元; 计算的时大量耗热,通过吹风才能散热。算法、数据库基本可以实现平台化、软件化、工具化,边际成本趋向为O,决定AI普及的核心是算力和对应的能耗。

将算力低成本化,是AI与IoT融合并落地到具体场景,加速AI渗透到社会各角度,使能行业发展的关键,也是AIoT智联网规模发展的支点。其中,新出现的AI嵌入式芯片将FPGA发挥了主导作用。

AI爆发之前,嵌入式芯片在物联网领域早已广泛应用,用于传感与智能硬件,通常采用CPU进行计算,CPU特点兼顾计算和控制,70%晶体管用来构建Cache 还有一部分控制单元,芯片设计用来处理复杂逻辑和提高指令的执行效率, CPU计算通用性强,适用于处理计算复杂度高业务、串行数据处理,但计算性能一般。提升CPU性能需要增加CPU核数、提高CPU频率,或者修改CPU架构增加计算单元FMA(fused multiply-add)个数实现,提升算力同时也带来了高计算成本与能耗。

随着AI快速发展应用,尤其是图像处理数据量大,快速响应,CPU不再是好的选择。GPU芯片逐渐成为深度神经网络(DNN, Deep Neural Network)计算的主流。

GPU特点是能够大幅精简CPU Cache和逻辑控制单元,让出大量的计算单元。有限的尺寸中的晶体管更多用于计算,图形处理特点是算法本身复杂度低,计算强度高,数据之间相关性低特点,GPU通过简单控制器,让数千计算单位执行相同程序,并行、流水化、高密度处理海量低关联数据,大幅提升数据计算、吞吐能力。

GPU相对CPU更适合低层次大量重复运算领域,例如AI语音、视频、图片识别以及海量数据处理领域,不论是CNN(卷积神经网络)、RNN(循环神经网络)、还是DNN(深度神经网络),通过高强度类似蒙卡特罗实验计算,找出最优解,而无需复杂程度的运算。

可以说GPU在AI算力上比CPU有了大幅提升,每秒每瓦所执行的浮点运算达到29G次数(29GFLOPS/W),是CPU的3倍多,能耗也随着提升,散热性与安全性成为问题。如下表1;这也一定程度说明了AI的能耗成为不能承受之重

随着更多图像、视频和语音、物联网等非结构数据涌现,数据量继续急剧增长,AI算法加速创新,不断加深神经网络层次,参数数量不断增多,模型算法复杂度持续提高,必然对计算带宽、内存带宽和存储要求越来越高,能耗成为很大问题。

更重要的是GPU内部架构通用,很难针对某个领域进行特殊优化,日新月异的物联、传感与AI行业应用要求芯片能够处理新类型的计算任务;在GPU之外如果没有新的嵌入式芯片选择,AI无法随着IoT大规模落地到具体应用场景,无法与实体经济,生产生活紧密结合。

不同于 GPU 的运行原理,FPGA 是以门电路直接进行运算,硬件描述语言在执行时会被翻译成电路,也就是FPGA不采用指令和软件,是软硬件合一的器件。对FPGA进行编程仅仅使用硬件描述语言即可,硬件描述语言描述的逻辑可以直接被编译为晶体管电路的组合。所以FPGA实际上直接用晶体管电路实现用户的算法,没有通过指令系统的翻译。

在运算速度上,FPGA由于算法是定制的,所以没有CPU和GPU的取指令和指令译码过程,数据流直接根据定制的算法进行固定操作,计算单元在每个时钟周期上都可以执行,所以可以充分发挥浮点计算能力,计算效率高于CPU和GPU,具有很大优势。

在功耗上,由于 FPGA 低延迟、低功耗的特性,近年来,微软、百度等公司在自家的数据中心里大量部署 FPGA,百度在线上服务使用的 FPGA 版百度大脑,在同样的性能下,其功耗是天河二号超级计算机的十分之一。

国内的初创公司深鉴科技用 FPGA 搭建神经网络深度学习方案(深度压缩技术、FPGA专用编辑器以及专用处理架构),在语音识别的场景,相同的处理量FPGA 方案性能比GPU 高 3 倍,功耗降低 3.5 倍。FPGA功耗如上表1,FPGA功耗近CPU的1/10,CPU的1/5。

在应用场景上,FPGA的低功耗、高性能非常适合无源的物联网应用与具体产品,比如深圳初创公司零度智控推出的无人机产品,采用基于FPGA神经网络机器学习技术,能够实现物体以及行人的检测和实时跟踪拍摄、手势识别、人脸识别、安防监控等功能。

可以说,FPGA芯片技术出现,在提升运算效率的同时,降低了功耗,增加了特定场景应用的适用性。FPGA芯片为推动AIOT落地社会各个角度,使能行业发展,推动企业迈向物联化、智能化,为经济发展新动能提供了支点。

互联网小常识:VLAN Trunk技术是交换机与交换机之间、交换机与路由器之间存在的一条物理链路,而在这一条物理链路上要传输多个VLAN信息的一种技术。VLAN Trunk采用帧标签的方式,每个帧标签指定一个唯一的VLAN ID。划分VLAN的方法分为基于端口、MAC地址、第三层协议类型或地址。

免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186