人工智能人类(人工智能的含义)
改编自:《智能制造实践指南》(作者:黄培,许之颖,张荷芳)
该书正在编审环节中,即将出版,请关注智造苑即时获取新书出版信息~
人工智能的概念第一次被提出是在20世纪50年代,距离现在已60余年的时间。然而直到近几年,人工智能才迎来爆发式的增长。究其原因,主要在于日趋成熟的物联网、大数据、云计算等技术,这些技术的有机结合,驱动着人工智能技术不断发展,并取得了实质性的进展。
「 1.人工智能的内涵」
人工智能是研究开发能够模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学,研究目的是促使智能机器会听(语音识别、机器翻译等)、会看(图像识别、文字识别等)、会说(语音合成、人机对话等)、会思考(人机对弈、定理证明等)、会学习(机器学习、知识表示等)、会行动(机器人、自动驾驶汽车等)。
具体地讲,人工智能通过5类基本技术来实现:①信息的感知与获取技术,即从外界获得有用的信息,主要包括传感、测量、信息检索等技术,它们是人类感觉器官功能的扩展。②信息的传输与存储技术,即交换信息与共享信息,主要包括通信和存储等技术,他们是人类神经系统功能的扩展。③信息的处理与认知技术,即把信息提炼成为知识,主要包括计算技术和智能技术,他们是人类思维器官认知功能的扩展。④信息综合与再生技术,即把知识转变为解决问题的策略,主要包括智能决策技术,他们是人类思维器官决策功能的扩展。⑤信息转换与执行技术,即把智能策略转换为解决问题的智能行为,主要包括控制技术,他们是人类效应器官(行动器官)功能的扩展。
人工智能的主要功能可归纳为以下4个方面:
(1)机器感知:感知是感觉与知觉的统称,它是客观事物通过感官在人脑中的直接反映。机器感知是研究如何用机器或计算机模拟、延伸和扩展人的感知或认知能力,包括:机器视觉、机器听觉、机器触觉等。机器感知是通过多传感器采集,并经复杂程序处理的大规模信息处理系统。
(2)机器思维:大脑的思维活动是人类智能的源泉,没有思维就没有人类的智能。机器感知主要是通过机器思维实现的,机器思维是指将感知得来的机器内部、外部各种工作信息进行有目的的处理。
(3)机器学习:学习是有特定目标的知识获取过程,也是人类智能的主要标志和获得知识的基本手段,学习表现为新知识结构的不断建立和修改。机器学习是计算机自动获取新的事实及新的推理算法等,是计算机具有智能的根本途径。
(4)机器行为:行为是生物适应环境变化的一种主要的手段。机器行为研究如何用机器去模拟、延伸、扩展人的智能行为,具体包括:自然语言生成、机器人行动规划、机器人协调控制等。
对人工智能而言,其关键技术包含算法、软件框架及芯片。算法是推动人工智能发展的重要推动力,算法通过封装到软件框架获得应用,芯片是支撑算法计算能力的关键基础硬件。
1)算法
人工智能涉及的算法主要分为回归、分类和聚类三种[1]。近年来,以深度学习算法为代表的人工智能技术在诸多领域都实现了突破,但这类算法并不完美。目前,诸如胶囊网络、生成对抗网络、迁移学习等算法被提出。
互联网小常识:E-mail服务器的主要参数为:域、用户和组。
2)软件框架
软件框架是算法模型工具库的集合,可以供各类开发者使用。目前,软件框架有开源和闭源两种形式,主流软件框架基本是开源。从内容上分,业界主要有深度学习训练软件框架和推断软件框架两大类别。其中,基于深度学习的训练框架主要实现对海量数据的读取、处理及训练。目前主流的深度学习训练软件框架主要有TensorFlow、MXNet、Caffe、PaddlePaddle等。在终端侧限定设备性能及功耗等因素的场景应用,也出现了诸多Caffe2go、TensorFlow Lite等开源终端侧软件框架。
3)芯片
人工智能算法的实现需要强大的计算能力支撑,特别是深度学习算法的大规模使用,对计算能力提出了更高的要求。
从应用场景角度看,人工智能(AI)芯片主要有两个方向,一个是在数据中心部署的云端,一个是在消费者终端部署的终端。从功能角度看,AI芯片主要是用于训练和推理。训练需要极高的计算性能、较高的精度,能处理海量的数据,并具有一定的通用性,以便完成各种各样的学习任务。推理相对来说,对性能的要求并不高,对精度要求更低,在特定的场景下,对通用性要求也不高,能完成特定任务即可。
从技术架构来看AI芯片有四类:一是通用性芯片,如GPU;二是以FPGA(field programmable gate array,现场可编程门阵列)为代表的半定制化芯片,如深鉴科技的DPU;第三,ASIC(application specific integrated circuit,专用集成电路)全定制化芯片,如谷歌的TPU;第四,类脑芯片。在训练环节,可以使用GPU、FPGA以及ASIC;用于终端推断的计算芯片主要以ASIC为主。
互联网小常识:在一般规模的网络系统中,尤其是一期工程的建设中,人们经常采用多个并行的GE/10GE交换机堆叠的方式来扩展端口密度,由一台交换机通过光端口向上级联,将汇聚层与接入层合并成一层。
「 2.人工智能的发展趋势」
从1943年开始神经网络理论研究,到1956年达特矛斯会议提出人工智能这一概念到现在,人工智能经历了早期的研究热潮,实现困难导致的寒冬,以及近年来再次爆发多个阶段[2](如表1所示)。
表1 人工智能发展重大事件
人工智能迎来爆发式的增长离不开物联网、大数据、云计算等技术的快速发展,物联网使得大量数据能够被实时获取,大数据为深度学习提供了数据资源及算法支撑,云计算则为人工智能提供了开放平台。这些技术的有机结合,驱动着人工智能技术不断发展,并取得了实质性的进展。尤其是2016年3月AlphaGo与李世石的人机大战,将人工智能推到了风口浪尖,引爆了新一轮的人工智能热潮。关于人工智能的研究和应用开始遍地开花,人工智能产业迎来爆发式增长,产业规模迅速扩大。
人工智能对社会和经济影响的日益凸显,各国政府也先后出台了对人工智能发展的政策,并将其上升到国家战略的高度。图1是包括美国、中国和欧盟在内的多国和地区颁布的国家层面的人工智能发展政策。
图1 各国人工智能最新政策(来源:政府工作报告,公开资料,德勤研究)
目前,随着人工智能技术的日臻完善,在技术层面,AutoML 等工具的出现降低了深度学习的技术门槛;在硬件层面,各种专用芯片的涌现为深度学习的大规模应用提供了算力支持;物联网、量子计算、5G 等相关技术的发展也为深度学习在产业的渗透提供了诸多便利。
伴随着国内外科技巨头对人工智能技术研发的持续投入,以深度学习为框架的开源平台极大降低了人工智能技术的开发门槛,有效提高了人工智能应用的质量和效率。未来,各行各业将会大规模应用深度学习技术实施创新,加快产业转型和升级的节奏。其次,自动机器学习 AutoML 的快速发展将大大降低机器学习成本,扩大人工智能应用普及率;多模态深度语义理解将进一步成熟并得到更广泛应用。
在硬件上,人工智能芯片将逐渐大规模落地。端侧人工智能芯片将会显现出更加低成本化、专业化以及系统集成化的重要特征。同时,NPU将成为下一代端侧通用CPU芯片的基本模块,未来越来越多的端侧CPU芯片都会以深度学习为核心支撑进行全新的芯片规划。
此外,随着 5G 和边缘计算的融合发展,算力将突破云计算中心的边界,向万物蔓延,将会产生一个个泛分布式计算平台,对时间和空间的洞察将成为新一代物联网平台的基础能力。这也将促进物联网与能源、电力、工业、物流、医疗、智能城市等更多场景发生融合,创造出更大的价值。在量子计算方面,可编程的中等规模有噪量子设备的性能会得到进一步提升并初步具备纠错能力,最终将可运行具有一定实用价值的量子算法,量子人工智能的实际应用也将得到极大助力。未来也将会涌现一大批高质量的量子计算平台和软件,人工智能技术将与之实现深度融合。
[1]中国信息通信研究院,中国人工智能产业发展联盟.人工智能发展白皮书技术架构篇(2018年)[R].北京:中国信息通信研究院,中国人工智能产业发展联盟,2018.
[2] 彭健.人工智能的关键性技术[J].互联网经济,2018(12):46-51.
来源:智造苑
中国工程科技知识中心(以下简称知识中心)是经国家批准建设的国家工程科技领域公益性、开放式的知识资源集成和服务平台建设项目,是国家信息化建设的重要组成部分。
知识中心建设以满足国家经济科技发展需要为总体目标,通过汇聚和整合我国工程科技相关领域的数据资源,以资源为基础、以技术为支撑、以专家为骨干、以需求为牵引,建立集中管理、分布运维的知识中心服务平台。
知识中心以为国家工程科技领域重大决策、重大工程科技活动、企业创新与人才培养提供信息支撑和知识服务为宗旨,最终建设成为国际先进、国内领先、具有广泛影响力的工程科技领域信息汇聚中心、数据挖掘中心和知识服务中心。
中国工程科技知识中心公众号:知领
中国工程科技知识中心微博:知领直播
互联网小常识:VLAN的特点:a、工作在数据链路层b每个VLAN都是一个独立的网段,独立的广播域c每个都有各自唯一的子网号,通信需要第三层的路由功能。
免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186