人工智能主要包括(人工智能主要包括哪三个方面)
机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管
机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外
机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存
20世纪中期,机器人三法则问世。世界科幻小说三巨头之一阿西莫夫的笔下,AI技术的发展被限制在此条框之内,影响至今。
无规矩,不成方圆。
科技世界里,规矩被具化成机器人三法则所代表的科技伦理。若脱离伦理任由技术自由生长,结局必定是对人类社会造成反噬,由阿西莫夫同名小说改编的电影《I, Robot》讲的就是这样一个故事。
半个多世纪过去了,AI技术已然不可同日而语,对应的AI伦理又该是怎样?
近日,恰逢2022世界人工智能大会召开,同往年一样,AI伦理正是核心议题之一。
会议期间,IFF国际金融论坛、新加坡国立大学李光耀公共政策学院、新加坡AIII人工智能国际研究院、日本神户大学、日本国际元宇宙协会、三井住友保险、上海交通大学中国法与社会研究院、上海人工智能研究院、特斯联、商汤科技等多家国际机构与知名学者,共同发起了亚洲科技促进可持续发展目标联盟,并全球人类命运共同体发出上海倡议,具体包括:
互联网小常识:入侵检测技术可以分为异常检测、误用检测及两种方式的结合。
1个总体目标:科技促进亚洲可持续发展目标实现
2项共识:以人为本、技术可控
3类挑战应对:亚洲不平衡发展的数字经济鸿沟、供应链鸿沟、ESG鸿沟
4种举措:数字基础设施互联互通,数字公共服务包容发展,数字信任与伦理安全,数字社会能力建设
面对新兴科技可能带来的风险,AI三法则是时候更新了。
刷新AI伦理,势在必行
最初的机器人三法则还适用吗?人工智能产业常会为此争论不休。
答案是肯定的,因为三法则是AI伦理的根基。可在此基础之上,还应与时俱进地进行延展。
根据工信部的数据,截至目前,中国人工智能核心产业规模已经超过4000亿元,企业数量超过3000家。且随着人工智能与制造、交通、医疗、民生等领域加速融合,产业规模还将持续爆发。
在产业爆发的背景下,近年来全球AI伦理体系的建设进程明显加速。
例如2016年,Google、Facebook、IBM、亚马逊、微软等美国知名科技公司共同宣布成立Partnership on AI合作组织,并发布《Principles of Partnership on AI》,该组织表示将设立未来人工智能领域研究者需要遵守的行为准则。
视线回到国内,企业的探索与政策的引导正同步展开。
以商汤科技为例,去年世界人工智能大会上,正式提出了平衡发展的AI伦理观,以及以人为本、技术可控、可持续发展三大核心原则。并基于此从组织建设、机制建设、工具建设、文化建设、生态建设等多方面展开了实践。
从实践中总结经验,今年大会上,商汤科技在《平衡发展的人工智能治理白皮书》中再次强调,人工智能的发展与治理应当并行,两者的功能和关系正如汽车的‘发动机’和‘方向盘’,相辅相成、缺一不可,并进一步提出发展负责任且可评估的人工智能。
政策方面,对技术的伦理与治理也给出了方法论。
今年3月份中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,治理要求中明确提到了两点,伦理先行和立足国情。前者,强调了科技伦理对科研创新保障的重要性;后者,则要求伦理体系建设以及治理的过程要开放包容、因地制宜、造福人民。
志在为全球科技伦理治理贡献中国实践智慧和亚洲共识方案,亚洲科技促进可持续发展目标联盟的成立意义由此凸显。
随着AI产业化将迎来大规模的爆发,须有伦理原则、ESG原则引导方向。以联盟汇聚产业力量,共同刷新当前的AI伦理法则,势在必行。
底线与追求,让AI平衡发展
完备的伦理治理体系,是促进科技创新可持续发展的标配。辨明是不是的问题之后,我们来剖析具体的原则。
首先能够确定的是,所有技术发展的底线均是以人为本,人工智能概莫能外。
互联网小常识:分布式内存访问技术是将对称多处理技术(SMP)与集群技术结合起来,用于多达64个或更多的CPU的服务器之中,以获得更高的性价比。
上个世纪阿西莫夫为AI伦理做的奠基,核心思想就是以人为本,因而要求机器人不得伤害人类、服从人类的指令。
从小说走进现实,AI的落地生根,让伦理原则的适用范围则变得更为复杂。
大数据、计算机视觉、语音识别、机器学习等,某项技术普及开来,其必须正视不同国家地区的历史、文化、社会、经济等方面的发展差异,让技术实现无偏见的应用,此前有公司的图像识别算法将黑人识别为灵长类动物就是最典型的反面案例。
当然,业内也能找到很多正面样本。比如现代社会家长多会因为孩子过多接触电子屏幕而头疼,商汤科技近期发布的元萝卜AI下棋机器人则为孩子的兴趣转移找到了一个很好的解决方案。依托AI视觉技术和机械臂技术,让下棋机器人与孩子进行互动游戏,可有效锻炼孩子思维能力。
其次在终极方向上,AI技术的发展不能偏离促进社会、经济、文化及环境可持续发展的轨道。
这一点也是产业共识,从亚洲科技促进可持续发展目标联盟的名字就能窥得。在《关于加强科技伦理治理的意见》里,伦理原则第一条就明确提出科技活动应增进人类福祉,促进人类社会和平发展和可持续发展。
再进一步看,可持续发展覆盖了社会、经济、环境、文化等多个方面,技术需与时代趋势同频共振,并根据各行业的实情去助力发展的可持续。
在环保方面,近年全球都在向碳中和的绿色目标挺进,AI技术就大有可为。如电力工业作为全球主要的二氧化碳排放源,行业的数字化转型和降本提效可以有效促进减排。为此,商汤科技把AI与AR技术结合,为电力工业量身定做电网智能巡检解决方案,以智能技术的辅助来节省运维时间和人力成本,从技术层面为电力系统低碳转型的可持续发展添了一份力。
最后需要思考的问题是,在技术应用的过程中怎样保证上述底线与追求如期从规划落到执行?答案很简单——技术可控。
技术可控,实际上就是要确保人工智能由人类开发、为人类服务、受人类控制,相应地,其人工智能应用导致的伦理责任也应由其控制者(人类)承担。
责任主体的明确,给技术的应用上了一道伦理、法治的安全锁,更利于把技术发展的风险控制在源头。遵循技术可控理念开发的产品,自然就避免了失控所导致的一系列问题。
综上,结合AI技术应用落地的实际案例,从产业发展的底层逻辑来看,以人为本、技术可控、可持续发展,商汤科技基于平衡发展而完善的伦理原则,恰是适应当前周期的新AI三法则。
当下治理,是在给未来治病
谷歌公司的座右铭相信大家都很熟悉,不作恶。作为科技公司,包括谷歌在内,行业深知技术作恶的危害性。科技伦理的存在,就是为消除技术潜在作恶的可能性。
业内经常会举一个例子:试想未来的某一天,你赶时间去机场,于是对自动驾驶的网约车发出指令送我到机场,越快越好,而AI在执行该指令时超速行驶、闯了红灯并撞倒了行人。
这便是科技伦理缺位的灾难性后果,而为了预防该场景上演,企业必须在技术研发、产品设计阶段就提前给予治理。
上医,治未病。
对此,商汤科技联合创始人,人工智能伦理与治理委员会委员杨帆表示:AI伦理风险的边界和核心要求是发展负责任且可评估的人工智能,在治理和合规上企业要先想一步,先做一步。
负责任且可评估的人工智能的核心特点
来源:商汤《平衡发展的人工智能治理白皮书》
负责任且可评估,在明确责任主体之后,商汤科技对人工智能治理提出的进一步要求。具体包括七个方面:对人负责、对社会负责、对环境负责、责任可溯源、风险可评估、过程可评估以及效果可评估。
而透过治理体系的完善以及商汤过去的治理实践可以看出:人工智能这项面向星辰大海的前沿技术,每走一步都要脚踏实地。
这正契合法国哲学家萨特的观点,自由是一种责任。
产业爆发之下,AI技术发展的自由,实际上是建立在对自己,对他人,对社会以及对技术本身负责的基础之上。唯有如此,技术的价值才能得到最大化释放。随着时间推移,当下进行的科技伦理建设、治理工作可产生的效益会愈发凸显。
不过话说回来,科技伦理治理绝非易事。
阿西莫夫定下的机器人三法则,在科幻作品中常常会被打破。放之情况更为复杂的现实生活,对应的挑战性可想而知。而且,这是全球、全行业的共性命题,还需所有行业参与者共同建设。
好在,有人正在坚持做着难且正确的事。
本文作者:业界风云汇
业界风云变幻莫测,嬉笑怒骂皆成文章
互联网小常识:蓝牙软件结构标准包括核心和应用协议栈两大部分。工作在2.402-2.480GHZ的ISM波段,标准速率1Mbps。
免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186