人工智能战争(人工智能战争机器人电影)
互联网小常识:注意办公环境安全,保护个人工作数据。将自己的电脑设置自动锁屏,当离开座位时,人走拔KEY,确保电脑是锁屏或休眠状态。
6月30日,一名国外网友在推特上发布了一则令人瞩目的AI杀人事件,声称有4个人工智能机器人,在一个日本实验室杀死了29名科学家,这件事情是在2017年8月被得知的。
虽然AI是把双刃剑这件事情我们早就得知,但是,这一天难道那么早就到来了吗?这个小道消息,到底有没有可考的依据呢?
AI也能杀人吗?
日本,一直以出色的机器人基础领先于全世界。他们也是最早做出高AI仿真机器人的国家之一。
互联网小常识:非对称加密技术对信息的加密与解密使用不同的密钥,用来加密的密钥是可以公开的,用来解密的私钥是需要保密的,因此又被称为公约加密技术。非对称加密技术可以大大简化密钥的管理,网络中n个用户之间进行通信加密,仅仅需要使用n对(2n个)密钥就可以了。常用的加密算法RSA、DSA、PKCS、PGP等。
他们甚至把一个名为KIROBO的机器人送上了太空,成为世界上第一个陪同宇航员前往太空的机器人并且是到达海拔高度最高对话的机器人。创下了多项吉尼斯世界纪录。
而在日本军方,关于利用人工智能技术制造可用于战斗的智能化机器人的秘密研究一直没有终止。只不过作为高度机密,此项研究一直对外保密。在日本尖端人工智能学领域科学家的帮助下,经过初步的研究和实验,军方初步研制了四台可用于战斗的军用AI机器人,存放在了秘密的实验基地中。
然而这一天还是出事了。原本用于实验的四台AI机器人突然发生了大暴走,一口气杀死了在场的29名日本科学家。秘密基地里立刻响起了一级警报。
日本军方二话不说,迅速封锁了现场。虽说这AI机器人是钢筋铁骨吧,但毕竟不是这全副武装又训练有素的日本士兵的对手。不一会四台AI机器人遭到了团灭。工作人员随即对其中的两台进行了强制指令停止,并推送回实验室进行改装。而第三台由于暴力倾向太过严重,被直接分解销毁。
最神奇的要数第四台机器人,本来科学家们都已经对它进行了销毁,然而突然发现,这台机器人居然可以自我复原,通过卫星下载内在修复程序对已被销毁的地方进行修复。
确有其事,还是科幻故事?
这听起来似乎是挺扯的,毕竟日本要这有这么厉害的机器人,还至于受制于美军么?恐怕高达时代早就提前到来了吧!要辨别这个故事的真假,我们还得从这个故事最早的源头说起。
网上一查才知道,这则消息最早来自于一名叫做Linda Moulton Howe的推特博主。Linda Moulton Howe,出生于1942年的美国。这老太太可不简单,研究了一辈子UFO和外星人。她可是阴谋论的坚定支持者,她认为外星人早就来到地球上了,地球上的牛被神秘分尸,器官被切除,就是这帮外星人在进行生物实验,目的就是为了更好地研究地球。
而关于机器人杀人的传闻,则来自她最新的推特内容。内容是她于2017年8月——也有网站报道为2018年2月,在洛杉矶进行的演讲。
在演讲中,Linda Moulton Howe明确地指出了AI对于人类的危险性,并具了这个实例加以论证自己的观点,还说这则消息是从退伍的海军陆战队成员那里得到的,绝对真实可靠。
可是当问她这名陆战队成员的姓名时,她又含糊其辞地表示这是高度机密。那基地在哪,总能说个大概范围吧?她也说不方便透露。不管怎么说,这老太太的推特浏览播放量倒是通过这件事暴增到了560万回,这一数字连很多网红大V都自叹不如。
有真实可考的AI杀人事件吗?
关于Linda Moulton Howe演讲里提到的故事,究竟是真是假。那就仁者见仁、智者见智了。很多人看到这里不禁要问:现在人工智能发展日新月异,这种AI杀人的事情未来会不会发生呢?
很遗憾,AI杀人的事情已经发生了!是的,你没有听错!AI已经可以用来杀人了。当然,这并像Linda Moulton Howe说的那么邪乎。
那是在2020年3月的利比亚内战战场上,一架土耳其生产的自杀型无人机在完全自动的模式下,开枪攻击了一名参战士兵。根据《新科学家》杂志宣称,这是人类有史以来第一例明确记录在案的AI机器人自主杀人事件。
有人可能会说,这算什么,之前美国无人机杀的人还少啊,卡扎菲不就是让美国无人机给弄死的吗?这可不一样,区别可大了去了。
此前的无人机攻击,无论是斩首行动也好,自爆自杀也罢,都是先有后方的人进行操控发出指令,无人机只是在执行人下达的指令。而土耳其这次不同,无人机完全是自己思考后做出的决断。而这种能力,也是由于被人工智能深度学习改装发展而来的,只不过一般的AI学习用来创造,这台武器却在学习如何杀人。
AI杀人的恐怖后果
若一种武器系统可「自主」选择与攻击目标,便可称为「致命自主武器系统」(LAWS)致命自主武器系统亦有人将之称为「杀手机器人」(killer robot),但不限于有双手双脚、可进行攻击防御的人形机器。
关于其能力涵括了三个指标:自主移动、自主导向和自主决定。
自主移动意谓系统能够自行移动、自主导向意谓系统能识别目标、自主决定则意谓系统能自行设定计划。
若依此定义,目前大多数AI武器具有很高的自主移动和自主导向能力,但极少有自主决定的能力。
互联网小常识:可变长子网掩码地址规划。子网长度不同,根据需求分析应该为每个子网分配的子网号长度、主机号长度,计算子网掩码,列出ip地址段。
有人说了,战场上用AI不是更好么?如果单纯地机器对机器,不是更能减少不必要的人员伤亡了么?
其实不然,再冷血的士兵也是一个个活生生的人,也有自己的喜怒哀乐。而任何战争的目的都只是为了达成自己的目标,给反对者以痛击。而不是纯粹为了进行杀戮游戏。所以世界上才会有国际战俘法,才会有人道主义救助走廊。
人道原则是指即使在战时,也必须尊重人的生命和尊严,要求对他人施与人道待遇。因为人类会同情人类,因此有动力以人道方式对待彼此。此外,法律和道德判断使人类能够理解特定环境,做出经过思虑后的决策,包括在战争里最小化伤害,并防止任意与不合理的生命损失。
这些都是AI所欠缺的部分,做为无生命的LAWS缺乏同情心,无法体会人类生命价值及其丧失的痛苦。
AI只能根据算法做出生死决定,而算法在复杂和不可预测的情况下效果不佳,也无法针对每种情形先行编程,最终会将人类降低为一般的生物对象,违反人道原则。
它们只是一群冷冰冰的兵器,并没有人类的感情,也不知道生命的价值。就拿无人机来说吧,它可以通过运用脸部识别技术加以学习训练后,就可以锁定特定人物进行攻击,至于这个人到底罪该不该死,这个人对于我军是否存在价值,完全不在无人机的考虑范围之内。
它们完全可以向一个已经投降了的敌人开枪,而无视生命的珍贵。无人机就算再深入学习,所了解的也无非几件事:要杀的是谁,怎么杀!
至于为什么杀他,能不能不杀他,完全不是无人机要考虑的问题。这种漠视生命的冷漠才是战争中最可怕的。
与此同时,我们目前很难保证AI不被坏人甚至是恐怖分子所利用,澳大利亚科学家Toby Walsh教授在墨尔本的2017国际联合人工智能大会的开幕式上就曾经发表过这样一封信,信中说:
致命的自动化AI武器很可能成为第三次武器革命的危险,这些恐怖的武器,将会成为暴君和恐怖分子残害无辜民众的武器,或者被黑客挟持的武器。我们的时间并不多。一旦潘多拉的盒子被打开,就很难被关上。
这封信紧急呼吁联合国磋商以寻求使所有人免于这种危险的武器。的确随着AI自动化武器越来越多样化,大到可以上天入地的巨型机器人,小到来无影去无踪的杀人小蜜蜂。AI武器的研发更为隐蔽,更难检测。
如果这些武器本身再带有生化武器或大规模杀伤性武器,落到恐怖分子手里的话,可以说对全世界来说都是一种灾难。而随着深入学习能力的不断加剧,这些AI武器终将会变成一个个顶级的杀戮高手和战术大师,打败人类的特种部队也是不在话下,到了那一天,也许终结者电影中的情节真的会在现实出现。
AI杀人,如何问责?
有的人或许要问了,那么这件事件的责任方究竟是谁呢?谁应该为AI的杀人行为负责呢?
很遗憾,目前关于这方面的立法还十分缺失。
法律毕竟是人类的行为规范,其设立的目的是为了保障人民权益及维持社会秩序,目前没有一种法律是针对机器人,乃至AI而设立的,未来是否设立还不清楚,所以按现行法律的规定,原则上机器人仍会被视为物。
因此当AI发生失控而伤人,甚至杀人时,法律并不会去处罚机器人这个物,而是去处罚人。
因此争论的焦点,就变成了AI使用者与AI机器人生产厂商之间的矛盾了。如果是使用者蓄意利用机器人AI来实行犯罪,或者根本无视AI机器人使用相关说明的话,那么责任方在使用者。而反之,如果正常使用中出现的任何问题,生产厂商应该赋予相应的责任。
但在战争中的责任划分就更加难以确定了。无人机应用在军事上的复杂性让人类难以处理。例如有报告指出,在巴基斯坦,美军以无人机猎杀恐怖分子及其帮手,他们宣称准确度超过99.99%,被错误归类为恐怖分子的机率仅有0.008%。机率看起来极低,但换算成人口数却是约上万人。这些上万条牺牲的无辜生命,又该找谁去负责呢?
马斯克的联合倡议声明正是因为科学家们意识到了滥用AI带来的不良后果,所以早在2018年瑞典斯德哥尔摩举办的【国际人工智能联合会议】上,包括特斯拉执行长马斯克与Google DeepMind3位共同创始人在内的多位AI领域领军人物共同签署《禁止致命性自主武器宣言》,宣誓不参与致命性自主武器系统(LAWS)的开发、研制工作。也就是说这些科学家们保证永远不会将AI用于战争。
其后,共有来自36个国家160个AI领域相关企业,以及90个国家的2400位专家以个人名义签署了宣言。然而令人担忧的是,言者谆谆,听者藐藐。美国军方早已私下进行各种AI武器实验,俄罗斯军方也在奋起直追。
如果联合国安理会五大常任理事国对限制或禁止AI武器的呼吁无动于衷,任何全球性禁止公约都将像是远在天边的彩虹。现在看来,要阻止AI武器的全面扩散,只能靠科学社群内部的自发性觉醒与自律。
当然,关于AI杀人事件的思考还有很多。AI杀人事件彻底打开了潘多拉的魔盒,AI不仅可以思考,还真的会杀人,AI的阴暗面究竟会把人类的发展带向何方呢?我们人类研究的深度学习AI是否会作茧自缚,让人类走向灭亡的深渊呢!我们无从知晓。
参考资料:
【1】明查|4个AI机器人在日本实验室杀死29名科学家?——澎湃新闻【2】细思极恐,无人机首次自主杀人,潘多拉魔盒已被打开?——新民晚报
互联网小常识:网桥最主要面临的问题是帧转发率低与广播风暴,影响其性能的主要参数是:帧转发率与帧过滤率。
免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186