人工智能 高清电影(人工智能电影读后感)
没有投过一份简历,没有参加过一次笔试,即便是面试也只不过是走走过场;去公司参观打的是飞的,并且对方还负责全部费用……这是一位人工智能博士关于企业招聘的亲身体会。百度、阿里、腾讯等这些对大部分毕业生可望而不可及的优秀科技公司,在这位人工智能博士看来不过是一次次vip式参观交流。最终,他选定了BAT中的一家企业,这个决定将为他带来百万年薪和可观的期权。
而与此形成鲜明对比的是,从2018年底就已开始的裁员浪潮,给史上最难就业季增加了更多迷茫和不确定性。大批的毕业生正在汹涌的裁员潮下拼命奔波,寻找合适的工作。
但是,我们这位幸运的人工智能博士签完字后,如果打开网络,就会为自己的过早决定感到稍许后悔。因为,华为公司给人工智能专业天才开出200万年薪这样一则信息此时已经占据了各大网站头条。
时至今日,人工智能缘何会如此之火呢?如果你看了《人工智能革命》这本书后,也许就会对人工智能在当今大火的原因有所了解。在阅读此书的过程中,你可能会有些许的困惑 因为,书中有些问题有时候看起来是无解的。但是,我们如果从马克思主义理论角度来看待这些问题,那么这些问题可能就会得到完美解释。
马克思主义真理观是对哥德尔诅咒的完美救赎
数学公理化系统具备两种优雅的特性:一致性和完备性。一致性指公理化系统不存在矛盾;完备性是指所有真命题都可以由公理化系统证实。然而这两个特性在奥地利数学家哥德尔看来却是数学公理化系统的自掘坟墓。
1930年,哥德尔不完备性定理的提出让看似坚不可摧的数学城堡成为了不堪一击的盐沙之基,他的命门就在于对自指的迷惑。‘本数学定理不可以被证明’。这句话到底是对还是错呢?如果是它是对的,得到的结论就和判断本身相悖;如果它是错的,又证明它代表的实际判断是对的。
如果你觉得这个表述还有点拗口的话,我们再说一个更加浅显的例子。为了证明上帝不是万能的,有人曾提出这样的一个问题:上帝能不能创造一块他自己都举不起来的石头?即便让最虔诚的基督教徒来回答这个问题,都只能得出上帝不是万能的这样一个结果:
1、如果上帝能创造一块自己举不起来的石头,那么上帝不是万能的(上帝举不起来这块石头);
2、如果上帝不能创造一块自己举不起来的石头,那么上帝不是万能的。
因此,无论是多么完备的理论体系,一旦尝试对自指的描述可能就会陷入两难境地。不完备性定理如同魔咒般诛心,以至于被后人称为哥德尔的诅咒。
抛开我们刚才谈的这个上帝唯心论观点,不完备性定理的应用对一切抽象性问题的分析都产生了深远的影响,自然也包括了计算机科学和人工智能的发展。人工智能如果要达到近似人的思维能力,也要建立起自我的概念,那么它也将会成为不完备性定理的活靶子。
然而,这一看似难解的问题,如果放在马克思主义视角下,其实马克思已经为我们完美解决这一困境提供了现成的答案。真理是具体的,总是适用于一定的条件和一定的范围。如果条件发生了变化或者超出了特定的范围,真理就会变成谬误。
古希腊数学家芝诺片面运用静止的观点分析运动着的物体,最后得出了飞矢不动的结论。可无论他的论证看起来是多么的严谨,却无法改变不了飞矢是运动的这个明显的事实。同理,哥德尔不完备定理毕竟是逻辑范畴的定义,不应该用它去考量所有的问题,同样也应该有特定的适用范围。而从实际情况来看,哥德尔诅咒的出现也并未影响到人工智能发展的脚步。
马克思主义关于人的本质定义是对人工智能发展的最好注解
从第一台计算机问世以来,人类一直梦想造出一种可以完美模拟甚至超越人脑的计算机系统。
互联网小常识:非对称加密技术对信息的加密与解密使用不同的密钥,用来加密的密钥是可以公开的,用来解密的私钥是需要保密的,因此又被称为公约加密技术。非对称加密技术可以大大简化密钥的管理,网络中n个用户之间进行通信加密,仅仅需要使用n对(2n个)密钥就可以了。常用的加密算法RSA、DSA、PKCS、PGP等。
1956年,随着计算机的理论基础和工程技术全部成熟之后,美国达特茅斯学院召开的学术会议第一次提出了人工智能的概念名词,这一年也被称为人工智能元年。
尽管此后人工智能开始在多个领域得到发展,但是还仅限于在学术层面,并不为大众所熟悉。1997年美国IBM公司的深蓝超级计算机横空出世,以2胜1负3平战胜了当时世界排名第一的国际象棋大师卡斯帕罗夫。但不知出于什么考虑,随后不久,IBM公司就拆卸了深蓝。这也使得世界对人工智能的话题一度陷入沉寂。
2016年,人工智能再次大放异彩,当年3月进行的围棋人机大战中,谷歌公司的阿尔法狗(AlphaGo)以4:1战胜了韩国名将李世石九段。第二年5月,改良后的阿尔法狗卷土重来,以3:0完胜当时围棋第一人柯洁。虽然柯洁曾在正式比赛中单盘8:2碾压李世石,但是面对阿尔法狗,柯洁毫无胜机,曾一度心情崩溃,躲到厕所大哭。2018年初,升级到狗二代的Master,在互联网上横扫中日韩顶级围棋手。众多围棋高手赢不了一只狗,导致不少人戏称,以后,我们再也不说别人下得不如一条狗了。
互联网小常识:IP规划的几种情况。IP地址划分(根据需求计算并申请网络地址):根据需要子网数确定网络号位数根据主机数确定主机号位数,由这两项选择使用哪一类IP地址,并计算出子网掩码,然后计算网络地址、广播地址、主机地址。最终要体现出的是网络地址-主机地址-定向广播地址。
深蓝战胜了卡斯帕罗夫虽然惊艳了世界,但人们一直普遍认为人工智虽然能在别的棋类人机大战中占据上风,可在围棋方面,人工智能始终无法战胜人类高手。因为要想在围棋上战胜人类顶尖棋手,必须首先要让电脑学会像人一样思考。
为解决这个问题,谷歌为阿尔法狗设计了两个神经网络:决策网络(policy network)负责计算走法,值网络(value network)则预测比赛胜利。然后,用人类围棋高手的三千万步围棋走法训练两个神经网络。这就是我们现在所归纳的深度学习这个名词的雏形。
深度学习对我们来说可能是个专业性非常强的名词,理解起来比较困难。但是如果我们重新转到马克思主义视角来审视这个名词,应该就会豁然开朗。
马克思关于人的本质定义时提出:人是社会关系的总和。就是说,人的本质不是与生俱来的,而是在后天的生活实践中形成的。单个的一切行为不可避免地要与周围所有的人发生各种各样的关系,如生产关系、性爱关系、亲属关系、同事关系等等。
人工智能如果想要和人一样思考,产生自我意识,也必须如马克思主义对人的本质定义的那样,深入生活实践不断进行学习,即深度学习。
深度学习的普遍做法就是通过建立有效的学习模型,让机器从数以百万计的图像、声音和文本数据中,自行总结出某种特定事物的特征,从而实现自主学习,产生自我判断。
当以前的单纯接受指令的人工智能在经过一段深度学习学习后,就可以在生活和工作适应多种变化,自主作出判断,这难道不是人工智能即将出现自主意识的先兆吗。
犹太人有句格言:人类一思考,上帝就发笑。人工智能发展到今天,面对阿尔法狗与职业棋手对弈时,所表现出来的智慧和超强学习能力,上帝还会发笑吗?
马克思主义的阶级理论将来会不会成为人类的灵魂拷问
对于人类来说,机器人归根到底不过是自身能力的延伸,以人类工具的形式出现。它们不会出错,不会疲倦,不懂反抗。并且可以任意将它们大卸八块,用坏了再修,或者直接抛弃换新。
然而,技术是可能进化的。人工智能的发展到现在,不仅在思考方面已经以压倒性优势超越了人类,而且通过深度学习为自主意识的产生带来了一丝曙光。如果机器真的有一天产生了自主意识,它还会服服帖帖地供我们驱使吗?如此,马克思主义所谈的阶级斗争,未来会不会成为人类和机器的斗争。
一旦这样的情况变成现实,人类将会出现一个无懈可击的敌人。相对于机器,哭泣、恐惧、相互猜忌等等这些负面情绪都将成为人类最致命缺陷,甚至包括善良这个我们人类引以为傲的优秀品质。
某国曾经尝试使用一种多足机器人用来排雷,每次它用脚引爆一颗地雷就会丧失一条腿。但在第一次使用时,就被当时执行任务的指挥官叫停了。他无法忍受看着那个机器人用仅有一条烧焦的腿蹒跚而行,寻找下一颗地雷。这是人性善良的伟大光辉,但也可能是我们在未来战场人机大战时的致命弱点。
柯洁面对阿尔法狗时一筹莫展,崩溃大哭。可反观阿尔法狗,即便战胜了那么多顶尖围棋高手,开创了人工智能发展里程碑式的发展,依旧表现得云淡风轻,因为它根本就不知道什么是喜,什么是悲。它所做的就是不断制订计划,而后实现目标。当这样一个不受情绪影响的敌人出现在战场上,成为我们的对手,后果有多可怕,是可想而知的。
发生在科幻电影中的人机大战,依照当前人工智能的发展,还需要很长时间,甚至可能永远也不会出现。但是在某些领域,如何使用人工智能已经在道德层面处于两难选择。
在无人驾驶领域,当面临车毁人亡和伤害其他路人时,作为一个编写代码的程序员应该如何让机器作出抉择。无论是以保护车内的人为主还是以不伤害路人为主,都是对程序员的一场道德考验。
机器正在尝试学着思考,但人类再造智慧依旧任重道远。
互联网小常识:交换机与网桥的主要区别是主要功能都采用硬件完成,端口最多128(网桥24)。
免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186