人工智能哲学 txt(人工智能哲学问题)
01 人工智能作为哲学问题
在英国皇家学会副会长阿利斯泰尔·麦克法兰(Alistair MacFarlane)看来,人工智能这个词让人误入歧途,似乎赋予机器能动性,更好的说法应该是"人工知识"(Artificial Knowledge)。创造机器智能是巨大的挑战,因为智能在本质上指的是使用已经学到的东西对付崭新的意外。
他认为我们需要区分三大概念:信息、知识和智慧。信息是可分享的有用模式,知识是可验证的真信念,但很多知识是心照不宣的。智慧不是信息而是对付难以预测的场景的能力。机器赢得人这种程度的智能、同感和情感潜能恐怕还很遥远。
我们的终极挑战不是进一步开发更先进的技术,而是学会如何以一种新的社会形式与机器共处。人工智能可能带来政治、社会和经济方面的重重困难。[1] 因此,人工智能不仅是个技术问题。它也将带来许多哲学问题。
牛津哲学教授卢西亚诺·弗洛里迪(Luciano Floridi)认为以人工智能为代表的第四次革命是人类重新定位人性和自己在宇宙中的位置的演变过程的延续,是对人类自恋的又一次打击。他引用弗里德尔·韦纳特(Friedel Weinert)的书《哥白尼、达尔文、弗洛伊德:科学历史与哲学上的革命》说,哥白尼的日心说动摇了人是宇宙中心的假设,达尔文的进化论显示人和其他物种一样依靠自然选择进化演变,弗洛伊德的精神分析显示人类心灵除理性之外,还受到非理性的潜意识的影响。
以电脑鼻祖图灵为代表的人工智能则挑战了人类的优越性。[2] 牛津物理学家大卫·道奇(David Deutsch)则更是直言不讳:通用人工智能(AGIs)研发根本不是电脑科学或者神经生理学的问题而是哲学问题。他说,"我们把不知道如何编程的任何东西都称为人类智能。"美国哲学家约翰·塞尔(John Searle)在电脑出现之前就说过,如同蒸汽机和电报,所谓人工智能只是解释人类心灵如何工作的隐喻。人类有其创造性的存在,使人们不可能被人工智能奴役。[3]
塔夫茨大学认知研究中心的哲学家丹尼尔·丹尼特(Daniel C. Dennett)(同时也是神经科学、语言学、人工智能、电脑科学和心理学方面的专家)重新定义和改造了哲学家的角色。他在《哲学家遭遇人工智能》一文中提到:人工智能在很大程度上就是哲学。
要搞定人工智能,需要思考:心灵是什么,意义是什么?理性是什么?感知中辨认出物体的必要条件是什么?怎么做决策,如何为决策辩护?但很多哲学家对此似乎并不热心。哲学家往往将实现人工智能看作顽固的傻瓜不断尝试把圆形变成方形。然而,人工智能实际上给哲学家提供了新问题和新解决办法,还有更多可供思考的新原材料。[4]
丹尼特的观点得到伦敦帝国理工学院认知机器人学系教授默里·沙纳汉(Murray Shanahan)的支持,他在《技术奇点》(2015)一书中说"人工智能最终提出的问题是苏格拉底问题:我们应该如何生活?" [5] 人类之所以把拥有超级智慧的人工智能看作生存的威胁,是因为我们依据智能水平为自己的权势和地位辩护。
而在剑桥大学斯蒂芬·卡弗看来,一个人是否有智慧,不仅是指其智能水平,还是一种价值判断,因而是政治性的。在西方历史上,那些被认为智慧不足的人可能面临着被殖民、被奴役、被绝育、甚至被杀戮的风险。
凯特·克劳福德(Kate Crawford)注意到对人工智能的担忧主要出现在西方白人中间,因为他们处于社会等级的最高层,新智能产品的出现将使他们损失最大。如果对智能的概念发生变化,如东方文明认为有智慧的人不是有权统治他人的人,而是传播智慧和为天下带来太平的人,那我们还需要担忧比自己聪明的机器人吗?[6]
以下分别从死亡、伦理、意识、创造性四个方面,参考近期学界说法,略说人工智能带来的哲学问题。
02 死亡问题
高奇琦在《向死而生与末世论:西方人工智能悲观论及其批判》中谈到西方人工智能悲观论的基督教起源问题。在高看来,悲观论实际上是西方基督教叙事中的最新版本,最终可以追溯到西方哲学对待死亡的态度。末世论是基督教中的经典叙事,因为人性恶,所以人类的历史将会终结于世界末日。
人工智能的发展为末世论提供了新的叙事场景。因此,随着人工智能的发展,人们的恐惧心理也在与日俱增。西方关于人工智能的观念实际上就如同一种自杀论,推动人工智能的进步,就如同推动自杀、接近死亡与末世。与西方传统相反,中国人对待死亡有两种态度:儒家的"避而不谈"和道家的举重若轻。庄子强调"安时而处顺",用一种自然洒脱的心境来面对死亡。西方人用死来理解生,相比之下,中国人则用生来理解死。
在西方文化当中,死亡就意味着结束、终结和灭亡,西方死亡观与末世论的结果就是人工智能终将统治世界和统治人类,并最终导致人类的被统治或者灭亡。但是,从生来思考这一问题则意味着新生、重塑和凤凰涅槃。相比西方的在悲观情绪和恐惧与颤栗,中国人对待人工智能的态度相对温和和健康,有一种谨慎乐观的态度,可能成为人工智能发展中的主流思想。[7]
实现人工智能有可能成为延伸人类生命的一种途径。新加坡南洋理工大学教授李晨阳谈到人工智能与新型材料时指出,人工智能技术的进步伴随着生物工程技术的进步。最近,康奈尔大学的科学家成功地实现了动态生物材料自下而上的构建,它是依靠人工新陈代谢驱动的,这种代谢代表不可逆的生物综合和耗散组装过程。
科学家通过编程可以让这种材料产生类似于真核微生物黏菌的自发移动行为。康奈尔大学农业和生命科学学院生物学和环境工程教授罗丹(Dan Luo)说:我们在引进一种崭新的、类生命的材料概念,它是由自身的人工新陈代谢系统所驱动的。我们不是在生产某种有生命的东西,而是在创造一种从前没有见过的更接近生命的材料。当这种新材料技术与人工智能技术结合起来,可能从完全相反的方向满足人类大脑延展的目标,实现一种生命的延伸。[8]
华东师大政治哲学教授吴冠军在谈到奇点时代的长生不死问题时说,就是说过了2049年,我们的技术就可以保证很多人不死,不是说真的不死,而是说他可以不断换心脏、换肺,不断换身体器官,不断植入各种各样的仿生器官,从而能够接近不死,至少活两百年没有问题。[9]
这正好呼应了新人类的话题,即人工智能的人类中心主义的理念可能导致人机协同的混合增强智能取代纯粹生物学的人。加上器官移植、再生医学、基因工程等技术,人之中的一小部分‘权—贵’则可能在生物学+人工智能融合的新生命体系中完全不同于现在的人类。[10]
03 伦理问题
虽然人们可能只打算把人工智能当作工具,但是正如加州大学伯克利分校法学院的硅谷智能技术专家和法哲学家阿敏·阿夫洛兹(Amin Ebrahimi Afrouzi)指出,一旦人工智能成为人类利益的自私、自主的代理人、并开始参与争夺有限资源,伦理问题就出现了。另外,人工智能代理人如何对待其他参与者也是一个尚待考虑的问题。[11]
更具体的人工智能伦理问题还包括:
1)失业、劳动等级差异,主要与自动化有关;
2)不平等,如何分配机器创造的财富;
互联网小常识:密码学分为密码编码学和密码分析学。在设计加密系统时,加密算法是可以公开的,真正需要保密的是密钥,对于同一个加密算法,密码的位数越长,破译的难度也就越大,安全性也就越好。
3)人性,机器如何影响人的行为和互动,如机器依赖症;
4)人工愚蠢,如何防止犯错误;
5)种族主义机器人,如何消除偏见;
6)安全,如何确保人工智能的安全;
7)罪恶,如何保护自己不遭遇意外后果;
8)奇点,如何控制日益聪明的系统;
9)机器人权利,如何定义人工智能的人道主义待遇、法律地位以及机器的感情痛苦等。[12]
此外,还有隐私问题。很多人都担忧在人工智能时代隐私会受到破坏。这种对个人隐私的侵蚀甚至可能将人异化。
科技作家尼古拉斯·卡尔(Nicholas Carr)在为《监控资本主义时代》一书所写的书评中尖锐指出,对于脸书和谷歌等硅谷巨头来说,人类生命成了原材料。监控资本主义的真正产品是对人类将来行为的预测:我们看什么,我们去哪儿,我们持有什么观点等。日常生活经验被蒸馏成为数据,成为私有企业的资产,用以预测或者塑造我们的行为,破坏个人自由和腐蚀民主。
我们不是客户也不是产品,而是数据尾气之源。更可气的是,在线监控逐渐被政客、官僚和大众认为是正常的甚至必要的,无须大惊小怪。隐私不是受到破坏而是被重新分配了,决定权从公民转移到了公司手中而已。[13]
关于高级人工智能机器是否应该被当作伦理存在来对待、以及如何对待的问题,李晨阳认为答案尚不清楚。
他说,人工智能机器是机器,却是一种拥有智慧的特别存在物。伦理学的每个概念,尤其是在西方的主流传统中,都是把人当作唯一的道德行为者(moral agent)和道德行为的施受者(moral patient),把世界上的所有其他生物都排斥在道德领域之外。随着环保意识的崛起,当今有些伦理学家开始将道德领域扩展,希望把生物有机体包括进来。即使我们同意高级人工智能机器能够和应该被当作道德行为的施受者,但究竟该如何对待它们仍然是远非清晰可见的。比如,世界各地的医院人工智能医生的情况越来越多,对它们的工作条件应该采用什么样的管理规定?是不是应该像我们对待真人医生那样,对其工作条件设置最低标准要求?
虽然人工智能体的伦理地位尚不清楚,我们依然可能为机器人的行为设立规范。在李晨阳看来,在机器人伦理学方面,儒家道德哲学能够为我们提供有用的资源,包括孟子基于不忍之心的软心肠途径(the soft-heart approach)和荀子基于社会规范习得的"社会程序途径"(the social wiring approach)。
如果遵循孟子的途径,或许应该在仿人机器人身上安装一个系统,以不害人作为压倒一切的原则,确保机器人不能采取极端破坏性的行动伤害人、伤害其他生命形式或者相互伤害。如果遵循荀子的进路,可能会安装能够指导人工智能机器的行为法则,却没有压倒一切的保护性原则,人工智能机器将主要完成所分配的任务,根本不考虑任务的性质。[14]
也有论者发问:人工智能是否有助于让个人和社会变得更有美德?美国汉学家、卫斯理大学(Wesleyan University)教授安靖如围绕儒家五大美德(仁、义、礼、智、信)展开论述,并得出了肯定的回答。
他认为,人工智能会帮助我们更多关注需要我们关心的目标,帮助我们变得更有仁德。手机软件(1)知道到你的位置和日程安排;(2)知道众多需要关心(民众或环境)的机会(3)知道你的特别专长和兴趣。通过将事务与这三个维度搭配,手机就能提醒你关注到一些可能性上,并以最佳的方式满足你的要求,实现你关心他人的愿望。
例如,有了GPS应用软件的帮助,开车时要想忽略违规行为就更加困难了,帮助我们培养义的美德。例如,关于礼,我们可以考虑一下电子邮件系统有能力提醒用户正在写的信息内容是否有冒犯他人之处。再例如,关于智。智慧的根源是是非之心,如果情感人工智能提醒我们及时关注典型场景来影响行为,结果可能真能带来更大智慧。[15]
04 意识问题
互联网小常识:综合布线系统设计等级:基本型(1)、增强型(2)和综合性。
麻省理工学院宇宙学家迈克斯·泰格马克(Max Tegmark)在2017年出版的《生命3.0》中提出了生命演变的三阶段论:生物进化(生命1.0),文化进化(生命2.0)和技术进化(生命3.0)。生命1.0不能重新设计其硬件和软件,都由DNA决定;生命2.0 能重新设计软件,学习复杂的技能如语言、体育、职业等;生命3.0能重新设计软件和硬件。
生命3.0目前在地球上还不存在。泰格马克提出了意识原则理论,即有意识的系统应该有信息储存能力、信息处理能力、独立性和融合性。人工智能作为生命3.0的表现形式或许能实现意识原则要求的所有性质,从而能实现所有人类意识所能实现的价值,包括幸福、善良、意义、目的和美。[16]
中国社科院哲学所赵汀阳专门讨论过人工智能的自我意识问题。在他看来,"人工智能的危险之处不是能力,而是自我意识。如果人工智能拥有了拟人化的情感、欲望和价值观,必然更为危险,因为人的欲望和价值观正是一切冲突的根源。"赵指出,"只有语言才足以形成智能体之间的对话,或者一个智能体与自己的对话(内心独白),在对话的基础上才能够形成具有内在循环功能的思维,而只有能够进行内在循环的思维才能够形成自我意识。"
造成潜在危险的不是数据处理的能力,而是自我意识,是内在反思的能力。而自我意识的实现又需要更多的条件,例如语言的发明使得意识拥有了表达一切的功能和反思的功能,成为人类产生自我意识和自由意志的关键条件。赵因而判断,"哪怕人工智能处理数据的能力强过人类一百万倍,只要不具有反思能力,就仍然在安全的范围内。"[17]
美国洛杉矶罗耀拉大学哲学教授王蓉蓉在《机器人能否循道而行?道家哲学与人工智能》中从道家哲学的角度提出并讨论了这样一个问题:即便人工智能技术可以开发机器的自我意识,但它也能像人那样失掉自我意识吗?
庄子曾经描述:当一个人沉溺于手头工作的时候,他就可以忘掉自己的存在,让自己被物携带着走,心由是可以自由飞翔,乘物以遊心。臣将为鐻,未尝敢以耗气也,必齐以静心。齐三曰,而不敢怀庆赏爵禄;齐五日,不敢怀非誉巧拙;齐七日,辄然忘吾有四枝形体也。当是时也,无公朝,其巧专而外骨消。王蓉蓉认为,《庄子•外篇》中所描绘的自我意识的暂时忘却不会轻易被人工智能所实现。[18]
05 创造性问题
与人工智能有无意识密切相关的是创造性问题。牛津大学教授马尔库斯·萨托利(Marcus du Sautoy)在近期出版的《创造性模式》中提问:"机器真能创造吗?"有意思的不在于明确的答案,而是考察该问题本身意味着什么。
英国《展望》杂志2019年3月初出版《机器能创造吗?》一文,讲述了西班牙一大学的研究人员开发的作曲算法机器人(Iamus)造出一张由伦敦交响乐团演奏的古典音乐CD的故事。人们通常觉得人工智能无法做出概念跨越,进入新领域,但萨托利认为未必如此。
他认为,艺术上的真正进步是在有人敢于打破常规,违背法则,用意料之外的方式结合起来而产生的。人工智能也可能做到这一点。人工智能同样有可能在科学中展现这种创造性。作为例证,萨托利描述了一个名叫Mizar的制造数学定理的程序。必须承认,人工智能制造的东西类似于阿根廷作家博尔赫斯(Jorge Luis Borges)的《巴别图书馆》所描述的,里面包括所有可能的书,是所有语言中的文字所有可能的排列组合。
虽然其中大部分是垃圾,但萨托利认为"创造性概念就是与有限性绑在一起的。"如果我们认为创造性的本质在于和其他人一致,有目的地塑造材料,今天的人工智能当然离创造性还很远。但是如果"能够看到别人看不到的模式或者可能性是创造性的一个方面",那么人工智能的艺术恐怕越来越难以和人的艺术区别开来。[19]
除考虑人工智能本身的创造性潜力,我们同样也应注意到人工智能在创造性工作之外的价值。山东大学教授贝淡宁教授在《从马克思主义儒家视角看人工智能》一文中对比了马克思主义和儒家对创造性的不同认识。
在他看来,马克思主义看重实现多种形式的创造性工作的潜能,儒家则看重培养多样性社会关系尤其是与亲人的关系的潜能。在高级共产主义阶段,发达的机器将生产人类需要的所有商品,我们将真正实现自由和平等,有机会发展我们认为合适的多方面才能。考虑到我们迫切需要创造性工作,多数人都将从实现创造性工作的潜能中获得快乐和满足感。从儒家视角看,马克思对人类美好生活的描述未免过于狭隘。创造性工作的潜力当然是人之为人的重要特征之一,但是,它总是人类的第一需要吗?它有必要成为每个人的第一需要吗?从儒家视角看,关爱和照顾父母的工作不一定特别具有创造性却是美好和令人感到满足的生活所必不可少的。
如果人工智能将我们从社会必须的工作中解放出来,帮助我们实现自己对构成身份的重要关系的承诺,例如精心照顾上年纪父母,人工智能的发展就应该受到欢迎。[20]
注:本文原文曾发表在杨国荣主编《从早期中国思想到新实用主义》思想与文化第二十七辑(上海:华东师范大学出版社,2021年),第440-461页。有删节和改编。
06 参考文献
[1] MACFARLANE A. Information, Knowledge & Intelligence[EB/OL].[2019-01-17]https://philosophynow.org/issues/98/Information_Knowledge_and_Intelligence
[2]FLORIDI L. "Why Information Matters,"The New Atlantis,[J] Number 51, Winter 2017, pp. 7–16.
[3]DEUTSCH D. Philosophy will be the key that unlocks AI[EB/OL].(2012-10-03)[2019-01-17]https://www.theguardian.com/science/2012/oct/03/philosophy-artificial-intelligence
[4] DENNETT D. C. When Philosophers Encounter AI[EB/OL].[2019-01-17]http://pp.kpnet.fi/seirioa/cdenn/whenphil.htm
[5] WARBURTON N. The best books on Ethics for Artificial Intelligence recommended by Paula Boddington [EB/OL].[2019-01-17]https://fivebooks.com/best-books/ethics-artificial-intelligence/
[6] CAVE S. Intelligence: a history [EB/OL].(2017-02-21)[2019-01-17]https://aeon.co/essays/on-the-dark-history-of-intelligence-as-domination
[7] 高奇琦 向死而生与末世论:西方人工智能悲观论及其批判《爱思想》[2019-01-10]http://www.aisixiang.com/data/114482.html
[8] LI, Chenyang, The AI Challenge and the End of Humanity, a paper the author translated into Chinese for the 2019 Berggruen Institute workshop "Artificial Intelligence Meets Chinese Philosophers" [2019-04-12]
[9] 吴冠军 人工智能时代的政治哲学思考《爱思想》[2018-04-02]http://www.aisixiang.com/data/109253.html
[10] 吴彤 关于人工智能发展与治理的若干哲学思考《爱思想》[2018-07-31]http://www.aisixiang.com/data/111273.html
[11] AFROUZI A. E. The Dawn of AI Philosophy [EB/OL].(2018-11-20)[2019-01-17]https://blog.apaonline.org/2018/11/20/the-dawn-of-ai-philosophy/
[12] BOSSMANN J. Top 9 ethical issues in artificial intelligence, [EB/OL].(2016-10-21)[2019-01-17]https://www.weforum.org/agenda/2016/10/top-10-ethical-issues-in-artificial-intelligence/
[13] CARR N. Thieves of Experience: How Google and Facebook Corrupted 2Capitalism,[EB/OL].(2019-01-15)[2019-01-17]https://lareviewofbooks.org/article/thieves-of-experience-how-google-and-facebook-corrupted-capitalism/
[14] LI, Chenyang, The AI Challenge and the End of Humanity, a paper the author translated into Chinese for the 2019 Berggruen Institute workshop "Artificial Intelligence Meets Chinese Philosophers" [2019-04-12]
[15] ANGLE, S. C. Can Artificial Intelligence Lead Us to Genuine Virtue? A Confucian Perspective, a paper the author translated into Chinese for the 2019 Berggruen Institute workshop "Artificial Intelligence Meets Chinese Philosophers" [2019-04-08]
[16] TEGMARK M.Life 3.0: Being Human in the Age of AI, [M] New York: Alfred Knopf, 2017
[17] 赵汀阳:人工智能的自我意识何以可能?《爱思想》[EB/OL].(2019-01-25)[2019-01-27]http://www.aisixiang.com/data/114807.html
[18] WANG, R. R. Can The Machine Flow Like Dao? The Daoist Philosophy on AI, a paper the author translated into Chinese for the 2019 Berggruen Institute workshop "Artificial Intelligence Meets Chinese Philosophers" [2019-04-14]
[19] BALL P. Can machines create?[EB/OL].(2019-03-04)[2019-03-15] https://www.prospectmagazine.co.uk/magazine/artificial-intelligence-creativity-music-art-philip-ball
[20]BELL D. A. A Marxist Confucian Perspective, a paper the author translated into Chinese for the 2019 Berggruen Institute workshop "Artificial Intelligence Meets Chinese Philosophers" [2019-04-22]
采编:Philontier编辑组
图片:网络
审校:灏瀛
排版:南山
报名加入philontier常驻作者团队!
互联网小常识:交换机和透明网桥都是通过自学习的方式来自动地建立和维护交换表。
免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186