如果机器人有意识可以将其关闭吗 建立真正的AI的道德含义
在“星际迷航:下一代”一集中的“一个人的度量”中,将撤消企业的一名Android机组人员Data的研究目的,除非Picard上尉可以辩称Data与人类享有同等的权利存在。自然就会产生一个问题:什么东西具有权利?是什么赋予实体道德地位?
哲学家彼得·辛格(Peter Singer)认为,会感到疼痛或受苦的生物具有道德地位。他认为非人类动物具有道德立场,因为它们会感到痛苦和受苦。将其限制于人将是一种种族主义,类似于种族主义和性别歧视。
如果不认可Singer的推理方法,我们可能想知道它是否可以进一步扩展到Data之类的Android机器人。这将要求数据感到痛苦或遭受痛苦。以及如何回答取决于您如何了解意识和智力。
随着真正的人工智能技术向好莱坞的想象版本发展,道德地位问题变得越来越重要。如果认可机构具有道德地位,像我这样的哲学家会认为,那么它们就拥有生命权。这意味着您不能简单地拆除它们,也可能意味着人们不应干涉他们的追求目标。
两种智力和测试
IBM的深蓝色国际象棋机器经过了成功的训练,可以击败大师级加里·卡斯帕罗夫。但这无能为力。这台计算机具有所谓的特定领域智能。
另一方面,有一种智力可以使自己做好各种事情。这称为领域通用情报。这就是人们做饭,滑雪和抚养孩子的原因,这些任务既相关,又非常不同。
人工智能(AGI)是具有领域通用情报的机器的术语。可以说没有机器能够显示出这种智能。今年夏天,一家名为OPENAI的初创公司发布了其Generative Pre-Training语言模型的新版本。GPT-3是一种自然语言处理系统,经过培训可以读写,因此人们可以轻松理解。
它引起了立即注意,这不仅是因为它具有模仿风格兴盛和组合合理内容的出色能力,还因为它与以前的版本相距甚远。尽管有如此出色的性能,但GPT-3除了如何以各种方式将单词串在一起之外,实际上并不知道任何其他信息。AGI距离还很远。
图灵测试以具有开创性的AI研究人员艾伦·图灵(Alan Turing)的名字命名,可帮助确定AI何时智能。与隐藏的AI对话的人能否分辨出是AI还是人类?如果他做不到,那么就所有实际目的而言,人工智能都是智能的。但是该测试并未说明AI是否具有自觉性。
两种意识
意识有两个部分。首先,是体验的“我”方面,即意识的感官部分。哲学家称这种现象意识。这是关于您如何体验一种现象的,例如闻到玫瑰的气味或感到疼痛。
相比之下,还有访问意识。这就是报告,推理,行为和行动的能力,以协调和响应的方式对基于目标的刺激做出反应。例如,当我将足球传给我的朋友在球门上打球时,我是对视觉刺激做出反应,从先前的训练中表演,并追求由比赛规则确定的目标。我会在比赛流程中自动进行传递,而无需深思熟虑。
盲视很好地说明了两种意识类型之间的区别。例如,患有这种神经系统疾病的人可能会报告说,他们在视野的左侧看不到任何东西。但是,如果要求他们从视野左侧的一系列物体中拿起笔,他们可以可靠地这样做。他们看不到笔,但是在提示时可以拿起笔-这是一种无意识意识的访问意识示例。
数据是一个Android。这些区别对他如何发挥?
数据困境
android数据表明他具有自我意识,因为他可以监视自己是否处于最佳状态(例如,他是否处于最佳充电状态)或机械臂是否受到内部损坏。
数据在一般意义上也是智能的。他在较高的水平上做了很多不同的事情。他可以驾驶企业,接受Picard上尉的命令,并与他一起商讨最佳路线。
他还可以和他的船东玩扑克,做饭,与亲密朋友讨论热门话题,与外星人的敌人战斗以及从事各种形式的体力劳动。数据具有访问意识。他显然会通过图灵测试。
但是,数据极有可能缺乏惊人的意识-例如,他不喜欢玫瑰的香味或感到疼痛。他体现了视力的超大版本。他具有自我意识,具有访问意识(可以抓住笔),但在所有感官上他都缺乏明显的意识。
现在,如果数据不感到痛苦,那么至少Singer提供给生物的道德地位的原因之一就无法实现。但是即使没有痛苦,数据也可能满足遭受痛苦的其他条件。痛苦可能并不需要痛苦本质上那样的惊人意识。
例如,如果苦难也被定义为在追求正义的过程中受到挫败而又不伤害他人的想法呢?假设Data的目标是解救他的船员,但由于四肢受伤,他无法接近她。数据功能的减少使他无法挽救船员,这是一种非现象性的痛苦。他本来希望挽救船员的,如果他这样做的话,情况会更好。
在这一集中,问题最终不是基于数据是否具有自我意识,这是毫无疑问的。也不怀疑他是否聪明-他很容易证明自己是一般人。目前尚不清楚他是否具有非凡的意识。数据不会被拆除,因为最终,他的人类法官无法就意识对于道德立场的重要性达成共识。
人工智能应该获得道德地位吗?
数据是善良的-他的行为是为了支持他的船员以及他在外星球遇到的人的福祉。他服从人们的命令,似乎不太可能伤害他们,而且他似乎在保护自己的生存。由于这些原因,他显得和平而容易接受具有道德地位的事物的领域。
但是“终结者”电影中的天网又如何呢?或忧虑最近表示伊隆·马斯克关于AI比核武器更加危险,以及史蒂芬·霍金在AI结束人类?
人类不会仅仅因为他们为他人的利益而行动,就丧失了对道德地位的要求。同样,您不能仅仅因为一个AI违背人类或另一个AI的利益就不能自动说出它没有道德立场。您可能有理由抗击像天网这样的AI,但这并不能消除其道德地位。如果凭借非现象性承受能力赋予道德地位,那么即使只有Data希望帮助人类,Skynet和Data也会获得道德地位。
还没有人工智能机器。但是现在是时候考虑赋予他们道德上的地位了。人类如何选择回答非生物生物的道德地位问题,将对我们如何应对未来的AI产生重大影响,无论是像Data这样的善意和帮助,还是像Skynet这样的毁灭性环境。
标签: 机器人