人生感悟

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 615|回复: 0
打印 上一主题 下一主题

机器人法则

[复制链接]

3万

主题

3万

帖子

10万

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
104222
跳转到指定楼层
楼主
发表于 2019-2-3 14:32:51 | 只看该作者 回帖奖励 |正序浏览 |阅读模式
  当机器可以思考时

  2018年3月,在美国亚利桑那州的坦佩市,一辆自动驾驶汽车将推着自行车过马路的伊莲·赫茨伯格撞倒。当时,该自动驾驶汽车以每小时70千米的速度行驶,并且是在其车载电脑发现赫茨伯格6秒之后才将她撞倒。6秒的时间足够汽车停下来或转弯,但它什么都没有做,而是直接撞向了她。赫茨伯格在被送往医院后死亡,这是第一个被自动驾驶汽车撞死的行人。

  美国国家运输安全委员会通过对这一事件的初步调查发现,为确保更顺畅的驾驶,这辆自动驾驶汽车的紧急制动器被设计为在自动驾驶时禁用,而且也没有提醒操作人员注意危险的设计。

  75年前,美国著名科幻小说家艾萨克·阿西莫夫就提出了机器人三大定律,其中的机器人第一定律为:机器人不能伤害人类,或者坐视人类受到伤害。今天,我们已经处在一个机器人几乎随处可见的世界里,但是对于我们应该如何与机器人共同生活的深层次问题,仍然没有完美的答案。

  在过去的几年中,尽管出现了很多关于智能机器人的报告和政策建议,但到目前为止,阿西莫夫的定律仍然是一种幻想。

  欧盟机器人法律报告的起草者麦迪·德尔沃将目前的情况与汽车首次出现在道路上的情况进行了比较。她说:“第一批驾驶员在开车上路时没有规则可遵守,他们按照自己的想法合理或谨慎地驾驶。但随着技术的普及,社会就需要规则了。”

  麻烦的是,规范机器人对人类事务的干预比制定道路交通法规更复杂。例如,保护乘客和行人免受自动驾驶汽车伤害的立法,无法阻止数据抓取算法对选民投票的影响。用于诊断和治疗的医疗机器人与战场上的机器人需要不同的规定。

  机器人行为守则

  关于机器人的立法还有另一个障碍,法律过于笼统,不会过多考虑背景。对阿西莫夫来说,背景可能构成规则的一部分。他的许多故事探讨了机器人试图在不同场景中应用法律的意外后果。在他1942年出版的小说《环舞》中,当机器人试图同时满足第二定律(遵守人类给予它的命令)和第三定律(保护自己不受伤害)时,机器人陷入了困境。阿西莫夫的定律非常适合小说,但不适合实践。

  将这种法律解释为行动常识几乎是不可能完成的任务,有学者曾尝试这样去做,但最终因为太难而放弃。

  最终,辩论归结为道德问题而不是技术问题。英国上议院人工智能委员会的史蒂文·克罗夫特说:“人工智能带来的新力量需要一种新的道德规范。为了人类的繁荣,社会应该塑造规则,而不是让规则塑造社会,这一点至关重要。不能允许私营公司制定规程来决定每个人的利益。”

  正如克罗夫特所强调的那样,不同的地方有不同的文化,不同的文化也有不同的规则。例如,相比其他许多国家,日本对伴侣机器人的接受度要高很多,欧洲国家对隐私和数据收集的态度与美国不同。

  尽管如此,肯定有一些所有人都同意的指导方针。无论如何,机器人有能力对人类造成伤害——不管在手术室、战场上还是在路上。因此,人类的监控至关重要。

  人们经常用“电车难题”思想实验来表明,允许人工智能自行决定所带来的危险。如果自动驾驶汽车必须选择在发生事故的情况下杀死谁,这对车上的乘客和路上的行人来说肯定是致命的。但美国华盛顿大学的瑞安·卡洛认为这个思想实验很荒谬,让机器人除了杀人别无选择本就是一个奇怪的假设,更值得思考的是技术带来的新的可能性。

  卡洛设想了一种情景:想象一辆混合动力的自动驾驶汽车,可以通过汽油发动机为其电池充电。这款车的设计目标之一,是使其燃油效率最大化。在跑了几天之后,汽车发现使用充满电的电池时效率最高。它就会每天晚上在车库运行其发动机,这样早上就能使用充满电的电池了,但这样做可能会导致家中的人因一氧化碳中毒而死亡。

  这明显违反了不能伤害人类的法律,而且很难被预见。在这种情况下,我们如何判断错在哪里以及应该责怪谁?有人认为机器人的责任应该由制造商承担,他们将商品投放到市场,理应承担责任。

  问题在于,对于谁承担责任,法律通常要求被告预见其行为的结果。但是,对拥有学习能力的人工智能来说,这可能并不合理——就像卡洛设想的电池充电场景一样。为了避免出现这种不可预测的行为,有人建议自动驾驶汽车不应该有自学能力,但这明显与人们对自动驾驶汽车的期望不符。

  我们可以要求的是,机器人的行为实现自洽。确保负责任地使用算法可能意味着我们需要新的人工智能混合算法,让机器学习软件与人类更容易理解的技术相结合。这是一个令人兴奋的新研究领域。

  当机器人越来越像人

  美国加利福尼亚州帕洛阿尔托未来研究所的理事安妮·伊马菲登说,如果我们希望人工智能以最小的伤害提供最大的利益,那么关键不仅仅是让人们理解机器人,而且要制造更好的机器人。她的答案是确保机器人不会具备我们对事物先入为主的执着。这样我们就可以避免一些悄悄进入人工智能的偏见,并扭曲自动化的决策制定。

  如果我们能够克服这些挑战,那么,能拯救生命、行为自洽并公平对待我们的机器人将受到大多数人的欢迎。但是,随着我们能够创造越来越像人类的机器人,我们必须考虑让我们感到舒服的人机互动方式。

  语音识别技术让我们能够或多或少地与我们的设备交谈。谷歌公司通过人工智能合成的声音,足以使另一端的人认为他们正在与一个人交谈。机器人专家正在制作具有栩栩如生的肉体和头发的人形机器人。与此同时,又产生了一个更大的担忧。人类很容易形成情感依恋。但是无论机器人看起来多么逼真,我们都应该清楚自己是与机器,还是与人进行交流。

  在日益自动化的世界中,人们很容易忘记机器是由人类编程、拥有和操作的。设计和使用它们是为了一些更高、更人性化的目标:安全性、舒适性、效率、利润。设计机器人遵循的法律是一個有趣的思想实验,但最终会分散注意力。真正的机器人法律应该对相关的人进行检查,而不是对机器。

  作为人类,我们需要依赖深厚的传统智慧来解决这些基本问题,不能单靠技术来回答。然而,至少有一点我们都会认可:人类应该始终能够关闭机器。

  机器人五大法则

  任何普遍的机器人法则都可能包括以下内容。

  法则1:机器人不得伤害人类或让人类受到伤害——除非它受到另一个人的监督。

  法则2:机器人必须能够解释自己的行为。

  法则3:机器人应该抵制任何先入为主的冲动。

  法则4:机器人不得冒充人类。

  法则5:机器人应始终有一个关闭按钮。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|人生感悟  

GMT+8, 2024-11-10 22:53 , Processed in 0.106758 second(s), 23 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表