当前位置:首页 > 网文选读 > 文摘阅读 > 正文内容

机器人法则

网络6年前 (2019-10-24)文摘阅读1011


作者:熊辉 摘自:《科学画报》2018年第23期

  当机器可以思考时

  2018年3月,在美国亚利桑那州的坦佩市,一辆自动驾驶汽车将推着自行车过马路的伊莲·赫茨伯格撞倒。当时,该自动驾驶汽车以每小时70千米的速度行驶,并且是在其车载电脑发现赫茨伯格6秒之后才将她撞倒。6秒的时间足够汽车停下来或转弯,但它什么都没有做,而是直接撞向了她。赫茨伯格在被送往医院后死亡,这是第一个被自动驾驶汽车撞死的行人。

  美国国家运输安全委员会通过对这一事件的初步调查发现,为确保更顺畅的驾驶,这辆自动驾驶汽车的紧急制动器被设计为在自动驾驶时禁用,而且也没有提醒操作人员注意危险的设计。

  75年前,美国著名科幻小说家艾萨克·阿西莫夫就提出了机器人三大定律,其中的机器人第一定律为:机器人不能伤害人类,或者坐视人类受到伤害。今天,我们已经处在一个机器人几乎随处可见的世界里,但是对于我们应该如何与机器人共同生活的深层次问题,仍然没有完美的答案。

  在过去的几年中,尽管出现了很多关于智能机器人的报告和政策建议,但到目前为止,阿西莫夫的定律仍然是一种幻想。

  欧盟机器人法律报告的起草者麦迪·德尔沃将目前的情况与汽车首次出现在道路上的情况进行了比较。她说:“第一批驾驶员在开车上路时没有规则可遵守,他们按照自己的想法合理或谨慎地驾驶。但随着技术的普及,社会就需要规则了。”

  麻烦的是,规范机器人对人类事务的干预比制定道路交通法规更复杂。例如,保护乘客和行人免受自动驾驶汽车伤害的立法,无法阻止数据抓取算法对选民投票的影响。用于诊断和治疗的医疗机器人与战场上的机器人需要不同的规定。机器人行为守则

  关于机器人的立法还有另一个障碍,法律过于笼统,不会过多考虑背景。对阿西莫夫来说,背景可能构成规则的一部分。他的许多故事探讨了机器人试图在不同场景中应用法律的意外后果。在他1942年出版的小说《环舞》中,当机器人试图同时满足第二定律(遵守人类给予它的命令)和第三定律(保护自己不受伤害)时,机器人陷入了困境。阿西莫夫的定律非常适合小说,但不适合实践。

  将这种法律解释为行动常识几乎是不可能完成的任务,有学者曾尝试这样去做,但最终因为太难而放弃。

  最终,辩论归结为道德问题而不是技术问题。英国上议院人工智能委员会的史蒂文·克罗夫特说:“人工智能带来的新力量需要一种新的道德规范。为了人类的繁荣,社会应该塑造规则,而不是让规则塑造社会,这一点至关重要。不能允许私营公司制定规程来决定每个人的利益。”

  正如克罗夫特所强调的那样,不同的地方有不同的文化,不同的文化也有不同的规则。例如,相比其他许多国家,日本对伴侣机器人的接受度要高很多,欧洲国家对隐私和数据收集的态度与美国不同。

  尽管如此,肯定有一些所有人都同意的指导方针。无论如何,机器人有能力对人类造成伤害——不管在手术室、战场上还是在路上。因此,人类的监控至关重要。

  人们经常用“电车难题”思想实验来表明,允许人工智能自行决定所带来的危险。如果自动驾驶汽车必须选择在发生事故的情况下杀死谁,这对车上的乘客和路上的行人来说肯定是致命的。但美国华盛顿大学的瑞安·卡洛认为这个思想实验很荒谬,让机器人除了杀人别无选择本就是一个奇怪的假设,更值得思考的是技术带来的新的可能性。

  卡洛设想了一种情景:想象一辆混合动力的自动驾驶汽车,可以通过汽油发动机为其电池充电。这款车的设计目标之一,是使其燃油效率最大化。在跑了几天之后,汽车发现使用充满电的电池时效率最高。它就会每天晚上在车库运行其发动机,这样早上就能使用充满电的电池了,但这样做可能会导致家中的人因一氧化碳中毒而死亡。

  这明显违反了不能伤害人类的法律,而且很难被预见。在这种情况下,我们如何判断错在哪里以及应该责怪谁?有人认为机器人的责任应该由制造商承担,他们将商品投放到市场,理应承担责任。

  问题在于,对于谁承担责任,法律通常要求被告预见其行为的结果。但是,对拥有学习能力的人工智能来说,这可能并不合理——就像卡洛设想的电池充电场景一样。为了避免出现这种不可预测的行为,有人建议自动驾驶汽车不应该有自学能力,但这明显与人们对自动驾驶汽车的期望不符。

  我们可以要求的是,机器人的行为实现自洽。确保负责任地使用算法可能意味着我们需要新的人工智能混合算法,让机器学习软件与人类更容易理解的技术相结合。这是一个令人兴奋的新研究领域。当机器人越来越像人

  美国加利福尼亚州帕洛阿尔托未来研究所的理事安妮·伊马菲登说,如果我们希望人工智能以最小的伤害提供最大的利益,那么关键不仅仅是让人们理解机器人,而且要制造更好的机器人。她的答案是确保机器人不会具备我们对事物先入为主的执着。这样我们就可以避免一些悄悄进入人工智能的偏见,并扭曲自动化的决策制定。

  如果我们能够克服这些挑战,那么,能拯救生命、行为自洽并公平对待我们的机器人将受到大多数人的欢迎。但是,随着我们能够创造越来越像人类的机器人,我们必须考虑让我们感到舒服的人机互动方式。

  语音识别技术让我们能够或多或少地与我们的设备交谈。谷歌公司通过人工智能合成的声音,足以使另一端的人认为他们正在与一个人交谈。机器人专家正在制作具有栩栩如生的肉体和头发的人形机器人。与此同时,又产生了一个更大的担忧。人类很容易形成情感依恋。但是无论机器人看起来多么逼真,我们都应该清楚自己是与机器,还是与人进行交流。

  在日益自动化的世界中,人们很容易忘记机器是由人类编程、拥有和操作的。设计和使用它们是为了一些更高、更人性化的目标:安全性、舒适性、效率、利润。设计机器人遵循的法律是一個有趣的思想实验,但最终会分散注意力。真正的机器人法律应该对相关的人进行检查,而不是对机器。

  作为人类,我们需要依赖深厚的传统智慧来解决这些基本问题,不能单靠技术来回答。然而,至少有一点我们都会认可:人类应该始终能够关闭机器。机器人五大法则

  任何普遍的机器人法则都可能包括以下内容。

  法则1:机器人不得伤害人类或让人类受到伤害——除非它受到另一个人的监督。

  法则2:机器人必须能够解释自己的行为。

  法则3:机器人应该抵制任何先入为主的冲动。

  法则4:机器人不得冒充人类。

  法则5:机器人应始终有一个关闭按钮。

  (齐宜摘自《科学画报》2018年第23期,喻梁图)

想买高性价比的数码产品?使用百度APP 搜索 无忧岛数码家电 关注本站官方百家号

相关文章

布拉格之手

作者:阿贝尔    来源:《山西文学》2010年第2期   1921年或1922年的某一天,《卡夫卡口述》的作者古斯塔夫·雅诺施和卡夫卡博士一起从工伤保险...

美国名校网上竞争语录

作者:佚名    来源:《威海日报》2010年2月25日   哈佛大学  来吧,宝贝。到这之后你的年薪不会低于20万美元的!别轻信媒体!我们不是最喜欢拒人...

害怕成功的约拿情结

作者:冀巧玲    来源:《百科知识》2010第二期  什么是“约拿情结”  小馨从财经学院国际会计专业毕业后,去了一家银行工作,生活如水般平静。2 8岁时,小...

停船暂借问,或恐是同乡

作者:张曼娟    来源:《爱情,诗流域》   他发现这家城内最大的超级市场里,竟然贩卖鲑鱼头,简直是件怪事。美国人不管怎么吃鱼,都不肯看见鱼头的,像是一...

其故安在

作者:陶 杰    来源:《南风窗》   1923年孙中山应香港大学之请,在英治殖民地的最高学府发表演讲,对香港这个中国最大的租界发出由衷的赞美,言辞甚为...

脑力流失

作者:薛涌    来源:《中国新闻周刊》   最近,中国留美学生将超过十万的消息成为新闻热点。但是,国内的读者忽视了来自美国的另一则新闻:绝大多数高端的中...

人间好时节

作者:张曼娟    来源:《人间好时节》   小时候,没有电视和电玩,连电影也难得有机会看,我的游戏,就是唐诗。  母亲不知道从哪里找到一本破破旧旧的《唐...

“北侧”向北侧修跑道

作者:阿忆    来源:《今晚报》2010年5月20日   “风能进,雨能进,国王不能进”,这是英国政治学家洛克17世纪留下的一句物权格言。意思是,一处私...

孙姨和梅娘

作者:史铁生    来源:《记忆与印象》   孙姨和梅娘柳青的母亲,我叫她孙姨,曾经和现在都这样叫。这期间,有一天我忽然知道了,她是三、四十年代一位很有名...

希区柯克:男人爱女人的最好方式

作者:后来    来源:《家庭心理医生》2010年第3期   他们初次相遇时,他只是一个字幕设计师,尽管读完剧本后他的脑海中便会出现整部电影,但没有人重视...

发表评论

访客

◎欢迎参与讨论,请在这里发表您的看法和观点。