前文提到,当机器人进入家庭之中,由于人类与之互动的的情境与机会大幅增加,因此即使这些机器人明显不够具有自主性、也不类似于人类──它们不是电影〈变形金刚〉里的那种「机器生物」──人们依然倾向将它们视为「独立生命体」。这使得家用机器人有很大的机会被视为正式家庭成员之一,因为一旦把机器人看成拥有独立生命,人们就容易与其建立「情感关系」。一般论者认为,这有助于机器人「打入」家用市场,获得更高的采用率与使用率。不过,这或许也会带来伦理上的挑战。首先本文列举几个人类与机器情感关系的例子,接下来指出此一现象带来的隐忧,最后再提供一些可能的解决方案。
人类与不像人的机器人真的可以建立情感关系吗?让我们来看几个例子。有一种多腿的「扫雷」机器人,其运作方式是透过用这些「腿」去踩踏地雷,藉由「牺牲」腿来触发地雷并使其失效。在测试阶段,这个机器人运作良好,接连找到许多地雷,也报废了好几只腿。然而,就在任务完全结束──机器人的腿全部「用掉」──之前,操作员决定停止继续遥控机器人。为什么?原因是,操作员无法忍受持续看到机器人用仅剩一条腿「拖行」的画面,也觉得在让机器人「失去」最后一条腿过于惨忍。换句话说,一种感情关系──同情──在扫雷机器人与人类操作员之间建立了起来(Garreau, 2007)。在机器小狗 AIBO 上,这个现像更为明显,即使 AIBO 的实际外观相当「机械化」。研究者检视网路上 AIBO 使用者社群的贴文,发现使用者的遣词用字透露出一些倾向:第一,经常会描述 AIBO 动作带有「情感」,例如「它沮丧地低下头」;第二,不把 AIBO 视为技术产品,而是真正的宠物,例如「它是我的宠物,不是什么很酷的科技玩物」,甚至有人会说「我很抱歉今天踢到它,它一定很痛!」(Kahn, Friedman, and Hagman, 2002)。即使是相当习惯以「机器」的角度来处理与谈论机器人的机器人学家,仍然不可避免地──但通常是无意地──使用某些情感或情绪字眼来形容他们正在研发的机器人,仿佛这些机器人真的具有「灵魂」一样(Scheutz, 2002)。这些都意味着,人类对于机器人具有某程度的「同理」,也因此会以情感的方式来理解机器人、以及建立与机器人的关系。
当机器人越来越容易让人类与之建立情感,我们不得不注意随之而来的危险。例如,由于机器人或宠物不像一般人类会对我们的要求提出反驳与反抗,因此在未来,我们很可能宁愿与机器人相处而不愿意和真实人类交往,或者我们宁可以要一只不需要花时间训练便溺行为的机器宠物而不要一只真的小狗或小猫。换句话说,人类与机器人或宠物的关系,很可能威胁到人类与真实人类或宠物之间的关系。另一方面,科技社会学家 Sherry Turkle 曾经出书讨论,认为当代社交媒体科技虽然让我们便于联系彼此,但实际上却让我们活在自己的小世界,缺乏与真实人类面对面的相处,反而是被科技围绕(Turkle, 2012)。在 Turkle 的说法里,科技尚且是个「媒介」,因此我们不难想像,一旦科技确实成为相处的「对象」──就像(未来的)家用机器人──我们又会如何将自身隔离于真实关系之外。除此之外,我们对于机器人投射情感,很可能让我们信任机器人远超过信任人类,因为我们通常不会假设机器会骗人。这将导致未来的「销售人员」或「法庭证人」可能多是机器人且鲜少人类,但我们却对于机器人可能内建「诈骗」机制未有所觉。实际上,人类具有同理心的情感特质,正是减缓人类诈欺行为的机制之一,因为我们能够设想「如果自己受到欺骗感觉如何」,然而这种心理机制在机器人中可以说完全没有,因此反而更容易提供长机器人「不诚实」的可能性。
那么,要如何避免这个趋势?机器人学家 Matthisa Scheutz 提供了几个方案。 (一)严格地把某些道德价值「写入」机器人的程式当中,例如「诚实不说谎」。不过,这可能遭遇伦理学一直以来的重大困扰──道德价值排序问题:你让犹太人躲藏在你的家中,但当纳粹敲你家门追问是否藏匿犹太人时,你应该说谎救人还是据实以告? (二)让机器人与人类同样具有同理心,因此会「设身处地」感到违反道德价值的罪恶感,因而避免犯下诸如欺骗的行为。这或许是最为理想的状况,不过以目前机器人学的发展状况来看,这个方案或许仍需要一段不短的时间才可能实现。 (三)可能是目前最为可行的方案:在设计时,不只尽量避免拟人化,更要赋予机器人某些足以提醒人类「我是无生物」的特征。透过这样的方式,尽可能避免让人类不自觉地与机器人产生情感关系,从而避免相关伦理疑虑。总之,不论是以何种方式,现在已是必须思考这些问题与采取相关行动的重要时刻,唯有审慎因应可能的未来,才有可能拥有一个理想的未来。
參考書目:
Garreau, J. (2007, May 6). Bots on the Ground. The Washington Post.
Kahn, P. H., Jr., Friedman, B., & Hagman, J. (2002). "I Care About Him As a Pal": Conceptions of Robotic Pets in Online AIBO Discussion Forums. In CHI '02 Extended Abstracts on Human Factors in Computing Systems (pp. 632–633). New York, USA: ACM.
Turkle, S. (2012). Alone Together: Why We Expect More from Technology and Less from Each Other (First Trade Paper Edition edition.). New York: Basic Books.
喜欢本文吗?请点击下方的「喜欢」,也欢迎您打赏我哟!别忘了关注我的简书,或跟随我的 微博 或 Google+ 或 Twitter 或 Facebook,也可参观我的繁中博客 社技哲学,谢谢!