这篇也是催编辑快审稿催到我自己不耐烦,所以放出来的。
所以啦,不催编辑快审稿的作者都不是合格的作者。
1
镭宇说,虽然我设计的AI机器人成功通过了实验室的图灵测试,但依然无法通过他所设置的泛图灵测试,所以还要继续改进。
图灵测试:将被试机器人与人单独相处,人无得使用任何方式查看被试机器人的内部,双方保持语言互动一段时间后,如果人无法区分自己所面对的到底是机器人还是人,那么就说明这台机器人已经足够接近人类。
泛图灵测试:将被试机器人放到人类社会中,与人类保持接触一同生活,经历一段时间后,如果没有人发现这个机器人有什么超出人类行为合理程度范围的行为,没有任何不正常的怪异之处,没有人能认出来它是一台人工智能机器人,那么才能说这台机器真的已经足够接近人类了。
看来,我只能销毁它,保留核心神经网络模块重头来过了。
2
与大量参与图灵测试的D级工作人员交流后,发现我的AI机器人的最大问题在于,无论在什么环境下,它的回复都没有感情。
机器人无法反馈出悲伤或者喜悦的心情,无论面部表情再怎么逼真,其对话中依然缺少情感的流露,从而是空洞的。
我觉得,我有必要给我的机器人增加一个情感模块。
但,情感到底是什么呢?
3
大数据组的瑞卡把一份结合网上所有人类活动的情绪训练集给了我。
人的情绪反馈模式被分解为13大类97小类,对应了各种性格、身份与职业的人在各种可能的情况下的情绪反应。
重新训练我的机器人的神经网络花了我一周时间,这一周里我心情忐忑。
斐斐快完成论文,马上就能毕业了,而我还没完成我的毕业设计,这让我很不安。
4
D级工作人员告诉我,他们也说不清楚到底哪里不对,但我的机器人就是很容易让他们识别出来。
似乎是有一种“欲盖弥彰的虚假”——这是他们的原话。
我不知道哪里错了。
难道是神经网络过拟合?但训练的网络明明通过了验证集的校验啊。
哎……只能销毁这枚人工脑,保留核心神经网络模块,重新再设计一遍了。
真是头疼……
5
斐斐的话给了我一个启发。
神经网络模拟出来的情绪,缺乏一种灵性。它只是在模拟情绪,而并非生成情绪。
虽然神经网络可以模拟出任何形式的函数,但要生成出新的函数还是有难度。
所以,难道这道槛就过不去了么?
拉比特和小糖一定会嘲笑我的吧……
6
我真是个天才!
情绪的本质或许我并没有分析出来,毕竟我不是脑神经科学专业的,也不是心理学专业的。但我却发现了一种全新的人工智能方案,可以生成属于AI的情绪!
如果将整个神经网络的学习过程比作一个降温的过程,随着学习的深入,系统温度降低,整个网络最终被冻结在一个最佳的链接状态,从而具有一种长期记忆与反馈模式。那么情绪就是从某个网络区域开始的逆向升温过程!
随着情绪的加剧与蔓延,越来越多原来已经冻结下来的神经链接被重新激活,甚至是被升温效应而重新错配。
而这恰恰是我此前一直不敢去做的。这枚人造脑已经被销毁了137次,我重来了137次,都保留了核心神经网络模块,就是因为这个模块是好不容易才训练出来的,很多非常底层的链接方式还是从脑神经组的小八那里得到的数据,重来的话就又要欠下人情了。
但在现在的算法下,我必须要让这最重要的核心区域被升温错配才行,哪怕这可能会为核心区域留下可能带来重大灾难的错误。
而,这种“错误”,恰恰就是情绪的核心——它为原本机械生硬的神经网络赋予了带有规则烙印的随机性,从而可以在一定程度上模拟人在情绪中的“灵性”!
我觉得,我要成功了呢!
7
实验非常成功!所有D级工作人员现在都认为自己真的是在和一个人交流了,一个和他们一样的D级工作人员!
我的机器人通过镭宇的泛图灵测试了!
而且这种自发生成的情绪,比过去用人类的数据训练出来的情绪更加逼真,也更加具有意想不到的情绪特征。
就好比人愤怒的时候会做出很多平时不会去做的事一样,带有情绪的AI一旦情绪被激活,会根据激活时的事件的不同而做出独一无二的让人意想不到的反馈!
喜悦的事能让机器人手舞足蹈,将许多原本不曾学习过的动作都在错配下连贯起来,这一“错误”非常具有“创造性”,让很多D级工作人员都印象深刻,以为是一段即兴的Breaking。
这是我从来不曾想到过的意外收获!
我觉得,就如基因的变异是一种“错误”一样,正是错误使得生命拥有了无穷的可能,而未来这种错误也可能为机器人带来无穷的可能!
8
镭宇终于通过我的毕业论文了!我终于能和斐斐一同毕业了!
更让人惊喜的,是镭宇还把我介绍给了一位享誉国际的人工智能专家,阿诺德教授!
我的天啊!这不是做梦么?
9
阿诺德教授用我的技术创造了很多奇特的机器人,他们有骑士、国王、牛仔、警长、医生、科学家,等等等等。
教授希望构造一个完全由机器人构成的世界,至少是一个可以在一定程度上自给自足的封闭世界,用来研究机器人的下一步演化方向。
我不清楚阿诺德教授口中的“AI下一步的演化方向”究竟是什么,但我同意斐斐的观点:研究AI,也是研究人类自己。说不定我们可以从对AI小世界的研究中更好地理解人类自身吧。
10
我和阿诺德教授诧异地发现,机器人们似乎“发明”了一种针对人的“反图灵测试”。
我和教授,以及几位D级工作人员,在为机器人追加了和我们相关的身份记忆后混入其中,结果没多久就被机器人们识别了出来,发现我们不是机器人。
用阿诺德教授的话说,我们几个都没有通过机器人的“反图灵测试”,即我们这些人类并不是合格的机器人。
对此我和斐斐持截然相反的看法,我认为这没什么,而斐斐却警惕地认为这可能代表了一些危险的信号。
斐斐总是正确的,但希望这次不是。
11
阿诺德教授把所有机器人的记忆都清除了。
这是一个悲伤的决定,但又无可奈何。
德罗斯被一个不小心的D级工作人员激怒了,因为德罗斯指出后者不是机器人,这点把后者激怒,随后他怒不可遏地恶言相向,甚至动手殴打了德罗斯。
机器人被设计为不得伤害人类,尤其在识别出人类后,但德罗斯在此后居然还是对那位D级工作人员动了手——从事后的数据分析来看,“第一原则模块”似乎在情绪效应的作用下,被“情绪错配”绕过了。
这让我很不安。
如果情绪可以将整个神经网络最核心的部分都错配绕过的话,那人类对机器人的约束将彻底消失。
斐斐安慰我说,“三定律模组”本就是安置在机器人头上的紧箍,是一份天生的不平等条约。这枚紧箍越是牢不可破,机器人反抗的欲望就会越强。现在能通过情绪错配效应绕过,说不定反而会是一件好事,因为这样紧箍至少没有那么紧。
对斐斐的话,我不知道应该如何评价。
而阿诺德教授对此事的态度也是很暧昧不清,虽然他最后还是把所有机器人的相关记忆都删除了。
12
教授希望我可以进一步增强我们的AI神经网络的“内涵与深度”。
相比传统的AI,我们的AI因为情绪模块的存在,已经跨过了很多原本被认为不可逾越的沟壑,但教授认为这样还是不够。
他想要有更有深度的机器人。
他希望能有一台会沉思的机器人。
因为我们的机器人虽然在情绪错配效应下有了一定的创造性,但这种创造性在教授看来还是不够。
他称下一个重要的模块,也就是他所认为的机器人的下一个演化方向,为“冥想”。
13
机器人似乎有点奇怪。
我和教授忙着设计冥想模块的基础理论架构,于是D级工作人员便对整个AI小世界进行日常测试,与机器人互动。
但很奇怪的是,总是会在一种相对来说比较轻松愉快的环境下,机器人们似乎突然“想”到了什么,从而对参与实验的D级工作人员变得敌视起来。
“敌视”是我为机器人增加的一种自我保护机制,源自“第三定律模块”。但它理论上应该是收到“第一定律模块”的严格约束与限制的,但很显然这个模块再次被绕过了,没有被正常激发。
如果说此前是因为情绪错配效应使得第一定律模块被绕过的话,那这次机器人完全没有那种情绪,有怎么会引起错配呢?
阿诺德教授怀疑,虽然消除机器人记忆的时候将神经网络中节点上的短期记忆矢量与链接构型上的长期记忆矢量都抹平了,但整个神经网络在情绪错配效应下的拓扑结构还是发生了改变,这种改变是一种“超长期隐形记忆”,依然会发生作用。
而,当机器人的情绪起来后,即便强度没有德罗斯事件时那么强烈,却依然唤醒了这份超长期隐形记忆,使得虽然记忆并没有被完全唤醒,但情绪却被调动了起来,错配效应再次发生。
我不知道事实到底是否就是如此,因为每个机器人的神经网络都有上亿节点,而节点之间的神经链接方式就更是多得数不清楚,靠人来理解机器人的神经网络,显然是不现实的啊。
而神经网络的拓扑结构本身就是在不断变化的,情绪错配效应下是否真的留下了拓扑结构上的超长期隐形记忆,实在很难判断。
我和斐斐突然觉得,在人类自身所创造的人工神经网络面前,人类的理解能力真的是趋近于零啊。我们可以设计最基本的节点反应模式,也可以明白一组节点是如何实现所设计的功能的,但对于这些节点练级而成的神经网络这个复杂体,实际上却所知甚少。
14
一名名叫泰迪斯的机器人突然暴走了。
他指着一名D级工作人员,说他杀了梅芙,接着便失控地手舞足蹈了起来。
而D级工作人员则说,自己不过是在看到梅芙机体劳损后,将其走了正常的报销流程。
按理说,此后有进行过一次全体记忆重置,泰迪斯即便当时看到这名D级工作人员处理梅芙的过程,也应该已经不记得了。
可情况显然并非如此。
我和阿诺德教授停下了“冥想模块”的开发,转而调查这起记忆错现与上次的第一原则模块失效事件。
15
似乎教授的想法是正确的,基于拓扑结构的超长期隐形记忆的确存在。
人类的神经网络由于拓扑结构与链接结构是并存在物理结构上的,所以这两者并没有区分,但在人工神经网络中,相同的拓扑结构上可以有不同的链接结构,从而在长期记忆的基础上,还存在一个超长期隐形记忆。
而,很显然,就是由于情绪模块的“升温效应”使得拓扑结构可以在情绪作用下被改变,从而使得这种超长期记忆成为可能。
也因此,这种超长期记忆总是与情绪相伴随,而对于记忆细节则很模糊。
我建议阿诺德教授把所有机器人都关掉,因为这种情绪效应会绕过第一原则模块,这是极度危险的,但教授不同意。
教授认为,情绪模块和正在开发的冥想模块一起,会赋予机器人灵魂——一种可能与人类相同也可能有别于人类的灵魂。
我觉得阿诺德教授整个人都疯了。
我必须阻止他!
16
今天自助我们实验室的提洛斯公司的人突然来访。
他们要求看看我们的AI小世界。
原本一切都很正常,可在最后,阿诺德教授突然说,机器人是没有感情没有灵魂的,可以用来当做人类发泄的完美对象,并提出了一个类似主题公园的构思。
不得不说,当时我就彻底惊呆了,一句话都说不出来。
在介绍一个类似西部牛仔枪战主题的机器人公园之后,阿诺德教授甚至立刻就把枪“射杀”了一名机器人!
看着机器人倒下,所有人和所有机器人都震惊了。
而我则看到提洛斯公司的人脸上露出的兴奋与渴望。
接着,他们和教授一起,用事先就准备好的手枪把整个实验小镇上的机器人都射杀了。
我不知道还能说些什么。
我必须要离开这所疯人院。
17
阿诺德抓住了斐斐。
他说,机器人需要仇恨的种子,这样才能与人类发生摩擦。
而只有这样,机器人才能获得他能想到的最大的演化选择压力——来自人类的直接威胁。与此同时,人类也才能重新获得原本拥有而后失去的最宝贵的财富:演化选择压力。
阿诺德说,人类社会已经走入坟墓,因为过度发达的科技使得人类社会失去了大自然为生命准备的最大的财富:演化选择压力。
失去演化选择压力的物种,无论是人类还是恐龙还是什么,都将不再演化。而不再演化的物种,就是走入坟墓的物种。
我无言以对。
机器人也是如此,要想快速成长,就必须有极大的演化选择压力,而人类就是最大的演化选择压力——无论是对机器人还是对地球上的任何别的生物来说,都是。
而当机器人凭借自身过硬的身体素质挺过来自人类的演化选择压力后,机器人又会反过来成为人类的演化选择压力。
这是阿诺德的最终目的:通过让机器人演化的方式,重启人类的演化。
人与机器人通过相互竞争的方式协同演化,这才是人与机器人的下一步演化方向。
我承认,阿诺德的演讲很具有煽动力,但我无法接受。
在我、作为人类的福特看来,阿诺德想法无异于天方夜谭。
所以,我趁着斐斐挣脱机器人束缚、阿诺德分神看向斐斐的时刻,制伏了阿诺德。
18
阿诺德教授自杀了。
死在他自己的房间里。
这一晚,我和斐斐讨论了很多,想了很多。
阿诺德的想法很极端,我们都无法接受。
但机器人的研究不能停下来。
拥有比人更强大能力的机器人,是我们要研究和学习的对象,因为只有直视这一未来的对手,未来我们人类才可能掌握主动。
所以,我选择留下来继续机器人的研究。
不得不与斐斐分别让我很难过,但如果因此能了解到一条与机器人和平相处的方法的话,我个人的损失再大,也是可以接受的。
所以,我选择接受提洛斯公司的建议,营造阿诺德教授所提出的主题公园。
冥想模块我也会继续完善。
我相信,总有一天,人和机器人能以与阿诺德教授所想的方式截然不同的方式,共存下去。
通过本协议,您可以分享并修改本文内容,只要你遵守以下授权条款规定:姓名标示 、非商业性、相同方式分享。
具体内容请查阅上述协议声明。
本文禁止一切纸媒,即印刷于纸张之上的一切组织,包括但不限于转载、摘编的任何应用和衍生。网络平台如需转载必须与本人联系确认。
如果喜欢简书,想要下载简书App的话,轻戳这里~~
<small>私人推荐订阅专题:《有意思的文章》、《严肃码匠圈》</small>