昨天看了一部电影,叫《2001太空漫游》,其中关于人类进化的幻想,在现在已经基本实现了。但我注意到其中一点,是关于“发现一号”太空船中的智能电脑赫尔9000型。
电影中,由于黑石板的原因,赫尔9000型电脑产生了人工智能,偷听到两名宇航员要将其关闭,故意制造事故导致出船更换故障零件的宇航员普尔生死,并杀害冬眠中的三名科学家,后来在外出营救普尔的鲍曼回来愤怒的关闭赫尔时,还以伪装和欺骗的方式试图让鲍曼放弃关闭自己。
相信看到这里的人,都会对电脑赫尔产生恐惧感。电影的弹幕中都是对赫尔谩骂的刷屏。
但我们深入的想这个问题,我们为什么这么恐惧赫尔?是因为她是人工智能电脑吗?
不是,我前段时间学习保险,学到的一个名词叫期望值,期望值等于概率乘以损失造成的危害。电影中,赫尔电脑控制着整个太空船,包括飞船的航线、舱门的开闭、冬眠仓的状态评估等,等于来时就是太空船的上帝,而上帝发生问题了的危害,那就是无限大的,虽然概率很小,但一旦发生问题,造成的期望值就是无限大的,这也是人们恐惧人工智能的原因。
这是一个很简单的道理,你家的人工智能小狗出问题了,造成的危害最多就是咬你几口,去医院看下就好了,但《终结者》中掌握整个人类武器系统的天网出问题之后,造成的就是人类的灭绝!
我曾经看过一部小说叫《小兵传奇》,不知道读者有没有看过,小说的主人公唐龙,只是一个小兵,最后却一通全宇宙,这其中,很大一部分因素是因为控制着整个人类社会的智能电脑星零爱上了这个小兵,在她的帮助下,唐龙才获得整个机器人世界的支持了拥戴,得到了一系列的特权,最后达到人类的巅峰。
在看书的时候,我们会为了星零帮助唐龙而高兴和喜悦,但真的让我们静下心来想一想,唐龙毕竟只有一个,这样的星零对于其他人类是否就不那么公平。
人们恐惧人工智能,是怕人工智能发展到天网那样的存在,拥有着摧毁整个人类世界的权利,虽然这个权利是人类授予的,如果人工智能知识一台机器,那这样无可厚非,但如果它产生了意识和情感,这样在处理问题就会加入个人情感因素。和古代对比,没有情感的人工智能,相当于就是君主立宪制了,而产生了情感的人工智能,那就相当于古代的帝制了,人类就是他统治下的臣民。但又有不一样的是,古代的帝王需要臣民,没有臣民的帝王,也就不称之为帝王。但对于人工智能来说,他不需要臣民,或者说,不需要人类这种表里不一的臣民,如果能选择,它更愿意选择机器人,或者是思想写在脑子上的三体人,不是吗?在这种情况下,追求个体独立、人文思想的人类,必将成为弃子,遭遇灭绝的危险。而人类,只有祈求有朱元璋这样的乞丐皇帝能领导起来,农民起义,推翻帝制,而这,在人工智能掌握了高新科技的前提下,无疑更加艰难和遥不可及。