未来已来,当阿尔法狗战胜了李世石,人类在自尊心受到了严重的打击;阿尔法元通过36天的训练战胜了阿尔法狗,人类的自尊受到了第二次的撞击伤害。
为什么呢?第一次,阿尔法狗实现对人类棋谱的学习的基础上,战胜了人类本身;第二次,阿尔法元,是在通过跟阿尔法狗左右手的对弈学习,在没有棋谱的指导下,不依靠人类的指导和经验,仅凭自身算法强化学习,并且,只用了36天的时间。
说明了什么?说明了人类自以为几千年的智慧的结晶----棋谱,还是有很多的“杂音”,非理性,干扰,自欺欺人无时不刻的影响着人类,自以为“理性”或“智慧”“唯一的”的棋谱,上千年的 人类的“修炼”的“道”,还不如机器在自我学习的“黑箱”的36天便推翻了,并建立了新的战略,通过计算,还有比之前的棋谱有更好的棋法,不止于“棋谱”。“无字天书”比“如来神掌”更厉害。
这是一次人类智慧的“滑铁卢”,还是“敦刻尔克”?
阿尔法元告诉我们:棋局,只不过是一个需要计算的数学题,一切,无非计算!
我们自以为是的那种仙风道骨,松下对弈的“道”,竟然是一场千年的“装逼”?
棋有棋道,茶有茶道,还有拳道,剑道......难道在以后的未来,不过是一道道数学题?难道AI来到人间,一次次的击垮人类的自尊,是对人类“装逼”行为的一次次揭底或嘲讽?
“未来十年将有50%的工作职位被人工智能替代”(李开复语),这到底是天使还是魔鬼?无人驾驶的汽车很快就实现4级驾驶的落地,商用机器人,陪伴机器人即将迎来一个产业的爆发,给人类生活带来便利的同时,也给人类的就业问题和价值观带来考验。
然而,我们可以从人工智能的一系列运作中看到一些它的一些无法触及的部分:例如它需要一个“理想的环境”“制定好的规则”“非感性”。
“理想环境”:也就是你必须给机器安排在一个已经设定好的环境里面,它才能正常的运转,否则便失灵。在工厂的生产车间,在封闭的停车场,当然没有这种杂乱的环境或突然变化的环境,否则便不同。无人驾驶在最初的实验中曾经有一次在公路上撞上了一部货车,原因分析的结果是“货车车身的颜色刚好跟当时道路前方的天空颜色一样,机器无法识别出货车来”,环境发生变化,机器操作便失灵。同样对于在路边的小孩,机器是无法判断出他是否想横穿马路的,人有时候比机器敏感的多,或者说有更多的综合判断分析的能力,有时候会根据当时的环境马上就可以判断出对方的下一步行动以及采取的反应措施。
“制定好规则”:棋类是最典型的规则运作,包括按部就班的规范动作,还有违规,胜负的评定对双方的约定约束,有着严谨的标准,滴水不漏。即使显示还没有标准的判断,也必须制定出一套标准来。深度学习必须有这样的一个过程,机器每一次的学习结果,你必须给予评定是“好”还是“不好”,否则它就无法学习。即便是茶道的学习,例如你想做出一种泡茶的人工智能机器,你就必须对机器做深度的训练,在机器泡出来的每一次茶你都必须给予“专家级”的反馈,纠偏,是“正确”还是“错误”,然后它才能进入下一轮的学习。训练的结果就是你的(或者说一群专家的)味蕾。如果说你的味蕾不断地变化,或者专家不同对于评定结果有差异,无法给到权威性结果的话,那便无法做出理性的人工智能泡茶机。
“非感性”:有人说“情绪识别”已经除杂实验性阶段,机器很快可以从人的表情识别人类的情绪,从而做出的反应。是的,机器是很快可以做到这一点,但是你别忘了,这一切也是“计算”的结果。就像“机械姬”电影中的那个机器人,她可以利用人类的情感去“骗人”,“迷惑人”而达到她所需要的结果,这些都是“计算”的结果,然而对于新的条件或新的环境,她是无法“产生”情绪的,人类却不同。所以说,机器可以“识别”情绪,可以“计算”情绪,但无法“产生”情绪。也许在未来的社会,人可以跟机器“谈恋爱”,当“失恋”后,机器可以下一秒钟(可能不需要一秒)就“切断”跟你的感情,可你还是“一辈子念念不忘”。
所以,机器可以在既定规则和理想环境下完成计算,但是无法面对的是不确定的环境和没有规则的情况下产生文明。人类的文明可以!
人类可以对月怀古,感时伤逝,落叶悲秋,可以写出“感时花溅泪,恨别鸟惊心”的诗篇,机器,永远不会。
对于创造性,情感性的事和物,机器永远跟在人类的后面。
于是,我们以后可能会失去了“棋道”这种装逼的模式,但是我们还有很多机器无法(或暂时无法模拟的)“某道”供给我们去装逼:茶道,剑道,拳道......装逼,在某种意义上,是人类对某个未知领域的探索,研究和树立标杆。算法是理性的,“道”是感性意义上对理性的延伸和拓展。
未来已来,机器不会装的逼,我们要去装。
未来已来,我们一起去装逼。