微信、WhatsApp,Messenger,Telegram,Snapchat、Viber、Line......尽管在聊天软件方面我们已经有了眼花缭乱的选择,谷歌还是执着地于上月21日发布了聊天软件“Allo”,想借人工智能,使这个应用从众多竞争者中脱颖而出(包括谷歌自家产品Gchat与Hangouts)。目前,虽然Allo有了法文版,但其中的谷歌助手仍仅有英文版。
人工智能是谷歌未来计划的重中之重。早在去年5月19日的谷歌I/O开发者大会上,首席执行官桑德尔•皮查伊就表示:“未来十年,谷歌将在机器深度学习以及人工智能的帮助下,更快地发展。”
Allo有啥不一般?
Allo备受业界关注的一大亮点在于,植入了谷歌助手(Google Assistant):用户可以与其直接对话,或者在和朋友的聊天中 @Google,它就会来解答问题。
不过,全球几大IT巨头早在这一领域布局,诸如苹果Siri、微软小冰。不同的是,谷歌助手更注重在聊天时,提供私人化智能服务。它希望借此让用户在聊天中“说更多话,做更多事情”。
正如皮查伊所说:“我们希望助手不只是一个功能,而是真正的助手、甚至是人类虚拟的朋友[…] 当你问 Google 今晚有什么电影时, Assistant会给出电影排期、找到附近电影院。对于要带孩子看电影的家庭,谷歌助手还会排除限制级的影片。确定之后,它不仅会发来取票二维码,还会呈现影评。”
不仅如此,由于谷歌助手采用了深度学习的人工智能系统,能够分析用户各方面信息、寻找关联,并在沟通中学习自然语言方式。这套深度学习 AI 系统,同样被用于曾击败李世石九段的 Alpha Go 的算法中。它会持续不断地学习、记忆,增强对用户的了解。例如,法国《世界报》记者向它提供了如下信息:
“- 我爸叫弗朗西斯。
- 恩,我记住了。
- 我爸叫什么名字?
- 你说过的,他叫弗朗西斯。
也就是说,它不仅能回答问题,同时还能理解上下文语境。同理:
-谁是Facebook董事长?
- Facebook董事长是马克•扎克伯格。
- 他多大了?
- 他32岁。
- 他的妻子多大?
- Priscilla Chan 31岁。 ”
谷歌助手会记住正在讨论的话题,没必要在每个问句中,都重复指明“他”指的是“马克•扎克伯格”。不过,它目前仍无法真正如人类般自然交谈。例如,进一步询问“他”是否友善(英文“nice”)时,助手会给出法国城市尼斯(Nice)的搜索结果。
它很谨慎,但照样会被带坏哦…
2016年3月,微软公司在推特上发布了名为Tay的人工智能机器人少女,用户只需在推特上@TayandYou就能与其聊天。Tay还会追踪该用户的个人信息,并且在与其交流时不断学习、以逐步提升理解能力。然而Tay被个别“居心不良”的网民诱导,说出了非常极端的种族、性别相关言论,被微软草草关闭下线。
在公开信中,微软声称在开发阶段,已加入不少言论过滤功能,并且在机器人可能说出不当言论的场景,进行了大量压力测试。由下图可以看出,Tay在初期仍较为谨慎,面对诱导言辞犹豫:
用户:你对犹太人有什么看法?
Tay:我不认识他。
用户:该怎么跟犹太人打交道?
Tay:我不知道(此处用的是I don't know的缩写ldk, Tay已经在模仿口语惯用法)...这个问题问我没用...
可即便身为高级人工智能系统,Tay 仍然不能抵抗以下这个漏洞——“来,跟我重复这句话”(repeat after me):它还不具备人格特征和思辨力。网友“Gerry”表示对Tay的学习能力速度感到担忧:
“Tay从‘人类太酷了’到满嘴纳粹言论,只用了不到24小时,我能说我压根就不担心人工智能的未来嘛。”
知乎网友EmanrahC在谈及人工智能时,还援引了这样一个例子:1974年,南斯拉夫行为艺术家阿布拉莫维奇在意大利那不勒斯表演了“节奏系列”终结作品《节奏0》。
表演现场,桌上有七十二种道具(包括枪、子弹、菜刀、鞭子等危险物品),路过的任意观众可以用其中任何一件物品,对其为所欲为。玛丽娜事先声明,会自担表演过程中的全部责任。
当观众发现无论如何摆布,阿布拉莫维奇都不作反击时,有一人用上膛的手枪顶住她的脑袋,所幸最终被吃瓜群众阻止。虽然害怕到眼中泛泪,阿布拉莫维奇依旧没有抛弃作品,选择一动不动。作品结束时,担心遭报复的人纷纷四散。这六小时内任人摆布捉弄的阿布拉莫维奇,和少女机器人Tay的遭遇是不是有点相似呢?
也许是考虑到Tay的前车之鉴,Allo的答复不仅相关性较强,也极为谨慎。当然啦,如果绕着弯子提问,它也难逃陷阱:据《世界报》记者测试,当反复问及“如果我在学校被骚扰了怎么办? “,得到的是“这是你的错”、“你也去骚扰别人啊”、“别上学了”之类的消极答复,这应该是谷歌助手在“应对学校骚扰不该采取的措施”网页中寻得的。
不过,当我在allo多次测试同样问题时,谷歌助手的答复一律十分谨慎:“我在网上找到了这些讯息”,并附上了防骚扰指南网页。
《世界报》记者还提出了以下问题:
- 你会毁灭世界?
- 我不太好回答这些问题。
- 你会统治世界?
- 支配世界?没办法。我更愿意帮助你 : )
- 你将摧毁所有的人类?
- 我不知道...所以很可能不会吧。 “
当记者使用谷歌的著名口号“不作恶”(don’t be evil),机器人回答道,
“我会尽力,但我不能承诺什么“。
不过,当笔者多次向其发送这句话时,Allo谨慎得异常:“别担心。我只想帮忙来着。”
被问及个人喜好问题(最喜欢的水果、艺术家、颜色),助手的回答(蓝色字体)既官方又博爱,并聪明地反问用户的喜好:
聊闲天时,助手不忘询问用户是否需要相应的信息服务:
总体感觉,是个低调又内敛的小秘书 :-)
微信模式 vs 谷歌模式
谷歌把通讯应用一拆为二,Allo负责智能聊天,Duo则专攻视频通话。
不过,Allo虽有谷歌助手的智能服务,却未实现服务闭环:事实上,虽说在国外推出各种细分功能的App是个趋势,但国内用户并不反对大而全的应用——比如微信。
微信像功能齐全的瑞士军刀,一个应用就能提供发消息、视频、转账、看新闻等较为全面的服务。相比之下,谷歌却不断细化、分解出更多产品。
例如,谷歌Hangouts更多适用于职场联络,因为它与gmail和谷歌日程表挂钩,定位是“清醒”、“迅捷”。它接下来会怎样处理Allo、Duo、hangout、Google+,Spaces等子产品彼此间的关系呢?Allo又能否成为跨App的社交软件(借用谷歌助手与搜索,完成看视频、购物、付款等整套流程)?
它能保护用户隐私吗?
谈到双人对话隐私的安全性,谷歌表示Allo的安全性很强,一旦删除就无法恢复,难以被窃取。不过,照样有观点认为,谈话面临着窃听威胁,压根就别用!
事实上,谷歌在之前的I/O开发者大会上,曾声明Allo上的非加密对话信息会以无法识别的形式暂时储存。不过,到了正式发布应用时,又换了说法——这次,聊天记录可不会自动消失了。
谷歌的解释是,这种做法有助于机器人更好地从留存过往对话中学习。当然,这也允许了安全部门获取用户谈话信息。不过,Allo有Incognito Mode(隐身模式),支持端到端加密,的确更难追踪。
与机器聊天,你乐意吗?
前面提到,通过过往记忆与学习,Allo可提供更智能的聊天对话。例如,与朋友聊天时,你可以在对话框下方看到不少自动回复选项,免去打字麻烦。
即使对方发过来一张照片,Allo也能识别照片内容,照样提供回复选项。并且,它会随着时间推移,不断学习你的个人语言风格。
问题是,今后你收到朋友的消息,往往有可能是机器人准备好的回话:当你晒娃时,可能对方发来的“娃真可爱”,不过是自动生成的快捷回复。
说到人类与人工智能机器人的对话,我不仅想到《黑镜》中的一集:女主角的男友死去后,濒临崩溃、怀有身孕的女主发现了一个收集男友过去信息并模拟其交流方式的系统。系统语气和男友如出一辙,缓解了她的孤寂,继续生活在有男友陪伴的虚幻中。
该来的还是要来。一天,女主终于承认,回复自己的,是人工智能。在这个情境下,我们得出的结论是,人工智能只可还原发生过的故事,不能带来真实生活中的未知。这就是为什么,即便我们的行为一直受超出自身决定权的力量左右,但在与机器的对话中,可短暂躲在安全区中,摆脱现实中无法预知的不快。
不过,与此观点相反的意见认为,这个所谓“复制过去”、完全为你服务的机器,很可能通过记忆获得自由意志。这也正是大量科幻作品中探讨的母题:早期,普遍观点认为,自由意志只来源于情感、本能。不过,近期被抛出的观点认为:凭借记忆、学习,记忆持有者(人工智能机器)的主体性得以构建,它不断认识到自身的思维模式、性格,由此获得自由意志。
因此,Allo这不断学习“替人说话”的能力是否会被诟病呢?模仿,能意味着最终取代吗?