苹果对 AI 技术的重视已经变得人尽皆知,所以在今年的 WWDC 大会上它推出了所谓的 Core ML。然而即便只是这样的新特性,还是吸引了怀疑的目光。
简单来说,Core ML 是苹果在今年的 WWDC 开发者大会上推出的机器学习框架。它能够让开发者以尽可能简单的方式将 AI(人工智能)模型以各种不同的格式,集成到自己的应用中去,让它们实现计算机视觉、自然语言识别、图案识别等高级功能,而开发者本人不需要很多的 AI 相关知识。
分享之前我还是要推荐下我自己建的iOS开发学习群:680565220,群里都是学ios开发的,如果你正在学习ios ,小编欢迎你加入,今天分享的这个案例已经上传到群文件,大家都是软件开发党,不定期分享干货(只有iOS软件开发相关的),包括我自己整理的一份2017最新的iOS进阶资料和高级开发教程,欢迎进阶中和进想深入iOS的小伙伴。
为了保证用户的隐私能够得到保护,Core ML 的一切处理都是在本地进行的,这意味着你的数据不会被强制发送至云网络中,被苹果或是其他第三方收集。不过就算是这样,仍然会出现怀疑的声音。
哥伦比亚大学一位名叫 Suman Jana 的安全隐私研究员近日质疑 Core ML,认为它的存在会导致用户更多的隐私暴露。他表示,大多数机器学习模型都是无法人为解析的,而且很难对它们进行各种极端状况下的测试。所以,App Store 在审核应用时,比起那些不使用 Core ML 的应用,它更难“看穿”Core ML 应用。如果一个通过 Core ML 建立的模型有意或无意去泄露隐私信息,App Store 很难发现将它拦下。
这位专家举了一个例子:“像是那种照片滤镜或编辑的应用,它会向你请求访问相册的权限。一旦获得许可,如果该应用的开发者不怀好意,那么它就能够利用 Core ML 来探明你照片的内容,并试图提取重要的信息,比如你使用的产品,你喜欢的活动等等。”他认为,即使开发者没有很大的恶意,他也会根据这些信息向你投放对应的广告。
问题就在于,发生这样的事情,你很难说这锅就应该由 Core ML 来背。在没有 Core ML 的时候,任何第三方应用要访问用户的相册时,也仍然需要请求权限。高明的恶意软件能够说服许多用户开放这些权限。即使没有基于本地的 Core ML,在用户主动开放权限,系统安全实质上变得更脆弱的时候,攻击者能很轻松地利用服务器端的机器学习模型来获取用户信息。这些都不是很新鲜的技术了。
很重要的一点在于,那些 Core ML 本来就不能直接访问的数据,任何应用也都不能访问。
在这一点上,一位名叫 Will Strafach 的 iOS 安全专家说得更明白:“Core ML 可能会被滥用,但那也是在应用已经获得完全的照片权限之后的事情。所以如果它们想要窃取你的照片或照片数据,那就意味着你已经同意了这些应用所有的权限请求。”
换句话说,无论 Core ML 的有无,类似的技术都已经存在,并不是说 Core ML 的出现才会导致类似的隐私信息泄露。很多时候人们的质疑,更多是因为本能的对新技术的不信任。如果说在过去这样的隐患都没有闹出大问题,Core ML 时代也不大可能会因此出事。当然最重要的,还是我们自己要注意那些可疑的迹象。