对于一个正在学习深度学习的人, 今天看到Hinton的上面言论, 心中无疑是五味杂陈的。
Hinton最近提出了“深度学习要另起炉灶,彻底抛弃反向传播”, 一时激起千层浪, 李飞飞等人标识赞同.
Hinton针对人工智能的瓶颈, 提出了capsule的概念。Hinton大神认为其提出的反向传递算法, 在生物学上很难成立, 生物神经网络也不可能存在人工神经网络那么多层级, 需要那么多层的时候, 生物神经网络的速度也跟不上, 借鉴大脑皮层中普遍存在的 Cortical minicolumn 的柱状结构内部含有上百个神经元,并存在分层
, Hinton 模仿 mini-column 提出了对应的人工神经网络结构。 对应论文为 Transforming Auto-encoders
Hinton指出CNN中池化层的很多缺点,提出Capsules。
这是 Hinton 最近被 NIPS 接受的关于 **Capsules **论文 Dynamic Routing between Capsules (未发表) 。其在 MNIST 上非常成功,识别率达到了新高,同时解决了CNN难以识别重叠图像等问题。
机器学习不是仿生, 但是确实现在大脑做得比深度学习好, 度量的标准不只是静态的识别率, 还包括普适性, 学习的难度(人脑学习使用的样本数量比较少), 所以先看看Cortical minicolumn是个什么东东。
查了下, 能找到的解释相当少。
关于人工智能的未来和方向的思考, 也提到了周志华老师的学件:
周志华:关于人工智能的探讨
周志华老师关于学件的思考, 更多的思考了当前人工智能的瓶颈, 数据分享困难、模型适应性差、黑盒模型导致解释性很差, 提出了学件的概念, 通过分享数据训练出来的学件, 而不是分享数据本身来让大家不用重复造轮子;学件是可解释的, 整个模型的解释性更强;学件可演进;
同时提出了一个学件市场的概念。
人工智能的发展, 将来模块化的可能性还是非常的大的, 所以做个人工智能模块市场的可能性也非常大。说不定是个不错的创业方向:)
从机器学习的优化方向上来说, 现在模拟大脑是个重要的方向,按照KK的理论, 整个科技都算一个超生物体, 是不是当计算量充足或者算法和思想突破的时候, 模拟整个社会或者整个文明, 也是一个方向呢?
关于人工智能未来的可能性, 是否存在于一种算法, 类似于大自然的演进一样, 让我们能够使用算法本身来演进算法, 最后不停的得到一个优化的算法, 不过估计这种演进需要的计算量不是一般的大, 因为搜索空间实在太大。那么我们是不是目标就是, 设定一种相对廉价的方法, 在巨大的搜索空间中找到局部最优甚至全局最优点呢?
说不定整个地球就是一个算法演进试验场, 外星人不时来收割一下算法, 当有一天外星人觉得文明跑歪了的时候(恐龙文明), 就重新设定一下就好了。
扯远了, 无论如何深度学习还是有其优势的, 至少在推荐算法, 处理大数据方向(当然这个可能是计算机的速度决定的), 还是非常先进的。
继续坚定的学习, 才是王道。