最新进展
传递迁移学习
在传递迁移学习框架中,我们需要通过一个或多个中间数据所拥有的知识,将两个不相关或是弱相关的源数据和目标数据联系在一起,形成一种知识的链式迁移。其针对的源数据和目标数据包括文本和图像数据,还包括属于同一类型但是语义完全不同的数据,通过联合矩阵分解或是深度神经网络等方法实现相互连接的具有弱相似性的知识迁移。目前已经有研究通过传递迁移学习实现了飞机图片和人脸图片这种弱相关的数据之间的知识迁移。传递迁移学习不仅冲击了传统迁移学习的约束,也为数据难获取,或数据量有限的小样本数据学习创造了新的技术视角和新的可能。
深度迁移学习
深度迁移学习将深度学习与迁移学习结合起来。通过对深度学习模型的研究,人们发现对于相似的学习任务,虽然模型的最终目标可能不同,但模型前几层却常常具有相似的功能。这种相似的功能显示了深度学习模型前几层具有的可在多种目标数据间迁移的通用性。利用深度学习这一特点设计的迁移学习技术,一般被称为深度迁移学习。
图像识别是深度迁移学习的典型应用。针对不同图像识别任务(如车辆识别、人脸识别等)训练的深度学习模型,其前几层均有提取图像纹理的功能,而对图像纹理的有效提取则是各类图像识别任务的共同基础。因此,当需要进行某类图像识别任务而缺乏足够的支撑深度学习技术的大量标注数据时,可将用于识别其他类型图像的深度学习模型迁移过来。例如,2017年发表在《自然》杂志的一项成果,就利用了基于128万余张涉及千余类物品的图像训练的深度学习模型,通过深度迁移学习技术,仅用12万余张标注的皮肤癌图片,就训练出了优于人类专家的皮肤癌识别模型。此外,深度迁移学习在时空预测等领域也有应用。例如,预测城市交通状况是智慧城市管理的重要基础之而一些欠发达城市缺乏足够的数据支撑深度学习技术的应用。这种情况就可以使用深度迁移学习,将在其他发达的、数据丰富的城市学习到的深度模型迁移到数据缺乏的城市中去。
终身迁移学习
终身学习(lifelong learning)是一个非常吸引人的新领域,它研究一个智能系统如何处理不断到来的各类任务,从而实现终身不间断的学习。而终身迁移学习则指在终身学习不同任务的过程中自适应地使用各种迁移学习技术来提高终身学习的有效性。然而,传统的迁移学习都是由人来确定使用哪种迁移学习算法。一个终身学习的智能系统可能会面临各种需要迁移学习的场景,而不同算法也有各自擅长的领域,无法一概而论。同时,我们也不希望有太多的人为干预,不必每当遇到新的场景,就由专家来指导智能系统该选用哪种算法。这就促成了自迁移学习(learning to transfer)的诞生。
自迁移学习是一种能由算法自主选择用什么来迁移以及如何去迁移的框架。它的核心思想是从过去已经实施过的一系列迁移学习任务中学习总结经验,并把这些经验应用到未来可能出现的迁移学习任务中。自迁移学习旨在从过去的经验中学习两件事:一是源数据和目标数据之间的差别对提升迁移学习效果的影响;二是目标数据的判别力强弱如何反映迁移学习的效果。当我们遇到新的数据时,只要计算出了上述两个衡量标准,就能推算出使得提升效果最大化的迁移学习策略是什么。如此一来,智能系统只需要预先学习少量知识,便可以在无须专家的帮助下自主进行有效的终身迁移学习。
迁移强化学习
迁移强化学习指的是把迁移学习的技术应用到强化学习的智能体训练过程中。强化学习本质上是一种学习从环境到决策的映射从而使效益最大化的方法。目前,强化学习的研究面临着多重挑战,如难以从环境中获取足够反馈,以及面对复杂任务或多项任务时的糟糕表现。而迁移强化学习从源任务选择、知识迁移、任务映射等多个角度对解决这些问题产生了至关重要的影响。
迁移强化学习的应用十分广泛,例如任务导向型的对话系统。任务导向型的对话系统正在成为智能语音交互领域的一大热门,京东智能客服、谷歌语音助手都属于这一范畴。它可以被看作是一个以用户满意度最大化为目标的智能代理,因此用强化学习的方法来训练模型是合适之举。然而,每个人的对话习惯各不相同,这使得大样本数据的分布很不一致。搭建个性化的对话系统是一个很好的解决办法,却又面临数据量不够的问题。迁移学习的介入有效地解决了两者之间的矛盾。它把其他所有人的对话样本看作源数据,把当前用户的对话样本看作目标数据,先从广泛的大众群体对话中学习出一种通用的策略,再利用当前用户的对话数据使得策略精益求精,从而满足个性化需求。
众包迁移学习
众包迁移学习(crowd transfer learning)是迁移学习与群体智能技术相融合的新产物。目前众包已经被广泛应用在人工智能领域以获取足够的标注数据,但众包模式存在着高延迟和质量差距较大等诸多问题吗。在此基础上提出的众包迁移学习通过网络群体获取数据,采用知识迁移来提升数据质量和数据规模,降低数据获取成本。
众包迁移学习作为数据挖掘和人工智能领域一种全新的数据处理模式,其在数据集成、数据清洗和数据标注方面都有较为典型的应用。在传统众包场景下其任务的参与者往往良莠不齐,任务难度也不尽相同。如何判断任务的完成质量,推测任务的真实结果是众包迁移学习的研究热点之一,而交叉任务众包的提出是众包迁移学习的一个典型范例。该方法将历史任务的完成质量通过知识迁移的方法迁移到正在进行的任务上,并利用概率图模型推断出新任务的完成质量。这种方法在数据清洗与降噪上取得了良好的效果,也使得众包数据集成的结果变得更加可靠。
对抗迁移学习
在建立一个基于迁移学习的舆情分析模型时我们可以利用领域的相似度来建立一个共有关键词库:一方面可以帮助在源领域进行分类,另一方面又与目标领域具有共性,也很难利用这些关键词来区分两个领域。这一迁移学习的思想可以用生成式对抗网络GAN(Generative Adversarial Networks)来建立。在我们的工作中,挑选关键词时,首先考虑提高源领域的模型准确度,然后尽量降低这些词对两个领域的区分能力,通过互相对抗的过程做到端到端的学习。经实验验证,这些共有关键词可以很好地解释舆情的取向,为模型提供了良好的可解释性。