Meta-Learning with Adaptive Hyperparameters归纳笔记

链接: https://arxiv.org/abs/2011.00209


从基于梯度的元学习入手, 这篇文章将重点放到了inner-loop optimization的过程上.

以往基于MAML的工作大多都是面向不同的任务, 寻找一个合适的初始化值. 然而这篇工作主要通过调整inner-loop optimization来改善元学习性能.

具体方案为采取一个额外的模型g, 以base learner的参数和inner loop optimization中的梯度作为模型输入, 输出梯度更新中的学习率α和权重衰减参数β(也就是l2正则项求梯度后再整理得到的θ前面的系数).

i是第i个任务, j是第j次更新

模型g的训练就是在outer-loop上用不同任务通过inner-loop finetune后得到的loss更新.

Φ是g的参数

文章细节和总结

首先出发点来说这篇文章是比较新的, 但是这个出发点不算是凭空出来的, 作者Sungyong Baik之前有一篇工作learn2forget, 也是在inner-loop optimization过程中引入模型作优化, 取得了不错的效果. 可能在此基础上, 他才锚定了inner-loop optimization的基础优化过程, 进一步提出了本篇工作.

本篇论文核心想法和设计框架都比较简单, 不涉及理论, 是一篇以实验为主导的论文, 论文正文就4面半, 剩下实验又写了4面半.

简述论文思想:

传统的基于梯度的元学习在学习过程当中分为外循环和内循环. 内循环更新方式大部分都是卡死的例如采取SGD更新base learner, 不会针对不同任务做出调整. 另外有针对任务做出调整的, 但是采取的是直接输出更新后模型参数的方法(也就是Model-based meta-learning). 那么这篇论文就是取道中间采取一种按传统梯度更新公式来, 但是又考虑了不同任务的更新策略. 

这种更新策略说白了, 就是通过学习率和权重衰减参数两个超参来影响更新过程, 而这两个超参由单独的模型g另外根据任务生成(实际上是基于base learner的参数和反馈的梯度, 直觉上这两个组合起来应该可以反应出特定任务信息, 但是严谨的对等或等价证明有待考证). 通过模型g, inner-loop optimization的每一个任务的每一步更新都会产生新的学习率和权重衰减参数. 

模型g, 文章中采取的是三层感知机每层加ReLu. 模型具体输入为base learner每层内的参数和梯度求均值, 那么n层base learner最后得到2*n个输入值. 三层感知机隐藏层大小和输入一样. 最后输出也是2*n, 分别代表base learner每层参数更新会采用的学习率和权重衰减参数. 所以base learner同一层参数在每一步更新中采取的是同一个学习率和权重衰减, 而不同层之间则采取不同的学习率和权重衰减. 

实验部分:

大体上分, 该篇文章做了6组实验(3组有效性证明+3组消融):

一, ALFA+MAML/Random Init+L2F 在miniImageNet和tiredImageNet

实验截图

1. L2F也是他的工作, 并且严格意义上它不算是MAML的变体, 它没有严格定义内循环外循环, 而是借用MAML或其他元学习算法的结构, 更类似于一种插件.

2. 对比当中, 附加了LEO和MetaOpt, 虽然效果赶不上但是下面又附加了理由, 很可能是审稿人质疑缺少其他元学习对比后添加的.

二, cross domain  在miniImageNet上训练, 在CUB上测试

和第一组实验差距不大, 但是采取cross domain. 从摘要出发, 作者考虑过与任务挂钩的更新方式具有更强的灵活性, 在train和test差距大的时候具有更好的表现.

三, Meta-Dataset上的表现

Meta-Dataset应该已经成为meta-learning性能检验的主流了, 这里除了MAML还增加了Proto-MAML. 跨元学习算法难度是比较大的, 因为复现难度很大. 所以这里可能是直接用的别人的库.

四, 消融实验中验证per step和per layer

主要存在两个对比, 一个是对比每步都产生新的α和β与每个inner-loop只产生一个α和β, 一个是对比每一层用不同的α和β和所有层都用一样的α和β.

其余还有MAML和Random Init对比 以及α和β对结果影响对比.

五, 对比不同步数下inner-loop optimization结果的影响.

每种步数(1~5)下ALFA+MAML都比MAML 5步强

六, 考虑输入的影响

只输入base learner权重/ 只输入gradient/ 全部都输入

最后当然是全部都输入最好


最后还有两组额外型补充实验

Few-shot regression 上ALFA表现不错

还把α和β具体取值做统计, 按步数排列


文章不错 但是代码基于MAML++, 也可以看出来尽可能用别人效果已经比较好的代码会更容易实现一些.

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,980评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,178评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,868评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,498评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,492评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,521评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,910评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,569评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,793评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,559评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,639评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,342评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,931评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,904评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,144评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,833评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,350评论 2 342

推荐阅读更多精彩内容