1
0
Knowledge Distillation 背景 知识蒸馏(KD)是想将复杂模型(teacher)中的dark knowledge迁移到简单模型(student)中去,一般...
写了 14609 字,被 9 人关注,获得了 77 个喜欢