Knowledge Distillation with Generative Adversarial Networks
Abstract 知识蒸馏(Knowledge distillation)旨在训练一种轻量分类器,能够在资源受限的多标签学习中提供精准的推理。分类器不是直接使用特征-标签对,而是由教师进行训练。比如,一个使用大量资源训练的高能力模型,这种分类器的精确度由于很难从教师那里学习到真实数据分布从而达不到理想水平。另一种方法是在类似生成对抗网络中,分类器对抗判别器,以保证分类器在博弈均衡状态下学习到真实的数据分布。但这种双人博弈方法因为高方差梯度更新,往往需要很长的时间才能达到博弈均衡状态。为了解决这些问题,作者提出了一种取名为KDGAN的包括分类器、教师、判别器的三人博弈游戏。
...