Conference: CVPR2019 Created: Oct 3, 2020 4:21 PM Last Edit Time: Oct 5, 2020 11:21 AM Property: Knowledge Distillation
W. Park, D. Kim, Y. Lu, and M. Cho, ‘Relational Knowledge Distillation’, arXiv:1904.05068 [cs], May 2019, Accessed: Sep. 12, 2020. [Online]. Available: http://arxiv.org/abs/1904.05068.
知识蒸馏任务中,作者提出迁移样本间的关系(结构信息)会优于迁移单个样本的特征,例如:两个样本间的距离,三个样本间的角度。
知识蒸馏:将大模型的知识迁移小模型中。
如何将知识从大模型迁移到小模型,过去的方法考虑单个样本在大模型和小模型间的迁移,本文作者提出,迁移样本间的关系(结构信息)会优于迁移单个样本特征。基于这一思想,我们还需要思考衍生问题:样本间的关系(结构信息)该如何表示。
传统KD和Relational KD的对比
过去的方法怎么考虑知识蒸馏?或者说,如何进行单样本间的知识蒸馏呢?
l l l作为惩罚Teacher和Student间差异的损失函数,对于 l l l来说,有以下几种做法:
(1) Hinton et al中使用softmax前的结果 f T f_T fT和 f S f_S fS作为输入,根据公式(2)计算KL散度来度量两个输出的差异。
(2) Romero et al使用隐藏层激活函数的结果 f T f_T fT和 f S f_S fS进行知识迁移, l l l选择了平方欧式距离,见公式(3)(由于Student隐层输出的维度一般小于Teacher,所以需要一个映射 β \beta β) 以上这些方法都被称为Individual KD(IKD),表示样本间的知识蒸馏。
针对多样本间的关系,提出Relational Knowledge Distillation(RKD).
思想:关系这样的高阶属性较之低阶属性,更具有不变性,有更好的效果。
具体:distance-wise and angle-wise distillation loss X^N 表示N个不同样本。
Distance-wise loss
Angle-wise distillation loss
Overall objective
作者如何评估自己的方法,有没有问题或者可以借鉴的地方
在三个任务上进行评估, metric learning, classification and few-shot learning.
metric learning(recall@K)
Image classification(Acc)
Few-shot learning(Acc) better than teacher.
Strong conclusion: 在Knowledge Distillation中,Relational Knowledge Distillation能够有效地改进Student模型的性能。
Weak conclusion:
暂无