【GiantPandaCV导语】Knowledge Distillation A Suvery的第二部分,上一篇介绍了知识蒸馏中知识的种类,这一篇介绍各个算法的蒸馏机制,根据教师网络是否和学生网络一起更新,可以分为离线蒸馏,在线蒸馏和自蒸馏。
感性上…
Video Pose Distillation for Few-Shot, Fine-Grained Sports Action Recognition
(2021 ICCV)
James Hong, Matthew Fisher, Michael Gharbi, Kayvon Fatahalian
Notes 写在前面(中文版自己总结)
之前的 AR(Actio…
介绍阅读的三篇个性化联邦学习的经典综述文章
Three Approaches for Personalization with Applications to Federated Learning
论文地址 文章的主要内容
介绍了用户聚类,数据插值,模型插值三种个性化联邦学习的方法。 用户聚类:
目的&a…
【GiantPandCV引言】简单总结一篇综述《Knowledge Distillation A Survey》中的内容,提取关键部分以及感兴趣部分进行汇总。这篇是知识蒸馏综述的第一篇,主要内容为知识蒸馏中知识的分类,包括基于响应的知识、基于特征的知识和基于关系的知识…
paper:A Gift From Knowledge Distillation: Fast Optimization, Network Minimization and Transfer Learningcode:https://github.com/HobbitLong/RepDistiller/blob/master/distiller_zoo/FSP.py背景深度神经网络DNN逐层生成特征。更高层的特征更接近…
paper:On the Efficacy of Knowledge Distillation
本文的题目是《论知识蒸馏的有效性》,主要是对教师模型并不是越大越好这一现象进行研究,并提出了缓解方法:early stop。
Bigger models are not better teachers
知识蒸馏背…
paper:Paying More Attention to Attention: Improving the Performance of Convolutional Neural Networks via Attention Transfercode:https://github.com/megvii-research/mdistiller/blob/master/mdistiller/distillers/AT.py背景一个流行的假设是存…
paper:Be Your Own Teacher: Improve the Performance of Convolutional Neural Networks via Self Distillation
official implementation: https://github.com/luanyunteng/pytorch-be-your-own-teacher
前言
知识蒸馏作为一种流行的压缩方法&#…
paper:Distilling Knowledge via Knowledge Review
official implementation:https://github.com/dvlab-research/ReviewKD
前言
识蒸馏将知识从教师网络转移到学生网络,可以提高学生网络的性能,作为一种“模型压缩”的方法被…
paper:Knowledge Distillation from A Stronger Teacher
official implementation:https://github.com/hunto/dist_kd
前言
知识蒸馏通过将教师的知识传递给学生来增强学生模型的性能,我们自然会想到,是否教师的性能越强&…
一定要读 真的是不一样的收获啊
不知道 屏幕前的各位get到了没有
Hinton et al. (2015) introduced the idea of temperature in the softmax outputs to better represent smaller probabilities in the output of a single sample.
Hinton等人(2015)引入了softmax输出中温…