paper-Learning by Distillation -- A Self-Supervised Learning Framework for Optical Flow Estimation


Learning by Distillation: A Self-Supervised Learning Framework for Optical Flow Estimation

发表机构与时间 : TPAMI 2021

第一作者:Pengpeng Liu

论文地址戳这里

源码地址 :无

泛读

导言:

问题: 一是如何在不依靠大规模合成数据的条件下,仅仅依靠无标签真实数据来进行有监督光流估计的预训练;二是如何利用无标签数据学习带有遮挡挑战的光流估计任务

难点

相关工作:光流领域

本文工作

本文提出利用蒸馏的方法来进行自监督光流估计的学习。其一是两阶段的模型蒸馏,第一个阶段利用多个教师网络进行自监督学习,通过模型集成挑选出教师网络中置信度较高的光流估计结果,以此作为下一阶段对学生网络的标签。这解决了第一个问题,为有监督光流估计提供了更好的预训练学习范式。其二是数据蒸馏,即人工对输入数据创造具有挑战性的变换,包括遮挡变换、几何变换和色彩变换,从数据层面驱动模型学习处理遮挡场景的光流估计能力,从而解决了第二个问题。本文除了在KITTI数据集上取得了SOTA的性能外,还具有来良好的泛化性能,这包括适用于多种网络结构,泛化到立体匹配问题上,以及跨数据集的泛化性能。[1]

阅读过程的疑问和感悟

如何保证老师模型输出的光流精度很高?不高的话又怎么指导学生模型?

这个在sintel中表现不如RAFT,但是在KITTI达到了SOTA

在此之前不知道“知识蒸馏”,以后拜读一下Hinton的:Distilling the Knowledge in a Neural Network

特色:

具有良好的泛化性能

网络架构

精读

原理

实验

代码

参考文献

[1] paperweekly

[2] 引用文章标题2

[3] 引用文章标题3


Author: star
Reprint policy: All articles in this blog are used except for special statements CC BY 4.0 reprint polocy. If reproduced, please indicate source star !
  TOC