迁移学习

前提

  • Task A and B have the same input x.
  • You have a lot more data for Task A than Task B
  • Low level features form A could be helpful for learning B

其实就是从通用性走向专一性

原理

通用型的模型会学习到很多基础的信息

比如图像识别模型会学习到边缘检测,曲线检测,明暗对象检测等信息

可以帮助我们进一步去强化某一对象的输出

过程

  1. 优先改输出层以其权重

  2. 根据已有数据集去训练输出层权重

  3. 或者进一步去训练全部权重

    但因为我们是在已有可用的权重的基础上进行训练,所以这也叫预训练

    预训练的意思就是提前已经给你一些初始化的参数,这个参数不是随机的,而是通过其他类似数据集上面学得的,然后再用你的数据集进行学习,得到适合你数据集的参数,随机初始化的话,的确不容易得到结果,但是这个结果是因为速度太慢,而不是最终的结果不一样