迁移学习
前提
- Task A and B have the same input x.
- You have a lot more data for Task A than Task B
- Low level features form A could be helpful for learning B
其实就是从通用性走向专一性
原理
通用型的模型会学习到很多基础的信息
比如图像识别模型会学习到边缘检测,曲线检测,明暗对象检测等信息
可以帮助我们进一步去强化某一对象的输出
过程
优先改输出层以其权重
根据已有数据集去训练输出层权重
或者进一步去训练全部权重
但因为我们是在已有可用的权重的基础上进行训练,所以这也叫预训练
预训练的意思就是提前已经给你一些初始化的参数,这个参数不是随机的,而是通过其他类似数据集上面学得的,然后再用你的数据集进行学习,得到适合你数据集的参数,随机初始化的话,的确不容易得到结果,但是这个结果是因为速度太慢,而不是最终的结果不一样


