参考:《迁移学习导论(第二版)》 迁移学习问题考虑源域和目标域存在不同的分布:P_s(\boldsymbol{x},y)\ne P_t(\boldsymbol{x},y) 显然由于目标域标签不可获取无法直接去衡量这种联合分布的差异,所以根据
领域泛化与分布偏移 参考: Domain Generalization | 域适应、域泛化、OOD、开放集问题定义_域泛化与域自适应-CSDN博客
简单整理了一下参数初始化相关的知识。 PyTorch 中调整神经网络的参数初始化策略,可以使用 torch.nn.init 模块中的各种初始化方法。 示例代码 import torch import torch.nn as nn import torch.nn.init as init clas
表示学习(Representation Learning),也叫表征学习。表示学习的目的是对复杂的原始数据化繁为简,把原始数据的无效的或者冗余的信息剔除,把有效信息进行提炼,形成特征(feature),使下游任务受益。特征提取可以人为地手工处理(这一般就叫特征工程),也可以借助特定的算法自动提取。
对于一个可靠的系统来说,面对未知输入/类别的时候如果进行错误的操作/分类是有风险的。 大多数真实数据本质上都是动态的,且真实数据是不可预测的,一个可靠的系统必须能够忽略或拒绝未知输入/类别或设计连续检测新的输入并对未知输入执行某些操作的处理机制。 理想情况下,系统需要标记并添加新检测到的对象作为要学