原文:[2410.19265] A Survey of Deep Graph Learning under Distribution Shifts: from Graph Out-of-Distribution Generalization to Adaptation Reading list: G
原文:Rethinking Propagation for Unsupervised Graph Domain Adaptation | Proceedings of the AAAI Conference on Artificial Intelligence 文章考虑的是无监督图域适应问题(UGD
原文:Open-Set Graph Domain Adaptation via Separate Domain Alignment | Proceedings of the AAAI Conference on Artificial Intelligence 考虑如图的闭集和开放集图域适应之间的问题
原文:Beyond the Known: Novel Class Discovery for Open-World Graph Learning | SpringerLink 例子:在学术图上展示开放世界学习的新颖类发现的插图。节点代表论文,边代表引用关系,每篇论文属于某个研究领域(节点类)。 构成
原文: 问题设置 Few-shot 学习任务的数据可以分为三部分:训练集 Dtrain、支持集 Dsupport 和测试集 Dtest。具体来说,Dtrain 有大规模的训练样本(例如,一个类别大约有数百个样本),这些样本的类别记为 Cbase。它提供了大量的先验知识作为已知内容来帮助描述其他样本。
原文:FS-Mol: A Few-Shot Learning Dataset of Molecules | OpenReview 一个分子 Few-shot 任务数据集和 benchmark。 小数据集在药物发现中无处不在,因为数据生成成本高昂,并且可能因伦理原因(例如体内实验)而受到限制。早期药物
原文:Contrastive Augmented Graph2Graph Memory Interaction for Few Shot Continual Learning 用图结构的对比学习处理 Few-shot 持续学习问题 问题设置 在 FSCIL 任务中,训练集 \mathcal{D}^{
原文:MARIO: Model Agnostic Recipe for Improving OOD Generalization of Graph Contrastive Learning | Proceedings of the ACM Web Conference 2024 一种图节点级任务 O
原文:Mixup for Node and Graph Classification | Proceedings of the Web Conference 2021 (acm.org) 简介 Mixup 是一种数据增强方法,用于训练基于神
原文:Learning Invariant Graph Representations for Out-of-Distribution Generalization (neurips.cc