原文: 问题设置 Few-shot 学习任务的数据可以分为三部分:训练集 Dtrain、支持集 Dsupport 和测试集 Dtest。具体来说,Dtrain 有大规模的训练样本(例如,一个类别大约有数百个样本),这些样本的类别记为 Cbase。它提供了大量的先验知识作为已知内容来帮助描述其他样本。
原文:FS-Mol: A Few-Shot Learning Dataset of Molecules | OpenReview 一个分子 Few-shot 任务数据集和 benchmark。 小数据集在药物发现中无处不在,因为数据生成成本高昂,并且可能因伦理原因(例如体内实验)而受到限制。早期药物
原文:Contrastive Augmented Graph2Graph Memory Interaction for Few Shot Continual Learning 用图结构的对比学习处理 Few-shot 持续学习问题 问题设置 在 FSCIL 任务中,训练集 \mathcal{D}^{
原文:[2403.01121] OpenGraph: Towards Open Graph Foundation Models 一种 Zero-shot 图学习方法。 提出了一个统一的图标记器来调整我们的图模型,以便在未见过的图数据上很好地泛化,即使底层图属性与训练期间遇到的属性有很大不同。 开发了
原文:MARIO: Model Agnostic Recipe for Improving OOD Generalization of Graph Contrastive Learning | Proceedings of the ACM Web Conference 2024 一种图节点级任务 O
领域泛化与分布偏移 参考: Domain Generalization | 域适应、域泛化、OOD、开放集问题定义_域泛化与域自适应-CSDN博客
原文:Mixup for Node and Graph Classification | Proceedings of the Web Conference 2021 (acm.org) 简介 Mixup 是一种数据增强方法,用于训练基于神
原文:Learning Invariant Graph Representations for Out-of-Distribution Generalization (neurips.cc
简单整理了一下参数初始化相关的知识。 PyTorch 中调整神经网络的参数初始化策略,可以使用 torch.nn.init 模块中的各种初始化方法。 示例代码 import torch import torch.nn as nn import torch.nn.init as init clas
项目地址:https://github.com/divelab/GOOD/. 这项工作中的目标是专门针对图形开发 OOD 基准(称为 GOOD)。作者明确区分协变量偏移和概念偏移,并设计准确反映不同转变的数据分割。同时考虑图和节点预测任务,因为两者设计偏移之间存在关键差异。总体而言,GOOD 包含