Dymay

【论文】用于少样本学习的预训练模型的特征混合

原文: 问题设置 Few-shot 学习任务的数据可以分为三部分:训练集 Dtrain、支持集 Dsupport 和测试集 Dtest。具体来说,Dtrain 有大规模的训练样本(例如,一个类别大约有数百个样本),这些样本的类别记为 Cbase。它提供了大量的先验知识作为已知内容来帮助描述其他样本。

Dymay 发布于 2024-10-25

【论文/数据集】FS-Mol:分子小样本学习数据集

原文:FS-Mol: A Few-Shot Learning Dataset of Molecules | OpenReview 一个分子 Few-shot 任务数据集和 benchmark。 小数据集在药物发现中无处不在,因为数据生成成本高昂,并且可能因伦理原因(例如体内实验)而受到限制。早期药物

Dymay 发布于 2024-10-25

【论文】通过对比增强的Graph-to-Graph记忆交互实现少样本持续学习

原文:Contrastive Augmented Graph2Graph Memory Interaction for Few Shot Continual Learning 用图结构的对比学习处理 Few-shot 持续学习问题 问题设置 在 FSCIL 任务中,训练集 \mathcal{D}^{

Dymay 发布于 2024-10-23

【论文】OpenGraph:面向开放图基础模型

原文:[2403.01121] OpenGraph: Towards Open Graph Foundation Models 一种 Zero-shot 图学习方法。 提出了一个统一的图标记器来调整我们的图模型,以便在未见过的图数据上很好地泛化,即使底层图属性与训练期间遇到的属性有很大不同。 开发了

Dymay 发布于 2024-10-21

【论文】MARIO:提升 OOD 泛化的模型无关图对比学习方法

原文:MARIO: Model Agnostic Recipe for Improving OOD Generalization of Graph Contrastive Learning | Proceedings of the ACM Web Conference 2024 一种图节点级任务 O

Dymay 发布于 2024-10-17

【知识】领域泛化及其理论基础

领域泛化与分布偏移 参考: Domain Generalization | 域适应、域泛化、OOD、开放集问题定义_域泛化与域自适应-CSDN博客

Dymay 发布于 2024-10-14

【论文】节点和图分类的Mixup

原文:Mixup for Node and Graph Classification | Proceedings of the Web Conference 2021 (acm.org) 简介 Mixup 是一种数据增强方法,用于训练基于神

Dymay 发布于 2024-10-13

【论文】学习分布外泛化的不变图表示

原文:Learning Invariant Graph Representations for Out-of-Distribution Generalization (neurips.cc

Dymay 发布于 2024-10-11

【知识】关于参数初始化

简单整理了一下参数初始化相关的知识。 PyTorch 中调整神经网络的参数初始化策略,可以使用 torch.nn.init 模块中的各种初始化方法。 示例代码 import torch import torch.nn as nn import torch.nn.init as init ​ clas

Dymay 发布于 2024-09-27

【论文/数据集】GOOD:一个图分布外benchmark

项目地址:https://github.com/divelab/GOOD/. 这项工作中的目标是专门针对图形开发 OOD 基准(称为 GOOD)。作者明确区分协变量偏移和概念偏移,并设计准确反映不同转变的数据分割。同时考虑图和节点预测任务,因为两者设计偏移之间存在关键差异。总体而言,GOOD 包含

Dymay 发布于 2024-09-09