原文:[2403.01121] OpenGraph: Towards Open Graph Foundation Models 一种 Zero-shot 图学习方法。 提出了一个统一的图标记器来调整我们的图模型,以便在未见过的图数据上很好地泛化,即使底层图属性与训练期间遇到的属性有很大不同。 开发了
原文:MARIO: Model Agnostic Recipe for Improving OOD Generalization of Graph Contrastive Learning | Proceedings of the ACM Web Conference 2024 一种图节点级任务 O
领域泛化与分布偏移 参考: Domain Generalization | 域适应、域泛化、OOD、开放集问题定义_域泛化与域自适应-CSDN博客
原文:Mixup for Node and Graph Classification | Proceedings of the Web Conference 2021 (acm.org) 简介 Mixup 是一种数据增强方法,用于训练基于神
原文:Learning Invariant Graph Representations for Out-of-Distribution Generalization (neurips.cc
简单整理了一下参数初始化相关的知识。 PyTorch 中调整神经网络的参数初始化策略,可以使用 torch.nn.init 模块中的各种初始化方法。 示例代码 import torch import torch.nn as nn import torch.nn.init as init clas
项目地址:https://github.com/divelab/GOOD/. 这项工作中的目标是专门针对图形开发 OOD 基准(称为 GOOD)。作者明确区分协变量偏移和概念偏移,并设计准确反映不同转变的数据分割。同时考虑图和节点预测任务,因为两者设计偏移之间存在关键差异。总体而言,GOOD 包含
原文:[2201.09637] DrugOOD: Out-of-Distribution (OOD) Dataset Curator and Benchmark for AI-aided Drug Discovery -- A Focus on Affinity Prediction Problem
一个开放世界学习范式主要包括三个部分,即未知剔除、新类发现(NCD)和增类学习(CIL)。 开放世界学习的总体挑战 开放世界学习包括按顺序和周期执行未知剔除、新类发现和类递增学习。核心挑战在于如何使上述过程在不依赖人类工程师的情况下,通过模型与开放环境之间的交互自动进行。遗憾的是,在封闭世界假设下,
图神经网络的原理 图结构不同层次的任务: 图神经网络的基本原理是将图中的节点编码映射为一个低维连续稠密的向量,该向量能反映原节点在图中的连接和属性关系(该过程也称为图嵌入表示学习)。有了节点嵌入,进一步就能得到子图、全图的嵌入向量,最终用于下游任务。要实现这种表示,通常通过消息传递的方法来不断整合邻