🇨🇳
阿臻的学习笔记
  • 🤖AI
    • 📑README
    • 🕒Scheduling
      • 一种JSSP的DRL环境
    • 📜Paper
      • 神经协同过滤
      • 非侵入信号深度学习
      • 肾透析移植机器学习
      • 心理学随机森林
      • P300数据学习
    • ⚒️Pytorch
      • 1.1数据基础
      • 1.2自动梯度
      • 1.3神经网络
      • 1.4模型实现
      • 2数据操作
    • 🛠️Ray+Gym
    • 📃Graph Neural
      • 图神经网络基础
      • Contrastive Multi-View Representation Learning on Graphs
    • 📽️Deep Learning
      • 《第一章》
      • 《第二章》
      • 《第三章》
      • 《第四章》
      • 台湾陈蕴侬视频2020
    • 🔨MXNet
      • 《第一章》《第二章》
      • 《第三章》
      • 《第四章》
      • 《第五章》
      • 《第六章》
      • 《第七章》
      • 《第八章》
      • 《第九章》
      • 《第十章》
  • 👨‍🏭Study
    • 📔Algorithm
      • Leetcode
        • 第一天(乱刷)
        • 第二天(栈)
        • 第三天(栈)
        • 第四天(堆)(贪心)
        • 第五天(贪心)
        • 第六天(贪心)
        • 第七天(排序)
        • 第八天(排序)
        • 第九天(排序)
        • 第十天(位运算)
        • 第十一天(位运算)
        • 第十二天(位运算)
        • 第十三天(位运算)
        • 第十四天(树)
        • 第十五天(树)
        • 第十六天(树)
        • 第十七天(树)
        • 第十八天(树)
        • 第十九天(树)
        • 第二十天(树)
        • 第二十一天(树)
        • 第二十二天(并查集)
        • 第二十三天(并查集)
        • 第二十四天(DFS)(图)
        • 第二十五天(图)(设计)
        • 第二十六天(拓扑)
        • 第二十七天(字典树)
        • 第二十八天(字典树)
        • 第二十九天(树状数组)(二叉搜索树)
        • 第三十天(递归)
        • 第三十一天(脑筋急转弯)
        • 第三十二天(脑筋急转弯)
        • 第三十三天(记忆化)
        • 第三十四天(队列)
        • 第三十五天(队列)
        • 第三十六天(极小化极大)
        • 第三十七天(几何)
        • 第三十八天(蓄水池抽样)
        • 第三十九天(数组)
        • 第四十天(数组)
        • 第四十一天(数组)
        • 第四十二天(数组)
        • 第四十三天(数组)
        • 第四十四天(数组)
        • 第四十五天(数组)
        • 第四十六天(数组)
      • Sort
        • 最小堆
        • 归并排序(merge_sort)
    • 📓Knowledge
      • python补码
    • 🔧Other
      • pythonic语法
      • Ubuntu备忘
由 GitBook 提供支持
在本页
  • 一、相关工作
  • Random walks
  • Graph kernels
  • Graph auto encoders (GAE)
  • Deep graph Infomax(DGI)
  • 二、模型组件
  • 三、解决方法
  • 广义图传播(diffusion)
  • 两种图传播算法的实例(卷积?)
  • 子采样
  • 四、总结

这有帮助吗?

导出为 PDF
  1. AI
  2. Graph Neural

Contrastive Multi-View Representation Learning on Graphs

上一页图神经网络基础下一页Deep Learning

最后更新于3年前

这有帮助吗?

对比图的结构视图来学习节点和图级表示的自监督方法

一、相关工作

Random walks

Graph kernels

heat kernel

Personalized PageRank

Graph auto encoders (GAE)

一般图自编码流程

Deep graph Infomax(DGI)

自编码器

要求保留原始数据尽可能多的重要信息。

  • 第一想法:传统自编码器,用隐藏向量还原原始数据,即训练目标为output拟合原始数据

  • 进一步想法:变分自编码器,为每个样本构造专属的正态分布,然后采样获得隐藏向量来重构。隐藏向量的分布尽量能接近高斯分布,能够随机生成隐含变量喂给解码器,也提高了泛化能力。

  • 但是,对于数据集和任务来说,完成任务所需要的特征并不一定要能完成图像重构。例如,辨别百元假钞不一定要能完整复刻出百元假钞。

互信息(MI, mutual information)

好特征的基本原则应当是**“能够从整个数据集中辨别出该样本出来”**,也就是说,提取出该样本(最)独特的信息。

熵H(Y)与条件熵H(Y|X)之差称为互信息,决策树学习中的信息增益等价于训练数据集中类与特征的互信息。

互信息:变量间相互依赖性的量度。不同于相关系数,互信息并不局限于实值随机变量。它能度量两个事件集合之间的相关性。

  • 用 X 表示原始图像的集合,用 x∈X 表示某一原始图像。

  • Z 表示编码向量的集合,z∈Z 表示某个编码向量。

  • p(z|x) 表示 x 所产生的编码向量的分布,我们设它为高斯分布。这是我们要找的编码器。

  • p̃(x) 原始数据的分布,p(z) 是在 p(z|x) 给定之后整个 Z 的分布

  • 好的特征编码器,应该要使得互信息尽量地大:

  • H是信息熵,I是互信息。

  • I(X, Z) = H(Z) - H(Z|X) :熵 H(Z) 看作一个随机变量不确定度的量度,那么 H(Z|X) 就是 X 没有涉及到的 Z 的部分的不确定度的量度。总的Z的不确定度,减去知道X而剩下的Y的不确定度,所以可以直观地理解互信息是Z变量提供给Y的信息量

二、模型组件

  • 增强机制:对图的结构进行增广,然后对相同的节点进行子采样。类似于CV中的裁剪。

  • 两个专用的GNN:即图编码器。对应原数据和增强后的数据。

  • 使用GCN。σ(AXΘ) and σ(SXΘ), X为初始节点的特征,Θ为学习参数。

  • 一个共享的MLP(靠左):用于学习图的节点表示。具有两个隐藏层和PReLU激活函数。

  • 一个图池化层P:即readout函数,而后传入共享MLP(结构同上)中,得出图表示。

    • 每个GCN层中的节点表示的总和,连接起来,然后将它们馈送到一个单层前馈网络。

    • 分别求和作为下游任务的 图表示 和 节点表示

  • 鉴别器D:图的节点表示和另一个图的图形表示进行对比。并对它们的一致性进行评分。

    • 损失函数:最大化互信息

三、解决方法

广义图传播(diffusion)

T是广义转移矩阵。从一个状态转移到下一个。

Θ是权重系数,表示全局和局部信息的比例。所有θ之和为1。

两种图传播算法的实例(卷积?)

heat kernel : 带入T = AD-1, θk = α(1-α)k。α是随机游走的传送概率,t是

Personalized PageRank : 带入T = D-1/2AD-1/2, θk = e-ttk/k!

子采样

从一个图中随机采样节点及边,然后再从另一个图(扩散后)中确定对应的节点和边。

四、总结

图的对比学习与视觉对比学习不同:

  1. 扩充view的数量超过两个不会改善性能,最好的效果是邻接矩阵和传播矩阵进行对比学习。

  2. 对比节点和视图的表示达到更好的效果,优于,图-图表示对比学习,不同长度的编码对比学习。

  3. **简单的图读出层(求和)**比differentiable pooling(DiffPool)效果更好。

  4. 预训练时候,应用正则化(提前停止除外)或规范化层会对性能产生负面影响。

[GAE公式]
GAE详细公式
一般自编码器
一般变分自编码器
互信息公式1
互信息公式2
互信息公式3
互信息图

论文模型

广义图扩散
两种图传播实例
🤖
📃
论文伪算法过程
PReLU函数
模型右半部分
返回值
损失函数
鉴别器函数
[公式]