心远地自偏


  • 首页

  • 标签

  • 分类

  • 归档

Structured subspace embedding on attributed networks

发表于 2020-10-15
简介论文传送门 以前的属性网络表示学习的策略,忽略了社团结构的形成来自于属性的子空间。实际上,不是所有属性都和社团聚类的形成有关;不同社团聚类的生成机制取决于不同的相关属性。因此,这篇论文提出一种新的属性网络表示方法,称作结构子空间嵌入SSE。作者希望考虑到属性子空间中的聚类结构,该聚类结构反映了聚类结构不同的生成机制。 为此,作者对属性矩阵进行矩阵分解,得到隐特征表示;然后引入局部同质性约束来保留局部拓扑近似;最后加上社区选择约束,通过稀疏学习进一步保证隐特征表示具有子空间聚类结构。 方法Structured subspace embedding Attribute representat ...
阅读全文 »

Deep Network Embedding on Incomplete Graphs

发表于 2020-10-14
简介论文传送门 这份工作第一次研究在不完全网络上的网络嵌入问题。作者认为节点属性编码了与网络拓扑不同类型但是高度相关的信息,将这两者整合到一个统一的学习框架可预期得到更好的表现。从一个视图进行跨视图学习所捕获的一致性能够补全或者完善另一个视图的特征。 作者提出基于深度网络嵌入方法的多视图相关性学习,称作MVC-DNE。作者认为学得的表示向量应该反映出两个视图的特质。作者先使用深度自动编码器获得单个视图的隐表示。接着作者设计了两种不同的框架,分别在编码阶段和解码阶段来学习多个视图之间的关联。除了由深度自动编码器实现的在每一视图中的自我视图学习,该方法还考虑将一个视图的特征作为标签来引导另一视图的 ...
阅读全文 »

爬虫入门三

发表于 2020-10-12 | 分类于 教程
数据解析1. 正则表达式正则表达式教程 正则表达式30分钟入门教程 12345678910111213141516171819import reone = 'abc 123'patter = re.compile('\d+')# match 从头匹配 匹配一次,无法匹配时将返回Noneresult = patter.match(one)# search 从任意位置 , 匹配一次result = patter.search(one)# findall 查找符合正则的 内容 -- listresult = patter.findall(one)# sub 替换字符串result = patt ...
阅读全文 »

Strategies For Pre-training Graph Neural Networks

发表于 2020-10-12
简介论文传送门 这份工作中,作者提出了一种新的策略和自监督方法来预训练图神经网络。该策略成功的关键在于,同时在节点层面和整个图层面来预训练图神经网络,这样,图神经网络就可以同时学得有用的局部和全局表示。 作者发现简单的策略,其仅在图层面或节点层面来预训练图神经网络,只有有限的提升,甚至会带来负迁移。但作者提出的策略,可以避免负迁移,并且能显著改善在下游任务上的泛化性能。 (a.i)中,只使用节点层次的预训练,不同形状的节点可以很好的区分开,但是节点嵌入是不可组合的,因此得到的图嵌入就不可分。(a.ii)中,只是用图层次的预训练,图嵌入能被很好分开,但是节点嵌入并没有捕捉到它们域特定的语义。( ...
阅读全文 »

爬虫入门二

发表于 2020-10-11 | 分类于 教程
Requests使用Requests官方文档 第三方参考文档 请求网页12345678910111213141516171819202122232425262728293031323334import requests# requests.get try: url = "http://www.baidu.com/" response = requests.get(url) # 如果status_code不是200,产生异常requests.HTTPError response.raise_for_status()except: print("raise excep ...
阅读全文 »

Learning Efficient Graph Neural Networks

发表于 2020-10-11
简介论文传送门 图神经网络的基本思想是迭代地汇聚邻居信息。经过 k 次迭代后,一个 k 层网络的图神经网络可以捕捉节点 k 跳的局部结构。所以,一个更深的图神经网络可以接触到更多的邻居信息,也就可以得到更好的表现。然而,但图神经网络变得更深时,邻居的指数增长导致在批量训练和推理时的计算代价急剧增加。这就令深度图神经网络远离应用。 在这份工作中,作者试图学习一个小的图神经网络,称作TinyGNN,该网络可以达到和更深的图神经网络一样的表现,并且能在更短时间内产生节点的表示。但是,因为更浅的图神经网络并不能如更深的图神经网络那样探索到更多的局部结构,在这两种图神经网络上存在邻居信息的缝隙。为了填补 ...
阅读全文 »

Graph Contrastive Coding for Graph Neural Network Pre-Training

发表于 2020-10-10
简介论文传送门 图表示学习目前受到了广泛关注,但目前绝大多数的图表示学习方法都是针对特定领域的图进行学习和建模,所产出的图神经网络难以迁移。近期,预训练在多个领域都取得了巨大的成功,显著地提升了模型在各大下游任务的表现。受到 BERT (Devlin et al., 2018),MoCo (He et al., 2020) 等工作的启发,我们开始研究图神经网络的预训练,希望能够从中学习到通用的图拓扑结构特征。我们提出了 Graph Contrastive Coding的图神经网络预训练框架,利用对比学习(Contrastive Learning)的方法学习到内在的可迁移的图结构信息。 方法 本 ...
阅读全文 »

Generative Pre-Training of Graph Neural Networks

发表于 2020-10-10
简介论文传送门 由于图学习的下游任务往往标签数据很稀缺,一个有效减少标注代价的方式就是先使用无监督学习预训练一个图神经网络模型,然后使用少量标注数据将该模型迁移到下游任务上。在该论文中,作者提出GPT-GNN框架,其通过生成预训练的方式来初始化一个图神经网络模型。GPT-GNN 引入一个自监督属性网络生成任务来预训练一个图神经网络,这样它可以捕捉到图的结构和语义性质。该论文将图生成的似然概率分解为两个部分:1)属性生成和2)边生成。在生成过程中,通过建模这个部分,GPT-GNN捕捉到节点属性和图结构之间的内在依赖。另外,作者提出了一种高效的策略,通过对节点划分为属性生成节点和边生成节点,可以同 ...
阅读全文 »

Unsupervised Differentiable Multi-aspect Network Embedding

发表于 2020-10-10
简介论文传送门 大部分网络嵌入方法都聚焦于学习节点的单个表示,这些方法并不能够建模节点多个方面(aspect)的信息。为了捕捉节点多方面的信息,现有的方法依赖于一个前置的图聚类步骤来得到节点的方面分布。但作者认为这种方法忽略了节点的上下文信息,让节点具有了固定的方面分布,而且也不利于端到端的训练,令最后得到的表示依赖于聚类过程。 在该论文中,作者提出一个基于DeepWalk的多方面网络嵌入的端到端框架,称作asp2vec,其中每个节点的方面根据其局部上下文动态的赋予,并使用Gumbel-Softmax trick实现方面选择模块的梯度可传导。另外,还引入了一个方面正则框架来根据方面之间的相关程 ...
阅读全文 »

爬虫入门一

发表于 2020-10-07 | 分类于 教程
爬虫介绍互联网由许许多多的超文本(HTML)组成,用户利用HTTP或者HTTPS协议访问网页。通俗来讲,爬虫就是我们编程来模拟用户访问网页的过程。 聚焦爬虫的基本过程如下: 访问目标url。 解析数据。 获取待访问url,回到步骤1。 数据持久化,即将爬取的数据保存到本地。 urllib介绍urllib是Python自带的一个用于爬虫的库,其主要作用就是可以通过代码模拟浏览器发送请求。其常被用到的子模块在Python3中的为urllib.request和urllib.parse。许多第三方的爬虫库都是基于urllib,比如Requests。 最简单的爬虫下面是get请求的爬虫 123456 ...
阅读全文 »
12…6

plato

51 日志
6 分类
23 标签
© 2020 plato
由 Hexo 强力驱动
|
主题 — NexT.Muse v5.1.4