图神经网络第5~7讲
矩阵分解 对浅层表示学习用矩阵分解表示出来 [wsdm’18] 问题和解决 $O(\vert V \vert)$ tranductive:新的节点来了要跑一遍 node features 从lookup到encoder 图神经网络 Permutation Invariance 问题:要保证同构的图的表示向量相同。对于任何置换矩阵$P$,$f(A, X)=f(PAP^\top...
矩阵分解 对浅层表示学习用矩阵分解表示出来 [wsdm’18] 问题和解决 $O(\vert V \vert)$ tranductive:新的节点来了要跑一遍 node features 从lookup到encoder 图神经网络 Permutation Invariance 问题:要保证同构的图的表示向量相同。对于任何置换矩阵$P$,$f(A, X)=f(PAP^\top...
我们想要自动抽取task-independent的特征。 目标:将图转换为d维的表示向量v。 机器学习/矩阵稀疏 原图中两个节点的相似性在映射后仍然保持 Two Key Components: $\textrm{ENC}(v)=\textbf z_v$ $\textrm {sim}(u,v)\sim=\textbf z_v·\textbf z_u$ Shadow Encodin...
本文梳理总结矩阵论中可能用到的线性代数相关结论。 线性方程组的解 非齐次方程组的形式:$Ax=b,A\in P^{m\times n}$ 齐次方程组的形式:$Ax=0$ 解法:对增广矩阵$[A,b]$做行初等变换,化为最简阶梯形。 等价关系:若$A$经过有限次初等变换得到$B$,则称它们是等价的 Ax=b的解的判定 判定定理: $r(A)=r(A,b)=n\Leftright...
本文参考周志华《机器学习》(西瓜书)进行整理。整理的内容包括支持向量机(Support Vector Machine)以及相关的回归方法,补充介绍核方法。 本文并不具体介绍SVM的求解算法。 SVM基本原理 问题描述 给定样本集:$D={{\textbf{X},\textbf y}}$。其中,$\textbf{X}={\textbf{x}i}{i=1}^m\in\real^{m\time...
# 相关链接:Stanford CS224W 第一讲 Complex systems are all around us 应用:社交网络、知识图谱 共性:事物之间的关系 Types node commuication graph 经典任务:节点分类,链路预测,图的分类,聚类 场景:结构预测、推荐系统、交通预测、天气预报(DeepMind) How Empirical(以...