Skip to content

Stanford CS224W图机器学习

课号:CS224W

教授:Jure Leskovec

评论贡献者:Zhangzhi PengZhang-Each

课程信息

这门课程主要聚焦分析大量图时所面对的计算、算法和建模挑战。通过研究底层图结构及其特征,学习者可以了解机器学习技术和数据挖掘工具,从而在多种网络中有所发现。

这门课程涉及的主题包括:表征学习和图神经网络;万维网算法;基于知识图谱的推理;影响力最大化;疾病爆发检测;社交网络分析。

适合人群

对图神经网络感兴趣,想要入门的同学。

先修条件

我个人认为只需要入门过深度学习的同学听懂这门课都没压力。 以下是官方的prerequisites.

Students are expected to have the following background:

  • Knowledge of basic computer science principles, sufficient to write a reasonably non-trivial computer program (e.g., CS107 or CS145 or equivalent are recommended)
  • Familiarity with the basic probability theory (CS109 or Stat116 are sufficient but not necessary)
  • Familiarity with the basic linear algebra (any one of Math 51, Math 103, Math 113, or CS 205 would be much more than necessary)

The recitation sessions in the first weeks of the class will give an overview of the expected background.

课程评价

leskovec绝对是图神经网络的大神,去查阅文献的时候就能发现几乎牛逼的模型都有他的身影。而作为学术大牛,讲课水平也极其之高。

课程主讲人 Jure Leskovec 是斯坦福大学计算机科学副教授,也是图表示学习方法 node2vec 和 GraphSAGE 的作者之一。他主要的研究兴趣是社会信息网络的挖掘和建模等,特别是针对大规模数据、网络和媒体数据。据 Google Scholar 显示,Jure Leskovec 发表论文 400 余篇,被引用次数超过 82000 次,h 指数为 114。其论文多次发表在 Nature、NeurIPS、KDD、ICML 等期刊和学术会议上,并两次获得 KDD 时间检验奖。

市面上绝大多数介绍图卷积的资料都在提数学概念频谱,傅里叶变换之类的名词,作为一个计算机科班的学生对这些概念根本没有了解,根本听不懂再说啥。而从更深刻,直观的角度介绍了图卷积的原理和背后的直觉,因此深入浅出,浅显易懂,十分推荐。

其次,课程作业也设计很好,贴合课程内容,加深对内容的学习,只需要一些深度学习pytorch编程的基础,就可以按照要求设计一个图神经网络。这门课的作业使用的是PyTorch Geometric (PyG)。不得不说,这个工具的作者也是leskovec的学生~

需要注意的坑点

没啥坑的,就是大佬的口音不太正,不过配合字幕听懂完全无压力。

非官方资料推荐

后续课程推荐

文件列表