Loading...

计算机科学与技术系

1.计算机软件研究所

a.东昱晓-off

邮箱:yuxiaod@tsinghua.edu.cn
个人主页: https://keg.cs.tsinghua.edu.cn/yuxiao/

Yuxiao是清华大学计算机科学助理教授,他是知识工程小组(@ThuKEG)的成员。他在圣母大学获得了计算机科学博士学位。在加入清华之前,他是Meta AI和Microsoft Research Redmond的研究员。

他的研究重点是数据挖掘、图形表示学习、社交和信息网络以及基础模型。与合作者一起,他最近的研究包括异构图变器(HGT)、网络嵌入(NetMF、NetSMF、ProNE、SketchNE)、图形预训练(GraphMAE、GraphMAE2、kgTransformer、GPT-GNN、GCC)和语言预训练(GLM-130B、WebGLM、ChatGLM、CodeGeeX)算法,其中一些被部署在AMiner、Facebook和微软的十亿级应用程序中,并被提名为WWW’22、WWW’19和WSDM’15的最佳论文。他被选为IJCAI’22早期职业聚光灯之一,并获得了2017年ACM SIGKDD博士论文奖荣誉奖和2022年ACM SIGKDD新星奖。


近期论文发表:

  • ImageReward:学习和评估人类对文本到图像生成的偏好。
    Jiazheng Xu, Xiao Liu, Yuchen Wu, Yuxuan Tong, Qinkai Li, Ming Ding, Jie Tang, Yuxiao Dong.
    arXiv:2304.05977,2023。pdf代码
  • WebGLM:建立一个具有人类偏好的高效网络增强型问题回答系统。
    Xiao Liu, Hanyu Lai, Yu Hao, Yifan Xu, Aohan Zeng, Zhengxiao Du, Peng Zhang, Yuxiao Dong, Jie Tang.
    KDD’23(第29届ACM SIGKDD知识发现和数据挖掘国际会议程序),2023年。
  • CodeGeeX:在HumanEval-X上进行多语言评估的代码生成预训练模型。
    Qinkai Zheng, Xiao Xia, Xu Zou, Yuxiao Dong, Shan Wang, Yufei Xue, Zihan Wang, Lei Shen, Andi Wang, Yang Li, Teng Su, Zhilin Yang, Jie Tang.
    KDD’23(第29届ACM SIGKDD知识发现和数据挖掘国际会议程序),2023年。
    pdf代码和模型博客VS代码JetBrains
  • BatchSampler:用于视觉、语言和图形对比学习的小型批次采样。
    Zhen Yang, Tinglin Huang, Ming Ding, Yuxiao Dong, Zhitao Ying, Yukuo Cen, Yangliao Geng, Jie Tang.
    KDD’23(第29届ACM SIGKDD知识发现和数据挖掘国际会议程序),2023年。
  • WinGNN:具有随机梯度聚合窗口的动态图形神经网络。
    Yifan Zhu, Cong Fangpeng, Dan Zhang, Wenwen Gong, Qika Lin, wenzheng feng, Yuxiao Dong, Jie Tang.
    KDD’23(第29届ACM SIGKDD知识发现和数据挖掘国际会议程序),2023年。
  • 网络规模学术名称消歧义:WhoIsWho基准、排行榜和工具包。
    Bo Chen, Jing Zhang, Fanjin Zhang, Tianyi Han, Yuqing Cheng, XiaoYan Li, Yuxiao Dong, Jie Tang.
    KDD’23(第29届ACM SIGKDD知识发现和数据挖掘国际会议程序),2023年。
    pdf基准代码和数据
  • GLM-130B:开放式双语预训练模型。
    Aohan Zeng, Xiao Liu, Zhengxiao Du, Zihan Wang, Hanyu Lai, Ming Ding, Zhuoyi Yang, Yifan Xu, Wendi Zheng, Xiao Xia, Weng Lam Tam, Zixuan Ma, Yufei Xue, Jidong Zhai, Wenguang Chen, Zhiyuan Liu, Peng Zhang, Yuxiao Dong, Jie Tang.
    ICLR’23(第11届学习代表国际会议记录),2023年。
    pdf代码和模型ChatGLM-6B ChatGLM
  • SketchNE:在一小时内准确嵌入数十亿规模的网络。
    Yuyang Xie,Yuxiao Dong,Jiezhong Qiu,Wenjian Yu,Xu Feng,Jie Tang。
    TKDE’23(IEEE知识和数据工程交易),2023年。
    pdf代码
  • GraphMAE2:解码增强的屏蔽自监督图形学习者。
    Zhenyu Hou, Yufei He, Yukuo Cen, Xiao Liu, Yuxiao Dong, Evgeny Kharlamov, Jie Tang.
    WWW’23(2023年网络会议记录),2023年。
    pdf代码和数据

陶瓷

尊敬的东昱晓教授,
    您好!
    我是陈钰彬,目前在北京邮电大学人工智能专业就读。个人目前有出国的意向,希望能到您这里实习,提升科研经验和水平,最好能在指导下发一篇论文。我在清华大学官网上看到了您的主页,对您在 foundation models 方向的研究非常感兴趣,特别是您在pre-trained LLMs 方面的工作。
    我对您团队最近在KDD和ICLR等会议上发表的一些论文也进行了的阅读和理解,特别是" CodeGeeX: A Pre-Trained Model for Code Generation with Multilingual Evaluations on HumanEval-X"论文。CodeGeeX出色的多语言代码生成,解释和翻译能力,以及在HumanEval-X上的优异表现,使我感到惊讶和兴奋。因此十分希望能够在您的实验室中对这个方向进行更深度的研究,更深入地理解这些概念,并将这些理论应用到实际问题中。同时我相信我能够为您的实验室带来一定的帮助。我的个人简历已经添加到附件中,您可以随时查看。非常感谢您百忙之中抽空阅读这封邮件,期待您的回复!


b.侯磊

📮:houlei@tsinghua.edu.cn

  • 工学博士(计算机科学与技术),清华大学,中国,2010.9-2016.6
  • 工学学士(计算机科学与技术),北京邮电大学,中国,2006.9-2010.6
  • 访问学者:鲁汶大学(比利时,2011),新加坡国立大学(新加坡,2014)

知识图谱构建以应用、新闻和用户生成内容挖掘

本人长期从事知识图谱构建关键技术研究,担任中国中文信息学会语言与知识计算专委会委员和TKDE、Science China、AAAI、ACL、EMNLP等领域重要国际期刊/会议审稿人。围绕知识工程生命周期,系统研究知识表示、获取、融合和推理技术,曾获国际语义技术联合会议最佳论文奖(2019)与最佳学生论文奖(2014),全国计算语言学大会最佳论文奖(2018)和全国知识图谱与语义计算大会最佳中文论文奖(2017)。


近期论文发表(不过都是2020年发表的了):
1、Xin Lv, Xu Han, Lei Hou*, Juanzi Li, Zhiyuan Liu, Wei Zhang, Yichi Zhang, Hao Kong and Suhui Wu. Dynamic Anticipation and Completion for Multi-Hop Reasoning over Sparse Knowledge Graph. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP 2020), Pages 5694–5703.

2、Jiaxin Shi, Lei Hou*, Juanzi Li, Zhiyuan Liu and Hanwang Zhang. Learning to Embed Sentences Using Attentive Recursive Trees. In Proceedings of the 33rd AAAI Conference on Artificial Intelligence (AAAI 2019), Pages 6991-6998.

3、Jiaxin Shi, Chen Liang, Lei Hou*, Juanzi Li, Hanwang Zhang and Zhiyuan Liu. DeepChannel: Salience Estimation by Contrastive Learning for Extractive Document Summarization. In Proceedings of the 33rd AAAI Conference on Artificial Intelligence (AAAI 2019), Pages 6999-7006.

4、Jifan Yu, Chenyu Wang, Gan Luo, Lei Hou*, Juanzi Li, Jie Tang and Zhiyuan Liu. Course Concept Expansion in MOOCs with External Knowledge and Interactive Game. In Proceedings of the 57th Annual Meeting of the Association of Computational Linguistics (AAAI 2019), Pages 4292–4302.

5、Hailong Jin, Lei Hou*, Juanzi Li and Tiansi Dong. Fine-Grained Entity Typing via Hierarchical Multi Graph Convolutional Networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and 9th International Joint Conference on Natural Language Processing (EMNLP 2019), 2019, Pages 4970-4979.

6、Xin Lv, Yuxian Gu, Xu Han, Lei Hou*, Juanzi Li and Zhiyuan Liu. Adapting Meta Knowledge Graph Information for Multi-Hop Reasoning over Few-Shot Relations. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and 9th International Joint Conference on Natural Language Processing (EMNLP 2019), 2019, Pages 3367-3372.

7、Xin Lv, Lei Hou*, Juanzi Li and Zhiyuan Liu. Differentiating Concepts and Instances for Knowledge Graph Embedding. The Conference on Empirical Methods in Natural Language Processing (EMNLP 2018), 2018, Pages 1971-1979.

8、Yixin Cao, Lei Hou*, Juanzi Li, Zhiyuan Liu, Chengjiang Li, Xu Chen and Tiansi Dong. Joint Representation Learning of Cross-lingual Words and Entities via Attentive Distant Supervision. The Conference on Empirical Methods in Natural Language Processing (EMNLP 2018), Pages 227-237.

9、Yixin Cao, Lei Hou*, Juanzi Li and Zhiyuan Liu. Neural Collective Entity Linking. In Proceedings of the 27th International Conference on Computational Linguistics (COLING 2018), Pages 675-686.

陶瓷

尊敬的侯磊教授,
    您好!
    我是陈钰彬,目前在北京邮电大学人工智能专业就读。个人目前有出国的意向,希望能到您这里实习,提升科研经验和水平,最好能在指导下发一篇论文。我在清华大学官网上看到了您的主页,对您在知识图谱构建方向的研究非常感兴趣。
    我对您团队最近在一些会议和期刊上发表的一些论文也进行了的阅读和理解,特别是" CodeGeeX: A Pre-Trained Model for Code Generation with Multilingual Evaluations on HumanEval-X"论文。CodeGeeX出色的多语言代码生成,解释和翻译能力,以及在HumanEval-X上的优异表现,使我感到惊讶和兴奋。因此十分希望能够在您的实验室中对这个方向进行更深度的研究,更深入地理解这些概念,并将这些理论应用到实际问题中。同时我相信我能够为您的实验室带来一定的帮助。非常感谢您百忙之中抽空阅读这封邮件,期待您的回复!

2.高能计算研究所

a.章明星

📮:zhang_mingxing@mail.tsinghua.edu.cn
个人主页:http://madsys.cs.tsinghua.edu.cn/~zhangmx/

学士, 北京邮电大学, 中国, 2012
博士, 清华大学, 中国, 2017

并行与分布式处理

主要在计算机系统机构领域开展创新性和实用性相结合的研究工作,提出了系列新思路和新方法,相关成果在包括 OSDI、SOSP、ASPLOS、HPCA、FSE、VLDB、ATC、EuroSys 等国际顶级会议和期刊上发表论文二十余篇。曾获ACM SIGSOFT 杰出论文奖,IEEE TCSC、ACM SIGOPS等组织颁发的优秀博士毕业论文奖。获得国家自然科学基金青年科学基金及博士后基金一等项目资助。博士毕业后进入清华大学与深信服联合培养的博士后计划,负责创新业务孵化,担任深信服首席算法技术专家,后任职创新研究院院长。2022年加入清华大学计算机系高性能所,任职教研系列助理教授。

陶瓷

尊敬的章明星教授,
    您好!
    我是陈钰彬,目前在北京邮电大学人工智能专业就读。个人目前有出国的意向,希望能到您这里实习,提升科研经验和水平,最好能在指导下发一篇论文。我在清华大学官网上看到了您的主页,对您在并行与分布式处理方向的研究非常感兴趣。因此十分希望能够在您的实验室中对这个方向进行更深度的研究,更深入地理解这些概念。同时我相信我能够为您的实验室带来一定的帮助。我的个人简历已经添加到附件中,您可以随时查看。非常感谢您百忙之中抽空阅读这封邮件,期待您的回复!

b.渠鹏

📮:qp2018@tsinghua.edu.cn

工学学士(计算机科学与技术),清华大学,中国,2013;
工学博士(计算机科学与技术),清华大学,中国,2018。

计算机体系结构,类脑计算

主要研究工作围绕计算机体系结构和类脑计算展开。近期内和张悠慧老师以及其他合作人员结合传统图灵计算的精确过程能力和类脑计算的近似能力提出的神经形态完备性概念和相应的类脑计算系统层次结构。相关论文发表在Nature主刊(共同一作),同期刊发的评论文章认为我们提出了针对类脑计算紧耦合问题的“breakthrough solution”。 该论文是国内计算机系统结构方面的首篇《自然》论文。该项研究工作应用于国家“十三五”科技成就展“面向人工通用智能的类脑天机芯片及类脑计算系统”。研究成果获评2020年“世界互联网领先科技成果”主任委员特别推荐成果;并荣登2020年10月清华大学首页清华映像栏目。

3.人机交互与媒体集成研究所

a.穆太江

📮:dejungle@tsinghua.edu.cn
个人主页:https://cg.cs.tsinghua.edu.cn/people/~mtj/

北京清华大学计算机科学与技术系图形和几何计算小组的助理研究员。

2011年和2016年,分别在清华大学计算机科学与技术专业的胡志敏教授的指导下获得了学士学位和博士学位。

研究兴趣是计算机图形学。目前正在研究:

  • 视觉媒体学习
  • 3D重建和SLAM

2023:

  • Mesh Neural Networks Based on Dual Graph Pyramids
    Xiang-Li Li, Zheng-Ning Liu, Tuo Chen, Tai-Jiang Mu, Ralph R. Martin, Shi-Min Hu.
    IEEE Transactions on Visualization and Computer Graphics (TVCG), DOI: 10.1109/TVCG.2023.3257035, 2023.

  • Long Range Pooling for 3D Large-Scale Scene Understanding
    Xiang-Li Li, Meng-Hao Guo, Tai-Jiang Mu, Ralph R. Martin, Shi-Min Hu.
    Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2023), accepted.

  • Neural 3D reconstruction from sparse views using geometric priors
    Tai-Jiang Mu, Hao-Xiang Chen, Jun-Xiong Cai, Ning Guo.
    Computational Visual Media 2023, DOI: 10.1007/s41095-023-0337-5.

陶瓷

尊敬的穆太江教授
    您好!
    我是陈钰彬,目前在北京邮电大学人工智能专业就读。个人目前有出国的意向,希望能到您这里实习,提升科研经验和水平,最好能得到产出。
    我在清华大学官网上看到了您的主页,对您在计算机视觉方向的研究非常感兴趣。我对您团队最近在一些会议和期刊上发表的一些论文也进行了的阅读和理解,特别是在CVPR上发表的《Long Range Pooling for 3D Large-Scale Scene Understanding》论文,对论文中创新性的研究和取得的优异结果深受启发。我发现您在论文中根据Vision Transformers和大卷积核设计的成功,提出成功的关键在于长程交互和更强的非线性,然后设计dilation max pooling和 receptive field selection block的LRP模块来实现这两个原则。最后将LRP模块集成到现有的网络中进行实验,实验中LRPNet表现出的良好性能使我感到兴奋和惊讶。
    我对这项创新性研究的兴趣甚广,非常希望能有机会加入您的团队,在您的指导下参与这一方向的研究工作,同时我也相信我能够为您的实验室带来一定的帮助。
    如果能获得这次科研实习的宝贵机会,我将抓住时机努力工作,以回报您的帮助和启发。衷心感谢您考虑我的申请,简历放在了附件中,期待您的回复。

此致
最诚挚的问候

陈钰彬

3.智能技术与系统实验室

a.陈键飞

职称:副教授

📮:jianfeic@mail.tsinghua.edu.cn

主页:https://ml.cs.tsinghua.edu.cn/~jianfei/

研究领域:机器学习,深度学习,贝叶斯方法

研究概况:研究工作专注于深度学习的高效算法、基础理论。针对深度学习算法计算量大、收敛速度慢、内存消耗高的问题,针对具体问题提出了若干有理论保证的高效算法:

  • (1)基于随机量化的快速、省内存神经网络训练算法;
  • (2)基于随机采样和方差缩减的高效机器学习算法;
  • (3)深度生成模型的高效算法;
  • (4)主题模型的高效算法和大规模训练系统。研究成果作为ActNN、WarpLDA、ZhuSuan等开源软件发布。

学术成果:

[1] Jianfei Chen*, Lianmin Zheng*, Zhewei Yao, Dequan Wang, Ion Stoica, Michael W. Mahoney, and Joseph E. Gonzalez. “ActNN: Reducing Training Memory Footprint via 2-Bit Activation Compressed Training”. In ICML. 2021.

[2] Jianfei Chen, Gai Yu, Zhewei Yao, Michael W. Mahoney, Joseph E. Gonzalez. “A Statistical Framework for Low-bitwidth Training of Deep Neural Networks”. In NeurIPS. 2020.

[3] Jianfei Chen, Cheng Lu, Biqi Chenli, Jun Zhu, Tian Tian. “VFlow: More Expressive Generative Flows with Variational Data Augmentation”. In ICML. 2020.

[4] Jianfei Chen, Jun Zhu, Yee Whye Teh, Tong Zhang. “Stochastic Expectation Maximization with Variance Reduction.” In NIPS. 2018.

[5] Jianfei Chen, Jun Zhu, Le Song. “Stochastic training of graph convolutional networks with variance reduction.” In ICML. 2018.

[6] Jianfei Chen, Jun Zhu, Jie Lu, Shixia Liu. “Scalable Inference for Nested Chinese Restaurant Process Topic Models.” In VLDB. 2018.

[7] Kaiwei Li, Jianfei Chen, Wenguang Chen, Jun Zhu. “SaberLDA: Sparsity-Aware Learning of Topic Models on GPUs.” In ASPLOS. 2017.

[8] Jianfei Chen, Chongxuan Li, Jun Zhu, Bo Zhang. “Population matching discrepancy and applications in deep learning.” In NeurIPS. 2017.

[9] Jianfei Chen, Kaiwei Li, Jun Zhu, Wenguang Chen. “WarpLDA: a Cache Efficient O (1) Algorithm for Latent Dirichlet Allocation.” In VLDB. 2016.

[10] Jianfei Chen, Xun Zheng, Zi Wang, Jun Zhu, Bo Zhang. “Scalable Inference for Logistic-Normal Topic Models.” In NIPS. 2013.

陶瓷

尊敬的陈键飞教授:

您好!

我是北京邮电大学人工智能专业的陈钰彬。近期,我一直在思考未来出国深造的计划,并认为在实际的研究环境中增强自己的科研能力是至关重要的。因此,我希望有机会加入您的团队,获得宝贵的实践经验,并在您的指导下取得实质性的研究成果。

在清华官网上,我看到了您的主页,对您在机器学习方向的研究特别感兴趣,并为此专门研读了您的团队在各大期刊和会议上发表的论文,特别是"Stabilizing GANs’ Training with Brownian Motion Controller"这篇文章。该文章使我感兴趣的是从控制论的视角设计BMC,来有效稳定GAN的训练过程,使其全局收敛到最优平衡点,方法十分新颖。因此十分希望能够在您的实验室中对这个方向进行更深度的研究,更深入地理解这些概念,并将这些理论应用到实际问题中。同时我相信我能够为您的实验室带来一定的帮助。我的个人简历已经添加到附件中,您可以随时查看。非常感谢您百忙之中抽空阅读这封邮件,期待您的回复!

敬请安好!

陈钰彬

b.艾清遥

主页:https://ir.aiqingyao.org/home
职称:AP
电子邮件: aiqy@tsinghua.edu.cn

Experience:

  • 清华大学,终身制助理教授。中国北京,2022年8月-现在
  • 犹他大学终身制助理教授。美国犹他州盐湖城,2019年8月至2022年6月
  • 马萨诸塞大学阿默斯特分校,CIIR研究助理,由W教授提供建议。布鲁斯·克罗夫特。美国马萨诸塞州阿默斯特,2014年9月-7月。2019 年
  • 亚马逊搜索,数据科学家实习生,由Danial Hill和S指导。V.N.Vishwanathan,加利福尼亚州帕洛阿尔托,美国,2018年5月至2018年8月
  • 谷歌研究,博士实习生,由Xuanhui Wang、Nadav Golbandi和Michael Bendersky指导,美国加利福尼亚州,2017年6月-2017年9月
  • 微软研究,CLUES的研究实习生,由Susan Dumais和Nick Craswell指导。美国华盛顿州雷德蒙德,2015年6月至2015年9月
  • 清华大学,THUIR实验室的本科论文项目,由刘毅群教授提供建议。中国北京,2012年9月-2014年6月

陶瓷

尊敬的艾清遥教授:

您好!

我是北京邮电大学人工智能专业的陈钰彬。近期,我一直在思考未来出国深造的计划,并认为在实际的研究环境中增强自己的科研能力是至关重要的。因此,我希望有机会加入您的团队,获得宝贵的实践经验,并在您的指导下取得实质性的研究成果。

在清华官网上,我看到了您的主页,对您的研究方向特别感兴趣,并为此专门研读了您的团队在各大期刊和会议上发表的论文,特别是"Marginal-Certainty-aware Fair Ranking Algorithm"这篇文章。该文章使我感兴趣的是该算法首先建立一个包含不确定性、公平性和用户效用的排名目标函数,然后直接使用目标函数的梯度作为排名分数,方法十分新颖并且易于实现。十分希望能够在您的实验室中对这个方向进行更深度的研究,更深入地理解这些概念,并将这些理论应用到实际问题中。同时我相信我能够为您的实验室带来一定的帮助。我的个人简历已经添加到附件中,您可以随时查看。非常感谢您百忙之中抽空阅读这封邮件,期待您的回复!

敬请安好!

陈钰彬