讲者幻灯片开放下载!(见日程安排)
时间: ATT第八期:2018年7月26~27日 ATT第九期:2018年7月29~30日
报到时间: 7月26日
报到地点: 北京语言大学主楼209报告厅
上课地点: 北京语言大学主楼209报告厅(ATT第八期),北语礼堂(ATT第九期)
交通指南: 附近公交站:语言学院站(西门)、成府路站(南门)、清华东路站(东门);
公交线路:826、825、809、722、726、743、375等
附近地铁站:13号线五道口站 详细交通指南
主办单位: 中国中文信息学会, 中国中文信息学会学术工作委员会
承办单位: 北京语言大学
邀请函: 如果贵单位报销需要邀请函,请下载后自行打印 链接
暑期学校暨讲习班注册费 |
|||
注册及缴费日期 |
注册人员类别 |
注册费(人民币) |
|
2018年7月20日及以前 |
参加其中一期 |
会员 |
1700 |
非会员 |
2000 |
||
两期都参加 |
会员 |
3000 |
|
非会员 |
3400 |
||
2018年7月21日及以后 |
参加其中一期 |
会员 |
2000 |
非会员 |
2300 |
||
两期都参加 |
会员 |
3600 |
|
非会员 |
4000 |
||
备注:中国中文信息学会会员费:学生会员60元/人/年;正式会员120元/人/年;参会学员食宿自理。 优惠:已报名暑期学校的学员,如同时参加语言与智能高峰论坛,论坛注册费在原标准优惠200元。 |
深度学习研究如何通过监督学习、非监督学习、增强学习等手段,从大规模数据集中挖掘其内在结构,产生分布式表示,建立有效的多层神经网络。深度学习是人工智能领域的前沿热点,已在自然语言处理、计算机视觉、语音识别、计算机围棋等任务取得了令人瞩目的成绩,获得了学术界和工业界的广泛关注。
为进一步普及深度学习知识、促进自然语言处理技术发展、繁荣深度学习理论研究和工程开发,中国中文信息学会学术工作专委会定于2018年7月26日-27日,29日-30日,在北京语言大学举办中国中文信息学会前沿技术讲习班(CIPS ATT),邀请来自研究第一线的知名青年专家学者系统讲述面向自然语言处理的深度学习基础知识、表示学习、深度学习与词法、句法、语义分析、深度学习与机器翻译等,为感兴趣的学者、学生和工程师提供一个四天的学习交流机会,快速了解有关的基本概念、研究内容、发展趋势、算法实现和开源工具。
本次讲习班包括两期共四天的学习内容。第一期讲授深度学习与文本分析,第二期讲授深度学习新进展及其在自然语言处理中的应用
7月26日 |
||
08:30-09:00 |
开幕式,合影 |
|
09:00-12:00 |
深度学习基础[slides] |
邱锡鹏(复旦大学) |
12:00-14:00 |
午餐,午间休息 |
|
14:00-17:00 |
语义表示学习[slides] |
刘知远(清华大学) |
7月27日 |
||
09:00-12:00 |
深度学习与词法句法语义分析[slides] |
车万翔(哈尔滨工业大学) |
12:00-14:00 |
午餐,午间休息 |
|
14:00-15:20 |
深度学习与机器翻译[slides] |
张家俊(中国科学院自动化研究所) |
15:40-17:00 |
涂兆鹏(腾讯AI Lab) |
7月29日 |
||
09:00-12:00 |
深度强化学习与GAN基础[slides] |
俞扬(南京大学) |
12:00-14:00 |
午餐,午间休息 |
|
14:00-15:20 |
信息检索中的深度强化学习新进展[slides] |
徐君(中国科学院计算技术研究所) |
15:40-17:00 |
庞亮(中国科学院计算技术研究所) |
|
7月30日 |
||
09:00-12:00 |
对话系统中的深度学习进展[slides] |
李纪为(香侬科技) |
12:00-14:00 |
午餐,午间休息 |
|
14:00-17:00 |
知识图谱中的深度学习新进展[slides] |
William Wang (University California, Santa Barbara) |
17:00-17:30 |
结业仪式 |
本次讲习班邀请了在自然语言处理领域较早开展深度学习研究并取得众多成果的几位青年学者讲授深度学习理论知识,以及自然语言处理中的应用。按授课顺序,他们包括:
报告题目:深度学习基础报告人: 邱锡鹏(复旦大学)个人主页:http://nlp.fudan.edu.cn/xpqiu |
![]() |
深度学习技术目前在学术界和工业界取得了广泛的成功,并逐渐受到了高度重视。本报告主要梳理机器学习与深度学习的整体脉络、主要模型、以及最新进展,使得听众可以掌握深度学习的基本原理,培养深度学习的思维模式,独立规划和开发AI项目。
邱锡鹏,复旦大学计算机科学技术学院 副教授,博士生导师,于复旦大学获得理学学士和博士学位。中国中文信息学会青年工作委员会执委、计算语言学专委会委员、中国人工智能学会青年工作委员会常务委员、自然语言理解专委会委员。主要研究领域包括人工智能、机器学习、深度学习、自然语言处理等,并且在上述领域的顶级期刊、会议(ACL/EMNLP/IJCAI/AAAI等)上发表过50余篇论文。自然语言处理开源工具FudanNLP作者,2015年入选首届中国科协青年人才托举工程,2017年ACL杰出论文奖。
报告题目:语义表示学习报告人: 刘知远(清华大学)个人主页: http://nlp.csai.tsinghua.edu.cn/~lzy |
![]() |
分布式表示(Distributed Representation)是深度学习的基本特征,对计算机视觉、自然语言处理和语音识别等无结构信息的处理,发挥了重要作用。本讲讲主要讲授面向自然语言处理的语义表示学习的基本原理与技术,介绍面向汉字、词汇、短语、知识和网络等研究对象的语义表示学习的基本思想,并展望在该方向的主要挑战与前沿方向。
刘知远,清华大学计算机系副教授、博士生导师。主要研究方向为表示学习、知识图谱和社会计算。2011年获得清华大学博士学位,已在ACL、IJCAI、AAAI等人工智能领域的著名国际期刊和会议发表相关论文60余篇,Google Scholar统计引用超过2700次。承担多项国家自然科学基金。曾获清华大学优秀博士学位论文、中国人工智能学会优秀博士学位论文、清华大学优秀博士后、中文信息学会青年创新奖,入选中国科学青年人才托举工程、CCF-Intel青年学者提升计划。担任中文信息学会青年工作委员会执委、副主任,中文信息学会社会媒体处理专委会委员、秘书,SCI期刊Frontiers of Computer Science青年编委,ACL、COLING、IJCNLP领域主席。
报告题目:深度学习与词法、句法、语义分析报告人: 车万翔(哈尔滨工业大学)个人主页: http://ir.hit.edu.cn/~car/ |
![]() |
词法、句法和语义分析是自然语言处理的基础研究任务,这些任务可以统一抽象为结构预测问题。与分类问题不同,结构预测中的输出类别很多是相互关联的,此类任务往往是自然语言处理独有的。如何使用深度学习技术进行结构学习是目前自然语言处理领域的热点研究问题之一。本讲习班将以词法分析(分词、词性标注)、句法分析(依存句法分析、短语结构句法分析)和语义分析(语义角色标注、 语义依存分析)为例,介绍基于深度学习的结构预测方面的最新研究进展。首先,介绍基本的使用贪婪搜索进行结构预测的方法;接着,介绍基于动态规划等全局搜索的方法,与前一种方法一样,它们都使用深度学习的方法学习特征的表示;最后,介绍如何在学习的过程中使用全局搜索方法,进一步提高系统的准确率。
车万翔博士,哈尔滨工业大学计算机学院教授,博士生导师,斯坦福大学访问学者,合作导师Christopher Manning教授。现任中国中文信息学会计算语言学专业委员会委员、青年工作委员会副主任;中国计算机学会高级会员、曾任YOCSEF哈尔滨主席(2016-2017年度)。在ACL、EMNLP、AAAI、IJCAI等国内外高水平期刊和会议上发表学术论文50余篇,其中AAAI 2013年的文章获得了Outstanding Paper Honorable Mention奖,出版教材 2 部,译著 2 部。目前承担国家自然科学基金、973等多项科研项目。负责研发的语言技术平台(LTP)已被600余家单位共享,提供的在线“语言云”服务已有用户1万余人,并授权给百度、腾讯、华为等公司使用。2009年,获CoNLL国际多语种句法和语义分析评测中第一名。2015-16年,连续两年获Google Focused Research Award(谷歌专注研究奖);2016年,获黑龙江省科技进步一等奖(排名第2);2012年,获黑龙江省技术发明奖二等奖(排名第2);2010年获中国中文信息学会“钱伟长”中文信息处理科学技术奖一等奖(排名第2)、首届汉王青年创新奖(个人)等多项奖励。2017年,所主讲的《Python语言程序设计》课程获国家精品在线开放课程。
报告题目:深度学习与机器翻译 | |
报告人: 张家俊(中国科学院自动化研究所)个人主页: http://www.nlpr.ia.ac.cn/cip/jjzhang.htm |
![]() |
报告人: 涂兆鹏(腾讯AI Lab)个人主页: http://www.zptu.net |
![]() |
近年来,基于端到端的神经机器翻译逐渐取代统计机器翻译,成为新的研究范式。循环神经网络、卷积神经网络以及自我注意机制等框架相继被提出,并不断刷新译文质量的最高水平。无论学术研究、系统评测还是工业界系统实现,无一例外都采用神经机器翻译作为基线系统。本次讲习班希望从基础到前沿,给大家详细介绍神经机器翻译。首先,我们从统计机器翻译的不足之处引入神经机器翻译,介绍基于注意机制的编码-解码基本框架、基于卷积神经网络的模型以及自我注意模型。然后,简单介绍统计方法与深度学习方法融合的研究工作。最后,我们深度探讨各种神经机器翻译的模型优化方法。
张家俊,博士,中科院自动化所模式识别国家重点实验室副研究员、中国中文信息学会青年工作委员会执委。研究方向为自然语言处理、机器翻译、跨语言文本信息处理、深度学习等。在国际著名期刊IEEE/ACM TASLP、IEEE Intelligent Systems、ACM TALLIP与国际顶级会议AAAI、IJCAI、ACL、EMNLP、COLING等发表学术论文50余篇。曾四次获得自然语言处理学术会议(PACLIC-2009、NLPCC-2012、CWMT-2014和NLPCC-2017)最佳论文奖。被评为2015年ACL-IJCNLP和2018年NAACL的杰出审稿人(Outstanding Reviewer)。2014年获中国中文信息学会“钱伟长中文信息处理科学技术奖”一等奖(排名第三)。2015年入选首届中国科协“青年人才托举工程”计划。担任国际人工智能大会IJCAI-2017、IJCAI-2018和AAAI-2019的高级程序委员会委员、国际自然语言处理大会COLING-2018的领域主席以及2018年全国机器翻译研讨会CWMT-2018的程序委员会共同主席。
涂兆鹏,博士,腾讯AI Lab高级研究员,主要从事自然语言处理和深度学习方面的研究。在ACL, TACL, EMNLP, AAAI, IJCAI等国际顶级会议和期刊发表论文三十余篇,长期担任CL, ACL, EMNLP等国际顶级期刊和会议的审稿人,并担任EMNLP2018机器翻译领域主席和AAAI2019高级程序委员会委员。
报告题目:深度强化学习与GAN基础报告人: 俞扬(南京大学)个人主页: http://lamda.nju.edu.cn/yuy/ |
![]() |
报告摘要:强化学习旨在赋予机器自主适应环境的能力,近年来与深度学习的结合,使得强化学习在视觉游戏、围棋等领域中显示出重要作用。本次报告将介绍强化学习基础、深度强化学习的一些研究进展,并且讨论深度强化学习样本效率低的困境。本次报告还将介绍缓解样本效率低的一条途径,即模仿学习,并介绍对抗生成网络基础,以及在模仿学习中的使用。
俞扬,博士,南京大学副教授。主要研究领域为机器学习、强化学习。获得南京大学计算机科学与技术系学士学位和博士学位,博士学位论文被评为全国优秀博士学位论文、CCF优秀博士学位论文。2011年8月加入南京大学计算机科学与技术系、机器学习与数据挖掘研究所(LAMDA)从事教学与科研工作。研究工作发表在Artificial Intelligence、IJCAI、AAAI、NIPS、KDD等,受邀在IJCAI 2018做Early Career Spotlight报告,入选2018年IEEE Intelligent Systems杂志AI'10 to Watch,获2018年PAKDD Early Career Award。
报告题目:信息检索中的深度强化学习新进展 | |
报告人: 徐君(中国科学院计算技术研究所)个人主页: http://www.bigdatalab.ac.cn/~junxu/index_cn.html |
![]() |
报告人: 庞亮(中国科学院计算技术研究所)个人主页: http://www.intsci.ac.cn/users/pangliang/index.html |
![]() |
在信息检索中,查询-文档的匹配和候选文档的排序是影响检索性能的关键因素,传统的机器学习技术已经被用于解决匹配和排序问题,称为"匹配学习"和"排序学习"。近年来,得益于其强大的表达学习、模式发现以及交互建模能力,深度学习和强化学习技术被逐步地被应用于信息检索中并显著地提升了匹配和排序的性能。本次讲习班将介绍深度学习和强化学习在信息检索中的应用进展,具体而言,在匹配方面,我们将从解决查询-文档间语义鸿沟的角度出发,系统介绍深度语义匹配模型;在排序方面,我们将分析用户与检索系统间的不同交互模式,介绍强化学习在复杂排序任务中的研究进展。
徐君,博士,中科院计算所网络数据科学与技术实验室研究员,博士生导师,研究方向为互联网搜索和大数据分析。在国际期刊JMLR、TOIS、TIST、IRJ与国际会议SIGIR、WWW、CIKM、AAAI、IJCAI等发表学术论文50余篇。获得AIRS 2010最佳论文和CIKM 2017亚军最佳论文奖,被提名SIGIR 2017和2018 Test of Time Award。担任SIGIR、TheWebConf (WWW)、AAAI和ACML等国际会议的高级程序委员会委员,担任全国计算语言学会议CCL 2018领域主席,任期刊JASIST的编委成员。
庞亮,博士,中科院计算所网络数据科学与技术实验室助理研究员,研究方向为自然语言理解和深度学习。在AAAI, IJCAI, SIGIR, CIKM等国际会议发表过论文。主要从事自然语言处理和深度学习方面的研究。担任TIST,ACML,CCL等期刊和会议的审稿人。曾获微软亚洲研究院"明日之星"称号。提出的深度文本匹配模型在Kaggle Quora Question Pair文本匹配比赛中获得全球第四,曾获RecSys2013: Yelp Business Rating Prediction第一名,2016 Bytecup竞赛第一名,以及许多机器学习与大数据比赛的前十名次。以主讲人身份参加阿里巴巴、腾讯、知乎、今日头条等公司的深度学习相关技术报告。
报告题目:对话系统中的深度学习进展报告人: 李纪为 (香侬科技) |
![]() |
深度学习为开放域对话系统带来了同样的机遇和挑战。在本次报告中,我将先介绍对话系统的历史,然后讲从5个方面讨论我们如何应对这个挑战:(1)如何产生有意思、有信息量的回复(2)如何利用上下文产生更确切的回复(3)如何保持谈话的一致性(4)如何运用强化学习、对抗学习产生更持久的对话(5)如何给机器赋予提问的能力。最后我们将展望一下未来几年对话系统的发展。
李纪为,博士,香侬科技创始人&CEO。斯坦福大学历史上第一位三年毕业的计算机博士。在ACL、EMNLP、ICLR、NAACL、WWW等顶级会议期刊以第一作者身份发表文章20余篇。在剑桥大学学者Marek Rei发布的自然语言处理 顶级会议作者统计中,李纪为以14 篇顶级会议论文第一作者的数据排名第一。他是2015年Facebook奖学金、2016年百度奖学金的获得者。
报告题目:Recent Advances in Knowledge Graph Construction and Reasoning报告人: William Wang (UCSB)个人主页: http://www.cs.ucsb.edu/~william/ |
![]() |
A key challenge in modern Natural Language Processing research is on developing weakly-supervised methods for extracting knowledge from unstructured text data. Once we have partially complete and noisy knowledge graphs, how to teach machines to learn to reason and complete the extracted knowledge graph is also another major challenge. In this tutorial, we will provide a gentle introduction to three important topics in this area: Part I: Distantly-Supervised Relation Extraction. In the first part, we will introduce the classic literature on distant supervision relation extraction, as well as recent advances in neural relation extraction. We will discuss our recent efforts on reinforcement learning and adversarial learning for robust distant supervision. Part II: Recent Advances in Knowledge Graph Embedding. In the second part, we shift focus and discuss the recent advances in various embedding methods for knowledge graph representation learning with a focus on KBGAN and adversarial learning. Part III: Knowledge Graph Reasoning. Finally, we describe recent advances in knowledge base reasoning. We start with the gentle introduction to the literature, focusing on path-based methods. We then describe DeepPath, a recent attempt at using deep reinforcement learning to combine the best of both worlds for knowledge base reasoning. We will also discuss DIVA, a principled variational framework for integrating path-finding and path-reasoning.
William Wang is the Director of UC Santa Barbara’s Natural Language Processing group (http://nlp.cs.ucsb.edu/) and an Assistant Professor in the Department of Computer Science at the University of California, Santa Barbara. He received his PhD from School of Computer Science, Carnegie Mellon University. He has broad interests in machine learning approaches to data science, including statistical relational learning, information extraction, computational social science, speech, and vision. He has published more than 50 papers at leading NLP/AI/ML conferences and journals, and received best paper awards (or nominations) at ASRU 2013, CIKM 2013, and EMNLP 2015, a best reviewer award at NAACL 2015, an IBM Faculty Award in 2017, a Facebook Research Award in 2018, an Adobe Research Award in 2018, and the Richard King Mellon Presidential Fellowship in 2011. He served an Area Chair for NAACL, ACL, EMNLP, and AAAI. He is an alumnus of Columbia University, and a former research scientist intern of Yahoo! Labs, Microsoft Research Redmond, and University of Southern California. In addition to research, William enjoys writing scientific articles that impact the broader online community: his microblog @王威廉 has 100,000+ followers and more than 2,000,000 views each month. His work and opinions appear at major tech media outlets such as Wired, VICE, Fast Company, and Mental Floss. He is one of the most prolific NLP authors in 2018, with 11 papers published at ACL and NAACL.
![]() |
刘康,博士,现任中科院自动化所模式识别国家重点实验室副研究员,西安电子科技大学客座教授。研究领域包括信息抽取、网络挖掘、问答系统等,同时也涉及模式识别与机器学习方面的基础研究。在自然语言处理、知识工程等领域国际重要会议和期刊发表论文六十余篇(如TKDE、ACL、IJCAI、EMNLP、COLING、CIKM等),获得KDD CUP 2011 Track2 全球亚军,COLING 2014最佳论文奖,首届“CCF-腾讯犀牛鸟基金卓越奖”、2014年度中国中文信息学会“钱伟长中文信息处理科学技术奖-汉王青年创新一等奖”、2015、2016 Google Focused Research Award等。 |
![]() |
韩先培,博士,中国科学院软件研究所计算机科学国家重点实验室/中文信息处理研究室副研究员。主要研究方向是信息抽取、知识库构建、语义计算以及智能问答系统。在ACL、SIGIR、AAAI、EMNLP等重要国际会议发表论文40余篇,论文被引900余次。韩先培是中国中文信息学会理事,中国中文信息学会语言与知识计算专业委员会副主任,中国科学院青促会会员。于2016年入选中国科协青年人才托举计划,同年获得中国中文信息学会汉王青年创新奖。 |