从学习的角度讨论认知智能的现状与未来

Transformer+Pretraining的范式在大量NLP标准任务上取得巨大的准确率提升,然而机器的认知能力仍然存在较大的局限性。我们将从机器学习的角度分析认知智能取得的突破,讨论当前方法存在的不足和潜在的突破方向。


简介:杨植麟是循环智能(Recurrent AI)联合创始人;曾在自然语言理解、文本分类、问答、半监督学习等30多个AI任务上取得世界第一(state-of-the-art),引用数超过5000;其作为第一作者发明的XLNet在20项任务上超越Google BERT,是2019年全球引用最高的同行评审NLP论文,入选AI顶级会议NeurIPS 2019口头报告(录用率千分之五);其发明的Transformer-XL是首个全面超越RNN的注意力语言模型,是ACL 2019引用最高的论文。他入选北京智源AI研究院评选的“青年科学家”项目,也是该项目的唯一90后;曾获得西贝尔学者、英伟达学者、英伟达先锋研究奖等称号;2017-2018连续入选剑桥大学研究员发布的NLP一作排行榜,是全球仅有的三人之一;与多名图灵奖得主合作发表论文。其创立的人工智能公司Recurrent AI,致力于用AI技术提升销售和客服效率,获得来自红杉、真格、金沙江等机构的上亿元融资。本科毕业于清华大学,博士毕业于卡内基梅隆大学。