联系客服
客服二维码

联系客服获取更多资料

微信号:LingLab1

客服电话:010-82185409

意见反馈
关注我们
关注公众号

关注公众号

linglab语言实验室

回到顶部
第二十届中国计算语言学大会(CCL 2021)

1404 阅读 2021-12-02 10:15:30 上传

会议讲座: 会议

时       间: 2021.12.03~2021.12.05

形       式: 现场

人       数: 待定

第二十届中国计算语言学大会(CCL 2021)将于12月3-5日在线召开!NLP学术盛宴等你来!全部报告+讲习班+前沿综述对外开放,无需注册。




会议介绍

中国计算语言学大会(The China National Conference on Computational Linguistics, CCL)创办于1991年,是中国中文信息学会(CIPS)的旗舰会议。经过近三十年的发展,CCL被广泛认为是最权威的、全国最具影响力、规模最大的NLP会议之一。CCL聚焦于中国境内各类语言的智能计算和信息处理,为研讨和传播计算语言学最新学术和技术成果提供了广泛的高层次交流平台。


第二十届中国计算语言学大会(The Twentieth China National Conference on Computational Linguistics, CCL 2021) 将于2021年12月3-5日在线召开。会议组织单位为中国中文信息学会计算语言学专业委员会,承办单位为内蒙古大学。今年会议邀请了西安交通大学徐宗本院士、北京语言大学语言科学院冯胜利教授、清华大学基础科学讲席教授刘嘉教授、京东探索研究院陶大程院长、清华大学计算机系副主任唐杰教授五位知名专家做特邀报告。本次讲习班邀请到了中国人民大学高瓴人工智能学院长聘副教授赵鑫、清华大学自动化系助理教授黄高、复旦大学大数据学院副教授魏忠钰、南京理工大学计算机学院教授夏睿四名学者。


全部报告对外开放,无需注册。


会议官网:http://cips-cl.org/static/CCL2021/index.html

      

图片


特邀报告



图片
讲者:徐宗本
题目:如何突破机器学习的先验假设?
时间:2021年12月4日09:30-10:30
摘要:机器学习是人工智能的最基础、最核心技术(算法),但机器学习的执行通常都是以一组基本的先验假设为前提的,这些基本假设包括: 假设空间的大容量假设、训练数据的完备性假设、损失度量的数据独立假设、正则项的凭经验设置假设、分析框架的欧氏空间假设等。本报告分析这些假设的作用、局限及其影响,提出突破这些基本假设的可能途径与方法。特别,我们提出突破假设空间大容量假设的模型驱动深度学习方法、突破训练数据完备性假设的课程-自步学习方法、突破损失度量数据独立假设的误差建模原理、突破正则项经验设置假设的隐正则化方法、突破分析框架欧氏空间假设的Banach空间几何方法。每一情况下,我们举例说明新突破带来新价值。所有这些尝试构成机器学习的适配性理论,是当下机器学习研究的一个新方向。
简介:中国科学院院士,数学家、信号与信息处理专家、西安交通大学教授。主要从事智能信息处理、机器学习、数据建模基础理论研究。曾提出稀疏信息处理的L(1/2)正则化理论,为稀疏微波成像提供了重要基础;发现并证明机器学习的“徐-罗奇”定理, 解决了神经网络与模拟演化计算中的一些困难问题,为非欧氏框架下机器学习与非线性分析提供了普遍的数量推演准则; 提出基于视觉认知的数据建模新原理与新方法,形成了聚类分析、判别分析、隐变量分析等系列数据挖掘核心算法, 并广泛应用于科学与工程领域。曾获国家自然科学二等奖、国家科技进步二等奖、陕西省最高科技奖; 国际IAITQM 理查德.普莱斯(Richard Price)数据科学奖; 中国陈嘉庚信息技术科学奖、中国CSIAM苏步青应用数学奖;曾在2010年世界数学家大会上作45分钟特邀报告。曾任西安交通大学副校长,现任人工智能与数字经济广东省实验室(琶洲实验室)主任、西安数学与数学技术研究院院长、陕西国家应用数学中心主任、大数据算法与分析技术国家工程实验室主任,是国家大数据专家咨询委员会委员、国家新一代人工智能战略咨询委员会委员。

图片
讲者:陶大程
题目:(Re-)building Trust in Deep Learning
时间:2021年12月4日10:30-11:30
摘要:The world is on the eve of the enthusiasm revolution by deep learning sweeping across almost all sectors of our society. Concerns are rising when the deployment has happened in the security critical domains, including autonomous vehicles and medical diagnosis. Fatal disasters on road, infamous privacy breaches, and shocking discrimination scandals undermine public confidence in deep learning applications. In this talk, we will present our perspectives, theory, and practice in (re-)building trust in deep learning.
简介:Dacheng Tao is the President of the JD Explore Academy and a Senior Vice President of JD.com. He is also an advisor of the digital science institute in the University of Sydney. He mainly applies statistics and mathematics to artificial intelligence and data science, and his research is detailed in one monograph and over 200 publications in prestigious journals and proceedings at leading conferences. He received the 2015/2020 Australian Eureka Prize, the 2018 IEEE ICDM Research Contributions Award, and the 2021 IEEE Computer Society McCluskey Technical Achievement Award. He is a fellow of the Australian Academy of Science, AAAS, ACM and IEEE.

图片
讲者:刘嘉
题目:Principles that govern the functionality of human visual cortex: a perspective from spatial cognition
时间:2021年12月5日09:00-10:00
摘要:Spatial cognition is concerned with the acquisition, organization and utilization of spatial information. It lays the foundation of many other cognitive functions, sets the framework of the mental representation of the world, and is part of core knowledge system on which human intelligence depends. Therefore, the investigation of spatial cognition is critical in revealing the nature of human intelligence. Building upon recent advances in cognitive neuroscience, imaging genetics, developmental psychology and computational modelling, the present study investigates the genetic, neural and behavioral mechanisms of human spatial cognition in particular, and proposes a computational framework on human mental spaces for object recognition and language processing in general that relies on the mechanism of spatial cognition.
简介:刘嘉,清华大学基础科学讲席教授。曾任北师大心理学院院长、心理学部部长,现为清华大学脑与智能实验室首席研究员、北京智源人工智能研究院首席科学家。北京大学心理学系学士、硕士,美国麻省理工学院脑与认知科学系博士。从事心理学/认知神经科学/人工智能的教学、科研和应用工作,是国家杰出青年基金获得者、中科院百人计划入选者、美国富布莱特研究学者、教育部长江学者特聘教授、科技部中青年科技创新领军人才、国家“万人计划”科技创新领军人才、享受政府特殊津贴。先任中国人才学会超常人才专业委员会会长、中国心理学会常务理事、中国高等教育学会常务理事。

图片
讲者:冯胜利
题目:论语言学理论及其构型条件
时间:2021年12月5日10:30-11:30
摘要:本文从通常情况下对理论的理解和误解入手(如语言=语言学、拿来=理论、技术=理论、说法=理论等等),提出理论构建的学科意义(Yuval Noah Harair 2011),其基本要素包括(但不限于):1、概念(conception)的定义(戴震之“必”、段玉裁之“断无”、以及我们提出的“韵律语法”和“语体语法”等);2、原理(principle)的发掘(如“凡谐声者皆同部”的公理性,声韵相挟必然性);3、溯因(abduction)思维下的领域创设(如相对凸显与心脏跳动→生理节律学[Biometrical phonology]、形式功能对生律与冰锥论→生物物理语体学 [Biophysical Register]等);4、八-tion两段理论构型模式(建筑地基:observation,classification,characterization,generalization;建筑自身:abduction,deduction,prediction,verification)。在此基础之上,文章继而提出理论构型的三个基本条件:(一)理论构建命题为先(命题的句法结构、公理的绝一不二、演绎的族群建立);(二)理论构型必说无(描写说有、理论说无、不说必无难为理论);(三)理论构型必以自家之玉攻它山之石(如四字格、韵律词和韵律句法学的建立)。文章最后指出:中国学术传统自来主张“依自不依他”(章太炎),而当代中国学术则更应承袭乾嘉理必之学,完成从材料归纳到演绎推理的科学转型。
简介:冯胜利,北京语言大学语言科学院教授、博士生导师。美国宾夕法尼亚大学语言学系博士,现任北京语言大学章黄学术理论研究所所长、天津大学语言科学中心首席教授、香港中文大学中国语言及文学系荣誉退休教授。曾任北京语言大学长江学者讲座教授(2005年)、美国堪萨斯大学东亚系副教授,哈佛大学东亚系汉语应用学科教授及中文部主任。其研究兴趣包括乾嘉“理必”与章黄学理研究、训诂学、韵律语法学、语体语法学、汉语历时句法学、汉语韵律文学史。出版学术专著16部(含英文2部,另被译成英文和韩文2部),发表中英文学术论文200余篇。现任《中国语言学报》(JCL,SSCI索引)联席主编和《韵律语法研究》联席主编。

者:唐杰
题目:WuDao: Pretrain the World
时间:2021年12月5日13:30-14:30
摘要:Large-scale pretrained model on web texts have substantially advanced the state of the art in various AI tasks, such as natural language understanding and text generation, and image processing, multimodal modeling. The downstream task performances have also constantly increased in the past few years. In this talk, I will first go through three families: augoregressive models (e.g., GPT), autoencoding models (e.g., BERT), and encoder-decoder models. Then, I will introduce China’s first homegrown super-scale intelligent model system, with the goal of building an ultra-large-scale cognitive-oriented pretraining model to focus on essential problems in general artificial intelligence from a cognitive perspective. In particular, as an example, I will elaborate a novel pretraining framework GLM (General Language Model) to address this challenge. GLM has three major benefits: (1) it performs well on classification, unconditional generation, and conditional generation tasks with one single pretrained model; (2) it outperforms BERT-like models on classification due to improved pretrain-finetune consistency; (3) it naturally handles variable-length blank filling which is crucial for many downstream tasks. Empirically, GLM substantially outperforms BERT on the SuperGLUE natural language understanding benchmark with the same amount of pre-training data.
简介:Jie Tang is a Professor and the Associate Chair of the Department of Computer Science at Tsinghua University. He is a Fellow of the IEEE. His interests include artificial intelligence, data mining, social networks, and machine learning. He served as General Co-Chair of WWW’23, and PC Co-Chair of WWW’21, CIKM’16, WSDM’15, and EiC of IEEE T. on Big Data and AI Open J. He leads the project AMiner.org, an AI-enabled research network analysis system, which has attracted more than 20 million users from 220 countries/regions in the world. He was honored with the SIGKDD Test-of-Time Award, the UK Royal Society-Newton Advanced Fellowship Award, NSFC for Distinguished Young Scholar, and KDD’18 Service Award.


CCL 2021 讲习班暨中国中文信息学会《前沿技术讲习班》第25期(CIPS ATT25)


图片
讲者:魏忠钰
题目:跨视觉语言模态的联合语义建模和推理
时间:2021年12月3日09:00-10:30
摘要:跨视觉和语言模态的语义理解和生成是结合计算机视觉和自然语言处理的一个重要课题,有广阔的应用需求,包括图片检索,视力障碍人士的辅助工具以及低龄学童教育支持等。视觉和语言是我们感知外部环境的重要方式,某种程度上说,它们是同一个客观世界的两套表示方法,并且互有侧重。近年来,深度学习的发展为跨视觉和语言领域的研究提供了便利,也催生了很多跨模态任务,包括跨模态检索、推理、生成和视觉导航等。本次讲习班将梳理跨模态语义联合建模的前沿研究,以及相关方法在不同任务中的应用,并将重点放在跨模态推理的相关工作中。
简介:魏忠钰,复旦大学大数据学院副教授,博士生导师,复旦大学数据智能与社会计算实验室(Fudan-DISC)负责人,自然语言处理实验室(Fudan-NLP)团队成员,现任中文信息学会情感计算专委会(筹)副秘书长,社交媒体处理专委会常务委员兼秘书,青年工作委员会执行委员。主要研究领域为自然语言处理,机器学习和社会媒体处理,专注于结合语言和视觉的多模态信息理解与生成、论辩挖掘和交叉学科应用研究。在相关领域的国际会议、期刊如CL,ACL,SIGIR,EMNLP,ICML,ICLR,AAAI,IJCAI,Bioinformatics等发表学术论文70余篇。担任多个重要国际会议及期刊评审,是EMNLP 2020 的跨模态领域主席。获得2017年度上海市青年扬帆计划,2019年度中国中文信息学会社会媒体处理新锐奖,2020年华为公司优秀成果奖。

图片
讲者:黄高
题目:动态深度神经网络
时间:2021年12月3日10:30-12:00
摘要:深度神经网络在诸多领域得到了成功应用,但深度模型所需的巨大计算开销仍制了其可用性。本报告将介绍一类在推理过程中能够根据输入的变化改变自身结构的自适应神经网络模型。相较于当前主流的静态深度模型,动态网络能够针对输入的变化相应地调整自身的深度、宽度或者参数值等,实现计算量的“按需分配”,进而提升网络的效率,降低系统功耗。报告将介绍几类典型的样本自适应动态网络和时空自适应动态网络,并讨论现有方法的局限以及未来发展前景。
简介:黄高,清华大学自动化系助理教授,博士生导师。2015年获清华大学博士学位,2015年至2018年在美国康奈尔大学计算机系从事博士后科研工作。主要研究领域为深度学习和计算机视觉,提出了主流卷积网络模型DenseNet。目前在NeurIPS,ICML,CVPR等国际顶级会议及IEEE多个汇刊共计发表学术论文50余篇,被引20000余次。获CVPR最佳论文奖、达摩院青橙奖、世界人工智能大会SAIL先锋奖、中国自动化学会优秀博士学位论文、全国百篇最具影响国际学术论文、中国人工智能学会自然科学一等奖和吴文俊优秀青年奖等荣誉和基金委优秀青年基金资助。

图片
讲者:赵鑫
题目:大规模预训练语言模型研究进展回顾
时间:2021年12月3日14:00-15:30
摘要:大规模预训练语言模型已经成为当前自然语言处理领域最重要的研究方向之一,有效提升了多种NLP任务的最好效果。本次报告将对最近几年大规模预训练语言模型的研究进展进行简要梳理和回顾,主要报告内容集中在以下的几个方面。(一)模型架构:大规模预训练语言模型的主流架构和设计思路;(二)学习方法:大规模预训练语言模型的训练、学习以及优化策略;(三)使用范式:大规模预训练语言模型的通用任务解决方法以及微调模式;(四)相关应用:将选取若干基于大规模预训练语言模型的相关应用进行介绍。
简介:赵鑫,现为中国人民大学高瓴人工智能学院长聘副教授。2014年7月于北京大学获得博士学位,随后进入中国人民大学工作至今。研究领域为信息检索与自然语言处理,共计发表论文80余篇。荣获2020年吴文俊人工智能优秀青年奖、ECIR’21时间检验奖(Test of Time Award)等,入选中国科协青年人才托举工程、北京智源青年科学家。

图片
讲者:夏睿
题目:情感分析与观点挖掘:回顾与展望
时间:2021年12月3日15:30-17:00
摘要:报告分为三个部分。第一部分:回顾情感分析和观点挖掘领域的研究历史,从任务类型、分析粒度两个角度,介绍文档、句子、词语、属性级情感分析中的代表任务和经典方法;第二部分:探讨情感分析和观点挖掘研究中的两个特殊问题:情感极性转移和领域适应。分析这两方面问题的意义、研究进展、代表性方法;第三部分:交流近几年情感分析和观点挖掘领域的研究热点,以情绪分析与原因抽取、细粒度多要素观点抽取为例,介绍其与传统任务的区别和最新的研究成果,并对未来工作方向进行展望。
简介:夏睿,南京理工大学计算机学院教授、博导。研究领域为自然语言处理、情感分析与观点挖掘。在自然语言处理、人工智能、数据挖掘领域的国内外重要期刊和会议发表论文50余篇、出版学术专著2部,曾获国际计算语言学协会年会ACL2019杰出论文奖、中国中文信息学会青年创新奖一等奖等荣誉。


NLP前沿动态综述(CCL 2021)


图片
讲者:王少楠(认知+NLP)
题目:语言认知与语言计算
摘要:语言理解是认知科学和计算机科学交叉领域共同关心的问题,但两个学科在选择具体研究问题时却十分不同。认知科学领域的研究侧重解析大脑的工作机制,更多地关注于描述大脑对语言的响应,缺乏对大脑语言功能整体化、系统化的研究,而计算机科学家在选择研究问题时重点关注实际应 用效能,往往忽略了对语言最本质规律的研究。那么,如何实现两种思路的交叉融合,为智能语言计算模型的构建和语言认知机理的研究带来新的机遇和启发呢 ?
个人简介:王少楠,中科院自动化所模式识别国家重点实验室副研究员,中科院青促会会员。研究方向为自然语言理解和语言的神经认知基础等,主持国家自然科学重点基金项目“基于自然语言理解的语言认知和计算模型”和青年科学基金项目“语言表征机理及受脑启发的文本表示模型研究“。曾获中科院脑科学与智能技术卓越创新中心青年人才奖励基金、中国科学院院长奖学金特别奖、中国科学院优秀博士论文、中文信息学会优秀博士论文等。

图片
讲者:张鹏(量子+NLP)
题目:量子自然语言处理:起源、发展与挑战
摘要:近年来,量子理论和人工智能的交叉研究越来越受人们的关注,由于量子力学所带来的量子优势,在人工智能领域衍生出量子机器学习、量子自然语言处理等新兴的研究方向。当前,量子力学与自然语言处理的结合主要存在两种方法:基于量子计算的自然语言处理量子算法与量子启发式自然语言处理算法。本次报告将回顾这两种方法的起源与发展,同时,针对已有的研究工作,讨论量子自然语言处理所面对的挑战。
个人简介:张鹏,天津大学智能与计算学部副教授,计算机学院副院长,入选天津大学北洋学者-青年骨干教师计划,微软亚洲研究院铸星计划,十余年来致力于量子信息检索和量子人工智能的研究工作,并积极推动研究成果的落地应用。发表论文包括中国计算机学会(CCF)推荐A/B类会议论文(NeurIPS, SIGIR,ICLR,ACL,IJCAI,AAAI,WWW,CIKM,EMNLP)和期刊论文(TNNLS,TKDE,TIST,IP&M)。获得顶级学术会议SIGIR 2017 Best Paper Award Honorable Mention,欧洲信息检索会议ECIR 2011 Best Poster Award。

图片
讲者:何中军(同声传译)
题目:机器同声传译:挑战与进展
摘要:同声传译是指在不打断讲话者的条件下,将讲话内容实时地翻译给听众的一种翻译方式,广泛应用于国际会议、商务会谈、新闻发布会等场景。利用机器进行自动同传,具有巨大的应用需求和重要的科学意义。机器同传涉及语音处理、机器翻译等多项技术,近年来成为人工智能领域的前沿方向。随着技术的持续进步,机器同传系统得到广泛应用。本报告将介绍机器同传面临的主要挑战、主流方法及当前进展,最后介绍机器同传的应用。
个人简介:何中军,百度人工智能技术委员会主席,CCF高级会员。从事机器翻译研究与开发近二十年,研发了全球首个互联网神经网络机器翻译系统及语义单元驱动的机器同传系统。曾获国家科技进步二等奖、中国电子学会科技进步一等奖、中国专利银奖等多项奖励。

图片
讲者:吴友政(跨模态NLP)
题目:自然语言处理视角下的多模态技术
摘要:随着视觉、听觉、语言等单模态人工智能技术的突破和在限定场景的大规模产业应用,让计算机拥有更接近人类处理、理解多模态信息能力进而实现高鲁棒性的推理决策受到人工智能科学家们的广泛关注。另一方面,随着图文(Facebook、Twitter、微信、微博)、短视频(Youtube、抖音、快手)、音频(Clubhouse)、视频会议(Zoom、腾讯会议)、直播(抖音、京东、淘宝)和虚拟数字人应用的异军突起,也对多模态技术也提出了更高的要求,同时也给多模态技术提供了海量的数据和丰富的应用场景。本次演讲将从多模态应用、多模态融合和多模态预训练角度出发,介绍多模态技术的挑战、最新技术进展、以及在产业界的应用等。
个人简介:吴友政博士是京东科技语音语言算法部负责人、高级技术总监,京东AI研究院算法科学家。吴友政博士毕业于中国科学院自动化研究所,毕业后先后在日本情报通信研究机构(NICT)、英国爱丁堡大学、索尼中国研究院和爱奇艺负责自然语言处理、语音识别、机器翻译等技术研究和产品研发工作,在国际自然语言处理领域顶会和重要期刊上发表多篇论文(如ACL、EMNLP、AAAI、IJCAI、ICASSP、INTERSPEECH等)。曾获得语音识别(IWSLT2012、IWSLT2013)和对话式机器阅读理解(QuAC)比赛的冠军。主办了2019年和2020年京东人机对话挑战赛JDDC,吸引了上千支队伍参加。技术产品化上,先后打造了基于多轮对话技术的智能客服平台言犀、基于多模态内容生成技术的品创、以及基于知识图谱的采购大脑等产品。曾获得京东集团技术金牛奖等荣誉。

图片
讲者:崔磊(文档和图片智能)
题目:文档智能前沿综述
摘要:文档智能是指通过计算机进行自动阅读、理解以及分析商业文档的过程,是自然语言处理和计算机视觉领域的重要研究方向。近年来,深度学习技术的普及极大地推动了文档智能领域的发展,以文档布局分析、文档信息抽取、文档视觉问答以及文档分类等为代表的文档智能任务都有显著的性能提升。本文对于早期基于规则的文档分析技术、基于统计机器学习的算法、以及近年来基于深度学习和预训练的方法进行简要介绍,并展望了文档智能技术的未来发展方向。
个人简介:崔磊,微软亚洲研究院自然语言计算组高级研究员。他在人工智能和自然语言处理领域发表顶级论文30余篇,并持有15项美国专利。他的研究兴趣是自然语言处理,包括文档智能、信息抽取、文本生成、对话系统、机器翻译以及自动问答等,很多研究工作已经成功集成至Azure云平台、Office办公套件、必应搜索引擎(Bing)等微软公司重要产品中。

图片
讲者:冯岩松(NLP+司法)
题目:面向法律文书的自然语言理解
摘要:本次报告将简要介绍近年来国内外学术界围绕法律文书开展的信息抽取、文本生成、焦点分析以及辅助决策等方面的研究进展;最后将结合目前主流自然语言处理技术在法律智能应用方面遇到的挑战与大家分享对未来研究的一些看法。
个人简介:北京大学王选计算机研究所副教授。主要研究方向包括自然语言处理、信息抽取以及机器学习在自然语言处理中的应用;连续多年在面向结构化知识库的知识问答评测中获得第一名;相关工作发表在ACL、EMNLP、TPAMI、AIJ等自然语言处理领域顶级会议及期刊上。作为项目负责人或课题骨干已承担多项国家自然科学基金、科技部863计划和重点研发项目。

图片
讲者:黄振亚(NLP+教育)
题目:面向教学资源的数据分析方法与智能教育应用
摘要:对教学资源进行智能分析是智能教育的核心任务之一。例如,利用NLP技术对教育试题本文开展自动分析与评估,不仅可以提高学习资源管理效率,也为学习者提供智能学习服务奠定了重要的基础。本报告从真实的智能教育应用场景需求出发,重点介绍面向教育试题的信息抽取、知识表示、质量评估与智能应用服务等,总结当前教育NLP分析现状和面临的问题,并展望未来发展方向。
个人简介:黄振亚,博士。现任中国科学技术大学计算机科学与技术学院副研究员。主要研究方向为数据挖掘及知识发现、表征学习与应用、教育大数据分析等。获2020年吴文俊人工智能科技进步一等奖,2020年中国科学院院长优秀奖等,入选2021全球人工智能华人新星百强榜单。在相关领域高水平学术期刊(如TKDE、TOIS、计算机学报等)和国际重要学术会议(如:KDD、SIGIR、AAAI等)上发表论文30余篇,代表性论文入选ESI高被引论文。多次担任IEEE TKDE、ACM TIST等学术期刊审稿人,以及NeurIPS、ICML、AAAI、IJCAI等多个国际会议的(高级)程序委员会委员。

图片
讲者:汤步洲(NLP+医疗)
题目:医疗NLP前沿综述
摘要:医疗NLP是解锁临床医疗文本中关键医疗信息和知识的钥匙,是AI落地医疗领域的必要技术。近年来,随着医疗AI的发展,医疗NLP受到越来越多的关注,真实的医疗应用场景需求一方面为NLP技术提供了验证场所,另一方面也引申出一些具有特色的NLP问题。本文将从真实的医疗应用场景需求出发,对NLP问题和技术进行简要介绍,对医疗NLP当前遇到的问题和面临的挑战进行总结,并展望未来医疗NLP的发展方向。
个人简介:汤步洲,博士(后),哈尔滨工业大学(深圳),特聘研究员/副教授、博士生导师,鹏城实验室兼职研究员。OHDSI中国组核心成员,中文信息学会“医疗健康与生物信息处理”专业委员会副主任兼秘书长。主要研究方向包括机器学习、数据挖掘、自然语言处理、医学信息学、语音合成等。近年来,在国际知名期刊和会议上发表学术论文一百二十多篇,其中SCI检索论文60多篇;申请发明专利10多项,获发明专利3项;相关研究成果获省一等奖1项,市科技创新奖1项,市自然科学技术二等奖1项;组织参加相关研究领域国际评测,获得第一名10多次;2次获得最佳会议论文奖,论文Google scholar引用2400+次,H-index为26。天池中文医疗信息处理挑战榜CBLUE(Chinese Biomedical Language Understanding Evaluation)发起人之一。先后承担国家、省市、企业合作项目二十多项。

图片
讲者:丁效(NLP+金融)
题目:面向金融领域的自然语言处理技术综述
摘要:智能金融是人工智能技术与金融服务全面融合的产物,在自然语言处理技术的强力支撑下,全面赋能金融机构,提升金融机构的服务效率,及时准确地响应客户各类金融需求,拓展金融服务的广度和深度,以客户为中心,实现金融服务


的智能化、个性化和定制化。本次报告将围绕构建智能金融体系所需要的自然语言处理技术以及相应的技术难点进行介绍,并开放式的讨论未来在该方向上可能的突破点以及发展方向。
个人简介:丁效,博士,哈尔滨工业大学副研究员。主要研究方向为人工智能、自然语言处理、文本推理和事理图谱。已在ACL、AAAI、IJCAI、EMNLP、TASLP等人工智能领域的著名国际期刊和会议上发表相关论文20余篇。承担多项国家自然科学基金等省部级以上项目,参与国家重大科技基础设施建设项目、“新一代人工智能”重大项目、国家自然科学基金重点项目等多个科研项目。荣获黑龙江省科技进步二等奖、SemEval 2020国际语义评测“检测反事实陈述”任务第一名。担任中国中文信息学会社会媒体处理专委会秘书、常务委员,语言与知识计算专委会委员,中国中文信息学会青年工作委员会委员。
点赞
收藏
表情
图片
附件