人工智能 前沿技术(人工智能前沿技术学术论坛)
本论坛将于CNCC2019中国计算机大会第二天(10月18日)在苏州金鸡湖国际会议中心A207会议室举行。本论坛邀请学界资深活跃的人工智能专家围绕目前人工智能在标记稀疏、质量低下、理论薄弱、求解缓慢等方面面临的难点,展开剖析、探索和实践,从中窥测人工智能的未来技术发展方向和机遇。
【论坛介绍】
人工智能的前沿技术牵系着高校、研究所、产业界等从业人员的方向选择。本论坛邀请学界资深活跃的人工智能专家围绕目前人工智能在标记稀疏、质量低下、理论薄弱、求解缓慢等方面面临的难点,展开剖析、探索和实践,从中窥测人工智能的未来技术发展方向和机遇。本论坛诚挚欢迎从业人员与专家学者的交流互动,探讨人工智能技术的前沿技术边界与扩展。
1
时间地点
论坛时间:10月18日13:30 – 17:00
论坛地点:2019中国计算机大会 苏州金鸡湖国际会议中心A207
2
论坛议程
时间
报告
题目
讲者
单位
13:35-
13:40
开幕式
钱宇华教授
山西大学
13:40-
14:25
图像的非监督增强匹配
张长水教授
清华大学
14:25-
15:10
面向低质量数据的机器学习算法
胡清华教授
天津大学
15:10-
15:30
茶歇
15:30-
16:15
深度学习理论若干最新进展
王立威教授
北京大学
16:15-
17:00
高效强化学习的一些探索
俞 扬教授
互联网小常识:要组建一个以太网局域网,则局域网LLC子层采用IEEE802.2标准,MAC子层采用CSMA/CD方法,物理结构取决于它选用的物理层标准,以太网可以选择10BASE-5,10BASE-2和10BASE-T。目前主流使用的是10BASE-T,使用无屏蔽双绞线、集线器和RJ-45接口。
南京大学
17:00-
17:05
闭幕式
李宇峰博士
南京大学
3
论坛嘉宾
报告人:张长水
报告题目:图像的非监督增强匹配
报告摘要:在图像识别和语音识别这些应用中,当前的深度学习技术需要标注大量的样本。标注大量的样本的代价非常高。我们是否通过机器学习方法可以减少人工标注数据的工作量?在这个报告中,我们探讨一种非监督的数据标注技术。我们以文字识别和交通标示识别为例,研究这些图像数据内部的结构,利用这些结构,设计新的算法实现对数据的自动标注。实验结果表明,这个技术可以大大减少这类数据的人工标注量。
讲者简介:张长水,男,1965 年出生,1986 年7月毕业于北京大学数学系,获得学士学位。1992年7月毕业于清华大学自动化系,获得博士学位。1992 年7月至今在清华大学自动化系工作。现任清华大学自动化系教授、博士生导师,主要研究兴趣包括:机器学习、模式识别、计算视觉等方面。目前是IEEE Fellow, 计算机学会高级会员;担任学术期刊:IEEE Trans. on PAMI 等杂志编委;在国际期刊发表论文130多篇,在顶级会议上发表论文50多篇。
报告人:胡清华
报告题目:面向低质量数据的机器学习算法
报告摘要:随着物联网的不断普及,许多领域涌现出海量低质的高维数据。这些数据普遍存在多元异构、噪声大、缺失多、维度高等特点,给建模算法带来挑战,大部分学习算法应用于此类数据时会出现性能急剧下降的现象。本报告将分析低质量大数据给机器学习算法带来的困难,当前国内外主流的解决方法以及在实际应用中的效果。
讲者简介:胡清华,天津大学教授、博导。博士毕业于哈尔滨工业大学。现为天津大学智能与计算学部副主任、人工智能学院院长、天津市机器学习重点实验室主任、中国人工智能学会理事、粒计算与知识发现专委会副主任,《IEEE Transactions on Fuzzy Systems》和《自动化学报》的编委。先后获国家优青、国家自然基金重点项目以及国家重大科技专项支持,从事机器学习和数据挖掘方面的研究,聚焦于低质量、高维、多模态数据的建模及其应用方面的研究。已申请专利12项,发表论文200余篇,150余篇被SCI检索,SCI他引3000余次,获省部级自然科学一等奖1项。
报告人:王立威
报告题目:深度学习理论若干最新进展
报告摘要:I will talk about our recent results in learning theory and its implication in algorithm and architecture design.
The first part is about training deep neural networks. Traditional wisdom says that training deep nets is a highly nonconvex optimization problem. However, empirically one can often find global minima simply using gradient descent. We show that if the deep net is sufficiently wide, then starting from a random initialization, gradient descent provably finds global optima with a linear convergence rate. Based on this theory, we develop a second-order optimization algorithm called Gram-Gauss-Newton (GGN) to train deep nets. We show that GGN enjoys quadratic convergence rate for sufficiently wide neural networks, while the per-iteration computational overhead is small compared to SGD. We also demonstrate empirically that GGN converges faster than SGD for regression problems using deep nets.
The second part is about design an improved architecture for Transformer. We first point out that the standard architecture of Transformer can been seen as a numerical solver of an ODE: the convection-diffusion equation for a multi-particle dynamic system. However, the numerical solver corresponding to the standard Transformer is suboptimal. A much better solver is the Strang splitting scheme. We design a new Transformer architecture inspired by the Strang splitting. Experimental results demonstrate significant improvement.
The third part is about learning adversarially robust deep neural networks. We develop theories and algorithms that leverage unlabeled data to train robust deep nets. We first prove that the robust error can be decomposed as the sum of standard error and a consistency error, and the latter does not involve any label. Therefore using unlabeled can reduce the risk.
讲者简介:王立威,北京大学信息科学技术学院智能科学系教授。从事机器学习理论研究。在机器学习国际权威期刊会议发表高水平论文100余篇。担任机器学习与计算机视觉顶级期刊IEEE TPAMI编委。多次担任国际机器学习旗舰会议NIPS与ICML领域主席。入选AI’s 10 to Watch,是该奖项自设立以来首位获此荣誉的中国学者。获得首届国家自然科学基金优秀青年基金。带领团队获得首届天池AI医疗大赛决赛冠军。
报告人:俞扬
报告题目:高效强化学习的一些探索
报告摘要:强化学习通过自主与环境交互,学习适应环境的最佳策略,近期在围棋、星际争霸等游戏中展示出达到甚至超越人类的决策能力,如能在真实业务中用于求解最优策略,将创造巨大价值。然而目前强化学习方法通常样本利用率很低,需采集大量的环境交互试错数据,导致最佳策略的学习过程试错代价极大,严重阻碍了强化学习在许多真实业务中落地。本次报告将汇报我们在提高强化学习效率方面的一些探索。
讲者简介:俞扬,博士,南京大学教授,中组部万人计划青年拔尖人才计划。主要研究领域为机器学习、强化学习。获2013年全国优秀博士学位论文奖、2011年CCF优秀博士学位论文奖。发表论文40余篇,获得4项国际论文奖励和2项国际算法竞赛冠军,入选2018年IEEE Intelligent Systems杂志评选的国际人工智能10大新星,获2018亚太数据挖掘"青年成就奖,受邀在IJCAI’18作关于强化学习的"青年亮点"报告。
4
论坛主席
钱宇华
钱宇华,博士,教授、博士生导师,山西大学大数据科学与产业研究院院长,计算智能与中文信息处理教育部重点实验室副主任,2018年全球高被引科学家,中国人工智能学会粒计算与知识发现专业委员会副主任。国家优秀青年基金获得者,三晋学者,山西省中青年拔尖创新人才,教育部新世纪人才,山西省学术技术带头人。从事人工智能、大数据、复杂网络、数据挖掘与机器学习等方面的研究。在AI、ACM/IEEE Transactions、《中国科学》等国际重要学术期刊发表SCI论文100余篇,获发明专利2项。曾获得山西省科学技术奖(自然科学类)一等奖,教育部宝钢教育基金特等奖,CCF 优秀博士论文奖,山西省五四青年奖章,全国百篇优秀博士论文提名奖等。2014- 2018年连续入选爱思唯尔中国高被引学者榜单。
互联网小常识:网络安全的基本要素主要包括:保密性、完整性、可用性、可鉴别性和不可否认性。
李宇峰
李宇峰,博士,副教授,南京大学软件新技术国家重点实验室。主要从事机器学习、弱监督学习、统计学习等方面的研究。在IEEE TPAMI、IEEE TKDE、JMLR、MLJ、AAAI、IJCAI等国际重要国际期刊会议发表论文40余篇,Google Scholar引用2300余次。目前为IEEE CIS神经网络技术委员会委员、中国计算机学会人工智能与模式识别专委会委员、中国人工智能学会机器学习专委会委员、江苏省人工智能学会机器学习专委会秘书长。曾获CCF优博、江苏省优博,指导学生获CCML15、CCDM16优秀学生论文奖。担任IEEE BigComp20程序共同主席,ACML19 Tutorial和ACML18 Workshop共同主席等服务;担任AAAI20/19、IJCAI19/17/15、ACML19/18/17等重要国际会议资深程序委员等服务。
CCF推荐
【精品文章】
CNCC技术论坛 | 为网络计算插上"智慧的翅膀"——智能网络计算技术论坛
CNCC技术论坛 | 国产数据库系统发展道路的探索与选择
CNCC技术论坛 | 长三角智能产业争霸,苏沪杭庐宁哪个城市最先出局?
CNCC早鸟报名又创新高,10月12日前报名还能享优惠
互联网小常识:集线器是对“共享介质”的一种改革,并且没有破坏CSMA/CD方法。它仍工作在物理层,所有的结点都在一个冲突域中。从结点和集线器的无屏蔽双绞线的最大长度为100m。
免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186