承办单位:南京邮电大学通信与信息工程学院、南京邮电大学先进技术研究院、CSIG机器视觉专委会、江苏省人工智能学会
周全,南京邮电大学通信与信息工程学院副教授,硕士生导师。中国计算机学会和中国图象图形学学会高级会员。中国计算机学会(CCF)计算机视觉专委会、中国图象图形学学会(CSIG)机器视觉专委会、视觉大数据专委会、中国自动化学会(CAA)模式识别与机器智能专委会、中国人工智能学会(CAAI)模式识别专委会、江苏省自动化学会(JSAA)模式识别专委会常务委员、江苏省计算机学会(JSCS)图形图像专委会委员。目前主要从事图像语义分割与理解,医学图像分割,轻量化网络设计等方面的研究工作。主持国家自然科学基金面上项目、江苏省自然科学基金、江苏省“青蓝工程”青年骨干教师,以及参与国家重点研发计划等多项国家和省部级项目,以第一作者和通信作者发表学术论文70余篇,包括IEEETIP/TITS/TMI/TNNLS、PR等,申请及获批发明专利10余项。目前担任IEEETPAMI/TIP/TMM/TCSVT/TCYB/TNNLS/TITS、PR等70多个SCI期刊审稿人,并担任IEEE/SPIEISAIR2019-2023、ACPR2023、IEEEICME2019和PRCV2022领域主席。同时担任SCI期刊Computer&ElectricalEngineering和CognitiveRobotics编辑,以及IEEETMM、PR、MMTA和VisualIntelligence等期刊的客座编辑。
高广谓,南京邮电大学先进技术研究院副研究员,硕士生导师。研究方向涉及低质视觉内容感知与理解(具体包括低质图像复原、轻量化图像分析与理解等)。目前主持国家自然科学基金面上项目、江苏省自然科学基金优秀青年基金项目、江苏省“六大人才高峰”高层次人才项目各1项,参与国家自然科学基金重点项目、科技创新2030-“新一代人工智能”重大项目各1项。曾任日本国立信息学研究所客座研究员(2019-2021)。近年来在国际权威期刊IEEETIP/TMM/TCSVT/TIFS/TITS、PR以及权威会议AAAI、IJCAI上发表论文70余篇,ESI高被引论文1篇(GoogleScholar显示被引用1500余次)。获江苏省科学技术奖一等奖(7/11)等奖项。IEEE和CCF高级会员,国际期刊CognitiveRobotics副主编、国际期刊ComputersandElectricalEngineering客座编辑,ICME2021/2022领域主席,AAAI2023SeniorPC,ISAIR常务委员,VALSE执行AC,中国计算机学会计算机视觉专委会委员,中国人工智能学会模式识别专委会委员,中国自动化学会模式识别与机器智能专委会委员,中国图象图形学学会机器视觉专委会委员,江苏省人工智能学会模式识别专委会委员。长期担任IEEETPAMI/TIFS/TIP/TMM/TCSVT/TCYB/TNNLS等十几个国际SCI期刊审稿人。
日程安排
地点:南京邮电大学三牌楼校区科技会堂一楼报告厅
张艳宁
西北工业大学
报告题目:视频图像理解与认知
王井东
百度
报告题目:视觉识别:Transformer方法与基础模型
穆亚东
北京大学
报告题目:视觉-语言感知与控制
报告摘要:本报告主要介绍视觉-语言感知与控制这一前沿研究方向的最新进展。现代自动化系统(例如自动驾驶汽车和家用机器人)通常依赖多模态感知输入(包括视觉、语言或点云数据等)来执行下一个动作,存在模态对齐、动作策略学习等研究难题。本次报告将介绍该方向的几个关键技术挑战以及我们的研究成果,主要是视觉-语言的时空定位和导航等,包括基于弱监督信息的视觉定位、视觉-语言基础模型ECLIP、具有空间路径先验或树型Transformer的视觉语言导航等。最后,还将讨论这一新兴领域的发展趋势。
林巍峣
上海交通大学
报告题目:基于参数化表示的视觉目标与行为感知
李泽超
南京理工大学
报告题目:细粒度视觉内容分析与推理
报告人简介:李泽超,“万人计划”青年拔尖人才,南京理工大学计算机科学与工程学院/人工智能学院教授、博士生导师,“社会安全信息感知与系统”工信部重点实验室副主任,分别于2008年和2013年毕业于中国科学技术大学和中国科学院自动化研究所。研究兴趣主要是媒体智能分析、计算机视觉等。发表ACM/IEEETransactions和CCF-A类会议论文70余篇;入选2022年全球前2%顶尖科学家,2020-2022年连续3年入选爱思唯尔中国高被引学者;获得江苏省科学技术一等奖2项、中国电子学会自然科学一等奖1项等;主持科技创新2030“新一代人工智能”重大项目课题、国家自然科学基金联合基金重点项目、江苏省杰出青年基金等;担任IEEETNNLS、InformationSciences等期刊编委。
宋井宽
电子科技大学
报告题目:多媒体紧致表征与分析
严骏驰
报告题目:端到端自动驾驶
报告人简介:严骏驰,CCF优博/杰出会员,上海交通大学计算机系副教授。科技部2030新一代人工智能青年项目负责人、优青、教育部资源建设深度学习首席专家。曾任IBM研究院首席研究员。主要研究方向为机器学习。发表CCF-A类第一/通讯作者论文过百篇,引用超万次。任ICML、NeurIPS领域主席、PatternRecognition编委。
报告摘要:自动驾驶是学界与业界近两年的研究热点之一,其目标为给定传感器输入,安全、舒适、快速的到达乘客目的地。端到端自动驾驶方法,不同于传统的模块化方法,其设计上将所有的感知、预测、决策的组件以可导的方式连接起来,以期做到高效特征共享与减小累计误差。本次讲座将介绍自动驾驶与端到端方法的背景与基础知识,以及最新的进展。
王兴刚
华中科技大学
报告题目:基于Transformer的驾驶场景感知和大规模预训练
报告人简介:王兴刚,华中科技大学,电信学院,教授,博士生导师,入选国家青年人才计划,ElsevierImageandVisionComputing期刊共同主编。主要研究方向为视觉目标检测与分割,在IEEETPAMI、IJCV、CVPR、ICML等顶级期刊会议发表学术论文50余篇,谷歌学术引用次数1.7万余次,其中CCNet方法在AlphaFold中作为骨干网络被使用,ByteTrack方法在ECCV2022最具影响力论文中排名第一。担任CVPR2022、ICCV2023、ICIG2023领域主席,PatternRecognition等期刊编委。入选了中国科协青年人才托举工程,获CSIG青年科学家奖,CAAI吴文俊人工智能优秀青年奖,CVMJ2021最佳论文奖,湖北省自然科学二等奖,华中科技大学青年五四奖章等,指导学生获2022年全国“互联网+”大赛金奖。
报告摘要:Transformer网络已经成为学习视觉表征和完成视觉任务的基础。面向自动驾驶场景的2D/3D目标检测、分割、跟踪、运动预测、路径规划任务,我们给出了基于Transformer的一整套解决方案,以Query作为目标的表征,通过自注意力和交叉注意力来实现时空一体化的场景表征和目标-场景交互学习,得到了一系列实时性高、精度高的驾驶场景感知方法。此外,我们还基于Transformer构建了大规模视觉语言预训练,推出了EVA视觉基础模型用以探索大规模视觉表征的极限,可以有效地将EVA扩展到10亿个参数,并在图像识别、视频动作识别、目标检测、实例分割和语义分割等广泛的具有代表性的视觉下游任务上创造新记录。
1.本期讲习班限报140人,根据缴费先后顺序录取,报满为止。
2.2023年5月19日(含)前注册并缴费:CSIG会员2000元/人,非会员2500元/人(赠送1年CSIG会员);现场缴费:会员、非会员均为3000元/人;CSIG团体会员参加,按CSIG会员标准缴费;同一单位组团(5人及以上)报名,均按CSIG会员标准缴费。
3.注册费包括讲课资料和2天会议期间午餐,其它食宿、交通自理。