ChatGPT与大模型技术 ADL138开始报名ADL动态

CCF学科前沿讲习班ADL138《ChatGPT与大模型技术》,将对大规模基础模型的最新进展和特性进行深入浅出的讲解,从技术原理、基础理论、网络架构、高效计算、参数高效微调、可控生成、安全伦理、跨模态、认知学习、工具学习和创新应用等方面,为听众系统介绍大规模基础模型的关键技术和前沿课题。相信学员经过本次讲习班,能够深入了解大规模基础模型的基础知识、主要挑战和应用场景,开阔科研视野,增强实践能力。

本期ADL讲习班邀请了12位来自国内外著名高校与企业科研机构活跃在前沿领域的专家学者做主题报告。第一天,刘知远、林衍凯、邱锡鹏、张伟男等将分别讲解大模型整体情况、基本知识、基础理论和模型创新框架。第二天,韩旭、丁宁、何俊贤、桂韬等将介绍大模型高效计算框架、高效微调技术、可控生成技术和安全伦理问题。第三天,董力、东昱晓、秦禹嘉、王业全等将介绍大模型的多模态建模、认知学习、工具学习和创新应用等课题。通过三天教学,旨在带领学员实现对大模型技术从基础技术到前沿动态再到创新应用场景的深入学习与思考。

学术主任:刘知远副教授清华大学/邱锡鹏教授复旦大学

主办单位:中国计算机学会

本期ADL主题《ChatGPT与大模型技术》,由CCF高级会员、清华大学刘知远副教授和复旦大学邱锡鹏教授担任学术主任,邀请到张伟男(哈尔滨工业大学)、东昱晓(清华大学)、董力(微软亚洲研究院)、王业全(北京智源人工智能研究院)、何俊贤(上海交通大学)、林衍凯(中国人民大学)、桂韬(复旦大学)、韩旭(清华大学)、丁宁(清华大学)、秦禹嘉(清华大学)等12位专家做专题讲座。

01

活动日程:

技术原理、基础理论、网络架构、高效计算、参数高效微调、可控生成、安全伦理、跨模态、认知学习、工具学习、以及创新应用。

2023年5月26日(周五)

09:00-09:10

开班仪式

09:10-09:20

全体合影

09:20-10:00

专题讲座1:人工智能的大模型技术范式

刘知远,副教授,清华大学

10:00-12:00

专题讲座2:基础模型的基本知识与原理

林衍凯,助理教授,中国人民大学

12:00-13:30

午餐

13:30-15:00

专题讲座3:基础模型的创新网络架构

邱锡鹏,教授,复旦大学

颜航,博士生,复旦大学

15:00-15:30

交流+休息

15:30-17:00

专题讲座4:基础模型的可控生成

张伟男,教授,哈尔滨工业大学

2023年5月27日(周六)

09:00-10:30

专题讲座5:基础模型的高效计算框架

韩旭,助理研究员,清华大学

10:30-12:00

专题讲座6:基础模型的参数高效微调

丁宁,助理研究员,清华大学

专题讲座7:基础模型的基础理论

何俊贤,助理教授,上海交通大学

专题讲座8:基础模型的安全伦理

桂韬,副研究员,复旦大学

2023年5月28日(周日)

专题讲座9:跨模态基础模型

董力,微软亚洲研究院

专题讲座10:从千亿模型GLM-130B到ChatGLM的一点尝试

东昱晓,助理教授,清华大学

专题讲座11:基础模型工具学习

秦禹嘉,博士生,清华大学

专题讲座12:基础模型创新应用

王业全,研究员,北京智源人工智能研究院

02

特邀讲者

刘知远副教授

清华大学

报告题目:人工智能的大模型技术范式

林衍凯助理教授

中国人民大学

讲者简介:林衍凯,中国人民大学高瓴人工智能学院准聘助理教授。2014年和2019年分别获得清华大学学士和博士学位。主要研究方向为预训练模型、自然语言处理。曾在ACL、EMNLP、NAACL、AAAI、IJCAI、NeurIPS等自然语言处理和人工智能顶级国际会议上发表论文40余篇,GoogleScholar统计被引用次数(至2023年2月)达到8000余次。其知识指导的自然语言处理研究成果获评教育部自然科学一等奖(项目名《结构化知识表示学习方法》,第三完成人)和世界互联网领先成果(项目名《大规模知识图表示学习的体系化基础算法及开源工具》,第三完成人)。

报告题目:基础模型的基础知识与原理

报告摘要:2022年底,OpenAI公司发布了大规模对话模型ChatGPT,能够与用户进行对话交互并根据用户的输入指令完成各种类型的自然语言处理任务,展现出了以大规模基础模型为基底构建通用人工智能的潜在可行性。本报告主要介绍基础模型的基础知识和原理,从技术的角度剖析大规模基础模型是如何一步步演化出其强大的意图理解能力、推理能力,以及丰富的世界知识,并从模型架构、预训练方法和适配方法等方面对其进行详细介绍。

邱锡鹏教授

复旦大学

讲者简介:邱锡鹏,复旦大学计算机学院教授,担任中国中文信息学会理事、上海市计算机学会自然语言处理专委会主任等,主要研究方向为自然语言处理基础技术和基础模型,发表CCFA/B类论文80余篇,被引用1万余次,入选“爱思唯尔2022中国高被引学者”。获得ACL2017杰出论文奖(CCFA类)、CCL2019最佳论文奖、《中国科学:技术科学》2021年度高影响力论文奖,有5篇论文入选ACL/EMNLP等会议的最有影响力论文,主持开发了开源框架FudanNLP和FastNLP,已被国内外数百家单位使用,发布了MOSS、CPT、BART-Chinese等中文预训练模型,在中文模型中下载量排名前列。曾获中国科协青年人才托举工程项目、国家优青项目、科技创新2030“新一代人工智能”重大项目课题等,2020年获第四届上海高校青年教师教学竞赛优等奖,2021年获首届上海市计算机学会教学成果奖一等奖(第一完成人),2022年获钱伟长中文信息处理科学技术奖一等奖(第一完成人)。

颜航博士生

讲者简介:颜航,复旦大学计算机学院博士生,导师为邱锡鹏教授。研究兴趣包括信息抽取、开源NLP工具建设、大规模预训练模型等。开源平台OpenLMLab主要贡献者,设计并开发了fastNLP、fitlog等开源工具。在ACL、TACL、EMNLP、NAACL等会议或杂志上发表了多篇论文,2022年获钱伟长中文信息处理科学技术奖一等奖。

报告题目:基础模型的创新网络架构

张伟男教授

哈尔滨工业大学

讲者简介:张伟男,教授/博士生导师,哈尔滨工业大学计算机学院院长助理,黑龙江省中文信息处理重点实验室副主任,国家重点研发计划项目负责人。研究兴趣包括自然语言处理及人机对话。在ACL、AAAI、WWW、IJCAI、IEEETKDE、ACMTOIS等CCFA类国际会议及国际顶级期刊发表论文多篇,多次担任ACL、EMNLP领域主席。目前为中国中文信息学会青年工作委员会副主任,中国计算机学会(CCF)术语审定工作委员会执委、CCF哈尔滨分部秘书长,中国人工智能学会教育工作委员会副秘书长,北京智源青源会会员。曾获黑龙江省科技进步一等奖、吴文俊人工智能科技进步二等奖及黑龙江省青年科技奖等。

报告题目:基础模型的可控生成

韩旭助理研究员

报告题目:基础模型的高效计算框架

报告摘要:最近几年里,拥有百亿、千亿参数的大规模基础模型在各类人工智能任务上取得了显著的性能提升,但其规模庞大的参数在计算与存储上始终困扰着研究人员。本报告着重介绍面向大规模基础模型的高效计算框架及计算加速技术,助力研究人员能够以较低的计算资源进行基础大模型的训练与推理。

丁宁助理研究员

报告题目:基础模型的参数高效微调

何俊贤助理教授

上海交通大学

报告题目:基础模型的基础理论

报告摘要:本报告将从模型缩放(scaling)和模型演化(evolution)两个方面介绍基础模型的基础理论和开发路线。从模型缩放的角度,我们将介绍基础模型的缩放法则和其中的涌现能力,以及如何合理利用缩放法则帮助模型由小到大的开发。从模型演化的角度,我们将介绍大规模预训练、指令微调、基于人类反馈的强化学习这一阶段性演化路线以及其中涉及的关键要素和最新进展,包括如何配比预训练数据、模型大小和算力达到最优训练效率,如何进行高效且有效的指令微调,如何与人类对齐等。

桂韬副研究员

讲者简介:桂韬,复旦大学自然语言处理实验室副研究员、硕士生导师。研究领域为预训练模型、信息抽取和鲁棒模型。在高水平国际学术期刊和会议上发表了40余篇论文,主持国家自然科学基金、计算机学会、人工智能学会多个基金项目。曾获钱伟长中文信息处理科学技术奖一等奖(2/5)、中国中文信息学会优秀博士论文奖、COLING2018最佳论文提名奖、NLPCC2019亮点论文奖,入选第七届“中国科协青年人才托举工程”、上海市启明星计划。

报告题目:基础模型的安全伦理

报告摘要:随着基础模型的兴起,NLP正在经历模型范式“同质化”的转变,如今,NLP领域几乎所有的SOTA模型都是少数几个基于Transformer的大模型进化而来。而且,这种趋势正在向图像、语音、蛋白质序列预测、强化学习等多个领域蔓延。整个AI社区似乎出现了一种大一统的趋势。这种同质化也带来了一些隐患,因为基础模型的鲁棒性、可解释性、公平性、隐私性缺陷也会被所有下游模型所继承。本报告将介绍基础模型的安全伦理风险以及带来的社会影响,探讨缓解安全伦理问题的可行方案。

董力研究员

微软亚洲研究院

报告题目:跨模态基础模型

东昱晓助理教授

报告题目:从千亿模型GLM-130B到ChatGLM的一点尝试

秦禹嘉博士生

讲者简介:秦禹嘉,男,清华大学计算机系2020级直博生。本科毕业于清华大学电子工程系。主要研究方向为大规模语言模型的高效预训练与下游智能化应用,曾在ACL、NAACL、EMNLP、ICLR、NeurIPS、NatureMachineIntelligence、TASLP等会议/期刊发表多篇一作/共同一作论文,曾获腾讯犀牛鸟精英计划一等奖。

报告题目:基础模型工具学习

报告摘要:发明和利用工具是人类文明的一个重要特征,将工具与人工智能系统集成已成为实现通用人工智能的关键。本工作探讨了工具学习(toollearning)的范式,这种范式结合了工具和基础大模型的优势,从而能够实现更加智能地使用工具解决特定任务。我们首先探讨了人类历史上工具使用的认知起源和基础模型带来的范式转变,并回顾了现有工具学习研究。其次,我们提出了一个通用的工具学习框架,讨论了其中重要的研究课题,例如工具的封装和理解、如何让模型理解用户意图操纵工具等。为了促进这一领域的研究,我们建立了一个交互式工具学习平台,并评估了ChatGPT和GPT-3.5的工具使用能力。最后,我们将讨论工具学习的广泛影响,包括安全、个性化和具身学习等。我们的工作旨在激发进一步研究,将工具与基础模型集成起来,为人类和机器协同工作的未来铺平道路。

王业全研究员

北京智源人工智能研究院

讲者简介:王业全,北京智源人工智能研究院认知模型与数据团队负责人,清华大学博士,中国中文信息学会情感计算专委会委员,2022年被评为AI2000全球最具影响力人工智能学者(自然语言处理领域)。近年来,主要从事语言大模型、自然语言处理方面的研究工作。在国际顶级会议发表多项研究成果,在情感分析领域具有广泛的学术影响力,谷歌学术引用超过2,300次。有两大研究成果(EMNLP2016:Attention-basedLSTMForAspect-levelSentimentClassification;WWW2018:SentimentAnalysisByCapsules)被PAPERDIGEST评为最具影响力论文,同时多次入选谷歌学术刊物指标榜单。

报告题目:基础模型创新应用

报告摘要:基础模型已经在语言、视觉和多模态等领域获得了极大的成功,尤其以GPT4和ChatGPT为典范。北京智源人工智能研究院研发了以悟道2.0为代表的系列大模型,并产生了显著的影响力。本报告主要包含基础模型的创新应用和研发方面的探讨。

03

学术主任

邱锡鹏,复旦大学计算机学院教授,担任中国中文信息学会理事、上海市计算机学会自然语言处理专委会主任等,主要研究方向为自然语言处理基础技术和基础模型,发表CCFA/B类论文80余篇,被引用1万余次,入选“爱思唯尔2022中国高被引学者”。获得ACL2017杰出论文奖(CCFA类)、CCL2019最佳论文奖、《中国科学:技术科学》2021年度高影响力论文奖,有5篇论文入选ACL/EMNLP等会议的最有影响力论文,主持开发了开源框架FudanNLP和FastNLP,已被国内外数百家单位使用,发布了MOSS、CPT、BART-Chinese等中文预训练模型,在中文模型中下载量排名前列。曾获中国科协青年人才托举工程项目、国家优青项目、科技创新2030“新一代人工智能”重大项目课题等,2020年获第四届上海高校青年教师教学竞赛优等奖,2021年获首届上海市计算机学会教学成果奖一等奖(第一完成人),2022年获钱伟长中文信息处理科学技术奖一等奖(第一完成人)。

地址:北京中科院计算所一层报告厅(北京市海淀区中关村科学院南路6号)

乘坐北京地铁10号线到“知春里站”下车出A口,步行10分钟即到。

报名须知:

1、报名费:CCF会员2800元,非会员3600元。食宿交通(费用)自理。根据交费先后顺序,会员优先的原则录取,额满为止。应部分学员的要求,本期ADL线上同步举办,线上线下报名注册费用相同。线上会议室号和密码将在会前3天通过邮件发送。

缴费方式:

在报名系统中在线缴费或者通过银行转账:

银行转账(支持网银、支付宝):

开户行:招商银行北京海淀支行

户名:中国计算机学会

账号:110943026510701

请务必注明:ADL138+姓名

报名缴费后,报名系统中显示缴费完成,即为报名成功,不再另行通知。

THE END
1.轻松理解ChatGPT原理详解:大白话解析,一文搞定!ChatGPT是怎么学习的? 先说说ChatGPT的核心部分:GPT(全称是Generative Pre-trained Transformer,里面的P和T我们一会儿会讲到),这是一个由OpenAI开发的大语言模型(LLM)。 接下来,理解ChatGPT的原理得先了解它的核心架构。ChatGPT的核心架构是Transformer(也就是ChatGPT中的T),一种神经网络架构。好比人类大脑的工作方式https://blog.csdn.net/2401_84204413/article/details/145262121
2.如何使用ChatGPT原理学会一切东西?(这就是ChatGPT)书评加上前面推荐了wolfram 大神的神书《这就是 ChatGPT》,于是觉得有必要写点类似读书笔记或书评的东西。李沐的文章写于ChatGPT 之前,是结合随机梯度下降来讲人生道理的,我这篇准备从ChatGPT 原理出发,聊一聊 GPT对人类学习、构建个人知识体系的启发。以此文致敬两位大神。李沐的文章微言大义,只用了 1100 字。我https://book.douban.com/review/15907823/
3.速围观ChatGPT原理是什么?技术小白就能看懂的ChatGPT原理介绍它是基于GPT模型改进优化而来的,主要应用于对话场景。它本身也是一个大型语言模型,可以生成各种文本类型,但是ChatGPT特别专注于对话的生成。 通过上下文的理解,ChatGPT能够像人类一样自动生成文本对话。下面这张图是OpenAI官方介绍的ChatGPT原理图,接下来我会按照这几步为大家解释。 https://mdnice.com/writing/e87d75a17b584402a4f84151a68162b4
4.ChatGPT原理理解和结构解读〖前言〗问了200+个问题后,终于完全搭建起来对Chat@GPT本身的原理理解和结构了解,形成的理解文件90%的内容都是他生成的。但是结构化这篇文章以及深入时刻,是自己完成的。今后的学习和工作可能都需要和他来共同完成了。 1 从概率角度理解生成式模型原理 https://www.jianshu.com/p/0628b1bd2c48
5.科学网—ChatGPT技术原理【6】科学网—深度学习基本原理 - 徐明昆的博文 (sciencenet.cn) 【7】Chat GPT原理_GarsonW的博客-CSDN博客 [8]详解AIGC人工智能生成内容的原理 (baidu.com) 【9】低成本复制 ChatGPT 训练流程 【10】ChatGPT实现原理-电子发烧友网 (elecfans.com)https://blog.sciencenet.cn/blog-537101-1377332.html
6.五分钟带你了解ChatGPT的基本原理五分钟带你了解ChatGPT的基本原理 简介: What is LLM? LLM是大型语言模型Large Language Model的缩写,跟LLM相关的另外一个概念是NLP(Natural Language Processing自然语言处理技术的一种 )。 Nautual Language: 指的是自然形成的语言,诸如Chinese, English, etchttps://developer.aliyun.com/article/1191601
7.人人都懂的ChatGPT指南:原理价值应用理解原理是有效应用的第一步。ChatGPT是基于GPT模型的AI聊天产品,后文均简称为GPT。 从技术上看,GPT是一种基于Transformer架构的大语言模型(LLM)。GPT这个名字,实际上是'Generative Pre-trained Transformer'的缩写,中文意为“生成式预训练变换器”。 1.大模型和传统AI的区别是什么? http://www.360doc.com/content/23/0730/08/37102638_1090546201.shtml
8.万字干货:ChatGPT的工作原理(2023).pdf万字干货:ChatGPT的工作原理(2023).pdf 107页VIP 内容提供方:Seeker研报 大小:4.93 MB 字数:约2.86万字 发布时间:2023-05-05发布于北京 浏览人气:10 下载次数:仅上传者可见 收藏次数:0 需要金币:*** 金币(10金币=人民币1元) 万字干货:ChatGPT的工作原理(2023).pdfhttps://m.book118.com/html/2023/0501/5211344112010201.shtm
9.ChatGPT的工作原理是什么?使用ChatGPT可以帮助我们更快地生成文本、提取信息、回答问题等,提高工作效率和质量。在使用ChatGPT工作时,您需要了解相关技术和知识,选择合适的方式,并不断学习和探索新的方法和技术。 以上就是【ChatGPT的工作原理是什么?】的全部解答,如果你想要学习更多【AI新职业技能】方面的知识,欢迎前往了解 >>AI直播公开课!https://www.gaodun.com/xinzhiye/1433291.html
10.ChatGPT原理详解+实操(1)SFT(GPT模型精调)ChatGPT原理详解+实操(1)---SFT(GPT模型精调) 前言 ChatGPT已近火了快大半年了,从去年刚出来的时候小编就关注了一下,也具体的使用过,然后就惊为天人,再然后就没有然后了,因为小编那段时间沉迷于AIGC了。ChatGPT今年开年后更是火的一塌糊涂,无论是行业内还是行业外的人,都在对这个东西进行炒作。那么,玩也https://blog.51cto.com/u_11908275/6941411
11.国内还没有搞明白chatGPT的架构原理。目前开源的只是GPT1.0和GPT2.0国内还没有搞明白chatGPT的架构原理。目前开源的只是GPT1.0和GPT2.0,而最新的GPT3.0和3.5根本没有开源。所以国内企业是拿不到GPT3.0的源代码的,根据美国对中国采取封锁的方针,中国没法使用GPT3.0和3.5源代码是必然的,也就是国内企业根本不懂GPT3.5的算法原理是什么。拿https://xueqiu.com/1354417741/241860639
12.ChatGPT的工作原理2023(万字干货)中文PDF版电子书下载☉ 如果遇到什么问题,请评论留言,我们定会解决问题,谢谢大家支持! ☉ 本站提供的一些商业软件是供学习研究之用,如用于商业用途,请购买正版。 ☉ 本站提供的ChatGPT的工作原理2023(万字干货) 中文PDF版资源来源互联网,版权归该下载资源的合法拥有者所有。https://www.jb51.net/books/885988.html
13.ChatGPT是什么?全面为你讲解ChatGPT!ChatGPT它能够快速地处理大量的文本数据,并且可以生成高质量的自然语言文本。ChatGPT的工作原理是利用深度学习技术来学习人类语言的模式,并将这些模式用于生成文本。通过训练ChatGPT,模型可以掌握丰富的语言知识和规则,并且可以生成与人类语言相似度较高的自然语言文本。 https://www.yutu.cn/news_51983.html