透视“风口”,把脉ChatGPT

最近,许多人都多了一位“网友”——ChatGPT。

它是一个聊天机器人,由美国人工智能公司OpenAI推出,从2022年12月1日正式发布至今,月活跃用户已达1亿,成为历史上增长最快的消费者应用程序。

说是聊天机器人,它可不只能“唠嗑”。大数据、大算力、强算法赋予了它“超级大脑”。它能写作业、写论文、当助教,写代码更是“老本行”,能通过工程师测试、硕士期末考试,俨然一个“全能学霸”。

强化学习、交互训练又让它学会“说人话”。它也能创作文案、小说、剧本,比起它的AI前辈们,改掉了很多“机器腔”。

但毫不例外,ChatGPT也有站在阴影里的另一面。偏见无法避免,成本依旧高昂,推理能力不足,甚至会“一本正经地胡说八道”。还有不少用户吐槽,ChatGPT给出的参考建议笼统模糊、过于四平八稳,缺乏信息密度,常有“正确的废话”。

ChatGPT究竟是不是钻进人类社会的一条鲶鱼?

ChatGPT是否宣告“强人工智能”时代的到来?

ChatGPT如何影响人类的未来,它自身的未来又会迈向何方?

当AI越来越强大甚至无限趋近于人,甚至超越于人,那么属于人的,还有哪些抢不走的领地和独特的价值?

近日,新华社中国搜索团队召集业界权威专家,剖析前沿,华山论剑,透视“风口”,把脉AI的发展。

■访谈嘉宾

王金桥:中国科学院自动化研究所研究员

唐明:中国科学院自动化研究所研究员

陈雨强:第四范式首席科学家、联合创始人

季逸超:第四范式科学家

沈阳:清华大学新闻学院教授

高跃:清华大学软件学院副教授

车万翔:哈尔滨工业大学计算机学院教授

凌强:中国科学技术大学自动化系教授

杨君:清华大学自动化系副研究员

吴楠:南京大学计算机系副教授

何俊良:上海交通大学计算机系助理教授

(整理:新华每日电讯记者王若辰)

“强人工智能”时代就此到来?

王金桥:ChatGPT基本上把2021年及以前互联网上所有的数据都学习了一遍,相当于一个世界知识的统一建模。在如此规模的参数量下,更好的关联推理就能够实现了,也能够通过算法更好地模拟人的意图。所以业内很多人认为ChatGPT是人工智能的再一次革命性突破。

但也有人不认可,认为ChatGPT还只是世界知识的一个组合,基于组合产生了一些观点和判断。

我认为ChatGPT现在的问题,一是对常识的建模弱了点,很多网友晒出了ChatGPT“翻车”、令人啼笑皆非的回答;二是缺乏多模态的信息,目前它的推理较弱,理解不了诸如“说曹操曹操到,到底是小明到了还是曹操到了”这样的信息。

凌强:ChatGPT比我想象得要好。在我的想象中,ChatGPT可能会给我“和稀泥”的回答,相当于没有对也没有错,但实际上它给我的答案还是有针对性的,从AI技术的角度讲,ChatGPT在特征工程上应该有非常强大的方案。

另外,当我用同一问题反复问它,它的回答并非千篇一律,而是具有一定的差异性。这也让它更像“人”,毕竟问一个人想吃什么,他每次会有不同的回答,这说明ChatGPT的随机决策模型也做得不错。

沈阳:我认为,ChatGPT在技术上是弱人工智能走向强人工智能的重要节点。从商业上来说,应该会引发一场大洗牌。对善于使用网络的人来说,ChatGPT可以成为非常好的助手,在文案写作、检索等领域,能简化三四成的工作量。

杨君:ChatGPT最具突破性的方面在于逻辑衔接能力,但我认为它还不具备独立推理能力。有用户用三段论跟它对话,它得出了不太符合常识的推论,这是AI还赶不上人脑的一大方面。人脑的强大,就在于归纳和推理能力。有人拿阿尔法狗战胜围棋世界冠军,来证明人脑比不过“AI脑”,然而,目前的智能决策都还仅限于特定场景,算法在特定规则下才能表现出非常强的能力。我认为,能适应和突破变化的规则,是强人工智能的重要发展方向。

吴楠:不少用户发现,ChatGPT在一些常识性的、正常人绝对不会犯错的问题上经常犯错,需要人工干预和修正。而到底什么是常识性问题呢?这个界定其实是很困难的,触碰到了比模型本身更高一层、更加原始的“源问题”。对此的研究和探讨,有助于厘清AI在哪些地方需要人的修正和帮助,划分出人机边界。

季逸超:在搜索场景下,ChatGPT还面临一些挑战。对于事实性的问题,机器通过学习能得出一致的答案,比如“中国的首都在哪里?北京”。但对于观点性的、百家争鸣的问题,如何保证机器学习后,能给我们一个全面公正、没有偏见的结果?

无所不能,但对真实性概不负责?

何俊良:如果问ChatGPT我们自己不熟悉的专业领域的问题,它的回答会看起来非常专业,但实际上可能包含很多错误的知识和误导性观点,而我们难以分辨。

真实性问题会带来信赖危机,而一旦公众不敢信赖一款应用,它也便难于发展。比如自动驾驶技术,就算准确性达到99%,但由于AI的决策不可解释、不可完全控制,很多人就不信赖它,不愿意去使用,这也导致自动驾驶技术一直未能普及。

大语言模型目前最亟待解决的问题之一,就是怎么去判断AI的输出到底是对是错,学界也特别关心。

陈雨强:可信性问题确实很重要。目前ChatGPT热度正劲,但除了日活数据,还有一个关键指标是用户留存数,也就是有多少人在一周、一个月、半年之后还在持续使用这款产品。

技术厮杀激烈,蓝海很快会“染红”?

国内也是这个逻辑,谁率先推出,谁就率先获得更有优势的社会训练。

陈雨强:我认为,在自然语言处理领域,由于智能客服的普遍应用,中国的技术已达到了一定的成熟度。下一步,自然语言处理技术应更加注重面向企业端,为企业的经营决策、生产管理、降本提效、开拓市场、资产管理等提供服务,以更好地商业变现。

季逸超:ChatGPT问世后,国内很多人在讨论,为什么率先做出这种产品的不是我们,或者说我们需要多久才能做出类似的产品。作为技术人员,我认为中国企业在AI多个技术领域发展得还是不错的,尤其是在应用端做出了很多成功模型。

我们要达到类似ChatGPT的水平,往往要选择一个参数规模极大的语言模型去训练,目前成本还非常高。这也许正是机会所在——切中搜索引擎的其中一个切面,做一个表现更好、规模更小的模型,做垂直功能,同时把成本打下来。

AI的普及给教育体系带来哪些挑战?

沈阳:有人做试验,让ChatGPT参加考试,其能达到硕士的入学水平,这预示着一般性脑力劳动在未来的价值会大幅降低。如果ChatGPT发育得比较充分的话,我们未来的整个教育体系是要改变的。我们要培养下一代增加创造性知识的能力,提供AI所不能提供的价值。

如果不解决好教育和人才培养问题,在AI时代就很可能产生严峻的就业问题,进而影响产业升级,带来一系列经济社会问题。

我们大学老师也焦虑,自己还剩下什么能“教”的呢?我认为,一方面是教学生不断提出好问题,另一个方面是提炼升华AI生产内容的能力。挡住学生用ChatGPT写论文是不可能的,那就教会学生用它学习、优化思考。

唐明:我认为,ChatGPT能极大提高人类的工作效率,但所谓取代人类,则远远谈不上。AI再怎么发展,最终还是需要人做出判断,不可能完全信赖机器。

而人要能做出正确的判断,这就对教育提出了更高的要求,要培养出有知识储备、能看懂AI逻辑过程、能驾驭AI而不被它牵着走的人。

这项前沿科技,将沿着哪条路向前?

王金桥:从技术路线来讲,未来,类ChatGPT应用可衍生成为人工智能时代的新型操作系统,搜索引擎、office办公软件等都可以是包含其中的应用,使之成为人工智能界的新基建,亦是深深嵌入人们日常工作、学习、生活的有力工具。

车万翔:现阶段,自然语言处理技术逐步从语义层面向推理层面迈进,推理层面解决好后,接下来就要进入应用层面,也就是AI要能听懂语言的弦外之音,理解同一句话在不同语境中的不同含义,更好适应语言表达的个性化。

要让AI拥有这些更高级的能力,首先要构建足够大的模型,但大模型只是解决了知识的存储问题,怎样能更好地调用知识呢?——强化学习,在代码上继续训练,让AI生成的结果更符合人类的预期,越来越有“人味”。

吴楠:我认为,搜索和大语言模型相结合存在一个鸿沟。搜索引擎需要一定的稳定性,搜索结果通常应该是客观而正确的。但ChatGPT这类大语言模型,对问题的回答是不断迭代的,不像搜索引擎那么稳定。大家会问ChatGPT很多有意思的问题,但在搜索引擎上不会这么问。

唐明:有一点需要注意,网络搜索出来的结果就一定可信吗?不见得。一次搜索能有成千上万条结果,ChatGPT能总结、合成得完吗?如果不能完全总结,那么ChatGPT会不会限制搜索者的视野?ChatGPT如何扩展自己的知识面呢?

在人工智能三大领域算力、数据和算法中,我国都有人在做,算法技术也都掌握。但我认为,仅仅有这三点还不够,还需要的是保持耐心和专注。耐心和专注不仅仅是对科研人员的要求,也是对投资人的要求,持续深耕才能开花结果。不过,无论如何,未来可期。

陈雨强:数据更新是需要解决的重要问题,不可能每天或每个月更新一次,这样成本太高,机器学习和推理训练的成本也很高。所以,如何让“AI脑”及时跟上步履不停的信息社会,让人们能用搜索引擎把更多更新的数据调用出来,也是需要突破的技术。

还有数据源方面,今后可能会出现服务于不同需求的、专业化版本的类ChatGPT应用,分别对接不同的数据源。比如新闻版本的,数据源就要更加严谨可靠。

THE END
1.CHATGPT对算力的需求如何颠覆芯片的底层架构设计,存算一体,正是突破算力瓶颈、摆脱存储宽带限制的一条路径。关键词之一,是顺势。 大部分读者都知道,算法、算力和数据是大模型时代的三大基础要素,ChatGPT引爆了算力要求的“核聚变”。当摩尔定律已经被逼近物理极限,如何突破算力瓶颈已成为业界重点突围的方向之一,因为模型计算量的增长速度,已经远http://www.hlwwhy.com/ask/6690483.html
2.ChatGPT价格里掩盖的算力分布秘密新程序员【导读】当前,大语言模型的商业化持续进行,本文聚焦这一变革背景下的 ChatGPT 定价机制,深入剖析其核心技术内涵。通过细致研究 ChatGPT-3.5 turbo 采用的 Decode-Only 架构,作者系统地探讨了模型在接收到输入提示并生成相应输出的过程中,如何差异化利用 GPU 算力资源,进而阐明了支撑该定价策略的独特技术原理。 https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/136265725
3.投资者提问:CHATGPT时代来临,对算力要求将巨幅提高,请问公司在CHATGPT时代来临,对算力要求将巨幅提高,请问公司在提高算力上有什么技术吗? 董秘回答(网宿科技SZ300017): 投资者,你好。公司自成立来坚持深耕数字经济基础设施层与平台层,包括数据中心,混合云和云管平台,CDN,云安全及边缘计算平台等。通过提供计算、存储、网络及安全等新一代信息技术服务,助力互联网客户、政府及企业https://finance.sina.cn/stock/relnews/dongmiqa/2023-03-09/detail-imykhfhw9958631.d.html
4.ChatGPT服务器,深度拆解AI大模型训练需求火热,智能算力规模增长有望带动AI服务器放量。 ChatGPT发布之后,引发了全球范围的关注和讨论,国内各大厂商相继宣布GPT模型开发计划。据各公司官网,2023年2月7日,百度宣布将推出ChatGPT类似产品“文心一言”,预计今年3月展开内测;2月8日阿里宣布阿里版ChatGPT正在研发中,目前处于内测阶段;2月9日,字节https://www.51cto.com/article/747956.html
5.ChatGPT正在榨干算力,如何打赢这场算力攻坚战?互联网在这之中表现最为亮眼的,莫过于从GPT-3迭代而来的ChatGPT,2022年底一出世就博得全球目光,无论是在模型预训练阶段,还是模型被访问阶段,ChatGPT都对算力提出“史无前例”的要求。 在模型预训练阶段,从GPT-1到GPT-3,从GPT-3 Small到GPT-3 175B,对算力的需求呈指数型增长。 https://news.iresearch.cn/yx/2023/03/463121.shtml
6.关于ChatGPT的五个最重要问题iPhone的交互方式和各种传感器,让iPhone慢慢变成了人类的身体的一部分,一个带来更多信息,高效交互的器官。ChatGPT已经接近目前人类调用算力和数据的最终极形态了,其应用方式本身当然是足够厉害的。我们在第二问,ChatGPT会取代哪些工作里,详细展开。 这里也牵涉到了一个重要的题外话,我们在讨论中发现,很多资深AI从业者,http://www.360doc.com/content/23/0317/18/1072439854_1072439854.shtml
7.令小雄王鼎民袁健:ChatGPT爆火后关于科技伦理及学术伦理的冷ChatGPT 能讲“人话”是基于 OpenAI 公司开发的一个 GPT-3.5 架构的大型语言模型,通过强化学习训练人工智能聊天机器人程序,能够广泛应用于业界和客户服务,基于 Transformer 架构的强大算力的语言模型,具有深度学习特质,葆有出色的语言理解和文本对话生成能力,ChatGPT 的语言理解和生成水平的便捷性能够更快更好地回答http://fzzfyjy.cupl.edu.cn/info/1035/15631.htm
8.中金:ChatGPT启新章,AIGC引领云硬件新时代一般服务器/存储器对于PCB的需求普通的多层板为主,随着ChatGPT大模型这类需要海量数据应用的发展,对算力的要求越来越高,对于大容量、高速、高性能的云计算服务器的需求将不断增长,对PCB的设计要求也将不断升级,提升对于高层数、大尺寸、高速材料等的应用。https://wallstreetcn.com/articles/3682574
9.一文读懂ChatGPT,你想知道的都在这里目前,百度宣布进军AIGC赛道,依托数据、算法和算力,全力打造AIGC产品“文心一言”,有利于为我国舆论安全保驾护航。 ? 完善监管机制,加强AI层面立法 首先,事前建立市场准入标准,由网信办牵头,成立人工智能风险评估委员会,综合评估ChatGPT进入市场后可能引发的风险,要求人工智能公司严格遵守各项运营要求。其次,事中应当https://weibo.com/ttarticle/p/show?id=2309404906876851847170
10.实测:ChatGPT的翻译能力怎么样?雷峰网另外,研究人员在Tp2中增加了一个额外命令,要求ChatGPT不要在翻译的句子上加双引号(在原始格式中经常发生)。尽管如此,ChatGPT依旧不稳定,如会将同一批次的多行句子翻译成单行。 图2:候选翻译提示 研究人员将三种不同的候选prompt与Flores-101的测试集在汉译英任务中的表现进行比较,图3显示了ChatGPT和其他三个翻译https://m.leiphone.com/category/ai/GftWDAq4bFtBelft.html
11.ChatGPT第二、遏制用户滥用政策。不允许文本要求生成暴力、成人或政治内容等视频。如果我们的过滤器发现可能违反我们政策的文本提示和图片上传,ChatGPT就会采用自动化和人工监控系统予以拒绝。 OpenAI认为:负责任的开发和安全监管是人工智能的重要组成部分,让用户对ChatGPT安全系统有信心。 https://www.jianshu.com/p/805abc3dcaae