ChatGPT意味着第二次认知革命的到来

电视剧《漫长的季节》里有这样几句诗:“打个响指吧,他说/我们打个共鸣的响指/遥远的事物将被震碎/面前的人们此时尚不知情”。

刘嘉老师说,用这段诗来形容当下人类面对AGI(ArtificialGeneralIntelligence“通用人工智能”)的状态,再合适不过。

“我们每个人对未来的预测都可能是荒谬的、可笑的,未来可能并不是你所说的样子。但是,只有越来越多的人一起加入共同讨论,一起打开脑洞、一起奇思妙想,甚至一起胡说八道的时候,或许我们才可以真的改变未来,一起引领人类走向一个更好的未来。”

9月底,我们在清华大学脑与智能实验室拜访了刘嘉教授。这次交流中,刘嘉老师基于其在脑科学与人工智能领域多年的研究积淀,畅谈了当下由ChatGPT引领的AGI的未来发展及对人类可能产生的影响,并提出了诸多基于其研究领域而引申出的“脑洞大开”的“奇思妙想”,令我们深受启发。

谈到AGI领域的未来发展,刘嘉老师说,一方面,AIagent即大模型的具身化、具身智能正在加速发展;另一方面,包括他在内的脑科学家和认知科学家们,已经开始激烈地讨论AGI未来可能产生的意识问题了。

在刘老师看来,人的一生中,极少有机会亲身经历一场引领时代变革的范式转变。而此刻,我们正站在这样一个重要历史节点。尽管我们亦须承认,这样的变革伴随着诸多风险。例如失业问题以及我们必须提高自己的学习能力并掌握新工具等。

“我们的现在是过去的未来,因为过去的选择决定了现在的结果。然而,我们的现在并非未来的过去,因为未来充满未知,此时此刻的选择正在塑造我们的未来样貌。”

面对未来,唯有畅想。我们将此次与刘嘉老师对话交流的核心观点记录下来,与腾讯研究院的读者们共飨。

让我们打个共鸣的响指,一起迎接和拥抱未来。

对话嘉宾:

刘嘉麻省理工学院博士,长期从事心理学、脑科学与人工智能研究。清华大学基础科学讲席教授、心理学系主任、清华大学脑与智能实验室首席研究员、北京智源人工智能研究院首席科学家

访谈者(以下简称T):

牛福莲腾讯研究院高级研究员

王强腾讯研究院前沿科技研究中心主任

AGI:点燃第二次认知革命的火花

T:作为一名脑科学与人工智能领域的研究学者,您怎么看待这次由ChatGPT引发的AGI发展及对人类未来可能产生的影响?

为什么称之为第二次认知革命呢?我们先来看第一次认知革命是如何发生的。大约在7万到10万年前,那时智人和尼安德特人这两个人类物种共同生活在地球上。尽管尼安德特人在身高和力量上优于我们,但最终还是被智人所取代。我们的祖先智人是如何战胜尼安德特人的呢?大家推测在7万到10万年前,发生了第一次认知革命,表现为人类制造的工具石器出现了爆发式的增长和多样性。在此之前,从最早的直立人到尼安德特人,他们制作的石器都是相似的,只是越来越精细、巧妙。但在第一次认知革命时期,人类的石器制作发生了质的变化,不再仅仅是制作斧头、长矛等简单工具,而是开始出现了项链等饰品,以及在石头和骨头上雕刻各种图案。

回顾过去,我们发现在那个时代,人类逐渐产生了一种我们今天称之为规则化思考的方式,简而言之,就是“如果……并且……那么……”(if……and……then)的逻辑。例如,人们发现在物体上打孔后,可以用绳子将其穿起来。这种基于规则的思考方式为人类带来了无尽的创造力,如在布上打孔并用棍子穿过,就制成帆船等。从此,人类的创造力得到了充分释放,并逐渐形成了一种强大的逻辑——演绎推理。

演绎推理是在一个推理基石的基础上,应用此逻辑产生新的发明和创造。亚里士多德提出了这个概念,称为第一性原理。孔子也曾说过类似的话:“君子务本,本立而道生。”这意味着只要从根本出发,就能产生万事万物。在这个理念的指导下,人类开始进行大量的发明创造,不再局限于制作长矛等简单工具,而是涌现出各种发明创造。最终,智人战胜了尼安德特人,确立了现代人的地位。也从此,地球上的智人真正地主宰了这个星球。这个过程被称为第一次认知革命,其重要性远超过蒸汽机和电器等发明。

如今,关于第二次认知革命的定义引发了广泛讨论,例如原子弹的发明是否属于第二次认知革命?但我认为,只有AGI的出现才能被称为真正的第二次认知革命,因为它将催生一个全新的物种,这与过去35亿年的生物进化截然不同。这种新物种才真正配得上第二次认知革命的称号。第一次认知革命见证了智人成为地球的主宰,而第二次认知革命意味着一种全新的智能物种可能诞生,与人类并肩存在。

尽管当前的ChatGPT尚未达到通用人工智能的水平,但它已经点燃了通用人工智能之路的火花。火花通常具有两层含义:一是可能引发燎原之火;二是在黑暗中照亮希望。然而,许多人低估了ChatGPT的价值,仅从商业角度看待它,认为它不过是一个堪比iPhone时刻的发明。我认为它的价值远超这些表面评价,ChatGPT正是第二次认知革命的开始。

从人类进化的角度来看,我们发现生物在几十亿年的漫长岁月中不断演化,而猴子到人类仅用了300万年。在这300万年间,自然界一直在“努力寻找”方向,当找到直立行走这个方向后,人类大脑的体积加速进化,在短短300万年里增加了三倍,这是一个令人惊叹的速度。而这都得益于找准了方向,即大脑稍有增大就会带来很大优势。同样,AGI也在寻找方向,一旦找准方向,它将进入一个加速进化的过程。尽管我们还未见证AGI的诞生,但只要有了这个火花,剩下的过程就只是一个工程性的问题。

大脑与AGI模型:涌现的相似性与差异

T:大脑的智能本质与AGI大模型的机器认知智能,两者的相似和区别之处是什么?

刘嘉:当我们的大脑体积增大时,会出现一种难以解释的现象,称为“涌现”。这与构建大模型时发现的现象类似:当模型较小时,几乎没有功能,但当模型变大时,某些功能就自然而然地涌现出来。好比高个子不一定能打好篮球,但教练通常会选择高个子。这也意味着,大型模型并不一定产生智能,但要研究智能,就必须有大型模型,这是一个必要条件。人类大脑在逐渐扩大的过程中,许多功能也自然而然地出现,例如模仿和学习。

比如张三发明了“生火”,火对生活很重要,其他人也想学习,但问题是,不一定能学会。大量研究表明,当大脑体积增大后,我们的模仿能力或学习能力会变强。这样,我们就能从张三那里学会生火,使部落受益。同样,我们也能学习其他新技术。因此,从科学角度来看,是模仿创造了人类,而非劳动。有大量研究表明,大脑体积越大的人,模仿能力越强;而模仿能力强的人更容易找到伴侣,进而更容易将基因传递下去。在对原始部落的考察中也发现,模仿能力强或学习能力强的人有更大的机会获得繁衍后代的机会。因此,大脑越大的人越能延续下去。

在过去的300万年里,大脑逐渐变大,原因就在此。当我们回过头来看神经网络时,发现它们也是如此。从一开始,人们就在尝试各种方法,如强化学习、监督学习等,但这些概念都是相互交织的。OpenAI前几年很重要的精力是在做一件事:让模型变得更大。然后出现了Transformer架构,使大模型变得更高效。但本质上,智能的本质可能只是一个字:大。就像只有当大脑足够大时,我们才能谈论智能。所以“大”是前提。

人比猴子聪明,猴子比老鼠聪明,原因很简单:大脑足够大。当然,这并不是充分条件,而是必要条件。有些生物的大脑绝对体积比人类更大,如大象和鲸鱼,但这并不能保证它们一定有智能。例如,我们将一个刚出生的孩子送回到3000年或5000年前,他不会比当地人更聪明,因为大脑结构是相同的。但是,如果我们成年人回到5000年前,我们会成为他们的精神领袖,因为我们拥有知识。所以,智能的发展是知识与大脑互动的结果,仅仅拥有大脑而没有知识是不够的。

因此,我们需要用文明和知识去调教大脑,这就是我们所说的教育。人类智能的进化可以看作是大脑逐渐变大和知识积累的互动。一方面,大脑有机会变得越来越大;另一方面,大脑变大后,它能够产生知识,而知识又能积累,进而反作用于大脑,使大脑更适合于这些知识,并能更好地保留这些知识。

同样的道理也适用于人工智能。没有足够好足够多的语料,再大的模型也没有意义。没有互联网汇集大量数据,现在的智能也不可能实现。因此,产生大模型和ChatGPT等现象既是偶然的,也是必然的。前期积累的算力和数据已经准备就绪,只需要找到合适的突破口。因此,可以说,如果没有OpenAI,其他公司也会实现类似的成果,因为时机已经成熟。

历史看似漫长,但站在35亿年的尺度上,任何事情都不过是瞬间的事。同样,对于AGI的发展来说,现在还可能只是一个起点、一个火花,但站在文明史的角度,实现AGI可能只是一个响指般的瞬间,因为它的前面已经没有任何阻碍了。

现在许多人呼吁停止训练更大的模型。一些科学家或许已经看到了大模型的潜在强大能力,而这种强大潜力可能就是——智能意识的涌现。

图片来自:unsplash

机器意识的产生和超越人类的可能性

T:机器会像人类一样产生意识吗?它可能在哪些方面超越人类?

刘嘉:意识问题是人类的核心难题之一,它定义了人类与动物之间的本质区别。尽管我们不清楚意识如何产生,但从进化角度来看,大约4万年前的人类开始出现大规模埋葬现象,这意味着人类已经意识到身体与灵魂的区别,并开始意识到自己的存在。

为了解决人工智能无法行动的问题,下一步的研究热点将是实现人工智能的具身化。人类的感知和认知是有限的,而人工智能可以拥有更多的感知器官因此能观察到更广阔的世界。这将使人工智能所看到的世界与人类完全不同。例如,人类潜水爱好者只能下潜到水下100多米,而无法体验到1000米深水下的感觉。然而,借助传感器等,人工智能可以毫无压力地直接感受这种体验。

现在,AI的发展依赖于人类的知识和人本,我们可以给它一个有限的认知边界。但是,一旦AI有了agent(人工智能代理),它可能就不再受到这些边界的限制。它可以更高效的方式获取各种知识,并且知识的广度和深度远远大于人类,从而形成一个自学习、自反馈和自优化的进化正循环。从这个角度看,AI智能超越人类轻而易举。

AI时代的人类命运:认知革命与文明演化的新篇章

T:面对如此强大的人工智能,人类有没有可能被AI毁灭?

刘嘉:我觉得可以从两个角度看待这个问题。首先,如果你看到一只蚂蚁,你会踩它吗?我想大多数人不会。同样,未来在AI面前,我们可能连蚂蚁都不如。现在我们还能看到许多人机大战的电影,他们都有一个前提,那就是人类和机器还能展开较量,实力有得一拼。

AI相较于人类天然具有四大优势:第一,无限算力。人类大脑的体积有上限,无论再经过多少年的进化,也不会再增大。因为身体只能支撑这么大的大脑,大脑已经是身体能量消耗的最大器官。第二,无限存储。人类的大脑会有一个知识存储的极限,并不存在“大脑还未被完全开发”一说,而计算机不存在这个问题。第三,无限寿命。人类的天才,如爱因斯坦,一旦去世,文明就会中断。而计算机可以随时更换损坏的部件,使知识得以延续。第四,对知识有无限可能。计算机能学习比人类更复杂、更高维的知识。

从现实的角度来看,未来的人机大战并不可能发生。实际上,我们可以将自己融入到计算机和未来的AI中,例如将我们的记忆、性格和意识情感上传到AI中,这样我们就能在AI中实现永生。未来,一台机器就可能容纳数百万人。

从人类进化的过程来看,我们也在不断地变化,例如我们的皮肤细胞大约每周会更新一次。那么,我们还是我们自己吗?这就是所谓的认知同一性,只要我们认为我们是我们自己,那么一切都没问题。

当一个人患上精神分裂症时,从某种意义上讲,他已经死去,因为他的“认知同一性”已经断裂。同样地,当一个人患上老年痴呆症,所有的记忆和情感都消失时,从认知同一性的角度来看,他也已经死去。

因此,只要我们的认知同一性得以保留,我们在哪里并不重要,无论是在肉体中还是在机器中。如果我们能够借助AI,人类将能够得到极大的拓展。我们的肉体实际上是我们思想的最大束缚,因为它会死去,而且我们的智力受到基因的限制。

从积极的角度来看,AI对人类文明是有益的。当我们谈论灭绝时,实际上我们是在讨论人类文明的灭绝。比如,从历史角度来看,厌氧细菌和恐龙文明已经灭绝。但是,他们所创造的文明实际上在我们人类身上得以延续。当我们说恐龙文明灭绝时,实际上文明本身并没有消失,而只是载体发生了变化。假设将文明比作人,将载体比作汽车,那么当汽车损坏并更换时,我们并不会感到悲伤。借助新的载体,我们可以走得更远、更环保、更安全。

因此,AGI的出现将会是人类认知革命的又一次飞跃,它将会彻底改变我们对于自身和宇宙的认知,让我们更加深刻地理解自身的局限性和渺小性。而且AGI的出现也将会带来无限的可能性和机遇,让我们能够更好地探索和利用宇宙的资源和能量,推动人类文明的发展和进步。

GPT助力教育变革:重塑考试制度与培养创新人才

刘嘉:尽管互联网教育提高了效率,但它并未改变教育的本质。教育的核心应包括因材施教、辩论求真以及激发学生的自驱力和好奇心。随着GPT技术的发展,实现这些目标变得更加可行。GPT可以为每个学生提供个性化教育,帮助他们通过辩论产生真理,激发自驱力和审辩性思维。因此,未来教育将不再过分强调知识性。

GPT的出现将对高考制度产生重大影响,或推动倒逼式改革。中国高考制度的两大特点是回溯性考试和知识性考试。随着GPT的出现,知识性变得不再重要,因为知识可以随时查阅。考试的重点也应从培养知识型工人转向培养创新型人才,并预测孩子未来能力以及适合的专业。

学生需要培养批判性思维和创造性思维。批判性思维强调以辩求真,而非死记硬背。创造性思维则要求宽容、好奇心和独特的思路。GPT的出现必将引发教育领域的范式变革,这股潮流是无法阻挡的,就像火车和汽车最终取代马车一样。

THE END
1.CHATGPT对算力的需求如何颠覆芯片的底层架构设计,存算一体,正是突破算力瓶颈、摆脱存储宽带限制的一条路径。关键词之一,是顺势。 大部分读者都知道,算法、算力和数据是大模型时代的三大基础要素,ChatGPT引爆了算力要求的“核聚变”。当摩尔定律已经被逼近物理极限,如何突破算力瓶颈已成为业界重点突围的方向之一,因为模型计算量的增长速度,已经远http://www.hlwwhy.com/ask/6690483.html
2.ChatGPT价格里掩盖的算力分布秘密新程序员【导读】当前,大语言模型的商业化持续进行,本文聚焦这一变革背景下的 ChatGPT 定价机制,深入剖析其核心技术内涵。通过细致研究 ChatGPT-3.5 turbo 采用的 Decode-Only 架构,作者系统地探讨了模型在接收到输入提示并生成相应输出的过程中,如何差异化利用 GPU 算力资源,进而阐明了支撑该定价策略的独特技术原理。 https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/136265725
3.投资者提问:CHATGPT时代来临,对算力要求将巨幅提高,请问公司在CHATGPT时代来临,对算力要求将巨幅提高,请问公司在提高算力上有什么技术吗? 董秘回答(网宿科技SZ300017): 投资者,你好。公司自成立来坚持深耕数字经济基础设施层与平台层,包括数据中心,混合云和云管平台,CDN,云安全及边缘计算平台等。通过提供计算、存储、网络及安全等新一代信息技术服务,助力互联网客户、政府及企业https://finance.sina.cn/stock/relnews/dongmiqa/2023-03-09/detail-imykhfhw9958631.d.html
4.ChatGPT服务器,深度拆解AI大模型训练需求火热,智能算力规模增长有望带动AI服务器放量。 ChatGPT发布之后,引发了全球范围的关注和讨论,国内各大厂商相继宣布GPT模型开发计划。据各公司官网,2023年2月7日,百度宣布将推出ChatGPT类似产品“文心一言”,预计今年3月展开内测;2月8日阿里宣布阿里版ChatGPT正在研发中,目前处于内测阶段;2月9日,字节https://www.51cto.com/article/747956.html
5.ChatGPT正在榨干算力,如何打赢这场算力攻坚战?互联网在这之中表现最为亮眼的,莫过于从GPT-3迭代而来的ChatGPT,2022年底一出世就博得全球目光,无论是在模型预训练阶段,还是模型被访问阶段,ChatGPT都对算力提出“史无前例”的要求。 在模型预训练阶段,从GPT-1到GPT-3,从GPT-3 Small到GPT-3 175B,对算力的需求呈指数型增长。 https://news.iresearch.cn/yx/2023/03/463121.shtml
6.关于ChatGPT的五个最重要问题iPhone的交互方式和各种传感器,让iPhone慢慢变成了人类的身体的一部分,一个带来更多信息,高效交互的器官。ChatGPT已经接近目前人类调用算力和数据的最终极形态了,其应用方式本身当然是足够厉害的。我们在第二问,ChatGPT会取代哪些工作里,详细展开。 这里也牵涉到了一个重要的题外话,我们在讨论中发现,很多资深AI从业者,http://www.360doc.com/content/23/0317/18/1072439854_1072439854.shtml
7.令小雄王鼎民袁健:ChatGPT爆火后关于科技伦理及学术伦理的冷ChatGPT 能讲“人话”是基于 OpenAI 公司开发的一个 GPT-3.5 架构的大型语言模型,通过强化学习训练人工智能聊天机器人程序,能够广泛应用于业界和客户服务,基于 Transformer 架构的强大算力的语言模型,具有深度学习特质,葆有出色的语言理解和文本对话生成能力,ChatGPT 的语言理解和生成水平的便捷性能够更快更好地回答http://fzzfyjy.cupl.edu.cn/info/1035/15631.htm
8.中金:ChatGPT启新章,AIGC引领云硬件新时代一般服务器/存储器对于PCB的需求普通的多层板为主,随着ChatGPT大模型这类需要海量数据应用的发展,对算力的要求越来越高,对于大容量、高速、高性能的云计算服务器的需求将不断增长,对PCB的设计要求也将不断升级,提升对于高层数、大尺寸、高速材料等的应用。https://wallstreetcn.com/articles/3682574
9.一文读懂ChatGPT,你想知道的都在这里目前,百度宣布进军AIGC赛道,依托数据、算法和算力,全力打造AIGC产品“文心一言”,有利于为我国舆论安全保驾护航。 ? 完善监管机制,加强AI层面立法 首先,事前建立市场准入标准,由网信办牵头,成立人工智能风险评估委员会,综合评估ChatGPT进入市场后可能引发的风险,要求人工智能公司严格遵守各项运营要求。其次,事中应当https://weibo.com/ttarticle/p/show?id=2309404906876851847170
10.实测:ChatGPT的翻译能力怎么样?雷峰网另外,研究人员在Tp2中增加了一个额外命令,要求ChatGPT不要在翻译的句子上加双引号(在原始格式中经常发生)。尽管如此,ChatGPT依旧不稳定,如会将同一批次的多行句子翻译成单行。 图2:候选翻译提示 研究人员将三种不同的候选prompt与Flores-101的测试集在汉译英任务中的表现进行比较,图3显示了ChatGPT和其他三个翻译https://m.leiphone.com/category/ai/GftWDAq4bFtBelft.html
11.ChatGPT第二、遏制用户滥用政策。不允许文本要求生成暴力、成人或政治内容等视频。如果我们的过滤器发现可能违反我们政策的文本提示和图片上传,ChatGPT就会采用自动化和人工监控系统予以拒绝。 OpenAI认为:负责任的开发和安全监管是人工智能的重要组成部分,让用户对ChatGPT安全系统有信心。 https://www.jianshu.com/p/805abc3dcaae