最近ChatGPT非常火。如果你刷社交媒体,大概已经被各种消息搞得头晕脑胀。从大佬到普通人都对这个话题表现出了浓厚的兴趣,就连ChatGPT为主题的学术研讨会通知我都已经收到3份了。
但如果你一直在听别人谈论ChatGPT,那你恐怕不是流量的获取方。说得直白一些:你就是流量。这里我给你提个建议,就是尽早从猎奇甚至「站队」中走出来,更为高效地利用起ChatGPT,为自己获取竞争优势。
要达到这个目标,我觉得你需要做两件事情:第一,摆正认识;第二,上手操作。
下面咱们分别谈谈。
别忘了,ChatGPT的基础是GPT-3这样一个大语言模型,它刻画的是语言规律,而不是去记录语言内容本身。如果咱们追逐的是对丰富数据的记忆力,世界上最强、最先进科技的诞生机构应该是维基百科或大型图书馆与档案馆。ChatGPT让人惊艳,并非是能把世界上已经产生的内容原原本本回忆出来,而是根据用户的具体需求创造新内容。
ChatGPT不是搜索引擎。它可以根据你的特定要求输出一些代码,如果你运气足够好,这些新生成的代码甚至不需要人工调整即可正常运行。虽然现存的很多代码与之非常相似,都遵循相同的语法规则,但新代码就是新代码,这些代码在网络上从未存在过。这种创造是搜索引擎无法达成的。
ChatGPT的惊人进步并非来自于更高比率的「有损压缩」技术。它能寻找规律——寻找解决问题的规律,描述内容的规律……甚至还可能蕴含一些其他规律,只是我们目前还没有意识到,或者尚未尝试而已。
寻找规律而不是记忆内容,真的很重要吗?
当然。有的人记笔记喜欢高亮或摘抄书里的段落,但已经有许多研究证明,这些做法其实没有显著意义。相反在记笔记的时候,根据新的上下文(context)做出转述(elaboration)反而更加重要,因为那是你自己的话,也包含了创造性。
我们原以为只有人类才能进行有价值的创造活动,机器只是按照规程从事机械重复劳动,或者亦步亦趋地模仿。ChatGPT似乎跨越了这一限制。至少在编程上,它可以直接给用户提供新的解决方案了。
无视ChatGPT拥有的动态创造能力,只是将其当成有损压缩文件是否合适呢?让我们进一步想想:这位做出高妙比喻的作家,是否真正理解大型语言模型的本质,他是否知道语言模型的演进过程都发生过什么,模型是如何处理输入和输出的?
如果他对于上述问题都很清楚,就绝对不会把模型看作一个巨大的Jpeg文件,只负责简单的压缩和解压缩。反之,如果他对于技术层面毫不了解,只去观察了一定数量的ChatGPT输出结果就匆忙做出判断,会怎么样呢?
作家可能会让你对新事物产生误判。例如说,你会因为这位作家不恰当的类比,觉得ChatGPT只是记忆力拔群,因此会觉得它和你的工作没有关系。你很可能因此错失机遇。
我们刚才说的,不过是读者可能被误导的方向之一。其实你觉得「ChatGPT跟我无关」,损失不一定太大。更多的作者激情四射,则可能把你引到另一个极端——觉得ChatGPT是强人工智能的降临标志,甚至把它当成一个神话顶礼膜拜。
ChatGPT不仅「出圈儿」,而且出得太快了。曾经有炒股高手说过,如果你见到菜场大妈向你推荐股票的时候,该知道牛市到顶了。有位朋友发了个苦笑不得的表情,动态里写着他「从来对高科技无感的厨师老爹也给他转发ChatGPT的资料」。我看到后心里咯噔一下——ChatGPT才出来两个月,莫非这波就已经到顶了?
或许吧,但这真不能算是ChatGPT的错。OpenAI官方至今并没有做出任何显著夸大其词的虚假宣传,但是普通人的预期着实「虚火太旺」了。许多人尝试之后,发现能够从ChatGPT中受益,于是为它免费宣传;宣传触达了更大群体后,大众对ChatGPT功能认知就逐渐走了样。
这就如同有针对性的特效药被传的神乎其神后,就被成了万灵药甚至「大力丸」。
这些日子不少人在讲如何利用ChatGPT赚钱,例如有人用它建立网站,帮助别人做简历。这样的应用,至少还算作有价值。但是他们赚到的那点钱简直是小巫见大巫:有些人直接利用信息不对称才真是大赚特赚。我在朋友圈里面看见一个截图,虽然我并不完全相信里面的数字,觉得有吹嘘成分,但至少这种现象应该是真实存在的。
对于一个爆火的科技产品来说,这些遭遇可能难以避免。只不过我们应该警醒,避免兴奋过头儿,跟着部分人一起癫狂。
这也不是,那也不是,究竟该如何摆正对ChatGPT的认识呢?
其实ChatGPT一点儿也不神秘。你不必了解大语言模型的架构,甚至连神经网络的基础单元如何联接也不必了解。这又不是考试。你只需知道,它是一次成功的人工智能工程化尝试。
人们的激动与兴奋,来自于一个新AI产品真的可用并且能给自己提供帮助。2022年AI领域发生了许多事情,可能在技术编年史上留下一笔。但真正激动人心的不是人工智能理论乃至研究范式方面突破,而是「人工智能工程化」的成功。
「工程化」是什么?是科技进步带来的产品让普通人看得见、摸得着、用得上。1970年代的个人电脑是工程化,1990年代的互联网是工程化,2007的iPhone为代表的智能手机是工程化,如今你刷脸进楼门也是工程化。
2022我们见识到的,是DALLE2,是Midjourney,是StableDiffusion,也是ChatGPT。
YannLecun说ChatGPT不是什么新技术,OpenAI的技术实力不如Google。从单纯的学术角度来讲他说得没什么不妥。但是历史会记住,是OpenAI而不是Google先做出来了ChatGPT,从而引领了此次AI破圈的风潮。
我们经常会对一些火爆事物的发明者产生特别的崇拜,认为他们每一步都踏在了正确的道路上,战略规划清晰异常。但如果你了解幕后的故事,就会发现许多成功根本就不是精密设计运筹帷幄的结果。拿ChatGPT来说,OpenAI最初想的想法是内部测试成熟之后,再发布这个聊天机器人。但是在模型训练过程中OpenAI遇到了巨大的困难,甚至想过要放弃或至少把目标做出大幅调整。为什么呢?
因为ChatGPT内部测试过程很不顺利。OpenAI采用了一种被称作RLHF(ReinforcementLearningfromHumanFeedback)的技术,就是依赖真人的反馈来训练和校准模型。
可是OpenAI找来的内测人员,坐在ChatGPT前面不知道该说啥。尬聊的结果,是项目进展很不理想。OpenAI干脆决定不等了,直接用一种半成品的形式开放招募测试。没错,每一个「研究预览版」的ChatGPT用户,其实都是OpenAI的免费测试员。这两个多月里,全球的「测试员」们夜以继日为模型的完善不断做出了贡献。测试员规模快速增长,直到OpenAI不得不收费,才能避免服务器被挤爆。
ChatGPT的发布其实是个风险很大的决定。种子用户的选择一般会避免如此草率。一来模型在最初的热心用户群体里如果出现口碑翻车,后面挽回很困难;二来是用户输入和反馈数据很有可能会对模型造成污染。当年某个大厂的对话机器人没几天学了一通「脏口儿」便是前车之鉴。
不过很显然,这个决定的后果是有惊无险——ChatGPT不仅没有口碑翻车,而且搞得别的大厂发布红色警报,甚至股票价格都发生大幅波动。
你看,ChatGPT只是一个依靠许许多多用户的帮助,快速进步的大语言模型。我们不需要过于吹捧它,也不必跟着别人一起把它认定为一个噱头。摆正了认知之后,我们才好开始下一步:上手操作。
我的第二个建议就是不要人云亦云。相信自己的眼睛,相信自己的双手,去试试ChatGPT,然后多根据实践结果总结和迭代,真正用它为你服务。
我目前使用它主要包括两块,一是写作,二是编程。
例如让它帮你思考一些例子来支撑自己的论断:写着写着突然想起来,自己举的这个例子不大充分,有没有更好的例子?以前这就意味着你需要进入搜索引擎、输入关键词、然后对着浩如烟海的结果慢慢筛选。但现在你可以告诉ChatGPT「补充例子,论证上面的论断」。
如果你觉得例子不够好也没关系,让它接着举其他的呗:
除了实际的示例,ChatGPT也善于去查找名人名言。例如说我写本文的时候想到了乔布斯的一段话,和创新有关,但是一时有些发蒙想不起来里面的关键词。于是干脆让ChatGPT帮我去回忆:
看了一下觉得都不是?没关系,让ChatGPT继续说不就得了:
一下子,我就发现第6条是自己想要的。好玩儿的是ChatGPT给出的名人名言里中英文都齐备,我连翻译的工作都省了,直接贴进来就好。
有的时候,我甚至发现ChatGPT有「通感」能力。例如说你提到某种现象,可以让它去找到类似的情况。例如下面这个例子里我分析了ChatGPT这个例子,但是就在琢磨押着相似韵脚的历史事件还有啥呢?直接问ChatGPT好了:
我觉得答案里面用互联网泡沫用来形容「大众的期待过高」还是比较贴切的。只不过你需要注意的是,不能够对于ChatGPT给出的结果不加甄别就去利用。好比说下面这个答案,你一眼看上去,能否发现问题?
例如下面例子里,我请ChatGPT把一段文本里面出现的特定内容进行替换。有趣的是,这次我没有告诉它具体的执行步骤,而是给它个相对模糊的例子。例子里面出现的...并非真正的文本,而是代表了一种任意性。
尝试后,我发现代码运行很顺利,文本替换成功。我非常兴奋,并不只是因为ChatGPT帮我解决了眼前这一个具体的问题。而是因为有了这个发现,以后让ChatGPT帮我处理一些机械重复的文本处理工作,就更加得心应手了,因为给例子就成啊。
ChatGPT讨论热浪中有许多种不同的声音,千万不要陷入其中被误导。你觉得ChatGPT毫无新意难堪大用,可能会错失竞争优势;你觉得ChatGPT无所不能,也会癫狂而后深深失望。
摆正认识,把它当成一个有趣的大语言模型、一次AI工程化的成功开端,专注于尝试如何利用它改进自己的工作流程,才能真正获得益处。