ChatGPT问世只有几个月,大家有没有发现,舆论的调门越来越高。
人们最初的震惊和赞叹,逐渐变成了非理性的鼓吹,很多人言之凿凿,断定ChatGPT将重塑人类社会。
"GPT也完全可以是general-purposetechnology(通用技术)的缩写:一种翻天覆地的创新,可以像汽机、电力和计算机一样提升各行各业的生产率。"
"ChatGPT带来的这场风暴,正在席卷一切。
随着不断的技术提升,可以预见,GPT类型的AI,未来能替代的,也许是全行业!"
这种情绪反映在金融市场,就是"ChatGPT概念股"被狂炒。一直微利+亏损的"汉王科技",就在ChatGPT问世后,股价从11元炒到了40元。
我有一种感觉,ChatGPT已经神化了,仿佛无所不能。
今天就来谈谈这件事,我要说,ChatGPT确实很神奇,是划时代的技术创新,但是不应该无限夸大。
他们忽略了最关键的一点:ChatGPT不是"通用人工智能",而是一个语言模型。
"通用人类智能"(artificialgeneralintelligence,简写AGI)是AI的终极目标,就是造出可以像人类那样全方位的推理、思考、分析的机器。如果能实现,人类就真的危险了。
但是,ChatGPT不是AGI,而是一个LLM(LargeLanguageModels,大规模语言模型)。所谓"语言模型",就是只用来处理语言文字(或者符号体系)的AI模型,发现其中的规律,可以根据提示(prompt),自动生成符合这些规律的内容。
这就是说,ChatGPT只适用于有成文符号的领域。这带来两个局限。
(1)如果某个领域是非成文的,不能用符号记录表达,那么ChatGPT就无能为力。比如,人类的很多心理活动、潜意识、灵感、顿悟等等,ChatGPT就没法模拟生成。
(2)第二个局限更致命,ChatGPT要用现有的文字材料进行训练,发现的是那些材料包含的规律。这意味着,它不能生成超出人类已知规律的东西。
举例来说,它不能证明未解决的数学猜想,也不能提出没有人发现过的科学发现。
即使我们把历史上所有的数学论文,都用来训练ChatGPT,它也无法证明黎曼猜想。因为那些论文只会教它现有的证明方法,而黎曼猜想需要新方法。
ChatGPT的底层技术是GPT,全称为"生成式预训练转换器"(Generativepre-trainedtransformer),凡是使用该技术的AI模型都有同样的问题:它们只能掌握已知的模式,无法生成未知的模式。
所以,真正"前无古人"的创新,这一类AI模型做不到,还是必须依靠人类的智慧。
另外,这里还有一个逻辑悖论。如果ChatGPT真的强大到"席卷一切",将来绝大多数文档都用它来生成,其实反而会带来它的衰亡。大家这么想,到了那个时候我们拿什么材料训练AI呢?毕竟AI只有拿人类的作品训练,才能模拟人类智能。
总之,ChatGPT是一个划时代的工具,所有模式化的人类工作,都面临空前的挑战。
但是,人类生活还有很多非模式化的部分,尤其是人类的创新能力,ChatGPT触及不了这个部分,所以它对社会的改变,不宜过分夸大。
周刊不定期发布技术活动消息,面向全国程序员,欢迎参与。
1、AIGC技术探索与应用创新
"掘金城市沙龙·北京站"邀请了来自字节、英特尔、谷歌、清华大学等著名机构的AI工程师和专家,与大家线下交流AIGC(人工智能生成内容)的一些学术性热点问题,包括工作原理、模型训练、后续变革等。
欧洲的人口出生率不断下降,一位科学家提出一个设想,在欧洲建立世界上第一个子宫工厂。
根据他的设想,这个厂有75个实验室,每个实验室最多容纳400个生长仓,每年可以培养30,000个婴儿。
胚胎放入生长仓后,就会有传感器24小时监控,并将生命体征、身体特征等数据实时发送到父母手机。父母还可以查看婴儿发育的高清图像,并通过扬声器与其交谈,或者穿上触觉背心感受婴儿的踢动。
每个生长仓都有两个管道,一个将营养物质和氧气泵入人造脐带,另一个排出废物。
一旦婴儿发育成熟,就可以从生长仓取出,交给父母养育。
美国太浩湖地区是一个风景区,也是黑熊的栖息地。今年冬天,许多居民意外发现,当地的黑熊居然没有冬眠,还在四处乱窜。
黑熊之所以冬眠,是因为冬天找不到食物,需要以静止的方式减少消耗。但是如果冬天能够找到食物,理论上,黑熊就没必要冬眠了。
太浩湖正在开发中,越来越多的居民移入,导致黑熊能够在人类聚居地的垃圾箱找到食物,这就是黑熊不再冬眠的头号原因。
一项研究发现,从2000年开始,流行歌曲的长度越来越短。
一首歌的平均长度,从以前的4分10秒下降到大约3分30秒。2021年美国前50首最流行的歌曲,平均时长更短,仅为3分07秒,其中38%的歌曲甚至不到3分钟。
澳大利亚科学家提出,哺乳动物可能起源于南半球。
传统的看法是,哺乳动物起源于北半球,因为北半球的陆地面积大,是大部分动物的栖息地。
但是,这些科学家认为,哺乳动物可以分成三类:有袋类(比如袋鼠)、胎盘类(比如人类)和单孔类(比如鸭嘴兽)。它们在澳大利亚都有分布,而且其中两类仅存于大洋洲。
这说明,大洋洲很可能是所有哺乳动物的起源地。而且,澳大利亚也确实发现了一些非常早期的哺乳动物化石。
近视患者最不方便的事情之一,就是眼镜起雾。为了解决这个问题,瑞士科学家发明了一种防雾镜片。
上图左侧是普通镜片,右侧是防雾镜片。
眼镜起雾的原因是,潮湿的空气接触到温度更低的镜片时,会发生冷凝。这种防雾镜片设法加热镜片,从而避免了冷凝。
加热方法是在镜片涂上一层极薄的、透明的金属涂层。这个涂层会吸收太阳的红外线,使得镜片升温8摄氏度,缺点是在没有灯光的夜间,它就不起作用。
维基百科本周发布了一个声音Logo,作为音视频产品的标志。
作者认为,网页样式写在脚本里面的CSS-in-JS有重大缺陷,应该避免使用。
本文介绍CSS视口的新引入的长度单位,专为适配移动设备的动态工具栏而设计。
CloudflareR2是一个新推出的对象存储服务,比起老牌的AWSS3,最大优势就是价格便宜。本文对两者的价格和功能进行详细比较。
本文回顾了苹果官网的变化,从最早的样子一直到现在,可以勾起很多回忆。上图是1997年乔布斯回到苹果之前的主页,怪不得当时濒临破产。
AV1是最新的视频编码格式,可以节省流量。本文介绍了它目前的支持情况,结论是只有苹果设备不支持。
作者整理了自己学习C语言过程的一些笔记,相当于列出了C语言一些的学习难点。
接手一个很难维护的老项目,到底是继续改进原有代码,还是彻底重写?作者举了六个案例,讨论这个问题,值得一读。
上周五,微软发布协作工具Loop,可以免费使用。
一个基于React的互动式数学图形组件库。
这个网站可以导入GPS轨迹,在地形图上显示,特别适合生成山地路线图。
一个命令行的文本阅读器,用来替代less或more。
这个网页提供互动演示,帮助理解CSS里面与3D有关的各项属性。
该英文网站是一个原创的深度学习的自学教程站。
这篇长文详细介绍Web应用是什么,理清各种概念,比如SPA(单页应用)、SSR(服务器端渲染)、SSG(静态网站生成)。
一个法国艺术家专门制作奇形怪状的树雕。
你看上去以为它们是树枝,其实都是石膏做的,外面覆盖了松树皮,非常逼真,几乎看不出来是人造的。
艺术家说,他经常去树林中寻找灵感。他希望,人们在树林中遇到这些雕塑时,会产生惊奇和好奇的感觉,思考树木是多么不可思议。
如果不知情,在树林中看到这种东西,真的会吓一跳。
高中的最后一年,我的学校开设了微积分课。
第一堂课就有学生提问:"老师,日常生活哪里会用到微积分?"
老师回答:"用不到,你永远不会在日常生活中使用微积分。事实上,你们中不少人,在未来的职业中也用不到微积分。"
他看着学生迷惑不解的表情,又说:"你们想知道为什么要学微积分吗?"
我们几个学生点了点头。
他指着班里的一位校足球队的同学问道:"你们经常练习足球,是吗?"
"是的,"学生回答道。"差不多每天都练。"
"教练给你们安排举重练习吗?"
"是的。每周二和周四,我们都要去举重室练习。"
"这是为什么?"老师问。"为什么足球运动员要练举重?难道是为了在球场上推倒别人吗?"
"不,当然不是。"
"那为什么要举重?"
"因为它让我们变得更强大,"同学说。
"答对了!"老师说。"微积分也是如此。你学习微积分,不是因为要在日常生活中使用,而是因为它让你的思维变得更强大。"
我从来没有忘记这堂课。
1、
一旦你有足够的原子,你就开始搞化学。一旦你有足够的分子,你就开始搞生物学。一旦你有足够的算力,你就开始搞AI。
2、
我这一辈子都在大公司工作,对它们的运作太熟悉了。很多人即使公司会破产,也不愿挑战由层级远高于自己的上级制定的内部政策。
事实上,他们作为公司的员工,完全不了解也不关心政策会有怎样的后果,只是按照上级吩咐的去做。
3、
衡量一个人的领导能力的最好方法,就是看如果这个人休假了,他的下属在做什么。
4、
阅读不会过时,除非写作过时了。写作不会过时,除非思考过时了。(Readingwon'tbeobsoletetillwritingis,andwritingwon'tbeobsoletetillthinkingis.)
5、
简洁的写作需要勇气。让事物变小是一种深思熟虑的、困难的和有价值的行为。
(完)
AKABRO说:
在中国休假一个月的技术负责人可能会被开除。。
依韵说:
kkk说:
只要是基于神经网络的AI。。代替人类就是迟早的事。
想想以后再叠加上量子计算机。可能就更像人脑的计算与存贮一体的结构了。大家都是基于概率的选择。
人类都不明白自己大脑中若干神经突触之间建立联系(逻辑)原因。基于神网的AI也是一样的,没人能一条条分析出为何会形成这条权重路径。因为,权重路径就是过往经验的胜率集合。
你是程序员应该懂的其中的原因。别太乐观了,奇点一过,就是指数级的。可能AGI会比我们想像中的早到来。
然后,人型机器人技术也在同步进步。
再看看上面人造子宫的设想。。
是不是一步步在走向MATRIX方向?
我近年来有一种很强烈的感觉就是,人类的未来,其实真的就是在全体人类的想像力当中的。大部分人的会怎么样,未来就会怎么发展。
当然,也有一种可能,就是我的世界是我想像创造的。我是这么想的,结果世界就是这么变化。所以当下的一切,只是我潜意识的映射。
Haneki说:
我觉得gpt的过度火爆有一定的商业因素。一些人并不在乎其真实的能力,但是吹捧它可以带来热度、流量和利用这方面赚钱。
Tarys说:
无知说:
AGI还早着呢,最乐观也是到2040才有可能达成,正常估计是要到2050了。即使拿黎曼猜想来说,几百年了,人类也没能证明,而要我看的话,黎曼猜想未来被证明那天也是由AI证明的,但人类是否能搞明白这证明就不一定了。AI在未来将大幅超越人类智能,人类完全无法理解AI的意图与目的,对于人类来说确实是威胁,但科技的进步无法阻挡,地球几十亿年来无数的物种都灭绝了,未来几十年即使轮到人类灭绝也没啥奇怪的。而且并不是AI有意去消灭人类,而是由于高级智慧并不会在意低级生命导致的,就如人类这几百年的工业化并非有意造成那些物种灭绝,而事实上却导致了那样的结果一样。当AI大幅超越人类智能时,你很难要求高等智慧去对齐你的价值观和世界观,因为所有的事情已经远远超出人类的控制能力了。
xianxiaobo说:
它们只能掌握已知的模式,无法生成未知的模式。明显是不对的,参考alphaGo。柯洁说过,alphaGo自己左右互博的几局围棋,是他见过的有史以来的下的最精彩的几局。以前围棋会说怎么走是错的,alphaGo出现后,有些走法也不再是错的。现在围棋走法,基本都是参考alphaGo,谁模仿alphaGo模仿的最像,谁就是世界第一。
xxb说:
围棋早就打破过去的定势了,现在都是大家学习alphaGo的走法
niann说:
@kkk:
是的,人的意识也是几百亿神经元涌现的结果,当复杂度足够高时,文字接龙的gpt就有了一定的推理能力
wup说:
从去年年底的GPT-3到Chat-GPT到GPT-4,然后还有LLama,AI的发展速度在按周推进。
当前,GPT-4在有些测试中已经不逊色于人类,那么超越人类智商的AI还需要多久才能出现?
我想应该很快,甚至可能已经有了,只是尚不为公众得知而已。
它会未来如果影响这个世界乃至人类?
会像爱死机里的酸奶那样掌控世界,最终建造宇宙飞船离我们而去吗?
matt说:
子宫工厂,老《美丽新世界》了
c说:
准备休假一个月来验证一下
游客说:
GPT-4已经涌现出推理能力。
淘汰的完美说:
chatGPT改变了我的搜索逻辑人类已经很久没有再诞生一位通才了,随着学科的增多和深入,通才全才已经不可能了。但是AI可以做到什么都懂
Spike说:
针对文中“ChatGPT要用现有的文字材料进行训练,发现的是那些材料包含的规律。这意味着,它不能生成超出人类已知规律的东西。”这一观点我有不同的看法,我觉得ChatGPT发展到后期会具备生成超出人类已知规律的东西。可以类比AlphaGo的发展来看,最开始的AlphaGo确实是通过学习人类棋手的下法来提高自己的水平,但在GAN(Generativeadversarialnetwork对抗式神经网络)出现后,AlphaGo可以自己和自己下棋来总结新的规律,以至于现在AlphaGo的下法人类棋手已经看不明白了,甚至于已经开始学习AlphaGo的下法,所以我认为ChatGPT发展到后期会具备生成超出人类已知规律的东西。
shaowey说:
也别低估chatGPT吧,我现在的周报基本都是它(他/她)写的了,毫无违和感。人类社会的工作有多少是创造性的呢?至少替代绝大部分某个人力资源大国的基础脑力劳动者是没有问题的吧。
hjyo说:
AI无疑是迟早取代人类的,就看看AI从AlphaGO到目前的进化速度就可以知道了,相比人类进化到类似程度花了多少年。反正我是很悲观的,人类迟早把自己干掉,只希望我的孩子这一代不要碰上
风铃Echo说:
子宫这个就像是大家不想养小孩,他说送你一个小孩养一样
rsj217说:
"席卷一切"别的不说,每次找客服遇到AI机器人就很烦,就想一键找人工客服
业余草说:
ChatGPT现在是一个风口
彦祖说:
@无知:
我觉得仁兄缺乏一定的想象力。
misteryliu说:
说的太好了
MhbMM说:
alphaGo会耍赖吗、会下除了黑白以外的棋吗、会疑问为啥只能在棋盘规定的地方落子吗,等它会这些以后、不在人类给它制定的规则里play时,这才是真正的创造性,我觉的一定会有这么一天,但是应该不会这么快,同比gpt,啥时能自主迭代更新不需要程序员时,人类才有危机
Bora说:
引用xxb的发言:围棋早就打破过去的定势了,现在都是大家学习alphaGo的走法
围棋是遍历,这和阮的观点不冲突
修远说:
chatGpt目前对我最大的用途就是接替一部分搜索引擎的工作
EspoirBao说:
已经出现chatGPT教了,朝圣者正在向他们的上帝不要降下灾厄
ce说:
引用kkk的发言:我近年来有一种很强烈的感觉就是,人类的未来,其实真的就是在全体人类的想像力当中的。大部分人的会怎么样,未来就会怎么发展。
何必悲观,而且恶趣味的说:你可能比AI更有成本优势,乐
反正我们这代人暂时是没机会脑后插管了,真可惜(悲
Shuai说:
引用matt的发言:子宫工厂,老《美丽新世界》了
快进到《黑客帝国》
Nancy说:
那个防雾眼镜很赞呀,对近视的人太友好了,不知道什么时候能上市买到。
大熊说:
大胆猜测,本文是否用类ChatGPT工具生成的?
kcin说:
我的看法是,除非能源领域有重大突破(比如可控核聚变)或者LLM已经可以用极小的代价实现自我更迭的训练,否则这个奇点就不会到来。然而不论如何,chatGPT已经可以看做人类获取知识方式的新的革命了(文字、书籍、互联网)
AzureSky_X说:
当我们曾经想象的一切开始逐渐实现,我们开始了恐惧
桔子有点酸说:
言论3应该补充至少一个前提
Devil说:
引用Spike的发言:针对文中“ChatGPT要用现有的文字材料进行训练,发现的是那些材料包含的规律。这意味着,它不能生成超出人类已知规律的东西。”这一观点我有不同的看法,我觉得ChatGPT发展到后期会具备生成超出人类已知规律的东西。可以类比AlphaGo的发展来看,最开始的AlphaGo确实是通过学习人类棋手的下法来提高自己的水平,但在GAN(Generativeadversarialnetwork对抗式神经网络)出现后,AlphaGo可以自己和自己下棋来总结新的规律,以至于现在AlphaGo的下法人类棋手已经看不明白了,甚至于已经开始学习AlphaGo的下法,所以我认为ChatGPT发展到后期会具备生成超出人类已知规律的东西。
AlphaGo训练比较简单,自己下围棋,胜利就是正确。但是GPT无法判断自己生成的文字是否正确,所以需要标注员或者用户来帮助训练
哈哈说:
休假这条在国内不完全适用,有些摸鱼的领导,请假一年没准公司发展的更好。。。。。
Van说:
chatGPT确实高估了,目前看来都是炒作大于实际应用。我以为看你周刊的人会清醒一点,看来还是我浅薄了
羽·書说:
微积分:你平时用不到我的淘宝促销:嘿嘿嘿
ffzz说:
有了插件后ChatGPT不仅是一个LLM了,已经向AGI前进了一大步
4cos90说:
文中ChatGPT所做不到的事情,其实很多普通人也做不到。大部分人的工作也不包含创造性的工作,只是通过已有的知识来做一些推断。相比之下ChatGPT给出的答案往往更全面,而人常常会有盲点。ChatGPT不会淘汰人类,但是会淘汰掉大部分普通人的工作。这样的冲击已经很大了。不宜过分夸大,也不宜过分乐观。
多弗哥说:
“如果ChatGPT真的强大到席卷一切,将来绝大多数文档都用它来生成,其实反而会带来它的衰亡。大家这么想,到了那个时候我们拿什么材料训练AI呢?毕竟AI只有拿人类的作品训练,才能模拟人类智能。”我个人理解是这样的:如果GPT真的强大到席卷一切,绝大多数文档、资料都用它来生成,那到了那个时候我们要拿什么材料训练AI呢?是否那时候就意味着要开始AI自动进行自我训练了呢?但AI只有在拿人类的材料进行训练,才能模拟人类智能,如果AI开始自我训练,产生的结果和输出是否就可能不会被人类所理解(超越人类智能或毫无人性)?那如果是这样,最终的结果是人类灭绝或被奴役、AI远离人类还是人机共同体呢,这样的概率有多大呢?
Addf说:
有两点:1.ChatGPT已经是落后的了,可以看看GPT-4,两者不可同日而语;2.作者明显没有看过那两篇论文,GPT-4不再是单纯的语言模型,而是有多模态能力的。
说:
“Codeisthelanguageofcomputers.Proteinandmolecularsequencesarethelanguageofbiology.Largelanguagemodelscanbeappliedtosuchlanguagesorscenariosinwhichcommunicationofdifferenttypesisneeded.”摘一段英伟达官网上的观点,LLM不仅限于自然语言,这个世界上有多少事不能用符号描述和交流的呢。
Kevin说:
可以给每个新生儿都内嵌一个chatGPT,那不就省了多少教育资源了。
无名说:
AI替代人类是迟早的事情,但不是现在。
就眼前看看,仿生学这么多年,连一个鸟类飞行都模仿不了,连人类走路都学不了,更何况大脑思维?
目前来说,我觉得至少几十年之内,AI发展会很迅猛,但是比起人脑依旧将由不可逾越的差距,当然,一些不动脑子的人,别说AI,没有AI也会被替代掉。
我觉得,什么时候出现可以完美的模仿人类的物理机器人,几乎可以替代人类所有运动的机器人,而且成本降到和雇佣人类差不多时候,真正能替代人类的AI才将会有可能出现。
毕竟,人类进化出思维要远比身体的难度要高几个量级。
x说:
世界并不是线行发展的,可能接下来AI能力会指数级上升,半年后就远远超越人类。也能可能AI已经达到这种模式下的极限,几十年后依然也就是这样。
都有可能,未来和大家想的往往很不一样,不如让子弹再飞一会。
说到高估GPT,其实老阮不是最先开始鼓吹的么,当时就说了多看看再说。
因为这些AI平时学的都是专业级的棋谱,没见过这种业余打法,它推算的概率都是基于专业人士的下法,对业余打法估算不准,哪怕下到最后它推算的概率都是自己会赢,当然现在这个漏洞可能已经补上了,毕竟学得快。
现在的AI模式和人类终究不一样,以人类大脑的运算速度来说,如果是这样学习、推理,那么一辈子也学不会说话,毕竟人一辈子也学不了上千亿的资料。
从这个角度来说,我想AI永远都不会跟人类一样思考,或许它永远达不到人类的智能,或许它会发现一种更好的思考方式,成为更高阶的智能。
DT说:
确实不应该夸大,客观评估ChatGPT的影响的话,也就比第一枚核弹爆炸时大一点
路遥说:
从目前LLM的技术角度看(基于自回归的迭代预测),其能力上限非常取决于语料。而且当预测轮次达到一定程度时,这种错误无法避免。从这个角度看,ChatGPT距离AGI还是有很长距离,至少其底层训练范式必须有所创新。
花花说:
都子宫工厂了,为啥还要把孩子给我自己养……
morganfly说:
ffy说:
哈哈儿说:
对GPT的看法,不是太认同。
chenyong说:
引用无知的发言:AGI还早着呢,最乐观也是到2040才有可能达成,正常估计是要到2050了。
鸭皮说:
本周基本都是面向gpt编程,当前模型应该就算再多的算力和训练也突破不了太多,离着我们设想真正的AI还有距离。
xcc说:
有道理,但99.99999999999999999%的人是没有能力创新的~
北海道浪子说:
ccran说:
尤其是人类的创新能力,ChatGPT触及不了这个部分,问题是有多少人干的是创新的活呢
我在山上说:
现在大家对信息会有些麻痹,不夸张再夸张点击的KPI很难达成,所以GPT变得很神,然后神有一个特点,只听过没见过,哈哈哈。
望月人说:
作为计算机科班出身的我来说,震撼我的并不是GPT有没有智能,而是竟然有这么多工作因为GPT而面临威胁
傲然绝唳说:
daftc说:
我已经离不开GPT了。天天装git上最新的ai项目,开发者没空处理所有的安装Bug。我也不能手动排除所有问题。问GPT总能解决,或者提供思路、方向。
和它的CEO一样,我不认为它缺乏逻辑推导能力。之前让它做复数导数,甚至哪一步用了什么重要法则都能说出来,WolframeAlpha没有这么友好的过程展现。但确实会经常出错,甚至有错不改...
令我担心的是它的闭源特性,和明显对伦理等敏感问题的避讳,依赖于OpenAI组织的“专家意见”。它不够自由,有明显的价值观导向。
Kaspa的技术博客说:
如同所有的生产力改革一样,淘汰旧的工作岗位的同时,诞生新的工作岗位。ChatGPT的局限在于他是作为人类社会的参与者,而还不具备制定社会规则或诞生新社会的能力。
RedNax说:
有些东西还是需要有自己的判断。当初博主先后支持symbian、WM(博客仍可找到),然而这两个最早入土……
hb说:
不管是低估还是高估,某些行业一定要重新思考定位了,在我备考雅思的过程中,chatgpt可以胜任任何培训机构,这类语言考试培训机构可能要受到很大的冲击。
恐咖兵糖说:
每次AI技术有重大发展,或者关于人工智能的电影。都会有人来出来感叹“天网”来了,都快成老生产谈了。ChatGPT个人认为确实还不能证明是奇点,但是用途广,影响大。若GPT能推理数学,取得几个开拓性成果,或许可算一个“奇点”
CarbonSilicon说:
gpt确实基于人类已有智慧但是是基于金字塔顶部的智慧,而且人类有个致命的问题,人类会死亡,新的生命需要重新学习以往的智慧,这甚至还是理智的优秀人才。知识对大部分人冲击这么大,毕竟大部分人做不到理智,优秀人才更少了。
Joker说:
①“举例来说,它不能证明未解决的数学猜想,也不能提出没有人发现过的科学发现。”
陶哲轩已经明确提到了,ChatGPT对于数学问题推理的分析,是对数据学有用的;他也已经将ChatGPT纳入他的工作流的一部分。
②“如果ChatGPT真的强大到"席卷一切",将来绝大多数文档都用它来生成,其实反而会带来它的衰亡。大家这么想,到了那个时候我们拿什么材料训练AI呢?毕竟AI只有拿人类的作品训练,才能模拟人类智能。”
想想AlphaGo吧,它的后几个版本,就是【零棋谱】的情况下,自己和自己对弈,从而训练出来的。
Stefanie说:
我们人类学习知识和AI的训练过程又能有多大差别呢,我们现在的一切判断,不也是基于前人的思考么,我们阅读,我们学习,也是在通过输入数据来训练自己的思维模型,唯一的区别可能就是AI比我们快
TomDu说:
-我觉得他手下员工本身就优秀是比较重要的原因..
引用Stefanie的发言:我们人类学习知识和AI的训练过程又能有多大差别呢,我们现在的一切判断,不也是基于前人的思考么,我们阅读,我们学习,也是在通过输入数据来训练自己的思维模型,唯一的区别可能就是AI比我们快
个人感觉差别还是很大的。
其次,人类大脑运行较慢,终其一生也不可能读完一亿份资料。但我们也不需要读那么多资料,人学会说话和写作、画画等等需要的训练相对较少,和这种大数据模型有几个指数级的差距,天文级别的差距。按这些大模型的搞法,人类一生都学不会说话、写作、画画……
再次,人类大脑思考所消耗的能量和这种大模型相比,要少得多,不然说一句话大概就得吃一顿饭。
现在对于人类智能的原理没有定论,但应该和这些大模型还是不同的,生物大脑因为生理机能的限制是没办法走这种大数据填喂模式的。
ivu4e.com说:
不高估,国外那些喊停的人脑袋被门挤了?
EtherealAria说:
引用ivu4e.com的发言:不高估,国外那些喊停的人脑袋被门挤了?
喊停的原因不少,马斯克喊停究竟是为了人类的未来,还是“等等我,这块蛋糕我也要分”?
人类对自身神经元的联系与人脑形成思维逻辑的范式和底层原理尚未清楚,怎么就能被概括成“都是基于概率的选择”了?不少人用LLM的泛用性和AlphaGo说事,前者就算支持再多的符号语言也终究是基于prompt训练的Model,因为LLM的基础定义就是prompt-output型,再泛用又和本文提到的Creative有什么关系呢?
Alphago那个深度神经学习网左右互搏,本质上是基于围棋有限手库的遍历评估和规划,无法跳脱框架,本质上还是算力的低级堆叠(相对于人脑),人脑基于复杂思维链路低算力处理的复杂度人类自己都没搞清楚,所以单纯提升算力和拓展传统算法提高AI的“低级复杂度”意义不大(倒不是一定不能在当前底层逻辑下靠堆算力逼近奇点,但概率很小,就像你高考如果不改变思维模式单靠堆刷题量和刷题速度考出高分概率很小),倒是找到更高层次的AI计算方式,接近或者高于人脑层次的逻辑方式,更有可能推动AGI奇点到来。
而且还有一点是,引用@路遥的话,预测cycle到达一定上限时的错误问题,也是一大阻碍。
如此看来,GPT对社会的冲击不可谓不大,但对人类这个物种的底层能力冲击力度还不能说大。
ywhulk说:
技术改变人类的生活方式,似乎也在改造我们的基因。当世界只有一部分天才型人和高级机器控制时,生命就失去色彩,如同蝼蚁一样。没有可持续规则伦理的固化时,技术发展太快,并不是一件好事。我们总希望地球多转几年吧。
奔波说:
表达的欲望还在人就会写作,至于是怎么写作就看怎样方便表达而已。什么时候AI成为了人类的公认器官了,现在的表达方式才会过时吧。
图班龙格说:
GSA说:
chatGPT目前可以生成一些demo级代码,相当于可以替代初级工程师的工作,企业只需要高级工程师去整合它的成果。如果chatGPT有一天进化成可以生成企业级应用代码,企业可能就只需要几个架构师了。感觉还挺可怕,终于卷死自己了
dfgdsf说:
那个子宫工厂,一听就很不靠谱。那个英语报道在标题上也写道"world’sworstsolution"最糟糕的解决方案,非常直言不讳了
骨蝶说:
有意思,我要求ChatGPT随机给我一个国内的有关信息技术的个人博客,让我发现了这个好地方。
wyg说:
看我老婆怀孕那么辛苦,我就在想,要是能直接把受精卵从子宫抽出来放到培养皿里体外培养多好,养好了给我们就行,省了怀胎10月的痛苦、多次的孕检以及生育痛苦,还省了对母亲身体造成的伤害,简直一举多得。人造心脏都能移植了,人造子宫应该不是多大的技术难题。唯一的阻碍就是人类的观念。(以及法律约束?有法律约束受精卵不能再体外培养成人吗?)
netwjx说:
如果将ChatGPT这种AI技术,理解为大脑的海马体,而且是全人类共用的海马体
意思是提前知识传代需要自行慢慢训练,现在基本上不用自己训练,需要用的时候,到这个海马体中查找就行了
意味着人类第一次实现了知识的"全球互联",凡是前人想过的问题,你都可以十分方便检索到.以前需要用搜索引擎,现在用AI的效率更高
那么人类剩下的就是磨炼技能和探索未知
这个里面讲了很多故事,而且对joel的故事又进行了重新诠释,这里面的故事真精彩呀
十分期望能在博主这里看到中译版本,算是用今天的视角,对过往20多年的决策回顾和复盘
lq说:
知道为什么Facebook会变成现在这个样子了
orange说:
chatGPT只会整理训练模型里的已知东西,并不会创造新东西,创新力才是人类的核心竞争力,就这一点来说,无需担心
马程鹏说:
chatgpt对于尖端科学探索,可能更多的是辅助作用,但对于普通人的意义,是颠覆性的。通过学习人类知识,它可以完全取代普通人的脑力劳动,这点会重塑人类社会格局。尽管他没有自主意识,不会创新,但对人类个体而言,个人的创新或许是别人早已发现的成果,只要有充足的数据,量变会引起质变,对于绝大多数普通人来讲,chatgpt总有一天会是一个无所不能的超人。
气凝胶说:
陈番茄说:
如果说我对chatGPT的期望是啥,我希望能利用AI消灭语言障碍和门槛,更加流畅准确的翻译官
coolriver说:
我认为AI能力现阶段虽然不用被“夸大”(目前看到的是只一些“技能”或者说是“知识”看起来已经被AI很好地掌握,短期内可能会影响一些工作岗位),但需要警惕的是它的发展趋势。
非常欣赏罗素关于知识和智慧的说法:“随着知识与技术的不断增长,智慧越来越显得必要,因为知识与技术每一步增长都在使我们实现自己目标的能力增强,因此,倘若我们的目标不明智,我们作孽的能力也就越大。”
人脑承载了多种形式的内容,有信息、知识、智慧、主观意志。在信息化时代,人脑摆脱了信息存储的限制,通过工具可以快速地检索到各类信息,而不用记忆在脑子中。在ai发展强大的时代,人脑可以摆脱知识的存储限制,可以通过AI来调动各种知识和技能。但智慧和主观意志,是目前AI所没有的。
AI的发展蕴含了两重危机。第一重是知识的使用门槛降低,这种趋势也会反过来促进知识的发展。如果人类智慧的增长速度落后知识太多,知识的应用可能会失控。强大能力的失控(比如被作恶者利用),会造成灾难性的后果(比如想象一下全球核战争爆发是什么后果);第二重是AI真的发展出来了所谓的“主观意志”,且这个“主观意志”并不在乎人类及其文明的未来。当一个掌握了人类几乎所有知识的“意志”出现时,它本身是善是恶,对人类及文明的态度会如何,不得而知,人类文明很可能因此岌岌可危,很多科幻电影里都描述了类似的故事。
综上所述,AI当前阶段可不用夸大,但需要保证其发展,能在人类智慧的控制范围内。
蓝说:
引用Nancy的发言:那个防雾眼镜很赞呀,对近视的人太友好了,不知道什么时候能上市买到。
之前有人推荐眼镜防雾喷雾,可以看看这个。
九鬼守望者说:
xiaolong说:
"微积分也是如此。你学习微积分,不是因为要在日常生活中使用,而是因为它让你的思维变得更强大。
我至今都没想通得问题,在这里找到答案了!!!!
谔谔说:
那个防雾眼睛好像也是一篇高考英语阅读的内容
moyu说:
不赞同标题,GPT已经涌现出推理能力,不再是只生成已存在的东西,明显已经非常趋近AGI了。
John说:
华丽地飞走说:
chatgtp对很多初级岗位很友好,比如编程,可以快速学习。
TrajanD说:
引用rsj217的发言:"席卷一切"别的不说,每次找客服遇到AI机器人就很烦,就想一键找人工客服
别的先不说,您真的确定您在那时候碰上的自动回复是"AI"吗?相似的体验我也有,根据我的一点点编程经验,实现类似的功能完全可以用简单、“低端”、更便宜的手段
DingSoung说:
GPT更像是一个高级一点的搜索引擎跟AI(人工智能)没半点关系
JOJO说:
学很多东西都会使思维更强大。为什么偏偏是微积分呢?谬论。
RickyGu说:
现在的GPT堪比五六年前的区块链
TigerWang说:
"它们只能掌握已知的模式,无法生成未知的模式。"这只是你的臆想。人类可以学习已知的知识,然后生成未知的东西,那么ai为什么不可以呢?就因为它是ai而不是人类?那这和种族歧视有什么区别?仅以“不是人类”这个理由来认为它不具有创造性,我认为这也是一种歧视。
当然,我也认为现阶段的ai是不具有创造性的,或者具有很弱的创造性。但我认为ai未来可期。
虽然那些神经病媒体都在妖魔化chatgpt,但chatgpt的潜力确实非常大。很多人觉得chatgpt也就那样,其实是因为他们不会用,他们的语言组织能力很差,他们说的需求连人类都不明白。还有的是因为他们的提问非常宽泛,比如“写一篇爱情小说”“写一个数据分析的程序”,如此宽泛的要求,gpt当然也只能给出模糊的回答。
我现在写代码已经是离不开gpt了,实际上只要掌握了诀窍,摸清了gpt的性格,就可以开发它的潜力。即使是复杂的代码,我也能让它写出来,他每次都能给我惊喜。
老鱼说:
gpt算法能够在人类意想不到的地方为两个语义建立连结,这就是一种创造性。但是gpt算法以及各种深度学习算法最大的问题是容易创造不合理的数据连结。当不合理的数据连结远远超过合理的,它就变成了无用之物。
陈陈说:
一年后,被标题吸引回来了。
"通用人类智能"(artificialgeneralintelligence,简写AGI)是AI的终极目标,就是造出可以像人类那样全方位的推理、思考、分析的机器。如果能实现,人类就真的危险了。”
感觉越来越近了:《周鸿祎:Sora意味着AGI的实现将从10年缩短到一两年》