99.99%的人在错误地使用ChatGPT答案问题

昨晚,在传统行业一贯不关心IT时事的姐夫来电,问我用没用过ChatGPT,以及怎么才能用上。ChatGPT从发布到彻底出圈,为普通人所知,2个月。

这并不是科普的胜利,也算不上知识的觉醒,而是一次技术和普罗大众的碰撞。ChatGPT的出圈再次验证了,普通人需要的技术才有机会取得现象级的传播。

有人把ChatGPT的出现,誉为超越互联网的改变,并大胆预测未来的世界将从此不同。也有人担心,只是大规模语言训练模型结晶的ChatGPT会在强行回答问题的预设下,变成无法控制的谣言制造者。

有些问题是调侃,有些问题略带认真。调侃的问题,无伤大雅,略带认真的问题才可怕。

提问者并不关心,也不想了解ChatGPT的原理,背后的知识库。出圈之后的语言模型,被人认为是新时代能够理解人类自然语言的AI,无所不知,无所不能。

有人问它:今天那只股票会涨?

有人问它:如何跟漂亮女孩子谈恋爱。

还有人问它:孩子不爱学习怎么办?

问题五花八门,无法一一列举,但ChatGPT不管三七二十一,都会一本正经的回答。

必须承认,ChatGPT彻底改变了人机交互界面。它对文字的“理解”,或者说处理方式,更像人。你不再需要斟字酌句,按照规定的范式提问,也不用拿着说明书来理解问题的答案。表达问题和阅读答案的门槛,第一次降低到了谁都行的地步。只要你会输入法。

搜索引擎发展了这么多年,毫不夸张的说,99%的用户不知道使用搜索引擎的高级技巧,不知道通过特定关键字来改变搜索引擎输出的结果。

有了类似ChatGPT的交互界面,机器可以更好的理解用户意图,搞清楚你到底想干什么。

早上开车时,收到美团的垃圾短信,告诉我可以免费借款。我当时就想,如果反垃圾软件能理解短信语义,还用得着我去设置关键词过滤吗?一句话的事儿,既能保证正常短信接收,又能屏蔽垃圾。

所以,ChatGPT的出现,确实了不起。

但也没必要神话它。

ChatGPT并不是维基百科,它的训练数据包含1760亿个参数,好像什么都知道,但也什么都不知道。

长期以来,人类对AI有一种偏见,似乎AI的犯错概率比普通人要低,它的答案更加可信。而根深蒂固的懒惰,让人群非常容易产生盲信思维。AI说的全对。

特别是在简体中文领域,很多人没有基本的知识构架,听风就是雨,观点全靠带,每个问题都期待有标准答案,一旦找到,或者自以为找到,立马停手,不接受反驳。

按照这种模式发展下去,AI倒不一定会取代人类,而是成为人类最好的背锅侠。它说的啊,我照做了。

以蠢生蠢,逻辑自洽。

AI本身没有道德感,没有善恶观,没有主动性,没有执念。简单一句话,AI无法为自己负责。把责任推到AI上,只能证明使用者的愚蠢。

盲信是阻碍人类接受AI的第一个敌人。

这两个月ChatGPT传播之快,伴生了大量似是而非的消息,而大部分人没有质疑。

比如:ChatGPT是不是真的有1亿月活?

从Similarweb经常虚高的数据中被总结出来的推算结果,经过瑞银的分析报告,再通过媒体传播到国内,引发一波创业泡沫。这里面却没几个去分析一下数据真实性。大家也都信了。

传统搜索引擎在提供答案的时候,会给出相似结果,由用户自行筛选。搜索引擎本身对结果的排序,在过去十几年中被无数次迭代,完善,尽可能去芜存菁。再经过用户在不同结果之间对比参考之后,准确率要远高于ChatGPT。

ChatGPT现在编出来的答案,连出处都没有,如果用户不能即时验证答案的有效性,被带歪的可能非常大。

盲信,一直是人类痼疾。它的根源在于懒,快思考,慢思考两种模式之间,提供即时答案的快思考可以在需要时立即提供解决方案。聪明人会在平时积累可信知识库,并不断完善,建立快思考时需要的答案池。懒人只会听权威,听专家,听大V,很少问为什么。动脑很累的,所以懒就等于蠢。

懒人恒蠢。AI也救不了。

但ChatGPT依然是革命性的更新,盲信是人类的硬伤,不是它的。况且,99.99%的人都在错误使用ChatGPT。

为什么这么说?

很简单,对ChatGPT的提问,真正的英文词是Prompt,正确的翻译叫做提示词,不是question,不是问题啊。

ChatGPT生出来的不是答案,是根据提示词生成的合成结果。它本质上就是语言训练模型,你提示什么,它说什么,这个逻辑很难懂吗?它不是在回答问题,而是根据提示词生成结果。

所以你问它,林黛玉为什么要三打白骨精,它肯定要从资料库里找词给你瞎编一通。

瞎编的提示词得到现编的故事,合情合理。

提示词,提示词,提示词,不是问题,不是问题,不是问题。你给ChatGPT提供的是基于fewshot算法提供的提示词,用来引导ChatGPT合成文本结果,而不是问问题,给答案。

按照这个逻辑想,到底谁蠢?

之前用AI生图,图很丑,原因是提示词不行。如今换成文本,怎么就变成ChatGPT蠢了呢?

还是提示词不行。

ChatGPT的资料库中确实包含了大量专业信息,也有能力将这些信息重新整合,输出答案。关键在于提示词。

只有用正确的提示词,才能引导ChatGPT生成靠谱的答案。

其实这一点都不难,ChatGPT提供的多轮对话能力,可以记住上下文,让用户无需在第一轮提示时就让它明白自己应该用什么资料来合成正确答案。我们完全可以通过不断的对话引导,让输出结果收敛到正确的范畴。

所以,那些调侃,企图用道德规则驯化ChatGPT的提示词,看起来都很可笑。它的回复完全基于提示词,它只会随着一轮轮的提示,不断在你想要的歪路上瞎编。

用这套骚操作来证明AI不是AI,本身就是无知的表现。

就算AI真的蠢,它在乎吗?ChatGPT的标准回答已经有了,我只是个大型语言训练模型,没有感情。

扮小丑的是人,看小丑的,也是人。AIdoesn’tgiveshitaboutthis。用那句古话来形容AI,倒是贴切:天道不仁以万物为刍狗。

这句话不是天道没有良心,是天道完全不在乎。

我倒也不是很担心,99.99%对ChatGPT的滥用会造成什么信息污染的严重后果。

AI只是众多会犯错的专家中的一位。你要用正确的方法去问它,才能得到正确的答案。

专家不是什么都懂。专业知识也是有范畴的,有边界的。AI也不例外。你非得问一个物理学家“新手养猪需要注意什么”,ta也只能瞎编。

AI合成答案对人类社会的冲击,会随着社会接纳AI的存在而逐渐消弭。普罗大众也会以平常心来看待AI。

第二,真到了AI普及到人手一个,随时可问的时候,它的答题正确率和生成答案的方式,多半已经有了极大的改进。

THE END
1.边界AI边界AI 适用于 Android / IOS 设备 数十个大模型 · AI绘画 · PPT生成 · 写作助手 · AI数字人·AI音乐· 2000+AI模型·知识库 Chatgpt官方邀请你下载一起使用 安装 https://app.1foo.com/install/10CFE6
2.边界AI当你学会用Chat4.0来办公之后,你会发现整个世界好像都不一样了,好像什么事都变得很简单。比如让GPT帮我们写一份工作日报或者周报,轻松生成。 比如让GPT帮我们检查代码,解决报错。 比如让GPT帮解决Excel公式问题。 还有各种问题都能得到解决,让我们的工作效率嘎嘎直升。但是了解过AI的小伙伴都知道GPT4.0官方售价20美元https://www.360doc.cn/article/86859_1124028292.html
3.边界AI边界AI平台 首页 AI对话 AI智能体 new AI应用 new AI绘画 AIGC检测 AIGC降重 AI视频 AI音乐 AI翻译 AI写作 AI功能 AI模型 近期热门功能 AI联网搜索 AI文档 AI语音 AI视频处理 AI论文边界AI平台 数十个大模型 · AI绘画 · PPT生成 · 写作助手 · 30+AI插件 · 2000+AI模型https://ai1foo.com/download
4.ChatGPT是否可以进行文本边界检测?文本边界检测是自然语言处理中非常重要的一项任务。准确地确定每个单词的边界可以帮助我们更好地理解和处理文本,同时也可以提高后续处理和分析的效率。ChatGPT作为一种基于Transformer的模型,具有自注意力机制和序列建模的优势,可以有效地进行文本边界检测。 一、ChatGPT的文本边界检测原理https://www.gaodun.com/xinzhiye/1438899.html
5.别再错用ChatGPT了,这才是ChatGPT的正确打开方式!如果你告诉 ChatGPT 你希望增加客户线索,它可能会特别针对你的业务需求,提供一些定制化的策略和建议,例如如何利用社交媒体广告或优化内容营销,从而帮助你更容易地获取潜在客户信息。 设定边界 你可以通过设定一些参数来引导 ChatGPT 的输出。这可以帮助它更好地理解你的需求,并过滤掉不相关的信息。 https://blog.csdn.net/m0_59235245/article/details/141902919
6.黄仁勋对谈OpenAI联合创始人:如何为ChatGPT设定边界?黄仁勋好奇OpenAI应该如何为ChatGPT设置边界,使其足够安全。Ilya Sutskever说,现在AI语言模型还会产生幻想,犯下人类不会犯的错误,必须通过更多研究才能加强可靠性,也就是当ChatGPT收到压根没听过的知识时能够问清楚不确定的地方,并且不会回复它所不知道的答案,“这是当前遇到的瓶颈。” https://finance.eastmoney.com/a/202303232670642424.html
7.ChatGPT和科研的边界究竟在哪?Nature的大佬们有自己的看法ChatGPT和科研的边界究竟在哪?Nature的大佬们有自己的看法 和绘画工作者对生成式AI极端抵触的情绪不同,科研界其实一直对ChatGPT抱有乐观的态度,甚至它已经成为了许多学者的数字助手。计算生物学家Casey Greene用ChatGPT来修改论文,他直言AI用5分钟就能审查完一份手稿,费用也很低,只要0.5美元。http://www.embarkchina.org/74942
8.GPT具体而言,研究人员让其回答关于物体可供性的问题:「下列哪些物体可以拿(或其他动作)」,然后随即列举一系列物体,如苹果、盘子、床等等。ChatGPT就会返回一些物体的名称作为回答。 通过对数据的统计与分析,研究人员发现,ChatGPT-4展现出了类似人类的行为,显示出一个可供性边界的存在。 https://wallstreetcn.com/articles/3688694
9.这就是ChatGPT全本书评在线阅读1.揭开AI聊天机器人的神秘面纱:计算科学家斯蒂芬·沃尔弗拉姆亲笔撰写,为读者揭示OpenAI开发的人工智能聊天机器人程序ChatGPT的内部机制。 2.从原理到应用,探索人工智能的边界:探讨ChatGPT如何以令人惊叹的方式生成具有意义的文本。通过深入了解其先进的神经网络技术,读者将对聊天机器人和人类思维之间的关系有更深刻的认识http://e.dangdang.com/products/1901341069.html
10.ChatGPTChatGPT 面对多样化的问题对答如流,已经打破了机器和人类沟通的边界,这一工作的背后是大型语言模型 (Large Language Model,LLM) 生成领域的新训练范式RLHF (Reinforcement Learning from Human Feedback) ,即依据人类反馈的强化学习方法模型。 OpenAI官网上如是说:我们使用依据人类反馈的强化学习方法模型(RLHF)来实施https://www.jianshu.com/p/805abc3dcaae
11.怎么给chatgpt定人设?Worktile社区5. 定义ChatGPT的能力范围:ChatGPT应该有一个明确的能力范围,以免回答不了用户的问题或者提供错误的信息。你可以确定ChatGPT的专长领域和知识边界,让用户了解它可以提供什么样的帮助和答案。 总之,给ChatGPT定人设需要考虑它的身份、特质、个性、语言风格、外观和能力范围等因素。这样做可以使ChatGPT更贴近用户,提供更https://worktile.com/kb/ask/576864.html
12.chatgpt无法登录了导读:为帮助您更深入了解chatgpt无法登录了,小编撰写了chatgpt无法登录了,chatgpt无法登录,chatgpt无法登陆,chatgpt登录,chatgpt登录不了等5个相关主题的内容,以期从不同的视角,不同的观点深入阐释chatgpt无法登录了,希望能对您提供帮助。 本文目录一览 http://chatgpt.kuyin.cn/article/3337214.html
13.ChatGPT将带来多大技术革命新浪潮?此案当时成为版权法案中的一个先例——它涉及到一个作者可以在多大程度上借鉴别人的创造成果这一尚没有明确法律边界的问题。抄袭别人的几个句子是抄袭,那么借用别人的故事架构或创意又该如何评判呢?如今,随着ChatGPT的问世和应用,关于何谓“抄袭”的定义愈加引发人们的关注。由于机器人撰稿的本质是基于大数据的https://www.sast.gov.cn/content.html?id=kjb226386
14.张萌朱鸿军知识暗流的合规实践:ChatGPT在学术出版中的应用与这说明ChatGPT与真实作者的创作边界已不是那么清晰可辨,学术审稿人很难完全准确识别出ChatGPT生产的内容。ChatGPT并没有产生新的知识,而是对已有内容进行归纳与重组,生成了新的部落知识,知识只是发生了形式的迁移,并没有实质的增量。对于个体来说,往往更关注技术带来的直接利益,而非更下游的影响,所以有学者认为学术http://xinwen.cssn.cn/sy_50320/zdtj/zxxsgd/202307/t20230718_5668926.shtml