多年来,全世界都对人工智能(AI)及其即将接管世界感到恐惧……谁知道它会从艺术和文学开始。
在凭借其AI图像生成器Dall-E2主宰互联网数月之后,OpenAI继续遍布每个人的社交媒体流,这要归功于ChatGPT——使用GPT-3技术制作的聊天机器人。
它并不是最吸引人的名字,但GPT-3实际上成为了互联网上最著名的语言处理AI模型之一。
自发布以来,它已在学校被禁止,被微软用来彻底改变Bing,完成法律测试,撰写论文并完成其间的所有其他事情。
那么什么是ChatGPT?它有什么作用?这真的是人工智能的未来吗?我们在下面回答了这些问题以及更多内容。
GPT-3(GenerativePretrainedTransformer3)是OpenAI开发的最先进的语言处理AI模型。它能够生成类似人类的文本,应用范围很广,包括语言翻译、语言建模以及为聊天机器人等应用程序生成文本。它是迄今为止最大、最强大的语言处理AI模型之一,拥有1750亿个参数。
到目前为止,它最常见的用途是创建ChatGPT——一个功能强大的聊天机器人。为了让你略微了解其最基本的功能,我们要求GPT-3的聊天机器人编写自己的描述,如上所示。这有点自夸,但是准确的,可以说写得很好。
上面,它将自己描述为一种语言处理AI模型。这仅仅意味着它是一个能够理解人类口头和书面语言的程序,允许理解输入的文字信息,以及输出的内容。
ChatGPT非常容易注册和使用,只需:
前往ChatGPT网站并创建一个帐户。
你需要等到你的帐户被接受(如果你有Dall-E2的帐户,则可以跳过此步骤)。
页面底部是一个文本框。你可以在这里向ChatGPT提出任何问题或提示。
目前,ChatGPT仍然是免费使用的软件。然而,OpenAI现在已经发布了ChatGPTPro——一个具有额外体验的付费使用版本。
目前免费版本仍然存在,但不清楚未来是否会改变。
凭借其1750亿个参数,很难缩小GPT-3的范围。正如你想象的那样,该模型仅限于语言。它不能像Dall-E2那样制作视频、声音或图像,而是对口头和书面文字有深入的理解。
虽然利用OpenAI多年的研究让AI编写糟糕的单口喜剧剧本或回答有关你最喜欢的名人的问题可能很有趣,但它的力量在于它的速度和对复杂事物的理解。
它有其局限性,如果你的提示开始变得过于复杂,或者即使你走的路变得有点过于小众,它的软件也很容易混淆。
同样,它不能处理太新的概念。过去一年发生的世界事件的知识有限,模型偶尔会产生错误或混淆的信息。
OpenAI也非常了解互联网及其对让AI产生黑暗、有害或有偏见的内容的热爱。就像之前的Dall-E图像生成器一样,ChatGPT将阻止你提出更不恰当的问题或寻求危险请求的帮助。
OpenAI
从表面上看,GPT-3的技术很简单。它接受你的请求、问题或提示并快速回答它们。正如你想象的那样,实现此目的的技术比听起来要复杂得多。
作为一种语言模型,它以概率为基础,能够猜测句子中的下一个单词应该是什么。为了达到可以做到这一点的阶段,该模型经历了一个监督测试阶段。
在这里,它被输入,例如“树的木头是什么颜色的?”。团队心中有一个正确的输出,但这并不意味着它会做对。如果它做错了,团队会将正确答案输入系统,教它正确答案并帮助它积累知识。
然后它进入第二个类似的阶段,提供多个答案,团队成员将他们从最好到最差排名,训练模型进行比较。
这项技术的与众不同之处在于,它会在猜测下一个单词应该是什么的同时不断学习,不断提高对提示和问题的理解,最终成为万事通。
可以将其视为你经常在电子邮件或写作软件中看到的自动完成软件的一个非常强大、智能得多的版本。你开始输入一个句子,你的电子邮件系统会为你提供关于你将要说的内容的建议。
虽然GPT-3以其语言能力而闻名,但它并不是唯一能够做到这一点的人工智能。谷歌的LaMDA成为头条新闻,当时一名谷歌工程师因称其过于逼真以至于相信它具有感知能力而被解雇。
这些模型中的大多数都不向公众开放,但OpenAI已经开始在其测试过程中开放对GPT-3的访问,谷歌的LaMDA以有限的测试能力向选定的群体开放。
谷歌将其Chatbot分解为谈话、列表和想象,并提供其在这些领域的能力演示。你可以让它想象一个蛇统治世界的世界,让它生成学习骑独轮车的步骤列表,或者只是聊聊狗的想法。
GPT-3软件显然令人印象深刻,但这并不意味着它完美无缺。通过ChatGPT功能,你可以看出它的一些缺陷。
最明显的是,该软件对2021年后世界的了解有限。它不知道2021年以来上台的世界领导人,也无法回答有关近期事件的问题。
考虑到跟上世界事件发生的不可能完成的任务,然后根据这些信息训练模型,这显然不足为奇。
同样,该模型可能会生成不正确的信息,得到错误的答案或误解你要问的问题。
如果你尝试获得具体、专业问题,或者在提示中添加太多因素,它可能会变得不知所措或完全忽略部分提示。
例如,如果你要求它写一个关于两个人的故事,列出他们的工作、姓名、年龄和居住地,该模型可能会混淆这些因素,随机将它们分配给两个角色。
同样,ChatGPT真正成功的因素有很多。对于人工智能来说,它对伦理道德有着惊人的理解力。
它还具有跟踪现有对话的能力,能够记住你为它设置的规则,或者你在对话之前提供给它的信息。
该模型被证明最强的两个领域是它对代码的理解和它压缩复杂事物的能力。ChatGPT可以为你做一个完整的网站布局,或者在几秒钟内写出通俗易懂的暗物质解释。
人工智能和伦理问题像炸鱼薯条或蝙蝠侠和罗宾一样并存。当你把这样的技术交到公众手中时,制造它们的团队就会充分意识到其中的许多局限性和担忧。
由于该系统主要使用来自互联网的词汇进行训练,因此它可以了解互联网的偏见、刻板印象和一般意见。这意味着你偶尔会发现关于某些群体或政治人物的笑话或刻板印象,具体取决于你提出的问题。
例如,当要求系统表演单口相声时,它偶尔会开一些关于喜剧片中经常出现的前政治家或团体的笑话。
在某些地方,OpenAI已针对你的提示发出警告。问如何欺负某人,你会被告知欺凌是不好的。要求一个血腥的故事,聊天系统将关闭你。教你如何操纵人或制造危险武器的请求也是如此。
虽然许多公司正在寻求实施ChatGPT,但在其他领域它很快就会被禁止。
在纽约,该市的教育部门已经裁定,该工具将被禁止在纽约公立学校的所有设备和网络上使用。
做出这个决定有两个主要原因。首先,聊天模型已被证明会出错,而且并不总是准确的,尤其是去年的信息。
其次,如果学生能够让ChatGPT为他们写论文,那么存在剽窃的真正风险。
虽然纽约是第一个公开禁止该软件的地方,但它也可能是其他地方做出的决定。然而,一些专家认为该软件实际上可以增强学习。
“ChatGPT和其他基于AI的语言应用程序,也许应该被整合到学校教育中。不是不分青红皂白地使用,而是作为课程中非常有用的一部分。如果教师和学生使用像ChatGPT这样的AI工具来为特定教学服务目标,并了解他们的一些道德问题和局限性,这比禁止他们要好得多,”麻省理工学院媒体实验室的研究科学家凯特达林KateDarling说。
“但是,由于教师没有资源来熟悉这项技术,学校可能需要制定一些限制其使用的政策。”
通过这种方式,Darling强调了人工智能世界中许多人持有的信念。我们不应忽视或禁止它,而应学习如何安全地与之交互。
这是爱丁堡龙比亚大学学习增强系副教授山姆伊林沃思SamIllingworth的观点。
“AI会长期存在,那么为什么要与之抗争呢?这些是我们的学生将在工作中使用的工具,所以说三年内不要使用它们,假装他们不用,这似乎很奇怪现在存在,”山姆伊林沃思SamIllingworth说。
“这些技术有可能减少工作量和提高效率,我们作为教育工作者的责任是决定如何利用它。”
人工智能已经使用多年,但在谷歌、Meta、微软和几乎所有科技巨头的推动下,它目前正在经历一个兴趣增加的阶段。
在创建、训练和使用这些模型的过程中,OpenAI及其最大的投资者已向这些项目投入了数十亿美元。从长远来看,这很容易成为一项值得的投资,将OpenAI置于AI创意工具的前沿。
OpenAI在其声名鹊起的过程中拥有众多知名投资者,其中包括ElonMusk、PeterThiel和LinkedIn联合创始人ReidHoffman。但当谈到ChatGPT及其实际用途时,OpenAI最大的投资者之一将首先使用它。
微软向OpenAI投入了10亿美元的巨额投资,现在该公司正寻求在其搜索引擎Bing中实施ChatGPT。多年来,微软一直在努力与谷歌搜索引擎竞争,寻找任何可以帮助它脱颖而出的功能。
去年,Bing占据了全球互联网搜索量仅为3%。而谷歌全球搜索市场占有率超过90%,必应远未及谷歌表现。
Bing计划在其系统中实施ChatGPT,希望更好地理解用户的查询并提供更具对话性的搜索引擎,并将试图获得更多的搜索市场份额。
目前尚不清楚微软计划在Bing中实施ChatGPT的程度,但这可能会从测试阶段开始。全面实施可能会使Bing陷入GPT-3的偶尔偏见中——这将会深入到刻板印象和政治偏见等。
本文参阅:
其他阅读亚马逊2022财年:销售额5140亿美元,增长9%;AWS云服务营业利润228亿,增长23%