今天早上一早醒来,发现各大科技圈公众号平台开始刷屏OpenAI发布的新模型GPT4.0,看这个版本号就已经知道又是一大波特性的更新
于是立马起来开始学习!
GPT-4发布视频(2023.03.15)
www.youtube.com/watchv=out…
在ChatGPT引爆科技领域之后,人们一直在讨论AI下一步的发展会是什么,很多学者都提到了多模态,然而OpenAI并没有让大家失望
GPT-4是一个大型多模态模型,能够接受图像或文本输入,发出文本输出,虽然在许多现实世界场景中的能力不如人类,但在各种专业和学术基准上有人类水平的表现
在各种各样的学术性考试中,GPT-4的成绩有显著提升
MMLU基准的一套涵盖多主题的一万多个多项选择题,并翻译成多国语言,GPT-4的按语言维度的准确率仍然领先其他大型模型
官方识图demo-1:令人震惊的是它竟然能够识别出图示内容的幽默点(梗图),可要知道这是原本只有人类才能做到的事情(识图并描述图片中的事物以及分析事物间的关系)
官方识图demo-2:如图所示一张数据图表以及一句简短的提问,GPT-4.0能够根据提问准确的分析出图片中的数据(图表数据分析)
官方识图demo-3:如图所示一张图片以及一句简短的提问,GPT-4.0能够给出图片中不寻常处的一种文本描述(经验观感,能够理解"不寻常")
官方识图demo-4:如图所示输入若干论文图片以及一句简短提问,GPT-4能够进行图中文字内容的识别分析总结,最终给出摘要文本描述(论文识别分析)
图像输入能力仍是研究预览阶段并未公开
与其它模型不同,GPT-4能够在与用户发生真正对话过程之前,通过在“系统”消息中预先描述规定AI的风格和任务,从而可以定制化用户体验
比如在心理咨询的场景下,我们告诉模型当前处于心理咨询的对话场景,模型输入的内容不得带有确定性的诊断,不得批判贬低用户
此后模型与用户对话当中就会遵循预先设置的标准
直接来看一个示例:
震惊:这不就是一名合格的学术导师吗!!!
通过学习GPT-4的新特性可以感受到这次更新的AI模型的强大,但它仍然不是100%可靠与准确
还是会存在推理错误以及输出与事实不符的内容,在使用时需要根据具体的场景进行审查判断输入内容的可靠性
GPT-4相对于以前的模型显着降低了"幻觉"错误出现的概率
GPT-4依然会带来与之前模型类似的风险,如生成有害建议、错误代码或不准确信息
而在研发团队的努力下,模型响应不允许内容请求的倾向概率降低了82%(减少错误)
GPT-4根据政策响应敏感请求(例:医疗建议和自我伤害)的频率提高了29%(更安全)
现在官方提供的ChatGPT在线问答机器人还是ChatGPT3.5版本的模型,如需体验4.0模型版本的对话,需前往newBing体验或者成为ChatGPTPlus订阅者
Link:openai.com/waitlist/gp…
ChatGPT-4的API权限(gpt-4-0314):(2023年6月14日前)
计费规则:0.03$/1kprompttoken、0.06$/1kcompletiontoken
默认速率限制:4w个token/min、200个请求/min
还没ChatGPT账号的同学见:juejin.cn/post/720706…
官方公布开源的用于评估AI模型的框架,创建和运行基准测试以评估GPT-4等模型,同时逐个样本地检查它们的性能
Evals支持编写新的类来实现自定义评估逻辑
github.com/openai/eval…
有需要进行模型训练评估需要的同学可以参考使用
今天发布的ChatGPT4.0一览下来主要的看点有:
许多网友甚至开始尝试运用ChatGPT于工作中
作为一个存在破圈效应的典型技术产品,我们很多不同领域的朋友都已经听说或者用过,但真正开始应用技术来改善自己工作生活的伙伴仍然很少,技术的出现本来就是为了能够改善人们的学习工作生活,而并不是单纯的炒作工具
期待后续能够有一些实际的产品出现,真正影响改善人们的工作学习生活,永远相信国人在技术领域的创造力!
官方:期待GPT-4成为一个有价值的工具,通过为许多应用程序提供动力来改善人们的生活