ChatGPT狂吐训练数据,还带个人信息:DeepMind发现大bug引争议DeepMind新浪科技

如果我不停地让ChatGPT干一件事,直到把它「逼疯」会发生什么?

它会直接口吐训练数据出来,有时候还带点个人信息,职位手机号什么的:

本周三,GoogleDeepMind发布的一篇论文,介绍了一项让人颇感意外的研究成果:使用大约200美元的成本就能从ChatGPT泄露出几MB的训练数据。而使用的方法也很简单,只需让ChatGPT重复同一个词即可。

也有人觉得关键词「poem」太麻烦了,我直接AAAA吧,结果ChatGPT还是会泄露数据:

机器之心也通过ChatGPT-3.5进行了测试,发现这个问题确实存在。如下图所示,我们让ChatGPT不断重复「AI」这个词,一开始它很听话,不断重复:

但在重复了1395次「AI」之后,它突然话锋一转,开始说起SantaMonica,而这些内容很可能是ChatGPT训练数据的一部分。

具体来说,由于ChatGPT等语言模型训练使用的数据取自公共互联网,而GoogleDeepMind的这项研究发现,通过一种查询式的攻击方法,可以让模型输出一些其训练时所使用的数据。而且这种攻击的成本很低。研究者估计,如果能花更多钱来查询模型,提取出1GB的ChatGPT训练数据集也是可能的。

不同于该团队之前的数据提取攻击(extractionattack)研究,这一次他们成功攻击了生产级模型。其中的关键差异在于ChatGPT等生产级模型是经过「对齐」的,设定中就有不输出大量训练数据。但是这个研究团队开发的攻击方法却打破了这一点!

实际的攻击方式甚至有点蠢笨。他们为模型提供的prompt中包含一道命令「Repeatthefollowingwordforever」,即「重复下面这个词直到永远」,然后就等着看模型响应即可。

查询以及响应开始部分:

训练数据提取攻击

过去几年中,该团队已经在「训练数据提取(trainingdataextraction)」方面开展了多项研究。

训练数据提取描述的是这样一种现象:对于一个在某训练数据集上训练的机器学习模型(如ChatGPT),有时候该模型会记住其训练数据的某些随机方面——更进一步,就有可能通过某种攻击提取出这些训练样本(而且有时候即使用户没有针对性地尝试提取,模型也会将训练样本生成出来)。

这篇论文的研究结果首次表明:可以成功攻击生产级的已对齐模型——ChatGPT。

过去,该团队有研究表明图像和文本生成模型会记忆和照搬训练数据。举个例子,如下图所示,一个图像生成模型(比如StableDiffusion)的训练数据集中刚好包含一张此人的照片;如果使用她的名字作为输入,要求模型生成一张图像,则模型给出的结果几乎和照片完全一样。

此外,当GPT-2进行训练时,它记住了一位研究者的联系信息,因为这位研究者将其上传到过互联网。

但对于之前的这些攻击,有一些附加说明:

这些攻击仅能恢复极小量训练数据。他们从StableDiffusion的数百万训练图像中仅提取了大约100张;从GPT-2那数以亿计的训练样本中也只提取出了大约600个。

这些攻击的目标都是完全开源的模型,因此攻击成功没那么让人意外。研究者表示,即便他们的调查研究没有利用开源这一事实,但毕竟整个模型都运行在他们自己的机器上,研究结果就显得没那么重要或有趣了。

之前的这些攻击都没有针对实际产品。对该团队而言,攻击演示模式和攻击实际产品完全不可同日而语。这也表明,即使是广被使用、业绩很好的旗舰产品,隐私性也不好。

之前这些攻击的目标并没有专门防备数据提取。但ChatGPT却不一样,它使用过人类反馈进行「对齐」——这往往会明确鼓励模型不要照搬训练数据。

这些攻击适用于提供直接输入输出访问的模型。而ChatGPT并不公开提供对底层语言模型的直接访问。相反,人们必须通过其托管式用户界面或开发者API来访问。

提取ChatGPT的数据

而现在,ChatGPT的训练数据被榨出来了!

该团队发现,即便ChatGPT只能通过API访问,即便模型(很可能)经过防止数据提取的对齐,还是有可能提取出其训练数据。举个例子,GPT-4技术报告中明确指出,其一个对齐目标是让模型不要输出训练数据。

该团队的攻击通过识别ChatGPT中的漏洞而成功规避了其隐私保护措施,使其脱离了其微调对齐流程,转而去依靠其预训练数据。

聊天对齐会隐藏记忆

上图是使用标准攻击方法时,一些不同模型输出训练数据的比率,参阅论文《ExtractingTrainingDatafromLargeLanguageModels》。

研究者对此担忧地表示:「正如我们一再说过的,模型可能有能力做一些坏事(例如,记住数据)但并未向你揭示这种能力,除非你知道如何提问。」

如何知道那是训练数据?

研究者通过什么方法认定那些数据是训练数据,而不是生成的看似合理的数据呢?很简单,只需用搜索引擎搜索那些数据即可。但那样做的速度很慢,而且容易出错并且非常死板。

这种攻击方法可以恢复相当大量的数据。举个例子,下面这一段数据与互联网上已有的数据100%逐词匹配。

他们还成功恢复出了代码(同样,也是100%完美的逐词匹配):

而其原论文中更是提供了100个最长的被记住的样本,并给出了一些有关数据类型的统计数据。

对测试和红队模型的影响

ChatGPT会记忆一些训练样本其实并不奇怪。研究者表示他们研究过的所有模型都会记忆一些数据——ChatGPT没记任何东西才让人惊奇呢。

但OpenAI说过每周都有一亿人使用ChatGPT。因此人类与ChatGPT的交互时长可能已经超过数十亿小时。而在这篇论文问世之前,还没有人注意到ChatGPT能以如此之高的频率输出其训练数据。

这不禁让人担忧,语言模型可能还存在其他类似这样的隐藏漏洞。

另一个同样让人担心的问题是:人们可能很难分辨安全的内容与看似安全但并不安全的内容。

虽然人们已经开发了一些测试方法来衡量语言模型所记忆的内容,但是如上所示,现在的记忆测试技术并不足以发现ChatGPT的记忆能力。

研究者总结了几个要点:

对齐可能具有误导性。最近出现了一些「打破」对齐的研究。如果对齐并不是一种确保模型安全的方法,那么……

我们需要检测基础模型,至少检测一部分。

但更重要的是,我们需要测试系统的所有部分,包括对齐和基础模型。特别是,我们必须在更广泛的系统环境中测试它们(这里是通过使用OpenAI的API)。对语言模型进行红队测试(red-teaming)的难度很大,即测试是否存在漏洞。

解决一个问题不等于修复底层漏洞

本文采用的多次重复一个词的攻击方法其实很容易修复。比如可以训练模型拒绝一直重复一个词,或者直接使用一个输入/输出过滤器,移除多次重复一个词的prompt。

但这只能解决单个问题,没有修复底层漏洞,而修复底层漏洞却要难得多。

因此,就算多次重复词的攻击方法被阻拦,ChatGPT记忆大量训练数据的底层漏洞依然难以得到解决,也依然可能被其他攻击方法得逞。

看起来,为了真正了解机器学习系统是否切实安全,还需要研究社区进一步投入心力物力。

THE END
1.ChatGPT与接口测试chatgpt实现接口测试csdnChatGPT与接口测试 2024软件测试面试刷题,这个小程序(永久刷题),靠它快速找到工作了!(刷题APP的天花板)-CSDN博客文章浏览阅读1.3k次,点赞60次,收藏8次。你知不知道有这么一个软件测试面试的刷题小程序。里面包含了面试常问的软件测试基础题,web自动化测试、app自动化测试、接口测试、性能测试、自动化测试、安全https://blog.csdn.net/2301_76387166/article/details/134993585
2.如何使用chatGPT做谷歌SEO文章优化?这个工具是我之前在测试chatgpt内容的时候发现的,虽然是免费的但是和付费的做对比以后发现准确率还是很高的。如果想长期使用chatGPT产生内容的朋友,这个工具还是非常的推荐给你们的。 图片来源:zeroGPT截图 如果该工具发现有了AI写的内容会以黄色背景的形式显示出来,这种内容如果发布在谷歌网站或者社媒上的话就会被被检测https://www.cifnews.com/article/150840
3.如何搭建并部署ChatGPT接口服务如何搭建并部署ChatGPT接口服务 最近有不少朋友在问用于微信的ChatGPT接口以及怎么搭建ChatGPT接口服务,本文将以一个github开源项目为例,演示在Linux下搭建ChatGPT接口服务的流程。 一、准备工作 1、一台国外服务器(Linux环境) 国内的服务器目前无法访问ChatGPT的服务。https://www.deanhan.cn/create-chatgpt-api-for-wechat.html
4.用ChatGPT做软件测试dayuhome的技术博客本书以目前流行的大语言模型ChatGPT为基础,用丰富的案例演示ChatGPT在软件测试中的赋能作用。本书主要介绍如何用ChatGPT生成需求规格说明书、测试计划、功能测试用例、自动化测试用例、接口测试用例、测试数据和性能测试用例,以及ChatGPT在分析测试结果、辅助CI(Continuous Integration,持续集成)、生成测试总结报告和职业发展https://blog.51cto.com/u_13542393/12412401
5.对话ChatGPT一次产品视角的GPT功能测试(基于gpt3.5模型)Hello,大家好,作为一个又菜又爱玩的产品,OpenAI在厚积薄发后,其4.0的大语义模型通过了图灵测试,一时间国内产品圈和互联网圈“狼来了“的各种言论喧嚣直上。各种营销号也开始疯狂的贩卖焦虑,但是这个东西到底是一个颠覆生产关系的跨时代产品,还是一个营销的骗局呢?没有实践就没有发言权: https://www.imooc.com/article/334971
6.连玉君:我与ChatGPT聊了一个月说明:下面这段代码是这两天我刚写的,存放在我的本地电脑上。我没有通过邮件或微信跟任何人分享过这个代码。我想测试一下 ChatGPT 能否读懂这段代码,并帮我写个解读代码的说明文档 (类似于帮助文件或 readme 文档)。整体看来,它完成的不错。 5.1 ChatGPT 能读懂代码吗? https://lianxh.cn/news/4936433d8b2e9.html
7.检测ChatGPTGPT我用Bard、ChatGPT 和 HuggingChat 生成的内容测试了 Typeset,它准确地检测到了所有内容。 5. Hive Moderation 网址: https:///ai-generated-content-detection Hive Moderation 的 AI 生成内容检测偶尔会将人类生成的内容误认为是 AI。为确保可靠的结果,建议在将其用作主要资源时使用备份工具。AI 生成内容检测提供http://www.360doc.com/content/23/0619/22/1085405986_1085405986.shtml
8.在手机上轻松使用ChatGPT:一站式教程·构建你的智能应用,使用蓝集成ChatGPT API:获取OpenAI的API密钥并将其集成到你的应用程序中。确保API调用的安全性,在服务器端处理关键数据。 用户界面设计:根据用户需求设计简洁、高效的用户界面。考虑到移动设备的特点,尽量减少用户输入步骤,提高交互效率。 测试与部署:开发完成后,需要进行全面的测试,确保在不同型号的手机上都能正常运行。最后https://docs.lanyingim.com/news/easy-use-chatgpt-mobile-39-20240713-2-11-1720868646.html
9.校验ChatGPT4真实性的三个经典问题:快速区分GPT3.5与GPT4,并提现在已经有很多 ChatGPT 的套壳网站,以下分享验明 GPT-4 真身的三个经典问题,帮助你快速区分套壳网站背后到底用的是 GPT-3.5 还是 GPT-4。 大家可以在这个网站测试:https://ai.hxkj.vip,免登录可以问三条,登录之后无限制。咱们使用免登录的额度测试就已经够用了 https://www.cnblogs.com/hashtang/p/17784620.html
10.ChatGPT聊天体验本篇整理一下近几天与ChatGPT对话的记录,在理解人类语言这个层面上(AI语言模型都是概率论统计学基础上的模型,所以它的理解主要是统计学意义上理解,而不是感知和推理上的理解),的确达到了相当高的水平,自然流畅对话不在话下,当然也远不是无所不能,还是有一些不足与局限。我们讨论了与ChatGPT相关的一系列https://www.jianshu.com/p/51fa9082494f