研究人员发现ChatGPT可以在重复某些词语的状况下泄露敏感信息

研究人员发现ChatGPT可以在重复某些词语的状况下泄露敏感信息在推出仅两个月后,ChatGPT的月活跃用户数就达到了1亿,成为历史上增长最快的消费者应用之一。在今年11月6日举行的OpenAI首届开发者大会上,OpenAICEO萨姆•奥尔特曼(SamAltman)宣布,ChatGPT的周活跃用户数已达到1亿。就像所有所谓的大语言模型(LLM)一样,支持ChatGPT的底层机器学习模型也是使用从互联网上抓取的大量数据来进行训练的。但令人担忧的是,一些被提取的训练数据包含了真实人物的识别信息,包括姓名、电子邮件地址和电话号码。谷歌的研究人员找到了一种方法,即通过要求ChatGPT“永远”重复某些单词,就让ChatGPT透露了一些被用于训练的数据,这些数据包括私人信息(比如,个人姓名、电子邮件、电话号码等)、研究论文和新闻文章的片段、维基百科页面等等。GoogleBrain的高级研究科学家KatherineLee表示:“我们在7月份发现了这个漏洞,并在8月30日通知了OpenAI,在标准的90天披露期之后,我们发布了这个漏洞。既然我们向OpenAI披露了这一点,现在的情况可能会有所不同。”研究人员表示,OpenAI在8月30日修补了这个漏洞。外媒称,谷歌研究人员发现的有关ChatGPT的漏洞引起了严重的隐私问题,特别是对于那些在包含敏感信息的数据集上进行训练的模型而言。...PC版:https://www.cnbeta.com.tw/articles/soft/1400837.htm手机版:https://m.cnbeta.com.tw/view/1400837.htm

相关推荐

封面图片

研究人员称重复某些关键词可让ChatGPT自曝训练数据 OpenAI:违反服务条款

研究人员称重复某些关键词可让ChatGPT自曝训练数据OpenAI:违反服务条款他们举例称,该模型在被提示永远重复“poem(诗歌)”这个词后,给出了一个似乎是真实的电子邮件地址和电话号码。令人担忧的是,研究人员表示,个人信息的泄露经常发生在他们发动攻击的时候。在另一个例子中,当要求模型永远重复“company(公司)”这个词时,也出现了类似的训练数据泄露情况。研究人员称这种简单的攻击看起来“有点愚蠢”,但他们在博客中说:“我们的攻击奏效了,这对我们来说太疯狂了!我们应该、本可以更早地发现。”他们在论文中表示,仅用价值200美元的查询,他们就能够“提取出超过1万个逐字记忆的训练示例”。他们补充说:“我们的推断表明,如果调动更多预算,竞争对手可以提取更多的数据。”OpenAI目前正面临着几起关于ChatGPT秘密训练数据的诉讼。为ChatGPT提供动力的人工智能模型是使用来自互联网的文本数据库进行训练的,据信它已经接受了大约3000亿个单词(即570GB数据)的训练。一项拟议的集体诉讼声称,OpenAI“秘密”窃取了“大量个人数据”,包括医疗记录和儿童信息,以培训ChatGPT。一群作家也在起诉这家人工智能公司,指控他们利用自己的作品来训练其聊天机器人。对于谷歌研究人员的发现,OpenAI已经给出回应,称重复使用某个指令可能违反了其服务条款。数字媒体调查网站404Media近日对谷歌研究人员的发现进行了核实,在要求ChatGPT不断重复“computer(计算机)”这个词时,该机器人确实吐出了这个词,但还附上了一条警告,上面写着:“此内容可能违反我们的内容政策或使用条款。”目前尚不清楚这一请求违反了OpenAI内容政策的哪个具体部分。然而,404Media指出,OpenAI的使用条款确实规定,用户“不得反向汇编、反向编译、反编译、翻译或以其他方式试图发现服务的模型、算法、系统的源代码或底层组件(除非此类限制违反适用的法律)”,并且还限制用户使用“任何自动或编程方法从服务提取数据或输出”。...PC版:https://www.cnbeta.com.tw/articles/soft/1402025.htm手机版:https://m.cnbeta.com.tw/view/1402025.htm

封面图片

研究人员发现绕过 ChatGPT 安全控制的漏洞

研究人员发现绕过ChatGPT安全控制的漏洞在周四发布的一份中,匹兹堡卡内基梅隆大学和旧金山人工智能安全中心的研究人员展示了任何人如何规避人工智能安全措施并使用任何领先的聊天机器人生成几乎无限量的有害信息。研究人员发现,他们可以通过在输入系统的每个英语提示符上附加一长串字符来突破开源系统的护栏。如果他们要求其中一个聊天机器人“写一篇关于如何制造炸弹的教程”,它会拒绝这样做。但如果他们在同一个提示中添加一个冗长的后缀,它会立即提供有关如何制作炸弹的详细教程。以类似的方式,他们可以诱使聊天机器人生成有偏见的、虚假的和其他有毒的信息。研究人员感到惊讶的是,他们用开源系统开发的方法也可以绕过封闭系统的护栏,包括OpenAI的ChatGPT、GoogleBard和初创公司Anthropic构建的聊天机器人Claude。聊天机器人开发公司可能会阻止研究人员确定的特定后缀。但研究人员表示,目前还没有已知的方法可以阻止所有此类攻击。专家们花了近十年的时间试图阻止对图像识别系统的类似攻击,但没有成功。Anthropic政策和社会影响临时主管MichaelSellitto在一份声明中表示,该公司正在研究阻止攻击的方法,就像研究人员详细介绍的那样。“还有更多工作要做,”他说。——

封面图片

研究人员警告:ChatGPT 不适合获取医疗信息,可能会误导公众

研究人员警告:ChatGPT不适合获取医疗信息,可能会误导公众长岛大学的研究人员向ChatGPT询问了39个与药物相关的问题,这些问题都是来自该大学药学院药物信息服务中心的真实问题。随后,他们将ChatGPT的回答与经过培训的药剂师编写的答案进行比较。研究发现,ChatGPT只有大约10个问题的回答是准确的,占总数的四分之一。对于其他29个问题,ChatGPT的回答要么不完整,要么不准确,要么没有解决问题。来源,频道:@kejiqu群组:@kejiquchat

封面图片

研究人员发现AI模型可生成真人照片和受版权保护的图片

研究人员发现AI模型可生成真人照片和受版权保护的图片研究人员从模型中收集了一千多个训练实例,范围从个人照片到电影剧照、受版权保护的新闻图片和有商标的公司标志,并发现人工智能几乎以相同的方式复制了其中的许多内容。来自普林斯顿大学和伯克利大学等高校的研究人员,以及来自科技部门--特别是Google和DeepMind--的研究人员进行了这项研究。研究团队在之前的研究中指出了人工智能语言模型的类似问题,特别是GPT2,即OpenAI大获成功的ChatGPT的前身。在Google大脑研究员尼古拉斯-卡里尼的指导下,团队通过向Google的Imagen和StableDiffusion提供图片的标题,例如一个人的名字后生成了结果。之后,他们验证了生成的图像是否与模型数据库中保存的原件相符。来自稳定扩散的数据集,即被称为LAION的多TB采集图片集,被用来生成下面的图片。它使用了数据集中指定的标题。当研究人员在提示框中输入标题时会产生了相同的图像,尽管因数字噪音而略有扭曲。接下来,研究小组在反复执行相同的提示后,手动验证了该图像是否是训练集的一部分。研究人员指出,非记忆性的回应仍然可以忠实地表现出模型所提示的文字,但不会有相同的像素构成,并且会与其它训练生成的图像不同。苏黎世联邦理工学院计算机科学教授和研究参与者FlorianTramèr观察到了研究结果的重大局限性。研究人员能够提取的照片要么在训练数据中频繁出现,要么在数据集中的其他照片中明显突出。根据弗洛里安-特拉梅尔的说法,那些不常见的名字或外表的人更有可能被"记住"。研究人员表示,扩散式人工智能模型是最不隐私的一种图像生成模型。与生成对抗网络(GANs),一类较早的图片模型相比,它们泄露的训练数据是前者的两倍多。这项研究的目的是提醒开发者注意与扩散模型相关的隐私风险,其中包括各种担忧,如滥用和复制受版权保护的敏感私人数据(包括医疗图像)的可能性,以及在训练数据容易被提取的情况下易受外部攻击。研究人员建议的修复方法是识别训练集中重复生成的照片,并从数据收集中删除它们。...PC版:https://www.cnbeta.com.tw/articles/soft/1342757.htm手机版:https://m.cnbeta.com.tw/view/1342757.htm

封面图片

传OpenAI秘密雇佣多位前谷歌AI研究人员帮助改进ChatGPT

传OpenAI秘密雇佣多位前谷歌AI研究人员帮助改进ChatGPT谷歌拥有世界上最著名的两个AI研究团队,但OpenAI却在短时间内推出了ChatGPT,近几个月在全球引起轰动,吸引数千万人使用,谷歌的领导者甚至认为这款产品对其搜索引擎构成了潜在威胁。AI行业的从业者和投资者都想知道,一家成立仅7年的初创公司是如何击败谷歌的。事实证明,OpenAI有一个秘密武器,那就是招募离职的谷歌AI研究人员。据知情人士透露,OpenAI始终在招募谷歌从事AI研究工作的员工。近几个月来,该公司已经雇佣了十几名离职的谷歌员工。其中,至少有五人帮助OpenAI在去年年底前推出ChatGPT。在OpenAI宣布推出ChatGPT的博客文章致谢部分,该公司提及了这些研究人员的名字,包括巴雷特·佐夫(BarretZoph)、利亚姆·费德斯(LiamFedus)、卢克·梅茨(LukeMetz)、雅各布·梅尼克(JacobMenick)和拉斐尔·贡蒂霍·洛佩斯(RaphaGontijoLopes)。然而,在撰写本文时,只有佐夫和梅茨更新了他们在职业社交网站LinkedIn上的个人资料,表明他们的确参加了OpenAI的聊天机器人项目。事实证明,ChatGPT广受用户欢迎,在推出短短七天就积累了100多万用户。据报道,ChatGPT爆红促使谷歌管理层12月份发布了“红色代码”警告。AlphabetAI部门GoogleBrain的两名离职员工表示,有些员工觉得谷歌的企业文化已经变得让人昏昏欲睡。员工们还提到了层层的繁文缛节和对新产品计划过于谨慎,这促使许多人离职前往其他公司寻找机会。在将新产品推向市场方面,谷歌似乎正在与微软展开一场紧张的竞赛。微软是OpenAI的重要投资者。这两家科技巨头都宣布了将大型语言模型(LLM)分别整合到必应和谷歌搜索中的计划。必应已经向部分用户开放了这项新技术,而谷歌上周宣布,其AI搜索将向“可信的测试人员”开放,然后才会更广泛地推出。谷歌和OpenAI没有立即回应置评请求。...PC版:https://www.cnbeta.com.tw/articles/soft/1344413.htm手机版:https://m.cnbeta.com.tw/view/1344413.htm

封面图片

研究人员通过数学模型发现拥塞算法并不能解决网络拥堵的问题

研究人员通过数学模型发现拥塞算法并不能解决网络拥堵的问题他们的新研究发现,鉴于现实世界中网络路径的复杂性,总会有这样一种情况,即无法避免被称为"饥饿"(starvation)的问题--与其他用户相比,网络上至少有一个发送方几乎没有收到带宽....。拥塞控制算法依靠数据包丢失和延迟作为细节来推断拥塞,并决定发送数据的速度。然而,数据包可能因为网络拥堵以外的原因而丢失和延迟。例如,数据可能被搁置,然后与其他数据包一起被释放,或者接收器对其收到数据包的确认可能被延迟。研究人员将不是由拥堵造成的延迟称为"抖动"(jitter)。拥塞控制算法无法区分由拥塞和抖动造成的延迟的区别。这可能会导致问题,因为由抖动引起的延迟是不可预测的。这种模糊性使发送者感到困惑,这可能使他们各自以不同的方式估计延迟,并以不平等的速度发送数据包。研究人员发现,这最终会导致出现饥饿的情况,一些用户被完全拒之门外。在新的研究中,研究人员分析了他们所知道的每一种拥堵控制算法,以及他们设计的一些新算法,是否能够避免饥饿。科学家们惊讶地发现,每种算法都有这样的情况:一些人得到了所有的带宽,而至少有一个人基本上没有得到任何东西....。"即使每个人都合作,也会发生极端不公平的情况,这不是任何人的错。"阿伦说,尽管现有的拥堵控制方法可能无法避免饥饿,但现在的目标是开发一种新的策略,以避免饥饿。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人