None
ChatGPT新增隐私功能:可让用户选择聊天纪录是否被用于训练当地时间周二,OpenAI为旗下ChatGPT推出了一项新的隐私功能,该功能允许用户关闭他们的聊天记录,从而让对话更加私密。在聊天记录被禁用的情况下,用户的数据不会被用来训练和改进OpenAI的人工智能(AI)模型。OpenAI声称,当聊天记录被禁用时,它仍然会保存用户的聊天记录30天,但它只会在需要时审查这些聊天记录,以检查滥用行为。30天后,未保存的聊天记录将被永久删除。除了新增隐私功能外,OpenAI还在数据控制部分增加了一个导出选项。禁用聊天记录和导出数据是免费用户和订阅者都可以使用的功能。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot
【ChatGPT新增隐私选项】OpenAI周二开始推出新的控件,允许ChatGPT用户关闭他们的聊天记录。该公司在一篇博客文章中写道,在聊天记录被禁用的情况下发生的任何对话都不会用于训练OpenAI的模型,也不会出现在“历史”边栏中。上个月,ChatGPT的一个漏洞让用户可以短暂地访问其他人的谈话记录,这导致外界对该聊天机器人是否能够保护用户隐私的疑虑上升。OpenAI在帖子中写道:“我们希望这能提供一种比我们现有的选择退出流程更简单的方式来管理你的数据。”该公司补充说,用户可以随时更改他们的聊天记录设置。
研究人员称重复某些关键词可让ChatGPT自曝训练数据OpenAI:违反服务条款他们举例称,该模型在被提示永远重复“poem(诗歌)”这个词后,给出了一个似乎是真实的电子邮件地址和电话号码。令人担忧的是,研究人员表示,个人信息的泄露经常发生在他们发动攻击的时候。在另一个例子中,当要求模型永远重复“company(公司)”这个词时,也出现了类似的训练数据泄露情况。研究人员称这种简单的攻击看起来“有点愚蠢”,但他们在博客中说:“我们的攻击奏效了,这对我们来说太疯狂了!我们应该、本可以更早地发现。”他们在论文中表示,仅用价值200美元的查询,他们就能够“提取出超过1万个逐字记忆的训练示例”。他们补充说:“我们的推断表明,如果调动更多预算,竞争对手可以提取更多的数据。”OpenAI目前正面临着几起关于ChatGPT秘密训练数据的诉讼。为ChatGPT提供动力的人工智能模型是使用来自互联网的文本数据库进行训练的,据信它已经接受了大约3000亿个单词(即570GB数据)的训练。一项拟议的集体诉讼声称,OpenAI“秘密”窃取了“大量个人数据”,包括医疗记录和儿童信息,以培训ChatGPT。一群作家也在起诉这家人工智能公司,指控他们利用自己的作品来训练其聊天机器人。对于谷歌研究人员的发现,OpenAI已经给出回应,称重复使用某个指令可能违反了其服务条款。数字媒体调查网站404Media近日对谷歌研究人员的发现进行了核实,在要求ChatGPT不断重复“computer(计算机)”这个词时,该机器人确实吐出了这个词,但还附上了一条警告,上面写着:“此内容可能违反我们的内容政策或使用条款。”目前尚不清楚这一请求违反了OpenAI内容政策的哪个具体部分。然而,404Media指出,OpenAI的使用条款确实规定,用户“不得反向汇编、反向编译、反编译、翻译或以其他方式试图发现服务的模型、算法、系统的源代码或底层组件(除非此类限制违反适用的法律)”,并且还限制用户使用“任何自动或编程方法从服务提取数据或输出”。...PC版:https://www.cnbeta.com.tw/articles/soft/1402025.htm手机版:https://m.cnbeta.com.tw/view/1402025.htm
🔍 发送关键词来寻找群组、频道或视频。