研究人员发现ChatGPT可以在重复某些词语的状况下泄露敏感信息
研究人员发现ChatGPT可以在重复某些词语的状况下泄露敏感信息在推出仅两个月后,ChatGPT的月活跃用户数就达到了1亿,成为历史上增长最快的消费者应用之一。在今年11月6日举行的OpenAI首届开发者大会上,OpenAICEO萨姆•奥尔特曼(SamAltman)宣布,ChatGPT的周活跃用户数已达到1亿。就像所有所谓的大语言模型(LLM)一样,支持ChatGPT的底层机器学习模型也是使用从互联网上抓取的大量数据来进行训练的。但令人担忧的是,一些被提取的训练数据包含了真实人物的识别信息,包括姓名、电子邮件地址和电话号码。谷歌的研究人员找到了一种方法,即通过要求ChatGPT“永远”重复某些单词,就让ChatGPT透露了一些被用于训练的数据,这些数据包括私人信息(比如,个人姓名、电子邮件、电话号码等)、研究论文和新闻文章的片段、维基百科页面等等。GoogleBrain的高级研究科学家KatherineLee表示:“我们在7月份发现了这个漏洞,并在8月30日通知了OpenAI,在标准的90天披露期之后,我们发布了这个漏洞。既然我们向OpenAI披露了这一点,现在的情况可能会有所不同。”研究人员表示,OpenAI在8月30日修补了这个漏洞。外媒称,谷歌研究人员发现的有关ChatGPT的漏洞引起了严重的隐私问题,特别是对于那些在包含敏感信息的数据集上进行训练的模型而言。...PC版:https://www.cnbeta.com.tw/articles/soft/1400837.htm手机版:https://m.cnbeta.com.tw/view/1400837.htm
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人