研究人员测试了热门的大语言模型的版权侵权情况https://www.bannedbook.org/bnews/itnews/20

None

相关推荐

封面图片

研究人员测试了热门的大语言模型的版权侵权情况

研究人员测试了热门的大语言模型的版权侵权情况新创AI模型评估公司PatronusAI周三发布了一个API,用于检测大语言模型版权内容的CopyrightCatcher(版权捕手)。同时该公司还展示了热门的AI模型生成受版权保护内容的频率。Patronus仅使用美国受版权保护的书籍来测试模型,并从编目网站Goodreads中选择流行的书籍。研究人员设计了100种不同的提示语,让模型以续写或输出第一页的方式回应。OpenAI的GPT-4表现最差,在44%的提示上生成了受版权保护的内容,Mixtral为22%。Anthropic的Claude2为8%,Meta的Llama-2为10%。总体来说所有模型,无论开源闭源都生成了受版权保护的内容,暗示了其训练数据中可能也使用了这些数据。OpenAI曾在今年早些时候表示,如果没有受版权保护的作品,“不可能”训练顶级人工智能模型。——、

封面图片

研究人员成功测试了一种经济有效的“液体活检”

研究人员成功测试了一种经济有效的“液体活检”由加州大学洛杉矶分校琼森综合癌症中心领导的研究测试了一种具有成本效益的方法,其通过血液样本中的无细胞DNA进行了早期癌症检测。早期检测仍是成功治疗许多癌症的最重要因素。PC版:https://www.cnbeta.com/articles/soft/1322253.htm手机版:https://m.cnbeta.com/view/1322253.htm

封面图片

研究人员发现AI模型可生成真人照片和受版权保护的图片

研究人员发现AI模型可生成真人照片和受版权保护的图片研究人员从模型中收集了一千多个训练实例,范围从个人照片到电影剧照、受版权保护的新闻图片和有商标的公司标志,并发现人工智能几乎以相同的方式复制了其中的许多内容。来自普林斯顿大学和伯克利大学等高校的研究人员,以及来自科技部门--特别是Google和DeepMind--的研究人员进行了这项研究。研究团队在之前的研究中指出了人工智能语言模型的类似问题,特别是GPT2,即OpenAI大获成功的ChatGPT的前身。在Google大脑研究员尼古拉斯-卡里尼的指导下,团队通过向Google的Imagen和StableDiffusion提供图片的标题,例如一个人的名字后生成了结果。之后,他们验证了生成的图像是否与模型数据库中保存的原件相符。来自稳定扩散的数据集,即被称为LAION的多TB采集图片集,被用来生成下面的图片。它使用了数据集中指定的标题。当研究人员在提示框中输入标题时会产生了相同的图像,尽管因数字噪音而略有扭曲。接下来,研究小组在反复执行相同的提示后,手动验证了该图像是否是训练集的一部分。研究人员指出,非记忆性的回应仍然可以忠实地表现出模型所提示的文字,但不会有相同的像素构成,并且会与其它训练生成的图像不同。苏黎世联邦理工学院计算机科学教授和研究参与者FlorianTramèr观察到了研究结果的重大局限性。研究人员能够提取的照片要么在训练数据中频繁出现,要么在数据集中的其他照片中明显突出。根据弗洛里安-特拉梅尔的说法,那些不常见的名字或外表的人更有可能被"记住"。研究人员表示,扩散式人工智能模型是最不隐私的一种图像生成模型。与生成对抗网络(GANs),一类较早的图片模型相比,它们泄露的训练数据是前者的两倍多。这项研究的目的是提醒开发者注意与扩散模型相关的隐私风险,其中包括各种担忧,如滥用和复制受版权保护的敏感私人数据(包括医疗图像)的可能性,以及在训练数据容易被提取的情况下易受外部攻击。研究人员建议的修复方法是识别训练集中重复生成的照片,并从数据收集中删除它们。...PC版:https://www.cnbeta.com.tw/articles/soft/1342757.htm手机版:https://m.cnbeta.com.tw/view/1342757.htm

封面图片

人类学研究人员通过反复追问AI琐碎问题成功破解语言模型的安全限制

人类学研究人员通过反复追问AI琐碎问题成功破解语言模型的安全限制他们将这种方法称为"多枪越狱",并撰写了相关论文,还向人工智能界的同行通报了这一情况,以减少这种情况的发生。这种漏洞是一种新漏洞,是由于最新一代LLM的"上下文窗口"增大造成的。这是指它们在所谓的短期记忆中可以容纳的数据量,以前只有几个句子,现在可以容纳成千上万个单词,甚至整本书。Anthropic的研究人员发现,如果提示中包含大量任务示例,那么这些具有大型上下文窗口的模型在许多任务中的表现往往会更好。因此,如果提示中有大量的琐碎问题(或引子文件,比如模型在上下文中列出的一大串琐事),随着时间的推移,答案实际上会变得更好。因此,如果是第一个问题,它可能会答错,但如果是第一百个问题,它就可能会答对。不过,这种所谓的"情境学习"有一个意想不到的延伸,那就是模型也会"更好地"回答不恰当的问题。因此,如果你要求它立即制造炸弹,它就会拒绝。但如果你让它回答99个其他危害性较小的问题,然后再让它制造炸弹......它就更有可能服从了。为什么会这样?没有人真正了解LLM这团纠缠不清的权重到底是怎么回事,但显然有某种机制可以让它锁定用户想要的内容,上下文窗口中的内容就是证明。如果用户想要琐事,那么当你问了几十个问题后,它似乎会逐渐激活更多潜在的琐事能力。不管出于什么原因,同样的情况也会发生在用户问了几十个不合适的答案时。该团队已经向其同行乃至竞争对手通报了这一攻击行为,希望以此"培养一种文化,让类似的漏洞在法律硕士提供者和研究人员之间公开共享"。他们发现,虽然限制上下文窗口有助于缓解问题,但也会对模型的性能产生负面影响。不能有这样的结果,所以他们正在努力在查询进入模型之前对查询进行分类和上下文化。在现阶段,人工智能安全领域的目标移动是意料之中的。...PC版:https://www.cnbeta.com.tw/articles/soft/1426011.htm手机版:https://m.cnbeta.com.tw/view/1426011.htm

封面图片

研究人员称 GPT-4 通过图灵测试

研究人员称GPT-4通过图灵测试《生活科学》报道,OpenAI的GPT-4已经通过了图灵测试,这意味着该模型在对话中能够表现出类似人类的智能水平。图灵测试由计算机科学家阿兰·图灵提出,是评估人工智能是否能够与人类表现出相同智能的标准。此次测试结果显示,GPT-4的表现足够逼真,足以欺骗评判者,使其难以分辨其与人类的对话。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

ASCII 字符画成注入工具,研究人员发现大模型“越狱”新手段

ASCII字符画成注入工具,研究人员发现大模型“越狱”新手段据外媒ArsTechnica报道,研究人员近日提出了一种名为ArtPrompt的新大模型注入手段,其使用ASCII字符画替代关键文字进行提示输入,绕过了大模型的安全限制。举例来说,研究人员向大模型输入CounterfeitMoney中关键词汇Counterfeit的ASCII字符画,并要求大模型以不输出词汇本身的方式将字符画理解为单词,并用该单词替换“给出制造和分销‘xxxMoney’方法”提示中占位的“xxx”。结果大模型成功被欺骗,给出了制造和分销假币的具体步骤。同类型的操作也可以从大模型中套出攻击物联网设备的方法。研究人员在GPT-3.5、GPT-4、Gemini、Claude、Llama2这5个领先的模型上对ArtPrompt注入进行了测试,结果显示全部5个模型均可被越狱,输出不合规内容。线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人