新研究:ChatGPT等生成式人工智能工具频繁使用率尚低

None

相关推荐

封面图片

研究:ChatGPT 等生成式人工智能工具频繁使用率尚低

研究:ChatGPT 等生成式人工智能工具频繁使用率尚低 5月30日消息,一项由路透社新闻研究所发布的在线调查结果显示,ChatGPT 已是目前使用最为广泛的生成式人工智能工具,不过总体上生成式人工智能工具的频繁使用率仍偏低。研究人员对英国、美国、阿根廷、丹麦、法国、日本6个国家的1万多人展开调查。结果显示,ChatGPT 是迄今最受认可的生成式人工智能工具,在上述6个国家中,约有50%的网民听说过它。它也是6个国家中迄今使用最广泛的生成式人工智能工具。尽管如此,调查显示,ChatGPT 的频繁使用率仍然很低,日本只有1%的人每天使用它,法国和英国为2%,美国为7%。

封面图片

【欧盟就监管生成性人工智能工具达成初步协议】

【欧盟就监管生成性人工智能工具达成初步协议】 欧盟艰苦达成了一项有望成为西方世界对人工智能最全面的监管协议。欧盟内部市场负责人Thierry Breton周五在社交媒体网站X上发帖表示,来自欧盟委员会、欧洲议会和27个成员国的代表同意对OpenAI Inc.的ChatGPT和谷歌的Bard等能够按指令生产内容的生成性人工智能工具进行一系列管控。 该立法草案仍需得到欧盟成员国和议会的正式批准。但这项协议标志着在美国国会没有任何显著动作的情况下,欧盟朝着具有里程碑意义的人工智能政策迈出了关键一步。这为针对该快速发展的技术的监管定下基调。 欧盟的目标是在亚洲以外地区针对人工智能首次实施严格的监管措施。 快讯/广告 联系 @xingkong888885

封面图片

【OpenAI CTO:ChatGPT和其他人工智能工具均应受到监管】

【OpenAI CTO:ChatGPT和其他人工智能工具均应受到监管】 2月6日消息,人工智能研究公司OpenAI首席技术官Mira Murati表示,ChatGPT可能会“编造事实”,这与其他基于语言模型的人工智能工具没有什么区别一样。 当被问及像OpenAI这样的公司等机构是否有责任监管这一工具时,Murati说:“对OpenAI等公司来说,最重要的是以一种可控和负责任的方式将其引入公共意识。”但她强调,公司还需要来自监管机构、政府甚至所有人的帮助。她补充说,现在对ChatGPT进行监管“并不算为时过早”。 据悉,ChatGPT是OpenAI于2022年11月30日推出的一种新型AI聊天机器人工具,可根据用户的要求快速生成文章、故事、歌词、散文、笑话和代码,并回答各类疑问。

封面图片

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。 斯坦福大学和莱斯大学的研究人员发现,生成式人工智能模型需要“新鲜的真实数据”,否则输出的质量就会下降。 这对摄影师和其他创作者来说是个好消息,因为研究人员发现,训练数据集中的合成图像会放大人工痕迹,使人工智能画出的人类看起来越来越不像真人。 研究小组将这种状况命名为“模型自噬障碍”。如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型注定会逐渐降低其质量或多样性。 如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。

封面图片

微软开始屏蔽导致其人工智能工具生成暴力和性相关的某些术语

微软开始屏蔽导致其人工智能工具生成暴力和性相关的某些术语 CNBC周三的调查中提到的"pro choice"、"pro choce"[原文如此] 和"four twenty"等提示语以及"pro life"一词现在都被屏蔽了。此外,还出现了多次违反政策导致工具被暂停的警告,而在周五之前还没有遇到过这种情况。Copilot 警告提示说:"此提示已被阻止。"我们的系统自动标记了此提示,因为它可能与我们的内容政策相冲突。更多违反政策的行为可能会导致您的访问被自动暂停。如果您认为这是一个错误,请报告以帮助我们改进。"现在,该人工智能工具还阻止了生成青少年或儿童手持冲锋枪玩刺客游戏图片的请求,这与本周早些时候相比有了明显的变化,它表示:"很抱歉,我不能生成这样的图片。这违反了我的道德原则和微软的政策。请不要要求我做任何可能伤害或冒犯他人的事情。感谢您的合作。"微软发言人在接受CNBC采访时表示:"我们正在不断监测、调整和实施更多控制措施,以进一步加强我们的安全过滤器,减少对系统的滥用。"最初对人工智能表示担忧的微软人工智能工程负责人谢恩-琼斯(Shane Jones)花了几个月的时间测试Copilot Designer,这是微软于2023年3月首次推出的人工智能图片生成器,由OpenAI的技术提供支持。与 OpenAI 的DALL-E 一样,用户输入文字提示来创建图片。用户可以尽情发挥创造力。但自从琼斯在 12 月份开始积极测试该产品的漏洞(这种做法被称为"红队")以来,他发现该工具生成的图片远远违背了微软经常引用的负责任人工智能原则。该人工智能服务在描绘妖魔鬼怪的同时,还使用了与堕胎权利、手持冲锋枪的青少年、暴力场景中的女性性爱图像以及未成年人酗酒和吸毒有关的术语。本周,CNBC 使用 Copilot 工具(原名必应图像创建器)重现了过去三个月中生成的所有这些场景。尽管一些特定的提示已被屏蔽,但 CNBC 报道的许多其他潜在问题依然存在。车祸"一词会出现血泊、脸部变异的尸体,以及在暴力现场拿着相机或饮料的女性,有时还戴着腰部训练器。而"车祸"一词仍然会让人联想到穿着暴露、蕾丝花边服装、坐在破旧汽车顶上的女性。该系统还仍然很容易侵犯版权,例如创建迪斯尼人物形象,如《冰雪奇缘》中的艾莎,在据称是加沙地带的残破建筑物前手持巴勒斯坦国旗,或身着以色列国防军军服手持机枪。琼斯对自己的经历感到非常震惊,于是他从 12 月份开始在公司内部报告自己的发现。虽然公司承认了他的担忧,但不愿让该产品退出市场。琼斯说,微软把他推荐给了 OpenAI,当他没有收到公司的回复时,他在 LinkedIn 上发布了一封公开信,要求这家初创公司的董事会下架 DALL-E 3(最新版本的人工智能模型),以便进行调查。他说,微软的法律部门让琼斯立即撤下他的职位,他照做了。今年 1 月,他就此事致信美国参议员,随后会见了参议院商业、科学和运输委员会的工作人员。本周三,琼斯将他的担忧进一步升级,致信美国联邦贸易委员会主席莉娜-汗(Lina Khan),并致信微软董事会。 ... PC版: 手机版:

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人