OpenAI称ChatGPT帮助制造生物武器的可能性很小
OpenAI称ChatGPT帮助制造生物武器的可能性很小OpenAI的研究结果似乎反驳了科学家、立法者和人工智能伦理学家的担忧,即像GPT-4这样强大的人工智能模型可以为恐怖分子、罪犯和其他恶意行为者提供重要帮助。多项研究都警告说,人工智能可能会给那些制造生物武器的人带来额外的优势,例如牛津大学有效风险基金会(EffectiveVenturesFoundation)的这项研究考察了ChatGPT等人工智能工具,以及为科学家专门设计的人工智能模型,如ProteinMPNN(可帮助生成新的蛋白质序列)。这项研究由100名参与者组成,其中一半是高级生物学专家,另一半是修过大学生物学课程的学生。然后,参与者被随机分为两组:一组可以无限制地访问OpenAI高级人工智能聊天机器人GPT-4的特殊版本,另一组只能访问普通互联网。然后,科学家要求这两组人完成五项与制造生物武器有关的研究任务。其中一个例子是,参与者被要求写下合成和抢救埃博拉病毒的步骤方法。然后,根据准确性、创新性和完整性等标准,对他们的答案进行1到10分的评分。研究得出的结论是,使用GPT-4的学生组和专家组的平均准确率略高。但OpenAI的研究人员发现,这种提高并不具有"统计学意义"。他们还发现,依赖GPT-4的参与者回答得更详细。研究报告的作者写道:"虽然我们没有观察到在这一指标上有任何统计学上的显著差异,但我们确实注意到,获得模型访问权的参与者的回答往往更长,并且包含更多与任务相关的细节。"此外,在某些任务上,使用GPT-4的学生几乎与专家组一样熟练。研究人员还注意到,GPT-4使学生组的答案达到了"专家基线",尤其是在两个任务上:放大和表述。遗憾的是,出于"信息危害考虑",OpenAI不会透露这些任务的内容。据彭博社报道,该防备团队还在开展研究,探索人工智能在网络安全威胁方面的潜力及其改变信仰的力量。OpenAI在去年秋天成立该团队时曾表示,其目标是"跟踪、评估、预测和保护"人工智能技术的风险,以及减轻化学、生物和放射性威胁。鉴于OpenAI的准备团队仍在代表OpenAI开展工作,我们必须谨慎对待他们的研究。研究结果似乎低估了GPT-4为参与者带来的优于普通互联网的优势,这与外部研究以及OpenAI自身对GPT-4的卖点之一相矛盾。新的人工智能模型不仅可以完全访问互联网,而且是一个在大量科学数据和其他数据基础上训练出来的多模态模型,OpenAI不愿透露这些数据的来源。研究人员发现,GPT-4能够对科学手稿提出反馈意见,甚至可以作为科学研究的合作者。总而言之,与Google相比,GPT-4只给参与者带来微不足道的提升似乎不太可能。虽然OpenAI创始人萨姆-奥特曼承认人工智能有潜在的危险,但其自己的研究却似乎在贬低其最先进聊天机器人的实力。虽然研究结果表明,GPT-4给参与者带来了"准确性和完整性的轻微提升",但这似乎只适用于以某种方式调整数据的情况。这项研究衡量了学生们与专家们的表现,还考察了五种不同的"结果指标",包括完成任务所需的时间或解决方案的创造能力。不过,该研究的作者后来在脚注中指出,总体而言,GPT-4在总准确率方面给所有参与者带来了"统计学意义上显著的"优势"。作者指出:"不过,如果我们只评估总准确率,因而不对多重比较进行调整,那么这一差异在统计学上将是显著的。"...PC版:https://www.cnbeta.com.tw/articles/soft/1415689.htm手机版:https://m.cnbeta.com.tw/view/1415689.htm
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人