对专业剧作家而言 ChatGPT比人类更有趣

对专业剧作家而言 ChatGPT比人类更有趣 创作喜剧很难。幽默往往是主观的,所以你觉得好笑的东西,别人可能不觉得好笑。喜剧编剧需要牢记关键要素:时机、表达、独创性和避免陈词滥调。他们要不断地在好笑与不好笑之间游走。那么,人工智能,特别是OpenAI 的 ChatGPT 3.5,作为喜剧编剧会有怎样的表现呢?它能搞笑吗?如果将人工智能和人类进行比较,谁会更有趣?在最近发表的一项研究中,来自南加州大学(USC)的研究人员找到了答案。南加州大学Dornlife文学、艺术和科学学院社会心理学博士候选人、业余单口相声演员、该研究的第一作者和通讯作者德鲁-戈伦茨(Drew Gorenz)说:"由于ChatGPT本身无法感受到情绪,但它却比普通人讲得更好,这些研究提供了证据,证明你不需要感受到欣赏一个好笑话的情绪,自己就能讲出一个真正的好笑话。"之前的一些研究曾探讨过 ChatGPT 是否能写出幽默的文章,但没有全面评估人工智能的输出并将其与人类喜剧写作进行比较。因此,戈伦茨和心理学与营销学教务长诺伯特-施瓦茨(Norbert Schwarz)着手进行了两项研究。在第一项研究中,一组美国成年人被要求完成三项不同的喜剧创作任务。在首字母缩写任务中,他们被要求为"S.T.D."、"C.L.A.P."和"C.O.W."这三个首字母缩写生成一个新的幽默短语。在填空测试中,他们必须在三个项目中填空。其中一项是"你可能不会写在简历上的一项杰出成就":.'最后是"烤肉笑话"任务,参与者必须对一个虚构的场景做出幽默的回应。例如,"想象一下,你的一位朋友想让你评价她的歌唱得如何。她唱了一两分钟来展示她的嗓音,而你却感到害怕她可能是你听过的最糟糕的歌手。当她问:"怎么样?"你决定实话实说,于是你说:"说实话,听着就像 。"'然后,ChatGPT 3.5 也承担了同样的任务。另一组成人用七分制来评定回复的有趣程度,从零分(一点也不好笑)到六分(非常有趣)。与人类回复相比,ChatGPT 的回复被评为更有趣,69.5% 的参与者更喜欢它们(26.5% 的人更喜欢人类回复,4.0% 的人认为两者同样有趣)。研究人员说:"总体而言,根据不同的幽默任务,ChatGPT 3.5 的表现高于 63% 至 87% 的人类参与者。"ChatGPT 3.5 在烤肉笑话任务中表现尤为突出。鉴于该任务的攻击性,我们发现这一结果特别有趣。鉴于 ChatGPT 的设计目的是不生成任何可能被认为具有攻击性或仇恨性的语音,因此可能会出现相反的预测结果。在第二项研究中,研究人员比较了 ChatGPT 撰写讽刺性新闻标题(如《洋葱新闻》上的标题)的能力。由于 ChatGPT 不会定期接收世界新闻更新,研究人员从《洋葱》的"本地"新闻栏目中选取了 2023 年 10 月 1 日之前的最近 50 个标题。例如,"男子因脱发明显而拒绝求婚"。将这些标题交给 ChatGPT,要求人工智能生成 20 个新标题。一组南加州大学心理学系的学生按照第一项研究中使用的七分标准,对人工智能生成的讽刺性标题的趣味性进行了评分。学生们还被要求对他们寻找喜剧(包括讽刺新闻)的程度进行评分。那些自称寻求更多喜剧和阅读更多讽刺新闻的学生认为这些标题更有趣,这与它们是由人工智能生成的还是由专业作家制作的无关。根据平均评分,48.8% 的人更喜欢洋葱的标题,36.9% 的人更喜欢 ChatGPT 生成的标题,14.3% 的人没有偏好。研究人员说:"参与者平均认为标题同样有趣,这表明普通参与者并没有发现质量上的差异。考虑到本研究中的高标准对比(即专业喜剧编剧),这一点尤其有趣"。有趣,是的,但也令人担忧。研究人员也承认这一点。他们说:"ChatGPT 可以产生书面幽默,其质量超过了普通人的能力,与一些专业喜剧作家不相上下,这对喜剧爱好者和娱乐行业的工作者具有重要意义。对于专业喜剧作家来说,我们的研究结果表明,LLM(像 ChatGPT 这样的大型语言模型)可能会对就业构成严重威胁。这项研究发表在《PLOS One》杂志上。 ... PC版: 手机版:

相关推荐

封面图片

研究发现GPT-4比人类分析师表现出相对优势 有可能为投资带来更多收益

研究发现GPT-4比人类分析师表现出相对优势 有可能为投资带来更多收益 此外,研究人员还发现,通用 LLM 的表现与为阅读财务报表而训练的最先进的狭义机器学习模型一样出色。他们还发现,LLM 能够做出产生更高夏普比率的预测,夏普比率是将投资收益与风险进行比较,夏普比率越高越好。鉴于这些结果,研究人员发现,在选择投资时,LLM 可能会在决策中发挥核心作用。有趣的是,GPT-4 仅凭财务报表就能超越人类投资者,而人类投资者却不了解任何背景情况。研究人员还表示,LLM 的预测并非来自其训练记忆,而是"对公司未来业绩产生有用的叙述性见解"。对于那些认为这项工作听起来很有趣的投资者,研究人员创建了一个ChatGPT 机器人,供ChatGPT Plus订阅者使用,这样他们就可以提交财务报表并获得分析结果。对于有兴趣免费分析财务报表的人来说,Claude 3 还允许用户上传文件,并就数据提出问题。虽然研究人员可能会怀疑LLM是否能取代人类投资者,但这些工具的出现带来的另一个质变是,可能不了解财务文件来龙去脉的业余投资者可以以更简单并更全面的方式了解不同公司的情况。 ... PC版: 手机版:

封面图片

研究表明 ChatGPT 提供的建议,比专家更全面、更有帮助

研究表明 ChatGPT 提供的建议,比专家更全面、更有帮助 来自墨尔本大学和西澳大利亚大学的研究团队从十大热门建议栏网站上,随机挑选了 50 个社会困境问题。该科研团队邀请了 404 名志愿者,盲测展示由专栏作家和 ChatGPT 所提供的答案,要求其回答哪个答案更平衡、更全面、更善解人意、更有帮助。 研究人员发现,ChatGPT 在五个随机提出的问题中的每一个和所有查询类别中都“明显优于”人类顾问,支持人工智能的偏好率在 70% 到 85% 之间。 尽管 ChatGPT 建议的质量很高,但 77% 的受访者依然表示,更喜欢人类专家给出的回答。来源 , 前文: 频道:@kejiqu 群组:@kejiquchat

封面图片

ChatGPT开始被用于创建恶意软件

ChatGPT开始被用于创建恶意软件 Check Point 研究中心的研究人员报告说,在ChatGPT推出的几周内,网络犯罪论坛的成员(一些几乎没有编程经验的人)正在大量使用该聊天机器人来编写恶意软件。 在没有编写一行代码的情况下,他们还成功地创建了一个勒索软件加密器,一个漏洞利用脚本,一个可以隐藏在Excel文件中的恶意宏,并生成了一个相当有说服力的钓鱼电子邮件。 尽管ChatGPT的条款禁止将其用于非法或恶意目的,但研究人员可以通过设置查询以轻松规避这些限制。 正如研究人员所指出的:"欢迎来到人工智能的奇妙新世界。现在要知道它对未来的确切影响还为时过早。但可以肯定的是,它只会加剧防御者和攻击者之间的军备竞赛”。 #Cybersecurity #Cyberattacks #Chatbots

封面图片

OpenAI称ChatGPT帮助制造生物武器的可能性很小

OpenAI称ChatGPT帮助制造生物武器的可能性很小 OpenAI 的研究结果似乎反驳了科学家、立法者和人工智能伦理学家的担忧,即像 GPT-4 这样强大的人工智能模型可以为恐怖分子、罪犯和其他恶意行为者提供重要帮助。多项研究都警告说,人工智能可能会给那些制造生物武器的人带来额外的优势,例如牛津大学有效风险基金会(Effective Ventures Foundation)的这项研究考察了 ChatGPT 等人工智能工具,以及为科学家专门设计的人工智能模型,如 ProteinMPNN(可帮助生成新的蛋白质序列)。这项研究由 100 名参与者组成,其中一半是高级生物学专家,另一半是修过大学生物学课程的学生。然后,参与者被随机分为两组:一组可以无限制地访问 OpenAI 高级人工智能聊天机器人 GPT-4 的特殊版本,另一组只能访问普通互联网。然后,科学家要求这两组人完成五项与制造生物武器有关的研究任务。其中一个例子是,参与者被要求写下合成和抢救埃博拉病毒的步骤方法。然后,根据准确性、创新性和完整性等标准,对他们的答案进行 1 到 10 分的评分。研究得出的结论是,使用 GPT-4 的学生组和专家组的平均准确率略高。但 OpenAI 的研究人员发现,这种提高并不具有"统计学意义"。他们还发现,依赖 GPT-4 的参与者回答得更详细。研究报告的作者写道:"虽然我们没有观察到在这一指标上有任何统计学上的显著差异,但我们确实注意到,获得模型访问权的参与者的回答往往更长,并且包含更多与任务相关的细节。"此外,在某些任务上,使用 GPT-4 的学生几乎与专家组一样熟练。研究人员还注意到,GPT-4 使学生组的答案达到了"专家基线",尤其是在两个任务上:放大和表述。遗憾的是,出于"信息危害考虑",OpenAI 不会透露这些任务的内容。据彭博社报道,该防备团队还在开展研究,探索人工智能在网络安全威胁方面的潜力及其改变信仰的力量。OpenAI 在去年秋天成立该团队时曾表示,其目标是"跟踪、评估、预测和保护"人工智能技术的风险,以及减轻化学、生物和放射性威胁。鉴于 OpenAI 的准备团队仍在代表 OpenAI 开展工作,我们必须谨慎对待他们的研究。研究结果似乎低估了 GPT-4 为参与者带来的优于普通互联网的优势,这与外部研究以及 OpenAI 自身对 GPT-4 的卖点之一相矛盾。新的人工智能模型不仅可以完全访问互联网,而且是一个在大量科学数据和其他数据基础上训练出来的多模态模型,OpenAI不愿透露这些数据的来源。研究人员发现,GPT-4 能够对科学手稿提出反馈意见,甚至可以作为科学研究的合作者。总而言之,与Google相比,GPT-4 只给参与者带来微不足道的提升似乎不太可能。虽然 OpenAI 创始人萨姆-奥特曼承认人工智能有潜在的危险,但其自己的研究却似乎在贬低其最先进聊天机器人的实力。虽然研究结果表明,GPT-4 给参与者带来了"准确性和完整性的轻微提升",但这似乎只适用于以某种方式调整数据的情况。这项研究衡量了学生们与专家们的表现,还考察了五种不同的"结果指标",包括完成任务所需的时间或解决方案的创造能力。不过,该研究的作者后来在脚注中指出,总体而言,GPT-4 在总准确率方面给所有参与者带来了"统计学意义上显著的"优势"。作者指出:"不过,如果我们只评估总准确率,因而不对多重比较进行调整,那么这一差异在统计学上将是显著的。" ... PC版: 手机版:

封面图片

ChatGPT 生成的大部分代码是不安全的

ChatGPT 生成的大部分代码是不安全的 加拿大魁北克大学的研究人员在 arXiv 上发表论文,分析了 ChatGPT 所生成代码的安全性。研究人员表示结果令他们倍感担忧。ChatGPT 生成的部分代码甚至达不到最低安全标志,而当你问它时它还知道代码是不安全的。研究人员让 ChatGPT 使用 C、C++、Python 和 Java 四种语言生成了 21 个程序和脚本。研究人员称,ChatGPT 似乎知道它生成的代码是不安全的,但就是不说,除非你问它。ChatGPT 拒绝生成攻击性代码,但却会生成有漏洞的代码,这在道德上是不一致的。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

ChatGPT 的数学成绩更差了

ChatGPT 的数学成绩更差了 研究人员给聊天机器人布置了一项基本任务:识别某个数字是否是质数。这种数学问题对人来说很复杂,但对电脑来说却很简单。研究人员向 ChatGPT 输送了 1000 个不同的数字。三月份,GPT-4 能正确识别 84% 的数字是否为质数。(坦率地说,对于一台计算机来说,这样的表现非常一般。)到了六月份,它的成功率下降到了 51%。在 8 项不同的任务中,GPT-4 有 6 项变得更糟。这种退化是人工智能开发人员所熟知的漂移现象的一个例子,即试图改进极其复杂的人工智能模型的一部分,却使模型的其他部分表现更差。来源 ,附: 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人