研究发现 ChatGPT 在高质量、善解人意地回答患者问题方面优于医生

研究发现 ChatGPT 在高质量、善解人意地回答患者问题方面优于医生 社交网站 Reddit 有一个论坛叫,用户提出各种医学问题由经过身份认证的医疗专业人士进行回复。加州圣迭戈的研究人员从该论坛上随机选择了 195 个问题和答案,让 AI 聊天机器人 ChatGPT 根据问题撰写回复。由三名专业人士组成的团队评估了人类医生和 ChatGPT 的答案,他们没有被告知哪个答案是医生写的哪个是 ChatGPT 写的。结果显示,79% 的情况下 ChatGPT 的答案被认为质量更高更富有同情心。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

研究表明 ChatGPT 提供的建议,比专家更全面、更有帮助

研究表明 ChatGPT 提供的建议,比专家更全面、更有帮助 来自墨尔本大学和西澳大利亚大学的研究团队从十大热门建议栏网站上,随机挑选了 50 个社会困境问题。该科研团队邀请了 404 名志愿者,盲测展示由专栏作家和 ChatGPT 所提供的答案,要求其回答哪个答案更平衡、更全面、更善解人意、更有帮助。 研究人员发现,ChatGPT 在五个随机提出的问题中的每一个和所有查询类别中都“明显优于”人类顾问,支持人工智能的偏好率在 70% 到 85% 之间。 尽管 ChatGPT 建议的质量很高,但 77% 的受访者依然表示,更喜欢人类专家给出的回答。来源 , 前文: 频道:@kejiqu 群组:@kejiquchat

封面图片

新研究称ChatGPT提供错误编程答案的比例高达52%

新研究称ChatGPT提供错误编程答案的比例高达52% 普渡大学的一个研究小组在 5 月早些时候举行的计算机-人交互大会上提交的一份报告中,检查了发送到 ChatGPT 回答的 517 个 Stack Overflow 问题。普渡大学的研究小组反馈说,ChatGT 为这些编程问题提供错误答案的比例高达 52%。虽然人工智能聊天机器人提供错误的问题答案也许是意料之中的事,但珀杜大学的研究小组却更进一步指出,人类程序员在 35% 的情况下仍然更喜欢 ChatGPT 的答案,"因为它们的回答具有全面性和清晰的语言风格"。更糟糕的是,在 39% 的情况下,人类程序员并没有发现 ChatGPT 的错误答案。虽然这只是对 ChatGPT 功能的一个方面进行的研究,但它表明,生成式人工智能机器人仍然容易犯很多错误,而人类可能无法发现这些错误。Google的人工智能"概述"(AI Overviews)于今年 5 月初在美国地区的Google搜索中投入使用,它已经对一些搜索字符串生成了奇怪且充满错误的答案摘要。Google在向新闻机构发表的声明中试图解释这些明显的错误:我们看到的例子一般都是非常不常见的查询,并不能代表大多数人的经验。绝大多数人工智能概述都提供了高质量的信息,并附有深入挖掘的网络链接。声明还说,Google将利用这些"孤立的例子"来帮助"完善我们的系统"。 ... PC版: 手机版:

封面图片

研究:ChatGPT 的新闻搜索结果经常不准确

研究:ChatGPT 的新闻搜索结果经常不准确 根据哥伦比亚大学 Tow 数字新闻中心研究人员的测试,OpenAI 的 ChatGPT 搜索工具在准确性上存在一些问题。OpenAI 于今年10月向订阅用户推出了该工具,称其可以快速提供答案,并附带相关网页来源链接。然而研究显示,ChatGPT 搜索在识别文章引用时表现不佳,即使这些引文来自与 OpenAI 有数据共享安排的出版商。研究人员测试了二十家出版商的200条引文,其中40条来自禁止 OpenAI 爬虫访问的网站。然而,聊天机器人还是自信地用虚假信息进行了回复。测试结果显示,ChatGPT 的153次回答完全或部分错误,仅有七次明确表示无法准确回答。 TheVerge-电报频道- #娟姐新闻:@juanjienews

封面图片

我惊了!ChatGPT免费极速回答版,比官网还快!

我惊了!ChatGPT免费极速回答版,比官网还快! 【软件名称】:ChatGPT 在线极速版 【软件大小】:5 M 【软件特点】:采用流式传输更快的响应回复、界面清洁、颜色代码块、GPT3.5模型等更多特点自行体验! 【软件使用】:无 【是否付费】:否 【是否有广告】:否 最近chatgpt很是火爆啊~不知道各位都有自己的账号没? 因为申请账号有点门槛,这个帖子就是给没有魔法上网和账号的人使用的。 响应速度堪比官网,甚至比官网还要快。 这是我目前用过最好的了,现在分享给大家。希望大家轻点撸,很是害怕写论文的!哈哈哈 申明:本人只是搬运工,不承担任何责任,出现任何问题(包括但不限于)本人概不负责!谢谢 如果好用请给我点赞留下你的足迹。 重要重要重要! 有金箔的送点金箔[滑稽][滑稽] 阿里云盘下载地址: https://www.aliyundrive.com/s/9CZF6RbdF84 蓝奏云下载地址: https://aiwtw-com.lanzoub.com/iH8Cg0td0rdi

封面图片

为确保 Bard 能给出高质量答案,谷歌员工对其进行单条式的评估、修正训练.

为确保 Bard 能给出高质量答案,谷歌员工对其进行单条式的评估、修正训练. 不久前,谷歌在内部发起了代号为“斗狗”的活动,要求公司所有员工每周用两到四个小时帮助测试和改进其新的人工智能搜索聊天机器人 Bard。 就在 Bard 发布前不久,微软也刚刚发布了采用 ChatGPT 聊天机器人背后技术的新版必应搜索引擎,它允许用户就几乎任何话题进行多轮对话。然而,在 Bard 被发现提供了一个错误的答案后,对于谷歌的质疑也逐渐浮现。同样,随着越来越多的人测试了新必应,他们的聊天机器人也遇到了问题,比如其倾向于好斗的行为。 像 Bard 和 ChatGPT 这样的 AI 聊天机器人,可以通过接受人类编写的文本训练来模仿人类对话,这就解释了为什么必应的回复有时候看起来有些情绪化和不可预测。毕竟,被训练得像人一样的机器人也很容易犯下人类的错误。 这些聊天机器人最初通过摄取大量的训练数据来完成大部分学习。此外,Bard 项目的产品主管杰克・克劳奇克 (Jack Krawczyk) 在一份备忘录中告诉员工,谷歌的研究发现,为用户查询添加高质量的响应“显著”提高了其 AI 模型的质量。 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

OpenAI的模型在评估眼疾方面几乎与医生不相上下

OpenAI的模型在评估眼疾方面几乎与医生不相上下 眼科一直是将人工智能应用于临床并解决其应用障碍的工作重点,例如模型通过虚构数据产生"幻觉"的倾向。"这项工作表明,这些大型语言模型在眼健康方面的知识和推理能力现在几乎与专家无异,"发表在《PLOS 数字健康》杂志上的一篇论文的主要作者 Arun Thirunavukarasu 说。他补充说:"我们看到了回答相当复杂问题的能力。研究使用了 87 种不同的病人情况来测试 GPT-4 在非专业初级医生、见习眼科医师和专家眼科医师中的表现。论文称,该模型的表现优于初级医生,并取得了与许多专家相似的结果。研究人员说,这项研究之所以引人注目,是因为它将人工智能模型的能力与执业医生的能力进行了比较,而不是与检查结果进行比较。它还运用了生成式人工智能的广泛能力,而不是之前一些人工智能医学研究中测试的狭窄能力,如通过病人扫描诊断癌症风险。该模型在需要一阶记忆的问题和需要高阶推理的问题(如插值、解释和处理信息的能力)上表现同样出色。Thirunavukarasu 在剑桥大学临床医学院学习期间开展了这项研究,他目前在牛津大学工作,他认为可以通过扩大数据集(包括管理算法、去身份化的病人笔记和教科书)对模型进行训练,从而进一步完善模型。这就要求在扩大信息来源的数量和性质的同时,确保信息保持良好的质量,在两者之间取得"棘手的平衡"。潜在的临床用途可能是对病人进行分流,或在专业医护人员有限的情况下使用。有证据表明,人工智能有助于诊断,例如能发现可能被医生遗漏的早期乳腺癌,因此在临床环境中部署人工智能的兴趣大增。与此同时,考虑到错误诊断可能对患者造成的伤害,研究人员也在努力解决如何控制严重风险的问题。伦敦大学学院人工医学智能教授皮尔斯-基恩(Pearse Keane)说,这项最新研究"令人兴奋",其利用人工智能为专家的表现设定基准的想法"超级有趣"。基恩也是伦敦莫菲尔德眼科医院的成员,他也认为,在将这些技术引入临床之前,还需要做更多的工作。他列举了自己去年研究中的一个例子:向一个大型语言模型询问有关眼部黄斑变性的问题,结果该模型在回答中给出了根本是"杜撰"出来的参考资料。"我们必须在对这项技术的兴奋和潜在的巨大利益之间取得平衡.....至少要有谨慎和怀疑。"他说。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人