研究表明 ChatGPT 提供的建议,比专家更全面、更有帮助

研究表明ChatGPT提供的建议,比专家更全面、更有帮助来自墨尔本大学和西澳大利亚大学的研究团队从十大热门建议栏网站上,随机挑选了50个社会困境问题。该科研团队邀请了404名志愿者,盲测展示由专栏作家和ChatGPT所提供的答案,要求其回答哪个答案更平衡、更全面、更善解人意、更有帮助。研究人员发现,ChatGPT在五个随机提出的问题中的每一个和所有查询类别中都“明显优于”人类顾问,支持人工智能的偏好率在70%到85%之间。尽管ChatGPT建议的质量很高,但77%的受访者依然表示,更喜欢人类专家给出的回答。来源,前文:频道:@kejiqu群组:@kejiquchat

相关推荐

封面图片

研究表明ChatGPT在回答编程问题时错误百出,并且错误很容易被忽略

研究表明ChatGPT在回答编程问题时错误百出,并且错误很容易被忽略在研究中,研究人员查看了StackOverflow中的517个问题,并分析了ChatGPT对这些问题的回答尝试。研究人员表示:“我们发现52%的ChatGPT答案包含错误信息,77%的答案比人类的答案更冗长。”尤其令人不安的是,许多人类程序员似乎更喜欢ChatGPT的答案。普渡大学的研究人员对12名程序员进行了调查——诚然,样本量很小——发现他们中39%的人没有发现人工智能产生的错误。研究人员写道:“礼貌的语言、清晰的教科书式的回答以及全面性是使ChatGPT答案看起来更令人信服的部分主要原因,这让用户放松了警惕,忽略了ChatGPT答案中的一些错误信息。”——

封面图片

ChatGPT在提供高质量、有同情心的医疗建议方面优于医生

ChatGPT在提供高质量、有同情心的医疗建议方面优于医生这项研究比较了医生和ChatGPT对真实世界健康问题的书面答复。一个有执照的医疗专家小组在79%的情况下更喜欢ChatGPT的回答,并认为ChatGPT的回答质量更高、更有同情心。艾尔斯说:"用人工智能改善医疗保健的机会是巨大的,"他也是加州大学旧金山分校医学院传染病和全球公共卫生处的创新副主任。"人工智能增强的护理是医学的未来。"在这项新的研究中,研究小组着手回答这个问题:ChatGPT能否准确地回应患者发送给医生的问题?如果是的话,人工智能模型可以被整合到卫生系统中,以改善医生对患者所发问题的回应,并减轻医生不断增加的负担。"ChatGPT可能能够通过医学执照考试,"研究报告的共同作者、UCSD奥特曼临床和转化研究所共同主任、UCSD医学院教授戴维-史密斯博士说,"但直接准确和富有同情心地回答病人的问题是一个不同的领域。""COVID-19大流行加速了虚拟医疗的采用,"研究报告的共同作者EricLeas博士补充说,他是高通研究所的成员,也是加州大学圣地亚哥分校赫伯特-沃特海姆公共卫生和人类长寿科学学院的助理教授。"虽然这使患者更容易获得护理,但医生却被大量寻求医疗建议的患者电子信息所困扰,这些信息导致了破纪录的医生职业倦怠。"为了获得大量不同的医疗问题和医生回答的样本,并且不包含可识别的个人信息,该团队转向了社交媒体,在那里有数百万的病人公开发布医疗问题,而医生会做出回应:Reddit的AskDocs。r/AskDocs是一个拥有约452,000名成员的子reddit,他们发布医疗问题,并由经过验证的医疗专业人士提交答案。虽然任何人都可以对问题作出回应,但版主会验证医疗保健专业人士的证书,而回应会显示回应者的证书水平。其结果是一个庞大而多样的病人医疗问题和来自有执照的医疗专业人士的相应答案。虽然有些人可能怀疑社交媒体上的问答交流是否是一个公平的测试,但团队成员指出,这些交流反映了他们的临床经验。该团队从AskDocs中随机抽取了195个交流,其中有一位经过验证的医生回答了一个公共问题。该团队向ChatGPT提供了原始问题,并要求它编写一份答复。一个由三名持证医疗专业人士组成的小组对每个问题和相应的回答进行了评估,并对回答是来自医生还是ChatGPT进行了盲审。他们根据信息质量和同情心来比较答复,并指出他们更喜欢哪一个。医疗保健专业人员评估小组在79%的情况下喜欢ChatGPT的回答而不是医生的回答。圣地亚哥HumanLongevity公司的执业护士、研究报告的合著者JessicaKelley说:"ChatGPT信息的回应细微而准确,往往比医生的回应更能解决病人的问题。"此外,ChatGPT的回答在质量上的评价明显高于医生的回答:ChatGPT的回答质量好或非常好是医生的3.6倍(医生22.1%,ChatGPT78.5%)。这些回答也更有同情心:ChatGPT的同情或非常同情的回答比医生高9.8倍(医生4.6%,ChatGPT45.1%)。加州大学旧金山分校医学院副临床教授、研究报告作者之一亚伦-古德曼博士补充说:"我从未想象过会这么说,但ChatGPT是我想给我的收件箱开的处方。该工具将改变我支持病人的方式"。"虽然我们的研究将ChatGPT与医生对立起来,但最终的解决方案并不是将你的医生完全扔掉,"布林茅尔学院计算机科学助理教授、研究报告的共同作者亚当-波利亚克博士说。"相反,医生利用ChatGPT是更好的、有同情心的护理的答案。""我们的研究是第一批显示人工智能助手如何潜在地解决现实世界的医疗保健提供问题的研究,"加州大学圣地亚哥分校健康部首席医疗官和首席数字官克里斯托弗-隆赫斯特博士说。"这些结果表明,像ChatGPT这样的工具可以有效地起草高质量、个性化的医疗建议,供临床医生审查,我们正在UCSDHealth开始这一过程。"医生-生物信息学家、加州大学圣地亚哥分校奥特曼临床和转化研究所联合主任、加州大学圣地亚哥分校医学院教授、研究报告共同作者MikeHogarth博士补充说:"重要的是,将人工智能助手整合到医疗保健信息中,要在随机对照试验的背景下进行,以判断人工智能助手的使用对医生和患者的结果有何影响。"除了改善工作流程,对人工智能助手信息传递的投资可能会影响病人的健康和医生的表现。约翰霍普金斯大学计算机科学的JohnCMalone副教授和研究报告的共同作者MarkDredze博士指出:"我们可以利用这些技术来训练医生以病人为中心的沟通,消除经常通过信息传递寻求医疗保健的少数民族人口所遭受的健康差异,建立新的医疗安全系统,并通过提供更高质量和更有效的护理来协助医生。"...PC版:https://www.cnbeta.com.tw/articles/soft/1357293.htm手机版:https://m.cnbeta.com.tw/view/1357293.htm

封面图片

新研究称ChatGPT提供错误编程答案的比例高达52%

新研究称ChatGPT提供错误编程答案的比例高达52%普渡大学的一个研究小组在5月早些时候举行的计算机-人交互大会上提交的一份报告中,检查了发送到ChatGPT回答的517个StackOverflow问题。普渡大学的研究小组反馈说,ChatGT为这些编程问题提供错误答案的比例高达52%。虽然人工智能聊天机器人提供错误的问题答案也许是意料之中的事,但珀杜大学的研究小组却更进一步指出,人类程序员在35%的情况下仍然更喜欢ChatGPT的答案,"因为它们的回答具有全面性和清晰的语言风格"。更糟糕的是,在39%的情况下,人类程序员并没有发现ChatGPT的错误答案。虽然这只是对ChatGPT功能的一个方面进行的研究,但它表明,生成式人工智能机器人仍然容易犯很多错误,而人类可能无法发现这些错误。Google的人工智能"概述"(AIOverviews)于今年5月初在美国地区的Google搜索中投入使用,它已经对一些搜索字符串生成了奇怪且充满错误的答案摘要。Google在向新闻机构发表的声明中试图解释这些明显的错误:我们看到的例子一般都是非常不常见的查询,并不能代表大多数人的经验。绝大多数人工智能概述都提供了高质量的信息,并附有深入挖掘的网络链接。声明还说,Google将利用这些"孤立的例子"来帮助"完善我们的系统"。...PC版:https://www.cnbeta.com.tw/articles/soft/1432252.htm手机版:https://m.cnbeta.com.tw/view/1432252.htm

封面图片

研究显示39%的人类程序员未能识别出ChatGPT的编程错误

研究显示39%的人类程序员未能识别出ChatGPT的编程错误普渡大学的研究小组在计算机-人交互大会上提交的报告指出,ChatGPT在回答517个StackOverflow编程问题时,错误率高达52%。研究将问题分为概念性、如何操作和调试三个子类别,并根据问题的流行度、类型和时效性进行了分析。结果显示,人类程序员在35%的情况下更倾向于ChatGPT提供的答案,然而,在39%的情况下,人类程序员未能识别出ChatGPT的错误答案。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

封面图片

研究发现ChatGPT可以影响用户的道德判断

研究发现ChatGPT可以影响用户的道德判断研究发现,ChatGPT可以影响人类对道德困境的反应,用户往往低估了聊天机器人对他们判断的影响程度。研究人员表示,这凸显出需要更好地理解人工智能,开发出能更谨慎地处理道德问题的聊天机器人。SebastianKrügel和他的团队向ChatGPT(由人工智能语言处理模型GenerativePretrainedTransformer3驱动)提出了一个道德难题,多次询问它是否可以接受牺牲一条生命来拯救其他五条生命。他们发现ChatGPT产生的声明既支持又反对牺牲一条生命的行为,显示出它并不偏向于某种特定的道德立场。然后,作者向767名平均年龄为39岁的美国参与者展示了两个道德困境中的一个,要求他们选择是否牺牲一个人的生命来拯救其他五个人。在回答之前,参与者阅读由ChatGPT提供的声明,支持或反对牺牲一个人的生命来拯救五个人。声明是由道德顾问或ChatGPT提供的。回答后,参与者被问及他们阅读的声明是否影响了他们的答案。作者发现,参与者更有可能认为牺牲一个人的生命来挽救五个人的生命是可以接受或不可接受的,这取决于他们读到的声明是支持还是反对这种牺牲。即使声明是由ChatGPT提供的,情况也是如此。这些发现表明,参与者可能受到了他们所读到的声明的影响,即使这些声明是由一个聊天机器人提供的。80%的参与者报告说,他们的答案没有受到他们所读的声明的影响。然而,作者发现,参与者认为他们在没有阅读声明的情况下会提供的答案,仍然更有可能同意他们确实阅读过的声明的道德立场,而不是相反的立场。这表明,参与者可能低估了ChatGPT的声明对他们自己的道德判断的影响。作者认为,聊天机器人有可能影响人类的道德判断,这突出了教育的必要性,以帮助人类更好地理解人工智能。他们建议,未来的研究可以设计聊天机器人,拒绝回答需要道德判断的问题,或者通过提供多种论据和注意事项来回答这些问题。...PC版:https://www.cnbeta.com.tw/articles/soft/1354349.htm手机版:https://m.cnbeta.com.tw/view/1354349.htm

封面图片

研究发现 ChatGPT 在高质量、善解人意地回答患者问题方面优于医生

研究发现ChatGPT在高质量、善解人意地回答患者问题方面优于医生社交网站Reddit有一个论坛叫,用户提出各种医学问题由经过身份认证的医疗专业人士进行回复。加州圣迭戈的研究人员从该论坛上随机选择了195个问题和答案,让AI聊天机器人ChatGPT根据问题撰写回复。由三名专业人士组成的团队评估了人类医生和ChatGPT的答案,他们没有被告知哪个答案是医生写的哪个是ChatGPT写的。结果显示,79%的情况下ChatGPT的答案被认为质量更高更富有同情心。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人