研究人员警告:ChatGPT 不适合获取医疗信息,可能会误导公众

研究人员警告:ChatGPT不适合获取医疗信息,可能会误导公众长岛大学的研究人员向ChatGPT询问了39个与药物相关的问题,这些问题都是来自该大学药学院药物信息服务中心的真实问题。随后,他们将ChatGPT的回答与经过培训的药剂师编写的答案进行比较。研究发现,ChatGPT只有大约10个问题的回答是准确的,占总数的四分之一。对于其他29个问题,ChatGPT的回答要么不完整,要么不准确,要么没有解决问题。来源,频道:@kejiqu群组:@kejiquchat

相关推荐

封面图片

ChatGPT在提供高质量、有同情心的医疗建议方面优于医生

ChatGPT在提供高质量、有同情心的医疗建议方面优于医生这项研究比较了医生和ChatGPT对真实世界健康问题的书面答复。一个有执照的医疗专家小组在79%的情况下更喜欢ChatGPT的回答,并认为ChatGPT的回答质量更高、更有同情心。艾尔斯说:"用人工智能改善医疗保健的机会是巨大的,"他也是加州大学旧金山分校医学院传染病和全球公共卫生处的创新副主任。"人工智能增强的护理是医学的未来。"在这项新的研究中,研究小组着手回答这个问题:ChatGPT能否准确地回应患者发送给医生的问题?如果是的话,人工智能模型可以被整合到卫生系统中,以改善医生对患者所发问题的回应,并减轻医生不断增加的负担。"ChatGPT可能能够通过医学执照考试,"研究报告的共同作者、UCSD奥特曼临床和转化研究所共同主任、UCSD医学院教授戴维-史密斯博士说,"但直接准确和富有同情心地回答病人的问题是一个不同的领域。""COVID-19大流行加速了虚拟医疗的采用,"研究报告的共同作者EricLeas博士补充说,他是高通研究所的成员,也是加州大学圣地亚哥分校赫伯特-沃特海姆公共卫生和人类长寿科学学院的助理教授。"虽然这使患者更容易获得护理,但医生却被大量寻求医疗建议的患者电子信息所困扰,这些信息导致了破纪录的医生职业倦怠。"为了获得大量不同的医疗问题和医生回答的样本,并且不包含可识别的个人信息,该团队转向了社交媒体,在那里有数百万的病人公开发布医疗问题,而医生会做出回应:Reddit的AskDocs。r/AskDocs是一个拥有约452,000名成员的子reddit,他们发布医疗问题,并由经过验证的医疗专业人士提交答案。虽然任何人都可以对问题作出回应,但版主会验证医疗保健专业人士的证书,而回应会显示回应者的证书水平。其结果是一个庞大而多样的病人医疗问题和来自有执照的医疗专业人士的相应答案。虽然有些人可能怀疑社交媒体上的问答交流是否是一个公平的测试,但团队成员指出,这些交流反映了他们的临床经验。该团队从AskDocs中随机抽取了195个交流,其中有一位经过验证的医生回答了一个公共问题。该团队向ChatGPT提供了原始问题,并要求它编写一份答复。一个由三名持证医疗专业人士组成的小组对每个问题和相应的回答进行了评估,并对回答是来自医生还是ChatGPT进行了盲审。他们根据信息质量和同情心来比较答复,并指出他们更喜欢哪一个。医疗保健专业人员评估小组在79%的情况下喜欢ChatGPT的回答而不是医生的回答。圣地亚哥HumanLongevity公司的执业护士、研究报告的合著者JessicaKelley说:"ChatGPT信息的回应细微而准确,往往比医生的回应更能解决病人的问题。"此外,ChatGPT的回答在质量上的评价明显高于医生的回答:ChatGPT的回答质量好或非常好是医生的3.6倍(医生22.1%,ChatGPT78.5%)。这些回答也更有同情心:ChatGPT的同情或非常同情的回答比医生高9.8倍(医生4.6%,ChatGPT45.1%)。加州大学旧金山分校医学院副临床教授、研究报告作者之一亚伦-古德曼博士补充说:"我从未想象过会这么说,但ChatGPT是我想给我的收件箱开的处方。该工具将改变我支持病人的方式"。"虽然我们的研究将ChatGPT与医生对立起来,但最终的解决方案并不是将你的医生完全扔掉,"布林茅尔学院计算机科学助理教授、研究报告的共同作者亚当-波利亚克博士说。"相反,医生利用ChatGPT是更好的、有同情心的护理的答案。""我们的研究是第一批显示人工智能助手如何潜在地解决现实世界的医疗保健提供问题的研究,"加州大学圣地亚哥分校健康部首席医疗官和首席数字官克里斯托弗-隆赫斯特博士说。"这些结果表明,像ChatGPT这样的工具可以有效地起草高质量、个性化的医疗建议,供临床医生审查,我们正在UCSDHealth开始这一过程。"医生-生物信息学家、加州大学圣地亚哥分校奥特曼临床和转化研究所联合主任、加州大学圣地亚哥分校医学院教授、研究报告共同作者MikeHogarth博士补充说:"重要的是,将人工智能助手整合到医疗保健信息中,要在随机对照试验的背景下进行,以判断人工智能助手的使用对医生和患者的结果有何影响。"除了改善工作流程,对人工智能助手信息传递的投资可能会影响病人的健康和医生的表现。约翰霍普金斯大学计算机科学的JohnCMalone副教授和研究报告的共同作者MarkDredze博士指出:"我们可以利用这些技术来训练医生以病人为中心的沟通,消除经常通过信息传递寻求医疗保健的少数民族人口所遭受的健康差异,建立新的医疗安全系统,并通过提供更高质量和更有效的护理来协助医生。"...PC版:https://www.cnbeta.com.tw/articles/soft/1357293.htm手机版:https://m.cnbeta.com.tw/view/1357293.htm

封面图片

研究表明ChatGPT在回答编程问题时错误百出,并且错误很容易被忽略

研究表明ChatGPT在回答编程问题时错误百出,并且错误很容易被忽略在研究中,研究人员查看了StackOverflow中的517个问题,并分析了ChatGPT对这些问题的回答尝试。研究人员表示:“我们发现52%的ChatGPT答案包含错误信息,77%的答案比人类的答案更冗长。”尤其令人不安的是,许多人类程序员似乎更喜欢ChatGPT的答案。普渡大学的研究人员对12名程序员进行了调查——诚然,样本量很小——发现他们中39%的人没有发现人工智能产生的错误。研究人员写道:“礼貌的语言、清晰的教科书式的回答以及全面性是使ChatGPT答案看起来更令人信服的部分主要原因,这让用户放松了警惕,忽略了ChatGPT答案中的一些错误信息。”——

封面图片

研究人员警告:全球变暖可能高达3度

研究人员警告:全球变暖可能高达3度AlehCherp,隆德大学国际工业环境经济学研究所教授。图片来源:中欧大学。“越来越多的国家承诺他们将逐步淘汰能源系统中的煤炭,这是积极的。但不幸的是,他们的承诺不够坚定。如果我们要有实现2摄氏度目标的现实机会,就需要更快地淘汰煤炭,”隆德大学国际工业环境经济学研究所教授AlehCherp说。与工业化前水平相比,必须逐步淘汰煤炭才能将世界气温升高幅度控制在2度以下。在研究项目MistraElectrification的一项研究中,一组研究人员分析了72个国家承诺的到2022年至2050年逐步淘汰煤炭使用的承诺。在最好的情况下,研究人员表明温度升高可能会保持在2度。但这假设,除其他外,中国和印度都在五年内开始逐步淘汰煤炭使用。此外,它们的淘汰速度需要与英国一样快,这是大国有史以来最快的,而且比德国承诺的要快。这可能会造成需要通过国际政策加以解决的不公平现象。JessicaJewell,查尔姆斯理工大学物理资源理论系副教授。该研究小组还开发了他们认为最现实的情景。这些情景表明地球正朝着全球变暖2.5–3度的方向发展。“这些国家的承诺是不够的,即使是最雄心勃勃的国家也是如此。此外,俄罗斯入侵乌克兰可能会阻止一些国家按照承诺逐步淘汰煤炭,”查尔姆斯理工大学物理资源理论系副教授杰西卡朱厄尔说。研究表明,72个国家淘汰煤电的承诺彼此相似,与过去煤电淘汰速度的历史数据一致。...PC版:https://www.cnbeta.com.tw/articles/soft/1364071.htm手机版:https://m.cnbeta.com.tw/view/1364071.htm

封面图片

研究表明 ChatGPT 提供的建议,比专家更全面、更有帮助

研究表明ChatGPT提供的建议,比专家更全面、更有帮助来自墨尔本大学和西澳大利亚大学的研究团队从十大热门建议栏网站上,随机挑选了50个社会困境问题。该科研团队邀请了404名志愿者,盲测展示由专栏作家和ChatGPT所提供的答案,要求其回答哪个答案更平衡、更全面、更善解人意、更有帮助。研究人员发现,ChatGPT在五个随机提出的问题中的每一个和所有查询类别中都“明显优于”人类顾问,支持人工智能的偏好率在70%到85%之间。尽管ChatGPT建议的质量很高,但77%的受访者依然表示,更喜欢人类专家给出的回答。来源,前文:频道:@kejiqu群组:@kejiquchat

封面图片

ChatGPT能通过CFA考试吗?摩根大通研究人员试图找寻答案

ChatGPT能通过CFA考试吗?摩根大通研究人员试图找寻答案研究人员在长达11页的报告中写道,“基于预估的通过率和平均自报分数,我们得出的结论是ChatGPT可能无法在所有测试环境下通过CFA一级和二级考试。如果有提示,GPT-4将有较大机会通过CFA一级和二级考试。”CFA协会负责教育的董事总经理ChrisWiese承认,大语言模型将有能力正确回答一些考试问题。他说该公司还在考虑使用一种大语言模型技术来帮助CFA考生。近年来CFA考试的通过率有下降趋势,8月份一级考试通胀率平均为37%,远低于2018年43%的平均水平。常见错误CFA一级考试有180道单选题,二级考试包括案例研究和88道选择题。研究人员发现,无论使用何种类型的提示,这两个大语言模型的二级考试结果都不理想。一级考试中,ChatGPT和GPT-4在衍生品、另类投资、股权投资和伦理道德这几个部分得分最高。这两款聊天机器人在财务报告分析和投资组合管理方面表现都相对较差。二级考试中,与GPT-4相比,ChatGPT在另类投资、固定收益工具这两个部分表现更差,ChatGPT在投资组合管理、经济学相关的领域得分高于GPT-4。ChatGPT的大多数错误是基于知识性,而GPT-4最常犯的是计算错误。研究人员发现GPT-4比ChatGPT更容易出现推理错误。...PC版:https://www.cnbeta.com.tw/articles/soft/1394003.htm手机版:https://m.cnbeta.com.tw/view/1394003.htm

封面图片

堪萨斯大学的研究人员称其ChatGPT协助论文检测技术的准确率达到99%

堪萨斯大学的研究人员称其ChatGPT协助论文检测技术的准确率达到99%已经有一些人尝试建立ChatGPT检测器,有几十家公司正在竞争建立人工智能检测技术。但到目前为止,没有一个方案能很好地发挥作用,即使是由开罚ChatGPT的公司OpenAI打造的方案。现有的工具效果很差,基本上没有用处。论文中描述的ChatGPT发现者只是为了在特定情况下工作而建立的,但其报告的成功似乎很有希望。在构建过程中,研究人员说他们已经发现了人工智能写作的蛛丝马迹。这篇经过同行评议并发表在《细胞报告-物理科学》上的论文,描述了一种能嗅出人工智能撰写的学术研究文章的技术。该研究选择了一组由人类作者撰写的64篇科学研究文章,涉及不同的学科--从生物学到物理学。他们将这些数据输入ChatGPT,并利用它产生了一个128篇人工智能文章的数据集,其中总共有1276段价值不菲的聊天机器人产生的语句。科学家们使用这些假的段落来建立他们的ChatGPT检测算法。然后他们把一个新的数据集放在一起,用30篇真正的文章和60篇ChatGPT写的文章来测试他们的算法,总共有1210段。研究人员称,他们的算法100%地检测到了由ChatGPT编写的整篇文章。在段落层面上,其准确性较低,但仍然令人印象深刻:该算法发现了92%的人工智能生成段落。研究人员希望其他人能够利用他们的工作,根据他们自己的利基和目的定制检测软件。该论文的作者、堪萨斯大学的化学教授HeatherDesaire在接受EurekAlert采访时说:"我们努力创造一种可获得的方法,以便在很少的指导下,甚至高中生也能为不同类型的写作建立一个人工智能检测器。有必要解决人工智能写作的问题,人们不需要计算机科学学位就能在这个领域做出贡献。"该论文说,ChatGPT的工作有一些明显的迹象。首先,人类作家写的段落更长,使用的词汇量更大,包括更多的标点符号,并倾向于用"然而"、"但是"和"虽然"等词来限定他们的陈述。ChatGPT在引用数字和提及其他科学家等方面也不太具体。对于希望惩罚作弊的高中老师来说,堪萨斯大学研究人员建立的模型并不能马上拿来用。该算法是为学术写作而建立的,特别是在科学杂志上看到的那种学术写作。这对导师和管理人员来说是个耻辱,他们在过去六个月里对ChatGPT促成的抄袭行为感到恐慌。然而,理论上可以使用同样的技术来建立一个检测其他类型写作的模型。当你考虑到一个事实,即作者可以很容易地对一段聊天机器人的写作进行一些小调整,使其更难被发现,整个方案的有效性就会崩溃。尽管如此,研究人员仍将这项工作描述为"概念证明",并表示他们可以通过更大的数据集开发出更强大、也许更准确的工具。尽管这些结果可能很有希望,但科技公司和人工智能推动者表示,像ChatGPT这样的工具还处于起步阶段。如果人工智能继续以我们在过去几年中看到的迅猛速度发展,像这样的检测方法是否会站得住脚,现在还无法说。大型语言模型越是接近于复制有血有肉的人类写作的杂音,就越难识别出机器人语言的痕迹。阅读文献:https://www.cell.com/cell-reports-physical-science/fulltext/S2666-3864(23)00200-X...PC版:https://www.cnbeta.com.tw/articles/soft/1364689.htm手机版:https://m.cnbeta.com.tw/view/1364689.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人