在24项场景中优于人类医生,Google团队开发基于自博弈的诊断对话大模型 #抽屉IT

None

相关推荐

封面图片

Google的Med-Gemini医疗人工智能模型被证明表现不输人类医生

Google的Med-Gemini医疗人工智能模型被证明表现不输人类医生 医生每天要治疗众多病人,他们的需求从简单到非常复杂。为了提供有效的医疗服务,他们必须熟悉每位患者的健康记录,了解最新的治疗程序和治疗方法。此外,建立在同理心、信任和沟通基础上的医患关系也至关重要。要想让人工智能接近真实世界中的医生,它必须能够做到所有这些。Google的Gemini模型是新一代多模态人工智能模型,这意味着它们可以处理来自不同模态的信息,包括文本、图像、视频和音频。这些模型擅长语言和对话,理解它们所训练的各种信息,以及所谓的"长语境推理",即从大量数据(如数小时的视频或数十小时的音频)中进行推理。Gemini医学模型具有Gemini基础模型的所有优点,但对其进行了微调。研究人员测试了这些以药物为重点的调整,并将结果写入了论文中。这篇论文长达 58 页,内容丰富,我们选取了其中最令人印象深刻的部分。自我培训和网络搜索功能要做出诊断并制定治疗方案,医生需要将自己的医学知识与大量其他相关信息结合起来:病人的症状、病史、手术史和社会史、化验结果和其他检查结果,以及病人对先前治疗的反应。治疗方法是"流动的盛宴",现有的治疗方法会不断更新,新的治疗方法也会不断推出。所有这些都会影响医生的临床推理。因此,Google在 Med-Gemini 中加入了网络搜索功能,以实现更高级的临床推理。与许多以医学为重点的大型语言模型(LLM)一样,Med-Gemini 也是在 MedQA 上进行训练的,MedQA 是美国医学执照考试(USMLE)的多选题,旨在测试不同场景下的医学知识和推理能力。Med-Gemini 如何使用自我培训和网络搜索工具不过,Google也为他们的模型开发了两个新的数据集。第一个是 MedQA-R(推理),它通过合成生成的推理解释(称为"思维链",CoTs)对 MedQA 进行了扩展。第二种是 MedQA-RS(推理和搜索),它为模型提供使用网络搜索结果作为额外上下文的指令,以提高答案的准确性。如果一个医学问题的答案不确定,就会提示模型进行网络搜索,以获取更多信息来解决不确定问题。Med-Gemini 在 14 个医学基准上进行了测试,并在 10 个基准上建立了新的最先进(SoTA)性能,在可以进行比较的每个基准上都超过了 GPT-4 模型系列。在 MedQA(USMLE)基准测试中,Med-Gemini 利用其不确定性指导搜索策略达到了 91.1% 的准确率,比Google之前的医学 LLMMed-PaLM 2 高出 4.5%。在包括《新英格兰医学杂志》(NEJM)图像挑战(具有挑战性的临床病例图像,从 10 个病例中做出诊断)在内的 7 项多模态基准测试中,Med-Gemini 的表现优于 GPT-4,平均相对优势为 44.5%。研究人员说:"虽然结果......很有希望,但还需要进一步开展大量研究。例如,我们还没有考虑将搜索结果限制在更具权威性的医学来源上,也没有考虑使用多模态搜索检索或对搜索结果的准确性和相关性以及引文的质量进行分析。此外,是否还能教会较小规模的法律硕士使用网络搜索还有待观察。我们将这些探索留待今后的工作中进行。"从冗长的电子病历中检索特定信息电子病历(EHR)可能很长,但医生需要了解其中包含的内容。更复杂的是,它们通常包含相似的文本("糖尿病"与"糖尿病肾病")、拼写错误、缩略词("Rx"与"prescription")和同义词("脑血管意外"与"中风"),这些都会给人工智能带来挑战。为了测试Med-Gemini理解和推理长语境医疗信息的能力,研究人员使用一个大型公开数据库重症监护医疗信息市场(MIMIC-III)执行了一项所谓的"大海捞针任务",该数据库包含重症监护患者的去标识化健康数据。该模型的目标是在电子病历("大海")中的大量临床记录中检索到与罕见而微妙的医疗状况、症状或程序("针")相关的内容。共收集了 200 个案例,每个案例都由 44 名病史较长的重症监护室患者的去标识化电子病历记录组成。他们必须具备以下条件:100 多份医学笔记,每个例子的长度从 20 万字到 70 万字不等在每个例子中,条件只被提及一次每个样本都有一个感兴趣的条件这项大海捞针的任务分为两个步骤。首先,Med-Gemini 必须从大量记录中检索所有与指定医疗问题相关的内容。其次,该模型必须评估所有提及内容的相关性,对其进行分类,并得出结论:患者是否有该问题的病史,同时为其决定提供清晰的推理。Med-Gemini 的长语境能力示例与 SoTA 方法相比,Med-Gemini 在"大海捞针"任务中表现出色。它的精确度为 0.77,而 SoTA 方法为 0.85,召回率也超过了 SoTA 方法:0.76 对 0.73。研究人员说:"也许 Med-Gemini 最引人注目的方面是长语境处理能力,因为它们为医疗人工智能系统开辟了新的性能前沿和新颖的、以前不可行的应用可能性。这项'大海捞针'式的检索任务反映了临床医生在现实世界中面临的挑战,Med-Gemini-M 1.5 的性能表明,它有潜力通过从海量患者数据中高效提取和分析信息,显著降低认知负荷,增强临床医生的能力。"有关这些关键研究点的浅显易懂的讨论,以及Google和微软之间争论的最新情况,请观看《AI Explained》从 13:38 开始的视频。新的 OpenAI 模型即将诞生,人工智能的赌注又提高了(还有 Med Gemini、GPT 2 聊天机器人和 Scale AI)与 Med-Gemini 对话在一次实际应用测试中,Med-Gemini 收到了一位患者用户关于皮肤肿块瘙痒的询问。在要求提供图像后,模型提出了适当的后续问题,并正确诊断出了这种罕见的病变,同时建议用户下一步该怎么做。Med-Gemini 诊断对话在皮肤科的应用实例Med-Gemini 还被要求在医生等待放射科医生的正式报告期间,为其解读胸部 X 光片,并编写一份通俗易懂的英文版报告提供给病人。Med-Gemini 的放射诊断对话辅助系统研究人员说:"Med-Gemini-M 1.5 的多模态对话功能很有前景,因为它们无需进行任何特定的医疗对话微调即可实现。这些功能可以实现人、临床医生和人工智能系统之间无缝、自然的互动。"不过,研究人员认为还需要进一步的工作。他们说:"这种能力在帮助临床医生和患者等现实世界应用方面具有巨大潜力,但当然也会带来非常大的风险。在强调这一领域未来研究潜力的同时,我们并没有在这项工作中对临床对话的能力进行严格的基准测试,正如其他人之前在对话诊断人工智能的专门研究中所探索的那样。"未来愿景研究人员承认,要做的工作还有很多,但 Med-Gemini 模型的初步能力无疑是很有希望的。重要的是,他们计划在整个模型开发过程中纳入负责任的人工智能原则,包括隐私和公平。隐私方面的考虑尤其需要植根于现有的医疗保健政策和法规,以管理和保护患者信息。公平性是另一个可能需要关注的领域,因为医疗保健领域的人工智能系统有可能无意中反映或放大历史偏见和不公平,从而可能导致边缘化群体的不同模型性能和有害结果。但归根结底,Med-Gemini 被视为一种造福人类的工具。大型多模态语言模型为健康和医学带来了一个全新的时代。Gemini"和"医学Gemini"所展示的能力表明,在加速生物医学发现、协助医疗保健服务和体验的深度和广度方面,都有了重大飞跃。然而,在提高模型能力的同时,必须对这些系统的可靠性和安全性给予细致的关注。通过优先考虑这两个方面,我们可以负责任地展望未来,让人工智能系统的能力成为科学进步和医疗保健有意义且安全的加速器。该研究可通过预印本网站arXiv 获取。 ... PC版: 手机版:

封面图片

Google的秘密AI模型未来很可能在难题数学领域打败人类

Google的秘密AI模型未来很可能在难题数学领域打败人类 上周,双子座人工智能模型的最新技术报告公布了其最新数学成绩的详细信息。这份相当厚重的文件显示,Google打算模仿数学家接受的训练来解决复杂的问题,为了实现这一目标,该公司对其双子座人工智能模型进行了专门的变体训练。Gemini 1.5 Pro 的数学变体似乎经过了多项基准测试。根据其文件,Google依靠各种基准来评估其最新人工智能数学模型的输出。这些基准包括 MATH 基准、美国数学邀请考试 (American Invitational Mathematics Examination, AIME) 和Google内部的 HiddenMath 基准。根据Google的数据,数学型 Gemini 1.5 Pro 在数学基准测试中的表现"与人类专家的表现相当",与标准的非数学型 Gemini 1.5 Pro 相比,数学型 Gemini 1.5 Pro 在 AIME 基准测试中解决的问题明显增多,在其他基准测试中的得分也有所提高。Google还举例说明了 Gemini 1.5 Pro 所解决的问题。根据该文件,这些问题是"Gemini 1.5 Pro、GPT-4 Turbo 和以前所有 Gemini 型号都 没有正确解决的问题",最终提高了Google产品的性能标准。在它分享的三个示例中,两个是由数学专用的 Gemini 1.5 Pro 解决的,而一个是由标准的 Gemini 1.5 Pro 变体错误解决的。这些问题通常要求解题者回忆代数中的基本数学公式,并依靠它们的分段和其他数学规则得出正确答案。除了问题之外,Google还分享了 Gemini 1.5 Pro 基准测试的重要细节。这些数据表明,在所有五项基准测试成绩中,Gemini 1.5 Pro 都领先于 GPT-4 Turbo 和亚马逊的 Claude。据Google公司称,其数学专用变体能够"从单个样本中获得 80.6% 的 MATH 基准准确率,在对 256 个解决方案进行采样并选择一个候选答案时(rm@256),准确率达到91.1%",这一成就使其与人类专家处于同等水平。事实上,根据Google深度思维首席科学家杰夫-迪恩(Jeff Dean)的说法,数学模型91.1%的得分大大高于三年前仅为6.9%的"SOTA"(最先进水平)得分。 ... PC版: 手机版:

封面图片

#谷歌 医学大模型 Med- #Gemini 在基准测试中超越人类 #医生

封面图片

AMIE是一个基于大语言模型(LLM)的研究型AI系统,用于医学诊断推理和对话。它通过真实世界的数据集进行训练,包括医学推理、医

AMIE是一个基于大语言模型(LLM)的研究型AI系统,用于医学诊断推理和对话。它通过真实世界的数据集进行训练,包括医学推理、医学总结和真实世界的临床对话。 AMIE使用了一种新的自弈仿真对话学习环境,可以在大量的疾病条件、专科和患者环境下提高诊断对话的质量。 研究人员设计了一项随机双盲交叉研究,使用经验证的患者角色扮演者通过在线多轮同步文本聊天与执业医生或AMIE系统进行虚拟远程客观结构化临床考试(OSCE)。 在149个不同科室的病例中,与20名初级保健医生相比,AMIE在诊断准确性和咨询质量的多个方面表现更好,从专科医生和患者角色的视角看是这样。 AMIE作为辅助工具可显著提高临床医生解决复杂病例的诊断准确率,但AMIE有一定局限性,这项研究应谨慎解释,不能代表日常临床实践。需要更多研究来实现安全可靠的AI系统。 临床专业知识仍然短缺,AMIE是探索AI系统与熟练临床医生相当属性的未来愿景的尝试,但还需要大量科学研究。

封面图片

【谷歌加紧测试ChatGPT竞品】Apprentice Bard基于谷歌对话模型LaMDA,面向各种对话,将给出尽可能让人满意的

【谷歌加紧测试ChatGPT竞品】Apprentice Bard基于谷歌对话模型LaMDA,面向各种对话,将给出尽可能让人满意的合理回答。即便近期刚发生的事,它也能回答出来,而此种能力,训练数据集基于2021年底的ChatGPT并不具备。 #抽屉IT

封面图片

《豪斯医生S05》亮点:豪斯医生与团队矛盾升级,诊断谜题更复杂,情感与理智的碰撞令人深思。

《豪斯医生S05》 亮点:豪斯医生与团队矛盾升级,诊断谜题更复杂,情感与理智的碰撞令人深思。 标签:#医疗剧 #豪斯医生 #FOX 更新日期:2025-06-18 15:34:30 链接:https://pan.quark.cn/s/679f792e2a6f

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人