更快、更安全的癌症治疗让人工智能改变药物研发过程

更快、更安全的癌症治疗让人工智能改变药物研发过程 利用人工智能改进药物发现和开发是制药科学中一个新的但却日益增长的趋势,而这项技术正是这一趋势的一部分。研究人员利用今天(5 月 6 日)发表在《自然-通讯》(Nature Communications)上的这一新工具合成了 32 种候选抗癌新药。图中的资深作者 Trey Ideker 是加州大学圣地亚哥分校医学、计算机科学和生物工程学教授。图片来源:Erik Jepsen/加州大学圣地亚哥分校"几年前,人工智能在制药行业还是一个肮脏的字眼,但现在的趋势绝对是相反的,生物技术初创公司发现,如果不在商业计划中涉及人工智能,就很难筹集到资金,"资深作者、加州大学圣地亚哥分校医学院医学系教授、加州大学圣地亚哥分校雅各布斯工程学院生物工程和计算机科学兼职教授特雷-伊德克(Trey Ideker)说。"人工智能引导的药物发现已经成为工业界一个非常活跃的领域,但与公司正在开发的方法不同,我们正在将我们的技术开源,让任何想使用它的人都能使用。"多靶点药物研发的优势这个名为 POLYGON 的新平台在用于药物发现的人工智能工具中是独一无二的,因为它可以识别具有多个靶点的分子,而现有的药物发现方案目前优先考虑的是单靶点疗法。多靶点药物之所以备受医生和科学家的关注,是因为它们有可能带来与联合疗法相同的疗效,即同时使用几种不同的药物来治疗癌症,但副作用较小。伊德克说:"寻找和开发一种新药需要花费多年时间和数百万美元,尤其是当我们谈论的是一种具有多个靶点的药物时。我们罕见的几种多靶点药物在很大程度上是偶然发现的,但这项新技术可以帮助消除偶然性,启动新一代精准医疗。"POLYGON 的工作原理研究人员在一个包含 100 多万个已知生物活性分子的数据库中对 POLYGON 进行了训练,该数据库包含这些分子的化学性质和与蛋白质靶点的已知相互作用的详细信息。通过学习数据库中发现的模式,POLYGON 能够为可能具有某些特性(如抑制特定蛋白质的能力)的候选新药生成原始化学配方。"就像人工智能现在非常擅长生成原创的图画和图片一样,比如根据所需的年龄或性别等属性生成人脸图片,POLYGON 能够根据所需的化学属性生成原创的分子化合物,"伊德克说。"在这种情况下,我们不是告诉人工智能我们希望自己的脸看起来有多老,而是告诉它我们希望未来的药物如何与疾病蛋白相互作用。"这项研究的共同作者凯瑟琳-利孔(Katherine Licon)是加州大学圣迭戈分校艾德克实验室的实验室经理,该实验室将计算技术和传统湿实验室技术相结合,以回答有关疾病生物学的基本问题,并发现加强精准医疗的新方法。图片来源:Erik Jepsen/加州大学圣地亚哥分校测试和结果为了对 POLYGON 进行测试,研究人员用它生成了数百种候选药物,这些药物以各种癌症相关蛋白对为靶标。在这些候选药物中,研究人员合成了 32 种分子,这些分子与 MEK1 和 mTOR 蛋白的相互作用最强。这两种蛋白被科学家称为合成致命蛋白,这意味着同时抑制这两种蛋白就足以杀死癌细胞,即使单独抑制其中一种也无法杀死癌细胞。研究人员发现,他们合成的药物对 MEK1 和 mTOR 有显著的活性,但与其他蛋白质的脱靶反应很少。这表明,POLYGON 鉴定出的一种或多种药物可以同时针对这两种蛋白质进行癌症治疗,为人类化学家提供了一份微调选择清单。伊德克说:"有了候选药物之后仍然需要做所有其他化学工作,才能将这些选择提炼成单一有效的治疗方法。我们不能也不应该试图从药物研发管道中消除人类的专业知识,但我们能做的是缩短流程中的几个步骤。"尽管如此,研究人员仍然乐观地认为,人工智能在药物发现方面的可能性才刚刚被探索出来。伊德克说:"在未来十年中,无论是在学术界还是在私营部门,看到这一概念如何发挥作用都将是非常令人兴奋的。可能性几乎是无穷无尽的。"编译来源:ScitechDaily ... PC版: 手机版:

相关推荐

封面图片

硅谷对加州人工智能安全法案不满

硅谷对加州人工智能安全法案不满 美国加利福尼亚州的人工智能重量级企业正在抗议一项州法案,该法案将迫使科技公司遵守严格的安全框架,包括创建一个“切断开关”来关闭其强大的人工智能模型。该法案于上月由加州参议院通过,并将于8月在众议院进行表决。该法案要求加州的人工智能团体向一个新成立的州机构保证,它们不会开发具有“危险能力”的模型,例如制造生物武器或核武器,或协助网络安全攻击。根据拟议中的《前沿人工智能系统安全创新法案》,开发人员必须报告其安全测试,并引入所谓的“切断开关”来关闭他们的模型。 ()

封面图片

欧盟和美国将宣布就人工智能安全、标准和研发开展联合工作

欧盟和美国将宣布就人工智能安全、标准和研发开展联合工作 TTC是几年前特朗普上台后成立的,目的是提供一个论坛,让欧盟和美国的立法机构成员可以会面,讨论跨大西洋在贸易和科技政策问题上的合作。周五的会议是该论坛自2021年开始运作以来的第六次会议,也是两地区大选前的最后一次会议。特朗普第二次担任总统可能会破坏欧盟与美国未来的合作,这种前景很可能会让议员们集中精力,最大限度地利用现在的机会开展联合工作。这位欧盟委员会高级官员说:"TTC 上肯定会有关于人工智能办公室和(美国)人工智能安全研究所的公告,"他指的是作为即将出台的《欧盟人工智能法案》的一部分而正在成立的欧盟监督机构,该法案是一个基于风险的人工智能应用程序综合监管框架,将于今年晚些时候开始在整个欧盟适用。该官员称,即将达成的协议的这一内容似乎将重点放在人工智能安全或监督方面,被设想为欧盟和美国各自人工智能监督机构之间的"合作或对话",旨在加强人工智能监管权力的实施。他们说,欧盟与美国有望达成的人工智能协议的第二个重点领域将是标准化。这将采取联合工作的形式,旨在通过建立"人工智能路线图"来制定能够支持发展的标准。欧盟与美国的伙伴关系还将包含第三项内容,即"人工智能公益"。根据欧盟委员会的说法,这涉及促进研究活动的联合工作,但重点是在发展中国家和全球南部实施人工智能技术。这位官员提出了一个共同的观点,即人工智能技术将能在医疗保健、农业和能源等领域为发展中地区带来"非常可量化"的好处。因此,这也将是跨大西洋合作在近期促进人工智能应用的一个重点领域。"AI"代表利益一致?正如欧盟所言,人工智能不再被美国视为一个贸易问题。"通过TTC,我们能够解释我们的政策,也能够向美国人表明,事实上,我们有着相同的目标,"这位欧盟委员会官员建议道。"通过《人工智能法》和[以人工智能安全和安保为重点的]行政命令这就是为了降低人工智能技术的风险,同时支持它们在我们的经济中得到应用。"本周早些时候,美国和英国签署了一项关于人工智能安全的合作协议。尽管欧盟与美国的合作似乎范围更广因为它不仅涵盖了共同的安全和标准化目标,还旨在通过联合支持"公益"研究,协调促进第三国对人工智能的吸收。欧盟委员会官员还预告了新兴技术的其他合作领域包括电子身份领域的标准化工作(几年来欧盟一直在该领域制定电子身份提案),他们表示周五也将宣布这一消息。他们说:"电子身份是一个非常有潜力的合作领域,"他们声称,美国对欧盟电子身份钱包将带来的"大量新商机"很感兴趣。这位官员还表示,欧盟和美国在如何处理平台权力问题上的意见越来越一致这是欧盟近年来有针对性地制定法律的另一个领域。这位官员说:"我们看到欧盟法律(如《DMA》,又称《数字市场法》)与美国最近发起的反托拉斯案件之间有很多共同之处,"他补充说:"我认为,在其中许多领域,毫无疑问存在着双赢的机会。"与此同时,美国商务部长吉娜-雷蒙多(Gina Raimondo)和英国技术国务大臣米歇尔-多纳兰(Michelle Donelan)周一在华盛顿签署的美英人工智能谅解备忘录指出,双方将致力于加快在一系列人工智能安全问题上的联合工作,包括国家安全领域以及更广泛的社会人工智能安全问题。英国科学、创新与技术部(DSIT)在一份新闻稿中表示,美英协议规定至少要对一个可公开访问的人工智能模型进行一次联合测试演练。它还建议两国各自的人工智能安全机构之间进行人员交流,以便在专业知识共享方面开展合作。根据美英协议,双方将就人工智能模型和系统的相关"能力和风险"以及"人工智能安全和保障的基础技术研究"进行更广泛的信息共享。DSIT的公关人员继续说:"这将为人工智能安全测试的共同方法奠定基础,让大西洋两岸乃至全世界的研究人员能够围绕共同的科学基础进行合作。"去年夏天,在举办全球人工智能峰会之前,英国政府表示已获得美国人工智能巨头 Anthropic、DeepMind 和 OpenAI 的承诺,将"提前或优先提供"其人工智能模型,以支持评估和安全方面的研究。英国政府还宣布了一项斥资 1 亿英镑成立人工智能安全工作组的计划,并表示该工作组将专注于所谓的基础或前沿人工智能模型。与此同时,在去年11 月的英国人工智能峰会上,紧随美国发布人工智能行政令之后,雷蒙多宣布成立美国人工智能安全研究所,隶属于美国国家标准与技术研究院。目前,美国和英国都还没有提出有关人工智能安全的全面立法,而欧盟在人工智能安全立法方面仍然走在前面。但更多的跨境联合工作看来是必然的。相关文章:欧盟和美国寻求吸引发展中国家加入关键原材料伙伴关系美国和欧盟将合作利用人工智能寻找用于制造芯片的替代化学品 ... PC版: 手机版:

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃 用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃 这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

【Cathie Wood:人工智能和区块链在未来5-10年内对世界的改变超过电脑、手机和互联网】

【Cathie Wood:人工智能和区块链在未来5-10年内对世界的改变超过电脑、手机和互联网】 ARK投资管理公司创始人Cathie Wood在社交媒体上称,祝贺南加州大学马歇尔分校 2023 届毕业生,表示人工智能和区块链等颠覆性技术在未来5-10年内对世界的改变,可能比个人电脑、手机和互联网在我的投资生涯中的42年还要大。大胆试试吧。

封面图片

《人工智能全球治理上海宣言》:高度重视人工智能的安全问题

《人工智能全球治理上海宣言》:高度重视人工智能的安全问题 2024 世界人工智能大会暨人工智能全球治理高级别会议发表《人工智能全球治理上海宣言》。其中提到,我们高度重视人工智能的安全问题,特别是数据安全与隐私保护,愿推动制定数据保护规则,加强各国数据与信息保护政策的互操作性,确保个人信息的保护与合法使用。我们愿加强人工智能相关的网络安全,增强系统与应用的安全性与可靠性,防止黑客攻击与恶意软件应用。在尊重运用国际国内法律框架前提下,共同打击操纵舆论、编造与传播虚假信息的行为。(新华社)

封面图片

美国和英国将合作测试人工智能安全威胁模型

美国和英国将合作测试人工智能安全威胁模型 两国人工智能安全研究所之间的协议立即生效。美国商务部长吉娜-雷蒙多(Gina Raimondo)表示,美国政府"致力于与其他国家发展类似的伙伴关系,在全球范围内促进人工智能安全"。雷蒙多在一份声明中说:"这种合作关系将加速我们两家机构在各种风险方面的工作,无论是对我们的国家安全还是对我们更广泛的社会面。"通过该协议,两国承诺在技术研究、人员交流和信息共享方面开展合作。美国和英国的一个潜在合作伙伴是欧盟,欧盟通过了自己的人工智能系统使用全面法规。欧盟的人工智能法要求运行强大的人工智能模型的公司遵守安全标准。英国的人工智能安全研究所是在 11 月的全球人工智能峰会前夕成立的,包括美国副总统卡马拉-哈里斯在内的多位世界领导人在峰会上讨论了如何利用并在可能的情况下对该技术进行跨境监管。英国已经开始对一些模型进行安全测试,但目前还不清楚它是否能获得最近发布的版本。一些人工智能公司敦促英国人工智能安全研究所进一步明确时间表,以及在发现模型存在风险时的下一步措施。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人