Insilico Medicine 在新论文中推出首款由人工智能生成和人工智能发现的药物

InsilicoMedicine在新论文中推出首款由人工智能生成和人工智能发现的药物InsilicoMedicine是一家总部位于香港和纽约的生物技术初创公司,已筹集超过4亿美元资金,利用下一代人工智能系统将生物学、化学和临床试验分析连接起来,该公司今天宣布了一篇新论文,重点介绍了其声称的发展历程。第一个由人工智能生成和发现的药物——现已进入二期临床试验。这篇发表在《自然生物技术》上的论文介绍了INS018_055的整个历程,INS018_055是一种候选药物,是使用Insilico的AI平台发现的,用于治疗特发性肺纤维化,这是一种相对罕见但具有侵袭性的肺部疾病。该论文公开了通过生成人工智能发现和设计的潜在首创TNIK抑制剂的原始实验数据以及临床前和临床评估。 线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

相关推荐

封面图片

首个完全由人工智能生成的药物进入人体临床试验

首个完全由人工智能生成的药物进入人体临床试验总部位于香港的生物科技初创公司InsilicoMedicine获得了超过4亿美元的资金,他们开发了这种用于治疗特发性肺纤维化的药物。InsilicoMedicine的创始人兼首席执行官AlexZhavoronkov告诉CNBC:“这是首个完全由生成式人工智能开发并进入人体临床试验的药物,具体而言是进行患者参与的II期试验。”该药物的发现过程始于2020年。消息来源:投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

Google和牛津大学新论文称人工智能的威胁比以前认为的要大

Google和牛津大学新论文称人工智能的威胁比以前认为的要大牛津大学和GoogleDeepmind的研究人员在一篇新论文中分享了一个令人心寒的警告。这篇论文上个月发表在《AI杂志》上,声称人工智能的威胁比以前认为的要大。事实上,它是如此之大,以至于人工智能很可能有一天会崛起并消灭人类。PC版:https://www.cnbeta.com/articles/soft/1316885.htm手机版:https://m.cnbeta.com/view/1316885.htm

封面图片

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。

研究发现:用人工智能生成的图像训练出的人工智能产生了糟糕的结果。斯坦福大学和莱斯大学的研究人员发现,生成式人工智能模型需要“新鲜的真实数据”,否则输出的质量就会下降。这对摄影师和其他创作者来说是个好消息,因为研究人员发现,训练数据集中的合成图像会放大人工痕迹,使人工智能画出的人类看起来越来越不像真人。研究小组将这种状况命名为“模型自噬障碍”。如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型注定会逐渐降低其质量或多样性。如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。——

封面图片

贝莱德将于下月向客户推出首个生成式人工智能工具

贝莱德将于下月向客户推出首个生成式人工智能工具据报道,贝莱德周三告诉员工,该公司计划在明年1月向客户推出生成式人工智能工具,这是该公司利用人工智能技术提高生产率的更大努力的一部分。该公司在给员工的备忘录中称,它已使用生成式人工智能为其Aladdin和eFront风险管理系统构建了一个“辅助工具”。客户将能够使用贝莱德的大型语言模型技术,帮助他们从Aladdin中提取信息。备忘录显示,贝莱德还在开发工具,帮助其投资专业人士为研究报告和投资提案收集财务和其他数据,同时它还在开发语言翻译工具。

封面图片

TikTok正在测试由人工智能生成的搜索结果

TikTok正在测试由人工智能生成的搜索结果TikTok正在测试更强大的搜索结果页面,包括使用生成式人工智能。该功能似乎是新功能,被称为“搜索亮点”。在一些搜索结果页面的顶部会显示人工智能结果的片段,点击进入该部分会打开一个新页面,显示完整的回答。在快速测试中,能够找到关于食谱或“2024年最佳笔记本电脑”等主题的人工智能结果。解释搜索结果的页面显示内容是使用ChatGPT生成的,并在TikTok“算法认为其与您的搜索相关时”显示这些内容。——

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃——这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人