ℹFinal2x 免费开源图片解析度无损放大软体,效果超赞、支援 CPU 和 GPU、多种模型#

ℹFinal2x 免费开源图片解析度无损放大软体,效果超赞、支援 CPU 和 GPU、多种模型# 随著 AI 越来越强大,修图功能真的越来越猛,过去提升、放大图片的解析度时,都一定会噪点,现在完全不会,最近就发现到这款相当强大的免费开源...

相关推荐

封面图片

ℹBigjpg 人工智能图片放大免费线上工具,最高 16x,卡通图片、照片都支援#Rocky

ℹBigjpg 人工智能图片放大免费线上工具,最高 16x,卡通图片、照片都支援#Rocky 有时候我们都会拿到解析度很小的图片、照片,如果直接透过 Photoshop 之类的软体改尺寸,那品质非常糟糕,完全没办法用,而这篇要介绍的...

封面图片

最强开源大模型亮相:开发2个月 花费约1000万美元

最强开源大模型亮相:开发2个月 花费约1000万美元 虽然DBRX在某些原始功能上还无法与OpenAI的GPT-4相比,但Databricks高管表示,DBRX无疑是一个功能远超GPT-3.5的替代产品,并且成本只是GPT-3.5的一小部分。Databricks的首席执行官阿里·戈德西(Ali Ghodsi)在新闻发布会上表示:“我们非常高兴能向全世界展示DBRX,并带动整个行业向更强大、更高效的开源人工智能方向前进。虽然GPT-4这类基础模型无疑是极其优秀的通用工具,但Databricks专注于为客户量身打造模型,这些模型能深入解析他们的专有数据。DBRX的发布正体现了我们实现该目标的决心。”创新的“专家混合”架构Databricks的研究团队揭示了DBRX模型的关键创新之处“专家混合”架构。这一架构使DBRX与其他竞争模型显著不同,后者往往利用所有参数生成每个单词。相较而言,DBRX巧妙地整合了16个专家子模型,并在实时处理中为每个token准确挑选最相关的四个子模型。这种设计的巧妙之处在于,它使DBRX在任何时刻只需激活360亿个参数,因而实现了更高的性能输出。这不仅显著提高了模型的处理速度,还大幅降低了运行成本,使其更为高效和经济。这一创新策略是基于Mosaic团队在早期Mega-MoE项目上的进一步研究而开发的。Mosaic团队是去年被Databricks收购的一个研究部门。戈德西高度评价了Mosaic团队的贡献,他表示:“多年来,Mosaic团队在更高效训练基础人工智能模型方面取得了显著进步。正是他们的努力让我们能够迅速开发出如DBRX这般卓越的人工智能模型。实际上,开发DBRX只用了约两个月时间,成本大概在1000万美元左右。”推进Databricks的企业AI战略通过将DBRX开源,Databricks的目标不仅是在前沿人工智能研究领域确立其领导者地位,而且还希望促进其创新架构在整个行业中的更广泛采用。此外,DBRX也致力于支持Databricks的核心业务为客户定制和托管基于其专有数据集的人工智能模型。在如今的市场环境中,很多Databricks的客户都依赖于OpenAI及其他供应商提供的GPT-3.5等模型来支撑其业务运作。然而,将敏感的企业数据托管给第三方,常常会激起关于安全性和合规性的一系列担忧。针对这一点,戈德西表示:“我们的客户相信,Databricks能够妥善处理跨国界数据监管的问题。他们已在Databricks平台上存储并管理了庞大数据量。现在,有了DBRX以及Mosaic的定制模型功能,客户们能够在保障数据安全的同时,充分利用先进人工智能技术带来的诸多益处。”在日益激烈的竞争中占据一席之地随着DBRX的推出,Databricks在核心数据和人工智能平台业务领域面临着激烈的竞争。竞争对手诸如数据仓库巨头Snowflake已通过推出自有的人工智能服务Cortex,复制了Databricks的部分功能。同时,亚马逊、微软和谷歌等领先的云计算服务供应商也正纷纷在其技术堆栈中集成生成式人工智能功能。Databricks借助其开创性的开源项目DBRX,自诩具备最前沿的人工智能研究能力,旨在确立自身作为该领域领导者的地位,并吸引顶尖的数据科学人才。这一策略也反映了人们对大型科技公司将人工智能模型商业化的越来越多的抵制,许多人批评这些商业模型像“黑盒子”,缺乏透明度和可解释性。DBRX面临的真正挑战在于市场的接受程度以及它为Databricks客户所创造的具体价值。在企业越来越多寻求利用人工智能推动业务增长和创新的同时,还要保持对自有数据的控制,Databricks赌注于其尖端研究与企业级平台的完美融合能够让它在竞争中脱颖而出。Databricks已经向大型科技公司及开源社区的竞争对手抛出了挑战,要求他们在创新上与其一较高下。人工智能领域的竞争日趋激烈,而Databricks已明确宣布其志在成为这场竞争的关键力量。 ... PC版: 手机版:

封面图片

马斯克、OpenAI决裂背后,大模型应该开源还是闭源?

马斯克、OpenAI决裂背后,大模型应该开源还是闭源? 此次纠纷的焦点之一是马斯克对OpenAI的开源要求。而这背后所折射出的也是AI浪潮下科学界的长期争论话题到底应该开源还是闭源?纽约大学坦登工程学院计算机科学与工程系副教授Julian Togelius在接受《每日经济新闻》记者采访时表示,开源是大势所趋。“开源对于防止权力集中很重要。到目前为止,每个大型模型都在某种程度上是‘可越狱的’。”马萨诸塞大学洛厄尔分校计算机科学教授Jie Wang则对每经记者表示,“未来各主要参与者都会将其大模型的某些部分开源,但绝对不是最重要的部分,例如用于训练其大语言模型和预训练模型权重的完整数据集。这或多或少类似于Meta开源LLaMA的方式。”AI巨头的决裂2月29日,马斯克在旧金山法院对OpenAI及公司CEO阿尔特曼和总裁布罗克曼提起诉讼,震惊全球科技圈。在马斯克的起诉书中,他斥责OpenAI违背“初心”,要求OpenAI恢复开源并给予赔偿。3月5日,OpenAI曝光了马斯克与他们的大量往来邮件,称马斯克提议 OpenAI 与特斯拉合并或由他完全控制,但双方未能就盈利性实体的条款达成一致。3月6日,马斯克在Twitter上回复,“如何OpenAI改名为ClosedAI,我就撤销诉讼。”图片来源:每经制图9年前,正是在AI上志同道合,马斯克和阿尔特曼等人携手创办了非营利性AI研究实验室“OpenAI”来对抗以Google为代表的科技巨头。而如今,马斯克与阿尔特曼及其所在的OpenAI彻底决裂,双方旧日坚持的“初心”成为矛盾焦点。在OpenAI的官网主页上写着,“我们的使命是确保通用人工智能(AGI)造福全人类。”最初,OpenAI的确作为一个非营利组织坚持着这样的路线。而自GPT-2后,OpenAI采取了闭源策略,公司出售大模型API访问权限,但不再发布有关其训练数据和模型架构的详细信息。2019年,阿尔特曼还组建了一个由OpenAI非营利组织管理的营利性实体,以便从微软等外部投资者那里筹集资金。对此,OpenAI在5日发文时曾解释,这是因为“开发 AGI 所需的资源远超过最初预期”。随着OpenAI核心技术不再开源,且与微软的关系越来越密切时,马斯克的不满可想而知。马斯克在起诉书中批评称:“OpenAI已经变成了全球最大技术公司微软事实上的闭源子公司。在其新董事会的领导下,OpenAI不仅在开发,而且实际上正在完善一种AGI,以最大化微软的利润,而不是造福人类。”背后是开源闭源路线之争在双方的争端中,一个值得关注的点是,马斯克要求OpenAI恢复开源。这折射出的也是AI浪潮下的一个争议性话题到底应该开源还是闭源?在开源闭源之争上,马斯克坚定地选择了前者。《每日经济新闻》记者注意到,马斯克旗下特斯拉的核心技术就已经在全球范围内开源。根据新加坡咨询公司GreyB的统计,截至2023年末,全球范围内特斯拉共拥有专利3304项(不包含审批中专利),其中有2397项仍然有效。据媒体统计,刨除重复的情况,特斯拉共有222项开放专利。从技术类别上看,特斯拉开放的专利属于比较核心的专利。图片来源:GreyB网站马斯克旗下另一家公司SpaceX也曾公开猛禽发动机图纸。在去年12月接受外媒采访时,马斯克曾透露,“SpaceX不使用(独占)专利,完全开放。”而将视角放大到整个科技界,开源还是闭源也是一直争论不休的话题。2023年10月31日,“开源派”曾签署了一份呼吁AI研发更加开放的联名信,截至发稿,1821名专家都签下了名字。图片来源:mozilla官网“开源对于防止权力集中很重要,我们不希望未来只有少数财力雄厚的科技公司才能控制前沿模型。” 纽约大学坦登工程学院计算机科学与工程系副教授Julian Togelius在接受《每日经济新闻》记者采访时表示。“到目前为止,每个大型模型都在某种程度上是‘可越狱的’。(开源让)我们了解其弱点,才能知道如何更好地部署模型。”(注:“越狱”指的是通过提示注入技术修改模型的行为。)马萨诸塞大学洛厄尔分校计算机科学教授Jie Wang也对每经记者称,“开源代码可以提高透明度并有助于推进技术,世界各地的相关方可以帮助识别开发团队未能发现的代码中的潜在陷阱,并提供更正。这有助于降低代码可能执行有害操作的风险。”不过,他也指出,开源并不是解决所有安全问题的灵丹妙药。而反对开源的一派认为,开源AI会被不良行为者操纵。去年10月20日,来自麻省理工学院和剑桥大学的科学家们发表了一篇论文,他们通过实验研究了持续模型权重的扩散是否会帮助恶意者利用更强大的未来模型来造成大规模伤害,结果发现,开源大模型的确可能存在风险。Jie Wang对记者表示,“不同的态度取决于不同的身份。学术研究人员希望AI技术是开源的,以便可以评估和修改代码。另一方面,企业家可能为了保护投资和业务,而不愿意开放源代码。”科技巨头与AI新贵在开源或闭源的问题上也采取了不同的路线。前者最近在互联网上免费提供了其生成式AI的代码,例如,目前开源大模型被Meta的Llama主导,许多开源模型都是基于Llama而开发;后者如OpenAI和Anthropic则出售专有AI模型的API访问权限,但不共享代码。OpenAI和Anthropic高管认为,政府应该监管最强大的AI模型,这样坏人就不能轻易利用它们。今年1月,Anthropic 公司研究人员还发表论文警告称,AI中毒可能导致开源大模型变成潜伏的间谍。图片来源:arxiv.org但在去年9月的美国参议院人工智能洞察论坛上,Meta首席执行官马克·扎克伯格等人却认为,开源模式对美国保持竞争力至关重要,科技行业可以解决对开源模式安全的担忧。若实现AGI,是否需要开源?“开源是大势所趋,我认为Meta正在引领这一趋势,其次是Mistral AI、HuggingFace等规模较小的公司。” Julian Togelius告诉《每日经济新闻》记者。尽管Mistral AI最初推出了开源模型,随着规模的扩大,其作风似乎越来越像OpenAI靠近,采取了闭源路线。对此,Togelius表示,“他们需要以某种方式赚钱,但目前还不清楚如何在这个领域最好地赚钱,但Mistral AI比 OpenAI 几乎不开源的情况要好得多。”而大型科技巨头Google近日的动作似乎也是对Togelius言论的验证。今年2月,Google罕见地改变了去年坚持的大模型闭源策略,推出了“开源”大模型Gemma。有报道认为,Gemma代表Google大模型策略的转变兼顾开源和闭源,开源主打性能最强大的小规模模型,希望战胜Meta和Mistral AI;闭源则主打规模大的效果最好的大模型,希望尽快追上OpenAI。去年5月,一份Google的内部文件曾在网上激起千层浪。文件认为,开源大模型迅猛发展,正在侵蚀OpenAI和Google的阵地。除非改变闭源的立场,否则开源替代品将最终使这两家公司黯然失色。“虽然我们的模型在质量方面仍略占优势,但(闭源和开源模型)的差距正在以惊人的速度缩小。”文件写道。“这(指的是Google的新举措)对研究和开发人员来说的确是个好消息。”Jie Wang对每经记者说道。“不过我怀疑Google是否会将一切开源。我认为未来各个主要参与者都会将其大模型的某些部分开源,以便研究人员和开发人员了解模型的架构和训练过程,但从业务角度来看绝对不是最重要的部分,例如用于训练其 LLM 和预训练模型权重的完整数据集。这或多或少类似于Meta开源LLaMA的方式。”而在对OpenAI的起诉书中,马斯克还提到了对AGI(通用人工智能)的担忧。当被问及若达到AGI,是否需要开源时,Julian Togelius表示,“我不认为AGI是一个定义特别明确或有用的概念。如果你 5 年前向某人展示 Claude 3 或... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人