Mistral发布首个代码生成人工智能模型Codestral 但不可用于商业活动

Mistral发布首个代码生成人工智能模型Codestral但不可用于商业活动Mistral在一篇博文中解释说,它接受过80多种编程语言的训练,包括Python、Java、C++和JavaScript。Codestral可以完成编码功能、编写测试和"填充"部分代码,还能用英语回答有关代码库的问题。Mistral将这种模式描述为"开放",但这还有待商榷,因为这家初创公司的许可证禁止将Codestral及其产出用于任何商业活动。虽然有"开发"的例外,但即使是"开发"也有注意事项:许可证明确禁止"员工在公司业务活动中的任何内部使用",究其原因可能是Codestral部分训练内容受版权保护。Mistral在博文中没有证实或否认这一点,但这并不奇怪;有证据表明,这家初创公司以前的训练数据集包含版权数据。无论如何,Codestral可能不值得这么麻烦。该模型有220亿个参数,需要一台强大的电脑才能运行。(参数基本上决定了人工智能模型处理问题的能力,比如分析和生成文本)。虽然根据一些基准测试(我们都知道,这些基准测试并不可靠),该模型击败了竞争对手,但这并不能说明它有多厉害。虽然Codestral对大多数开发人员来说并不实用,而且在性能提升方面也是渐进式的,但它肯定会引发关于依赖代码生成模型作为编程助手是否明智的争论。至少在某些编码任务中,开发人员肯定会使用生成式人工智能工具。在2023年6月的StackOverflow民意调查中,44%的开发人员表示,他们现在在开发过程中使用人工智能工具,26%的开发人员计划不久后使用。然而,这些工具有明显的缺陷。GitClear对过去几年中提交到项目仓库的超过1.5亿行代码进行了分析,发现生成式人工智能开发工具正在导致更多错误代码被推送到代码库中。普渡大学的一项研究显示,OpenAI的ChatGPT对编程问题给出的答案有一半以上是错误的。但这并不能阻止Mistral等公司试图将其模式货币化(并获得心智份额)。今天上午,Mistral在其LeChat对话式人工智能平台上推出了托管版Codestral以及付费API。Mistral表示,它还致力于将Codestral纳入LlamaIndex、LangChain、Continue.dev和Tabnine等应用框架和开发环境。...PC版:https://www.cnbeta.com.tw/articles/soft/1432835.htm手机版:https://m.cnbeta.com.tw/view/1432835.htm

相关推荐

封面图片

黑客展示“没有道德”的人工智能 自动生成恶意代码与钓鱼邮件

黑客展示“没有道德”的人工智能自动生成恶意代码与钓鱼邮件根据安全分析公司SlashNext提供的信息,有黑客利用一个名为GPT-J的开源AI模型,开发出了一款名叫“WormGPT”的生成式人工智能。经过SlashNext的测试,WormGPT能够自由生成有Python语言编写的恶意代码,并能够生成极具误导型的钓鱼邮件。而这样的表现,还仅仅是基于GPT-J这样一个诞生于2021年的,架构较老,表现也并不出色的开源模型实现的。可以想象,如果各大厂商的人工智能没有“道德”限制,将会带来怎样严重的影响。因此,SlashNext认为,随着AI技术的普及,此类“完全为网络攻击而生”的AI工具恐将受到黑客所滥用,为用户安全带来重大威胁。WormGPT...PC版:https://www.cnbeta.com.tw/articles/soft/1371405.htm手机版:https://m.cnbeta.com.tw/view/1371405.htm

封面图片

美国参议院推动人工智能安全法案 旨在防止AI模型出现安全漏洞

美国参议院推动人工智能安全法案旨在防止AI模型出现安全漏洞该中心将领导研究法案中所说的"反人工智能",即学习如何操纵人工智能系统的技术。该中心还将制定预防反人工智能措施的指南。该法案还将要求国家标准与技术研究院(NIST)和网络安全与基础设施安全局建立一个人工智能漏洞数据库,包括"近乎得手的漏洞"。华纳和蒂利斯提出的法案重点关注对抗人工智能的技术,并将其分为数据中毒、规避攻击、基于隐私的攻击和滥用攻击。数据中毒指的是在人工智能模型刮取的数据中插入代码,破坏模型输出的方法。它是防止人工智能图像生成器在互联网上复制艺术作品的一种流行方法。规避攻击会改变人工智能模型所研究的数据,以至于模型变得混乱。人工智能安全是拜登政府人工智能行政命令的关键项目之一,该命令指示美国国家标准与技术研究院(NIST)制定"红队"指导方针,并要求人工智能开发人员提交安全报告。所谓"红队"(redteaming),是指开发人员故意让人工智能模型对不应该出现的提示做出反应。理想情况下,人工智能模型的开发者会对平台进行安全测试,并在向公众发布之前对其进行广泛的红队测试。一些公司如微软已经创建了一些工具,帮助人工智能项目更容易地添加安全防护措施。《人工智能安全法案》在提交给更大范围的参议院审议之前,必须经过一个委员会的审议。...PC版:https://www.cnbeta.com.tw/articles/soft/1429345.htm手机版:https://m.cnbeta.com.tw/view/1429345.htm

封面图片

Mistral Large 大语言模型发布

MistralLarge大语言模型发布MistralLarge是Mistral新的尖端文本生成模型。它达到了顶级的推理能力,可用于复杂的多语言推理任务,包括文本理解、转换和代码生成。MistralLarge在常用基准测试中取得了优异的成绩,使其成为世界上排名第二的可通过API普遍使用的模型(仅次于GPT-4)。该模型也可以通过Azure直接调用。MistralLarge具有以下特点-支持英语、法语、西班牙语、德语和意大利语。-32K标记上下文窗口。-精确的指令遵循使开发人员能够设计他们的审核策略。-原生支持函数调用。Mistral还发布了一个新的优化模型MistralSmall,针对延迟和成本进行了优化,其性能优于Mixtral8x7B,并且延迟较低,这使其成为开源型号和旗舰型号之间的中间解决方案。——

封面图片

Apple 将限制生成式人工智能应用程序

Apple将限制生成式人工智能应用程序苹果将限制应用商店中使用生成式人工智能(AI)的应用。这意味着开发人员在发布使用生成式AI技术的应用之前需要获得苹果的批准。生成式AI是能够自主创建新内容的AI系统,例如图像、音乐或文本。苹果限制生成式AI的原因是为了保护用户免受潜在有害内容的影响,并保持对其平台上可用内容的控制。正在开发生成式AI应用程序的开发人员需要向苹果提交其应用程序进行审查和批准。尚未发布批准的指南,但预计它们将重点关注确保这些应用程序生成的内容适合且安全可用于用户。这些限制最终是为了保护用户并确保应用商店对所有用户都是一个安全可靠的平台。投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

高通推出AI中心 允许开发人员在其应用程序中无缝实施模型

高通推出AI中心允许开发人员在其应用程序中无缝实施模型高通公司声称,人工智能中心基本上是应用程序开发人员的一个中心位置,在这里他们可以访问由该公司量化和验证的设备上人工智能模型。在撰写本文时,该中心支持超过75种人工智能模型。如果您是希望在应用程序中实施人工智能或生成式人工智能的开发人员,现在就可以访问aihub.qualcomm.com,选择您要实施的人工智能模型,然后选择目标平台,还可以进一步选择特定的设备,这使得AIHub成为帮助开发人员成功、无缝地将人工智能应用到其应用程序中的同类产品之一。完成上述步骤后,QualcommAIHub将引导您找到正确的模型。该公司提到,开发人员只需几行代码就能将优化模型集成到他们的工作流程中。这些模型将涵盖图像分割、图像生成、图像分类、物体检测、超分辨率、文本生成、弱光增强和自然语言理解。至于AIHub是否能在非骁龙芯片上运行,似乎也是可以的。不过,非骁龙芯片组将无法充分利用专用AI芯片的优势,这最终意味着开发人员必须付出更多努力,才能在非骁龙芯片组的设备上实现这一功能。...PC版:https://www.cnbeta.com.tw/articles/soft/1420919.htm手机版:https://m.cnbeta.com.tw/view/1420919.htm

封面图片

英伟达的新工具可让用户在电脑上离线运行生成式人工智能模型

英伟达的新工具可让用户在电脑上离线运行生成式人工智能模型英伟达发布了一款新工具“ChatwithRTX”,要求8GB显存的GeForce™RTX30或40系列GPU,该工具可以让用户在WindowsPC上离线运行人工智能驱动的聊天机器人。ChatwithRTX默认使用人工智能初创公司Mistral的开源模型,但支持其他基于文本的模型,包括Meta的Llama2。——(<下载)

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人