亚洲首富倾力打造的大模型BharatGPT下月发布

亚洲首富倾力打造的大模型BharatGPT下月发布 该模型以印度教神话中的神猴哈奴曼(Hanooman)命名。BharatGPT设想该模型在当前阶段,可通过11种当地语言在四个主要领域发挥作用:医疗保健、治理、金融服务和教育。信实工业与孟买等地的八所印度理工学院合作开发了这一模型,并得到了信实旗下印度电信巨头Reliance Jio和印度政府的支持。印度理工学院孟买分校计算机科学与工程系主任Ganesh Ramakrishnan介绍称,“这是一种完全不同类型的LLM。”他在接受采访时称,Hanooman将提供语音转文字功能,使其更加方便用户使用。印度有着非常复杂的语言系统,据统计,该国一共有1652种语言和方言,其中使用人数超过百万就有33种。印度宪法规定了18种语言作为联邦官方语言,另外还使用英语作为行政、司法用语。同时,印度约有3亿文盲,是世界上成年人文盲人口最多的国家。这使得传统的AI模型,对于不少印度民众而言未必能够很好地适用。而BharatGPT显然致力于解决这一困扰。BharatGPT表示,其模型目前可以支持11种印度语言,包括印地语、泰米尔语、泰卢固语、马拉雅拉姆语和马拉地语,研发者还希望可以扩展至22种印度语言。在周二向与会代表播放的一段视频中,印度南部的一名摩托车修理工用母语泰米尔语向人工智能机器人提问;一名银行家则用印地语与该工具对话,而印度第六大城市海德拉巴的一名开发人员则用它编写了计算机代码。研发者与信实工业的合作,包括在电信和零售等领域的行业应用模型。Ramakrishnan表示,Reliance Jio将为特定用途定制模型。该公司已经在开发“Jio大脑”,这是一个在拥有约4.5亿用户的网络中使用人工智能的平台。分析人士表示,如果Hanooman可以取得成功,将标志着印度在加速开发具有潜在变革意义的人工智能技术的竞赛中,取得了长足进步。事实上,亚洲首富安巴尼致力于打造印度自己的基础大型语言模型的消息,在去年三季度就曾被外界报道过。英伟达去年9月曾在官网上发布公告称,将与安巴尼的信实工业集团建立AI合作伙伴关系,双方合作开发大型语言模型,该模型将基于该国的多种语言进行训练,并且为生成式AI的应用量身定制,让AI技术更好地为14亿印度人服务。英伟达当时还宣布将向信实提供最先进的GH200超级芯片,同时也将向合作伙伴开放接入DGX AI算力云服务。 ... PC版: 手机版:

相关推荐

封面图片

Databricks 发布最大开源大语言模型 DBRX

Databricks 发布最大开源大语言模型 DBRX 美国AI初创公司Databricks周三公布,该公司开发的通用大语言模型 DBRX将开源。DBRX在语言理解、编程、数学和逻辑方面轻松击败了Meta的Llama 2-70B、法国MixtralAI公司的Mixtral 和 马斯克旗下xAI开发的Grok-1这类当前流行的开源模型。DBRX 在 30多种不同的最先进模型(SOTA) 基准指标测试中,均优于前述三种大模型。 DBRX 使用混合专家架构(MoE) ,拥有16个专家模型,共1320亿参数。该模型使用 3072 英伟达 H100 GPU在12万亿个token的数据集上进行训练,最大支持32k 的上下文窗口。同时,Databrick 也开源了该模型经过指令微调(instruct finetune)的版本。 ,

封面图片

Stability AI 发布日语 StableLM 模型

Stability AI 发布日语 StableLM 模型 Stability AI 今天发布了日语 StableLM Alpha,将其语言模型产品扩展至国际市场,这是面向日语使用者的性能最佳的公开语言模型。 新的70亿参数通用语言模型旨在为日本用户提供增强的人工智能文本生成能力。Stability AI 表示,在该公司进行的评估中,日语 StableLM 的表现优于其他四种基准日语模型。 新模型发布了两个版本: 和。 基础模型设计用于使用大规模日语和英语训练数据进行一般文本生成。指令模型使用监督微调技术进行额外调整,以遵循用户提示和说明。 此次发布为日本人工智能开发人员和研究人员提供了适合其语言的新生成模型。这也标志着 Stability AI 首次扩展到 Stable Diffusion 等英语语言模型之外。此举标志着随着全球生成式人工智能应用的增加,未来可能会进入其他国际市场。

封面图片

Mistral Large 大语言模型发布

Mistral Large 大语言模型发布 Mistral Large 是 Mistral 新的尖端文本生成模型。它达到了顶级的推理能力,可用于复杂的多语言推理任务,包括文本理解、转换和代码生成。Mistral Large 在常用基准测试中取得了优异的成绩,使其成为世界上排名第二的可通过 API 普遍使用的模型(仅次于 GPT-4)。该模型也可以通过 Azure 直接调用。 Mistral Large 具有以下特点 - 支持英语、法语、西班牙语、德语和意大利语。 - 32K 标记上下文窗口。 - 精确的指令遵循使开发人员能够设计他们的审核策略。 - 原生支持函数调用。 Mistral 还发布了一个新的优化模型 Mistral Small,针对延迟和成本进行了优化,其性能优于 Mixtral 8x7B,并且延迟较低,这使其成为开源型号和旗舰型号之间的中间解决方案。

封面图片

Google IO 将公布 PaLM 2 大模型

Google IO 将公布 PaLM 2 大模型 Google 将在年度开发者大会 Google I/O 上宣布它的新版通用大语言模型 PaLM 2。 PaLM 是 Google 在 2022 年 4 月宣布的大模型,有 5400 亿参数,Google AI 和 DeepMind 后在此基础上开发了一个用医学数据集微调的版本 Med-PaLM,它是首个在美国医师资格考试中获得及格分的 AI 模型。 在 5 月 10 日周三举行的开发者大会上 Google 宣布的 PaLM 2 将是该公司最先进的大模型,其内部代号为“Unified Language Model(统一语言模型)”,包含逾百种语言,能执行范围广泛编程和数学测试,以及创意写作测试和分析。

封面图片

Rysana 发布 Inversion 大语言模型

Rysana 发布 Inversion 大语言模型 AI 公司 Rysana 今天在 X 宣布,发布 Inversion 大语言模型,该模型旨在解决传统人工智能系统中的速度、可靠性和推理问题。号称在错误率和速度上超过了 GPT-3.5-turbo 和 GPT-4-Turbo。 申请候补名单地址: 来源1: 来源2: 来源3: via 匿名 标签: #AI #Rysana #Inversion 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

Google 发布开源大语言模型 Gemma

Google 发布开源大语言模型 Gemma 谷歌今天宣布推出 Gemma,这是一个新的轻量级开源大语言模型系列。 现在 Gemma 2B 和 Gemma 7B 两个模型已经可用,每个尺寸都发布了经过预训练和指令调整的变体。谷歌同时提供了多项工具以便快速部署该模型,包括开箱即用的 Colab 实例,可快速部署的容器镜像,以及和其它流行开发工具的集成。 Gemma 模型也能够直接在开发人员笔记本电脑或台式计算机上运行。根据谷歌的,该模型在多个测试中超越的 Llama 2 等开源模型。这些新模型“受到 Gemini 的启发”,使用与其相似的技术,并被许可用于商业和研究用途。 此外,谷歌还发布了一个新的负责任的生成式AI工具包,以提供“使用 Gemma 创建更安全的人工智能应用程序的指导和基本工具”以及调试工具。 , ,

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人