谷歌公司内部提出“ProjectEllmann”建议,让人工智能(AI)大语言模型GeminiAI通过手机数据和照片来给出用户一

None

相关推荐

封面图片

微软据悉准备推出新的人工智能语言模型,同谷歌和OpenAI竞争据悉,微软正训练一个新的内部人工智能语言模型,其规模“足以同谷歌和

封面图片

谷歌宣布推出人工智能模型Gemini

封面图片

人工智能公司正在转向“小型”语言模型以获利

人工智能公司正在转向“小型”语言模型以获利投入数十亿美元构建所谓的大型语言模型以推动生成式人工智能产品的人工智能公司,现在正寄望于一种新的收入增长方式:小型语言模型。苹果、微软、Meta和谷歌最近都发布了新的人工智能模型,这些模型的“参数”较少,但功能仍然强大。通常来说,参数的数量越多,人工智能软件的性能就越好,能处理的任务也就越复杂和微妙。本周公布的OpenAI的最新模型GPT-4o和谷歌的Gemini1.5Pro,据估计都拥有超过1万亿个参数。而Meta正在训练其开源Llama模型的4000亿参数版本。除了努力说服一些企业客户支付运行生成式人工智能产品所需的大额费用外,对数据和版权责任的担忧也阻碍了其广泛应用。这促使像Meta和谷歌这样的科技集团推出只有几十亿参数的小型语言模型,作为更经济、更节能、可定制的替代方案,这些模型在训练和运行时所需的电力更少,同时还能保护敏感数据。——

封面图片

迄今最大、能力最强的人工智能模型 —— 谷歌 Gemini 发布

迄今最大、能力最强的人工智能模型——谷歌Gemini发布Gemini是首个从头构建的多模态模型,可以实现跨文本、代码、图像、音频和视频的无缝理解。Gemini1.0从大至小拥有Ultra、Pro、Nano(3.25B/1.8B)三个尺寸。GeminiUltra的性能优于如今所有模型,在32个广泛使用的学术基准测试中的30个表现出了最先进水平,并且是第一个在MMLU(57个学科)上超越人类专家的AI。GeminiPro的性能与Claude2相当,优于GPT-3.5。Gemini能够原生生成图像,而不必依赖中间自然语言描述(转述会导致信息丢失)。Gemini全型号的音频理解优于Whisper。今天开始Bard将由GeminiPro的微调版本驱动。Pixel8Pro将成为第一款运行GeminiNano的手机。GeminiUltra目前正在接受安全评估还有人类反馈强化学习的进一步完善,将在明年初与提供尖端AI服务的BardAdvanced一同推出。Apple附体投稿:@TNSubmbot频道:@TestFlightCN

封面图片

谷歌为开源开发者发布人工智能模型GEMMA

谷歌为开源开发者发布人工智能模型GEMMA2024年2月21日,谷歌发布了GEMMA,一个面向开源开发者的AI模型。该系列采用轻量化设计并对外公开,旨在为广大开发者和研究人员提供更加便捷的AI构建工具。其中包括Gema2B和7B模型,可在普通笔记本电脑或计算机上运行。https://blog.google/technology/developers/gemma-open-models/线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

封面图片

Google计划建立巨型人工智能语言模型 支持全球1000种最常用的语言

Google计划建立巨型人工智能语言模型支持全球1000种最常用的语言语言和人工智能可以说一直是Google产品的核心,但最近机器学习的进步--特别是强大的、多功能的"大型语言模型"或LLM的开发--使这些领域得到了新的重视。Google已经开始将这些语言模型整合到Google搜索等产品中。但语言模型有许多缺陷,包括倾向于转述有害的社会偏见,如种族主义和仇外心理,以及无法以人类的敏感性来解析语言。在自己的研究人员发表了概述这些问题的论文后,Google自己也臭名昭著地解雇了他们。不过,这些模型能够完成许多任务,从语言生成(如OpenAI的GPT-3)到翻译(见Meta的"不遗漏语言"工作)。Google的"1000种语言计划"并不专注于任何特定的功能,而是要创建一个具有世界上各种语言的巨大知识广度的单一系统。Google人工智能研究副总裁ZoubinGhahramani说,该公司认为,创建一个如此规模的模型将使其更容易将各种人工智能功能带到在线空间和人工智能训练数据集中表现不佳的语言(也被称为"低资源语言")。"语言就像生物体,它们是相互演化而来的,它们有某些相似之处。通过让一个单一的模型接触并训练许多不同的语言,我们在低资源语言上得到更好的表现,"Ghahramani说。"我们达到1000种语言的方法不是通过建立1000种不同的模型。语言就像生物体,它们是相互进化的,它们有某些相似之处。而且,当我们将一种新语言的数据纳入我们的1000种语言模型,并获得将[它所学到的东西]从一种高资源语言转化为低资源语言的能力时,我们可以在我们所谓的零点学习中找到一些相当惊人的进展。"过去的研究显示了这种方法的有效性,而Google计划中的模型的规模可以提供比过去的工作更多的收益。这种大规模的项目已经成为科技公司主导人工智能研究雄心的典型,并利用了这些公司在获得大量计算能力和训练数据方面的独特优势。一个类似的项目是Facebook母公司Meta正在尝试建立一个"通用语音翻译器"。Google表示,为了支持1000种语言模型的工作,它将资助收集低资源语言的数据,包括音频记录和书面文本。该公司表示,它没有直接计划在哪里应用这个模型的功能--只是预计它将在Google的产品中具有一系列用途,从Google翻译到YouTube字幕等等。"同样的语言模型可以将机器人的命令变成代码;它可以解决数学问题;它也可以进行翻译。关于大型语言模型和一般的语言研究,真正有趣的事情之一是它们可以做很多很多不同的任务,"Ghahramani说。"语言模型真正有趣的地方在于它们正在成为大量知识的储存库,通过以不同的方式探测它们,你可以获得不同的有用功能。"Google在一个新的人工智能产品展示会上宣布了1000种语言模型。该公司还分享了关于文本到视频模型的新研究,一个名为Wordcraft的人工智能写作助手原型,以及对其人工智能测试厨房应用程序的更新,该应用程序允许用户有限地访问正在开发的人工智能模型,如其文本到图像模型Imagen。...PC版:https://www.cnbeta.com.tw/articles/soft/1331651.htm手机版:https://m.cnbeta.com.tw/view/1331651.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人