机构人士:2024 年大模型领域的竞争将进一步白热化 多模态大模型有望推动本轮 AI 行情进一步扩散

机构人士:2024年大模型领域的竞争将进一步白热化多模态大模型有望推动本轮AI行情进一步扩散2023年,AI“狂飙突进”了一整年。在产业层面,国内外科技巨头围绕AI大模型打响了“百模大战”;在资本市场,AI概念成为市场主线之一。展望2024年,机构人士认为,大模型领域的竞争将进一步白热化,多模态大模型将成为生成式AI的重点发展方向,并有望推动本轮AI行情进一步扩散。(上证报)

相关推荐

封面图片

Meta ImageBind 多模态模型开源,我们离AGI又进一步。

MetaImageBind多模态模型开源,我们离AGI又进一步。当人类看到一辆行驶中的火车,不仅会使用视觉,还会听到声音,感知距离,感知速度。ImageBind也是类似,它将六种数据,文本,音频,视觉,运动,温度,深度,嵌入到一个向量空间,让模型像千脑智能那样,调动不同的感知区域进行「交谈」并做出全面的解释和判断。(这与文心一言等模型每个模态有自己嵌入空间的所谓多模态截然不同。)一些应用(见图):-通过火车的声音、图像、深度信息,生成准确的文字描述-通过鸽子的图片和摩托的声音,减缩到摩托车和鸽子的图像-通过企鹅的声音,生成企鹅的图像另一些可能性:-拍摄一段海洋日落的视频,自动生成完美的音频剪辑。-通过静态图像和音频组合,创建动画。-通过Make-A-Video生成视频时,自动加上背景音。(飞狗图)未来不止于此,模型还可以引入更多的模态,如触觉、语音、嗅觉和大脑fMRI信号,以增强模型对实体世界的感知。https://ai.facebook.com/blog/imagebind-six-modalities-binding-ai/

封面图片

元隆雅图:正在研究利用多模态 AIGC 工具进一步提升 AIGC 模型的效能

元隆雅图:正在研究利用多模态AIGC工具进一步提升AIGC模型的效能元隆雅图12月18日在互动平台表示,目前公司通过国家知识产权局发明专利初审的AIGC模型具备文本生成图片的能力,经过预训练,可使输出图片在内容丰富多样的同时,保持风格的一致性和稳定性。该模型可为用户提供个性化创作工具,大幅提升内容生成和创作效率,能够广泛应用于企业品牌形象创作、IP衍生内容及产品创作、UGC数字艺术创作、用户社交创意玩法等多种场景。公司正在研究利用多模态AIGC工具进一步提升AIGC模型的效能。

封面图片

白热化

白热化佩奇频道信息如下:现在开始高价有偿征集黑鹰个人信息、线索,包括但不限于虚拟货币收款地址、照片、任何你觉得可能有用的东西。从现在开始我再看到一条DDoS信息推送,就放出一条黑鹰线索。我这人不喜欢烦直接出价格-照片5000刀-手机号、身份证号、住址、姓名、微信、QQ15000刀线索一经核实真实有效,火速打款,大机场信誉保障欢迎大家投稿。——————————————-某机场稽查局信息如下:我们已经将佩奇和imm,amy机场的腾讯账户进行封禁!并将他们洗钱的支付通道交给支付宝风控部做冻结处理!最重要的是,我们将他们所有违法资料全部递交给了国家反诈中心!20201016马汉南———————————————#饭前一瓜

封面图片

东莞证券:AI 多模态大模型快速迭代

东莞证券:AI多模态大模型快速迭代东莞证券研报指出,近一个月内,从OpenAI发布Sora模型,到谷歌更新Gemini1.5,再到Anthropic推出Claude3系列模型,AI多模态大模型快速迭代。随着多模态能力不断提升,有望加大对IP内容的价值挖掘和商业转化力度,赋能内容生产实现降本增效,进一步打开行业成长空间。后续建议积极关注海内外大模型落地和应用进展,关注国内布局AI大模型领域的公司,如昆仑万维等;受益于多模态技术发展的IP/影视公司,如中文在线、上海电影等。

封面图片

LLM竞争白热化了,Inflection发布Inflection-2.5模型,他们称这是世界上最好的语言模型,Inflectio

LLM竞争白热化了,Inflection发布Inflection-2.5模型,他们称这是世界上最好的语言模型,Inflection-2.5现已向所有Pi用户开放。Inflection-2.5接近GPT-4的性能,但仅使用了40%的计算量用于训练。我们在编码和数学等智商领域取得了特别的进步。Pi现在还融入了世界一流的实时网络搜索功能,以确保用户获得高质量的突发新闻和最新信息。Inflection-1使用的训练FLOP约为GPT-4的4%,平均而言,在各种IQ导向的任务中,其表现约为GPT-4水平的72%。现在为Pi提供支持的Inflection-2.5,尽管只使用了40%的训练FLOP,但其平均性能却达到了GPT-4的94%以上。详细信息:

封面图片

人工智能军备竞赛白热化:谷歌最新AI大语言模型数据量扩充5倍

人工智能军备竞赛白热化:谷歌最新AI大语言模型数据量扩充5倍令牌指的是单词串,这是训练大语言模型的重要基础,因为这可以教给模型如何预测字符串中可能出现的下一个单词。之前版本的PaLM发布于2022年,当时使用的令牌为7800亿个。虽然谷歌很希望展示其人工智能技术的实力,以及嵌入搜索、电子邮件、字处理和电子表格后的效果,但该公司却不愿发布其训练数据的规模和其他细节。微软支持的OpenAI也对其最新的GPT-4大语言模型的细节信息保密。这些公司表示,之所以不披露这些信息,是出于商业竞争考虑。谷歌和OpenAI都在努力吸引想要用聊天机器人代替传统搜索引擎,从而直接获取答案的用户。但随着人工智能军备竞赛日趋白热化,相关研究人员也呼吁企业加大透明度。自从发布PaLM2之后,谷歌一直表示新的模型比之前的大语言模型更小,这就意味着该公司的技术效率得以提升,但却可以完成更加复杂的任务。内部文件显示,PaLM2基于3400亿个参数训练——这项指标可以说明该模型的复杂程度。最初的PaLM则基于5400亿个参数训练。目前,谷歌尚未对此置评。谷歌在一篇关于PaLM2的博文中表示,该模型使用了一种名为“计算机优化扩张”的新技术。这就让大语言“更高效、整体性能更好,包括加快推理速度、减少参数调用和降低服务成本。”在宣布PaLM2时,谷歌证实了此前的媒体报道,计该模型针对100种语言进行训练,可以执行更广泛的任务。它已经被用于25项功能和产品,包括该公司的实验性聊天机器人Bard。按照从小到大的规模划分,该模型共有4种,分别是壁虎(Gecko)、水獭(Otter)、野牛(Bison)和独角兽(Unicorn)。根据公开披露的信息,PaLM2比现有的任何模型都更加强大。Facebook在2月份宣布的的LLaMA大语言模型采用1.4万亿个令牌。OpenAI上一次披露GPT-3的训练规模时表示,它当时基于3000亿个令牌。OpenAI今年3月发布GPT-4时表示,它在许多专业测试中展示出“与人类媲美的表现”。LAMDA是谷歌两年前推出的一个对话型大语言模型,在今年2月还与Bard一同对外宣传。该模型基于1.5万亿个令牌训练。随着新的人工智能应用快速进入主流,围绕底层技术的争议也越来越激烈。谷歌高级研究科学家艾尔·迈赫迪·艾尔·麦哈麦迪(ElMahdiElMhamdi)于今年2月辞职,主要原因就是人工智能技术缺乏透明度。本周二,OpenAICEO山姆·阿尔特曼(SamAltman)出席美国国会针对隐私和技术举行的听证会,他也认为需要设立一套新的制度来应对人工智能的潜在问题。“对于一种全新的技术,我们需要一套全新的框架。”阿尔特曼说,“当然,像我们这样的公司应当为我们推出的工具承担许多责任。”...PC版:https://www.cnbeta.com.tw/articles/soft/1360049.htm手机版:https://m.cnbeta.com.tw/view/1360049.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人