云天励飞:公布 “人工智能 + 低空经济” 解决方案

云天励飞:公布“人工智能+低空经济”解决方案四川省经济和信息化厅今日官微消息,5月22日,2024中国国际航空电子(低空经济)产业创新发展大会在成都举行。今年以来,人工智能成为一大产业“爆点”。会上,云天励飞首席架构师王辰公布的“人工智能+低空经济”解决方案引发关注。当前,云天励飞正在探索“低空经济+城市空中之眼”。通过沉淀低空无人机、低空视频图像及分析等低空数据资源,实现数据相对独立有序共享,这将为促进各行业的数据综合分析和应用奠定基础。“当前AI正在‘大暴走’,将从单模态大模型时代进入多模态大模型新时代。”王辰说,这将大幅提升大模型对视觉、图像的重视,并为机器提供理解世界的“大脑”,具身智能也将随之诞生。“其中,具身智能有可能最先落地低空经济领域。”

相关推荐

封面图片

云天励飞官微消息,2月27日,“智能科技赋能低空经济——eVTOL空中交通航线首飞仪式”在珠海举行。活动上,云天励飞与航展集

云天励飞官微消息,2月27日,“智能科技赋能低空经济——eVTOL空中交通航线首飞仪式”在珠海举行。活动上,云天励飞与珠海航展集团有限公司签订了战略合作协议。未来,云天励飞将充分利用大模型、AI芯片等领先的人工智能技术,与珠海航展集团以及其他低空经济领域企业携手,在构建低空经济产业链、打造低空经济合作示范点、推动常态化商业运营、市场推广支持、航空器制造、维修保养服务等领域开展战略合作。

封面图片

云天励飞:“云天天书” 大模型已在政务、交通、警务、企业办公等领域探索落地

云天励飞:“云天天书”大模型已在政务、交通、警务、企业办公等领域探索落地云天励飞在互动平台表示,公司“云天天书”大模型架构包含三个层级:通用大模型、行业大模型、场景大模型,能够针对不同行业场景快速构建解决方案。目前,“云天天书”大模型已在政务、交通、警务、企业办公等领域探索落地。其中,公司与深圳龙岗政数局共同探索的大模型在政务咨询服务系统的应用,2023年入选信通院《通用人工智能创新应用案例集》。未来,该系统还将逐步拓展到法务、金融、教育、医疗等政府机构和公共服务领域。

封面图片

云天励飞:拟以不超 1.8 亿元收购岍丞技术 100% 股权 推进公司人工智能技术与智能可穿戴设备融合发展

云天励飞:拟以不超1.8亿元收购岍丞技术100%股权推进公司人工智能技术与智能可穿戴设备融合发展云天励飞(688343)3月22日晚间公告,公司拟使用自有资金或自筹资金以不超过1.8亿元的对价购买王茜持有的深圳市岍丞技术有限公司(简称“岍丞技术”或“目标公司”)100%股权(对应认缴注册资本1000万元,其中实缴注册资本人民币403万元),并在受让股权后承担该等股权中尚未实缴出资的缴纳义务。目标公司的主要产品应用于音频市场、消费类电子市场等。公司本次收购岍丞技术股权,旨在优化公司产业布局,获取目标公司在可穿戴设备领域的技术积累、行业经验和资源,推进公司人工智能技术与智能可穿戴设备的融合发展,促进公司自研AI大模型的应用推广,丰富公司AIoT产品矩阵,提高公司竞争优势。

封面图片

云天励飞:自研千亿级大模型 —— 云天天书大模型已完成 2 次版本更新

云天励飞:自研千亿级大模型——云天天书大模型已完成2次版本更新云天励飞近期接受投资者调研时称,公司自研千亿级大模型——云天天书大模型已完成2次版本更新,综合能力进一步提升,在通用问答、语言理解、数学推理、文本生成、角色扮演等方面均达到行业先进水平;在今年9月上旬的C-Eval中文大模型榜单中,云天天书大模型位列榜单第一;下一版云天天书大模型将对标GPT4.0,进一步提升多模态能力。

封面图片

云天励飞:公司 DeepEdge10 是国内首创的国产 14nm Chiplet 大模型推理芯片

云天励飞:公司DeepEdge10是国内首创的国产14nmChiplet大模型推理芯片有投资者在互动平台向云天励飞提问:请问公司的AI芯片产品可否应用用于无人驾驶场景?公司在无人驾驶领域有哪些技术和专利?云天励飞回应:公司DeepEdge10是国内首创的国产14nmChiplet大模型推理芯片,采用自主可控的国产工艺,内含国产RISC-V核,支持大模型推理部署。依托自研芯片DeepEdge10创新的D2Dchiplet架构打造的X5000推理卡,已适配并可承载SAMCV大模型、Llama2等百亿级大模型运算,可广泛应用于AIoT边缘视频、移动机器人等场景。

封面图片

微软公布新人工智能模型Kosmos-1:了解图像内容、解决视觉难题

微软公布新人工智能模型Kosmos-1:了解图像内容、解决视觉难题研究人员在他们的学术论文《语言不是你的全部》中写道:"作为智能的一个基本部分,多模态感知是实现人工通用智能的一个必要条件,在知识获取和立足于现实世界方面,将感知与语言模型结合起来。"Kosmos-1论文中的视觉案例显示,该模型分析图像并回答有关问题,从图像中阅读文本,为图像编写标题,并以22-26%的准确率进行视觉智商测试。当媒体热议大型语言模型(LLM)的突破时,一些人工智能专家指出,多模态人工智能是通往通用人工智能的潜在途径,这种假想的技术表面上将能够在任何智力任务(和任何智力工作)中取代人类。AGI是OpenAI的既定目标,它是微软在人工智能领域的一个重要商业伙伴。在这种情况下,Kosmos-1似乎是一个没有OpenAI参与的微软公司内部项目。研究人员将他们的创造称为"多模态大语言模型"(MLLM),因为它的根源在于自然语言处理,就像纯文本的LLM,如ChatGPT就是其中的杰出代表。为了让Kosmos-1接受图像输入,研究人员必须首先将图像翻译成LLM能够理解的一系列特殊标记(基本上是文本)。Kosmos-1的论文对此有更详细的描述:对于输入格式,我们将输入平铺为一个用特殊标记物装饰的序列。具体来说,我们使用和来表示序列的开始和结束。特殊标记和表示编码后的图像嵌入的开始和结束。例如,"document"是一个文本输入,而"paragraphImageEmbedding paragraph"是一个交错的图像-文本输入。...一个嵌入模块被用来将文本标记和其他输入模式都编码为向量。然后,嵌入被送入解码器。对于输入标记,我们使用一个查找表将其映射到嵌入中。对于连续信号的模态(如图像和音频),将输入表示为离散代码,然后将其视为"外语"也是可行的。微软使用网络上的数据训练Kosmos-1,包括ThePile(800GB的英文文本资源)和CommonCrawl的节选。训练结束后,他们在一些测试中评估了Kosmos-1的能力,包括语言理解、语言生成、无光学字符识别的文本分类、图像说明、视觉问题回答、网页问题回答和零拍图像分类。据微软称,在许多这些测试中,Kosmos-1的表现超过了目前最先进的模型。Kosmos-1负责解决的瑞文智商测试的一个例子特别令人感兴趣的是Kosmos-1在瑞文推理中的表现,该测试通过展示一连串的形状并要求测试者完成该序列来测量视觉智商。为了测试Kosmos-1,研究人员将一个个填写好的测试题输入,每次完成每个选项,并询问答案是否正确。Kosmos-1只能在22%的时间内正确回答瑞文测试中的问题(微调后为26%),方法上的错误可能会影响结果,但Kosmos-1在拉文智商测试中击败了随机机会(17%)。尽管如此,虽然Kosmos-1代表了多模态领域的早期步骤(其他厂商也在追求这种方法),但很容易想象,未来的优化可能会带来更重要的结果,使人工智能模型能够感知任何形式的媒体并对其采取行动,这将大大增强人工助理的能力。研究人员说,在未来,他们希望扩大Kosmos-1的模型规模,并将语音能力也整合进去。微软表示,它计划将Kosmos-1提供给开发者,尽管该论文引用的GitHub页面在本文发表时还没有提供Kosmos特定代码。...PC版:https://www.cnbeta.com.tw/articles/soft/1347289.htm手机版:https://m.cnbeta.com.tw/view/1347289.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人