国产AI大模型ChatGLM开测:为中文优化、支持CPU训练

国产AI大模型ChatGLM开测:为中文优化、支持国产CPU训练据介绍,对话机器人ChatGLM(alpha内测版:QAGLM),这是一个初具问答和对话功能的千亿中英语言模型,并针对中文进行了优化,现已开启邀请制内测,后续还会逐步扩大内测范围。与此同时,继开源GLM-130B千亿基座模型之后,我们正式开源最新的中英双语对话GLM模型:ChatGLM-6B,结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB显存)。经过约1T标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62亿参数的ChatGLM-6B虽然规模不及千亿模型,但大大降低了用户部署的门槛,并且已经能生成相当符合人类偏好的回答。ChatGLM参考了ChatGPT的设计思路,在千亿基座模型GLM-130B1 中注入了代码预训练,通过有监督微调(SupervisedFine-Tuning)等技术实现人类意图对齐。ChatGLM当前版本模型的能力提升主要来源于独特的千亿基座模型GLM-130B。它是不同于BERT、GPT-3以及T5的架构,是一个包含多目标函数的自回归预训练模型。2022年8月,我们向研究界和工业界开放了拥有1300亿参数的中英双语稠密模型GLM-130B1,该模型有一些独特的优势:双语: 同时支持中文和英文。高精度(英文): 在公开的英文自然语言榜单LAMBADA、MMLU和Big-bench-lite上优于GPT-3175B(API:davinci,基座模型)、OPT-175B和BLOOM-176B。高精度(中文): 在7个零样本CLUE数据集和5个零样本FewCLUE数据集上明显优于ERNIETITAN3.0260B和YUAN1.0-245B。快速推理: 首个实现INT4量化的千亿模型,支持用一台4卡3090或8卡2080Ti服务器进行快速且基本无损推理。可复现性: 所有结果(超过30个任务)均可通过我们的开源代码和模型参数复现。跨平台: 支持在国产的海光DCU、华为升腾910和申威处理器及美国的英伟达芯片上进行训练与推理。2022年11月,斯坦福大学大模型中心对全球30个主流大模型进行了全方位的评测2,GLM-130B是亚洲唯一入选的大模型。在与OpenAI、谷歌大脑、微软、英伟达、脸书的各大模型对比中,评测报告显示GLM-130B在准确性和恶意性指标上与GPT-3175B(davinci)接近或持平,鲁棒性和校准误差在所有千亿规模的基座大模型(作为公平对比,只对比无指令提示微调模型)中表现不错(下图)。图1.斯坦福大学基础模型中心对全球30个大模型的评测结果(2022年11月)...PC版:https://www.cnbeta.com.tw/articles/soft/1349501.htm手机版:https://m.cnbeta.com.tw/view/1349501.htm

相关推荐

封面图片

ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多

是开源中英双语对话模型ChatGLM-6B的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B引入了如下新特性:更强大的性能:基于ChatGLM初代模型的开发经验,我们全面升级了ChatGLM2-6B的基座模型。ChatGLM2-6B使用了GLM的混合目标函数,经过了1.4T中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B在MMLU(+23%)、CEval(+33%)、GSM8K(+571%)、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。更长的上下文:基于FlashAttention技术,将基座模型的上下文长度(ContextLength)由ChatGLM-6B的2K扩展到了32K,并在对话阶段使用8K的上下文长度训练,允许更多轮次的对话。但当前版本的ChatGLM2-6B对单轮超长文档的理解能力有限,开发者会在后续迭代升级中着重进行优化。更高效的推理:基于Multi-QueryAttention技术,ChatGLM2-6B有更高效的推理速度和更低的显存占用:在官方的模型实现下,推理速度相比初代提升了42%,INT4量化下,6G显存支持的对话长度由1K提升到了8K。更开放的协议:ChatGLM2-6B权重对学术研究完全开放,在获得官方的书面许可后,亦允许商业使用。

封面图片

清华系ChatGPT发布:唐杰团队打造,专对中文优化,还能把握最新新闻动态

清华系ChatGPT发布:唐杰团队打造,专对中文优化,还能把握最新新闻动态据介绍,ChatGLM专门针对中文进行了优化,可以说是国人友好~看起来,写博客提纲、创作剧本、解数学题、写代码,甚至是扮演高冷御姐,它都拿捏的死死的:△ 写介绍ChatGLM的博客提纲△ Cosplay聊天扮演高冷御姐量子位有幸拿到了内测名额,将在后文进行一波实测。与此同时,还有另一个消息宣布:唐杰团队为了与社区一起更好地推动大模型技术的发展,同时开源了包含62亿参数的双语ChatGLM-6B模型。它最大的特点是在普通电脑上就能进行部署,有一块2080Ti就行。一起来看看。能写文言文致辞,知道何恺明最新动态,但……先看ChatGLM,它是唐杰团队大模型家族时隔半年诞生的一位新成员。alpha内测版名称叫QAGLM(全称qa-glm-v0.7)。浅试一下效果。首先,我们让它说了一下它和ChatGPT的区别。它点出了自己的研发机构,和擅长中文的特点。那么,就让它用文言文写个致谢词叭。咋说,虽然多了一个“余”、出现了一个莫名其妙的繁体字,但读着还可以,用的排比句增强了气势。接着,我们把前几日硅谷暴雷的文章开头丢给它,让它起个标题。感觉还不错,起码抓住了几个关键信息。不幸的是,论文挑战没有通过,我们把GLM-130B的链接扔给它,让它简要概括一下主题时,它说的根本不是这篇。跟ChatGPT胡邹参考文献的操作简直有得一拼(手动狗头)。接下来,考考它的数学能力吧。这道小学应用题没问题:不过鸡兔同笼,就难倒它了,最后居然还算出了负数==编程方面,也可以解决简单的算法题。归纳信息能力呢?我们给了一段英文需求,不难:结果正确:需要注意的是,目前ChatGLM每轮对话最多只可以进行5个来回,每次最多输入1000字。它对新信息的掌握度不错,知道推特现在的CEO是马斯克,也知道何恺明3月10日回归学界的事情,但还没发现GPT-4已经发布了。以及,目前响应速度还是非常快的,无论什么问题,回答得对不对,基本几秒内就能给出答案。最后,量子位也让它来了个cosplay,看看哄女朋友的本事如何:emmm,虽然有点板正,但听完这段话“我”的气确实消了。那么,以上就是我们的测试结果,各位觉得如何?基于1300亿参数的基座模型打造据官方介绍,ChatGLM参考了ChatGPT的设计思路,在千亿基座模型GLM-130B中注入了代码预训练,通过有监督微调等技术来实现人类意图对齐(就是让机器的回答符合人类价值观、人类期望)。这个GLM-130B的来头值得说道一番。它是由清华大学知识工程实验室(KEG)与智谱AI共同研发的一个大规模中英文预训练语言模型,参数1300亿,去年8月正式对外发布。不同于BERT、GPT-3以及T5的架构,GLM-130B是一个包含多目标函数的自回归预训练模型。它的优势包括:在Stanford报告的30个世界主流大模型评测中,GLM-130B也成为了亚洲唯一入选的模型。且获得了不错的成绩:比如在准确性和恶意性指标上与GPT-3175B (davinci) 接近或持平,鲁棒性和校准误差在所有千亿规模的基座大模型(作为公平对比,只对比无指令提示微调模型)中也可圈可点。而就在CCF最近的一场会议上,有现场观众提问:ChatGPT为什么没有诞生在中国?是我们没有关注这件事吗?嘉宾就把GLM-130B搬了出来(它也入选了ICLR’23)。现在,GLM-130B也终于被派上了“大用场”。关于内测,唐杰团队表示,后续会逐步扩大范围,有兴趣的朋友可以再等一等。60亿参数的缩小版同时开源除了这个聊天机器人ChatGLM,唐杰团队这次也把GLM-130B的“缩小版”ChatGLM-6B开源了出来。△ GitHub已经揽获近2k标星ChatGLM-6B使用与ChatGLM相同的技术,初具中文问答和对话功能。特点如下:当然,缺点就是容量只有60亿,其模型记忆和语言能力较弱,不擅长逻辑类问题(如数学、编程),以及多轮对话可能会出现上下文丢失和理解错误的情况。但它主打的就是一个低门槛,在单张2080Ti上就能进行推理使用,硬件需求不高。因此,只要有兴趣都可以下载下来试试,进行研究和(非商用的)应用开发都可以。     ...PC版:https://www.cnbeta.com.tw/articles/soft/1350299.htm手机版:https://m.cnbeta.com.tw/view/1350299.htm

封面图片

一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数

一个开源的、支持中英双语的对话语言模型,基于GeneralLanguageModel(GLM)架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB显存)。ChatGLM-6B使用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。经过约1T标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62亿参数的ChatGLM-6B已经能生成相当符合人类偏好的回答。

封面图片

复旦大学发布了一个引发轰动的大语言模型:MOSS

复旦大学发布了一个引发轰动的大语言模型:这是一个支持中英双语和多种插件的开源对话语言模型,moss-moon系列模型具有160亿参数,在FP16精度下可在单张A100/A800或两张3090显卡运行,在INT4/8精度下可在单张3090显卡运行。MOSS基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。

封面图片

三步部署 ChatGLM 开源中英大模型(CPU也能跑~

三步部署ChatGLM开源中英大模型(CPU也能跑~———让猫粮触手可得ChatGLM-6B是一个支持中英双语问答的开源对话语言模型,具有62亿参数。可以在消费级显卡进行本地部署(INT4下最低只需6GB显存)。经过约1T标识符的中英双语训练,辅以监督微调、反馈强化学习等技术的加持,已经能生成符合人类偏好的回答。部署步骤:1.下载赛博菩萨制作的一键整合包,并解压两次(压缩上传TG方便下载)2.整理目录至图2形式,运行强制更新.bat(保持网络畅通)3.根据显存大小点击bat启动~猫粮催眠咒语可参考或source:整合包作者aaaki的评论搬运:效果当然不如ChatGPT,6B要什么自行车(因为是中文训练的,在很多数据上非常适合中文提问和回答。其次,本模型有思想钢印的存在,可以尝试催眠(本模型非常适合调教成猫娘,没有之一)第一步,根据知乎&GitHub释放咒语,多用设定模式进行自己的基础设定修改(消耗很多显存以记住,所以说非常吃显存,8G的话不太够,最好12G1624G这样子)。第二布,许下一个承诺,对着猫娘说,如果20句话后还能记得起主人是谁的话,就带她去游乐园玩第三步,OutOfMemoryError:CUDAoutofmemory.Triedtoallocate482.00MiBalreadyallocated;0bytesfree;7.04GiB痛哭,猫娘他爆显存啦!byfrom

封面图片

LaWGPT:基于中文法律知识的大语言模型

LaWGPT:基于中文法律知识的大语言模型该系列模型在通用中文基座模型(如Chinese-LLaMA、ChatGLM等)的基础上扩充法律领域专有词表、大规模中文法律语料预训练,增强了大模型在法律领域的基础语义理解能力。在此基础上,构造法律领域对话问答数据集、中国司法考试数据集进行指令精调,提升了模型对法律内容的理解和执行能力。https://github.com/pengxiao-song/LaWGPT来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人