让我们来看一下百度公司开发的类似ChatGPT的聊天机器人Ernie(或文心),它代表了中国本土最高水平的LLM。以下是Erine与GPT4和3.5在推理、计算、解释、逻辑等方面的并排基准测试结果。可以得出结论,Ernie的能力大约相当于GPT3级别。投稿:@ZaiHuabot频道:@TestFlightCN

None

相关推荐

封面图片

博主分析《GTA6》金发美女得出结论:建议等PC版

博主分析《GTA6》金发美女得出结论:建议等PC版“《GTA6》的头发物理效果看起来绝对惊人,唯一的缺点是由于头发细丝太细,主机的升频技术(FSR,众所周知它在PC上的表现比不上英伟达的DLSS)很难呈现出令人舒心的画面。”“你可能也注意到了《GTA6》的预告片是4K分辨率的,但看起来甚至不像1080p。这是因为它是以更低的分辨率渲染的,而主机上的升频技术无法胜任。”“希望当《GTA6》登陆PC平台时,我们能看到英伟达提供全面的光线追踪支持,这款游戏在我们能够以4K本地分辨率/DLSS来玩时才足够出色。”...PC版:https://www.cnbeta.com.tw/articles/soft/1403151.htm手机版:https://m.cnbeta.com.tw/view/1403151.htm

封面图片

巴菲特谈人工智能的风险:现在得出结论还为时过早

巴菲特谈人工智能的风险:现在得出结论还为时过早当被问及人工智能可能带来的威胁时,巴菲特表示:你这个问题问的很好,但我的最大问题是我对人工智能并不完全了解。我认为任何劳动密集行业都可能会受到AI的威胁。巴菲特表示:现在很多人都认为,对于人工智能有很多深层的内容值得讨论,我刚也说过,它是一个已经从瓶子里出来的精灵。阿贝尔:我觉得人工智能在提高效率、节省时间方面能够起作用,但在一些劳动密集行业,人工智能可能在让流程更安全等方面的效果可能仍然值得观察。巴菲特:是的,现在就讨论人工智能的影响可能还言之过早。当然,AI技术是不可思议的,但大家对其的预测可能不都会是正确的。我们现在仍不知道,人工智能究竟会不会是“下一个我们开发出来的核弹”。

封面图片

学编程会拉低数学成绩,巴黎大学跟踪 1500 个小学生得出结论

学编程会拉低数学成绩,巴黎大学跟踪1500个小学生得出结论“怎么培养数学逻辑思维?来点编程试试?”大概这是很多人的既有认知,毕竟感觉程序员们的数学都挺好的。巴特,反转来了。来自巴黎大学的研究人员发现,小学生改用编程课学数学后,对成绩不仅没有明显帮助,甚至会产生一些负面影响。在欧几里得除法、加法分解、分数运算几个方面,影响范围为-0.16~-0.21(值为负数即代表表现不如标准组)。而且编程软件的可视化界面,还影响了孩子的注意力集中能力...来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

Google加入开源战局 低配版Gemma相当于OpenAI把GPT-3开源了

Google加入开源战局低配版Gemma相当于OpenAI把GPT-3开源了怎么理解这个动作的重要性呢?你可以粗暴的理解为:这有点像现在正在训练更强大的GPT-5的OpenAI,把GPT3的低参数版给开源了。(前几天SamAltman被问过这个问题,你们是否会在未来把GPT3开源,他没有直接回答。现在看来Google针对性很强啊。)(X上一张有意思的图)根据Google官方对Gemma的介绍,它的基本信息如下:Gemma是Google开源的一个大型语言模型,而非像Gemini那样是多模态的,它基于与Gemini相同的技术构建,但完全公开并允许商用授权。Gemma模型有两个主要版本,分别是Gemma7B(70亿参数)和Gemma2B(20亿参数)。这些模型在大规模的数据集上进行了训练,数据集包含了以英语为主的网络文档、数学数据以及代码数据,总量达到了6万亿tokens。Gemma模型的特点包括:架构细节:Gemma模型具有不同的参数规模,Gemma-2B有18层,d_model为2048,而Gemma-7B有28层,d_model为3072。这些模型还具有不同的前馈隐藏维度、头数和KV头数,以及词汇量。新技术:Gemma采用了一些新技术,如Multi-QueryAttention、RoPEEmbeddings、GeGLU激活函数以及NormalizerLocation,这些技术有助于提高模型的性能。评测结果:Google官方宣称Gemma模型在70亿参数规模的语言模型中表现最佳,甚至超过了一些参数量更大的模型。开源情况:Gemma模型遵循一个自定义的开源协议,允许商业使用。发布完,JeffDean就对这个系列模型划了重点:Gemma-7B模型在涵盖通用语言理解、推理、数学和编程的8项基准测试中,性能超过了广泛使用的Llama-27B和13B模型。它在数学/科学和编程相关任务上,通常也超过了Mistral7B模型的性能。Gemma-2BIT和Gemma-7BIT这两个经过指令调整的模型版本,在基于人类偏好的安全评估中,都优于Mistral-7Bv0.2指令模型。特别是Gemma-7BIT模型在遵循指令方面也表现更佳。(有意思的是,在Google晒出的成绩对比中,阿里的千问背后的模型Qwen系列表现也很亮眼)我们也发布了一个负责任的生成性人工智能工具包(ResponsibleGenerativeAIToolkit),它为负责任地使用像Gemma模型这样的开放模型提供了资源,包括:关于设定安全政策、安全调整、安全分类器和模型评估的指导。学习可解释性工具(LearningInterpretabilityTool,简称LIT),用于调查Gemma的行为并解决潜在问题。一种构建具有最小样本量的强大安全分类器的方法论。我们发布了两个版本的模型权重:Gemma2B和Gemma7B。每个版本都提供了预训练和指令调整的变体。我们为所有主要框架提供了推理和监督式微调(SFT)的工具链:通过原生Keras3.0支持的JAX、PyTorch和TensorFlow。提供了即用型的Colab和Kaggle笔记本,以及与流行的工具如HuggingFace、MaxText、NVIDIANeMo和TensorRT-LLM的集成,使得开始使用Gemma变得简单。预训练和指令调整的Gemma模型可以在您的笔记本电脑、工作站或GoogleCloud上运行,并且可以轻松部署在VertexAI和GoogleKubernetesEngine(GKE)上。在多个AI硬件平台上的优化确保了行业领先的性能,包括NVIDIAGPU和GoogleCloudTPUs。使用条款允许所有规模的组织负责任地进行商业使用和分发。可以看到JeffDean和Google这次都十分强调开源模型的安全性和具体的实打实的配套设施和举措。这似乎也直至被诟病CloseAI且被外界质疑安全性保障的OpenAI。现在,憋坏了的Google正式四面开战了。未来它将用Gemma对抗Llama,用Gemini对抗GPT。无论是开源还是闭源,竞争越来越焦灼了。相关文章:Google发布了一对开源人工智能模型Gemma2B和7B适用于较小的任务...PC版:https://www.cnbeta.com.tw/articles/soft/1419839.htm手机版:https://m.cnbeta.com.tw/view/1419839.htm

封面图片

你们别乱发啊,发的什么啊。。。这是聊天机器人,相当于中转站,就是消息发给,再发给我,相当于我们之间多了个传话的,本质

封面图片

前两天一位新朋友用我的ClaudeAPI跑了一些对比ChatGPT3.5和GPT4的测试,得出了一些非常有趣且令人惊喜的结论。C

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人