RT Hao Chen

RT HaoChen又来搅局者了,Databricks利用了自己公司5000名员工原创了15K个比GPT质量更好的问答做的Dolly2.0。并开源了全部内容,包括培训代码、数据集和模型权重。任何组织都可以创建、拥有和定制强大的LLM,可以与人交谈,而无需支付API访问费用或与第三方共享数据。

相关推荐

封面图片

Databricks 5000名员工原创了15000个比GPT质量更好的数据集用于Dolly 2.0,并开源

Databricks5000名员工原创了15000个比GPT质量更好的数据集用于Dolly2.0,并开源Databricks:我们正在开源整个,包括训练代码、数据集和模型权重,所有这些都适合商业用途。这意味着任何组织都可以创建、拥有和定制可以与人交谈的强大LLM,而无需支付API访问费用或与第三方共享数据。如何开始?要下载Dolly2.0模型砝码,只需访问页面并访问上的Dolly存储库以下载.并加入我们的,了解如何为您的组织利用LLM。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

RT 九原客

RT 九原客论文阅读:FrugalGPT,降低LLM的成本。常规方法:1.优化Prompt2.Query合并3.语义相似缓存4.使用贵模型对便宜模型微调LLM级联:(重点)5.便宜模型回答后对回答自动打分,分数过低则调用更贵的模型,直到调用GPT-4感觉可以用LangChain自己实现一个。

封面图片

Google DeepMind 发布视觉语言动作模型 RT-2

GoogleDeepMind发布视觉语言动作模型RT-2GoogleDeepMind今日发布了一种新的AI模型RoboticsTransformer2(RT-2),可以帮助训练机器人理解扔垃圾等任务。在论文中,谷歌介绍RT-2是一种新型视觉语言动作(VLA)模型,从网络和机器人数据中学习,并将这些知识转化为机器人控制的通用指令,同时保留网络规模能力。例如,可以帮助训练机器人理解扔垃圾等任务。RT-2表明,视觉语言模型(VLM)可以转换为强大的视觉语言动作(VLA)模型,该模型可以通过将VLM预训练与机器人数据相结合来直接控制机器人。RT-2不仅是对现有VLM模型的简单而有效的修改,而且还显示了构建通用物理机器人的前景,该机器人可以推理、解决问题和解释信息,以在现实世界中执行各种任务。论文:https://robotics-transformer2.github.io/assets/rt2.pdf来源:https://www.deepmind.com/blog/rt-2-new-model-translates-vision-and-language-into-action投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

RT 宝玉厉害了,Llama2可以运行在iPhone和iPad上了

RT 宝玉厉害了,Llama2可以运行在iPhone和iPad上了BohanHou: #Llama2isrunningoniPhone,iPadnativelywithGPUacceleration.Nointernetconnectionisrequired.SeeIOSinstructionstogetthetestflightappnow:https://mlc.ai/mlc-llm/docs/get_started/try_out.htmlhttps://twitter.com/bohanhou1998/status/1681682445937295360/photo/1

封面图片

RT Jiayuan

RT Jiayuan基于Toolformer这篇论文的灵感,在GPT-3的模型上fine-tune了一个新的模型,可以用来控制外部应用和API。因为现在数据量还比较少,所以效果还比较一般,仅能处理一些基础的操作,后面会针对性优化一下,可以看成是mini版的AdeptAI。AdeptAI前几天刚融资了3.5亿$,AGIisthefutureJiayuan: 1/把Meta前两天发布的这篇论文读了一遍,mindblowing这篇论文被近期ChatGPT&BingChat的风头盖过去了,不过我感觉论文中提到的内容可能是未来LanguageModel发展的一个重要的分支。--thread--

封面图片

RT Dott

RT Dott在今天OpenAI发布的gpt-3.5-turbo模型和ChatAPI的帮助下,我的Siri今天正式升级为SiriPro了可随时唤起文字和语音两种输入方式,快速响应,支持多次问答,支持预设调教,跟人工智障说拜拜了感兴趣的朋友可以试试:Credit:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人