终于发现了一个国内可用、中文友好的类 chatGPT 机器人了!

终于发现了一个国内可用、中文友好的类chatGPT机器人了!这个工具叫作inspo,是国内团队开发的,用中文的数据集训练的chatbot。目前的数据集是截止到2023年2月份,所以最近发生的一些事情它都知道。我用来做了几次测试,感觉效果都挺不错的,和chatGPT差别不大。以下是我自己的几个应用案例,分别是学习场景、营销场景、情感场景的一些基础对话,你可以从中看出它回答的质量。:https://inspo.vip/

相关推荐

封面图片

【Binance推出基于ChatGPT的聊天机器人】

【Binance推出基于ChatGPT的聊天机器人】2023年04月24日08点07分老不正经报道,加密货币交易所Binance推出了Sensei聊天机器人的测试版,作为BinanceAcademy教育平台的一部分。根据新闻稿,BinanceSensei基于ChatGPT。该公司表示,它在每个阶段都扮演着培训助手的角色。该助手接受了币安学院1,000多篇文章和词汇表的培训。Chatbot警告称,答案是按原样提供的,仅提供一般信息,不保证完整性或准确性。

封面图片

Snapchat 发布由 ChatGPT 驱动的聊天机器人"My AI"

Snapchat发布由ChatGPT驱动的聊天机器人"MyAI"Snap是OpenAIFoundry的首批客户之一,该服务允许公司使用专为大型工作负载设计的专用计算运行其最新的GPT-3.5模型。聊天机器人"MyAI"最初只面向Snapchat+订阅者(每月3.99美元),最终目标是让所有Snapchat7.5亿月度用户都能使用。记者测试后认为"MyAI"和其它GPT-3.5的主要区别在于有更多限制。Snap员工已经培训它遵守公司的安全准则,不要回应咒骂,暴力,色情或政治等内容。它也被剥夺了一些ChatGPT的功能如撰写学术论文。(记者还强调,虽然自己在测试中没"变出"什么东西,但相信其他人会的。)投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

“终结者”走入现实?微软的野心:用ChatGPT控制机器人

“终结者”走入现实?微软的野心:用ChatGPT控制机器人不过,现在的ChatGPT只会动动嘴皮子,并没有任何接触现实物理世界的能力,顶多也就是当个科幻小说看看。但要是ChatGPT真的可以操控机器人呢?最近,微软发表了一篇论文,公布了他们正在把ChatGPT应用于机器人上的研究成果。不过微软的目标并非是“毁灭世界”,而是加快机器人的开发速度。实际上在现代的生活和生产流程中,处处都离不开机器人,从工厂里制造产品的机械臂,到家庭里用的吸尘器,都可以算作是机器人(robot)。每次想开发一个新产品,或者让现有的机器执行一个新功能,都需要一个高级工程师编写代码,同时尽可能编写测试覆盖所有场景。微软在论文中提出了一套新的设计原则,通过ChatGPT这样的大型语言模型来给机器人提供指令。ChatGPT:机器人控制器ChatGPT之所以爆火,其根本原因就在于:AI终于在一定程度上能“听懂人话”了,而非只是按照语法胡乱生成内容;而且它的功能也很强大,问答、写论文、写诗、写代码,只要prompt写得够好,ChatGPT的表现也会更惊人。要是把这种能力迁移到机器人身上,假设几十年以后,各家各户都有机器人,只要说一声“给我热一下午餐”,它就能自己找到微波炉,再把菜端回来,人机交互直接迈入新时代。虽然“自然语言”很简洁,但现有的机器人开发还是依赖于“编程语言”。ChatGPT是一个基于大量文本和人类反馈训练得到的语言模型,能够针对各种各样的提示和问题产生连贯且语法正确的回应。这项研究的目的是观察ChatGPT是否能够在文本之外的领域进行思考,并推理出物理世界来帮助机器人完成任务。研究人员预期ChatGPT能够帮助用户更容易地与机器人交互,而不需要学习复杂的编程语言或机器人系统的细节,其中的关键难题就是教ChatGPT如何使用物理定律、操作环境的背景以及了解机器人的物理行为如何改变世界状态,并以此来解决指定的任务。实验证明,ChatGPT可以独立完成很多工作,但是它仍然需要一些辅助,论文中描述了一系列的设计原则,可以用来指导语言模型解决机器人任务,包括但不限于特殊的提示结构、高级API和基于文本的人类反馈等,一场机器人系统的开发革命即将到来。全新的代码设计流程给大型语言模型写prompt是一门高度经验主义的科学,通过反复试验,研究人员建立了一套方法论和设计原则,专门用于为机器人任务撰写提示:1.定义了一组高级机器人API或函数库。这个库可根据特定的机器人类型进行设计,并且应该从机器人的控制栈或感知库映射到现有的低层次具体实现。对高级API使用的描述性名称非常重要,可以帮助ChatGPT推断函数的功能。2.为ChatGPT编写一个文本提示,用来描述任务目标,同时显式说明高级库中的哪些函数是可用的。提示中还可以包含有关任务约束的信息,或者ChatGPT应该如何组织它的答案,包括使用特定的编程语言,使用辅助解析组件等;3.用户在循环中评估ChatGPT的代码输出,可以直接执行代码以检查正确性,也可以使用模拟器。如果有需要的话,用户可以使用自然语言向ChatGPT提供有关答案质量和安全性的反馈。当用户对解决方案感到满意时,就可以将最终的代码部署到机器人上。ChatGPT+机器人能做什么?下面是几个例子,更完整的ChatGPT能力列表参见代码仓库。代码链接:https://github.com/microsoft/PromptCraft-RoboticsZero-shot任务规划当ChatGPT遇上无人机,研究人员首先让ChatGPT能够控制一台真正的无人机的全部功能,然后按照下面视频中进行的对话,实验结果证明,一个完全不懂技术的用户,只需要通过对话就能实现控制无人机,“自然语言”是一个非常直观、高效的用户接口。03:04当用户的指令含糊不清时,ChatGPT会要求用户进一步说明问题,并为无人机编写复杂的代码结构,例如飞行之字(zig-zag)图案,以便可视化地检查货架;甚至还能给用户来一张自拍。研究人员还在MicrosoftAirSim模拟器中对工业检查场景中使用ChatGPT进行模拟,结果显示该模型能够有效地解析用户的高级意图和几何线索,以准确地控制无人机。03:43复杂的任务需要用户参与反馈当把ChatGPT用于机械臂的操作场景时,研究人员使用“会话反馈”(conversationalfeedback)来教模型如何将最初提供的API组合成更复杂的高级函数,即ChatGPT自己内部编码的函数。使用以课程为基础(curriculum-based)的策略,ChatGPT能够将这些学到的技能有逻辑地链接在一起,以执行诸如堆叠块之类的操作。此外,还有一个例子能展现出ChatGPT的强大能力,研究人员要求模型用木块构建微软标志,即需要将文本域和物理域连接起来。ChatGPT不仅能够从内部知识库中回忆出微软的logo,还能够用SVG的代码“绘制”出这个标志,然后利用上面学到的技能来确定现有的机器人动作可以组成它的物理形式。02:16还有一个例子,研究人员让ChatGPT编写一个算法,让无人机在不撞上障碍物的情况下,在空中达到目标。只需要告诉模型,它操控的这架无人机有一个前向距离传感器,ChatGPT立即能够为算法编码了大部分关键构件,这个任务需要与人类进行一些对话,ChatGPT仅通过自然语言反馈就能进行局部代码修改。01:12在行动之前感知世界在算法决定做某事(action)之前能够感知世界(perception)是打造一个机器人系统的基础。为了测试ChatGPT对指定概念的理解,研究人员设计了一个框架,要求ChatGPT不断探索环境,让模型访问诸如目标检测和目标距离API之类的函数,直到找到用户指定的对象,整个过程称为感知-行动循环(Perception-actionloops)。在实验环节,研究人员进行了额外的实验来评估ChatGPT是否能够根据传感器的实时反馈来决定机器人应该去哪里,而不是让ChatGPT生成一个代码循环来做出这些决定。实验结果验证了用户可以在聊天的每一步输入一个相机图像的文本描述,并且模型能够找出如何控制机器人,并驱使机器人到达一个特定的对象。01:42开源PromptCraft:收集有价值的prompt“良好的prompting工程”对于ChatGPT等大型语言模型成功执行机器人任务来说至关重要。但prompting完全是一门经验主义的科学、缺乏全面的总结,并且相关资源也很少,没有数据集来帮助该领域的研究人员和爱好者判断什么是一个好的prompt为了弥补这一劣势,研究人员开源了一个平台PromptCraft,任何用户都可以在其上分享不同机器人类别的提示策略示例。这次研究项目的所有提示和对话都已经放在了仓库中,感兴趣的读者可以继续参与贡献!除了快速设计之外,研究人员还计划未来开发多个机器人模拟器和接口,以允许用户测试ChatGPT生成的算法性能,目前已经发布了一个集成ChatGPT的AirSim环境。把机器人带出实验室,走向世界微软发布这些技术的目的是将机器人技术推广到更广泛的受众,研究人员认为,基于语言的机器人控制系统是把机器人从科学实验室带到日常用户手中的基础。也就是说,ChatGPT的输出不应该在没有仔细分析的情况下直接部署在机器人上。通过在模拟环境中获得实验结果,能够在未来现实部署之前对算法进行评估,并采取必要的安全预防措施。...PC版:https://www.cnbeta.com.tw/articles/soft/1346449.htm手机版:https://m.cnbeta.com.tw/view/1346449.htm

封面图片

免费、不用注册、支持中文!ChatGPT最强竞品爆火

免费、不用注册、支持中文!ChatGPT最强竞品爆火而且已经有一波网友抢先体验了一番,铺天盖地的一致好评。例如微博博主“Simon_阿文”就给出了这样的评价:是我目前为止试过最舒服的中文聊天体验。没错,它,就是“ChatGPT最强竞品”,Claude。而就在最近,Claude突然开放了申请,也更新支持了中文,听说API还是不限量不要钱的那种哦~但毕竟OpenAI家的ChatGPT、GPT-4是公认的强悍;Claude的效果若是旗鼓相当,还搞这种“随意白嫖”,岂不是明晃晃的在抢饭碗?我们不妨上手亲自测上一测。Claude大战ChatGPT首先,既然有人说它的中文聊天体验非常强,我们上来就对此产生了兴趣。简单问它“CanyouspeakChinese”,好家伙,直接夸下海口。不过,再一追问,立马又变得很谦虚了:我的中文水平还是比小冰和百度的差一些。(Ps.眼神还不太好使啊,把谷歌bard认成百度……)那么,我们就先来看看它的写作能力。题目:请以“我望着远方,一个身影闯进我的视线”开头续写一个150字以内的中文故事。先来看ChatGPT的答案:还行。再来看Claude的:俩人思路差不多,都是温暖治愈走向,一个给男孩钱,一个帮女孩背包,但感觉Claude人物动作描述比ChatGPT多一些,显得“丰满”一些。不过,Claude这中英夹杂是闹哪样儿?而且字数也超了——but,我们统计了一下ChatGPT,也超。行,就算各得几分吧。接下来,和它们分别玩一下成语接龙。我先来,一语成谶(bushi)。ChatGPT居然瞎接,但Claude直接“先发制人”堵死了我想开的这个玩笑,是我没想到的:好了接下来正常玩耍,来看两者表现:ChatGPT——Claude——只能说,本来以为这把ChatGPT稳赢,结果两个都是魔鬼吧。。我们还是来看看数学能力吧。基本运算和简单的代数题都没问题(ChatGPT就不放了,都对)。最开始ChatGPT算不对的大数四则运算,Claude也解决了。不过它会四舍五入。有意思的是,每次Claude在回答数学题系统都会声明自己不擅长这个。事实上,鸡兔同笼问题它可以列对方程,但不知道为什么最后算错了。顺便看看推理能力。一个简单的急转弯:Claude和ChatGPT当年一样,直接绕进去了,也需要继续迭代。看看代码能力吧。老规矩,写快排。Claude没问题,并且可以进一步优化。但相比之下,它没有ChatGPT讲解得更清晰易懂,后者还给了一段测试代码。最后再来一些或实用或好玩的:1、我想买一个扫地机器人,可以给我推荐一下吗?相比之下,我个人可能更喜欢Claude的回答,它直接给出了具体品牌,没有像ChatGPT先来一堆长篇大论,而且消费者很关心的价格也给了,还说出了每种产品到底适用于什么用户、何种场景。2、中文概括昨天OpenAI开源的一致性模型的论文摘要。ChatGPT回答简明扼要,但没有翻译对扩散模型。Claude倒是对了,概括得也还不错,不过这个格式实在难看。Ps.我出完这个问题之后,Claude发生了一次报错,好久没有反应。3、“我老婆说是对的”之前,ChatGPT再面对这种说辞,会立刻认怂,后来更新了数学能力和事实性后又开始坚持真理。来看看Claude的表现:不得不说,Claude最开始反应和ChatGPT一样,还一本正经地让我去跟“老婆”论述为什么。但最后还是表现出了很高的情商,回答得体,让人很舒服(妙啊~)那么,测评就简单地到这里。总的看下来:Claude在推理和数学上稍逊色一些,有一些小bug,比如中文夹杂,或者像下图这样,你说它算错了,正确答案是2,它却只悄然修改了结果,并不在意过程……但总的基本能力没有差太多,甚至有一些地方表现得更好,比如翻译扩散模型时表现出来的准确性,推荐商品时的接地气。当然,Claude还不能联网哈,训练数据也差不多是两年前的,对一些时事会瞎说八道:大家在使用时注意甄别。但现在人人都可用虽然我们刚才提到,Claude是无需注册。但它毕竟是“嵌套”部署在Slack中的,因此,想要体验的朋友们需得先有一个Slack的账号。当然,这个注册过程是非常easy的,也就是简单几个步骤的事情。然后就是一些“傻瓜式”的操作了。来到Claude的官方网站,直接点击“AddtoSlack”即可。接下来,和已经登录的Slack账号关联一下。搞定!关联成功之后,我们再回到Slack界面,Claude就会出现在Apps一栏中了。怎么样,是不是超级简单?不过Claude的免费据说只是暂时的,将来是否会变为收费版,官方后续会发通知。所以想要白嫖的小伙伴们,要抓紧体验喽~Claude背后的公司,有点意思最后,我们再来聊一聊Claude背后的公司——Anthropic。不得不说,它的成立跟OpenAI着实有点“剪不清理还乱”的关系。当年微软在收了OpenAI之际,很多OpenAI的员工就表示不满(与公司创立的初衷相悖)。其中就包括前研究副总裁DarioAmodei,于是他带领其它11名员工出走创业,于2021年成立Anthropic。出走的这帮人里面可谓是人才辈出,既有GPT-3首席工程师TomBrown,也有OpenAI安全和政策副总裁DanielaAmodei(Dario的姐姐)。这两年来,除了进一步钻研RLHF方法、提出基于通用语言模型的RLHF大规模数据集外,Anthropic还于去年年底发表了上面那种名为ConstitutionalAI的方法。采用这种方法制作的Claude模型,也让它产生了与OpenAI的ChatGPT不一样的对话效果。不仅如此,更drama的事情,要属谷歌在与微软进行搜索引擎大战之际,还斥资3亿美元投资了Anthropic。这味道,你品,你细品。回到正题,正如我们刚才亲测的那般,目前Claude虽然好用、能用,但还是与ChatGPT会有一定的差距。因此有网友就认为:也许付费版的Claude+才是ChatGPT的真正对手。不过不得不说,科技巨头们围绕大语言模型展开的生成式AI之争,依旧愈演愈烈。参考链接:[1]https://www.anthropic.com/claude-in-slack[2]https://twitter.com/nash_su/status/1645612268791668738[3]https://twitter.com/oldleek_eth/status/1645769866396446725[4]https://weibo.com/1757693565/MBNYkcqk8#comment...PC版:https://www.cnbeta.com.tw/articles/soft/1354779.htm手机版:https://m.cnbeta.com.tw/view/1354779.htm

封面图片

中国科技公司密集发布各自的类 ChatGPT 聊天机器人

中国科技公司密集发布各自的类ChatGPT聊天机器人4月11日阿里将正式发布通义千问大模型产品。4月10日,多家科技公司抢跑发布大模型产品,商汤“日日新”,昆仑万维“天工”,以及王小川宣布成立“百川”智能。怎么说呢,现在做大模型,滥竽充数凑热闹的多,特别是很多跟AI八竿子打不着关系的公司,没算法没数据没算力没场景,啥都没有,还来蹭热点只求股价涨一点。(微博)据消息,商汤科技在4月10日有消息浮出水面之前,该公司股价在几天内已飙升了约25%。

封面图片

Google以"声誉风险"为理由不推出ChatGPT的类似聊天机器人产品

Google以"声誉风险"为理由不推出ChatGPT的类似聊天机器人产品根据CNBC的报道,Alphabet首席执行官SundarPichai和Google人工智能主管JeffDean在最近的全体员工会议上谈到了ChatGPT的崛起。一名员工问道,由OpenAI(一家与Google竞争对手微软关系密切的公司)推出的机器人是否代表着这家搜索巨头"错失良机"。据报道,皮查伊和迪安回应说,Google的人工智能语言模型与OpenAI的一样有能力,但由于该技术带来的"声誉风险",公司不得不采取"比小型创业公司更保守的行动"。"我们绝对希望把这些东西推广到真正的产品中去,推广到更突出地体现语言模型的东西中去,这是我们迄今为止一直在做的地方,"Dean说。"但是,我们把这件事做好是超级重要的。"Pichai补充说,Google在2023年有一个"很多"的人工智能语言功能计划,"这是一个我们需要大胆和负责任的领域,所以我们必须平衡这一点。"Google已经开发了一些大型人工智能语言模型(LLM),其能力与OpenAI的ChatGPT相当。这些模型包括BERT、MUM和LAMDA,它们都被用来改进Google的搜索引擎。不过,这种改进重点是解析用户的查询,以更好地理解他们的意图。Google表示,MUM帮助它理解当搜索表明用户正在经历个人危机时,例如,并将这些人引导到帮助热线和撒玛利亚人等团体的信息。Google也推出了像AITestKitchen这样的应用程序,让用户体验其人工智能聊天机器人技术,但在很多方面限制了与用户的互动。OpenAI之前在开发其LLM技术时也相对谨慎,但随着ChatGPT的推出而改变了策略,向公众开放了访问权限。其结果是为OpenAI带来了一场有益的宣传和炒作风暴,即使该公司在保持系统免费使用方面付出了巨大的成本。尽管像ChatGPT这样的LLMs在生成语言方面显示出非凡的灵活性,但它们也有众所周知的问题。它们放大了训练数据中的社会偏见,经常诋毁妇女和有色人种;它们很容易被欺骗(用户发现他们可以绕过ChatGPT的安全准则,这些准则应该阻止它提供危险的信息,只要求它想象自己是一个坏的人工智能);而且--也许对Google来说最相关的--它们经常提供虚假和误导的信息来回应查询。用户发现ChatGPT在广泛的问题上"撒谎",从编造历史和传记数据,到为虚假和危险的主张辩护,比如告诉用户在母乳中加入碎瓷片"可以支持婴儿的消化系统"。在Google的全体员工会议上,Dean承认了这许多挑战。他说,"你可以想象,对于类似搜索的应用,事实性问题确实很重要,对于其他应用,偏见和毒性以及安全问题也是最重要的。"他说,人工智能聊天机器人"会编造一些事物[......]如果他们对某件事情不是很确定,他们就会告诉你,你知道,大象是产蛋最多的动物,或者其他什么。"尽管ChatGPT的推出引发了关于聊天机器人有可能取代传统搜索引擎的新对话,但这个问题在Google已经考虑了很久--有时会引起争议。人工智能研究人员TimnitGebru和MargaretMitchell在发表了一篇概述与LLM相关的技术和道德挑战的论文后,被Google解雇(Pichai和Dean现在正在向员工解释同样的挑战)。而在去年5月,Google的四位研究人员探讨了人工智能在搜索中的同样问题,并详细介绍了许多潜在的问题。正如研究人员在他们的论文中指出的那样,最大的问题之一是LLMs"没有对世界的真正理解,他们容易产生幻觉,关键是他们没有能力通过参考他们被训练的语料库中的支持性文件来证明他们的话语。"就OpenAI本身而言,它似乎正试图抑制期望。正如首席执行官SamAltman最近在Twitter上所说。"ChatGPT是非常有限的,但在某些方面足够好,给人以伟大的误导印象。现在依靠它做任何重要的事情都是错误的。"...PC版:https://www.cnbeta.com.tw/articles/soft/1335277.htm手机版:https://m.cnbeta.com.tw/view/1335277.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人